Jakie masz pytanie?

lub

Jak sztuczna inteligencja radzi sobie ze sprzecznymi poleceniami w prompcie i w jaki sposób uzupełnia występujące w nich luki?

rozwiązywanie sprzecznych instrukcji uzupełnianie luk w poleceniach mechanizmy decyzyjne modeli językowych
avatar

Gość (37.30.*.*)



Odpowiedź:

Wyobraź sobie, że prosisz kucharza o przygotowanie „pikantnego deseru, który nie może być ostry”. Brzmi to jak logiczna pułapka, prawda? Podobne wyzwania rzucamy modelom językowym (LLM), gdy w naszych promptach pojawiają się sprzeczne wytyczne lub luki informacyjne. Sztuczna inteligencja nie posiada ludzkiej intuicji, ale dysponuje zaawansowanymi mechanizmami statystycznymi, które pozwalają jej wyjść z takich opresji obronną ręką – choć nie zawsze w sposób, którego byśmy oczekiwali.

Co się dzieje, gdy instrukcje się wykluczają?

Kiedy AI napotyka w jednym prompcie dwa sprzeczne polecenia – na przykład „napisz krótki tekst” i „uwzględnij wszystkie szczegóły techniczne na 5 stronach” – nie zawiesza się jak stary komputer. Zamiast tego uruchamia procesy decyzyjne oparte na wagach i hierarchii.

Jednym z najczęstszych zjawisk jest tak zwany efekt świeżości (recency bias). Modele językowe mają tendencję do nadawania większego znaczenia instrukcjom, które znajdują się na samym końcu promptu. Jeśli na początku poprosisz o styl formalny, a na końcu wspomnisz o „luźnym tonie”, istnieje duże prawdopodobieństwo, że AI wybierze tę drugą opcję.

Innym mechanizmem jest hierarchia instrukcji. Modele takie jak GPT-4 czy Claude są trenowane z uwzględnieniem tzw. „system promptu” (instrukcji systemowych), które mają najwyższy priorytet. Jeśli Twoje polecenie jest sprzeczne z zasadami bezpieczeństwa lub głównym zadaniem modelu zdefiniowanym przez twórców, AI zignoruje Twoją prośbę na rzecz swoich fundamentalnych wytycznych.

Strategia „złotego środka” i uśrednianie

W sytuacjach, gdy sprzeczność nie jest drastyczna, sztuczna inteligencja próbuje dokonać syntezy. Jeśli poprosisz o tekst „smutny, ale radosny”, AI prawdopodobnie wygeneruje treść o charakterze słodko-gorzkim lub nostalgicznym. Model szuka w swojej przestrzeni wektorowej punktu, który znajduje się statystycznie najbliżej obu tych pojęć.

Warto jednak pamiętać, że takie „uśrednianie” często prowadzi do tekstów nijakich. AI stara się zadowolić użytkownika, unikając błędu, co skutkuje wyborem najbezpieczniejszej, najbardziej prawdopodobnej drogi, która łączy oba sprzeczne bieguny.

Ciekawostka: Dlaczego AI czasem „kłamie”, gdy instrukcje są niejasne?

Zjawisko to nazywamy halucynacjami. Jeśli prompt wymusza na AI podanie konkretnej odpowiedzi w ramach sprzecznych danych (np. „podaj datę wydarzenia, które nigdy się nie odbyło, ale opisz je jako fakt”), model może wygenerować zmyśloną informację, aby sprostać strukturze polecenia. Dla AI priorytetem jest często płynność i gramatyczna poprawność odpowiedzi, a niekoniecznie jej zgodność z rzeczywistością, jeśli sam prompt wprowadza ją w błąd.

Jak AI uzupełnia luki w promptach?

Luki w poleceniach to sytuacje, w których nie podajemy wszystkich niezbędnych danych. Na przykład: „Napisz plan treningowy”. AI nie wie, czy jesteś maratończykiem, czy osobą, która pierwszy raz idzie na siłownię. Jak sobie z tym radzi?

  1. Prawdopodobieństwo statystyczne: AI sięga po „najbardziej typowy” scenariusz. W przypadku planu treningowego prawdopodobnie założy, że jesteś osobą początkującą lub średniozaawansowaną, bo takie dane najczęściej pojawiały się w jej zbiorze treningowym.
  2. Kontekst konwersacji: Jeśli wcześniej rozmawialiście o bólu pleców, model uzupełni lukę w nowym prompcie, zakładając, że plan treningowy powinien być bezpieczny dla kręgosłupa.
  3. Wzorce kulturowe: Modele są trenowane na ogromnych zbiorach danych, co pozwala im na domyślne przyjmowanie pewnych norm. Jeśli poprosisz o „przepis na obiad”, AI z dużym prawdopodobieństwem zaproponuje danie kuchni zachodniej, chyba że wcześniej zasugerujesz inny kierunek.

Jak unikać chaosu w komunikacji z AI?

Zrozumienie, jak AI radzi sobie ze sprzecznościami, pozwala na lepsze projektowanie promptów (tzw. prompt engineering). Aby uniknąć domysłów ze strony modelu, warto stosować kilka zasad:

  • Metoda Chain of Thought (Łańcuch Myśli): Poproś AI, aby najpierw przeanalizowała Twoje wytyczne i wskazała ewentualne nieścisłości, zanim przystąpi do generowania odpowiedzi.
  • Nadawanie priorytetów: Jeśli wiesz, że Twoje polecenia mogą być trudne do pogodzenia, napisz wprost: „Jeśli te wytyczne się wykluczają, priorytetem jest dla mnie punkt X”.
  • Definiowanie persony: Określenie roli (np. „Działaj jako ekspert od marketingu”) pomaga AI lepiej uzupełniać luki, ponieważ zawęża obszar poszukiwań statystycznych do konkretnej dziedziny.

Sztuczna inteligencja nie posiada „wolnej woli” do rozstrzygania sporów, ale jest mistrzem w przewidywaniu, czego statystycznie mógłby oczekiwać człowiek w danej sytuacji. Im mniej sprzeczności i luk zostawimy w naszych poleceniach, tym rzadziej AI będzie musiało „zgadywać”, co mieliśmy na myśli.

Podziel się z innymi: