Gość (37.30.*.*)
Wyobraź sobie, że prosisz kucharza o przygotowanie „pikantnego deseru, który nie może być ostry”. Brzmi to jak logiczna pułapka, prawda? Podobne wyzwania rzucamy modelom językowym (LLM), gdy w naszych promptach pojawiają się sprzeczne wytyczne lub luki informacyjne. Sztuczna inteligencja nie posiada ludzkiej intuicji, ale dysponuje zaawansowanymi mechanizmami statystycznymi, które pozwalają jej wyjść z takich opresji obronną ręką – choć nie zawsze w sposób, którego byśmy oczekiwali.
Kiedy AI napotyka w jednym prompcie dwa sprzeczne polecenia – na przykład „napisz krótki tekst” i „uwzględnij wszystkie szczegóły techniczne na 5 stronach” – nie zawiesza się jak stary komputer. Zamiast tego uruchamia procesy decyzyjne oparte na wagach i hierarchii.
Jednym z najczęstszych zjawisk jest tak zwany efekt świeżości (recency bias). Modele językowe mają tendencję do nadawania większego znaczenia instrukcjom, które znajdują się na samym końcu promptu. Jeśli na początku poprosisz o styl formalny, a na końcu wspomnisz o „luźnym tonie”, istnieje duże prawdopodobieństwo, że AI wybierze tę drugą opcję.
Innym mechanizmem jest hierarchia instrukcji. Modele takie jak GPT-4 czy Claude są trenowane z uwzględnieniem tzw. „system promptu” (instrukcji systemowych), które mają najwyższy priorytet. Jeśli Twoje polecenie jest sprzeczne z zasadami bezpieczeństwa lub głównym zadaniem modelu zdefiniowanym przez twórców, AI zignoruje Twoją prośbę na rzecz swoich fundamentalnych wytycznych.
W sytuacjach, gdy sprzeczność nie jest drastyczna, sztuczna inteligencja próbuje dokonać syntezy. Jeśli poprosisz o tekst „smutny, ale radosny”, AI prawdopodobnie wygeneruje treść o charakterze słodko-gorzkim lub nostalgicznym. Model szuka w swojej przestrzeni wektorowej punktu, który znajduje się statystycznie najbliżej obu tych pojęć.
Warto jednak pamiętać, że takie „uśrednianie” często prowadzi do tekstów nijakich. AI stara się zadowolić użytkownika, unikając błędu, co skutkuje wyborem najbezpieczniejszej, najbardziej prawdopodobnej drogi, która łączy oba sprzeczne bieguny.
Zjawisko to nazywamy halucynacjami. Jeśli prompt wymusza na AI podanie konkretnej odpowiedzi w ramach sprzecznych danych (np. „podaj datę wydarzenia, które nigdy się nie odbyło, ale opisz je jako fakt”), model może wygenerować zmyśloną informację, aby sprostać strukturze polecenia. Dla AI priorytetem jest często płynność i gramatyczna poprawność odpowiedzi, a niekoniecznie jej zgodność z rzeczywistością, jeśli sam prompt wprowadza ją w błąd.
Luki w poleceniach to sytuacje, w których nie podajemy wszystkich niezbędnych danych. Na przykład: „Napisz plan treningowy”. AI nie wie, czy jesteś maratończykiem, czy osobą, która pierwszy raz idzie na siłownię. Jak sobie z tym radzi?
Zrozumienie, jak AI radzi sobie ze sprzecznościami, pozwala na lepsze projektowanie promptów (tzw. prompt engineering). Aby uniknąć domysłów ze strony modelu, warto stosować kilka zasad:
Sztuczna inteligencja nie posiada „wolnej woli” do rozstrzygania sporów, ale jest mistrzem w przewidywaniu, czego statystycznie mógłby oczekiwać człowiek w danej sytuacji. Im mniej sprzeczności i luk zostawimy w naszych poleceniach, tym rzadziej AI będzie musiało „zgadywać”, co mieliśmy na myśli.