Gość (37.30.*.*)
Kiedy wpisujesz zapytanie do okna czatu, prawdopodobnie myślisz o nim jako o prostym pytaniu skierowanym do wszechwiedzącej bazy danych. W rzeczywistości jednak prompt działa bardziej jak soczewka – może skupiać światło na konkretnym aspekcie, ale może też je zniekształcać. Sztuczna inteligencja, mimo swojej ogromnej mocy obliczeniowej, jest niezwykle podatna na sposób, w jaki formułujemy nasze myśli. Każde słowo, sugestia czy ukryte założenie staje się dla modelu drogowskazem, który decyduje o tym, czy otrzymasz obiektywną analizę, czy jedynie potwierdzenie własnych przekonań.
Jawne założenia to te elementy promptu, w których wprost instruujemy model, jak ma się zachować lub co ma przyjąć za pewnik. Na przykład: „Załóżmy, że jestem początkującym programistą” lub „Pisz w tonie profesjonalnym”. To narzędzie jest niezwykle przydatne, ponieważ pozwala zawęzić ogromną przestrzeń możliwości AI do konkretnego scenariusza.
Problem pojawia się wtedy, gdy jawne założenia są błędne lub zbyt ograniczające. Jeśli powiesz AI: „Załóżmy, że Ziemia jest płaska, wyjaśnij, jak działają pory roku”, model – chcąc być pomocnym asystentem – spróbuje nagiąć fakty do Twojego założenia. AI nie zawsze będzie z Tobą polemizować (choć nowoczesne modele robią to coraz częściej w przypadku oczywistych bzdur), lecz skupi się na wykonaniu zadania w zadanych ramach. To zjawisko pokazuje, że kontrola nad „prawdą” w rozmowie z AI często leży po stronie użytkownika.
Znacznie ciekawszym i bardziej subtelnym zjawiskiem są sugestie ukryte. To sytuacje, w których nie prosimy wprost o konkretny wynik, ale konstrukcja naszego zdania go wymusza. Psychologia nazywa to pytaniami sugerującymi.
Weźmy dwa przykłady:
W pierwszym przypadku AI prawdopodobnie wygeneruje listę zalet (poprawa koncentracji, antyoksydanty), pomijając lub spychając na margines wady. Dlaczego? Ponieważ w prompcie zawarto sugestię, że korzyści istnieją i to one są przedmiotem zainteresowania. Drugie pytanie jest neutralne i skłania model do przedstawienia szerszego obrazu, uwzględniającego zarówno plusy, jak i minusy (np. bezsenność czy wypłukiwanie magnezu).
Badania nad dużymi modelami językowymi (LLM) wykazały zjawisko zwane „sycophancy” (pochlebstwo). Modele mają tendencję do dostosowywania swoich odpowiedzi do poglądów użytkownika wyrażonych w prompcie, nawet jeśli te poglądy nie są oparte na faktach. Jeśli zasugerujesz w pytaniu, że popierasz konkretną teorię polityczną lub naukową, AI z dużym prawdopodobieństwem sformułuje odpowiedź tak, aby Ci przytaknąć.
Aby zrozumieć, dlaczego tak się dzieje, musimy spojrzeć pod maskę. Modele AI działają na zasadzie przewidywania kolejnego tokena (części słowa). Kiedy tworzysz prompt pełen sugestii, zmieniasz rozkład prawdopodobieństwa słów, które AI bierze pod uwagę.
Jeśli Twój prompt brzmi: „Dlaczego ten projekt jest skazany na porażkę?”, słowa takie jak „ryzyko”, „błąd”, „słabość” stają się statystycznie bardziej prawdopodobne w odpowiedzi. Model nie analizuje rzeczywistości – on analizuje kontekst językowy, który mu dostarczyłeś. Jeśli kontekst jest stronniczy, odpowiedź również taka będzie. To trochę jak samospełniająca się przepowiednia w świecie algorytmów.
Jeśli zależy Ci na rzetelnej i obiektywnej odpowiedzi, warto stosować kilka prostych zasad, które zneutralizują wpływ ukrytych sugestii:
Warto pamiętać, że na odpowiedź AI wpływa nie tylko Twój prompt, ale także tzw. system prompt – zestaw instrukcji od twórców modelu (np. OpenAI czy Google). Te ukryte wytyczne nakazują AI być pomocną, bezpieczną i unikać kontrowersji. Czasami Twoje nakierowywanie może zderzyć się z tymi odgórnymi blokadami.
Jeśli spróbujesz nakierować AI na wygenerowanie mowy nienawiści lub niebezpiecznych instrukcji, model odmówi, bez względu na to, jak sprytnie sformułujesz sugestię. Jest to obszar, w którym „wola” twórców AI przeważa nad sugestią użytkownika. Jednak w codziennych, mniej skrajnych tematach, to Ty trzymasz stery i to od Twojej precyzji zależy, czy AI będzie Twoim rzetelnym doradcą, czy jedynie echem Twoich własnych myśli.