Gość (37.30.*.*)
Zjawisko, w którym sztuczna inteligencja z pełnym przekonaniem podaje nieprawdziwe informacje, nazywamy potocznie „halucynowaniem”. Choć może to brzmieć jak błąd w kodzie, w rzeczywistości wynika to bezpośrednio z samej natury działania dużych modeli językowych (LLM). AI nie jest encyklopedią ani bazą danych, do której wysyłamy zapytanie, by otrzymać konkretny plik. To zaawansowany system statystyczny, którego głównym zadaniem jest przewidywanie kolejnego słowa w zdaniu.
Aby zrozumieć, dlaczego AI zmyśla, musimy uświadomić sobie, że modele takie jak GPT czy Claude nie „wiedzą” niczego w ludzkim znaczeniu tego słowa. Podczas procesu trenowania analizują one gigantyczne ilości tekstu, ucząc się korelacji między słowami i frazami. Kiedy zadajesz pytanie, model nie przeszukuje wewnętrznego archiwum faktów. Zamiast tego oblicza prawdopodobieństwo: jakie słowo powinno wystąpić po poprzednim, aby odpowiedź brzmiała logicznie, gramatycznie i była zgodna z kontekstem pytania.
Problem pojawia się wtedy, gdy w danych treningowych brakuje konkretnej informacji. Model, zaprogramowany do bycia pomocnym i udzielania odpowiedzi, nie „chce” zostawić użytkownika z niczym. Zaczyna więc składać fragmenty informacji, które statystycznie do siebie pasują, tworząc bardzo przekonująco brzmiącą, ale całkowicie fałszywą treść.
Jednym z kluczowych powodów konfabulacji jest sposób, w jaki AI jest dostrajane (proces nazywany RLHF – Reinforcement Learning from Human Feedback). Ludzie oceniający odpowiedzi AI zazwyczaj wyżej punktują te, które są wyczerpujące i bezpośrednie. To sprawia, że modele mają tendencję do unikania odpowiedzi „nie wiem”.
W efekcie, jeśli zapytasz o nieistniejącą książkę znanego autora, AI może „pomyśleć”: „Skoro ten autor pisze kryminały osadzone w Warszawie, a pytanie brzmi bardzo konkretnie, to prawdopodobnie kolejna część mogłaby się nazywać tak i tak”. Model generuje tytuł i opis, które brzmią idealnie, ponieważ opierają się na stylu i schematach znanych z prawdziwej twórczości tego pisarza.
Eksperci wolą termin „halucynacje” lub „konfabulacje”, ponieważ kłamstwo wymaga intencji. AI nie ma świadomości ani celu, by kogokolwiek wprowadzić w błąd. Ona po prostu wykonuje swoje zadanie matematyczne – generuje najbardziej prawdopodobny ciąg znaków.
Większość modeli językowych działa w trybie „offline” w stosunku do swoich bazowych parametrów. Oznacza to, że ich wiedza kończy się na momencie zamknięcia zbioru treningowego. Jeśli model nie ma dostępu do internetu (narzędzi przeglądania sieci), nie może sprawdzić, czy to, co właśnie wygenerował, jest prawdą. Dla algorytmu zdanie „Mieszko I przyjął chrzest w 966 roku” ma taką samą strukturę i wagę prawdopodobieństwa jak „Mieszko I przyjął chrzest w 970 roku”, jeśli w danych treningowych pojawiłyby się sprzeczne informacje lub szum.
Choć twórcy AI pracują nad tym, by modele częściej przyznawały się do niewiedzy, użytkownicy również mogą wpłynąć na jakość odpowiedzi. Oto kilka sposobów:
Sztuczna inteligencja kompensuje braki w wiedzy, ponieważ jej fundamentem jest płynność językowa, a nie logiczne rozumowanie oparte na faktach. To potężne narzędzie, które potrafi pisać wiersze i kodować, ale wciąż brakuje mu mechanizmu „zdrowego rozsądku”, który pozwoliłby mu zatrzymać się w momencie, gdy kończą się twarde dane.