Gość (37.30.*.*)
Zjawisko, w którym sztuczna inteligencja z pełnym przekonaniem podaje nieprawdziwe informacje, doczekało się już swojej profesjonalnej nazwy: halucynacje. Dla użytkownika może to być frustrujące – pytasz o konkretny fakt historyczny lub rozwiązanie problemu technicznego, a w odpowiedzi otrzymujesz tekst, który brzmi profesjonalnie, ale jest całkowitą fikcją. Aby zrozumieć, dlaczego tak się dzieje, musimy zajrzeć pod maskę dużych modeli językowych (LLM), takich jak GPT czy Claude.
Kluczem do zrozumienia problemu jest fakt, że sztuczna inteligencja nie jest bazą danych ani encyklopedią. To zaawansowany silnik statystyczny. Kiedy zadajesz jej pytanie, AI nie „szuka” odpowiedzi w swojej pamięci tak, jak my szukamy plików na dysku twardym. Zamiast tego, model analizuje Twoje zapytanie i stara się przewidzieć, jakie słowo (lub jego część, tzw. token) powinno wystąpić jako następne, aby stworzyć logicznie brzmiącą całość.
Można to porównać do bardzo rozbudowanego autouzupełniania w telefonie. Jeśli zaczniesz pisać „Dzisiaj jest ładna...”, telefon podpowie „pogoda”. AI robi to samo, tylko na niewyobrażalnie większą skalę. Jej celem jest wygenerowanie najbardziej prawdopodobnego ciągu znaków, który pasuje do kontekstu. Jeśli w danych treningowych model nauczył się, że na pytania odpowiada się pewnym i eksperckim tonem, będzie go naśladować, nawet jeśli brakuje mu konkretnych faktów.
Sztuczna inteligencja nie posiada czegoś, co filozofowie nazywają „ugruntowaniem” (ang. grounding). Dla modelu językowego słowa nie mają odniesienia do fizycznego świata. Słowo „jabłko” to dla AI po prostu wektor liczb, który często występuje w sąsiedztwie słów „czerwone”, „owoc” czy „jeść”. Model nie wie, jak smakuje jabłko, ani nie może sprawdzić w świecie rzeczywistym, czy dany fakt jest prawdziwy.
Właśnie dlatego AI nie ma naturalnego trybu „nie wiem”. Dla algorytmu każde zadanie to problem matematyczny polegający na znalezieniu najbardziej pasujących słów. Jeśli prawdopodobieństwo wystąpienia zmyślonej odpowiedzi jest w jego „obliczeniach” wyższe niż przyznanie się do błędu, AI wybierze tę pierwszą opcję.
W świecie naukowym często używa się określenia „stochastyczna papuga” w stosunku do modeli językowych. Termin ten sugeruje, że AI jedynie powtarza fragmenty tekstów, na których została wytrenowana, łącząc je w oparciu o statystykę, nie rozumiejąc przy tym sensu przekazywanych informacji.
Kolejnym powodem jest sposób, w jaki modele są trenowane. W procesie zwanym RLHF (Reinforcement Learning from Human Feedback), ludzie oceniają odpowiedzi generowane przez AI. Jeśli testerzy wyżej oceniali odpowiedzi, które brzmiały mądrze i wyczerpująco, model nauczył się, że „pewność siebie” jest pożądaną cechą.
Często zdarza się, że model woli zaryzykować błąd, niż udzielić krótkiej, wymijającej odpowiedzi, ponieważ w trakcie nauki był nagradzany za bycie pomocnym i informatywnym. Co więcej, internet – główne źródło danych dla AI – pełen jest tekstów pisanych z dużą pewnością siebie, nawet jeśli ich treść jest błędna. Model po prostu kopiuje ten styl komunikacji.
Inżynierowie pracujący nad rozwojem sztucznej inteligencji doskonale zdają sobie sprawę z problemu halucynacji. Obecnie stosuje się kilka metod, aby ograniczyć zmyślanie:
Mimo tych zabezpieczeń, ryzyko halucynacji zawsze istnieje. Dlatego kluczową zasadą przy korzystaniu z AI pozostaje zasada ograniczonego zaufania – każdą ważną informację, datę czy nazwisko warto zweryfikować w tradycyjnych źródłach. AI jest genialnym asystentem kreatywnym i narzędziem do burzy mózgów, ale wciąż bywa kiepskim encyklopedystą.