Gość (37.30.*.*)
Coraz częściej słyszymy o przypadkach, w których strony postępowań sądowych – a czasem nawet sami pełnomocnicy – pojawiają się na sali rozpraw z pismami przygotowanymi przez sztuczną inteligencję. Choć technologia ta rozwija się w zawrotnym tempie, jej mariaż z wymiarem sprawiedliwości bywa bolesny. Zjawisko to wynika z połączenia kilku czynników: od czysto ekonomicznych, po brak zrozumienia tego, jak właściwie działają duże modele językowe (LLM), takie jak ChatGPT.
Głównym powodem, dla którego ludzie zwracają się do AI zamiast do kancelarii adwokackiej, są koszty. Profesjonalna porada prawna, analiza dokumentów i sporządzenie pozwu czy odpowiedzi na pozew to wydatek rzędu kilkuset, a często kilku tysięcy złotych. Dla wielu osób, zwłaszcza w sprawach o mniejszej wadze finansowej, jest to bariera nie do przejścia. AI oferuje „pomoc” natychmiastową i, w podstawowych wersjach, całkowicie darmową.
Kolejnym aspektem jest dostępność. Adwokat pracuje w określonych godzinach, wymaga umówienia wizyty i często posługuje się językiem, który dla laika jest niezrozumiały. Sztuczna inteligencja odpowiada w kilka sekund, o drugiej w nocy, i robi to językiem, który wydaje się bardzo profesjonalny, a jednocześnie przystępny. To buduje złudne poczucie bezpieczeństwa i kompetencji narzędzia.
Warto też wspomnieć o barierze psychologicznej. Przyznanie się do problemów prawnych, długów czy błędów przed drugim człowiekiem bywa stresujące. Rozmowa z botem jest anonimowa, co sprawia, że użytkownicy czują się swobodniej, zadając pytania, które mogłyby wydać im się „głupie” w obecności profesjonalisty.
Największym problemem korzystania z AI w prawie jest zjawisko tzw. halucynacji. Dochodzi do nich wtedy, gdy model językowy generuje informacje, które brzmią bardzo wiarygodnie, ale są całkowicie nieprawdziwe. Właśnie w ten sposób w pismach procesowych pojawiają się sygnatury nieistniejących akt, wymyślone uchwały Sądu Najwyższego czy cytaty z uzasadnień, które nigdy nie zostały napisane.
Dlaczego tak się dzieje? Trzeba zrozumieć, że AI nie jest bazą danych ani wyszukiwarką prawniczą taką jak Lex czy Legalis. Modele LLM to zaawansowane systemy przewidywania kolejnych słów w zdaniu. Uczą się one na ogromnych zbiorach tekstów i na ich podstawie budują statystyczne prawdopodobieństwo tego, jakie słowo powinno nastąpić po poprzednim.
Jeśli użytkownik poprosi AI o znalezienie uchwały Sądu Najwyższego potwierdzającej konkretną tezę, algorytm „chce” spełnić to polecenie. Jeśli w jego danych treningowych nie ma idealnie pasującego wyroku, może on „skonstruować” nowy, łącząc fragmenty różnych autentycznych orzeczeń, nazwiska sędziów i formaty sygnatur, które widział tysiące razy. Wynik wygląda perfekcyjnie: ma odpowiedni numer (np. III CZP 12/23), datę i brzmi jak profesjonalny żargon prawniczy. Problem polega na tym, że taka uchwała fizycznie nie istnieje.
Świat obiegła historia amerykańskiego prawnika, Stevena Schwartza, który użył ChatGPT do przygotowania pisma procesowego. AI wygenerowało sześć spraw precedensowych, które nie istniały. Prawnik, ufając technologii, przedłożył pismo w sądzie. Skończyło się to nie tylko kompromitacją, ale i dotkliwymi karami finansowymi oraz postępowaniem dyscyplinarnym.
W Polsce również odnotowuje się próby składania pism, w których argumentacja opiera się na nieistniejących przepisach lub błędnie zinterpretowanych orzeczeniach. Sędziowie, którzy mają obowiązek znać prawo i weryfikować przywoływane źródła, szybko wyłapują takie błędy. Dla strony procesowej skutki mogą być opłakane:
Mimo tych zagrożeń, sztuczna inteligencja nie jest całkowicie bezużyteczna w świecie paragrafów. Może służyć do:
Ciekawostką jest fakt, że powstają już specjalistyczne modele AI trenowane wyłącznie na zweryfikowanych bazach aktów prawnych i orzecznictwa. Są one znacznie bezpieczniejsze, ponieważ ich „świat” ograniczony jest do faktycznie istniejących dokumentów, co minimalizuje ryzyko halucynacji. Jednak dopóki korzystamy z ogólnodostępnych, darmowych czatów, ryzyko powołania się na „ducha” uchwały Sądu Najwyższego pozostaje ogromne. Prawo to dziedzina, w której liczy się każde słowo i przecinek – AI na razie radzi sobie z nimi świetnie, ale z logiką i prawdą bywa u niej na bakier.