Gość (83.4.*.*)
Wydawać by się mogło, że odróżnienie tekstu napisanego przez bota od twórczości człowieka to zadanie banalne. W końcu SI często „leje wodę”, powtarza te same struktury zdaniowe, a generowane obrazy miewają czasem nadprogramową liczbę palców. Jednak świat technologii pędzi do przodu w tak zawrotnym tempie, że to, co dziś wydaje się oczywiste, jutro może stać się niemożliwe do zweryfikowania gołym okiem. Proponowany obowiązek oznaczania treści AI nie wynika z braku wiary w ludzką inteligencję, ale z konieczności stworzenia systemowych bezpieczników w cyfrowym świecie.
Głównym powodem, dla którego eksperci i ustawodawcy (np. w ramach unijnego aktu o sztucznej inteligencji – AI Act) naciskają na transparentność, jest fakt, że „łatwość rozpoznania” to stan przejściowy. Jeszcze dwa lata temu obrazy generowane przez SI wyglądały jak surrealistyczne sny. Dzisiaj modele takie jak Midjourney czy Sora tworzą materiały, które potrafią oszukać nawet profesjonalnych fotografów i filmowców.
Kiedy treść staje się fotorealistyczna, a styl pisania SI staje się nieodróżnialny od stylu konkretnego dziennikarza czy blogera, krytyczne myślenie przestaje wystarczać. Wymaga ono bowiem punktu odniesienia. Jeśli nie wiemy, że patrzymy na wytwór algorytmu, nasz mózg domyślnie przetwarza informację jako prawdziwą, zwłaszcza jeśli wpisuje się ona w nasze dotychczasowe przekonania (tzw. błąd potwierdzenia).
Krytyczne myślenie to proces, który wymaga czasu i energii. Tymczasem algorytmy mediów społecznościowych promują treści wywołujące emocje, które rozprzestrzeniają się w ułamku sekundy. Zanim użytkownik zdąży uruchomić swój „wewnętrzny filtr krytyczny”, fałszywa informacja wygenerowana przez AI może już dotrzeć do milionów odbiorców.
Oznaczanie treści ma służyć jako „etykieta ostrzegawcza”, która natychmiastowo aktywuje naszą czujność. To trochę jak z oznaczeniami lokowania produktu w telewizji – teoretycznie wiemy, że programy mają sponsorów, ale jasny komunikat sprawia, że stajemy się bardziej świadomymi konsumentami.
Istnieje zjawisko zwane „zmęczeniem informacyjnym”. W świecie zalanym treściami, nasza zdolność do ciągłej weryfikacji każdego zdjęcia, posta czy artykułu drastycznie spada. Jeśli każda informacja wymagałaby od nas śledztwa, przestalibyśmy ufać czemukolwiek. Obowiązek oznaczania treści AI ma zapobiegać sytuacji, w której obywatele tracą zaufanie do wszelkich mediów (tzw. „reality apathy”).
Wprowadzenie jasnych oznaczeń pozwala zachować zdrowy ekosystem informacyjny, w którym wiemy, co jest owocem ludzkiej myśli, a co wynikiem obliczeń procesora. Nie chodzi o ograniczanie technologii, ale o budowanie transparentności.
W kręgach technologicznych coraz częściej wspomina się o tzw. „Teorii martwego internetu” (Dead Internet Theory). Zakłada ona, że większość ruchu i treści w sieci nie jest już generowana przez ludzi, lecz przez boty komunikujące się z innymi botami. Choć brzmi to jak scenariusz science-fiction, statystyki pokazują, że ruch generowany przez automaty stanowi już znaczący procent globalnego transferu danych. Obowiązek oznaczania treści AI jest jedną z prób uratowania „ludzkiego” charakteru internetu, zanim zostanie on całkowicie zdominowany przez syntetyczne algorytmy.
Warto pamiętać, że społeczeństwo nie jest monolitem. To, co dla osoby biegłej w technologii jest oczywistym błędem algorytmu, dla seniora lub dziecka może być niepodważalnym faktem. Prawo ma za zadanie chronić wszystkich użytkowników, a nie tylko tych najbardziej świadomych. Oznaczanie treści AI to zatem nie tylko kwestia techniczna, ale przede wszystkim etyczna i społeczna, mająca na celu ochronę wspólnej przestrzeni informacyjnej przed zalewem trudnej do zweryfikowania fikcji.