Gość (37.30.*.*)
Żyjemy w czasach, w których granica między prawdą a cyfrową manipulacją zaciera się niemal każdego dnia. Jeszcze kilka lat temu fotorealistyczne przeróbki zdjęć wymagały godzin pracy specjalisty od efektów specjalnych, dziś wystarczy prosta aplikacja i kilka sekund, by stworzyć materiał, który do złudzenia przypomina rzeczywistość. Dla młodego pokolenia, które dorasta w świecie TikToka, Instagrama i YouTube’a, zrozumienie mechanizmu deepfake’ów to nie tylko ciekawostka technologiczna, ale przede wszystkim kluczowa umiejętność przetrwania w sieci.
Najprościej jest porównać deepfake do „cyfrowej maski”. Wyobraź sobie, że ktoś zakłada maskę z Twoją twarzą i idzie w niej do szkoły, robiąc rzeczy, których Ty nigdy byś nie zrobił – na przykład kradnie coś ze sklepiku albo obraża nauczyciela. W świecie rzeczywistym ludzie mogliby zauważyć, że to maska, ale w internecie ta maska jest tak idealnie dopasowana, że nikt nie widzi szwów.
Warto uświadomić młodym ludziom, że deepfake to nie tylko „śmieszne filmiki”, na których znany aktor mówi głosem polityka. To narzędzie, które może zostać użyte do cyberprzemocy. Gdy czyjaś twarz zostaje wklejona w kompromitujące lub intymne nagranie bez jej zgody, przestaje to być zabawą, a staje się formą agresji, która ma na celu upokorzenie i zniszczenie reputacji.
Rozpowszechnienie fałszywych treści ma ogromny wpływ na to, jak funkcjonujemy jako społeczeństwo. Najpoważniejszym skutkiem jest całkowita erozja zaufania. Jeśli każdy film może być kłamstwem, zaczynamy wątpić nawet w te prawdziwe nagrania, które dokumentują ważne wydarzenia czy nadużycia. To zjawisko nazywa się czasem „dywidendą kłamcy” – osoba przyłapana na czymś złym może po prostu powiedzieć: „to nie ja, to AI”, a my nie będziemy mieli pewności, czy mówi prawdę.
Innym skutkiem jest destabilizacja emocjonalna ofiar. Dla młodej osoby, której wizerunek został wykorzystany w deepfake’u, konsekwencje psychiczne są porównywalne z traumą po realnym ataku. Poczucie utraty kontroli nad własnym ciałem i tożsamością w sieci jest niezwykle niszczące.
Obrona przed deepfake’ami zaczyna się od zmiany nawyków w sieci. Oto kilka zasad, które warto wdrożyć:
Technologia, która stworzyła problem, stara się go również rozwiązać. Powstają zaawansowane detektory AI, które analizują strukturę pikseli i szukają śladów ingerencji algorytmów. Firmy takie jak Microsoft czy Google pracują nad narzędziami do uwierzytelniania treści.
Jednym z kluczowych rozwiązań jest tzw. watermarking (znakowanie wodne) oraz standardy C2PA. Polegają one na dołączaniu do plików graficznych i wideo „cyfrowego paszportu”, który zawiera informację o tym, kiedy, gdzie i jakim urządzeniem wykonano zdjęcie oraz czy było ono edytowane przez AI. Jeśli zdjęcie nie posiada takiej metryki, powinno to wzbudzić naszą czujność.
W Polsce i Unii Europejskiej przepisy coraz lepiej radzą sobie z wyzwaniami AI. Przede wszystkim tworzenie i rozpowszechnianie deepfake’ów bez zgody osoby przedstawionej narusza jej dobra osobiste (art. 23 i 24 Kodeksu cywilnego) oraz prawo do wizerunku (Ustawa o prawie autorskim i prawach pokrewnych).
Ważnym krokiem jest unijny AI Act (Akt o sztucznej inteligencji), który nakłada na twórców systemów AI obowiązek jasnego oznaczania treści wygenerowanych sztucznie. Ponadto, jeśli deepfake ma charakter pornograficzny lub służy do nękania, sprawca może odpowiadać karnie za stalking lub zniesławienie.
Warto wiedzieć, że większość dużych platform społecznościowych ma w swoich regulaminach zapisy zakazujące publikacji szkodliwych deepfake’ów. Zgłoszenie takiego materiału zazwyczaj skutkuje jego szybkim usunięciem, co jest pierwszą linią obrony dla ofiary.
Jednym z najtrudniejszych elementów do odtworzenia dla sztucznej inteligencji przez długi czas było... mruganie. Ludzie mrugają w specyficzny, nieregularny sposób, który jest powiązany z procesami myślowymi i emocjami. Wczesne modele AI „zapominały” o mruganiu lub robiły to zbyt mechanicznie. Choć nowsze algorytmy już to potrafią, naukowcy odkryli, że AI wciąż ma problem z odwzorowaniem drobnych naczyń krwionośnych w gałce ocznej oraz precyzyjnych odbić światła w źrenicach, co pozwala specjalistycznym programom na szybką identyfikację fałszywki.