Gość (37.30.*.*)
Wizualny deepfake to technologia oparta na sztucznej inteligencji, która pozwala na nałożenie wizerunku jednej osoby na ciało innej w materiale wideo lub na zdjęciu. Proces ten, nazywany często „face swappingiem”, polega na wykorzystaniu zaawansowanych algorytmów uczenia maszynowego (głównie sieci neuronowych typu GAN – Generative Adversarial Networks), które analizują cechy charakterystyczne twarzy: mimikę, sposób mrugania oczami czy ruchy ust. Efektem jest niezwykle realistyczne nagranie, na którym osoba wygląda i zachowuje się tak, jakby rzeczywiście brała udział w danej scenie, mimo że w rzeczywistości nigdy w niej nie wystąpiła.
Zjawisko to budzi ogromne kontrowersje, ponieważ bardzo często odbywa się bez wiedzy i zgody osób, których wizerunek jest wykorzystywany. Choć technologia ta znajduje zastosowanie w przemyśle filmowym (np. do odmładzania aktorów) czy w rozrywce, jej ciemna strona obejmuje dezinformację, oszustwa finansowe oraz tworzenie kompromitujących materiałów o charakterze pornograficznym (tzw. non-consensual deepfake pornography).
Jeszcze kilka lat temu stworzenie przekonującego deepfake’a wymagało ogromnej bazy danych – tysięcy zdjęć i godzin nagrań wideo danej osoby, wykonanych pod różnymi kątami i w różnym oświetleniu. Proces ten trwał tygodnie i wymagał potężnej mocy obliczeniowej.
Dziś sytuacja wygląda zupełnie inaczej. Dzięki rozwojowi modeli typu „few-shot learning” (uczenie na małej próbie) oraz „one-shot learning”, bariera wejścia drastycznie spadła:
Oczywiście, im więcej materiału i im wyższa jego jakość, tym trudniej odróżnić fałszywkę od oryginału. Jednak do celów manipulacji w mediach społecznościowych, kilka zdjęć z Instagrama jest w zupełności wystarczające.
Całkowite wyeliminowanie ryzyka w dobie internetu jest niemal niemożliwe, ale można znacznie utrudnić zadanie potencjalnym oszustom. Oto kilka kluczowych kroków:
Czy wiesz, że istnieją już narzędzia do wykrywania deepfake’ów? Analizują one anomalie, których ludzkie oko nie dostrzega, takie jak nienaturalne tętno widoczne w subtelnych zmianach koloru skóry twarzy (fotopletyzmografia) lub niespójności w odbiciach światła w rogówce oka.
W odpowiedzi na zagrożenia powstały technologie określane mianem „adversarial attacks” (ataki przeciwstawne). Narzędzia takie jak Fawkes (stworzone przez naukowców z University of Chicago) czy Glaze pozwalają na modyfikację zdjęć w taki sposób, że dla człowieka pozostają one niezmienione, ale dla algorytmów AI stają się bezużyteczne lub wprowadzające w błąd.
Jak to działa w praktyce?
Program wprowadza do zdjęcia minimalne zmiany na poziomie pikseli (tzw. „szum”), które zmieniają sposób, w jaki sieć neuronowa interpretuje cechy twarzy. Przykładowo, AI może „pomyśleć”, że osoba na zdjęciu ma zupełnie inną strukturę kości policzkowych lub rozstaw oczu. Gdy ktoś spróbuje stworzyć deepfake na podstawie tak „zatrutego” zdjęcia, efekt będzie zdeformowany lub niepodobny do oryginału.
Czy jest to trudne i skuteczne?
Podsumowując, wizualny deepfake to potężne narzędzie, które staje się coraz bardziej dostępne. Kluczem do bezpieczeństwa jest dziś nie tylko technologia, ale przede wszystkim cyfrowa higiena i ograniczone zaufanie do materiałów, które spotykamy w sieci.