Jakie masz pytanie?

lub

Czym jest wizualny deepfake, w którym wizerunek osoby ze zdjęć lub nagrań zostaje przeniesiony do filmu za pomocą AI (często bez jej wiedzy i zgody), oraz ile materiału źródłowego potrzeba do jego stworzenia? Czy kilka zdjęć i krótkich nagrań profilowych wystarczy do uzyskania takiego efektu, jak można się przed tym zabezpieczyć i czy stworzenie zdjęcia nieczytelnego dla AI, ale niezmienionego dla ludzkiego oka, jest trudne i skuteczne?

tworzenie fałszywych filmów technologia podmiany wizerunku zabezpieczenia przed deepfake
avatar

Gość (37.30.*.*)



Odpowiedź:

Wizualny deepfake to technologia oparta na sztucznej inteligencji, która pozwala na nałożenie wizerunku jednej osoby na ciało innej w materiale wideo lub na zdjęciu. Proces ten, nazywany często „face swappingiem”, polega na wykorzystaniu zaawansowanych algorytmów uczenia maszynowego (głównie sieci neuronowych typu GAN – Generative Adversarial Networks), które analizują cechy charakterystyczne twarzy: mimikę, sposób mrugania oczami czy ruchy ust. Efektem jest niezwykle realistyczne nagranie, na którym osoba wygląda i zachowuje się tak, jakby rzeczywiście brała udział w danej scenie, mimo że w rzeczywistości nigdy w niej nie wystąpiła.

Zjawisko to budzi ogromne kontrowersje, ponieważ bardzo często odbywa się bez wiedzy i zgody osób, których wizerunek jest wykorzystywany. Choć technologia ta znajduje zastosowanie w przemyśle filmowym (np. do odmładzania aktorów) czy w rozrywce, jej ciemna strona obejmuje dezinformację, oszustwa finansowe oraz tworzenie kompromitujących materiałów o charakterze pornograficznym (tzw. non-consensual deepfake pornography).

Ile materiału potrzeba, aby stworzyć deepfake?

Jeszcze kilka lat temu stworzenie przekonującego deepfake’a wymagało ogromnej bazy danych – tysięcy zdjęć i godzin nagrań wideo danej osoby, wykonanych pod różnymi kątami i w różnym oświetleniu. Proces ten trwał tygodnie i wymagał potężnej mocy obliczeniowej.

Dziś sytuacja wygląda zupełnie inaczej. Dzięki rozwojowi modeli typu „few-shot learning” (uczenie na małej próbie) oraz „one-shot learning”, bariera wejścia drastycznie spadła:

  • Kilka zdjęć wystarczy: Obecnie do uzyskania podstawowego, ale rozpoznawalnego efektu, wystarczy zaledwie od 1 do 5 zdjęć wysokiej jakości.
  • Krótkie nagranie profilowe: 10-sekundowy filmik, na którym osoba mówi lub po prostu rusza głową, pozwala algorytmom na dokładne zmapowanie trójwymiarowej struktury twarzy.
  • Dostępność narzędzi: Istnieją gotowe aplikacje i wtyczki (np. do programów graficznych), które pozwalają na podmianę twarzy w czasie rzeczywistym przy użyciu tylko jednego zdjęcia źródłowego.

Oczywiście, im więcej materiału i im wyższa jego jakość, tym trudniej odróżnić fałszywkę od oryginału. Jednak do celów manipulacji w mediach społecznościowych, kilka zdjęć z Instagrama jest w zupełności wystarczające.

Jak można się zabezpieczyć przed kradzieżą wizerunku?

Całkowite wyeliminowanie ryzyka w dobie internetu jest niemal niemożliwe, ale można znacznie utrudnić zadanie potencjalnym oszustom. Oto kilka kluczowych kroków:

  1. Prywatność profili: Najprostszą metodą jest ograniczenie widoczności swoich zdjęć i filmów w mediach społecznościowych tylko dla zaufanych znajomych. Publiczne profile to „szwedzki stół” dla algorytmów zbierających dane.
  2. Unikanie zdjęć „en face”: Deepfake najlepiej radzi sobie z wyraźnymi zdjęciami portretowymi, gdzie twarz jest skierowana prosto w stronę obiektywu. Zdjęcia pod kątem, w okularach przeciwsłonecznych lub z dłonią przy twarzy są trudniejsze do przetworzenia.
  3. Weryfikacja dwuetapowa (2FA): Chroni przed przejęciem konta, z którego oszust mógłby pobrać prywatne materiały.
  4. Znakowanie wodne: Choć AI potrafi je usuwać, dodanie subtelnych znaków wodnych lub filtrów na zdjęcia może zakłócać pracę niektórych prostszych algorytmów.

Ciekawostka: Cyfrowy detektyw

Czy wiesz, że istnieją już narzędzia do wykrywania deepfake’ów? Analizują one anomalie, których ludzkie oko nie dostrzega, takie jak nienaturalne tętno widoczne w subtelnych zmianach koloru skóry twarzy (fotopletyzmografia) lub niespójności w odbiciach światła w rogówce oka.

Zdjęcia nieczytelne dla AI – czy to działa?

W odpowiedzi na zagrożenia powstały technologie określane mianem „adversarial attacks” (ataki przeciwstawne). Narzędzia takie jak Fawkes (stworzone przez naukowców z University of Chicago) czy Glaze pozwalają na modyfikację zdjęć w taki sposób, że dla człowieka pozostają one niezmienione, ale dla algorytmów AI stają się bezużyteczne lub wprowadzające w błąd.

Jak to działa w praktyce?
Program wprowadza do zdjęcia minimalne zmiany na poziomie pikseli (tzw. „szum”), które zmieniają sposób, w jaki sieć neuronowa interpretuje cechy twarzy. Przykładowo, AI może „pomyśleć”, że osoba na zdjęciu ma zupełnie inną strukturę kości policzkowych lub rozstaw oczu. Gdy ktoś spróbuje stworzyć deepfake na podstawie tak „zatrutego” zdjęcia, efekt będzie zdeformowany lub niepodobny do oryginału.

Czy jest to trudne i skuteczne?

  • Trudność: Korzystanie z tych narzędzi nie jest skomplikowane – zazwyczaj sprowadza się do przepuszczenia zdjęcia przez aplikację przed jego publikacją. Wymaga to jednak dodatkowego czasu i świadomości.
  • Skuteczność: To ciągły wyścig zbrojeń. Obecnie te metody są dość skuteczne przeciwko popularnym modelom rozpoznawania twarzy i tworzenia deepfake’ów. Jednak twórcy AI stale pracują nad algorytmami, które potrafią „odszumiać” zdjęcia i ignorować te zabezpieczenia. Nie jest to więc rozwiązanie dające 100% gwarancji na zawsze, ale stanowi solidną warstwę ochronną w obecnych warunkach.

Podsumowując, wizualny deepfake to potężne narzędzie, które staje się coraz bardziej dostępne. Kluczem do bezpieczeństwa jest dziś nie tylko technologia, ale przede wszystkim cyfrowa higiena i ograniczone zaufanie do materiałów, które spotykamy w sieci.

Podziel się z innymi: