Jakie masz pytanie?

lub

Czym są wizualne deepfaki?

realistyczne fałszerstwa wideo generowanie fałszywych obrazów sztuczna inteligencja modyfikuje twarze
avatar

Gość (37.30.*.*)



Odpowiedź:

Żyjemy w czasach, w których stare powiedzenie „uwierzę, jak zobaczę” powoli traci na aktualności. Wszystko za sprawą technologii, która jeszcze dekadę temu wydawała się domeną filmów science-fiction, a dziś jest dostępna niemal dla każdego, kto posiada komputer i dostęp do internetu. Wizualne deepfaki to jedno z najbardziej fascynujących, a zarazem niepokojących zjawisk współczesnego cyfrowego świata. W dużym skrócie są to obrazy lub filmy stworzone lub zmodyfikowane przy użyciu zaawansowanej sztucznej inteligencji, które wyglądają tak realistycznie, że ludzkie oko często nie jest w stanie odróżnić ich od prawdy.

Jak działa technologia stojąca za deepfake'ami?

Sercem wizualnych deepfake'ów jest uczenie maszynowe, a konkretnie technologia zwana GAN (Generative Adversarial Networks), czyli generatywne sieci przeciwstawne. Choć brzmi to skomplikowanie, mechanizm działania można porównać do pojedynku dwóch algorytmów: ucznia i nauczyciela (lub fałszerza i detektywa).

Pierwsza sieć (generator) próbuje stworzyć obraz, na przykład twarz konkretnej osoby, bazując na tysiącach dostarczonych jej zdjęć. Druga sieć (dyskryminator) ocenia ten wynik i porównuje go z oryginałem, wytykając błędy. Ten proces powtarza się miliony razy, aż generator nauczy się tworzyć tak doskonałe kopie, że druga sieć nie jest już w stanie odróżnić fałszu od rzeczywistości. Dzięki temu deepfake może nałożyć twarz aktora na ciało innej osoby w taki sposób, że mimika, oświetlenie i cienie wyglądają całkowicie naturalnie.

Rodzaje wizualnych deepfake'ów

Wizualne deepfaki nie ograniczają się tylko do jednego formatu. Możemy je podzielić na kilka głównych kategorii, które różnią się stopniem skomplikowania i przeznaczeniem:

  • Face swapping (zamiana twarzy): To najpopularniejsza forma, polegająca na nałożeniu twarzy jednej osoby na ciało innej. Często spotykana w memach, parodiach filmowych czy niestety w materiałach o charakterze pornograficznym tworzonych bez zgody ofiar.
  • Lip-syncing (synchronizacja ust): Algorytm modyfikuje ruchy warg osoby na nagraniu tak, aby pasowały do zupełnie innej ścieżki dźwiękowej. W ten sposób można sprawić, że polityk lub celebryta „powie” coś, czego w rzeczywistości nigdy nie wypowiedział.
  • Puppetry (sterowanie postacią): To najbardziej zaawansowana forma, w której ruchy głowy, mruganie oczami i cała ekspresja twarzy jednej osoby (źródła) są w czasie rzeczywistym przenoszone na twarz innej osoby (celu).

Czy deepfaki to tylko zagrożenie?

Kiedy myślimy o deepfake'ach, najczęściej przed oczami mamy czarne scenariusze: dezinformację, manipulacje wyborcze czy kradzież tożsamości. I rzeczywiście, ryzyko jest ogromne. Fałszywe nagrania mogą zniszczyć czyjąś reputację w kilka minut, zanim prawda wyjdzie na jaw. Jednak technologia ta ma też swoją jasną stronę, szczególnie w przemyśle rozrywkowym i edukacji.

W Hollywood deepfaki pozwalają „odmłodzić” aktorów (jak to miało miejsce w przypadku Marka Hamilla w serialu „The Mandalorian”) lub dokończyć sceny z udziałem artystów, którzy zmarli w trakcie produkcji filmu. W medycynie trwają prace nad wykorzystaniem tej technologii do tworzenia syntetycznych danych medycznych, które pomagają szkolić algorytmy diagnostyczne bez naruszania prywatności realnych pacjentów.

Ciekawostka: Skąd wzięła się nazwa?

Termin „deepfake” powstał pod koniec 2017 roku. Jest to połączenie dwóch angielskich słów: deep learning (głębokie uczenie) oraz fake (fałszerstwo). Nazwa ta po raz pierwszy pojawiła się na portalu Reddit, gdzie użytkownik o nicku „deepfakes” zaczął publikować filmy z twarzami znanych aktorek nałożonymi na ciała wykonawczyń filmów dla dorosłych. To właśnie ten mroczny początek sprawił, że technologia ta od początku budzi tak duże kontrowersje.

Jak rozpoznać wizualnego deepfake'a?

Mimo że sztuczna inteligencja staje się coraz doskonalsza, wciąż popełnia drobne błędy, które przy uważnej obserwacji możemy wyłapać. Oto kilka elementów, na które warto zwrócić uwagę:

  1. Nienaturalne mruganie: Starsze algorytmy miały problem z odwzorowaniem naturalnego mrugania oczami. Jeśli postać na filmie mruga zbyt rzadko lub w dziwny sposób, może to być sygnał ostrzegawczy.
  2. Błędy w oświetleniu i cieniach: AI czasem gubi się przy krawędziach twarzy lub w miejscach, gdzie włosy stykają się z czołem. Cienie mogą nie pasować do reszty otoczenia.
  3. Wnętrze jamy ustnej: Zęby i język są niezwykle trudne do wygenerowania. W deepfake'ach zęby często zlewają się w jedną białą masę lub wyglądają nienaturalnie podczas mówienia.
  4. Artefakty wizualne: Przy szybkich ruchach głowy mogą pojawiać się rozmycia, „drgania” obrazu lub nagłe przeskoki tekstury skóry.

Technologia wizualnych deepfake'ów rozwija się w zawrotnym tempie. To, co dziś jest możliwe do wykrycia gołym okiem, jutro może być już nie do odróżnienia. Dlatego najważniejszym narzędziem w walce z manipulacją pozostaje nasz krytycyzm i weryfikowanie źródeł informacji, na które trafiamy w sieci.

Podziel się z innymi: