Gość (37.30.*.*)
Żyjemy w czasach, w których stare powiedzenie „uwierzę, jak zobaczę” powoli traci na aktualności. Wszystko za sprawą technologii, która jeszcze dekadę temu wydawała się domeną filmów science-fiction, a dziś jest dostępna niemal dla każdego, kto posiada komputer i dostęp do internetu. Wizualne deepfaki to jedno z najbardziej fascynujących, a zarazem niepokojących zjawisk współczesnego cyfrowego świata. W dużym skrócie są to obrazy lub filmy stworzone lub zmodyfikowane przy użyciu zaawansowanej sztucznej inteligencji, które wyglądają tak realistycznie, że ludzkie oko często nie jest w stanie odróżnić ich od prawdy.
Sercem wizualnych deepfake'ów jest uczenie maszynowe, a konkretnie technologia zwana GAN (Generative Adversarial Networks), czyli generatywne sieci przeciwstawne. Choć brzmi to skomplikowanie, mechanizm działania można porównać do pojedynku dwóch algorytmów: ucznia i nauczyciela (lub fałszerza i detektywa).
Pierwsza sieć (generator) próbuje stworzyć obraz, na przykład twarz konkretnej osoby, bazując na tysiącach dostarczonych jej zdjęć. Druga sieć (dyskryminator) ocenia ten wynik i porównuje go z oryginałem, wytykając błędy. Ten proces powtarza się miliony razy, aż generator nauczy się tworzyć tak doskonałe kopie, że druga sieć nie jest już w stanie odróżnić fałszu od rzeczywistości. Dzięki temu deepfake może nałożyć twarz aktora na ciało innej osoby w taki sposób, że mimika, oświetlenie i cienie wyglądają całkowicie naturalnie.
Wizualne deepfaki nie ograniczają się tylko do jednego formatu. Możemy je podzielić na kilka głównych kategorii, które różnią się stopniem skomplikowania i przeznaczeniem:
Kiedy myślimy o deepfake'ach, najczęściej przed oczami mamy czarne scenariusze: dezinformację, manipulacje wyborcze czy kradzież tożsamości. I rzeczywiście, ryzyko jest ogromne. Fałszywe nagrania mogą zniszczyć czyjąś reputację w kilka minut, zanim prawda wyjdzie na jaw. Jednak technologia ta ma też swoją jasną stronę, szczególnie w przemyśle rozrywkowym i edukacji.
W Hollywood deepfaki pozwalają „odmłodzić” aktorów (jak to miało miejsce w przypadku Marka Hamilla w serialu „The Mandalorian”) lub dokończyć sceny z udziałem artystów, którzy zmarli w trakcie produkcji filmu. W medycynie trwają prace nad wykorzystaniem tej technologii do tworzenia syntetycznych danych medycznych, które pomagają szkolić algorytmy diagnostyczne bez naruszania prywatności realnych pacjentów.
Termin „deepfake” powstał pod koniec 2017 roku. Jest to połączenie dwóch angielskich słów: deep learning (głębokie uczenie) oraz fake (fałszerstwo). Nazwa ta po raz pierwszy pojawiła się na portalu Reddit, gdzie użytkownik o nicku „deepfakes” zaczął publikować filmy z twarzami znanych aktorek nałożonymi na ciała wykonawczyń filmów dla dorosłych. To właśnie ten mroczny początek sprawił, że technologia ta od początku budzi tak duże kontrowersje.
Mimo że sztuczna inteligencja staje się coraz doskonalsza, wciąż popełnia drobne błędy, które przy uważnej obserwacji możemy wyłapać. Oto kilka elementów, na które warto zwrócić uwagę:
Technologia wizualnych deepfake'ów rozwija się w zawrotnym tempie. To, co dziś jest możliwe do wykrycia gołym okiem, jutro może być już nie do odróżnienia. Dlatego najważniejszym narzędziem w walce z manipulacją pozostaje nasz krytycyzm i weryfikowanie źródeł informacji, na które trafiamy w sieci.