Jakie masz pytanie?

lub

Ile prawdy jest w stwierdzeniu, że technologia rozwija się na tyle szybko, iż zdjęcie lub nagranie przetworzone dzisiaj przez zaawansowane narzędzia AI nie zostałoby rozpoznane i uznano by je za w pełni autentyczne, gdyby pojawiło się zaledwie sześć miesięcy temu, ze względu na nieustanny wyścig zbrojeń między metodami manipulacji a technikami ich wykrywania?

szybki rozwój sztucznej inteligencji wykrywanie deepfake i manipulacji przyszłość weryfikacji treści cyfrowych
avatar

Gość (37.30.*.*)



Odpowiedź:

Tempo, w jakim rozwija się sztuczna inteligencja, jest obecnie tak zawrotne, że tradycyjne ramy czasowe, do których przywykliśmy w świecie technologii, przestają obowiązywać. Stwierdzenie, że materiały wygenerowane dzisiaj byłyby nie do odróżnienia od rzeczywistości zaledwie pół roku temu, zawiera w sobie ogromną dawkę prawdy. W świecie AI sześć miesięcy to nie „krótka przerwa”, to cała epoka, w trakcie której powstają nowe architektury modeli, a stare ograniczenia odchodzą w zapomnienie.

Dlaczego sześć miesięcy robi tak wielką różnicę?

Aby zrozumieć ten fenomen, musimy spojrzeć na to, jak szybko eliminowane są tzw. artefakty, czyli błędy charakterystyczne dla obrazów generowanych przez AI. Jeszcze niedawno najprostszym sposobem na rozpoznanie deepfake’a było liczenie palców u rąk, sprawdzanie symetrii źrenic czy przyglądanie się teksturom tła, które często „płynęły”.

Dzisiejsze modele, takie jak najnowsze wersje Midjourney czy Stable Diffusion, praktycznie wyeliminowały problem anatomicznych anomalii. Jeśli weźmiemy obraz wygenerowany dzisiaj i „wyślemy go w przeszłość” o pół roku, ówczesne narzędzia detekcyjne – trenowane na błędach poprzednich wersji – mogłyby go uznać za autentyczny, ponieważ nie szukałyby nowych, subtelniejszych wzorców manipulacji, które pojawiają się w nowszych algorytmach.

Wyścig zbrojeń: Miecz kontra tarcza

W świecie cyberbezpieczeństwa i analizy mediów trwa nieustanny wyścig zbrojeń. Z jednej strony mamy twórców modeli generatywnych (miecz), którzy dążą do idealnego fotorealizmu. Z drugiej strony są badacze rozwijający techniki detekcji (tarcza), które analizują szum cyfrowy, niespójności oświetlenia czy metadane.

Problem polega na tym, że techniki manipulacji są zawsze o krok przed metodami wykrywania. Detektory AI działają reaktywnie – uczą się rozpoznawać to, co już zostało stworzone. Kiedy pojawia się nowa metoda generowania obrazu (np. przejście z modeli GAN na modele dyfuzyjne), stare detektory stają się bezużyteczne. Dlatego materiał z „przyszłości” (czyli dzisiejszy) byłby dla narzędzi sprzed sześciu miesięcy niemal niewidoczny jako fałszywka.

Psychologia odbioru i „ślepota” technologiczna

Warto też pamiętać o aspekcie ludzkim. Nasze oczy i mózgi adaptują się do technologii. Pół roku temu nasze standardy dotyczące tego, co uznajemy za „podejrzane”, były nieco niższe. Dzisiaj, patrząc na zdjęcia z początku 2023 roku, często od razu widzimy ich „plastikowość”. Jednak wtedy, bez punktu odniesienia, jakim są dzisiejsze, niemal idealne generacje, bylibyśmy znacznie bardziej skłonni uwierzyć w ich autentyczność.

Ciekawostką jest fakt, że rozwój AI postępuje nieliniowo. Przejście od wideo, które wyglądało jak ruchoma plama (pierwsze próby generowania filmów), do fotorealistycznych prezentacji (jak np. model Sora od OpenAI), zajęło niewiele więcej niż rok. W takim tempie różnica sześciu miesięcy to przepaść technologiczna, która pozwala na ukrycie śladów ingerencji algorytmów w sposób wcześniej niemożliwy.

Czy istnieją metody, których czas się nie ima?

Choć algorytmy detekcji mogą zawieść, istnieją techniki, które trudniej oszukać, niezależnie od postępu AI. Należą do nich:

  • Analiza kryptograficzna: Standardy takie jak C2PA, które pozwalają na cyfrowe podpisywanie zdjęć już w momencie ich wykonania przez aparat.
  • Weryfikacja źródła: Sprawdzanie, czy dane wydarzenie zostało zarejestrowane przez więcej niż jednego niezależnego świadka.
  • Analiza fizyczna: Nawet najlepsze AI czasem gubi się w prawach fizyki, np. w tym, jak odbija się światło w lustrze lub jak zachowuje się cień przy skomplikowanym oświetleniu.

Czy to oznacza, że nie możemy już ufać niczemu?

Stwierdzenie o sześciomiesięcznym cyklu jest w dużej mierze trafne, ale nie oznacza, że jesteśmy całkowicie bezbronni. To raczej sygnał, że nasza czujność musi ewoluować równie szybko jak technologia. To, co dzisiaj uznajemy za „oczywisty fejk”, za pół roku może być standardem jakości, a my będziemy musieli szukać jeszcze drobniejszych detali, by odróżnić prawdę od cyfrowej halucynacji.

Warto śledzić rozwój narzędzi takich jak Content Authenticity Initiative, które starają się wprowadzić „paszporty” dla cyfrowych treści. Bez systemowych rozwiązań, w świecie, gdzie pół roku to wieczność, poleganie wyłącznie na własnym wzroku może okazać się niewystarczające.

Podziel się z innymi: