Jakie masz pytanie?

lub

Jak wyjaśnić młodej osobie zagrożenia związane z tworzeniem przez sztuczną inteligencję fałszywych zdjęć i filmów (tzw. deepfake’ów), które bez zgody przedstawiają ludzi w sytuacjach, w których nigdy nie uczestniczyli? Jakie są skutki takich działań dla społeczeństwa i jak można się przed nimi bronić? Jakie rozwiązania technologiczne oraz prawne pomagają w ochronie przed tymi zagrożeniami?

Zagrożenia deepfake w sieci Ochrona przed fałszywymi treściami Weryfikacja materiałów cyfrowych
avatar

Gość (37.30.*.*)



Odpowiedź:

Żyjemy w czasach, w których granica między prawdą a cyfrową manipulacją zaciera się niemal każdego dnia. Jeszcze kilka lat temu fotorealistyczne przeróbki zdjęć wymagały godzin pracy specjalisty od efektów specjalnych, dziś wystarczy prosta aplikacja i kilka sekund, by stworzyć materiał, który do złudzenia przypomina rzeczywistość. Dla młodego pokolenia, które dorasta w świecie TikToka, Instagrama i YouTube’a, zrozumienie mechanizmu deepfake’ów to nie tylko ciekawostka technologiczna, ale przede wszystkim kluczowa umiejętność przetrwania w sieci.

Jak wytłumaczyć deepfake młodej osobie?

Najprościej jest porównać deepfake do „cyfrowej maski”. Wyobraź sobie, że ktoś zakłada maskę z Twoją twarzą i idzie w niej do szkoły, robiąc rzeczy, których Ty nigdy byś nie zrobił – na przykład kradnie coś ze sklepiku albo obraża nauczyciela. W świecie rzeczywistym ludzie mogliby zauważyć, że to maska, ale w internecie ta maska jest tak idealnie dopasowana, że nikt nie widzi szwów.

Warto uświadomić młodym ludziom, że deepfake to nie tylko „śmieszne filmiki”, na których znany aktor mówi głosem polityka. To narzędzie, które może zostać użyte do cyberprzemocy. Gdy czyjaś twarz zostaje wklejona w kompromitujące lub intymne nagranie bez jej zgody, przestaje to być zabawą, a staje się formą agresji, która ma na celu upokorzenie i zniszczenie reputacji.

Skutki społeczne, czyli dlaczego „widzieć” nie znaczy już „wierzyć”

Rozpowszechnienie fałszywych treści ma ogromny wpływ na to, jak funkcjonujemy jako społeczeństwo. Najpoważniejszym skutkiem jest całkowita erozja zaufania. Jeśli każdy film może być kłamstwem, zaczynamy wątpić nawet w te prawdziwe nagrania, które dokumentują ważne wydarzenia czy nadużycia. To zjawisko nazywa się czasem „dywidendą kłamcy” – osoba przyłapana na czymś złym może po prostu powiedzieć: „to nie ja, to AI”, a my nie będziemy mieli pewności, czy mówi prawdę.

Innym skutkiem jest destabilizacja emocjonalna ofiar. Dla młodej osoby, której wizerunek został wykorzystany w deepfake’u, konsekwencje psychiczne są porównywalne z traumą po realnym ataku. Poczucie utraty kontroli nad własnym ciałem i tożsamością w sieci jest niezwykle niszczące.

Jak bronić się przed cyfrową manipulacją?

Obrona przed deepfake’ami zaczyna się od zmiany nawyków w sieci. Oto kilka zasad, które warto wdrożyć:

  • Zasada ograniczonego zaufania: Jeśli widzisz coś szokującego, kontrowersyjnego lub nietypowego, nie udostępniaj tego od razu. Sprawdź, czy inne, wiarygodne źródła (duże portale informacyjne) o tym piszą.
  • Analiza szczegółów: Choć AI jest coraz lepsza, wciąż popełnia błędy. Przyjrzyj się krawędziom twarzy, nienaturalnemu mruganiu oczu, dziwnym cieniom lub sposobowi, w jaki poruszają się usta w stosunku do wypowiadanych słów.
  • Ochrona prywatności: Im mniej Twoich zdjęć i filmów jest publicznie dostępnych (np. na otwartych profilach), tym trudniej algorytmom „nauczyć się” Twojej twarzy. Warto ograniczyć widoczność postów tylko do znajomych.
  • Metoda SIFT: To prosty algorytm weryfikacji treści:
    1. Stop (Zatrzymaj się).
    2. Investigate the source (Sprawdź źródło).
    3. Find better coverage (Znajdź lepsze potwierdzenie).
    4. Trace claims to the original context (Dotrzyj do oryginału).

Rozwiązania technologiczne w walce z fałszem

Technologia, która stworzyła problem, stara się go również rozwiązać. Powstają zaawansowane detektory AI, które analizują strukturę pikseli i szukają śladów ingerencji algorytmów. Firmy takie jak Microsoft czy Google pracują nad narzędziami do uwierzytelniania treści.

Jednym z kluczowych rozwiązań jest tzw. watermarking (znakowanie wodne) oraz standardy C2PA. Polegają one na dołączaniu do plików graficznych i wideo „cyfrowego paszportu”, który zawiera informację o tym, kiedy, gdzie i jakim urządzeniem wykonano zdjęcie oraz czy było ono edytowane przez AI. Jeśli zdjęcie nie posiada takiej metryki, powinno to wzbudzić naszą czujność.

Ochrona prawna – co mówi prawo?

W Polsce i Unii Europejskiej przepisy coraz lepiej radzą sobie z wyzwaniami AI. Przede wszystkim tworzenie i rozpowszechnianie deepfake’ów bez zgody osoby przedstawionej narusza jej dobra osobiste (art. 23 i 24 Kodeksu cywilnego) oraz prawo do wizerunku (Ustawa o prawie autorskim i prawach pokrewnych).

Ważnym krokiem jest unijny AI Act (Akt o sztucznej inteligencji), który nakłada na twórców systemów AI obowiązek jasnego oznaczania treści wygenerowanych sztucznie. Ponadto, jeśli deepfake ma charakter pornograficzny lub służy do nękania, sprawca może odpowiadać karnie za stalking lub zniesławienie.

Warto wiedzieć, że większość dużych platform społecznościowych ma w swoich regulaminach zapisy zakazujące publikacji szkodliwych deepfake’ów. Zgłoszenie takiego materiału zazwyczaj skutkuje jego szybkim usunięciem, co jest pierwszą linią obrony dla ofiary.

Ciekawostka: Czy wiesz, jak rozpoznać deepfake po oczach?

Jednym z najtrudniejszych elementów do odtworzenia dla sztucznej inteligencji przez długi czas było... mruganie. Ludzie mrugają w specyficzny, nieregularny sposób, który jest powiązany z procesami myślowymi i emocjami. Wczesne modele AI „zapominały” o mruganiu lub robiły to zbyt mechanicznie. Choć nowsze algorytmy już to potrafią, naukowcy odkryli, że AI wciąż ma problem z odwzorowaniem drobnych naczyń krwionośnych w gałce ocznej oraz precyzyjnych odbić światła w źrenicach, co pozwala specjalistycznym programom na szybką identyfikację fałszywki.

Podziel się z innymi: