Gość (37.30.*.*)
Obawy, że AI Act (europejskie rozporządzenie o sztucznej inteligencji) stanie się kolejnym „biurokratycznym potworem” na wzór RODO, są w pełni uzasadnione. Wiele osób zastanawia się, czy wymóg ludzkiego nadzoru nad algorytmami nie doprowadzi do absurdalnych sytuacji, w których pracownik banku lub rekruter będzie musiał ręcznie „przeklikać” tysiące odrzuconych wniosków tylko po to, by spełnić wymogi prawne. Rzeczywistość jest jednak nieco bardziej złożona i – co ciekawe – ustawodawca starał się wyciągnąć lekcje z błędów popełnionych przy wdrażaniu przepisów o ochronie danych osobowych.
Kluczowym pojęciem w AI Act jest „nadzór ludzki” (Artykuł 14). Dotyczy on systemów sklasyfikowanych jako wysokiego ryzyka, do których zaliczają się właśnie algorytmy rekrutacyjne oraz te oceniające zdolność kredytową. Przepisy nie mówią jednak wprost, że każda pojedyncza decyzja o odrzuceniu musi zostać zatwierdzona przez człowieka przed jej wysłaniem.
Zamiast tego, AI Act wymaga, aby systemy były zaprojektowane w sposób umożliwiający „skuteczny nadzór”. W praktyce oznacza to, że:
W przypadku rekrutacji czy kredytów, najprawdopodobniej będziemy mieli do czynienia z modelem, w którym algorytm wykonuje wstępną selekcję, a człowiek ma obowiązek weryfikacji wyników na poziomie statystycznym lub interweniowania, gdy kandydat/klient złoży reklamację.
To tutaj pojawia się największe ryzyko, o które pytasz. Jeśli firma zostanie zasypana tysiącami wniosków, istnieje ogromna pokusa, by wyznaczony pracownik po prostu bezmyślnie klikał „zatwierdź odrzucenie”. Eksperci nazywają to zjawiskiem automation bias (uprzedzenie do automatyzacji) – tendencją ludzi do ufania maszynie bardziej niż własnemu osądowi.
AI Act próbuje z tym walczyć, nakładając na firmy obowiązek przeszkolenia osób sprawujących nadzór. Muszą one rozumieć, jak działa algorytm, jakie ma ograniczenia i – co najważniejsze – muszą mieć realną władzę, by zakwestionować wynik. Jeśli nadzór będzie tylko fikcją, firma naraża się na gigantyczne kary (nawet do 35 mln euro lub 7% globalnego obrotu). To ma sprawić, że „zbędna praca” stanie się realną odpowiedzialnością, a nie tylko formalnością.
Ważnym elementem AI Act jest Artykuł 86, który wprowadza prawo do wyjaśnienia. Jeśli algorytm wysokiego ryzyka podejmie decyzję, która istotnie wpływa na Twoje życie (np. odrzuci wniosek o kredyt hipoteczny), masz prawo dowiedzieć się, dlaczego tak się stało.
To właśnie ten przepis może generować największe koszty dla firm. Nie wystarczy już wysłać maila o treści „Dziękujemy, nie spełniasz naszych kryteriów”. Firma będzie musiała być w stanie wytłumaczyć, jakie parametry przeważyły o odmowie. To wymusza odejście od tzw. „czarnych skrzynek” (modeli AI, których działania nie rozumieją nawet ich twórcy) na rzecz modeli wyjaśnialnych (XAI).
Warto zauważyć, że RODO już teraz posiada Artykuł 22, który teoretycznie zakazuje podejmowania decyzji opartych wyłącznie na zautomatyzowanym przetwarzaniu, jeśli mają one skutki prawne dla człowieka. AI Act idzie jednak o krok dalej – nie skupia się tylko na prawie do sprzeciwu „po fakcie”, ale na tym, jak system jest zbudowany i nadzorowany „od środka”.
Obawa o „zmęczenie klauzulami” jest bardzo realna. Już teraz większość z nas mechanicznie akceptuje regulaminy, byle tylko przejść do sedna. W przypadku AI Act istnieje ryzyko, że zostaniemy zalani nowymi oświadczeniami: „Wyrażam zgodę na profilowanie przez algorytm X”, „Przyjmuję do wiadomości, że decyzję wspomagał model Y”.
Różnica polega jednak na tym, że AI Act kładzie większy nacisk na bezpieczeństwo produktu niż na samą zgodę użytkownika. O ile w RODO to Ty musisz „pilnować” swojej prywatności, o tyle AI Act nakłada na producentów AI obowiązki podobne do tych, jakie mają producenci samochodów czy leków. System ma być bezpieczny i sprawiedliwy z założenia, niezależnie od tego, czy przeczytasz klauzulę informacyjną, czy nie.
Czy AI Act wygeneruje zbędną pracę? Krótkofalowo – tak. Firmy będą musiały zainwestować w:
Z drugiej strony, celem tych przepisów jest uniknięcie sytuacji, w której algorytm dyskryminuje kogoś ze względu na płeć, wiek czy kod pocztowy, a nikt w firmie nie wie, dlaczego tak się dzieje. Jeśli AI Act zadziała zgodnie z planem, „zbędna praca” człowieka będzie w rzeczywistości bezpiecznikiem, który chroni nas przed cyfrowym wykluczeniem. Jeśli jednak skończy się na biurokracji, faktycznie możemy otrzymać „RODO 2.0” – z tą różnicą, że zamiast o ciasteczka, będziemy walczyć o prawo do rozmowy z żywym człowiekiem.