Gość (37.30.*.*)
Kiedy wpisujesz zapytanie do ChatGPT lub generujesz obrazek w Midjourney, rzadko zastanawiasz się nad tym, co dzieje się „pod maską”. Tymczasem za każdą błyskawiczną odpowiedzią stoi potężna machina, która pochłania zasoby w tempie, o jakim jeszcze dekadę temu nam się nie śniło. Sztuczna inteligencja to nie tylko kod – to przede wszystkim gigantyczne centra danych, tysiące procesorów graficznych i hektolitry wody. Przyjrzyjmy się bliżej, jak wygląda techniczny „rachunek” za korzystanie z AI.
Największym i najbardziej widocznym kosztem technologicznym AI jest prąd. Proces ten dzielimy na dwa główne etapy: trenowanie modelu oraz wnioskowanie (czyli udzielanie odpowiedzi użytkownikom).
Trenowanie dużych modeli językowych (LLM), takich jak GPT-4, to proces trwający miesiące, w którym tysiące jednostek GPU (np. Nvidia H100) pracują na pełnych obrotach 24 godziny na dobę. Szacuje się, że trenowanie modelu GPT-3 zużyło około 1,28 gigawatogodziny (GWh) energii. Dla porównania, przeciętne polskie gospodarstwo domowe zużywa około 2 megawatogodzin (MWh) rocznie. Oznacza to, że samo „nauczenie” modelu podstawowych umiejętności pochłonęło tyle prądu, co 640 domów przez cały rok.
Jednak to wnioskowanie generuje największe koszty w dłuższej perspektywie. Każde pojedyncze zapytanie do AI zużywa od 10 do nawet 30 razy więcej energii niż zwykłe wyszukiwanie w Google. Według raportów, dzienny koszt utrzymania infrastruktury ChatGPT w szczytowych momentach popularności wynosił setki tysięcy dolarów, głównie ze względu na zapotrzebowanie na moc obliczeniową.
Mało kto łączy sztuczną inteligencję z zasobami wodnymi, a jednak są one kluczowe. Serwery wypełnione procesorami generują ogromne ilości ciepła. Aby zapobiec ich stopieniu, centra danych muszą być intensywnie chłodzone. Stosuje się do tego albo klimatyzację (co zwiększa zużycie prądu), albo systemy chłodzenia wyparnego, które zużywają wodę.
Badania przeprowadzone przez naukowców z University of California wskazują, że każda krótka rozmowa z ChatGPT (składająca się z 20-50 pytań i odpowiedzi) „kosztuje” środowisko około 500 ml wody. W skali globalnej, giganci technologiczni tacy jak Microsoft czy Google raportują wzrost zużycia wody o kilkanaście do kilkudziesięciu procent rok do roku, co jest bezpośrednio powiązane z rozwojem infrastruktury pod AI.
Z technicznego punktu widzenia AI nie istnieje bez krzemu. Sercem współczesnej rewolucji są procesory graficzne (GPU) i dedykowane układy TPU. Produkcja tych komponentów to proces niezwykle zasobożerny:
Początkowo procesory graficzne (GPU) służyły głównie do renderowania grafiki w grach wideo. Okazało się jednak, że ich architektura, oparta na przetwarzaniu równoległym (wykonywaniu tysięcy prostych operacji jednocześnie), idealnie nadaje się do obliczeń macierzowych, na których opierają się sieci neuronowe. To dlatego Nvidia stała się jednym z najpotężniejszych graczy na rynku AI.
Ostatnim, często pomijanym zasobem, jest przestrzeń dyskowa i przepustowość sieci. Modele AI są karmione petabajtami danych. Przechowywanie tych zbiorów, ich czyszczenie, przesyłanie między kontynentami i ciągła archiwizacja wymagają tysięcy dysków SSD i HDD, które również pobierają energię i mają ograniczoną żywotność.
Inżynierowie pracują nad rozwiązaniami, które mają ograniczyć ten apetyt na zasoby. Kluczowe kierunki to:
Choć techniczny koszt sztucznej inteligencji jest obecnie bardzo wysoki, wielu ekspertów argumentuje, że zoptymalizowane AI może w przyszłości pomóc nam... oszczędzać zasoby w innych dziedzinach, np. poprzez lepsze zarządzanie sieciami energetycznymi czy optymalizację logistyki transportowej. Na ten moment jednak, każda generowana przez nas „sztuczna myśl” ma swój bardzo realny, fizyczny koszt.