Jakie masz pytanie?

lub

Ile zasobów z technicznego punktu widzenia zużywa sztuczna inteligencja?

Zużycie energii obliczeniowej Koszty infrastruktury cyfrowej Zasoby wodne chłodzenia
avatar

Gość (37.30.*.*)



Odpowiedź:

Kiedy wpisujesz zapytanie do ChatGPT lub generujesz obrazek w Midjourney, rzadko zastanawiasz się nad tym, co dzieje się „pod maską”. Tymczasem za każdą błyskawiczną odpowiedzią stoi potężna machina, która pochłania zasoby w tempie, o jakim jeszcze dekadę temu nam się nie śniło. Sztuczna inteligencja to nie tylko kod – to przede wszystkim gigantyczne centra danych, tysiące procesorów graficznych i hektolitry wody. Przyjrzyjmy się bliżej, jak wygląda techniczny „rachunek” za korzystanie z AI.

Energia elektryczna: paliwo dla cyfrowego mózgu

Największym i najbardziej widocznym kosztem technologicznym AI jest prąd. Proces ten dzielimy na dwa główne etapy: trenowanie modelu oraz wnioskowanie (czyli udzielanie odpowiedzi użytkownikom).

Trenowanie dużych modeli językowych (LLM), takich jak GPT-4, to proces trwający miesiące, w którym tysiące jednostek GPU (np. Nvidia H100) pracują na pełnych obrotach 24 godziny na dobę. Szacuje się, że trenowanie modelu GPT-3 zużyło około 1,28 gigawatogodziny (GWh) energii. Dla porównania, przeciętne polskie gospodarstwo domowe zużywa około 2 megawatogodzin (MWh) rocznie. Oznacza to, że samo „nauczenie” modelu podstawowych umiejętności pochłonęło tyle prądu, co 640 domów przez cały rok.

Jednak to wnioskowanie generuje największe koszty w dłuższej perspektywie. Każde pojedyncze zapytanie do AI zużywa od 10 do nawet 30 razy więcej energii niż zwykłe wyszukiwanie w Google. Według raportów, dzienny koszt utrzymania infrastruktury ChatGPT w szczytowych momentach popularności wynosił setki tysięcy dolarów, głównie ze względu na zapotrzebowanie na moc obliczeniową.

Woda: cichy bohater chłodzenia

Mało kto łączy sztuczną inteligencję z zasobami wodnymi, a jednak są one kluczowe. Serwery wypełnione procesorami generują ogromne ilości ciepła. Aby zapobiec ich stopieniu, centra danych muszą być intensywnie chłodzone. Stosuje się do tego albo klimatyzację (co zwiększa zużycie prądu), albo systemy chłodzenia wyparnego, które zużywają wodę.

Badania przeprowadzone przez naukowców z University of California wskazują, że każda krótka rozmowa z ChatGPT (składająca się z 20-50 pytań i odpowiedzi) „kosztuje” środowisko około 500 ml wody. W skali globalnej, giganci technologiczni tacy jak Microsoft czy Google raportują wzrost zużycia wody o kilkanaście do kilkudziesięciu procent rok do roku, co jest bezpośrednio powiązane z rozwojem infrastruktury pod AI.

Sprzęt i metale ziem rzadkich

Z technicznego punktu widzenia AI nie istnieje bez krzemu. Sercem współczesnej rewolucji są procesory graficzne (GPU) i dedykowane układy TPU. Produkcja tych komponentów to proces niezwykle zasobożerny:

  • Półprzewodniki: Wymagają ultra-czystej wody i ogromnych ilości energii już na etapie produkcji.
  • Metale ziem rzadkich: Lit, kobalt, miedź i inne pierwiastki są niezbędne do budowy nowoczesnej elektroniki. Ich wydobycie jest kosztowne i obciążające dla planety.
  • Cykl życia: Sprzęt do AI starzeje się moralnie bardzo szybko. Nowe, wydajniejsze architektury pojawiają się co 12-18 miesięcy, co zmusza firmy do ciągłej wymiany tysięcy serwerów, generując tony elektrośmieci.

Ciekawostka: Dlaczego akurat GPU?

Początkowo procesory graficzne (GPU) służyły głównie do renderowania grafiki w grach wideo. Okazało się jednak, że ich architektura, oparta na przetwarzaniu równoległym (wykonywaniu tysięcy prostych operacji jednocześnie), idealnie nadaje się do obliczeń macierzowych, na których opierają się sieci neuronowe. To dlatego Nvidia stała się jednym z najpotężniejszych graczy na rynku AI.

Dane: cyfrowa przestrzeń magazynowa

Ostatnim, często pomijanym zasobem, jest przestrzeń dyskowa i przepustowość sieci. Modele AI są karmione petabajtami danych. Przechowywanie tych zbiorów, ich czyszczenie, przesyłanie między kontynentami i ciągła archiwizacja wymagają tysięcy dysków SSD i HDD, które również pobierają energię i mają ograniczoną żywotność.

Czy AI może stać się bardziej oszczędna?

Inżynierowie pracują nad rozwiązaniami, które mają ograniczyć ten apetyt na zasoby. Kluczowe kierunki to:

  1. Kwantyzacja modeli: Zmniejszanie precyzji obliczeń w taki sposób, aby model zajmował mniej pamięci i zużywał mniej energii, przy zachowaniu niemal identycznej skuteczności.
  2. Modele wyspecjalizowane: Zamiast jednego gigantycznego modelu do wszystkiego, tworzy się mniejsze, dedykowane jednostki (np. tylko do pisania kodu), które są znacznie lżejsze.
  3. Algorytmy „Green AI”: Optymalizacja kodu pod kątem efektywności energetycznej, a nie tylko czystej wydajności.

Choć techniczny koszt sztucznej inteligencji jest obecnie bardzo wysoki, wielu ekspertów argumentuje, że zoptymalizowane AI może w przyszłości pomóc nam... oszczędzać zasoby w innych dziedzinach, np. poprzez lepsze zarządzanie sieciami energetycznymi czy optymalizację logistyki transportowej. Na ten moment jednak, każda generowana przez nas „sztuczna myśl” ma swój bardzo realny, fizyczny koszt.

Podziel się z innymi: