Gość (37.30.*.*)
To, ile zasobów mocy obliczeniowej pochłania sztuczna inteligencja na wygenerowanie obrazka lub przerobienie zdjęcia, to jedno z najczęściej pomijanych, ale jednocześnie kluczowych pytań w kontekście dynamicznego rozwoju AI. Odpowiedź nie jest prosta, ponieważ zależy od wielu czynników, ale możemy ją sprowadzić do konkretnych liczb i porównań.
W skrócie: wygenerowanie pojedynczego obrazu przez zaawansowane modele, takie jak Midjourney, DALL-E czy Stable Diffusion, zużywa zaskakująco dużo energii, choć z perspektywy użytkownika końcowego jest to proces niemal natychmiastowy.
Kiedy wpisujesz prompt i czekasz kilka sekund na spektakularny efekt, za kulisami pracują potężne centra danych. Badacze ze startupu Hugging Face i Carnegie Mellon University przyjrzeli się temu problemowi i doszli do zaskakujących wniosków.
Według ich szacunków, wygenerowanie jednej grafiki przez AI zużywa tyle energii, co jednorazowe naładowanie smartfona.
W szerszej skali, koszty środowiskowe stają się bardziej namacalne:
Jedno zapytanie do ChatGPT może być nawet pięciokrotnie bardziej energochłonne niż zwykłe wyszukiwanie w Google. To pokazuje, że nawet na poziomie tekstowym AI jest znacznie bardziej "prądożerna" niż tradycyjne technologie.
Moc obliczeniowa AI jest mierzona głównie w kontekście czasu pracy na jednostkach GPU (Graphics Processing Unit), które są kluczowe dla szybkich obliczeń równoległych w modelach generatywnych.
W przypadku popularnych modeli, takich jak Stable Diffusion, które można uruchomić lokalnie na własnym komputerze, wymagania sprzętowe dają nam wgląd w to, jakiego rodzaju zasoby są potrzebne do wykonania zadania:
| Element sprzętu | Minimalne wymagania | Zalecane wymagania |
|---|---|---|
| Karta graficzna (GPU) | 4 GB pamięci VRAM (np. NVIDIA lub AMD) | 8 GB VRAM lub więcej (np. NVIDIA GeForce RTX 3060 z 12 GB VRAM) |
| Pamięć RAM | 8 GB | 16 GB+ |
| Miejsce na dysku | 20 GB (na modele i oprogramowanie) | 50 GB+ |
Generowanie obrazu na procesorze (CPU) jest możliwe, ale drastycznie wydłuża czas oczekiwania, dlatego praktycznie zawsze wykorzystuje się do tego celu karty graficzne. Szybkość generowania zależy bezpośrednio od mocy i ilości pamięci VRAM karty graficznej.
Przerabianie zdjęć za pomocą AI, czyli tzw. edycja typu image-to-image (np. usuwanie obiektów, zmiana tła, dodawanie elementów za pomocą promptów, jak w narzędziach typu Magic Edit w Canvie czy OpenArt), również opiera się na modelach generatywnych, często tych samych co do tworzenia obrazów od zera (np. Stable Diffusion).
Zużycie mocy obliczeniowej w przypadku edycji jest bardzo zbliżone do generowania, ponieważ:
Ostateczne zużycie zasobów zależy od złożoności zadania: proste usunięcie tła jest mniej wymagające niż skomplikowane dodanie fotorealistycznego obiektu w określonym stylu i oświetleniu. Jednak w obu przypadkach, mówimy o obciążeniu, które wymaga dostępu do potężnej infrastruktury GPU w chmurze lub bardzo wydajnej karty graficznej na komputerze lokalnym.