Gość (37.30.*.*)
Sztuczna inteligencja przestała być jedynie technologiczną ciekawostką, a stała się potężnym silnikiem napędzającym całą gospodarkę cyfrową. Choć większość z nas kojarzy AI z czatami czy generowaniem obrazów, jej rzeczywisty wpływ zaczyna się znacznie głębiej – wewnątrz serwerowni, na poziomie krzemowych wafli i kości pamięci. To właśnie tam rozgrywa się walka o zasoby, która bezpośrednio przekłada się na to, ile zapłacimy za RAM do laptopa czy dysk SSD do konsoli.
Kluczowym elementem układanki AI są pamięci o wysokiej przepustowości, znane jako HBM (High Bandwidth Memory). To specjalistyczny rodzaj pamięci RAM, który montuje się bezpośrednio obok potężnych procesorów graficznych (GPU), takich jak te produkowane przez Nvidię. AI wymaga błyskawicznego przesyłania gigantycznych ilości danych, a standardowe kości DDR5 po prostu nie nadają się do tego zadania w skali centrów danych.
Obecnie najwięksi producenci, tacy jak SK Hynix, Samsung i Micron, przestawiają swoje linie produkcyjne właśnie na HBM. Problem polega na tym, że produkcja HBM jest znacznie trudniejsza i zajmuje więcej miejsca na waflu krzemowym niż produkcja zwykłego RAM-u. W efekcie, moce przerobowe fabryk, które wcześniej służyły do wytwarzania pamięci dla „zwykłych śmiertelników”, są teraz rezerwowane dla gigantów technologicznych budujących modele językowe.
Mechanizm jest prosty: prawo podaży i popytu. Skoro producenci wolą sprzedawać droższe i bardziej marżowe pamięci HBM do serwerów AI, produkują mniej standardowych kości DDR4 i DDR5. Mniejsza podaż przy stałym lub rosnącym popycie na komputery osobiste nieuchronnie prowadzi do wzrostu cen.
Analitycy rynkowi zauważają, że po okresie rekordowo niskich cen pamięci w 2023 roku, rok 2024 i 2025 przynoszą systematyczne podwyżki. Choć nie jest to skok tak drastyczny, jak w przypadku kart graficznych podczas „ery koparek kryptowalut”, trend jest wyraźny. Kupując dzisiaj 16 GB lub 32 GB pamięci RAM, musimy liczyć się z tym, że za kilka miesięcy ten sam zestaw może być o kilkanaście procent droższy.
Sztuczna inteligencja to nie tylko szybkie obliczenia, ale też gigantyczne zbiory danych (Big Data), które trzeba gdzieś przechowywać. Modele AI „uczą się” na petabajtach informacji, co generuje ogromne zapotrzebowanie na pamięci NAND Flash, stosowane w dyskach SSD.
W segmencie korporacyjnym popyt na dyski SSD o bardzo dużych pojemnościach (np. 30 TB i więcej) wystrzelił w górę. To powoduje, że producenci przesuwają priorytety z tanich dysków konsumenckich na wysokomarżowe rozwiązania dla centrów danych. Dla przeciętnego użytkownika oznacza to dwa zjawiska:
Aby uruchomić zaawansowany model językowy (taki jak GPT-4) w pełnej krasie, nie wystarczy domowy komputer. Szacuje się, że trenowanie nowoczesnych modeli wymaga dziesiątek tysięcy procesorów graficznych, z których każdy posiada od 80 do 141 GB ultra-szybkiej pamięci HBM3e. Sumarycznie mówimy o wartościach idących w setki terabajtów pamięci operacyjnej pracującej w jednym klastrze obliczeniowym.
Na ten moment całkowity brak dostępności pamięci RAM czy dysków SSD nam nie grozi. Rynek konsumencki jest zbyt duży, by producenci mogli go całkowicie zignorować. Jednak musimy przyzwyczaić się do nowej rzeczywistości, w której „podatek od AI” jest wliczony w cenę każdego podzespołu.
Jeśli planujesz modernizację komputera lub budowę nowej jednostki, warto monitorować rynek. Eksperci sugerują, że każda większa premiera nowych układów od Nvidii czy AMD, dedykowanych pod AI, może wywoływać chwilowe zawirowania w łańcuchach dostaw pamięci.
W obecnej sytuacji najlepszą strategią jest unikanie zakupów „na ostatnią chwilę”. Jeśli widzisz atrakcyjną promocję na zestaw DDR5 lub szybki dysk SSD, warto z niej skorzystać, zamiast czekać na mityczne dalsze obniżki. AI nie zwolni tempa, a apetyt gigantów technologicznych na pamięć będzie tylko rósł, co sprawia, że powrót do ekstremalnie niskich cen z początku 2023 roku jest obecnie mało prawdopodobny.
Warto też zwrócić uwagę na rynek wtórny, choć w przypadku pamięci RAM i SSD zawsze wiąże się to z pewnym ryzykiem (zużycie komórek w SSD). Niemniej jednak, w dobie „boomu na AI”, każda optymalizacja budżetu przy składaniu PC staje się ważniejsza niż kiedykolwiek wcześniej.