Boom AI wywołuje deficyt DRAM i drożeją smartfony oraz komputery

Inwestycyjny boom wokół sztucznej inteligencji zaczyna uderzać w zwykłych kupujących tam, gdzie boli najbardziej — przy kasie. Financial Times podaje, że rosnący popyt na pamięci dla centrów danych już wywindował ceny układów, a analitycy ostrzegają: w ciągu najbliższego roku metki na smartfonach, komputerach i domowej elektronice mogą podskoczyć o 10–20%.

Najwięksi producenci biją na alarm. Dell, Lenovo, Raspberry Pi i Xiaomi przyznają, że niedobór pamięci winduje koszty wytwarzania i zostawia niewiele przestrzeni, by uniknąć podwyżek. COO Della Jeff Clarke stwierdził, że firma nie widziała jeszcze tak szybkiego wzrostu kosztów i że ostatecznie obciążenie spadnie na konsumentów. Raspberry Pi podniosło ceny już w grudniu, określając sytuację jako bolesną, a Lenovo zawczasu uzupełniło zapasy komponentów, by złagodzić uderzenie. W praktyce oznacza to, że temat AI przestaje dotyczyć odległych serwerowni — zaczyna się przy końcowej cenie na półce.

U źródeł problemu leży budowlana gorączka wokół centrów danych pod AI. Producenci pamięci priorytetyzują zamówienia z wyższą marżą, spychając segment elektroniki konsumenckiej w deficyt DRAM. To z kolei uruchamia efekt składowania — firmy kupują z wyprzedzeniem, dodatkowo podbijając ceny. Analitycy opisują rynek jako przegrzany i chaotyczny, a TrendForce przewiduje, że do końca 2025 r. ceny DRAM będą rosnąć w tempie 50–55% kwartał do kwartału. Sygnał jest jednoznaczny: podaż nie nadąża za apetytem.

Samsung i SK Hynix, które razem kontrolują około 70% globalnego rynku DRAM, sygnalizują, że ich moce produkcyjne na 2026 r. są już zarezerwowane. Według doniesień Samsung podniósł ceny niektórych układów nawet o 60%, a przedstawiciele firmy przyznają, że popyt napędzany AI znacznie przewyższa to, co branża jest w stanie dostarczyć. Dodatkową presję tworzą giganci chmury, tacy jak Amazon i Google, podpisując długoterminowe kontrakty — producenci urządzeń konsumenckich mają przy tym niewielkie pole manewru przy stole negocjacyjnym.

Szybkiego remedium nie widać. Eksperci finansowi szacują, że amerykańskie firmy technologiczne wydadzą w 2026 r. 620 mld dolarów na infrastrukturę AI, a do 2028 r. globalne nakłady mogą zbliżyć się do 3 bln dolarów. Citi i Nomura zakładają, że niedobór pamięci potrwa co najmniej do 2027 r., przy czym rok 2026 prawdopodobnie przyniesie jeszcze bardziej agresywne gromadzenie chipów. Nawet rozbudowa mocy w Samsungu i SK Hynix potrzebuje czasu: nowe faby zwykle wymagają dwóch–trzech lat, by ruszyć. Do tego momentu producenci będą balansować między wyższymi cenami a cieńszymi marżami, a dla gospodarstw domowych szok cenowy może być już wliczony w rachunek.