Samsung inwestuje w pamięć HBM4 dla akceleratorów AI

Samsung stawia na rynek sztucznej inteligencji i planuje znacząco zwiększyć zyski, intensyfikując produkcję wyspecjalizowanej pamięci HBM4. Te chipy szóstej generacji o wysokiej przepustowości staną się kluczowymi komponentami w akceleratorach AI nowej generacji od Nvidii i AMD. W przeciwieństwie do klasycznej pamięci DDR, te rozwiązania oferują producentom znacznie wyższe marże, co czyni ten kierunek szczególnie atrakcyjnym.

Jak wynika z dostępnych informacji, firma dąży do zwiększenia produkcji DRAM HBM4 do 120 000 wafli miesięcznie. To poważny krok wymagający dużych inwestycji, ale Samsung wyraźnie zamierza umocnić się wśród liderów w obliczu gwałtownego wzrostu popytu na obliczenia AI. Rynek akceleratorów przyspiesza w szybkim tempie, a wraz z nim rosną ceny pamięci o wysokiej przepustowości.

Aby wesprzeć tę ekspansję, Samsung modernizuje linię P4 w swojej fabryce w Pyeongtaek, instalując nowe urządzenia i udoskonalając istniejące procesy. Firma dąży nie tylko do zwiększenia wolumenów, ale także do poprawy efektywności produkcji, aby konkurować na równych warunkach z SK Hynix i Micron.

Warto zauważyć, że Samsung niedawno pozostawał w tyle za konkurentami w segmencie HBM3E, ale sytuacja się zmienia. Wstępne dane sugerują, że HBM4 Samsunga może przewyższyć konkurencję pod względem wydajności dzięki bardziej zaawansowanemu procesowi produkcyjnemu. Jeśli firma będzie w stanie konsekwentnie osiągać deklarowane wolumeny, może nie tylko dogonić rywali, ale także wyznaczać tempo dla całego rynku pamięci AI.