Samsung satser tungt på HBM4-minnebrikker for AI-akseleratorer

Samsung satser tungt på kunstig intelligens-markedet og planlegger å øke fortjenesten betydelig ved å skru opp produksjonen av spesialiserte HBM4-minnebrikker. Disse sjette generasjons brikkene med høy båndbredde vil bli nøkkelkomponenter i neste generasjons AI-akseleratorer fra Nvidia og AMD. I motsetning til klassisk DDR-minne tilbyr disse løsningene produsentene betydelig høyere marginer, noe som gjør retningen spesielt attraktiv.

Ifølge tilgjengelig informasjon sikter selskapet mot å øke HBM4 DRAM-produksjonen til 120 000 wafere per måned. Dette er et stort trekk som krever betydelige investeringer, men Samsung har tydeligvis som mål å etablere seg blant lederne i lys av eksplosiv vekst i etterspørselen etter AI-beregninger. Akseleratormarkedet akselererer raskt, og sammen med det stiger prisene på høybåndbreddeminne.

For å støtte denne ekspansjonen oppgraderer Samsung P4-linjen ved fabrikken i Pyeongtaek, installerer nytt utstyr og forbedrer eksisterende prosesser. Selskapet ønsker ikke bare å øke volumene, men også å forbedre produksjonseffektiviteten for å konkurrere på lik linje med SK Hynix og Micron.

Det er verdt å merke seg at Samsung nylig lå bak konkurrentene i HBM3E-segmentet, men situasjonen endrer seg nå. Foreløpige data tyder på at Samsungs HBM4 kan overgå motstykker i ytelse takket være en mer avansert produksjonsprosess. Hvis selskapet konsekvent kan nå de oppgitte volumene, kan det ikke bare ta igjen konkurrentene, men også sette farten for hele AI-minnemarkedet.