Samsung satsar på marknaden för artificiell intelligens och planerar att öka vinsterna avsevärt genom att skruva upp produktionen av specialiserat HBM4-minne. Dessa sjätte generationens chip med hög bandbredd kommer att bli nyckelkomponenter i nästa generations AI-acceleratorer från Nvidia och AMD. Till skillnad från klassisk DDR-minne erbjuder dessa lösningar tillverkarna betydligt högre marginaler, vilket gör inriktningen särskilt attraktiv.
Enligt tillgänglig information vill företaget öka produktionen av HBM4 DRAM till 120 000 wafers per månad. Det är ett stort drag som kräver stora investeringar, men Samsung vill etablera sig bland ledarna i den explosiva efterfrågan på AI-beräkningar. Acceleratormarknaden växer snabbt, och priset på minne med hög bandbredd stiger i takt med det.
För att stödja expansionen uppgraderar Samsung P4-linjen vid fabriken i Pyeongtaek genom att installera ny utrustning och förbättra befintliga processer. Företaget vill inte bara öka volymerna utan också höja produktionseffektiviteten för att konkurrera på lika villkor med SK Hynix och Micron.
Det är värt att notera att Samsung nyligen låg efter konkurrenterna inom HBM3E-segmentet, men läget förändras nu. Preliminära uppgifter tyder på att Samsungs HBM4 kan överträffa konkurrenternas prestanda tack vare en mer avancerad tillverkningsprocess. Om företaget konsekvent når de uppsatta volymerna kan det inte bara komma ikapp konkurrenterna utan också sätta takten för hela AI-minnesmarknaden.