Samsung investeert in HBM4-geheugen voor AI-markt en hogere marges

Samsung zet in op de kunstmatige intelligentiemarkt en wil de winst aanzienlijk verhogen door de productie van gespecialiseerd HBM4-geheugen op te voeren. Deze zesde generatie chips met hoge bandbreedte worden cruciale onderdelen in de volgende generatie AI-accelerators van Nvidia en AMD. In tegenstelling tot klassiek DDR-geheugen bieden deze oplossingen fabrikanten aanzienlijk hogere marges, wat deze richting bijzonder aantrekkelijk maakt.

Volgens beschikbare informatie streeft het bedrijf ernaar de HBM4 DRAM-productie te verhogen tot 120.000 wafers per maand. Dit is een grote stap die aanzienlijke investeringen vereist, maar Samsung wil zich duidelijk vestigen als leider te midden van de explosieve groei in de vraag naar AI-rekenkracht. De acceleratormarkt versnelt snel, en daarmee stijgen ook de prijzen voor hoogbandbreedtegeheugen.

Om deze uitbreiding te ondersteunen, moderniseert Samsung de P4-lijn in zijn fabriek in Pyeongtaek, installeert nieuwe apparatuur en verbetert bestaande processen. Het bedrijf wil niet alleen de volumes verhogen, maar ook de productie-efficiëntie verbeteren om op gelijke voet te kunnen concurreren met SK Hynix en Micron.

Opmerkelijk is dat Samsung recent achterliep op concurrenten in het HBM3E-segment, maar de situatie verandert nu. Voorlopige gegevens suggereren dat Samsung's HBM4 mogelijk beter presteert dan tegenhangers dankzij een geavanceerdere fabricageproces. Als het bedrijf de gestelde volumes consistent kan bereiken, zou het niet alleen de concurrentie kunnen inhalen, maar ook het tempo kunnen bepalen voor de gehele AI-geheugenmarkt.