Samsung mise sur la mémoire HBM4 pour l'intelligence artificielle

Samsung mise sur le marché de l'intelligence artificielle et prévoit d'augmenter significativement ses profits en accélérant la production de mémoire spécialisée HBM4. Ces puces de sixième génération à haute bande passante deviendront des composants clés dans les accélérateurs d'IA de nouvelle génération de Nvidia et AMD. Contrairement à la mémoire DDR classique, ces solutions offrent aux fabricants des marges bien plus élevées, ce qui rend cette direction particulièrement attractive.

D'après les informations disponibles, l'entreprise vise à porter la production de DRAM HBM4 à 120 000 plaquettes par mois. Il s'agit d'une démarche majeure nécessitant des investissements substantiels, mais Samsung cherche clairement à s'imposer parmi les leaders face à la croissance explosive de la demande en calcul IA. Le marché des accélérateurs s'accélère rapidement, et avec lui, les prix de la mémoire à haute bande passante augmentent.

Pour soutenir cette expansion, Samsung modernise la ligne P4 de son usine de Pyeongtaek, en installant de nouveaux équipements et en améliorant les processus existants. L'entreprise ne cherche pas seulement à augmenter les volumes, mais aussi à renforcer l'efficacité de la production pour rivaliser à armes égales avec SK Hynix et Micron.

Il est notable que Samsung a récemment pris du retard face à ses concurrents dans le segment HBM3E, mais la situation évolue désormais. Des données préliminaires suggèrent que le HBM4 de Samsung pourrait surpasser ses homologues en performance grâce à un procédé de fabrication plus avancé. Si l'entreprise parvient à atteindre régulièrement les volumes annoncés, elle pourrait non seulement rattraper ses concurrents, mais aussi donner le rythme pour l'ensemble du marché de la mémoire IA.