Samsung apuesta por la memoria HBM4 para impulsar la inteligencia artificial

Samsung apuesta por el mercado de la inteligencia artificial y planea aumentar significativamente sus beneficios incrementando la producción de memoria HBM4 especializada. Estos chips de sexta generación con alto ancho de banda serán componentes clave en los aceleradores de IA de próxima generación de Nvidia y AMD. A diferencia de la memoria DDR clásica, estas soluciones ofrecen a los fabricantes márgenes sustancialmente más altos, lo que hace esta dirección especialmente atractiva.

Según la información disponible, la compañía pretende elevar la producción de DRAM HBM4 a 120,000 obleas por mes. Se trata de un movimiento importante que requiere una inversión considerable, pero Samsung claramente busca posicionarse entre los líderes ante el crecimiento explosivo de la demanda de computación para IA. El mercado de aceleradores avanza rápidamente, y con él, suben los precios de la memoria de alto ancho de banda.

Para respaldar esta expansión, Samsung está actualizando la línea P4 en su fábrica de Pyeongtaek, instalando nuevo equipo y mejorando los procesos existentes. La empresa no solo busca aumentar volúmenes, sino también mejorar la eficiencia productiva para competir en igualdad de condiciones con SK Hynix y Micron.

Vale la pena destacar que Samsung se había quedado atrás de sus competidores en el segmento HBM3E, pero la situación ahora está cambiando. Los datos preliminares sugieren que el HBM4 de Samsung podría superar a sus contrapartes en rendimiento gracias a un proceso de fabricación más avanzado. Si la compañía logra alcanzar de manera consistente los volúmenes declarados, no solo podría ponerse al día con los competidores, sino también marcar el ritmo para todo el mercado de memoria de IA.