Micron presenta su memoria HBM3E de 36GB mientras intenta alcanzar a Samsung y SK Hynix, que se apresuran hacia el próximo avance: HBM4 con 16 capas, un ancho de banda de 1.65TBps y modelos de 48GB.
La nueva memoria HBM3E de 36GB de Micron proporciona velocidades de procesamiento más rápidas mientras consume poca energía.
Micron ha presentado oficialmente su memoria HBM3E de 36GB con 12 capas, marcando su entrada en el competitivo sector de soluciones de memoria de alto rendimiento, especialmente para sistemas de inteligencia artificial y aplicaciones basadas en datos. Con el aumento de la complejidad de las cargas de trabajo en inteligencia artificial y el creciente volumen de datos, la necesidad de soluciones de memoria que sean eficientes en términos energéticos se vuelve fundamental. La memoria HBM3E de Micron busca ofrecer un equilibrio entre velocidad de procesamiento y menor consumo energético, características típicamente difíciles de conciliar en sistemas potentes.
Con una capacidad que incrementa en un 50% respecto a las ofertas actuales de HBM3E, la memoria de 36GB de Micron se convierte en un componente esencial para aceleradores de inteligencia artificial y centros de datos que manejan grandes cargas de trabajo. La HBM3E proporciona más de 1.2 terabytes por segundo (TB/s) de ancho de banda de memoria, con una velocidad de pin que supera los 9.2 gigabits por segundo (Gb/s), lo que garantiza un acceso rápido a datos para aplicaciones de inteligencia artificial. Además, se destaca por reducir el consumo de energía en un 30% en comparación con sus competidores.
A pesar de las mejoras significativas en capacidad y eficiencia energética que aporta la HBM3E, Micron entra en un campo dominado por Samsung y SK Hynix, quienes están en la carrera por desarrollar la próxima generación de memoria de alto ancho de banda: la HBM4. Se espera que la HBM4 cuente con 16 capas de DRAM y un rendimiento de más de 1.65TBps de ancho de banda, superando ampliamente las capacidades de la HBM3E. Además, con configuraciones que alcanzan hasta 48GB por apilamiento, la HBM4 proporcionará una mayor capacidad de memoria, permitiendo a los sistemas de inteligencia artificial gestionar cargas de trabajo cada vez más complejas.
A pesar del desafío que representan sus competidores, la memoria HBM3E de 12 capas de Micron se mantiene como un actor importante en el ecosistema de inteligencia artificial. La compañía ya ha comenzado a enviar unidades en producción a socios clave de la industria para su validación, facilitando así su integración en aceleradores de IA e infraestructuras de centros de datos. Gracias a su sólida red de soporte y asociaciones en el ecosistema, las soluciones de memoria de Micron se incorporan de manera efectiva en sistemas existentes, mejorando el rendimiento de las cargas de trabajo de IA.
Una colaboración notable es la que Micron mantiene con la Alianza 3DFabric de TSMC, que ayuda a optimizar la fabricación de sistemas de inteligencia artificial. Esta alianza respalda el desarrollo de la memoria HBM3E de Micron y garantiza su integración en diseños avanzados de semiconductores, lo que potencia aún más las capacidades de aceleradores de IA y supercomputadoras.