Cover Image for Descubre la tecnología eléctrica oculta que impulsa los enormes centros de datos de inteligencia artificial de Google, utilizando 400VDC y refrigeración líquida.

Descubre la tecnología eléctrica oculta que impulsa los enormes centros de datos de inteligencia artificial de Google, utilizando 400VDC y refrigeración líquida.

Un megavatio por rack ya no es una idea futurista.

Con la creciente demanda de cargas de trabajo de inteligencia artificial, la infraestructura de los centros de datos está experimentando una transformación rápida y radical. Empresas como Google, Microsoft y Meta están adoptando tecnologías inicialmente desarrolladas para vehículos eléctricos (EV), especialmente sistemas de 400VDC, para enfrentar los retos de entrega de energía de alta densidad y gestión térmica.

La transición hacia la distribución de energía a 400VDC representa un cambio significativo respecto a los sistemas tradicionales. Anteriormente, Google lideró el movimiento de la industria desde sistemas de 12VDC a 48VDC. Sin embargo, la actual migración a +/-400VDC está impulsada por las cadenas de suministro de vehículos eléctricos y la necesidad del mercado. La iniciativa Mt. Diablo, respaldada por Meta, Microsoft y el Open Compute Project (OCP), busca estandarizar interfaces a este nivel de voltaje. Según Google, esta arquitectura no solo optimiza el espacio en los racks para recursos computacionales, al desconectar la entrega de energía de los racks de TI mediante unidades AC-to-DC, sino que también mejora la eficiencia en aproximadamente un 3%.

El enfriamiento se ha convertido en un tema igualmente crítico. Con los chips de nueva generación consumiendo más de 1,000 vatios cada uno, el enfriamiento por aire se está volviendo obsoleto. La refrigeración líquida ha surgido como la única solución escalable para gestionar el calor en entornos computacionales de alta densidad. Google ha adoptado este método con despliegues a gran escala; sus pods TPU refrigerados por líquido operan a una escala de gigavatios y han logrado una disponibilidad del 99.999% durante los últimos siete años. Estos sistemas han reemplazado grandes disipadores de calor por placas frías compactas, lo que ha reducido a la mitad la huella física del hardware del servidor y cuadruplicado la densidad computacional en comparación con las generaciones anteriores.

A pesar de estos logros técnicos, existe un escepticismo razonable. El avance hacia racks de 1MW se basa en la suposición de que la demanda seguirá aumentando, una tendencia que podría no materializarse como se espera. Aunque la hoja de ruta de Google destaca las crecientes necesidades energéticas de la IA, proyectando más de 500 kW por rack para 2030, sigue siendo incierto si estas proyecciones se sostendrán en todo el mercado. Además, la integración de tecnologías relacionadas con los vehículos eléctricos en los centros de datos no solo aporta beneficios de eficiencia, sino que también introduce nuevas complejidades, particularmente en términos de seguridad y mantenimiento a altos voltajes.

Aun así, la colaboración entre los principales actores del mercado y la comunidad de hardware abierto indica un reconocimiento compartido de que los paradigmas existentes ya no son suficientes.