Home Negocio“Azure Maia 200: Nuevo Acelerador de IA de Microsoft”

“Azure Maia 200: Nuevo Acelerador de IA de Microsoft”

by Editora de Negocio

Microsoft ha presentado oficialmente Azure Maia 200, su acelerador de inteligencia artificial (IA) de última generación. Este chip de servidor de segunda generación de la serie Maia está diseñado específicamente para las necesidades de inferencia de modelos de IA. La compañía lo posiciona como el sistema de inferencia más eficiente hasta la fecha, afirmando que ofrece un rendimiento un 30% superior por dólar invertido en comparación con su predecesor, Maia 100.

Especificaciones técnicas y rendimiento

Maia 200 se fabrica utilizando el proceso tecnológico TSMC de 3 nanómetros (nm) y contiene 140 mil millones de transistores. Según la información proporcionada por Microsoft, el chip ofrece un rendimiento de hasta 10 PetaFLOPS en cálculos FP4, lo que representa tres veces más que el chip Amazon Trainium3 de la competencia. El dispositivo está equipado con 216 GB de memoria HBM3e con un ancho de banda de 7 TB/s, así como 272 MB de memoria SRAM interna.

Se ha prestado especial atención a la arquitectura de la memoria. La SRAM interna se divide en SRAM a nivel de clúster (CSRAM) y SRAM a nivel de mosaico (TSRAM), lo que permite una distribución más eficiente de la carga entre la HBM y la memoria local. Este enfoque garantiza un funcionamiento estable y eficiente energéticamente en cargas de trabajo FP4 y FP8, que son cruciales para los modelos de inferencia modernos.

Eficiencia energética y comparación con la competencia

Aunque la potencia de diseño térmico (TDP) de Maia 200 es un 50% mayor que la de Maia 100, Microsoft afirma que la eficiencia energética general ha aumentado. A modo de comparación, Nvidia Blackwell B300 Ultra funciona con una TDP de aproximadamente 1400 W, mientras que Maia 200 lo hace con 750 W. El modelo anterior, Maia 100, con una TDP de 700 W, en realidad funcionaba alrededor de los 500 W.

leer más  Hexagon Robotics y Microsoft: Robots con IA para Industria

La comparación directa con los productos de Nvidia es compleja, ya que Maia 200 no se vende a clientes externos y el ecosistema de software de Nvidia está significativamente más maduro. Sin embargo, en términos de eficiencia energética, la solución de Microsoft parece convincente, especialmente considerando la creciente crítica al impacto ambiental de la IA y al consumo excesivo de energía.

Implementación y planes futuros

Los aceleradores Maia 200 ya están en funcionamiento en el centro de datos Azure US Central. Microsoft planea implementarlos pronto también en US West 3 (Phoenix, Arizona) y en otras regiones como parte de una infraestructura híbrida, donde Maia 200 operará junto con otros aceleradores de IA. El desarrollo del chip, que anteriormente se conocía con el nombre en clave Braga, se ha prolongado; inicialmente estaba previsto lanzarlo a finales de 2025.

Según información preliminar, la próxima solución de hardware de Microsoft podría fabricarse utilizando el proceso tecnológico Intel 18A, del que Nvidia ha desistido.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.