Maia 200 es el nuevo chip de inteligencia artificial de Microsoft diseñado para la inferencia de modelos. Con tecnología de 3 nanómetros y 140 mil millones de transistores, ofrece mayor rendimiento, eficiencia energética y competitividad en Azure, superando alternativas de Amazon y Google en velocidad y costo.
Microsoft
Maia 200: Acelerador de IA diseñado para la deducción
Comparte este artículo
CONTENIDO
Un acelerador para gran escala
Microsoft acaba de anunciar el Maia 200, su nuevo acelerador de inteligencia artificial diseñado para la inferencia de modelos de gran escala. Este chip representa un avance significativo en la estrategia de la compañía para optimizar el rendimiento de sus centros de datos y reducir costos energéticos, al tiempo que fortalece la infraestructura de Azure y servicios como Microsoft 365 Copilot. Con esta innovación, la empresa busca disminuir su dependencia de proveedores externos y posicionarse como líder en el desarrollo de hardware especializado para IA.

Tecnología de fabricación
El Maia 200 está fabricado con tecnología de 3 nanómetros de TSMC y cuenta con más de 140 mil millones de transistores, lo que lo convierte en uno de los chips más densos del mercado. Incorpora 216 GB de memoria HBM3e con un ancho de banda de 7 TB/s y 272 MB de SRAM integrada. En términos de rendimiento, ofrece más de 10 petaFLOPS en FP4 y 5 petaFLOPS en FP8, superando a competidores como el Trainium3 de Amazon y el TPU v7 de Google. Además, logra un 30 % más de rendimiento por dólar respecto a su predecesor, el Maia 100.

Sistemas de IA optimizados
La integración del Maia 200 con Azure es uno de sus puntos más fuertes. El chip ya está desplegado en regiones como US Central (Iowa) y próximamente estará disponible en US West 3 (Arizona), con planes de expansión global. Microsoft también lanzó el SDK Maia, que incluye simuladores, calculadoras de costos y herramientas de desarrollo para facilitar la optimización de modelos desde etapas tempranas. Esto permitirá a los desarrolladores aprovechar al máximo las capacidades del chip y reducir tiempos de implementación.
Innovación tecnológica
En cuanto a infraestructura, Maia 200 introduce innovaciones como una red de dos niveles basada en Ethernet estándar, que evita la dependencia de tejidos propietarios y permite escalar clústeres de hasta 6.144 aceleradores con un ancho de banda bidireccional de 2,8 TB/s. También incorpora sistemas avanzados de refrigeración líquida con la unidad HXU de segunda generación, lo que mejora la eficiencia térmica y contribuye a la sostenibilidad de los centros de datos.
En conclusión
En definitiva, Maia 200 no solo refuerza la posición de Microsoft en la carrera por chips de IA propios, sino que también marca un hito en la evolución de la inferencia de modelos. Con su despliegue global y herramientas de desarrollo asociadas, la compañía busca consolidar a Azure como una plataforma líder en inteligencia artificial, capaz de competir directamente con Amazon, Google y NVIDIA en un mercado cada vez más exigente.