Novo chip acelerador de IA de Microsoft: Maia 200
luns, 26 de xaneiro do 2026
Microsoft presentou Maia 200, o seu novo acelerador de intelixencia artificial de nova xeración deseñado especificamente para tarefas de inferencia, co obxectivo de mellorar de maneira substancial a eficiencia económica da execución de grandes modelos de IA a escala. Trátase do maior fito ata o momento na estratexia de infraestrutura de IA de extremo a extremo da compañÃa, cunha mellora do 30 % no rendemento por dólar respecto dos sistemas actuais despregados por Azure.
Segundo explicou Scott Guthrie, vicepresidente executivo de Cloud + AI de Microsoft, Maia 200 é o sistema de inferencia máis eficiente desenvolvido pola compañÃa ata a data. O novo chip foi fabricado no proceso de 3 nanómetros de TSMC e incorpora núcleos tensoriais nativos FP8 e FP4, unha arquitectura de memoria profundamente redeseñada e motores avanzados de movemento de datos orientados a manter alimentados modelos de gran tamaño con altos niveis de utilización.
Cada chip Maia 200 integra máis de 140.000 millóns de transistores e conta con 216 GB de memoria HBM3e cun ancho de banda de 7 TB/s, ademais de 272 MB de SRAM integrada no propio chip. En termos de capacidade de cálculo, supera os 10 petaFLOPS en precisión de 4 bits e máis de 5 petaFLOPS en 8 bits, todo dentro dun consumo máximo de 750 vatios por SoC. Esta combinación permÃtelle executar sen dificultade os modelos máis grandes actuais e ofrece marxe para cargas aÃnda máis esixentes no futuro.
Microsoft destaca que Maia 200 non só aposta pola potencia bruta, senón tamén pola eliminación dos habituais colos de botella na alimentación de datos. O deseño incorpora tipos de datos de precisión reducida, motores DMA especializados, unha rede de interconexión interna optimizada e unha xestión avanzada da memoria, co obxectivo de incrementar o rendemento na xeración de tokens, un dos factores clave nos custos da inferencia de modelos lingüÃsticos de gran tamaño.
Este novo acelerador forma parte da infraestrutura heteroxénea de IA de Microsoft e dará servizo a múltiples modelos, incluÃdos os máis recentes GPT-5.2 de OpenAI, tanto en Microsoft Foundry como en Microsoft 365 Copilot. Ademais, o equipo de Superintelixencia de Microsoft empregará Maia 200 para a xeración de datos sintéticos e tarefas de aprendizaxe por reforzo, orientadas á mellora de modelos propios de próxima xeración. No ámbito da xeración de datos, a compañÃa subliña que o deseño do chip permite acelerar a creación e filtrado de datos especÃficos por dominio, achegando sinais máis recentes e precisos aos procesos de adestramento.
Maia 200 introduce unha arquitectura de escalado en dous niveis baseada en Ethernet estándar, prescindindo de tecidos propietarios. Unha capa de transporte personalizada e unha tarxeta de rede estreitamente integrada permiten ofrecer alto rendemento, fiabilidade e redución de custos. Cada acelerador dispón de 2,8 TB/s de ancho de banda bidireccional dedicado para escalado e permite operacións colectivas previsibles en clusters de ata 6.144 aceleradores, o que facilita a creación de grandes infraestruturas de inferencia cun menor custo total de propiedade.
Dentro de cada bandexa, catro aceleradores Maia están interconectados mediante ligazóns directas sen conmutación, mantendo as comunicacións de alto ancho de banda de forma local. O mesmo protocolo emprégase tanto dentro do rack como entre racks, o que simplifica a programación, mellora a flexibilidade das cargas de traballo e reduce a capacidade infrautilizada sen penalizar o rendemento.
Maia 200 xa está despregado no centro de datos de US Central, preto de Des Moines, en Iowa, e Microsoft prevé estender o seu uso á rexión US West 3, en Phoenix, Arizona, antes de chegar a outras localizacións. A integración con Azure é completa e a compañÃa iniciou unha fase de previsualización do Maia SDK, que inclúe integración con PyTorch, compilador Triton, bibliotecas de núcleos optimizados e acceso a unha linguaxe de baixo nivel especÃfica do acelerador, facilitando tanto a portabilidade de modelos como a optimización avanzada.
Microsoft subliña tamén o enfoque de desenvolvemento cloud-native seguido no proxecto, cunha ampla validación previa ao silicio que permitiu simular con precisión os patróns de cálculo e comunicación dos grandes modelos lingüÃsticos desde as primeiras fases. Grazas a esta estratexia, os primeiros modelos de IA comezaron a executarse en Maia 200 poucos dÃas despois da chegada das primeiras unidades empaquetadas, reducindo á metade o tempo habitual ata o despregamento en centros de datos.
Scott Guthrie falando de Maia 200
