A Microsoft lançou recentemente o seu segundo chip de Inteligência Artificial (IA) chamado Maia 200. O novo componente é a aposta da empresa na disputa com a Nvidia, Google e Amazon pela infra-estrutura de IA em nuvem.
O novo modelo é apresentado dois anos após a sua primeira versão, o Maia 100, que não chegou a ser disponibilizado aos clientes. “É o sistema de inferência mais eficiente que a Microsoft já implementou”, afirmou Scott Guthrie, vice-presidente executivo da Microsoft para a nuvem e IA, numa publicação citada pela agência EFE.
Segundo a empresa, o chip foi concebido como um processador para inferência e oferece até 30% de desempenho por dólar do que o hardware actualmente utilizado pela Microsoft. Além disso, já está a ser implementado em centros de dados da Azure, nos Estados Unidos, para reforçar serviços como o Microsoft 365 Copilot, o Foundry e os mais recentes modelos GPT da OpenAI.
De acordo com o portal Notícias ao Minuto, os grandes fornecedores de cloud esforçam-se por desenvolver microcircuitos próprios que não dependam exclusivamente da Nvidia, líder do mercado. Os lançamentos da Amazon, da Google e, mais recentemente, da Microsoft intensificam a concorrência num mercado em rápida expansão.
Por seu turno, a revista Exame sublinha que, através de num comunicado, a companhia informou que o Maia 200 possui mais de 100 mil milhões de transistores projectados para lidar com altas cargas de trabalho, sobretudo na fase de inferência, quando os modelos já treinados são executados em aplicações reais.
Nos testes técnicos divulgados pela empresa, o chip alcançou até dez petaFLOPS em operações de precisão reduzida e conta com 216 GB de memória rápida, o que permite a execução de grandes modelos de Inteligência Artificial numa única unidade.
Ao manter os dados “próximos” ao processador, o Maia 200 reduz a necessidade de muitas máquinas e, assim, os custos operacionais. Segundo a empresa, o chip tem um desempenho 30% superior por dólar relativamente aos sistemas mais avançados actualmente em utilização.
A nota acrescenta ainda que a Microsoft utilizará o Maia 200 para hospedar o modelo GPT-5.2 da OpenAI e outros para o Microsoft Foundry e o Microsoft 365 Copilot.
O chip já está em operação na região central dos Estados Unidos, Azure, e deve chegar, num futuro próximo, a outras regiões.