O investimento em infraestruturas para inteligência artificial (IA) atingiu valores astronómicos, com as gigantes tecnológicas a liderar uma corrida para construir os supercomputadores do futuro. Um novo relatório revela agora a dimensão real destes projetos, incluindo aquele que será o centro de dados mais caro alguma vez construído.

A dimensão astronómica dos novos supercomputadores

A organização Epoch AI publicou recentemente o Frontier Data Centers, uma base de dados exaustiva sobre os centros de dados de grande escala em construção nos Estados Unidos. Através da análise de imagens de satélite, documentos públicos e licenças de construção, a organização conseguiu obter informações detalhadas sobre os custos estimados, o consumo energético e a potência computacional destas megaestruturas.

O título de centro de dados mais caro do mundo é atribuído ao projeto Fairwater da Microsoft. Estima-se que o seu custo total possa atingir os 106 mil milhões de dólares quando estiver concluído, em 2028.

Este valor supera largamente o do Meta Hyperion, um centro de dados que terá a dimensão da ilha de Manhattan e cujo custo está previsto em 72 mil milhões de dólares. A lista de projetos colossais não fica por aqui:

  • Colossus 2 (xAI): custo estimado de 44 mil milhões de dólares.
  • Prometheus (Meta): custo estimado de 43 mil milhões de dólares.
  • New Carlisle (Amazon/Anthropic): custo estimado de 39 mil milhões de dólares.

Uma escalada de custos nunca antes vista

A evolução do custo do projeto Fairwater da Microsoft é um exemplo claro desta escalada vertiginosa. De acordo com as previsões da Epoch AI, o investimento, que será de 18 mil milhões de dólares em março de 2026, subirá para 35 mil milhões um ano depois. Apenas quatro meses mais tarde, em meados de 2027, o valor dispara para 71 mil milhões, culminando nos 106 mil milhões em 2028.

Esta inflação de custos nos centros de dados deve-se a vários fatores:

  • Em primeiro lugar, o custo computacional para treinar os modelos de IA tem vindo a aumentar exponencialmente.
    • O treino do GPT-4, por exemplo, custou à OpenAI mais de 100 milhões de dólares, e especula-se que cada ciclo de treino para o futuro GPT-5 possa rondar os 500 milhões.
    • A própria Epoch AI estimou que o custo de treino dos modelos de IA tem vindo a multiplicar-se por um fator de 2,6 a cada ano.
  • Outro fator determinante é a procura por GPUs, o componente mais caro e essencial para o treino destes modelos.
    • Uma única GPU NVIDIA H100 custa cerca de 25.000 dólares, e a sua sucessora, a Blackwell (B200), poderá ter um preço entre 30.000 e 40.000 dólares.

A estes valores somam-se os custos de outros componentes vitais, como geradores de energia, sistemas de refrigeração e redes de alta velocidade.

Se inicialmente o principal obstáculo era a escassez de GPUs, a indústria enfrenta agora uma restrição mais fundamental: a falta de energia para alimentar tantos processadores. O consumo energético destes centros de dados é colossal. Em 2024, estas infraestruturas já representam 4% do consumo elétrico total dos Estados Unidos, e prevê-se que esta procura duplique nos próximos cinco anos.

A concentração destes centros está a ter um impacto direto nas comunidades locais, onde ninguém os quer por perto. Um dos principais motivos é o aumento dos preços da energia, que em algumas zonas vizinhas já subiram até 267%. O fornecimento de eletricidade tornou-se, assim, o novo ponto de estrangulamento para o avanço da IA.

 

Leia também: