A OpenAI, dona do ChatGPT, e a Oracle planejam instalar um grande data center no Texas com dezenas de milhares de chips de inteligência artificial (IA) da Nvidia. A instalação será a primeira do projeto Stargate, um empreendimento conjunto de US$ 100 bilhões voltado à infraestrutura para IA.
O data center, localizado na cidade de Abilene, deve contar com 64 mil semicondutores GB200 da Nvidia até o final de 2026. A implementação será feita por fases, começando com 16 mil chips no verão dos Estados Unidos (inverno no Brasil). A OpenAI e a Oracle estão trabalhando juntas no projeto, sendo que a Oracle será responsável pela construção e operação do supercomputador.
Stargate representa avanço na computação para IA generativa
O investimento na Stargate reflete a crescente competição no setor de IA para ampliar a capacidade de processamento de chips da Nvidia, fundamentais para o treinamento de modelos de IA generativa. Empresas como xAI, de Elon Musk, e a Meta também estão expandindo suas infraestruturas. A xAI fechou um acordo de US$ 5 bilhões com a Dell para servidores de IA, enquanto a Meta pretende atingir uma capacidade equivalente a 600 mil Nvidia H100s.
Valor dos chips da Nvidia pode chegar a bilhões de dólares
A compra dos chips GB200 para a primeira fase da Stargate deve custar bilhões de dólares. Embora a Nvidia não tenha divulgado oficialmente o preço do GB200, o CEO Jensen Huang afirmou no ano passado que o modelo B200, menos potente, custa entre US$ 30.000 e US$ 40.000 por unidade.
OpenAI planeja expansão da Stargate em outras cidades dos EUA
Além do Texas, a OpenAI e a SoftBank analisam locais na Pensilvânia, Wisconsin e Oregon para futuras instalações do projeto Stargate. Salt Lake City, onde a Oracle já possui infraestrutura de computação em nuvem, também é considerada como uma opção para expansão.
Corrida por poder computacional impulsiona novas parcerias
A iniciativa da OpenAI e da Oracle faz parte de uma corrida global por infraestrutura de computação de alto desempenho para IA. Empresas como CoreWeave, provedora de nuvem voltada à IA, já possuem mais de 250 mil processadores gráficos Nvidia em 32 data centers. A expansão desses centros reflete a crescente demanda por poder computacional para suportar modelos avançados de inteligência artificial.