Inteligência Artificial

Como a Amazon, Google e Microsoft querem atacar o mercado da Nvidia investindo em hardware

Dependência nunca foi um bom negócio no Vale do Silício, e as big techs não estão bem com um único fornecedor de chips de inteligência artificial

Adam Selipsky, CEO da Amazon Web Services (AWS), e Jensen Huang, CEO da Nvidia: novas rivais? (Noah Berger/Getty Images)

Adam Selipsky, CEO da Amazon Web Services (AWS), e Jensen Huang, CEO da Nvidia: novas rivais? (Noah Berger/Getty Images)

André Lopes
André Lopes

Repórter

Publicado em 29 de janeiro de 2024 às 12h16.

Última atualização em 30 de janeiro de 2024 às 07h31.

Em setembro do ano passado, a Amazon anunciou um investimento de US$ 4 bilhões na Anthropic, uma startup de São Francisco que desenvolve inteligência artificial (IA) generativa, o tipo de IA que responde após um comando ser enviado por texto, áudio ou imagem.

Pode parecer óbvio apostar em um possível concorrente para o ChatGPT da OpenAI, mas o plano faz parte de uma estratégia maior da empresa para criar uma concorrência viável para um outro player importante: a Nvidia.

O motivo é que a empresa de chips liderada por Jensen Huang atualmente domina sozinha os cérebros das inteligências artificiais com seus chips especializados.

Para conseguir incomodar a líder, a Amazon escolheu a Anthropic com a condição de a empresa concordar em construir as IAs utilizando apenas os componentes criados pela própria Amazon.

E faz sentido propor uma segunda via nesse mercado. Diante da crescente demanda e do alto custo dos sistemas da Nvidia, gigantes da tecnologia como Google, Meta e Microsoft estão desenvolvendo seus próprios chips de IA. Essa iniciativa pode proporcionar controle mais direto sobre custos e eliminar a escassez de chips, além de abrir a possibilidade de oferecer acesso a esses chips por meio de serviços de nuvem, facilitando o acesso a IAs de empresas menores.

Embora a Nvidia tenha vendido 2,5 milhões de chips no ano passado e controle 70% do mercado, o Google gastou entre US$ 2 bilhões e US$ 3 bilhões construindo cerca de um milhão de seus próprios chips de IA. Já a Amazon, por hora, gastou US$ 200 milhões em 100 mil chips no ano passado.

Todo esse rearranjo deve dividir melhor a fatia do mercado de chips de IA, projetado para mais que dobrar até 2027, atingindo cerca de US$ 140 bilhões. E ainda que startups entrem na jogada, a vantagem, claro, é das gigantes como a Amazon.

Desafio para os grandes

A tarefa de fabricar um chip não é das mais fáceis, não por acaso, a Nvidia levou quase 30 anos para chegar no patamar dos dias atuais. Mas há sucessos no setor que provam ser possível.

A Apple, por exemplo, projeta seus próprios componentes de silício para iPhones e Macs, e a Amazon implantou mais de dois milhões de seus próprios chips de servidor tradicionais em seus data centers de computação em nuvem

No caso da IA, o Google tem a maior vantagem no desenvolvimento de chips. Em 2017, a empresa do buscador criou um hardware que realiza o processamento de tensores, ou TPU, em homenagem a um tipo de cálculo vital para a construção de inteligência artificial. O Google usou dezenas de milhares de TPUs para construir produtos de IA, incluindo seu chatbot, Google Bard.

E outras empresas usaram o chip através do serviço de nuvem do Google para construir tecnologias semelhantes, incluindo a startup Cohere, que se tornou unicórnio recentemente.

Contudo, mesmo com as opções, nenhuma dessas empresas parece próxima da Nvidia. Seus chips podem ser caros, mas há um motivo para isso.

Acompanhe tudo sobre:AmazonNvidiaChips

Mais de Inteligência Artificial

CEO da Nvidia teve chance de comprar empresa no passado — mas recusou

WhatsApp testa ferramenta de transcrição de áudio para agilizar comunicação

Perplexity AI planeja anúncios publicitários em sua ferramenta de busca por IA

Inteligência artificial em nome da fé: tecnologia vira ferramenta de preservação do Vaticano