Inteligência Artificial

Lançamento do Gemini 2.0 inaugura caminho para Google estrear sua "era dos agentes"

Nova versão traz geração de imagens e áudios nativos, além de velocidade e precisão aprimoradas

André Lopes
André Lopes

Repórter

Publicado em 11 de dezembro de 2024 às 17h40.

Última atualização em 11 de dezembro de 2024 às 17h41.

Nesta quarta-feira, 11, o Google revelou o Gemini 2.0 Flash, o modelo de inteligência artificial mais avançado já lançado pela empresa. Este marco reforça as ambições da gigante da tecnologia em liderar o desenvolvimento de agentes de IA, ferramentas projetadas para compreender, interagir e agir no mundo com supervisão humana.

O Gemini 2.0 Flash amplia as capacidades multimodais já apresentadas em versões anteriores, permitindo agora a geração nativa de imagens e áudio, além de texto.

Em testes iniciais, o modelo demonstrou avanços em velocidade, precisão e habilidades matemáticas, estabelecendo uma base sólida para o que o Google chama de “era agêntica”.

O que há de novo no Gemini 2.0 Flash?

O novo modelo representa um salto significativo em relação ao Gemini 1.5 Pro. Entre as principais melhorias, destacam-se:

  • Velocidade duplicada em tarefas como codificação e análise de imagens;
  • Maior precisão factual, com avanços em habilidades matemáticas e contextuais;
  • Geração e edição de imagens e áudio, incluindo narrações em oito vozes otimizadas para diferentes idiomas e sotaques;
  • Integração com aplicativos externos e ferramentas do Google, como Search, Lens e Maps.

Além disso, o Gemini 2.0 Flash utiliza a tecnologia SynthID para inserir marca d’água em todas as imagens e áudios gerados, garantindo que os conteúdos sintéticos sejam identificados e prevenindo abusos como deepfakes.

A partir de hoje, uma versão experimental do modelo estará disponível para desenvolvedores por meio das plataformas AI Studio e Vertex AI, mas recursos como geração de áudio e imagem serão liberados para mais usuários apenas em janeiro.

Agentes de IA

O lançamento do Gemini 2.0 Flash ocorre em um momento estratégico para o Google. A empresa tem investido em agentes de inteligência artificial, como os projetos Astra e Mariner, que buscam combinar multimodalidade com memória e capacidade de ação.

Durante uma demonstração recente no campus do Google, o Project Astra exibiu sua capacidade de interpretar imagens e interagir. No exemplo apresentado, o agente foi capaz de reconhecer e descrever obras de arte, acessar informações em tempo real e contextualizar interações passadas.

Por sua vez, o Project Mariner, projetado para operar diretamente em navegadores, realizou tarefas como adicionar ingredientes de receitas a um carrinho de compras em um site de supermercado. Apesar da lentidão do processo, a demonstração destacou o potencial de agentes que não apenas respondem, mas também executam tarefas práticas com supervisão direta do usuário.

No entanto, o Google vê o lançamento do Gemini 2.0 como uma peça fundamental para refinar essa tecnologia. Ao integrar o modelo com ferramentas como o Android Studio, Firebase e Gemini Code Assist, a empresa espera explorar novas possibilidades e atender às necessidades de desenvolvedores e consumidores.

Acompanhe tudo sobre:Google

Mais de Inteligência Artificial

A confissão de Sam Altman: CEO teve investimento na OpenAI via Sequoia Capital

Itália multa OpenAI em €15 milhões por uso inadequado de dados pessoais no ChatGPT

OpenAI permite a partir de hoje nos EUA fazer chamadas gratuitas para ChatGPT

Executivos analisam desafios e oportunidades da IA nos negócios