Repórter
Publicado em 7 de maio de 2024 às 08h19.
Última atualização em 7 de maio de 2024 às 08h20.
A OpenAI anunciou nesta terça-feira, 7, uma nova ferramenta capaz de identificar com 98% de precisão se uma imagem foi gerada pelo DALL-E 3, seu gerador de imagens a partir de texto. Segundo a empresa, a ferramenta é altamente precisa, mas pequenas alterações na imagem podem confundi-la.
O novo recurso é uma resposta da empresa a um problema que ela mesmo criou. O aumento de imagens falsas e outros conteúdos gerados por IA tem gerado confusão sobre o que é ou não real, levantando debates, por exemplo, sobre a influência dessas imagens em campanhas eleitorais mundo a fora.
Nos EUA e também no Brasil, os deputados estão preocupados com a exposição dos eleitores a imagens geradas por IA, e a disponibilidade de ferramentas como o DALL-E 3 facilita a criação desses conteúdos. Outras startups de IA e empresas de tecnologia também estão desenvolvendo ferramentas para ajudar nesse problema.
A OpenAI também anunciou que se juntará com a Microsoft e Adobe, que busca criar credenciais de conteúdo para imagens online. Além disso, a OpenAI e a Microsoft estão lançando um fundo de US$ 2 milhões para apoiar a educação sobre IA.
A nova ferramenta da OpenAI tem cerca de 98% de precisão em detectar conteúdo criado pelo DALL-E 3, desde que a imagem não seja alterada. Se as imagens são capturadas por screenshot ou recortadas, a precisão é um pouco menor, mas ainda há uma identicação correta na maioria dos casos, defenda a empresa.
O desempenho cai mais em condições específicas, como quando a cor das imagens é alterada, afirmou Sandhini Agarwal, pesquisadora da OpenAI, ao Wall Street Journal. A OpenAI espera resolver esses problemas abrindo a ferramenta para pesquisadores externos, acrescentou Agarwal.
Embora a ferramenta da OpenAI distinga se imagens foram feitas com o DALL-E 3, a empresa descobriu que ela pode se confundir ao avaliar imagens de IA criadas por IAs de concorrentes. Alterar a cor dessas imagens também pode causar uma queda substancial no desempenho, disse Agarwal. Em 0,5% dos casos, a ferramenta erroneamente identifica imagens não geradas por IA como se fossem do DALL-E 3, afirmou a empresa.
Determinar se uma imagem é gerada por IA pode ser mais fácil do que realizar uma triagem semelhante para textos criados por IA, disseram pesquisadores da OpenAI e de outras instituições.
Em janeiro do ano passado, dois meses após o lançamento do ChatGPT, a OpenAI lançou uma ferramenta para detectar textos criados por IA, que falhou em identificar conteúdo gerado por bots em quase 75% das vezes.