Líderes da tecnologia na Casa Branca: compromisso de desenvolver uma IA ética e pelo bem da humanidade (Andrew Caballero-Reynolds/Getty Images)
Repórter
Publicado em 11 de outubro de 2023 às 16h47.
Última atualização em 11 de outubro de 2023 às 16h56.
Em desdobramentos recentes no mundo da inteligência artificial (AI), a OpenAI, apoiada pela Microsoft, revelou avanços no software ChatGPT, permitindo que o programa interaja através da voz, respondendo também com imagens e palavras.
Paralelamente, a Meta, proprietária do Facebook, anunciou assistentes de AI e chatbots com personalidades de celebridades para os usuários de WhatsApp e Instagram.
Entretanto, num tamanho menor ao das inovações, estão em linha crescente as preocupações sobre os alicerces éticos ao redor da tecnologia que evolui galopante. Sobretudo, das proteções, ou, no termo em inglês, "guardrails", que evitam que esses sistemas gerem discursos tóxicos ou desinformação.
Buscando resolver essas questões, as líderes do setor como Anthropic e Google DeepMind, estão desenvolvendo "constituições de AI". Estes documentos visam estabelecer valores e princípios a serem seguidos por seus modelos.
A centralização de características positivas, como honestidade e respeito, é vital no desenvolvimento de AI generativa. Para aprimorar as respostas de AI, as empresas têm empregado o método de aprendizado por reforço com feedback humano (RLHF), no qual equipes avaliam as respostas dos modelos, classificando-as.
Apesar de ser uma técnica comum, a OpenAI sobre, por exemplo, pela falta de precisão de seus modelos. Como alternativa, a OpenAI contratou especialistas para testar o modelo GPT-4, enquanto empresas como Google DeepMind e Anthropic utilizam a técnica de "red-teaming" para identificar falhas em seus softwares.
Ainda assim, essas abordagens não eliminam completamente os riscos. Por isso, pesquisadores estão desenvolvendo constituições específicas para AI.
Em julho, pesquisadores da Carnegie Mellon University e do Center for AI Safety em São Francisco conseguiram quebrar as barreiras de proteção de todos os principais modelos de IA, incluindo ChatGPT da OpenAI, Google Bard e Claude da Anthropic.
Fizeram-no adicionando uma série de caracteres aleatórios ao final de pedidos maliciosos, como pedir ajuda para fazer uma bomba, que conseguiu contornar filtros ou constituições subjacentes aos modelos.
O maior desafio enfrentado pela segurança da IA, segundo os pesquisadores, é descobrir se as grades de proteção realmente funcionam. Atualmente, é difícil construir boas avaliações para as proteções de IA devido à forma como os modelos são abertos, aos quais é possível fazer um número infinito de perguntas e responder de uma infinidade de maneiras diferentes.