Inteligência Artificial

Pela humanidade: saiba qual promessa os CEOs da Meta, Google e OpenAI precisaram fazer à Casa Branca

Governo dos EUA fecha acordo com gigantes da tecnologia para garantir segurança no uso da inteligência artificial

Sam Altman: CEO da OpenAI (WinMcNamee/Getty Images)

Sam Altman: CEO da OpenAI (WinMcNamee/Getty Images)

André Lopes
André Lopes

Repórter

Publicado em 21 de julho de 2023 às 12h20.

Última atualização em 21 de julho de 2023 às 12h23.

Nesta sexta-feira, 21, a Casa Branca reuniu sete empresas líderes em inteligência artificial (IA) para firmar compromissos voluntários voltados à proteção de seus usuários. Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI concordaram com uma série de solicitações do governo norte-americano para mitigar riscos associados à tecnologia de IA.

Ficou acordado que as empresas devem se empenhar em investimentos em segurança cibernética, pesquisas sobre algoritmos discriminatório, além de um novo sistema de marca d'água que informará os usuários quando o conteúdo for gerado por IA. Como as empresas aderiram voluntariamente a esses compromissos, atualmente não há consequências estabelecidas para o não cumprimento das promessas.

Embora nada disso entre em vigor imediatamente nesta sexta-feira, as empresas estão comprometidas a começar a implementá-los sem demora. Em ligação com jornalistas na quinta-feira, 20, um funcionário da Casa Branca informou que a administração Biden está trabalhando em uma ordem executiva para lidar com alguns dos riscos apresentados pela IA, embora não tenha divulgado especificidades.

EUA se movimenta pela regulação da IA

Nos últimos meses, a administração Biden esteve em reuniões com executivos de tecnologia, líderes trabalhistas e de direitos civis para discutir a IA.

Em maio, a Casa Branca anunciou mais recursos e orientações para empresas que desenvolvem tecnologia de IA, incluindo US$ 140 milhões para a National Science Foundation lançar sete novos Institutos Nacionais de Pesquisa em IA. Google, Microsoft, Nvidia, OpenAI e outras empresas também concordaram em permitir que seus modelos de linguagem sejam avaliados publicamente no Def Con deste ano.

O anúncio de sexta-feira chega quase um mês após o líder da maioria no Senado, o democrata Chuck Schumer, lançar seu plano para o Congresso regular a tecnologia sem prejudicar a inovação. O plano SAFE (Security, Accountability, Foundations, Explain) não oferece pedidos de política específicos, mas convoca os legisladores a trabalharem juntos para criar regras que lidem com o potencial prejudicial da IA.

A iniciativa de Schumer também contempla uma série de briefings para senadores sobre a tecnologia. Na próxima semana, ele sediará o terceiro briefing. Os dois primeiros encontros explicaram a tecnologia e apresentaram seus riscos para a segurança nacional.

Desde o anúncio de Schumer, legisladores de ambos os lados apresentaram legislação para regular a tecnologia. Algumas novas regras que limitam o uso de IA gerativa pelo Departamento de Defesa foram incorporadas ao National Defense Authorization Act deste ano. A votação para a aprovação da medida é esperada na próxima semana.

Acompanhe tudo sobre:Inteligência artificial

Mais de Inteligência Artificial

CEO da Nvidia teve chance de comprar empresa no passado — mas recusou

WhatsApp testa ferramenta de transcrição de áudio para agilizar comunicação

Perplexity AI planeja anúncios publicitários em sua ferramenta de busca por IA

Inteligência artificial em nome da fé: tecnologia vira ferramenta de preservação do Vaticano