Tecnologia

Riscos da IA dividem governo Biden sobre regras propostas por UE

Posicionamento do governo americano indica que não haverá uma resposta coerente ao plano do bloco europeu de submeter a IA generativa a mais regras

Bloomberg
Bloomberg

Agência de notícias

Publicado em 31 de maio de 2023 às 10h10.

Última atualização em 31 de maio de 2023 às 10h10.

Autoridades do governo Biden estão divididas sobre qual deve ser o nível de regulamentação das ferramentas de inteligência artificial — e suas divergências se tornam evidentes esta semana na Suécia.

Alguns funcionários da Casa Branca e do Departamento de Comércio apoiam as fortes medidas propostas pela União Europeia para produtos de IA, como ChatGPT e Dall-E, disseram pessoas envolvidas nas discussões.

Enquanto isso, algumas autoridades de segurança nacional dos EUA e do Departamento de Estado dizem que uma regulamentação agressiva dessa tecnologia nascente vai deixar o país em desvantagem competitiva, de acordo com as pessoas, que pediram para não serem identificadas.

Durante a reunião do Conselho de Comércio e Tecnologia (TTC) UE-EUA desta semana na Suécia, essa dissonância deixou o governo americano sem uma resposta coerente ao plano do bloco de submeter a IA generativa a mais regras.

A proposta obrigaria desenvolvedores de ferramentas de inteligência artificial a cumprir uma série de regulamentos rigorosos, como exigir que documentem qualquer material protegido por direitos autorais usado para treinar seus produtos e rastrear mais de perto como essa informação é usada.

O porta-voz do Conselho de Segurança Nacional, Adam Hodge, disse que o governo Biden trabalha com todo o governo para “avançar uma abordagem coesa e abrangente para os riscos e oportunidades relacionados à IA”.

A forma como a UE decide regular a IA é indiscutivelmente mais importante do que o debate em Washington.

Como é improvável que o Congresso aprove regras obrigatórias para a IA, o bloco europeu será o primeiro a ditar como gigantes de tecnologia, como Microsoft e a Alphabet, dona do Google, desenvolvem os modelos básicos por trás da próxima fronteira da inteligência artificial.

Campo de batalha

Esses modelos dependem de dados de treinamento – geralmente grandes amostras de linguagem retiradas da Internet – para aprender como responder em várias situações, em vez de serem criados para uma tarefa específica. Esta é a tecnologia por trás da IA generativa, que pode responder a perguntas de tarefas escolares, projetar um powerpoint ou criar imagens fantásticas a partir de entradas de texto.

A questão para os reguladores é quem deve assumir a responsabilidade pelos riscos associados à tecnologia, como a disseminação de desinformação ou violações de privacidade. As regras da UE propostas aumentariam os requisitos de relatórios para empresas que desenvolvem modelos usados em chatbots, como a OpenAI.

Michelle Giuda, diretora do Krach Institute for Tech Diplomacy e ex-secretária de Estado assistente para relações públicas globais no governo Biden, disse que uma das tarefas fundamentais do TTC será fortalecer a confiança entre os aliados para promover a inovação e se manter à frente dos avanços da China.

Alto risco

Até recentemente, os EUA e a UE compartilhavam um certo consenso para regular o uso em vez da tecnologia em si, com foco em áreas de alto risco, como infraestrutura crítica e aplicação da lei.

No entanto, o lançamento do ChatGPT tornou os maiores riscos mais aparentes. Neste mês, uma imagem falsa aparentemente gerada por IA de uma explosão perto do Pentágono assustou os mercados dos EUA, enquanto a tecnologia já cria vencedores e perdedores corporativos.

O Parlamento Europeu propôs novas regras que visam especificamente os modelos de fundação usados para a IA generativa. Parlamentares do comitê concordaram no início deste mês sobre um maior escrutínio de companhias que desenvolvem esses modelos de fundação. A maioria dessas empresas, incluindo Microsoft e Google, está sediada nos EUA.

A Lei de IA revisada pode ser votada no parlamento em junho, antes das negociações finais com os 27 estados membros da UE.

Sam Altman, CEO da OpenAI, se tornou o porta-voz da preocupação de empresas com o excesso regulatório quando sugeriu que sua empresa poderia retirar produtos do mercado europeu se as regras fossem muito difíceis de seguir. O comissário da UE, Thierry Breton, respondeu com um tuíte acusando Altman de “tentativa de chantagem”.

Altman disse posteriormente que trabalharia para cumprir as regras da UE. O executivo tem um encontro agendado com a presidente da Comissão Europeia, Ursula von der Leyen, na quinta-feira.

Acompanhe tudo sobre:Inteligência artificialGoverno Biden

Mais de Tecnologia

Segurança de dados pessoais 'não é negociável', diz CEO do TikTok

UE multa grupo Meta em US$ 840 milhões por violação de normas de concorrência

Celebrando 25 anos no Brasil, Dell mira em um futuro guiado pela IA

'Mercado do amor': Meta redobra esforços para competir com Tinder e Bumble