(Getty Images/Getty Images)
Redação Exame
Publicado em 5 de abril de 2024 às 09h39.
Última atualização em 9 de abril de 2024 às 16h14.
O governo da Índia está estudando criar uma nova lei sobre inteligência artificial (IA) que protegerá os interesses dos editores de notícias e criadores de conteúdo e, ao mesmo tempo, minimizará os danos aos usuários. As informações são do Economic Times.
A nova lei será "muito equilibrada" e "forte na garantia dos direitos e no compartilhamento dos lucros" entre os editores de notícias, criadores de conteúdo e tecnologias habilitadas para IA, como modelos de linguagem ampla (LLMs), "ao mesmo tempo em que manterá bom espaço para a inovação", disse o ministro de tecnologia da informação, Ashwini Vaishnaw.
Essa nova lei deve substituir a Lei de Tecnologia da Informação, promulgada em 2000.
Esse debate entre publishers, IA e big techs ocorre em um momento em que as demandas para proteger os direitos de editores e criadores de conteúdo estão ganhando força globalmente.Em dezembro, o The New York Times processou a Microsoft e a Open AI alegando que milhões de seus artigos protegidos por direitos autorais foram usados para treinar os modelos generativos e os chatbots da OpenAI. Já o Google foi multado em cerca de US$ 270 milhões pelos órgãos reguladores da França por usar artigos de notícias para treinar seu modelo de IA conhecido como Gemini e não notificar os editores.
A Apple iniciou negociações com as principais empresas de notícias para fechar acordos que permitirão que a gigante da tecnologia treine seus sistemas de IA usando conteúdo protegido por direitos autorais.
Após a ação do The New York Times, vários autores, programadores de computador e músicos moveram ações judiciais contra grandes empresas de tecnologia, incluindo Microsoft, OpenAI, Meta e GitHub, por treinarem seus modelos em informações protegidas por direitos autorais sem compensação.
No início deste ano, na Conferência de Segurança de Munique, várias grandes empresas de tecnologia, incluindo Google, Amazon, Microsoft, Adobe e Meta, assinaram o Tech Accord to Combat Deceptive Use of AI in 2024 Elections (Acordo Técnico para Combater o Uso Enganoso de IA nas Eleições de 2024), que as compromete a desenvolver tecnologia para detectar desinformação, restringir a distribuição desse conteúdo e promover a conscientização do público.
A Europa assumiu a liderança na regulamentação da IA. No mês passado, o Parlamento Europeu adotou a Lei de IA, introduzindo proteções rigorosas para os desenvolvedores de sistemas de IA. Ela determina que os modelos de IA devem estar em conformidade com a lei de direitos autorais da UE e que devem ser feitos resumos detalhados dos dados usados para treinar esses modelos. A legislação histórica também exige que o conteúdo que tenha sido gerado ou alterado artificialmente seja rotulado como tal.