Inteligência Artificial

Comissão no Senado adia votação de detalhes do Marco da Inteligência Artificial; entenda o projeto

Projeto define regras para inteligência artificial no brasil, com mudanças na classificação de riscos e direitos autorais

Da Redação
Da Redação

Redação Exame

Publicado em 3 de dezembro de 2024 às 10h00.

Última atualização em 4 de dezembro de 2024 às 10h47.

Após quase duas horas de reuniões e debates, a votação do marco legal da inteligência artificial (IA) no Brasil, prevista no PL 2338/2023, foi adiada pela Comissão Temporária de Inteligência Artificial (CTIA). A sessão, presidida pelo senador Carlos Viana (Podemos-MG), ocorreu nesta terça-feira, 3, e uma nova tentativa de votação foi agendada para quinta-feira, 5.

Segundo Viana, o adiamento foi motivado por divergências em alguns pontos do relatório, elaborado pelo senador Eduardo Gomes (PL-TO). Os trechos, que têm gerado críticas tanto do governo quanto da oposição, permanecem como entraves à aprovação.

Um dos principais pontos de embate entre governo e oposição envolve a garantia da liberdade de expressão e os critérios para controle de conteúdos em redes sociais. Segundo o relatório do senador Eduardo Gomes (PL-TO), há a possibilidade de delegar a um órgão federal a competência para estabelecer normas sobre conteúdos, independentemente de consulta ao Congresso.

O relator, Eduardo Gomes, decidiu conceder um prazo de 48 horas para que as partes tentem alcançar um consenso.

Principais pontos do Marco da IA

Uma das principais características do projeto é a proposta de uma regulação descentralizada, sem a criação de uma agência centralizadora. Isso visa evitar a burocratização excessiva do setor e fomentar a inovação responsável, especialmente para pequenas empresas e startups.

O texto incorpora orientações para o desenvolvimento da IA, como o respeito aos direitos humanos, a proteção ao meio ambiente e a promoção da igualdade e da diversidade. Também inclui trechos sobre a governança transparente do sistema supervisionado por humanos, com o objetivo de diminuir riscos de descontrole e proteger grupos vulneráveis.

No entanto, o projeto tem gerado debates intensos entre especialistas e legisladores. Enquanto alguns, como o ministro Ricardo Villas Bôas Cueva do STJ, defendem a urgência da regulamentação citando riscos concretos já existentes, outros, como o advogado Ronaldo Lemos, argumentam que o projeto deveria abordar mais questões sobre capacitação e competitividade no mercado de trabalho.

Uma das críticas ao projeto é que ele foca excessivamente nos riscos, potencialmente negligenciando as oportunidades e potencialidades da IA. Há preocupações de que uma regulação muito restritiva possa engessar o desenvolvimento tecnológico nacional e prejudicar a competitividade das empresas brasileiras no cenário internacional.

Mudanças na classificação de alto risco

Uma das maiores polêmicas do projeto é a classificação de ferramentas de IA como "alto risco". Na nova versão, sistemas usados como "tecnologia intermediária" deixam de ser classificados como de alto risco.

Além disso, o uso de larga escala, antes um critério para essa classificação, foi retirado, atendendo a demandas do setor empresarial, que argumentava que as regras rígidas poderiam inibir inovações.

A proposta também indica a Autoridade Nacional de Proteção de Dados (ANPD) como coordenadora do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), órgão que será responsável por monitorar e aplicar a regulamentação.

Se aprovado na comissão, o projeto segue para votação no plenário do Senado, com expectativa de conclusão ainda em dezembro.

Acompanhe tudo sobre:Inteligência artificialSenado

Mais de Inteligência Artificial

Google Cloud anuncia ferramentas de IA generativa para uso profissional

Sora, da OpenAI, parece ter sido treinada com conteúdo de jogos famosos

Lançamento do Gemini 2.0 inaugura caminho para Google estrear sua "era dos agentes"

É o fim da IA? Futurista Amy Webb prevê novas tecnologias que devem revolucionar o mercado em 2025