Esfera Brasil

O que é uma IA de alto risco

Sistemas podem impactar de forma significativa direitos fundamentais, a segurança pública ou a saúde da população

Big techs ficaram de fora do texto, que propõe regras que equilibram a inovação tecnológica e a proteção de direitos fundamentais (Jonathan Raa/Getty Images)

Big techs ficaram de fora do texto, que propõe regras que equilibram a inovação tecnológica e a proteção de direitos fundamentais (Jonathan Raa/Getty Images)

Esfera Brasil
Esfera Brasil

Plataforma de conteúdo

Publicado em 6 de janeiro de 2025 às 05h54.

Última atualização em 10 de janeiro de 2025 às 12h52.

O Senado Federal aprovou, em dezembro de 2024, o Projeto de Lei (PL) 2.338/23, que estabelece diretrizes para o uso da inteligência artificial (IA) no Brasil. O texto, que agora está na Câmara dos Deputados para apreciação, propõe regras que equilibram a inovação tecnológica e a proteção de direitos fundamentais, criando diretrizes para o desenvolvimento e uso da IA em setores públicos e privados. Um dos pontos centrais do projeto é a definição e regulamentação das chamadas “IAs de alto risco”.

De acordo com o texto aprovado no Senado, sistemas de IA de alto risco são aqueles que podem impactar de forma significativa direitos fundamentais, a segurança pública ou a saúde da população. Essa definição segue uma tendência internacional, inspirada no AI Act, regulamentação pioneira da União Europeia.

Esses sistemas incluem, por exemplo:

  • IAs usadas em diagnósticos médicos ou para decisões críticas de tratamento;
  • sistemas de reconhecimento facial, amplamente utilizados em vigilância e segurança pública;
  • decisões administrativas ou judiciais, como concessão de benefícios ou julgamentos automatizados;
  • plataformas de recrutamento, que utilizam algoritmos para filtrar candidatos em processos seletivos.

Para garantir que esses sistemas operem de forma segura e ética, o projeto determina que fornecedores de IA de alto risco devem:

  • realizar avaliações de impacto algorítmico antes da implementação dos sistemas;
  • garantir maior transparência no funcionamento dos algoritmos, incluindo acesso a auditorias;
  • seguir normas rígidas de governança, monitoramento e mitigação de riscos.

Entre os destaques da proposta está a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD), a fim de evitar abusos e garantir que os sistemas respeitem os direitos dos cidadãos.

Big techs de fora

O senador Eduardo Gomes (PL-TO), relator do PL que regulamenta a IA no Brasil, excluiu do texto o dispositivo que considerava de alto risco os sistemas usados pelas plataformas digitais – as big techs – para produção, análise, recomendação e distribuição de conteúdos. A retirada do trecho foi um acordo entre as bancadas para fazer o texto avançar na Comissão Especial do Senado criada para analisar o tema.

O trecho em questão afirmava que seria uma IA de alto risco o sistema de big tech de “produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados”.

De autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), o PL determina que sistemas de IA considerados de alto risco devem ser submetidos a regras mais rígidas de governança, monitoramento e fiscalização.

Acompanhe tudo sobre:Inteligência artificial

Mais de Esfera Brasil

Bolsa do Povo: o que é e quais benefícios serão ampliados

Entre avanços na política fiscal e crise com cripto, Milei vai do céu ao inferno na Argentina

Quais os produtos brasileiros mais exportados para os EUA?

Juros dificultam projetos, mas não assustam, diz diretor da construtora da Linha 6 do metrô de SP