A.I Act: Primeiros passos no caminho da regulamentação da inteligência artificial (FABRICE COFFRINI/Getty Images)
Redação Exame
Publicado em 16 de janeiro de 2024 às 16h50.
Última atualização em 16 de janeiro de 2024 às 16h52.
Felipe Barreto e Lucas Luna*
Nos últimos anos, acompanhamos o rápido avanço das aplicações e benefícios que a inteligência artificial (IA) pode proporcionar à sociedade. Em todo o mundo, a IA está se tornando uma força transformadora com impactos em diversos setores - desde o mercado de tecnologia, que é seu habitat natural, passando pela saúde, educação, serviços, indústria e até mesmo o mercado jurídico, dentre muitos outros.
Desta forma, é natural que o incremento do interesse social no tema, bem como o próprio desenvolvimento da tecnologia e a criação de novos negócios e iniciativas ao redor dela, acabem criando uma nova agenda para legisladores de todo o mundo, visando a regulamentação e governança específica sobre o tema.
Seguindo seu papel de pioneira da legislação ampla em tecnologia, em linha com o que fez, por exemplo, com a proteção de dados pessoais, a União Europeia (UE) vem acompanhando de perto a IA: desde abril de 2023, uma Comissão Especial tem se aprofundado nas discussões sobre o tema e empregado esforços para elaborar uma regulamentação que garanta condições seguras às aplicações que utilizam este tipo de tecnologia.
Neste sentido, o AI Act - ou Ato de Inteligência Artificial - é uma proposta legislativa para regulamentar o desenvolvimento, o uso e a comercialização de sistemas de inteligência artificial dentro da UE. Segundo os proponentes da norma, a proposta de regulamento visa garantir a segurança e os direitos fundamentais dos cidadãos, estabelecendo requisitos para transparência, responsabilidade e conformidade com padrões éticos e, caso seja aprovada, será o primeiro regramento amplo no mundo sobre IA.
O AI Act prevê que a melhor forma de regular tal recurso é por meio de uma fundamentada atribuição de risco e sensibilidade sobre cada forma de aplicação, propondo categorias de risco diferentes entre si para os diversos tipos de sistemas de IA, com requisitos mais rigorosos para tecnologias consideradas de alto risco.
Assim, os diferentes níveis de risco significarão uma regulamentação mais ou menos rígida a depender de fatores relacionados à IA em questão - ou seja, quanto mais sensível for o caso, maior será o grau de proteção legal empregado.
Os sistemas de IA de alto risco, como aqueles utilizados em setores críticos como saúde, transporte, segurança e administração pública, estarão sujeitos a requisitos mais rigorosos. Isso inclui a necessidade de avaliações de compliance, garantias de transparência, sistemas de monitoramento e, em alguns casos, aprovações regulatórias previamente à implementação.
Também são abordadas pelo AI Act as questões éticas relacionadas à IA, exigindo transparência na comunicação com os usuários e impondo a proibição de práticas discriminatórias em geral. Além disso, a proposta estabelece um sistema de governança para garantir o cumprimento das disposições, com a criação de autoridades nacionais de supervisão e cooperação entre os Estados-Membros da UE.
São também propostas penalidades significativas para garantir o cumprimento das regulamentações estabelecidas. Em caso de violações, as sanções podem incluir multas no valor de até 30 milhões de euros ou, no caso de empresas, 6% do volume de negócios global anual, o que for maior.
Além das penalidades financeiras, o AI Act também prevê medidas corretivas e coercitivas, como a retirada de produtos ou serviços de IA do mercado, suspensão temporária de atividades relacionadas à IA e a proibição de exercer certas práticas.
Nos parece que o AI Act representa um marco significativo na regulamentação da inteligência artificial na UE, podendo, inclusive, servir de benchmark para mais regulações em todo o mundo, a exemplo do Regulamento Geral sobre a Proteção de Dados, que serviu de referência para diversos países criarem suas próprias normas com o intuito de equilibrar a inovação tecnológica com a proteção dos direitos e valores fundamentais.
Atualmente, o Brasil não conta com uma legislação específica dedicada à IA e a regulamentação atualmente existente que se aplica à IA é geral e aborda questões como privacidade de dados, segurança cibernética e proteção do consumidor.
E, assim como nossa Lei Geral de Proteção de Dados sofreu influência da tendência regulatória da UE em matéria de proteção de dados pessoais, é possível que o legislativo brasileiro seja novamente influenciado pelas leis internacionais, de forma que a regulamentação da IA no país poderá seguir a mesma linha do AI Act da UE.
A ausência de leis de IA específicas no Brasil é um desafio, mas também é uma oportunidade para se moldar o futuro desta tecnologia no país, afinal, com uma menor ou inexistente regulação em um primeiro momento e até que a atividade legislativa e as normativas sejam criadas, se tem um ambiente favorável para que novas iniciativas, negócios e empreendedores surjam, atraindo novos investimentos, como ocorreu em diversos mercados hoje consideravelmente regulados, como os aplicativos de transporte, a telemedicina, as fintechs e as apostas esportivas - todas elas aplicações certamente disruptivas, mas possivelmente menos complexas do que a IA.
Devemos levar em conta que uma eventual regulação excessiva pode, de certa forma, inibir a inovação, porém, ainda assim, deve ser priorizada a necessidade de prevenir e mitigar danos que podem ser causados pelo uso indevido da IA.
Em conclusão, o cenário legal da inteligência artificial vive um momento chave para o seu desenvolvimento, sendo imprescindível a colaboração entre o governo, as empresas e a sociedade civil para criar um ambiente regulatório que promova o crescimento da IA e que também respeite os direitos fundamentais dos usuários.
*Felipe Barreto Veiga é sócio fundador e Lucas Luna é associado da área de Contratos do Barreto Veiga Advogados.