Exame Logo

Regulação de IA pode concentrar ainda mais o mercado

Especialista ouvido pelo Millenium defende abordagem setorial, com normas e diretrizes adaptadas às necessidades de setores específicos

Comissão do Senado analisa nesta quinta o projeto de lei que regulamenta Inteligência Artificial (IA) (Edilson Rodrigues/Agência Senado)
Instituto Millenium

Instituto Millenium

Publicado em 4 de dezembro de 2024 às 15h01.

Última atualização em 5 de dezembro de 2024 às 09h51.

Nesta quinta, deve ser votado na Comissão Temporária Interna sobre Inteligência Artificial (CTIA) do Senado, o projeto de lei que regulamenta o desenvolvimento e o uso de sistemas de Inteligência Artificial (IA). Sobre isso, entrevistamos o pesquisador Rodrigo Ferreira, especialista em regulação de IA e autor do paper Tendências e desafios na regulação da inteligência artificial:estratégias, abordagens internacionais e implicações práticas.

Para ele, houve avanços no texto atual, mas ainda é preciso ter cuidado para que a regulação não crie barreiras de entrada neste mercado, concentrando ainda mais o poder nas Big Techs. “É preciso criar mecanismos simplificados que considerem a diferença de recursos entre big techs e MPE, sob pena de a regulação operar como mecanismo de forte concentração de mercado em favor de multinacionais”, opinou. Ferreira acredita que o modelo de regulação americano é superior ao europeu, por ser definido por setor, e não de forma centralizada.

Uma abordagem setorial implica regular a tecnologia de acordo com o setor ou a área de aplicação em que está sendo utilizada, em vez de criar uma única estrutura regulatória abrangente para IA como um todo. Desta forma, normas e diretrizes são adaptadas às necessidades de setores específicos, como saúde, transporte, finanças, segurança pública, entre outros.

Leia abaixo a entrevista:

Instituto Millenium: O Senado está para votar um projeto que regulamenta uso de Inteligência Artificial. O texto atual está na sua melhor versão? Quais os principais problemas?

Rodrigo Ferreira: Tem havido sucessivos avanços no texto. Entretanto, vejo dois problemas principais. O primeiro é a ausência de uma avaliação mais profunda do impacto das medidas que estão sendo propostas nas pretensões do plano brasileiro de IA. Por exemplo, é contraditório o plano nacional buscar o desenvolvimento de “modelos avançados de linguagem em português, com dados nacionais que abarquem nossa diversidade cultural, social e linguística, para fortalecer a soberania em IA” e o Congresso aprovar regras que, na prática, inviabilizam a criação desses modelos pela limitação prática de acesso a dados de treinamento no volume necessário.

O segundo problema é mais estrutural: uma regulação ideal deveria olhar para os riscos das aplicações, não para a tecnologia adotada. Quando, pelo argumento de adoção de determinada abordagem tecnológica, uma mesma lei pretende regular de decisão automatizada em crédito a veículos autônomos, de reconhecimento facial na segurança pública a diagnósticos médicos automatizados, parte significativa dos riscos específicos será tratada de forma inadequada. O melhor para o Brasil, a meu ver, seria uma lei geral modesta, contendo as grandes escolhas políticas - como os usos vedados para a tecnologia, ou os mecanismos de coordenação governamental na matéria -, deixando a regulação mais detalhada para os reguladores setoriais, que dominam melhor os riscos em suas áreas de atuação.

IM: Quais são os principais riscos associados à classificação de certas tecnologias de IA como "alto risco," e como essa abordagem pode ser aplicada de forma eficaz no marco regulatório?

RF: Idealmente, o peso regulatório deve ser proporcional aos riscos. Portanto, faz sentido que sistemas classificados como de alto risco se submetam a mais controles, e que haja maior liberdade e menor peso regulatório para sistemas de baixo risco. A dificuldade em um ambiente tecnológico de rápida transição é antecipar o grau desses riscos. Há poucos anos, não se falava em IA generativa. É possível que aplicações de risco elevadíssimo, e que hoje estão completamente fora do radar dos legisladores, surjam no mês seguinte à aprovação da lei. E, ao contrário, que aplicações de alto risco hoje, pela evolução dos controles tecnológicos, apresentem menor risco no futuro. Esse é mais um fundamento para que seja prestigiada a abordagem setorial, mais rápida para endereçar riscos dinâmicos que as atualizações legislativas.

IM: No mundo, vemos dois caminhos de regulação de novas tecnologias. Um mais liberal, que se preocupa mais em não limitar a inovação (modelo dos EUA) e outro mais restritivo, focado em proteger a sociedade dos perigos dessas tecnologias (modelo europeu). Qual modelo o Brasil deveria seguir, e por quê?

RF: Toda nova tecnologia traz novos riscos, e todo modelo regulatório para tratar esses riscos tentará idealmente preservar a sociedade sem limitar a inovação. A grande diferença entre o modelo dos EUA e o europeu, a meu ver, está no fato de o modelo dos EUA ter privilegiado a abordagem setorial mediante coordenação governamental, enquanto a União Europeia optou por uma lei extensa e abrangente. Naturalmente, por ser muito mais adaptável, o modelo dos EUA consegue responder melhor e mais rápido aos riscos que emergem, calculando melhor o impacto regulatório de cada ação. Isso não significa necessariamente que a modelagem setorial é mais leve ou que vá necessariamente limitar menos a inovação ou proteger menos a sociedade. Os aspectos centrais aqui são a adaptabilidade e o maior foco técnico no risco em si e no impacto regulatório. O modelo europeu é extremamente problemático para riscos dinâmicos decorrentes de evolução tecnológica, porque se decide hoje em um instrumento rígido e de forma abrangente sem saber qual será o estado da arte amanhã. Penso que o Brasil ao mesmo tempo protegeria mais a sociedade e limitaria menos a inovação em uma abordagem setorial mais semelhante ao modelo dos EUA, o que, vale reiterar, não significa necessariamente regulação mais leve.

IM: Quais estratégias podem ser adotadas para evitar que a regulamentação limite a experimentação e o desenvolvimento de soluções inovadoras em IA, especialmente por micro e pequenas empresas?

RF: O primeiro passo fundamental é compreender o ciclo de desenvolvimento de sistemas de IA e como micro e pequenas empresas (MPE) atuam nele. As MPE não conseguem operar todo o ciclo. Elas operam utilizando datasets de terceiros, modelos de terceiros, APIs de terceiros, e agregam valor em algum estágio específico. Boa parte dessa base é provida pelo ecossistema de software livre e aberto, que conta com desenvolvedores espalhados pelo mundo, muitas vezes voluntários, que não dispõem dos recursos humanos e financeiros ou de motivos pessoais para cumprir requisitos regulatórios de países específicos, como o Brasil. Portanto, é fundamental evitar exigências regulatórias que inviabilizem na prática o uso dessa base por MPE. Além disso, é preciso criar mecanismos simplificados que considerem a diferença de recursos entre big techs e MPE, sob pena de a regulação operar como mecanismo de forte concentração de mercado em favor de multinacionais.

Veja também

Nesta quinta, deve ser votado na Comissão Temporária Interna sobre Inteligência Artificial (CTIA) do Senado, o projeto de lei que regulamenta o desenvolvimento e o uso de sistemas de Inteligência Artificial (IA). Sobre isso, entrevistamos o pesquisador Rodrigo Ferreira, especialista em regulação de IA e autor do paper Tendências e desafios na regulação da inteligência artificial:estratégias, abordagens internacionais e implicações práticas.

Para ele, houve avanços no texto atual, mas ainda é preciso ter cuidado para que a regulação não crie barreiras de entrada neste mercado, concentrando ainda mais o poder nas Big Techs. “É preciso criar mecanismos simplificados que considerem a diferença de recursos entre big techs e MPE, sob pena de a regulação operar como mecanismo de forte concentração de mercado em favor de multinacionais”, opinou. Ferreira acredita que o modelo de regulação americano é superior ao europeu, por ser definido por setor, e não de forma centralizada.

Uma abordagem setorial implica regular a tecnologia de acordo com o setor ou a área de aplicação em que está sendo utilizada, em vez de criar uma única estrutura regulatória abrangente para IA como um todo. Desta forma, normas e diretrizes são adaptadas às necessidades de setores específicos, como saúde, transporte, finanças, segurança pública, entre outros.

Leia abaixo a entrevista:

Instituto Millenium: O Senado está para votar um projeto que regulamenta uso de Inteligência Artificial. O texto atual está na sua melhor versão? Quais os principais problemas?

Rodrigo Ferreira: Tem havido sucessivos avanços no texto. Entretanto, vejo dois problemas principais. O primeiro é a ausência de uma avaliação mais profunda do impacto das medidas que estão sendo propostas nas pretensões do plano brasileiro de IA. Por exemplo, é contraditório o plano nacional buscar o desenvolvimento de “modelos avançados de linguagem em português, com dados nacionais que abarquem nossa diversidade cultural, social e linguística, para fortalecer a soberania em IA” e o Congresso aprovar regras que, na prática, inviabilizam a criação desses modelos pela limitação prática de acesso a dados de treinamento no volume necessário.

O segundo problema é mais estrutural: uma regulação ideal deveria olhar para os riscos das aplicações, não para a tecnologia adotada. Quando, pelo argumento de adoção de determinada abordagem tecnológica, uma mesma lei pretende regular de decisão automatizada em crédito a veículos autônomos, de reconhecimento facial na segurança pública a diagnósticos médicos automatizados, parte significativa dos riscos específicos será tratada de forma inadequada. O melhor para o Brasil, a meu ver, seria uma lei geral modesta, contendo as grandes escolhas políticas - como os usos vedados para a tecnologia, ou os mecanismos de coordenação governamental na matéria -, deixando a regulação mais detalhada para os reguladores setoriais, que dominam melhor os riscos em suas áreas de atuação.

IM: Quais são os principais riscos associados à classificação de certas tecnologias de IA como "alto risco," e como essa abordagem pode ser aplicada de forma eficaz no marco regulatório?

RF: Idealmente, o peso regulatório deve ser proporcional aos riscos. Portanto, faz sentido que sistemas classificados como de alto risco se submetam a mais controles, e que haja maior liberdade e menor peso regulatório para sistemas de baixo risco. A dificuldade em um ambiente tecnológico de rápida transição é antecipar o grau desses riscos. Há poucos anos, não se falava em IA generativa. É possível que aplicações de risco elevadíssimo, e que hoje estão completamente fora do radar dos legisladores, surjam no mês seguinte à aprovação da lei. E, ao contrário, que aplicações de alto risco hoje, pela evolução dos controles tecnológicos, apresentem menor risco no futuro. Esse é mais um fundamento para que seja prestigiada a abordagem setorial, mais rápida para endereçar riscos dinâmicos que as atualizações legislativas.

IM: No mundo, vemos dois caminhos de regulação de novas tecnologias. Um mais liberal, que se preocupa mais em não limitar a inovação (modelo dos EUA) e outro mais restritivo, focado em proteger a sociedade dos perigos dessas tecnologias (modelo europeu). Qual modelo o Brasil deveria seguir, e por quê?

RF: Toda nova tecnologia traz novos riscos, e todo modelo regulatório para tratar esses riscos tentará idealmente preservar a sociedade sem limitar a inovação. A grande diferença entre o modelo dos EUA e o europeu, a meu ver, está no fato de o modelo dos EUA ter privilegiado a abordagem setorial mediante coordenação governamental, enquanto a União Europeia optou por uma lei extensa e abrangente. Naturalmente, por ser muito mais adaptável, o modelo dos EUA consegue responder melhor e mais rápido aos riscos que emergem, calculando melhor o impacto regulatório de cada ação. Isso não significa necessariamente que a modelagem setorial é mais leve ou que vá necessariamente limitar menos a inovação ou proteger menos a sociedade. Os aspectos centrais aqui são a adaptabilidade e o maior foco técnico no risco em si e no impacto regulatório. O modelo europeu é extremamente problemático para riscos dinâmicos decorrentes de evolução tecnológica, porque se decide hoje em um instrumento rígido e de forma abrangente sem saber qual será o estado da arte amanhã. Penso que o Brasil ao mesmo tempo protegeria mais a sociedade e limitaria menos a inovação em uma abordagem setorial mais semelhante ao modelo dos EUA, o que, vale reiterar, não significa necessariamente regulação mais leve.

IM: Quais estratégias podem ser adotadas para evitar que a regulamentação limite a experimentação e o desenvolvimento de soluções inovadoras em IA, especialmente por micro e pequenas empresas?

RF: O primeiro passo fundamental é compreender o ciclo de desenvolvimento de sistemas de IA e como micro e pequenas empresas (MPE) atuam nele. As MPE não conseguem operar todo o ciclo. Elas operam utilizando datasets de terceiros, modelos de terceiros, APIs de terceiros, e agregam valor em algum estágio específico. Boa parte dessa base é provida pelo ecossistema de software livre e aberto, que conta com desenvolvedores espalhados pelo mundo, muitas vezes voluntários, que não dispõem dos recursos humanos e financeiros ou de motivos pessoais para cumprir requisitos regulatórios de países específicos, como o Brasil. Portanto, é fundamental evitar exigências regulatórias que inviabilizem na prática o uso dessa base por MPE. Além disso, é preciso criar mecanismos simplificados que considerem a diferença de recursos entre big techs e MPE, sob pena de a regulação operar como mecanismo de forte concentração de mercado em favor de multinacionais.

Acompanhe tudo sobre:Inteligência artificialSenado

Mais lidas

exame no whatsapp

Receba as noticias da Exame no seu WhatsApp

Inscreva-se