Por que as empresas exageram os riscos da inteligência artificial?
Incentivos perversos inflam afirmações de executivos sobre os perigos da tecnologia
Colunista - Instituto Millenium
Publicado em 11 de agosto de 2023 às 18h17.
Última atualização em 27 de setembro de 2023 às 17h22.
Nenhuma empresa quer que o público geral ache que seu produto é perigoso. Por décadas, a indústria do tabaco tentou esconder ou descredibilizar estudos mostrando os malefícios do cigarro; já a indústria alimentícia minimiza até hoje os riscos do consumo dos alimentos ultraprocessados. Pensando nisso, quando líderes da indústria de inteligência artificial falam que a tecnologia representa um risco existencial, é natural que fiquemos preocupados. Se até quem está tentando vender o produto diz que ele pode acabar com a humanidade, por que deveríamos duvidar?
A realidade, como sempre, é um pouco mais complicada.
Para entender por que em algumas circunstâncias empresas podem exagerar os perigos do que oferecem, vale lembrar o caso da Cambridge Analytica, empresa acusada de influenciar os resultados das eleições americanas de 2016 a favor de Donald Trump.
A acusação, em linhas gerais, é de que a Cambridge Analytica teria usado dados de curtidas e compartilhamentos no Facebook para montar perfis de usuários e criar anúncios microssegmentados e, com isso, teria conseguido convencer diversos eleitores indecisos e mudar o resultado das votações. Você provavelmente já viu essa história reproduzida em algum veículo de mídia. Só tem um problema: as evidências não corroboram a tese de que a Cambridge Analytica era capaz de fazer a microssegmentação de campanhas que alegava, muito menos que isso tenha tido qualquer efeito significativo nos resultados eleitorais.
Para começar, o primeiro grande cliente da Cambridge Analytica foi o senador americano Ted Cruz. Foi só quando Cruz perdeu as primárias republicanas que a empresa integrou a campanha de Trump, indicando que a estratégia não era assim tão decisiva. Além disso, as evidências indicam que o que a empresa estava fazendo por baixo dos panos não era diferente do que qualquer outra campanha publicitária faz: anúncios segmentados para diferentes públicos. Não há razões para acreditar que essa segmentação fosse mais efetiva ou poderosa do que a que já é feita há décadas por campanhas políticas. Informações de interações em redes sociais não são especialmente reveladoras se você já tem acesso a outras mais importantes, como saber se o eleitor votou nas primárias democratas ou republicanas, como já monitoram os partidos nos Estados Unidos. Como colocou um cientista de dados de campanhas eleitorais, se você tem esse tipo de informação, saber que a pessoa gosta de Taylor Swift ou bebeu cerveja plantando bananeira na faculdade não ajuda muito.
Mais do que isso, mudar o voto de alguém é uma tarefa bastante difícil, como qualquer pessoa que já tentou sabe. E tudo indica que a Cambridge Analytica não tinha qualquer tipo de vantagem comparativa nesse aspecto. Muitas testemunhas chegaram a questionar até a capacidade da empresa de criar os perfis segmentados, e tanto a campanha de Cruz quanto de Trump parecem ter reduzido o uso dos serviços da empresa após se frustrarem com os resultados.
Se as evidências da efetividade da Cambridge Analytica são tão escassas, de onde veio a crença de que a empresa teria sido responsável por alterar o resultado das eleições? Do CEO da companhia na época, Alexander Nix. Embora o tiro tenha saído pela culatra, com a empresa posteriormente sendo fechada em meio a escândalos e processos judiciais, as afirmações infladas de Nix inicialmente tinham um objetivo comercial claro: sinalizar ao mercado a suposta efetividade dos seus serviços. E boa parte da imprensa aderiu acriticamente à narrativa corporativa.
Dinâmica parecida acontece na indústria de inteligência artificial. Quando executivos do setor alardeiam os riscos existenciais da tecnologia, eles estão, ao mesmo tempo, passando um recado para potenciais clientes: "Se essa tecnologia pode acabar com o mundo, imagina o que ela não pode fazer com seus concorrentes."
Isso não quer dizer que esses executivos estejam explicitamente pensando nesses termos; muitos deles parecem ter preocupações genuínas com os riscos da inteligência artificial, que são reais. Mas exaltar o poder transformador da tecnologia vai ao encontro do posicionamento de marca das empresas do setor. Falar dos riscos existenciais é, nesse contexto, só mais um pedaço da estratégia de branding desses produtos.
Outro motivo pelo qual as grandes empresas da inteligência artificial podem querer exagerar os riscos da tecnologia, sugerido pelo investidor de tecnologia Marc Andreessen, é um pouco mais perverso. Se a inteligência artificial for realmente perigosa, a necessidade de regulação da tecnologia torna-se mais importante. E esse tipo de regulação tende a beneficiar grandes empresas, por impor barreiras muitas vezes intransponíveis para companhias emergentes que pudessem as desafiar. Desse modo, argumenta Andreessen, as empresas estabelecidas têm um incentivo para fazer afirmações dramáticas que promovam essas barreiras regulatórias e as isolem da competição.
É claro que reconhecer que as empresas têm um incentivo para inflar suas alegações não significa que os riscos não sejam reais. Em colunas futuras, buscarei discutir esses riscos e o que podemos fazer para mitigá-los. O intuito nesta coluna é apenas demonstrar que há motivos para ser cético a afirmações inflamadas, mesmo que venham daqueles que, à primeira vista, não têm incentivos para fazê-las.
Por fim, há ainda uma última razão pela qual aqueles trabalhando com inteligência artificial talvez queiram exagerar os riscos envolvidos: é uma forma de conferir ao trabalho um certo senso de importância. Há algo de sedutor na ideia de que seu trabalho pode mudar o futuro da humanidade, de que o que você está fazendo é grave e preeminente. Colocar a inteligência artificial em um patamar de risco existencial é a manifestação máxima dessa tentação. Ao admitir que estão construindo algo perigoso, esses executivos também estão exaltando o quão extraordinário é o que estão construindo. Ou, como disse John von Neumann em resposta à admissão de culpa de J. Robert Oppenheimer pela construção da bomba atômica, "às vezes as pessoas professam a culpa para poder receber créditos pelo pecado".
Nenhuma empresa quer que o público geral ache que seu produto é perigoso. Por décadas, a indústria do tabaco tentou esconder ou descredibilizar estudos mostrando os malefícios do cigarro; já a indústria alimentícia minimiza até hoje os riscos do consumo dos alimentos ultraprocessados. Pensando nisso, quando líderes da indústria de inteligência artificial falam que a tecnologia representa um risco existencial, é natural que fiquemos preocupados. Se até quem está tentando vender o produto diz que ele pode acabar com a humanidade, por que deveríamos duvidar?
A realidade, como sempre, é um pouco mais complicada.
Para entender por que em algumas circunstâncias empresas podem exagerar os perigos do que oferecem, vale lembrar o caso da Cambridge Analytica, empresa acusada de influenciar os resultados das eleições americanas de 2016 a favor de Donald Trump.
A acusação, em linhas gerais, é de que a Cambridge Analytica teria usado dados de curtidas e compartilhamentos no Facebook para montar perfis de usuários e criar anúncios microssegmentados e, com isso, teria conseguido convencer diversos eleitores indecisos e mudar o resultado das votações. Você provavelmente já viu essa história reproduzida em algum veículo de mídia. Só tem um problema: as evidências não corroboram a tese de que a Cambridge Analytica era capaz de fazer a microssegmentação de campanhas que alegava, muito menos que isso tenha tido qualquer efeito significativo nos resultados eleitorais.
Para começar, o primeiro grande cliente da Cambridge Analytica foi o senador americano Ted Cruz. Foi só quando Cruz perdeu as primárias republicanas que a empresa integrou a campanha de Trump, indicando que a estratégia não era assim tão decisiva. Além disso, as evidências indicam que o que a empresa estava fazendo por baixo dos panos não era diferente do que qualquer outra campanha publicitária faz: anúncios segmentados para diferentes públicos. Não há razões para acreditar que essa segmentação fosse mais efetiva ou poderosa do que a que já é feita há décadas por campanhas políticas. Informações de interações em redes sociais não são especialmente reveladoras se você já tem acesso a outras mais importantes, como saber se o eleitor votou nas primárias democratas ou republicanas, como já monitoram os partidos nos Estados Unidos. Como colocou um cientista de dados de campanhas eleitorais, se você tem esse tipo de informação, saber que a pessoa gosta de Taylor Swift ou bebeu cerveja plantando bananeira na faculdade não ajuda muito.
Mais do que isso, mudar o voto de alguém é uma tarefa bastante difícil, como qualquer pessoa que já tentou sabe. E tudo indica que a Cambridge Analytica não tinha qualquer tipo de vantagem comparativa nesse aspecto. Muitas testemunhas chegaram a questionar até a capacidade da empresa de criar os perfis segmentados, e tanto a campanha de Cruz quanto de Trump parecem ter reduzido o uso dos serviços da empresa após se frustrarem com os resultados.
Se as evidências da efetividade da Cambridge Analytica são tão escassas, de onde veio a crença de que a empresa teria sido responsável por alterar o resultado das eleições? Do CEO da companhia na época, Alexander Nix. Embora o tiro tenha saído pela culatra, com a empresa posteriormente sendo fechada em meio a escândalos e processos judiciais, as afirmações infladas de Nix inicialmente tinham um objetivo comercial claro: sinalizar ao mercado a suposta efetividade dos seus serviços. E boa parte da imprensa aderiu acriticamente à narrativa corporativa.
Dinâmica parecida acontece na indústria de inteligência artificial. Quando executivos do setor alardeiam os riscos existenciais da tecnologia, eles estão, ao mesmo tempo, passando um recado para potenciais clientes: "Se essa tecnologia pode acabar com o mundo, imagina o que ela não pode fazer com seus concorrentes."
Isso não quer dizer que esses executivos estejam explicitamente pensando nesses termos; muitos deles parecem ter preocupações genuínas com os riscos da inteligência artificial, que são reais. Mas exaltar o poder transformador da tecnologia vai ao encontro do posicionamento de marca das empresas do setor. Falar dos riscos existenciais é, nesse contexto, só mais um pedaço da estratégia de branding desses produtos.
Outro motivo pelo qual as grandes empresas da inteligência artificial podem querer exagerar os riscos da tecnologia, sugerido pelo investidor de tecnologia Marc Andreessen, é um pouco mais perverso. Se a inteligência artificial for realmente perigosa, a necessidade de regulação da tecnologia torna-se mais importante. E esse tipo de regulação tende a beneficiar grandes empresas, por impor barreiras muitas vezes intransponíveis para companhias emergentes que pudessem as desafiar. Desse modo, argumenta Andreessen, as empresas estabelecidas têm um incentivo para fazer afirmações dramáticas que promovam essas barreiras regulatórias e as isolem da competição.
É claro que reconhecer que as empresas têm um incentivo para inflar suas alegações não significa que os riscos não sejam reais. Em colunas futuras, buscarei discutir esses riscos e o que podemos fazer para mitigá-los. O intuito nesta coluna é apenas demonstrar que há motivos para ser cético a afirmações inflamadas, mesmo que venham daqueles que, à primeira vista, não têm incentivos para fazê-las.
Por fim, há ainda uma última razão pela qual aqueles trabalhando com inteligência artificial talvez queiram exagerar os riscos envolvidos: é uma forma de conferir ao trabalho um certo senso de importância. Há algo de sedutor na ideia de que seu trabalho pode mudar o futuro da humanidade, de que o que você está fazendo é grave e preeminente. Colocar a inteligência artificial em um patamar de risco existencial é a manifestação máxima dessa tentação. Ao admitir que estão construindo algo perigoso, esses executivos também estão exaltando o quão extraordinário é o que estão construindo. Ou, como disse John von Neumann em resposta à admissão de culpa de J. Robert Oppenheimer pela construção da bomba atômica, "às vezes as pessoas professam a culpa para poder receber créditos pelo pecado".