Twitter: concurso promovido pela rede social confirmou vieses que existiam em algoritmo de corte de imagens (Leon Neal/Getty Images)
Thiago Lavado
Publicado em 10 de agosto de 2021 às 14h21.
O time de engenharia de software do Twitter anunciou o resultado de uma competição que pretendia identificar vieses no algoritmo que corta fotos na linha do tempo da rede social.
O Twitter já havia desabilitado o sistema que realizava o corte das imagens: ele servia para alinhar as imagens publicadas por usuários à linha do tempo, sem distorções. Para isso, adequava as imagens a uma mesma dimensão e tentava focar em alguma informação importante na imagem. No ano passado, usuários denunciaram ao Twitter que o algoritmo tinha vieses e favorecia rostos de pessoas brancas em detrimento de pessoas negras.
A competição promovida pelo Twitter, que aconteceu na conferência DEF CON confirmou as preocupações dos usuários e os achados iniciais. O primeiro lugar da competição confirmou que o algoritmo da plataforma favorecia a aparição de rostos "magros, jovens, de pele clara com textura suave, e com traços faciais estereotipicamente femininos".
Bogdan Kulynych, um estudante da Escola Politécnica Federal de Lausanne, na Suíça, levou o primeiro lugar e 3.500 dólares. Ele utilizou um programa de inteligência artificial que gerou uma variedade de rostos semelhantes, mas com distintas combinações de feminilidade, tom de pele e traços faciais. Ele aplicou essas imagens ao algoritmo do Twitter e averiguou as preferências da máquina.
Drumroll please! Our first-ever algorithmic bias bounty at #defcon wrapped this weekend, and the winners were announced at yesterday’s #defcon @aivillage_dc workshop. ICYMI, you can watch a recording of the presentation here https://t.co/0cCwSAzSAq
— Engineering (@XEng) August 9, 2021
Rumman Chowdhury, diretor do time que pesquisa transparência e ética dentro de algoritmos no Twitter parabenizou os competidores por ter mostrado os efeitos na vida real dos algoritmos.
"Quando pensamos em vieses em nossos modelos, não é apenas sobre um aspecto acadêmico ou experimental, mas sobre como isso funciona na maneira em que pensamos a sociedade", disse Chowdhury.
Outros participantes da competição demonstraram ainda outros efeitos nocivos do algoritmo de corte de imagem. Pesquisadores demonstraram que os vieses não se limitavam a filtros, mas também a emojis que apresentam pessoas de pele escura ou mesmo textos escritos em outros idiomas, como árabe.
O resultado da competição demonstra a importância de pensar a influência e o peso que é dado a algoritmos e dados, que podem ter problemas de programação e preferências intrínsecas. Apesar disso, também demonstra que é preciso que as empresas estejam atentas a esse aspecto da tecnologia e dispostas a corrigir falhas.