. (Thomas Hodel/Reuters)
Lucas Agrela
Publicado em 1 de março de 2018 às 16h58.
O Facebook informou a um tribunal da Índia que está trabalhando para empregar inteligência artificial para bloquear instantaneamente vídeos com conteúdo ilegal, como pornografia infantil e estupro, em meio ao esforço das corporações internacionais de tecnologia para eliminar materiais violentos e ofensivos de seus serviços.
A tecnologia de IA já está ajudando a identificar conteúdos potencialmente perigosos com mais precisão, segundo a maior rede social do mundo, em declaração à mais alta corte da Índia. A empresa espera que “continue havendo avanços”.
Trata-se de uma resposta do Facebook a um pedido da Suprema Corte enviado a um grupo de empresas que inclui Facebook, Google, da Alphabet, Microsoft e Yahoo para conter a propagação de vídeos de agressões sexuais violentas na internet. O tribunal abriu o caso em 2015 quando a ativista Sunitha Krishnan, cuja campanha ShameTheRapist recebeu quase 200 vídeos de estupros das vítimas, pediu que o tribunal interviesse e obrigasse as empresas a evitarem a viralização desse tipo de conteúdo no serviço de mensagens WhatsApp, do Facebook, e em outras plataformas.
Centenas de vídeos mostrando cenas gráficas de agressões circulam atualmente em aplicativos de mensagens e redes sociais na Índia e alguns podem ser comprados por apenas 30 rúpias, ou menos de US$ 0,50.
“O Facebook reconhece que uma forma de ajudar a manter as pessoas a salvo é desenvolver uma tecnologia de inteligência artificial que permita identificar com mais rapidez e precisão conteúdos nocivos e atividades perigosas em seu serviço”, afirmou a gigante da tecnologia com sede em Menlo Park, Califórnia, na declaração.
O patrulhamento do conteúdo violento e ofensivo, desde vídeos extremistas até abuso sexual de crianças, preocupa cada vez mais as maiores empresas de tecnologia do mundo, as quais, para alguns, deveriam ser as principais guardiãs da internet. As empresas estão na mira de críticos e governos, que querem que elas assumam a responsabilidade pelo conteúdo presente em suas plataformas. Empresas como o Google, que também tem sido criticado por permitir postagens de vídeos ofensivos no YouTube, estão usando tecnologia e moderadores humanos para identificar e verificar comportamentos ofensivos e assédio on-line.
As empresas de tecnologia atualmente utilizam aprendizagem de máquinas, um aspecto da inteligência artificial, para detectar e sinalizar nudez e violência e até identificar usuários cujas postagens e vídeos sugerem tendências suicidas. Mas nenhuma erradicou o problema.
“O Facebook continua realizando pesquisas e colaborando com outros atores da área, mas não tem avanços concretos para informar neste momento a respeito do uso da tecnologia de inteligência artificial para identificação de imagens de exploração infantil ou de estupros/violações coletivas”, afirmou na declaração.