Combate: o anúncio chega em meio a preocupações crescentes com o uso de redes sociais por extremistas para divulgar conteúdo violento e recrutar militantes para ataques (Divulgação / Twitter Counter Extremism Project)
Da Redação
Publicado em 17 de junho de 2016 às 17h42.
Um software criado com o objetivo de ajudar as empresas que operam na internet a encontrarem e eliminarem rapidamente conteúdos usados para espalhar e incitar a violência e ataques foi anunciado nos Estados Unidos nesta sexta-feira.
O Projeto Contra o Extremismo, um grupo não governamental sediado em Washington, propôs que seu software seja usado em um sistema parecido com o utilizado para prevenir a pornografia infantil on-line no país.
A ferramenta foi desenvolvida pelo cientista de Computação da Universidade de Dartmouth Hany Farid, que também trabalhou no sistema PhotoDNA, amplamente usado por companhias de Internet para deter a difusão de conteúdos relacionados à exploração sexual, ou à pornografia envolvendo crianças.
O anúncio chega em meio a preocupações crescentes com o uso de redes sociais por extremistas para divulgar conteúdo violento e recrutar militantes para ataques.
"Acreditamos que esta é a solução tecnológica para combater o extremismo on-line", disse Mark Wallace, chefe-executivo da organização, que inclui ex-diplomatas e funcionários públicos dos Estados Unidos e de outros países.
O grupo propôs a criação de um escritório nacional independente para reportar o extremismo que opere de maneira similar ao centro de pornografia infantil - identificando e sinalizando certos conteúdos para que as empresas on-line os removam automaticamente.
Se fosse adotado pelas empresas de Internet, o sistema "contribuiria muito para assegurar que o extremismo on-line não seja mais difundido", disse Wallace em uma teleconferência com jornalistas.
O representante da organização explicou que o sistema pode ser útil para impedir a propagação "viral" de vídeos de decapitações e assassinatos, como os que são produzidos pelo grupo extremista Estado Islâmico.
Wallace disse que espera um "debate robusto" sobre o que é e o que não é um conteúdo aceitável, mas acrescentou: "acho que podemos concordar que os vídeos decapitação, os vídeos de afogamento e os vídeos de tortura deveriam ser removidos".
Discussões colaborativas
Segundo Wallace, o grupo teve "discussões colaborativas" com empresas de Internet, e "houve bastante interesse" no projeto.
Ele sugeriu, porém, que caberia a cada operador on-line determinar se o software será utilizado e como implementá-lo.
Farid, que também deu entrevista em uma teleconferência, disse acreditar que o novo sistema será uma ferramenta eficaz para as companhias que atualmente têm de revisar manualmente cada reclamação, ou conteúdo suspeito.
"Estamos desenvolvendo uma tecnologia que permite que as empresas executem com eficácia e precisão seus termos de serviço", disse Farid.
"É algo que eles já fazem, mas de maneira lenta", acrescentou.
O sistema é baseado em hashing - tecnologia que atribui um código de identificação único para cada texto, imagem, áudio e vídeo, que são rastreados para permitir que as plataformas identifiquem e impeçam que o conteúdo seja publicado e divulgado.
"A tecnologia foi desenvolvida e testada, e estamos nas últimas etapas antes de disponibilizá-la", o que acontecerá "em questão de meses", disse Farid.
As redes sociais vêm anunciando há muito tempo que estão dispostas a colaborar com investigações legítimas de crimes e ataques, mas têm resistido aos esforços para policiar, ou censurar, o vasto conteúdo divulgado nas suas plataformas.
Farid disse que desenvolveu o software com uma bolsa da Microsoft e que vai trabalhar para oferecer o Projeto Contra o Extremismo para empresas on-line.