Tecnologia

Vídeo de massacre na Nova Zelândia é desafio para Facebook e YouTube

As maiores plataformas de internet prometeram impedir o compartilhamento de imagens violentas

 (Omar Marques/SOPA Images/LightRocket/Getty Images)

(Omar Marques/SOPA Images/LightRocket/Getty Images)

A

AFP

Publicado em 18 de março de 2019 às 10h17.

Um vídeo do massacre em uma mesquita na Nova Zelândia foi bloqueado pelo Facebook durante sua transmissão ao vivo, mas foi amplamente compartilhado em outras redes sociais, evidenciando os desafios enfrentados pelas plataformas de internet para conter conteúdos violentos.

O Facebook afirma que "rapidamente" removeu a transmissão ao vivo do atirador, mas a gravação dura cerca de 17 minutos. O vídeo posteriormente migrou para outras plataformas, como YouTube e Twitter, e algumas sequências ainda eram visíveis na última sexta-feira. Pelo menos 49 pessoas morreram e dezenas ficaram feridas no ataque a duas mesquitas em Christchurch, na Nova Zelândia.

As maiores plataformas de internet prometeram impedir o compartilhamento de imagens violentas e outros conteúdos inadequados através de sistemas automatizados e controle humano. Mas isso não funciona, segundo observadores.

"Não há desculpas que justifiquem o conteúdo desta transmissão ao vivo ainda estar circulando nas redes sociais", diz Lucinda Creighton, ex-ministra irlandesa e atualmente consultora do Counter Extremism Project, que faz campanha para remover conteúdo violento de plataformas da internet.

Tais plataformas "dizem ter suas próprias tecnologias, mas não sabemos quais. Não há transparência e claramente não funciona", acrescenta.

Sua organização desenvolveu uma tecnologia que combate alguns conteúdos violentos e a ofereceu às companhias da internet, em vão.

As grandes plataformas já desenvolveram uma tecnologia para detectar a pornografia infantil, mas não conseguiram evitar os conteúdos violentos.

O Facebook divulgou que, além de ferramentas tecnológicas e moderadores próprios, utiliza cada vez mais as informações dos usuários para retirar conteúdos inapropriados. A empresa tem 20 mil moderadores contratados que, segundo vários veículos de informação, são submetidos a um grande estresse por conta dos violentos vídeos que assistem e que é difícil para eles monitorar transmissões ao vivo.

Mia Garlick, da equipe do Facebook responsável para a Nova Zelândia, informou através de um comunicado que o gigante das redes sociais está atuando para impedir a publicação deste vídeo ultraviolento.

"Cada vídeo que encontramos é colocado numa base de dados interna que nos permite detectar e retirar automaticamente as cópias desse conteúdo quando baixados novamente".

- "Plataforma sem moderadores"? -

A polícia da Nova Zelândia pediu nesta sexta-feira para que os internautas não compartilhassem as "imagens extremamente chocantes" dos massacres de Christchurch, que circularam, segundo internautas, no Reddit, no 4chan e em outras plataformas.

"Estamos trabalhando para que todos os registros" dos assassinatos sejam removidos, acrescentou a polícia.

Twitter e YouTube disseram que estão trabalhando para remover os vídeos em questão e qualquer conteúdo relacionado.

O Twitter alega ter "um procedimento rigoroso e uma equipe dedicada para lidar com situações delicadas e de emergência como essa". "Também estamos cooperando com a polícia para facilitar suas investigações", continuou o Twitter.

Quanto ao YouTube, a plataforma disse estar "de coração partido pela terrível tragédia na Nova Zelândia", e fez saber que "trabalha ativamente para retirar qualquer vídeo violento" de suas páginas.

O Facebook não respondeu imediatamente a uma pergunta sobre o tempo que levou para suprimir o vídeo ao vivo, mas disse em um comunicado que interrompeu a transmissão e a removeu após um pedido da polícia, e bloqueou as contas do Facebook e Instagram do atirador.

"Também estamos removendo qualquer apoio ou apologia ao crime e ao(s) atirador(es) assim que o vemos", garantiu o Facebook.

Muito pouco, segundo Jennifer Grygiel, professora de comunicação da Universidade de Syracuse, que acompanha de perto as redes sociais.

"O Facebook é uma plataforma sem moderadores, onde você pode transmitir o que quer", acusa, estimando que nenhuma medida de magnitude foi tomada desde a transmissão ao vivo no Facebook em 2017 de um assassinato em Cleveland, Ohio.

Tornou-se comum, de acordo com Grygiel, que os autores de crimes usem as redes sociais para transmitir suas ações, e estas são regravadas e compartilhadas, depois replicadas inúmeras vezes.

Segundo ela, plataformas como YouTube têm a capacidade de encontrar e remover vídeos violentos com pesquisas de palavras-chave, mas são necessárias mais pessoas para moderação e monitoramento.

Ferramentas de inteligência artificial podem ajudar, diz ela, mas "nenhum algoritmo pode ser projetado para isso, porque não podemos prever o futuro".

Acompanhe tudo sobre:FacebookNova ZelândiaTwitterVídeosYouTube

Mais de Tecnologia

Segurança de dados pessoais 'não é negociável', diz CEO do TikTok

UE multa grupo Meta em US$ 840 milhões por violação de normas de concorrência

Celebrando 25 anos no Brasil, Dell mira em um futuro guiado pela IA

'Mercado do amor': Meta redobra esforços para competir com Tinder e Bumble