Tecnologia

Facebook revê política sobre vídeos de abuso infantil

Atualmente, rede social não remove vídeos de abuso infantil sem teor sexual que condenam o comportamento em questão

Facebook: empresa também se esforça para apagar contas de crianças menores de 13 anos (Reuters/Reuters)

Facebook: empresa também se esforça para apagar contas de crianças menores de 13 anos (Reuters/Reuters)

DR

Da Redação

Publicado em 1 de agosto de 2018 às 15h35.

O Facebook está revendo a forma de lidar com vídeos de abuso infantil e de impedir que crianças menores de idade tenham contas na plataforma diante da preocupação de que a rede social não se esforça o suficiente para proteger os usuários.

A gigante da tecnologia está reavaliando a política de não remover os chamados vídeos de abuso infantil sem natureza sexual que têm o intuito de condenar o comportamento e nos casos em que a criança em questão continua em risco, disse Niamh Sweeney, chefe de política pública do Facebook na Irlanda, em audiência parlamentar nesse país, nesta quarta-feira.

A empresa está trabalhando também para atualizar a “orientação para que os revisores suspendam qualquer conta encontrada que tenha forte indício” de pertencer a uma criança de menos de 13 anos.

Sweeney se apresentou aos parlamentares em Dublin junto com a chefe de política de conteúdo da empresa para a Europa, Siobhan Cummiskey, em meio a supostos problemas relacionados às políticas de moderação de conteúdo do Facebook destacados em um documentário transmitido pela Channel Four Television, do Reino Unido. Ela reiterou o pedido de desculpas da empresa pelas “falhas” identificadas no documentário.

Os comentários de Sweeney surgem no momento em que a maior rede social do mundo enfrenta um crescimento fraco da base de usuários, críticas a suas políticas de conteúdo e problemas de privacidade de dados. As ações da empresa perderam um quinto do valor na semana passada após a divulgação de números de usuários e receitas inferiores aos esperados pelo mercado para o segundo trimestre.

Foi um “equívoco” não ter removido um vídeo de “uma criança de três anos sendo agredida fisicamente por um adulto”, disse Sweeney. O Facebook só permite o compartilhamento desse tipo de vídeo quando o objetivo é “condenar o comportamento e quando a criança ainda está em risco e existe uma chance de que a criança e o agressor sejam identificados pela polícia local como resultado da divulgação ao público”.

Sweeney negou que conservar o preço das ações do Facebook tenha interferido no modo como a empresa lida com o conteúdo.

Quanto à maneira com que lida com discurso de ódio, o Facebook está “usando cada vez mais a tecnologia para detectar discurso de ódio em nossa plataforma, o que significa que já não dependemos apenas das denúncias dos usuários”, disse Sweeney.

“Dos 2,5 milhões de exemplos de discurso de ódio que removemos do Facebook nos três primeiros meses de 2018, 38 por cento foram sinalizados por nossa tecnologia”, acrescentou ela.

A empresa está atualizando também a supervisão do treinamento da equipe que analisa o conteúdo do website.

Acompanhe tudo sobre:CriançasFacebookRedes sociais

Mais de Tecnologia

Segurança de dados pessoais 'não é negociável', diz CEO do TikTok

UE multa grupo Meta em US$ 840 milhões por violação de normas de concorrência

Celebrando 25 anos no Brasil, Dell mira em um futuro guiado pela IA

'Mercado do amor': Meta redobra esforços para competir com Tinder e Bumble