Tecnologia

Em experiência secreta, Facebook manipulou emoções de usuários

Durante uma semana em 2012, o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso afetou seu humo

Facebook (AFP)

Facebook (AFP)

DR

Da Redação

Publicado em 30 de junho de 2014 às 05h26.

Um estudo detalhando como o Facebook manipulou secretamente o feed de notícias de aproximadamente 700 mil usuários com o objetivo de avaliar o "contágio emocional" desencadeou revolta na rede social.

Durante uma semana em 2012, o Facebook manipulou o algoritmo usado para distribuir os posts no feed de notícias do usuário para verificar como isso afetou o seu humor.

O estudo, conduzido por pesquisadores associados ao Facebook, pela Universidade de Cornell, e pela Universidade da Califórnia, foi publicado em junho na 17ª edição dos Anais da Academia Nacional de Ciência (http://www.pnas.org/content/111/24/8788.full.pdf).

Os pesquisadores pretendiam verificar se o número de palavras positivas ou negativas nas mensagens lidas pelos usuários resultaria em atualizações positivas ou negativas de seus posts nas redes sociais.

Observou-se que os usuários que tiveram o feed manipulado utilizaram palavras positivas ou negativas dependendo do conteúdo ao qual foram expostos.

Os resultados do estudo foram propagados quando a revista online Slate and The Atlantic abordou o assunto no sábado.

"Estados emocionais podem ser transferidos para os outros por meio do contágio emocional, levando as pessoas a experimentarem as mesmas emoções de modo inconsciente", afirmam os autores da pesquisa.

"Estes resultados provam que as emoções expressas pelos outros no Facebook influenciam nossas próprias emoções, o que evidencia o contágio em larga escala via redes sociais."

Enquanto outros estudos usam metadados para estudar tendências, este parece ser o primeiro a manipular dados para verificar se há reação.

A pesquisa é considerada legal de acordo com as normas do Facebook, mas seria ética?

"#Facebook FEED DE USUÁRIOS MANIPULADOS PARA EXPERIMENTO PSICOLÓGICO EM MASSA... Sim, está na hora de encerrar a conta do FB!", lia-se em post do Twitter.

Outros tweets usavam expressões como "super perturbador", "assustador" e "mau", assim como manifestações irritadas, para descrever o estudo.

Susan Fiske, professora da Universidade de Princeton que editou o artigo para publicação, disse a The Atlantic que ela ficou preocupada com a pesquisa e entrou em contato com os autores.

Eles disseram que o conselho institucional aprovou o estudo, já que "o Facebook manipula a atualização do feed dos usuários o tempo todo".

Fiske admitiu ter ficado "um pouco assustada" com o estudo.

O Facebook disse a The Atlantic que "considera cuidadosamente" a pesquisa e que há "um processo de avaliação interna".

O Facebook, maior rede social do mundo, informa ter mais de um bilhão de usuários ativos.

Acompanhe tudo sobre:EmpresasEmpresas americanasEmpresas de internetempresas-de-tecnologiaFacebookINFOInternetRedes sociais

Mais de Tecnologia

UE multa grupo Meta em US$ 840 milhões por violação de normas de concorrência

Celebrando 25 anos no Brasil, Dell mira em um futuro guiado pela IA

'Mercado do amor': Meta redobra esforços para competir com Tinder e Bumble

Apple se prepara para competir com Amazon e Google no mercado de câmeras inteligentes