Marketing

Moderação de conteúdo e aceno político: o que esperar da Meta após fim da checagem independente

O desafio do crowdsourcing na moderação de conteúdo com a substituição da checagem de fatos por notas, como no X

Mark Zuckerberg (Bloomberg / Colaborador/Getty Images)

Mark Zuckerberg (Bloomberg / Colaborador/Getty Images)

Eric Messa
Eric Messa

Professor e colunista

Publicado em 9 de janeiro de 2025 às 16h08.

Tudo sobreMeta
Saiba mais

Nesta semana, surgiram os primeiros impactos do jantar entre Mark Zuckerberg e Donald Trump, realizado em novembro de 2024. O CEO da Meta anunciou uma mudança significativa na forma como suas plataformas lidarão com fake news. Em uma decisão surpreendente, ele decidiu interromper as parcerias com agências independentes de checagem de fatos e adotar um modelo de moderação colaborativa que envolve diretamente os usuários.

Nesse novo formato, são os próprios usuários que irão não só denunciar, mas também contextualizar os fatos de uma publicação. A equipe de moderação associada a esse modelo de crowdsourcing será baseada no Texas (EUA), substituindo a atual equipe sediada na Califórnia, um estado conhecido por suas tendências progressistas.

Não está claro ainda como esse modelo funcionará na prática, nem quando será implementado no Brasil. O Ministério Público Federal deu 30 dias úteis para a Meta fornecer esclarecimentos.

A repercussão do anúncio foi intensa, mas, até o momento, ainda é incerto como essas mudanças afetarão a propagação de desinformação ou discursos de ódio. A única coisa que está clara neste momento é a busca de Zuckerberg por um alinhamento político com o próximo presidente eleito dos Estados Unidos.

Poucos anos atrás, Trump foi banido do Facebook e Instagram, e Zuckerberg, por sua vez, ameaçado de prisão. No entanto, a situação agora parece ter mudado, possivelmente devido a interesses comuns entre as partes.

Com Trump no governo, é vantajoso para o Facebook manter uma proximidade com o governo americano, especialmente em um contexto em que vários países estão discutindo a regulação das redes sociais, impondo regras e limites.

Ter um governo aliado é importante no enfrentamento com os demais. Além disso, essa aproximação fortalece a plataforma em um momento em que ela enfrenta concorrência acirrada do TikTok, uma rede chinesa que tem recebido críticas severas do governo dos Estados Unidos.

Outro aspecto que deve interessar à Meta é que essa mudança pode reduzir os custos da empresa, já que a estrutura necessária para controle de moderação de conteúdo será aliviada pelo modelo colaborativo com os usuários.

Para além das questões políticas, o fato é que o tema da moderação de conteúdos e a redução do discurso de ódio e da desinformação são desafios complexos, para os quais ainda não temos uma solução ideal. Nem Trump, nem Zuck.

A colaboração com agências de checagem de fatos mostrou-se eficaz, devido à sua idoneidade e compromisso com a verificação dos fatos. No entanto, esse modelo pode se limitar por demandar uma estrutura custosa, especialmente devido ao alto volume de informações que circula em redes como o Facebook, Instagram e WhatsApp. Assim, um modelo colaborativo com usuários parece promissor.

O Waze e a Wikipedia são bons exemplos de aplicações bem-sucedidas de modelos de crowdsourcing, apesar das limitações com a credibilidade das informações. Especialmente sobre esse aspecto, aplicar esse modelo para a checagem de desinformação é desafiador, pois encontrar um consenso entre tantas vozes para determinar se algo é desinformação não é uma tarefa fácil. Particularmente, acredito que ainda somos imaturos para tamanha responsabilidade.

Além disso, no meu entender estamos deixando de lado algo crucial que é exigir da Meta mais esclarecimentos de como o algoritmo e sua a inteligência artificial participará deste processo de moderação.

O algoritmo é, antes de tudo, o principal agente capaz de ampliar a visibilidade de qualquer conteúdo na rede. A questão que precisa ser respondida é como o algoritmo será treinado para evitar a propagação de fake news e discursos de ódio. É aí que mora a responsabilidade da Meta e demais big techs: o todo-poderoso algoritmo que influencia a todos.

Para encerrar, uma última consideração: a dura realidade de que não podemos salvar a humanidade de si mesma. Somos nós que produzimos e disseminamos notícias falsas. Seja na rede social ou na mesa do bar.

Acompanhe tudo sobre:Metaestrategias-de-marketingRedes sociais

Mais de Marketing

Como as marcas têm reagido à possibilidade de banimento do TikTok nos EUA

Pesquisa revela os temas que mais engajaram nas plataformas de vídeo

Eletromidia assume operação publicitária no Aeroporto de Salvador

4 pilares essenciais para desenvolver e manter uma mente criativa