Pular para o conteúdo

Desinformação nas redes sociais: um terço do que circula é falso ou tóxico

Pessoa sentada à mesa usando smartphone, com caderno e laptop abertos ao lado.

Um estudo inédito mostra que um terço dos conteúdos distribuídos nas redes sociais é totalmente falso ou extremamente tóxico. E, ao que tudo indica, as plataformas não pretendem frear esse movimento, já que seus algoritmos tendem a premiar a mentira.

As redes sociais seriam ambientes tóxicos? Pois é. Pela primeira vez, um projeto financiado pela União Europeia, chamado SIMODS e coordenado pela ONG francesa Science Feedback, mediu de forma sistemática a proporção de conteúdo enganoso nas grandes plataformas. Os pesquisadores analisaram 2,6 milhões de publicações, com cerca de 24 bilhões de visualizações entre março e abril de 2025, em seis redes - Facebook, Instagram, TikTok, X, YouTube e LinkedIn - e em quatro países europeus, entre eles a França. A conclusão é direta: as redes sociais estão profundamente contaminadas por desinformação, conteúdo de ódio e narrativas manipuladoras. Em TikTok e X, quase um terço da experiência do usuário já é moldado por material problemático.

O estudo parte de uma amostra representativa de 500 conteúdos por plataforma e por país, ponderada pela exposição, que foi examinada por verificadores de fatos profissionais com base em protocolos transparentes e replicáveis. O resultado mostra que o que chega ao feed das pessoas é consequência de arquiteturas algorítmicas que favorecem publicações falsas e nocivas.

TikTok, Facebook e X lideram entre as redes sociais mais tóxicas

Como era de se esperar, o TikTok aparece disparado na pior posição, com cerca de 20% das publicações contendo informações factualmente incorretas. Em seguida vêm o Facebook, com 13%, e o X, antigo Twitter, com 11% - índices que seriam inaceitáveis em qualquer veículo jornalístico sério.

Se forem somadas as informações falsas, os conteúdos abusivos, como discurso de ódio e ataques direcionados, e ainda a chamada “zona cinzenta” - publicações que reproduzem narrativas enganosas sem conter erros facilmente comprováveis -, o cenário fica ainda mais preocupante. No TikTok, 34% do conteúdo exibido aos usuários se enquadra em desinformação. No X, esse percentual chega a 32%, ou seja, um em cada três conteúdos.

O LinkedIn é a única exceção, com apenas 2% de materiais explicitamente falsos e uma presença bastante baixa de conteúdo tóxico. Ainda assim, há de se lidar com os influenciadores corporativos de sempre, mas isso já é outra história.

Os pesquisadores também destacam a concentração das distorções em poucos perfis com grande alcance. Uma pequena minoria de contas, embora já identificada como problemática, absorve a maior parte do tráfego de desinformação e recebe uma visibilidade desproporcional.

O negócio da mentira nas plataformas digitais

O estudo aponta que o tema da saúde é o que apresenta a maior taxa de notícias falsas ou conteúdos tóxicos, com 43% das publicações enganosas identificadas. Golpes, curas milagrosas e pseudociência: os conteúdos que viralizam costumam ser criados para explorar a vulnerabilidade dos internautas, e não para informar. Em seguida aparecem a guerra na Ucrânia, a política nacional, o clima e a imigração - assuntos em que emoção e indignação são frequentemente usados como combustível.

Isso acontece porque é justamente a emoção que sustenta as plataformas. Para demonstrar isso, os cientistas responsáveis pela pesquisa identificaram uma espécie de “bônus de visibilidade” concedido pelos algoritmos às informações falsas. Com a mesma audiência, uma conta pouco confiável consegue mais visualizações e interações do que um perfil que publica conteúdo verificado, chegando a até oito vezes mais engajamento no YouTube entre contas consideradas pouco confiáveis. Em outras palavras, as plataformas favorecem conteúdos chocantes, escandalosos e conspiratórios porque eles prendem a atenção, geram reação e, por consequência, receita publicitária.

As plataformas costumam invocar a liberdade de expressão para justificar a resistência em moderar esse tipo de conteúdo, ao mesmo tempo em que exaltam ferramentas de denúncia ou rotulagem. Porém, os autores do estudo concluem que esses mecanismos continuam marginais diante da força das recomendações algorítmicas, que amplificam em massa os materiais problemáticos.

Além disso, tudo indica que as plataformas afrouxaram bastante a moderação. Embora o Digital Services Act (DSA) determine que elas documentem e reduzam os riscos de desinformação, elas vêm se desobrigando dessa tarefa sem sofrer punições. Um exemplo claro desse descaso é o fim, no início de 2025, do programa de checagem de fatos do Facebook, em um momento em que figuras políticas influentes, entre elas Donald Trump, incentivavam abertamente as plataformas a confrontar os reguladores europeus e a suavizar seus esforços de moderação.

Como lidar com a desinformação nas redes sociais?

Diante desse quadro alarmante, o que pode ser feito? Os pesquisadores que conduziram a análise defendem que as autoridades europeias assumam o controle da situação, por exemplo exigindo moderação mais rigorosa, a desmonetização de publicações problemáticas e a reformulação dos algoritmos para que deixem de impulsionar notícias falsas. Caso contrário, eles indicam que a espiral tóxica observada hoje tende apenas a piorar à medida que as plataformas aperfeiçoam seus modelos de recomendação. Por enquanto, é difícil imaginar esse cenário se concretizando: nas últimas semanas, a Europa parecia disposta a aliviar a pressão sobre as plataformas. Há até discussões sobre flexibilizar regras, inclusive no âmbito do RGPD.

O único anteparo contra esse problema acaba sendo o próprio usuário. No TikTok, no Facebook e no X, abrir o feed com a intenção de “se informar” já não faz sentido. Quando até um terço do que aparece na tela é falso, enviesado ou carregado de ódio, distinguir o que é verdadeiro do que é mentira se torna quase impossível, mesmo para quem navega com atenção.

Os efeitos extrapolam em muito a esfera individual. As plataformas fragmentam a sociedade, criam bolhas informacionais e normalizam o conspiracionismo, o racismo e a hostilidade contra o próximo. Continuar tratando esses ambientes como fontes legítimas de informação equivale a aceitar que um sistema desenhado para capturar atenção passe a funcionar como motor da vida democrática.

Em situações assim, vale adotar uma postura mais criteriosa: conferir a mesma notícia em mais de uma fonte, checar data, autoria e contexto, e desconfiar especialmente de conteúdos que dependem de urgência, choque ou indignação para circular. Pequenos hábitos de verificação não resolvem o problema estrutural, mas reduzem o impacto da manipulação no dia a dia.

Então, o que fazer? Encarar as plataformas pelo que elas são. TikTok, Facebook e X não são meios de comunicação, mas plataformas de entretenimento. Elas desligam nossos cérebros e estimulam a liberação de dopamina para manter nossa atenção presa em conteúdos de baixo valor informativo. Mas nunca, em hipótese alguma, elas têm como objetivo nos ajudar a entender o mundo, aprender algo ou nos informar. Muito pelo contrário: isso destruiria o modelo de negócios delas.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário