Pular para o conteúdo

A censura nas redes sociais protege a democracia ou ameaça silenciosamente a liberdade de expressão?

Homem sentado com a boca tapada, segurando celular, megafone na mesa e ícones de redes sociais ao fundo.

Numa noite de terça-feira que parecia só mais uma sessão qualquer de doomscrolling, uma jovem enfermeira em Ohio viu o próprio post no Instagram simplesmente desaparecer. Ela tinha publicado um vídeo tremido de um protesto do lado de fora do hospital onde trabalhava, escreveu uma legenda inflamável sobre “políticos corruptos”, apertou “publicar” e foi esquentar as sobras do jantar.

Quando voltou, não havia mais nada. Sem aviso prévio - apenas um comunicado pálido dizendo que o conteúdo “violava os padrões da comunidade” por desinformação e segurança pública.

Ela ficou encarando o ecrã, com uma pergunta martelando: será que tinham acabado de protegê-la de propaganda - ou de silenciá-la discretamente, com uma mão invisível?

Quando a moderação começa a parecer uma mordaça

Passe o dedo por qualquer rede social em ano eleitoral e dá para sentir a tensão. Avisos em cima dos posts. Alertas suaves. “Este conteúdo é sensível.” “Esta alegação é contestada.”

É como entrar numa praça pública em que moderadores invisíveis pairam ao lado de cada conversa, prontos para tocar no teu ombro quando a voz sobe demais - ou quando o tema fica controverso demais.

Muita gente diz que se sente mais vigiada do que ouvida.
E isso muda o que as pessoas se atrevem a dizer.

Nas eleições presidenciais dos EUA em 2020, Facebook, Twitter, YouTube e TikTok lançaram regras mais duras contra “desinformação nociva”. Dezenas de milhares de publicações foram removidas, milhões tiveram o alcance enterrado pelos algoritmos, e contas inteiras foram suspensas de um dia para o outro.

As plataformas defenderam que estavam a proteger a democracia contra mentiras capazes de incitar violência ou de suprimir votos.

Ainda assim, um estudo do Pew Research Center apontou que 73% dos americanos acreditavam que empresas de redes sociais censuram intencionalmente pontos de vista políticos. Para muitos, a narrativa não foi “agora estamos mais seguros”, e sim “alguém decidiu qual versão da realidade podemos ver”.

Aqui mora o paradoxo esquisito da democracia digital: as mesmas ferramentas que filtram discurso de ódio e desinformação coordenada também conseguem, em silêncio, sugar o oxigénio do dissenso.

O que parece segurança por um ângulo pode soar como manipulação por outro.

A censura raramente aparece hoje de forma escancarada. Ela espalha-se por painéis de controlo, equipas de trust and safety e filtros de machine learning treinados em linguagem humana - que, por definição, é confusa e cheia de nuances. Aos poucos, a fronteira entre proteger utilizadores e gerir opinião pública fica nebulosa - e é nessa nebulosidade que a confiança começa a desmoronar.

Quem decide o que é “perigoso demais” para ser dito nas redes sociais?

Por trás de cada post apagado e de cada conta com shadowban, há um processo de decisão que quase ninguém vê. Ele começa com manuais - “padrões da comunidade” escritos por advogados, lobistas, especialistas em ética, anunciantes e, por vezes, ex-membros de agências de inteligência.

Depois entram os algoritmos, treinados para detectar insultos, ameaças e “conteúdo no limite” antes mesmo de um humano olhar.

No fim, um punhado de empresas sentadas em montanhas de dados comportamentais passa a funcionar como um ministério privado da informação.
Sem voto. Com pouca transparência.

Isso não significa que todo conteúdo censurado seja um ato nobre de resistência contra um “senhor tecnológico”. Pessoas espalham mentiras perigosas. Fazendas de trolls coordenadas existem. Todo mundo já viveu aquele momento em que um familiar partilha um link tão absurdo que dá para ouvir a música de conspiração a começar ao fundo.

O problema é que o impulso de “limpar o feed” frequentemente vai além do dano óbvio. Durante a pandemia, publicações que questionavam orientações oficiais de saúde foram reduzidas em alcance ou removidas - até mesmo quando vinham de médicos a levantar dúvidas legítimas.

Meses depois, parte dessas dúvidas acabou a entrar no debate mainstream.
Os posts, porém, continuaram apagados.

A ansiedade central está aqui: quando as plataformas exageram na correção, não apagam apenas falsidades. Apagam o processo público - confuso, desconfortável e barulhento - de discussão de que as democracias dependem.

Dúvidas, alertas precoces, visões minoritárias: tudo isso costuma nascer na periferia do consenso.

E sejamos sinceros: quase ninguém lê cada linha das directrizes da comunidade antes de publicar. A maioria aprende as “novas regras” pela punição.

Um post some. O alcance despenca de repente. Chega um e-mail vago citando uma regra tão ampla que caberia quase qualquer coisa lá dentro. Com o tempo, a auto-censura não vem por respeito - vem por medo.

Conviver com o algoritmo sem deixar que ele seja dono da tua voz

Existe uma competência silenciosa que muita gente está a desenvolver: como falar com honestidade online sem ser esmagada pela máquina de moderação. Não é sobre mentir - é sobre entender como o sistema reage.

Alguns activistas passaram a escrever legendas longas em forma de imagem (captura de ecrã) em vez de texto, para que filtros por palavra-chave não marquem o conteúdo. Outros evitam termos “gatilho” e trocam letras por números, só para continuar visíveis.

É uma espécie estranha de aikido digital.
Tu cedes um pouco - não para agradar à plataforma, mas para manter a conversa de pé.

Só que essa adaptação cobra um preço. A auto-censura entra devagar, compromisso a compromisso: publicar menos sobre política; pular aquela discussão sobre violência policial; evitar comentar um conflito internacional porque conhecidos naquele país tiveram as contas suspensas.

Aí surge uma divisão interna: uma personalidade para o feed público e outra para grupos privados e conversas encriptadas.

Se já sentiste aquela hesitação silenciosa antes de tocar em “publicar”, não estás sozinho. Muita gente descreve uma ansiedade de baixa intensidade, um reflexo de “melhor não arriscar”.

Pouco a pouco, a praça pública fica mais lisa, mais segura - e estranhamente mais fina.

“A liberdade de expressão não desaparece com um estrondo nas redes sociais. Ela encolhe a cada post que decidimos não escrever, porque algum livro de regras invisível pode nos punir”, diz um ex-moderador de conteúdo que analisava milhares de publicações políticas por dia.

  • Pergunta quem ganha - Quando um tema recebe rótulos agressivos ou tem o alcance estrangulado, faz uma pausa e pergunta: quem se beneficia de menos debate público aqui?
  • Diversifica os teus espaços - Não dependas de uma única plataforma para a tua voz política. Usa newsletters, fóruns e encontros presenciais.
  • Documenta os teus casos - Se posts sumirem, faz captura de ecrã dos avisos, anota datas e guarda o conteúdo. Padrões fazem diferença nas discussões sobre direitos digitais.
  • Apoia transparência - Pressiona por relatórios claros, motivos objectivos e canais de recurso que funcionem.
  • Conhece as tuas próprias linhas vermelhas - Decide sobre o que tu não aceitas ficar calado, mesmo que isso custe alcance ou seguidores.

Democracia precisa de barulho - e estamos a terceirizar o botão do volume

A pergunta grande, incômoda e pesada é simples: quem decide quanto caos uma democracia consegue aguentar?

Durante anos, essa escolha ficou principalmente com governos e tribunais, em processos lentos - mas visíveis. Hoje, uma parte enorme dessa responsabilidade está nas mãos de gestores de produto na Califórnia, engenheiros de machine learning em Dublin e equipas de políticas internas a equilibrar políticos irritados e utilizadores irritados.

Em alguns dias, a censura nas redes sociais provavelmente evita danos reais. Em outros, ela estreita discretamente o conjunto de temas que podemos discutir em público.

E a verdade é que quase nenhum de nós consegue distinguir, com certeza, um dia do outro.

Vale acrescentar um ponto que raramente entra na conversa: a moderação não afecta apenas o que é removido - ela molda o que é recomendado. Mesmo sem apagar nada, sistemas de distribuição podem tornar certos temas praticamente invisíveis e empurrar outros para o topo, como se fossem a “opinião natural” do momento. Isso também é poder político, ainda que vestido de optimização de produto.

Outro aspecto importante é o impacto na saúde mental e na participação cívica: quando o espaço público parece hostil, confuso ou imprevisível, as pessoas mais cuidadosas tendem a sair primeiro. A conversa fica dominada por quem está disposto a arriscar mais - e, em alguns casos, por quem grita mais alto. O resultado pode ser uma esfera pública menos diversa e menos representativa, mesmo quando a intenção declarada era “proteger”.

Ponto-chave Detalhe Valor para o leitor
As plataformas actuam como censores privados Regras de moderação e algoritmos definem o que sobrevive como conteúdo político Ajuda a ver apagamentos e rótulos como movimentos de poder, não apenas “falhas técnicas”
A sobre-moderação alimenta a auto-censura Utilizadores adaptam a linguagem, evitam temas e se dividem entre o eu público e o eu privado Dá nome à sensação desconfortável antes de publicar sobre assuntos sensíveis
Ainda existe margem de manobra Diversificar espaços e documentar casos recupera parte do controlo Mostra formas práticas de proteger a tua voz sem desaparecer da internet

FAQ:

  • A censura nas redes sociais realmente protege a democracia?
    Às vezes, sim: remover apelos explícitos à violência ou campanhas organizadas de supressão de voto pode evitar danos reais em momentos políticos tensos. O problema começa quando as mesmas ferramentas passam a atingir categorias amplas como “controverso” ou “prejudicial à confiança nas instituições”, o que pode engolir críticas legítimas.

  • Isso não é apenas empresa privada a aplicar as próprias regras?
    Do ponto de vista legal, sim - são plataformas privadas com termos de uso próprios. No plano político e social, o cenário fica mais turvo, porque uma fatia enorme do debate público acontece nelas; logo, as regras dessas empresas moldam a vida democrática muito para além do balanço financeiro.

  • Qual é a diferença entre moderação e censura?
    Moderação é aplicar regras claras e restritas contra danos directos, idealmente com transparência e possibilidade de recurso. Censura começa quando as regras ficam tão amplas ou tão opacas que, na prática, silenciam com frequência vozes dissidentes - ainda que pacíficas.

  • Vozes conservadoras ou progressistas são mais censuradas?
    Os dois lados acusam viés, e existem exemplos isolados em todas as direcções. O que costuma unir as queixas é a sensação de que as decisões são irregulares, mal explicadas e muito influenciadas por pressão política, em vez de padrões estáveis e confiáveis.

  • O que utilizadores comuns podem fazer contra censura injusta?
    Documentar casos, recorrer decisões, espalhar a informação fora da plataforma, apoiar organizações de direitos digitais e evitar colocar toda a tua voz cívica nas mãos de uma única empresa. Uma conta pode ser silenciada de um dia para o outro; vários canais são bem mais difíceis de calar.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário