O estúdio está em silêncio; no ar, só o zumbido discreto das luzes de gravação.
Collien Ulmen-Fernandes segura o smartphone, e o brilho frio do ecrã (tela) recorta o rosto dela. Na tela: um vídeo em que ela aparece - ou parece aparecer. Ela fala, sorri, “confessa” frases que nunca disse. Um deepfake nítido, polido, convincente ao ponto de dar um nó na cabeça. Por alguns segundos, a expressão dela sugere estranhamento: como se a própria identidade tivesse sido ligeiramente deslocada. Então, ela levanta o olhar, encara a câmara e começa a relatar o que aconteceu. E ali a energia muda: do glamour típico de um estúdio de TV para a pergunta desconfortável sobre quem, afinal, “possui” o nosso rosto na internet. Entre raiva, incredulidade e um humor amargo, uma nova realidade ganha forma - e com ela uma discussão que já não dá para empurrar para debaixo do tapete.
Deepfakes de IA e Collien Fernandes: quando o seu rosto vira de outra pessoa
Quem acompanha Collien Fernandes desde a época da VIVA (o canal musical que marcou uma geração) associa a apresentadora a leveza, programas de música e tapetes vermelhos. Agora, no entanto, ela surge em entrevistas com outra postura: mãos cruzadas, um sorriso um pouco mais cansado do que o habitual. Ao relembrar a primeira vez em que viu o seu “eu de IA”, ela descreve o choque: um clipe com teor sexual, colocado num contexto que não era o dela, partilhado por perfis anónimos e comentado por milhares de pessoas.
Nesse instante, a história deixa de ser “só” sobre uma figura pública. Entra em cena a mãe, que pensa no que acontece se a filha um dia se deparar com aquele material. Quase todo mundo conhece o desconforto de ver uma foto nossa, pouco favorecedora, circulando sem controlo. Agora imagine que essa imagem também fala com a sua voz - e ainda por cima mente.
Nos dias seguintes ao primeiro vazamento, os alertas não param de chegar: links, capturas de ecrã, mensagens de colegas e conhecidas. Aparecem novas montagens, novos recortes, novas situações inventadas. O rosto de Fernandes é colado em corpos que não são dela, em quartos que ela nunca viu, em fantasias que ela não escolheu. As visualizações sobem; as plataformas, muitas vezes, limitam-se a reagir com lentidão ou burocracia. Já não existe a “cena clássica” do paparazzo escondido atrás de um arbusto. O ataque vem de data centres, contas descartáveis e algoritmos incapazes de sentir empatia.
Estudos e levantamentos internacionais indicam que milhões de mulheres já foram inseridas em pornografias deepfake (deepfake-pornos) - a maioria sem qualquer visibilidade, sem entrevista, sem um microfone para contar a própria versão. Collien torna-se o rosto reconhecível de uma massa invisível. E é precisamente por isso que o caso dela assusta: porque aproxima o problema do quotidiano de qualquer pessoa.
Quando ela narra a experiência, percebe-se um estalo subtil na confiança no mundo digital. A manipulação por IA não se comporta como um escândalo tradicional, que explode e depois desaparece. Parece mais um vazamento contínuo da própria identidade. Dá para denunciar os deepfakes, pressionar plataformas, acionar advogados - e, ainda assim, fica a sensação de que existe sempre outra cópia em algum fórum, noutra nuvem, noutro disco rígido. E sejamos honestos: ninguém consegue vigiar, dia após dia, todos os resultados de busca com o próprio nome, todas as imagens e todos os vídeos.
A crueldade está no desequilíbrio de poder: a tecnologia corre; o direito costuma andar a passos lentos. No meio, há uma pessoa real a tentar entender como se defende de um fantasma digital.
Dois pontos que agravam o problema (e quase ninguém percebe a tempo)
Além da humilhação evidente, existem dois efeitos secundários frequentes que tornam os deepfakes de IA ainda mais destrutivos. O primeiro é o “efeito dúvida”: mesmo quando a vítima prova que é falso, parte do público mantém a suspeita, porque o material “parece real”. O segundo é a escalabilidade: uma única imagem pública (de uma rede social, por exemplo) pode ser replicada em dezenas de variações, em minutos, por ferramentas cada vez mais acessíveis - e isso multiplica a sensação de impotência.
O que dá para aprender, na prática, com o que Collien Fernandes está a fazer
Um dos momentos mais fortes nas conversas públicas não é o choque inicial - é a decisão de reagir de forma frontal. Em vez de se recolher por vergonha, Collien avança. Ela fala abertamente sobre os deepfakes, cita onde apareceu, descreve como está a lidar com o impacto emocional e com os caminhos legais.
Para quem passa por algo parecido (seja famoso ou não), há uma linha de ação bastante concreta por trás desse posicionamento: não isolar-se, preservar provas e construir rede de apoio. Na prática, isso significa:
- fazer capturas de ecrã;
- guardar links e URLs;
- anotar data, plataforma, contexto e perfis envolvidos;
- arquivar mensagens e notificações relacionadas.
Em seguida, vale romper a “bolha” de falar só com o círculo íntimo. Dependendo da gravidade, pode fazer sentido acionar apoio psicológico, procurar orientação jurídica, contactar organizações de apoio a vítimas e - em alguns casos - tornar a situação pública para reduzir o espaço de manobra de quem está a atacar. A vergonha, aqui, funciona como combustível para os autores do abuso. Falar pode ser o primeiro contra-ataque.
Collien também menciona aqueles momentos em que a vontade era desaparecer: apagar Instagram, sair de tudo, desligar o telemóvel e fazer silêncio total. Muita gente reconhece esse impulso de fuga quando o próprio nome aparece em comentários que soam estranhos, agressivos e invasivos. O que ela escolhe fazer, porém, é outra coisa: colocar limites sem sumir.
Ela delega o monitoramento a pessoas de confiança, bloqueia determinados termos, e define com clareza o que ainda comenta em entrevistas - e o que não alimenta mais. E, em vez de encenar a persona “perfeita” de internet, ela admite: está cansada. Esse tipo de honestidade não é fraqueza; é uma resposta direta à pressão de parecer sempre forte, sempre composta, sempre otimizada.
Em determinado momento, ela resume o dilema com uma frase que fica a ecoar:
“De repente existe uma versão minha na internet a fazer coisas que eu nunca faria - e, mesmo assim, sou eu que tenho de lidar com as consequências.”
Da história dela, sobressaem três aprendizados essenciais:
- Agir cedo: quanto mais rápido reportar, guardar provas e buscar orientação jurídica, maior a chance de reduzir a propagação.
- Ativar redes: amigos, colegas, comunidade e contactos profissionais podem ajudar a denunciar conteúdos e a sustentar a vítima publicamente.
- Definir o próprio enredo: explicar o que ocorreu, com clareza, tira parte do “poder de narrativa” de quem criou a falsificação.
Nas entrelinhas, fica um recado útil: proteção não é viver offline a qualquer custo - é habitar a internet com mais consciência, apoio e estratégia. Isso vale tanto para celebridades quanto para uma estudante anónima cuja foto foi parar num grupo qualquer.
Medidas de prevenção que ajudam (mesmo sem existir “proteção total”)
Não há blindagem absoluta contra deepfakes de IA, mas alguns hábitos diminuem riscos e aumentam a capacidade de resposta: rever configurações de privacidade, reduzir a exposição de imagens íntimas (e também de imagens de terceiros), ter cuidado com pedidos de “vídeos rápidos” e áudios em chats desconhecidos, e combinar com familiares/amizades um protocolo simples caso algo apareça (quem reporta, quem reúne links, quem procura orientação).
O que o caso revela sobre a nossa vida digital daqui para a frente
O turbilhão em torno de Collien Fernandes está longe de ser apenas um assunto de celebridade que passa alguns dias nas redes sociais. O que ela conta reflete uma sociedade que já pressente algo fundamental: imagens e vídeos na internet deixaram de ser sinónimo automático de prova.
Se uma apresentadora conhecida precisa explicar-se por atos que uma IA inventou, fica claro o quanto a nossa perceção se tornou frágil. Amigos, colegas, clientes, empregadores - todo mundo, cada vez mais, vai ter de fazer a pergunta básica: “isto é real?”. E, ao mesmo tempo, carregar no fundo da mente a possibilidade de que qualquer pessoa pode ser forçada a defender-se do próprio “reflexo” digital.
A história dela também toca num ponto íntimo: controlo. Quem tem autorização para usar o meu rosto, o meu corpo, a minha voz? Hoje, o debate aparece muito em torno de pornografias deepfake e de anúncios falsos com rostos famosos. Amanhã, pode evoluir para citações políticas inventadas, “confissões” forjadas ou vídeos de “prova” fabricados para destruir reputações. Na era da IA, a fronteira entre entretenimento, plataformas pornográficas e propaganda fica mais fina. E quando a falsificação parece mais convincente do que uma gravação verdadeira, também muda a forma como decidimos em quem acreditar.
O que Collien vive hoje funciona como um teste de estresse involuntário para o sistema de proteção. Existem mecanismos contra violações de direitos de personalidade, contra divulgação de conteúdo íntimo sem consentimento, contra perseguição e crimes contra a honra. No Brasil, dependendo do caso, entram ainda discussões ligadas ao Código Penal (calúnia, difamação e injúria), à chamada Lei Carolina Dieckmann (invasão de dispositivo informático), ao Marco Civil da Internet (responsabilização e remoção mediante ordens e procedimentos) e à LGPD quando há tratamento indevido de dados pessoais. Ainda assim, não há uma “solução mágica” que acompanhe a velocidade da tecnologia.
Enquanto juristas e legisladores tentam atualizar regras e obrigações de plataformas, quem é atingido precisa lidar com o agora: insónia, comentários cruéis, desconfiança alheia, medo de novas versões surgirem. O caso Fernandes evidencia o tamanho do vão entre avanço técnico e proteção humana - e como, de alguma forma, todos nós já estamos a pisar essa rachadura.
Síntese do caso (pontos essenciais)
| Ponto central | Detalhe | Valor para quem lê |
|---|---|---|
| Deepfakes de IA atingem pessoas reais | O caso de Collien Fernandes escancara o lado pessoal e emocional da manipulação | Ajuda a entender que não é um tema “só tecnológico”, e sim profundamente humano |
| Resposta rápida e boa documentação | Guardar capturas de ecrã, reunir links, procurar apoio jurídico e falar publicamente quando fizer sentido | Indica passos imediatos e práticos para agir em situação de emergência |
| Novo olhar para “vídeos de prova” | Imagens e clipes precisam ser questionados e contextualizados com mais rigor | Evita julgamentos precipitados sobre celebridades e sobre pessoas do nosso convívio |
Perguntas frequentes
Pergunta 1 - O que aconteceu, exatamente, com Collien Fernandes?
Circularam na internet vídeos e imagens manipulados por IA - deepfakes - que a colocam em situações que nunca ocorreram. Ela decidiu falar publicamente sobre o impacto emocional e as consequências jurídicas.Pergunta 2 - Só pessoas famosas podem ser vítimas de deepfakes?
Não. Na prática, muitas vítimas são mulheres anónimas, cujas fotos são retiradas de redes sociais, chats ou perfis privados. A diferença é que, quando a vítima é conhecida, o problema torna-se mais visível.Pergunta 3 - O que fazer se eu descobrir um deepfake meu?
Preserve provas (capturas de ecrã, links, datas e contexto), denuncie na plataforma, procure orientação jurídica, envolva pessoas de confiança e, se for adequado, publique uma explicação curta para reduzir boatos e interpretações maliciosas.Pergunta 4 - Deepfakes de IA são crime no Brasil?
Não existe uma “lei única” específica para deepfakes em todos os cenários, mas o enquadramento pode ocorrer por outras normas: crimes contra a honra, perseguição, divulgação de conteúdo íntimo sem consentimento, violações de direitos de imagem e, conforme o caso, normas do Marco Civil e da LGPD.Pergunta 5 - Como me proteger preventivamente?
Proteção total não existe. Ajuda limitar a exposição de imagens íntimas, reforçar privacidade, desconfiar de conteúdos suspeitos, combinar um plano de ação com o seu círculo de confiança e, sobretudo, levar vítimas a sério - oferecendo apoio em vez de julgamento.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário