Pular para o conteúdo

Collien Fernandes: Sua experiência mostra por que cada vez mais pessoas alertam sobre o risco de abuso da IA.

Mulher sentada em mesa usando notebook para editar fotos de retrato e celular com foto próxima à ela.

As luzes do estúdio estouram no rosto - intensas, quase incômodas na sua franqueza.

Collien Ulmen-Fernandes está na maquiagem, no automático de sempre: pó, pincéis, retoques finais. No monitor do corredor, um vídeo passa sem som. Nele, um rosto conhecido - o dela - aparece dizendo coisas que ela nunca disse. Imagens de apoio, movimento dos lábios, tudo perfeitamente sincronizado… só que as frases não vieram de uma pessoa, e sim de um algoritmo. Alguém lhe mostra no celular um vídeo falso em que ela foi “montada”, com palavras estranhas saindo da sua própria boca. Bastam poucos segundos para o corpo reagir: um gelo subindo, uma sensação nítida de ameaça. É aquele estalo que muita gente já sentiu em alguma escala: perceber, de repente, que o que a gente está vendo pode ser mentira - e uma mentira assustadoramente convincente.

Quando a própria identidade vira matéria-prima

Collien Ulmen-Fernandes descreve esse instante como perder o controle do próprio rosto. Você se enxerga, reconhece a sua voz, mas algo ali é alheio - e venenoso. Para muita gente, isso ainda soa distante, “assunto de tecnologia”. Para ela, virou pessoal de um jeito quase físico. De uma hora para outra, não é mais ficção científica: é o medo real de que alguém use a sua “casca digital” como quiser. Um clique, um upload, e um vídeo falso da Collien começa a circular por grupos e conversas onde ela nem imagina entrar.

E o caso dela funciona como retrato de uma maré de situações que, discretamente, vem aparecendo com mais frequência. Influenciadoras tendo o rosto encaixado em vídeos pornográficos. Políticos com declarações inventadas atribuídas a eles. Pessoas comuns com a voz clonada para aplicar golpe - como o telefonema para enganar a avó e pedir dinheiro “com urgência”. Segundo uma pesquisa recente da Bitkom, mais de 20% dos alemães já vivenciaram conscientemente um fake de IA (ou perceberam isso no próprio círculo). A tendência é que o número real seja ainda maior, porque muita gente sequer desconfia quando está diante de um deepfake.

Nada disso é “magia”. É um processo que se alimenta de cada segundo de imagem e áudio que nós mesmos colocamos na internet. Quanto mais selfies, stories e entrevistas existirem, mais fácil fica reconstruir rostos e imitar vozes. Antes, para chegar perto desse nível, era preciso estúdio, equipe e efeitos especiais; hoje, muitas vezes bastam um notebook, alguma paciência e alguém minimamente habilidoso. A fronteira entre “brincadeira” e ataque é perigosamente baixa. E, na vida real, quase ninguém analisa áudios e vídeos com rigor forense antes de acreditar - ou de repassar.

Deepfakes e fakes de IA: como se proteger de forma prática (sem entrar em pânico)

A realidade, primeiro, sem maquiagem: não existe proteção 100% garantida contra abuso com IA. Ainda assim, há maneiras concretas de reduzir a exposição e aumentar a chance de perceber cedo quando algo saiu do controle. O começo é básico - e funciona: deixar perfis no modo privado quando possível, evitar publicar cada detalhe da rotina, e pensar duas vezes antes de disponibilizar vídeos em close e em alta qualidade para qualquer pessoa baixar. Para quem vive sob holofotes, como Collien Ulmen-Fernandes, essa margem é menor. Para o restante, é como um cinto de segurança digital: você não vê, mas quando precisa, faz diferença.

A segunda peça é transformar a desconfiança em hábito - não em paranoia. Se alguém ligar dizendo ser um familiar, vale checar: desligar e retornar para o número que você já conhece; fazer uma pergunta de verificação que só alguém próximo saberia responder. Conteúdos que vêm carregados de emoção - “fala polêmica”, “cena íntima”, “vazamento”, “áudio comprometedor” - merecem alguns segundos de distância antes de qualquer reação. O impulso de compartilhar imediatamente quando algo choca é humano. É justamente esse reflexo que golpistas e disseminadores de desinformação exploram.

Em entrevistas, a própria Fernandes destaca que buscar conversa e dar nome ao problema foi decisivo quando surgiram suspeitas de conteúdo falso. Em vez de se esconder, ela escolheu expor o tema. Parece simples, mas é um recurso poderoso - especialmente para quem tem alcance e pode reduzir o efeito do boato.

“O que mais me assusta não é a tecnologia”, diz Collien em sentido geral, “e sim como as pessoas acreditam em fakes com facilidade quando isso encaixa no que elas já querem acreditar.”

  • Falar em vez de se calar quando um fake aparece - quem é alvo precisa de aliados.
  • Definir limites, inclusive com plataformas, e denunciar conteúdos de forma consistente.
  • Preparar o próprio entorno (pais, avós, crianças) para reconhecer golpes com IA.
  • Frear a emoção: pensar antes de compartilhar - e nunca o contrário.

Um ponto que costuma ajudar, e nem sempre entra nessa conversa, é combinar “procedimentos de segurança” dentro da família e do trabalho: uma palavra-chave para emergências, regras para transferências bancárias, e a prática de confirmar pedidos sensíveis por mais de um canal. Isso não impede um deepfake, mas impede que ele vire prejuízo.

Também vale lembrar que, no Brasil, existem caminhos de proteção e responsabilização que podem ser acionados conforme o caso: registros e remoções com base em regras de plataforma, pedidos formais amparados pelo Marco Civil da Internet, e cuidados com dados pessoais sob a LGPD (Lei Geral de Proteção de Dados). Não substitui prevenção, mas ajuda a reagir com mais rapidez quando há dano.

Por que o caso de Collien Ulmen-Fernandes diz respeito a todo mundo

A experiência de Collien Ulmen-Fernandes funciona como uma lente de aumento para algo que já está em andamento. O que antes parecia restrito a celebridades e figuras políticas está escorrendo para o cotidiano de usuários comuns. Quanto mais tempo a gente vive online, maior vira o nosso “sombra de dados” - o rastro que sistemas de IA podem usar. De repente, não é só a sua senha que tem valor: é a sua risada num áudio, o seu rosto num vídeo de férias, o seu olhar impaciente numa reunião por chamada. Com esse conjunto, dá para construir uma cópia digital persuasiva o suficiente para quebrar confiança e gerar estragos.

E aqui entra outra parte incômoda: direito, tecnologia e conscientização ainda estão correndo atrás. Leis específicas contra deepfakes começam a surgir em vários lugares, plataformas testam marcas d’água e ferramentas de detecção, escolas iniciam projetos de educação midiática. Mas, enquanto comissões debatem, algum aplicativo já consegue produzir o próximo telefonema falso para uma senhora que acredita estar salvando o “neto” de uma emergência. Parece sombrio - e é -, mas também é um alerta realista. Quem pensa “isso não tem nada a ver comigo” subestima o quão rápido uma foto de uma festa pode parar no contexto errado.

Talvez sejam justamente casos públicos como o dela que tirem o tema da bolha de tecnologia. Quando alguém como Collien Ulmen-Fernandes descreve a sensação de estranhamento - ver a própria face e, ainda assim, sentir que aquilo não é você - a discussão deixa de ser abstrata e vira humana. É uma história sobre confiança, identidade e sobre até que ponto dá para acreditar no que se vê na internet. Assusta, sim - mas também aumenta nossa atenção. Compartilhar com cuidado, conversar sobre o assunto, contestar e denunciar: são alavancas pequenas, porém reais, disponíveis para todo mundo.

Ponto central Detalhe Benefício para quem lê
Fakes de IA estão ficando mais pessoais Rostos e vozes podem ser copiados de forma muito convincente com pouco esforço Cresce a percepção de que qualquer pessoa pode ser alvo, não apenas famosos
Estratégias de proteção aplicáveis no dia a dia Menos material público, truque do retorno de ligação, distância emocional antes de compartilhar Passos concretos para reduzir risco de golpes e identificar sinais de alerta mais cedo
Comunicação aberta Não esconder fakes: nomear, denunciar e acompanhar publicamente Fortalece vítimas, diminui o impacto da desinformação e a vergonha

FAQ: dúvidas comuns sobre Collien Ulmen-Fernandes, deepfakes e fakes de IA

  • Pergunta 1: O que exatamente aconteceu com Collien Ulmen-Fernandes?
    Ela se deparou com a possibilidade de que conteúdos gerados por IA com o rosto e/ou a voz dela estivessem circulando - um cenário que muitas figuras públicas vêm enfrentando. A partir disso, ela passou a alertar abertamente sobre abuso de IA e deepfakes.

  • Pergunta 2: Isso pode acontecer com pessoas “comuns” também?
    Sim. Sempre que fotos, vídeos ou áudios ficam públicos ou semi-públicos, eles podem, em teoria, ser usados para criar falsificações. Muitas vezes, basta material de redes sociais ou de grupos de mensagens que alguém encaminhou.

  • Pergunta 3: Como posso identificar fakes de IA?
    Sinais frequentes incluem microexpressões estranhas, piscadas pouco naturais, reflexos de luz incoerentes no rosto ou uma voz com som “alisado” demais. Contradições de contexto - lugar errado, data errada, situação improvável - também são indícios fortes.

  • Pergunta 4: O que devo fazer se existir um fake meu?
    Documente tudo (capturas de tela, links, datas), denuncie diretamente na plataforma e avise pessoas próximas que possam ser impactadas. Em casos graves - difamação, fraude ou conteúdo sexualizado - procure orientação jurídica e, se for o caso, registre boletim de ocorrência.

  • Pergunta 5: Ainda faz sentido postar conteúdos pessoais?
    Faz, mas com mais consciência. Nem tudo da vida privada precisa ficar público. Com noção dos riscos, dá para continuar usando redes sociais - só com um olhar mais criterioso sobre o que realmente deve ir para a internet.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário