Pular para o conteúdo

Chris Pratt sugeriu um vilão interpretado por IA em “Mercy”, mas disse: “Acho que não é uma boa ideia” durante o início do desenvolvimento.

Homem jovem assistindo rosto digitalizado em laptop, sentado à mesa com pranchetas de cinema e tablet.

A sala estava iluminada demais para uma conversa tão estranha. Chris Pratt afundava na cadeira no set de Mercy, meio caracterizado, meio no meio de um debate, disparando ideias com aquela mistura de entusiasmo juvenil e uma energia de “peraí, a gente vai mesmo fazer isso?”. Ao redor, monitores exibiam artes conceituais iniciais, vídeos de referência de clima e algumas faces sinistras geradas por IA que pareciam encarar de volta por tempo demais. Alguém falou em custo, outra pessoa puxou o assunto do controle. Aí veio a proposta: e se o vilão nem fosse um ator de verdade, mas um “intérprete” criado inteiramente por inteligência artificial?

O silêncio que veio depois disse o que nenhuma planilha conseguiria dizer.

A ideia de vilão de IA de Chris Pratt em Mercy que fez o alerta disparar

Na teoria, a proposta soava como a cara de 2024: um suspense de ficção científica, Mercy, ambientado num futuro próximo, com um vilão que é uma inteligência artificial… interpretado por um “ator” que também seria uma inteligência artificial. Sem conflito de agenda, sem vaidade, quantas tentativas forem necessárias. Era o tipo de solução que poderia encantar um executivo de estúdio depois de uma apresentação de slides e uma projeção de orçamento. Pratt, tentando esgotar possibilidades nas conversas de desenvolvimento, colocou isso sobre a mesa.

Só que, quando a frase foi dita em voz alta, ele mesmo se deu conta do peso. O conceito tinha o fascínio e o desconforto na mesma dose. De repente, a fronteira entre um truque interessante e algo genuinamente errado deixou de parecer distante.

Pelo que Pratt contou sobre aquelas discussões iniciais, alguém sugeriu um antagonista totalmente gerado por IA: rosto, voz e atuação, tudo construído a partir de conjuntos de dados e modelos, em vez de testes, contrato e ensaio. Um vilão “costurado” com milhares de expressões de atores, treinado em décadas de cinema, capaz de encarar, sussurrar e sorrir de canto sob comando. Sem contrato. Sem pagamento residual. Sem um ser humano por trás do olhar.

No texto de divulgação, a ideia cabia perfeita. Na vida real, batia de frente com uma Hollywood ainda abalada por greves e disputas sobre IA e uso de imagem digital. É aquele tipo de “atalho esperto” que, de um momento para o outro, começa a embrulhar o estômago.

A resposta de Pratt foi direta: “Não acho que essa seja uma boa ideia, de jeito nenhum.” Saindo de um astro com apelo comercial, que conhece bem o discurso de estúdios sobre reduzir custos e “mitigar riscos”, a frase não era só sobre estilo. Era sobre sustento, ofício e um medo muito concreto: a IA não apenas interpretar vilões na tela, mas virar uma espécie de vilã fora dela, substituindo gente em silêncio.

A reação dele chega num ponto cultural delicado. Ferramentas de IA generativa se espalham rapidamente, vídeos e áudios falsos hiper-realistas entram em redes sociais, e o SAG-AFTRA ainda discute até onde os estúdios podem ir com dublês digitais. Colocar um vilão totalmente sintético em Mercy não seria apenas uma opção criativa - seria um recado.

Por que um “ator” de IA parece genial… até você examinar de perto

Do ponto de vista técnico, boa parte do caminho já existe. Você pode escanear um intérprete (ou ignorá-lo completamente), treinar um modelo com terabytes de material audiovisual e, depois, usar captura de movimento, comandos por texto ou animação por quadros-chave para fabricar uma “atuação”. A clonagem de voz resolve as falas. A renderização final melhora pele, olhos, suor. Num monitor de teste, o vilão pode ficar assustadoramente convincente: sintético o bastante para combinar com uma trama futurista e bem-acabado o suficiente para parecer cinema.

Para um produtor, as planilhas de fantasia se montam quase sozinhas: menos atrasos, menos deslocamentos, menos horas extras e nenhuma renegociação quando uma produção vira sucesso inesperado.

Mas, quando você conversa com atores de projetos de orçamento intermediário, aparece o mesmo receio, quase sempre dito em voz baixa. Aquele vilão “experimental” pode ser exatamente o papel que deveria ter ido para um ator de personagens em busca de oportunidade. O rosto composto pode ter sido treinado com trabalho digital não pago e não creditado, extraído de dezenas de atuações antigas. Por trás de todo vídeo de demonstração elegante existe uma pergunta incômoda: de quem eram as expressões, a linguagem corporal, as pequenas manias humanas que o algoritmo aprendeu a imitar?

Em Mercy, a equipe criativa queria tensão, nuance, conflito moral. Não se tratava de “contratar um monstro”; tratava-se de encontrar a tristeza discreta num olhar, a contradição numa frase, a ambiguidade que faz um vilão continuar rondando sua cabeça depois dos créditos. É justamente essa camada que a IA ainda simula melhor do que sente.

A verdade nua e crua é: estúdios adoram ferramentas que reduzem custos primeiro e só depois discutem as consequências. O incômodo de Pratt diante da proposta do vilão de IA não foi uma reação “contra tecnologia”; foi instinto de sobrevivência. A indústria já viu figurantes serem escaneados uma vez e reutilizados para sempre, multidões serem multiplicadas digitalmente, e atores falecidos “voltarem” sem que as famílias tenham participado de um consentimento plenamente informado.

A posição dele encosta numa inquietação maior. Se uma estrela com poder de barganha aceita um “ator” de IA para o antagonista, o que acontece em sets menores, com menos proteção e menos advogados? Essa escolha não define só um filme - ela ajuda a decidir o que vira normal.

O que isso sinaliza para o futuro da atuação, do público e da IA na tela

Um jeito prático de encarar o tema é separar ferramenta de substituição. A IA pode ajudar a criar artes conceituais, montar pré-visualizações de ação, rascunhar roteiros visuais e gerar imagens de referência para figurino e cenografia. Esses usos aceleram tarefas repetitivas sem apagar a pessoa que efetivamente interpreta o papel. Quando a câmera grava de verdade, uma atuação precisa de um sistema nervoso - não de um rack de servidores.

No caso de um vilão, em especial, faz diferença a imprevisibilidade de um dia humano. O intérprete que chega cansado, eufórico ou estranhamente sereno e, sem aviso, encontra um novo ritmo numa cena que ninguém havia previsto.

O risco - e muitos profissionais admitem isso em particular - está em tratar a IA como um “atalho inocente só desta vez”. Uma multidão sintética ao fundo, um dublê digital, uma faixa provisória narrada por voz gerada que acaba indo parar no corte final por descuido. Na prática, nem todo mundo trabalha todos os dias com ética perfeita e supervisão perfeita. Prazos apertam, pessoas se cansam, e o que era opcional vira padrão.

Para quem assiste, há também uma possível perda de impacto emocional. Quando dá para perceber que nenhum risco humano, nenhuma trajetória profissional e nenhuma vulnerabilidade real estavam em jogo na criação daquele vilão, a tensão diminui. Você acaba vendo um quebra-cabeça - não uma pessoa.

Há ainda um ponto que costuma ficar fora da discussão: transparência. Se um filme usa um personagem central gerado por IA, o público deveria ser informado com clareza - nos créditos e nos materiais oficiais - sobre o que foi criado sinteticamente, de onde vieram os dados e quais autorizações foram obtidas. Sem isso, a relação de confiança entre quem produz e quem assiste se desgasta, mesmo quando a tecnologia “funciona”.

E existe uma camada jurídica que tende a crescer, inclusive fora dos Estados Unidos. No Brasil, debates sobre uso de imagem, voz e dados pessoais esbarram em direitos de personalidade e em princípios de proteção de dados. A pergunta prática vira: se uma “atuação” é montada a partir de traços de pessoas reais, como garantir consentimento explícito, rastreabilidade e remuneração justa? Sem regras claras, o incentivo econômico empurra na direção errada.

A resistência de Pratt se soma a um coro crescente em Hollywood. Durante as greves recentes, um veterano resumiu assim:

Atores não têm medo de tecnologia; temos medo de ser substituídos e depois ouvirmos que isso é “inovação”, quando na verdade é nos tirar do nosso próprio trabalho.

Os estúdios gostam de falar em conviver com a IA, mas o diabo mora nos detalhes. É por isso que, em conversas sobre projetos como Mercy, os mesmos temas voltam sempre:

  • Consentimento: houve permissão explícita e informada para usar qualquer imagem, voz ou dado de performance?
  • Crédito: a tecnologia apaga os nomes de quem, direta ou indiretamente, alimentou o sistema?
  • Remuneração: quem recebe quando um “ator” sintético fica com o papel?

Todo filme de ficção científica sobre IA, no fundo, também é um filme sobre poder. Este não foge à regra.

Onde Mercy se encaixa na grande virada cultural da inteligência artificial

Existe uma ironia particular em Mercy pairar sobre esse debate. Um thriller de futuro próximo preocupado com tecnologia e, ao mesmo tempo, flertando com a ideia de colocar essa tecnologia “dentro dos ossos” do seu vilão principal. O impulso de Pratt de recuar diante de um intérprete de IA não resolve o problema da indústria, mas muda o tom. Ele diz: não desse jeito. Não agora. Talvez nunca - pelo menos quando a proposta é trocar um ator vivo por uma réplica sintética num papel central.

Para o público, isso tem efeito em cadeia. Mantém o peso do trabalho do lado de pessoas que podem ser entrevistadas, remuneradas, contestadas - e responsabilizadas. E preserva aquela eletricidade impossível de programar: o momento em que um ser humano decide, ali na hora, dizer uma fala um pouco mais suave, mais cruel ou mais quebrada do que qualquer um planejou. É esse tipo de detalhe que permanece. E, enquanto surgem cada vez mais rostos gerados e clipes falsos perfeitos, fica difícil não se perguntar por quanto tempo vamos insistir em proteger isso.

Ponto-chave Detalhe Valor para quem lê
Pratt rejeitou um vilão de IA Ele se opôs a uma proposta de usar um “ator” totalmente gerado por IA para interpretar o antagonista em Mercy Ajuda a entender como grandes estrelas estão delimitando o uso de IA
IA pode ajudar, não substituir Ferramentas fazem mais sentido em pré-visualização, design e apoio, não em atuações centrais Oferece uma forma prática de pensar em IA ética no entretenimento
Ética e sustento estão em jogo “Atores” de IA podem deslocar empregos e embaralhar consentimento, crédito e remuneração Esclarece por que o debate vai além de um filme ou de uma manchete

Perguntas frequentes

  1. Chris Pratt realmente sugeriu usar um “ator” de IA em Mercy?
    Sim. Nas conversas iniciais de desenvolvimento, ele levantou a possibilidade de o vilão ser interpretado por um intérprete gerado por IA - e logo concluiu: “Não acho que essa seja uma boa ideia, de jeito nenhum.”

  2. Por que ele decidiu que era uma má ideia?
    Porque percebeu riscos éticos e profissionais: substituir atores humanos, enfraquecer empregos e ampliar o temor de a IA ocupar funções criativas centrais, e não apenas tarefas de apoio.

  3. Um ator de IA funcionaria tecnicamente como vilão?
    Em termos técnicos, sim. Com as ferramentas atuais, estúdios conseguem criar rostos e vozes convincentes. A questão não é só “dá para fazer?”, mas “qual é o custo em confiança, empregos e impacto emocional?”.

  4. Outras produções já usam IA em performances?
    Muitas experimentam: dublês digitais, rejuvenescimento digital, multidões ao fundo e clonagem de voz. Protagonistas totalmente gerados por IA ainda são raros, em parte por questões legais e sindicais que seguem em aberto.

  5. O que isso indica para o futuro da atuação?
    A IA tende a virar mais uma ferramenta na cadeia de produção, transformando alguns trabalhos e ameaçando outros. Estrelas como Pratt, ao traçarem limites agora, podem ajudar a definir normas antes que “atores” de IA virem padrão sem alarde.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário