Pular para o conteúdo

OpenAI, ChatGPT e o Pentágono: a crise que virou um teste de limites para a IA

Mulher analisando imagem digital de cérebro no laptop, com drone e documentos sobre mesa em escritório.

A aproximação recente da OpenAI com o Departamento de Defesa dos Estados Unidos provocou uma reação pesada. Em poucos dias, o clima mudou de vez: as desinstalações do ChatGPT dispararam, os apelos por boicote ganharam força nas redes sociais e a concorrente Anthropic, com seu assistente Claude, passou a ser celebrada como a opção “mais ética”. Sob essa pressão, a OpenAI foi obrigada a ajustar seu contrato com o Pentágono em tempo recorde.

Como começou a disputa entre ChatGPT e o Pentágono

O estopim da crise foi um acordo firmado pela OpenAI com o Departamento de Defesa dos EUA. A meta era tornar modelos de IA como o ChatGPT úteis para fins militares - da análise de dados ao apoio à tomada de decisão. Assim que a parceria veio a público, a crítica explodiu de todos os lados: grupos de direitos civis, a comunidade de tecnologia e até setores da política passaram a atacar a iniciativa.

O pano de fundo é uma disputa de princípio que vem consumindo o setor há meses, em torno do uso militar de grandes modelos de linguagem. Esses sistemas devem poder auxiliar em guerra, vigilância e seleção de alvos - ou existem limites éticos que não podem ser cruzados?

O acordo com o Pentágono deixou claro, de forma brutal, que a revolução da IA já tem uma dimensão de segurança nacional.

O ponto mais sensível é o medo de “armas autônomas” - sistemas capazes de identificar e atacar alvos sem intervenção humana. Soma-se a isso a preocupação com vigilância em larga escala feita com ajuda de modelos que aprendem e conseguem analisar cada movimento, cada comunicação.

A Anthropic estabelece uma linha dura e perde o governo como cliente

Enquanto a OpenAI assinou o contrato, outra gigante da IA tomou o caminho oposto: a Anthropic. A empresa por trás do Claude já tinha sobre a mesa uma proposta parecida vinda de Washington - e recusou.

A Anthropic define limites bem claros. A companhia não quer que o Claude seja usado em duas frentes:

  • nenhuma participação em sistemas de armas totalmente autônomos
  • nenhum uso para vigilância em massa de cidadãos e cidadãs

Foi justamente nesses pontos que, ao que tudo indica, houve pressão do Pentágono. Planejadores militares querem sistemas apoiados por IA capazes de processar volumes gigantescos de dados em tempo real: imagens de satélite, sinais de rádio, relatórios de inteligência. Empresas como a Palantir já fornecem esse tipo de plataforma ao Exército dos EUA e à OTAN, com a promessa de tornar as decisões “mais rápidas, mais precisas e mais letais”.

A Anthropic se recusa a conectar o Claude a processos decisórios em que, no fim, ninguém mais mantém o controle final. A empresa também rejeita o uso para vigilância interna. Essa postura tem consequência: segundo relatos, o governo dos EUA colocou a Anthropic numa lista negra de contratos públicos.

Ainda assim, o Claude continuaria sendo empregado em contextos de segurança, por exemplo no conflito entre os EUA e o Irã. Oficialmente, o Departamento de Defesa não comenta o tema - o que só aumenta a sensação de incerteza.

OpenAI recebe uma onda de críticas e revisa o contrato

A OpenAI fez o caminho inverso e assinou o acordo que a Anthropic havia recusado. O CEO Sam Altman inicialmente apresentou o contrato como algo submetido a controles especialmente rígidos. Segundo ele, a combinação incluía mais mecanismos de proteção do que projetos anteriores, inclusive do concorrente.

Foi justamente esse tom que funcionou como combustível para o incêndio. Nas redes sociais, cresceu a percepção de que a OpenAI estaria se aproveitando da postura ética da Anthropic para garantir seus próprios contratos militares lucrativos. A reação dos usuários foi imediata e contundente.

De acordo com números da empresa de análise Sensor Tower, o total de desinstalações diárias do aplicativo ChatGPT saltou 295%. Ao mesmo tempo, multiplicaram-se comentários falando em “quebra de confiança” e “traição aos próprios valores”.

Em um único fim de semana, o que parecia um projeto de prestígio virou risco de reputação - para muitos, o primeiro grande sinal de desconfiança em relação à OpenAI.

Na segunda-feira, Altman recuou. Na plataforma X, ele reconheceu que agiu de forma oportunista e apressada. A publicação feita no fim de semana tinha claramente a intenção de amortecer o debate público - mas produziu o efeito contrário. Agora, segundo ele, a empresa tenta “evitar um desfecho muito pior”.

Depois disso, a OpenAI alterou partes do contrato. A principal novidade é uma restrição explícita: os sistemas da empresa não devem ser usados de forma direcionada para vigiar cidadãos dos EUA. Órgãos de inteligência como a NSA também deixam de ter acesso livre aos modelos; para isso, passariam a ser necessárias mudanças contratuais adicionais, previamente analisadas.

Claude sobe ao topo e o ChatGPT perde usuários

Enquanto a OpenAI enfrentava a pressão, o chatbot rival saiu ganhando. O Claude avançou para o primeiro lugar entre os downloads da App Store da Apple e manteve essa posição por vários dias. Dados públicos indicam que dezenas de milhares de usuários migraram do ChatGPT para o Claude.

Veículos de imprensa dos EUA relatam que o Claude já aparece à frente do ChatGPT em novas instalações. Nas redes sociais, formaram-se campanhas de boicote com palavras de ordem como “CancelChatGPT” e “QuitGPT”. Ativistas pedem que todos os produtos da OpenAI sejam evitados enquanto a empresa mantiver a cooperação com o Pentágono.

Aspecto OpenAI / ChatGPT Anthropic / Claude
Cooperação militar Contrato com o Departamento de Defesa, reforçado após críticas Proposta recusada, apesar da perda de contratos públicos
Linhas vermelhas Nenhum uso direcionado para vigilância de cidadãos dos EUA (novo no contrato) Sem armas autônomas, sem vigilância em massa dentro do país
Reação dos usuários Aumento abrupto das desinstalações Explosão de downloads, posição de liderança na App Store

Cresce a cobrança por leis: “Empresas privadas não podem decidir sozinhas”

No meio da crise, também vieram a público think tanks e pesquisadores. O Center for American Progress, um dos centros de estudo político mais influentes de Washington, enxerga o conflito como um alerta para o Congresso dos EUA: o uso de IA pelo Exército não pode ficar apenas nas mãos de empresas individuais.

A mensagem central é que a política precisa estabelecer regras claras. Hoje, empresas como OpenAI e Anthropic definem por conta própria o que consideram uso responsável e o que não consideram. Se uma companhia muda sua estratégia, a fronteira muda na prática - e isso gera efeitos globais.

A professora Mariarosaria Taddeo, da Universidade de Oxford e especialista em ética digital, faz uma observação parecida. Ela alerta que excluir a Anthropic de parte das conversas tira justamente da mesa o ator que mais insiste em questões de segurança. Na avaliação dela, isso desloca a correlação de forças para uma direção arriscada no longo prazo.

O quão perigosos são os erros da IA no contexto militar?

Outro ponto de disputa são as chamadas alucinações: modelos de linguagem grandes às vezes inventam fatos, dados ou fontes. No uso cotidiano isso já é um incômodo; no ambiente militar, pode ser fatal.

A chefe de dados de uma unidade da OTAN, tenente-coronel Amanda Gustave, afirma que a regra do “humano no circuito” continua valendo. Ou seja: no fim, a decisão é tomada por uma pessoa, não pela máquina. Mas críticos perguntam o quanto essa garantia continua realista quando cresce a pressão para reagir mais rápido que o adversário.

Em conflitos em que cada segundo conta, quem decide costuma passar a confiar rapidamente em análises de IA que parecem precisas. Se informações erradas não forem detectadas, o risco de decisões equivocadas se multiplica - até chegar a escaladas que ninguém pretendia provocar.

O que significam expressões como “armas autônomas” e “vigilância em massa”

Muitos dos termos em circulação soam abstratos, mas têm significados técnicos muito concretos. Armas autônomas não são apenas robôs assassinos futuristas. Já bastam drones capazes de, com ajuda de IA, identificar, classificar e atacar alvos automaticamente, sem que alguém aprove cada etapa individualmente.

Já a vigilância em massa se refere ao uso permanente de sensores, câmeras, dados de rádio e análise de comunicações combinados com IA. Modelos de linguagem podem gerar relatórios, criar perfis ou encontrar padrões suspeitos - por exemplo, em manifestações, nas redes sociais ou em travessias de fronteira.

É justamente aí que se desenham as linhas vermelhas de muitas organizações de direitos civis: governos passam a ter ferramentas que, no conjunto, permitem um nível de controle muito maior do que as democracias conheciam até agora. Quando empresas como OpenAI ou Anthropic fornecem essas tecnologias, acabam inevitavelmente no centro da disputa política.

O que usuários e políticos podem aprender com o choque do ChatGPT

Para muitos usuários, a briga em torno do acordo com o Pentágono representa um ponto de virada. Ela mostra o quanto as empresas de IA já estão entrelaçadas com governos e forças armadas. Quem usa um chatbot hoje também apoia, de forma indireta, sua orientação estratégica - goste disso ou não.

Uma forma prática de agir é escolher com mais consciência em quem confiar. Isso inclui perguntas como:

  • Existem diretrizes éticas públicas sobre uso militar?
  • Como a empresa comunica contratos com o Estado?
  • Quais opções eu tenho para limitar o tratamento de dados?

Para a política, a tarefa é estabelecer padrões mínimos - por exemplo, proibições para armas autônomas apoiadas por IA, exigências de supervisão humana ou obrigações de transparência em contratos militares. A onda recente de indignação em torno do ChatGPT e do Claude mostra que parte do público está disposta a trocar de fornecedor quando enxerga violação de limites éticos.

A própria indústria, por sua vez, enfrenta uma decisão estratégica: no curto prazo, orçamentos de defesa bilionários parecem tentadores; no longo prazo, a credibilidade dos produtos de IA depende de eles serem confiáveis até nas áreas mais sensíveis. É exatamente nesse ponto que inovação técnica, ética e política de poder se encontram - transformando um contrato entre a OpenAI e o Pentágono em um tema político global.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário