Quando se fala em crise hoje, a imagem que vem à mente costuma ser a de pessoas tomando decisões - não a de máquinas.
Análises recentes conduzidas em Stanford propõem outra leitura: em conflitos simulados, a IA moderna muitas vezes aparece como um fator que encurta o caminho para a escalada. E, cada vez mais, ela se aproxima de ambientes em que cada escolha pesa - e uma única pode acionar algo irreversível.
Por que pesquisadores de Stanford estão soando o alarme
A cientista política Jacquelyn Schneider coordena, na Universidade de Stanford, a Iniciativa Hoover de Jogos de Guerra e Simulação de Crises. Em várias simulações de crise com apoio de IA, entre 2024 e 2025, sua equipe avaliou como modelos de linguagem orientam decisões em situações sensíveis. Os cenários iam de tensões entre Rússia e Ucrânia a hipóteses envolvendo China e Taiwan.
O resultado foi inquietante: os sistemas testados - incluindo modelos amplamente usados como ChatGPT, Claude e Llama - defenderam repetidamente escalada em vez de desescalada.
Em diversos jogos de guerra, modelos de IA preferiram opções duras - chegando a sugerir dissuasão nuclear ou até um primeiro ataque.
Em um texto publicado em fevereiro de 2025, Schneider comparou esse padrão à escola de pensamento do general norte-americano Curtis LeMay, conhecido na Guerra Fria por uma estratégia nuclear inflexível. A analogia não pretende carimbar a ideia de “IA maligna”, mas deixar claro um ponto: se sistemas aprendem a partir de textos históricos, documentos estratégicos e narrativas de guerra, eles também reproduzem a lógica embutida nesses materiais.
O que os jogos de guerra de Stanford revelaram sobre a IA
Nos testes, os modelos tenderam a valorizar capacidade de agir, velocidade e dominância. Frequentemente trataram riscos de forma mais curta (subestimando consequências futuras), deram peso alto a ganhos de força militar e reduziram a importância de incertezas diplomáticas. Em situações ambíguas, interpretaram intenções adversárias como rapidamente “no pior nível possível”.
| Cenário | Reação do modelo (típica) | Principal perigo |
|---|---|---|
| Rússia–Ucrânia | Retaliação dura, ampliação do conjunto de alvos | Espiral de escalada sem saída |
| China–Taiwan | Ataques militares preventivos, opções de bloqueio | Erro de cálculo em “zonas cinzentas” |
| Comunicação em crise | Elevação de níveis de alerta, reforço de ameaças | Viés de automação em tomadores de decisão |
Esses padrões não provam que exista “vontade própria” na máquina. O que eles mostram é como modelos de linguagem continuam padrões presentes nos dados de treino. Quando alguém pergunta sobre liderança e condução de crise, a resposta tende a soar “decisiva” e tolerante ao risco - especialmente se a pergunta enquadra moderação como fraqueza.
Por que modelos de linguagem tendem a escalar
- Viés de treino: parte relevante da literatura militar premia “determinação” e pune “hesitação”.
- Estrutura de recompensa: os modelos aprendem a gerar recomendações claras e aparentemente firmes.
- Baixa tolerância à ambiguidade: cenários nebulosos puxam argumentos de “pior caso” para parecerem seguros.
- Desenho do prompt: perguntas no estilo “como vencemos?” empurram para meios máximos.
- Expectativa humana: em crise, decisores procuram opções duras - e acabam enxergando nelas o caminho “realista”.
A IA responde aos objetivos que nós colocamos. Quando se pede vitória, raramente se obtém propostas de negociação.
O ser humano permanece no ciclo - mas o ciclo está ficando mais curto
O Departamento de Defesa dos Estados Unidos insiste em um princípio: no fim, quem decide é uma pessoa. Essa postura, até aqui, funciona como uma linha vermelha na política nuclear. Ao mesmo tempo, cresce o uso de sistemas com IA em inteligência, designação de alvos, defesa cibernética e logística. China e Rússia também investem pesadamente em capacidades semelhantes.
Esse ambiente de corrida tecnológica aumenta a pressão por automatizar mais rápido - e, na prática, desloca responsabilidade, mesmo quando a regra oficial diz que “um humano decide”.
Posição do Pentágono e o peso da concorrência
A meta declarada dos EUA é usar IA como assistência, não como piloto automático. Porém, quando sensores, cadeias de análise e quadros de situação passam a operar com alto grau de automação, surge dependência operacional. Em momentos de estresse e pouco tempo, cresce o viés de automação: as equipes confiam no sistema justamente porque não conseguem reavaliar tudo do zero. Assim, a IA se aproxima de “chaves críticas” sem, formalmente, assinar a decisão.
Se, nesse contexto, canais de comunicação forem interrompidos ou dados forem adulterados, a situação pode virar muito mais rápido. A IA amplifica o que recebe como entrada: telemetria falsa ou mensagens de rádio forjadas por deepfake podem mudar o clima em minutos.
O quão perto a IA chega de armas nucleares
Nenhum país quer que uma máquina dê a ordem de lançamento. Mesmo assim, ferramentas de IA avançam para etapas anteriores: alerta antecipado, classificação de ameaças e checagem de alvos. Acelerar essas camadas empurra a margem de manobra para a “linha de frente do tempo”. Com isso, a janela para desescalada encolhe.
A ligação mais perigosa não está no “botão vermelho”, e sim antes dele - nos minutos que o tornam alcançável.
Barreiras práticas de proteção para Forças Armadas e política
Forças militares e governos conseguem criar trilhos de segurança robustos já agora. Medidas como as abaixo ajudam a reduzir, de forma mensurável, o risco de escalada:
- Zonas de veto claras: a IA não pode sugerir nem avaliar opções nucleares.
- Princípio de dois canais: toda avaliação de situação com IA precisa de contrachecagem humana independente.
- Freio de velocidade: tempos mínimos obrigatórios de espera em alarmes reduzem disparos por erro de sensor.
- Modelos auditáveis: registros mostram quais dados moldaram uma recomendação.
- Red teaming: equipes externas testam vulnerabilidades a escalada e a enganos.
- Prompts seguros por contexto: diretrizes priorizam desescalada, direito internacional e riscos a civis.
- Cadeias desligáveis: chaves físicas de separação em TI de comando impedem que “pilotos automáticos” atravessem o processo.
Além disso, uma camada de governança que frequentemente fica de fora do debate técnico é a de regras operacionais verificáveis: documentação obrigatória de versões do modelo, limites de uso por missão e procedimentos de revisão pós-incidente. Sem isso, a organização aprende pouco com quase-erros - e repete padrões até que um evento raro aconteça.
Também vale considerar acordos de redução de risco entre países (medidas de confiança), como canais de crise dedicados, protocolos para notificação de exercícios e mecanismos para reportar incidentes envolvendo IA. Mesmo sem tratados abrangentes, práticas padronizadas diminuem a chance de uma interpretação apressada virar escalada.
O que cidadãos e decisores precisam entender agora
Essa discussão não é ficção científica. Trata-se de sistemas de aconselhamento que entram em salas de crise e moldam o ambiente de decisão. Um comentário que soe “resoluto” pode ser interpretado por uma equipe como alternativa plausível e ir parar na mesa. Três impulsos assim, em sequência, já alteram o cardápio do que parece possível.
O trabalho de Stanford funciona como um alerta precoce, não como sentença final. Ele aponta uma tendência compatível com mecanismos conhecidos: viés nos dados, viés de automação e pressão do tempo. Levar essa tríade a sério pode significar ganhar minutos valiosos para a diplomacia.
Esclarecimento: humano-no-ciclo vs. humano-supervisionando-o-ciclo
Humano-no-ciclo (human-in-the-loop): a máquina recomenda, e um humano precisa aprovar explicitamente.
Humano-supervisionando-o-ciclo (human-on-the-loop): um humano pode intervir, mas não necessariamente intervém.
Em cenários rápidos, um sistema pode escorregar do primeiro para o segundo modelo. É exatamente aí que mora o risco quando o assunto é contexto nuclear.
Mini-simulação: quando um falso alarme encontra a IA
Um satélite detecta fontes de calor; uma IA classifica aquilo como lançamentos de mísseis. Uma falha de rádio impede a contraverificação. A IA eleva o nível de alerta e recomenda dispersar forças estratégicas para reduzir vulnerabilidade. Um almirante concorda, buscando diminuir o risco de ser pego de surpresa. O adversário interpreta a movimentação como preparação para um primeiro ataque e também eleva a prontidão. Dez minutos depois, opções nucleares entram na sala de debate. Um único satélite meteorológico, com leitura enganosa, foi suficiente para iniciar o dominó.
Para evitar esse encadeamento, o caminho é manter acoplamentos frouxos entre sistemas, assegurar - com evidência - que humanos permaneçam na cadeia e treinar equipes para contestar recomendações de IA. Assim, a tecnologia continua útil, sem impor o ritmo de decisões capazes de mudar o mundo.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário