De um dia para o outro, um único anúncio virou o clima.
Em questão de dias, o principal assistente de IA da OpenAI passou a enfrentar uma enxurrada de críticas: usuários indignados, uma avalanche de avaliações com uma estrela e uma onda de desinstalações, depois que veio a público a sua parceria com o Departamento de Defesa dos EUA.
O fim de semana que mudou o humor em torno do ChatGPT
Até então, o aplicativo móvel da OpenAI aparecia com frequência entre os mais bem colocados nas lojas de aplicativos e era visto por muita gente como uma ferramenta inofensiva de produtividade. Essa percepção começou a ruir no fim de fevereiro de 2026.
A partir de 28 de fevereiro, as desinstalações do ChatGPT dispararam. Segundo números divulgados na França, as exclusões aumentaram cerca de 295% em um único fim de semana - um salto raríssimo para um app de consumo já consolidado.
As pessoas não apenas foram embora em silêncio. As notas despencaram, com um crescimento estimado de 775% nas avaliações negativas, transformando as lojas de aplicativos em um espaço de desabafo, frustração e desconfiança.
Antes desse episódio, as críticas ao ChatGPT costumavam girar em torno de alucinações, viés e preço de assinatura. O novo movimento é de outra natureza: mira menos os limites técnicos e mais as escolhas políticas e éticas da empresa.
O estopim: acordo com o Departamento de Defesa dos EUA
O ponto de ruptura foi o anúncio de uma parceria entre a OpenAI e o Departamento de Defesa dos EUA - ainda chamado por alguns veículos estrangeiros pelo antigo apelido histórico de “Departamento da Guerra”.
A OpenAI descreveu o acordo como voltado a casos de uso em defesa e segurança nacional. A formulação acendeu alertas imediatos em usuários preocupados com IA aplicada a guerra, vigilância ou tomada de decisões automatizada em áreas de conflito.
Nas redes sociais, antigos entusiastas do ChatGPT relataram sensação de traição. Muitos afirmaram aceitar com tranquilidade o uso de IA em educação, escrita ou programação, mas consideram inaceitável qualquer aproximação com sistemas de armas ou inteligência militar.
Para uma parcela relevante do público, a parceria desfez a ideia de que o ChatGPT seria uma ferramenta neutra e civil, sustentada por intenções exclusivamente benéficas.
A controvérsia também se somou ao ceticismo já existente sobre Sam Altman, CEO da OpenAI, cuja liderança vem sendo questionada desde a turbulenta disputa interna no fim de 2023. Para críticos, o acordo na área de defesa sinaliza que metas comerciais e estratégicas passaram a se sobrepor ao discurso original de “segurança em primeiro lugar”.
Avaliações negativas: do que as pessoas realmente reclamam
De bugs e assinatura para ética e confiança no ChatGPT e na OpenAI
Antes da crise, comentários ruins no app do ChatGPT costumavam citar limitações do plano gratuito, problemas de login e acesso ao GPT‑4 restrito à assinatura. Essas queixas continuam existindo, mas deixaram de ser o centro da conversa.
Nos últimos dias, o foco das avaliações se deslocou para:
- Revolta com a “militarização” percebida de uma ferramenta civil de IA
- Exigência de transparência mais clara sobre parcerias governamentais
- Medo de compartilhamento de dados com órgãos de defesa ou inteligência
- Chamados a boicote do app até existirem garantias éticas explícitas
Alguns usuários dizem abertamente que ainda acham a tecnologia impressionante, porém não pretendem mais apoiar a OpenAI financeiramente nem manter o aplicativo no celular enquanto esse tipo de acordo estiver em vigor.
Uma crise de confiança, não apenas de experiência do usuário
O aumento de aproximadamente 775% nas avaliações ruins indica que não se trata de um incômodo leve. Muita gente está reavaliando se os objetivos da empresa combinam com seus próprios valores.
Normalmente, aplicativos sofrem quedas de nota por bugs, mudanças de design ou aumento de preço. Aqui, o gatilho foi um anúncio corporativo. E isso muda o problema: ajustar interface ou lançar recursos não repara automaticamente uma ruptura moral.
Concorrentes veem oportunidade
As dificuldades do ChatGPT acabam abrindo espaço para rivais. A Anthropic, por exemplo, destacou publicamente que o seu assistente Claude não firmou acordo com o Departamento de Defesa dos EUA.
A empresa mencionou divergências sobre como a IA poderia ser usada em vigilância e armas autônomas, buscando se posicionar como mais cautelosa em aplicações militares.
Ao manter distância de contratos na área de defesa, o Claude se apresenta como alternativa para quem quer IA avançada sem vínculos com o setor de armamentos.
Outros atores - de projetos de código aberto a startups menores - também se movimentam para enfatizar cartas de princípios éticos. Alguns dão destaque a governança transparente, limites a acionistas ou proibições explícitas de uso militar ofensivo.
Sam Altman volta ao centro do debate
Sam Altman é, há tempos, uma figura polarizadora no setor de tecnologia. Para uns, é um visionário que ajudou a colocar a IA no cotidiano; para outros, alguém que mistura pesquisa de segurança com uma expansão comercial agressiva.
A parceria na área de defesa reacendeu essas discussões. Críticos sustentam que a OpenAI se afastou da missão original e passou a agir como uma contratada tradicional em busca de acordos estatais, especialmente em setores estratégicos como defesa.
Defensores respondem que trabalho em segurança nacional pode incluir usos não letais: cibersegurança, logística, simulações e planeamento de resposta a desastres. Na visão deles, recusar qualquer interação com órgãos de defesa excluiria a IA de áreas em que ela poderia reduzir danos e estabilizar crises.
| Preocupação | Argumento a favor do acordo | Argumento crítico |
|---|---|---|
| Uso em guerra | Foco apenas em ferramentas defensivas | Ferramentas podem ser levadas a usos ofensivos |
| Privacidade de dados | Contratos podem impor salvaguardas rigorosas | O risco de acesso governamental continua elevado |
| Confiança pública | Parcerias com segurança nacional são comuns | Enfraquece a imagem civil e amigável da IA |
O que isso muda para usuários comuns
Na prática, para a maioria das pessoas, o ChatGPT continua “igual” na tela: escreve e-mails, monta planos de aula, rascunha código. Os algoritmos por trás das conversas não viraram armas de repente.
A disputa é sobre rumo e governança. A pergunta implícita é: se eu dependo dessa ferramenta todos os dias, quem decide o futuro dela? E quais são os limites morais dessas decisões?
Parte do público pretende continuar usando o ChatGPT, mas exige que a OpenAI divulgue mais detalhes da parceria, incluindo:
- Limites claros para tipos de uso militar
- Auditorias independentes das práticas de segurança
- Relatórios públicos sobre contratos com governos
Outras pessoas preferem desinstalar o app e migrar para alternativas que comunicam posições mais rígidas sobre trabalho em defesa - ou para modelos locais que rodam no próprio dispositivo.
Riscos e compensações em parcerias de IA com defesa e segurança nacional
Quando empresas de IA colaboram com instituições de defesa, vários riscos se acumulam. Tecnologias de uso dual podem servir tanto a fins pacíficos quanto violentos. Um sistema treinado para analisar imagens de satélite e coordenar ajuda humanitária pode, com a mesma base técnica, apoiar mecanismos de seleção de alvos.
Existe ainda o risco de “desvio de função”. Um modelo inicialmente aplicado a tradução ou logística pode, mais tarde, ser ajustado para simulações de combate. Mesmo quando um contrato começa com restrições, pressão política ou situações de emergência podem enfraquecê-las.
Por outro lado, também há custos em recusar qualquer colaboração. Estados buscarão capacidades com IA de qualquer maneira. Se atores mais preocupados com segurança se retiram da mesa, concorrentes menos criteriosos podem ocupar o espaço e definir padrões com menos travas éticas.
Um recorte útil para o Brasil: privacidade, LGPD e expectativas de transparência
No Brasil, a sensibilidade do debate costuma esbarrar diretamente na LGPD e na falta de clareza que muitos usuários percebem sobre fluxos de dados, retenção de informações e finalidades de uso. Quando aparece a hipótese de envolvimento com defesa e inteligência, a exigência de explicações tende a aumentar: que dados entram, como são protegidos e o que, de facto, é partilhado (ou não) em contratos governamentais.
Também pesa a expectativa por prestação de contas. Para parte do público brasileiro, transparência não é só publicar um comunicado: envolve relatórios, auditorias e mecanismos de reclamação acessíveis, além de políticas explícitas que permitam comparar ferramentas de IA com critérios objetivos.
Como reagir de forma prática
Quem ficou desconfortável com as notícias tem alternativas concretas além de deixar avaliação com uma estrela.
- Comparar políticas de privacidade e compromissos éticos de diferentes ferramentas de IA
- Preferir a versão no navegador em vez do app e reduzir, quando possível, o compartilhamento de dados
- Testar modelos menores ou de código aberto para tarefas sensíveis
- Cobrar dos fornecedores políticas explícitas sobre uso militar
- Apoiar grupos de pesquisa e organizações da sociedade civil que monitoram IA aplicada a conflitos
Outra estratégia é separar tarefas. Algumas pessoas mantêm um assistente “generalista” para conteúdos inofensivos e usam ferramentas locais, offline, para qualquer coisa que envolva dados pessoais, médicos ou políticos. Essa divisão reduz a exposição caso as parcerias de um fornecedor mudem de direção novamente.
Para muitos, o pico de avaliações negativas e desinstalações não é um rompimento definitivo, mas um aviso claro. Ele mostra que o público acompanha para onde a IA generativa está indo - e que linhas éticas traçadas por usuários podem gerar uma reação rápida e mensurável quando parecem ser ultrapassadas.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário