Pular para o conteúdo

Arábia Saudita cancela discretamente seu governo inteligente com IA após anos de investimento, e analistas alertam para problemas mais profundos.

Jovem mexendo em tablet com projeção holográfica em escritório moderno com vista para a cidade ao pôr do sol.

A ideia parecia quase ficção científica no começo. Em um centro de convenções envidraçado em Riad, autoridades subiram ao palco e prometeram que, até 2025, toda interação do cidadão com o Estado seria “sem atrito, preditiva, com IA em primeiro lugar”. Você renovaria o documento de identidade por um chatbot, pagaria multas antes mesmo de saber que existiam e entenderia regras tributárias com um servidor público virtual que nunca dormia. Telões exibiam protótipos minimalistas. Consultores estrangeiros assentiam. Jornalistas recebiam folhetos brilhantes, cheios de termos da moda e pobres em explicações.

No fim de 2025, porém, o clima ficou… mais discreto. Os slogans continuam no ar, mas os principais aplicativos de “governo inteligente” deixaram de receber atualizações. Vídeos de demonstração sumiram das páginas principais. Alguns serviços ainda funcionam, muitos não, e outros simplesmente desapareceram das lojas de aplicativos.

Ninguém chama isso oficialmente de recuo. Só que, na prática, é exatamente essa a sensação.

Do brilho da promessa à retirada silenciosa

Basta entrar, numa manhã de dia útil, em um dos centros de atendimento governamental mais novos de Riad. As paredes ainda têm totens digitais que, um dia, prometeram assistência com IA em meia dúzia de idiomas. A maioria das telas está ligada, repetindo animações bem produzidas sobre “governo inteligente para todos”.

Só que, ao tocar na tela, o caminho vira algo bem mais tradicional. Botões de “assistente inteligente” levam a formulários genéricos na internet. O sistema preditivo de filas deu lugar a uma senha impressa em papel. Funcionários explicam, em voz baixa, que “o sistema de IA está em manutenção” - uma manutenção que, na prática, já dura meses.

Nos documentos e discursos de alguns anos atrás, o tom era outro. A Arábia Saudita se apresentava como candidata a uma “superpotência de governança com IA”. Foram anunciados bilhões de dólares para plataformas de dados, policiamento preditivo, tribunais inteligentes e licenciamento automatizado. A Visão 2030 descrevia a IA como a coluna vertebral de um novo Estado.

Dentro dos ministérios, no entanto, a história contada por servidores é menos triunfalista. Um gestor de nível intermediário descreve iniciativas que começaram com holofotes e, aos poucos, encolheram: primeiro, um piloto em uma cidade; depois, em um bairro; por fim, em um único guichê. “Disseram para a gente parar de citar IA em apresentações públicas”, relata. “Era para chamar de ‘transformação digital’ e seguir em frente.”

Parte desse recuo nasce do choque entre promessa e realidade. Serviços ao cidadão com IA exigem dados limpos, integrados e confiáveis. No setor público saudita, bases de dados seguem fragmentadas, e órgãos tratam informação como território. Também houve resistências silenciosas de juízes, escrivães e policiais, desconfortáveis com decisões automatizadas.

Analistas apontam que o engavetamento de projetos revela algo mais profundo: um Estado pode gastar muito com ferramentas de IA e ainda assim patinar se a “tubulação” básica da burocracia - transparência, responsabilização e regras claras - continuar incompleta. A tecnologia deveria saltar por cima desses buracos. Em vez disso, acabou iluminando onde eles estão.

Os custos escondidos de um governo inteligente antes da hora

Nos bastidores, boa parte do desgaste está no software. Desenvolvedores contratados para a grande onda de IA contam sobre prazos apertados e objetivos que mudavam sem parar. Em um mês, a demanda era um sistema preditivo para benefícios sociais; no mês seguinte, virava um motor “inteligente” de subsídios de combustível; depois, encolhia discretamente para um simples calculador de elegibilidade.

Cada mudança exigia retreinar modelos, renegociar acesso a dados e reescrever integrações com sistemas antigos - muitas vezes sem documentação adequada. O resultado foi uma coleção de painéis de prova de conceito que impressionavam em sala de reunião, mas desmoronavam quando cidadãos tentavam usar o serviço às 8h de um domingo.

O problema não foi só técnico; foi humano. Em um piloto bastante citado, uma ferramenta de pontuação de risco com IA deveria sinalizar registros empresariais suspeitos antes que a fraude acontecesse. No papel, funcionou. Na prática, pequenos comerciantes viram seus pedidos travarem por semanas sem explicação. Alguns eram marcados repetidamente por padrões de endereço que o algoritmo não interpretava bem.

Um dono de loja em Jedá descreve ter ouvido de um atendente, com um encolher de ombros: “O computador diz que você é alto risco, não tem o que eu possa fazer”. Depois de um pequeno incêndio nas redes sociais, a ferramenta foi “revisada” em silêncio - e nunca mais se falou nela. A lição ficou clara: se o cidadão não confia na caixa-preta, ele culpa o Estado, não o fornecedor do software.

Há ainda uma tensão estrutural. A IA evolui por experimentação e iteração rápida. O governo opera melhor com estabilidade, rito e processo documentado. Quando esses mundos colidem, a máquina costuma perder. Servidores reclamavam que os modelos mudavam mais rápido do que regulamentos conseguiam acompanhar. Auditores perguntavam como decisões eram tomadas, e as equipes de ciência de dados nem sempre conseguiam explicar com linguagem simples.

E, convenhamos: ninguém reescreve o direito administrativo toda vez que um modelo recebe um novo conjunto de dados. Essa lacuna deixa juristas desconfortáveis - e jurista desconfortável desacelera tudo. No caso saudita, especialistas dizem que a dependência de consultorias externas aumentou o problema, criando um ciclo de apresentações bonitas e execução subfinanciada na ponta.

Um ponto que raramente aparece nos anúncios também pesa: compras públicas e contratos. Quando o Estado terceiriza partes críticas do “cérebro” digital, corre risco de aprisionamento a fornecedores, dificuldade de auditar modelos proprietários e custo alto para trocar de plataforma no futuro. Isso transforma uma promessa de modernização em dependência tecnológica.

Também cresce a dimensão de privacidade e segurança. Quanto mais o Estado conecta cadastros, mais precisa provar ao público que sabe proteger dados, limitar acessos e registrar quem consultou o quê. Sem governança clara, a expansão digital pode aumentar medo de vigilância, além de ampliar o impacto de vazamentos e ataques.

O que outros países - e líderes ambiciosos - podem aprender com a Arábia Saudita e a IA no governo

Para quem está longe de Riad, a conclusão prática é simples: comece pequeno, construa o básico e só depois escale. Em vez de vender um “governo do futuro” movido por IA, escolha um problema concreto que as pessoas sentem toda semana: uma renovação de licença lenta, um formulário de subsídio confuso, uma central de atendimento que nunca responde.

Depois, coloque IA por cima de um processo que já funciona manualmente. Se você não consegue explicar a jornada ponta a ponta sem jargões, o algoritmo vai amplificar a confusão - não resolver.

Todo mundo já viveu aquela situação em que um aplicativo “mágico” deveria economizar tempo e, de algum jeito, só complica. Governos caem na mesma armadilha, só que com orçamentos maiores e consequências mais graves. Um erro comum é perseguir o selo “IA em primeiro lugar” para manchetes, em vez de fortalecer a infraestrutura pouco glamourosa, porém resiliente.

Cidadãos não acordam desejando governo inteligente. Eles querem um governo que responda, explique e não perca documentos. Qualquer implantação que esqueça esse fato - especialmente em áreas sensíveis como vistos, policiamento ou assistência social - tende a parecer fria, arbitrária e até hostil.

Um analista regional resumiu de forma direta:

“A Arábia Saudita não bateu só numa parede técnica; bateu numa parede de confiança. Confiança não se automatiza - se conquista.”

A frase simples por trás disso incomoda, mas é verdadeira: a tecnologia só amplia o que já existe, para o bem ou para o mal.

Se você formula políticas públicas ou lidera tecnologia observando o experimento saudita, três práticas pé no chão se destacam:

  • Comece com ferramentas transparentes e explicáveis em áreas de baixo risco antes de mexer com policiamento, benefícios sociais ou tribunais.
  • Invista em governança de dados e interoperabilidade básica antes de perseguir as promessas mais chamativas de IA.
  • Traga servidores da linha de frente e cidadãos para o processo desde cedo - não apenas no lançamento - e ofereça um canal claro para dizer “isso não está funcionando”.

Um recuo silencioso que levanta perguntas mais altas

A retirada gradual da Arábia Saudita do sonho de um governo inteligente movido a IA não significa abandono de tecnologia. Contratos de nuvem seguem ativos, data centers continuam operando e programas de formação de talentos permanecem. O que muda é o tom: menos bravata sobre algoritmos “tocando o Estado”, mais conversa sobre “serviços digitais” e melhorias incrementais.

Para analistas, o caso vira um estudo sobre o que acontece quando o entusiasmo supera a maturidade institucional. Para cidadãos, fica o lembrete de que toda promessa “inteligente” carrega risco de frustração vazia se os fundamentos - atendimento, clareza e possibilidade de contestação - não estiverem de pé.

A história mais interessante, porém, está abaixo da superfície. Quais iniciativas vão sobreviver discretamente, ficando mais robustas e realistas quando os termos da moda forem embora? Quais ministérios vão encarar o caminho difícil de limpar dados, reescrever regras e dividir controle entre máquinas e pessoas?

Essas perguntas não viram tendência nas redes, mas definem como poder, responsabilização e tecnologia vão coexistir - de Riad ao seu próprio paço municipal.

Ponto-chave Detalhe Valor para o leitor
O recuo de IA na Arábia Saudita é real Ferramentas de “governo inteligente” estão sendo renomeadas, reduzidas de escopo ou engavetadas discretamente. Mostra onde grandes promessas de IA podem falhar na prática.
Problemas estruturais pesam mais do que ferramentas Dados fragmentados, regras opacas e baixa confiança institucional minam sistemas avançados. Indica o que corrigir antes de investir pesado em soluções de IA.
IA pragmática, centrada no cidadão, tende a funcionar melhor Foco em dores específicas do dia a dia e construção sobre processos manuais sólidos. Oferece um roteiro para tecnologia pública que realmente é usada - e valorizada.

Perguntas frequentes (FAQ)

  • Pergunta 1: A Arábia Saudita cancelou oficialmente o programa de governo inteligente com IA?
    Não de forma explícita. Em vez de um anúncio público de cancelamento, iniciativas foram renomeadas, reduzidas ou absorvidas silenciosamente por esforços genéricos de transformação digital.

  • Pergunta 2: Por que a implementação de IA enfrentou dificuldades na Arábia Saudita?
    Analistas citam sistemas de dados fragmentados, dependência excessiva de consultorias, pouca transparência e a tensão entre modelos de IA que mudam rápido e regulações que mudam devagar.

  • Pergunta 3: Algum serviço governamental com IA deu certo?
    Alguns casos de uso limitados - como chatbots básicos, digitalização de documentos e análises internas - seguem funcionando, especialmente onde o risco ao cidadão é baixo e os processos já eram claros.

  • Pergunta 4: O que outros governos podem aprender com esse revés?
    Priorize dados limpos e ferramentas simples e explicáveis; comece em áreas de baixo risco; envolva equipes da ponta desde o início; e evite construir política pública em cima de slogans de marketing.

  • Pergunta 5: Isso significa que IA não tem lugar na administração pública?
    Não. O caso sugere que IA no governo precisa ser realista, transparente e apoiada por bases burocráticas sólidas - e não vendida como atalho para desafios estruturais profundos.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário