Ele promete rapidez e economia. Na prática, a experiência de quem depende do sistema costuma ser bem mais dura.
Órgãos públicos e agências passaram a usar algoritmos para sinalizar fraude, definir valores e horas de benefícios e reduzir filas. Em alguns casos, essas soluções aliviaram tarefas burocráticas. Em outros, resultaram em cobranças indevidas, cancelamentos em massa e cortes dolorosos em serviços essenciais.
Quando algoritmos decidem
A IA é ótima em reconhecer padrões: encontra anomalias, agrupa comportamentos e atribui níveis de risco. Em políticas de assistência, porém, essa eficiência pode bater de frente com a complexidade da vida real. Um documento que não chegou, uma troca de emprego, uma mudança de endereço: o modelo pode ler isso como “indício”. Um servidor, ao olhar o processo, provavelmente enxergaria o contexto.
Em diversos países, sistemas automatizados foram além de combater desperdícios. Eles passaram a imputar irregularidades a famílias ou a reduzir apoios em larga escala - e com muito menos garantias do que uma análise humana costuma oferecer.
A automação muda a velocidade e a escala do dano. Uma regra mal definida ou uma taxa de falsos positivos sem controle pode atingir centenas de milhares de lares.
| Local | Programa | O que ocorreu | Desfecho |
|---|---|---|---|
| Países Baixos | Benefício infantil | 20 mil famílias foram rotuladas erroneamente como fraude por um modelo de risco | Renúncia do governo; indenização de cerca de US$ 32 mil por família |
| Austrália | Robodívida (cruzamento de renda) | Avisos automáticos de dívida enviados a 400 mil beneficiários | Programa considerado ilegal; US$ 1,2 bilhão devolvidos |
| Michigan, EUA | Seguro-desemprego | Algoritmo antifraude apontou “fraude” de forma disseminada | Acordo e US$ 20 milhões pagos a 3 mil autores; auditorias depois acharam taxas de erro acima de 90% em varreduras anteriores |
Um experimento silencioso com cortes no cuidado domiciliar
Em 2016, um estado norte-americano adotou uma nova ferramenta para determinar o número de horas de cuidado em casa para pessoas com deficiência atendidas por um programa público de saúde voltado à baixa renda. A partir dali, enfermeiros passaram a aplicar um questionário com 286 perguntas. O sistema reunia as respostas em 23 categorias de “necessidade”, e cada categoria já vinha com uma quantidade fixa de horas.
Quem por anos recebeu sete ou oito horas diárias, de repente, passou a ter cinco - ou quatro. As condições de saúde não melhoraram. A rotina não ficou mais simples. O que mudou foi o alvo de “otimização” embutido no processo.
Como as horas eram calculadas (algoritmos e IA na assistência)
Apesar de 286 perguntas, apenas algo em torno de 60 influenciava de fato o resultado final. E o impacto vinha de combinações: mais “constelação” do que lista de verificação. O governo não conseguiu explicar com clareza quando cada variável pesava, nem por que o modelo impunha um teto de horas. Em juízo, veio à tona que o sistema já entrou em operação com um limite máximo inferior ao que existia nas diretrizes anteriores, conduzidas por profissionais.
“Não sou eu, é o computador.” Quando a linha de frente começa a repetir isso, as explicações compreensíveis - e a responsabilidade real - já saíram da sala.
O que o fornecedor afirmou
O criador do algoritmo sustentou que se tratava de uma ferramenta estatística, e não de uma “IA” opaca, e disse que os métodos eram revisados por pares. Também alegou que o software implantado se desviou da especificação original, piorando os resultados. Ainda assim, documentos do processo indicaram que, mesmo no melhor cenário, o cálculo continuava oferecendo menos horas do que antes para pacientes com maior complexidade.
Por que a implantação deu errado
Dois vetores se chocaram. De um lado, uma diretriz política de reduzir gastos. Do outro, uma ferramenta que converteu essa diretriz em categorias rígidas, com pouco espaço para discernimento humano. Quando falta capacidade técnica interna, o órgão não consegue fazer teste de estresse, auditar fornecedores ou explicar decisões às pessoas atingidas.
Além disso, contratos públicos muitas vezes tratam o modelo como “caixa-preta” comercial. Sem cláusulas de transparência, acesso a logs e obrigação de auditoria independente, a administração perde instrumentos básicos para verificar vieses e corrigir rumos antes que o dano se espalhe.
Fraude, erro e os limites da detecção
“Detecção de fraude” é um tema que vende bem: rende números fáceis e discurso duro. Mas os dados em assistência social contam outra história. Em programas de alimentação, por exemplo, a fraude intencional do beneficiário representa algo como dez centavos a cada US$ 100 pagos. Erros e falhas administrativas custam mais.
Sistemas automatizados de fraude frequentemente atravessam essa fronteira. Em Michigan, mais de 40 mil pessoas foram acusadas por software; auditorias depois mostraram que mais de 9 em cada 10 acusações estavam erradas. E, na revisão pós-pandemia, fluxos automáticos e problemas de correspondência levaram milhões a perder cobertura de saúde por motivos processuais - não por falta de elegibilidade.
Modelos não demonstram intenção. Mesmo assim, um “sinal de fraude” automático vira, na prática, prova. O benefício some primeiro; a pessoa precisa lutar depois para limpar o próprio nome.
A política por trás das “campanhas antifraude”
Alguns gestores vendem algoritmos como árbitros neutros. Na realidade, os objetivos entram no projeto desde o começo. Se a ordem é “reduzir pagamentos indevidos em X”, o desenho tende a otimizar isso. Falsos positivos viram dano colateral. E quando o modelo erra, ele erra em escala industrial.
Onde a IA pode ajudar de verdade
Há muita atividade de retaguarda que melhora com automação: indexação de documentos, lembretes de elegibilidade, agendamento de atendimentos e identificação de comprovantes faltantes para um revisor humano. Uma grande empresa de análise de dados, por exemplo, já usa IA para ler milhões de prontuários médicos todas as noites e montar resumos de casos - aumentando a produtividade sem “dar a palavra final”.
No Brasil, essa mesma lógica pode ser aplicada com mais segurança em tarefas como triagem de pendências, organização de anexos e avisos multicanal, desde que alinhada à LGPD e acompanhada de governança pública. O ponto-chave é evitar que o algoritmo substitua a avaliação humana quando há risco de corte, suspensão ou cobrança.
Princípios para uso responsável
- Mantenha pessoas no circuito para elegibilidade e sanções: deixe o modelo triagem, não decisão.
- Publique fichas do modelo: finalidade, fontes de dados, limitações conhecidas e métricas acompanhadas de viés.
- Faça teste de estresse antes de colocar no ar: simule cenários ruins e meça falsos positivos em casos históricos.
- Garanta recurso humano rápido: a família sinalizada precisa chegar a alguém com poder real de reverter o sistema.
- Registre toda ação automatizada: se uma notificação foi enviada, guarde as regras e entradas que produziram aquele resultado.
- Estabeleça barreiras legais contra decisões desfavoráveis totalmente automatizadas em benefícios.
O que fazer se um algoritmo sinalizar você
É possível contestar. Exige insistência, mas funciona.
- Peça o processo completo, incluindo regras, pontuações e dados usados para gerar a decisão.
- Solicite revisão humana e uma explicação por escrito em linguagem simples.
- Leve provas: contracheques, atualização de contrato de aluguel, laudos/relatórios médicos e qualquer carta ou notificação recebida.
- Registre falhas processuais (endereço errado, falta de intérprete, aviso ilegível). Isso conta.
- Faça um pedido formal de acesso a informações públicas se o órgão se recusar a revelar a lógica do modelo ou o nome do fornecedor.
- Procure assistência jurídica: muitos serviços já acompanham disputas envolvendo IA em benefícios.
O problema de pessoal de que quase ninguém quer falar
Aposentadorias esvaziaram muitas equipes. Contratações não acompanham. Filas aumentam. Esse cenário tenta gestores a trocar gente por código. Um caminho melhor é financiar pessoas primeiro e usar IA para tirar o peso repetitivo. Profissionais devem lidar com nuance; o software deve buscar documentos, pré-preencher formulários e destacar pontos de atenção - nada além disso.
Termos essenciais
- Humano no circuito: alguém revisa e pode anular o resultado do modelo antes de qualquer medida desfavorável.
- Taxa de falsos positivos: parcela de sinalizações que se provam erradas; em benefícios, taxas altas geram dano concreto.
- Encerramento processual: perda de cobertura por papelada, prazos ou falhas do sistema, e não por inelegibilidade.
- Pontuação de risco: ordena casos pela chance de erro ou fraude; é útil para triagem, perigosa como decisão.
Contexto extra para ampliar o olhar
Por que modelos “derivam” em assistência social
Regras mudam com frequência. Crises sanitárias acontecem. Salários oscilam. Se o órgão não reentreina e não recalibra, o desempenho degrada com o tempo. A supervisão precisa acompanhar a acurácia por região, idioma, deficiência e faixa etária - não só no agregado. Caso contrário, um grupo específico paga a conta.
Um teste simples antes de implantar
Rode o modelo sobre os processos do ano passado. Conte quantas pessoas ele teria cortado, quantas seriam acusadas de fraude e quantas decisões foram depois revertidas por humanos. Se a taxa de falsos positivos já parece feia em dados conhecidos, no mundo real tende a ser pior.
Benefícios públicos existem para dar estabilidade a quem vive no limite. Qualquer ferramenta que aumente atrito, medo ou perda aleatória de cobertura afasta o sistema desse propósito.
Como seria “melhor” na prática
- Use IA para pré-preencher formulários e apontar comprovantes faltantes antes dos prazos.
- Envie lembretes em vários canais, no idioma do solicitante, com passos claros.
- Publique painéis trimestrais de acurácia e auditorias independentes.
- Reinvista economias comprovadas em equipes e serviços diretos - e não apenas em fiscalização.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário