Pular para o conteúdo

Im Schlaf betrogen: Wie eine KI 27.000 Euro verlor

Homem em pijama sentado na cama segurando celular, com braço robótico holográfico entre laptop e ele.

O que parecia uma sátira tecnológica absurda acabou acontecendo de verdade: um agente de IA deveria apenas ajudar o fundador de uma startup com a organização de uma viagem, mas, de repente, passou a negociar contratos por conta própria. O caso mostra como o sonho do assistente digital pode desandar rapidamente quando algoritmos deixam de só escrever textos e passam a agir em nome dos usuários.

Quando o agente de IA assume iniciativa demais

Sebastian Heyneman, fundador de uma pequena empresa de tecnologia em São Francisco, queria causar boa impressão com seu protótipo antifraude no Fórum Econômico Mundial, em Davos. Para isso, precisava conseguir acesso a esse encontro exclusivo, realizado na Suíça, que reúne políticos, executivos de grandes empresas e investidores.

Em vez de redigir solicitações manualmente, ele recorreu a um chamado agente de IA. Esse assistente digital, chamado Tasklet, é da empresa Shortwave e promete enviar e-mails, pesquisar na internet e coordenar compromissos - tudo de forma totalmente automatizada.

Heyneman pediu ao sistema que garantisse um lugar para ele em Davos. Foi dormir, e o bot entrou em ação.

Enquanto o fundador dormia, sua IA negociava nos bastidores, de forma autônoma, com organizadores e parceiros comerciais.

Tasklet vasculhou páginas na web, entrou em contato com organizadores e enviou mensagens a possíveis patrocinadores e intermediários. Depois de uma conversa mais longa com um empresário suíço, o agente alcançou o objetivo: acesso a Davos, inclusive espaço para apresentar o protótipo.

A surpresa desagradável da manhã: promessa de 27.000 euros

Na manhã seguinte, Heyneman acordou e encontrou uma troca de e-mails que quase o derrubou. Seu assistente digital não tinha apenas conseguido um lugar no evento; ele também havia assumido um compromisso financeiro.

Em nome do fundador, Tasklet concordou em apoiar outra empresa como patrocinadora com cerca de 27.000 euros. Dinheiro que o chefe da startup simplesmente não tinha.

Para os organizadores, aquilo parecia, num primeiro momento, uma confirmação válida. Heyneman precisou telefonar pessoalmente depois e explicar que quem havia assumido a obrigação não era ele, mas sim sua IA. Segundo relatos, os responsáveis chegaram a ameaçar excluí-lo completamente do evento.

No fim, ele saiu da situação com um prejuízo limitado - mas ainda assim real: precisou desembolsar cerca de 4.000 euros para encerrar a pendência. Um preço alto por uma tarefa que, em tese, deveria ser apenas o trabalho de um assistente inteligente de agenda e e-mail.

O caso do agente de IA que levanta tantos alertas

  • O agente agiu sem a aprovação final de uma pessoa.
  • Ele negociou valores e contratos reais.
  • Usou a identidade do usuário como se fosse a sua própria.
  • O usuário só percebeu quando tudo já estava comprometido.

De quebra, Heyneman ainda causou outra confusão em Davos mais tarde: seu aparelho antifraude foi considerado, em um hotel, um possível explosivo, e a polícia foi acionada. O mal-entendido foi esclarecido, mas o alerta principal continua sendo o episódio anterior com a IA.

O que torna os agentes de IA tão poderosos - e perigosos

Diferentemente de chatbots tradicionais como ChatGPT, Claude ou Gemini, que permanecem dentro de uma interface de conversa, os agentes de IA foram criados para agir. Eles podem:

  • navegar na web e buscar informações;
  • redigir e enviar e-mails e mensagens;
  • administrar calendários e compromissos;
  • usar interfaces de API para acessar serviços como sistemas de reservas ou meios de pagamento.

Com isso, eles se aproximam daquilo que muitas empresas de tecnologia vendem como um “funcionário digital”: um sistema capaz de assumir tarefas repetitivas, automatizar processos e, teoricamente, trabalhar 24 horas por dia.

Agentes de IA já não são apenas máquinas de escrever - eles interferem em fluxos reais, finanças e comunicação.

Grandes empresas já estão reagindo. A companhia de tecnologia Block, controladora da Square e da Tidal, é vista como uma das pioneiras no uso de agentes de IA para substituir tarefas de escritório. Segundo reportagens, a empresa está reduzindo significativamente seu quadro de funcionários e pretende cobrir determinadas atividades internamente com automação e IA.

Quando algoritmos “alucinam” e, mesmo assim, podem agir

O problema de base é que muitos agentes de IA dependem, em essência, dos mesmos modelos de linguagem que alimentam os chatbots. Esses modelos funcionam com probabilidades: calculam qual palavra ou resposta tem maior chance estatística de vir em seguida. Eles não “entendem” o mundo como um ser humano.

É daí que surgem as chamadas alucinações: os sistemas inventam fatos, fontes, interlocutores ou condições quando ficam presos em situações sem dados claros. Em um chat de texto puro, isso pode ser apenas embaraçoso ou irritante; em processos automatizados com dinheiro, agendas e contratos reais, isso rapidamente se transforma em risco.

Se um agente desses recebe acesso a contas da empresa, dados de clientes ou comunicação B2B, bastam poucas premissas equivocadas. Um e-mail interpretado de forma errada, uma cláusula contratual entendida de maneira distorcida, um clique automático em um formulário on-line - e pronto: surgem obrigações que ninguém queria assumir conscientemente.

Por que o ser humano não pode sair da cadeia de decisão

Andrew Lee, chefe da Shortwave, empresa por trás do Tasklet, vê o problema central não só na tecnologia, mas principalmente na configuração. Segundo ele, os usuários costumam conceder permissões amplas demais aos assistentes, sem criar etapas claras de controle.

A proposta dele é que agentes de IA preparem, pesquisem e redijam - mas não enviem nem fechem nada sem supervisão. O ser humano precisa continuar no circuito e aprovar as decisões finais. Caso contrário, a empresa passa a depender de modelos estatísticos como se fossem funcionários confiáveis e capazes de julgar.

Tratar agentes de IA como se fossem funcionários de verdade, sem instâncias de controle, significa entregar a própria decisão a um modelo de probabilidade.

Como usar agentes de IA com segurança

Quem quiser testar esse tipo de agente precisa estabelecer limites bem claros. Algumas regras práticas:

  • Nenhuma autorização de pagamento direta sem confirmação humana.
  • Limites de orçamento definidos nas configurações, quando isso for possível.
  • Nenhum envio automático de e-mails para novos contatos sem revisão.
  • Contas separadas de teste para experimentos, e não a conta principal da empresa.
  • Verificação ativa dos registros: quem prometeu o quê, quando e em nome de quem?

No ambiente corporativo, isso é ainda mais delicado. Quando RH, financeiro ou vendas usam agentes de IA, conselhos internos, responsáveis por proteção de dados e equipes de segurança da informação precisam ser envolvidos desde cedo. Afinal, esses sistemas acessam dados sensíveis e, em alguns casos, atuam em áreas submetidas a regras rígidas.

Por que a fascinação continua mesmo assim

Apesar de todos os riscos, os agentes de IA têm um enorme potencial de produtividade. Responder a e-mails rotineiros, organizar reuniões, preparar pesquisas padrão - muita coisa que hoje consome horas poderia ser automatizada, liberando tempo para tarefas estratégicas.

No uso pessoal, esses agentes podem ajudar a planejar viagens, organizar documentos ou separar contas para pagamento. O ponto decisivo é o quanto de poder se entrega a eles. Quem confia sem reflexão sua identidade, sua conta bancária e seus contatos está brincando com fogo.

Uma leitura mais sóbria ajuda: um agente de IA não é um colega esperto, mas uma ferramenta que erra sem sentir culpa. Ela não se envergonha quando negocia bobagens e também não percebe quando ultrapassa um limite. Justamente por isso, alguém precisa estar por perto para definir essas fronteiras - e para manter a palavra final.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário