Pular para o conteúdo

Visões gerais de IA do Google: quando a promessa de acesso à informação cria novos problemas

Homem estudando em mesa com notebook, livros abertos e celular em ambiente iluminado por janela.

Ao tentar resolver o desafio de tornar a informação acessível para todo mundo, o Google acabou fabricando outra dor de cabeça - desta vez por causa da inteligência artificial.

Quase dois anos atrás, a empresa lançou o recurso Visões gerais de IA, caixas produzidas por IA que deveriam resumir os resultados de uma busca na web. Por baixo do capô, é o Gemini - e algumas de suas variantes - que faz a síntese de várias fontes e entrega um resumo pronto para consumo.

Hoje, as Visões gerais de IA já estão disponíveis em mais de 200 países e em 40 idiomas, mas na França ainda não houve liberação. Por outro lado, já circularam várias histórias sobre suas falhas: a famosa pizza com cola e outros resumos perfeitamente absurdos. São episódios curiosos, sem dúvida, mas eles escondem um problema muito mais grave. Um estudo conduzido pela Oumi, empresa especializada em IA de código aberto, colocou números no que muita gente já suspeitava: a taxa real de erro das Visões gerais de IA, quando levada ao volume de buscas do Google, é desastrosa.

O risco não está apenas na resposta errada. Ele também está no fato de que o erro surge embalado com aparência de autoridade, bem no topo da página, antes mesmo que o usuário veja os links e as fontes originais. Na prática, isso encurta o caminho entre a dúvida e a conclusão, justamente no momento em que muita gente decide parar de procurar.

Para veículos de imprensa, sites especializados e páginas de referência, o efeito colateral também é econômico: se a resposta já aparece pronta, o incentivo para clicar na fonte cai. Menos cliques significam menos audiência para quem produziu o conteúdo original, mesmo quando a informação mais confiável continua sendo justamente a que ficou escondida atrás do resumo automático.

Visões gerais de IA do Google: uma resposta errada a cada dez segundos

O primeiro dado que salta da pesquisa parece reconfortante: 90% dos resumos gerados estão corretos e bem fundamentados. Um número que o Google fez questão de destacar, como se uma única notícia falsa não fosse suficiente para circular pelo planeta inteiro antes mesmo de a verdade calçar as botas.

O que a empresa deixou de ressaltar é o peso dos 10% restantes em escala global. Segundo as estimativas do estudo, o Google deverá processar mais de cinco trilhões de buscas em 2026. Convertendo isso para a realidade do relógio, as Visões gerais de IA produzirão dezenas de milhões de respostas duvidosas, ou seja, várias centenas de milhares de erros por minuto.

Além do problema criado pelo volume, as Visões gerais de IA têm uma falha de projeto que o Google não documenta em lugar nenhum: a mesma pergunta, feita duas vezes, pode gerar respostas diferentes - uma correta, outra não - sem que o usuário tenha como saber qual delas está certa. E como a caixa aparece no alto da página, antes dos links e das fontes, ela prende a atenção do internauta com muito mais facilidade.

Outro ponto preocupante é que as Visões gerais de IA não priorizam as fontes pela confiabilidade antes de montar a resposta; elas varrem o conteúdo da web como um todo. O Facebook aparece em segundo lugar entre as fontes mais citadas, e o Reddit, em quarto. Em outras palavras, entre um artigo do Lancet e o depoimento de alguém convencido de que vacinas carregam um chip 5G, o Gemini e seus equivalentes fazem a síntese sem muita cerimônia.

O Google, as Visões gerais de IA e o risco de desinformação

Há ainda a questão dos atores mal-intencionados, que poderiam se aproveitar teoricamente das fragilidades desse sistema. Como as Visões gerais de IA escolhem suas fontes com base em popularidade e facilidade de acesso, e não em confiabilidade, a manipulação fica ao alcance de quem entende a mecânica: basta criar um site, publicar informações falsas, simular grande audiência para esse conteúdo e deixar o algoritmo completar o serviço.

Qualquer pessoa que domine as regras de otimização para mecanismos de busca - e tenha dinheiro para comprar tráfego - consegue fabricar essas pequenas caixas que bilhões de usuários consultam diariamente como se fossem uma fonte de autoridade. Mesmo quando estão erradas, isso pouco importa; a forma vence o conteúdo: se algo está bem posicionado e o algoritmo morde a isca, então deve ser verdade.

O Google respondeu às críticas por meio de seu porta-voz, Ned Adriance, que afirmou ao New York Times que “a grande maioria dos conteúdos falsos” é bloqueada por seus sistemas e que “a maior parte desses exemplos corresponde a buscas que as pessoas realmente não fariam”. Em uma tradução menos corporativa, o recado é que os casos apontados pelo estudo não contam de verdade, porque o próprio Google decidiu que eles não são representativos. É o sofisma levado ao limite do ridículo: se o erro existe, então ele não é estatisticamente relevante; se ele é grave, então é improvável.

Claro, existe sim um pequeno aviso colocado abaixo das caixas das Visões gerais de IA, alertando os usuários, com estas palavras: “A IA pode cometer erros, verifique as respostas”. Mas, falando seriamente, quem leva isso em conta de fato? Quem sequer lê? O usuário comum não lê os termos de uso de um site ou aplicativo, ignora com tranquilidade as informações legais e, no máximo, passa 15 segundos na página de resultados do Google quando quer uma resposta rápida. Esse aviso existe para que o Google possa dizer que ele existe e, de quebra, para se resguardar juridicamente no dia em que alguém decidir processar a empresa por uma resposta incorreta que tenha causado prejuízo real. Ao que tudo indica, a precisão virou opcional para a companhia que organiza o mundo desde 1998; quase dá saudade do tempo em que era preciso esperar 10 segundos para o resultado da pesquisa aparecer.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário