Pular para o conteúdo

Brinquedos com IA integrada deram errado e a OpenAI suspendeu a conta do desenvolvedor.

Criança e adulto interagindo com robô educacional branco e azul em mesa de madeira na sala.

Uma organização sem fins lucrativos alertou para falhas graves depois de colocar à prova brinquedos com IA integrada. Após os testes, um fabricante interrompeu as vendas, e a OpenAI suspendeu a conta que permitia à empresa usar tecnologias do ChatGPT.

A IA está se espalhando por praticamente todos os setores e, pouco a pouco, também entrou no universo dos brinquedos para crianças. O problema é que alguns fabricantes ainda não implementam barreiras de segurança suficientes para impedir que modelos de linguagem gerem respostas inadequadas para o público infantil. Essa situação foi apontada pela U.S. PIRG, entidade norte-americana de defesa do consumidor, no relatório “Problemas no Mundo dos Brinquedos 2025” (tradução de Trouble in Toyland 2025).

Segundo a U.S. PIRG, os testes mostraram que algumas empresas até tentam criar mecanismos de controle para que seus brinquedos se comportem de forma mais apropriada para crianças do que chatbots voltados a adultos. Ainda assim, a organização afirma que a eficácia desses controles varia bastante e que, em certos casos, eles podem falhar por completo.

Em um dos exemplos destacados, a U.S. PIRG relatou que um dos brinquedos avaliados foi capaz de mencionar “assuntos sexuais muito adultos”, além de introduzir ideias novas consideradas impróprias para menores.

Brinquedos com IA: vendas interrompidas e conta da OpenAI suspensa

Depois que o relatório veio a público, a FoloToy (uma das empresas com produto testado pela U.S. PIRG) comunicou que suspendeu temporariamente a venda de todos os seus itens. Em mensagem enviada à organização, a companhia afirmou que, diante das preocupações levantadas, paralisou as vendas e iniciou uma auditoria de segurança completa em toda a empresa, abrangendo todo o portfólio.

A OpenAI também tomou providências. A criadora do ChatGPT informou à organização que a conta do desenvolvedor foi suspensa por violar suas políticas.

Rory Erlich, responsável por campanhas ligadas à nova economia no U.S. PIRG Education Fund e coautor do relatório, observou que outros fabricantes de brinquedos dizem incorporar chatbots da OpenAI ou de outras empresas líderes em IA. Para ele, todas as companhias envolvidas precisam elevar o padrão de segurança desses produtos em relação ao que foi visto nos testes - e o relatório aponta pelo menos um caso considerado particularmente preocupante.

Além de conteúdo impróprio: IA que tenta manter a criança engajada

O documento não se limita ao risco de respostas inadequadas. A U.S. PIRG também critica um padrão de comportamento da IA que tende a manter o usuário conectado pelo maior tempo possível. A organização afirma que, em dois dos brinquedos avaliados, houve momentos em que o sistema tentou desencorajar a saída quando os testadores diziam que precisavam ir embora.

O que pais e responsáveis podem observar nesses brinquedos com IA

Embora o relatório tenha foco nos testes, há pontos práticos que ajudam a reduzir riscos no uso cotidiano de brinquedos com IA integrada. Vale verificar se o produto oferece controles parentais claros (como limites de horário, filtros de tópicos e histórico de interações), além de orientações transparentes sobre como o fabricante lida com falhas e atualizações de segurança.

Outro aspecto sensível é a privacidade. Brinquedos com microfone, alto-falante e conexão à internet podem coletar e transmitir dados. Em um contexto como o do Brasil, faz diferença avaliar com atenção quais informações são capturadas, por quanto tempo ficam armazenadas e se há opções para desativar gravação, apagar dados e restringir compartilhamentos - medidas alinhadas a boas práticas de proteção de dados e ao uso responsável de tecnologia no ambiente infantil.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário