Após concluir o treinamento do Spud, a OpenAI cria a unidade de implantação de AGI, mas adia o lançamento ao público por causa dos riscos
Na OpenAI, o treinamento preliminar da nova modelo de código Spud foi concluído. Segundo a The Information, dentro da empresa a expectativa é de que a tecnologia “deverá ser tão poderosa que poderá influenciar a economia” - afirma-se que foi isso que o CEO Sam Altman disse aos funcionários.
Enquanto a preparação para a estreia avança, a companhia já passou por mudanças internas. Altman está se afastando da gestão operacional de várias frentes, inclusive das equipes responsáveis pela segurança, e vem concentrando esforços na captação de investimentos, no desenvolvimento de infraestrutura e na construção de data centers.
Ao mesmo tempo, a área de produto liderada por Fidji Simo foi rebatizada como divisão de implantação de AGI (AGI Deployment). Essa equipe ficará encarregada de definir como a nova modelo funcionará nos produtos e de que maneira suas capacidades serão “desdobradas” para os usuários.
A expectativa é de que o Spud seja o centro de um único “superaplicativo”, reunindo ChatGPT, Codex e o navegador Atlas. A proposta não se limita a lançar uma modelo, mas a montar em torno dela um ambiente unificado para o usuário.
O próprio nome da nova divisão é revelador: em vez do tradicional “AI”, aparece “AGI”. Oficialmente, a empresa ainda não declarou ter alcançado AGI, mas a escolha do termo pode indicar ambição - ou preparação para anúncios mais amplos.
Em paralelo, as prioridades de produto também estão mudando. De acordo com fontes, a desistência de um aplicativo separado para o Sora pode estar ligada ao redirecionamento de recursos computacionais para a nova modelo.
Mesmo com o treinamento já finalizado, o Spud não será liberado de imediato para o público em geral. Na fase inicial, o acesso deve ser restrito a um pequeno grupo de empresas.
A justificativa apresentada é o risco associado às capacidades do sistema. Isso inclui possível autonomia e a aptidão para executar tarefas complexas, inclusive cenários relacionados a ciberataques. Por esse motivo, a distribuição da modelo foi colocada sob controle.
A Anthropic já adota uma estratégia parecida: sua modelo mais avançada também foi designada primeiro para testes em um ambiente fechado. No caso da OpenAI, pelos dados disponíveis, a lógica parece ser semelhante - acesso limitado no início e, talvez depois, uma expansão gradual.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário