Depois do treinamento do Spud, a OpenAI cria a divisão de implantação de AGI e adia a liberação do modelo
A OpenAI concluiu o treinamento preliminar do novo modelo com o nome de código Spud. Segundo o The Information, dentro da empresa a expectativa é de que o modelo “seja tão poderoso que possa afetar a economia” - afirmação que, de acordo com a publicação, teria sido feita aos funcionários pelo CEO Sam Altman.
À medida que a preparação para o lançamento avança, a empresa também passou por mudanças internas. Altman vem se afastando da gestão operacional de várias frentes, incluindo as equipes responsáveis por segurança, e concentrando seus esforços em captação de investimentos, expansão de infraestrutura e construção de data centers.
Ao mesmo tempo, a organização de produto liderada por Fidji Simo foi rebatizada como divisão de implantação de AGI (AGI Deployment). Esse time ficará encarregado de definir como o novo modelo funcionará nos produtos e de que maneira suas capacidades serão “implantadas” para os usuários.
A expectativa é de que, em torno do Spud, seja construído um único “superaplicativo”, reunindo ChatGPT, Codex e o navegador Atlas. A ideia não é apenas lançar um modelo, mas tentar criar uma experiência unificada de uso em cima dele.
O próprio nome da nova divisão também chama atenção: em vez do habitual “AI”, aparece “AGI”. A empresa não anunciou formalmente ter alcançado AGI, mas a escolha do termo pode indicar ambição - ou até preparação para anúncios maiores.
Paralelamente, as prioridades de produto também estão mudando. Segundo fontes, a decisão de abandonar um aplicativo separado para o Sora pode estar ligada ao redirecionamento de recursos computacionais em favor do novo modelo.
Apesar de o treinamento já ter sido concluído, o lançamento do Spud para o público em geral será adiado. Na primeira fase, o acesso ao modelo deverá ser liberado apenas para um número restrito de empresas.
O motivo alegado é o risco associado às capacidades do sistema. Isso inclui possível autonomia e a habilidade de executar tarefas complexas, inclusive em cenários ligados a ataques cibernéticos. Por esse motivo, a distribuição do modelo será mantida sob controle.
A Anthropic já adota uma abordagem semelhante: seu modelo mais potente foi inicialmente destinado a testes em um ambiente fechado. No caso da OpenAI, ao que tudo indica, a estratégia seguirá a mesma linha - primeiro acesso limitado e, depois, possivelmente, ampliação gradual.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário