O OpenAI começará a eliminar o seu sistema atual de modelos de nomeação, substituindo a marca numérica “GPT” existente por uma identidade unificada sob o próximo lançamento do GPT-5.
A mudança, anunciada durante um recente Reddit Ama Com o Core Codex e os membros da equipe de pesquisa, reflete a intenção da OpenAI de simplificar as interações do produto e reduzir a ambiguidade entre os recursos do modelo e as superfícies de uso.
O Codex, o assistente de codificação de IA da empresa, atualmente funciona por meio de dois caminhos de implantação primária: a interface ChatGPT e a CLI do Codex. Modelos inclusive Codex-1 e Codex-mini sustentando essas ofertas.
De acordo com o vice-presidente de pesquisa da Openai, Jerry Tworek, o GPT-5 visa consolidar essas variações, permitindo o acesso a recursos sem alternar entre versões do modelo ou interfaces. Tworek afirmou,
“O GPT-5 é o nosso próximo modelo fundamental, destinado a fazer tudo o que nossos modelos podem fazer melhor e com menos comutação de modelo”.
Novas ferramentas do OpenAI para operação de codificação, memória e sistema
O anúncio coincide com uma convergência mais ampla entre as ferramentas, códigos, operadores, sistemas de memória e funcionalidades de pesquisa profundas do OpenAI em uma estrutura Agentic Unified. Essa arquitetura foi projetada para permitir que os modelos gerassem código, executem -o e validem -o em caixas de areia em nuvem remota.
Vários pesquisadores do OpenAI enfatizaram que a diferenciação de modelos por meio de sufixos numéricos não reflete mais como os usuários interagem com os recursos, especialmente com agentes do ChatGPT executando tarefas de codificação em várias etapas de forma assíncrona.
A aposentadoria dos sufixos do modelo está no cenário do foco crescente do OpenAI no comportamento do agente sobre a inferência estática do modelo. Em vez de versões de marca com identificadores como GPT-4 ou GPT-4O-Mini, o sistema se identificará cada vez mais através da função, como o Codex para agentes do desenvolvedor ou operador para interações do sistema local.
De acordo com Andrey Mishchenko, essa transição também é prática: o Codex-1 foi otimizado para o ambiente de execução da ChatGPT, tornando-o inadequado para o uso mais amplo da API em sua forma atual, embora a empresa esteja trabalhando para padronizar agentes para implantação de API.
Enquanto o GPT-4O foi divulgado publicamente com variantes limitadas, os benchmarks internos sugerem que a próxima geração priorizará a amplitude e a longevidade em relação às melhorias numéricas incrementais. Vários pesquisadores observaram que o desempenho do mundo real do Codex já abordou ou excedeu as expectativas em benchmarks como o SWE-banch, mesmo quando atualizações como o Codex-1-Pro permanecem não lançadas.
A convergência do modelo subjacente visa abordar a fragmentação entre as interfaces voltadas para desenvolvedores, o que gerou confusão em torno de qual versão é mais apropriada em vários contextos.
Essa simplificação ocorre quando o OpenAI expande sua estratégia de integração em ambientes de desenvolvimento. O suporte futuro é esperado para provedores Git além do Github Cloud e compatibilidade com sistemas de gerenciamento de projetos e ferramentas de comunicação.
O membro da equipe do Codex, Hanson Wang, confirmou que a implantação por meio de pipelines de IC e infraestrutura local já é viável usando a CLI. Os agentes do Codex agora operam em contêineres isolados com vida útil definida, permitindo a execução de tarefas com duração de até uma hora por trabalho, de acordo com Joshua MA.
Expansão do modelo OpenAI
Os modelos de idiomas da OpenAI foram historicamente rotulados com base no tamanho ou no desenvolvimento cronológico, como GPT-3, GPT-3.5, GPT-4 e GPT-4O. No entanto, o GPT-4.1 e o GPT-4.5 estão, de certa forma, à frente e, de outras maneiras, confusos por trás do modelo mais recente, que é o GPT-4O.
À medida que os modelos subjacentes começam a executar mais tarefas diretamente, incluindo a leitura de repositórios, os testes de execução e os compromissos de formatação, a importância do versão diminuiu em favor do acesso baseado em capacidade. Essa mudança reflete os padrões de uso interno, onde os desenvolvedores dependem mais da delegação de tarefas do que da seleção da versão do modelo.
Tworek, respondendo a uma consulta sobre se o Codex e o Operador acabariam se fundindo para lidar com tarefas, incluindo a validação da interface do frontend e as ações do sistema, respondidas, respondidas,
“Já temos uma superfície do produto que pode fazer as coisas no seu computador – é chamado de operadora … eventualmente, queremos que essas ferramentas se sintam como uma coisa”.
O próprio Codex foi descrito como um projeto nascido da frustração interna em subutilizar os próprios modelos do OpenAI no desenvolvimento diário, um sentimento ecoado por vários membros da equipe durante a sessão.
A decisão de versificação do modelo do Sunset também reflete um impulso em direção à modularidade na pilha de implantação do OpenAI. Os usuários da equipe e da empresa manterão controles rígidos de dados, com o conteúdo do Codex excluído do treinamento do modelo. Enquanto isso, os usuários Pro e Plus recebem caminhos claros. À medida que os agentes do Codex se expandem além da interface do usuário do ChatGPT, o OpenAI está trabalhando para novas camadas de uso e um modelo de preços mais flexível que pode permitir planos baseados em consumo fora das integrações da API.
O OpenAI não forneceu uma linha do tempo definitiva para quando o GPT-5 ou a depreciação completa dos nomes de modelos existentes ocorrerá, embora as alterações internas de mensagens e design de interface devam acompanhar a liberação. Por enquanto, os usuários interagindo com o Codex através do ChatGPT ou CLI podem esperar aprimoramentos de desempenho à medida que os recursos do modelo evoluem sob a identidade simplificada do GPT-5.