A Openai anunciou na terça -feira que dois modelos de raciocínio de IA com peso aberto com habilidades semelhantes foram lançadas. Ambos podem ser baixados da plataforma de desenvolvedor online, Abraçando o rostoA empresa disse que descreve os modelos como “Estado -of -Teart” quando medidos em vários critérios para comparar modelos abertos.
Os modelos vêm em duas dimensões: um modelo GPT-OOSS-20B maior e mais talentoso que pode funcionar em uma única GPU da NVIDIA e um modelo GPT-OOS-20B mais leve que pode funcionar em um laptop de consumo com 16 GB de memória.
O lançamento aponta para o primeiro modelo de idioma ‘aberto’ do OpenAI desde o GPT-2, que foi lançado há mais de cinco anos.
Em um briefing, o Openai disse que, como o TechCrunch relatou anteriormente, os modelos abertos podem enviar consultas complexas aos modelos de IA na nuvem. Isso pode conectar o modelo aberto a um dos modelos fechados mais talentosos da empresa se o modelo aberto do OpenAI não puder executar uma tarefa específica, como o processamento de uma imagem.
Nos primeiros dias dos modelos de IA de código aberto OpenAI, a empresa geralmente preferia uma abordagem de desenvolvimento registrada e fechada -Surce. A segunda estratégia ajudou o OpenAI a criar um grande negócio que vende acesso a empresas e desenvolvedores por meio de modelos de IA por meio da API.
No entanto, o CEO Sam Altman disse que acredita que o Openai estava do lado errado da história ”quando se trata das tecnologias do OpenAI em janeiro. Deepseek, que desenvolve os modelos abertos mais talentosos e populares do mundo, está enfrentando uma pressão crescente da AIM da Alibaba antes da AIM da AI.
Em julho, Trump também pediu aos desenvolvedores de IA que abrem mais tecnologia para incentivar a adoção global de valores americanos da IA.
Evento do TechCrunch
São Francisco
|
27-29 de outubro de 2025
Com o lançamento do GPT-OOSS, o OpenAI espera estabelecer um favor com os desenvolvedores e o governo Trump que os dois observam que os laboratórios chineses da IA se destacam no campo de código aberto.
O CEO da Openai, Sam Altman, o TechCrunch compartilhou em comunicado: “Quando começamos em 2015, a missão do Openai é beneficiar a AGI toda a humanidade”, disse ele. “Para esse fim, estamos entusiasmados em construir uma pilha aberta de IA, criada nos Estados Unidos, com base em valores democráticos, gratuitamente e existente para um amplo benefício”.
Como o desempenho dos modelos
O Openai pretende tornar o modelo aberto um líder entre outros modelos de IA ponderados abertos, e a empresa afirma fazê -lo.
O Codeforces (com veículos), um teste de codificação competitivo, GPT-OOS -20B e GPT-OOS-20B Score 2622 e 2516, O3 e O4-mine, enquanto tem um desempenho melhor que o Deepseek R1.

No exame final da humanidade, um teste desafiador de 19% e 17,3% de perguntas aglomeradas em vários indivíduos (com veículos), GPT-OOS-120B e GPT-OOS-20B, respectivamente. Da mesma forma, ele tem desempenho de baixo desempenho, mas tem um desempenho melhor do que os principais modelos abertos do que o DeepSeek e o Qwen.

Em particular, os modelos abertos da OpenAI são significativamente alucinantes do que os mais recentes modelos de raciocínio de IA, O3 e O4-mini.
As alucinações se tornaram mais violentas nos mais recentes modelos de raciocínio da IA da Openai, e a empresa disse que não entendeu completamente o porquê. Em um jornal branco, o Openai diz que “os modelos menores têm menos conhecimento mundial do que modelos de fronteiras maiores e tendem a alucinar mais”.
O OpenAI encontrou a hallusinação de GPT-OOS -20B e GPT-OOS-20B em resposta a 49% e 53% das perguntas em Pessoqa, que é o critério interno para medir a precisão do conhecimento de um modelo sobre as pessoas. Isso é maior que a taxa de alucinação do O1 O1, que tem uma pontuação de 16%.
Educar novos modelos
O Openai diz que seus modelos abertos são treinados com processos semelhantes a modelos especiais. A empresa diz que cada modelo aberto permite que você trabalhe com mais eficiência, tocando em mais parâmetros, tocando em menos parâmetros para qualquer pergunta. Para GPT -OOS -20b, que possui um parâmetro total de 117 bilhões, o OpenAI diz que o modelo permite apenas 5,1 bilhões de parâmetros por moeda.
A empresa também diz que o modelo aberto é treinado usando aprendizado de reforço de alto paciente (RL), um processo de pós -treinamento para ensinar modelos de IA incorretamente em ambientes simulados usando grandes aglomerados de GPUs da NVIDIA. Isso também foi usado para treinar os modelos da série do OpenAI, e os modelos abertos têm um processo semelhante de pensamento, no qual eles recebem fontes adicionais de tempo e cálculo para trabalhar em suas respostas.
Como resultado do processo de pós -treinamento, o OpenAI diz que os modelos abertos de IA são perfeitos para dar força aos agentes da IA e que eles podem procurar ferramentas como pesquisa na Web ou execução de código Python como parte da cadeia de pensamento. No entanto, o Openai diz que seus modelos abertos são apenas texto, ou seja, eles não podem produzir ou produzir imagens e soa como outros modelos da empresa.
O OpenAI libera a GPT-OOS-120B e o GPT-OOS-20B sob a licença Apache 2.0, que geralmente é considerada uma das mais licenças. Esta licença permitirá que as empresas ganhem dinheiro com os modelos abertos da OpenAI sem ter que pagar ou permissão da empresa.
No entanto, diferentemente dos laboratórios de IA, como a AI2, ele diz que não publicará os dados educacionais usados para criar modelos abertos, diferentemente das propostas de fontes abertas. Essa decisão não é surpreendente, considerando que vários casos ativos contra provedores de modelos de IA, incluindo o OpenAI, treinaram inadequadamente os modelos de IA dessas empresas de maneira inadequada sobre estudos de direitos autorais.
O OpenAI adiou seus modelos abertos de modelos abertos nos últimos meses para aliviar as preocupações de segurança. Além das políticas de segurança típicas da empresa, diz o OpenAI em um artigo branco, se os maus atores podem fazer modelos de ajuste fina em ataques cibernéticos ou na criação de armas biológicas ou químicas.
Após testar os avaliadores do OpenAi e de terceiros, a empresa diz que o GPT-OURS pode marginal marginalizar. No entanto, mesmo após o ajuste fino, esses modelos abertos não encontraram evidências de que essas áreas poderiam atingir o limiar de “alto talento”.
Embora o modelo do OpenAI pareça ser a mais recente tecnologia entre os modelos abertos, os desenvolvedores estão aguardando ansiosamente o lançamento de um novo modelo aberto do próximo modelo de raciocínio da IA Deepseek R2 e o novo Laboratório de Superintelligência da Meta.