Volver al blog
Noticias de IA

Nuevo modelo de OpenAI lanzado? Echemos un vistazo a GPT-OSS!

Nuevo modelo de OpenAI GPT-OSS

2025.08.06
Nuevo modelo de OpenAI lanzado? Echemos un vistazo a GPT-OSS!

Tema IA: Nuevo modelo de OpenAI GPT-OSS

Nuevo modelo de OpenAI
Fuente de imagen: ChatGPT-4o(cita original)

OpenAI lanza GPT-OSS-120B y GPT-OSS-20B como modelos de lenguaje de pesos abiertos

Puntos clave

  • OpenAI ha lanzado dos nuevos modelos de lenguaje de pesos abiertos, GPT-OSS-120B y GPT-OSS-20B, disponibles bajo la licencia Apache 2.0.
  • Estos modelos igualan o superan el rendimiento de sistemas propietarios como GPT-4o, o3-mini y o4-mini en benchmarks como HealthBench, AIME y TauBench.
  • GPT-OSS-120B funciona en una sola GPU de 80GB, mientras que el mas pequeno GPT-OSS-20B opera en dispositivos edge con solo 16GB de memoria.
  • Los modelos soportan uso de herramientas, razonamiento de Cadena de Pensamiento (CoT), salidas estructuradas y esfuerzo de razonamiento ajustable para equilibrios entre latencia y rendimiento.
  • OpenAI realizo evaluaciones de seguridad exhaustivas incluyendo revisiones de expertos independientes y ajuste fino segun el Marco de Preparacion.

OpenAI lanza modelos GPT-OSS para avanzar el desarrollo de IA abierta

Algo verdaderamente importante ha ocurrido en OpenAI.

Han lanzado dos nuevos modelos de lenguaje de pesos abiertos, GPT-OSS-120B y GPT-OSS-20B, disponibles para cualquier persona bajo la licencia Apache 2.0.

Estos modelos estan especializados en tareas de razonamiento, uso de herramientas y despliegue eficiente en costos.

Estan especificamente disenados para funcionar bien en hardware de consumo, son completamente personalizables y soportan salidas estructuradas.

GPT-OSS-120B ofrece un rendimiento cercano a o4-mini en benchmarks de razonamiento mientras opera en una sola GPU de 80GB.

GPT-OSS-20B logra resultados comparables a o3-mini mientras requiere solo 16GB de memoria, siendo perfecto para inferencia local o en dispositivo.

Estos modelos superaron a otros sistemas abiertos en tareas complejas.

GPT-OSS-120B destaca particularmente en uso de herramientas, llamadas a funciones y razonamiento de Cadena de Pensamiento (CoT).

En la metrica HealthBench, incluso supero a modelos propietarios como o1 y GPT-4o.

Ademas, se integra perfectamente con la API de Respuestas de OpenAI y soporta flujos de trabajo agenticos con un seguimiento de instrucciones sobresaliente.

La intensidad de razonamiento tambien puede ajustarse segun los requisitos de latencia.

Arquitectura del Modelo y Rendimiento

OpenAI entreno los modelos GPT-OSS usando tecnicas de pre-entrenamiento y post-entrenamiento de ultima generacion, centrandose en razonamiento, eficiencia y utilidad practica en diversos entornos de despliegue.

Aunque previamente habian liberado como codigo abierto modelos como Whisper y CLIP, este es el primer modelo de lenguaje de pesos abiertos desarrollado desde GPT-2.

Cada modelo utiliza una arquitectura Transformer con un diseno de Mezcla de Expertos (MoE) que activa solo una fraccion de parametros por token para mejorar la eficiencia.

ModeloParametros
Totales
Parametros
Activos
CapasExpertosExpertos
Activos
Longitud de
Contexto
GPT-OSS-120B117B5.1B361284128k
GPT-OSS-20B21B3.6B24324128k

Para mejorar aun mas la eficiencia de inferencia y memoria, ambos modelos alternan entre patrones de atencion dispersa de alta densidad y banda local (similar a GPT-3) y patrones de atencion multi-consulta agrupada con un tamano de grupo de 8.

Se utilizan Embeddings de Posicion Rotativa (RoPE) para la codificacion posicional.

Estos modelos soportan una longitud maxima de contexto de 128,000 tokens.

Fueron entrenados con un conjunto de datos principalmente en ingles y solo texto, con fuerte representacion en STEM, programacion y conocimiento general.

La tokenizacion se realizo usando un nuevo tokenizador o200k_harmony que se libera como codigo abierto junto con este lanzamiento.

La informacion detallada se puede encontrar en las tarjetas del modelo.

Post-Entrenamiento y Control de Razonamiento

El post-entrenamiento siguio los mismos metodos utilizados para o4-mini de OpenAI, incluyendo ajuste fino supervisado y etapas de aprendizaje por refuerzo (RL).

Los modelos estan alineados con la Especificacion del Modelo de OpenAI, soportando razonamiento en cadena de pensamiento, uso de herramientas y seguimiento de instrucciones.

Al aplicar las mismas tecnicas utilizadas en los modelos de razonamiento propietarios de ultima generacion de OpenAI, los modelos GPT-OSS demuestran un fuerte rendimiento post-entrenamiento en tareas de razonamiento.

Al igual que la serie propietaria o de OpenAI, estos modelos ofrecen modos de razonamiento bajo, medio y alto.

Esto permite a los desarrolladores optimizar la latencia o el rendimiento ajustando el parametro del mensaje del sistema.

Resultados de las Pruebas

GPT-OSS-120B y GPT-OSS-20B fueron probados en benchmarks academicos estandar para evaluar capacidades de programacion, matematicas competitivas, razonamiento relacionado con la salud y uso de herramientas agenticas.

En estas evaluaciones, los modelos igualaron o superaron consistentemente los modelos de razonamiento propietarios de OpenAI, incluyendo o3, o3-mini y o4-mini.

Codeforces (Programacion Competitiva):

GPT-OSS-120B logro una calificacion Elo superior a o3-mini y un rendimiento comparable a o4-mini, demostrando resultados solidos en tareas de programacion competitiva.

Grafico de barras mostrando la comparacion de calificaciones Elo en competiciones Codeforces. Rendimiento de multiples modelos evaluados con y sin uso de herramientas.
Los modelos GPT-OSS lograron altas puntuaciones Elo en desafios de programacion Codeforces con rendimiento solido tanto en escenarios asistidos por herramientas como independientes.
Fuente de imagen: OpenAI

Problemas de Nivel Experto en Multiples Dominios:

En este benchmark que prueba habilidades de razonamiento en varios dominios academicos de nivel experto, GPT-OSS-120B y GPT-OSS-20B mostraron rendimiento competitivo, especialmente en escenarios asistidos por herramientas.

Aunque los modelos propietarios como o4-mini lideran en esta area, los modelos GPT-OSS aun entregaron resultados significativos en prompts altamente especializados, demostrando amplia aplicabilidad.

Grafico: Grafico de barras mostrando precision (%) en preguntas de nivel experto del Ultimo Examen de la Humanidad.
Los modelos GPT-OSS se clasificaron competitivamente en preguntas de nivel experto en multiples temas tanto en escenarios con y sin herramientas, con 120B superando ligeramente a 20B.
Fuente de imagen: OpenAI

Conversaciones sobre Salud y Medicina:

Tanto en evaluaciones estandar como dificiles, GPT-OSS-120B y GPT-OSS-20B superaron a GPT-4o, o3 y o3-mini, mostrando particular fortaleza en benchmarks de razonamiento relacionado con la salud.

Grafico de barras comparando rendimiento en HealthBench. Izquierda muestra puntuaciones para conversaciones de salud realistas, derecha muestra puntuaciones para conversaciones de salud desafiantes.
GPT-OSS-120B lidera tanto en evaluaciones estandar como dificiles de HealthBench, superando a otros modelos abiertos y propietarios en razonamiento medico del mundo real.
Fuente de imagen: OpenAI

AIME 2024 y 2025 (Matematicas Competitivas):

Ambos modelos lograron alta precision, con GPT-OSS-120B puntuando 97.9% y GPT-OSS-20B puntuando 98.7% en AIME 2024.

En AIME 2025, ambos modelos superaron a o3-mini, y GPT-OSS-20B supero a o3 en ciertas tareas a pesar de su tamano menor.

Grafico mostrando precision en matematicas competitivas para AIME 2024 con uso de herramientas, destacando rendimiento de GPT-OSS-120B y GPT-OSS-20B.
Los modelos GPT-OSS ofrecen un rendimiento solido en benchmarks de matematicas competitivas AIME 2024 y 2025, con el modelo 20B a veces superando a modelos propietarios mas grandes.
Fuente de imagen: OpenAI
AIME Competition math accuracy graph comparing GPT-OSS-120B and GPT-OSS-20B across various token lengths.
Los modelos GPT-OSS logran mayor precision matematica a medida que aumentan las longitudes de CoT y respuestas, con GPT-OSS-120B superando consistentemente a GPT-OSS-20B en todas las longitudes de tokens.
Fuente de imagen: OpenAI

Tau-Bench (Uso de Herramientas y Llamadas a Funciones):

Los modelos demostraron un rendimiento solido en llamadas a funciones de pocos ejemplos, generacion de respuestas largas y razonamiento de Cadena de Pensamiento (CoT), siguiendo de cerca la precision de o4-mini y o3 en evaluaciones aumentadas con herramientas.

Grafico comparando precision de llamadas a funciones retail en Tau-Bench, mostrando gpt-oss-120b al 67.8%, gpt-oss-20b al 54.8%, o3 al 70.4% y o4-mini al 65.6%.
En Tau-Bench, GPT-OSS-120B obtuvo puntuaciones competitivas en llamadas a funciones, justo detras de o3 y por delante de o4-mini en casos de uso retail.
Fuente de imagen: OpenAI

GPQA (Razonamiento Cientifico de Nivel Doctorado):

GPT-OSS-120B es competitivo con o4-mini en tareas avanzadas de razonamiento cientifico que prueban particularmente el conocimiento profundo del dominio, superando a o3-mini y o3.

Grafico de barras mostrando precision (%) en preguntas cientificas de nivel doctorado, comparando rendimiento de GPT-OSS-120B, GPT-OSS-20B, O3, O4-mini y O3-mini.
Sin herramientas, GPT-OSS-120B muestra rendimiento cercano a la linea base propietaria en problemas cientificos de nivel doctorado, ligeramente por detras de o3 y o4-mini.
Fuente de imagen: OpenAI
Grafico: Grafico GPQA Diamond mostrando precision en preguntas cientificas de nivel doctorado para GPT-OSS-120B y GPT-OSS-20B.
Los modelos GPT-OSS mejoran en GPQA a medida que aumentan los limites de tokens, con GPT-OSS-120B logrando la mayor precision en razonamiento cientifico.
Fuente de imagen: OpenAI

MMLU (Conocimiento Academico Multi-Tema):

Los modelos mostraron un rendimiento solido en todas las categorias de MMLU.

GPT-OSS-120B logro puntuaciones cercanas a o4-mini, mientras que GPT-OSS-20B supero a o3-mini, demostrando fortaleza en comprension academica general.

Grafico de barras mostrando resultados del benchmark MMLU, mostrando porcentajes de precision para GPT-OSS-120B, GPT-OSS-20B, o3, o4-mini y o3-mini
Los modelos GPT-OSS mostraron un rendimiento solido en MMLU, con GPT-OSS-120B acercandose a las puntuaciones de o3 y o4-mini en diversas materias academicas.
Fuente de imagen: OpenAI

Entrenamiento de Seguridad y Pruebas Adversariales

La seguridad sigue siendo fundamental en el enfoque de OpenAI, especialmente al lanzar modelos abiertos.

Ademas del entrenamiento y evaluacion de seguridad integral, el equipo probo versiones adversarialmente ajustadas de GPT-OSS-120B segun el Marco de Preparacion.

El modelo rindio de forma comparable a los sistemas frontera de OpenAI en benchmarks internos, cumpliendo los mismos estandares de seguridad que los ultimos modelos propietarios.

La metodologia de evaluacion fue revisada por expertos externos, y los resultados compartidos a traves de articulos de investigacion y tarjetas de modelo representan un avance importante en el establecimiento de nuevas normas de seguridad para sistemas de IA abiertos.

Durante el pre-entrenamiento, se filtraron datos daninos, incluyendo contenido relacionado con amenazas quimicas, biologicas, radiologicas y nucleares (QBRN).

El post-entrenamiento utilizo alineacion deliberativa y tecnicas de jerarquia de instrucciones para ensenar el rechazo de prompts inseguros, defenderse contra la inyeccion de prompts y mantener limites eticos.

Para simular los peores escenarios de uso indebido, OpenAI ajusto versiones adversariales de los modelos GPT-OSS imitando el comportamiento de posibles atacantes en conjuntos de datos especializados de biologia y ciberseguridad.

Estas variantes fueron probadas segun el Marco de Preparacion, y tres grupos independientes de expertos revisaron la metodologia.

Los modelos no alcanzaron umbrales de capacidad de alto riesgo, respaldando su publicacion.

Los metodos de prueba y recomendaciones se pueden encontrar en el libro blanco de seguridad y las tarjetas del modelo.

Para fomentar la investigacion de seguridad impulsada por la comunidad y contribuir a un ecosistema de codigo abierto mas seguro, OpenAI lanzo un desafio de red-teaming con $500,000 en premios.

Se invita a investigadores, desarrolladores y entusiastas a encontrar nuevas vulnerabilidades.

Una vez concluido el desafio, los resultados se haran publicos y se liberaran como codigo abierto.

Para obtener mas informacion o participar, visita el sitio web oficial de OpenAI.

Despliegue y Disponibilidad

Los modelos estan ahora disponibles para descarga gratuita en Hugging Face y se proporcionan cuantizados en MXFP4 para un despliegue eficiente.

  • GPT-OSS-120B funciona dentro de 80GB.
  • GPT-OSS-20B funciona dentro de 16GB.

Para ayudar con la integracion, OpenAI esta lanzando tanto el formato de prompt Harmony como el renderizador Harmony (disponible en Python y Rust), junto con referencias de inferencia para PyTorch y Apple Metal y un kit de herramientas de muestra para una adopcion mas facil.

Los socios de despliegue antes del lanzamiento incluyen Azure, Hugging Face, Ollama, vLLM, AWS, Together AI, Databricks, Cloudflare y mas.

En el lado del hardware, OpenAI colaboro con lideres de la industria incluyendo NVIDIA, AMD, Cerebras y Groq para optimizar el rendimiento del modelo en diversos entornos de despliegue.

OpenAI tambien trabajo con adoptadores tempranos incluyendo AI Sweden, Orange y Snowflake para explorar aplicaciones del mundo real de los modelos abiertos.

Estos casos de uso van desde el despliegue local para seguridad de datos hasta el ajuste fino en conjuntos de datos especializados.

Al proporcionar modelos abiertos de primera clase junto con opciones de alojamiento API, OpenAI tiene como objetivo dar a todos, desde desarrolladores individuales hasta empresas y gobiernos, la flexibilidad para ejecutar y personalizar IA en su propia infraestructura.

Ademas, Microsoft soporta la inferencia de GPT-OSS-20B optimizada para GPU en dispositivos Windows a traves del ONNX Runtime, disponible en Foundry Local y el AI Toolkit para VS Code.

Para desarrolladores que necesitan soporte multimodal, herramientas integradas o una integracion mas estrecha con la plataforma OpenAI, los modelos propietarios accesibles via API siguen siendo la mejor opcion.

OpenAI ha declarado que esta escuchando los comentarios de los desarrolladores y podria considerar el soporte API para GPT-OSS en el futuro.

Los desarrolladores pueden explorar los modelos en el Playground de Modelos Abiertos de OpenAI y acceder a guias detalladas para usar varios proveedores del ecosistema o ajustar los modelos.

Por Que Importan los Modelos Abiertos

OpenAI describe GPT-OSS-120B y GPT-OSS-20B como hitos en la entrega de modelos abiertos potentes que equilibran capacidad, seguridad y personalizacion.

Complementan los modelos alojados al ofrecer opciones de alto rendimiento auto-alojadas, especialmente para desarrolladores con restricciones de infraestructura.

Este lanzamiento apoya el objetivo mas amplio de democratizacion de la IA, particularmente para mercados emergentes, laboratorios de investigacion y aplicaciones gubernamentales.

Al permitir un despliegue flexible y ajuste fino, OpenAI tiene como objetivo acelerar nuevos avances en multiples campos mientras avanza en transparencia e investigacion de alineacion.

Preguntas y Respuestas

P: Que son GPT-OSS-120B y GPT-OSS-20B?

R: Son dos modelos de lenguaje de pesos abiertos de OpenAI, optimizados para razonamiento, uso de herramientas y despliegue eficiente.

P: Como se comparan con modelos propietarios como GPT-4o u o3-mini?

R: Muestran un rendimiento comparable o mejor en benchmarks de matematicas, salud y programacion, especialmente con el uso de herramientas habilitado.

P: Que tipo de hardware se necesita?

R: GPT-OSS-120B funciona en una sola GPU de 80GB, y GPT-OSS-20B funciona con 16GB, siendo adecuado para inferencia local o en dispositivo.

P: Que medidas de seguridad se tomaron antes del lanzamiento?

R: OpenAI realizo evaluaciones de seguridad robustas incluyendo ajuste fino adversarial, y expertos externos revisaron los resultados.

P: Donde pueden los desarrolladores obtener los modelos y herramientas de soporte?

R: Los modelos estan disponibles en Hugging Face junto con tokenizadores de codigo abierto, renderizadores y referencias de despliegue.

Implicaciones

Al lanzar GPT-OSS-120B y GPT-OSS-20B, OpenAI esta estableciendo un nuevo estandar para las capacidades de modelos de pesos abiertos y el despliegue responsable.

Estos modelos reducen la barrera de entrada para desarrolladores de todo el mundo al proporcionar herramientas personalizables de alto rendimiento que rivalizan con los sistemas propietarios.

Con el lanzamiento de GPT-OSS, OpenAI ahora ofrece tanto modelos cerrados como abiertos a niveles que pueden competir con otros sistemas de vanguardia.

Este enfoque dual da a desarrolladores, empresas y gobiernos mas opciones en como acceden, despliegan y ajustan la IA, ya sea que prefieran APIs alojadas o infraestructura autogestionada.

A medida que la infraestructura de IA se vuelve mas distribuida y diversa, modelos accesibles como GPT-OSS pueden permitir que nuevos avances florezcan mas alla de las plataformas en la nube.

Este lanzamiento refuerza el valor de un ecosistema de codigo abierto saludable donde la seguridad, el rendimiento y la transparencia pueden crecer juntos.

Al ofrecer modelos abiertos de primer nivel junto con su linea propietaria, OpenAI esta expandiendo el alcance de lo que se puede construir con IA de vanguardia y donde se puede construir.

Source: Alicia Shapiro, AiNews, "OpenAI Releases GPT-OSS-120B & GPT-OSS-20B as Open-Weight Language Models", https://www.ainews.com/p/openai-releases-gpt-oss-120b-gpt-oss-20b-as-open-weight-language-models, (2025. 8. 5)

Le interesa la automatizacion con IA?

Encuentre la solucion adecuada para su negocio a traves de una consulta gratuita.

Solicitar consulta gratuita