Dos nuevos modelos ligeros de OpenAI

OpenAI presentó sus dos nuevos modelos compactos, GPT-5.4 mini y GPT-5.4 nano, el 17 de marzo de 2026. Según la propia compañía, estos son los modelos pequeños más capaces que han lanzado hasta ahora, optimizados para codificación, uso de herramientas, razonamiento multimodal y flujos de trabajo de API de alto volumen.

Ambos modelos son variantes más ligeras y rápidas del ya lanzado GPT-5.4, y están especialmente diseñados para tareas de subagente y uso a gran escala por parte de desarrolladores.

GPT-5.4 mini es más del doble de rápido que GPT-5 mini y se acerca al rendimiento del modelo completo en benchmarks clave

GPT-5.4 mini: Rendimiento cercano al modelo completo a menor costo

El mayor de los dos recién llegados, GPT-5.4 mini, obtiene un 54.4 por ciento en SWE-Bench Pro – un benchmark reconocido para agentes de código. En comparación, el modelo completo GPT-5.4 alcanza un 57.7 por ciento, mientras que el antiguo GPT-5 mini se situaba en un 45.7 por ciento. En OSWorld-Verified, que prueba la capacidad de los agentes para operar computadoras, mini se sitúa en un 72.1 por ciento frente al 75.0 por ciento del modelo completo, según OpenAI.

El modelo admite entrada de texto e imagen, llamada de funciones, búsqueda web, búsqueda de archivos y control de computadoras a través de la API. La ventana de contexto es de 400,000 tokens, con una salida máxima de 128,000 tokens. La fecha de corte de conocimiento está fijada para el 31 de agosto de 2025.

En la plataforma Codex, GPT-5.4 mini utiliza solo el 30 por ciento de la cuota de GPT-5.4, lo que en la práctica proporciona acceso a asistencia de código a aproximadamente un tercio del precio.

54.4 %
SWE-Bench Pro (mini)
72.1 %
OSWorld-Verified (mini)
GPT-5.4 mini es el doble de rápido – y cuesta un tercio

GPT-5.4 nano: Precio ultrabajo para alto volumen

El modelo más pequeño, GPT-5.4 nano, está disponible exclusivamente a través de la API y está diseñado para tareas donde la velocidad y el costo son primordiales – como clasificación, extracción de datos, clasificación y funciones simples de subagente sin necesidad de razonamiento de múltiples pasos.

Aunque su tamaño compacto, nano obtiene un 52.4 por ciento en SWE-bench Pro, lo que en realidad supera el 45.7 por ciento de GPT-5 mini. Cabe señalar que estas cifras de benchmark provienen de la propia OpenAI, y no hay verificación independiente disponible en el momento de la publicación.

GPT-5.4 nano cuesta solo una doceava parte del modelo completo por token de salida
GPT-5.4 mini es el doble de rápido – y cuesta un tercio

Resumen de precios y disponibilidad

GPT-5.4 mini está disponible a través de la API de OpenAI, Codex y ChatGPT. En ChatGPT, los usuarios gratuitos y Go pueden utilizar el modelo a través de la función “Thinking” en el menú plus, y también sirve como modelo de respaldo para la limitación de tasa en GPT-5.4 Thinking para otros suscriptores. GPT-5.4 nano actualmente solo está disponible a través de la API.

Qué significa esto para los desarrolladores

Con estos dos modelos, OpenAI intenta cubrir una necesidad creciente en el mercado: desarrolladores que desean capacidades de modelo modernas – especialmente en flujos de trabajo de codificación y agentes – sin pagar por la capacidad completa de GPT-5.4 en todas las solicitudes.

Combinado con la gran ventana de contexto de 400,000 tokens y el soporte para entrada multimodal, GPT-5.4 mini se presenta como una alternativa atractiva para sistemas de producción donde tanto el rendimiento como los costos operativos son importantes. Nano satisface otra necesidad: clasificación y tareas de extracción simples a escala industrial, donde el precio por token es crucial.

La plataforma OpenAI se ejecuta en Microsoft Azure, y todo el acceso a la API requiere una clave de API creada a través del panel de control de OpenAI.