NVIDIA se luce con su nuevo modelo omni
Durante la GTC 2026, NVIDIA presentó Nemotron 3 Nano Omni, la última incorporación a la familia Nemotron 3 de modelos de IA abiertos de la compañía. El modelo está dirigido al mercado empresarial y está diseñado para impulsar sistemas de IA avanzados basados en agentes que deben manejar grandes cantidades de datos variados, desde archivos de audio y videos hasta documentos extensos e imágenes.
Según NVIDIA y el blog de Hugging Face que presentó el modelo, Nemotron 3 Nano Omni se desarrolla como un “modelo fundacional de comprensión omni nativo y listo para producción”.
Un millón de tokens – y una arquitectura inusual
Una de las características más destacadas del modelo es su ventana de contexto de un millón de tokens. Esto permite que el modelo retenga y razone sobre cadenas de información muy largas, lo cual es crítico para tareas de IA agéntica de múltiples pasos.
Bajo el capó, el modelo utiliza una arquitectura híbrida Mamba-Transformer Mixture-of-Experts (MoE). En total, el modelo tiene 30 mil millones de parámetros, pero activa solo alrededor de 3 mil millones por token durante la inferencia. Esto proporciona un alto rendimiento sin un aumento correspondiente en el costo computacional.
Las cifras anteriores provienen de pruebas de referencia realizadas en un único acelerador NVIDIA H200 con entrada de 8K y salida de 16K, según Artificial Analysis, una organización de evaluación comparativa independiente que ha clasificado a Nemotron 3 Nano como el modelo más eficiente entre modelos abiertos comparables de su tamaño.
Cabe señalar que las cifras de referencia de los propios canales de lanzamiento del fabricante deben leerse con ojo crítico; la validación independiente a lo largo del tiempo proporcionará una imagen más completa.

Lo que el modelo realmente puede hacer
Nemotron 3 Nano Omni está diseñado para comprender y razonar a través de múltiples modalidades dentro de un mismo modelo:
El modelo soporta, entre otras cosas, la comprensión de video mejorada por transcripción de audio, y el razonamiento avanzado de documentos basado en OCR, características que son particularmente relevantes para la automatización de procesos empresariales donde los agentes de IA deben navegar en entornos de información complejos.

Un panorama competitivo cada vez más duro
Nemotron 3 Nano Omni entra en un mercado donde la competencia por ventanas de contexto largas y capacidades multimodales es intensa.
Google, con Gemini 2.5 Pro, tiene una ventana de contexto de un millón de tokens, y el más reciente Gemini 3 Pro presume de 10 millones de tokens. Anthropic anunció en marzo de 2026 que Claude Opus 4.6 y Sonnet 4.6 soportan oficialmente un millón de tokens. OpenAI, por su parte, tiene la familia GPT-4.1 con una longitud de contexto similar.
Lo que distingue la oferta de NVIDIA es la combinación de apertura y eficiencia. Mientras que Google, Anthropic y OpenAI operan con modelos cerrados, NVIDIA proporciona acceso a los pesos del modelo, la metodología de entrenamiento y los datos de entrenamiento bajo una licencia abierta. Para las empresas que buscan construir y personalizar sus propias soluciones de IA sin atarse a plataformas propietarias, esto puede ser un factor significativo.
¿Para quién está hecho el modelo?
El público objetivo es claro: empresas que construyen sistemas de IA basados en agentes y necesitan un modelo capaz de manejar fuentes de datos complejas y compuestas durante largos horizontes temporales. Los casos de uso típicos incluyen el análisis de grabaciones de reuniones más largas, el procesamiento automatizado de documentos y agentes de IA que operan en flujos de trabajo de múltiples pasos con datos estructurados y no estructurados.
El modelo ya está disponible a través de Hugging Face, según el blog de lanzamiento.
