Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NVIDIA ha lanzado Nemotron 3 Super, un modelo de razonamiento de pesos abiertos de 120B (12B activos) que obtiene 36 en el Índice de Inteligencia de Análisis Artificial con una arquitectura híbrida Mamba-Transformer MoE.
Se nos dio acceso a este modelo antes de su lanzamiento y lo evaluamos en términos de inteligencia, apertura y eficiencia de inferencia.
Conclusiones clave
➤ Combina alta apertura con fuerte inteligencia: Nemotron 3 Super se desempeña de manera destacada para su tamaño y es sustancialmente más inteligente que cualquier otro modelo con una apertura comparable.
➤ Nemotron 3 Super obtuvo 36 en el Índice de Inteligencia de Análisis Artificial, 17 puntos por delante del lanzamiento anterior de Super y 12 puntos por delante de Nemotron 3 Nano. En comparación con modelos en una categoría de tamaño similar, esto lo coloca por delante de gpt-oss-120b (33), pero detrás del recientemente lanzado Qwen3.5 122B A10B (42).
➤ Enfocado en la inteligencia eficiente: encontramos que Nemotron 3 Super tiene una inteligencia superior a gpt-oss-120b mientras permite un ~10% más de rendimiento por GPU en una prueba de carga simple pero realista.
➤ Soportado hoy para inferencia sin servidor rápida: proveedores como @DeepInfra y @LightningAI están sirviendo este modelo en el lanzamiento con velocidades de hasta 484 tokens por segundo.
Detalles del modelo
📝 Nemotron 3 Super tiene 120.6B en total y 12.7B de parámetros activos, junto con una ventana de contexto de 1 millón de tokens y soporte de razonamiento híbrido. Se publica con pesos abiertos y una licencia permisiva, junto con datos de entrenamiento abiertos y divulgación de metodología.
📐 El modelo tiene varias características de diseño que permiten una inferencia eficiente, incluyendo el uso de arquitecturas híbridas Mamba-Transformer y LatentMoE, predicción de múltiples tokens y pesos cuantizados NVFP4.
🎯 NVIDIA preentrenó Nemotron 3 Super en precisión (principalmente) NVFP4, pero se trasladó a BF16 para el post-entrenamiento. Nuestros puntajes de evaluación utilizan los pesos BF16.
🧠 Evaluamos Nemotron 3 Super en su modo de razonamiento de mayor esfuerzo ("regular"), el más capaz de los tres modos de inferencia del modelo (razonamiento apagado, bajo esfuerzo y regular).

NVIDIA lanzó datos significativos de pre y post-entrenamiento junto con nuevas recetas de entrenamiento completas para este modelo. Estas divulgaciones alcanzan un 83 en el Índice de Apertura de Análisis Artificial, solo detrás de modelos altamente abiertos de Ai2 y MBZUAI, y colocan a Nemotron 3 Super en el cuadrante más atractivo para la Apertura e Inteligencia entre sus pares.
Nemotron 3 Super es, con mucho, el modelo más inteligente jamás lanzado con este nivel de apertura.

Nemotron 3 Super utilizó un número relativamente alto de tokens en nuestras evaluaciones. Usó 110M de tokens de salida para ejecutar las evaluaciones del Índice de Inteligencia de Análisis Artificial - esto es alrededor de un 40% más que gpt-oss-120b con un alto esfuerzo de razonamiento, pero una reducción de aproximadamente el 20% en comparación con Nemotron 3 Nano.
Eso es significativamente menos tokens que Claude Opus 4.6 (máx) de Anthropic, que utilizó 160M de tokens, y ligeramente menos que GPT-5.4 (xhigh) de OpenAI, que utilizó 120M de tokens.

Con 120B en total y 12B de parámetros activos, Nemotron 3 Super sigue siendo relativamente pequeño en comparación con otros lanzamientos recientes de modelos de pesos abiertos de los principales laboratorios globales: GLM-5 (744B en total, 40B activos), Qwen3.5 397B A17B (397B en total, 17B activos) y Kimi K2.5 (1T en total, 32B activos), que son entre 3x y 8x más grandes.

NVIDIA se centra en la inteligencia eficiente para la familia Nemotron, y hemos probado el rendimiento de inferencia en comparación con modelos similares para ver el impacto de las elecciones arquitectónicas.
Realizamos pruebas de rendimiento autoalojadas en una variedad de modelos similares utilizando una metodología simple con cargas de trabajo representativas de casos de uso comunes, como flujos de trabajo agénticos con un historial moderado, aplicaciones RAG o procesamiento de documentos.
En esta prueba, Nemotron 3 Super (NVFP4) muestra un rendimiento un 11% superior por GPU NVIDIA B200 en comparación con gpt-oss-120b (MXFP4), colocando a Nemotron 3 Super 'arriba y a la derecha' en relación con gpt-oss-120b. Qwen3.5 122B A10B logra +6 puntos en el Índice de Inteligencia en comparación con Nemotron 3 Super, pero con un rendimiento un 40% inferior por GPU.
Nuestros puntajes del Índice de Inteligencia para Nemotron 3 Super se evaluaron en los pesos BF16. Aún no hemos evaluado si hay algún impacto en la inteligencia de la cuantización NVFP4, pero las pruebas internas de NVIDIA encontraron que el modelo NVFP4 logró una precisión mediana del 99.8% en relación con la línea base BF16.
Para más detalles sobre nuestra configuración de pruebas y configuraciones de modelos, consulte nuestro artículo sobre Nemotron 3 Super:


Nemotron 3 Super estará disponible desde su lanzamiento en APIs sin servidor de proveedores como Lightning AI y DeepInfra.
Probamos estos puntos finales y vimos un rendimiento de hasta 484 tokens por segundo en nuestras cargas de trabajo estándar de 10k tokens.
En el lanzamiento, Nemotron 3 Super se sitúa en el cuadrante más atractivo en cuanto a inteligencia y velocidad de salida entre pares comparables.

6,59K
Parte superior
Clasificación
Favoritos
