Presentiamo NVIDIA Nemotron 3 Super 🎉 Modello ibrido Mamba-Transformer MoE con 120 miliardi di parametri (12 miliardi attivi) Contesto nativo di 1 milione di token Progettato per applicazioni multi-agente ad alta efficienza computazionale e alta precisione Inoltre, pesi, dataset e ricette completamente aperti per una facile personalizzazione e distribuzione. 🧵
Questa ultima aggiunta alla famiglia Nemotron non è solo un Nano più grande. ✅ Fino a 5 volte maggiore throughput e 2 volte più precisione rispetto alla versione precedente ✅ MoE latente che chiama 4 volte più specialisti esperti per lo stesso costo di inferenza ✅ Predizione multi-token che riduce drasticamente il tempo di generazione ✅ Struttura ibrida Mamba-Transformer che offre 4 volte maggiore efficienza in memoria e calcolo ✅ Pre-addestramento NVFP4 nativo ottimizzato per NVIDIA Blackwell Dai un'occhiata all'analisi approfondita delle decisioni architettoniche e dei metodi di addestramento dietro il modello 👇
🦞Queste innovazioni si uniscono per creare un modello ben adatto per agenti autonomi a lungo termine. Su PinchBench—un benchmark per valutare i LLM come agenti di codifica @OpenClaw—Nemotron 3 Super ottiene l'85,6% in tutto il test suite, rendendolo il miglior modello open nella sua categoria.
@openclaw “NVIDIA Nemotron 3 Super: Il nuovo leader nell'intelligenza aperta ed efficiente”
Artificial Analysis
Artificial Analysis10 ore fa
NVIDIA ha rilasciato Nemotron 3 Super, un modello di ragionamento con pesi aperti da 120B (12B attivi) che ottiene 36 nell'Artificial Analysis Intelligence Index con un'architettura ibrida Mamba-Transformer MoE. Ci è stato dato accesso a questo modello prima del lancio e lo abbiamo valutato in base a intelligenza, apertura ed efficienza di inferenza. Punti chiave ➤ Combina alta apertura con forte intelligenza: Nemotron 3 Super si comporta bene per le sue dimensioni ed è sostanzialmente più intelligente di qualsiasi altro modello con apertura comparabile. ➤ Nemotron 3 Super ha ottenuto 36 nell'Artificial Analysis Intelligence Index, +17 punti rispetto al precedente rilascio Super e +12 punti rispetto a Nemotron 3 Nano. Rispetto ai modelli nella stessa categoria di dimensioni, questo lo colloca davanti a gpt-oss-120b (33), ma dietro al recentemente rilasciato Qwen3.5 122B A10B (42). ➤ Focalizzato su un'intelligenza efficiente: abbiamo trovato che Nemotron 3 Super ha un'intelligenza superiore a gpt-oss-120b, consentendo un throughput ~10% più elevato per GPU in un semplice ma realistico test di carico. ➤ Supportato oggi per un'inferenza serverless veloce: fornitori come @DeepInfra e @LightningAI stanno servendo questo modello al lancio con velocità fino a 484 token al secondo. Dettagli del modello 📝 Nemotron 3 Super ha 120.6B parametri totali e 12.7B parametri attivi, insieme a una finestra di contesto di 1 milione di token e supporto per ragionamento ibrido. È pubblicato con pesi aperti e una licenza permissiva, insieme a dati di addestramento aperti e divulgazione della metodologia. 📐 Il modello ha diverse caratteristiche di design che consentono un'inferenza efficiente, tra cui l'uso di architetture ibride Mamba-Transformer e LatentMoE, previsione multi-token e pesi quantizzati NVFP4. 🎯 NVIDIA ha pre-addestrato Nemotron 3 Super in precisione (per lo più) NVFP4, ma è passato a BF16 per il post-addestramento. I nostri punteggi di valutazione utilizzano i pesi BF16. 🧠 Abbiamo confrontato Nemotron 3 Super nella sua modalità di ragionamento a massimo sforzo ("regolare"), la più capace delle tre modalità di inferenza del modello (ragionamento disattivato, basso sforzo e regolare).
@openclaw ✨ Nemotron 3 Super è ora disponibile per gli abbonati Pro e Max di @Perplexity_ai nel menu a discesa del selettore di modelli. Può anche essere utilizzato tramite l'API Agent e Perplexity Computer.
241