Introduktion till NVIDIA Nemotron 3 Super 🎉 Öppen 120B-parameter (12B aktiv) hybrid Mamba-Transformer MoE-modell Inbyggd 1M-token-kontext Byggd för beräkningseffektiva, högnoggranna multiagentapplikationer Dessutom helt öppna vikter, dataset och recept för enkel anpassning och distribution. 🧵
Detta senaste tillskott till Nemotron-familjen är inte bara en större Nano. ✅ Upp till 5 gånger högre genomströmning och 2 gånger noggrannhet än föregående version ✅ Latent MoE som ringer fyra gånger så många expertspecialister för samma inferenskostnad ✅ Multi-token-prediktion som dramatiskt minskar genereringstiden ✅ Hybrid Mamba-Transformer-ryggrad ger fyra gånger bättre minne och beräkningseffektivitet ✅ Inbyggd NVFP4-förutbildning optimerad för NVIDIA Blackwell Kolla in den djupdykande analysen av de arkitektoniska besluten och träningsmetoderna bakom modellen 👇
🦞Dessa innovationer samverkar för att skapa en modell som är väl lämpad för långvariga autonoma agenter. På PinchBench—ett riktmärke för att utvärdera LLM:er som @OpenClaw kodningsagenter—får Nemotron 3 Super 85,6 % i hela testsviten, vilket gör det till den bästa öppna modellen i sin klass.
@openclaw "NVIDIA Nemotron 3 Super: Den nya ledaren inom öppen, effektiv intelligens"
Artificial Analysis
Artificial Analysis8 timmar sedan
NVIDIA har släppt Nemotron 3 Super, en 120B (12B aktiv) öppen viktbaserad resonemangsmodell som får 36 poäng på Artificial Analysis Intelligence Index med en hybrid Mamba-Transformer MoE-arkitektur Vi fick tillgång till denna modell före lansering och utvärderade den utifrån intelligens, öppenhet och inferenseffektivitet. Viktiga insikter ➤ Kombinerar hög öppenhet med stark intelligens: Nemotron 3 Super presterar starkt för sin storlek och är avsevärt mer intelligent än någon annan modell med jämförbar öppenhet ➤ Nemotron 3 Super fick 36 poäng på Artificial Analysis Intelligence Index, +17 poäng före den tidigare Super-utgåvan och +12 poäng från Nemotron 3 Nano. Jämfört med modeller i en liknande storlekskategori placerar detta den före gpt-oss-120b (33), men bakom den nyligen lanserade Qwen3.5 122B A10B (42). ➤ Fokuserad på effektiv intelligens: vi fann att Nemotron 3 Super hade högre intelligens än gpt-oss-120b samtidigt som den möjliggjorde ~10 % högre genomströmning per GPU i ett enkelt men realistiskt belastningstest ➤ Stöds idag för snabb serverless inferens: leverantörer inklusive @DeepInfra och @LightningAI levererar denna modell vid lansering med hastigheter på upp till 484 tokens per sekund Modelldetaljer 📝 Nemotron 3 Super har totalt 120,6 miljarder och 12,7 miljarder aktiva parametrar, tillsammans med ett kontextfönster på 1 miljon tokens och stöd för hybridt resonemang. Den publiceras med öppna vikter och en tillåtande licens, tillsammans med öppen träningsdata och metodologi 📐 Modellen har flera designfunktioner som möjliggör effektiv inferens, inklusive användning av hybrida Mamba-Transformer- och LatentMoE-arkitekturer, multi-token-prediktion och NVFP4-kvantiserade vikter 🎯 NVIDIA förtränade Nemotron 3 Super i (för det mesta) NVFP4-precision, men gick över till BF16 för efterträning. Våra utvärderingspoäng använder BF16-vikterna 🧠 Vi jämförde Nemotron 3 Super i dess mest ansträngningsinriktade resonemangsläge ("vanligt"), det mest kapabla av modellens tre inferenslägen (resonerande av, lågansträngning och vanlig)
@openclaw ✨ Nemotron 3 Super finns nu tillgänglig för @Perplexity_ai Pro- och Max-abonnenter i modellväljaren. Den kan också användas via Agent API och Perplexity Computer.
201