Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Introduktion till NVIDIA Nemotron 3 Super 🎉
Öppen 120B-parameter (12B aktiv) hybrid Mamba-Transformer MoE-modell
Inbyggd 1M-token-kontext
Byggd för beräkningseffektiva, högnoggranna multiagentapplikationer
Dessutom helt öppna vikter, dataset och recept för enkel anpassning och distribution. 🧵
Detta senaste tillskott till Nemotron-familjen är inte bara en större Nano.
✅ Upp till 5 gånger högre genomströmning och 2 gånger noggrannhet än föregående version
✅ Latent MoE som ringer fyra gånger så många expertspecialister för samma inferenskostnad
✅ Multi-token-prediktion som dramatiskt minskar genereringstiden
✅ Hybrid Mamba-Transformer-ryggrad ger fyra gånger bättre minne och beräkningseffektivitet
✅ Inbyggd NVFP4-förutbildning optimerad för NVIDIA Blackwell
Kolla in den djupdykande analysen av de arkitektoniska besluten och träningsmetoderna bakom modellen 👇

🦞Dessa innovationer samverkar för att skapa en modell som är väl lämpad för långvariga autonoma agenter.
På PinchBench—ett riktmärke för att utvärdera LLM:er som @OpenClaw kodningsagenter—får Nemotron 3 Super 85,6 % i hela testsviten, vilket gör det till den bästa öppna modellen i sin klass.

@openclaw "NVIDIA Nemotron 3 Super: Den nya ledaren inom öppen, effektiv intelligens"

8 timmar sedan
NVIDIA har släppt Nemotron 3 Super, en 120B (12B aktiv) öppen viktbaserad resonemangsmodell som får 36 poäng på Artificial Analysis Intelligence Index med en hybrid Mamba-Transformer MoE-arkitektur
Vi fick tillgång till denna modell före lansering och utvärderade den utifrån intelligens, öppenhet och inferenseffektivitet.
Viktiga insikter
➤ Kombinerar hög öppenhet med stark intelligens: Nemotron 3 Super presterar starkt för sin storlek och är avsevärt mer intelligent än någon annan modell med jämförbar öppenhet
➤ Nemotron 3 Super fick 36 poäng på Artificial Analysis Intelligence Index, +17 poäng före den tidigare Super-utgåvan och +12 poäng från Nemotron 3 Nano. Jämfört med modeller i en liknande storlekskategori placerar detta den före gpt-oss-120b (33), men bakom den nyligen lanserade Qwen3.5 122B A10B (42).
➤ Fokuserad på effektiv intelligens: vi fann att Nemotron 3 Super hade högre intelligens än gpt-oss-120b samtidigt som den möjliggjorde ~10 % högre genomströmning per GPU i ett enkelt men realistiskt belastningstest
➤ Stöds idag för snabb serverless inferens: leverantörer inklusive @DeepInfra och @LightningAI levererar denna modell vid lansering med hastigheter på upp till 484 tokens per sekund
Modelldetaljer
📝 Nemotron 3 Super har totalt 120,6 miljarder och 12,7 miljarder aktiva parametrar, tillsammans med ett kontextfönster på 1 miljon tokens och stöd för hybridt resonemang. Den publiceras med öppna vikter och en tillåtande licens, tillsammans med öppen träningsdata och metodologi
📐 Modellen har flera designfunktioner som möjliggör effektiv inferens, inklusive användning av hybrida Mamba-Transformer- och LatentMoE-arkitekturer, multi-token-prediktion och NVFP4-kvantiserade vikter
🎯 NVIDIA förtränade Nemotron 3 Super i (för det mesta) NVFP4-precision, men gick över till BF16 för efterträning. Våra utvärderingspoäng använder BF16-vikterna
🧠 Vi jämförde Nemotron 3 Super i dess mest ansträngningsinriktade resonemangsläge ("vanligt"), det mest kapabla av modellens tre inferenslägen (resonerande av, lågansträngning och vanlig)

@openclaw ✨ Nemotron 3 Super finns nu tillgänglig för @Perplexity_ai Pro- och Max-abonnenter i modellväljaren. Den kan också användas via Agent API och Perplexity Computer.
201
Topp
Rankning
Favoriter
