Przedstawiamy NVIDIA Nemotron 3 Super 🎉 Otwarty model hybrydowy Mamba-Transformer MoE z 120 miliardami parametrów (12 miliardów aktywnych) Natywne konteksty 1M-tokenów Stworzony z myślą o wydajnych obliczeniowo, wysokiej dokładności aplikacjach wieloagentowych Dodatkowo, w pełni otwarte wagi, zbiory danych i przepisy do łatwej personalizacji i wdrożenia. 🧵
To najnowsze uzupełnienie rodziny Nemotron to nie tylko większy Nano. ✅ Do 5x wyższa przepustowość i 2x dokładność w porównaniu do poprzedniej wersji ✅ Latent MoE, który angażuje 4x więcej specjalistów ekspertów za tę samą cenę wnioskowania ✅ Prognozowanie wielo-tokenowe, które dramatycznie skraca czas generacji ✅ Hybrydowy szkielet Mamba-Transformer zapewnia 4x lepszą efektywność pamięci i obliczeń ✅ Rodzime pretrenowanie NVFP4 zoptymalizowane dla NVIDIA Blackwell Zobacz szczegółowe omówienie decyzji architektonicznych i metod szkoleniowych stojących za modelem 👇
🦞Te innowacje łączą się, aby stworzyć model, który jest dobrze dopasowany do długoterminowych autonomicznych agentów. Na PinchBench—benchmarku do oceny LLM jako agentów kodujących @OpenClaw—Nemotron 3 Super uzyskuje wynik 85,6% w całym zestawie testów, co czyni go najlepszym otwartym modelem w swojej klasie.
@openclaw „NVIDIA Nemotron 3 Super: Nowy lider w otwartej, efektywnej inteligencji”
Artificial Analysis
Artificial Analysis8 godz. temu
NVIDIA wydało model Nemotron 3 Super, model rozumowania o otwartych wagach z 120B (12B aktywnych), który uzyskał wynik 36 w Indeksie Sztucznej Analizy Inteligencji z hybrydową architekturą Mamba-Transformer MoE. Mieliśmy dostęp do tego modelu przed premierą i oceniliśmy go pod kątem inteligencji, otwartości i efektywności wnioskowania. Kluczowe wnioski ➤ Łączy wysoką otwartość z silną inteligencją: Nemotron 3 Super osiąga dobre wyniki jak na swój rozmiar i jest znacznie bardziej inteligentny niż jakikolwiek inny model o porównywalnej otwartości. ➤ Nemotron 3 Super uzyskał wynik 36 w Indeksie Sztucznej Analizy Inteligencji, o 17 punktów wyżej niż poprzednia wersja Super i o 12 punktów wyżej niż Nemotron 3 Nano. W porównaniu do modeli w podobnej kategorii rozmiarowej, plasuje się przed gpt-oss-120b (33), ale za niedawno wydanym Qwen3.5 122B A10B (42). ➤ Skoncentrowany na efektywnej inteligencji: stwierdziliśmy, że Nemotron 3 Super ma wyższą inteligencję niż gpt-oss-120b, jednocześnie umożliwiając ~10% wyższą przepustowość na GPU w prostym, ale realistycznym teście obciążeniowym. ➤ Wsparcie dla szybkiego wnioskowania bezserwerowego: dostawcy, w tym @DeepInfra i @LightningAI, oferują ten model od momentu premiery z prędkościami do 484 tokenów na sekundę. Szczegóły modelu 📝 Nemotron 3 Super ma 120,6B całkowitych i 12,7B aktywnych parametrów, a także okno kontekstowe o długości 1 miliona tokenów i wsparcie dla hybrydowego rozumowania. Jest publikowany z otwartymi wagami i liberalną licencją, obok otwartych danych treningowych i ujawnienia metodologii. 📐 Model ma kilka cech projektowych umożliwiających efektywne wnioskowanie, w tym wykorzystanie hybrydowych architektur Mamba-Transformer i LatentMoE, prognozowanie wielotokenowe oraz zquantyzowane wagi NVFP4. 🎯 NVIDIA wstępnie wytrenowało Nemotron 3 Super w (głównie) precyzji NVFP4, ale przeszło na BF16 po treningu. Nasze oceny wykorzystują wagi BF16. 🧠 Przeprowadziliśmy benchmark Nemotron 3 Super w jego trybie rozumowania o najwyższym wysiłku ("regular"), najbardziej zdolnym z trzech trybów wnioskowania modelu (rozumowanie wyłączone, niski wysiłek i regularny).
@openclaw ✨ Nemotron 3 Super jest teraz dostępny dla subskrybentów @Perplexity_ai Pro i Max w rozwijanym menu wyboru modelu. Może być również używany przez Agent API i Perplexity Computer.
192