热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
介绍 NVIDIA Nemotron 3 Super 🎉
开放 120B 参数(12B 活动)混合 Mamba-Transformer MoE 模型
原生 1M 令牌上下文
为计算高效、高准确度的多智能体应用而构建
此外,完全开放的权重、数据集和配方,便于定制和部署。🧵
这款最新的Nemotron家族成员不仅仅是一个更大的Nano。
✅ 比上一版本的吞吐量高出5倍,准确度提高2倍
✅ 潜在的MoE以相同的推理成本调用4倍的专家
✅ 多标记预测显著减少生成时间
✅ 混合Mamba-Transformer骨干网提供4倍的内存和计算效率提升
✅ 原生NVFP4预训练针对NVIDIA Blackwell进行了优化
查看关于模型架构决策和训练方法的深入分析 👇

🦞这些创新结合在一起,创造了一个非常适合长期运行的自主代理的模型。
在 PinchBench——一个用于评估 LLM 作为 @OpenClaw 编码代理的基准——Nemotron 3 Super 在整个测试套件中得分 85.6%,使其成为同类中最好的开放模型。

@openclaw “NVIDIA Nemotron 3 Super:开放、高效智能的新领袖”

14 小时前
NVIDIA 发布了 Nemotron 3 Super,这是一款 120B(12B 激活)开放权重推理模型,采用混合 Mamba-Transformer MoE 架构,在人工智能指数中得分为 36 分
我们在发布前获得了该模型的访问权限,并在智能性、透明度和推理效率方面进行了评估。
主要要点
† 结合高开放性与强智能:Nemotron 3 Super以其体积来说表现优异,智能远超其他同等开放性型号
† Nemotron 3 Super 在人工智能分析指数中得分 36 分,比上一版 Super 高出 +17 分,比 Nemotron 3 Nano 高出 +12 分。与同尺寸类别的型号相比,这使其领先于GPT-OSS-120B(33),但落后于最近发布的Qwen3.5 122B A10B(42)。
仅关注高效智能:我们发现Nemotron 3 Super的智能比GPT-OSS-120b更高,同时在简单但真实的负载测试中实现了每GPU吞吐量约10%的提升
† 目前支持快速无服务器推理:包括@DeepInfra和@LightningAI在内的供应商在该模型发布时提供最高484个令牌/秒的速度
模型详情
📝 Nemotron 3 Super 拥有 1.206 亿总参数和 1270 亿活跃参数,并支持 100 万令牌上下文窗口和混合推理支持。该报告以开放权重和许可发布,同时提供开放训练数据和方法论披露
📐 该模型具有多项设计特征,支持高效推理,包括采用混合Mamba-Transformer和LatentMoE架构、多词预测以及NVFP4量化权重
🎯 NVIDIA 对 Nemotron 3 Super 进行了(大部分)NVFP4 精度的预训练,但后期训练转至 BF16。我们的评估分数采用BF16权重
🧠 我们对Nemotron 3 Super的最高努力推理模式(“常规”)进行了基准测试,这是模型三种推理模式(推理测试、低努力和常规)中最有能力的

@openclaw ✨ Nemotron 3 Super 现在可以在模型选择下拉菜单中供 @Perplexity_ai Pro 和 Max 订阅者使用。它也可以通过 Agent API 和 Perplexity Computer 使用。
266
热门
排行
收藏
