Nemotron 3 Super: Open, Efficient Mixture-of-Experts Hybrid Mamba-Transformer Model for Agentic Reasoning
Qiita / 2026/4/21
💬 オピニオンSignals & Early TrendsModels & Research
要点
- NVIDIAの研究として「Nemotron 3 Super」を紹介し、エージェント的推論を意識したモデル設計のメモである。
- Mixture-of-Experts(MoE)とMamba-Transformerのハイブリッドにより、効率性を高めつつ推論能力を狙う方針が示されている。
- NVFP4(低精度フォーマット)を用いた低精度学習を行っている点が重要な技術要素として挙げられている。
- 元論文(alphaxiv.org/overview/2604.12374)をベースに、内容の要点を整理する形式の記事である。
https://www.alphaxiv.org/overview/2604.12374 を読んだメモです。
書誌情報
研究機関:NVIDIA
Nemotron 3 SuperはNVFP4での低精度学習をしている
Mamba2, LatentMoE, Attent...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →


