NVIDIA Nemotron 2 Nano 9B Japanese - 10B以下で日本語性能トップのソブリンAIモデル
NVIDIAが日本語特化の小規模言語モデル「Nemotron-Nano-9B-v2-Japanese」を公開した。Nejumi Leaderboard 4(日本語LLMの主要ベンチマーク)において、10B以下のパラメータカテゴリで1位を獲得している。
9Bパラメータという手頃なサイズでありながら、日本語性能がトップクラスというのがこのモデルの最大のポイントだ。エッジGPUでも動作可能で、オンプレミスでの企業利用を強く意識した設計になっている。
アーキテクチャと技術仕様
ベースモデルはNemotron-Nano-9B-v2で、TransformerとMambaのハイブリッドアーキテクチャを採用している。
| 項目 | 仕様 |
|---|---|
| パラメータ数 | 9B(90億) |
| スループット | オープンソース代替比で最大6倍 |
| 推論 | エッジGPU対応 |
| ツール呼び出し | 構造化データ生成に最適化 |
| ファインチューニング | 手頃な計算インフラで実施可能 |
スループットが同等サイズのオープンソースモデルと比較して最大6倍というのは、Mambaアーキテクチャの恩恵が大きいと思われる。特に長いコンテキストでの推論効率に差が出るはずだ。
日本語学習データ
継続事前学習には以下のコーパスが使われている。
日本語オープンソースコーパス
- Wikipedia(日本語版)
- fineweb-2 Japanese
- 青空文庫(Aozorabunko)
- SIP3-ja-general-web-corpus
NVIDIAのデータセット
- Nemotron-CC-v2.1
- Nemotron-Pretraining-Specialized-v1
日本のオープンソースLLMコミュニティであるLLM-jpの資産も活用されている。青空文庫が学習データに含まれているのは面白い。古典的な日本語テキストが含まれることで、現代日本語だけでなく幅広い語彙や文体に対応できる可能性がある。
教師あり微調整(SFT)
SFTの段階では「Nemotron-Personas-Japan」というデータセットが使われている。600万のペルソナに基づいて構築されたもので、日本の実世界における人口統計データ(地理的分布・性格特性の多様性)を反映している。CC BY 4.0ライセンスで公開されており、これ自体も利用価値がある。
ツール呼び出し用のデータセットもこのペルソナをシードとして生成されており、エージェント利用を前提とした設計思想が見える。
ベンチマーク結果
Nejumi Leaderboard 4では約40のベンチマークで評価されている。
- 基礎的言語能力: 日本語の理解と生成
- エージェント能力: コード生成、数学的推論、ツール利用
- アライメント: 指示追従、バイアス、毒性、真実性、堅牢性
Qwen3-8Bなど同等サイズのモデルを上回る結果が出ている。特にツール呼び出しとコーディングで強みを発揮しているとのこと。
開発に使われたツールチェーン
Megatron-LM: 継続事前学習およびSFT
NeMo Curator: データ前処理とフィルタリング
NeMo Framework: カスタマイズ(Megatron-Bridge、AutoModel、NeMo-RL)
NVIDIAの自社ツールチェーンで一貫して開発されている。同じツールを使ってファインチューニングも可能なので、企業がドメイン特化で微調整する際のハードルは低い。
想定ユースケース
- 顧客対応エージェント
- 社内自動化ツール
- ドメイン特化型アシスタント
- マルチエージェントシステムのプロトタイピング
9Bという小さなモデルでありながらエージェント能力が高いため、マルチエージェント構成のノードとして使うのにも適している。大規模モデルのオーバーヘッドなしに、複雑なワークフローを組める。
10B以下で日本語1位、RTX 4090の1GPUで動く、ツール呼び出しが強い。エージェント用のローカルモデルとしてかなり魅力的。NVIDIAが「ソブリンAI」を前面に出してきているのも印象的だ。