NVIDIAがエージェント型AI向けCPU「Vera」を発表
GTC 2026でNVIDIAはエージェント型AI向けに設計した新CPU「Vera」を発表した。従来型CPUと比較して2倍の電力効率と50%の速度向上を実現し、GPUとの密結合を前提としたアーキテクチャが特徴だ。
なぜAI向け専用CPUが必要か
AI推論ワークロードはGPUが主役だが、CPUはオーケストレーション・データ前処理・メモリ管理・エージェントの状態管理など補助的な役割を担う。汎用CPUはこれらのタスクに最適化されておらず、ボトルネックになりやすい。
特にエージェント型AI(自律的にタスクを分解・実行するシステム)では、複数のモデル呼び出しや外部API連携が連続して走る。この場合、GPUを遊ばせないためのオーケストレーション処理のスループットが全体のパフォーマンスを左右する。CEOジェンセン・ファンが「AIが推論し行動する時代の転換点」と表現したのはこの文脈だ。
アーキテクチャの詳細
コア構成
Vera CPUは88個のカスタム設計「Olympus」コアを搭載する。各コアはSpatial Multithreadingと呼ばれる技術で2つのタスクを同時実行できる。スレッドが1つのタスクでメモリ待ちになった際、即座に別タスクに切り替えることで演算器を空けない設計だ。
メモリ帯域幅
従来型CPUとの比較はこうなる。
| 仕様 | 従来型CPU | Vera CPU |
|---|---|---|
| メモリ規格 | DDR5 | LPDDR5X |
| 帯域幅 | ~600GB/s | 1.2TB/s |
| 消費電力 | 基準 | 約50%削減 |
LPDDR5Xはモバイル向けの低電力規格をスケールアップしたもので、帯域幅と電力効率を両立する。エージェント処理では大量のコンテキストデータをCPU-GPU間で頻繁にやり取りするため、この帯域幅向上は直接的な性能差になる。
GPU接続
GPUとの接続にはNVLink-C2Cを採用し、1.8TB/sの帯域幅を確保している。PCIe経由の接続と異なり、CPU-GPU間のデータ転送がボトルネックになりにくい。
flowchart LR
A[Vera CPU<br/>88x Olympus Cores<br/>1.2TB/s LPDDR5X] -->|NVLink-C2C<br/>1.8TB/s| B[NVIDIA GPU<br/>H200/B200等]
A --> C[エージェント<br/>オーケストレーション]
A --> D[データ前処理<br/>後処理]
B --> E[モデル推論<br/>学習]
ラック構成と大規模展開
単体での性能向上だけでなく、ラックスケールでの展開を想定した設計になっている。
新型Vera CPUラックは256個の液冷Vera CPUを統合し、最大22,500個の同時CPU環境を維持できる。データセンターにおけるエージェント型AIのデプロイでは、数千のエージェントが並列動作するシナリオが想定されており、この規模での動作が前提となっている。
採用企業
発表時点で採用を表明した企業は幅広い。
| カテゴリ | 企業 |
|---|---|
| ハイパースケーラー | Alibaba、Meta、Oracle Cloud Infrastructure、CoreWeave |
| システムメーカー | Dell、HPE、Lenovo、Supermicro |
| クラウド | ByteDance、Cloudflare、Crusoe |
Cloudflareがこのリストに入っているのは注目に値する。同社はエッジAI推論やMCPサーバーなど、エージェント型AIインフラの構築を積極的に進めており、Vera CPUのユースケースと親和性が高い。
主なユースケース
NVIDIAが想定するVera CPUの用途。
- コーディングアシスタント(Copilot系のバックエンド)
- エージェンティック推論(複数ステップタスクの実行)
- 強化学習(学習ループのオーケストレーション)
- データ処理パイプライン
- マルチエージェントオーケストレーション
提供時期
Vera CPUは2026年下半期に採用パートナー各社を通じて利用可能になる予定だ。