技術 約3分で読めます

NVIDIAがエージェント型AI向けCPU「Vera」を発表

GTC 2026でNVIDIAはエージェント型AI向けに設計した新CPU「Vera」を発表した。従来型CPUと比較して2倍の電力効率と50%の速度向上を実現し、GPUとの密結合を前提としたアーキテクチャが特徴だ。

なぜAI向け専用CPUが必要か

AI推論ワークロードはGPUが主役だが、CPUはオーケストレーション・データ前処理・メモリ管理・エージェントの状態管理など補助的な役割を担う。汎用CPUはこれらのタスクに最適化されておらず、ボトルネックになりやすい。

特にエージェント型AI(自律的にタスクを分解・実行するシステム)では、複数のモデル呼び出しや外部API連携が連続して走る。この場合、GPUを遊ばせないためのオーケストレーション処理のスループットが全体のパフォーマンスを左右する。CEOジェンセン・ファンが「AIが推論し行動する時代の転換点」と表現したのはこの文脈だ。

アーキテクチャの詳細

コア構成

Vera CPUは88個のカスタム設計「Olympus」コアを搭載する。各コアはSpatial Multithreadingと呼ばれる技術で2つのタスクを同時実行できる。スレッドが1つのタスクでメモリ待ちになった際、即座に別タスクに切り替えることで演算器を空けない設計だ。

メモリ帯域幅

従来型CPUとの比較はこうなる。

仕様従来型CPUVera CPU
メモリ規格DDR5LPDDR5X
帯域幅~600GB/s1.2TB/s
消費電力基準約50%削減

LPDDR5Xはモバイル向けの低電力規格をスケールアップしたもので、帯域幅と電力効率を両立する。エージェント処理では大量のコンテキストデータをCPU-GPU間で頻繁にやり取りするため、この帯域幅向上は直接的な性能差になる。

GPU接続

GPUとの接続にはNVLink-C2Cを採用し、1.8TB/sの帯域幅を確保している。PCIe経由の接続と異なり、CPU-GPU間のデータ転送がボトルネックになりにくい。

flowchart LR
    A[Vera CPU<br/>88x Olympus Cores<br/>1.2TB/s LPDDR5X] -->|NVLink-C2C<br/>1.8TB/s| B[NVIDIA GPU<br/>H200/B200等]
    A --> C[エージェント<br/>オーケストレーション]
    A --> D[データ前処理<br/>後処理]
    B --> E[モデル推論<br/>学習]

ラック構成と大規模展開

単体での性能向上だけでなく、ラックスケールでの展開を想定した設計になっている。

新型Vera CPUラックは256個の液冷Vera CPUを統合し、最大22,500個の同時CPU環境を維持できる。データセンターにおけるエージェント型AIのデプロイでは、数千のエージェントが並列動作するシナリオが想定されており、この規模での動作が前提となっている。

採用企業

発表時点で採用を表明した企業は幅広い。

カテゴリ企業
ハイパースケーラーAlibaba、Meta、Oracle Cloud Infrastructure、CoreWeave
システムメーカーDell、HPE、Lenovo、Supermicro
クラウドByteDance、Cloudflare、Crusoe

Cloudflareがこのリストに入っているのは注目に値する。同社はエッジAI推論やMCPサーバーなど、エージェント型AIインフラの構築を積極的に進めており、Vera CPUのユースケースと親和性が高い。

主なユースケース

NVIDIAが想定するVera CPUの用途。

  • コーディングアシスタント(Copilot系のバックエンド)
  • エージェンティック推論(複数ステップタスクの実行)
  • 強化学習(学習ループのオーケストレーション)
  • データ処理パイプライン
  • マルチエージェントオーケストレーション

提供時期

Vera CPUは2026年下半期に採用パートナー各社を通じて利用可能になる予定だ。