技術 約6分で読めます

Anthropicが数GW規模のTPU/ASICインフラをGoogle・Broadcomと構築へ

いけさん目次

Anthropicが2026年4月6日、Google CloudとBroadcomとの提携を拡大し、数ギガワット(GW)規模の次世代TPU容量を確保する新契約を発表した。2027年からの稼働開始を見込んでおり、Anthropic CFOのKrishna Raoは「AIインフラスケーリングにおける最大のコンピュート投資」と表現している。

Hacker Newsでは164ポイントを集めた。

契約の規模感

「数ギガワット」という表現はそれだけだと掴みにくいが、BroadcomのSEC提出資料によれば具体的には3.5GW相当のコンピュート容量だ。これがどのくらい巨大かというと、一般的なデータセンター1棟あたりの電力容量は数十MWから100MW程度。3.5GWは大型データセンター35〜70棟に相当する規模になる。

背景には3月のBroadcom決算がある。CEO Hock Tanが「2026年は好調なスタートを切った」と述べ、Anthropicに対するGoogle製TPU供給で1GW分の容量を提供中だと明かしていた。今回の発表でそれが3.5GWへと大幅に拡大された形だ。

新設容量の大部分は米国内に設置される。これは2025年11月にAnthropicが発表した$50Bの米国コンピュートインフラ投資計画の拡張にあたる。

売上ランレート$30B突破と急成長

この発表と同時に公開されたAnthropicの業績数字がとんでもない。ランレート(年間売上換算額)が$30Bを突破した。2025年末時点で$9Bだったので、わずか4ヶ月で3倍以上に膨れ上がっている。

推移を見るとその加速度がわかる。

時期ランレート
2025年末$9B
2026年2月(Series G)$14B
2026年3月$19B
2026年4月$30B超

月あたり$5B以上のペースで積み上がっている計算になる。2月のSeries G発表時点では年間$1M以上を支出するエンタープライズ顧客が500社超だったのが、今回の発表で1,000社超に倍増した。2ヶ月足らずでの倍増はSaaSの世界でもほぼ前例がない。

Claude Codeのランレートも$2.5B超。2025年5月のパブリックローンチからまだ1年経っていないプロダクトでこの数字は異常だ。

マルチハードウェア戦略

Anthropicの特徴的なアプローチは、特定のチップベンダーに依存しないマルチハードウェア戦略にある。Claudeのトレーニングと推論に使われているハードウェアは3系統ある。

graph LR
    A[Claude<br/>トレーニング+推論] --> B[AWS Trainium<br/>Project Rainier]
    A --> C[Google TPU<br/>今回の契約で大幅拡大]
    A --> D[NVIDIA GPU<br/>汎用GPU]
    B --> E[AWS Bedrock]
    C --> F[Google Vertex AI]
    D --> G[Microsoft Azure Foundry]

ワークロードの特性に応じてチップを使い分けることで、パフォーマンスの最適化とサプライチェーンの耐障害性を両立させている。特にAWSとのProject Rainierは引き続きAnthropicの主要クラウドパートナー兼トレーニングパートナーとして位置づけられており、今回のGoogle/Broadcom拡大がAWSとの関係を置き換えるものではない点をAnthropicは明確にしている。

Claudeが3大クラウド(AWS Bedrock、Google Vertex AI、Microsoft Azure Foundry)すべてで利用可能な「唯一のフロンティアAIモデル」であることも改めて強調された。

TPUとカスタムASIC

今回の契約で使われるのはGoogle TPUとBroadcom製カスタムASICだ。現行のGoogle TPUは第6世代の「Trillium」で、前世代のTPU v5eに対して以下のような性能向上を達成している。

指標Trillium(TPU v6)
ピーク演算性能v5e比4.7倍
HBM容量・帯域v5e比2倍
チップ間インターコネクトv5e比2倍
エネルギー効率v5e比67%以上改善
トレーニングの対コスト性能v5e比2.5倍

1ポッドあたり最大256チップにスケールでき、Google AI Hypercomputerを通じて10万チップ超の大規模クラスタを構成できる。2027年に稼働開始する「次世代」がTrilliumの後継にあたるのか、BroadcomのカスタムASICを指すのかは明示されていないが、The RegisterはBroadcomがGoogleのTPU設計を受託製造している関係性を指摘しており、両者は実質的に一体と見られる。

NVIDIA GPUとの違いを簡単に整理しておく。NVIDIA H100/B200系はCUDAエコシステムの圧倒的な優位性により、PyTorchベースの研究開発では事実上のデファクトだ。しかし大規模プロダクション環境、特に推論ワークロードでは、TPUやカスタムASICのほうがコストパフォーマンスに優れるケースが多い。Anthropicの規模ではチップ単価の数パーセントの差が年間数百億円レベルの差になるため、マルチハードウェア戦略は経済合理性の観点からも必然といえる。

数GW単位のインフラが必要になる理由

なぜAI企業に発電所級の電力が必要なのか。3.5GWは原発3〜4基分に相当する。

フロンティアモデルのトレーニングコストは世代ごとに10倍以上のペースで増大している。GPT-3のトレーニングに必要だった計算量を1とすると、GPT-4クラスは100倍、現在のフロンティアモデルは1,000倍以上と推定されている。さらに推論需要も指数的に増加しており、AnthropicのClaudeは1,000社を超えるエンタープライズ顧客の本番ワークロードを捌いている。

AI専用チップの電力効率は世代ごとに改善されているが、モデル規模と需要の成長速度のほうが速い。結果として、データセンターの電力容量がボトルネックになっている。CoinDeskは「ビットコインマイナーが安い電力の確保で新たなライバルに直面している」と報じており、AIインフラの電力争奪はすでに他産業に波及している。

AIインフラ軍拡競争の中での位置づけ

AI企業のインフラ投資は過去1年で急速にエスカレートしている。

企業投資規模
Microsoft$80Bのデータセンター投資計画(2026年度)
Google$75Bのインフラ投資計画(2026年度)
Meta$60B〜$65Bのインフラ投資計画(2026年度)
AmazonAWS Trainiumカスタムチップ + Project Rainier
Anthropic$50Bの米国コンピュートインフラ投資 + 今回の3.5GW

ハイパースケーラー3社がそれぞれ数百億ドルをインフラに投下する中で、Anthropicはモデル提供者でありながらインフラ投資の規模感でもこの競争に参戦している。OpenAIがStargate JVでMicrosoftのインフラに依存する構造なのに対し、AnthropicはAWS・Google・Microsoftの3社にまたがるマルチクラウド展開を維持しながら、チップレベルでもTrainium/TPU/NVIDIA GPUの3系統を使い分けるという独自のポジションを築いている。

最近の関連ニュースではClaude Codeのサードパーティ締め出しOpenAI Codexの従量課金移行など、AIコーディングツールの収益化競争が激化している。急成長する売上を即座にインフラ投資に回すというAnthropicの戦略は、このランレート$30Bが持続可能であることへの賭けでもある。