技術 約12分で読めます

ソフトバンク・NEC・ホンダ・ソニーが国産AI新会社「日本AI基盤モデル開発」を設立

いけさん目次

2026年4月12日、ソフトバンク・NEC・ホンダ・ソニーグループの4社を中核に、国産AIの基盤モデルを開発する新会社「日本AI基盤モデル開発」が設立された。
3メガバンクや日本製鉄、神戸製鋼所も出資し、AI開発企業プリファードネットワークス(PFN)がモデル構築で連携する。
経済産業省が5年間で約1兆円を支援し、官民合計で約3兆円規模のプロジェクトになる。

狙いは、ChatGPTのような対話型AIではない。
ロボットや機械を自律的に制御する「フィジカルAI」の基盤モデルを、日本の産業データを使って構築するという戦略だ。

新会社の概要

項目内容
会社名日本AI基盤モデル開発
所在地東京・渋谷
中核4社ソフトバンク、NEC、ホンダ、ソニーグループ(各十数%出資)
その他出資三菱UFJ銀行、三井住友銀行、みずほ銀行、日本製鉄、神戸製鋼所
開発連携プリファードネットワークス(PFN)
開発体制約100人規模のAI技術者を集約
代表ソフトバンク出身幹部が社長に就任
目標1兆パラメーター級の基盤モデル開発

中核4社がそれぞれ十数%を出資して経営責任を共有し、残りを他の出資企業が分担する構成になっている。

各社の役割分担はこうなっている。

企業役割
ソフトバンク・NECAIの基盤モデル構築を主導。計算基盤とデータセンターはソフトバンクが提供
ホンダ・ソニーグループ完成した基盤モデルを自社の製品・サービスに実装。自動運転、汎用ロボット、ゲーム・エンタメ、半導体など
PFNモデルアーキテクチャの設計・開発で技術連携

開発したモデルは出資企業だけでなく、日本企業全体に広く提供する想定だ。
NEDOが公募中の「AIロボット・フィジカルAIを見据えたマルチモーダル基盤モデル開発事業」に近く応募する予定で、採択されれば最大3,834億円の支援を受けられる。

フィジカルAIとは何か

フィジカルAIは、NVIDIAのジェンスン・フアンCEOが提唱した概念で、現実世界の物理法則を理解し、ロボットや機械を自律的に制御するAIを指す。
ChatGPTやClaudeのようなテキスト生成AIが「デジタル空間」で動作するのに対し、フィジカルAIは「物理空間」で動作する。

graph TD
    A[AI基盤モデル] --> B[言語AI<br/>テキスト生成・対話]
    A --> C[フィジカルAI<br/>物理世界の制御]
    B --> D[ChatGPT<br/>Claude<br/>Gemini]
    C --> E[自動運転]
    C --> F[産業用ロボット]
    C --> G[建設機械]
    C --> H[汎用ヒューマノイド]
    E --> I[環境認識と<br/>経路計画]
    F --> J[組立・搬送の<br/>自律制御]
    G --> K[地形認識と<br/>作業判断]
    H --> L[多関節の<br/>協調動作]

フィジカルAIに必要な主な技術要素を整理する。

技術要素内容具体例
マルチモーダル認識カメラ・LiDAR・触覚センサー等の複合データを統合的に理解する工場内の障害物検知、部品の姿勢推定
世界モデル物理法則のシミュレーションに基づき、行動の結果を予測する「この角度で掴むと落ちる」という事前推論
リアルタイム制御ミリ秒単位の応答でアクチュエーターを動かすロボットアームの軌道修正、車両の操舵

従来の産業用ロボットはプログラムされた動作を繰り返すだけだったが、フィジカルAIは環境の変化に自律的に適応できる。
たとえば工場の搬送ロボット(AMR)なら、人が通路を横切っても即座にルートを再計算して回避する。

NVIDIAはこの分野でIsaac(ロボティクス)、DRIVE(自動運転)、Omniverse(デジタルツイン)といったプラットフォームを展開しており、フィジカルAIのエコシステムをGPU上に構築している。
韓国の現代自動車は2028年までにAI搭載ロボットを年3万台量産すると宣言しており、グローバルな競争は加速している。

日本がフィジカルAIに賭ける理由

汎用的な大規模言語モデル(LLM)の開発では、米国のOpenAI・Google・Anthropicと中国のDeepSeekが圧倒的に先行している。
投資規模の差は歴然で、日本のAI投資総額は米国の約30分の1しかない。

GPT-4のパラメーター数は推定1.8兆、DeepSeek-V3は6,710億。
資金力で真っ向勝負しても勝ち目は薄い。

そこで日本が選んだのが「フィジカルAI特化」という非対称戦略だ。

graph LR
    A[日本の強み] --> B[製造業の<br/>高品質産業データ]
    A --> C[ロボティクスの<br/>技術蓄積]
    A --> D[素材・精密機器の<br/>知見]
    B --> E[工場稼働データ<br/>品質検査データ<br/>設備センサーデータ]
    C --> F[ホンダの自動運転<br/>ソニーのセンシング<br/>PFNの制御AI]
    D --> G[日本製鉄の素材<br/>神戸製鋼の機械<br/>製造プロセス]
    E --> H[フィジカルAI<br/>基盤モデル]
    F --> H
    G --> H

日本の製造業が数十年にわたり蓄積してきた産業データ(設備の稼働ログ、品質検査の画像、センサーの時系列データなど)は、テキストデータとは異なり公開されていない。
このデータを使って学習させた基盤モデルは、英語のWebクロールで学習した汎用LLMには作れない。

出資企業の顔ぶれを見ると、この戦略が具体的に見えてくる。

企業強み
ホンダ自動運転、ヒューマノイドロボットASIMOの技術蓄積
ソニーグループaiboのロボティクス、イメージセンサー技術、PlayStation向けAI
日本製鉄・神戸製鋼所鉄鋼・素材製造の膨大なプロセスデータ
3メガバンク金融データの提供と資金面での支援

LLM開発で米中と競うのではなく、「日本の産業データ × フィジカルAI」という土俵を作ろうという狙いだ。

計算基盤とデータセンター

1兆パラメーター級のモデルを訓練するには、大規模なGPUクラスターが不可欠になる。
ソフトバンクはこの計算基盤を自前で整備する方針を打ち出している。

拠点内容規模
大阪・堺旧シャープ液晶パネル工場をデータセンターに転用受電容量150MW、将来250MW超
北海道・苫小牧新設のAIデータセンター詳細未公表

堺のデータセンターは2025年にソフトバンクがシャープから約1,000億円で取得した約45万平方メートルの敷地に建設される。
延べ床面積約84万平方メートルで、2026年中の稼働開始を予定している。
ソフトバンクは2026年度から6年間でデータセンターに約2兆円を投じる計画だ。

ちなみに同じシャープ堺工場の別区画はKDDIも取得しており、2026年1月にAIデータセンターとして稼働を開始している。
旧液晶工場が日本のAIインフラの中核拠点に化けつつある。

さらにMicrosoftも2026年4月、日本のAIインフラに100億ドル(約1.5兆円)を投資すると発表した。
さくらインターネットやソフトバンクと提携し、AI計算リソース(GPU)を国内で提供する。

政府の支援体制

今回の国産AI開発は、政府の「人工知能基本計画」に基づく国家プロジェクトとして位置づけられている。

graph TD
    A[経済産業省] --> B[NEDO]
    B --> C["フィジカルAI基盤モデル<br/>開発事業<br/>(最大3,834億円)"]
    B --> D["GENIAC<br/>(生成AI開発支援)"]
    A --> E["5年間で約1兆円<br/>(2026〜2030年度)"]
    E --> F["2026年度予算<br/>約3,000億円"]
    F --> G[GX経済移行債が財源]
    C --> H["日本AI基盤モデル開発<br/>(新会社)"]
    D --> I[採択済み24事業者<br/>楽天・NRI等]

NEDOが公募中の「AIロボット・フィジカルAIを見据えたマルチモーダル基盤モデル開発事業」は、2026年度の単年度で最大3,834億円という破格の予算を持つ。
事業期間は2026年度から2030年度末までの5年間で、年次のステージゲート審査がある。
開発トラック(実際にモデルを開発・提供)と探索トラック(先端技術の研究・調査)の2本立てだ。

これとは別に、経産省はGENIAC(Generative AI Accelerator Challenge)というプログラムも2024年から運用しており、第3期では楽天や野村総研を含む24事業者を採択している。
GENIACは計算資源の提供やデータセット整備が中心で、今回のフィジカルAI事業はその上位に位置する大型プロジェクトだ。

本当に勝てるのか

ここまで整理すると壮大な構想だが、課題も多い。

パラメーター数だけでは勝負が決まらない。
DeepSeek-V3は6,710億パラメーターでGPT-4oに匹敵する性能を出し、訓練コストはGPT-4の約17分の1(600万ドル vs 1億ドル)だった。
パラメーター数を積み上げるだけでは効率の悪いモデルになりかねない。
アーキテクチャの工夫やMoE(Mixture of Experts: 入力に応じて一部の専門パラメーターだけを活性化させる手法)の設計がモデル性能を左右する時代に入っている。

人材100人で足りるのか。
OpenAIの従業員は3,000人超、DeepSeekも数百人規模。
100人という体制は国内のトップ人材を集約するにしても小さい。
ただし、PFNや各社の社内チームが外部から協力する形になるため、実質的な開発リソースはもう少し大きくなる可能性はある。

産業データの壁。
日本企業が持つ産業データは確かに貴重だが、そのデータを社外の新会社に提供するハードルは高い。
製造業のデータは企業秘密の塊で、データの匿名化・クレンジング・フォーマット統一だけでも大きなコストがかかる。
「高品質な産業データが強み」という戦略が実際のデータパイプラインに落ちるまでにどれだけ時間がかかるかは未知数だ。

タイミング。
2020年代中に1兆パラメーター級モデルを完成させる計画だが、米中は2026年時点ですでにその領域にいる。
完成する頃には競争の前線がさらに先に進んでいる可能性が高い。
フィジカルAI特化という「土俵をずらす」戦略が機能するかどうかが鍵になる。

言語AIの層はすでに厚い

新会社はフィジカルAI特化だが、日本の言語AI開発はすでにかなりの厚みがある。
中核メンバーやその周辺だけでも、スクラッチ学習のモデルが複数動いている。

組織モデル
PFNPLaMo 2.0(31B、スクラッチ学習)
NECcotomi v3(スクラッチ学習)
NIILLM-jp-4(32B MoE、11.7兆トークン学習。MT-Bench JAでGPT-4oを上回る7.82)
NVIDIANemotron Nano 9B Japanese(10B以下で日本語性能1位)

PFNとNECのモデルはさくらインターネットの「さくらのAIエンジン」でAPI利用可能。
NIIのLLM-jp-4はApache 2.0で完全オープン、商用LLMの合成データ不使用という設計だ。

フィジカルAI基盤モデルは言語AIの延長線上にある。
テキスト理解に加えて、カメラ・LiDAR・触覚センサーのデータを統合するマルチモーダル処理が必要になる。
PFNが技術連携パートナーとして入っているのは、PLaMoで培ったスクラッチ学習のノウハウをフィジカルAI向けに転用する狙いだろう。

一方で、GENIACから補助金を受けたRakuten AI 3.0がDeepSeek-V3ベースだと判明して炎上した件は記憶に新しい。
「国産」を名乗るなら、何がオリジナルで何を借りているのかを最初から開示する透明性が今回の新会社にも問われる。

モデルの「出口」はすでに整いつつある

1兆パラメーターの基盤モデルを作っても、使われなければ意味がない。
この点で、国内のAI配信インフラはここ1年で急速に整備が進んでいる。

さくらインターネットの「さくらのAIエンジン」は、国産LLMをOpenAI API互換で提供するプラットフォームだ。
LLM-jp-3.1、PLaMo 2.0、cotomi v3がすでにAPI経由で利用でき、
データは国内データセンターで完結するため、海外クラウドにデータを出せない自治体や金融機関の案件でも採用できる。
月3,000リクエストまで無料枠があり、個人開発者でも手が出しやすい。

新会社のフィジカルAI基盤モデルが完成した場合、こうした既存のAPIインフラに乗せて即座に展開できる可能性がある。
配信基盤を一から構築する必要がないのは、地味だが大きなアドバンテージだ。

もうひとつの出口は、エッジ推論。
フィジカルAIはロボットや自動運転車の上で動くものだから、クラウドへの往復遅延は許容できない。
モデルをデバイス上で直接実行する必要がある。

この点でも選択肢は増えている。
NVIDIAのNemotron Nano 9B JapaneseはGPU1枚で動く9Bモデルで、Nejumi Leaderboard 4の10B以下カテゴリ1位。
Liquid AIのLFM2.5-JP(1.2B)はConvolution+Attentionのハイブリッドアーキテクチャで、CPUでもTransformer比約2倍の速度が出る。

大規模な基盤モデルで学習し、蒸留やMoEで軽量化してエッジに展開する——
このパイプラインの成否が、フィジカルAIの実用化を左右する。
日本語に特化した小型モデルの選択肢がすでに揃い始めているのは、基盤モデル開発にとっての追い風だ。

ソフトバンクとOpenAIの距離感

ここまで読んで引っかかる点がひとつある。
ソフトバンクはOpenAIの大株主でもある。

2025年、ソフトバンクはOpenAIへ合計400億ドル(約6兆円)を投じ、Microsoftに次ぐ第2位の外部株主になった。
持ち株比率は10%超。
同年1月にはOpenAI・Oracleと共同で「Stargate」プロジェクトを立ち上げ、米国内のAIデータセンターに最大5,000億ドル(約75兆円)規模の投資を進めている。
2026年1月にはさらに最大300億ドルの追加出資を交渉中とも報じられた。

日本国内でもOpenAIとの関係は深い。
2025年11月に設立された合弁会社「SB OAI Japan」は、OpenAIのエンタープライズAI「クリスタル・インテリジェンス」を2026年中に日本企業向けへ独占展開する計画だ。

つまりソフトバンクの現在のポジションはこうなっている。

ポジション内容
OpenAI側400億ドル出資の大株主。米国ではStargate、日本ではSB OAI Japanを通じてOpenAI技術を展開
国産AI側新会社「日本AI基盤モデル開発」の中核出資者。フィジカルAI基盤モデルの開発をリード

OpenAIのAIを日本で売りながら、国産AIの開発も主導する。
これは利益相反ではないのか。

ソフトバンクの整理は「レイヤーが違う」というものだ。
OpenAIは言語AI、新会社はフィジカルAI。
対象市場が異なるから競合しない、と。

ただ、この棲み分けがいつまで持つかは疑問が残る。
OpenAIもロボティクスやマルチモーダルに手を広げており、フィジカルAI領域に参入しない保証はどこにもない。
逆に、新会社の基盤モデルが優秀なら言語AI領域への応用も当然あり得る。
「レイヤーが違う」は現時点のスナップショットであって、構造的な保証ではない。

もうひとつ気になるのは政府資金の流れだ。
NEDOから最大3,834億円の公的資金が注がれる可能性があるプロジェクトの中核に、OpenAIの大株主が座っている。
新会社で得た技術知見がOpenAI側に流れるリスク、あるいはソフトバンクのインフラ投資が実質的にOpenAIの利益にも寄与する構造は、少なくとも説明責任が求められるポイントだろう。

孫正義の戦略を好意的に読めば、「どちらが勝ってもソフトバンクが勝つ」ポジションの構築だ。
米国のLLM覇権はOpenAIに賭け、日本のフィジカルAI覇権は自ら作る。
ソフトバンクにとっては合理的なヘッジだが、「国産AI」を旗印にする新会社の中核としては、立場の透明性が問われ続けることになる。

関連記事