技術 約10分で読めます

OpenAI CodexがGitHub Copilot類似のメッセージ課金からトークン従量制に移行

いけさん目次

OpenAIが2026年4月2日付でCodexの料金体系を改定した。ChatGPT BusinessおよびEnterprise向けに、従来の「1メッセージあたりNクレジット」方式を廃止し、APIトークン消費量に連動するクレジット課金に切り替えた。公式レートカードで詳細が公開されている。

同時にChatGPT Businessのシート単価を$25から$20に引き下げ、Codex専用シートを新設した。Codex専用シートは固定費ゼロ・レートリミットなしの完全従量制で、使った分だけクレジットで支払う。新規ワークスペースには1人あたり$100、最大$500分のプロモーションクレジットも用意されている(4月30日期限)。

CopilotとCodexは同じモデルから生まれた

CodexとCopilotの課金構造が似ていたのは偶然ではない。両者は同じモデルを起源に持つ。

2021年6月、GitHubはVS Code向けのコード補完ツールとしてCopilotを発表した。バックエンドには、翌月に論文が公開されたOpenAIのCodexモデル(GPT-3を54百万のGitHubリポジトリ、159GBのPythonコードでファインチューニングしたもの)が使われていた。この時点では「Codex = モデル」「Copilot = プロダクト」という関係で、OpenAIがモデルを供給しGitHub/Microsoftがプロダクトを構築する分業だった。

2023年3月、OpenAIは初代Codex APIを廃止。GPT-3.5-TurboやGPT-4のほうがコーディングタスクで優れているという判断だった。Copilotもこれらの新モデルに移行し、2024年にはAnthropicのClaude、GoogleのGeminiなど複数プロバイダーのモデルを選択できるマルチモデル体制に転換した。

2025年5月、OpenAIは「Codex」の名前を再利用し、クラウドベースの自律コーディングエージェントとして全く新しいプロダクトを立ち上げた。初代Codexがコード補完モデルだったのに対し、新Codexはサンドボックス環境でリポジトリ全体を操作し、テストを実行し、PRを作成するエージェントだ。

graph TD
    A[初代Codexモデル<br/>GPT-3ベース 2021年] --> B[GitHub Copilot<br/>コード補完ツール]
    A --> C[Codex API<br/>2023年3月廃止]
    B --> D[マルチモデル化<br/>Claude・Gemini追加 2024年]
    D --> E[Copilot 2026年現在<br/>IDE統合+エージェント機能]
    F[GPT-5系モデル] --> E
    F --> G[新Codex 2025年〜<br/>自律コーディングエージェント]

現在はGPT-5.3-CodexがCopilotとCodexの両方で利用可能だ。同じモデルが、Copilotでは「プレミアムリクエスト1回(1xマルチプライヤ)」として、Codexでは「100万トークンあたり43.75クレジット(入力)」として課金される。同じモデル・同じ計算リソースに対して、プロダクトが異なれば課金単位も異なるという状況が生まれている。

旧体系はCopilotの「プレミアムリクエスト」と同じ構造だった

Codexの旧体系を振り返ると、GitHub Copilotの現行料金モデルと構造がほぼ同じだったことがわかる。

Copilotは「プレミアムリクエスト」という単位でAIモデルの利用を計量している。プランごとに月あたりの上限があり、モデルごとに「マルチプライヤ」(倍率)が設定される。高性能モデルほど1回のリクエストで消費する枠が大きい仕組みだ。

Copilotプラン月額プレミアムリクエスト/月
Free$050
Student$0300
Pro$10300
Pro+$391,500
Business$19/ユーザー300/ユーザー
Enterprise$39/ユーザー1,000/ユーザー

マルチプライヤはモデルごとにこう設定されている。

モデルマルチプライヤ
GPT-4.1, GPT-4o, GPT-5 mini0(無料、無制限)
Claude Haiku 4.5, Gemini Flash0.33
Claude Sonnet 4.6, GPT-5.3-Codex, Gemini 2.5 Pro1
Claude Opus 4.63
Claude Opus 4.6(Fast Mode)30

自動モデル選択(auto model selection)を使うとマルチプライヤが10%割引される。たとえばClaude Sonnet 4.6なら1xが0.9xになる。

たとえばCopilot Proの月300リクエスト枠なら、Claude Sonnet 4.6(1倍)で300回、Claude Opus 4.6(3倍)で100回、GPT-4.1(0倍)なら無制限に使える。枠を超過した場合は1リクエストあたり$0.04の追加課金が発生する。未使用分は翌月に繰り越されない。

graph TD
    A[サブスクリプション<br/>月額固定] --> B[プレミアムリクエスト<br/>月N回の枠]
    B --> C[GPT-4.1<br/>0x = 無料]
    B --> D[Claude Sonnet<br/>1x]
    B --> E[Claude Opus<br/>3x]
    B --> F[枠超過<br/>\$0.04/リクエスト]

Codexの旧体系も同じパターンだった。月額サブスクリプションに含まれるクレジット枠があり、モデルとタスク種別によって消費量が変わる。

Codex旧体系ローカルタスククラウドタスクコードレビュー
GPT-5.4約7クレジット約34クレジット約34クレジット
GPT-5.3-Codex約5クレジット約25クレジット約25クレジット
GPT-5.1-Codex-Mini約1クレジットN/AN/A

両者を横に並べると、構造的な一致がはっきりする。

構造要素Codex旧体系Copilot
課金単位メッセージあたりNクレジットリクエスト×マルチプライヤ
モデル別倍率GPT-5.4: 7、GPT-5.3: 5、Mini: 1Opus: 3x、Sonnet: 1x、Haiku: 0.33x
タスク別倍率ローカル: 1x、クラウド: 約5xChat: 1x、Code Review: 1x、Spark: 4x
高速モードFast Mode = 2倍Opus Fast Mode = 10倍(3x→30x)
利用枠5時間ローリングウィンドウ月間固定(毎月1日リセット)
超過時スロットリング(個人プラン)$0.04/リクエスト追加課金

「固定月額+モデル別の従量枠+超過時のペナルティ」という三層構造は、CopilotもCodexの旧体系も同じだ。Copilotが「プレミアムリクエスト×マルチプライヤ」と呼んでいるものを、Codexは「メッセージ×概算クレジット」と呼んでいたにすぎない。

メッセージ単位課金の限界

この方式がCodexで破綻したのは、コーディングタスクのサイズの分散が大きすぎるためだ。

10行のバグ修正と、リポジトリ全体のリファクタリングでは消費トークン量が桁違いになる。メッセージベースでは両方とも「1メッセージ」としてカウントされるため、小さなタスクを多発するユーザーは割高に、大きなタスクを投げるユーザーは割安になる。クラウドタスクの倍率(ローカルの5〜7倍と見積もられていた)も概算値で、実際の消費量との乖離が読めなかった。

GitHub Copilotのプレミアムリクエストにも同じ構造的弱点がある。Copilotのエージェントモード(Coding Agent)では、1セッションが「1プレミアムリクエスト×マルチプライヤ」としてカウントされるが、セッション内でエージェントが自律的に行うツール呼び出しはカウントされない。10ステップで終わるセッションも100ステップかかるセッションも同じ「1リクエスト」だ。利用者が増えて使い方が多様化するほど、この粒度の粗さがコスト構造を歪める。

Copilotの場合、エージェントセッションではプレミアムリクエストに加えてGitHub Actionsの実行時間も消費する。計算リソースのコストが二重構造になっている点もCodexとの違いだ。

OpenAIはCodexが週200万人規模に達したことで、この歪みを放置できなくなった。

新レートカード

新方式では「100万トークンあたりのクレジット消費量」がモデルごとに定義される。

モデル入力キャッシュ入力出力
GPT-5.462.506.250375
GPT-5.3-Codex43.754.375350
GPT-5.4-Mini18.751.875113
GPT-5.1-Codex-mini6.250.62550

単位はクレジット/100万トークン。Fast Modeを使うとクレジット消費が2倍になる。

キャッシュ入力の割引率が目を引く。通常入力の10分の1のレートだ。Codexは同一リポジトリに対して繰り返しコンテキストを送る性質上、キャッシュヒット率が高くなりやすい。プロンプトキャッシュは、直前のリクエストと共通する入力部分(システムプロンプトやリポジトリのコンテキスト)をサーバー側で再利用する仕組みで、同じプロジェクトで連続して作業するほど効きやすい。この割引が効く場面ではメッセージベース時代より大幅にコストが下がる可能性がある。

一方、GPT-5.4の出力トークンは100万あたり375クレジットと高い。コード生成で大量の出力を要求するタスクではコストが跳ね上がる。利用パターンによって損得が分かれる設計だ。

API直接利用との比較

CodexはChatGPTの認証で使う方法と、APIキーで直接利用する方法がある。APIキーの場合はクレジットではなくドル建てのトークン課金になる。

モデルAPI入力($/1M)APIキャッシュ入力($/1M)API出力($/1M)
gpt-5.1-codex-mini$0.25$0.025$2.00
gpt-5.3-codex$1.75$0.175$14.00
gpt-5.4$2.50$0.25$15.00

APIキー利用のほうがレートとしてはシンプルだが、ChatGPTのプラン(Plus $20、Pro $200)に付帯する利用枠は使えない。チームでの利用なら管理の一元化のためにBusiness経由が自然だが、個人開発者で消費量が読めるならAPIキー直接利用も選択肢に入る。

プランごとの利用枠(レガシー体系)

Plus、Pro、既存のEnterprise/Edu顧客はメッセージベースのレガシー体系が適用される。新レートカードへの移行タイミングは未発表。

プランGPT-5.4メッセージ数GPT-5.3-Codexメッセージ数ウィンドウ
Plus33〜16845〜2255時間
Pro223〜1,120300〜1,5005時間(Plus比6倍)
Business15〜6020〜905時間

レンジがあるのはタスクの種類(ローカル/クラウド)によって消費量が変わるため。Enterprise/Eduは固定のレートリミットなし。

Businessプランのメッセージ数が最も少ないのは、新体系ではトークンベースに移行済みだからだ。レガシー体系のBusiness枠は新規顧客には適用されない。

CodexとCopilot、分岐する課金モデル

旧体系で同じ構造を共有していたCodexとCopilotが、今回の改定で明確に分岐した。

graph TD
    A[共通の原型<br/>メッセージ単位のクレジット制] --> B[OpenAI Codex<br/>2026年4月改定]
    A --> C[GitHub Copilot<br/>2026年4月現在]
    B --> D[トークン従量課金<br/>消費リソースに比例]
    C --> E[プレミアムリクエスト維持<br/>月額枠+マルチプライヤ]

両者が異なる方向に向かった背景には、プロダクトの性質の違いがある。

Codexはクラウド上でリポジトリ全体を対象にした自律的なコーディングエージェントとして動く。1セッションで数千〜数万トークンを消費することもあれば、数百トークンで終わることもある。OpenAIの推計では開発者1人あたり月$100〜$200程度の消費が平均的とされるが、振れ幅は大きい。この不確実性がメッセージ単位の概算課金を不合理にした。

Copilotの主戦場はIDEのインラインコード補完とチャットだ。1インタラクションあたりの消費トークン量はCodexほど大きく振れない。プレミアムリクエスト制でも十分に機能するし、ユーザーにとっても「月300回」「月1,500回」という分かりやすい枠のほうがコスト予測を立てやすい。

ただしCopilotもエージェント機能(Coding Agent、/fleetコマンドによる並列エージェントなど)を次々と追加している。エージェントが自律的に長時間動くユースケースが増えれば、Codexと同じ問題に直面する。Copilotもいずれトークンベースに移行する可能性は十分ある。

3社の課金構造比較

数日後の4月4日、Anthropicは逆にClaude Codeのサブスクリプションからサードパーティハーネスを締め出した。サブスク定額枠からの利用を制限し、サードパーティにはAPI従量課金を求める方針だ。3社を並べると、課金の粒度と方向性がそれぞれ異なる。

項目OpenAI CodexGitHub CopilotAnthropic Claude Code
チーム向けトークン従量課金プレミアムリクエスト制(月額枠+超過$0.04)サブスク定額+サードパーティのみ従量
個人メッセージ枠(レガシー)プレミアムリクエスト枠サブスク定額枠
課金粒度トークン単位リクエスト×マルチプライヤサブスク or APIトークン
サードパーティ歓迎Copilot Extensions経由サブスク外、API従量課金
シート単価の動き$25→$20に値下げ据え置き据え置き(Max $200)

OpenAIが最も細かいトークン単位、Copilotがリクエスト×マルチプライヤの中間粒度、Anthropicがサブスク定額+API従量の二重構造。粒度が細かいほどコスト管理の透明性は上がるが、ユーザーにとっての月額予測はしづらくなる。

OpenAIが「使った分だけ全員同じレートで」という透明性を打ち出す一方で、Anthropicは「公式クライアント優遇、サードパーティは別料金」という構造になっている。Copilotはその中間で、プレミアムリクエストという「分かりやすい通貨」でマルチモデル対応のコスト差を吸収している。


AIがないとプログラム組めないって状態にしてから課金システムいじる気がしたんだよなあ、とは前から思っていた。週200万人が使ってるタイミングで「メッセージ単位やめます、トークン従量にします」は、まあそうなるよなという感じ。Copilotも同じ構造的弱点を抱えてるので、次はあっちだろう。