OpenAIがAPIでGPT-5.5とGPT-5.5 Proをリリース
目次
OpenAIのAPI Changelogに、2026年4月24日付でGPT-5.5とGPT-5.5 Proが出た。
Hacker Newsなどでも話題だが、まずは公式のChangelogとGPT-5.5のモデルページ、GPT-5.5 Proのモデルページの確認が必要になる。
今回は単なるモデル追加ではなく、reasoning effortのデフォルト値、画像入力の解像度、キャッシュ方式、長コンテキストの料金体系、Pro版におけるAPIの制約などが変わっている。
既存のGPT-5.4系からそのまま差し替えると、品質より先にレイテンシや請求で想定外の挙動になる可能性がある。
Responses APIでの利用が前提
API Changelog上の公開日は2026年4月24日。
gpt-5.5 はChat Completions API、Responses API、Batch APIで使える一方、gpt-5.5-pro はResponses API(とBatch)に限定される。
| モデル | 主な用途 | 対応の中心 | 入力 | 出力 | コンテキスト |
|---|---|---|---|---|---|
gpt-5.5 | 複雑な業務、コーディング、ツール利用 | Chat / Responses / Batch | テキスト、画像 | テキスト | 1,050,000 |
gpt-5.5-pro | より重い推論、時間をかける難問 | Responses / Batch | テキスト、画像 | テキスト | 1,050,000 |
最大出力はどちらも128,000トークン、知識カットオフは2025年12月1日。
1M級コンテキスト自体は、AnthropicがClaude 1Mコンテキストウィンドウを正式GAし、XiaomiのMiMo-V2.5も1Mコンテキストを先行公開するなど珍しくなくなってきたが、OpenAIの場合はResponses APIの組み込みツール群と合わせて1Mを使える点が大きい。
Changelogを見ると、GPT-5.5はStructured Outputs、Function Calling、Prompt Cachingに加えて、Tool SearchやBuilt-in Computer Use、Hosted Shellなどの機能に対応している。
公式のUsing GPT-5.5でも、reasoningやtool callingのユースケースではResponses APIを使うよう案内されている。
NVIDIA NIMの無料推論APIなどOpenAI互換エンドポイントはChat Completionsで広がっているが、GPT-5.5の強みを活かすならResponses APIの機能を使うことになる。
Pro版は非同期処理向けの特化モデル
GPT-5.5 Proは通常版の単純な高性能版ではなく、API上の使い方が異なる。
より多くの計算資源を使って精密な応答を出す分、リクエストに数分かかることがあり、タイムアウト回避のためにBackground modeを使うよう案内されている。
| 項目 | GPT-5.5 | GPT-5.5 Pro |
|---|---|---|
| 入力単価 | $5.00 / 1Mトークン | $30.00 / 1Mトークン |
| キャッシュ入力 | $0.50 / 1Mトークン | 割引なし |
| 出力単価 | $30.00 / 1Mトークン | $180.00 / 1Mトークン |
| Streaming | 対応 | 非対応 |
| Apply Patch | 対応 | 非対応 |
| Skills | 対応 | 非対応 |
| Computer Use | 対応 | 非対応 |
| Tool Search | 対応 | 非対応 |
Streamingや一部のツール利用が非対応となっており、広くツールを使うエージェントなら通常のGPT-5.5のほうが扱いやすい場面がある。
また、GPT-5.5 Proは入力・出力単価が通常版の6倍で、キャッシュ入力割引もないため、長い共通プロンプトを何度も使うワークロードではコスト差が顕著に出る。
過去にCodexがメッセージ課金からトークン従量制へ移行したときと同じく、モデル単価だけでなくキャッシュの効きや待機時間まで含めて選ぶ必要がある。
reasoning.effort のデフォルトが medium に
GPT-5.5では reasoning.effort のデフォルトが medium になっている。
低レイテンシが求められる処理や、軽い情報抽出の用途では、デフォルトのままだと余計な推論時間を消費する可能性がある。
公式ガイドは、レイテンシが重要でもツール利用や複数ステップの判断が残るなら、いきなり none にせず low を試すよう勧めている。
逆に複雑なタスクでは high や xhigh が候補になるが、停止条件が曖昧だと過剰な探索で逆効果になることもある。
既存のGPT-5.4系からのドロップイン置換として扱うのではなく、代表的なタスクで low / medium / high を測り直したほうがいい。
画像入力のデフォルト挙動の変化
image_detail が未指定、または auto の場合、GPT-5.5ではより多くの視覚情報を保持する original 相当の挙動になった。
最大10,240,000ピクセル、または6,000ピクセルの寸法制限まで、画像をリサイズせずに扱う。
(high を明示した場合は最大2,500,000ピクセル、または2,048ピクセルの制限になる)
Computer Useなどのスクリーンショット解析には有利だが、画像を大量に投げるワークロードでは入力トークンが増加する。
コストとレイテンシを固定したいなら image_detail を明示したほうがいい。
キャッシュと長コンテキストの制約
Changelogによると、GPT-5.5のキャッシュは extended prompt caching でのみ機能し、 in-memory prompt caching はサポートしない。
通常版はキャッシュ入力が100万トークンあたり$0.50となり通常入力の10分の1に下がるため、同じ前置きやツール定義を繰り返すエージェント設計で実効単価が大きく変わる。
ただし、272K入力を超えるプロンプトでは、GPT-5.5の標準、Batch、Flexの全セッションに対して入力が2倍、出力が1.5倍の価格になる。
コンテキスト上限が1Mあるからといって情報をすべて詰め込むと高くつくため、事前の検索レイヤーで情報を絞るなどの対策が必要になる。