GPT-5.5 のためのペリカン —— 準公式の Codex バックドア API 経由で
2026年4月23日
GPT-5.5 はリリースされました。OpenAI Codex で利用でき、Paid の ChatGPT サブスクに順次展開中です。私はいくつかプレビューのアクセスも試してみましたが、速くて効果的で、非常に高い能力を備えたモデルだと感じました。いつものように、良いところを言葉で説明するのは難しいのですが、こちらが何かを作るよう頼むと、こちらが求めた通りのものをちゃんと作ってくれるんです!
今回のリリースで目立つ欠落が1つあります——それは API:
API のデプロイには異なるセーフガードが必要であり、大規模に提供するための安全性およびセキュリティ要件について、パートナーや顧客と密に連携して取り組んでいます。GPT‑5.5 と GPT‑5.5 Pro を、まもなく API にも提供します。
私が pelican ベンチマーク を実行するときは、いつも API を使うことを好みます。ChatGPT や他のエージェント用ハーネスに含まれる隠れたシステムプロンプトが、結果に影響するのを避けるためです。
OpenClaw バックドア
ここ数か月の AI 世界で継続的に問題になっている緊張ポイントの1つは、OpenClaw や Pi のようなエージェント用ハーネスが、大手プロバイダーが提供する API とどのようにやり取りするのか、という点です。
OpenAI と Anthropic の両方は人気のある月額サブスクリプションを提供しており、それによって生の API に比べて大幅な割引価格で自社のモデルにアクセスできます。
OpenClaw はこの仕組みに直接統合していましたが、そして Anthropic によってそれができないようにブロックされました。これが一連の騒動を引き起こしました。最近 OpenClaw の制作者 Peter Steinberger を採用した OpenAI は、手軽な「手柄(karma)」を取れるチャンスだと見て、OpenClaw は(オープンソースの)Codex CLI ツールで使われているのと同じ仕組みを通じて OpenAI のサブスクリプションに引き続き統合してよい、と発表しました。
つまり、誰でも、OpenAI の Codex 固有の API に統合して、既存のサブスクリプションにフックするコードを書けるということなのでしょうか?
先日 Jeremy Howard が尋ねました:
Pi と Opencode(IIUC)が使っている
/backend-api/codex/responsesエンドポイントの利用について、OpenAI は公式にサポートしているか知っている人はいますか?
すると、3月30日に OpenAI の Romain Huet が ツイートしていました:
人々が Codex を、ChatGPT のサブスクリプションと一緒に、好きな場所で使えるようにしたいんです!つまりアプリ内だけでなく、ターミナルでも、JetBrains や Xcode、OpenCode、Pi、そして今は Claude Code でも使えるということ。
だから Codex CLI と Codex アプリサーバーもオープンソースなんです!
そして Peter Steinberger は Jeremy に返信して:
OpenAI のサブスクは公式にサポートされています。
llm-openai-via-codex
というわけで……私は Claude Code に openai/codex リポジトリを逆コンパイルさせ、認証トークンがどのように保存されているのかを突き止めてから、llm-openai-via-codex を作りました。これは LLM 用の新しいプラグインで、既存の Codex サブスクリプションを引き継ぎ、それを使ってプロンプトを実行します!
(振り返ってみると、冗談としてやるなら、プロジェクトを Codex と GPT-5.5 で最初から書き直すことも考えたのですが、この件にこれ以上時間を使わないことに決めました。GPT-5.4 か GPT-5.5 プレビューを使っていれば、より面白かっただろうなとは思っています。そうなるともっと笑いが増えたはずです!)
使い方は次の通りです:
- Codex CLI をインストールし、OpenAI プランを購入して Codex にログイン
- LLM をインストール:
uv tool install llm - 新しいプラグインをインストール:
llm install llm-openai-via-codex - プロンプトを開始:
llm -m openai-codex/gpt-5.5 'Your prompt goes here'
既存の LLM 機能もすべて動くはずです——画像を添付するには -a filepath.jpg/URL を使い、進行中のチャットを開始するには llm chat -m openai-codex/gpt-5.5、ログに記録された会話を見るには llm logs、そして llm --tool ... を使って ツール対応で試すことができます。
それから、いくつかのペリカン
ペリカンを生成してみましょう!
llm install llm-openai-via-codex
llm -m openai-codex/gpt-5.5 'Generate an SVG of a pelican riding a bicycle'こちらが 私が受け取ったもの です:

GPT-5.4 からはもっと良いものを見たので、-o reasoning_effort xhigh を付けて もう一度試しました:
これは生成にほぼ4分かかりましたが、はるかに良い出来だと思います。

SVG のコードを比べると(default、xhigh)、xhigh の方はまったく別のアプローチを取っていて、こちらの方がグラデーションを示している通り CSS がかなり多めです。xhigh は 9,322 の reasoning トークンを使い、default はわずか 39 でした。
GPT-5.5 についてもういくつかのメモ
GPT-5.5 で最も注目すべき点の1つが価格です。いったん API で提供が開始されると、GPT-5.4 の 2倍の価格 になります——入力 1M トークンあたり $5、出力 1M トークンあたり $30 です。つまり 5.4 は入力 $2.5、出力 $15。
GPT-5.5 Pro はさらに高く、入力 1M トークンあたり $30、出力 1M トークンあたり $180 です。
GPT-5.4 は引き続き利用可能です。5.5 の半額であることを考えると、5.4 が 5.5 に対して、Claude Sonnet が Claude Opus に対しているのと同じような関係だと感じます。
Ethan Mollick は GPT-5.5 の詳細なレビュー を公開しており、そこで(GPT-5.5 Pro も含めて)さまざまな興味深い課題に通して試しています。彼の判定はこうです:ギザギザしたフロンティアは依然として健在で、GPT-5.5 は得意なことでは非常に優れている一方、ほかの面では予測しにくい形で苦戦する——そういう状態は続いています。
さらに最近の記事
- LiteParse for the webでブラウザからPDFテキストを抽出する - 2026年4月23日
- Claude Codeは月100ドルかかるの? おそらく違います。何もかもがよく分からない - 2026年4月22日
これは、Simon Willison による 「Codex バックドア API を介した GPT-5.5 用のペリカン」 です。2026年4月23日に投稿されました。
ai 1979 openai 408 generative-ai 1755 chatgpt 195 llms 1722 llm 587 llm-pricing 71 pelican-riding-a-bicycle 109 llm-reasoning 98 llm-release 195 codex-cli 31 gpt 119次: LiteParse for the webでブラウザからPDFテキストを抽出する
前: Claude Codeは月100ドルかかるの? おそらく違います。何もかもがよく分からない
月次ブリーフィング
月10ドルでスポンサーになって、今月の最も重要なLLMの動きを厳選したメールダイジェストを受け取ってください。
送る手間を減らすために、私にお金を払ってください!
スポンサーになる & 購読する