DeepSeek V4—ほぼフロンティア級、しかも価格はほんの一部
2026年4月24日
中国のAIラボである DeepSeek の最新モデル公開は V3.2(および V3.2 Speciale)でした(去年の12月)。そして、待望されていた V4 シリーズの最初の2つのプレビュー・モデルとして、DeepSeek-V4-Pro と DeepSeek-V4-Flash が公開されました。
どちらのモデルも 1,000,000 トークンのコンテキスト対応の Mixture of Experts です。Pro は総パラメータ 1.6T、アクティブ 49B。Flash は総パラメータ 284B、アクティブ 13B です。利用ライセンスは標準の MIT ライセンスです。
これによって DeepSeek-V4-Pro は、新たに最大規模のオープン・ウェイト・モデルになったと思います。Kimi K2.6(1.1T)や GLM-5.1(754B)よりも大きく、さらに DeepSeek V3.2(685B)の2倍以上の規模です。
Pro は Hugging Face 上で 865GB、Flash は 160GB です。128GB の M5 MacBook Pro で、Flash を軽く量子化すれば動かせないか期待しています。ディスクから必要なアクティブ・エキスパートだけをストリーミングできれば、Pro モデルも動く可能性は あります。
ひとまず、OpenRouter 経由で llm-openrouter を使ってモデルを試してみました:
llm install llm-openrouter
llm openrouter refresh
llm -m openrouter/deepseek/deepseek-v4-pro 'Generate an SVG of a pelican riding a bicycle'
こちらが DeepSeek-V4-Flash の ペリカンです:

そして DeepSeek-V4-Pro の は:

比較のため、昨年12月の DeepSeek V3.2、8月の V3.1、2025年3月の V3-0324 から私が得たペリカンも見てみてください。
ペリカンはかなり良いのですが、ここで本当に注目すべきは コスト です。DeepSeek V4 は非常に、非常に安価なモデルです。
こちらが DeepSeek の料金ページ です。Flash では入力が $0.14/100万トークン、出力が $0.28/100万トークン、Pro では入力が $1.74/100万トークン、出力が $3.48/100万トークンを請求しています。
Gemini、OpenAI、Anthropic のフロンティア・モデルとの比較表を示します:
| モデル | 入力 ($/M) | 出力 ($/M) |
|---|---|---|
| DeepSeek V4 Flash | $0.14 | $0.28 |
| GPT-5.4 Nano | $0.20 | $1.25 |
| Gemini 3.1 Flash-Lite | $0.25 | $1.50 |
| Gemini 3 Flash Preview | $0.50 | $3 |
| GPT-5.4 Mini | $0.75 | $4.50 |
| Claude Haiku 4.5 | $1 | $5 |
| DeepSeek V4 Pro | $1.74 | $3.48 |
| Gemini 3.1 Pro | $2 | $12 |
| GPT-5.4 | $2.50 | $15 |
| Claude Sonnet 4.6 | $3 | $15 |
| Claude Opus 4.7 | $5 | $25 |
| GPT-5.5 | $5 | $30 |
DeepSeek-V4-Flash は小型モデルの中で最安で、OpenAI の GPT-5.4 Nano でさえも上回っています。DeepSeek-V4-Pro は大型のフロンティア・モデルの中で最安です。
DeepSeek の論文 にあるこのメモは、なぜこれらのモデルをこんなに安く価格設定できるのかを説明してくれます。今回のリリースでは、特に長いコンテキストのプロンプトに対して、効率化へかなり注力したのです:
1M トークンのコンテキストというシナリオでは、活性化されるパラメータ数がより多い DeepSeek-V4-Pro でさえ、単一トークンの FLOPs(同等の FP8 FLOPs で測定)の 27% にしか達しません。また、DeepSeek-V3.2 に比べて KV キャッシュサイズは 10% です。さらに、活性化されるパラメータ数がより少ない DeepSeek-V4-Flash では、効率がさらに押し上げられます。1M トークンのコンテキスト設定では、DeepSeek-V3.2 と比較して単一トークンの FLOPs は 10% で、KV キャッシュサイズは 7% です。
DeepSeek の自己申告ベンチマーク (論文内) では、Pro モデルが他のフロンティア・モデルと競り合うことが示されています。ただし、次の注記があります:
推論トークンの拡張を通じて、DeepSeek-V4-Pro-Max は標準的な推論ベンチマークにおいて GPT-5.2 および Gemini-3.0-Pro に対して優れた性能を示します。それでもなお、その性能は GPT-5.4 および Gemini-3.1-Pro をわずかに下回っており、約 3〜6 か月ほどフロンティアの最先端モデルに遅れをとる開発の軌跡を示唆しています。
huggingface.co/unsloth/models を引き続き注視しています。Unsloth チームが近いうちに量子化版をまとめて出してくれるはずだと思うからです。自分のマシンで、その Flash モデルがどれくらいうまく動くのかを見るのが楽しみです。
最近の記事
- LiteParse for the web でブラウザ内からPDFテキストを抽出する - 2026年4月23日
- セミオフィシャルな Codex バックドア API 経由で GPT-5.5 用のペリカン - 2026年4月23日
これは Simon Willison による DeepSeek V4—ほぼフロンティア級、しかも価格はほんの一部(2026年4月24日 24th April 2026 投稿)です。
返却形式: {"translated": "翻訳されたHTML"} ai 1981 generative-ai 1757 llms 1724 llm 589 llm-pricing 72 pelican-riding-a-bicycle 110 deepseek 33 llm-release 196 openrouter 26 ai-in-china 95前回: LiteParse for the web でブラウザ上でPDFのテキストを抽出する
月次ブリーフィング
月10ドルで私をスポンサーし、今月の最も重要な LLM の動向を厳選したメールダイジェストを受け取ってください。
私にお金を払って、あなたに送る量を減らしてもらいましょう!
スポンサーして購読する



