世界のAIコミュニティに波紋を広げている動きとして、DeepSeekは、待望のV4モデルのWeb上でのグレー(段階的)テストを、静かにグレースケールで展開しました。流出したインターフェースのスクリーンショットには、変革的な3モードシステム――Fast(高速)、Expert(専門家)、Vision(ビジョン)――が明らかになっており、DeepSeek V4を、推論を深く行うマルチモーダルの実力派として位置づけています。これは、Claude OpusやGPT-5系のような主要モデルと互角、あるいは上回る可能性があるとされています。
これは単なる、もう一段の増分アップデートではありません。噂では1兆パラメータ、独自のEngramメモリ・アーキテクチャによって支えられる100万トークンのコンテキストウィンドウ、そしてネイティブな画像/動画処理を備えたDeepSeek V4は、消費者向けの価格で企業レベルの性能を提供すると約束しています。エージェントを作る開発者、複雑な分析に取り組む研究者、最先端のマルチモーダルAIを求めるビジネス――このガイドでは、必要なことをすべて取り上げます。
CometAPIでは、DeepSeekの進化を注意深く追跡しています。私たちは、DeepSeek V3.2およびそれ以前のモデルを、公式価格から最大20%割引で提供し、OpenAI互換のエンドポイントをシームレスに用意する統合AI APIプラットフォームです。V4の統合を楽しみにしています。この記事の後半では、V4が完全にライブになった後に、CometAPIがどのようにあなたのワークフローを将来対応(future-proof)できるかを紹介します。
DeepSeek V4とは?
DeepSeek V4は、中国のAIラボのフラッグシップであるVシリーズの次の進化を示します。DeepSeek-V3とV3.2の成功を土台に――ハイブリッドな「思考/非思考モード」や強力なエージェント能力を導入した――V4は、規模、知能、そして汎用性を大きく拡張しています。
業界アナリストによれば、V4は総パラメータが1兆を超えるMixture-of-Experts(MoE)モデルだと推定されています。効率のため、トークンあたりで有効になるのは約370〜400億パラメータのみです。V3のMoE基盤を洗練させたこのアーキテクチャでは、専門化された「エキスパート」を動的に起動し、推論コストを削減しながら、コーディング、数学、長いコンテキストを扱うタスクでの性能を高めます。
主な差別化ポイントは以下のとおりです:
- ネイティブなマルチモーダル対応(テキスト+画像+動画)。
- 超長尺コンテキスト:Engramの条件付きメモリにより最大100万トークン。
- 国内向けハードウェア最適化――V4は主にHuaweiのAscendチップ上で動作するよう設計されており、技術的自立を求める中国の取り組みを反映しています。
DeepSeekはApache 2.0のもとでモデルをオープンソース化してきた実績があります。そのためV4は、最もアクセスしやすい最前線のモデルの1つになる可能性があります。流出したベンチマークでは、HumanEvalで90%、SWE-bench Verifiedで80%超を達成し得ることが示唆されており、Claude Opus 4.5/4.6やGPT-5 Codex系のバリアントと直接競合する立ち位置にあります。V4は単なる増分アップデートではありません――ユーザーのニーズに応じた段階的なモード(ティア)を備えた、完全なプロダクトマトリクスの再設計です。これはKimiのFast/Expertのような分類に近い考え方ですが、さらにVisionが加わっています。
DeepSeek V4に関する最新アップデート
2026年4月時点で、DeepSeek V4は完全な一般公開ローンチではなく、限定的なグレースケールテストの段階にあります。複数のプログラマーやWeiboのインフルエンサーが、4月7日〜8日に更新されたチャットUIのスクリーンショットを共有しており、従来の2つの選択肢(Deep Thinking R1 / Smart Search)によるレイアウトから、劇的に作り替えられていることが分かります。
新しいUIでは、目立つモード切り替えが3つの選択肢で提供されます:
- Fast Mode(デフォルト、カジュアルなタスク向けで毎日無制限)。
- Expert Mode。
- Vision Mode。
V4はHuaweiの最新シリコンを活用し、4月上旬から「今後数週間以内」に完全ローンチされる見込みです。
Fast Mode(Instantとも呼ばれる)はデフォルトで、日次利用は無制限です。Expert Modeは深い思考を重視し、いくつかのテストではトークン処理スループットが高いことが報告されています(Fastの約49トークン/秒に対して、約64トークン/秒)。Vision Modeでは、画像/動画の直接アップロードと分析が可能です。
- 初期テスターの一部は1Mコンテキストと、更新された知識のカットオフ(2025年以降のデータ)を報告しています。一方で、Expertは依然として128Kの制限があるようで、最適化されたV3.2に近い体感だという指摘もあります。これは、グレースケールが段階的に進められていることを裏づけます。
企業は公式名称については沈黙していますが、インターフェースの変更、マルチモーダルを示すヒント、そして以前の流出情報との整合性(国内チップ上での3モデル構成)から、これらがテスト中のV4バリアントである可能性が強く示唆されます。完全ローンチは「今月(2026年4月)」に広く期待されています。
DeepSeek V4の新しい機能アーキテクチャは?(クイック版 vs エキスパート版の推測)
流出した詳細は、日常的な効率性と、高リスクな推論およびマルチモーダル処理を分離する、洗練された3層アーキテクチャを示唆しています。
Fast Mode(クイック版):即時の応答と高スループットの日常対話のために最適化。アナリストは、軽量な蒸留バリアント、またはMoEモデルのより小さな「有効パラメータ層」にルーティングされる可能性があると考えています。最小の遅延で、ファイルのアップロードや基本タスクに対応――素早い問い合わせやプロトタイピングに最適です。日次利用が無制限であるため、カジュアルユーザーにとって理想的です。
Expert Mode(深い推論版):広く推測されている「真のDeepSeek V4」コアです。多段階の推論、領域特化の強化、思考プロセスの可視化、そして引用トレースの強化を重視します。インサイダーはこれを、DeepSeekのリーダーシップが署名した論文で詳述されている「新しいメモリアーキテクチャ」(Engramの条件付きメモリ)に結びつけています。Engramは、静的な知識(O(1)のハッシュルックアップ)と動的な推論を分離し、計算量が爆発することなく安定した100万トークンのコンテキストを可能にします。初期テスターは、複雑な問題において論理の安定性と自己修正が優れていると報告しています。
Vision Mode:マルチモーダルのフラッグシップで、画像/動画のネイティブ理解と生成が可能。テキストモデルにVLMを後付けした従来型とは異なり、「深く統合された世界モデル」アーキテクチャだとする推測があります。たとえば、視覚トークンをMoEルーティングに直接統合し、モーダリティをまたぐシームレスな推論を実現する可能性がある、という見方です。
このクイック版とエキスパート版の分岐により、DeepSeekは(Fastで)マス向けユーザーと(Expert/Visionで)パワーユーザーの双方に対応しつつ、どちらの体験も損なうことなく提供できます。完全な商用化では、Expert/Visionに割り当て枠(クォータ)が導入される一方、Fastは無料のまま、もしくは無制限が維持される可能性があります。
グレースケールテストで見えたDeepSeek V4のビジュアル機能とエキスパートモード
今回のグレースケール公開が、最大の盛り上がりの引き金となっています。私は以下をテストしました:
- Expert Modeは、より長い内部「思考」(一部の見え方では可視化されたチェーン・オブ・ソート)を引き起こし、より正確で引用付きの出力を生成する。
- Vision Modeは、画像が添付されると自動的に有効になり、分析または生成のためのプロンプトを誘導する。
これらの特徴は、DeepSeekが公開している「多様体制約付きハイパーコネクション(mHC)」および「DeepSeek Sparse Attention(DSA)」に関する研究と一致しています。これらは、1兆パラメータ級のスケールで学習を安定化し、長期のエージェント的タスクの性能を高めるためのイノベーションです。
Expert Modeは、すでに初期のV4チェックポイントが動作している可能性があり、そのため「知能が跳ね上がった」ように感じられるのかもしれません。Vision Modeの分離は、それが単なるアドオンではなく、コアとなるアーキテクチャの柱であることを示唆しています。
WebでDeepSeek V4にアクセスして使う方法:ステップバイステップガイド
グレースケール版へのアクセスはシンプルですが、現時点では利用が限定されています:
- 公式プラットフォームを開く:chat.deepseek.com または platform.deepseek.com にアクセスし、DeepSeekアカウントでログインします(無料登録あり)。
- モードセレクターを探す:グレースケール参加者の範囲に入っている場合、新しいFast/Expert/Visionのボタンが表示されます。全員がまだ利用できるわけではなく、段階的に展開されています。
- モードを選択する:
- 日常のチャットにはFast Modeから始める。
- 複雑な推論、コーディング、リサーチにはExpert Modeに切り替える。
- プロンプトを効果的に:Expertでは「ステップごとに考え、論理を検証する」などの詳細な指示を使います。Visionでは画像を正確に説明してください(例:「このチャートを分析してトレンドを読み取り、要約の表を作成する」)。
- 制限を確認:Fastは無制限です。ExpertとVisionはテスト中に日次クォータが設定される可能性があります。
プロのコツ:より豊富な文脈のために、利用可能な場合はWeb検索やファイルのアップロードを有効にしてください。
グレースケールのアクセスがまだ利用できない場合でも、同じサイトでDeepSeek-V3.2(現在の本番モデル)を引き続き使用できます。V4の完全なロールアウトは間もなくです—CometAPIを監視してください。
DeepSeek V4をAPI経由でワークフローに統合する方法
Webアクセスは探索には最適ですが、本番利用には信頼できるAPIが必要です。公式のDeepSeek APIは現在V3.2(128Kコンテキスト)を提供していますが、V4のエンドポイントはまもなく登場する見込みです。
Enter CometAPI:ワンストップのAI API集約サービスとして、CometAPIはOpenAI互換のエンドポイントでDeepSeek V3、V3.1、V3.2、R1モデルをすでに提供しています。さらに価格は20%低く、無料のスタータークレジット、利用状況の分析、プロバイダー間の自動フェイルオーバーも備えています。V4が登場してもコード変更は不要で、シームレスに追加します。
CometAPIでのクイックセットアップ:
- cometapi.comで登録します。
- APIキーを生成します(sk-xxx)。
- ベースURL
https://api.cometapi.comとモデル名(deepseek-v4-expertなど)を使用します(稼働開始後)。 - Pythonの例:
from openai import OpenAI
client = OpenAI(api_key="your_cometapi_key", base_url="https://api.cometapi.com")
response = client.chat.completions.create(
model="deepseek-v4-expert", # またはビジョン版
messages=[{"role": "user", "content": "Your prompt here"}]
)
CometAPIのプレイグラウンドでは、ClaudeやGPTに切り替えることなく、V4モードを他のものと並べてテストできます。企業にとっては、これによりコストを抑えられ、請求が見通しやすくなり、ベンダーロックインもありません。エージェント型のワークフローやマルチモーダルアプリのスケールに最適です。
DeepSeek V4の主要機能とベンチマーク
漏洩データによって、非常に印象的な全体像が描かれています:
- コーディング:~90% HumanEval、80%+ SWE-bench Verified(Claude Opus 4.6に一致、または上回る見込み)。
- 推論:強化されたMATH-500(~96%)とロングコンテキストのNeedle-in-Haystack(1Mトークンで97%)。
- マルチモーダル:V3よりもはるかに優れた、ネイティブな画像/動画の理解に加え、SVG/コードの生成。
- 効率:MoEによりコストを低く維持。Engramメモリにより、密なモデルと比べてVRAM要件が約45%削減。
Expertモードでの実環境テストでは、V3.2に比べて自己修正がより強く、リポジトリ単位でのコーディングも優れていることが示されています。
DeepSeek V4は他の主要AIモデルとどう比較される?
| 機能 | DeepSeek V4(推定) | Claude Opus 4.6 | GPT-5.4 Codex |
|---|---|---|---|
| パラメータ(総/アクティブ) | ~1T / ~37B | 非公開 | 非公開 |
| コンテキストウィンドウ | 1Mトークン | 200K〜256K | ~200K |
| マルチモーダル(ネイティブ) | Yes(Vision Mode) | Yes | Yes |
| コーディング(SWE-bench) | 80%+ | 80.9% | ~80% |
| 価格(推定:出力) | 非常に低い(オープンな成長軌道) | 高い | 高い |
| オープンウェイト | 可能性あり | No | No |
V4の優位性は、コストとパフォーマンス、そしてオープンなアクセス性にあります。フロンティアAIをより小規模なチームにも提供できるようになります。
DeepSeek V4の実用的なユースケースは?
- ソフトウェア開発:Expertモードで複数ファイルのリファクタリング、バグ検出、リポジトリ全体の解析。
- マルチモーダル分析:チャート、図、または動画をアップロードして、即座に洞察を得る(Vision Mode)。
- エージェント型ワークフロー:ロングコンテキストのメモリにより、自律的なリサーチエージェントが可能になります。
- コンテンツ&デザイン:説明から正確なSVG/コードを生成し、視覚データを分析します。
- 教育/研究:検証可能な引用付きで、ステップごとの説明を行います。
DeepSeek V4以降にCometAPIを選ぶべき理由は?
開発者や企業にとって、Webチャットは出発点ではありますが、スケールする本番には堅牢なインフラが必要です。CometAPIはまさにそれを提供します。つまり、今日のDeepSeekアクセスを割引で利用でき(V3.2が$0.22〜$0.35/M tokens)、さらにV4への明確な移行パスも用意されています。プロンプトキャッシュ、分析、マルチモデルのルーティングといった機能により、コストを20〜30%削減しつつ、ダウンタイムのリスクもなくします。次のAIエージェントを作るのでも、ビジョン機能を組み込むのでも、CometAPIならV4のAPIが提供開始される瞬間からすぐに対応できます。
結論
段階的なモードによってフロンティア級のマルチモーダル知能を無料で提供することで、DeepSeekは高度なAIをより多くの人に開放しつつ、国内の計算資源を最適化しています。これにより、欧米の研究所は性能と価格の両面で圧力を受け、業界全体がより効率的で、より利用しやすいモデルへと加速していきます。
DeepSeek V4は単なるアップグレードではなく、効率的で利用しやすいスーパーインテリジェンスのための設計図です。今すぐWebで実験を始め、明日にはCometAPIでスタックをシームレスにスケールできるよう準備しましょう。




