DeepSeek AI、DeepSeek-V4をリリース:圧縮スパースアテンションと強力な圧縮アテンションで100万トークンのコンテキストを実現

MarkTechPost / 2026/4/25

📰 ニュースSignals & Early TrendsModels & Research

要点

  • DeepSeek-AIは、推論時のコストを抑えつつ実用化できるように設計された「100万トークン・コンテキスト」を実現することを目的として、DeepSeek-V4モデルシリーズのプレビュー版を公開しました。
  • 公開されたのはMixture-of-Experts(MoE)を採用した2つのバリアント(DeepSeek-V4-Pro、DeepSeek-V4-Flash)で、総パラメータ数とトークンあたりの活性化パラメータ数が異なる設計です。
  • DeepSeek-V4-Proは総パラメータ1.6T、トークンあたり活性化49Bとされ、DeepSeek-V4-Flashは総パラメータ284B、トークンあたり活性化13Bと説明されています。
  • 重要な技術的主張は、「圧縮スパースアテンション」および「強力に圧縮したアテンション」によって、極端に長いコンテキストを支えるための計算・メモリ負荷を軽減する点です。
  • プレビューとしての位置づけから、汎用的な最終リリースというよりも早期導入や評価を想定した段階であることが示唆されています。

DeepSeek-AIは、DeepSeek-V4シリーズのプレビューバージョンをリリースしました。これは、推論時に100万トークンのコンテキストウィンドウを実用的かつ手頃なコストで可能にするための、1つの中核的課題を軸に構築された2つのMixture-of-Experts(MoE)言語モデルです。このシリーズは、総パラメータ1.6Tでトークンあたり49Bが活性化されるDeepSeek-V4-Pro、ならびに総パラメータ284Bでトークンあたり13Bが活性化されるDeepSeek-V4-Flashで構成されています。[…]

この記事 DeepSeek AI Releases DeepSeek-V4: Compressed Sparse Attention and Heavily Compressed Attention Enable One-Million-Token Contexts は、MarkTechPost に最初に掲載されました。