|
しかし、 それを [link] [comments] |
DeepSeek V4 Proで「知能密度」が低下したとの指摘
Reddit r/LocalLLaMA / 2026/4/25
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- この議論では、DeepSeek V4 Proは非思考モードでもDeepSeek V3.2より多くのトークンを使用しており、「知能密度」が低下していると主張されています。
- V4 Pro(1.6T)はV3.2(0.67T)より大きいものの、トークン使用量の増加から効率は改善していないようだと述べられています。
- GPT-5.4やGPT-5.5と比べると差はさらに大きく、同等の性能を得るのにDeepSeekは約10倍のトークンが必要だと報告されています。
- トークン処理速度(TPS)が同程度だと仮定すると、同じタスクの完了にDeepSeek V4 Proは約10倍の時間がかかる可能性があると推測しています。
- 全体として、スケールによって推論の効率が最適化されるという期待に疑問を投げ、計算/トークン効率が新モデルで悪化したと論じています。




