AI Navigate

コーディング能力で確かめる、他社モデルとDeepSeek-R1の比較

日経XTECH / 3/18/2026

💬 OpinionIdeas & Deep AnalysisTools & Practical UsageModels & Research

Key Points

  • DeepSeek-R1は高性能かつ開発費・API利用料が安価とされ、他社モデルとの比較で注目を集めた。
  • 本特集はDeepSeek-R1:8bとqwen3:8bを80億パラメータ級で比較し、同環境(Ollamaローカル)で実測を重視している。
  • qwen3:8bは思考過程が英語中心で、DeepSeek-R1:8bは日本語対応が事象ごとに変化するケースがあると報告され、言語の影響が顕在化。
  • 思考過程の分量や推論の寄り道の多さはモデル間で異なり、結論へ導く速さや多様な推論の幅はケースにより異なるため、用途と環境で選択が分かれる。

 中国のDeepSeek社の生成AIモデル「DeepSeek-R1」は、高性能でありながら、開発費やAPI利用料が他社モデルに比べて大幅に安価なことで、大きな話題を呼びました。本特集では、DeepSeek-R1を実際に触って、動かして、その生成AIの能力を体感します。

他社モデルとの比較

 ここからは、DeepSeek-R1を他社のモデルと比較してみます。引き続きOllamaのローカル環境を使います。

 比較に使うDeepSeek-R1は、日本語ファインチューニング版ではない「deepseek-r1:8b」を再び用いることとします。比較対象の他モデルも、日本語ファインチューニング版が提供されていないものもあるので、すべて通常版を用いることとします。原則、パラメーター数が80億のモデルを使います。

 なお、ここで行う他社モデルとの比較は、本特集執筆時点(2025年6月時点)の、筆者の環境でのものです。環境が異なれば、比較結果が異なる可能性があります。また、今後モデルの更新などがあれば、結果結果は大きく変わる可能性があります。ご了承ください。

 まずは同じ推論(r)モデルとして、「Qwen3」と比較します。その中から、パラメーター数が80億の「qwen3:8b」を用います。「deepseek-r1:8b」のベースとなるモデルでもあります。

 [Ctrl]+[D]キーで「DeepSeek-R1-Distill-Qwen-14B-Japanese」を終了させ、コマンドプロンプトに戻ったら、下記のコマンドを入力・実行してください。

[画像のクリックで拡大表示]

 「qwen3:8b」が起動したら、以下のプロンプトを送信します。「deepseek-r1:8b」のときと同じプロンプトです。

[画像のクリックで拡大表示]

 筆者の環境で得られた出力結果の例が、図10です。

図10●「qwen3:8b」の思考過程と回答の例
図10●「qwen3:8b」の思考過程と回答の例
[画像のクリックで拡大表示]

 筆者の環境で試した限り、「deepseek-r1:8b」との大きな違いは、「qwen3:8b」の場合は思考過程が英語のみであることでした。上記のプロンプトを連続して送信しても、英語のみでした。「deepseek-r1:8b」の場合、1回目は中国語または英語でも、2回目からは「同じ質問が来たということは、日本語で~」と自ら判断したのか、思考過程を日本語に変えていました。一方、「qwen3:8b」は2回目以降も英語のままでした。

 思考過程の中身を見てみると、大まかな流れは「deepseek-r1:8b」とほぼ同じです。「Wait」以降で、思考過程の見直しも行っています。ただし、「deepseek-r1:8b」ほど多面的な見直しを行ったわけではなさそうです。そのため、思考過程の分量は少なかったです。

 この違いは、いわば、「qwen3:8b」は「結論まで最短で走る」というイメージで、「deepseek-r1:8b」は「いろいろ寄り道をする」というイメージでしょうか。かといって、推論(r)の能力として、「deepseek-r1:8b」の方が優れているとは言い切れません。「deepseek-r1:8b」は、他のプロンプトでは、思考を過剰に巡らせ、なかなか結論にたどり着けないケースがいくつかありました。ユーザーにとってどちらがよいのかは、ケース・バイ・ケースでしょう。

 また、思考過程の歩みを一歩一歩進めていくスピードは、筆者環境で試した範囲では、ほぼ同じでした。

次のページ

コーディング能力で比較

この記事は会員登録で続きをご覧いただけます