LLM はサイコロを振る
LLM は同じ入力に対して毎回違う出力を返すことがあります。これは LLM が「次に来る単語の確率分布」を計算した後、その分布からサンプリング(くじ引き)しているためです。確率の振り方を制御するのが温度・top-p・top-k といったパラメータ。
温度(Temperature)
0 〜 2 の値。確率分布をどれだけ「とがらせる/なだらかにする」を制御。
例:「日本の首都は」の次の単語
| 候補 | 素の確率 | T=0.5 後 | T=2.0 後 |
|---|---|---|---|
| 東京 | 0.95 | 0.99 | 0.7 |
| 京都 | 0.03 | 0.005 | 0.15 |
| 大阪 | 0.01 | 0.001 | 0.10 |
| その他 | 0.01 | 0.001 | 0.05 |
温度の指針
- 0.0:完全決定的(毎回同じ)。テスト・分類に。
- 0.0〜0.3:ほぼ決定的。事実確認、抽出、要約。
- 0.5〜0.7:標準。チャット、Q&A、コーディング。
- 0.8〜1.0:創造的。小説、詩、ブレスト、広告コピー。
- 1.0+:非常に多様、品質劣化リスク。


