なぜLLMは、言語ベースのチェーン・オブ・ソート(思考の連鎖)ではなく、明示的なベクトルベースの推論を使わないのでしょうか?それをしたら何が起きますか?
私たちが目にするLLMの推論の多くは言語によって表現されています。つまり、段階的なテキスト、説明、チェーン・オブ・ソート風の出力などです。しかし内部では、モデルはすでに高次元のベクトル上で動作しています。
そこで私の質問は:
自然言語で中間の推論を生成するのではなく、潜在(latent)/ベクトル空間でより明示的に推論するモデルはなぜないのでしょうか?
ベクトルベースの推論は、より速く、より圧縮されていて、直感のようなタスクに適しているのでしょうか?それとも、推論が不透明になりすぎて検証が難しくなり、数学/プログラミング/法的ロジックに対して信頼性が低くなるのでしょうか?
言い換えると:
LLMはベクトルで「考え」、最後に最終的な推論だけを言語に翻訳することは可能でしょうか?
研究者やエンジニアがこの点をどう考えているのか気になります。
[link] [comments]

