生成AIは長い対話でどこから逸れていくのか ― Jose Crespo の “inverse Riemannian” と意味ドリフトの幾何学
Zenn / 2026/3/24
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 生成AIの長い対話では、意図された意味から徐々にズレる「意味ドリフト」が起き、その逸脱点がどこに現れるかを幾何学的に捉える考え方を提示している。
- Jose Crespo の “inverse Riemannian” を手がかりに、対話の進行を潜在空間(意味空間)上の“距離”や“曲がり”として解釈し、逸脱が発生する条件を考察する。
- 意味ドリフトを単なるモデル不良ではなく、対話が辿る経路の性質(どの方向に意味が連鎖していくか)として捉え直している。
- 長対話の設計・評価において、逸脱の予兆や境界条件を推定するための理論的フレームとして活用できる可能性を示唆している。
!
TL;DR
生成AIは短い対話やタスクでは驚くほど自然に振る舞います。しかし、対話が長くなり、推論が連鎖し、目的や制約が複雑になると、局所的には自然でも、大域的に何を目指しているのか分からなくなる ことがあります。
Jose Crespo はこの問題を、現在のAIの見方が局所幾何に寄りすぎており、そこからは loop(閉路), closure(閉包), drift(漂流)のような大域構造が見えにくいのではないか、という形で提示しています。彼はこれを “forward Riemannian thinking” と “inverse Riemannian thinking” という言葉で...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →



