要旨: 現在の大規模言語モデルは、単独で推論します。複数の推論経路を並列にサンプリングすることは一般的ですが、これらの軌跡は相互に作用せず、多くの場合同じ冗長な失敗の仕方で失敗します。私たちは、推論を独立した試行の集合から、協調的な並列プロセスへと変換する枠組みであるLACEを導入します。モデルのアーキテクチャを転用してスレッド間の注意(cross-thread attention)を可能にすることで、LACEは推論の並行経路が推論中間の洞察を共有し、推論(inference)中に互いを修正できるようにします。中心となる課題は、このような協調行動を示す自然な学習データが存在しないことです。私たちは、このギャップを、スレッド間でモデルが明示的に連絡し、誤りを訂正することを教える合成データのパイプラインで埋めます。実験の結果、この統一的な探索は標準的な並列探索を大幅に上回り、推論精度を7ポイント以上改善することが示されました。私たちの結果は、並列の推論経路が相互に作用できる場合、大規模言語モデルがより効果的になり得ることを示唆しています。
LACE:スレッド間探索のための格子アテンション
arXiv cs.AI / 2026/4/20
📰 ニュースModels & Research
要点
- この論文では、独立して走る並列推論を、クロススレッド・アテンションによって協調的な推論プロセスへと変えるフレームワーク「LACE」を提案しています。
- 推論スレッド同士が中間的な洞察を共有できるようにモデルのアーキテクチャを工夫し、推論中に同じ冗長な失敗を繰り返す問題の低減を狙っています。
- 主な課題は、並列経路間の協調的推論を示す自然な学習データがない点で、著者らはこれを合成データ・パイプラインで補っています。
- 実験では、LACEが標準的な並列探索に比べて推論精度を7点以上改善したと報告されています。
- 本研究は、並列推論経路を相互にインタラクションさせることで、LLMの有効性がより高まる可能性を示唆しています。



