大規模言語モデルを用いた言語間のグラフ融合

arXiv cs.CL / 2026/3/24

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMのインコンテキスト推論と多言語の意味的事前知識(セマンティック・プリオリ)を用いて、言語間の意味の違いを調停するクロスリンガル知識グラフ融合フレームワークを提案する。
  • グラフ三つ組を構造的線形化(例: [head] [relation] [tail])によって自然言語のような系列に変換し、進化していく融合グラフへ候補グラフを統合する際に、LLMが実体/関係を対応付けられるようにする。
  • DBP15Kでの実験により、LLMがクロスリンガルな不一致を解決する「ユニバーサルな意味ブリッジ」として機能し、不均一なKGを逐次的にマージすることを支援できることが示される。
  • 本手法は、多ソースかつ多言語の環境における継続的な知識統合のための、スケーラブルかつモジュール化されたアプローチとして位置付けられている。

Abstract

複数の知識グラフ(KG)を言語境界を越えて統合することは、意味論的な不均一性やグラフ環境の複雑さにより、継続的な課題となっています。本研究では、大規模言語モデル(LLM)のイン・コンテキスト推論と多言語の意味論的事前知識を活用した、クロスリンガルなグラフ融合のための枠組みを提案します。この枠組みは、トリプレットを自然言語のシーケンスに直接マッピングすることで構造の線形化を実装します(例: [head] [relation] [tail])。これにより、LLMは、進化し続ける融合グラフ(G_{c}^{(t-1)})と新たな候補グラフ(G_{t})の間で、関係を対応付け、エンティティを突合し整合させることができます。DBP15Kデータセットで評価した本探索的研究により、LLMがクロスリンガルな不一致を解消するための普遍的な意味の架け橋として機能し得ることを示します。結果として、複数の異種グラフの連続的な凝集が成功しており、多ソースかつ多言語の環境における継続的な知識統合のための、スケーラブルでモジュール化された解決策が示されました。