Abstract
複数の知識グラフ(KG)を言語境界を越えて統合することは、意味論的な不均一性やグラフ環境の複雑さにより、継続的な課題となっています。本研究では、大規模言語モデル(LLM)のイン・コンテキスト推論と多言語の意味論的事前知識を活用した、クロスリンガルなグラフ融合のための枠組みを提案します。この枠組みは、トリプレットを自然言語のシーケンスに直接マッピングすることで構造の線形化を実装します(例: [head] [relation] [tail])。これにより、LLMは、進化し続ける融合グラフ(G_{c}^{(t-1)})と新たな候補グラフ(G_{t})の間で、関係を対応付け、エンティティを突合し整合させることができます。DBP15Kデータセットで評価した本探索的研究により、LLMがクロスリンガルな不一致を解消するための普遍的な意味の架け橋として機能し得ることを示します。結果として、複数の異種グラフの連続的な凝集が成功しており、多ソースかつ多言語の環境における継続的な知識統合のための、スケーラブルでモジュール化された解決策が示されました。