要旨: テキスト属性グラフ(TAG)に対する従来のグラフコントラスト学習(GCL)は、盲目的な確率的拡張に依存しており、その結果、タスクに関連する信号が意図せずノイズと絡み合ってしまいます。我々は、近似直交分解(Approximate Orthogonal Decomposition)に基づく頑健な枠組みSDM-SCRを提案します。まず、セマンティック・デカップリング・モジュール(SDM)は、大規模言語モデル(LLM)の指示追従能力を活用して、原始の属性を非対称な、タスク志向の信号とノイズのビューへ能動的に解析します。これにより、ランダムな摂動から、セマンティックに配慮したデカップリングへとパラダイムを転換します。続いて、セマンティック整合性正則化(SCR)は、セマンティック信号が位相的に滑らかであり、一方で残差ノイズが高周波であるというスペクトル上の観測を利用します。SCRは選択的なスペクトル・フィルタとして機能し、過度な平滑化をせずに、信号部分空間にのみ整合性を課すことで、LLMのハルシネーションを除去します。 この「デカップルしてからリファインする(Disentangle-then-Refine)」メカニズムにより、厳密な信号の浄化が保証されます。大規模な実験により、SDM-SCRが精度と効率の両面でSOTAの性能を達成することを示します。
Disentangle-then-Refine:LLMが導く分離と構造を意識したグラフ対照学習の洗練
arXiv cs.AI / 2026/4/17
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 従来のテキスト属性付きグラフ(TAGs)に対するグラフ対照学習では、無作為な確率的オーグメンテーションにより、タスクに有用な信号とノイズが混在してしまうことがあります。
- 提案手法SDM-SCRは、LLMの指示追従能力を用いるSemantic Decoupling Module(SDM)によって、生の属性を「意味の信号」と「ノイズ」を分ける非対称な見え方に変換します。
- さらにSemantic Consistency Regularization(SCR)では、意味信号は位相的に滑らかで残差ノイズは高周波であるというスペクトル観測に基づき、信号部分空間に対してのみ選択的に整合性を課します。
- 「Disentangle-then-Refine」という流れにより、LLMの幻覚などの問題を抑えつつ、過度な平滑化を避けながら意味信号を精製することを狙います。
- 実験結果では、SDM-SCRが精度と効率の両面で先端(SOTA)性能を達成したと報告されています。



