LLM強化グラフニューラルネットワークはポイズニング攻撃に対して頑健か?
arXiv cs.LG / 2026/3/30
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、学習時にグラフ構造とノードのテキスト属性の両方を操作するポイズニング攻撃に対して、LLM強化グラフニューラルネットワークが頑健であるかどうかを調査する。
- 8種類のLLM/LMベースの特徴強化器と3種類のGNNバックボーンの組み合わせから構築した24の被害モデルを用いて評価する、体系的な頑健性評価フレームワークを提案する。
- 評価は、構造に対する6種類のポイズニング攻撃(標的型および非標的型)と、文字・単語・文レベルで行う3種類のテキストポイズニング攻撃を、LLMの事前学習における真値リークを避けるために選定した4つのデータセットにまたがって実施する。
- 実験結果は、多くの攻撃設定において、LLM強化GNNが浅い埋め込みベースラインよりも高い精度と低いRelative Drop in Accuracyを維持することを示す。
- 著者らは、頑健性の向上を、ノード表現が構造情報およびラベル情報をどのように符号化するかに起因すると考えている。また、今後の攻撃/防御の方向性に加え、攻撃とグラフ精製を組み合わせた防御手法を提案し、フレームワークのソースコードを公開している。




