G-Loss:グラフに導かれる言語モデルのファインチューニング
arXiv cs.CL / 2026/4/29
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 伝統的な損失関数(交差エントロピーなど)は、言語モデルの埋め込み空間で主に局所近傍に作用し、意味空間の大域的な構造を十分に捉えられない。
- 本論文は、半教師ありのラベル伝播と埋め込み空間上の構造関係を取り込む「G-Loss」というグラフ誘導型の損失関数を提案する。
- G-Lossは文書の類似性グラフを構築して大域的な意味関係を反映し、識別力が高く頑健な埋め込みの学習を後押しする。
- MR(感情分析)、R8/R52(トピック分類)、Ohsumed(医療文書分類)、20NG(ニュース分類)の5つのベンチマークで評価した結果、従来の損失でファインチューニングしたモデルよりも分類精度が高くなることが多い。
- 総じて、グラフベースの目的関数で大域的な意味構造を取り込むことが、言語モデルのファインチューニング品質向上につながることを示唆している。



