DiffHLS: GNNとLLMコード埋め込みによる高位合成(HLS)QoR予測のための差分学習

arXiv cs.LG / 2026/4/13

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • DiffHLSは、カーネル基準とプラグマ修正による設計バリアントのペアから学習することで、高位合成(HLS)の品質(Quality-of-Result: QoR)を予測するための差分学習フレームワークとして提案される。
  • 本手法は、カーネルおよび設計の中間表現グラフをそれぞれ専用のGNNブランチでエンコードし、基準と設計によって生じた差分(delta)を共同で予測することで、最終的な設計QoRを構成する。
  • 差分経路には事前学習済みのLLMコード埋め込みを組み込み、GNNのみのアブレーションに対して一貫した改善が報告されている。
  • PolyBenchでの実験では、4種類のGNNバックボーンにおいてGNN基準手法より平均MAPEが低いことが示され、さらにForgeHLSデータセットにてスケーラビリティの追加検証が行われている。

要旨: 高水準合成(HLS)は C/C++ を RTL にコンパイルしますが、プラグマ駆動の最適化選択肢を探索することは、設計ポイントごとに時間のかかる合成が必要となるため高コストです。私たちは、カーネル—設計ペアから学習する HLS 品質(QoR)予測のための微分学習フレームワークである extbf{\DiffHLS} を提案します。これは、カーネルのベースラインと、プラグマ挿入による設計バリアントの 2 つを用います。
extbf{\DiffHLS} は、専用のグラフニューラルネットワーク(GNN)ブランチにより、カーネルと設計の中間表現グラフを符号化し、差分(delta)経路を、事前学習済みのコード大規模言語モデル(LLM)から得たコード埋め込みで拡張します。絶対目標を直接回帰する代わりに、カーネルベースラインと設計が誘導する delta を同時に予測し、それらを合成して設計予測を得ます。PolyBench では、
\DiffHLS が 4 つの GNN バックボーンにわたる GNN ベースラインよりも平均 MAPE が低くなります。また、LLM のコード埋め込みは、GNN のみのアブレーションに対して一貫して改善をもたらします。さらに ForgeHLS データセット上でスケーラビリティも検証します。