AI Navigate

POET: LLMベースの RTL PPA最適化のための電力志向の進化的チューニング

arXiv cs.AI / 2026/3/23

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • POET は、RTL コード最適化に大規模言語モデル(LLMs)を適用して、電力、性能、面積(PPA)を改善するフレームワークです。
  • LLM の幻覚(ハルシネーション)にもかかわらず機能的正確性を維持し、PPA のトレードオフ空間内で電力削減を体系的に優先する、二つの主要な課題に取り組みます。
  • 正確性のため、POET は差分テストベースのテストベンチ生成パイプラインを導入し、元の設計を機能的オラクルとして使用し、決定論的なシミュレーションを用いてゴールデン参照を作成することで、検証から LLM の幻覚を排除します。
  • 最適化のため、POET は、非支配ソート、パレートフロント内の同レベルでの電力優先ランキング、そして適合度の比例生存者選択を組み合わせた LLM 主導の進化機構を用い、手動の重み調整を必要とせずに探索を低電力領域へ導きます。
  • RTL-OPT ベンチマークの 40 件の RTL 設計に対して評価した結果、POET は全設計で機能的正確性を 100% 達成し、全設計で最良の電力性能を実現するとともに、面積および遅延の改善も競争力を持ちます。

Abstract

Applying large language models (LLMs) to RTL code optimization for improved power, performance, and area (PPA) faces two key challenges: ensuring functional correctness of optimized designs despite LLM hallucination, and systematically prioritizing power reduction within the multi-objective PPA trade-off space. We propose POET (Power-Oriented Evolutionary Tuning), a framework that addresses both challenges. For functional correctness, POET introduces a differential-testing-based testbench generation pipeline that treats the original design as a functional oracle, using deterministic simulation to produce golden references and eliminating LLM hallucination from the verification process. For PPA optimization, POET employs an LLM-driven evolutionary mechanism with non-dominated sorting, power-first intra-level ranking, and proportional survivor selection to steer the search toward the low-power region of the Pareto front without manual weight tuning. Evaluated on the RTL-OPT benchmark across 40 diverse RTL designs, POET achieves 100% functional correctness, the best power on all 40 designs, and competitive area and delay improvements.