Dr. RTL:ツールに基づく自己改善による自律的なエージェント型RTL最適化

arXiv cs.AI / 2026/4/17

📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

要点

  • この論文では、既存研究の「現実的でない評価」や「限定的な最適化手法」に起因するギャップを埋めるため、RTL(レジスタ転送レベル)のタイミング最適化を自動化するエージェント型フレームワークDr. RTLを提案しています。
  • Dr. RTLは、手作業で劣化させた小規模RTLや弱いオープンソースツールに頼るのではなく、より大規模で難しい実世界のRTL設計と産業用EDAワークフローを用いた現実的な評価環境で検証されます。
  • 同システムは、クリティカルパス解析、RTLの並列書き換え、ツールに基づく評価からなるマルチエージェント構成で閉ループ最適化を実行し、反復的に品質を高めます。
  • さらに、並列なRTL書き換えの比較から最適化経験を解釈可能なスキルライブラリへ蒸留する「グループ相対スキル学習」を導入し、現在は47件のパターン–戦略エントリを備え、時間とともに進化し続けることができます。
  • 20の実世界RTL設計での評価では、WNS/TNSが平均21%/17%改善し、さらに面積が6%削減されたと報告されています(業界トップの商用合成ツール比)。

要旨: 大規模言語モデル(LLM)の最近の進歩により、より良い性能・消費電力・面積(PPA)を実現するための自動RTL最適化への関心が高まっています。しかし、既存の手法はいまだ現実的なRTL最適化からは程遠い状況です。評価設定がしばしば非現実的です。手作業で劣化させた小規模なRTL設計に対してテストされ、また弱いオープンソースツールに依存しています。さらに、最適化手法自体も限定的であり、粗い設計レベルのフィードバックと、単純な事前定義のリライト規則に依存しています。これらの制約に対処するために、再利用可能な最適化スキルによる継続的な自己改善を備えた、現実的な評価環境におけるRTLタイミング最適化のためのエージェント型フレームワークであるDr. RTLを提案します。より挑戦的なRTL設計と産業用EDAワークフローによって、現実的な評価設定を確立します。この設定のもとで、Dr. RTLは、クリティカルパス解析、並列RTLリライト、ツールベースの評価のためのマルチエージェント・フレームワークによって、クローズドループ最適化を実行します。加えて、グループ相対的なスキル学習を導入します。これは、並列RTLリライトを比較し、最適化の経験を解釈可能なスキルライブラリへ蒸留するものです。現在、このライブラリには、設計間での再利用によってPPAを改善し、収束を加速するための、47のパターン--戦略エントリが含まれており、さらに時間とともに進化し続けることができます。20の実世界のRTL設計で評価したところ、Dr. RTLは、業界トップクラスの商用合成ツールに対して、平均WNS/TNSの改善が21"]/17"]/、面積の削減が6"]/を達成します。