コードから予測へ:NNGPTにおけるニューラルネットワーク性能分類のためのLLMファインチューニング
arXiv cs.CV / 2026/5/6
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- この論文は、NNGPTフレームワーク内で、生成物を学習して後評価するのではなく「与えられたニューラルネットワーク構造が2つの画像分類データセットのどちらでより高精度を出すか」をLLMで予測する新しい微調整タスクを提案している。
- LEMURデータセットを活用し、標準化されたPyTorch実装と再現可能な評価指標に基づいて、難易度の異なる3種類のプロンプト(容易な正規化精度ベースライン、メタデータのみ、コードのみ)を検証する。
- LoRAでDeepSeek-Coder-7B-Instructをファインチューニングした結果、コードのみのプロンプトが最も良く、15エポックでピーク80%を達成し、メタデータプロンプトの70%を上回った。
- データセットごとの分析では、メタデータは性質が際立つデータセットで有効だが、特徴が重なる場合に低下しやすく、コードのみの方がよりバランス良く機能する。
- まとめると、微調整したLLMはアーキテクチャのソースコードからデータセット横断での適性を推定できることが示され、コードにはデータセットメタデータ単独よりも識別に有用な情報が多い可能性が示唆される。




