自動コード準拠のためのモデル規模と微調整戦略の違いにわたるLLM帰属分析
arXiv cs.AI / 2026/4/20
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、自動コード準拠に関する既存研究が性能評価にとどまり、学習上の意思決定がLLMの解釈的振る舞いに与える影響を見落としている点に取り組む。
- 摂動に基づく帰属(attribution)分析により、フルファインチューニング(FFT)、LoRA、量子化LoRA微調整といった戦略に加え、モデル規模(パラメータ数)による違いを比較する。
- FFTは、パラメータ効率の高い微調整手法よりも統計的に異なり、より焦点の定まった帰属パターンを生むことが示される。
- モデル規模が大きくなるほど、数値制約やルール識別子を優先するなど、より具体的な解釈戦略が形成される一方で、生成したコンピュータ処理可能なルールと参照ルールのセマンティック類似度は7Bを超えると頭打ちになる。
- これらの知見は、規制ベースの重要タスクにおけるLLMの説明可能性を高め、AEC(建築・工学・建設)業界でより透明性のあるモデル構築に向けた一歩となる。



