要旨: イスラーム相続法(ilm al-mawar{\i}th)は、大規模言語モデルの構造化された推論能力を評価するうえで困難な領域であり、複数ステップの法的分析、ルールに基づくブロッキング判断、および正確な分数計算を必要とします。私たちは、アラビア語のイスラーム相続推論に関するQIAS 2026共有タスクへの、QU-NLPの提出を提示します。提案手法は、Qwen3-4Bに対してマルチステージのQuantized Low-Rank Adaptation(QLoRA)による微調整を用います:(1)相続の用語および法学的推論パターンを獲得するため、3,166件のイスラームのファトワ記録に対するドメイン適応を行い、続いて(2)JSON形式の出力生成を最適化するため、12,000件の構造化された相続事例に対するタスク固有の学習を実施します。ランク128のLoRAアダプタと、4ビットNF4量子化を用いることで、私たちのモデルはテストセットにおいて90%のMIR-E(Mawarith Inheritance Reasoning Evaluation)スコアを達成し、大規模な計算資源をほとんど必要としないにもかかわらず競争力のある性能を示します。結果は、構造化された出力学習と組み合わせたドメイン固有の事前適応により、小型言語モデルでも、Gemini-2.5-flashのような商用システムと比較して、複雑な法的推論タスクを効果的に実行できることを示しています。
QIAS 2026におけるQU-NLP:アラビア語のイスラム相続推論のためのマルチステージQLoRAファインチューニング
arXiv cs.CL / 2026/4/21
📰 ニュースDeveloper Stack & InfrastructureModels & Research
要点
- QU-NLPは、アラビア語のイスラム相続(ilm al-mawarith)推論に関するQIAS 2026共有タスク向けの提出システムであり、複数ステップの法的分析や分数計算を含む構造化推論を対象にしています。
- 手法はQwen3-4Bに対して段階的にファインチューニングを行い、(1) 3,166件のファトワ記録でドメイン適応、(2) 12,000件の構造化相続ケースでタスク固有の学習を行い、JSON形式の出力生成を最適化します。
- 学習では4-bitのNF4量子化とrank-128のQLoRAアダプタを用い、計算コストを抑えつつ推論品質の維持を狙っています。
- モデルはテストセットでMIR-Eスコア90%を達成したとされ、Gemini-2.5-flashのような商用システムに匹敵する性能が示されています。
- ドメイン固有の事前適応と構造化出力の学習を組み合わせることで、小型言語モデルでも複雑な法的推論タスクを効果的に行える可能性を示唆しています。




