要旨: 能動学習(active learning)において、メンバーシップ質問(MQs)により学習者は教師に対して「『すべてのリンゴは果物ですか?』」のような質問を投げかけ、教師は正しく「はい」または「いいえ」で応答することができます。これらのMQは、目標オントロジーに関する包含(subsumption)テストとして捉えることができます。記述論理における包含の充足可能性への標準的な還元に触発されて、我々は各候補となる公理を、それに対応する反概念(counter-concept)へと再定式化し、Large Language Models(LLMs)へ提示する前に、それを統制自然言語(controlled natural language)で言語化(verbalise)します。我々は、反概念の一つのインスタンスを近似する実世界の例を提供する、第三の構成要素としてLLMsを導入します。この設計上の性質により、オントロジーモデリングで起こりうるのはタイプIIの誤りのみであることが保証されます。最悪の場合でも、これらの誤りは不整合を導入することなく、構築プロセスを遅らせるにとどまります。我々の枠組みにおけるタイプIIの誤りに対応する想起率(recall)は、いくつかのよく確立されたオントロジーにわたって安定していることが、13の商用LLMに関する実験結果によって示されました。
包摂から充足可能性へ:OWLオントロジーに対するLLM支援アクティブラーニング
arXiv cs.AI / 2026/4/21
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- この論文は、メンバーシップクエリを目標オントロジーに関する包摂テストとして捉えることで、OWLオントロジー向けのLLM支援アクティブラーニングの枠組みを提案します。
- 各候補アクシオンを反概念へ変換し、管理された自然言語で言語化したうえで、LLMに対して反概念の実体を近似する実世界の例を生成させます。
- この設計により、オントロジーモデリング中に起こりうるのはType IIエラーだけに制限され、最悪の場合でも進行が遅れるだけで論理的な不整合は導入しないことが保証されます。
- 13種類の商用LLMを用いた実験では、提案枠組みにおけるType IIエラーに相当する指標としてのリコールが、複数の確立されたオントロジー間で安定していることが示されています。
- 全体として、本研究は記述論理における包摂から充足可能性への理論と、LLMによる例生成を結びつけ、オントロジー学習プロセスの実用性を高めることを狙っています。




