30_OOF予測値でIsotonic Regressionを学習する
Qiita / 4/7/2026
💬 OpinionIdeas & Deep AnalysisTools & Practical Usage
Key Points
- Isotonic Regressionを用いて、分類モデルの確率出力を実測の頻度に合わせる「キャリブレーション」を行う方法を解説している
- 30_OOF予測値(out-of-fold)を学習データとして使い、汎化時のキャリブレーション品質を高める設計になっている
- 通常の予測値ではなくOOFを使うことで、同一データで学習したバイアスを抑え、過学習に起因する過信を軽減する狙いがある
- 実装はPythonを前提に、OOF予測値からIsotonic Regressionモデルを学習し、キャリブレーション後の確率を得る流れを示す内容になっている
はじめに
Isotonic Regression によるキャリブレーションは、cross_val_predict を使うと最も簡潔に実装できます。
前の記事[13_Isotonic Regressionで確率をキャリブレーションする]ではOOF予測値を手動で生成しましたが...
Continue reading this article on the original site.
Read original →💡 Insights using this article
This article is featured in our daily AI news digest — key takeaways and action items at a glance.
Related Articles

Black Hat USA
AI Business

Black Hat Asia
AI Business

Big Tech firms are accelerating AI investments and integration, while regulators and companies focus on safety and responsible adoption.
Dev.to

New Tech Roles Created by the Rise of AI
Dev.to
OpenAI lays out policy vision for a world remade by AI
Reddit r/artificial