過学習とデータリークは何が違うのか?CVが良すぎるときに疑うべきこと

Qiita / 3/29/2026

💬 OpinionIdeas & Deep AnalysisTools & Practical Usage

Key Points

  • 過学習は「学習データに対して過剰に適合してしまい、汎化性能が落ちる現象」で、主にモデルの複雑さと学習/検証の設計に起因します。
  • データリークは「本来は将来情報として使えないはずの情報が学習時に混ざり、見かけ上のCV(検証スコア)が不当に高くなる現象」です。
  • CVが良すぎる場合は、単なる過学習ではなく、分割方法(時系列/グループ)、前処理のやり方、特徴量作成の手順などでリークが起きていないかを疑うべきだと示します。
  • それぞれの違いは“なぜスコアが良いのか”の原因にあり、検証方法とデータ取り扱いの点検によって切り分けられることがポイントです。
  • scikit-learn/Python前提で、初心者が再現性ある評価設計(適切な分割や検証)を身につけることを重視した内容です。
機械学習を学び始めると、過学習とデータリークがごちゃごちゃになりやすいです。 どちらも「学習時はうまくいっているように見えるのに、本番では外れる」という意味では似ています。 でも、原因はまったく違います。 この記事では、ダミーデータを使って 過学習とは何か データリークと...

Continue reading this article on the original site.

Read original →