AI Navigate

[P] preflight、ラベル漏洩で3日を費やした後に作成したPyTorch向けの事前トレーニング検証ツール

Reddit r/MachineLearning / 2026/3/15

📰 ニュースDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • 著者は preflight を作成しました。これはトレーニング前に実行される CLI ツールで、モデルの性能を妨げる一般的な静かな問題を検出します。
  • 致命的・警告・情報の重大度レベルにまたがる合計10個のチェックを含み、致命的な失敗時にはコード1で終了します。これにより CI をブロックできます。
  • ツールはラベル漏洩、NaN、誤ったチャネル順序、死んだ勾配、クラス不均衡、VRAM推定などの問題を対象としています。
  • プロジェクトは初期リリース(v0.1.1)で、GitHubとPyPIのページがあり、著者はフィードバックと貢献を求めています。

数週間前、トレーニング実行で役に立たない結果を出していました。

エラーもクラッシュもなく、学習が何も身につかなかったモデル。3日後に原因を見つけました。訓練データと検証データ間のラベル漏れ。モデルはその間ずっと不正をしていたのです。

それで preflight を作りました。これは、トレーニング開始前に実行する CLI ツールで、

NaN、ラベル漏れ、チャネル順序の誤り、死んだ勾配、クラス不均衡、VRAM 推定といった静かな問題を検出します。致命的な失敗時にはコード 1 で終了し、CI をブロックします。

pip install preflight-ml

preflight run --dataloader my_dataloader.py

まだ非常に初期 — v0.1.1 を公開したばかりです。どのチェックが人々にとって最も重要か、私が見落としている点、現行のアプローチの何が間違っているのか、ぜひフィードバックをお願いします。1つまたは2つのチェックを寄与してくれる方がいればさらに良いです。各チェックには、通過テスト、失敗テスト、修正のヒントが必要です。

GitHub: https://github.com/Rusheel86/preflight

PyPI: https://pypi.org/project/preflight-ml/

Not trying to replace pytest or Deepchecks, just fill the gap between 「私のコードが動く」と「私のトレーニングが実際に機能する」。

投稿者: /u/Red_Egnival
[リンク] [コメント]