手入力された運用データの上に、軽量な需要予測エンジンを構築しています。POS連携はなし、外部フィードもなし。意図的に、設計によって制約を設けています。
セットアップはこうです。オペレーターが毎日4〜5個のシグナルを記録します(売上、席数、廃棄、カテゴリ構成、天気や地域のイベントなどの文脈フラグ)。エンジンは週次の、見通しを示すディレクティブを出力します。何が起こりそうか、何を準備するか、何を注文するか。そして、明示された信頼度つきです。
現在のアーキテクチャ方針:
Day 1〜30: 統計ベースラインのみ(曜日分解+トレンド)。MLは使いません。
Day 30以降: エンティティ間での軽量なグローバルモデル(類似する施設同士で学習し、エンティティごとに予測)
学習の前に外れ値フラグを立てる。後ではありません。データが壊れているシグナルの日は、モデルから完全に除外します。
信頼度スコアはエンドユーザーに提示し、隠しません。
具体的に3つの質問:
- 少数Nにおけるグローバルモデル vs ローカルモデル 10未満の施設、かつ施設あたり90日未満の履歴がある場合、グローバルモデル(全体で学習し、エンティティごとに予測)は、施設ごとにローカルの統計モデルを当てはめるのと比べて、本当に良いのでしょうか? 直感では、共有される曜日パターンがあるためグローバルが勝つはずですが、このデータ量では不明です。
- 疎な時系列における外れ値の扱い 特に、外部の検証なしに「本当の需要急増」か「入力ミスのデータ」かを区別できない場合、学習前に異常な日をフラグ付けして除外するためのベストプラクティスは何でしょうか。外れ値を明示的にモデル化しますか、それともマスクして補間しますか?
- オペレーターが信頼できる信頼区間 短い表形式の時系列に対して、校正された予測区間を出せる軽量な実装を探しています。適合度予測(conformal prediction)や分位点回帰を検討しています。別の選択肢も歓迎です。
文脈: 出力は非技術のオペレーターが利用します。信頼度は、確率分布としてではなく「高い自信」vs「低い自信」として解釈可能である必要があります。
[link] [comments]
![[Boost]](/_next/image?url=https%3A%2F%2Fmedia2.dev.to%2Fdynamic%2Fimage%2Fwidth%3D800%252Cheight%3D%252Cfit%3Dscale-down%252Cgravity%3Dauto%252Cformat%3Dauto%2Fhttps%253A%252F%252Fdev-to-uploads.s3.amazonaws.com%252Fuploads%252Fuser%252Fprofile_image%252F3618325%252F470cf6d0-e54c-4ddf-8d83-e3db9f829f2b.jpg&w=3840&q=75)



