みなさん、こんにちは、
小さいながらも、苦労してようやく達成した節目を共有したいと思います。
94.48%で長く停滞した後、公式のBANKING77-77テストセット(元のノイズの多い学習データ、厳格なフル訓練プロトコル)を94.61%まで押し上げました。
主な詳細:
- これまでの最高記録から+0.13pp
- 広く引用されている93.83%のベースラインから+0.78pp(公式SOTAシートは94.94%)
- テスト情報の漏洩なし — 凍結用のレシピ作成のために公式訓練データで5-fold CVを実施し、その後100%訓練データで再学習、最終テストは1回だけ評価
モデルは比較的コンパクトです(約68 MiBのフットプリント、推論約216 ms)。
これは、最後の層に対するマルチビュー・エンコーダの適応によって達成しました。多くの小さな調整では、ホールドアウトからテストへうまく転移できなかった後、ようやく効果が出た比較的軽量な変更です。
同じように、ホールドアウトでの改善が真に切り離したテストセットへは転移しない、という壁に他の誰かがぶつかったことはありますか?そして、最終的に何がうまくいきましたか?
[link] [comments]




