要旨: 私たちは myMNIST(旧BHDD)における最初の系統的ベンチマークを提示します。公開されているビルマ語の手書き数字データセットは、ミャンマーNLP/AI研究にとって重要です。私たちは古典的な深層学習モデル(マルチレイヤー・パーセプトロン、畳み込みニューラルネットワーク、長短期記憶、ゲート付き再帰ユニット、トランスフォーマー)、最近の代替案(FastKAN、EfficientKAN)、エネルギーベースモデル(JEM)、および物理インスパイアされたPETNN変種(Sigmoid、GELU、SiLU)を含む11のアーキテクチャを評価します。評価指標としてPrecision、Recall、F1-Score、Accuracyを用いると、CNNは依然として強力なベースラインであり、総合最高スコアを達成しました(F1 = 0.9959、Accuracy = 0.9970)。PETNN(GELU)モデルはそれに続きます(F1 = 0.9955、Accuracy = 0.9966)、LSTM、GRU、Transformer、KAN系の変種を上回ります。JEMはエネルギーベースモデリングを代表するモデルとして競争力のある性能を示します(F1 = 0.9944、Accuracy = 0.9958)。KANベースのモデル(FastKAN、EfficientKAN)は上位パフォーマーには及ばないものの、有意義な代替ベースラインを提供します(Accuracy ~0.992)。これらの知見は、(i) 多様なモデリングパラダイムにわたるmyMNISTの再現可能なベースラインを確立し、(ii) 古典的およびTransformerベースのモデルに対するPETNNの強力な性能を強調し、(iii) エネルギー由来のPETNNと真のエネルギーベースモデル(JEM)とのギャップを定量化します。私たちはこのベンチマークを公開して、ミャンマー数字認識に関する将来の研究を促進し、地域スクリプト上の新興アーキテクチャのより広い評価を奨励します。
myMNIST: ビルマ語手書き数字認識のPETNN、KAN、古典的ディープラーニングモデルのベンチマーク
arXiv cs.CL / 2026/3/20
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、myMNIST (BHDD) における初の体系的ベンチマークを提示し、古典的DLモデル、FastKAN、EfficientKAN、エネルギーベースモデル(JEM)、およびPETNN系統を含む11アーキテクチャを評価して、ビルマ語手書き数字認識のベースラインを確立する。
- CNNベースラインは総合的に最高の性能を達成し、F1 = 0.9959、Accuracy = 0.9970 を記録しており、このデータセットに対する強力な参照基準を設定した。
- PETNN系(GELU)はCNNに次ぐ形で、F1 = 0.9955、Accuracy = 0.9966 を達成し、このベンチマークでLSTM、GRU、Transformer、KAN系のバリアントを上回った。
- エネルギーベースモデリングを代表するJEMは、F1 = 0.9944、Accuracy = 0.9958 で競争力を示し、地域スクリプトに対するエネルギー志向アプローチの有効性を示している。
- 本研究は再現性のあるベースラインを提供し、PETNNの古典的およびTransformerベースのモデルに対する高い性能を強調し、ミャンマー語文字認識の今後の研究を促進するためにベンチマークを公開している。


