| 57M のパラメータ、完全にバイナリ {-1,+1}、状態空間モデル。C ランタイムには math.h が含まれていません — すべての処理が整数演算です(XNOR、popcount、SSM 状態用の int16 アキュムレータ)。 FPU のないハードウェア向けに設計:ESP32、Cortex-M、または約 8MB のメモリと CPU を備えた何でも。WASM によってブラウザでも動作します。 TinyStories で学習されているため、子ども向けのお話を生成します — 7B モデルと競うのが目的ではなく、他にできない場所で AI を動かすことが目的です。 [link] [comments] |
7MBのバイナリ重みMamba LLM — 推論時の浮動小数点はゼロ、ブラウザで動作
Reddit r/LocalLLaMA / 2026/3/23
💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research
要点
- このプロジェクトの利用しやすさとローカル/ブラウザ実行を示す例として、リンクされたHugging Faceのスペース(OneBitModel/prisme)が用意されています。




