7MBのバイナリ重みMamba LLM — 推論時の浮動小数点はゼロ、ブラウザで動作

Reddit r/LocalLLaMA / 2026/3/23

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • このプロジェクトの利用しやすさとローカル/ブラウザ実行を示す例として、リンクされたHugging Faceのスペース(OneBitModel/prisme)が用意されています。
7MB binary-weight Mamba LLM — zero floating-point at inference, runs in browser

57M のパラメータ、完全にバイナリ {-1,+1}、状態空間モデル。C ランタイムには math.h が含まれていません — すべての処理が整数演算です(XNOR、popcount、SSM 状態用の int16 アキュムレータ)。

FPU のないハードウェア向けに設計:ESP32、Cortex-M、または約 8MB のメモリと CPU を備えた何でも。WASM によってブラウザでも動作します。

TinyStories で学習されているため、子ども向けのお話を生成します — 7B モデルと競うのが目的ではなく、他にできない場所で AI を動かすことが目的です。

投稿者 /u/Quiet-Error-
[link] [comments]