「スマホで動く」80億パラメーターLLM――1.15GBで実運用レベルうたう「1-bit Bonsai」が話題に

ITmedia AI+ / 2026/4/6

📰 ニュースSignals & Early TrendsIndustry & Market MovesModels & Research

要点

  • PrismMLのLLM「1-bit Bonsai」は、80億パラメーター級を1.15GBに収めつつエッジ(スマホ等)で実運用レベルの精度を狙うと発表した。
  • 従来の低ビット量子化とは異なり、埋め込み層・アテンション層・LMヘッドを最初から1ビットで設計する学習/モデル化の工夫により、精度低下を抑える方針を示した。
  • ベンチマークでは「1-bit Bonsai 8B」が同クラスの8Bモデルに匹敵するスコアを維持し、「インテリジェンス密度」ではQwen3 8Bを大きく上回ったと報告している。
  • 重みはApache 2.0ライセンスで公開され、AppleはMLX経由、NVIDIAはllama.cpp CUDAで動作するなど、ローカル/エッジ展開を見据えた実装面も提示された。

 高性能モデルがスマホで動くサイズに――米カリフォルニア工科大学発のAIスタートアップ企業、PrismMLが3月31日(現地時間、以下同)に発表した大規模言語モデル(LLM)「1-bit Bonsai」が話題になっている。学習の方法を工夫することでメモリ使用量を1.15GBまで抑えつつ、エッジ環境で実運用レベルの精度を実現したという。

 一般的に、LLMのサイズを小さくする手法として、学習済みのモデルの重みを低いビット精度に変換する「量子化」が使われる。しかし極端に低いビット数に量子化すると、実用レベルの精度を維持するのが難しい。

 1-bit Bonsaiのアプローチはこれとは異なり、入力されたテキストを数値に変換する部分(埋め込み層)から、文脈を読み取る部分(アテンション層)、最終的な回答を生成する部分(LMヘッド)まで、モデル全体を1ビットで設計したことでメモリ使用量を抑えたとPrismMLは説明する。後から精度を落とすのではなく、最初から1ビットで高い性能を出せるよう学習の方法自体を工夫した形だ。

 同社が公開したベンチマークテストの結果によると、1-bit Bonsai 8Bは同じ8Bクラスのモデルに匹敵するスコアを維持している。同社が独自に定義する「インテリジェンス密度」(ベンチマークの平均エラー率の負の対数をモデルサイズで割った指標)では、1-bit Bonsai 8Bが1.06/GBを記録。同パラメータクラスの「Qwen3 8B」の0.10/GBを大きく上回った。

1-bit Bonsai 8Bと、他社の8Bクラスモデルのベンチマークスコアを比較した表(出典:公式ブログ)

 1-bit Bonsaiのモデルの重みはApache 2.0ライセンスで公開されている。AppleのデバイスではMLX経由で、NVIDIAのGPUでは「llama.cpp CUDA」で動作する。

関連記事

関連リンク

Copyright © ITmedia, Inc. All Rights Reserved.

続きを読むには、コメントの利用規約に同意し「アイティメディアID」および「ITmedia AI+メールマガジン」の登録が必要です