パラメーター数8Bなのにメモリ消費わずか1.15GBの省メモリAIモデル「1-bit Bonsai」が登場、メモリ消費量14倍のモデルと同等以上の性能を発揮

GIGAZINE / 2026/4/6

📰 ニュースDeveloper Stack & InfrastructureModels & Research

要点

  • パラメーター約8Bながら、推定メモリ消費が約1.15GBという省メモリ設計のAIモデル「1-bit Bonsai」が登場した。
  • 14倍のメモリ消費を要するモデルと同等以上の性能を発揮することが主張されており、低リソース推論の有効性が示されている。
  • ビット精度を落とす「1-bit」系の量子化/圧縮アプローチにより、モデルサイズ増大に伴うメモリボトルネックを軽減する狙いがある。
  • 同程度の計算資源でより大きい実用モデルを回したい開発・運用側にとって、展開コスト(GPUメモリ/運用費)を下げる選択肢になり得る。


AIモデルはパラメーター数が多いほど性能が高くなりやすいですが、パラメーター数が多くなるとメモリ使用量が増加してしまうというトレードオフの関係にあります。AI開発企業のPrismMLが2026年3月31日に発表した「1-bit Bonsai」は80億パラメーターのモデルを1.15GBという少ないメモリ使用量で実行することが可能。さらに、メモリ約14倍消費する他モデルを打ち負かすほどのベンチマークスコアも記録しており、高性能かつ省メモリなAIモデルとして注目を集めています。

続きを読む...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →