|
今回のリリースは、最近公開した1ビットのBonsaiモデルで私たちが探り始めた効率フロンティアに基づいています。1ビットのファミリーでは、極端な圧縮でも商用的に有用な言語モデルが作れることが示されました。Ternary Bonsaiは、このカーブ上の別の地点を狙っています。性能の大きな向上のために、サイズを控えめに増やすことです。 モデルは3つのサイズで提供されます:8B、4B、そして1.7Bのパラメータです。三値重み {-1, 0, +1} を用いることで、これらのモデルは標準的な16ビットモデルに比べてメモリフットプリントを約9分の1にしつつ、標準ベンチマークにおいて、それぞれのパラメータクラスにおけるほとんどの競合を上回ります。 ブログ記事: https://prismml.com/news/ternary-bonsai モデル: https://huggingface.co/collections/prism-ml/ternary-bonsai
これらの三値Bonsaiモデルには、幻覚(ハルシネーション)がない/少ないことを期待しています。 それらから20〜40Bモデル(Qwen3.5-27B、Qwen3.5-35B-A3B、Gemma-4-31B、Gemma-4-26B-A4B など)を近いうちに!それが、大規模/大きなモデルにとってゲームチェンジの始まりになるはずです。 [リンク] [コメント] |
Ternary Bonsai:1.58ビットで最高クラスの知能
Reddit r/LocalLLaMA / 2026/4/17
📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- Prism MLは、「Ternary Bonsai」という新しい1.58ビットの言語モデル群を発表し、厳しいメモリ制約下でも高い精度を維持することを目指しています。
- 以前の1ビットBonsaiモデルに基づき、効率性の到達点を変えて、わずかなサイズ増で大きな性能向上を狙う設計です。
- モデルは3つのパラメータ規模(8B、4B、1.7B)で提供され、重みを{-1, 0, +1}の三値で表すことで、標準的な16ビットモデルに比べてメモリ使用量を約9分の1にできるとしています。
- ベンチマークでは、各パラメータクラスにおける多くの競合より優れていると報告されています。
- Hugging Faceのコレクションでは、互換性のためにTernary Bonsai-8BのFP16 safetensorsが提供されます。一方で、パック形式として現時点で利用できるのはMLXの2ビット形式のみで、他バックエンド向けの形式も近日中に追加予定です。



