Ternary Bonsai:1.58ビットで最高クラスの知能

Reddit r/LocalLLaMA / 2026/4/17

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • Prism MLは、「Ternary Bonsai」という新しい1.58ビットの言語モデル群を発表し、厳しいメモリ制約下でも高い精度を維持することを目指しています。
  • 以前の1ビットBonsaiモデルに基づき、効率性の到達点を変えて、わずかなサイズ増で大きな性能向上を狙う設計です。
  • モデルは3つのパラメータ規模(8B、4B、1.7B)で提供され、重みを{-1, 0, +1}の三値で表すことで、標準的な16ビットモデルに比べてメモリ使用量を約9分の1にできるとしています。
  • ベンチマークでは、各パラメータクラスにおける多くの競合より優れていると報告されています。
  • Hugging Faceのコレクションでは、互換性のためにTernary Bonsai-8BのFP16 safetensorsが提供されます。一方で、パック形式として現時点で利用できるのはMLXの2ビット形式のみで、他バックエンド向けの形式も近日中に追加予定です。
Ternary Bonsai: 1.58ビットでトップの知能

本日、厳格なメモリ制約と高い精度要件のバランスを取るために設計された、新しい1.58ビット言語モデルのファミリー「Ternary Bonsai」を発表します。

今回のリリースは、最近公開した1ビットのBonsaiモデルで私たちが探り始めた効率フロンティアに基づいています。1ビットのファミリーでは、極端な圧縮でも商用的に有用な言語モデルが作れることが示されました。Ternary Bonsaiは、このカーブ上の別の地点を狙っています。性能の大きな向上のために、サイズを控えめに増やすことです。

モデルは3つのサイズで提供されます:8B、4B、そして1.7Bのパラメータです。三値重み {-1, 0, +1} を用いることで、これらのモデルは標準的な16ビットモデルに比べてメモリフットプリントを約9分の1にしつつ、標準ベンチマークにおいて、それぞれのパラメータクラスにおけるほとんどの競合を上回ります。

ブログ記事: https://prismml.com/news/ternary-bonsai

モデル: https://huggingface.co/collections/prism-ml/ternary-bonsai

三値Bonsai-8BモデルのFP16 safetensors(HuggingFace形式)。このリポジトリは、ストックのHuggingFaceツールや、まだいずれのパック済み三値形式もサポートしていないフレームワークでTernary Bonsaiを実行したいユーザーのために用意されています。MLXの2ビット形式は、現時点で利用可能なパック形式の唯一のものです。他のバックエンド向けのより多くの形式は、近日中に提供予定です。

これらの三値Bonsaiモデルには、幻覚(ハルシネーション)がない/少ないことを期待しています。

それらから20〜40Bモデル(Qwen3.5-27B、Qwen3.5-35B-A3B、Gemma-4-31B、Gemma-4-26B-A4B など)を近いうちに!それが、大規模/大きなモデルにとってゲームチェンジの始まりになるはずです

投稿者 /u/pmttyji
[リンク] [コメント]