SpruceChat は llama.cpp を使って、ハンドヘルドのゲームデバイス上で Qwen2.5-0.5B を動かします。クラウド不要、Wi-Fi不要です。モデルは最初の起動後 RAM 上に常駐し、トークンが 1 つずつストリーミングされます。
動作対応: Miyoo A30、Miyoo Flip、Trimui Brick、Trimui Smart Pro
A30(Cortex-A7、クアッドコア)での性能: - モデルのロード: 約 60 秒(初回起動) - 生成: 約 1〜2 トークン/秒 - プロンプト評価: 約 3 トークン/秒
速いわけではないですが、ストリーミングするので考えている様子を見られます。64 ビット対応のデバイスの方が速いです。
この AI はトウヒの木のような性格です。忍耐強く、急がず、あらゆるものに静かに驚いています。
デバイスが Wi-Fi に接続されている場合は、スマホ/ラップトップのブラウザから llama-server にアクセスして、実際のキーボードでチャットすることもできます。
リポジトリ: https://github.com/RED-BASE/SpruceChat
Claude の助けを得て作成しました。すでにデバイス対応を拡張する作業をしている共同開発者がいます。最初のリリースは armhf と aarch64 の両方のバイナリに加え、モデルも同梱されています。
[link] [comments]




