私はRaspberry Pi 4(8GB)上に、(『アドベンチャー・タイム』の)BMO風の物理的なAIアシスタントを作っています。アシスタントには:
- 発話に反応するpygameのアニメーション顔
- ウェイクワードのリスニング
- 会話メモリ(JSONベース)
- 状態システム(スリープ/アイドル/考える/話す)
- 後でESP32モジュールを接続して部屋のデバイスを制御する予定
現時点ではすべてデスクトップで動いています。AI部分を完全にPiに移したいと考えています。
現在は次でテスト中です:
ollama llama3.2:1b
ただ、このモデルはPi 4で信頼性のある性能を出すには重すぎるかもしれない、と言われました。私が試したより小さいモデルは動きますが、明らかに悪くなります(幻覚が増える/指示に従うのをやめるなど)。
そこで質問です:
- Pi 4(8GB)は、このような小さなアシスタント用途で、現実的に llama3.2:1b を動かせるのでしょうか?
- この用途向けに、より軽量な(Ollama互換の)モデルはありますか?
- Pi 4で、音声アシスタントをローカル推論のみでうまく動かした人はいますか?
もしこの件について経験があり、手助けしてもらえるならぜひお願いします!私はこれにかなりの時間を費やしていて、全部無駄にしたくありません。
[リンク] [コメント]




