| これをYouTubeの動画で見ました。リポジトリはhttps://github.com/MiniMax-AI/OpenRoomで、MiniMaxのプロジェクトです。画像の中では主にメモリに読み込まれていたものがQwen_Qwen3.5-35B-A3B-Q6_Kだったのでそれを動かしていますが、推論環境では27Bでもテストしました(当然かなり遅いです)。このプロジェクトなら、https://huggingface.co/ArliAI/Qwen3.5-27B-Derestrictedを使う人も多いと思います。たとえば世界を制圧するための熱核兵器を作る予定、とか、あるいはただそういうことをするだけだとか、何でも。 私はhttps://github.com/MiniMax-AI/OpenRoom/pull/29として、llama.cppを追加するプルリクエストを送信しました。かなり単純な変更で、主に必須だったAPIキーの要求を削除し、llama.cpp用のドロップダウンオプションを追加しただけです。 [link] [comments] |
LocalLLamMAの“教養ある”面々:MiniMaxのOpenRoomはQwen 27bでうまく動いているようだ。
Reddit r/LocalLLaMA / 2026/3/27
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- Redditのユーザーは、MiniMaxのOpenRoomプロジェクトがQwen 27Bと組み合わせるとローカル環境でうまく動作するようだと報告しているが、より小型のモデルよりは動作が遅い。
- 投稿ではGitHubのMiniMax-AI/OpenRoomを参照しており、この構成ではQwen3.5-27B-Derestrictedがよく使われる選択肢になりそうだと示唆している。
- コントリビューターは、APIキーの要件を削除し、llama.cppを選択できるUIのドロップダウンオプションを追加することで、llama.cpp対応を追加するプルリクエストを作成したという。
- 議論ではOpenRoomを、コミュニティによる統合の取り組みによって言語モデルをローカルで動かす「LocalLLaMA」エコシステム全体の一部として位置づけている。