PiとQwen3.5 27BでPi Extensionを作成する

Reddit r/LocalLLaMA / 2026/4/11

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • 著者は、コミュニティの推奨を受けてPiを試すことにした判断を説明し、Claude CodeのよりAnthropic/フォーマットに特化したチューニングと比べて、Piはローカルのエージェント型「ハーネス」ワークフローに対して柔軟性が高い点を強調している。
  • Claude Code風の機能をPiで再現する実験について述べており、Piにカスタム拡張を生成させ、その拡張がプロンプト/セッションの稼働時間を追跡して表示する仕組みを作っている。
  • Qwen3.5 27Bを使用した結果、拡張の作成は「ワンショット」でうまくいったと報告しており、より大きなタスクに向けたモデルサイズのトレードオフ(Qwen Coder Next以上など)を示唆している。
  • コンテキストを64kから131kへ増やした際の実運用におけるパフォーマンスとリソース観測を共有しており、最大コンテキスト時の概算VRAM使用量(約29GB)や、Claude Codeよりもシステムプロンプトが最小限であるためPiの方がわずかに速く感じられる点を述べている。
  • バッテリー駆動のAsus ROG Flow Z13でのエネルギー効率も評価しており、セッションあたりのバッテリー消費が約30%で、GPU電力の消費が比較的安定していること、また大きな速度低下が見られなかったことを報告している。

最新の投稿で、ローカルモデルで使うための「Claude Code」のセットアップについて書いたところです。

コメント欄で **Pi** を試してみるといいというおすすめをもらいました。その提案は、カスタマイズ性と、ローカルモデル向けの優れたハーネス(制御基盤)によるものでした。Anthropicモデル形式(OpenAI Codexに似た形式)に合わせて調整されている Claude Code と違い、Pi にはより高い柔軟性があります。

**TL;DR:** エージェント的なハーネスの世界では、Pi は Arch Linux だと思ってください。

この投稿では、私のセットアップ、アイデア、気持ち、実験を共有したいと思います。Pi を使うようにあなたを説得するつもりはありません;

その代わり、Pi: The Minimal Agent Within OpenClaw

Creators Blog

をはじめとする他のブログを確認してください。

### Claude Codeの機能をPiに持ち込む

Claude Code から Pi に、いくつか生産的な機能を取り込み、いくつか実験をしてみたかったのです。具体的には、Claude Code が表示する `Working... {time}` と同様に、現在のプロンプトとセッションの稼働時間を追跡したいと思いました。

私は Pi に、そのドキュメントを読んで、時間を計測して表示するための拡張機能を作るように頼みました。Pi には、その 1k システムプロンプト内にドキュメントへの参照が含まれているので、拡張機能の修正や作成の方法を理解しています。

ANNNNDDD

Qwen は一発でうまくやってくれました。これがサブエージェントの性能でも機能するなら、ちょっとしたタスクに関しては Sonnet 4.5 レベル、または GPT-5.4-mini 程度の感触です。より大きなタスクでは、Qwen Coder Next かそれ以上のモデルをおすすめします。

### リソース使用量と速度

前回の投稿では、64k のコンテキストウィンドウを使っていましたが、実際にはあまり十分ではありませんでした。131k に切り替えたところ、Qwen の推論が高いコンテキストでも大きくは落ちないので嬉しかったです。

* **VRAM 使用量:** 最大コンテキスト使用時で29GB。

速度: ご存じのとおり、コンテキストが増えるほど、プロンプト処理とトークン生成の速度は低下します。ですが Claude Code と比べると、Pi のほうが少し速いように感じます。これは、Pi の RAM と CPU の使用量が小さいこと、そして巨大な 20k のシステムプロンプトを読み込んでいるわけではなく、ミニマリストなものだけを使っているためです。

カスタマイズ: システムプロンプトに詳細を追加したい場合は、リークされたコードを確認して必要なものをすべて取り出し、それを Pi に組み込めます。

スキルもデフォルトで完全には設定されていません。私は自分で Brave Search のスキルを読み込む必要がありました。

### エネルギー効率

これは **Asus ROG Flow Z13** で、電源接続なし、バッテリー駆動でテストしました。

バッテリー消費: 単一のプロンプトセッションでバッテリーが約30%減りました。

電力使用量: GPU の消費電力は 60W から 52W に下がりましたが、これは些細な差です。

性能: トークン生成やプロンプト処理速度が大きく落ちた体感はありませんでした。

### ハーネス性能

以前は、Pi は **Terminal Bench** で良い成績を出していましたが、なぜ現在はランキングに載っていないのかがよく分かりません(誰か理由を説明できるかもしれませんか??)。

私の個人的な感覚では、Pi は「プロダクション」グレードのアプリケーションや用途に対して、Claude Code や Codex より約 5% 劣っている感じです。まだ「ForgeCode」はテストしておらず、それがどう動くのかもまったく分かりません。とはいえ、ローカルモデルの場合は Pi は必須です。設定の過程で、あなた自身のハーネスを「ビルド」することになります。

### アダプテーションレイヤー

前回の投稿から私にとって最も重要な持ち帰りは **アダプテーションレイヤー** でした。これは、あなたが使っているハーネスに合わせてローカルモデルを適応させる必要がある、という前提に基づいています。というのも、各モデルはツール呼び出しやテンプレートのスタイルが異なることを前提にしているからです。

Pi を設定しているとき、チャットテンプレートを設定する項目があり、私は Qwen 用にそれを設定しました。これが Pi にとって最大の勝ち(大きな収穫)でした。

私にとって完璧なハーネス状態に到達するまで、引き続き Pi を設定していきます!

submitted by /u/FeiX7
[link] [comments]