コーディングエージェント「Kon」と一緒に gemma-4-26B-A4B

Reddit r/LocalLLaMA / 2026/4/10

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • この投稿では、ローカルLLMとスムーズに連携して単純なコーディング作業を行うことを目的としたGitHubのコーディングエージェントプロジェクト「Kon」を紹介する。
  • Konは、シンプルさを重視しており(270トークン未満の小さなシステムプロンプト)、テレメトリなし、さらにローカルモデルとの広い互換性を謳っている。GGUFの複数オプションに対してテストした結果も示される。
  • エージェントは、OpenAI/Anthropic互換API(OpenAI、Anthropic、Copilot、Azureなど)を含む複数のプロバイダーバックエンドをサポートし、柔軟な導入選択を可能にする。
  • さらに、添付ファイル、コマンド、AGENTS.md、スキル、セッションの再開、モデルの切り替え、「フォーク」/引き継ぎ(handoff)といった、一般的なコーディングエージェントのワークフロー機能を提供する。
  • 著者は、NVIDIA 3090上でllama-serverを用いたローカルテストを実施しており、モデルの性能やセットアップについては別リポジトリのドキュメントに記録している。
gemma-4-26B-A4B with my coding agent Kon

簡単なタスクで、これらのローカルモデルと一緒にうまく動いてくれているコーディングエージェントを共有したかったです。 https://github.com/0xku/kon

これは pi(シンプルなハーネス)、opencode(ツール呼び出しのためにほとんどUIの実状態を節約する)、amp code(/handoff)、もちろん claude code から多くの着想を得ています。

コミュニティの皆さんに役立つと嬉しいです。チェックすべき項目がたくさんあるはずです:
- 270トークン未満の小さなシステムプロンプト。これも変更できます
- テレメトリなし
- 最高のローカルモデルすべてで手間なく動作。zai-org/glm-4.7-flash、unsloth/Qwen3.5-27B-GGUF、unsloth/gemma-4-26B-it-GGUF でテスト済み
- openai/anthropic のAPI互換なものなら、openai、anthropic、copilot、azure、zai など主要なプロバイダのほとんどで動作
- シンプルなコードベース(<150ファイル)

これは単なるおもちゃの実装ではなく、いまは(ほぼ)完全なコーディングエージェントです。 @ attachments、/ commands、AGENTS.md、skills、compaction、forking(/handoff)、exports、セッションの再開、モデル切り替え… といった一般的なオプションはすべてサポートしています。
利用できる機能の全ては https://github.com/0xku/kon/blob/main/README.md を見てください。

すべてのローカルモデルは、私の3090上で llama-server buildb8740 を使ってテストしました。詳しくは https://github.com/0xku/kon/blob/main/docs/local-models.md をご覧ください。

submitted by /u/Weird_Search_4723
[link] [comments]