| 簡単なタスクで、これらのローカルモデルと一緒にうまく動いてくれているコーディングエージェントを共有したかったです。 https://github.com/0xku/kon これは pi(シンプルなハーネス)、opencode(ツール呼び出しのためにほとんどUIの実状態を節約する)、amp code(/handoff)、もちろん claude code から多くの着想を得ています。 コミュニティの皆さんに役立つと嬉しいです。チェックすべき項目がたくさんあるはずです: これは単なるおもちゃの実装ではなく、いまは(ほぼ)完全なコーディングエージェントです。 @ attachments、/ commands、AGENTS.md、skills、compaction、forking(/handoff)、exports、セッションの再開、モデル切り替え… といった一般的なオプションはすべてサポートしています。 すべてのローカルモデルは、私の3090上で llama-server buildb8740 を使ってテストしました。詳しくは https://github.com/0xku/kon/blob/main/docs/local-models.md をご覧ください。 [link] [comments] |
コーディングエージェント「Kon」と一緒に gemma-4-26B-A4B
Reddit r/LocalLLaMA / 2026/4/10
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- この投稿では、ローカルLLMとスムーズに連携して単純なコーディング作業を行うことを目的としたGitHubのコーディングエージェントプロジェクト「Kon」を紹介する。
- Konは、シンプルさを重視しており(270トークン未満の小さなシステムプロンプト)、テレメトリなし、さらにローカルモデルとの広い互換性を謳っている。GGUFの複数オプションに対してテストした結果も示される。
- エージェントは、OpenAI/Anthropic互換API(OpenAI、Anthropic、Copilot、Azureなど)を含む複数のプロバイダーバックエンドをサポートし、柔軟な導入選択を可能にする。
- さらに、添付ファイル、コマンド、AGENTS.md、スキル、セッションの再開、モデルの切り替え、「フォーク」/引き継ぎ(handoff)といった、一般的なコーディングエージェントのワークフロー機能を提供する。
- 著者は、NVIDIA 3090上でllama-serverを用いたローカルテストを実施しており、モデルの性能やセットアップについては別リポジトリのドキュメントに記録している。




