アブストラクト: OpenClaw のような大規模言語モデル(LLM)エージェントは、複雑なタスクを実行するために再利用可能なスキルに依存していますが、これらのスキルは導入後ほとんど静的なままです。その結果、類似したワークフロー、ツールの使用パターン、および失敗の様式がユーザー間で繰り返し再発見されてしまい、システムが経験から学習して改善することが妨げられます。異なるユーザーからの相互作用は、スキルが機能する/失敗するタイミングについて補完的な信号を提供する一方で、既存のシステムには、そのような異質な経験を信頼できるスキル更新へと変換する仕組みがありません。これらの課題に対処するために、本研究ではマルチユーザーのエージェント生態系における集団的なスキル進化のためのフレームワークである SkillClaw を提案します。SkillClaw は、スキルを改善するための主要な信号として、ユーザー間および時間をまたいだ相互作用を扱います。SkillClaw は、使用中に生成された軌跡(trajectory)を継続的に集約し、それらを自律的な evolver で処理します。この evolver は反復する行動パターンを特定し、既存のスキルを洗練することで、あるいは新たな能力を追加して拡張することで、スキル集合への更新へと翻訳します。得られたスキルは共有リポジトリに維持され、ユーザー間で同期されるため、ある状況で発見された改善がシステム全体へ波及し、ユーザーによる追加の作業は不要です。マルチユーザーの経験を進行中のスキル更新に統合することで、SkillClaw はユーザー間での知識伝達と、累積的な能力向上を可能にします。また、WildClawBench での実験では、相互作用とフィードバックが限られているにもかかわらず、現実のエージェントシナリオにおいて Qwen3-Max の性能を大幅に改善することが示されています。
SkillClaw:エージェント型のEvolverでスキルを集団的に進化させる
arXiv cs.CL / 2026/4/10
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- SkillClaw は、LLMエージェントが使用する再利用可能なスキルが、導入後にほぼ固定されたままで改善されにくい点を問題提起しています。
- 複数ユーザー間および時間経過にわたる行動軌跡(成功・失敗のパターン)を主信号として集約し、自律的な evolver が繰り返し見られる振る舞いを抽出してスキル更新へ変換する枠組みを提案しています。
- 更新は既存スキルの洗練または新能力の追加として共有リポジトリに反映され、ユーザー間で同期されることで、ある文脈で見つかった改善がシステム全体へ伝播します。
- WildClawBench で、少量の相互作用とフィードバックでも Qwen3-Max の実環境エージェント性能が大きく向上することを実験で示しています。


