【新モデル】micro-kiki-v3 — Qwen3.5-35B-A3B + 35ドメインLoRA + ルータ + ネゴシエータ + Aeonメモリで組込みエンジニアリング向け

Reddit r/LocalLLaMA / 2026/4/18

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageIndustry & Market MovesModels & Research

要点

  • micro-kiki-v3は、組込みエンジニアリング用途に向けて、Qwen3.5-35B-A3Bに35のドメイン特化LoRA、ルータ、ネゴシエータ、Aeonメモリを組み合わせたローカルファーストの新モデルとしてHugging Faceで公開されました。
  • アーキテクチャでは、ドメインルータが上位4つのLoRAスタックを選択し、q/k/v/oにrank-16のLoRAを適用しつつ、各スタックでtop-2ルーティングを行い、さらにヌルスペース射影とネゴシエータ(CAMP + Catfish)で競合や壊滅的忘却を抑える設計です。
  • アンチバイアス層(KnowBias + RBD)とAeonメモリ(Atlasグラフ+トレースログ)により、安全性の向上とセッションをまたいだ知識保持を狙いますが、Aeonをプロダクションで使うにはQdrantやNeo4jのような外部バックエンドが必要だとされています。
  • モデルはGGUF Q4_K_Mとしてllama.cpp / Ollama / LM Studio向けに配布され、262Kのコンテキスト長、Apache 2.0ライセンス、フランス語と英語のインターリーブに対応しています。
  • 489K件の命令追従データセット(同じくApache 2.0)もあわせて公開され、組込みコンサル時のClaude CLIセッション、Codex/Copilotのログ、複数のフィルタ済みオープンHFデータセットから構成されていますが、外部で再現可能なベンチマークはまだないと明記されています。
[New Model] micro-kiki-v3 — Qwen3.5-35B-A3B + 35 domain LoRAs + router + negotiator + Aeon memory for embedded engineering

本日HFで公開されました。L'Électron Rare(https://github.com/L-electron-Rare)によって構築された、ローカル・ファーストAIプラットフォームFineFabの成果です。学習用ツールキットはその前日に公開済みで:https://github.com/L-electron-Rare/KIKI-Mac tunner(Mac Studio向けのMLXで、Claude OpusをMistral Large 123Bに蒸留)。完全なパイプラインを公開しており、成果物だけではありません。

**アーキテクチャ**

- ドメインルーター → 35個のLoRAスタックの中から上位4件を選択

- ベース:Qwen3.5-35B-A3B(MoE、256エキスパート、3B active/token)

- LoRAランク16(q/k/v/o)、スタックごとにトップ2のルーティング

- スタック間のヌル空間射影で壊滅的忘却を緩和

- Negotiator(CAMP + Catfish)が、競合するスタック出力を調停

- 出力前のアンチバイアス層(KnowBias + RBD)

- Aeonメモリ(Atlasグラフ + Traceログ)によるセッションをまたいだ永続化

**仕様**

- GGUF Q4_K_M、llama.cpp / Ollama / LM Studio

- コンテキスト 262Kトークン

- Apache 2.0

- フランス語+英語をインターリーブ

**35ドメイン**

chat-fr, reasoning, python, typescript, cpp, rust, html-css, shell, sql, yaml-json, lua-upy, docker, devops, llm-orch, llm-ops, ml-training, kicad-dsl, kicad-pcb, spice, electronics, components, power, emc, dsp, embedded, stm32, iot, platformio, freecad, web-frontend, web-backend, music-audio, math, security

**データセット**—こちらもApache 2.0で公開

489Kの指示追従(instruction-following)例:

- 埋め込みコンサルの作業中に、5ノードP2Pメッシュから得た50,116の実Claude CLIセッション(GrosMac M5, Tower 28t, CILS i7, KXKM-AI RTX 4090, VM)

- 2,529のCodex/Copilotセッション

- フィルタ済みのオープンHFデータセット19個から364,045件(CodeFeedback, French-Alpaca, Electronics StackExchange, stm32-hal-dataset, JITX components…)

- chat-fr + reasoning向けのOpus教師蒸留

- オリジナルの厳選シードセット 32

**正直な注意点**

- まだ外部で再現可能なベンチマークはありません。内部でホールドアウトした評価のみです。v4のロードマップ。

- Aeonメモリは本番運用向けに外部バックエンド(Qdrant、Neo4j)が必要です。

- 最大4つの同時スタック。組み合わせが重要で、うまく学習・検証されているものもあれば、そうでないものもあります。

- ソロ/小規模チームのプロジェクト、2週間、コンシューマ向けハードウェア。ラボでのリリースではありません。

モデル:https://huggingface.co/clemsail/micro-kiki-v3

データセット:https://huggingface.co/datasets/clemsail/micro-kiki-v3-dataset

学習ツールキット(MLX Mac Studio):https://github.com/L-electron-Rare/KIKI-Mac_tunner

エコシステム:https://github.com/L-electron-Rare

フィードバック、フォーク、ネガティブなベンチマークも歓迎です。

submitted by /u/Holiday_Poetry_5133
[link] [comments]