| 本日HFで公開されました。L'Électron Rare(https://github.com/L-electron-Rare)によって構築された、ローカル・ファーストAIプラットフォームFineFabの成果です。学習用ツールキットはその前日に公開済みで:https://github.com/L-electron-Rare/KIKI-Mac tunner(Mac Studio向けのMLXで、Claude OpusをMistral Large 123Bに蒸留)。完全なパイプラインを公開しており、成果物だけではありません。 **アーキテクチャ** - ドメインルーター → 35個のLoRAスタックの中から上位4件を選択 - ベース:Qwen3.5-35B-A3B(MoE、256エキスパート、3B active/token) - LoRAランク16(q/k/v/o)、スタックごとにトップ2のルーティング - スタック間のヌル空間射影で壊滅的忘却を緩和 - Negotiator(CAMP + Catfish)が、競合するスタック出力を調停 - 出力前のアンチバイアス層(KnowBias + RBD) - Aeonメモリ(Atlasグラフ + Traceログ)によるセッションをまたいだ永続化 **仕様** - GGUF Q4_K_M、llama.cpp / Ollama / LM Studio - コンテキスト 262Kトークン - Apache 2.0 - フランス語+英語をインターリーブ **35ドメイン** chat-fr, reasoning, python, typescript, cpp, rust, html-css, shell, sql, yaml-json, lua-upy, docker, devops, llm-orch, llm-ops, ml-training, kicad-dsl, kicad-pcb, spice, electronics, components, power, emc, dsp, embedded, stm32, iot, platformio, freecad, web-frontend, web-backend, music-audio, math, security **データセット**—こちらもApache 2.0で公開 489Kの指示追従(instruction-following)例: - 埋め込みコンサルの作業中に、5ノードP2Pメッシュから得た50,116の実Claude CLIセッション(GrosMac M5, Tower 28t, CILS i7, KXKM-AI RTX 4090, VM) - 2,529のCodex/Copilotセッション - フィルタ済みのオープンHFデータセット19個から364,045件(CodeFeedback, French-Alpaca, Electronics StackExchange, stm32-hal-dataset, JITX components…) - chat-fr + reasoning向けのOpus教師蒸留 - オリジナルの厳選シードセット 32 **正直な注意点** - まだ外部で再現可能なベンチマークはありません。内部でホールドアウトした評価のみです。v4のロードマップ。 - Aeonメモリは本番運用向けに外部バックエンド(Qdrant、Neo4j)が必要です。 - 最大4つの同時スタック。組み合わせが重要で、うまく学習・検証されているものもあれば、そうでないものもあります。 - ソロ/小規模チームのプロジェクト、2週間、コンシューマ向けハードウェア。ラボでのリリースではありません。 モデル:https://huggingface.co/clemsail/micro-kiki-v3 データセット:https://huggingface.co/datasets/clemsail/micro-kiki-v3-dataset 学習ツールキット(MLX Mac Studio):https://github.com/L-electron-Rare/KIKI-Mac_tunner エコシステム:https://github.com/L-electron-Rare フィードバック、フォーク、ネガティブなベンチマークも歓迎です。 [link] [comments] |
【新モデル】micro-kiki-v3 — Qwen3.5-35B-A3B + 35ドメインLoRA + ルータ + ネゴシエータ + Aeonメモリで組込みエンジニアリング向け
Reddit r/LocalLLaMA / 2026/4/18
📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageIndustry & Market MovesModels & Research
要点
- micro-kiki-v3は、組込みエンジニアリング用途に向けて、Qwen3.5-35B-A3Bに35のドメイン特化LoRA、ルータ、ネゴシエータ、Aeonメモリを組み合わせたローカルファーストの新モデルとしてHugging Faceで公開されました。
- アーキテクチャでは、ドメインルータが上位4つのLoRAスタックを選択し、q/k/v/oにrank-16のLoRAを適用しつつ、各スタックでtop-2ルーティングを行い、さらにヌルスペース射影とネゴシエータ(CAMP + Catfish)で競合や壊滅的忘却を抑える設計です。
- アンチバイアス層(KnowBias + RBD)とAeonメモリ(Atlasグラフ+トレースログ)により、安全性の向上とセッションをまたいだ知識保持を狙いますが、Aeonをプロダクションで使うにはQdrantやNeo4jのような外部バックエンドが必要だとされています。
- モデルはGGUF Q4_K_Mとしてllama.cpp / Ollama / LM Studio向けに配布され、262Kのコンテキスト長、Apache 2.0ライセンス、フランス語と英語のインターリーブに対応しています。
- 489K件の命令追従データセット(同じくApache 2.0)もあわせて公開され、組込みコンサル時のClaude CLIセッション、Codex/Copilotのログ、複数のフィルタ済みオープンHFデータセットから構成されていますが、外部で再現可能なベンチマークはまだないと明記されています。




