MiniRAG: エッジデバイス×SLMのための「超軽量」GraphRAGの正体
Zenn / 2026/5/2
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- MiniRAGは、GraphRAGの考え方を「超軽量」に再設計し、エッジデバイス上でもSLM(小型言語モデル)で動かせることを狙った構成だと説明している。
- ふつうのGraphRAGが持ちがちな計算・メモリ負荷を抑えるために、グラフ参照や検索の扱いを絞り込む方針が示されている。
- エッジ環境という制約下での実運用(レイテンシ、資源、スループット)を前提に、RAGの“グラフ化”を最小限のコストで成立させる設計思想がポイントになる。
- MiniRAGの正体(何を軽量化し、何を残すのか)を通じて、今後のエッジ×LLM/ RAGの実装パターンを具体化する解説記事になっている。
はじめに
ルミナイR&Dチームの宮脇彰梧です。
現在はマルチモーダルAIの研究を行う大学院生として、
生成AIやAIエージェントの技術を実践的に探求しています。
最近、SLM(Small Language Models:Phi-3.5やQwen2.5-3Bなど) が熱いですよね。スマホやPC上でローカルに動くAI、夢があります。でも、実際にこれらのモデルで RAG を組もうとすると、壁にぶち当たった経験はありませんか?
「コンテキストウィンドウが狭くて情報が溢れる」
「ノイズの多い検索結果に引っ張られてハルシネーションがおこる」
「既存のGraphRAGは重すぎてローカルで...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →



