社内DX担当が本気で遊ぶローカルLLM。STS2のWikiをRAG化して「カンニング用AI」を作ってみた
Zenn / 2026/4/15
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage
要点
- 社内DX担当がローカルLLMを使い、STS2のWikiをRAG化して社内向けの「カンニング用AI」を試作したと紹介している。
- Wiki本文を検索・参照できるようにすることで、汎用チャットではなく社内/対象資料に根ざした回答に寄せる狙いがある。
- ローカル実行により、外部API依存を減らしつつ手元で検証・改善する運用イメージを提示している。
- RAG(検索拡張生成)を実務的な遊び/検証用途に落とし込み、社内ナレッジ活用の具体例としている。
はじめに
前回の記事では、恋人への愚痴とゲーム愛がきっかけでローカルLLM環境(ollama + Docker + OpenWebUI)が爆誕した話を書いた。
環境は整った。でも何に使うかが決まっていなかった。
動機①:会社で申請通してから「使い物にならない」は洒落にならない
本業では社内DX推進担当として、ローカルLLMの社内導入を進めている。申請を通すのに1〜2ヶ月かかる。そこまで苦労して導入してみたら「実用に耐えなかった」では洒落にならない。だから本番投入前に私用環境で本気で触っておきたかった。RAG連携やエージェント機能が実際どこまで使えるのかを、仕事と関係ないところで試...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →


