社内DX担当が本気で遊ぶローカルLLM。STS2のWikiをRAG化して「カンニング用AI」を作ってみた

Zenn / 4/15/2026

💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage

Key Points

  • 社内DX担当がローカルLLMを使い、STS2のWikiをRAG化して社内向けの「カンニング用AI」を試作したと紹介している。
  • Wiki本文を検索・参照できるようにすることで、汎用チャットではなく社内/対象資料に根ざした回答に寄せる狙いがある。
  • ローカル実行により、外部API依存を減らしつつ手元で検証・改善する運用イメージを提示している。
  • RAG(検索拡張生成)を実務的な遊び/検証用途に落とし込み、社内ナレッジ活用の具体例としている。
はじめに 前回の記事では、恋人への愚痴とゲーム愛がきっかけでローカルLLM環境(ollama + Docker + OpenWebUI)が爆誕した話を書いた。 環境は整った。でも何に使うかが決まっていなかった。 動機①:会社で申請通してから「使い物にならない」は洒落にならない 本業では社内DX推進担当として、ローカルLLMの社内導入を進めている。申請を通すのに1〜2ヶ月かかる。そこまで苦労して導入してみたら「実用に耐えなかった」では洒落にならない。だから本番投入前に私用環境で本気で触っておきたかった。RAG連携やエージェント機能が実際どこまで使えるのかを、仕事と関係ないところで試...

Continue reading this article on the original site.

Read original →