完全ローカル AI コードレビュー (1/3) 設計編:Gitea × Ollama の基盤

Zenn / 4/28/2026

💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage

Key Points

  • Giteaをリポジトリ基盤として用い、OllamaでローカルLLMを動かすことで、完全ローカル環境でAIコードレビューを行うための設計方針を示している
  • 設計編として、サービス構成(Gitea側・AI推論側・連携ポイント)を整理し、ローカル完結で運用できる形に落とし込むことを狙っている
  • セキュリティとプライバシーを重視し、コードやレビュー情報を外部に送らずに処理する前提のアーキテクチャを前提としている
  • (1/3のシリーズ前提で)次回以降の実装・運用に向けた基盤選定と設計のたたき台を提供している
! TL;DR: 社内ポリシーでクラウド AI が使えないセルフホスト/オンプレ/閉域網の現場向けに、Gitea・Ollama・act_runner を組み合わせた「運用時の外向き通信を発生させない(初回の Ollama モデル pull・コンテナイメージ取得は信頼済みソースから Egress あり)」AI コードレビュー基盤を 3 部作で解説します。第 1 回の本記事では、実装に入る前に固めておくべきシステム全体像・スコープの多層設計・信頼境界を扱います。設計を先に言語化しておくことで、Part2 以降の実装詰まりと運用事故の大半を未然に回避できます。 検証環境バージョン コン...

Continue reading this article on the original site.

Read original →