完全ローカル AI コードレビュー (1/3) 設計編:Gitea × Ollama の基盤
Zenn / 4/28/2026
💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage
Key Points
- Giteaをリポジトリ基盤として用い、OllamaでローカルLLMを動かすことで、完全ローカル環境でAIコードレビューを行うための設計方針を示している
- 設計編として、サービス構成(Gitea側・AI推論側・連携ポイント)を整理し、ローカル完結で運用できる形に落とし込むことを狙っている
- セキュリティとプライバシーを重視し、コードやレビュー情報を外部に送らずに処理する前提のアーキテクチャを前提としている
- (1/3のシリーズ前提で)次回以降の実装・運用に向けた基盤選定と設計のたたき台を提供している
!
TL;DR: 社内ポリシーでクラウド AI が使えないセルフホスト/オンプレ/閉域網の現場向けに、Gitea・Ollama・act_runner を組み合わせた「運用時の外向き通信を発生させない(初回の Ollama モデル pull・コンテナイメージ取得は信頼済みソースから Egress あり)」AI コードレビュー基盤を 3 部作で解説します。第 1 回の本記事では、実装に入る前に固めておくべきシステム全体像・スコープの多層設計・信頼境界を扱います。設計を先に言語化しておくことで、Part2 以降の実装詰まりと運用事故の大半を未然に回避できます。
検証環境バージョン
コン...
Continue reading this article on the original site.
Read original →Related Articles

Black Hat USA
AI Business
The Landing: Portable Payload for AI Systems
Reddit r/artificial

I Made a CLI That Yells at Your Code Until It Gets an A
Dev.to

BizNode Pro: run up to 5 independent Telegram bots, each with its own identity, knowledge base, and AI persona
Dev.to
OpenAI Releases Privacy Filter: A 1.5B-Parameter Open-Source PII Redaction Model with 50M Active Parameters
MarkTechPost