AI Navigate

LLMsを内蔵したローカルの漫画翻訳ツール

Reddit r/LocalLLaMA / 2026/3/14

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • テキスト検出のためのYOLOモデル、カスタムOCRモデル、インペイント用のLaMaモデル、翻訳用の多数のLLM、および翻訳済みテキストをマンガ画像にブレンドするカスタムテキストレンダリングエンジンを組み合わせます。
  • オープンソースでRustで書かれており、CUDAが同梱されたスタンドアロンのアプリケーションで、セットアップは不要です。
  • このツールはローカルで実行され、クラウドサービスに依存せずにオフラインでマンガを翻訳できます。
  • このプロジェクトは約1年間にわたり開発されており、良い成果を上げています。GitHubリポジトリは https://github.com/mayocream/koharu です。

このプロジェクトにはほぼ1年取り組んできました。マンガのページを翻訳するうえで良い成果を上げています。

一般的には、テキスト検出のためのYOLOモデル、カスタムOCRモデル、インペイントのためのLaMaモデル、翻訳用の多数のLLM、そして画像内に翻訳テキストをブレンドするカスタムテキストレンダリングエンジンを組み合わせています。

オープンソースでRustで書かれており、CUDAが同梱されたスタンドアロンのアプリケーションで、セットアップは不要です。

https://github.com/mayocream/koharu

投稿者 /u/mayocream39
[リンク] [コメント]