ローカルLLMを使って積読PDFを翻訳する(そしてまた積む)

Zenn / 2026/4/8

💬 オピニオンTools & Practical Usage

要点

  • ローカルLLMを使い、手元にある「積読PDF」を翻訳する実践手順を紹介しています。
  • PDFの内容をLLMに渡すための前処理(取り込み・整形など)の考え方が中心になっています。
  • 翻訳結果をさらに使いやすくするために、運用しながら「また積む(次の資料も回す)」という循環を作る発想が述べられています。
  • オフライン/手元完結のローカル推論を前提に、個人や小規模用途での活用イメージを具体化しています。
はじめに 人は愚かなものです。特に安売りの技術書を買うだけ買って読まないお前。 その愚かな人間の一員である私ですが、とりあえず読むための努力はしようかなと思ってPDFを色々いじくり回して得た結論を共有しようかと思います。 手順 共通 LLMといえばOllama!ではありません。私はLM Studioのほうが好みなのでそっちを使います。 下記画像の通り、ターミナルっぽいアイコンを押すとAPIを叩けるようになります。 Load Modelボタンからお好きなモデルを選ぶと準備完了。 モデルは何でも良いが、個人的には下記がおすすめ。(2026-04-08 現在) ちなみに私は RT...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →

ローカルLLMを使って積読PDFを翻訳する(そしてまた積む) | AI Navigate