ローカルLLMを使って積読PDFを翻訳する(そしてまた積む)
Zenn / 2026/4/8
💬 オピニオンTools & Practical Usage
要点
- ローカルLLMを使い、手元にある「積読PDF」を翻訳する実践手順を紹介しています。
- PDFの内容をLLMに渡すための前処理(取り込み・整形など)の考え方が中心になっています。
- 翻訳結果をさらに使いやすくするために、運用しながら「また積む(次の資料も回す)」という循環を作る発想が述べられています。
- オフライン/手元完結のローカル推論を前提に、個人や小規模用途での活用イメージを具体化しています。
はじめに
人は愚かなものです。特に安売りの技術書を買うだけ買って読まないお前。
その愚かな人間の一員である私ですが、とりあえず読むための努力はしようかなと思ってPDFを色々いじくり回して得た結論を共有しようかと思います。
手順
共通
LLMといえばOllama!ではありません。私はLM Studioのほうが好みなのでそっちを使います。
下記画像の通り、ターミナルっぽいアイコンを押すとAPIを叩けるようになります。
Load Modelボタンからお好きなモデルを選ぶと準備完了。
モデルは何でも良いが、個人的には下記がおすすめ。(2026-04-08 現在)
ちなみに私は RT...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →


