【LLM 基礎】トークンって一体何者なの?
Zenn / 4/16/2026
💬 OpinionModels & Research
Key Points
- LLMが扱う「トークン」とは、文章を分割してモデルに入力するための最小単位であり、単語そのものとは限らない点を説明している。
- トークン化の考え方によって、同じ文章でも分割のされ方(単語単位/サブワード単位など)が変わり得ることが示される。
- トークンはモデルの推論・生成の基盤となるため、入力長や出力長、コスト感(計算量/課金の見え方)にも直結するという観点が整理されている。
- LLM基礎として、トークンの役割を押さえることで、以降の仕組み(文脈理解や生成の流れ)を理解しやすくなる。
LLMの文脈で質問、検索をしていると 「トークンが足りません」「トークン消費が多い」 といったキーワードにぶつかって困惑することが多いです。
ここでは、「トークン」というLLMの生成プロセス中の最重要キーワードについて説明していきます。
トークンとトークナイザー:AIが言葉を咀嚼する仕組み
指示(プロンプト)を最小の単位に分割したものが「トークン」です。
LLMは、このトークンの単位で検索や処理を行います。
分割の基準となるのは、LLMの言語処理プロセスにおける「Tokenizer(トークナイザー)」というツールです。これは本体のLLMモデルとは独立した、前処理用のツールとしての役...
Continue reading this article on the original site.
Read original →Related Articles
Failure to Reproduce Modern Paper Claims [D]
Reddit r/MachineLearning

Local Inference Breakthrough: 1-bit Bonsai WebGPU, Ollama Multi-Agent & Gemma4 26B
Dev.to

AI Is Weaponizing Your Own Biases Against You: New Research from MIT & Stanford
Reddit r/artificial

Don't let the bot play doctor! AI gets early diagnoses wrong 80% of the time
The Register

Video of how my LLM's decoder blocks changed while training
Reddit r/LocalLLaMA