Tokens and Context Windows: The Foundation of Pricing and Limits

AI Navigate Original / 4/27/2026

💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage
共有:

Key Points

  • LLMは「単語」ではなく「トークン」単位でテキストを処理するため、トークン数がコストと制約の基礎指標になる(英語は概ね約0.75 words/token)。
  • 日本語は同じ意味を表す場合に英語より1.5〜2倍程度多くのトークンを消費し、同一タスクでも課金や上限到達に差が出る。
  • コンテキストウィンドウは1リクエストで扱える最大トークン数で、モデルごとに上限が異なる(例: GPT-5 400K、Claude 1M、Gemini 2M)。
  • 価格は入力トークンと出力トークンのそれぞれの単価で決まり、一般に出力側が入力より4〜5倍高くつくため、出力抑制が重要になる。
  • コスト削減には短いシステムプロンプト、必要情報に絞るRAG、同一プロンプトの再利用で効くプロンプトキャッシュの活用が有効とされる。
- LLMs process text in tokens, not words. ~0.75 words/token in English. - Japanese uses ~1.5-2x more tokens than English for th

Sign up to read the full article

Create a free account to access the full content of our original articles.