トークンとコンテキスト窓:課金・制限の根本概念

AI Navigate Original / 2026/4/27

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage
共有:

要点

  • LLM はテキストを「トークン」単位で処理。1 トークン ≒ 0.75 単語 / 0.5〜1 字
  • コンテキスト窓 = 1 リクエストで扱える最大トークン数(GPT-5: 400K、Claude: 1M)
  • 課金は「入力トークン × 単価 + 出力トークン × 単価」
  • 長文・大量プロンプトは累積で高額化、プロンプトキャッシュで節約
  • 日本語は英語比 1.5〜2 倍のトークンを消費する傾向

トークンとは何か

LLM はテキストを「単語」ではなく「トークン」という単位で処理します。トークンは単語より細かい場合が多く、頻出語は 1 トークン、稀少語や記号は複数トークンに分割されます。

例(GPT-4 系トークナイザ)

  • "hello" → 1 トークン
  • "electricity" → 1 トークン
  • "prestidigitation" → 4 トークン("pre", "stid", "ig", "itation")
  • "こんにちは" → 3〜4 トークン(日本語は文字単位に近い)
  • "AI" → 1 トークン

トークン数の目安

言語1 トークンあたり
英語約 0.75 単語、4 文字
日本語約 0.5〜1 文字
中国語約 0.5〜1 文字
コード約 3〜5 文字

同じ意味の文章なら、日本語は英語の 1.5〜2 倍のトークンを消費します。コスト試算では要注意。

コンテキスト窓(Context Window)

続きを読むには無料登録が必要です

アカウントを作成すると、オリジナル記事の全文をお読みいただけます。