Claudeトークン消費を抑えて5倍使う: 「原始人」口調が80%削減
Zenn / 4/8/2026
💬 OpinionIdeas & Deep AnalysisTools & Practical Usage
Key Points
- Claudeの「原始人」口調をプロンプトに組み込むことで、トークン消費を大幅に削減できるという実践例が紹介されている
- 口調の指定により出力の無駄な冗長さが減り、同じ作業をより少ないトークンで進められることが主張されている
- 結果として、従来より約5倍の利用効率(80%削減)を狙えるとされ、コスト最適化の観点で有用と述べられている
- 生成AIの出力スタイル制御が、品質以外にコスト(トークン)へも実効的に影響する例として位置づけられている
[注意]AIに書かせた記事をそのまま私の方でレビューして掲載しています。
Claudeマーケットプレイスにだしたらまた更新するかも?よろしくおねがいします。
TL;DR
caveman: Claude Code向けの英語圧縮スキル。冠詞やフィラーを消してトークン約68%削減
genshijin(原始人): cavemanの日本語最適化版。敬語・クッション言葉・冗長助詞を消してトークン約80%削減
cavemanよりさらに38%少ないトークンで同じ技術的内容を伝達できる
なぜそんなことが可能なのか? Claudeのトークナイザと日本語の言語構造に秘密がある
はじめに:あなた...
Continue reading this article on the original site.
Read original →💡 Insights using this article
This article is featured in our daily AI news digest — key takeaways and action items at a glance.
Related Articles

Black Hat USA
AI Business

Black Hat Asia
AI Business
[D] Your Agent, Their Asset: Real-world safety evaluation of OpenClaw agents (CIK poisoning raises attack success to ~64–74%)
Reddit r/MachineLearning

Running Just One LLM on 8GB VRAM Is a Waste
Dev.to

Claude Mythos Preview found thousands of zero-days in every major OS and browser. Here's what the headlines are missing. published: true
Dev.to