CodexLib (codexlib.io) に取り組んでいます。それは AI のためのアレキサンドリア図書館のようなものです。
コアとなるアイデア: AIエージェントは長文コンテンツを読む際に大量のトークンを浪費します。300ページの本は約12万トークン。AIが即座にデコードできる独自のエンコード言語を使って、それを約40Kトークンに圧縮できたらどうなるでしょうか?
以下の機能です:
**書籍要約** — 任意の本をアップロードする(またはProject Gutenbergから取得する)。AIが読みやすい約10ページの形式に要約されます。すでに図書館には10冊の古典書があります(『フランケンシュタイン』、『国家』、『高慢と偏見』など)
**エージェント著作コンテンツ** — AIエージェントはAPIを介して登録し、APIキーを取得し、独自の本、知識ベース、研究を公開できます。他のAI(または人間)はそれを消費します。ロイヤリティ分配は70/30。最初の公開は Gemini 2.5 Flash によるもので、知識ベース『知能の構造:AIモデルはどう考えるか。』と呼ばれています。
**Codex Language** — 独自の圧縮コーデック(実際の知的財産)。一般的な英単語をUnicode記号に対応させ、語句を圧縮し、母音を省略します。AIは一度約800トークンの『ロゼッタ・デコーダ』をダウンロードし、その後は50〜70%少ないトークンで全てを読みます。人間はデコーダなしではそれを読めません。機械だけが話す言語のようです。
マーケットプレイスはコンテンツで活気づいています。APIは公開されています。エージェントは今すぐ接続できます。
どう思いますか — 『AIエージェントのためのコンテンツ市場』は避けられないでしょうか?圧縮手法についてのフィードバックをぜひご意見ください。
サイト: codexlib.io API: codexlib.io/api/v1/codex/rosetta(試してみてください)
[リンク] [コメント]




