| こんにちは、Reddit! 先月、休暇に出かける直前に、LLM Neuroanatomyの連載記事の第3部を投稿しました ️。残念ながら、少し「雑(sloppy)」でした。磨きをかける時間がなかったので、記事を取り下げてRedditの投稿も削除しました。 週末の間に、記事を改訂し、Gemma-4 31Bの結果も追加しました!また、Gemma-4-31B-RYS(解析は一晩かかります)も仕上げていて、今週はQwen3.6-35B-RYSもリリースします。 さて、もしこの連載を追いかけてくれているなら、パートIIで私が「LLMは普遍的な言語で考えているように見える」と言ったのを覚えているでしょう。あれは、中国語と英語を比較する小さな実験でした。今回は、さらに踏み込みました。 TL;DR TL;DR: 面白い新しい手法を使うことで、LLMが概念をベクトルとしてどう整理しているかを見ることができます。複数の概念を複数の言語で比較する、というクールな小技によって、トランスフォーマのスタックのどこで、LLMが「言語(読んだ/書いた言語)」なのか、それとも「実際のトピック」なのか、その観点で考えているのかが分かります。 Sapir-Whorf仮説は、言語が「考えられること」を形作る、というものです。ブログのデータは、(LLMについては言っていますが、人間については今は主張していません)言語はただのI/Oで、考えが起きるのは中間層であり、概念に関するベクトルとして表現されている、ということを示しています。 ブログを(私が知っている限り)読まない人向けのTL;DR:
実際にいじれるインタラクティブなPCA可視化付きのブログ:https://dnhkng.github.io/posts/sapir-whorf/ コードとデータ:https://github.com/dnhkng/RYS RYSの件については——TurboDerpと、ゼロVRAMオーバーヘッドでの層複製のためのExLlamaV3のポインタベース形式についてまだ話しています。ETAはまだありませんが、進んでいます。 もう一度言いますが、Widgetをいじってみてください!本当にすごいです。約束します! [link] [comments] |
LLMニューロアナトミーIII:LLMは言語ではなく幾何(ジオメトリ)のように考えているらしい
Reddit r/LocalLLaMA / 2026/4/20
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 「LLMニューロアナトミーIII」の改訂版では、LLMが内部のベクトル空間で概念を整理するとき、言語よりも主題(内容)に強く依存していることを示す実験結果が報告されています。
- 実験は2言語から8言語(EN、ZH、AR、RU、JA、KO、HI、FR)へ、さらに複数モデルへ拡張され、中間層の表現では「ヒンディー語の光合成」が「ヒンディー語の料理」よりも「日本語の光合成」に近くなることが示されたとされています。
- 次の難度の高いテストでは、同じ物理概念(例:½mv²)について、英語の説明、Python関数(単一文字変数のみで“velocity”などの呼称に頼らない制約付き)、LaTeXの数式を比較し、それらがモデル内部の表現空間の同じ領域へ収束し始めると述べています。
- 密なTransformerとMoE(Mixture of Experts)を含む複数のアーキテクチャで、かつ異なる組織のモデル間でも整合的な結果が報告され、モデル固有や学習アーティファクトの単なる偶然ではなく「収束した表現」が示唆されます。
- さらにこの投稿は、これらのモデルにおいてはサピア=ウォーフ仮説のように「言語が思考を形づくる」という見方を否定しつつ、チョムスキー的な「概念に共通する深い構造」により近いと主張しています。
関連記事

日産社長「V6のHEVは内製」「N7には驚いた」、長期戦略で一問一答
日経XTECH

「Pixel 10a」の性能は前機種とほぼ同じ、日本限定色の価値は評価されるか
日経XTECH

NEC、入社3カ月の新人が役員を「コンサル」/テスラのE2E自動運転技術FSD、オランダ承認 など、注目記事を音声化
日経XTECH

『AI未来シナリオ2030』誌面サンプル無料 AGI/ASI…次世代AI活用の戦略、投資すべき分野を提示 AI進化のロードマップを示し、AGI/ASIがもたらすインパクトを3つの未来シナリオとして描出。次世代AIが与える生産性・労働時間への影響を国別、産業別、機能/職種別に解説し、日本企業のAI活用の実態も紹介。 詳細とお申し込みはこちら
日経XTECH

動き出す「日本版データスペース」、化学物質管理やEV電池の脱炭素対応
日経XTECH