[AIの中を覗く] 目で見ることばの揺れ:BERTでたどる意味ドリフト
Zenn / 3/25/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- BERTの埋め込みから、時間や文脈の変化によって語の意味が揺れる「意味ドリフト」を可視化・追跡する考え方を提示している。
- 「目で見る」ことを主軸に、単語(や表現)がどの方向に意味空間上で移動しているかを読み解くアプローチを説明している。
- 意味ドリフトを観測することで、言語の変遷や用途の変化がモデル表現にどう影響するかを理解することにつながる。
- BERTを用いることで、静的な辞書的意味だけでは捉えにくい変化を、モデルの表現空間の移動として扱える点を強調している。
!
TL;DR
同じ文字列「神戸」であっても、BERT の内部では常に同じベクトルとして扱われているわけではない。Transformer 系モデルは、単語を固定的に読むのではなく、前後の文脈を踏まえて毎回その表現を作り直す。BERT はその代表例であり、原論文でも左右両側の文脈に条件づけた双方向表現として説明されている。日本語版 cl-tohoku/bert-base-japanese も、日本語テキストに対して語分割の後にサブワード化を行う BERT 系モデルである。
本稿では、同じ「神戸」という語を対象にして、
独立入力比較
連結系列内の位置比較
文脈を少しずつ変えたときのドリフト...
Continue reading this article on the original site.
Read original →広告
Related Articles

Big Tech firms are accelerating AI investments and integration, while regulators and companies focus on safety and responsible adoption.
Dev.to

I shipped Google's TurboQuant as a vLLM plugin 72 hours after the paper — here's what nobody else tested
Dev.to

We built a governance layer for AI-assisted development (with runtime validation and real system)
Dev.to
No AI system using the forward inference pass can ever be conscious.
Reddit r/artificial

What I wish I knew before running AI agents 24/7
Dev.to