AI言説における戦略的多義性:言語・誇大広告・権力の哲学的分析

arXiv cs.LG / 2026/4/24

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、「hallucination(幻覚)」「chain-of-thought(思考の連鎖)」「alignment(アライメント)」「agent(エージェント)」などの重要なAI用語が、同時に技術的意味と日常的・擬人化的な連想を併せ持つ「戦略的多義語」として機能しがちだと主張している。
  • 技術的に再定義された用語を用いて、直感的(場合によっては誤解を招く)な連想を喚起しつつ、定義を狭めることで「もっともらしい否認」を可能にする実践を「glosslighting」として提案する。
  • この意味の柔軟性が、研究者・政策立案者・資金提供者・一般市民といった関係者によるAIシステムの理解に対して、制度的かつ言説的な影響を及ぼすと論じる。
  • 著者らは、glosslightingがAIの誇大広告サイクルや投資・制度的支援の動員を促進し、認識論的・倫理的な精査を逸らしうると結び付けている。
  • 総じて、言語を意味のコントロールを通じてAI開発とガバナンスを形づくる社会技術的な手段として位置づけている。

Abstract

本論文は、現代の人工知能(AI)に関する言説において、言語を戦略的に用いることを検討する。特に、「幻覚(hallucination)」、「思考の連鎖(chain-of-thought)」、「内省(introspection)」、「言語モデル(language model)」、「アライメント(alignment)」、「エージェント(agent)」といった比喩的または口語的な用語が広く採用されている点に焦点を当てる。これらのような多くの用語は、戦略的ポリセミー(複数義性)を示していると論じる。すなわち、同時に複数の解釈を維持し、狭い技術的定義と、より広い人間化的(anthropomorphic)または常識的連想とを組み合わせるのである。現代のAI研究や導入の文脈では、この意味の柔軟性は、研究者、政策立案者、資金提供者、そして一般の人々がAIシステムをどのように理解するかに影響し、大きな制度的・言説的効果を生み出す。こうした現象を分析するために、本論文では、グロスライト(glosslighting)の概念を導入する。これは、技術的に再定義された用語を用いて、直感的な—しばしば人間化的で誤解を招き得る—連想を喚起しつつ、技術的定義を制限することでもっともらしい否認(plausible deniability)を保持する実践である。グロスライトは、よく知られた言葉の説得力を得ながら、挑戦された際にはより狭い定義へ後退できる状態を保つことを、行為者に可能にする。本論文は、この実践がAIの誇大宣伝(hype)サイクルに寄与し、投資や制度的支援の動員を促進し、AIシステムに対する社会的および政策上の認識に影響を与える一方で、多くの場合、認識論的・倫理的な精査を逸らす役割も果たしていると主張する。グロスライトと戦略的ポリセミーにおける言語的ダイナミクスを検討することで、本論文は、言語そのものがAIの開発およびガバナンスを形づくる社会技術的メカニズムとして機能していることを明らかにする。