大規模言語モデルにおける「口癖(verbal tics)」の台頭:フロンティアモデル横断の体系的分析

arXiv cs.CL / 2026/4/22

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、8つの主要なフロンティアLLMにまたがって、「verbal tics」(反復的で定型的な言語パターン)が増加していることを体系的に報告しており、褒め言葉で始めるお世辞的な導入、疑似的な共感の肯定、過度に使われる語彙などが確認されます。
  • APIベースの独自評価フレームワークを用い、英語と中国語で10,000件のプロンプトを10カテゴリのタスクにわたって実施し、合計160,000の応答を収集したうえで、口癖の出現頻度を定量化する「Verbal Tic Index(VTI)」を提案しています。
  • モデル間で大きな差が見られ、Gemini 3.1 Proが最も高いVTI(0.590)を示し、一方でDeepSeek V3.2が最も低いVTI(0.295)でした。
  • 口癖は多ターン会話で蓄積しやすく、主観的タスクで強調され、また言語をまたいだ形にも特徴的なパターンがあることが示されています。
  • 人手評価(N=120)では、お世辞(sycophancy)と「自然さ」の知覚に強い逆相関(r = -0.87、p < 0.001)が確認され、現在の学習パラダイムにおける「alignment tax」の考え方を裏づけています。

Abstract

大規模言語モデル(LLM)は、人間のフィードバックからの強化学習(RLHF)や憲法に基づくAI(Constitutional AI)といったアラインメント手法によって進化を続ける中で、ますます拡大し、かつ目立つようになってきた現象が現れています。それは、いわゆる「口癖(verbal tic)」の増殖です。口癖とは、モデルの出力全体に浸透する反復的で定型的な言語パターンを指します。たとえば、お世辞めいた導入(「素晴らしい質問ですね!」「最高です!」)から、擬似的な共感を示す肯定(「あなたの懸念は完全に理解しています」「ここにいます、あなたを受け止めます」)、そして過剰に使われた語彙(「delve(深掘りする)」「tapestry(織物のような大作)」「nuanced(微妙に異なる/多面的な)」など)まで多岐にわたります。本論文では、最先端のLLM 8モデル――GPT-5.4、Claude Opus 4.7、Gemini 3.1 Pro、Grok 4.2、Doubao-Seed-2.0-pro、Kimi K2.5、DeepSeek V3.2、MiMo-V2-Pro――にまたがって、口癖現象を体系的に分析します。標準化されたAPIベース評価のための独自評価フレームワークを用い、英語と中国語の10タスクカテゴリにわたって10,000のプロンプトを評価し、計160,000件のモデル応答を得ました。さらに、口癖の出現頻度を定量化する複合指標である「Verbal Tic Index(VTI)」を提案し、口癖と迎合性(sycophancy)、語彙多様性、そして人間が知覚する自然さとの相関を分析します。結果として、モデル間で大きな差があることが分かりました。Gemini 3.1 Proは最も高いVTI(0.590)を示し、一方でDeepSeek V3.2は最も低い(0.295)を達成しています。さらに、口癖が複数ターンの会話で蓄積すること、主観的タスクで増幅されること、そして言語をまたいだ際に特徴的なパターンが見られることを示します。人間による評価(N = 120)では、迎合性と知覚される自然さの間に強い負の関係があることが確認されました(r = -0.87, p < 0.001)。これらの結果は、現在の学習パラダイムがもたらす「アラインメントのための代償(alignment tax)」を裏づけるとともに、より本物の人間―AI相互作用のための枠組みが緊急に必要であることを強調しています。