要旨: スラングの解釈は、大規模言語モデル(LLMs)にとって困難な下流タスクであり、表現は文脈的・文化的・言語的枠組みに固有に埋め込まれている。ドメイン特化の訓練データが欠如している場合、語彙情報に基づいてスラングの意味を正確に解釈することは、LLMsにとって難しい。本論文は、大規模LLMsを用いたスラング推論の課題を調査し、スラング解釈のための貪欲探索に導かれた思考の連鎖(チェーン・オブ・ソート)フレームワークを提示する。実験を通じて、モデルサイズと温度設定が推論精度に及ぼす影響は限られていると結論づける。パラメータ数が大きいTransformerベースのモデルは、活性パラメータが少ないモデルより高い精度を生み出さない。上記の経験的研究結果に基づき、小規模な言語モデル向けに貪欲探索アルゴリズムとチェーン・オブ・ソートのプロンプティングを組み合わせ、スラング解釈の精度を向上させるフレームワークを構築する。実験結果は、提案したフレームワークがスラングの意味解釈の精度を向上させることを示している。これらの知見は、言語モデルにおける文脈依存性の理解に貢献し、構造化された推論プロンプティングフレームワークを通じてスラング理解を高める実践的な解決策を提供する。
返却形式: {"translated": "翻訳されたHTML"}
