要約: 大規模言語モデル(LLMs)は、最近、同時機械翻訳(SimulMT)において有望な性能を示しています。しかし、デコーダのみのLLMsをSimulMTに適用すると、位置情報の不整合が生じ、デコードの効率性と位置的一貫性の間にジレンマが生まれます。既存の手法はしばしば特定の位置エンコーディングや慎重に設計されたプロンプト設計スキームに依存しており、推論の効率性、位置的一貫性、および広範なモデル互換性を同時に達成することができません。本研究では、このジレンマを明示的な位置割り当てによって解決する汎用フレームワークExPosSTを提案します。ExPosSTは、入力元トークンに対して固定の位置スロットを確保し、異なる位置エンコーディング手法に跨ってKVキャッシュを用いた効率的なデコードを可能にします。ファインチューニングと推論のギャップをさらに埋めるために、推論時のデコード挙動に合わせてトレーニングを整合させるポリシー整合型ファインチューニング戦略を導入します。複数の言語ペアにわたる実験は、ExPosSTが多様なポリシーの下で同時翻訳を効果的にサポートすることを示しています。
ExPosST: LLMベースの同時機械翻訳における適応マスキングを用いた明示的な位置割り当て
arXiv cs.CL / 2026/3/17
📰 ニュースModels & Research
要点
- ExPosSTは、デコーダのみのLLMを用いる同時機械翻訳(SimulMT)における位置情報の不整合を解決するための明示的な位置割り当てを提案します。
- 入力されるソーストークンのために固定の位置スロットを予約し、異なる位置エンコーディング方式間でのKVキャッシュを用いた効率的なデコードを可能にします。
- 著者らは、推論時のデコード挙動と整合するポリシー一貫性のある微調整戦略を導入し、ファインチューニングと推論の橋渡しを図ります。
- 複数の言語ペアでの実験により、ExPosSTは多様なポリシー下での同時翻訳を可能にし、さまざまなエンコーディング方式との互換性を向上させることが示されました。
- 本フレームワークは、LLMベースのSimulMTにおける推論効率、位置情報の一貫性、および広範なモデルとの互換性の向上を目指します。


![[ニューラルネットワーク] 今こそ起源を見つめる時 Ep.5 (最終話) 〜情熱の連鎖が明日を照らす〜](/_next/image?url=https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F260885500%2Frectangle_large_type_2_f8df7c72d21f86c39d4096dd995f50d1.png%3Fwidth%3D219%26dpr%3D2%26frame%3D1%26format%3Djpg&w=3840&q=75)
