AI Navigate

Tiny Aya: 規模と多言語の深さをつなぐ

arXiv cs.CL / 2026/3/13

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • Tiny Aya は、70言語で訓練され、地域認識を取り入れたポストトレーニングを経て、3.35十億パラメータの多言語モデルとして、最先端の翻訳品質と高い多言語理解を提供します。
  • このリリースには、事前訓練済みの基盤モデル、グローバルにバランスの取れた指示に調整されたバリアント、そしてアフリカ、南アジア、ヨーロッパ、アジア太平洋地域、そして西アジアを対象とする3つの地域特化モデルが含まれます。
  • 本論文は訓練戦略、データ構成、評価フレームワークを概説し、均衡した多言語パフォーマンスと実用的展開を優先する効率性重視のスケーリング路線を提案します。
  • 効率性、言語間の均衡した性能、および実用的展開を重視する多言語AIの代替的スケーリング路線を提示します。
Tiny Aya は、小型の多言語言語モデルが達成し得るものを再定義します。70言語で訓練され、地域を認識したポストトレーニングを経て、翻訳品質の最先端、強力な多言語理解、そして高品質なターゲット言語生成をわずか3.35十億パラメータで提供します。このリリースには、事前訓練済みの基盤モデル、グローバルにバランスの取れた指示に調整されたバリアント、そしてアフリカ、南アジア、ヨーロッパ、アジア太平洋地域、および西アジアの言語を対象とする3つの地域特化モデルが含まれます。本レポートは、Tiny Aya の背後にある訓練戦略、データ構成、そして包括的な評価フレームワークを詳述し、効率性、言語間のバランスのとれた性能、および実用的な展開を中心とする多言語AIの代替的なスケーリング路線を提示します。