広告

AMALIA テクニカルレポート:欧州ポルトガル語向けの完全オープンソース大型言語モデル

arXiv cs.CL / 2026/3/30

📰 ニュースSignals & Early TrendsModels & Research

要点

  • AMALIA の技術レポートは、欧州ポルトガル語(pt-PT)により適切に対応するために設計された、完全オープンソースの大型言語モデルを紹介する。学習データおよびネイティブ評価において欧州ポルトガル語が過小に扱われている点に対処する。
  • 本モデルは、中間学習(mid-training)および事後学習(post-training)の両方で、より高品質な pt-PT データを用いて学習し、機械翻訳リソースへの依存によって生じるギャップを低減する。
  • 著者らは、翻訳版の標準タスクに加えて、pt-PT 生成、言語的能力、pt-PT/pt-BR のバイアス測定を目的とした新しいデータセットも含む、pt-PT に特化した一連のベンチマークを公開する。
  • 実験結果から、AMALIA は翻訳ベンチマークにおいて強力なベースラインと同等の性能を示しつつ、pt-PT 固有の評価では大幅に改善された結果をもたらすことが示され、対象を絞った学習とネイティブなベンチマークの有用性が裏付けられる。

概要: オープンな大規模言語モデル(LLM)の急速な進歩にもかかわらず、欧州ポルトガル語(pt-PT)は、学習データとネイティブ評価の両方において十分に代表されていません。さらに、機械翻訳によるベンチマークでは、その変種の言語的・文化的なニュアンスが見落とされている可能性があります。私たちは、mid-training(中間学習)およびpost-training(事後学習)の両方の段階で、より高品質なpt-PTデータを用いることでpt-PTを優先する、完全にオープンなLLMであるAMALIAを提案します。pt-PTをより忠実に評価するために、翻訳版の標準タスクを含む一連のpt-PTベンチマークと、pt-PTの生成、言語的能力、ならびにpt-PT/pt-BRのバイアスを対象とする新しい4つのデータセットを公開します。実験の結果、AMALIAは翻訳ベンチマーク上で強力なベースラインと同等の性能を示しつつ、pt-PT固有の評価では大幅に性能が向上することが確認されました。これにより、欧州ポルトガル語に対しては、特化した学習とネイティブなベンチマークが有効であるという主張を支持します。

広告