AuthorMix: レイヤーごとのアダプタ混合によるモジュール型著者性スタイル変換

arXiv cs.CL / 2026/3/25

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、対象の著者のスタイルを変更しつつ、元テキストの意味を保持することを目的とした著者性スタイル変換のためのモジュール型アプローチ「AuthorMix」を提案する。
  • すべてのスタイルに対応する巨大な1つのモデルを学習するのではなく、高リソースの著者に対して軽量なスタイル特化LoRAアダプタを学習し、その後、学習済みのレイヤーごとのアダプタ混合を用いて新しいターゲットに適応させる。
  • AuthorMixは、新しいターゲット著者ごとに少数のサンプルテキストのみを必要とする設計であり、従来の単一モデル型アプローチにおける高コストおよび柔軟性の低さを低減する。
  • 実験結果では、AuthorMixが既存の最先端のスタイル変換ベースラインおよびGPT-5.1を上回ると主張しており、特に低リソースなターゲット設定で大きな改善が見られ、意味保持の向上も報告されている。

Abstract

著者スタイル・トランスファーの課題は、元のテキストの意味を保持しながら、特定の目標著者のスタイルに書き換えることです。既存のスタイル・トランスファー手法は、大規模コーパスで単一のモデルを学習し、複数の目標スタイルを同時にモデル化します。この高コストなアプローチは、目標に特化した適応に対する柔軟性が限られており、しばしばスタイル変換のために意味の保持を犠牲にします。本論文では、AuthorMix を提案します。これは軽量でモジュール化され、解釈可能なスタイル・トランスファーの枠組みです。高リソースの著者の小さな集合に対して、個別のスタイル固有 LoRA アダプタを学習し、新たな目標ごとに、学習した層ごとのアダプタ混合によって、少数の目標スタイルの学習例のみで迅速に専門化された適応モデルを訓練できるようにします。AuthorMix は、既存の最先端(SoTA)のスタイル変換ベースラインに加えて、GPT-5.1 でも、低リソースの目標に対して上回り、全体として最高のスコアを達成するとともに、意味の保持を大幅に改善します。