要旨: マルチタスク学習(MTL)は、共有表現を通じて関連するタスクを共同で学習することで、汎化性能とデータ効率を向上させます。広く用いられているハード・パラメータ共有設定では、共有バックボーンとタスク固有の予測ヘッドを組み合わせます。しかし、タスク固有のパラメータはタスク数の増加に伴って急速に増大し得ます。そのため、タスクの専門性を保持しつつパラメータ効率を改善するマルチタスクヘッドを設計することは、重要な課題のままです。量子機械学習(QML)では、変分量子回路(VQC)が、古典データを高次元ヒルベルト空間に存在する量子状態へ写像するためのコンパクトな仕組みを提供し、限られたパラメータ予算のもとで表現力のある表現を可能にします。本研究では、従来のタスク固有の線形ヘッドを、ハイブリッドなアーキテクチャにおける完全に量子の予測ヘッドで置き換える、パラメータ効率の高い量子マルチタスク学習(QMTL)フレームワークを提案します。モデルは、共有されたタスク非依存の量子エンコーディング段階を含むVQCと、その後に軽量なタスク固有アンサッツ・ブロックを備えます。これにより、パラメータ化をコンパクトに保ちながら、局所的なタスク適応を可能にします。共有表現の次元がタスク数に応じて増大する、制御された能力(キャパシティ)一致の定式化のもとで、パラメータ・スケーリング解析を行った結果、標準的な古典ヘッドは二次的な増加を示すのに対し、提案する量子ヘッドのパラメータコストは線形にスケールすることを示します。自然言語処理、医療画像、マルチモーダルなサーカズム検出にまたがる3つのマルチタスク・ベンチマークでQMTLを評価したところ、性能は古典的なハード・パラメータ共有の基準と同等であり、場合によってはそれを上回ることが分かりました。また、既存のハイブリッド量子MTLモデルよりも大幅に少ないヘッドパラメータで一貫して上回ることを確認しました。さらに、ノイズのあるシミュレータおよび実際の量子ハードウェア上でのQMTLの実行可能性を示し、その実現可能性を裏付けます。
パラメータ効率の高い量子マルチタスク学習
arXiv cs.LG / 2026/4/16
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、従来のタスク固有の線形ヘッドを、変分量子回路(VQC)を用いたハイブリッドの完全量子予測ヘッドに置き換える、パラメータ効率の高い量子マルチタスク学習(QMTL)フレームワークを提案する。
- タスクに依存しない共有の量子エンコーディング段階と、専門性を保ちつつヘッドのパラメータをコンパクトに維持するための軽量なタスク固有アンサッツブロックを用いる。
- 理論的なパラメータスケーリング解析により、提案手法の量子ヘッドはタスク数に対して線形にスケールする一方、同等の容量に調整した条件下では比較対象となる標準的な古典ヘッドは二次的に増大することが示される。
- NLP、医療画像、マルチモーダルな皮肉検出の3つのマルチタスクベンチマークでの実験では、古典的なハードパラメータ共有ベースラインと同等、またはそれを上回る性能が得られ、さらに、より少ないヘッドパラメータで先行するハイブリッド量子MTLモデルよりも良い結果が示される。
- 著者らは、ノイズのあるシミュレータおよび実量子ハードウェア上でQMTLを実行することで実現可能性を示し、量子ノイズ制約がある状況でも実用的に実行可能であることを裏付ける。




