共分散クリーニングを通じたニューラルネットによる分散最小化のためのエンドツーエンド大型ポートフォリオ最適化

arXiv stat.ML / 2026/4/22

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、回転不変なニューラルネットワークにより、リターンのラグ変換と限界ボラティリティを学習しつつ、大規模株式共分散行列の固有値を正則化して、分散最小のポートフォリオを得る手法を提案している。
  • アーキテクチャは純粋なブラックボックスではなく、分析的なグローバル最小分散解の形を模倣することで、各モジュールの役割の解釈可能性を保つことを意図している。
  • 損失関数は「未来の短期実現最小分散」に基づきエンドツーエンドで最適化され、2000年1月〜2024年12月のアウトオブサンプル検証で、最先端の非線形シュリンク方など競合よりも、実現ボラティリティの低さ、最大ドローダウンの小ささ、シャープレシオの高さで体系的に優れていた。
  • 学習された共分散表現は、一般の最適化器に組み込んでロングオンリー制約を課しても、競合推定器に対する優位性をほぼ維持できることが示されている。
  • 現実的な実行環境(オークションでのマーケットオーダー、実証的なスリッページ、取引所手数料、レバレッジのファイナンスコスト)や、市場ストレス局面でも利得が大きく保たれると報告されている。

Abstract

本研究では、回転不変なニューラルネットワークを開発し、過去のリターンと限界ボラティリティをラグ変換する方法と、大規模な株式共分散行列の固有値を正則化する方法を共同で学習することで、グローバルな最小分散ポートフォリオを提供します。この明示的な数学的写像により、各モジュールの役割が明確に解釈できるため、モデルは単なるブラックボックスとは見なせません。アーキテクチャはグローバル最小分散解の解析的な形式を模倣していますが、次元には無関心であるため、単一のモデルを数百銘柄のパネルに対してキャリブレーションし、その後再学習なしで1,000の米国株式に適用できます。これは堅牢な汎化能力を示す断面方向の飛躍です。損失関数は将来の短期実現最小分散であり、実際のリターンに対してエンドツーエンドで最適化されます。2000年1月から2024年12月までのアウト・オブ・サンプルテストでは、本推定量は、最先端の非線形縮小を含む最良の競合と比べて、実現ボラティリティが一貫して低く、最大ドローダウンが小さく、シャープレシオが高いことを示します。そして、モデルの学習が短期に焦点を当てているにもかかわらず、短期評価ホライズンと長期評価ホライズンの両方でこれらの優位性は維持されます。さらに、モデルはエンドツーエンドで制約なしの最小分散ポートフォリオを生成するように学習されていますが、学習された共分散表現が、ロングオンリー制約の下で一般の最適化器に利用でき、その際に競合する推定量に対する性能上の優位性がほぼ損なわれないことを示します。これらの優位性は、市場オーダーをオークションでモデル化し、実測のスリッページ、取引所手数料、レバレッジに対するファイナンスコストを組み込んだ、非常に現実的な実装枠組みのもとで戦略を実行しても維持され、さらに急激な市場ストレスの局面でも安定して持続します。