Complex Interpolation of Matrices with an application to Multi-Manifold Learning

arXiv cs.LG / 4/16/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • 2つの対称正定値行列AとBに対して、補間行列A^{1-x}B^x(0≤x≤1)のスペクトル特性を解析し、その性質が共通構造の有無とどう関係するかを示しています。
  • オペレータノルム‖A^{1-x}B^x‖の“対数線形性”が成立する条件は、一般論としてAとBが共有する固有ベクトルの存在と同値であることを明らかにしています。
  • さらに対数線形性が近似的に成り立つ場合には、主特異ベクトルが両行列の主要固有ベクトルと整列することを、安定性境界(stability bounds)により保証します。
  • これらの理論結果は、多視点データから複数の潜在構造を「共通」と「固有」に分解して同定するmulti-manifold learningの枠組みに対し理論的正当化を与えるとされています。

Abstract

Given two symmetric positive-definite matrices A, B \in \mathbb{R}^{n \times n}, we study the spectral properties of the interpolation A^{1-x} B^x for 0 \leq x \leq 1. The presence of `common structures' in A and B, eigenvectors pointing in a similar direction, can be investigated using this interpolation perspective. Generically, exact log-linearity of the operator norm \|A^{1-x} B^x\| is equivalent to the existence of a shared eigenvector in the original matrices; stability bounds show that approximate log-linearity forces principal singular vectors to align with leading eigenvectors of both matrices. These results give rise to and provide theoretical justification for a multi-manifold learning framework that identifies common and distinct latent structures in multiview data.