CFNN: Continued Fraction Neural Network

arXiv cs.LG / 3/24/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • CFNN(Continued Fraction Neural Network)は、特異点を含む非線形な関数マニフォールドを、連分数の構造的帰納バイアスで効率よく近似する新しい枠組みを提案している。
  • MLPのスペクトルバイアスによる「高曲率・複雑非線形特徴の再現の難しさ」を、極めて少ないパラメータで補うことを目標としている。
  • 形式的な近似境界と、再現安定性に関する保証(指数収束など)を示している。
  • 再帰による不安定性への対策として、CFNN-Boost / CFNN-MoE / CFNN-Hybridの3つの実装バリエーションを開発している。
  • ベンチマークでは、MLPより高精度かつ1〜2桁少ないパラメータで性能が上回り、ノイズ頑健性で最大47倍や物理整合性の改善が報告されている。

Abstract

Accurately characterizing non-linear functional manifolds with singularities is a fundamental challenge in scientific computing. While Multi-Layer Perceptrons (MLPs) dominate, their spectral bias hinders resolving high-curvature features without excessive parameters. We introduce Continued Fraction Neural Networks (CFNNs), integrating continued fractions with gradient-based optimization to provide a ``rational inductive bias.'' This enables capturing complex asymptotics and discontinuities with extreme parameter frugality. We provide formal approximation bounds demonstrating exponential convergence and stability guarantees. To address recursive instability, we develop three implementations: CFNN-Boost, CFNN-MoE, and CFNN-Hybrid. Benchmarks show CFNNs consistently outperform MLPs in precision with one to two orders of magnitude fewer parameters, exhibiting up to a 47-fold improvement in noise robustness and physical consistency. By bridging black-box flexibility and white-box transparency, CFNNs establish a reliable ``grey-box'' paradigm for AI-driven scientific research.