要旨: 我々は、凸関数を学習するために設計された新しいニューラルネットワークアーキテクチャであるハイパー入力凸ニューラルネットワーク(Hyper Input Convex Neural Networks: HyCNNs)を提案する。HyCNNsは、Maxoutネットワークの原理と入力凸ニューラルネットワーク(Input Convex Neural Networks: ICNNs)を組み合わせることで、入力に関して常に凸となるニューラルネットワークを構築し、理論的には深さを活用できる可能性があり、ICNNsと比べて大規模な学習時でも信頼性の高い性能を発揮することを示す。具体的には、HyCNNsが、所与の精度までの二次関数を近似するのに、ICNNsよりも指数関数的に少ないパラメータで済むことを証明する。一連の合成実験を通じて、HyCNNsが凸回帰および補間のタスクにおける予測性能の点で、既存のICNNsやMLPを上回ることを示す。さらにHyCNNsを、合成例および単一細胞RNAシーケンシングデータに対して高次元の最適輸送写像を学習するために適用する。そこでは多くの場合、ICNNベースのニューラル最適輸送手法や他のベースラインが、幅広い設定において上回られていることが多い。
形状制約付き学習と最適輸送のためのハイパー入力凸型ニューラルネットワーク
arXiv cs.LG / 2026/4/30
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- この論文は、Maxoutネットワークと入力凸ニューラルネットワーク(ICNN)を組み合わせることで、入力に関して常に凸性を保証する新しいアーキテクチャ「HyCNN(Hyper Input Convex Neural Networks)」を提案する。
- 著者らは理論的に、HyCNNが所与の精度で二次関数を近似する際に、標準的なICNNより指数関数的に少ないパラメータで済むことを示す。
- 合成データによる凸回帰・凸補間タスクの実験では、HyCNNがICNNと従来のMLPの両方より予測性能で優れることが報告されている。
- HyCNNはさらに高次元の最適輸送写像の学習にも適用され、合成例に加えて単一細胞RNAシーケンスデータでも、ICNNベースのニューラル最適輸送手法や他のベースラインより優れることが多い。
- 総合的に、この研究はHyCNNがICNNに比べて、効率性という強い理論的利点とスケールした学習の信頼性を両立すると主張している。



