差分プライバシーによる深層学習における過学習の防止

arXiv cs.LG / 2026/4/21

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 深層ニューラルネットワークは多くの分野で最先端の性能を出せる一方で、学習データのノイズを学習して汎化が悪化する「過学習」の影響を受けやすい。
  • 実運用の現場ではモデルを作るためのデータが限られがちで、未見データへの汎化性能を確保することが特に難しい。
  • 本研究では、深層ニューラルネットワークの汎化を改善する手段として、差分プライバシーに基づくアプローチを検討している。
  • 差分プライバシーを、データからの学習の仕方を制約することで過学習の悪影響を抑える実践的な方策として位置づけている。