書籍『最短コースでわかるディープラーニングの数学 増補改訂版』(日経BP)の目標は「数学を通じて機械学習・深層学習(ディープラーニング)を理解する」ことです。従来の初心者向け書籍と逆の発想で「数学から逃げない」形にしています。
本特集では、書籍の冒頭部を抜粋し、「そもそも機械学習・ディープラーニングとはどういうものなのか」ということと、「なぜ機械学習・ディープラーニングで数学が必要なのか」を説明していきます。最終回(第5回)では、最短コースでディープラーニングを理解するための道筋を示します。
本書『最短コースでわかるディープラーニングの数学 増補改訂版』の「実践編」で中心的に取りあげることになる分類モデルでも、損失関数を手がかりに最適なパラメータ値を求めるという、本特集で説明した回帰モデルの基本的な考え方はそのまま使えます。
しかし、本特集で説明したモデルでは1次関数や2次関数だった、予測関数や損失関数に次のような数式が出てきて、問題を解く難易度ははるかに高くなります。
そのため、「ネイピア数とは何か」をはじめとして、指数関数や対数関数がどのようなもので、それらの微分の計算結果がどうなるかなど、最低でも高校3年レベルの数学知識がないと歯が立たないのです。
さらに「分類」と比較すると簡単に実装可能な線形回帰モデルでも、身長だけでなく胸囲も使ってより精緻に体重を予測する重回帰モデルを作る場合であれば、1.3節で説明した「座標系の平行移動→2次関数の平方完成」という高校1年レベルの範囲での解き方では対応できません。最低でも「偏微分」と呼ばれる多変数関数の微分の概念が必要になります。
いずれにしても、線形回帰やロジスティック回帰といった系統の機械学習モデルの中の仕組みを理解しようと思ったら、最低限の数学の理解は必須になります。いわんや、これらの機械学習モデルの発展形としてできたディープラーニングモデルを理解したければ、数学はなおさら必要になります。
前回で述べたような数学の必要性の課題を受けて、本書『最短コースでわかるディープラーニングの数学 増補改訂版』ではディープラーニングモデルを最短コースで理解できるように、最低限必要な数学の概念をピックアップした説明を前半の「理論編」で行っています。そして後半の「実践編」では、理論編で解説した数学を使って、一歩ずつ、しかし効率よく機械学習・ディープラーニングのエッセンスを学んでいきます。
それぞれのパートのより詳細な構成は次のようになっています。本書の途中でつまずいた時には随時見返してください。
次のページ
理論編この記事は会員登録で続きをご覧いただけます



