誤差逆伝播法を宇宙一わかりやすく解説してみる

f:id:McG:20170411094628j:plain

さて,クリスマスですね.

各分野で行われているアドベントカレンダーも最終日です.

恐縮ながら,最も購読者数の多い,機械学習に必要な高校数学やり直しアドベントカレンダー Advent Calendar 2016を締めくくらせていただこうと思います.

ラストに相応しい記事として,機械学習に必要な高校数学をやり直した後で ニューラルネットワークの学習手順を理解してみようという内容にしてみました

実際に高校生に教えてみて,理解してきただけたので,1つ1つみていけば決して難しくないはずです.

また,これは以下の記事の前提知識が必要となります.

これを読んでない方はお先に!!

今回も,わかりやすさ・シンプルさを最重視しています.

そのため,専門に機械学習を学ばれてる方からすると違和感を感じる表現があるかもしれません,ご了承ください.

私が教えた高校生のスペック

「高校生に教えてみた」という記事ですが,どのレベルの高校生かをはじめに明確にしておく必要がありますね.

私がニューラルネットワークの学習手順を教えた高校生は,理系の高校3年生で,数学3までは終了しています

単純な微分の計算,合成関数の微分の計算,そして,単純な微分の計算だけでなく,微分=変化率というイメージが出来ていました

この記事の読者もそのくらいを想定しています.

そして,軽く教えた数学的事項は以下です.

・ 偏微分について

・ 連鎖律について

・ 最急降下法について

これらについてはこの記事内でもかるく触れています.

それでは始めていきましょう.

関数がわかるとなにがよいのか

さて,前の記事で,隠れ層が1層あるニューラルネットワークは,任意の関数を近似することが出来るという話をしました.

ニューラルネットワークを使うと,任意のパルス波を作ることが出来るため,パルス波を組み合わせて関数の近似が可能という話でした.

f:id:McG:20161116022516p:plain

これは,ニューラルネットワークの重要な性質の1つです.

では,関数を近似することが出来るとなにが嬉しいのでしょうか?

少し考えてみましょう.

関数を使って未来を予想する

例えば,時速2kmで歩いているという状況を考えてあげます.

すると,移動距離は,時間の関数になっていますね.

中学生でもわかる簡単な数学ですが,tが経過時間, f(t)が移動距離だとすると,  f(t) = 2tとなります.

グラフ化してみましょう.

f:id:McG:20161220191613p:plain

このグラフを見れば,1時間経過すれば移動距離がどれだけなのか?3時間経過すればどれくらいの移動距離があるのかが一目瞭然です.

ここに,関数のすばらしさがあります.

関数さえわかれば,未来が予想できるのです

最初の1時間で2km進み,これからも同じ速さで進むことがわかっている時,3時間後にどれくらい動いているかを予測することが出来ますよね?

3時間後の移動距離を見たければ tに3を放り込んであげれば良いという話です.

関数の形から,なにかを識別する

他に,関数の形を使って,ものを識別するということにも使われています.

ロボットについているセンサを例に出してみます.

例えば,ロボットが柔らかいものと硬いものに触れている時,センサから送られてくる電気信号の関数の形を記録しておきます.(グラフはあくまで例えばです)

f:id:McG:20161220193850p:plain

そして,ロボットが実際にものに触れた時に,実際にセンサから送られてくる電気信号の形がどちらに似ているかどうかで,ロボットは硬いものに触れたのか,柔らかいものに触れたのかを判定することが出来ます.

f:id:McG:20161220194855p:plain

今回のは一例ですが,このように,ニューラルネットワークを用いて関数を近似することができれば,色々,便利なことに応用できるというわけです.

ニューラルネットワークで学習を行う仕組み

それでは,ニューラルネットワークで学習を行う仕組みについて見ていきます.

先程のロボットの例で行くと,ロボットは始めは,どんな信号が硬いものの信号なのかをわかっていません.

そこで,硬いものを触ったときの信号を与えて,その信号の関数の形を覚えさせてあげればいいわけですね.

今回例にするニューラルネットワーク

前の記事で説明した通り,ニューラルネットワークは,重みwや,バイアスbを調整し,隠れ層のニューロンを増やすことでどんな関数でも近似することが出来ます.

つまり,実際にお手本となる関数を与えてあげて,その関数に近くなるようにニューラルネットワークの重みwや,バイアスbを調整してあげればいいわけです.

前の記事で出てきた,こんな図を覚えているでしょうか?

f:id:McG:20161220201428p:plain

そうです,パルスを生成するニューラルネットワークですね.

パルスも立派な関数です.

ここでは,話を簡単にするため,このシンプルなニューラルネットワークを考えます.

f:id:McG:20161220202212p:plain

今回は,隠れ層が1層だけですし,隠れ層にはニューロンが2つしかありません.

シンプルさを最重視ということで,まずはこの簡単なバージョンをしっかり理解しましょう.

誤差逆伝播法

ニューラルネットワークの世界では有名な,誤差逆伝播というものがあります.

誤差逆伝播法とは,お手本と出力を比較することで,重みwや,バイアスbを修正していく学習手法のことです

f:id:McG:20161221015737p:plain

さて,みなさんは比較する時,どうするでしょうか?

例えば,テストの点数の目標を80点としていたとします.

実際の点数が70点だとしたら,「あぁ…10点足りなかった…」となりますよね.

80-70で,10点足りなかった… という計算を行ったはずです

そう,ニューラルネットワークも同じで,引き算をして比較を行います

お手本信号と,出力信号を引いてあげるのです.

f:id:McG:20161220205405p:plain

しかし,これでは不都合があります.

例えば,テストで目標が80点で,90点を取れた時.

テスト的にはなにも問題はありませんが,一般的にはこれも誤差なのです.

10点の誤差.

目標が80点で,実際の点数が70点だった時,実際の点数が90点だった時.

どちらも,10点の誤差ということで同様に扱うために,2乗してあげます.

すると,どちらも正になりますので,扱いが簡単になります.

差を2乗した値を0に近づけることを考えればよいのですから.

f:id:McG:20161220205353p:plain

そこで,誤差Eを, E=(y-t)^2と定義し… たいのですがラストにもうひと踏ん張り

今の目的は,重みwや,バイアスbを変化させることで出力信号とお手本信号の誤差をなくすことでしたね

つまり,重みwや,バイアスbの変化による,誤差Eの変化量が大事なわけです.

変化量といえば… 微分.

ということで, Eを微分することが多いので, E= \frac{1}{2}  (y-t)^2と定義しておくほうが計算が楽なのです.

さて,やっと Eを定義できたので,あとはこの E= \frac{1}{2}  (y-t)^2を0にするように重みwや,バイアスbを修正していくだけです.

f:id:McG:20161221015813p:plain

数学的準備

さて,誤差 Eをなくすことを考えていきたいのですが,その前に少しだけ数学的準備をしましょう.

機械学習に必要な高校数学やり直しアドベントカレンダーなので,高校生でも分かるレベルで書かないといけません.

偏微分

偏微分は,高校数学では習いません.

ただ,そんな難しく考える必要はなく,変数が複数ある場合に,1つだけを変数として扱い,他を定数として扱うというものです.

例えば, z(x,y) = x^2 + y^2という関数があるとします.

zをxで偏微分すると, \frac{\partial z}{\partial x} = 2xとなります.

zをyで偏微分すると, \frac{\partial z}{\partial y} = 2yとなります.

簡単ですね.

微分の記号は, \frac{d z}{d x}と, dを使いましたが,偏微分は \frac{\partial z}{\partial x}と, \partialという記号を使います.

通常の微分の時, \frac{dy}{dx}とすれば,xが変化した時,yがどのくらい変化するかを表していました

 \frac{dy}{dx}が大きいと,xが変化したらyが大きく変化します.

偏微分でも, \frac{\partial z}{\partial x}というのも,x以外の変数が一定でxが変化した時,zがどれだけ変化するかを顕sています.

つまり,今回だとに重みwや,バイアスbを変化させて E= \frac{1}{2}  (y-t)^2がどのように変化するかをみたいわけです.

そのため,「とりあえずバイアスbは一定にしておいて,重みwを変化させて,エラー Eの変化を確認する」みたいな時に偏微分が使えるということです.

連鎖律

高校で合成関数の微分に関してやったと思います.

合成関数の微分では,例えばyuの関数で,uxの関数であるとき,yxで微分するには以下のようになります.

 \frac{d y}{d x} = \frac{d y}{d u}  \frac{d u}{d x}

同じように考えて,zuの関数で,u(x,y)の関数である時,zxで,zyで偏微分するには以下のようになります.

 \frac{\partial z}{\partial x} = \frac{\partial z}{\partial u} \frac{\partial u}{\partial x}

 \frac{\partial z}{\partial y} = \frac{\partial z}{\partial u} \frac{\partial u}{\partial y}

簡単ですね!

シグモイド関数の微分

前の記事で出てきた,シグモイド関数を覚えていますか?

そう, \frac{1}{1+e^{-x}}の形をした関数ですね.

以下の画像を見てもイマイチ思い出せない方は,前の記事を再度ご確認ください

f:id:McG:20161220230707p:plain

さて,このシグモイド関数を微分するとどうなるでしょうか?

高校3年生で習う,商の微分法を使うと,

 \sigma(x)^{\prime} = \bigl( \frac{1}{1+e^{-x}} \bigr)^{\prime}

 = \frac{-(1+e^{-x})^{\prime}}{(1+e^{-x})^2}

 = \frac{e^{-x}}{(1+e^{-x})^2}

 = \frac{e^{-x}}{(1+e^{-x})} \frac{1}{(1+e^{-x})}

 = \frac{1 + e^{-x} - 1}{(1+e^{-x})} \frac{1}{(1+e^{-x})}

 = \bigl( 1 - \frac{1}{(1+e^{-x})} \bigr) \frac{1}{(1+e^{-x})}

 = (1 - \sigma(x))  \sigma(x)

なんと,こんなにきれいになりました.

これもシグモイド関数の性質です.

数学事項まとめ

数学事項をまとめました.

これから読み進める上で,「あれ?」ってなったらこちらへお戻りください.

また,具体的に \sigma(wx+b) wで偏微分した結果も載せましたのでご確認ください

f:id:McG:20170117091035p:plain

どうやって誤差をなくすのか

さて,数学的準備をしている間に本質を見失ってしまった方もいらっしゃいそうです.

今回の目的は,誤差 E= \frac{1}{2}  (y-t)^2を0にするように重みwや,バイアスbを修正していくことです

さて,ここで例をみていきます.

例えば,誤差 Eを縦軸,重み w_1^1を横軸に取ったグラフが以下のような感じだったとします.

f:id:McG:20161221000725p:plain

これって,小学生でも分かるレベルで明らかですが,誤差の大きさを小さくするには,以下の図のように重み w_1^1を変化させてあげれば良いです.

f:id:McG:20161221002051p:plain

さて,これをどうやって数式に持ち込むかという話ですが,実は簡単な話

傾きに注目してあげるのです.

重み w_1^1を増やすと誤差が少なくなるような範囲では,グラフの傾きが負,つまり \frac{\partial E}{\partial w_1^1}が0より小さいです.

重み w_1^1を少なくする誤差が少なくなるような範囲では,グラフの傾きが正,つまり \frac{\partial E}{\partial w_1^1}が0より大きいです.

f:id:McG:20161221003932p:plain

つまり,傾きが負なら, w_1^1を増やす,傾きが正なら, w_1^1を減らすということは, w_1^1 \frac{\partial E}{\partial w_1^1}の符号の反対方向に動かせばよいということで, w_1^1 w_1^1 - \alpha \frac{\partial E}{\partial w_1^1} (ただし, \alphaは正)に置き換えてやればいいということが分かります.

f:id:McG:20161221010818p:plain

これが,よく機械学習で出てくる,最急降下法と呼ばれるものです.

理解さえしてしまえば,そこまで難しいわけでもありません.

例では, w_1^1を扱いましたが,最後に一般化しておきましょう.

一般化すると, w_k^1 w_k^1 - \alpha \frac{\partial E}{\partial w_k^1}に更新してやれば良いことになります.

 w_k^1だけではなく, w_k^2や, b_k bも同様に変化させて誤差を少なくしていく必要があります.

f:id:McG:20161221021026p:plain

つまり, w_1^1を更新するときの考え方と全く同じやり方で以下の4式が求まります.

 w_k^1 w_k^1 - \alpha \frac{\partial E}{\partial w_k^1}に更新

 w_k^2 w_k^2 - \alpha \frac{\partial E}{\partial w_k^2}に更新

 b_k b_k - \alpha \frac{\partial E}{\partial b_k}に更新

 b b - \alpha \frac{\partial E}{\partial b}に更新

この更新を繰り返していくことで,最終的に誤差を0にすることが出来るというわけです.

偏微分を消してみる

さて,誤差をなくしていくためにはどのように重みwや,バイアスbを修正すればよいかがわかりました.

ただ,コンピュータにとって偏微分の形が残っているのは都合がよくありません.

そこで,この偏微分を計算して,微分が残っていない形に持っていきましょう.

まずは, w_k^2の更新に関してです.

 w_k^2 w_k^2 - \alpha \frac{\partial E}{\partial w_k^2}に更新します.

この偏微分で表されたところは,連鎖律を使うと,

 \frac{\partial E}{\partial w_k^2} = \frac{\partial E}{\partial y} \frac{\partial y}{\partial w_k^2}

 = (y-t)(1-y) y u_kになります. (詳しくは下の画像を参照)

f:id:McG:20161222213027p:plain

次に, bの更新に関してです.

 b_k b_k\ - \alpha \frac{\partial E}{\partial b_k}に更新します.

先程と同様に,連鎖律を使うと,この偏微分で表されたところは,

 \frac{\partial E}{\partial b_k} = \frac{\partial E}{\partial y} \frac{\partial y}{\partial b_k}

 = (y-t)(1-y) y になります. (詳しくは下の画像を参照)

f:id:McG:20161222213452p:plain

そして次, w_k^1の更新に関してです.

 w_k^1 w_k^1 - \alpha \frac{\partial E}{\partial w_k^1}に更新します.

この偏微分で表されたところは,連鎖律を使うと,

 \frac{\partial E}{\partial b_k} = \frac{\partial E}{\partial y} \frac{\partial y}{\partial u_k}\frac{\partial u_k}{\partial w_k^1}

 = (y-t)(1-y) y w_k^2 (1-u_k) u_k xになります. (詳しくは下の画像を参照)

f:id:McG:20161223034405p:plain

そして最後に, b_kの更新に関してです.

 w_k^1 w_k^1 - \alpha \frac{\partial E}{\partial b_k}に更新します.

この偏微分で表されたところは,連鎖律を使うと,

 \frac{\partial E}{\partial b_k} = \frac{\partial E}{\partial y} \frac{\partial y}{\partial u_k}\frac{\partial u_k}{\partial b_k}

 = (y-t)(1-y) y w_k^2 (1-u_k) u_kになります. (詳しくは下の画像を参照)

f:id:McG:20161223034425p:plain

と,これで偏微分をすべて y,tなどの数字で表せました.

あとは,これをコンピュータで何度も繰り返し重みwや,バイアスbを修正していくだけです.

f:id:McG:20161223040255p:plain

これが,とてもシンプルにした,誤差逆伝播法と呼ばれるニューラルネットワークの学習手法です.

まとめ

高校生に教えたときのをだいたいそのまま言語化したので,かなりシンプルになっており,厳密でない部分もありました.

しかしこれで一応,隠れ層が1のニューラルネットワークに関しては学習の流れがわかったかと思います.

もちろん,隠れ層は一般的には1だけではありませんが,最初に述べた通り,簡単化のために今回は隠れ層が1のニューラルネットワークを扱いました.

基礎的なことはこんな感じなので,これが理解できれば,他の記事で扱われているようなことも割りとすんなり理解できるのではないかと思います.

それでは,良いお年を!!

© 2016 Yuki Sako.