2.2.2 バックプロパゲーション 〜前向き演算〜

バックプロパゲーションという学習法についてみていきましょう。 今回はより一般的なネットワークについて考えていくことにします。

中間層、出力層の結合荷重の記号について説明を加えておきます。
中間層の結合荷重はWjiとし、これは入力層i番目のユニットから、 中間層j番目のユニットへの結合荷重をあらわしています。 出力層の結合荷重はWkjとし、これは中間層j番目のユニットから、 出力層k番目のユニットへの結合荷重をあらわしています。

まず、ニューロンの出力を得るところですが、これは前のパーセプトロンと 同じ方法でできます。出力がn個あること、出力関数がかわることだけが違います。 バックプロパゲーションでは、出力を得るまでの計算を前向き演算といいます。


j = f (Tj

ここでは入力層から中間層への情報伝達をあらわしています。 まず、中間層のj番目のニューロンのネット値をTjとして計算しています。 そして、 そのネット値を使ってj番目のニューロンの出力をHjとして出力しています。

いま、中間層のニューロンはn個あるので、 j=1,2,3...nとしていけば良いことは分かりますね。

ここで、0番目の入力を常に1とし、 それに対応する結合荷重を−θとしてしきい値をひく操作をしていることに注意して下さい。 この方法は ニューロンモデルのところ ですこし説明しましたね。

つぎの2つの式は、中間層から出力層への信号伝達をあらわしています。


k = f (Uk

ここでも同じように各ニューロンのネット値を計算して、最終的な出力を求めています。



Copyright(c) Iwata-Lab. N.I.T. All rights reserved.