3.3.1 ベクトル量子化と競合学習
手書き文字認識や音声認識などのパターン認識には、 先に学んだバックプロパゲーションが用いられることがおおいのですが、 ローカルミニマムに陥ることが多く、実用的なネットワークを形成することが困難です。

複雑なパターン認識には、ここで学ぶ競合学習型ベクトル量子化ニューラルネットワーク による方式が提案されています。

「量子化」とはどういうことでしょうか?分かりやすい例で考えてみましょう。

体重計で体重を測るとき、59.995kgと60.005kgの違いを目盛りで読みとることは むずかしいですね。この時は60kgとよ読みとるのがふつうです。 このように、データをある適当な値で代表させるということを「量子化」といいます。

それでは、ベクトル量子化とはどういうことなのでしょうか? 少し難しい表現をすれば、 データの存在する特徴ベクトル空間をカテゴリーを代表するテンプレート により分割することをベクトル量子化といいます。

つまり、先ほどの体重計の例を使うと、体重計の細かいメモリを入力データとし、 55や60など区切りの良い値をテンプレートとします。 そして、入力データとテンプレートを比較しどれか近いテンプレートに入力データを 割り付けてしまおうということです。

競合学習型のネットワークの学習段階では、 ある入力に対して多数のニューロンが反応しますが、 そのなかでも最も強い応答を示したニューロンが勝ち残り(競合)、 そのニューロンについての結合重みの学習をおこないます。 ただし、学習するときは競合で勝ち残ったニューロンの周辺のニューロンも 同時に学習します。

このような学習によって、 データの統計的分布や相互の類似関係を反映したテンプレートが作られます。 このテンプレートによって、パターン認識ができるわけです。



Copyright(c) Iwata-Lab. N.I.T. All rights reserved.