氏名: 関 雅夫 (289834228)

論文題目: 並列協調型リカレントネットによる系列画像の学習


論文概要

汎化能力に優れたニューラルネットワーク(以下,NN)に 画像を効率的に学習させる技術は,画像処理の研究に NNを応用する上で有益である. しかし,画像の全画素値をNNの直接の入力とすると, 結合数が指数的に増大して学習に時間がかかり, 収束性が著しく低下するという問題点がある. その問題に対して,原画像を小さい部分画像に分割して 複数のNNに別々に学習させる分割学習法が考えられるが, この方法では複数のNNの学習が独立に進行するため, ネットワーク全体の収束性は改善されにくい. 特に,時系列信号を学習するリカレント型NN(RNN)では, 単独のネットワークの学習における自由度が階層型NNと 比較して大きいため,単純な分割処理では,各RNNの 学習結果が大きくばらつく場合が多い. そこで,本研究では,各部分画像を処理するRNNにおいて, 過去の履歴を記憶する文脈層を拡張し,周囲8近傍の RNNの出力を結合することにより,文脈層を介して, RNN間の協調学習を自然に実現する並列協調型 アーキテクチャを提案した. これによって,ネットワーク全体の収束を安定させて 収束率を高め,同時に,学習結果における部分画像間の 連続性を高めることが可能となる. 提案手法の有効性を確認するため,人工画像系列4系列, 自然画像系列10系列(1系列の長さ10)を用いた 評価実験を行った. 最大学習回数を10000回,NMSE(平均2乗誤差)の 判定閾値を3%に設定して実験した結果,単純分割法では 最良パラメータを用いてもNMSEが6%の局所解に陥り 学習しきれなかったが,提案手法では1300回で 収束条件を満たし,NMSEも単純分割法の最小NMSEの 半分以下である2.7%に収まり,学習結果の改善が 見られた. また,学習後は視覚的にも原画像と遜色のない出力画像を 得ることができ,部分画像間の連続性も失われない. このように,協調学習を付加することによって, 学習回数を重ねるにつれて全体出力の誤差が滑らかに 減少し,収束条件を満たすまでに要する平均学習回数も 少なく抑えられ,学習所要時間と計算コストを少なく 抑えながら,画像を安定的にNNに学習させることができた. この結果から,提案手法が時系列画像の学習効率を 向上させるのに有効であることが分かった.


目次に戻る


asakura@nuie.nagoya-u.ac.jp