特許
J-GLOBAL ID:200903064743705690

ニューラルネットワークの最適化学習方法

発明者:
出願人/特許権者:
代理人 (1件): 森田 雄一
公報種別:公開公報
出願番号(国際出願番号):特願平11-066165
公開番号(公開出願番号):特開2000-259598
出願日: 1999年03月12日
公開日(公表日): 2000年09月22日
要約:
【要約】【課題】ニューラルネットワークの最適化を高速かつ効率的に行うニューラルネットワークの最適化学習方法を提供する。【解決手段】通常の入力層ユニットにノイズ入力層ユニットを付加し、このニューラルネットワークの評価用にJf=(出力誤差評価項)+ε’(ニューラルネットワーク評価項)(ただし、ε’は忘却係数)として設計された評価関数Jfを用いて出力誤差が少なく、かつ、ニューラルネットワークが単純であると評価できるように結合係数を増減して学習を行い、学習途中でノイズ入力層ユニットと中間層ユニットとの結合係数を用いる評価指標値を残りの学習回数で割った値を新たな忘却係数ε’として再設定する。
請求項(抜粋):
ニューラルネットワークのユニット間の結合係数を増減してニューラルネットワークを最適化するニューラルネットワークの最適化学習方法において、通常の入力層ユニットとは別に少なくとも1つのノイズ入力層ユニットを入力層において付加したニューラルネットワークとし、このニューラルネットワークを評価するために、Jf=(出力誤差を評価する項)+ε’(ニューラルネットワークの複雑さを評価する項)(ただし、ε’は忘却係数)で表され、かつ、結合係数をパラメータとする評価関数Jfを設計し、学習回数および忘却係数ε’の初期値を設定し、評価関数Jfを用いて出力誤差が少なく、かつ、ニューラルネットワークが単純であると評価できる評価関数値となるようにそれぞれの結合係数を増減して学習を行い、学習途中においてノイズ入力層ユニットと中間層ユニットとの結合係数を用いる評価指標値を残りの学習回数で割った値を新たな忘却係数ε’とすることを特徴とするニューラルネットワークの最適化学習方法。
IPC (2件):
G06F 15/18 520 ,  G05B 13/02
FI (2件):
G06F 15/18 520 P ,  G05B 13/02 L
Fターム (3件):
5H004GA18 ,  5H004KC08 ,  5H004KD32

前のページに戻る