JPH01320565A - ニューラルネットの学習効率化方法 - Google Patents
ニューラルネットの学習効率化方法Info
- Publication number
- JPH01320565A JPH01320565A JP63153827A JP15382788A JPH01320565A JP H01320565 A JPH01320565 A JP H01320565A JP 63153827 A JP63153827 A JP 63153827A JP 15382788 A JP15382788 A JP 15382788A JP H01320565 A JPH01320565 A JP H01320565A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- momentum
- units
- samples
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000001537 neural effect Effects 0.000 title abstract 2
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000004422 calculation algorithm Methods 0.000 abstract description 9
- 230000007423 decrease Effects 0.000 abstract description 2
- 239000002245 particle Substances 0.000 abstract 2
- 230000001105 regulatory effect Effects 0.000 abstract 1
- 238000005070 sampling Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000002945 steepest descent method Methods 0.000 description 2
- 241001648319 Toronia toru Species 0.000 description 1
- 101100020289 Xenopus laevis koza gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Landscapes
- Machine Translation (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[産業上の利用分′ff]
この発明はニューラルネットの学習効率化方法に関し、
パターン認識、たとえば文字認識や音声認識、法則の発
見たとえば文章中の単語列予測等の問題をニューラルネ
ットにおいて、バックプロパゲーション法を用いて学習
を行なう際の学習効率化方法に関する。
パターン認識、たとえば文字認識や音声認識、法則の発
見たとえば文章中の単語列予測等の問題をニューラルネ
ットにおいて、バックプロパゲーション法を用いて学習
を行なう際の学習効率化方法に関する。
[従来の技術]
この発明が改善しようとするバックプロパゲーションの
学習アルゴリズムについて、以下に説明する。
学習アルゴリズムについて、以下に説明する。
第5図はバックプロパゲーションアルゴリズムが対象と
する多層ネットワークの構造を示す図であり、第6図は
第5図に示した各ユニットの人出力関係を示す図である
。
する多層ネットワークの構造を示す図であり、第6図は
第5図に示した各ユニットの人出力関係を示す図である
。
バックプロパゲーション学習アルゴリズムが対象とする
ネットワークは、第5図に示すように、入力層、出力層
およびHi dden−Laye rと呼ばれる中間層
で形成される多層ネットワークである。
ネットワークは、第5図に示すように、入力層、出力層
およびHi dden−Laye rと呼ばれる中間層
で形成される多層ネットワークである。
ネットワークのユニット間は入力層から出力層に向かっ
て結合されており、第6図に示すように、それぞれのユ
ニッ゛トjでは他のユニットiからの入力、すなわちユ
ニットiの出力とユニットi。
て結合されており、第6図に示すように、それぞれのユ
ニッ゛トjでは他のユニットiからの入力、すなわちユ
ニットiの出力とユニットi。
5間の結合重み係数WJiの積の総和net)mΣWJ
l ・olをとり、さらに入出力関数f (x)を
通して、出力信号o= −t (neJ )を出す。
l ・olをとり、さらに入出力関数f (x)を
通して、出力信号o= −t (neJ )を出す。
すなわち、成る入力信号のパターンをネットワークの入
力層に入れたときに、上述のような計算をすべてのユニ
ットで行ない(但し、入力層では入出力関数を通さない
ことが多い)、最終的に出力層から出た信号パターンが
望ましいパターンになるように、ユニット間の結合重み
係数を決定する。
力層に入れたときに、上述のような計算をすべてのユニ
ットで行ない(但し、入力層では入出力関数を通さない
ことが多い)、最終的に出力層から出た信号パターンが
望ましいパターンになるように、ユニット間の結合重み
係数を決定する。
ここでは、評価関数として教師信号とニューラルネット
の出力信号の誤差の二乗和EFを用いている。
の出力信号の誤差の二乗和EFを用いている。
Er−1/2・Σ(tp J OF J ) 2・
・・(1)ここでtp)は入カバターンPに対する出カ
ニニットjの教師信号であり、OPJ は出カニニット
jの出力信号である。この誤差関数EPをすべての入カ
バターンに対して最小にする必要がある。
・・(1)ここでtp)は入カバターンPに対する出カ
ニニットjの教師信号であり、OPJ は出カニニット
jの出力信号である。この誤差関数EPをすべての入カ
バターンに対して最小にする必要がある。
よって問題はE−ΣErを最小にするような結合重み係
数を決定するという最小化問題となる。
数を決定するという最小化問題となる。
この問題を解くために、バックプロパゲーション学習ア
ルゴリズムでは、最急降下法を用いている。すなわち、
入カバターンpごとの結合重み係数WJIの更新量ΔP
WJi を次の値(2)式のようにエラー交換の勾配に
比例した形で与える。
ルゴリズムでは、最急降下法を用いている。すなわち、
入カバターンpごとの結合重み係数WJIの更新量ΔP
WJi を次の値(2)式のようにエラー交換の勾配に
比例した形で与える。
Δp w、、oC−3Ep /aw; + −(
2)まず・ PEp /3w、、を求める。
2)まず・ PEp /3w、、を求める。
aEr /’;)W; I−aEp /9n e tr
) ・n e t F J / 3 Wj I
”’ (3)netp2−ΣWJI
・OPkであるから右辺のに 右側は n e tp J /awj+ −”/2+ WJ +
’ΣWj k eop 1−OP I
−(4)である。次に、ユニットjに対して、 δp J −−aEp /9netr J −(
5)と置くことにより、 −フEp /a wJ + −δp J ・or +
・” (6)よって、第(2)式の学習規則は ΔpWJl −77’δP ; IIop +
−(7)となる。ここで、ηはステップサイズを決定
する定数である。
) ・n e t F J / 3 Wj I
”’ (3)netp2−ΣWJI
・OPkであるから右辺のに 右側は n e tp J /awj+ −”/2+ WJ +
’ΣWj k eop 1−OP I
−(4)である。次に、ユニットjに対して、 δp J −−aEp /9netr J −(
5)と置くことにより、 −フEp /a wJ + −δp J ・or +
・” (6)よって、第(2)式の学習規則は ΔpWJl −77’δP ; IIop +
−(7)となる。ここで、ηはステップサイズを決定
する定数である。
次に、δP、を求め、
δp 、−−3Er /ane tp 。
=−aEr /aop 」 ・”aor J /net
r j ・・・(8)ここで、□
P、−f (netpj)であるから右辺の右側は 3opj1つnetrj−f’ (nel」)・・・
(9) である。右辺の左側はユニットjが出カニニットかそう
でないかによって式は異なる。ユニットjが出カニニッ
トの場合、 EP−1/2・Σ(trJ 0FJ)2・・・(1)
であるから、 ’;iEr /73op J −(tr ; −OF
J )・・・(10) となり、直接δPJが次の第(11)式のように求まる
。
r j ・・・(8)ここで、□
P、−f (netpj)であるから右辺の右側は 3opj1つnetrj−f’ (nel」)・・・
(9) である。右辺の左側はユニットjが出カニニットかそう
でないかによって式は異なる。ユニットjが出カニニッ
トの場合、 EP−1/2・Σ(trJ 0FJ)2・・・(1)
であるから、 ’;iEr /73op J −(tr ; −OF
J )・・・(10) となり、直接δPJが次の第(11)式のように求まる
。
δPJ =(tpJ −orb) ・f’ (n
etrJ)(ユニットj;出カニニット) ・・・
(i 1)一方、ユニットjが出カニニットでない場合
、EFがOFJの直接の関数とならない。したがって、
次式のように変形してδP、の再帰関数として求めると
いう工夫を行なう。
etrJ)(ユニットj;出カニニット) ・・・
(i 1)一方、ユニットjが出カニニットでない場合
、EFがOFJの直接の関数とならない。したがって、
次式のように変形してδP、の再帰関数として求めると
いう工夫を行なう。
3Ep /30P J−ΣeaEp/、)netp。
ト
、3/ao、J (Σwkk ・Or + )−Σφ3
Er /3n e tr 1 −V/l J一−Σδ
FiWk j ・・・ (12
)δP、j −f’ (netp J ) 命Σ
δPIWlj(ユニットj;中間ユニット)
・・・(13)このように、ΔFWJi を計算するの
に必要な誤差情報σP、を出力層から人力層へ逆に伝搬
しているのでバックプロパゲーションという。
Er /3n e tr 1 −V/l J一−Σδ
FiWk j ・・・ (12
)δP、j −f’ (netp J ) 命Σ
δPIWlj(ユニットj;中間ユニット)
・・・(13)このように、ΔFWJi を計算するの
に必要な誤差情報σP、を出力層から人力層へ逆に伝搬
しているのでバックプロパゲーションという。
バックプロパゲーション学習アルゴリズムでは、ユニッ
トの入出力関数f (x)として、上述の第(11)式
および第(13)式から明らかなように、微分可能な関
数が必要とされる。D、 E、 Rumelhart
et al:Parallel Distri
buted Processing、M、I、T、P
ress (1986)では、次のような非線形単調増
加のシグモイド関数を用いるのがよいとしている。
トの入出力関数f (x)として、上述の第(11)式
および第(13)式から明らかなように、微分可能な関
数が必要とされる。D、 E、 Rumelhart
et al:Parallel Distri
buted Processing、M、I、T、P
ress (1986)では、次のような非線形単調増
加のシグモイド関数を用いるのがよいとしている。
f (x)−1/1+e−” −(14)
すなわち、ユニットjの出力は次の式のようになる。
すなわち、ユニットjの出力は次の式のようになる。
f (ne tl) −at J −1/ (1+e−
1tPj)・・・(15) ここで、入力の総和netrJはnetr、1−ΣWj
i’OPi 十〇、としてバイアス成分θjを加える。
1tPj)・・・(15) ここで、入力の総和netrJはnetr、1−ΣWj
i’OPi 十〇、としてバイアス成分θjを加える。
実際のネットワークでは、人力ユニ・ント以外のすべて
のユニットと結合する、出力が常に1のバイアスユニッ
トを考え、θ、をその結合重み係数とみなして学習する
。
のユニットと結合する、出力が常に1のバイアスユニッ
トを考え、θ、をその結合重み係数とみなして学習する
。
f (口etpJ)の導関数を求めると、f’ (n
e tp J)maop 、、/2ine tr J−
OF J ・(1−OP ; ) −
(16)よって、結合重み係数WJIの更新量ΔP W
) (は次の式で得られる。
e tp J)maop 、、/2ine tr J−
OF J ・(1−OP ; ) −
(16)よって、結合重み係数WJIの更新量ΔP W
) (は次の式で得られる。
Δp WJ H■η争δp = aop + ・
= (17)但17、ユニットjが出カニニットの場合
は、δp、wmop) @ (1−OPJ) ・
(tp7−OP J )
・・・(18)であり、ユニットjが中間ユニット
の場合は、δr J−ori −(1or J
) −Σ δP 、 W Kj・・・ (1つ
) である。
= (17)但17、ユニットjが出カニニットの場合
は、δp、wmop) @ (1−OPJ) ・
(tp7−OP J )
・・・(18)であり、ユニットjが中間ユニット
の場合は、δr J−ori −(1or J
) −Σ δP 、 W Kj・・・ (1つ
) である。
結合重み係数w4.の更新は、入カバターンが複数ある
のが一般的であるので、1つの入カバターン提示ごとに
実行するか、次式のように全入カバターン提示後に ΔWjl−η・Σ(δr7 中orl)・・・(20
) として実行するか、2つの方法がある。
のが一般的であるので、1つの入カバターン提示ごとに
実行するか、次式のように全入カバターン提示後に ΔWjl−η・Σ(δr7 中orl)・・・(20
) として実行するか、2つの方法がある。
[発明が解決しようとする課題]
上述のごとく、バックプロパゲーション学習アルゴリズ
ムの基本原理は最急降下法であるため、最短距離で最小
値に到達するためには、更新幅(ΔW、、)を無限小に
する必要があるが、実際問題として、計算繰返し回数が
増加するため、収束速度は遅くなる。そこで、なるべく
大きな更新幅(ΔWJ I )を得るために、上述の第
(7)式のηの値を大きくとりたいが、更新方向が振動
しやすくなる。前述のRumel ha r tの文献
では、前回の更新幅をモーメンタム量として次式のよう
に加算することにより振動を抑制することを提案]7て
いる。
ムの基本原理は最急降下法であるため、最短距離で最小
値に到達するためには、更新幅(ΔW、、)を無限小に
する必要があるが、実際問題として、計算繰返し回数が
増加するため、収束速度は遅くなる。そこで、なるべく
大きな更新幅(ΔWJ I )を得るために、上述の第
(7)式のηの値を大きくとりたいが、更新方向が振動
しやすくなる。前述のRumel ha r tの文献
では、前回の更新幅をモーメンタム量として次式のよう
に加算することにより振動を抑制することを提案]7て
いる。
ΔWJ + (n+1) −77争ap ) 豪op
1+α・ΔWj + (n)
・・・(21)ここで、αはモーメンタム量を調整す
るパラメータである。このη、αは定数であるが、これ
らの最適な値(収束が速くなる値)はエラー空間の形状
、すなわちタスクの種類やサンプルデータの量によって
異なるはずであり、さらに学習進行の程度によっても変
化すると考えられる。このように、従来はタスクに合っ
たη、αの値を経験的に決めていたため、学習に時間が
かがったり、不適当な局所的最小値に陥りやすいという
問題点があった。
1+α・ΔWj + (n)
・・・(21)ここで、αはモーメンタム量を調整す
るパラメータである。このη、αは定数であるが、これ
らの最適な値(収束が速くなる値)はエラー空間の形状
、すなわちタスクの種類やサンプルデータの量によって
異なるはずであり、さらに学習進行の程度によっても変
化すると考えられる。このように、従来はタスクに合っ
たη、αの値を経験的に決めていたため、学習に時間が
かがったり、不適当な局所的最小値に陥りやすいという
問題点があった。
それゆえに、この発明の主たる目的は、学習繰返し計蛋
ごともしくは何回かの学習繰返し計算に1回の割合で、
エラーが最小となるようにη2 αをダイナミックに変
更する方法を提供することである。
ごともしくは何回かの学習繰返し計算に1回の割合で、
エラーが最小となるようにη2 αをダイナミックに変
更する方法を提供することである。
[課題を解決するための手段]
この発明はバックプロパゲーション法を用いた多層ニュ
ーラルネットの学習において゛、学習の繰返し計算ごと
あるい°は何回かの学習繰返し計算に1回の割合で、ニ
ューラルネットの出力誤差が最小値もしくは最小に近い
値をとるように、更新ステップ幅およびモーメンタムの
パラメータの値を変更するようにしたニューラルネット
の学習効率化方法である。
ーラルネットの学習において゛、学習の繰返し計算ごと
あるい°は何回かの学習繰返し計算に1回の割合で、ニ
ューラルネットの出力誤差が最小値もしくは最小に近い
値をとるように、更新ステップ幅およびモーメンタムの
パラメータの値を変更するようにしたニューラルネット
の学習効率化方法である。
[作用]
この発明に係るニューラルネットの学習効率化方法は、
学習:1算繰返しごとに、次式によりエラー E Pが
最小となるようにη、αをダイナミックに変更する。
学習:1算繰返しごとに、次式によりエラー E Pが
最小となるようにη、αをダイナミックに変更する。
EP (WJ + (k)+ΔWj l (k)
(77(k)、α(k))’) (η込、αm)) η、αの値を有限個用意して、その中からエラーEPが
最も小さくなるη、αを選択する。
(77(k)、α(k))’) (η込、αm)) η、αの値を有限個用意して、その中からエラーEPが
最も小さくなるη、αを選択する。
[発明の実施例]
第1図はこの発明の一実施例である単語列予測のための
多層ネットワークの構造を示す図である。
多層ネットワークの構造を示す図である。
この発明を文章中の単語を予測するニューラルネットワ
ークモデルに適用した実施例を以下に示す。このモデル
は現在の単語の品詞から次の単語の品詞を予測しようと
するものである。実験条件を次に示す。
ークモデルに適用した実施例を以下に示す。このモデル
は現在の単語の品詞から次の単語の品詞を予測しようと
するものである。実験条件を次に示す。
(1) タスクは単語列予測モデルである。
(2) ネットワーク入力は現在の単語の品詞番号(品
詞番号に相当するユニットのみ“1”であり、他はすべ
て“O“である)。
詞番号に相当するユニットのみ“1”であり、他はすべ
て“O“である)。
(3) ネットワーク出力教師信号は次の単語の品詞番
号である。
号である。
(4) ネットワーク構造は第1図に示すように、バッ
クプロパゲーションアルゴリズムが対象とする多層ネッ
トワークであり、入力層は89個のユニット(品詞の数
)であり、中間層は16個のユニットが2層であり、出
力層は89個のユニット(品詞の数)である。
クプロパゲーションアルゴリズムが対象とする多層ネッ
トワークであり、入力層は89個のユニット(品詞の数
)であり、中間層は16個のユニットが2層であり、出
力層は89個のユニット(品詞の数)である。
(5) サンプル数は1センテンス23である。
(6) パラメータは次のとおりである。
ステップ幅ηは従来方法では0.1または0゜4の一定
値であるのに対して、この発明では、(1/2,1.2
)Xη(k”−1)、すなわち前回の値の1/2,1.
2倍の3種類が選択される。
値であるのに対して、この発明では、(1/2,1.2
)Xη(k”−1)、すなわち前回の値の1/2,1.
2倍の3種類が選択される。
モーメンタムαは従来方法では0または0.9の一定値
であるのに対して、この発明では0,0゜9の2種類が
選択される。
であるのに対して、この発明では0,0゜9の2種類が
選択される。
第2図は学習効果率法の効果を確認実験した結果を表に
表わした図であり、第3図および第4図は向じくグラフ
で示したものである。
表わした図であり、第3図および第4図は向じくグラフ
で示したものである。
第2図および第3図から明らかなように、この発明では
ステップ幅ηを3種類選択しかつモーメンタムαを2種
類選択した場合には、収束するまでの繰返し計算回数が
35回(CASEI)であるのに対して、従来のように
、ステップ幅ηを0゜1に固定しかつモーメンタムαを
0.9に固定した場合、収束するまでの繰返し計算回数
が153回(CASE2)になり、この発明による方法
の方が従来に比べ、て4.3倍以上収束が速くなってい
る。
ステップ幅ηを3種類選択しかつモーメンタムαを2種
類選択した場合には、収束するまでの繰返し計算回数が
35回(CASEI)であるのに対して、従来のように
、ステップ幅ηを0゜1に固定しかつモーメンタムαを
0.9に固定した場合、収束するまでの繰返し計算回数
が153回(CASE2)になり、この発明による方法
の方が従来に比べ、て4.3倍以上収束が速くなってい
る。
また、パラメータが一定の場合の、たとえばステップ幅
η−0,4のときはエラーの振動が生じやす< (CA
SE3.CASE4) 、ステップ幅η−0,1であれ
ば収束が遅くなる(CASE2゜CASE5)。さらに
、モーメンタムαについては、α−0,9の場合ステッ
プ幅ηの値も大きければ不安定な状態が持続しくCAS
E3)、α−〇の場合、学習が進んでも収束速度が加速
しない(CASE5)。
η−0,4のときはエラーの振動が生じやす< (CA
SE3.CASE4) 、ステップ幅η−0,1であれ
ば収束が遅くなる(CASE2゜CASE5)。さらに
、モーメンタムαについては、α−0,9の場合ステッ
プ幅ηの値も大きければ不安定な状態が持続しくCAS
E3)、α−〇の場合、学習が進んでも収束速度が加速
しない(CASE5)。
次に、この発明によるステップ幅η、モーメンタムαを
ダイナミックに変更する方法により、タスクに対してエ
ラーの収束判定で学習サンプル数を増加させる実験を行
なった。ここでは、モーメンタムαは(0,0,2,0
,9)の3種類を選択することにした。その結果を第4
図に示す。モーメンタムαについては学習初期およびサ
ンプル数が増加した場合、α−0あるいは0.2をとり
、それ以外はほとんどα−0,9を選択している。
ダイナミックに変更する方法により、タスクに対してエ
ラーの収束判定で学習サンプル数を増加させる実験を行
なった。ここでは、モーメンタムαは(0,0,2,0
,9)の3種類を選択することにした。その結果を第4
図に示す。モーメンタムαについては学習初期およびサ
ンプル数が増加した場合、α−0あるいは0.2をとり
、それ以外はほとんどα−0,9を選択している。
これは、学習の初期はリンクウェイトの修正方向が不安
定であるため、モーメンタムαによる加速はオーバシュ
ートを起こしやすいからであり、サンプル数が増加した
場合も、エラー空間が変形するため、過去のリンクウェ
イトの修正方向を引きずらない方が良いからである。
定であるため、モーメンタムαによる加速はオーバシュ
ートを起こしやすいからであり、サンプル数が増加した
場合も、エラー空間が変形するため、過去のリンクウェ
イトの修正方向を引きずらない方が良いからである。
一方、ステップ幅ηについてはサンプル数が増加するに
従って減少している。すなわち、この発明では、サンプ
ルの数の大きさに対して、自動的にステップ幅ηの値を
正規化しているのがわかる。
従って減少している。すなわち、この発明では、サンプ
ルの数の大きさに対して、自動的にステップ幅ηの値を
正規化しているのがわかる。
[発明の効果]
以上のように、この発明によれば、タスクの種類や学習
サンプルの量に対して最適に近いパラメータの値を自動
選択し、学習の進行状況に応じてパラメータを自動調整
しており、結果として学習の効率化を図ることができた
。今回は1回の繰返し計算ごとにすべてのパラメータの
組合わせに対して計算を行なったため、ステップ幅ηを
3種類。
サンプルの量に対して最適に近いパラメータの値を自動
選択し、学習の進行状況に応じてパラメータを自動調整
しており、結果として学習の効率化を図ることができた
。今回は1回の繰返し計算ごとにすべてのパラメータの
組合わせに対して計算を行なったため、ステップ幅ηを
3種類。
モーメンタムαを2種類の場合、1回の繰返し計算に6
倍の時間を必要とした。しかし、実験結果から明らかな
ように、成る程度学習が進めば毎回パラメータを変更す
る必要はないので、変更のインターバルを大きくとるこ
とによりこの問題は解消される。
倍の時間を必要とした。しかし、実験結果から明らかな
ように、成る程度学習が進めば毎回パラメータを変更す
る必要はないので、変更のインターバルを大きくとるこ
とによりこの問題は解消される。
また、ここでは有限個のステップ幅η、モーメンタムα
の値から最小値を選んでいるが、二次元探索法などによ
り、ステップ幅η、モーメンタムαの値を決定してもよ
いのはもちろんのことである。
の値から最小値を選んでいるが、二次元探索法などによ
り、ステップ幅η、モーメンタムαの値を決定してもよ
いのはもちろんのことである。
第1図はこの発明の実施例である単語列予測のだめの多
層ネットワークの構造を示す図である。 第2図はこの発明による効果の確認実験結果を表に表わ
した図である。第3図および第4図はこの発明による効
果の確認実験結果をグラフに示した図である。第5図は
バックプロパゲーションアルゴリズムが対象とする多層
ネットワークの構造を示す図である。第6図は第5図に
示した各ユニットの入出力関係を示す図である。 第1図 第2図 第3図 第5図 第6図 手続補正書 昭和6′う年10J126+1 、発明の名称 ニューラルネットの学習効率化方法 3、捕1Fをする者 中外との関係 特許出願人 住 所 京都府川楽部精華町大字乾谷小字三平谷5番地
名 称 株式会>1エイ・ティ・アール自動翻訳1゛ヒ
話研究所代表者 樗松 明 4、代理人 住 所 大阪市北区南森町2−’J−[”J 1番29
号 住友銀行南森町とル6、補正の対象 図面の第3図ならびに第4図 7、補正の内容 (1) 図面の第3図ならびに第4図を別紙のとおり補
正する。 以上
層ネットワークの構造を示す図である。 第2図はこの発明による効果の確認実験結果を表に表わ
した図である。第3図および第4図はこの発明による効
果の確認実験結果をグラフに示した図である。第5図は
バックプロパゲーションアルゴリズムが対象とする多層
ネットワークの構造を示す図である。第6図は第5図に
示した各ユニットの入出力関係を示す図である。 第1図 第2図 第3図 第5図 第6図 手続補正書 昭和6′う年10J126+1 、発明の名称 ニューラルネットの学習効率化方法 3、捕1Fをする者 中外との関係 特許出願人 住 所 京都府川楽部精華町大字乾谷小字三平谷5番地
名 称 株式会>1エイ・ティ・アール自動翻訳1゛ヒ
話研究所代表者 樗松 明 4、代理人 住 所 大阪市北区南森町2−’J−[”J 1番29
号 住友銀行南森町とル6、補正の対象 図面の第3図ならびに第4図 7、補正の内容 (1) 図面の第3図ならびに第4図を別紙のとおり補
正する。 以上
Claims (1)
- 【特許請求の範囲】 バックプロパゲーション法を用いた多層ニューラルネ
ットの学習において、 前記学習の繰返し計算ごとあるいは何回かの学習繰返し
計算に1回の割合で、ニューラルネットの出力誤差が最
小値もしくは最小に近い値をとるように、更新ステップ
幅およびモーメンタムのパラメータの値を変更すること
を特徴とする、ニューラルネットの学習効率化方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP63153827A JPH07104848B2 (ja) | 1988-06-22 | 1988-06-22 | ニューラルネットの学習効率化方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP63153827A JPH07104848B2 (ja) | 1988-06-22 | 1988-06-22 | ニューラルネットの学習効率化方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH01320565A true JPH01320565A (ja) | 1989-12-26 |
| JPH07104848B2 JPH07104848B2 (ja) | 1995-11-13 |
Family
ID=15570956
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP63153827A Expired - Fee Related JPH07104848B2 (ja) | 1988-06-22 | 1988-06-22 | ニューラルネットの学習効率化方法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH07104848B2 (ja) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03273722A (ja) * | 1989-11-28 | 1991-12-04 | Nec Corp | 音声・モデム信号識別回路 |
| JPH04662A (ja) * | 1990-04-18 | 1992-01-06 | Matsushita Electric Ind Co Ltd | 学習機械 |
| JPH0427832A (ja) * | 1990-05-22 | 1992-01-30 | Shirou Usui | 色覚情報変換方法及び装置 |
| JPH04335923A (ja) * | 1991-05-13 | 1992-11-24 | Matsushita Electric Ind Co Ltd | 電気カーペット |
| US5555439A (en) * | 1991-06-12 | 1996-09-10 | Hitachi, Ltd. | Learning system and a learning pattern showing method for a neural network |
-
1988
- 1988-06-22 JP JP63153827A patent/JPH07104848B2/ja not_active Expired - Fee Related
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH03273722A (ja) * | 1989-11-28 | 1991-12-04 | Nec Corp | 音声・モデム信号識別回路 |
| JPH04662A (ja) * | 1990-04-18 | 1992-01-06 | Matsushita Electric Ind Co Ltd | 学習機械 |
| JPH0427832A (ja) * | 1990-05-22 | 1992-01-30 | Shirou Usui | 色覚情報変換方法及び装置 |
| JPH04335923A (ja) * | 1991-05-13 | 1992-11-24 | Matsushita Electric Ind Co Ltd | 電気カーペット |
| US5555439A (en) * | 1991-06-12 | 1996-09-10 | Hitachi, Ltd. | Learning system and a learning pattern showing method for a neural network |
Also Published As
| Publication number | Publication date |
|---|---|
| JPH07104848B2 (ja) | 1995-11-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11836438B2 (en) | ML using n-gram induced input representation | |
| Lai et al. | Imputations of missing values using a tracking-removed autoencoder trained with incomplete data | |
| Jin et al. | The improvements of BP neural network learning algorithm | |
| CN114514540A (zh) | 语言任务的对比预训练 | |
| JP7240650B2 (ja) | スパイキングニューラルネットワークシステム、学習処理装置、学習処理方法およびプログラム | |
| Vai et al. | Reverse modeling of microwave circuits with bidirectional neural network models | |
| US5592589A (en) | Tree-like perceptron and a method for parallel distributed training of such perceptrons | |
| EP1417643A2 (en) | Neural network training | |
| Aggarwal et al. | Filterbank optimization for robust ASR using GA and PSO | |
| Wan et al. | Enhancing the generalization ability of neural networks through controlling the hidden layers | |
| Jindal et al. | Analyzing performance of deep learning techniques for web navigation prediction | |
| JPH01320565A (ja) | ニューラルネットの学習効率化方法 | |
| JP6453681B2 (ja) | 演算装置、演算方法およびプログラム | |
| KR20210084154A (ko) | 휴먼 인터랙티브 ai를 사용한 반자동 작문 방법 및 장치 | |
| Alemdar et al. | On-line computation of Stackelberg equilibria with synchronous parallel genetic algorithms | |
| CN113947092A (zh) | 一种翻译方法及装置 | |
| Miranda et al. | Artificial intelligence in organised sound | |
| Guan et al. | Robust adaptive recurrent cerebellar model neural network for non-linear system based on GPSO | |
| JP2897220B2 (ja) | 信号処理装置 | |
| WO2022164613A1 (en) | Ml using n-gram induced input representation | |
| JP7428245B2 (ja) | 応答文生成装置およびプログラム | |
| Settles et al. | Breeding swarms: A new approach to recurrent neural network training | |
| Dhanjal | Artificial neural networks in speech processing: problems and challenges | |
| JP2606317B2 (ja) | 学習処理装置 | |
| Na et al. | Single-sensor active noise cancellation using recurrent neural network predictors |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| LAPS | Cancellation because of no payment of annual fees |