JPH0281161A - 信号処理装置 - Google Patents
信号処理装置Info
- Publication number
- JPH0281161A JPH0281161A JP63232846A JP23284688A JPH0281161A JP H0281161 A JPH0281161 A JP H0281161A JP 63232846 A JP63232846 A JP 63232846A JP 23284688 A JP23284688 A JP 23284688A JP H0281161 A JPH0281161 A JP H0281161A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- unit
- value
- output
- signal processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
A 産業上の利用分野
本発明は、学習機能を有する信号処理装置に関し、特に
、所謂ニューラルネットワーク(NeuralNetw
ork :神経回路網)によるバックプロパゲーション
(Back propagation :逆伝播)学習
則に従った学習機能を有する信号処理装置に関する。
、所謂ニューラルネットワーク(NeuralNetw
ork :神経回路網)によるバックプロパゲーション
(Back propagation :逆伝播)学習
則に従った学習機能を有する信号処理装置に関する。
B 発明の概要
本発明は、ニューラルネットワークによるパックプロパ
ゲーション学習則に従った学習機能を有する信号処理装
置において、学習レートを入力の値に応じて動的に変化
させることにより、高速でしかも安定した学習を行うこ
とができるようにしたものである。
ゲーション学習則に従った学習機能を有する信号処理装
置において、学習レートを入力の値に応じて動的に変化
させることにより、高速でしかも安定した学習を行うこ
とができるようにしたものである。
C従来の技術
ニューラルネットワークの学習アルゴリズムであるバン
クプロパゲーション学習則r rParallelDi
stributed ProcessingJVol、
I The MIT Press1986や日経エレク
トロニクス1987年8月10日号No、427.pρ
115−124等参照Jは、第3図に示すように、入力
層(31)と出力層(33)の間に中間層(32)を有
する多層構造のニューラルネットワークに適用され、高
速画像処理やパターン認識等の各種の信号処理への応用
が試みられている。
クプロパゲーション学習則r rParallelDi
stributed ProcessingJVol、
I The MIT Press1986や日経エレク
トロニクス1987年8月10日号No、427.pρ
115−124等参照Jは、第3図に示すように、入力
層(31)と出力層(33)の間に中間層(32)を有
する多層構造のニューラルネットワークに適用され、高
速画像処理やパターン認識等の各種の信号処理への応用
が試みられている。
すなわち、第3図に示すように、このニューラルネット
ワークを構成する各ユニット(u、)は、ユニットCu
t)からユニット(uj)への結合係数W j !で結
合されるユニッ)(Ut)の出力値0.の総和neLJ
を例えばsigmoid関数などの所定の関数rで変換
された値04を出力する。すなわち、パターンpの値が
入力層の各ユニット(u、)に人力値としてそれぞれ供
給されたとき、中間層および出力層の各ユニット(uJ
)の出力値QpJは、oDi=f j (neL@J) ′r・(Σ”ji、Ol1ji ) ””第1式なる第
1式で表される。
ワークを構成する各ユニット(u、)は、ユニットCu
t)からユニット(uj)への結合係数W j !で結
合されるユニッ)(Ut)の出力値0.の総和neLJ
を例えばsigmoid関数などの所定の関数rで変換
された値04を出力する。すなわち、パターンpの値が
入力層の各ユニット(u、)に人力値としてそれぞれ供
給されたとき、中間層および出力層の各ユニット(uJ
)の出力値QpJは、oDi=f j (neL@J) ′r・(Σ”ji、Ol1ji ) ””第1式なる第
1式で表される。
そして、入力層(31)から出力層(33)へ向かって
、各ニューロンに対応するユニット(U、)の出力値を
順次計算してい(ことで、上記出力N(33)のユニッ
ト(u7)の出力flop;が得られる。
、各ニューロンに対応するユニット(U、)の出力値を
順次計算してい(ことで、上記出力N(33)のユニッ
ト(u7)の出力flop;が得られる。
バックプロパゲーション学習アルゴリズムにおいては、
パターンpを与えたときの、出力Ji (33)の各ユ
ニット(uJ)の実際の出力値0□と望ましい出力値L
eJすなわち教師信号との二乗誤差の総和E。
パターンpを与えたときの、出力Ji (33)の各ユ
ニット(uJ)の実際の出力値0□と望ましい出力値L
eJすなわち教師信号との二乗誤差の総和E。
を極小化するように、結合係数wjiを変える学習処理
を出力層(33)から入力層(31)へ向かって順次に
行うことにより、教師信号の値Le=に最も近い出力値
Opjが上記出力層(33)のユニッ) (u =)か
ら出力されるようになる。
を出力層(33)から入力層(31)へ向かって順次に
行うことにより、教師信号の値Le=に最も近い出力値
Opjが上記出力層(33)のユニッ) (u =)か
ら出力されるようになる。
そして、二乗誤差の総和E、を小さくする結合係数wj
iの変化量Δ、wjiを、 ΔwJr CC−9Ep / 0W=i ++・・+
第3式と決めると、上記第3式は、 6w5.−η・δ2.・O,i ・・・・・・・・・
第4式に変形することができる(この過程は上述の文献
を参照)。
iの変化量Δ、wjiを、 ΔwJr CC−9Ep / 0W=i ++・・+
第3式と決めると、上記第3式は、 6w5.−η・δ2.・O,i ・・・・・・・・・
第4式に変形することができる(この過程は上述の文献
を参照)。
ここで、ηは学習レート(定数)で、ユニットの数や層
の数さらには入出力の値等から経験的に決定される。ま
た、δpjはユニット(U、)のもつ誤差値である。
の数さらには入出力の値等から経験的に決定される。ま
た、δpjはユニット(U、)のもつ誤差値である。
従って、上記変化量Δwjiを決定するためには、上記
誤差値δ、jをネットワークの出力層から入力層に向か
って逆向きに求めていけば良い。出力層のユニッ)(u
j)の誤差値δ9.は、δpj=(jp、−opj)
f ’j(netJ) −第5式なる第5式で与えら
れ、中間層のユニット(u、)の誤差値δ、、、は、そ
のユニット(uJ)が結合されている各ユニット(uh
) (この例では出力層の各ユニノ日の結合係数W□
および誤差値δ、を用いて、 δpj =f ’ ) (netJ)Σδ、に−w 、
、・・・・・第6式なる再帰関数にて計算される(上記
第5式および第6式を求める過程は上述の文献を参照)
。
誤差値δ、jをネットワークの出力層から入力層に向か
って逆向きに求めていけば良い。出力層のユニッ)(u
j)の誤差値δ9.は、δpj=(jp、−opj)
f ’j(netJ) −第5式なる第5式で与えら
れ、中間層のユニット(u、)の誤差値δ、、、は、そ
のユニット(uJ)が結合されている各ユニット(uh
) (この例では出力層の各ユニノ日の結合係数W□
および誤差値δ、を用いて、 δpj =f ’ ) (netJ)Σδ、に−w 、
、・・・・・第6式なる再帰関数にて計算される(上記
第5式および第6式を求める過程は上述の文献を参照)
。
なお、上記r ’ j(net=)は、出力関数f 4
(net=)の微分値である。
(net=)の微分値である。
そして、変化量ΔW j iは、上記第5式および第6
式の結果を用いて上述の第4式によって求められるが、
前回の学習結果を用いて、 Δ Wjl(、令1) 8 η ・ δpjゆ 0 、
、+ α、Δ Watlml・・・・・・第7式 なる第7式にて求めることで、より安定した結果が得ら
れる。なお、αはエラーの振動を減らし、収束を速める
ための安定化定数である。
式の結果を用いて上述の第4式によって求められるが、
前回の学習結果を用いて、 Δ Wjl(、令1) 8 η ・ δpjゆ 0 、
、+ α、Δ Watlml・・・・・・第7式 なる第7式にて求めることで、より安定した結果が得ら
れる。なお、αはエラーの振動を減らし、収束を速める
ための安定化定数である。
そして、この学習を繰り返し行い、出力値02゜と教師
信号の値t0との二乗誤差の総和E、が十分に小さくな
った時点で学習を完了するようにしていた。
信号の値t0との二乗誤差の総和E、が十分に小さくな
った時点で学習を完了するようにしていた。
た新規な構成の信号処理装置を提供するものであり 発
明が解決しようとする課題 ところで、上述の如きバックプロパゲーション学習剤を
ニューラルネットワークに採用した従来の信号処理装置
では、ニューロンに対応するユニットの数や層数さらに
は入出力の値等から上述の学習定数ηを経験的に決定し
て、上述の第7式を用いて一定の学習レートで学習を行
っていたので、出力値OpJと教師信号の値Lpjとの
二乗誤差の総和Epが十分に小さくなり学習を完了する
までに要する学習の繰り返し回数nが膨大な値になって
しまい、効率の良い学習を行うことができないという問
題点があった。
明が解決しようとする課題 ところで、上述の如きバックプロパゲーション学習剤を
ニューラルネットワークに採用した従来の信号処理装置
では、ニューロンに対応するユニットの数や層数さらに
は入出力の値等から上述の学習定数ηを経験的に決定し
て、上述の第7式を用いて一定の学習レートで学習を行
っていたので、出力値OpJと教師信号の値Lpjとの
二乗誤差の総和Epが十分に小さくなり学習を完了する
までに要する学習の繰り返し回数nが膨大な値になって
しまい、効率の良い学習を行うことができないという問
題点があった。
そこで、本発明は、上述の如き従来の実情に鑑み、バッ
クプロパゲーション学習剤をニューラルネットワークに
採用して効率の良い学習を行うことができるようにする
ことを目的とし、学習レートを入力の値に応じて動的に
変化させて、高速でしかも安定した学習を行うことがで
きるようにしる。
クプロパゲーション学習剤をニューラルネットワークに
採用して効率の良い学習を行うことができるようにする
ことを目的とし、学習レートを入力の値に応じて動的に
変化させて、高速でしかも安定した学習を行うことがで
きるようにしる。
EL!題を解決するための手段
本発明は、上述の目的を達成するために、それぞれニュ
ーロンに対応する信号処理を行う複数のユニットにて構
成された入力層、中間層および出力層を備える信号処理
部と、上記入力層に人力される入力信号パターンに対す
る上記出力層の出力値と教師信号として与えられる所望
の出力値との誤差情報δ、ムに基づいて上記各ユニット
の間の結合の強さの係数wjiを上記出力層側から上記
入力層側に向かって順次に繰り返し計算し、上記結合の
強さの係数Wjlの学習処理を行う学習処理部とを備え
る信号処理装置において、上記学習処理部は、上記結合
の強さの係数wjiの変化量Δwjiをη・β(δpj
Opi)に基づいてで算出しくただし、ηは学習定数
、βは学習変数、αは安定化定数)、wji=wji+
Δwji ・・・・・・・・・第8式なる第8式に
て示される結合の強さの係数wjiを上記信号処理部の
各ユニットに与え、上記各ユニットにおける入力値Op
iの二乗和に1を加えた値の逆数にて第9式のように示
される上記学習変数β にて上記学習定数ηを正規化した学習レートにて上記結
合の強さの係数wJ、の学習処理を行うことを特徴とし
ている。
ーロンに対応する信号処理を行う複数のユニットにて構
成された入力層、中間層および出力層を備える信号処理
部と、上記入力層に人力される入力信号パターンに対す
る上記出力層の出力値と教師信号として与えられる所望
の出力値との誤差情報δ、ムに基づいて上記各ユニット
の間の結合の強さの係数wjiを上記出力層側から上記
入力層側に向かって順次に繰り返し計算し、上記結合の
強さの係数Wjlの学習処理を行う学習処理部とを備え
る信号処理装置において、上記学習処理部は、上記結合
の強さの係数wjiの変化量Δwjiをη・β(δpj
Opi)に基づいてで算出しくただし、ηは学習定数
、βは学習変数、αは安定化定数)、wji=wji+
Δwji ・・・・・・・・・第8式なる第8式に
て示される結合の強さの係数wjiを上記信号処理部の
各ユニットに与え、上記各ユニットにおける入力値Op
iの二乗和に1を加えた値の逆数にて第9式のように示
される上記学習変数β にて上記学習定数ηを正規化した学習レートにて上記結
合の強さの係数wJ、の学習処理を行うことを特徴とし
ている。
F 作用
本発明に係る信号処理装置では、各ユニットにおける入
力値Opiの二乗和にいき値として1を加えた値の逆数
にて示される学習変数βにて学習定数ηを正規化するこ
とにより、学習レートを上記入力値Oplに応じて動的
に変化させて、各ユニット間の結合の強さの係数W a
iの学習処理を行う。
力値Opiの二乗和にいき値として1を加えた値の逆数
にて示される学習変数βにて学習定数ηを正規化するこ
とにより、学習レートを上記入力値Oplに応じて動的
に変化させて、各ユニット間の結合の強さの係数W a
iの学習処理を行う。
G 実施例
以下、本発明の一実施例について、図面に従い詳細に説
明する。
明する。
本発明に係る信号処理装置は、その構成を第1図のブロ
ンク図に概念的に示しであるように、入力信号パターン
pから出力値op=を得るための信号処理部(lO)と
、上記信号処理部(1o)にて入力信号パターンpから
所望の出力値Lpjに最も近い出力値0□を得るための
学習を行う学習処理部(2o)にて構成されている。
ンク図に概念的に示しであるように、入力信号パターン
pから出力値op=を得るための信号処理部(lO)と
、上記信号処理部(1o)にて入力信号パターンpから
所望の出力値Lpjに最も近い出力値0□を得るための
学習を行う学習処理部(2o)にて構成されている。
上記信号処理部(10)は、ニューラルネットワークに
て構成され、少なくとも入力層(L、)と中間層(LM
)と出力層(Lo)の3層構造になっており、各層(L
l)、(LM)、(LO)がそれぞれニューロンに対応
する任意の個数X+y1Z のユニット(u11〜u
lll)+(uNl””ully)+(uol〜uos
)にて構成されている。
て構成され、少なくとも入力層(L、)と中間層(LM
)と出力層(Lo)の3層構造になっており、各層(L
l)、(LM)、(LO)がそれぞれニューロンに対応
する任意の個数X+y1Z のユニット(u11〜u
lll)+(uNl””ully)+(uol〜uos
)にて構成されている。
上記各ユニット(u11〜u1.)1(u□〜u、y)
+(uo+−uos)は、 n6J mΣ” j i O□ ・・・・・・・・・
第10式なる入力の総和netJに対して、θ、をしき
い値とする 1+e なる第11式のsigmoid関数にて示される出力値
Opjを与えるようになっている。
+(uo+−uos)は、 n6J mΣ” j i O□ ・・・・・・・・・
第10式なる入力の総和netJに対して、θ、をしき
い値とする 1+e なる第11式のsigmoid関数にて示される出力値
Opjを与えるようになっている。
また、上記学習処理部(20)は、上記信号処理部(1
0)に入力される入力信号パターンpに対する上記出力
層(LO)の出力値O6Jが、教師信号として与えられ
る所望の出力値Lpjに最も近い値になるように、第2
図のフローチャートに示すような手順で、上記出力Jl
!1(Lo)側から上記入力層(L、)側に向かって上
記各ユニット(u++〜u1.)、(u工〜U□L (
u ol”’−u oJの間の結合の強さの係数W5.
を順次に繰り返し計算し、上記所望の出力値り2、と上
記出力値O84との二乗誤差の総和E9を十分に小さく
するように、上記結合係数wjiの学習処理を行う。
0)に入力される入力信号パターンpに対する上記出力
層(LO)の出力値O6Jが、教師信号として与えられ
る所望の出力値Lpjに最も近い値になるように、第2
図のフローチャートに示すような手順で、上記出力Jl
!1(Lo)側から上記入力層(L、)側に向かって上
記各ユニット(u++〜u1.)、(u工〜U□L (
u ol”’−u oJの間の結合の強さの係数W5.
を順次に繰り返し計算し、上記所望の出力値り2、と上
記出力値O84との二乗誤差の総和E9を十分に小さく
するように、上記結合係数wjiの学習処理を行う。
すなわち、上記学習処理部(20)は、先ず、ステップ
1において、上記各ユニッ1−(ull、〜U )+、
)(u01〜uoJに結合係数W4.を与えて、上記信
号処理部(10)における入力信号パターンpに対する
上記出力Fff(LO)の出力値O8、の算出処理を行
い、次のステップ2にて、上記出力4fiOo=につい
て、教師信号として与えられる上記所望の出力(l!!
L、、と上記出力値0.jとの二乗誤差の総和E、に基
づいて収束条件の判定動作を行う。
1において、上記各ユニッ1−(ull、〜U )+、
)(u01〜uoJに結合係数W4.を与えて、上記信
号処理部(10)における入力信号パターンpに対する
上記出力Fff(LO)の出力値O8、の算出処理を行
い、次のステップ2にて、上記出力4fiOo=につい
て、教師信号として与えられる上記所望の出力(l!!
L、、と上記出力値0.jとの二乗誤差の総和E、に基
づいて収束条件の判定動作を行う。
上記ステップ2の判定動作では、上記信号処理部(lO
)の出力層(Lo)に得られる出力値0゜、が上記所望
の出力値Lpjに最も近い値になっているか否かを判定
する。上記ステップ2の判定動作の結果がr YES
j すなわち上記二乗誤差の総和E、が十分に小さく
なり、上記出力(11!oOJが上記所望の出力値Lp
jに最も近い値になっている場合には学習処理を完了し
、その判定結果が「NO」の場合にはステップ3ないし
ステップ6の各算出処理を順番に行う。
)の出力層(Lo)に得られる出力値0゜、が上記所望
の出力値Lpjに最も近い値になっているか否かを判定
する。上記ステップ2の判定動作の結果がr YES
j すなわち上記二乗誤差の総和E、が十分に小さく
なり、上記出力(11!oOJが上記所望の出力値Lp
jに最も近い値になっている場合には学習処理を完了し
、その判定結果が「NO」の場合にはステップ3ないし
ステップ6の各算出処理を順番に行う。
上記ステップ3の算出処理では、上記信号処理部(lO
)の各ユニy ト(u+u〜ulIy)+ (uo+〜
uog)の誤差値δ、Jを算出する。このステップ3の
算出処理において、上記出力層(L、)の各ユニット(
u o+〜u ojの誤差値δ。、は、δoa=(tp
JOoJ)OoJ(10oJ)・・・・・・・・・第1
2式 なる第12式にて与え、また、上記中間層(LH)の各
ユニット(U□〜uny)の誤差値δ9.は、δII=
= o、IJ(1onj)Σδ0.−Wkj・・・・・
・・・・第13式 なる第13式にて与えられる。
)の各ユニy ト(u+u〜ulIy)+ (uo+〜
uog)の誤差値δ、Jを算出する。このステップ3の
算出処理において、上記出力層(L、)の各ユニット(
u o+〜u ojの誤差値δ。、は、δoa=(tp
JOoJ)OoJ(10oJ)・・・・・・・・・第1
2式 なる第12式にて与え、また、上記中間層(LH)の各
ユニット(U□〜uny)の誤差値δ9.は、δII=
= o、IJ(1onj)Σδ0.−Wkj・・・・・
・・・・第13式 なる第13式にて与えられる。
次に、ステップ4の算出処理では、上記各ユニット(u
、I+−u、yL(uot〜uog)に対するi番目の
ユニットからj番目のユニットへの結合の強さの係数W
、iの学習変数β、を全人力の二乗和にいき値として1
を加えた値の逆数にて示すなる第14式にて算出する。
、I+−u、yL(uot〜uog)に対するi番目の
ユニットからj番目のユニットへの結合の強さの係数W
、iの学習変数β、を全人力の二乗和にいき値として1
を加えた値の逆数にて示すなる第14式にて算出する。
さらに、ステップ5の算出処理では、学習定数をη、エ
ラーの振動を減らして収束を速めるための安定化定数を
αとして、上記学習変数β、を用いて上記各ユニット(
u□〜uny)+ (uo+〜uog)に対するi番目
のユニットからj番目のユニットへの結合係数wjiの
変化量Δwjiを、Δ”jl 1llell ”’η・
β(δ11J011.)+α・ΔWj+in+・・・・
・・・第15式 なる第15式にて算出する。
ラーの振動を減らして収束を速めるための安定化定数を
αとして、上記学習変数β、を用いて上記各ユニット(
u□〜uny)+ (uo+〜uog)に対するi番目
のユニットからj番目のユニットへの結合係数wjiの
変化量Δwjiを、Δ”jl 1llell ”’η・
β(δ11J011.)+α・ΔWj+in+・・・・
・・・第15式 なる第15式にて算出する。
そして、ステップ6の算出処理では、上記ステップ5に
おいて算出された上記結合係数WJlの変化量Δwji
に基づいて、第16式に示すように、上記各ユニット(
u□〜uny)+(uo+〜uot)の結合係数W j
iを w、、=wji+Δwji ・・・・・・・・・第1
6式に変更する。
おいて算出された上記結合係数WJlの変化量Δwji
に基づいて、第16式に示すように、上記各ユニット(
u□〜uny)+(uo+〜uot)の結合係数W j
iを w、、=wji+Δwji ・・・・・・・・・第1
6式に変更する。
そして、上記ステップ1に戻って、上記信号処理部(1
0)における人力信号パターンpに対する上記出力層(
Lo)の出力値0゜Jの算出処理を行う。
0)における人力信号パターンpに対する上記出力層(
Lo)の出力値0゜Jの算出処理を行う。
この学習処理部(20)は、上述のステップlないしス
テップ6の動作を繰り返し行い、上記教師信号として与
えられる所望の出力値jp=と上記出力値0゜jとの二
乗誤差の総和E、が十分に小さくなり、上記信号処理部
(lO)の出力層(Lo)に得られる出力値0゜Jが上
記所望の出力(aLp=に最も近い値になると、上記ス
テップ2の判定動作により、学習処理を完了する。
テップ6の動作を繰り返し行い、上記教師信号として与
えられる所望の出力値jp=と上記出力値0゜jとの二
乗誤差の総和E、が十分に小さくなり、上記信号処理部
(lO)の出力層(Lo)に得られる出力値0゜Jが上
記所望の出力(aLp=に最も近い値になると、上記ス
テップ2の判定動作により、学習処理を完了する。
この実施例の信号処理装置のように、上記各ユニット(
uH+〜u、ly)+(uo+〜u 、、)において入
力値o1の二乗和にいき値として1を加えた値の逆数に
て示される上記学習変数βにて学習定数ηを正規化する
ことにより、学習レートを上記入力値02.に応じて動
的に変化させて、上記結合の強さの係数wjiの学習処
理を行うことによって、学習回数nを従来の学習処理の
174〜1/10に大幅に減少させて、高速で安定に学
習を行うことができた。
uH+〜u、ly)+(uo+〜u 、、)において入
力値o1の二乗和にいき値として1を加えた値の逆数に
て示される上記学習変数βにて学習定数ηを正規化する
ことにより、学習レートを上記入力値02.に応じて動
的に変化させて、上記結合の強さの係数wjiの学習処
理を行うことによって、学習回数nを従来の学習処理の
174〜1/10に大幅に減少させて、高速で安定に学
習を行うことができた。
なお、第15式における学習定数ηおよび安定化定数α
を全入カバターンに対する誤差の最大値EIlaxの関
数として第17式および第18式のように表して、 η=aEmax ・φ・・・・・第17式α=
bEsax + c 、、、、、、、第18式(
a、b、cは定数) これらを動的に変更することで、より高速の学習処理を
行うことができる。
を全入カバターンに対する誤差の最大値EIlaxの関
数として第17式および第18式のように表して、 η=aEmax ・φ・・・・・第17式α=
bEsax + c 、、、、、、、第18式(
a、b、cは定数) これらを動的に変更することで、より高速の学習処理を
行うことができる。
H発明の効果
本発明に係る信号処理装置では、各ユニットにおける入
力(1f!Optの二乗和にいき値としてlを加えた値
の逆数にて示される上記学習変数βにて学習定数ηを正
規化することにより、学習レートを上記入力値Opiに
応じて動的に変化させて、上記結合の強さの係数wji
の学習処理を行うので、高速でしかも安定した学習を行
うことができる。
力(1f!Optの二乗和にいき値としてlを加えた値
の逆数にて示される上記学習変数βにて学習定数ηを正
規化することにより、学習レートを上記入力値Opiに
応じて動的に変化させて、上記結合の強さの係数wji
の学習処理を行うので、高速でしかも安定した学習を行
うことができる。
第1図は本発明に係る信号処理装置の構成を概念的に示
すブロック図、第2図は上記信号処理装置を構成する学
習処理部における学習処理過程を示すフローチャートで
ある。 第3図はバックプロシバゲーション学習則の適用される
ニューラルネットワークの一最的な構成を示す模式図で
ある。 (10)・・・・・・・・・・・・・・・信号処理部(
20)・・・・・・・・・・・・・・・学習処理部(L
l)・・・・・・・・・・・・・・入力層(LH)・・
・・・・・・・・・・・・中間層(L、)・・・・・・
・・・・・・・・出力層(uz〜u+z)+(u、+〜
uwz)+(uox〜uom)・・・・・・・ユニット
すブロック図、第2図は上記信号処理装置を構成する学
習処理部における学習処理過程を示すフローチャートで
ある。 第3図はバックプロシバゲーション学習則の適用される
ニューラルネットワークの一最的な構成を示す模式図で
ある。 (10)・・・・・・・・・・・・・・・信号処理部(
20)・・・・・・・・・・・・・・・学習処理部(L
l)・・・・・・・・・・・・・・入力層(LH)・・
・・・・・・・・・・・・中間層(L、)・・・・・・
・・・・・・・・出力層(uz〜u+z)+(u、+〜
uwz)+(uox〜uom)・・・・・・・ユニット
Claims (1)
- 【特許請求の範囲】 それぞれニューロンに対応する信号処理を行う複数のユ
ニットにて構成された入力層、中間層および出力層を備
える信号処理部と、上記入力層に入力される入力信号パ
ターンに対する上記出力層の出力値と教師信号として与
えられる所望の出力値との誤差情報δ_j_iに基づい
て上記各ユニットの間の結合の強さの係数w_j_iを
上記出力層側から上記入力層側に向かって順次に繰り返
し計算し、上記結合の強さの係数w_j_iの学習処理
を行う学習処理部とを備える信号処理装置において、 上記学習処理部は、上記結合の強さの係数w_j_iの
変化量Δw_j_iをη・β(δ_p_j・o_p_i
)に基づいて算出し(ただし、ηは学習定数、βは学習
変数)、w_j_i=w_j_i+Δw_j_i なる結合の強さの係数w_j_iを上記信号処理部の各
ユニットに与え、上記各ユニットにおける入力値o_p
_iの二乗和に1を加えた値の逆数にて示される上記学
習変数β ▲数式、化学式、表等があります▼ にて上記学習定数ηを正規化した学習レートにて上記結
合の強さの係数w_j_iの学習処理を行うことを特徴
とする信号処理装置。
Priority Applications (7)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP63232846A JP2699447B2 (ja) | 1988-09-17 | 1988-09-17 | 信号処理装置 |
| US07/406,733 US5093899A (en) | 1988-09-17 | 1989-09-13 | Neural network with normalized learning constant for high-speed stable learning |
| EP89402544A EP0360674B1 (en) | 1988-09-17 | 1989-09-15 | Signal processing system and learning processing system |
| EP94107842A EP0612033B1 (en) | 1988-09-17 | 1989-09-15 | learning processing system |
| DE68929102T DE68929102T2 (de) | 1988-09-17 | 1989-09-15 | Lernverarbeitungssystem |
| DE68924822T DE68924822T2 (de) | 1988-09-17 | 1989-09-15 | Signalverarbeitungssystem und Lernverarbeitungssystem. |
| US07/727,871 US5129039A (en) | 1988-09-17 | 1991-07-10 | Recurrent neural network with variable size intermediate layer |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP63232846A JP2699447B2 (ja) | 1988-09-17 | 1988-09-17 | 信号処理装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH0281161A true JPH0281161A (ja) | 1990-03-22 |
| JP2699447B2 JP2699447B2 (ja) | 1998-01-19 |
Family
ID=16945721
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP63232846A Expired - Lifetime JP2699447B2 (ja) | 1988-09-17 | 1988-09-17 | 信号処理装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2699447B2 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5598509A (en) * | 1992-08-28 | 1997-01-28 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/recognition system using the same |
| US5627941A (en) * | 1992-08-28 | 1997-05-06 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/control system using the neural network |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102413692B1 (ko) | 2015-07-24 | 2022-06-27 | 삼성전자주식회사 | 음성 인식을 위한 음향 점수 계산 장치 및 방법, 음성 인식 장치 및 방법, 전자 장치 |
| KR102192678B1 (ko) | 2015-10-16 | 2020-12-17 | 삼성전자주식회사 | 음향 모델 입력 데이터의 정규화 장치 및 방법과, 음성 인식 장치 |
-
1988
- 1988-09-17 JP JP63232846A patent/JP2699447B2/ja not_active Expired - Lifetime
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5598509A (en) * | 1992-08-28 | 1997-01-28 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/recognition system using the same |
| US5627941A (en) * | 1992-08-28 | 1997-05-06 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/control system using the neural network |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2699447B2 (ja) | 1998-01-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Hagan et al. | Training feedforward networks with the Marquardt algorithm | |
| Hung et al. | A parallel genetic/neural network learning algorithm for MIMD shared memory machines | |
| Gorinevsky et al. | Comparison of some neural network and scattered data approximations: The inverse manipulator kinematics example | |
| DE69424372T2 (de) | Hocheffizientes Lernnetzwerk | |
| JP3374476B2 (ja) | ニューラルネットワーク構築方法 | |
| JPH0281161A (ja) | 信号処理装置 | |
| JPH0272491A (ja) | 画像変換処理装置 | |
| JP2907486B2 (ja) | ニューラルネットワーク装置 | |
| JP2897220B2 (ja) | 信号処理装置 | |
| JPH04237388A (ja) | ニューロプロセッサ | |
| JPH05128284A (ja) | ニユーロプロセツサ | |
| JP3114276B2 (ja) | 階層型ニューラルネットワークの学習方法 | |
| JP2979562B2 (ja) | 学習処理装置 | |
| Choi et al. | Training layered perceptrons using low accuracy computation | |
| Wan et al. | Introducing cost-sensitive neural networks | |
| JP3412700B2 (ja) | 神経回路網型パターン学習方法およびパターン処理装置 | |
| JPH02299081A (ja) | テクスチュア解折方法及びアナライザ | |
| JP3393511B2 (ja) | 文字認識装置及び方法 | |
| PANDYA et al. | A stochastic parallel algorithm for supervised learning in neural networks | |
| JPH0696046A (ja) | ニューラルネットワークの学習処理装置 | |
| JP2813567B2 (ja) | 推論規則決定装置及び推論規則決定方法 | |
| JPH01248268A (ja) | 神経回路網学習装置 | |
| JPH03201159A (ja) | バックプロパゲーションモデルの学習処理方法 | |
| JPH0535290A (ja) | 反射音列圧縮装置 | |
| JP2544489B2 (ja) | ニュ―ラルネットワ―クモデルの学習方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| EXPY | Cancellation because of completion of term |