JPH03210686A - 神経回路網装置 - Google Patents
神経回路網装置Info
- Publication number
- JPH03210686A JPH03210686A JP905190A JP519090A JPH03210686A JP H03210686 A JPH03210686 A JP H03210686A JP 905190 A JP905190 A JP 905190A JP 519090 A JP519090 A JP 519090A JP H03210686 A JPH03210686 A JP H03210686A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- neural
- output
- equation
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
「産業上の利用分野]
この発明は、生体の神経細胞とその間の結合を模擬して
記憶、推論1判断、予測、J画、制御。
記憶、推論1判断、予測、J画、制御。
パターン認識、最適化などを行なう神経回路網装置に関
するものである。
するものである。
[従来の技術]
第2図は、例えば、「ニューラルコンピュータ」合原−
幸著、東京電機大学出版局、 1988年、第110頁
〜第114頁に掲載された一般的なフィードフォワード
型の神経回路網装置の構成を示す説明図である0図にお
いて、(11)は生体の神経細胞を模擬する素子(以下
、神経素子と呼ぶ)で、(l la)は人力層を構成す
る神経素子で例えばN個の入力層神経素子、(Ilb)
は中間層を構成する神経素子で例えばN個の中間層神経
素子、 (lie)は出力層を構成する神経素子で例え
ばN個の出力層神経素子である。 (12)は神経素子
(!l)間のシナプスを模擬する素子(以下、結合素子
と呼ぶ)で、その結合の強さを結合重み(W)と呼ぶ1
図中、矢印は信号の移動方向で、順方向を示す。
幸著、東京電機大学出版局、 1988年、第110頁
〜第114頁に掲載された一般的なフィードフォワード
型の神経回路網装置の構成を示す説明図である0図にお
いて、(11)は生体の神経細胞を模擬する素子(以下
、神経素子と呼ぶ)で、(l la)は人力層を構成す
る神経素子で例えばN個の入力層神経素子、(Ilb)
は中間層を構成する神経素子で例えばN個の中間層神経
素子、 (lie)は出力層を構成する神経素子で例え
ばN個の出力層神経素子である。 (12)は神経素子
(!l)間のシナプスを模擬する素子(以下、結合素子
と呼ぶ)で、その結合の強さを結合重み(W)と呼ぶ1
図中、矢印は信号の移動方向で、順方向を示す。
この神経回路網装置において、神経素子(Illは層状
に結合されており、ダイナミクスとしては、人力層(l
la)から入った人力信号は中間0(Ilblを介して
出力層(I Iclに矢印に示す方向に伝搬されていく
、定置的には以Fのようになる。学習データとして入力
データと出力データの対をあらかじめ与える*dt’を
出力層における第9番目の7習データの第i?I目の出
力データ、uhJを第り層のj番目の神経素子(Ill
の内部状態、vI′IJを第り層のj番目の神経素子(
!l)の出力値、Whlを第り層の第1番目の神経素子
(II)と第h+を層における第jl目の神経素子(+
1)との間の結合重みとする。学習データの人力データ
は、入力[(Ila)での出力fllIV’tと同じで
ある。第2図に示す実施例では、i=l〜N、j=l〜
Nである。
に結合されており、ダイナミクスとしては、人力層(l
la)から入った人力信号は中間0(Ilblを介して
出力層(I Iclに矢印に示す方向に伝搬されていく
、定置的には以Fのようになる。学習データとして入力
データと出力データの対をあらかじめ与える*dt’を
出力層における第9番目の7習データの第i?I目の出
力データ、uhJを第り層のj番目の神経素子(Ill
の内部状態、vI′IJを第り層のj番目の神経素子(
!l)の出力値、Whlを第り層の第1番目の神経素子
(II)と第h+を層における第jl目の神経素子(+
1)との間の結合重みとする。学習データの人力データ
は、入力[(Ila)での出力fllIV’tと同じで
ある。第2図に示す実施例では、i=l〜N、j=l〜
Nである。
各変数の関係は式(1)1式(2)のようになる。
ここで、関数gは微分可能で非減少な関数であれば良く
、−例として式(3) を用いる。
、−例として式(3) を用いる。
uh、=Σwh−’、、v′′−’、 −−1
+JV hJ= g (u ”J)
・ ・ ・ (2)g (x) =1/ (1
+exp (−x)1・(3)さらに、結合重み<W
)は学習方程式で逐次的に決定される。即ち、出力層(
llc)における学とデータと、神経回路網によって芙
際に得られた演算出力で定義される二乗誤差に関する最
急降下法を用いて決定される。神経回路網の層の数をH
とすると、二乗誤差(以下でエネルギーということもあ
る)は式(4) に様になる。
+JV hJ= g (u ”J)
・ ・ ・ (2)g (x) =1/ (1
+exp (−x)1・(3)さらに、結合重み<W
)は学習方程式で逐次的に決定される。即ち、出力層(
llc)における学とデータと、神経回路網によって芙
際に得られた演算出力で定義される二乗誤差に関する最
急降下法を用いて決定される。神経回路網の層の数をH
とすると、二乗誤差(以下でエネルギーということもあ
る)は式(4) に様になる。
E=(1/21ΣΣ(V’1−dl’)” ・・(4
)又、結合重みの逐次変更はα、βを適当なパラメータ
、δ 1111を第hrg、を番目の神経素子における
誤差(式(5)1式(6))とし、モーメント法を使用
した場合には式(7)の学習方程式で実行できる0式(
5)2式(6)において、h = Hの時は出力層にお
ける値を示している。Nlh’は第り層における神経素
子の数である。
)又、結合重みの逐次変更はα、βを適当なパラメータ
、δ 1111を第hrg、を番目の神経素子における
誤差(式(5)1式(6))とし、モーメント法を使用
した場合には式(7)の学習方程式で実行できる0式(
5)2式(6)において、h = Hの時は出力層にお
ける値を示している。Nlh’は第り層における神経素
子の数である。
51”’= (d、’−V’、)V’、(1−V’、)
ここで、i=1〜N1111 ・・・(5)5
+ ”’ = V ”t (IV ”t)Σδ lb+
1lWh、iここで、i = 1−N ”’、h=H〜
l・・(6)d ” W’Jl /dt” +
(1−a)d W”、t /dt。
ここで、i=1〜N1111 ・・・(5)5
+ ”’ = V ”t (IV ”t)Σδ lb+
1lWh、iここで、i = 1−N ”’、h=H〜
l・・(6)d ” W’Jl /dt” +
(1−a)d W”、t /dt。
=−βa E/ +3 W”−i ・・
(7)例えば、式(7)の学習方程式を現在のノイマン
型計算磯で実行しようとすると、計算機はディジタルな
ので、式(7)を差分化して逐次実行する必要があるが
、この処理を行なうフローチャートの一例を第3図に示
す、ステップ(30)で1=1における結合重みW、、
” と結合重みの更新量ΔW h、、の初期値を一様
乱数又は正規分布する乱数によって設定する。この時、
各層についてi=l〜N 、 j= 1 = Nの全
てについて設定するのであるが、第3図には簡単のため
、h、j、iと記述する。ステップ(31)でt=1と
して初期設定する。ステップ(32)では誤差信号の初
期値として出力層(l lc)における誤差δ、 IH
Iを式(5)によって求める0次に逆伝播法を用いて、
−層上の誤差イス号からFの層の誤差信号を式(6)に
基いて求める(ステップ(33)) 、ステップ(34
)では、モーメント法により結合重みを更新する。この
ため、まず第haの重みのし+1における更新量Δ”J
l (t + 1 )を式(8)で求める。
(7)例えば、式(7)の学習方程式を現在のノイマン
型計算磯で実行しようとすると、計算機はディジタルな
ので、式(7)を差分化して逐次実行する必要があるが
、この処理を行なうフローチャートの一例を第3図に示
す、ステップ(30)で1=1における結合重みW、、
” と結合重みの更新量ΔW h、、の初期値を一様
乱数又は正規分布する乱数によって設定する。この時、
各層についてi=l〜N 、 j= 1 = Nの全
てについて設定するのであるが、第3図には簡単のため
、h、j、iと記述する。ステップ(31)でt=1と
して初期設定する。ステップ(32)では誤差信号の初
期値として出力層(l lc)における誤差δ、 IH
Iを式(5)によって求める0次に逆伝播法を用いて、
−層上の誤差イス号からFの層の誤差信号を式(6)に
基いて求める(ステップ(33)) 、ステップ(34
)では、モーメント法により結合重みを更新する。この
ため、まず第haの重みのし+1における更新量Δ”J
l (t + 1 )を式(8)で求める。
ΔW”4t (t + 1 ) = β5 j””I
V”十αΔW”JI (L) ・・(8)この式に
おけるα、βはあらかじめ定めたパラメータである0次
に、ΔVV”JI (t + 1 )を用いて新たな
重みW+″J1(1−+1)を式(9)により求める。
V”十αΔW”JI (L) ・・(8)この式に
おけるα、βはあらかじめ定めたパラメータである0次
に、ΔVV”JI (t + 1 )を用いて新たな
重みW+″J1(1−+1)を式(9)により求める。
W”4t(t、+ 1 ) =W”JI(L) +
ΔW″1(し+ 1 )・・(9) ステップ(35)では、前向きの伝播により式(1)式
(2)を用いて各層の内部状態u h 、、出力(1f
iV”Jを演算し、出力層Hにおける神経回路網の集合
体としての出力VH,を求める。この出力V′4.と学
習データdl″を用いて式(4)を演算し、二乗誤差E
を求める。このEが充分小さいとき1例えばあらかじめ
許容誤差Aを与えておき、EとAとの大小関係を判定し
くステップ(36)) 、 EがA以下の時は学習は終
了とし、EがAよりも大きい時はL=t、+1 (ステ
ップ(371)としてステップ(32)からの処理を繰
り返す。
ΔW″1(し+ 1 )・・(9) ステップ(35)では、前向きの伝播により式(1)式
(2)を用いて各層の内部状態u h 、、出力(1f
iV”Jを演算し、出力層Hにおける神経回路網の集合
体としての出力VH,を求める。この出力V′4.と学
習データdl″を用いて式(4)を演算し、二乗誤差E
を求める。このEが充分小さいとき1例えばあらかじめ
許容誤差Aを与えておき、EとAとの大小関係を判定し
くステップ(36)) 、 EがA以下の時は学習は終
了とし、EがAよりも大きい時はL=t、+1 (ステ
ップ(371)としてステップ(32)からの処理を繰
り返す。
[発明が解決しようとする課題]
従来の神経回路網装置は以上のように構成されており、
結合重みを定める学習方程式のパラメータであるα、β
はあらかじめ定めた定数を常に用いているので、学習の
速度が遅いという問題点があった。
結合重みを定める学習方程式のパラメータであるα、β
はあらかじめ定めた定数を常に用いているので、学習の
速度が遅いという問題点があった。
この発明は上記のような問題点を解決するためになされ
たもので、学習速度を速くできる神経回路網装置を得る
ことを目的としている。
たもので、学習速度を速くできる神経回路網装置を得る
ことを目的としている。
[課題を解決するための手段]
この発明は、生体の神経細胞を模擬した微分可能でかつ
単調増加する関数を入出力特性として有し、人力層、中
間層、及び出力層を構成する複数の神経素子、並びに神
経素子の出力の各々に結合重みを乗じて次層の神経素子
へ出力する結合素子を備え、入力層の神経素子に入力デ
ータ、及び出力層の神経素子に出力データを学習データ
としてあらかじめ設定し、結合重みを学習方程式に基い
て逐次的に更新し、中間層の神経素子は各々前の層の神
経素子と結合する結合素子を介しての信号を総和演算し
つつ出力層の神経素子において演算出力を得、出力デー
タと演算出力の差の二乗和で定義されるエネルギーを局
所的に最小にするものにおいて、瞬時のエネルギーを用
いて学習方程式の係数を決定することにより、結合重み
を動的に変更するように構成したものである。
単調増加する関数を入出力特性として有し、人力層、中
間層、及び出力層を構成する複数の神経素子、並びに神
経素子の出力の各々に結合重みを乗じて次層の神経素子
へ出力する結合素子を備え、入力層の神経素子に入力デ
ータ、及び出力層の神経素子に出力データを学習データ
としてあらかじめ設定し、結合重みを学習方程式に基い
て逐次的に更新し、中間層の神経素子は各々前の層の神
経素子と結合する結合素子を介しての信号を総和演算し
つつ出力層の神経素子において演算出力を得、出力デー
タと演算出力の差の二乗和で定義されるエネルギーを局
所的に最小にするものにおいて、瞬時のエネルギーを用
いて学習方程式の係数を決定することにより、結合重み
を動的に変更するように構成したものである。
[作用]
この発明における神経回路網装置は、結合重みを定める
7習方程式のパラメータであるβを学習の途中でその時
点のエネルギーに基いて動的に変更することにより、7
習速度を向上する。
7習方程式のパラメータであるβを学習の途中でその時
点のエネルギーに基いて動的に変更することにより、7
習速度を向上する。
[実施例]
学習方程式(式(7))において、学習に必要な時間T
は弐〇〇)で得られる。
は弐〇〇)で得られる。
T=S(1/(2β(Eo −E) ) ”” ) d
s・・・(10) 但し、ここで、Eoは初期値におけるエネルギーであり
、Eは収束の途中におけるエネルギーである。従って時
間′■゛を大きくしようとすると、収束の途中において
も積分の中の分母が定数に近くなるようにすれば良い、
そこで、 β=β。/ (E、−E) ・・・(11)
とすれば良い、あるいは、βが発散するのを防ぐために
は、β1III’1% β、□を各々βの最小値、最大
値として、 β = β −in * (Eo + γ
)/(E 。 −E + γ )但し、 γ=β□、*Eo/(β、□−β□、)・・・(12)
とすれば良い、第4図は式(12)によって変化するエ
ネルギーE(第4図(a))及びβ(第4図(b))を
Lに対して示したグラフであり、エネルギーEがEoか
らOまでLに対して変化するとき、βはβ11.からβ
1.1まで変化する様子を示している。
s・・・(10) 但し、ここで、Eoは初期値におけるエネルギーであり
、Eは収束の途中におけるエネルギーである。従って時
間′■゛を大きくしようとすると、収束の途中において
も積分の中の分母が定数に近くなるようにすれば良い、
そこで、 β=β。/ (E、−E) ・・・(11)
とすれば良い、あるいは、βが発散するのを防ぐために
は、β1III’1% β、□を各々βの最小値、最大
値として、 β = β −in * (Eo + γ
)/(E 。 −E + γ )但し、 γ=β□、*Eo/(β、□−β□、)・・・(12)
とすれば良い、第4図は式(12)によって変化するエ
ネルギーE(第4図(a))及びβ(第4図(b))を
Lに対して示したグラフであり、エネルギーEがEoか
らOまでLに対して変化するとき、βはβ11.からβ
1.1まで変化する様子を示している。
このアルゴリズムはシリコンや光素子などのハードウェ
ア、あるいはアナログコンピュータなどによって並列に
実行できるが、例えばノイマン型針r1磯で逐次的に実
行した場合のフローチャートの一例を第1図に示す、ス
テップ(40)でし=1における結合重みW、、’
と結合重みの更装置ΔWh。
ア、あるいはアナログコンピュータなどによって並列に
実行できるが、例えばノイマン型針r1磯で逐次的に実
行した場合のフローチャートの一例を第1図に示す、ス
テップ(40)でし=1における結合重みW、、’
と結合重みの更装置ΔWh。
直の初期hl!を一様占り数又は正規分布するAL数に
よって設定する。この時、各層1=lNH,j=1〜I
Iの全てについて設定するのであるが、第1図には簡単
のため、h、j、iと記述する。ステップ(4I)でL
=1として初期設定する。ステップ(42)では誤差信
号の初期値として出力M(IIG)における誤差δ、′
旧を式(5)によって求める0次に逆伝播法により、−
層上の誤差信号から下の層の誤差信号δ lI+1を式
(6)に基いて求める(ステップ(43)) 、この実
施例において、第り層の神経素子の個数N ”’は全て
Nとしている。ステップ(44)は、前向きの伝播によ
り式(1)1式(2)を用いて各層の内部状態u h
、、出力1i[V ” aを演算し、出力NHにおける
神経回路網の集合体としての出力VHjを求める。この
出力V”、と学習データd+’を用いて式(4)を演算
し、二乗誤差Eを求める(ステップ+451) 、次に
このエネルギーEから例えば式(12)によりβを演算
する(ステップ(46)) 、ステツブ(47)では、
演算したUを用いてモーメント法により結合重みを更新
する。このため、まず第り層の重みの1+1における更
新量Δ”J+(L+1)を式(8)で求める。この式に
おけるαはあらかじめ定めたパラメータであるが、βは
前ステップで演算されたものであり、逐次動的に変更さ
れている0次に、ΔWl′Jl(シ+1)を用いて新た
な重みWhJl(L+1)を式(9)により求める。二
乗誤差Eが充分小さいとき、例えばあらかじめ許容誤差
へを与えておき、Eと八との大小関係を判定しくステッ
プ(48)) 、 EがA以下の時学凹は終了とし、E
がAよりも大きい時はt=l;+1 (ステップ(49
1)としてステップ(42)からの処理を繰り返す。
よって設定する。この時、各層1=lNH,j=1〜I
Iの全てについて設定するのであるが、第1図には簡単
のため、h、j、iと記述する。ステップ(4I)でL
=1として初期設定する。ステップ(42)では誤差信
号の初期値として出力M(IIG)における誤差δ、′
旧を式(5)によって求める0次に逆伝播法により、−
層上の誤差信号から下の層の誤差信号δ lI+1を式
(6)に基いて求める(ステップ(43)) 、この実
施例において、第り層の神経素子の個数N ”’は全て
Nとしている。ステップ(44)は、前向きの伝播によ
り式(1)1式(2)を用いて各層の内部状態u h
、、出力1i[V ” aを演算し、出力NHにおける
神経回路網の集合体としての出力VHjを求める。この
出力V”、と学習データd+’を用いて式(4)を演算
し、二乗誤差Eを求める(ステップ+451) 、次に
このエネルギーEから例えば式(12)によりβを演算
する(ステップ(46)) 、ステツブ(47)では、
演算したUを用いてモーメント法により結合重みを更新
する。このため、まず第り層の重みの1+1における更
新量Δ”J+(L+1)を式(8)で求める。この式に
おけるαはあらかじめ定めたパラメータであるが、βは
前ステップで演算されたものであり、逐次動的に変更さ
れている0次に、ΔWl′Jl(シ+1)を用いて新た
な重みWhJl(L+1)を式(9)により求める。二
乗誤差Eが充分小さいとき、例えばあらかじめ許容誤差
へを与えておき、Eと八との大小関係を判定しくステッ
プ(48)) 、 EがA以下の時学凹は終了とし、E
がAよりも大きい時はt=l;+1 (ステップ(49
1)としてステップ(42)からの処理を繰り返す。
このように、上記実施例では結合重みを定める学習方程
式のパラメータであるβを学習の途中でその時点のエネ
ルギーに基いて動的に変更することにより、学習速度を
向上する。
式のパラメータであるβを学習の途中でその時点のエネ
ルギーに基いて動的に変更することにより、学習速度を
向上する。
なお、上記実施例では、βを学習の途中でその時点のエ
ネルギーに基く式(12)によって動的に変更すること
により、学習速度を向−ヒしたが、これに限るものでは
ない。
ネルギーに基く式(12)によって動的に変更すること
により、学習速度を向−ヒしたが、これに限るものでは
ない。
[発明の効果]
以上のように、この発明によれば、生体の神経細胞を模
擬した微分=J能でかつ単調増加する関数を入出力特性
として何し、人力層、中間層、及び出力層を構成するi
数の神経素子、並びに神経素子の出力の各々に結合重み
を乗じて次層の神経素子へ出力する結合素子を補え、人
力層の神経素子に人力データ、及び出力層の神経素子に
出力データを学習データとしてあらかじめ設定し、結合
重みを学習方程式に基いて逐次的に更新し、中間層の神
経素子は各々前の層の神経素子と結合する結合素子を介
しての信号を総和演算しつつ出力層の神経素子において
演算出力を得、出力データと演算出力の差の二乗和で定
義されるエネルギーを局所的に最小にするものにおいて
、瞬時のエネルギーを用いて学習方程式の係数を決定す
ることによって結合重みを動的に変更するように構成し
たことにより、学習速度を速くできる神経回路網装置を
(りることができる効果がある。
擬した微分=J能でかつ単調増加する関数を入出力特性
として何し、人力層、中間層、及び出力層を構成するi
数の神経素子、並びに神経素子の出力の各々に結合重み
を乗じて次層の神経素子へ出力する結合素子を補え、人
力層の神経素子に人力データ、及び出力層の神経素子に
出力データを学習データとしてあらかじめ設定し、結合
重みを学習方程式に基いて逐次的に更新し、中間層の神
経素子は各々前の層の神経素子と結合する結合素子を介
しての信号を総和演算しつつ出力層の神経素子において
演算出力を得、出力データと演算出力の差の二乗和で定
義されるエネルギーを局所的に最小にするものにおいて
、瞬時のエネルギーを用いて学習方程式の係数を決定す
ることによって結合重みを動的に変更するように構成し
たことにより、学習速度を速くできる神経回路網装置を
(りることができる効果がある。
第1図はこの発明の一実施例による神経回路網′:A置
に係る7習を実行するフローチャート、第2図は一般的
な神経回路網装置の構成を説明するための説明図、第3
図は従来の装置に係る学習を実行するフローチャート、
第4図(a)はこの発明の一実施例に係るエネルギーE
の時間tに対する特性を示すグラフ、第4図(b)はβ
の時間tに対する特性を示すグラフである。 (11)・・・神経素子、(12)・・・結合素子。
に係る7習を実行するフローチャート、第2図は一般的
な神経回路網装置の構成を説明するための説明図、第3
図は従来の装置に係る学習を実行するフローチャート、
第4図(a)はこの発明の一実施例に係るエネルギーE
の時間tに対する特性を示すグラフ、第4図(b)はβ
の時間tに対する特性を示すグラフである。 (11)・・・神経素子、(12)・・・結合素子。
Claims (1)
- 生体の神経細胞を模擬した微分可能でかつ単調増加す
る関数を入出力特性として有し、入力層、中間層、及び
出力層を構成する複数の神経素子、並びに上記神経素子
の出力の各々に結合重みを乗じて次層の神経素子へ出力
する結合素子を備え、上記入力層の神経素子に入力デー
タ、及び上記出力層の神経素子に出力データを学習デー
タとしてあらかじめ設定し、上記結合重みを学習方程式
に基いて逐次的に更新し、上記中間層の神経素子は各々
前の層の神経素子と結合する結合素子を介しての信号を
総和演算しつつ上記出力層の神経素子において演算出力
を得、上記出力データと上記演算出力の差の二乗和で定
義されるエネルギーを局所的に最小にするものにおいて
、瞬時の上記エネルギーを用いて上記学習方程式の係数
を決定することにより、上記結合重みを動的に変更する
ことを特徴とする神経回路網装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP905190A JPH03210686A (ja) | 1990-01-12 | 1990-01-12 | 神経回路網装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP905190A JPH03210686A (ja) | 1990-01-12 | 1990-01-12 | 神経回路網装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH03210686A true JPH03210686A (ja) | 1991-09-13 |
Family
ID=11604303
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP905190A Pending JPH03210686A (ja) | 1990-01-12 | 1990-01-12 | 神経回路網装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH03210686A (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5598509A (en) * | 1992-08-28 | 1997-01-28 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/recognition system using the same |
| US5627941A (en) * | 1992-08-28 | 1997-05-06 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/control system using the neural network |
| JP2002222409A (ja) * | 2001-01-26 | 2002-08-09 | Fuji Electric Co Ltd | ニューラルネットワークの最適化学習方法 |
-
1990
- 1990-01-12 JP JP905190A patent/JPH03210686A/ja active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5598509A (en) * | 1992-08-28 | 1997-01-28 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/recognition system using the same |
| US5627941A (en) * | 1992-08-28 | 1997-05-06 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/control system using the neural network |
| JP2002222409A (ja) * | 2001-01-26 | 2002-08-09 | Fuji Electric Co Ltd | ニューラルネットワークの最適化学習方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Yu et al. | A backpropagation algorithm with adaptive learning rate and momentum coefficient | |
| CN112529166A (zh) | 融合神经元模型、神经网络结构及训练、推理方法、存储介质和设备 | |
| JPH0738186B2 (ja) | 自己拡張形ニユーラル・ネットワーク | |
| CN101986564A (zh) | 基于Backlash算子和神经网络的自适应滤波器 | |
| Xiao et al. | An online sequential multiple hidden layers extreme learning machine method with forgetting mechanism | |
| JPH03210686A (ja) | 神経回路網装置 | |
| CN114266387A (zh) | 一种输变电工程工期预测方法、系统、设备及存储介质 | |
| JPH076146A (ja) | 並列データ処理システム | |
| JPH04237388A (ja) | ニューロプロセッサ | |
| Lee et al. | A multi-layer feed-forward neural network with dynamically adjustable structures | |
| JP2699447B2 (ja) | 信号処理装置 | |
| JP2606317B2 (ja) | 学習処理装置 | |
| Wang et al. | Self-adaptive neural architectures for control applications | |
| Dadios et al. | Application of neural networks to the flexible pole-cart balancing problem | |
| JP2979562B2 (ja) | 学習処理装置 | |
| De Groff et al. | Faster Convergent Artificial Neural Networks | |
| JP2607351B2 (ja) | 多層パーセプトロンの神経回路網の効率的な学習のための誤差信号の発生方法 | |
| JPH05128285A (ja) | ニユーロプロセツサ | |
| JPH0454685A (ja) | 状熊学習装置及び状態推定装置 | |
| JP7792178B1 (ja) | スパイキングニューラルネットワーク装置 | |
| JP2654686B2 (ja) | ニューラルネットワーク | |
| JP2904832B2 (ja) | 神経回路網装置 | |
| JPH05128082A (ja) | 階層ネツトワーク構成データ処理装置とその学習処理方法 | |
| JPH03210685A (ja) | 神経回路網装置 | |
| CN105404924A (zh) | 带增益系数的不完全递归支集神经网络构建及训练方法 |