JPH03210686A - Neural network device - Google Patents
Neural network deviceInfo
- Publication number
- JPH03210686A JPH03210686A JP905190A JP519090A JPH03210686A JP H03210686 A JPH03210686 A JP H03210686A JP 905190 A JP905190 A JP 905190A JP 519090 A JP519090 A JP 519090A JP H03210686 A JPH03210686 A JP H03210686A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- neural
- output
- equation
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
「産業上の利用分野]
この発明は、生体の神経細胞とその間の結合を模擬して
記憶、推論1判断、予測、J画、制御。[Detailed Description of the Invention] "Industrial Application Fields" This invention simulates biological nerve cells and the connections between them to improve memory, reasoning, judgment, prediction, J-picture, and control.
パターン認識、最適化などを行なう神経回路網装置に関
するものである。It relates to neural network devices that perform pattern recognition, optimization, etc.
[従来の技術]
第2図は、例えば、「ニューラルコンピュータ」合原−
幸著、東京電機大学出版局、 1988年、第110頁
〜第114頁に掲載された一般的なフィードフォワード
型の神経回路網装置の構成を示す説明図である0図にお
いて、(11)は生体の神経細胞を模擬する素子(以下
、神経素子と呼ぶ)で、(l la)は人力層を構成す
る神経素子で例えばN個の入力層神経素子、(Ilb)
は中間層を構成する神経素子で例えばN個の中間層神経
素子、 (lie)は出力層を構成する神経素子で例え
ばN個の出力層神経素子である。 (12)は神経素子
(!l)間のシナプスを模擬する素子(以下、結合素子
と呼ぶ)で、その結合の強さを結合重み(W)と呼ぶ1
図中、矢印は信号の移動方向で、順方向を示す。[Prior art] Fig. 2 shows, for example, the "neural computer" Aihara
In Figure 0, which is an explanatory diagram showing the configuration of a general feedforward type neural network device published in Sachi, Tokyo Denki University Press, 1988, pages 110 to 114, (11) is Elements that simulate biological nerve cells (hereinafter referred to as neural elements), (l la) are neural elements that constitute the human power layer, for example, N input layer neural elements, (Ilb)
are neural elements that constitute the intermediate layer, for example, N intermediate layer neural elements; (lie) are neural elements that constitute the output layer, for example, N output layer neural elements. (12) is an element (hereinafter referred to as a coupling element) that simulates a synapse between neural elements (!l), and the strength of the connection is called the coupling weight (W)1
In the figure, the arrow indicates the moving direction of the signal, which is the forward direction.
この神経回路網装置において、神経素子(Illは層状
に結合されており、ダイナミクスとしては、人力層(l
la)から入った人力信号は中間0(Ilblを介して
出力層(I Iclに矢印に示す方向に伝搬されていく
、定置的には以Fのようになる。学習データとして入力
データと出力データの対をあらかじめ与える*dt’を
出力層における第9番目の7習データの第i?I目の出
力データ、uhJを第り層のj番目の神経素子(Ill
の内部状態、vI′IJを第り層のj番目の神経素子(
!l)の出力値、Whlを第り層の第1番目の神経素子
(II)と第h+を層における第jl目の神経素子(+
1)との間の結合重みとする。学習データの人力データ
は、入力[(Ila)での出力fllIV’tと同じで
ある。第2図に示す実施例では、i=l〜N、j=l〜
Nである。In this neural network device, the neural elements (Ill) are connected in a layered manner, and the dynamics are determined by the human power layer (Ill).
The human input signal input from 0 (la) is propagated to the output layer (I Icl) via the intermediate 0 (Ilbl) in the direction shown by the arrow. *dt' is the i-th output data of the 9th 7th learning data in the output layer, and uhJ is the j-th neural element (Ill
Let vI′IJ be the internal state of the j-th neural element (
! l), Whl is the first neural element (II) in the layer, and h+ is the output value of the jl-th neural element (+) in the layer.
1). The human input data of the learning data is the same as the output fllIV't at the input [(Ila). In the embodiment shown in FIG. 2, i=l~N, j=l~
It is N.
各変数の関係は式(1)1式(2)のようになる。The relationship between each variable is as shown in equation (1) and equation (2).
ここで、関数gは微分可能で非減少な関数であれば良く
、−例として式(3) を用いる。Here, the function g only needs to be a differentiable and non-decreasing function, and Equation (3) is used as an example.
uh、=Σwh−’、、v′′−’、 −−1
+JV hJ= g (u ”J)
・ ・ ・ (2)g (x) =1/ (1
+exp (−x)1・(3)さらに、結合重み<W
)は学習方程式で逐次的に決定される。即ち、出力層(
llc)における学とデータと、神経回路網によって芙
際に得られた演算出力で定義される二乗誤差に関する最
急降下法を用いて決定される。神経回路網の層の数をH
とすると、二乗誤差(以下でエネルギーということもあ
る)は式(4) に様になる。uh, = Σwh-', v''-', -1
+JV hJ= g (u ”J)
・ ・ ・ (2) g (x) = 1/ (1
+exp (-x)1・(3) Furthermore, connection weight<W
) are determined sequentially by the learning equation. That is, the output layer (
It is determined using the steepest descent method regarding the squared error defined by the science and data in (llc) and the calculation output obtained at the moment by the neural network. The number of layers of the neural network is H
Then, the squared error (hereinafter also referred to as energy) becomes as shown in equation (4).
E=(1/21ΣΣ(V’1−dl’)” ・・(4
)又、結合重みの逐次変更はα、βを適当なパラメータ
、δ 1111を第hrg、を番目の神経素子における
誤差(式(5)1式(6))とし、モーメント法を使用
した場合には式(7)の学習方程式で実行できる0式(
5)2式(6)において、h = Hの時は出力層にお
ける値を示している。Nlh’は第り層における神経素
子の数である。E=(1/21ΣΣ(V'1-dl')"...(4
) Also, to sequentially change the connection weights, α, β are appropriate parameters, δ 1111 is the error in the hrgth neural element (Equation (5) 1 Equation (6)), and when using the method of moments, is the formula 0 (
5) In Equation (6), h = H indicates the value in the output layer. Nlh' is the number of neural elements in the second layer.
51”’= (d、’−V’、)V’、(1−V’、)
ここで、i=1〜N1111 ・・・(5)5
+ ”’ = V ”t (IV ”t)Σδ lb+
1lWh、iここで、i = 1−N ”’、h=H〜
l・・(6)d ” W’Jl /dt” +
(1−a)d W”、t /dt。51''= (d, '-V',)V', (1-V',)
Here, i=1~N1111...(5)5
+ ”' = V ”t (IV ”t)Σδ lb+
1lWh, i where i = 1-N ''', h = H~
l...(6)d ” W'Jl /dt” +
(1-a) d W”, t /dt.
=−βa E/ +3 W”−i ・・
(7)例えば、式(7)の学習方程式を現在のノイマン
型計算磯で実行しようとすると、計算機はディジタルな
ので、式(7)を差分化して逐次実行する必要があるが
、この処理を行なうフローチャートの一例を第3図に示
す、ステップ(30)で1=1における結合重みW、、
” と結合重みの更新量ΔW h、、の初期値を一様
乱数又は正規分布する乱数によって設定する。この時、
各層についてi=l〜N 、 j= 1 = Nの全
てについて設定するのであるが、第3図には簡単のため
、h、j、iと記述する。ステップ(31)でt=1と
して初期設定する。ステップ(32)では誤差信号の初
期値として出力層(l lc)における誤差δ、 IH
Iを式(5)によって求める0次に逆伝播法を用いて、
−層上の誤差イス号からFの層の誤差信号を式(6)に
基いて求める(ステップ(33)) 、ステップ(34
)では、モーメント法により結合重みを更新する。この
ため、まず第haの重みのし+1における更新量Δ”J
l (t + 1 )を式(8)で求める。=-βa E/ +3 W"-i...
(7) For example, if you try to execute the learning equation of Equation (7) on the current Neumann-type computer, since the computer is digital, it is necessary to differentiate Equation (7) and execute it sequentially. An example of the flowchart is shown in FIG. 3. In step (30), the connection weight W at 1=1,
” and the initial value of the connection weight update amount ΔW h, , are set by uniform random numbers or normally distributed random numbers. At this time,
For each layer, all of i=l to N and j=1=N are set, but in FIG. 3, for simplicity, they are written as h, j, and i. In step (31), initial setting is made as t=1. In step (32), the error δ, IH in the output layer (l lc) is set as the initial value of the error signal.
Using the zero-order backpropagation method to find I using equation (5),
- Calculate the error signal of the layer F from the error chair number on the layer based on equation (6) (step (33)), step (34)
), the connection weights are updated using the method of moments. For this reason, first, the update amount Δ”J at the ha-th weight index +1
l (t + 1) is obtained using equation (8).
ΔW”4t (t + 1 ) = β5 j””I
V”十αΔW”JI (L) ・・(8)この式に
おけるα、βはあらかじめ定めたパラメータである0次
に、ΔVV”JI (t + 1 )を用いて新たな
重みW+″J1(1−+1)を式(9)により求める。ΔW"4t (t + 1) = β5 j""I
V"10αΔW"JI (L) ... (8) α and β in this formula are predetermined parameters. Next, ΔVV"JI (t + 1) is used to create a new weight W+"J1 (1 -+1) is determined by equation (9).
W”4t(t、+ 1 ) =W”JI(L) +
ΔW″1(し+ 1 )・・(9)
ステップ(35)では、前向きの伝播により式(1)式
(2)を用いて各層の内部状態u h 、、出力(1f
iV”Jを演算し、出力層Hにおける神経回路網の集合
体としての出力VH,を求める。この出力V′4.と学
習データdl″を用いて式(4)を演算し、二乗誤差E
を求める。このEが充分小さいとき1例えばあらかじめ
許容誤差Aを与えておき、EとAとの大小関係を判定し
くステップ(36)) 、 EがA以下の時は学習は終
了とし、EがAよりも大きい時はL=t、+1 (ステ
ップ(371)としてステップ(32)からの処理を繰
り返す。W"4t (t, + 1) = W"JI (L) +
ΔW″1(shi+1)...(9) In step (35), the internal state u h of each layer is calculated by forward propagation using equations (1) and (2), output (1f
iV"J is calculated, and the output VH, as a collection of neural networks in the output layer H is calculated. Using this output V'4. and the learning data dl", equation (4) is calculated, and the squared error E is calculated.
seek. When this E is sufficiently small, for example, give a tolerance A in advance and judge the magnitude relationship between E and A (step (36)). When E is less than A, learning is finished and E is greater than A. When it is large, L=t, +1 (step (371) and the process from step (32) is repeated.
[発明が解決しようとする課題]
従来の神経回路網装置は以上のように構成されており、
結合重みを定める学習方程式のパラメータであるα、β
はあらかじめ定めた定数を常に用いているので、学習の
速度が遅いという問題点があった。[Problem to be solved by the invention] The conventional neural network device is configured as described above.
α and β are the learning equation parameters that determine the connection weights.
Because it always uses predetermined constants, there was a problem that the learning speed was slow.
この発明は上記のような問題点を解決するためになされ
たもので、学習速度を速くできる神経回路網装置を得る
ことを目的としている。This invention was made to solve the above-mentioned problems, and aims to provide a neural network device that can increase learning speed.
[課題を解決するための手段]
この発明は、生体の神経細胞を模擬した微分可能でかつ
単調増加する関数を入出力特性として有し、人力層、中
間層、及び出力層を構成する複数の神経素子、並びに神
経素子の出力の各々に結合重みを乗じて次層の神経素子
へ出力する結合素子を備え、入力層の神経素子に入力デ
ータ、及び出力層の神経素子に出力データを学習データ
としてあらかじめ設定し、結合重みを学習方程式に基い
て逐次的に更新し、中間層の神経素子は各々前の層の神
経素子と結合する結合素子を介しての信号を総和演算し
つつ出力層の神経素子において演算出力を得、出力デー
タと演算出力の差の二乗和で定義されるエネルギーを局
所的に最小にするものにおいて、瞬時のエネルギーを用
いて学習方程式の係数を決定することにより、結合重み
を動的に変更するように構成したものである。[Means for Solving the Problems] The present invention has a differentiable and monotonically increasing function that simulates biological nerve cells as an input/output characteristic, and a plurality of functions that constitute a human layer, an intermediate layer, and an output layer. It is equipped with a neural element and a connecting element that multiplies each output of the neural element by a connection weight and outputs it to the neural element of the next layer, and sends input data to the neural element of the input layer and output data to the neural element of the output layer as learning data. The connection weights are sequentially updated based on the learning equation, and each neural element in the intermediate layer calculates the summation of the signals through the connecting elements that connect with the neural elements in the previous layer. In a neural element that obtains a calculation output and locally minimizes the energy defined by the sum of squares of the difference between the output data and the calculation output, the combination is determined by determining the coefficients of the learning equation using the instantaneous energy. It is configured to dynamically change the weight.
[作用]
この発明における神経回路網装置は、結合重みを定める
7習方程式のパラメータであるβを学習の途中でその時
点のエネルギーに基いて動的に変更することにより、7
習速度を向上する。[Operation] The neural network device according to the present invention dynamically changes β, which is a parameter of the 7 Xi equation that determines connection weights, during learning based on the energy at that time.
Improve learning speed.
[実施例]
学習方程式(式(7))において、学習に必要な時間T
は弐〇〇)で得られる。[Example] In the learning equation (formula (7)), the time T required for learning
is obtained by 2〇〇).
T=S(1/(2β(Eo −E) ) ”” ) d
s・・・(10)
但し、ここで、Eoは初期値におけるエネルギーであり
、Eは収束の途中におけるエネルギーである。従って時
間′■゛を大きくしようとすると、収束の途中において
も積分の中の分母が定数に近くなるようにすれば良い、
そこで、
β=β。/ (E、−E) ・・・(11)
とすれば良い、あるいは、βが発散するのを防ぐために
は、β1III’1% β、□を各々βの最小値、最大
値として、
β = β −in * (Eo + γ
)/(E 。 −E + γ )但し、
γ=β□、*Eo/(β、□−β□、)・・・(12)
とすれば良い、第4図は式(12)によって変化するエ
ネルギーE(第4図(a))及びβ(第4図(b))を
Lに対して示したグラフであり、エネルギーEがEoか
らOまでLに対して変化するとき、βはβ11.からβ
1.1まで変化する様子を示している。T=S(1/(2β(Eo −E)) ””) d
s...(10) However, here, Eo is the energy at the initial value, and E is the energy in the middle of convergence. Therefore, if you want to increase the time ′■゛, you just need to make the denominator in the integral close to a constant even in the middle of convergence.
Therefore, β=β. / (E, -E) ... (11)
Alternatively, in order to prevent β from diverging, β = β −in * (Eo + γ
)/(E. −E + γ) However, γ=β□, *Eo/(β, □−β□,)...(12)
Figure 4 is a graph showing the energy E (Figure 4 (a)) and β (Figure 4 (b)) that change according to equation (12) against L, and the energy E is When varying with respect to L from Eo to O, β becomes β11. From β
It shows how it changes up to 1.1.
このアルゴリズムはシリコンや光素子などのハードウェ
ア、あるいはアナログコンピュータなどによって並列に
実行できるが、例えばノイマン型針r1磯で逐次的に実
行した場合のフローチャートの一例を第1図に示す、ス
テップ(40)でし=1における結合重みW、、’
と結合重みの更装置ΔWh。This algorithm can be executed in parallel by hardware such as silicon or optical elements, or by an analog computer, but for example, an example of a flowchart when executed sequentially with a Neumann needle r1 iso is shown in step (40). ) connection weights W, ,' at deshi = 1
and the connection weight changer ΔWh.
直の初期hl!を一様占り数又は正規分布するAL数に
よって設定する。この時、各層1=lNH,j=1〜I
Iの全てについて設定するのであるが、第1図には簡単
のため、h、j、iと記述する。ステップ(4I)でL
=1として初期設定する。ステップ(42)では誤差信
号の初期値として出力M(IIG)における誤差δ、′
旧を式(5)によって求める0次に逆伝播法により、−
層上の誤差信号から下の層の誤差信号δ lI+1を式
(6)に基いて求める(ステップ(43)) 、この実
施例において、第り層の神経素子の個数N ”’は全て
Nとしている。ステップ(44)は、前向きの伝播によ
り式(1)1式(2)を用いて各層の内部状態u h
、、出力1i[V ” aを演算し、出力NHにおける
神経回路網の集合体としての出力VHjを求める。この
出力V”、と学習データd+’を用いて式(4)を演算
し、二乗誤差Eを求める(ステップ+451) 、次に
このエネルギーEから例えば式(12)によりβを演算
する(ステップ(46)) 、ステツブ(47)では、
演算したUを用いてモーメント法により結合重みを更新
する。このため、まず第り層の重みの1+1における更
新量Δ”J+(L+1)を式(8)で求める。この式に
おけるαはあらかじめ定めたパラメータであるが、βは
前ステップで演算されたものであり、逐次動的に変更さ
れている0次に、ΔWl′Jl(シ+1)を用いて新た
な重みWhJl(L+1)を式(9)により求める。二
乗誤差Eが充分小さいとき、例えばあらかじめ許容誤差
へを与えておき、Eと八との大小関係を判定しくステッ
プ(48)) 、 EがA以下の時学凹は終了とし、E
がAよりも大きい時はt=l;+1 (ステップ(49
1)としてステップ(42)からの処理を繰り返す。Nao's initial HL! is set by a uniform fortune telling number or a normally distributed AL number. At this time, each layer 1=lNH, j=1~I
Settings are made for all I, but for simplicity, they are written as h, j, and i in FIG. L in step (4I)
Initialize as =1. In step (42), the error δ,′ in the output M(IIG) is set as the initial value of the error signal.
-
The error signal δ lI+1 of the lower layer is calculated from the error signal of the upper layer based on equation (6) (step (43)). Step (44) uses equations (1) and (2) to calculate the internal state of each layer u h by forward propagation.
,, calculate the output 1i [V ''a and obtain the output VHj as a collection of neural networks at the output NH. Using this output V'' and the learning data d+', calculate equation (4) and square it. Calculate the error E (step +451). Next, calculate β from this energy E using, for example, equation (12) (step (46)). In step (47),
The connection weights are updated by the method of moments using the calculated U. For this reason, first, the update amount Δ"J+(L+1) at 1+1 of the weight of the first layer is calculated using equation (8). In this equation, α is a predetermined parameter, and β is the one calculated in the previous step. Then, a new weight WhJl (L+1) is calculated using equation (9) using ΔWl'Jl (+1) for the zeroth order that is dynamically changed one after another.When the squared error E is sufficiently small, for example, Give the allowable error and judge the magnitude relationship between E and 8 (step (48)). If E is less than or equal to A, the chronological concavity is finished, and E
is larger than A, t=l;+1 (step (49
As 1), the process from step (42) is repeated.
このように、上記実施例では結合重みを定める学習方程
式のパラメータであるβを学習の途中でその時点のエネ
ルギーに基いて動的に変更することにより、学習速度を
向上する。In this way, in the embodiment described above, the learning speed is improved by dynamically changing β, which is a parameter of the learning equation that determines the connection weight, during learning based on the energy at that time.
なお、上記実施例では、βを学習の途中でその時点のエ
ネルギーに基く式(12)によって動的に変更すること
により、学習速度を向−ヒしたが、これに限るものでは
ない。In the above embodiment, the learning speed is improved by dynamically changing β during learning using the equation (12) based on the energy at that time, but the invention is not limited to this.
[発明の効果]
以上のように、この発明によれば、生体の神経細胞を模
擬した微分=J能でかつ単調増加する関数を入出力特性
として何し、人力層、中間層、及び出力層を構成するi
数の神経素子、並びに神経素子の出力の各々に結合重み
を乗じて次層の神経素子へ出力する結合素子を補え、人
力層の神経素子に人力データ、及び出力層の神経素子に
出力データを学習データとしてあらかじめ設定し、結合
重みを学習方程式に基いて逐次的に更新し、中間層の神
経素子は各々前の層の神経素子と結合する結合素子を介
しての信号を総和演算しつつ出力層の神経素子において
演算出力を得、出力データと演算出力の差の二乗和で定
義されるエネルギーを局所的に最小にするものにおいて
、瞬時のエネルギーを用いて学習方程式の係数を決定す
ることによって結合重みを動的に変更するように構成し
たことにより、学習速度を速くできる神経回路網装置を
(りることができる効果がある。[Effects of the Invention] As described above, according to the present invention, a function that simulates biological nerve cells and has a differential = J function and is monotonically increasing is used as an input/output characteristic, and a human layer, an intermediate layer, and an output layer. i that constitutes
Multiply the number of neural elements and the output of each neural element by a connection weight to supplement the connecting element that outputs to the neural element in the next layer, and send human data to the neural element in the human layer and output data to the neural element in the output layer. It is set in advance as learning data, and the connection weights are updated sequentially based on the learning equation, and each neural element in the intermediate layer calculates the sum of signals through the connecting elements that connect with the neural elements in the previous layer and outputs them. By obtaining the calculation output in the neural elements of the layer and locally minimizing the energy defined by the sum of squares of the difference between the output data and the calculation output, the coefficients of the learning equation are determined using the instantaneous energy. By configuring the system to dynamically change the connection weights, it is possible to use a neural network device that can increase the learning speed.
第1図はこの発明の一実施例による神経回路網′:A置
に係る7習を実行するフローチャート、第2図は一般的
な神経回路網装置の構成を説明するための説明図、第3
図は従来の装置に係る学習を実行するフローチャート、
第4図(a)はこの発明の一実施例に係るエネルギーE
の時間tに対する特性を示すグラフ、第4図(b)はβ
の時間tに対する特性を示すグラフである。
(11)・・・神経素子、(12)・・・結合素子。FIG. 1 is a flowchart for executing the seven learnings related to the neural network ': A position according to an embodiment of the present invention, FIG. 2 is an explanatory diagram for explaining the configuration of a general neural network device, and FIG.
The figure is a flowchart for executing learning related to a conventional device.
FIG. 4(a) shows the energy E according to an embodiment of the present invention.
A graph showing the characteristics of β with respect to time t, Fig. 4(b) is
It is a graph showing the characteristics with respect to time t. (11)...neural element, (12)...coupling element.
Claims (1)
る関数を入出力特性として有し、入力層、中間層、及び
出力層を構成する複数の神経素子、並びに上記神経素子
の出力の各々に結合重みを乗じて次層の神経素子へ出力
する結合素子を備え、上記入力層の神経素子に入力デー
タ、及び上記出力層の神経素子に出力データを学習デー
タとしてあらかじめ設定し、上記結合重みを学習方程式
に基いて逐次的に更新し、上記中間層の神経素子は各々
前の層の神経素子と結合する結合素子を介しての信号を
総和演算しつつ上記出力層の神経素子において演算出力
を得、上記出力データと上記演算出力の差の二乗和で定
義されるエネルギーを局所的に最小にするものにおいて
、瞬時の上記エネルギーを用いて上記学習方程式の係数
を決定することにより、上記結合重みを動的に変更する
ことを特徴とする神経回路網装置。It has a differentiable and monotonically increasing function that simulates biological nerve cells as an input/output characteristic, and is connected to each of the plurality of neural elements constituting the input layer, intermediate layer, and output layer, as well as the outputs of the aforementioned neural elements. It is equipped with a coupling element that multiplies the weight and outputs it to the neural element of the next layer, and sets input data to the neural element of the input layer and output data to the neural element of the output layer as learning data in advance, and learns the coupling weight. Updates are performed sequentially based on the equation, and each neural element in the intermediate layer calculates the summation of signals via a coupling element that connects with the neural element in the previous layer, while obtaining a calculation output in the neural element in the output layer. , where the energy defined by the sum of squares of the difference between the output data and the calculation output is locally minimized, the connection weights are determined by determining the coefficients of the learning equation using the instantaneous energy. A neural network device characterized by dynamic changes.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP905190A JPH03210686A (en) | 1990-01-12 | 1990-01-12 | Neural network device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP905190A JPH03210686A (en) | 1990-01-12 | 1990-01-12 | Neural network device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH03210686A true JPH03210686A (en) | 1991-09-13 |
Family
ID=11604303
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP905190A Pending JPH03210686A (en) | 1990-01-12 | 1990-01-12 | Neural network device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH03210686A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5598509A (en) * | 1992-08-28 | 1997-01-28 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/recognition system using the same |
| US5627941A (en) * | 1992-08-28 | 1997-05-06 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/control system using the neural network |
| JP2002222409A (en) * | 2001-01-26 | 2002-08-09 | Fuji Electric Co Ltd | Optimization Learning Method for Neural Networks |
-
1990
- 1990-01-12 JP JP905190A patent/JPH03210686A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5598509A (en) * | 1992-08-28 | 1997-01-28 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/recognition system using the same |
| US5627941A (en) * | 1992-08-28 | 1997-05-06 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/control system using the neural network |
| JP2002222409A (en) * | 2001-01-26 | 2002-08-09 | Fuji Electric Co Ltd | Optimization Learning Method for Neural Networks |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Yu et al. | A backpropagation algorithm with adaptive learning rate and momentum coefficient | |
| CN112529166A (en) | Fusion neuron model, neural network structure, training and reasoning method, storage medium and device | |
| JPH0738186B2 (en) | Self-expanding neural network | |
| CN101986564A (en) | Backlash operator and neural network-based adaptive filter | |
| Xiao et al. | An online sequential multiple hidden layers extreme learning machine method with forgetting mechanism | |
| JPH03210686A (en) | Neural network device | |
| CN114266387A (en) | Power transmission and transformation project construction period prediction method, system, equipment and storage medium | |
| JPH076146A (en) | Parallel data processing system | |
| JPH04237388A (en) | Neuro processor | |
| Lee et al. | A multi-layer feed-forward neural network with dynamically adjustable structures | |
| JP2699447B2 (en) | Signal processing device | |
| JP2606317B2 (en) | Learning processing device | |
| Wang et al. | Self-adaptive neural architectures for control applications | |
| Dadios et al. | Application of neural networks to the flexible pole-cart balancing problem | |
| JP2979562B2 (en) | Learning processing device | |
| De Groff et al. | Faster Convergent Artificial Neural Networks | |
| JP2607351B2 (en) | Error Signal Generation Method for Efficient Learning of Multilayer Perceptron Neural Network | |
| JPH05128285A (en) | Nyuro Processor | |
| JPH0454685A (en) | State learning device and state estimating device | |
| JP7792178B1 (en) | Spiking Neural Network Device | |
| JP2654686B2 (en) | neural network | |
| JP2904832B2 (en) | Neural network device | |
| JPH05128082A (en) | Hierarchical network configuration data processing apparatus and learning processing method thereof | |
| JPH03210685A (en) | Neural network device | |
| CN105404924A (en) | Construction and training method for incomplete recursive branch set neural network with gain coefficient |