JPH03210685A - Neural network device - Google Patents
Neural network deviceInfo
- Publication number
- JPH03210685A JPH03210685A JP2005189A JP518990A JPH03210685A JP H03210685 A JPH03210685 A JP H03210685A JP 2005189 A JP2005189 A JP 2005189A JP 518990 A JP518990 A JP 518990A JP H03210685 A JPH03210685 A JP H03210685A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- neural
- output
- equation
- elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.
Description
【発明の詳細な説明】
[産業上の利用分野]
この発明は、生体の神経細胞とその間の結合を模擬して
記憶、推論1判断、予測、計画、制御。[Detailed Description of the Invention] [Industrial Application Field] This invention simulates biological nerve cells and the connections between them to improve memory, reasoning, judgment, prediction, planning, and control.
パターン認識、Wi通化などを行なう神経回路網装置に
関するものである。This invention relates to a neural network device that performs pattern recognition, Wi-Fi communication, etc.
[従来の技術]
第4図は、例えば、「ニューラルコンピュータ」合原−
幸著、東京電機大字出版局、 1988年、第110頁
〜第114頁に掲載された従来のフィードフォワード型
の神経回路網装置の構成を示す説明図である0図におい
て、(lりは生体の神経細胞を模擬する素子(以下、神
経素子と呼ぶ)で、(lla)は入力層を構成する神経
素子で例えば3つの入力層神経素子、 (iib)は中
間層を構成する神経素子で例えば2つの中間層神経素子
、 (Ilc)は出力層を構成する神経素子で例えば1
つの出力層神経素子である。 (12)は神経素子(1
11間のシナプスを模擬する素子(以下、結合素子と呼
ぶ)で、その結合の強さを結合重みと呼ぶ。[Prior art] Figure 4 shows, for example, the "neural computer" Aihara-
In Figure 0, which is an explanatory diagram showing the configuration of a conventional feedforward type neural network device published in Sachi, Tokyo Denki Oaza Publishing Bureau, 1988, pages 110 to 114, An element (hereinafter referred to as a neural element) that simulates the neurons of Two intermediate layer neural elements (Ilc) are neural elements that constitute the output layer, for example 1
There are two output layer neural elements. (12) is the neural element (1
11 (hereinafter referred to as a coupling element), and the strength of the coupling is called a coupling weight.
この回路網において、神経素子(!鳳)は層状に結合さ
れており、グイナミクスとしては、入力層(lla)か
ら入った入力信号は中間層(tub)を介して出力Jf
l(IIG+に伝搬されていく、定量的には以下のよう
になる。学習データとして入力データと出力データの対
をあらかじめ与えるed+’を出力層における第2番目
の学習データの第i番目の出力データ、uh、を第り層
の5番目の神経素子(11)の内部状態、■1.を第り
層のjl)目の神経素子+111の出力値、WhJ、を
第り層の第i番目の神経素子1ll)と第h+1層にお
ける第一番目の神経素子(ll)との間の結合重みとす
る。学習データの入力データは、入力層(! Ialで
の出力(i V ’ jと同じである。In this circuit network, the neural elements (!Otori) are connected in layers, and in terms of Guinamitics, the input signal that enters from the input layer (lla) is output via the intermediate layer (tub).
l(Propagated to IIG+. Quantitatively, it is as follows. ed+', which gives a pair of input data and output data in advance as learning data, is the i-th output of the second learning data in the output layer. The data, uh, is the internal state of the fifth neural element (11) in the second layer, ■1. is the output value of the jl)th neural element + 111 in the second layer, and WhJ is the i-th neural element in the second layer. Let it be the connection weight between the neural element 1ll) and the first neural element (ll) in the h+1th layer. The input data of the learning data is the same as the output (i V' j in the input layer (!Ial).
第4図に示す例において、各添字は第1表に示すような
構成としている。また、各変数の関係は式(1)3式(
2)のようになる、ここで、関数gは微分可能で非減少
な関数であれば良く、−例として式(3)を用いる。In the example shown in FIG. 4, each subscript has a structure as shown in Table 1. In addition, the relationship between each variable is expressed by Equation (1) and Equation 3 (
2), where the function g only needs to be a differentiable and non-decreasing function, using equation (3) as an example.
uIIJ=Σw”−’Jtv”−’、 −−−(
+)V”J=g (u”i) ・・・(
2)g (x) = 1/ (1+exp (−xl)
・・(31第1表
さらに、結合重み(W)は式(4)に示す学習則で逐次
的に決定される。即ち、出力層(l lc)における学
習データと、神経回路網によって冥際に得られた演算出
力で定義される二乗誤差に関する最急降下法を用いて決
定される。神経回路網の層の数をHとすると、二乗誤差
(以下でエネルギーということもある)は式(4)に様
になる。uIIJ=Σw"−'Jtv"−', ---(
+)V”J=g (u”i) ・・・(
2) g (x) = 1/ (1+exp (-xl)
...(31 Table 1) Furthermore, the connection weights (W) are sequentially determined by the learning rule shown in equation (4). That is, the learning data in the output layer (l lc) and the neural network are used to It is determined using the steepest descent method regarding the squared error defined by the calculation output obtained in ).
E= (1/2)X:I (V’、−di’) ”
−−+41又、結合重みの逐次変更はα、βを適当なパ
ラメータ、δ lhlを第り層、i番目の神経素子にお
ける誤差(式(5)9式(6))とし、モーメント法を
使用した場合には式(7)の学習方程式で実行できる0
式(5)1式(6)において、h = Hの時は出力層
における値を示している。なお、この例では1■=3で
ある。N′1は第h@における神経素子の数である。E= (1/2)X:I (V', -di')"
--+41 Also, to sequentially change the connection weights, α and β are appropriate parameters, δ lhl is the error in the th layer and the i-th neural element (Equation (5), 9 Equation (6)), and the method of moments is used. In this case, 0 can be implemented using the learning equation of equation (7).
In equations (5) and (6), when h=H, the value in the output layer is shown. Note that in this example, 1■=3. N'1 is the number of neural elements in h@th.
δ、”’= (ct 、’−V’、) V’、 (1−
V”、)ここで、i = l、 N tl′ll
・・・(5)δ1”””V”1(1−V”+)X5
4′h”’W”1ここで、i=l〜NLh1.h=1■
〜l・・(6)d ” whJt /dt、” + (
1−α) a W ”J l / at=−βaE/a
Wl″1 ・・(7)例えば、式(7)の学習
方程式を現在のノイマン型計算機で実行しようとすると
、計算機はディジタルなので、方程式を差分化して逐次
実行する必要があるが、この処理を行なうフローチャー
トの一例を第5図に示す、ステップ(30)でL=1に
おける結合重みW″1と結合重みの更新量ΔWhJ、の
初期値を一様乱数又は正規分布する乱数によって設定す
る。この時、h=1〜2でh=tの時i=1〜3.j=
1〜2、h=2の時i=1〜2.J=lの全てについて
設定するのであるが、第5図には簡単のため、h、j、
iと記述する。ステップ(3■)でし=1として初期設
定する。ステップ(32)では誤差信号の初期値として
出力層(11c)における誤差δ II+を式(5)に
よって求める0次に逆伝播法を用いて、−層上の誤差信
号から下の層の誤差信号を式(6)に基いて求める(ス
テップ(33))、この逆伝播を第6図に示す、ステッ
プ(34)では、モーメント法により結合重みを更新す
る。このため、まず第り番の重みのし+1における更新
IΔW”JI(七十1)を式(8)で求める。δ,”'= (ct,'-V',) V', (1-
V”,) where i = l, N tl′ll
...(5) δ1"""V"1 (1-V"+)X5
4'h"'W"1 where i=l~NLh1. h=1■
~l...(6)d ” whJt /dt,” + (
1-α) a W ”J l /at=-βaE/a
Wl″1...(7) For example, if you try to execute the learning equation in equation (7) on a current Neumann computer, since the computer is digital, it is necessary to differentiate the equation and execute it sequentially. An example of the flowchart is shown in FIG. 5. In step (30), initial values of the connection weight W''1 and the connection weight update amount ΔWhJ at L=1 are set by uniform random numbers or normally distributed random numbers. At this time, when h=1 to 2 and h=t, i=1 to 3. j=
1-2, when h=2, i=1-2. Settings are made for all of J=l, but for the sake of simplicity in Figure 5, h, j,
It is written as i. In step (3), initialize as shi = 1. In step (32), the error δ II+ in the output layer (11c) is determined by equation (5) as the initial value of the error signal using the zero-order backpropagation method, and the error signal on the − layer is converted to the error signal on the layer below. is obtained based on equation (6) (step (33)), and this back propagation is shown in FIG. 6. In step (34), the connection weights are updated by the method of moments. For this reason, first, the update IΔW''JI (71) at the weight number +1 is calculated using equation (8).
ΔW”JI (t + 1 ) = (J 6 J”
”’V”+06w”Jt (t) ・・(8)この
式におけるα、βはあらかじめ定めたパラメータである
0次に、ΔW ”a+ (シ+ 1 )を用いて新た
な重みW”JI (t、 + 1 )を式(9)によ
り求める。ΔW”JI (t + 1) = (J 6 J”
"'V"+06w"Jt (t) (8) α and β in this equation are predetermined parameters. Next, a new weight W"JI ( t, + 1 ) is determined by equation (9).
W”JI (t−z)=W”JI (t)+Δw”
、t (t+1) ・・(9)ステップ(35)で
は、前向きの伝播により式(1)式(2)を用いて各層
の内部状態u h J、出力値VhJを演算し、出力層
Hにおける神経回路網の集合体としての出力VH,を求
める。この出力vHJと7習データd+’を用いて式(
4)を演算し、二乗誤差Eを求める。このEが充分小さ
いとき、例えばあらかじめ許容誤差Aを与えておき、E
とAとの大小関係を判定しくステップ+36)) 、
EがA以下の時は学習は終了とし、EがAよりも大きい
時はL=t+1 (ステップ(37))としてステップ
(32)からの処理を繰り返す。W”JI (t-z)=W”JI (t)+Δw”
, t (t+1) (9) In step (35), the internal state u h J and output value VhJ of each layer are calculated using equations (1) and (2) by forward propagation, and the output value VhJ in the output layer H is calculated. The output VH as a collection of neural networks is determined. Using this output vHJ and the 7 learning data d+', the formula (
4) to find the squared error E. When this E is small enough, for example, by giving a tolerance A in advance, E
Step +36)) to determine the magnitude relationship between and A.
When E is less than or equal to A, learning is terminated, and when E is greater than A, L=t+1 (step (37)) and the process from step (32) is repeated.
[発明が解決しようとする課題]
従来の神経回路網装置は以上のように構成されており、
集合体としての誤差Eが誤差の許容値A以下になるのが
遅く、学習の速度が遅かった。さらに、誤差Eが許容値
A以下にならず、局所最適解に収束してしまうという問
題点があった。[Problem to be solved by the invention] The conventional neural network device is configured as described above.
It was slow for the error E as a collection to fall below the error tolerance value A, and the speed of learning was slow. Furthermore, there is a problem in that the error E does not become less than the allowable value A and converges to a locally optimal solution.
この発明は上記のような問題点を解決するためになされ
たもので、学習速度を速くでき、さらに局所最適解に収
束するかわりに、大局的最適解に収束する確率を向上す
ることのできる神経回路網装置を得ることを目的として
いる。This invention was made to solve the above problems, and it is possible to increase the learning speed and improve the probability of converging to the global optimal solution instead of converging to the local optimal solution. The purpose is to obtain a network device.
[課題を解決するための手段]
この発明は、入力層、中間層、及び出力層を構成する複
数の神経素子を所定数毎に群分けした神経素子群と、神
経素子の出力の各々に結合係数を乗じて次の層の神経素
子へ出力する結合素子とを備え、入力層の神経素子に入
力データ、及び出力層の神経素子に出力データを学習デ
ータとしてあらかじめ設定し、入力層の神経素子の動作
状態は同一群内では実質的に同一に割り当て、中間層の
神経素子は各々而の層の神経素子と結合する結合素子を
介しての信号を総和演算しつつ出力層の神経素子におい
て演算出力を得、上記出力データと演算出力の二乗で定
義されるエネルギーを局所的に最小にするように構成し
たものである。[Means for Solving the Problems] The present invention provides a neural element group in which a plurality of neural elements constituting an input layer, an intermediate layer, and an output layer are divided into groups of a predetermined number, and a neural element group that is connected to each of the outputs of the neural elements. It is equipped with a coupling element that multiplies the result by a coefficient and outputs it to the neural element of the next layer.Input data is set in advance to the neural element of the input layer, and output data is set to the neural element of the output layer as learning data, and the neural element of the input layer is The operating states of the neural elements in the output layer are assigned substantially the same within the same group, and the neural elements in the intermediate layer perform summation calculations on the signals via the coupling elements that connect with the neural elements in the respective layers, while performing calculations in the neural elements in the output layer. The configuration is such that the energy defined by the output data and the square of the calculation output is locally minimized.
[作用]
この発明における神経回路網装置は、少なくとも入力層
の神経素子を冗長にし、これに共なって結合重みを冗長
にして結合することによって、等価的にニューロンの伝
達関数であるシグモイド関数の勾配を急にして学習を高
速にし、かつ、冗長にした結合重みが、大数の法則によ
って等価的に正規分布となり、大局的最適解に収束する
確率を向上する。[Operation] The neural network device according to the present invention makes at least the neural elements of the input layer redundant, and makes the connection weights redundant and connects them, thereby equivalently achieving a sigmoid function which is a neuron transfer function. The gradient is made steeper to speed up learning, and the redundant connection weights become equivalently normally distributed according to the law of large numbers, improving the probability of convergence to a globally optimal solution.
[実施例]
第1図は、この発明の一実施例による神経回路網装置の
構成を示す説明図である1図において、+II)は生体
の神経細胞を模擬する素子(以下、神経素子と呼ぶ)で
、(lla)は入力層を構成する神経素子で例えば6つ
の入力層神経素子、(llb)は中間層を構成する神経
素子で例えば4つの中間層神経素子、 (llc)は出
力層を構成する神経素子で例えば1つの出力層神経素子
である。 (12)は神経素子+I I)間のシナプス
を模擬する素子(以下、結合素子と呼ぶ)で、その結合
の強さを結合重みと呼ぶ。[Embodiment] FIG. 1 is an explanatory diagram showing the configuration of a neural network device according to an embodiment of the present invention. In FIG. ), (lla) is the neural element that constitutes the input layer, for example, six input layer neural elements, (llb) is the neural element that constitutes the intermediate layer, for example, four intermediate layer neural elements, and (llc) is the output layer. The constituent neural elements are, for example, one output layer neural element. (12) is an element (hereinafter referred to as a coupling element) that simulates a synapse between neural elements +II), and the strength of the coupling is called a coupling weight.
この回路網において、入力層の神経素子(l la)に
は2重の冗長性を持たしており、神経素子V′(■ と
神経素子Vl、imlは同一の神経素子群を構成する。In this circuit network, the input layer neural element (l la) has double redundancy, and the neural element V' (■) and the neural elements Vl and iml constitute the same neural element group.
神経素子Vl+I+ と神経素子y11!1神経素子v
′(1)と神経素子Vlll′も同様に同一の神経素子
群を構成する。この冗長化したニューロンの出力は全て
同一とし、即ち、入力層の神経素子(lla)の動作状
態は同一群内では実質的に同一に割り当てている。この
実施例では中間層を構成する第29 (llb)のニュ
ーロンにも第1層と同様に二重の冗長性を持たしている
。但し、第2層目(1lb)では、入力層(lla)の
ように冗長化したニューロンの出力は同一とは限らない
、出力層(I Ic)では冗長化は不要である。又、冗
長化した入力層(l la)に共゛なって、結合重みも
冗長化している0図において、入力層(11a)から出
力層(l lc)への信号の流れは、神経素子(I l
)と結合重み(12)が冗長になったほかは従来と同様
である。即ちmを冗長化の数とすると、ufi、1ml
を第り層の5番目の神経素子の内部状態、Vll、1
111を第り層の5番目の神経素子の出力値、Wl+、
、1mlを第り層の第1番目の神経素子と第h+1層に
おける第j番目の神経素子との間の結合重みとする。学
習デー夕の入力データは、入力層(lla)での出力t
tiv’11 と同じである。Neural element Vl+I+ and neural element y11!1 neural element v
'(1) and neural element Vllll' similarly constitute the same neural element group. The outputs of these redundant neurons are all the same, that is, the operating states of the neural elements (lla) in the input layer are assigned substantially the same within the same group. In this embodiment, the 29th (llb) neuron constituting the intermediate layer also has double redundancy like the first layer. However, in the second layer (1lb), the outputs of neurons made redundant like the input layer (lla) are not necessarily the same, and redundancy is not necessary in the output layer (I Ic). In addition, in Figure 0, where the connection weights are also redundant along with the redundant input layer (l la), the signal flow from the input layer (11a) to the output layer (l lc) is controlled by the neural element ( I l
) and connection weight (12) are now redundant, but are the same as before. That is, if m is the number of redundancies, ufi, 1ml
is the internal state of the fifth neural element in the second layer, Vll, 1
111 is the output value of the fifth neural element of the th layer, Wl+,
, 1ml is the connection weight between the first neural element in the th layer and the jth neural element in the h+1th layer. The input data of the learning data is the output t of the input layer (lla)
Same as tiv'11.
第1図に示す例では、第2表に示すような構成としてい
る。また、各変数の関係は式(11)、式(12)のよ
うになる、ここで、関数gは微分り能で非減少な関数で
あれば良く、−例として式(Is)を用いる。In the example shown in FIG. 1, the configuration is as shown in Table 2. Moreover, the relationship between each variable is as shown in Equation (11) and Equation (12), where the function g may be a non-decreasing function with differentiability, and the equation (Is) is used as an example.
第2表
uh、l@l==ΣW11−1.、 lal V h−
t、 161 ・・(ll)Vll lal =
:g (uhJl”l ) −・、 ・
++2)g (x) =1/ (1+qxp (
−x)l −−(+31さらに、結合重み(W)は
式(14)に示す学習則で逐次的に決定される。即ち、
出力層(l Ic)における学習データと、神経回路網
によって実際に得られた演算出力で定義される二乗誤差
に関する最急降下法を用いて決定される。神経回路網の
層の数をHとすると、二乗誤差(以下でエネルギーとい
うこともある)は式(14)に様になる。Table 2 uh, l@l==ΣW11-1. , lal V h-
t, 161...(ll) Vll lal =
:g (uhJl”l) −・、・
++2)g (x) =1/ (1+qxp (
−x)l −−(+31 Furthermore, the connection weight (W) is sequentially determined by the learning rule shown in equation (14). That is,
It is determined using the steepest descent method regarding the squared error defined by the learning data in the output layer (l Ic) and the calculation output actually obtained by the neural network. When the number of layers of the neural network is H, the squared error (hereinafter also referred to as energy) is expressed as in equation (14).
E=(1/21ΣΣΣ(VH,161−d 、Ill@
l)I ・(14)又、結合重みの逐次変更はa、βを
適当なパラメータ、δ lhl lal1 を第り層、
i番目の神経素子における誤差(式(15) 、式(1
61)とし、モーメント法を使用した場合には式(17
)の学習方程式で実行できる8式(Is)、式(16)
において、h=Hの時は出力層における値を示している
。なお、この例ではI(= 3である。E=(1/21ΣΣΣ(VH, 161-d, Ill@
l) I (14) Also, to sequentially change the connection weights, a and β are appropriate parameters, δ lhl lal1 is the second layer,
Error in the i-th neural element (Equation (15), Equation (1)
61), and when using the method of moments, the equation (17
) can be executed using the learning equation (Is), equation (16)
In, when h=H, the value in the output layer is shown. Note that in this example, I (= 3).
5 、1111 lal、(d 、111+++1−v
ll、1m1)yH,(1−yH1′ml)ここで、′
i = l、 N 1111 lal ・・・(
15)δ ll+l lal = V l+、 ls
l (1−V h、 1m1)本I X: δ、 lh
lll lal whJ、 l+mlここで、i=I〜
N lhl lal 、 h= )(〜l・(Ic)d
” W”、11”’/dt” ÷(l −α)
d W ”Jr ”’ / dt=−βclE/
aWI″Jt”’ −−(17)例えば、式(
I7)の学習方程式の演算処理を行なうフローチャート
の一例を第2図に示す、ステップ(40)でt=iにお
ける結合重みW”J−−’と結合重みの更新量ΔWh
J、 l m lの初期値を一様乱数又は正規分布する
乱数によって設定する。この時、h=1〜2でb=1の
時i=1〜3.j=1〜2、h=2の時i=1〜2.j
=1の全てについて設定するのであるが、第2図には簡
単のため、h。5, 1111 lal, (d, 111+++1-v
ll, 1m1)yH, (1-yH1'ml) where,'
i = l, N 1111 lal...(
15) δ ll+l lal = V l+, ls
l (1-V h, 1m1) Book I X: δ, lh
lll lal whJ, l+ml where i=I~
N lhl lal, h= )(~l・(Ic)d
"W", 11"'/dt" ÷ (l - α)
d W ``Jr ''' / dt=-βclE/
aWI″Jt”′ --(17) For example, the formula (
An example of a flowchart for calculating the learning equation in step (40) is shown in FIG.
The initial values of J, l ml are set using uniform random numbers or normally distributed random numbers. At this time, when h=1 to 2 and b=1, i=1 to 3. When j=1-2, h=2, i=1-2. j
= 1, but for simplicity, h is shown in Figure 2.
j、iと記Mし、mについては入力層(lla) 、中
間層(llb)共にm = 2、出力層(llclでは
m=1とする。ステップ(41)でt=1として初期設
定する。ステップ(42)では誤差信号の初期値として
出力H(Ilc) ニオケルKM 5 t ”’ ””
k 式(15) Gl: J:って求める1次に逆伝播
法により、−層上の誤差信号から下の層の誤差信号を式
(16)に基いて求める(ステップ+43)) 、第3
図に逆伝播を示す。ステップ(44)では、モーメント
法により結合重みを更新する。このため、まず第り番の
重みの1+1における多値化したm番目の更新量△W”
、、1”″)(t+Bを式(18)で求める。j, i are written as M, and for m, m = 2 for both the input layer (lla) and the intermediate layer (llb), and m = 1 for the output layer (llcl). Initialize as t = 1 in step (41). In step (42), the output H (Ilc) is set as the initial value of the error signal.
k Equation (15) Gl: J: Using the linear backpropagation method, the error signal of the lower layer is obtained from the error signal on the - layer based on Equation (16) (step +43)), 3rd
The figure shows backpropagation. In step (44), the connection weights are updated by the method of moments. For this reason, first, the m-th update amount △W'' is multivalued at 1+1 of the weight of the
,,1'''')(t+B is determined by equation (18).
ΔW hJl ”’ (シ+’) =βδ +h*++
lal V h、 1ljl+αΔW”j、1”
(t) ・・(18)この式におけるα、βはあらか
じめ定めたパラメータである1次に、ΔW”、(”l
(t + t )を用いて新たな重みw”、、’″’(
し+i)を式(19)により求める。ΔW hJl ”'(shi+') =βδ +h*++
lal V h, 1ljl+αΔW"j, 1"
(t) ... (18) α and β in this equation are predetermined parameters of the first order, ΔW”, (”l
(t + t) to create new weights w",,'"'(
+i) is calculated using equation (19).
W”J、l”’ (t、+t)=w”jI”’ (t)
+ΔW”、”’ (h+t) ・・(19)ステップ
(45)では、前向きの伝播により式(I I) 。W"J, l"' (t, +t) = w"jI"' (t)
+ΔW","' (h+t)...(19) In step (45), equation (II) is obtained by forward propagation.
式(12)を用いて各層の内部状態u h l @ 1
.出力値Vll、1161 を演算し5、出力層Hにお
ける神経回路網の集合体としての出力V14J′1を求
める。この出力v8,1mlと学習データd+”” を
用いて式(14)を演算し、二乗誤差Eを求める。この
Eが充分小さいとき1例えばあらかじめ許容誤差Aを与
えておき、EとAとの大小関係を判定しくステップ(4
6]) 、 rEがA以下の時学習は終了とし、EがA
よりも大きい時はE=t+1 (ステップ+47) )
としてステップ(42)からの処理を繰り返す。Using equation (12), the internal state of each layer u h l @ 1
.. The output value Vll, 1161 is calculated 5, and the output V14J'1 as a collection of neural networks in the output layer H is determined. Equation (14) is calculated using this output v8, 1 ml and the learning data d+"" to obtain the squared error E. When this E is sufficiently small, step 1, for example, give a tolerance A in advance and judge the magnitude relationship between E and A.
6]) When rE is less than or equal to A, learning ends, and E becomes A.
If it is larger than E=t+1 (step+47))
The process from step (42) is repeated.
このように、上記実施例では少なくとも入力層の神経素
子(lla)を冗長にし、これに共なって結合重みを冗
長にして結合することによって、等価的にニエーロンの
伝達関数であるシグモイド関数の勾配を急にして学習を
高速にし、かつ、冗長にした結合重みが、大数の法則に
よって等価的に正規分布となり、大局的最適解に収束す
る確率を向上する。In this way, in the above embodiment, at least the neural elements (lla) of the input layer are made redundant, and the connection weights are made redundant and connected, thereby effectively reducing the gradient of the sigmoid function, which is equivalently Nieron's transfer function. The connection weights, which are made steeper to speed up learning and made redundant, have an equivalent normal distribution according to the law of large numbers, improving the probability of converging to a global optimal solution.
天際にXoRO問題として知られているものを実行した
。これは、学習データの入力データとしテV ’l=
O、V ’x= Ot7)時、出力データトシテV3、
;0、’v’、=o、v’、=oの時、出力データトシ
テV ’ t = Olv +、 = 0 、 V ’
−= 1 (7)時、出力データとt、てv’、=i、
V’l=1.V’、二〇(711時、出力データとして
V’l=1.V’、=1.V’□=1の時、出力データ
としてv’、=oを与えて学習させると、従来装置では
IO分程度かかっていたものが、この実施例による装置
では2分程度で学習できた。冗長性の度合いをDとすれ
ば、データの性質にもよるが、従来装置の速さのl、/
D+、’x程度で学習できるようになった。さらに、中
間層の神経素子に冗長性を持たせた際に同一群内では同
一の動作状態にしているが、同じでなく、完全に乱数で
定めた場合はこれより速くなる。We ran what is known as the XoRO problem. This is the input data of the learning data and TeV'l=
O, V 'x = Ot7), the output data is V3,
;0, 'v', = o, v', = o, output data value V' t = Olv +, = 0, V'
-= 1 (7) When the output data and t, tev', = i,
V'l=1. V', 20 (at 711, when output data V'l = 1.V', = 1.V'□ = 1, when learning is given v', = o as output data, the conventional device What used to take about IO minutes could be learned in about 2 minutes with the device according to this example.If the degree of redundancy is D, then the speed of the conventional device is l, //, depending on the nature of the data.
I was able to learn at around D+ and 'x. Furthermore, when providing redundancy to the neural elements in the middle layer, the operating states within the same group are the same, but if they are not the same and are determined completely using random numbers, the processing speed will be faster.
し発明の効果]
この発明は、入力層、中間層、及び出力層を構成する複
数の神経素子を所定数毎に群分けした神経素子群と、神
経素子の出力の各々に結合係数を乗じて次の層の神経素
子へ出力する結合素子とを備え、入力層の神経素子に入
力データ、及び出力層の神経素子に出力データを学習デ
ータとしてあらかじめ設定し、入力層の神経素子の動作
状態は同一群内では実質的に同一に割り当て、中間層の
神経素子は各々前の層の神経素子と結合する結合素子を
介しての信号を総和演算しつつ出力層の神経素子におい
て演算出力を得、」1記出力データと演算出力の二乗で
定義されるエネルギーを局所的に最小にするように構成
することにより、学習速度を速くでき、かつ、大局的最
適解に収束する確率が向上できる神経回路網装置を得る
ことができる効果がある。[Effects of the Invention] This invention provides neural element groups in which a plurality of neural elements constituting an input layer, an intermediate layer, and an output layer are divided into groups of a predetermined number, and each of the outputs of the neural elements is multiplied by a coupling coefficient. It is equipped with a coupling element that outputs to the neural element of the next layer, and input data to the neural element of the input layer and output data to the neural element of the output layer are set in advance as learning data, and the operating state of the neural element of the input layer is Substantially the same allocation is made within the same group, and each neural element in the intermediate layer performs a summation operation on signals via a coupling element that connects with the neural element in the previous layer, while obtaining a calculation output in the neural element in the output layer; ” A neural circuit that can increase the learning speed and improve the probability of converging to the global optimal solution by configuring it to locally minimize the energy defined by the output data and the square of the calculation output. There is an effect that a network device can be obtained.
It図はこの発明の一実施例による神経回路網装置の構
成を示す説明図、第2図はこの一実施例に係る学習方程
式を演算するフローチャート、第3図はこの一実施例に
係る誤差の逆伝播を示す説明図、第4図は従来の神経回
路網装置の構成を示す説明図、第5図は従来の装置に係
る学習方程式を演算するフローチャート、第6図は従来
の装置に係る誤差の逆伝播を示す説明図である。
(Ill・・・神経素子、(12)・・・結合素子。
なお、図中、同一符号は同一、又は相当部分を示す。The It diagram is an explanatory diagram showing the configuration of a neural network device according to an embodiment of the present invention, FIG. 2 is a flowchart for calculating a learning equation according to this embodiment, and FIG. An explanatory diagram showing backpropagation, Fig. 4 is an explanatory diagram showing the configuration of a conventional neural network device, Fig. 5 is a flowchart for calculating the learning equation related to the conventional device, and Fig. 6 is an error related to the conventional device. It is an explanatory diagram showing back propagation of. (Ill...neural element, (12)...coupling element. In the figures, the same reference numerals indicate the same or equivalent parts.
Claims (1)
子を所定数毎に群分けした神経素子群と、上記神経素子
の出力の各々に結合係数を乗じて次の層の神経素子へ出
力する結合素子とを備え、上記入力層の神経素子に入力
データ、及び上記出力層の神経素子に出力データを学習
データとしてあらかじめ設定し、上記入力層の神経素子
の動作状態は同一群内では実質的に同一に割り当て、上
記中間層の神経素子は各々前の層の神経素子と結合する
結合素子を介しての信号を総和演算しつつ上記出力層の
神経素子において演算出力を得、上記出力データと上記
演算出力の二乗で定義されるエネルギーを局所的に最小
にするように構成したことを特徴とする神経回路網装置
。A neural element group in which a plurality of neural elements constituting the input layer, intermediate layer, and output layer are divided into groups of a predetermined number, and the output of each of the neural elements is multiplied by a coupling coefficient and output to the neural element of the next layer. The input data to the neural elements in the input layer and the output data to the neural elements in the output layer are set in advance as learning data, and the operating states of the neural elements in the input layer are substantially the same within the same group. The neural elements in the intermediate layer each perform summation calculations on the signals via the coupling elements that connect with the neural elements in the previous layer, and obtain the calculation output in the neural elements in the output layer, and a neural network device configured to locally minimize energy defined by the square of the calculation output.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005189A JPH03210685A (en) | 1990-01-12 | 1990-01-12 | Neural network device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005189A JPH03210685A (en) | 1990-01-12 | 1990-01-12 | Neural network device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH03210685A true JPH03210685A (en) | 1991-09-13 |
Family
ID=11604275
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005189A Pending JPH03210685A (en) | 1990-01-12 | 1990-01-12 | Neural network device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH03210685A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5587897A (en) * | 1993-12-27 | 1996-12-24 | Nec Corporation | Optimization device |
-
1990
- 1990-01-12 JP JP2005189A patent/JPH03210685A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5587897A (en) * | 1993-12-27 | 1996-12-24 | Nec Corporation | Optimization device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Psaltis et al. | A multilayered neural network controller | |
| US5214743A (en) | Information processing apparatus | |
| CN102622515B (en) | A kind of weather prediction method | |
| Ye et al. | Dynamic system identification using recurrent radial basis function network | |
| JPH03210685A (en) | Neural network device | |
| JPH07121498A (en) | Method for constructing neural network | |
| US5586223A (en) | High speed segmented neural network and fabrication method | |
| JPH04237388A (en) | Neuro processor | |
| JPH05159087A (en) | Neuro Processor | |
| US5644681A (en) | Learning method for neural network having discrete interconnection strengths | |
| Tagliarini et al. | Learning in systematically designed networks | |
| JPH03210686A (en) | Neural network device | |
| JP2669626B2 (en) | Robot control system | |
| Wan et al. | Introducing cost-sensitive neural networks | |
| JPH05197707A (en) | Information processing system | |
| JP2654686B2 (en) | neural network | |
| Galushkin et al. | Neuromathematics: The methods of solving problems on neurocomputers | |
| JP2904832B2 (en) | Neural network device | |
| JPH0778787B2 (en) | Learning method in neural network | |
| JPH01173257A (en) | Network constituting data processor | |
| JPH03257658A (en) | Dynamic system modeling method for neural network | |
| KR19980074455A (en) | Neural network and implementation method | |
| JPH0736181B2 (en) | Neural network circuit | |
| JPH036769A (en) | Method and device for parallel simulation of neural network | |
| Homma et al. | Incremental Neural Learning by Dynamic and Spatial Changing Weights |