JPH03210685A - 神経回路網装置 - Google Patents
神経回路網装置Info
- Publication number
- JPH03210685A JPH03210685A JP2005189A JP518990A JPH03210685A JP H03210685 A JPH03210685 A JP H03210685A JP 2005189 A JP2005189 A JP 2005189A JP 518990 A JP518990 A JP 518990A JP H03210685 A JPH03210685 A JP H03210685A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- neural
- output
- equation
- elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
[産業上の利用分野]
この発明は、生体の神経細胞とその間の結合を模擬して
記憶、推論1判断、予測、計画、制御。
記憶、推論1判断、予測、計画、制御。
パターン認識、Wi通化などを行なう神経回路網装置に
関するものである。
関するものである。
[従来の技術]
第4図は、例えば、「ニューラルコンピュータ」合原−
幸著、東京電機大字出版局、 1988年、第110頁
〜第114頁に掲載された従来のフィードフォワード型
の神経回路網装置の構成を示す説明図である0図におい
て、(lりは生体の神経細胞を模擬する素子(以下、神
経素子と呼ぶ)で、(lla)は入力層を構成する神経
素子で例えば3つの入力層神経素子、 (iib)は中
間層を構成する神経素子で例えば2つの中間層神経素子
、 (Ilc)は出力層を構成する神経素子で例えば1
つの出力層神経素子である。 (12)は神経素子(1
11間のシナプスを模擬する素子(以下、結合素子と呼
ぶ)で、その結合の強さを結合重みと呼ぶ。
幸著、東京電機大字出版局、 1988年、第110頁
〜第114頁に掲載された従来のフィードフォワード型
の神経回路網装置の構成を示す説明図である0図におい
て、(lりは生体の神経細胞を模擬する素子(以下、神
経素子と呼ぶ)で、(lla)は入力層を構成する神経
素子で例えば3つの入力層神経素子、 (iib)は中
間層を構成する神経素子で例えば2つの中間層神経素子
、 (Ilc)は出力層を構成する神経素子で例えば1
つの出力層神経素子である。 (12)は神経素子(1
11間のシナプスを模擬する素子(以下、結合素子と呼
ぶ)で、その結合の強さを結合重みと呼ぶ。
この回路網において、神経素子(!鳳)は層状に結合さ
れており、グイナミクスとしては、入力層(lla)か
ら入った入力信号は中間層(tub)を介して出力Jf
l(IIG+に伝搬されていく、定量的には以下のよう
になる。学習データとして入力データと出力データの対
をあらかじめ与えるed+’を出力層における第2番目
の学習データの第i番目の出力データ、uh、を第り層
の5番目の神経素子(11)の内部状態、■1.を第り
層のjl)目の神経素子+111の出力値、WhJ、を
第り層の第i番目の神経素子1ll)と第h+1層にお
ける第一番目の神経素子(ll)との間の結合重みとす
る。学習データの入力データは、入力層(! Ialで
の出力(i V ’ jと同じである。
れており、グイナミクスとしては、入力層(lla)か
ら入った入力信号は中間層(tub)を介して出力Jf
l(IIG+に伝搬されていく、定量的には以下のよう
になる。学習データとして入力データと出力データの対
をあらかじめ与えるed+’を出力層における第2番目
の学習データの第i番目の出力データ、uh、を第り層
の5番目の神経素子(11)の内部状態、■1.を第り
層のjl)目の神経素子+111の出力値、WhJ、を
第り層の第i番目の神経素子1ll)と第h+1層にお
ける第一番目の神経素子(ll)との間の結合重みとす
る。学習データの入力データは、入力層(! Ialで
の出力(i V ’ jと同じである。
第4図に示す例において、各添字は第1表に示すような
構成としている。また、各変数の関係は式(1)3式(
2)のようになる、ここで、関数gは微分可能で非減少
な関数であれば良く、−例として式(3)を用いる。
構成としている。また、各変数の関係は式(1)3式(
2)のようになる、ここで、関数gは微分可能で非減少
な関数であれば良く、−例として式(3)を用いる。
uIIJ=Σw”−’Jtv”−’、 −−−(
+)V”J=g (u”i) ・・・(
2)g (x) = 1/ (1+exp (−xl)
・・(31第1表 さらに、結合重み(W)は式(4)に示す学習則で逐次
的に決定される。即ち、出力層(l lc)における学
習データと、神経回路網によって冥際に得られた演算出
力で定義される二乗誤差に関する最急降下法を用いて決
定される。神経回路網の層の数をHとすると、二乗誤差
(以下でエネルギーということもある)は式(4)に様
になる。
+)V”J=g (u”i) ・・・(
2)g (x) = 1/ (1+exp (−xl)
・・(31第1表 さらに、結合重み(W)は式(4)に示す学習則で逐次
的に決定される。即ち、出力層(l lc)における学
習データと、神経回路網によって冥際に得られた演算出
力で定義される二乗誤差に関する最急降下法を用いて決
定される。神経回路網の層の数をHとすると、二乗誤差
(以下でエネルギーということもある)は式(4)に様
になる。
E= (1/2)X:I (V’、−di’) ”
−−+41又、結合重みの逐次変更はα、βを適当なパ
ラメータ、δ lhlを第り層、i番目の神経素子にお
ける誤差(式(5)9式(6))とし、モーメント法を
使用した場合には式(7)の学習方程式で実行できる0
式(5)1式(6)において、h = Hの時は出力層
における値を示している。なお、この例では1■=3で
ある。N′1は第h@における神経素子の数である。
−−+41又、結合重みの逐次変更はα、βを適当なパ
ラメータ、δ lhlを第り層、i番目の神経素子にお
ける誤差(式(5)9式(6))とし、モーメント法を
使用した場合には式(7)の学習方程式で実行できる0
式(5)1式(6)において、h = Hの時は出力層
における値を示している。なお、この例では1■=3で
ある。N′1は第h@における神経素子の数である。
δ、”’= (ct 、’−V’、) V’、 (1−
V”、)ここで、i = l、 N tl′ll
・・・(5)δ1”””V”1(1−V”+)X5
4′h”’W”1ここで、i=l〜NLh1.h=1■
〜l・・(6)d ” whJt /dt、” + (
1−α) a W ”J l / at=−βaE/a
Wl″1 ・・(7)例えば、式(7)の学習
方程式を現在のノイマン型計算機で実行しようとすると
、計算機はディジタルなので、方程式を差分化して逐次
実行する必要があるが、この処理を行なうフローチャー
トの一例を第5図に示す、ステップ(30)でL=1に
おける結合重みW″1と結合重みの更新量ΔWhJ、の
初期値を一様乱数又は正規分布する乱数によって設定す
る。この時、h=1〜2でh=tの時i=1〜3.j=
1〜2、h=2の時i=1〜2.J=lの全てについて
設定するのであるが、第5図には簡単のため、h、j、
iと記述する。ステップ(3■)でし=1として初期設
定する。ステップ(32)では誤差信号の初期値として
出力層(11c)における誤差δ II+を式(5)に
よって求める0次に逆伝播法を用いて、−層上の誤差信
号から下の層の誤差信号を式(6)に基いて求める(ス
テップ(33))、この逆伝播を第6図に示す、ステッ
プ(34)では、モーメント法により結合重みを更新す
る。このため、まず第り番の重みのし+1における更新
IΔW”JI(七十1)を式(8)で求める。
V”、)ここで、i = l、 N tl′ll
・・・(5)δ1”””V”1(1−V”+)X5
4′h”’W”1ここで、i=l〜NLh1.h=1■
〜l・・(6)d ” whJt /dt、” + (
1−α) a W ”J l / at=−βaE/a
Wl″1 ・・(7)例えば、式(7)の学習
方程式を現在のノイマン型計算機で実行しようとすると
、計算機はディジタルなので、方程式を差分化して逐次
実行する必要があるが、この処理を行なうフローチャー
トの一例を第5図に示す、ステップ(30)でL=1に
おける結合重みW″1と結合重みの更新量ΔWhJ、の
初期値を一様乱数又は正規分布する乱数によって設定す
る。この時、h=1〜2でh=tの時i=1〜3.j=
1〜2、h=2の時i=1〜2.J=lの全てについて
設定するのであるが、第5図には簡単のため、h、j、
iと記述する。ステップ(3■)でし=1として初期設
定する。ステップ(32)では誤差信号の初期値として
出力層(11c)における誤差δ II+を式(5)に
よって求める0次に逆伝播法を用いて、−層上の誤差信
号から下の層の誤差信号を式(6)に基いて求める(ス
テップ(33))、この逆伝播を第6図に示す、ステッ
プ(34)では、モーメント法により結合重みを更新す
る。このため、まず第り番の重みのし+1における更新
IΔW”JI(七十1)を式(8)で求める。
ΔW”JI (t + 1 ) = (J 6 J”
”’V”+06w”Jt (t) ・・(8)この
式におけるα、βはあらかじめ定めたパラメータである
0次に、ΔW ”a+ (シ+ 1 )を用いて新た
な重みW”JI (t、 + 1 )を式(9)によ
り求める。
”’V”+06w”Jt (t) ・・(8)この
式におけるα、βはあらかじめ定めたパラメータである
0次に、ΔW ”a+ (シ+ 1 )を用いて新た
な重みW”JI (t、 + 1 )を式(9)によ
り求める。
W”JI (t−z)=W”JI (t)+Δw”
、t (t+1) ・・(9)ステップ(35)で
は、前向きの伝播により式(1)式(2)を用いて各層
の内部状態u h J、出力値VhJを演算し、出力層
Hにおける神経回路網の集合体としての出力VH,を求
める。この出力vHJと7習データd+’を用いて式(
4)を演算し、二乗誤差Eを求める。このEが充分小さ
いとき、例えばあらかじめ許容誤差Aを与えておき、E
とAとの大小関係を判定しくステップ+36)) 、
EがA以下の時は学習は終了とし、EがAよりも大きい
時はL=t+1 (ステップ(37))としてステップ
(32)からの処理を繰り返す。
、t (t+1) ・・(9)ステップ(35)で
は、前向きの伝播により式(1)式(2)を用いて各層
の内部状態u h J、出力値VhJを演算し、出力層
Hにおける神経回路網の集合体としての出力VH,を求
める。この出力vHJと7習データd+’を用いて式(
4)を演算し、二乗誤差Eを求める。このEが充分小さ
いとき、例えばあらかじめ許容誤差Aを与えておき、E
とAとの大小関係を判定しくステップ+36)) 、
EがA以下の時は学習は終了とし、EがAよりも大きい
時はL=t+1 (ステップ(37))としてステップ
(32)からの処理を繰り返す。
[発明が解決しようとする課題]
従来の神経回路網装置は以上のように構成されており、
集合体としての誤差Eが誤差の許容値A以下になるのが
遅く、学習の速度が遅かった。さらに、誤差Eが許容値
A以下にならず、局所最適解に収束してしまうという問
題点があった。
集合体としての誤差Eが誤差の許容値A以下になるのが
遅く、学習の速度が遅かった。さらに、誤差Eが許容値
A以下にならず、局所最適解に収束してしまうという問
題点があった。
この発明は上記のような問題点を解決するためになされ
たもので、学習速度を速くでき、さらに局所最適解に収
束するかわりに、大局的最適解に収束する確率を向上す
ることのできる神経回路網装置を得ることを目的として
いる。
たもので、学習速度を速くでき、さらに局所最適解に収
束するかわりに、大局的最適解に収束する確率を向上す
ることのできる神経回路網装置を得ることを目的として
いる。
[課題を解決するための手段]
この発明は、入力層、中間層、及び出力層を構成する複
数の神経素子を所定数毎に群分けした神経素子群と、神
経素子の出力の各々に結合係数を乗じて次の層の神経素
子へ出力する結合素子とを備え、入力層の神経素子に入
力データ、及び出力層の神経素子に出力データを学習デ
ータとしてあらかじめ設定し、入力層の神経素子の動作
状態は同一群内では実質的に同一に割り当て、中間層の
神経素子は各々而の層の神経素子と結合する結合素子を
介しての信号を総和演算しつつ出力層の神経素子におい
て演算出力を得、上記出力データと演算出力の二乗で定
義されるエネルギーを局所的に最小にするように構成し
たものである。
数の神経素子を所定数毎に群分けした神経素子群と、神
経素子の出力の各々に結合係数を乗じて次の層の神経素
子へ出力する結合素子とを備え、入力層の神経素子に入
力データ、及び出力層の神経素子に出力データを学習デ
ータとしてあらかじめ設定し、入力層の神経素子の動作
状態は同一群内では実質的に同一に割り当て、中間層の
神経素子は各々而の層の神経素子と結合する結合素子を
介しての信号を総和演算しつつ出力層の神経素子におい
て演算出力を得、上記出力データと演算出力の二乗で定
義されるエネルギーを局所的に最小にするように構成し
たものである。
[作用]
この発明における神経回路網装置は、少なくとも入力層
の神経素子を冗長にし、これに共なって結合重みを冗長
にして結合することによって、等価的にニューロンの伝
達関数であるシグモイド関数の勾配を急にして学習を高
速にし、かつ、冗長にした結合重みが、大数の法則によ
って等価的に正規分布となり、大局的最適解に収束する
確率を向上する。
の神経素子を冗長にし、これに共なって結合重みを冗長
にして結合することによって、等価的にニューロンの伝
達関数であるシグモイド関数の勾配を急にして学習を高
速にし、かつ、冗長にした結合重みが、大数の法則によ
って等価的に正規分布となり、大局的最適解に収束する
確率を向上する。
[実施例]
第1図は、この発明の一実施例による神経回路網装置の
構成を示す説明図である1図において、+II)は生体
の神経細胞を模擬する素子(以下、神経素子と呼ぶ)で
、(lla)は入力層を構成する神経素子で例えば6つ
の入力層神経素子、(llb)は中間層を構成する神経
素子で例えば4つの中間層神経素子、 (llc)は出
力層を構成する神経素子で例えば1つの出力層神経素子
である。 (12)は神経素子+I I)間のシナプス
を模擬する素子(以下、結合素子と呼ぶ)で、その結合
の強さを結合重みと呼ぶ。
構成を示す説明図である1図において、+II)は生体
の神経細胞を模擬する素子(以下、神経素子と呼ぶ)で
、(lla)は入力層を構成する神経素子で例えば6つ
の入力層神経素子、(llb)は中間層を構成する神経
素子で例えば4つの中間層神経素子、 (llc)は出
力層を構成する神経素子で例えば1つの出力層神経素子
である。 (12)は神経素子+I I)間のシナプス
を模擬する素子(以下、結合素子と呼ぶ)で、その結合
の強さを結合重みと呼ぶ。
この回路網において、入力層の神経素子(l la)に
は2重の冗長性を持たしており、神経素子V′(■ と
神経素子Vl、imlは同一の神経素子群を構成する。
は2重の冗長性を持たしており、神経素子V′(■ と
神経素子Vl、imlは同一の神経素子群を構成する。
神経素子Vl+I+ と神経素子y11!1神経素子v
′(1)と神経素子Vlll′も同様に同一の神経素子
群を構成する。この冗長化したニューロンの出力は全て
同一とし、即ち、入力層の神経素子(lla)の動作状
態は同一群内では実質的に同一に割り当てている。この
実施例では中間層を構成する第29 (llb)のニュ
ーロンにも第1層と同様に二重の冗長性を持たしている
。但し、第2層目(1lb)では、入力層(lla)の
ように冗長化したニューロンの出力は同一とは限らない
、出力層(I Ic)では冗長化は不要である。又、冗
長化した入力層(l la)に共゛なって、結合重みも
冗長化している0図において、入力層(11a)から出
力層(l lc)への信号の流れは、神経素子(I l
)と結合重み(12)が冗長になったほかは従来と同様
である。即ちmを冗長化の数とすると、ufi、1ml
を第り層の5番目の神経素子の内部状態、Vll、1
111を第り層の5番目の神経素子の出力値、Wl+、
、1mlを第り層の第1番目の神経素子と第h+1層に
おける第j番目の神経素子との間の結合重みとする。学
習デー夕の入力データは、入力層(lla)での出力t
tiv’11 と同じである。
′(1)と神経素子Vlll′も同様に同一の神経素子
群を構成する。この冗長化したニューロンの出力は全て
同一とし、即ち、入力層の神経素子(lla)の動作状
態は同一群内では実質的に同一に割り当てている。この
実施例では中間層を構成する第29 (llb)のニュ
ーロンにも第1層と同様に二重の冗長性を持たしている
。但し、第2層目(1lb)では、入力層(lla)の
ように冗長化したニューロンの出力は同一とは限らない
、出力層(I Ic)では冗長化は不要である。又、冗
長化した入力層(l la)に共゛なって、結合重みも
冗長化している0図において、入力層(11a)から出
力層(l lc)への信号の流れは、神経素子(I l
)と結合重み(12)が冗長になったほかは従来と同様
である。即ちmを冗長化の数とすると、ufi、1ml
を第り層の5番目の神経素子の内部状態、Vll、1
111を第り層の5番目の神経素子の出力値、Wl+、
、1mlを第り層の第1番目の神経素子と第h+1層に
おける第j番目の神経素子との間の結合重みとする。学
習デー夕の入力データは、入力層(lla)での出力t
tiv’11 と同じである。
第1図に示す例では、第2表に示すような構成としてい
る。また、各変数の関係は式(11)、式(12)のよ
うになる、ここで、関数gは微分り能で非減少な関数で
あれば良く、−例として式(Is)を用いる。
る。また、各変数の関係は式(11)、式(12)のよ
うになる、ここで、関数gは微分り能で非減少な関数で
あれば良く、−例として式(Is)を用いる。
第2表
uh、l@l==ΣW11−1.、 lal V h−
t、 161 ・・(ll)Vll lal =
:g (uhJl”l ) −・、 ・
++2)g (x) =1/ (1+qxp (
−x)l −−(+31さらに、結合重み(W)は
式(14)に示す学習則で逐次的に決定される。即ち、
出力層(l Ic)における学習データと、神経回路網
によって実際に得られた演算出力で定義される二乗誤差
に関する最急降下法を用いて決定される。神経回路網の
層の数をHとすると、二乗誤差(以下でエネルギーとい
うこともある)は式(14)に様になる。
t、 161 ・・(ll)Vll lal =
:g (uhJl”l ) −・、 ・
++2)g (x) =1/ (1+qxp (
−x)l −−(+31さらに、結合重み(W)は
式(14)に示す学習則で逐次的に決定される。即ち、
出力層(l Ic)における学習データと、神経回路網
によって実際に得られた演算出力で定義される二乗誤差
に関する最急降下法を用いて決定される。神経回路網の
層の数をHとすると、二乗誤差(以下でエネルギーとい
うこともある)は式(14)に様になる。
E=(1/21ΣΣΣ(VH,161−d 、Ill@
l)I ・(14)又、結合重みの逐次変更はa、βを
適当なパラメータ、δ lhl lal1 を第り層、
i番目の神経素子における誤差(式(15) 、式(1
61)とし、モーメント法を使用した場合には式(17
)の学習方程式で実行できる8式(Is)、式(16)
において、h=Hの時は出力層における値を示している
。なお、この例ではI(= 3である。
l)I ・(14)又、結合重みの逐次変更はa、βを
適当なパラメータ、δ lhl lal1 を第り層、
i番目の神経素子における誤差(式(15) 、式(1
61)とし、モーメント法を使用した場合には式(17
)の学習方程式で実行できる8式(Is)、式(16)
において、h=Hの時は出力層における値を示している
。なお、この例ではI(= 3である。
5 、1111 lal、(d 、111+++1−v
ll、1m1)yH,(1−yH1′ml)ここで、′
i = l、 N 1111 lal ・・・(
15)δ ll+l lal = V l+、 ls
l (1−V h、 1m1)本I X: δ、 lh
lll lal whJ、 l+mlここで、i=I〜
N lhl lal 、 h= )(〜l・(Ic)d
” W”、11”’/dt” ÷(l −α)
d W ”Jr ”’ / dt=−βclE/
aWI″Jt”’ −−(17)例えば、式(
I7)の学習方程式の演算処理を行なうフローチャート
の一例を第2図に示す、ステップ(40)でt=iにお
ける結合重みW”J−−’と結合重みの更新量ΔWh
J、 l m lの初期値を一様乱数又は正規分布する
乱数によって設定する。この時、h=1〜2でb=1の
時i=1〜3.j=1〜2、h=2の時i=1〜2.j
=1の全てについて設定するのであるが、第2図には簡
単のため、h。
ll、1m1)yH,(1−yH1′ml)ここで、′
i = l、 N 1111 lal ・・・(
15)δ ll+l lal = V l+、 ls
l (1−V h、 1m1)本I X: δ、 lh
lll lal whJ、 l+mlここで、i=I〜
N lhl lal 、 h= )(〜l・(Ic)d
” W”、11”’/dt” ÷(l −α)
d W ”Jr ”’ / dt=−βclE/
aWI″Jt”’ −−(17)例えば、式(
I7)の学習方程式の演算処理を行なうフローチャート
の一例を第2図に示す、ステップ(40)でt=iにお
ける結合重みW”J−−’と結合重みの更新量ΔWh
J、 l m lの初期値を一様乱数又は正規分布する
乱数によって設定する。この時、h=1〜2でb=1の
時i=1〜3.j=1〜2、h=2の時i=1〜2.j
=1の全てについて設定するのであるが、第2図には簡
単のため、h。
j、iと記Mし、mについては入力層(lla) 、中
間層(llb)共にm = 2、出力層(llclでは
m=1とする。ステップ(41)でt=1として初期設
定する。ステップ(42)では誤差信号の初期値として
出力H(Ilc) ニオケルKM 5 t ”’ ””
k 式(15) Gl: J:って求める1次に逆伝播
法により、−層上の誤差信号から下の層の誤差信号を式
(16)に基いて求める(ステップ+43)) 、第3
図に逆伝播を示す。ステップ(44)では、モーメント
法により結合重みを更新する。このため、まず第り番の
重みの1+1における多値化したm番目の更新量△W”
、、1”″)(t+Bを式(18)で求める。
間層(llb)共にm = 2、出力層(llclでは
m=1とする。ステップ(41)でt=1として初期設
定する。ステップ(42)では誤差信号の初期値として
出力H(Ilc) ニオケルKM 5 t ”’ ””
k 式(15) Gl: J:って求める1次に逆伝播
法により、−層上の誤差信号から下の層の誤差信号を式
(16)に基いて求める(ステップ+43)) 、第3
図に逆伝播を示す。ステップ(44)では、モーメント
法により結合重みを更新する。このため、まず第り番の
重みの1+1における多値化したm番目の更新量△W”
、、1”″)(t+Bを式(18)で求める。
ΔW hJl ”’ (シ+’) =βδ +h*++
lal V h、 1ljl+αΔW”j、1”
(t) ・・(18)この式におけるα、βはあらか
じめ定めたパラメータである1次に、ΔW”、(”l
(t + t )を用いて新たな重みw”、、’″’(
し+i)を式(19)により求める。
lal V h、 1ljl+αΔW”j、1”
(t) ・・(18)この式におけるα、βはあらか
じめ定めたパラメータである1次に、ΔW”、(”l
(t + t )を用いて新たな重みw”、、’″’(
し+i)を式(19)により求める。
W”J、l”’ (t、+t)=w”jI”’ (t)
+ΔW”、”’ (h+t) ・・(19)ステップ
(45)では、前向きの伝播により式(I I) 。
+ΔW”、”’ (h+t) ・・(19)ステップ
(45)では、前向きの伝播により式(I I) 。
式(12)を用いて各層の内部状態u h l @ 1
.出力値Vll、1161 を演算し5、出力層Hにお
ける神経回路網の集合体としての出力V14J′1を求
める。この出力v8,1mlと学習データd+”” を
用いて式(14)を演算し、二乗誤差Eを求める。この
Eが充分小さいとき1例えばあらかじめ許容誤差Aを与
えておき、EとAとの大小関係を判定しくステップ(4
6]) 、 rEがA以下の時学習は終了とし、EがA
よりも大きい時はE=t+1 (ステップ+47) )
としてステップ(42)からの処理を繰り返す。
.出力値Vll、1161 を演算し5、出力層Hにお
ける神経回路網の集合体としての出力V14J′1を求
める。この出力v8,1mlと学習データd+”” を
用いて式(14)を演算し、二乗誤差Eを求める。この
Eが充分小さいとき1例えばあらかじめ許容誤差Aを与
えておき、EとAとの大小関係を判定しくステップ(4
6]) 、 rEがA以下の時学習は終了とし、EがA
よりも大きい時はE=t+1 (ステップ+47) )
としてステップ(42)からの処理を繰り返す。
このように、上記実施例では少なくとも入力層の神経素
子(lla)を冗長にし、これに共なって結合重みを冗
長にして結合することによって、等価的にニエーロンの
伝達関数であるシグモイド関数の勾配を急にして学習を
高速にし、かつ、冗長にした結合重みが、大数の法則に
よって等価的に正規分布となり、大局的最適解に収束す
る確率を向上する。
子(lla)を冗長にし、これに共なって結合重みを冗
長にして結合することによって、等価的にニエーロンの
伝達関数であるシグモイド関数の勾配を急にして学習を
高速にし、かつ、冗長にした結合重みが、大数の法則に
よって等価的に正規分布となり、大局的最適解に収束す
る確率を向上する。
天際にXoRO問題として知られているものを実行した
。これは、学習データの入力データとしテV ’l=
O、V ’x= Ot7)時、出力データトシテV3、
;0、’v’、=o、v’、=oの時、出力データトシ
テV ’ t = Olv +、 = 0 、 V ’
−= 1 (7)時、出力データとt、てv’、=i、
V’l=1.V’、二〇(711時、出力データとして
V’l=1.V’、=1.V’□=1の時、出力データ
としてv’、=oを与えて学習させると、従来装置では
IO分程度かかっていたものが、この実施例による装置
では2分程度で学習できた。冗長性の度合いをDとすれ
ば、データの性質にもよるが、従来装置の速さのl、/
D+、’x程度で学習できるようになった。さらに、中
間層の神経素子に冗長性を持たせた際に同一群内では同
一の動作状態にしているが、同じでなく、完全に乱数で
定めた場合はこれより速くなる。
。これは、学習データの入力データとしテV ’l=
O、V ’x= Ot7)時、出力データトシテV3、
;0、’v’、=o、v’、=oの時、出力データトシ
テV ’ t = Olv +、 = 0 、 V ’
−= 1 (7)時、出力データとt、てv’、=i、
V’l=1.V’、二〇(711時、出力データとして
V’l=1.V’、=1.V’□=1の時、出力データ
としてv’、=oを与えて学習させると、従来装置では
IO分程度かかっていたものが、この実施例による装置
では2分程度で学習できた。冗長性の度合いをDとすれ
ば、データの性質にもよるが、従来装置の速さのl、/
D+、’x程度で学習できるようになった。さらに、中
間層の神経素子に冗長性を持たせた際に同一群内では同
一の動作状態にしているが、同じでなく、完全に乱数で
定めた場合はこれより速くなる。
し発明の効果]
この発明は、入力層、中間層、及び出力層を構成する複
数の神経素子を所定数毎に群分けした神経素子群と、神
経素子の出力の各々に結合係数を乗じて次の層の神経素
子へ出力する結合素子とを備え、入力層の神経素子に入
力データ、及び出力層の神経素子に出力データを学習デ
ータとしてあらかじめ設定し、入力層の神経素子の動作
状態は同一群内では実質的に同一に割り当て、中間層の
神経素子は各々前の層の神経素子と結合する結合素子を
介しての信号を総和演算しつつ出力層の神経素子におい
て演算出力を得、」1記出力データと演算出力の二乗で
定義されるエネルギーを局所的に最小にするように構成
することにより、学習速度を速くでき、かつ、大局的最
適解に収束する確率が向上できる神経回路網装置を得る
ことができる効果がある。
数の神経素子を所定数毎に群分けした神経素子群と、神
経素子の出力の各々に結合係数を乗じて次の層の神経素
子へ出力する結合素子とを備え、入力層の神経素子に入
力データ、及び出力層の神経素子に出力データを学習デ
ータとしてあらかじめ設定し、入力層の神経素子の動作
状態は同一群内では実質的に同一に割り当て、中間層の
神経素子は各々前の層の神経素子と結合する結合素子を
介しての信号を総和演算しつつ出力層の神経素子におい
て演算出力を得、」1記出力データと演算出力の二乗で
定義されるエネルギーを局所的に最小にするように構成
することにより、学習速度を速くでき、かつ、大局的最
適解に収束する確率が向上できる神経回路網装置を得る
ことができる効果がある。
It図はこの発明の一実施例による神経回路網装置の構
成を示す説明図、第2図はこの一実施例に係る学習方程
式を演算するフローチャート、第3図はこの一実施例に
係る誤差の逆伝播を示す説明図、第4図は従来の神経回
路網装置の構成を示す説明図、第5図は従来の装置に係
る学習方程式を演算するフローチャート、第6図は従来
の装置に係る誤差の逆伝播を示す説明図である。 (Ill・・・神経素子、(12)・・・結合素子。 なお、図中、同一符号は同一、又は相当部分を示す。
成を示す説明図、第2図はこの一実施例に係る学習方程
式を演算するフローチャート、第3図はこの一実施例に
係る誤差の逆伝播を示す説明図、第4図は従来の神経回
路網装置の構成を示す説明図、第5図は従来の装置に係
る学習方程式を演算するフローチャート、第6図は従来
の装置に係る誤差の逆伝播を示す説明図である。 (Ill・・・神経素子、(12)・・・結合素子。 なお、図中、同一符号は同一、又は相当部分を示す。
Claims (1)
- 入力層、中間層、及び出力層を構成する複数の神経素
子を所定数毎に群分けした神経素子群と、上記神経素子
の出力の各々に結合係数を乗じて次の層の神経素子へ出
力する結合素子とを備え、上記入力層の神経素子に入力
データ、及び上記出力層の神経素子に出力データを学習
データとしてあらかじめ設定し、上記入力層の神経素子
の動作状態は同一群内では実質的に同一に割り当て、上
記中間層の神経素子は各々前の層の神経素子と結合する
結合素子を介しての信号を総和演算しつつ上記出力層の
神経素子において演算出力を得、上記出力データと上記
演算出力の二乗で定義されるエネルギーを局所的に最小
にするように構成したことを特徴とする神経回路網装置
。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005189A JPH03210685A (ja) | 1990-01-12 | 1990-01-12 | 神経回路網装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2005189A JPH03210685A (ja) | 1990-01-12 | 1990-01-12 | 神経回路網装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH03210685A true JPH03210685A (ja) | 1991-09-13 |
Family
ID=11604275
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2005189A Pending JPH03210685A (ja) | 1990-01-12 | 1990-01-12 | 神経回路網装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH03210685A (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5587897A (en) * | 1993-12-27 | 1996-12-24 | Nec Corporation | Optimization device |
-
1990
- 1990-01-12 JP JP2005189A patent/JPH03210685A/ja active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5587897A (en) * | 1993-12-27 | 1996-12-24 | Nec Corporation | Optimization device |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Psaltis et al. | A multilayered neural network controller | |
| US5214743A (en) | Information processing apparatus | |
| CN102622515B (zh) | 一种天气预测方法 | |
| Ye et al. | Dynamic system identification using recurrent radial basis function network | |
| JPH03210685A (ja) | 神経回路網装置 | |
| JPH07121498A (ja) | ニューラルネットワーク構築方法 | |
| US5586223A (en) | High speed segmented neural network and fabrication method | |
| JPH04237388A (ja) | ニューロプロセッサ | |
| JPH05159087A (ja) | ニューロプロセッサ | |
| US5644681A (en) | Learning method for neural network having discrete interconnection strengths | |
| Tagliarini et al. | Learning in systematically designed networks | |
| JPH03210686A (ja) | 神経回路網装置 | |
| JP2669626B2 (ja) | ロボット制御方式 | |
| Wan et al. | Introducing cost-sensitive neural networks | |
| JPH05197707A (ja) | 情報処理システム | |
| JP2654686B2 (ja) | ニューラルネットワーク | |
| Galushkin et al. | Neuromathematics: The methods of solving problems on neurocomputers | |
| JP2904832B2 (ja) | 神経回路網装置 | |
| JPH0778787B2 (ja) | ニューラルネットにおける学習方法 | |
| JPH01173257A (ja) | ネットワーク構成データ処理装置 | |
| JPH03257658A (ja) | ニューラルネットワークの動的システムモデル化方法 | |
| KR19980074455A (ko) | 신경회로망 및 구현방법 | |
| JPH0736181B2 (ja) | 神経ネットワーク回路 | |
| JPH036769A (ja) | ニューラルネットワーク並列シミュレーション方法及びそれに用いる装置 | |
| Homma et al. | Incremental Neural Learning by Dynamic and Spatial Changing Weights |