JPH0424864A - データ処理装置 - Google Patents
データ処理装置Info
- Publication number
- JPH0424864A JPH0424864A JP2129155A JP12915590A JPH0424864A JP H0424864 A JPH0424864 A JP H0424864A JP 2129155 A JP2129155 A JP 2129155A JP 12915590 A JP12915590 A JP 12915590A JP H0424864 A JPH0424864 A JP H0424864A
- Authority
- JP
- Japan
- Prior art keywords
- neurons
- neuron
- layer
- group
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野]
本発明は、ニューラルネットワークの概念を基礎とする
データ処理装置に関する。
データ処理装置に関する。
この種のデータ処理装置におけるニューラルネットワー
クは、第4図に示す神経細胞モデル(以下、ニューロン
という)1を、並列に設けて層状に構成される。各層の
ニューロンは隣接する他の層の全てのニューロンにシナ
プス結合して、データの入出力を行う。すなわちニュー
ロン1において、外部から入力されるデータIt、I2
、I3・・・Inにはそれぞれ重みW、 、W、 、W
。
クは、第4図に示す神経細胞モデル(以下、ニューロン
という)1を、並列に設けて層状に構成される。各層の
ニューロンは隣接する他の層の全てのニューロンにシナ
プス結合して、データの入出力を行う。すなわちニュー
ロン1において、外部から入力されるデータIt、I2
、I3・・・Inにはそれぞれ重みW、 、W、 、W
。
、・・・Wnが掛けられ、これらの総和と閾値θとの比
較結果に応じたデータ0が出力される。
較結果に応じたデータ0が出力される。
この比較方法としては種々のものが可能であるが、例え
ば正規化関数1〔f〕を採用すると、出力データOは、 o=1 〔ΣWn−In−θ〕・・・・・(1)と表さ
れる。すなわち、ΣWn−Inが闇値θね上の時そのニ
ューロンは発火して出力データoG:rl]となり、ま
たΣWn−Inが閾値θより!Jさい時出力データ0は
「o」となる。
ば正規化関数1〔f〕を採用すると、出力データOは、 o=1 〔ΣWn−In−θ〕・・・・・(1)と表さ
れる。すなわち、ΣWn−Inが闇値θね上の時そのニ
ューロンは発火して出力データoG:rl]となり、ま
たΣWn−Inが閾値θより!Jさい時出力データ0は
「o」となる。
従来のニューラルネットワークは、このよう4ニユーロ
ンを並列に設けてニューラルレイヤを構成するとともに
、このニューラルレイヤを直列に接続して構成される。
ンを並列に設けてニューラルレイヤを構成するとともに
、このニューラルレイヤを直列に接続して構成される。
ニューラルレイヤは例えばローゼンブラット(Rose
nblatt)が提案したバーセブトロンのように3層
すなわち入力層、中間層および出力層から成り、各層の
ニューロンは隣接する他の層の全てのニューロンにシナ
プス結合する。
nblatt)が提案したバーセブトロンのように3層
すなわち入力層、中間層および出力層から成り、各層の
ニューロンは隣接する他の層の全てのニューロンにシナ
プス結合する。
このようなデータ処理装置において、入力層のニューロ
ンは入力データの処理にために多数段けられなければな
らないが、出力層のニューロンは実質的に処理結果を出
力するだけであるので比較的少数で足りる。ところが従
来、中間層のニューロン数の決定方法について確立され
た理論がなく、通常、全ニューラルレイヤについて同数
のニューロンを設けていた。このためニューロン数が真
人なものとなり、全てのニューロンが効率的に使用され
ていないという問題があった。
ンは入力データの処理にために多数段けられなければな
らないが、出力層のニューロンは実質的に処理結果を出
力するだけであるので比較的少数で足りる。ところが従
来、中間層のニューロン数の決定方法について確立され
た理論がなく、通常、全ニューラルレイヤについて同数
のニューロンを設けていた。このためニューロン数が真
人なものとなり、全てのニューロンが効率的に使用され
ていないという問題があった。
本発明はこのような従来の問題点を解消すべく創案され
たもので、処理目的に必要な最小数のニューロンによっ
て構成されたデータ処理装置を提供することを目的とす
る。
たもので、処理目的に必要な最小数のニューロンによっ
て構成されたデータ処理装置を提供することを目的とす
る。
本発明に係るデータ処理装置は、ニューラルレイヤのニ
ューロンが一定数のニューロンから成るニューロン群に
分けられ、各ニューロン群の一部のニューロンが隣接す
るニューロン群にも属しており、各ニューロン群がそれ
ぞれ次段のニューラルレイヤのニューロンに対応し、か
つ第n段のニューラルレイヤのニューロン数N11がN
n1(ff了−v)/(ET−V)) 2の式に従って
定められること特徴としている。
ューロンが一定数のニューロンから成るニューロン群に
分けられ、各ニューロン群の一部のニューロンが隣接す
るニューロン群にも属しており、各ニューロン群がそれ
ぞれ次段のニューラルレイヤのニューロンに対応し、か
つ第n段のニューラルレイヤのニューロン数N11がN
n1(ff了−v)/(ET−V)) 2の式に従って
定められること特徴としている。
但し、N7−8は第(n−1)段のニューロン数、aは
1つのニューロン群のニューロン数、■は隣接する他の
1つのニューロン群にも属スルニューロンの列の数であ
る。
1つのニューロン群のニューロン数、■は隣接する他の
1つのニューロン群にも属スルニューロンの列の数であ
る。
以下図示実施例により本発明を説明する。
第1図は、本発明の一実施例に係るデータ処理装置を有
する文字認識システムを示す。この文字認識システムは
、ビデオカメラ1o、前処理装置20、データ処理装置
3o、後処理装240およびデイスプレィ50を備える
。ビデオカメラ1゜は文字を入力するために設けられ、
前処理装置20に接続される。前処理装置2oは例えば
従来公知の画像処理装置であり、入力された文字の特徴
データ(例えば端点数、分岐点数等)を抽出し、この特
徴データをデータ処理装置3oに出力する。
する文字認識システムを示す。この文字認識システムは
、ビデオカメラ1o、前処理装置20、データ処理装置
3o、後処理装240およびデイスプレィ50を備える
。ビデオカメラ1゜は文字を入力するために設けられ、
前処理装置20に接続される。前処理装置2oは例えば
従来公知の画像処理装置であり、入力された文字の特徴
データ(例えば端点数、分岐点数等)を抽出し、この特
徴データをデータ処理装置3oに出力する。
データ処理装置30は、後述するようにニューラルネッ
トワークを構成し、前処理装置20から入力された文字
の特徴データに基づいてその文字を認識し、この認識結
果に応じたデータを後処理装W40に出力する。認識信
号は例えばキャラクタコードであり、後処理装置4oは
この出力データを例えばワープロデータとして格納し、
同時にデイスプレィ50に出力する。デイスプレィ50
は例えばCRTから構成され、データ処理装置3゜によ
り認識された文字を画面上に表示する。
トワークを構成し、前処理装置20から入力された文字
の特徴データに基づいてその文字を認識し、この認識結
果に応じたデータを後処理装W40に出力する。認識信
号は例えばキャラクタコードであり、後処理装置4oは
この出力データを例えばワープロデータとして格納し、
同時にデイスプレィ50に出力する。デイスプレィ50
は例えばCRTから構成され、データ処理装置3゜によ
り認識された文字を画面上に表示する。
データ処理装置30を構成するニューラルネットワーク
はコンピュータのハードウェアの一部として構成される
。このデータ処理装置3oは第1図において模式的に表
されており、この図から理解されるように3層のニュー
ラルレイヤすなわち入力層31、中間層32および出力
層33を有し、中間層32は入力層31および出力層3
3の間に配設される。各層31.32.33は本実施例
において、それぞれ多数のニューロンnを有し、入力層
31のニューロンnは中間層32の全てのニューロンn
に接続され、また中間層32のニューロンnは出力層3
3の全てのニューロンnにtlHJEされる。
はコンピュータのハードウェアの一部として構成される
。このデータ処理装置3oは第1図において模式的に表
されており、この図から理解されるように3層のニュー
ラルレイヤすなわち入力層31、中間層32および出力
層33を有し、中間層32は入力層31および出力層3
3の間に配設される。各層31.32.33は本実施例
において、それぞれ多数のニューロンnを有し、入力層
31のニューロンnは中間層32の全てのニューロンn
に接続され、また中間層32のニューロンnは出力層3
3の全てのニューロンnにtlHJEされる。
各ニューロンnは第4図を参照して上述したように、(
1)式の正規化関数に基づき、「1」または「0」のデ
ータを出力する。ニューロンnは例えばオペアンプから
構成され、また各ニューロンnへ入力されるデータに乗
じられる重みWnは、例えば、オペアンプの入力端子に
接続された可変抵抗により得られる。また閾値関数はス
イッチング素子等によって実現される。すなわち各ニュ
ーロンの出力データに応じて可変抵抗の大きさを変化さ
せることにより、重みWnが変化せしめられ、出力デー
タが補正されて学習が行われる。
1)式の正規化関数に基づき、「1」または「0」のデ
ータを出力する。ニューロンnは例えばオペアンプから
構成され、また各ニューロンnへ入力されるデータに乗
じられる重みWnは、例えば、オペアンプの入力端子に
接続された可変抵抗により得られる。また閾値関数はス
イッチング素子等によって実現される。すなわち各ニュ
ーロンの出力データに応じて可変抵抗の大きさを変化さ
せることにより、重みWnが変化せしめられ、出力デー
タが補正されて学習が行われる。
第2図(a)、(b)、(C)は入力層31、中間層3
2および出力層33を模式的に表したものである。ニュ
ーロンの数は、入力層31、中間層32、出力層33の
順に少なくなっている。ここでは説明の簡単のため、入
力層31のニューロン数を64個、中間層32のニュー
ロン数を49個、出力層33のニューロン数を36個と
する。
2および出力層33を模式的に表したものである。ニュ
ーロンの数は、入力層31、中間層32、出力層33の
順に少なくなっている。ここでは説明の簡単のため、入
力層31のニューロン数を64個、中間層32のニュー
ロン数を49個、出力層33のニューロン数を36個と
する。
また各層のニューロンは、入力層31においては横方向
および縦方向にそれぞれ8個配列され、中間層32にお
いては横方向および縦方向にそれぞれ7個配列され、出
力層33においては横方向および縦方向に6個配列され
ている。ここで、図の左下隅のニューロンの位置を原点
とし、左からi番目、下からj番目に位置するニューロ
ンをn8、とする。
および縦方向にそれぞれ8個配列され、中間層32にお
いては横方向および縦方向にそれぞれ7個配列され、出
力層33においては横方向および縦方向に6個配列され
ている。ここで、図の左下隅のニューロンの位置を原点
とし、左からi番目、下からj番目に位置するニューロ
ンをn8、とする。
入力層31の各ニューロンはビデオカメラ10を介して
得られる文字の特徴データによって発火する。例えばn
ll、n+zs n2is nzzの発火の組合せによ
って端点数が表され、n13、n14、n23、nz4
の発火の組合せによって分岐点数が表されるとする。す
なわち、入力層31のニューロンの発火パターンは人力
される文字に応じて人為的に決定される。
得られる文字の特徴データによって発火する。例えばn
ll、n+zs n2is nzzの発火の組合せによ
って端点数が表され、n13、n14、n23、nz4
の発火の組合せによって分岐点数が表されるとする。す
なわち、入力層31のニューロンの発火パターンは人力
される文字に応じて人為的に決定される。
一方出力層33では、例えば、左下隅と右上隅のニュー
ロンを結ぶ対角線上のニューロンn1i(破線りにより
囲まれたニューロン)により文字が表される。すなわち
この対角線上のニューロンは、その文字のキャラクタコ
ードを表し、出力層33のニューロンの発火パターンは
人為的に決定される。本実施例において、対角線上のニ
ューロンnBの発火パターンの種類は64通りあり、し
たがって本実施例では64種類の文字を認識することが
でき、例えばアルファベットの認識が可能である。
ロンを結ぶ対角線上のニューロンn1i(破線りにより
囲まれたニューロン)により文字が表される。すなわち
この対角線上のニューロンは、その文字のキャラクタコ
ードを表し、出力層33のニューロンの発火パターンは
人為的に決定される。本実施例において、対角線上のニ
ューロンnBの発火パターンの種類は64通りあり、し
たがって本実施例では64種類の文字を認識することが
でき、例えばアルファベットの認識が可能である。
さて文字認識の学習が行われる前においては、データ処
理装置30に文字データが入力されても、出力層33の
ニューロンは発火しない。このニューロンは、学習によ
って発火が可能となり、入力された文字データに応じた
所定の発火パターンを呈するようになると、学習は終了
する。なお学習用の入出カバターンはニューラルネット
ワークで処理すべきデータの代表データであり、実際に
処理すべきデータは広範囲に渡る。そして学習は、この
代表入出力データに対する連想が適正に行われるまで実
行される。しかして学習が終了すると、入力層31およ
び出力層33は入力された文字データに応じて上述した
ように人為的に定められる発火パターンを呈することと
なる。
理装置30に文字データが入力されても、出力層33の
ニューロンは発火しない。このニューロンは、学習によ
って発火が可能となり、入力された文字データに応じた
所定の発火パターンを呈するようになると、学習は終了
する。なお学習用の入出カバターンはニューラルネット
ワークで処理すべきデータの代表データであり、実際に
処理すべきデータは広範囲に渡る。そして学習は、この
代表入出力データに対する連想が適正に行われるまで実
行される。しかして学習が終了すると、入力層31およ
び出力層33は入力された文字データに応じて上述した
ように人為的に定められる発火パターンを呈することと
なる。
各層すなわちニューラルレイヤのニューロンの対応関係
について説明する。
について説明する。
各層においてニューロンは、一定数のニューロンから成
るニューロン群に分けられ、本実施例において1つのニ
ューロン群は4個のニューロンから構成されている。入
力層3Iについて説明すると、第2図(a)に示すよう
に、例えばニューロン群a、はニューロンn1bNrl
zb、、 nets nz7から、ニューロン群a2は
ニューロンnZ&、n3bsnz’y、n3.からそれ
ぞれ構成される。同様にして、1ニユーロンずつ図の右
ヘシフトさせることによりニューロン群a3\a4Sa
s\a6\ aフが定義される。これらの各ニューロン
群a、”−a。
るニューロン群に分けられ、本実施例において1つのニ
ューロン群は4個のニューロンから構成されている。入
力層3Iについて説明すると、第2図(a)に示すよう
に、例えばニューロン群a、はニューロンn1bNrl
zb、、 nets nz7から、ニューロン群a2は
ニューロンnZ&、n3bsnz’y、n3.からそれ
ぞれ構成される。同様にして、1ニユーロンずつ図の右
ヘシフトさせることによりニューロン群a3\a4Sa
s\a6\ aフが定義される。これらの各ニューロン
群a、”−a。
は、それぞれ中間層32のニューロンn16、nZ&、
fl 3b〜n 46\n sh−、n bb\n t
bに対応するりすなわち入力層31のニューロン群は、
中間層32において、このニューロン群の左下のニュー
ロンにニー0フ群a1の場合ニューロンn 16)と同
じ座標のニューロン(n、、)に対応する。
fl 3b〜n 46\n sh−、n bb\n t
bに対応するりすなわち入力層31のニューロン群は、
中間層32において、このニューロン群の左下のニュー
ロンにニー0フ群a1の場合ニューロンn 16)と同
じ座標のニューロン(n、、)に対応する。
中間層32のニューロンも、入力層31と同様にニュー
ロン群に分けられ、各ニューロン群は4個のニューロン
から構成される。そして各ニューロン群は、上述したの
と全く同様にして、それぞれ出力Jli33のニューロ
ンに対応している。
ロン群に分けられ、各ニューロン群は4個のニューロン
から構成される。そして各ニューロン群は、上述したの
と全く同様にして、それぞれ出力Jli33のニューロ
ンに対応している。
第2図(a)から理解されるように、各ニューロン群の
ニューロンのうち一部のニューロンは隣接するニューロ
ン群にも属している。具体的に説明すると、例えばニュ
ーロン群aIのニューロンnib、fLz1は右側に隣
接するニューロン群a2にモ属し、またニューロン群a
1のニューロンn16、n21+は下側に隣接するニュ
ーロン群a8にも属する。しかして、各ニューロン群は
隣接する他のニューロン群にオーバーラツプしている。
ニューロンのうち一部のニューロンは隣接するニューロ
ン群にも属している。具体的に説明すると、例えばニュ
ーロン群aIのニューロンnib、fLz1は右側に隣
接するニューロン群a2にモ属し、またニューロン群a
1のニューロンn16、n21+は下側に隣接するニュ
ーロン群a8にも属する。しかして、各ニューロン群は
隣接する他のニューロン群にオーバーラツプしている。
ここで、人力層3Iのニューロン数をNi、入力層31
におけるニューロン群のニューロン数ta、隣接する他
の1つのニューロン群にも属スルニューロンの列の数を
Vとする。入力層31におけるニューロン群の数をXと
すると、第3図から理解されるように次式が成立する。
におけるニューロン群のニューロン数ta、隣接する他
の1つのニューロン群にも属スルニューロンの列の数を
Vとする。入力層31におけるニューロン群の数をXと
すると、第3図から理解されるように次式が成立する。
(Fi−v)X (x−1) 十F丁=1’W’Tした
がって、 x=(FXT−v)/(Li−v) となる。なお各数値Ni、a、vは、Xが整数となるよ
うに選択されるべきであるが、数値aに関しては、最も
端部に位置するニューロン群のニューロン数を他のニュ
ーロン群のニューロン数とは異なるものにしてもよい。
がって、 x=(FXT−v)/(Li−v) となる。なお各数値Ni、a、vは、Xが整数となるよ
うに選択されるべきであるが、数値aに関しては、最も
端部に位置するニューロン群のニューロン数を他のニュ
ーロン群のニューロン数とは異なるものにしてもよい。
入力層31の各ニューロン群は中間層3201つのニュ
ーロンに1対1に対応するので、入力層31のニューロ
ン群の数Xは中間層32のニューロン数に等しい。した
がって、中間層32のニューロン数をNmとおくと、 Nm= ((FNT−v)/(Li−v))” <2
)となる。
ーロンに1対1に対応するので、入力層31のニューロ
ン群の数Xは中間層32のニューロン数に等しい。した
がって、中間層32のニューロン数をNmとおくと、 Nm= ((FNT−v)/(Li−v))” <2
)となる。
このような関係を一般化すると、第n段のニューラルレ
イヤにおけるニューロン数N7は、N −= ((、r
N;L−v )/ (F丁v ) ) ” (3)と
なる。ただし、Nn−1は第(n−1)段のニューラル
レイヤにおけるニューロン数である。
イヤにおけるニューロン数N7は、N −= ((、r
N;L−v )/ (F丁v ) ) ” (3)と
なる。ただし、Nn−1は第(n−1)段のニューラル
レイヤにおけるニューロン数である。
入力層31のニューロン数は入力データに対する処理内
容によって定められる。すなわち例えば文字認識の場合
、文字の特徴データの種類によって、入力層31のニュ
ーロン数が決定される。−方、出力層33のニューロン
数は出力内容によって定められる。文字認識の場合であ
れば、文字のキャラクタコードの種類によって決定され
、例えばアルファベットを認識するシステムにおいては
64個設けられればよい。したがって、本データ処理装
置の処理内容に応じて、入力層31および出力層33の
ニューロン数が定められる。これに対し、中間層32の
ニューロン数は(2)式に示すように入力層31のニュ
ーロン数、およびニューロン群内のニューロン数等によ
って定められる。もちろん、中間層32と出力層33の
ニューロン数の関係も、入力層31と中間層32との関
係と同様であり、(3)式を満足しなければならない。
容によって定められる。すなわち例えば文字認識の場合
、文字の特徴データの種類によって、入力層31のニュ
ーロン数が決定される。−方、出力層33のニューロン
数は出力内容によって定められる。文字認識の場合であ
れば、文字のキャラクタコードの種類によって決定され
、例えばアルファベットを認識するシステムにおいては
64個設けられればよい。したがって、本データ処理装
置の処理内容に応じて、入力層31および出力層33の
ニューロン数が定められる。これに対し、中間層32の
ニューロン数は(2)式に示すように入力層31のニュ
ーロン数、およびニューロン群内のニューロン数等によ
って定められる。もちろん、中間層32と出力層33の
ニューロン数の関係も、入力層31と中間層32との関
係と同様であり、(3)式を満足しなければならない。
したがって、第1図および第2図(a)〜(C)のよう
に入力層31、中間層32および出力層33の3層のニ
ューラルレイヤが設けられるとは限らず、2層以上の中
間層が設けられることもある。そこで次にニューラルレ
イヤの層数の決定方法について説明する。
に入力層31、中間層32および出力層33の3層のニ
ューラルレイヤが設けられるとは限らず、2層以上の中
間層が設けられることもある。そこで次にニューラルレ
イヤの層数の決定方法について説明する。
上述のように、入力層31のニューロン数Niと出力層
33のニューロン数NOはデータ処理装置の目的に応じ
て決定される。一方、ニューロン群に含まれるニューロ
ン数aおよび隣接する他の1つのニューロン群にも属す
るニューロンの列の数V(オーバーラツプ率)は、実験
的に求められる。例えば、aは「4」であり、またVは
「1」(この場合、オーバーラツプ率は50%)である
。
33のニューロン数NOはデータ処理装置の目的に応じ
て決定される。一方、ニューロン群に含まれるニューロ
ン数aおよび隣接する他の1つのニューロン群にも属す
るニューロンの列の数V(オーバーラツプ率)は、実験
的に求められる。例えば、aは「4」であり、またVは
「1」(この場合、オーバーラツプ率は50%)である
。
さて、入力層31のニューロン数Ni、ニューロン群の
ニューロン数aおよびオーバーラツプ率Vが定められる
と、第2層(第1の中間層)におけるニューロン数N2
は、(3)式によって決定される。
ニューロン数aおよびオーバーラツプ率Vが定められる
と、第2層(第1の中間層)におけるニューロン数N2
は、(3)式によって決定される。
そして、第2層のニューロン数N2が求められると、同
様にして(3)式から第3層(第2の中間層)のニュー
ロン数N3が求められる。しかしてこの計算は第(n+
1)層のニューロン数が出力層33のニューロン数NO
よりも小さくなるまで続けられ、第n層が出力層33の
直ぐ前段の中間層となる。
様にして(3)式から第3層(第2の中間層)のニュー
ロン数N3が求められる。しかしてこの計算は第(n+
1)層のニューロン数が出力層33のニューロン数NO
よりも小さくなるまで続けられ、第n層が出力層33の
直ぐ前段の中間層となる。
上記実施例において、1つのニューロン群に含まれるニ
ューロン数は4個であったが、これに限定さるものでは
なく、必要に応じて任意の数を選択することができる。
ューロン数は4個であったが、これに限定さるものでは
なく、必要に応じて任意の数を選択することができる。
また、ニューロン群のニューロン数aおよびオーバーラ
ツプ率■は、入力層31から出力層33まで全て同じ数
値にする必要はない。すなわち、中間層32が多数設け
られる場合、最後段の中間層の各ニューロン群を出力層
33の各ニューロンに1対1に対応させるために、この
最後段の中間層は他の中間層とは異なるニューロン数a
あるいはオーバーラツプ率Vを有しなければならないこ
ともある。
ツプ率■は、入力層31から出力層33まで全て同じ数
値にする必要はない。すなわち、中間層32が多数設け
られる場合、最後段の中間層の各ニューロン群を出力層
33の各ニューロンに1対1に対応させるために、この
最後段の中間層は他の中間層とは異なるニューロン数a
あるいはオーバーラツプ率Vを有しなければならないこ
ともある。
なお出力層は、対角線上のニューロンによってキャラク
タコードを表すように構成される必要はなく、全てのニ
ューロンによって認識文字を定義するように構成しても
よい。
タコードを表すように構成される必要はなく、全てのニ
ューロンによって認識文字を定義するように構成しても
よい。
また上記実施例では、各層は正方形を有し、ニューロン
が基盤の目のように配列されているが、このような配列
は概念的なものであり、実際には物理的にこのように配
列されるとは限らない。つマリ例えば、ニューロンはコ
ンピュータのメモリによって構成されることもあり、こ
のような場合、ニューロンのメモリ上における物理的な
配置は全く問題にならない。
が基盤の目のように配列されているが、このような配列
は概念的なものであり、実際には物理的にこのように配
列されるとは限らない。つマリ例えば、ニューロンはコ
ンピュータのメモリによって構成されることもあり、こ
のような場合、ニューロンのメモリ上における物理的な
配置は全く問題にならない。
さらに、本発明は文字認識だけでなく、図形認識あるい
は音声認識に適用することもできる。
は音声認識に適用することもできる。
[発明の効果]
以上のように本発明によれば、処理目的に必要な最小限
のニューロンによってデータ処理装置を構成することが
できるという効果が得られる。
のニューロンによってデータ処理装置を構成することが
できるという効果が得られる。
第1図は本発明の一実施例を適用した文字認識システム
を示す概略構成図、 第2図は入力層、中間層および出力層におけるニューロ
ンを示す概念図、 第3図は各ニューロン群のオーバーラツプの関係を示す
図、 第4図はニューロンの一例を示す概念図である。 1、、N・・・ニューロン 31・・・入力層 32・・・中間層 33・・・出力層 (a) (C) 第 図 n 第 図
を示す概略構成図、 第2図は入力層、中間層および出力層におけるニューロ
ンを示す概念図、 第3図は各ニューロン群のオーバーラツプの関係を示す
図、 第4図はニューロンの一例を示す概念図である。 1、、N・・・ニューロン 31・・・入力層 32・・・中間層 33・・・出力層 (a) (C) 第 図 n 第 図
Claims (1)
- (1)入力されたデータに所定の処理を施した結果に基
づいて発火し所定のデータを出力する複数のニューロン
から成る複数段のニューラルレイヤを備えたデータ処理
装置であって、上記ニューラルレイヤのニューロンは一
定数のニューロンから成るニューロン群に分けられ、各
ニューロン群の一部のニューロンは隣接するニューロン
群にも属しており、各ニューロン群はそれぞれ次段のニ
ューラルレイヤのニューロンに対応し、かつ第n段のニ
ューラルレイヤのニューロン数N_nが N_n={(√N_n_−_1−v)/(√a−v)}
^2の式に従って定められること特徴とするデータ処理
装置。 但し、N_n_−_1は第(n−1)段のニューロン数
、aは1つのニューロン群のニューロン数、vは隣接す
る他の1つのニューロン群にも属するニューロンの列の
数である。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2129155A JPH0424864A (ja) | 1990-05-21 | 1990-05-21 | データ処理装置 |
| KR1019910008284A KR910020571A (ko) | 1990-05-21 | 1991-05-20 | 데이터 처리장치 |
| EP19910108209 EP0459276A3 (en) | 1990-05-21 | 1991-05-21 | Data processing system |
| US08/022,438 US5355437A (en) | 1990-05-21 | 1993-02-16 | Neural network architecture for pattern recognition |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2129155A JPH0424864A (ja) | 1990-05-21 | 1990-05-21 | データ処理装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH0424864A true JPH0424864A (ja) | 1992-01-28 |
Family
ID=15002506
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2129155A Pending JPH0424864A (ja) | 1990-05-21 | 1990-05-21 | データ処理装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH0424864A (ja) |
-
1990
- 1990-05-21 JP JP2129155A patent/JPH0424864A/ja active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPS6355106B2 (ja) | ||
| JPH06509195A (ja) | 分散型比較ニューラル・ネットワーク | |
| WO1992015062A1 (en) | Hardware for electronic neural network | |
| US10755166B2 (en) | Transform architecture for multiple neurosynaptic core circuits | |
| EP0459276A2 (en) | Data processing system | |
| US10832121B2 (en) | Transform for a neurosynaptic core circuit | |
| EP0450522A2 (en) | A learning method for a data processing system | |
| JPH0457181A (ja) | 多重神経回路網の構築方法およびその装置 | |
| JPH06161981A (ja) | ニューラルネットワーク回路 | |
| JPH0424864A (ja) | データ処理装置 | |
| US5239619A (en) | Learning method for a data processing system having a multi-layer neural network | |
| Jhang | Gender prediction based on voting of CNN models | |
| JPH0438556A (ja) | データ処理装置 | |
| JPH03288258A (ja) | データ処理装置の学習方法 | |
| Klaseen et al. | The functional link net in structural pattern recognition | |
| JP2736361B2 (ja) | ニューラルネット構成方法 | |
| JPH045751A (ja) | データ処理装置の学習方法 | |
| JPH045750A (ja) | データ処理装置の学習方法 | |
| Pan | A neural network approach for Chinese character recognition | |
| Hirai et al. | Position independent pattern matching by neural network | |
| JP3082530B2 (ja) | ニューラルネットワーク回路 | |
| Gramß | Fast algorithms to find invariant features for a word recognizing neural net | |
| EP0299876A2 (en) | Pattern recognition system | |
| Osana | Chaotic associative memory using distributed patterns for image retrieval | |
| KR920701914A (ko) | 신경 회로망의 자동 조직에 의한 화상 압축 방법 |