JPH0331975A - パターン識別装置 - Google Patents

パターン識別装置

Info

Publication number
JPH0331975A
JPH0331975A JP1166303A JP16630389A JPH0331975A JP H0331975 A JPH0331975 A JP H0331975A JP 1166303 A JP1166303 A JP 1166303A JP 16630389 A JP16630389 A JP 16630389A JP H0331975 A JPH0331975 A JP H0331975A
Authority
JP
Japan
Prior art keywords
learning
pattern
neural network
neural net
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1166303A
Other languages
English (en)
Inventor
Akira Iwata
彰 岩田
Keiji Matsuo
啓志 松尾
Takashi Toma
當麻 孝志
Yoshio Suzumura
鈴村 宜夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MAITETSUKU KK
Original Assignee
MAITETSUKU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MAITETSUKU KK filed Critical MAITETSUKU KK
Priority to JP1166303A priority Critical patent/JPH0331975A/ja
Publication of JPH0331975A publication Critical patent/JPH0331975A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 1−産業上の利用分野〕 この発明はパターン識別装置に関するものであり、特に
、小規模なニューラルネットを多数使用して大規模なネ
ットワークを構成し、多数のカテゴリからなる入力パタ
ーンを識別できるようにしたパターン識別装置に関する
ものである。
[従来の技術1 従来、脳に類似したニューラルネットのモデルを用いて
脳におけるパターン情報処理機能を工学的に実現するこ
とを目指すニューロフンビューティングに関する研究が
進められている。ニューラルネットにおけるパターン情
報処理の特徴は711機能と並列処理にある。ニューラ
ルネットの学習は、パターン認識の立場からとらえると
学習データの統計的性質に基づく任意の連続写像の実現
とみなすことができるが、3層以上の階層tニューラル
ネットワークによって、任意のN次元空間から任意のN
次元空間への連続写像が存在することが数学的に証明さ
れている。階層型ニューラルネットの学習は、Rume
lhart らによるパックプロパゲーションが多く用
いられており、文字認識や音声認識等のパターン識別装
置に適用され、ある程度の成果が得られている。
[発明が解決しようとする課題] 前述した従来のパターン識別装置は分類カテゴリ数が比
較的少ない小規模なニューラルネットを取り扱っており
、例えばJIS第一水準の漢字を認識するような大規模
なニューラルネットを単純なバックプロパゲーションア
ルゴリズムによって構築することは実際には多くの困難
を伴う。そのような大規模なネットワークの学習では、
ローカルミニマムに陥る可能性も高く、たとえ収束する
にせよ膨大な計算量を費すことになる。そこで、実用的
な計算時間で多数のカテゴリを持つ人カノ(ターンを自
動的に分類するパターン識別装置を構築するために解決
せられるべき技術的課題が生じてくるのであり、本発明
は該課題を解決することを目的とする。
「課題を解決するための手段] この発明は上記目的を達成するために提案されたもので
あり、多数のカテゴリを持つ人力teターンを自動的に
分類する大規模なニューラルネットをffするパターン
識別装置に於て、前段に入力パターンを小グループに大
分類するための自己組織能力を持つベクトル量子化型の
ニューラル不゛ントを設け、後段には、その小グループ
内のノくターンを更に細分類する小規模なニューラルネ
ットを多数並列に配置した階層型ニューラルネットを設
け、且つ、入力パターンと教師データにより、その結合
重みを学習する手段を有し、前記人カノくターンの属す
るカテゴリを識別するように構成したことを特徴とする
パターン識別装置を提供せんとするものである。
[作用] このパターン識別装置の学習は、先ず、前段のベクトル
量子化型ニューラルネットの学習から行なう。これは繰
り返し学習データを人力し、入力パターンをいくつかの
グループに分割するためのネットワークを形成する。こ
こで、このニューラルネットの素子数は分類すべきカテ
ゴリ数よりも少なく制限する。前段の学習は自己組織化
1こよって行なわれるので教師データは必要としな(\
前段のベクトル量子化型ニューラルネットの学習後、入
力パターンの各カテゴリがどの素子と最適整合となるか
を調べ、各素子の分担すべきカテゴリを求め、全カテゴ
リをベクトル量子化型ニューラルネットの素子数と同数
のグループに分類する。
次に、その分類されたグループごとにその中1こあるカ
テゴリを識別するための階層型ニューラルネットの学習
をバツクブロノでゲーション法ヲ用いて行なう。
学習後、人力データの識別は次のようにして行なわれる
。先ず、前段のネットワークによって、その入力パター
ンがどの素子と最適整合となるか求める。次に、最適整
合となった素子が担当するカテゴリグループを識別する
後段のネットワークにこの入力パターンを入力し、最も
強い出力を出した素子に対応するカテゴリに入カノ〈タ
ーンを識別する。
このネットワークの利点は学習の容易さと結合数の少な
さにある。即ち、本装置は、前段のベクトル量子化型ニ
ューラルネットによって大分類をしてからバックプロパ
ゲーションによる学習を行なうため、後段のニューラル
ネットの規模は小さくなり、従って、学習は容易になる
。又、後段のネットワークは相互には結合のない独立し
たネットワークであるから、大規模なネットワーつてあ
っても全体の結合数の1曽加を抑止できる。
[実施例] 以下、本発明の一実施例を別紙爪付図面を参p<4しな
がら詳述する。尚、説明の都合上、従来公知に属する技
術事項も同時に説明する。第1図はパターン識別装置l
の構成を説明するためのブロック図である。
前段に用い、るベクトル量子化型のニューラルネット2
は、第2図に示すように、各素子が結合重みによって決
まる参照パターンm1を持っており、各素子は入力パタ
ーンX、と参照パターンm1 とを比較して最適に整合
した素子3を識別結果とする。各素子3,3.・・・の
出力は次式によって与えられる。
y+=f(Σmll ” Xk、 )       (
1)−1 、l :素子lの出力値 10:素子の出力関数 m口:素子iの第j番目の人力の結合重みXヨ:第に番
目の入力パターンの第j番目の人力値 ここで、結合重みnは入力パターンXkの次元数にとり
、素子3の個数は大分類するグループ数とする。参照パ
ターンm、は以下に示す自己組織化7 /L/ゴリズム
によって入力パターンのみかう形成される。
各素子3,3.・・・は第3図に示すように2次元格子
状に配置され、自己組織化過程に於て、結合重みの適応
変化がHe b bの法則と忘却効果に基づいて行なわ
れ、又、近隣の素子3,3.・・・へ興奮性の相互フィ
ードバック結合を持ち、結合重みの適応変化が最適整合
した素子3の近傍でのみ行なわれるとすると、参照パタ
ーンm1の形成は次の手順によって行なうことができる
[5tep口1 m、 (0)  : ru+domize、  t−0
(初期化)各入力パターンXk(k=1.2.3112
3.K)について順次5tepl、 5tep2を繰り
返す。
[5tcpH t=t+i Xk−m。(t) ll=min  (II Xk−m
i (t) II )  (2)(素子c:@:最適整
合素 子5tep2] ml (t+I) =m、 (t) +α(t) (X
k (t)  ml (t) ) (3)roriEN
c mi  (t+I)  =m、  (t)(4)fnr
ipNc 但し、 Xk  =(Xkl+Xk2+++++Xkl++++
+Xkn)(第に番目の入力パターン) ml(t) −(m=(t)、 m、2(t)、、、、
m、(t)、。
m 、、(t)) (素子1の学習回数tにおける参j1Gパターン) これらは学習回数tの関数であり、一般に、αは単調減
少関数とし、Nc(t)  も学習回数と共にその半径
を小さくしていく。
このような自己組織過程を行なうと、各素子3゜3、・
・・の参照パターンm1は入力、くターン1.の集合の
統計的性質を反映した値となり、入力パターンxkのベ
クトル空間を参照パターンm1にヨッて分割し量子化す
ることができる。又、近隣の素子3,3.・・・の参照
パターンm、は類似したものとなり、そのパターンの値
は滑らかに変化していく。このようにして入力パターン
集合の連続写像が実現される。
ここで、入力パターンxkのカテゴリ数に対して素子数
を少なく制限してこの自己組織化を行なうと、互いに類
似した入力パターンX、について同一の素子3が最適整
合となる。即ち、多数のカテゴリを持つ入力パターンX
、の集合を、類似性のあるパターンごとに有限数のグル
ープに分割することができる。
ニューラルネット2の学習後、入力パターンの各カテゴ
リがニューラルネット2のどの素子と最適整合となるか
を調べ、各素子3,3.・・・の分担すべきカテゴリを
求め、全カテゴリをニューラルネット2の素子数と同数
のグループに分割する。
次に、その分割されたグループごとにその中にあるカテ
ゴリを識別するための階層型ニューラル不ッ)4..4
.・・・の学習ラバツクプロパゲーション法を用いて行
なう。
学習後、検査データの識別は次のようにして行なわれる
。先ず、ニューラルネット2によって、そのデータがど
の素子3,3.・・・と最適整合となるか求める。次に
、最適整合となった素子3が担当するカテゴリグループ
を識別する後段の階層型ニューラルネット4にこのデー
タを入力し、第1図に示す最も強く出力を出した階層型
ニユ−ラルネツト2の出力素子5に対応するカテゴリに
入力パターンを識別する。
このネットワークの利点は学習の容易さにある。
バックプロパゲーション法による学習は小規模なネット
ワークについては収束も容易であるが、大規模なネット
ワークになるとローカルミニマムに陥る可能性も高く、
たとえ収束するにせよ膨大な計算量を費すことになる。
本装置は、ベクトル量子化型のニューラルネット2によ
って大分類をしてからバックプロパゲーションによる学
習を行なうため、後段の階層型ニューラルネット4の規
模は小さくなり、従って、学習は容易になる。又、1i
型ニユーラルネツト4は相互には結合のない独立したネ
ットワークであるから、大規模なネットワークであって
も全体の結合数を少なく抑えることができる。
このパターン識別装置lによって、JIS第一水準漢字
フォント2965字種を識別するニューラルネットの構
築を行なった。ここで用いたフォントは、16X16(
256)ドツトマトリックスフォントである。従って、
入力/fターンxkの次元数は256となる。前段のニ
ューラルネ・ノド2の素子数は144個(12X12)
とした。参照パターンm1の初期値は一様乱数で与え、
学習回数は100X2965回とした。即ち、1字種当
たり100回の学習を行なった。ここで、学習係数αと
最適整合素子の近傍素子の集合NC(t)の半径r(t
)は次のような学習回数の小調減少関数とした。
α(L)  −0,2(1,ロー    )(5)tl
、8 その結果得られた各素子3,3.・・・の参照パターン
を第4図に示す。第4図には、参照パターンの値を16
X16の2次元マトリックス状のパターンで示したので
、各参I!aパターンがどのようなテンプレートを形成
しているかが明らかとなっている。各素子3,3.・・
・には、漢字の「へん」、「つくり」、「かまえ」が形
成されている。例えば、左上方部の素子3,3.・・・
には「言」、「女」、「門」、「月」等の「へん」や「
かまえ」を表す参照パターンm、が得られている。別表
1に各素子3,3.−・・が最適整合となる漢字フォン
トの一覧表の一例を示す。素子番号Oには「ごんべん」
を持つ漢字が、素子番号1には「もんがまえ」を持つ漢
字が分類されている。このように、全ての漢字がそのF
へん」、「つくり」、「かまえ」等の特徴によって分類
されている。自己組織化によって第4図に示すような参
照1<ターンm、が自律的に形成されたことになる。
次に、後段の階層型ニューラルネット4,4゜・・・に
ついて別表1の各素子3,3.・・・に割り当てられた
漢字のグループごとに、バックプロ)<ゲーンヨン法を
用いて学習を行なった。各グル−プの字種数は最大でも
79個であり、比較的小規模なニューラルネットとなる
ため、全てのグループについて容易に学習が収束した。
この結果、JIS第一水準漢字2965字種を分類する
ノ<ターン識別装置lが形成された。
[発明の効果] 以上のように本発明によれば、前段にベクトルff量子
化型ニューラルネットを配置し、後段に大分類されたグ
ループ内のデータを分類する小規模な階層型ニューラル
ネットを多数並列に配置したネットワークを持つパター
ン識別装置によって、多数のカテゴリを識別するための
大規模ニューラルネットを学習により容易に構築できる
結果、大規模なニューラルネットに於ても、認識率の大
幅す向上を実現することができる。
【図面の簡単な説明】
図は本発明の一実施例を示し、第1図はパターン識別装
置の構成解説図、第2図はニューラルネットの素子の解
説図、第3図は素子の配列状態を示す解説図、第4図は
各素子に形成された参照パターンを示す部分解説図であ
る。 1・・・・・・パターン識別装置 2・・・−・・ニューラルネット 3・・・・・・素子 4・−・・・・階層型ニューラルネット5・・・・・・
出力素子 X、・・・・・・入力パターン

Claims (1)

    【特許請求の範囲】
  1. 多数のカテゴリを持つ入力パターンを自動的に分類する
    大規模なニューラルネットを有するパターン識別装置に
    於て、前段に入力パターンを小グループに大分類するた
    めの自己組織能力を持つベクトル量子化型のニューラル
    ネットを設け、後段には、その小グループ内のパターン
    を更に細分類する小規模なニューラルネットを多数並列
    に配置した階層型ニューラルネットを設け、且つ、入力
    パターンと教師データにより、その結合重みを学習する
    手段を有し、前記入力パターンの属するカテゴリを識別
    するように構成したことを特徴とするパターン識別装置
JP1166303A 1989-06-28 1989-06-28 パターン識別装置 Pending JPH0331975A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1166303A JPH0331975A (ja) 1989-06-28 1989-06-28 パターン識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1166303A JPH0331975A (ja) 1989-06-28 1989-06-28 パターン識別装置

Publications (1)

Publication Number Publication Date
JPH0331975A true JPH0331975A (ja) 1991-02-12

Family

ID=15828844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1166303A Pending JPH0331975A (ja) 1989-06-28 1989-06-28 パターン識別装置

Country Status (1)

Country Link
JP (1) JPH0331975A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04264985A (ja) * 1991-02-20 1992-09-21 Hamamatsu Photonics Kk 画像認識システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02210589A (ja) * 1989-02-10 1990-08-21 Nec Corp 文字認識装置
JPH02238588A (ja) * 1989-03-13 1990-09-20 Sharp Corp 文字認識装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02210589A (ja) * 1989-02-10 1990-08-21 Nec Corp 文字認識装置
JPH02238588A (ja) * 1989-03-13 1990-09-20 Sharp Corp 文字認識装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04264985A (ja) * 1991-02-20 1992-09-21 Hamamatsu Photonics Kk 画像認識システム

Similar Documents

Publication Publication Date Title
Khalil et al. Energy efficiency prediction using artificial neural network
CN110020682B (zh) 一种基于小样本学习的注意力机制关系对比网络模型方法
Lu et al. Task decomposition and module combination based on class relations: a modular neural network for pattern classification
Jarrett et al. What is the best multi-stage architecture for object recognition?
CN112784964A (zh) 基于桥接知识蒸馏卷积神经网络的图像分类方法
CN100595780C (zh) 一种基于模块神经网络的手写体数字自动识别方法
CN108665005A (zh) 一种利用dcgan提高基于cnn图像识别性能的方法
CN109242106A (zh) 样本处理方法、装置、设备和存储介质
US5469530A (en) Unsupervised training method for a neural net and a neural net classifier device
CN113469262A (zh) 一种基于Fisher信息矩阵的增量学习方法
Li et al. A new approach to rule learning based on fusion of fuzzy logic and neural networks
CN114463591A (zh) 深度神经网络图像分类方法、装置、设备和存储介质
JPH0331975A (ja) パターン識別装置
CN116310477B (zh) 基于S_ReLU脉冲神经网络的图像分类方法
CN107122472A (zh) 大规模非结构化数据提取方法、其系统、分布式数据管理平台
d'Humieres et al. Dynamics of self-organization in complex adaptive networks
CN115936073A (zh) 一种语言导向卷积神经网络及视觉问答方法
JP2736361B2 (ja) ニューラルネット構成方法
Zhang et al. Tire damage image recognition based on improved convolutional neural network
Reyes-Garcia et al. The use of trapezoidal function in a linguistic fuzzy relational neural network for speech recognition
Wang et al. Parallel compact integration in handwritten Chinese character recognition
JPH04155480A (ja) パターン識別装置
Vallet et al. Solving the problem of overfitting of the pseudo-inverse solution for classification learning
Lu et al. Emergence of learning: An approach to coping with NP-complete problems in learning
JPH0855098A (ja) ニューラルネットワーク・クラシファイアおよびニューラルネットワークの構成法