JPH0981536A - パターン認識方法及び装置 - Google Patents

パターン認識方法及び装置

Info

Publication number
JPH0981536A
JPH0981536A JP7231433A JP23143395A JPH0981536A JP H0981536 A JPH0981536 A JP H0981536A JP 7231433 A JP7231433 A JP 7231433A JP 23143395 A JP23143395 A JP 23143395A JP H0981536 A JPH0981536 A JP H0981536A
Authority
JP
Japan
Prior art keywords
data
fuzzy
rule
fuzzy rule
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7231433A
Other languages
English (en)
Inventor
Shigeo Abe
重夫 阿部
Ratsuku Taauonmatsuto
ラック ターウォンマット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7231433A priority Critical patent/JPH0981536A/ja
Publication of JPH0981536A publication Critical patent/JPH0981536A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 教師データからファジィルールを直接、抽出
し、汎化能力の高いパターン認識を実現するパターン認
識方法及び装置を提供すること。 【構成】 入出力データファイル107を用いて、デー
タ分割手段104で入力データをクラスタに分割して、
ルール抽出手段105により入出力データファイル10
7と分割データファイル108から、クラスタ毎にファ
ジィルールを抽出し、ルール調整手段106でファジィ
ルールの調整を行い、ファジィルールファイル109を
用いてファジィルール推論手段102によりパターン認
識を行う。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、パターン認識方法及び
装置に関し、特にファジィ推論によりパターン認識を行
うのに好適なパターン認識方法及び装置に関する。
【0002】
【従来の技術】文字の特徴量を入力して文字を認識す
る、あるいは機器の状態を入力して機器の異常を診断す
るパターン認識システムを構築するのに多層構造のニュ
ーラルネット、あるいはファジィ推論が適していると言
われている。ニューラルネットはエム。アイ。ティープ
レス(1986年)パラレルディストリビューティッドプロセ
シング第318頁から362頁(Parallel Distributed
Processing, Vol. 1, MITPress, CambridgeMA, 1986,
pp. 318−362) において論じられているように、入力
と出力のデータを組とした教師データを用いて学習によ
り、ニューラルネットが構築できるため、問題特有のア
ルゴリズムを開発する必要がないという大きな利点を持
っている。
【0003】またこれに対してファジィルールにより推
論するファジィ推論を用いると、小規模で専門家の知識
が豊富な分野では、容易にパターン認識システムが構築
できるという利点がある。ファジィ推論ではファジィル
ールを獲得するのが難しいという問題を解決する方法と
して、専門家からでなく、ニューラルネットと同じく教
師データから行う方法もいくつか提案されている。例え
ば、アイトリプルイー・トランザクション・オン・ファ
ジィシステムズ第3巻1号第18頁から第28頁(IEEE
Trans. Fuzzy Systems, Vol. 3, No. 1, pp。 18−28,
1995)では、教師データを用いて超直方体でデータの存
在領域を近似する方法を取っている。この方法では、各
クラスに属する教師データの最小値と最大値を計算して
超直方体を定義し、クラス間の超直方体に重なりがあれ
ば、重なった部分を禁止領域として定義し、さらに禁止
領域内にこれらのクラスのデータがあれば、さらに同様
に超直方体を定義することによりファジィルールを抽出
する。
【0004】
【発明が解決しようとする課題】ニューラルネットを用
いると学習の時間が極めて遅く、また出来上がったニュ
ーラルネットの仕組みがどのようになっているか分から
ないという問題があった。また、上記の超直方体により
ファジィルールを抽出する方法をとると、学習は極めて
高速であり、ファジィルールによりその動きも解析でき
るが、ファジィルールを抽出する教師データと得られた
ファジィルールの性能をテストするテストデータの特性
が大きく異なるときは、テストデータの性能すなわち汎
化能力がニューラルネットより劣るという問題があっ
た。
【0005】本発明の目的は、上記のニューラルネット
及びファジィ推論の問題点を解決し、入力データと出力
データの組からなる教師データからファジィルールを直
接に抽出し、汎化能力の高いパターン認識を実現できる
方法及び装置を提供することにある。
【0006】
【課題を解決するための手段】本発明は、(イ)各クラ
スの入力データを分割する(ロ)分割されたデータを用
いて領域を近似することによりファジィルールを抽出す
る(ハ)教師データを用いて近似領域を調整することに
よりファジィルールをチューニングする等に特徴を有す
るものであり、これらの独立した手段、方法のみなら
ず、種々な組合せにもそれぞれ特徴がある。
【0007】以下、問題を解決するための手段の一例を
説明する。
【0008】(イ)各クラスの入力データを分割する 同一クラスに属する教師データをそのデータの入力空間
での分布にしたがい、いくつかのクラスタに分割する手
段を設ける。
【0009】(ロ)分割されたデータを用いて領域を近
似することによりファジィルールを抽出する 各クラスタに含まれる教師データの存在領域を近似し、
この近似した領域を一つのファジィルールとして定義す
る手段を設ける。
【0010】(ハ)教師データを用いて近似領域を調整
することによりファジィルールをチューニングする (ロ)で求まったファジィルールの近似領域をそのルー
ルの属するクラスに含まれる度合いが大きくなるように
近似領域を調整する手段を設ける。
【0011】
【作用】
(イ)各クラスの入力データを分割する手段 各クラスの教師データを分割することにより、各クラス
の存在領域をより精密に近似できるようになる。
【0012】(ロ)ファジィルールを抽出する手段 各クラスタに対応してファジィルールを定義することに
より、入力データがそのクラスタに対応するクラスに属
する程度、すなわち成立度が計算でき、ファジィルール
の成立度の最も高いクラスに入力データが属すると判定
することによりパターン認識ができる。
【0013】(ハ)ファジィルールの調整手段 教師データに対するパターン認識が正確に行われるよう
に近似領域を調整することにより、教師データのみなら
ず、テストデータに対する認識率を向上することができ
る。
【0014】
【実施例】以下、本発明の実施例を図面を参照して説明
する。図1に本発明の具体的実施例を示す。同図におい
て、101はファジィルール構築手段、102はファジ
ィルール推論手段、103は記憶手段、104はデータ
分割手段、105はルール抽出手段、106はルール調
整手段、107は入出力データファイル、108は分割
データファイル、109はファジィルールファイルであ
る。入出力データファイル107には、パターン認識を
行う対象から収集した入力データと出力データの組から
なる教師データが記憶されている。データ分割手段10
4は入出力データファイル107のデータを分割して分
割データファイル108に分割結果を格納する。ルール
抽出手段105は入出力データファイル107と分割デ
ータファイル108とを用いて分割されたクラスタ毎に
ファジィルールを抽出し、ファジィルールファイル10
9に格納する。ルール調整手段106は入出力データフ
ァイル107、分割データファイル108、およびファ
ジィルールファイル109を用いて、ファジィルールを
調整してその結果をファジィルールファイル109に格
納する。得られたファジィルールはファジィルール推論
手段102により未知の入力に対する出力を推論するの
に用いられる。ここでファジィルール構築手段101と
ファジィルール推論手段102は図1のように組み合わ
せてもよいが、切り離して、オフラインでファジィルー
ル構築手段101でファジィルールを抽出して、得られ
たファジィルールを組み込んだファジィルール推論手段
102でパターン認識システムを構成してもよい。
【0015】図2に本発明を実施するハードウエア構成
を示す。同図において10は中央処理装置(CPU)、20
はメモリ、30はキーボード、40はCRTターミナルで
ある。データファイル107、108、109およびフ
ァジィルール構築手段101、ファジィルール推論手段
102を実行するプログラムはメモリ20に格納されて
おり、CRTターミナル40からのユーザーの指示により
起動されファジィルール構築手段101によりファジィ
ルールの抽出が、またファジィルール推論手段102に
よりパターン認識が行われる。なおファジィルール推論
手段102は図2のようなスタンドアロンの構成でな
く、システムに組み込んだ構成もとることができる。
【0016】以下、データ分割手段104、ルール抽出
手段105、ルール調整手段106の実現方式を順に説
明する前に、ファジィ推論システムの構成を示す。m次
元の入力ベクトルxをn個のクラスに分離することを考え
る。このときにクラスi(i=1,・・・,n)がいくつかのクラ
スタijに分割されているとする。ここでクラスタijはク
ラスiのj番目のクラスタであることを意味するとする。
このとき入出力データデータファイル107の構成を図
3に示す。同図において107−1,107−2,・・・,
107−mはM個からなるm次元入力に対応し、107
−oはM個からなる1次元出力に対応する。107−1,
107−2,・・・,107−mのi番目の要素の値はm次元
のi番目の入力データを示し、この入力データが所属す
るクラスが107−oのi番目の要素に定義されている。
このときクラスの数をn個とすると102は1からnまでの
数字のどれかが記述されている。出力データ102は1次元
の代わりにn次元としてクラスiに属するときはi番目の
データを1として残りを0としてもよい。
【0017】図4に分割データファイル108の構成を
示す。分割データファイル108は入出力データファイ
ル107と同じM個のデータからなりp番目のデータが入
出力データファイル107のp番目のデータのクラスタ
番号を保持している。すなわち、p番目の入力データ1
07−1,・・・,107−m に対応するクラスタ番号ijのi
およびjは各々p番目の出力データファイル107−oとp
番目の分割データファイル108とより求めることがで
きる。
【0018】このときに各々のクラスタ ijに対して次
のルールRijが定義されているとする。ただしcijはクラ
スタijの中心である。
【0019】
【数1】
【0020】式(1)の入力xに対するメンバーシップ関
数mij(x)は式(2)〜式(4)で与えられる。ただしdij(x)
はxとcijとの重みつき距離、hij(x)は調整された距離、
αij(>0)はクラスタijの調整パラメータ、cij=(cij,1,
・・・,cij,m)で rij,k はクラスタijのk番目の半径であ
る。
【0021】
【数2】
【0022】
【数3】
【0023】
【数4】
【0024】図5にファジィルールファイル109にお
けるファジィルールRijのファイル構成を示す。109
−1はm個の中心の座標 cij,1,・・・, cij,mで、109−2
は半径rij,1 ,・・・, rij,m を109−3 は調整パラメ
ータaij を示す。
【0025】このときのファジィシステムの構成を図6
に示す。同図において204、205、206は式(1)
で示されるファジィルールR11,Rij,Rn1で201、2
02、203はおのおの入力x1、 x2、 xmからファジィ
ルールR11への入力である。
【0026】ファジィルールRij 205に対して図5の
データが記憶されており、入力xとこのデータを用い
て、式(2)〜(4)を計算してメンバーシップ関数の値を
計算する。このときメンバーシップ関数mkl(x)が最大
のとき入力xはクラスkに属すると判定される。式(2)に
おける指数関数は式(2)の出力の範囲を[0,1]にす
るためである。したがって式(2)の指数関数の入力によ
り入力xを分類するときはhij(x)の最小値を求めればよ
い。この構成は考えられうる構成の中で最も単純な構成
である。ニューラルネットの構成と同程度の性能を実現
するためには、各々のクラスをクラスタに分割する必要
がある。各々のクラスタに対して、そのクラスタに属す
るデータを用いて中心cij、および半径rij,kを推定す
ることができる。ついで、汎化能力をあげるために、正
しく認識されたデータが誤認識するのを許してαijを増
加あるいは減少して教師データの認識率を高める。
【0027】(イ)各クラスの入力データの分割 図6の出力にさらに線形結合の段を設けたネットをラデ
ィアル基底関数ネットとよぶが、ラディアル基底関数ネ
ットと多層ニューラルネットを比べると多層ニューラル
ネットの方が学習は遅いが汎化能力が高いと言われてい
る。これは多層ネットではシグモイド関数と言われる指
数関数を用いており、入力空間の全域にわたり出力が変
化する大域的な関数であるのに対して、ラディアル基底
関数ネットではガウス関数を用いておりローカルな関数
のためである。したがって、多層ニューラルネットと同
等の汎化能力を得るためには、ガウス関数がカバーする
入力領域ができるだけ大きい必要がある。このため、同
一クラスに属するデータをクラスタに分割する場合、ク
ラスタのデータが極端に少なくならないようにする必要
がある。
【0028】クラスタリングする方法はいくつか提案さ
れているが、多くは繰り返し法を用いており、また多く
の方法ではクラスタに属するデータの数を調整する方法
を備えていない。このためこれらの方法でクラスタリン
グをするとあるクラスタのデータ数が極端に少なく、あ
るクラスタのデータが極端に多くなる可能性がある。も
し式(2)のパラメータを少ないデータを用いて決めたと
きは、高い汎化能力をあまり期待できない。このため各
々のクラスタに含まれるデータの数が大体同じ程度にな
るように、入力の各軸で分割したときに、分割された2
つのクラスタのデータの数が最も少ない軸で分割するよ
うにする。すなわち、 1) Nc を各々のクラスタに属するデータの数の許容最
大値とする。最初は各々のクラスは1つのクラスタから
なっているとする。
【0029】2) クラスタに属するデータの数が Nc
越えるクラスタをクラスタijとして、クラスタijに含ま
れるデータを用いて中心 cij を式(5)のように計算す
る。ただし Nij はクラスタijに含まれるデータの数で
ある。 クラスタijに属するデータを xk =cij,kによ
り分割する。ここで Nij,1 および Nij,2 を xk ≧ c
ij, k および xk < cij,k を満足するデータの数とす
る。このとき |Nij,1−Nij,2|を最小にするkを分割の軸
にする。
【0030】3)データの数が Ncを越えるクラスタが
無くなるまでステップ2)を繰り返す。
【0031】例えば図7において入力が2次元で210
〜215を6個の教師データとする。このとき x2=c
ij,2 で分割するとデータ数が2個と4個のクラスタに
分割されるが、 x1=cij,1 で分割するとデータ数がど
ちらも3個となるから、x1= cij,1 で分割する。
【0032】
【数5】
【0033】(ロ)ファジィルールの抽出 各々のクラスタに対して式(1)で与えられるファジィル
ールRijを定義する。この段階では異なるクラスの領域
の重なりは考慮しないで領域を近似する。これらの領域
の重なりはあとでαijを調整するときに解消する。
【0034】まず、最初に式(5)を用いてクラスタijの
中心cijを計算する。ついで、半径rij,kを式(6)によ
り推定する。ただしθはパラメータ、aij,kはxkの中心c
ij,kからの平均の変位、σij,kはaij,kの分散で式(7),
(8)で与えられる。
【0035】
【数6】
【0036】
【数7】
【0037】
【数8】
【0038】しかしながらもし中心のまわりでクラスタ
のデータの分布に片寄があれば、得られた楕円領域は教
師データの分布を忠実に近似することができない。例え
ば図8の上の図のように1次元のデータが分布している
とする。250〜253は教師データでそのうえの数字
は座標を示している。θ=0とするとデータの分布によ
り式(5)で計算される中心はx=0に位置する。ついで
式(6)〜(8)によりrij, 1=3となる。図より分かるよ
うに、楕円は中心から正の側に片寄っている。
【0039】これを避けるために、平均の半径をデータ
が中心の正の側にあるか負の側にあるかにより計算し
て、片寄をなくすように中心を移動して、新しい中心を
用いて半径を再計算する。すなわち、最初に式(9),(1
0)を計算する。ここでa(p)ij, kはxkのcij,kからの平均
の正の片寄り、 a(n)ij,k は xk のcij,kからの平均の
負の片寄り、N(p)ijはクラスタijに属し xk−cij,k>0
を満たすデータの数、 N(n)ij はクラスタijに属し c
ij,k−xk>0を満足するデータの数である。ついで中心
を式(11)のように修正する。
【0040】
【数9】
【0041】
【数10】
【0042】
【数11】
【0043】式(11)、(7)および式(8)を用いて、半
径 rij,k を再計算する。
【0044】(ハ)ファジィルールの調整 考え方 上述のようにして抽出されたファジィルールはクラス間
の重なりを考えないで定義したために、教師データに対
して認識率が最大になるようにファジィルールを調整す
る必要がある。しかしながら、中心と半径を調整すると
すると、最急降下法によらざるを得ず、時間がかかるこ
とになる。このためファジィルールRijの1つのパラメ
ータαijを調整することにする。もしαijを増やすと式
(2)で与えられるメンバーシップ関数の成立度は増加
し、減少すると成立度は低下する。調整の考え方を示す
ために、図9に示す2つのクラスで1つのクラスに1つ
のルールが定義されたときを考えよう。261はクラス
1のデータ、262はクラス2のデータ、263はクラ
ス1のメンバーシップ関数、264と265は変更され
たクラス1のメンバーシップ関数である。クラス1に属
するデータ261はクラス2に誤認識されている。もし
メンバーシップ関数263を264と265の間に入る
ようにα11を増加するとデータ262を誤認識することな
くデータ261を正しく認識することができる。これは
α21を減少することによっても実現できる。
【0045】図10はもっと複雑な例を示す。271、
275はクラス2に属するデータで、272、273、
274はクラス1に属するデータである。また276は
クラス2のメンバーシップ関数、277および278は
変更されたクラス2のメンバーシップ関数である。デー
タ271はクラス2に正しく分類されているが、データ
272、273、274はクラス2に間違って分類され
ている。もしα11を増加あるいはα21を減少するとデー
タ271が最初に誤認識するが、データ271の誤認識
を許すとすると、データ272、273、274を正し
く認識するようにできる。すなわち、クラス2のメンバ
ーシップ関数276を277および278の間にはいる
ようにα21を減少すると、データ271が誤認識するが
データ272、273、274は正しく認識される。こ
れにより認識率がデータ2個だけ改善される。このよう
に、各々のファジィルールRijに対して認識率が改善さ
れるときは正しく認識されるデータが誤認識されること
を許して最適なαijの修正量を決める。このようにして
誤認識率が改善されなくなるまでαijを修正する。この
ように誤認識を許して認識率の改善を図る方法は極小解
に陥るのを防いでいるとも言える。もちろん調整の過程
は非線形であり、この方法で必ず最適解が求まるとの保
証はない。
【0046】αijの上下限 正しく認識されていたl−1個のデータの誤認識を許す
ときのαijの上限 Uij(l)および下限Lij(l)を求める。
入力教師データをファジィルール {Rij} を用いて正し
く分類されたデータの集合Xと誤認識したデータの集合Y
に分割する。ついでクラスiに属する x(∈X)で式(12)
を満たすものを求める。もし式(12)が成立しないとき
はαijを変化させてもxは正しく認識されたままであ
る。もしxがさらに、式(13)を満足するとすると、xを
正しく認識させるための式(14)の下限Lij(x)が存在す
ることになる。
【0047】
【数12】
【0048】
【数13】
【0049】
【数14】
【0050】これを図11を用いて補足する。280、
281、283は各々クラスタij、ik、ofのメンバーシ
ップ関数で282はメンバーシップ関数280の変更さ
れたメンバーシップ関数である。入力xをクラスiに属す
るとすると、メンバーシップ関数280を280と28
2の間にはいるようにαijを減少しても入力xは正しく
認識される。これに対してαijをさらに減少させてメン
バーシップ関数282よりメンバーシップ関数の傾きが
大きくなると入力xは誤認識する。もし式(13)が満た
されないとき、すなわち、式(15)のときはαijを減少
してもxに誤認識は生じない。
【0051】
【数15】
【0052】これを図12を用いて説明する。290、
291、292は各々クラスタij、ik、ofのメンバーシ
ップ関数で293はメンバーシップ関数290の変更されたメ
ンバーシップ関数である。入力xをクラスiに属するとす
ると、入力xにおけるメンバーシップ関数291の成立
度の方がメンバーシップ関数292よりも大きいため、
αijを正の範囲でいくら小さくしても入力xは誤認識し
ない。
【0053】これより正しく認識されたデータを誤認識
しない下限Lij(1)は、式(16)で与えられる。ここで
議論を簡単にするために異なるxに対してLij(x)は異な
るとする。このときは1つのxで満足される。同様に正
しく認識されたデータが1個誤認識することを許す下限
Lij(2)はLij(x)の中の第2の最小値として式(17)で
与えられる。一般に下限は式(18)で与えられる。
【0054】
【数16】
【0055】
【数17】
【0056】
【数18】
【0057】同様に上限Uij(l)を求めることができる。
クラス0(≠i)に属するx(∈X)を選ぶ。クラスタopが最
小の調整された距離hop(x)を持つとすると、式(19)の
ようになる。調整された距離hij(x)はhop(x)より大きい
から、xが正しく認識される範囲でのαijの上限Uij(x)
は式(20)で与えられる。
【0058】
【数19】
【0059】
【数20】
【0060】図13を用いてこれを説明する。301、
302はクラスタof、ijのメンバーシップ関数でメンバ
ーシップ関数300はクラスoに属する入力xが正しく認識
される限界のメンバーシップ関数である。αijを変えて
も対応するメンバーシップ関数が300と302の間に
あるかぎりは入力xはクラスoに正しく認識される。
【0061】これより正しく認識されたデータを誤認識
しないαijの上限Uij(1)は式(21)で与えられる。こ
こでUij(x)は異なるx に対して異なると仮定する。これ
より式(21)は一つのxでのみ成立する。同様に正しく
認識されていた1つのデータの誤認識を許すαijの上限
Uij(2)はUij(x)の中の第2の最小値で式(22)で与え
られる。一般に、式(23)のようになる。これよりαij
は式(24)のように制約される。
【0062】
【数21】
【0063】
【数22】
【0064】
【数23】
【0065】
【数24】
【0066】(a,b)を開区間を示すとする。もしαij
(Lij(1),Uij(1))の範囲の中で変化させると、正しく
認識されたデータx(∈X)は正しく認識されたままであ
る。また[a,b]を閉区間として[Uij(l−1),U
ij(l))あるいは(Lij(l),Lij(l−1)]の区間で変化さ
せると、l−1個の正しく認識されたデータx(∈X)に誤
認識を生じる。
【0067】αijの変更による認識率の向上 クラスiに間違ったデータx(∈Y)あるいはクラスiに属し
クラスo(≠i)に間違ったデータx(∈Y)について、αij
変えることにより正しく認識されるようになるか調べ
る。まずクラスiに属し、クラスo(≠i)に間違ったデー
タx(∈Y)について考える。このデータは式(25)が成立
すると、hik(x)(k≠i)の値にかかわらず正しく認識され
る。ここでVij(x)はαijの下限である。
【0068】
【数25】
【0069】図14を用いてこれを説明する。310、
311は各々クラスタij,ofのメンバーシップ関数で3
12、313はクラスiに属する入力xを正しく認識させ
るメンバーシップ関数の範囲を示している。 αijを増
やしてメンバーシップ関数310が312と313との
間に入るようになれば入力xは正しくクラスiに認識され
るようになる。
【0070】αijを区間(αij,Uij(l))の間の値に設定
したとき、Inc(l)を正しく認識される誤認識のデータの
数とする。もしVij(x)が区間(αij、Uij(l))に含まれて
いるときにInc(l)を1つカウントアップする。さらに、
式(26)のように定義する。αijをmαx(βij(l),U
ij(l−1))より大きく設定すると、l−1個のデータが
誤認識するが、誤認識していたInc(l) 個のデータが正
しく認識される。
【0071】
【数26】
【0072】同様にクラスoに属するデータxがクラスi
に誤認識されたとする。αijを減少することによりxが
正しく認識されるか調べる。そのためにはクラスoの最
小の調整された距離がn個のクラスの間で第2の最小値
である必要がある。すなわち式(27)のqはoである必要
がある。つぎにhij(x)はクラスiで最小で、クラスiの第
2の最小値は、式(28)のように、クラスoの調整され
た距離の最小値より大きい必要がある。このときデータ
は式(29)が成立すれば正しく認識される。ここでK
ij(x)はαijの上限である。
【0073】
【数27】
【0074】
【数28】
【0075】
【数29】
【0076】これを図15で説明する。320、32
1、322はクラスタij、of、ikのメンバーシップ関数
で、323および324は入力xをクラスoに正しく認識
させるためのメンバーシップ関数320の変更すべき範
囲を示す。メンバーシップ関数320が323と324
の範囲にはいるようにαijを調整することにより入力x
はクラスoに正しく認識されるようになる。
【0077】Dec(l)をαijを区間(Lij(l)、αij)に設定
したときに誤認識のデータが正しく認識される数とす
る。このときKij(x)が区間(Lij(l)、αij)に含まれると
きにDec(l)を1つカウントアップする。
【0078】ここで、式(30)のように定義する。もし
αijをmin(γij(l),Lij(l−1))より小さく設定すると
l−1個の正しく認識されていたデータに誤認識が起こ
るがDec(l)個のデータが正しく認識されることになる。
【0079】
【数30】
【0080】αijの変更 Inc(l)(l=1,・・・,lM)に対して式(31)を満たすlを求め
る。ただしlMは正の整数である。同様にDec(l)(l=1,・・
・,lM)に対して式(32)を満たすlを求める。
【0081】
【数31】
【0082】
【数32】
【0083】式(31)あるいは式(32)を満たす複数の
l があるときは最小のlをとる。最初に式(31)が式
(32)より大きいか等しい場合を考える。もしαijを区
間(αij,Uij(l))においてβij(l)より大きくすると、
正しく認識されるデータの増加数はInc(l)−l+1個とな
る。そこでαijを区間[βij(l),Uij(l))で式(33)の
ように設定する。ここでδは0≦δ<1を満たす。
【0084】
【数33】
【0085】同様に式(31)が式(32)より小さいとき
は、αijを(Lij(l), γij (l))の範囲でγij(l)より小
さく式(34)のように修正する。
【0086】
【数34】
【0087】調整の方法 以上の議論よりファジィルールの調整は図16のように
すればよい。すなわち、 (ステップ400) パラメー
タlMに適当な正の整数を設定する。このときlM−1はα
ijを調整するときに許容する最大の誤認識の数である。
また式(33)および式(34)のδに[0,1)の区間の値を
設定し、αijに同一の正の初期値を設定する。 (ステップ410) αij(i=1,・・・,n,j=1,・・・)に対し
て、Lij(l)、Uij(l)、Inc(l)、Dec(l)、bij(l)、および
γij(l)(l=1,・・・,lM)を計算する。式(31)あるいは式
(32)を最大にするlを求め、式(33)あるいは式(3
4)によりαijを変更する。 (ステップ420) ステップ410を認識率が改善さ
れないときは終了し、そうでないときはステップ410
に戻る。
【0088】上記ファジィ推論を用いた例として車番を
認識するパターン認識システムを図17に示す。同図に
おいて801はプレート切り出し手段、802は文字切
り出し手段、803は特徴抽出手段である。なお各手段
の詳細は、既に出願済みの特許に開示されている。即ち
車両を検知して、プレートを切り出す手段に関しては、
特開昭60−241387(画像処理装置)、特開昭61−141087
(画像処理方法および装置)、特開昭63−36383(画像処理
装置)、文字切り出しに関しては特開昭63−153682(濃淡
画像の処理方法および装置)、特徴抽出に関しては特開
昭62−293492(文字特徴抽出方法)に詳細に記述されてい
る 走行している車の画像は、工業用テレビで画像認識装置
に取り込まれる。画像認識装置では、ナンバープレート
の切り出しを行ない、その中から文字を1つづつ切り出
し、文字の特徴量を抽出する。数字の認識のときは、特
徴量として例えば、穴の数、曲がり具合等を用いる。特
徴量はファジィルール推論手段102に入力され、0から
9までの数字に対する成立度が式(2)〜(4)を用いて計
算され、成立度のもっとも高いものに対応する数字であ
ると判定されてその識別結果が出力される。なおファジ
ィルールの抽出および調整は、あらかじめファジィルー
ル構築手段101で行なっておく。すなわち、データー
分割手段104で教師データをクラスタに分割し、ルー
ル抽出手段105で式(1)のファジィルールを抽出し、ル
ール調整手段106で図16の手順でファジィルールの
調整を行う。
【0089】本方式の評価を行なうため0から9までの
数字に対する教師データを810個、テストデータを8
20個用意し、上述のようにファジィルールを決めた。
このとき各数字の教師データは81個である。lM=10
とし、分割の上限Ncを70としたときにテストデータの
認識率は99.63%でファジィルールの調整まで60M
IPSの計算機でCPU時間は2.6秒であった。
【0090】これをニューラルネットと比較すると、ニ
ューラルネットで初期値を変えて、100回学習させた
ときの最大の認識率が99.76%で、最小は98.90
%、平均は99.41%であった。また学習時間は同一
の計算機で1回あたり78.9秒であった。
【0091】したがって本発明の方式で、ニューラルネ
ットの最大性能付近の性能を30分の1の計算時間で実
現できたことになる。なお数字ばかりでなく、漢字、平
仮名も同様に認識できる。このとき、特徴量でなく切り
出した文字画像を例えば8×7等に分割して入力として
もよい。
【0092】図18に本発明のファジィ推論方式を白血
球を分類するパターン認識システム(血球分類装置)に
適用した場合を示す。白血球は成長の段階にしたがい分
類され、各々5〜7種類の成熟球、未成熟球に分類さ
れ、合計で12種類程度の血球の種類に分類される。成
長段階により種類が決められているため、隣接した種類
の境界があいまいで非常に分類が難しい問題として知ら
れている。
【0093】同図において901は血球切り出し手段、
902は特徴抽出手段である。光学的にスクリーニング
された血球データは血球分類装置に取り込まれる。血球
分類装置では、血球の切り出しを行ない、細胞核の周囲
長、面積等の血球の特徴量を抽出する。特徴量はファジ
ィルール推論手段102に入力され、12種類程度の種
類の成立度が式(2)〜(4)を用いて計算され、成立度の
もっとも高いものに対応する分類に属すると判定されて
その識別結果が出力される。なおファジィルールの抽出
および調整は、あらかじめファジィルール構築手段10
1で行なっておく。すなわち、データー分割手段104
で教師データをクラスタに分割し、ルール抽出手段10
5で式(1)のファジィルールを抽出し、ルール調整手段
106で図16の手順でファジィルールの調整を行う。
【0094】本方式の評価を行なうため教師データを3
097個、テストデータを3100個用意し、上述のよ
うにファジィルールを決めた。lM=10とし、分割の上
限Ncを80としたときにテストデータの認識率は91.
58%でファジィルールの調整まで60MIPSの計算機で
CPU時間は41.6秒であった。
【0095】これをニューラルネットと比較すると、ニ
ューラルネットで初期値を変えて、25回学習させたと
きの最大の認識率が90.46%で、平均は87.44%
であったまた学習時間は同一の計算機で1回あたり13
3分であった。したがって本発明の方式で、ニューラル
ネットの最大性能を凌ぐ性能を190分の1の計算時間
で実現できたことになる。
【0096】
【発明の効果】以上説明した本発明の実施例の効果を説
明する。
【0097】(イ)各クラスの入力データを分割する 各クラスの入力データを分割することにより、各クラス
の領域の近似を教師データにより近づけることができ
る。
【0098】(ロ)分割されたデータにより領域を近似
してファジィルールを抽出する 分割されたデータを用いて領域を近似し、これをファジ
ィルールとすることによりルール抽出を容易に行うこと
ができる。
【0099】(ハ)教師データを用いて近似領域を調整
することによりファジィルールをチューニングする 教師データに対するパターン認識結果が向上するように
近似された領域を調整することにより、ファジィルール
間の競合関係が調整され、教師データに対する認識率の
向上とともに汎化能力も向上することができる。
【図面の簡単な説明】
【図1】本発明に係るパターン認識装置の一実施例の構
成を示すブロック図である。
【図2】図1に示すパターン認識装置のハード構成を示
すブロック図である。
【図3】図1に示すパターン認識装置における入出力デ
ータファイルの構成を示す説明図である。
【図4】図1に示すパターン認識装置における分割デー
タファイルの構成を示す説明図である。
【図5】図1に示すパターン認識装置におけるファジィ
ルールファイルの構成を示す説明図である。
【図6】ファジィシステムの構成を示す説明図である。
【図7】データの分割の仕方を示す説明図である。
【図8】入力データの存在領域を楕円近似する際にその
楕円の中心と半径の修正を行なう状態を示す説明図であ
る。
【図9】ファジィルールの調整の具体的手法の一例を示
す説明図である。
【図10】ファジィルールの調整の具体的手法の他の例
を示す説明図である。
【図11】ファジィルール調整のためのパラメータ調整
の下限を示す説明図である。
【図12】ファジィルール調整のためのパラメータ調整
の下限を示す説明図である。
【図13】ファジィルール調整のためのパラメータ調整
の上限を示す説明図である。
【図14】ファジィルール調整により誤認識が解消され
る状態を示す説明図である。
【図15】ファジィルール調整により誤認識が解消され
る状態を示す説明図である。
【図16】ファジィルールの調整を行なうためのパラメ
ータの調整手順を示す説明図である。
【図17】本発明が適用される車番を認識するパターン
認識システムの構成を示すブロック図である。
【図18】本発明が適用される血球を分類するパターン
認識システムの構成を示すブロック図である。
【符号の説明】
10 CPU 20 メモリ 30 キーボード 40 CRT 101 ファジィルール構築手段 102 ファジィルール推論手段 103 記憶手段 104 データ分割手段 105 ルール抽出手段 106 ルール調整手段 107 入出力データファイル 108 分割データファイル 109 ファジィルールファイル 801 プレート切り出し手段 802 文字切り出し手段 803 特徴抽出手段 901 血球切り出し手段 902 特徴抽出手段

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】 入力データとその入力データがどのクラ
    スに属するかの出力データを教師データとし、いくつか
    の教師データの入出力関係を用いてパターン認識のため
    のファジィルールを生成するファジィルール生成手段を
    有するパターン認識装置において、 前記ファジィルール生成手段は、データをクラスタに分
    割するデータ分割手段と、ファジィルールを抽出するル
    ール抽出手段と、ファジィルールを調整するルール調整
    手段とを有し、前記データ分割手段により同一クラスに
    属するデータを1つ以上のクラスタに分割し、前記ルー
    ル抽出手段を用いて、分割されたクラスタに属する入力
    データの存在領域を楕円領域で近似することによりクラ
    スタに対応するファジィルールを抽出し、前記ルール調
    整手段により教師データが属するクラスに属する程度が
    大きくなるようにファジィルールの存在領域を調整する
    ことを特徴とするパターン認識装置。
  2. 【請求項2】 前記データ分割手段は、各クラスタに対
    応する入力データの軸毎の平均値を求める手段と、平均
    値より大きい教師データあるいは平均値より小さい教師
    データの数を求める手段とを有し、平均値より大きい教
    師データ数と平均値より小さい教師データ数との差の絶
    対値が最も少ない軸でクラスタを分割することを特徴と
    する請求項1に記載のパターン認識装置。
  3. 【請求項3】 前記ルール抽出手段は、クラスタに属す
    る教師データの各軸の平均値の正の側の変位の平均値お
    よび負の側の変位の平均値を求める手段と、楕円の中心
    からの半径を求める手段とを有し、各々の変位の平均値
    の違いにより片寄りのない位置に中心を決めることを特
    徴とする請求項1に記載のパターン認識装置。
  4. 【請求項4】 前記ルール調整手段は、正しく分離され
    たデータのうちのl−1(lは正の整数)個のデータが誤
    認識するときの楕円領域の傾きの上限および下限を求め
    る手段と、誤認識したデータを正しく認識するための楕
    円領域の傾きを計算する手段とを有し、最も認識率が改
    善されるように1つの楕円領域の傾きを増加あるいは減
    少することを特徴とする請求項1に記載のパターン認識
    装置。
  5. 【請求項5】 入力データとその入力データがどのクラ
    スに属するかの出力データを教師データとし、いくつか
    の教師データの入出力関係を用いてパターン認識のため
    のファジィルールを生成するファジィルール生成手段を
    有するパターン認識装置において、 前記ファジィルール生成手段は、データをクラスタに分
    割するデータ分割手段と、ファジィルールを抽出するル
    ール抽出手段と、ファジィルールを調整するルール調整
    手段とを有し、前記データ分割手段により同一クラスに
    属するデータを1つ以上のクラスタに分割し、前記ルー
    ル抽出手段を用いて、分割されたクラスタに属する入力
    データの存在領域を楕円領域で近似することによりクラ
    スタに対応するファジィルールを抽出し、前記ルール調
    整手段により正しく分離されたデータのうちのl−1(lは
    正の整数)個のデータが誤認識するときの楕円領域の傾
    きの上限および下限を求め、誤認識したデータを正しく
    認識するための楕円領域の傾きを計算し、最も認識率が
    改善するように1つの楕円領域の傾きを増加あるいは減
    少することを特徴とするパターン認識装置。
  6. 【請求項6】 クラスタ中心のまわりの楕円領域でファ
    ジィルールの条件部のメンバーシップ関数が定義された
    ファジィルールを用いてパターン認識する装置におい
    て、 入力データに対する各ファジィルールの条件部の成立度
    を計算する手段を有し、該成立度計算手段の計算結果に
    基づいて成立度の最も高いファジィルールが属するクラ
    スに入力が属すると判定することを特徴とするパターン
    認識装置。
  7. 【請求項7】 ファジィルールの条件部が代表点とその
    代表点からの距離の重みで定義されたファジィルールを
    用いてパターン認識する装置において、 入力データと代表点との重み付き距離を計算する手段を
    設け、入力の各々のファジィルールの代表点への重み付
    き距離を計算して、重み付き距離の最も近いファジィル
    ールが属するクラスに入力が属すると判定することを特
    徴とするパターン認識装置。
  8. 【請求項8】 入力データとその入力データがどのクラ
    スに属するかの出力データを教師データとし、いくつか
    の教師データの入出力関係を用いてパターン認識のため
    のファジィルールを生成する方法であって、データをク
    ラスタに分割するステップと、ファジィルールを抽出す
    るステップと、ファジィルールを調整するステップとか
    らなり、クラスタに分割するステップにおいて同一クラ
    スに属するデータを1つ以上のクラスタに分割し、ファ
    ジィルールを抽出するステップにおいて、分割されたク
    ラスタに属する入力データの存在領域を楕円領域で近似
    することによりクラスタに対応するファジィルールを抽
    出し、ファジィルールを調整するステップにおいて教師
    データが属するクラスに属する程度が大きくなるように
    ファジィルールの存在領域を調整することを特徴とする
    パターン認識用のファジィルール生成方法。
  9. 【請求項9】 前記クラスタを分割するステップにおい
    て各クラスタに対応する入力データの軸毎の平均値を求
    め、ついで平均値より大きい教師データあるいは平均値
    より小さい教師データの数を求め、平均値より大きい教
    師データ数と平均値より小さい教師データ数との差の絶
    対値が最も少ない軸でクラスタを分割することを特徴と
    する請求項8に記載のパターン認識用のファジィルール
    生成方法。
  10. 【請求項10】 前記ファジィルールを抽出するステッ
    プにおいて、クラスタに属する教師データの各軸の平均
    値の正の側の変位の平均値および負の側の平均値を求
    め、各々の変位の平均値の違いに基づいて片寄りのない
    位置に中心を決めることを特徴とする請求項8に記載の
    パターン認識用のファジィルール生成方法。
  11. 【請求項11】 前記ファジィルールを調整するステッ
    プにおいて、正しく分離されたデータのうちのl−1(lは
    正の整数)個のデータが誤認識するときの楕円領域の傾
    きの上限および下限を求め、ついで誤認識したデータを
    正しく認識するための楕円領域の傾きを計算し、最も認
    識率が改善するように1つの楕円領域の傾きを増加ある
    いは減少することを特徴とする請求項8に記載のパター
    ン認識用のファジィルール生成方法。
  12. 【請求項12】 入力データとその入力データがどのク
    ラスに属するかの出力データを教師データとし、いくつ
    かの教師データの入出力関係を用いてパターン認識のた
    めのファジィルールを生成する方法であって、データを
    クラスタに分割するステップと、ファジィルールを抽出
    するステップと、ファジィルールを調整するステップと
    からなり、クラスタに分割するステップでは同一クラス
    に属するデータを1つ以上のクラスタに分割し、ファジ
    ィルールを抽出するステップでは、分割されたクラスタ
    に属する入力データの存在領域を楕円領域で近似するこ
    とによりクラスタに対応するファジィルールを抽出し、
    ファジィルールを調整するステップでは正しく分離され
    たデータのうちのl−1(lは正の整数)個のデータが誤認
    識するときの楕円領域の傾きの上限および下限を求め、
    誤認識したデータを正しく認識するための楕円領域の傾
    きを計算し、最も認識率が改善するように1つの楕円領
    域の傾きを増加あるいは減少することを特徴とするパタ
    ーン認識用のファジィルール生成方法。
  13. 【請求項13】 クラスタ中心のまわりの楕円領域でフ
    ァジィルールの条件部のメンバーシップ関数が定義され
    たファジィルールを用いてパターン認識する方法であっ
    て、入力データに対する各ファジィルールの条件部の成
    立度を計算し、成立度の最も高いファジィルールが属す
    るクラスに入力が属すると判定することを特徴とするパ
    ターン認識方法。
  14. 【請求項14】 ファジィルールの条件部が代表点とそ
    の代表点からの距離の重みで定義されたファジィルール
    を用いてパターン認識する方法であって、入力の各々の
    ファジィルールの代表点への重み付き距離を計算して、
    重み付き距離の最も近いファジィルールが属するクラス
    に入力が属すると判定することを特徴とするパターン認
    識方法。
  15. 【請求項15】 入力データとその入力データがどのク
    ラスに属するかの出力データを教師データとし、いくつ
    かの教師データの入出力関係を用いて車両のナンバープ
    レートを認識するファジィルールを生成するファジィル
    ール生成手段を有するパターン認識装置において、 前記ファジィルール生成手段は、データをクラスタに分
    割するデータ分割手段、と、ファジィルールを抽出する
    ルール抽出手段と、ファジィルールを調整するルール調
    整手段とを有し、データ分割手段により同一クラスに属
    するデータを1つ以上のクラスタに分割し、前記ルール
    抽出手段を用いて、分割されたクラスタに属する入力デ
    ータの存在領域を楕円領域で近似することによりクラス
    タに対応するファジィルールを抽出し、前記ルール調整
    手段により教師データが属するクラスに属する程度が大
    きくなるようにファジィルールの存在領域を調整するこ
    とを特徴とするパターン認識装置。
  16. 【請求項16】 ファジィルールの条件部が代表点とそ
    の代表点からの距離の重みで定義されたファジィルール
    を用いてナンバープレートを認識するパターン認識装置
    において、 入力データと代表点との重み付き距離を計算する手段を
    有し、該重み付き距離計算手段により入力の各々のファ
    ジィルールの代表点への重み付き距離を計算して、重み
    付き距離の最も近いファジィルールが属するクラスに入
    力が属すると判定することを特徴とするパターン認識装
    置。
  17. 【請求項17】 入力データとその入力データが属する
    クラスを出力データを教師データとし、いくつかの教師
    データの入出力関係を用いて血球を分類するファジィル
    ールを生成するファジィルール生成手段を有するパター
    ン認識装置において、 前記ファジィルール生成手段は、データをクラスタに分
    割するデータ分割手段と、ファジィルールを抽出するル
    ール抽出手段と、ファジィルールを調整するルール調整
    手段とを有し、前記データ分割手段により同一クラスに
    属するデータを1つ以上のクラスタに分割し、前記ルー
    ル抽出手段を用いて、分割されたクラスタに属する入力
    データの存在領域を楕円領域で近似することによりクラ
    スタに対応するファジィルールを抽出し、前記ルール調
    整手段により教師データが属するクラスに属する程度が
    大きくなるようにファジィルールの存在領域を調整する
    ことを特徴とするパターン認識装置。
  18. 【請求項18】 ファジィルールの条件部が代表点とそ
    の代表点からの距離の重みで定義されたファジィルール
    を用いて血球を分類するパターン認識装置において、 入力データと代表点との重み付き距離を計算する手段を
    有し、該重み付き距離計算手段により入力の各々のファ
    ジィルールの代表点への重み付き距離を計算して、重み
    付き距離の最も近いファジィルールが属するクラスに入
    力が属すると判定することを特徴とするパターン認識装
    置。
JP7231433A 1995-09-08 1995-09-08 パターン認識方法及び装置 Pending JPH0981536A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7231433A JPH0981536A (ja) 1995-09-08 1995-09-08 パターン認識方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7231433A JPH0981536A (ja) 1995-09-08 1995-09-08 パターン認識方法及び装置

Publications (1)

Publication Number Publication Date
JPH0981536A true JPH0981536A (ja) 1997-03-28

Family

ID=16923486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7231433A Pending JPH0981536A (ja) 1995-09-08 1995-09-08 パターン認識方法及び装置

Country Status (1)

Country Link
JP (1) JPH0981536A (ja)

Similar Documents

Publication Publication Date Title
US7362892B2 (en) Self-optimizing classifier
Abe et al. A fuzzy classifier with ellipsoidal regions
KR101254181B1 (ko) 하이브리드 방식의 영상 데이터 전처리 기법 및 방사형 기저함수 기반 신경회로망을 이용한 얼굴 인식 방법
US7295687B2 (en) Face recognition method using artificial neural network and apparatus thereof
US5638491A (en) Method and apparatus for hierarchical input classification using a neural network
Vigdor et al. The bayesian artmap
CN111291604A (zh) 面部属性识别方法、装置、存储介质及处理器
CN109871872A (zh) 一种基于壳向量式svm增量学习模型的流量实时分类方法
CN115861625A (zh) 一种处理噪声标签的自标签修改方法
US5438629A (en) Method and apparatus for input classification using non-spherical neurons
US7181062B2 (en) Modular classification architecture for a pattern recognition application
US20180137409A1 (en) Method of constructing an artifical intelligence super deep layer learning model, device, mobile terminal, and software program of the same
CN119167213A (zh) 一种基于ihba-rf的陀螺仪组故障预测方法
CN119478529A (zh) 基于改进yolov8网络与clip模型的地铁行人异常检测方法及系统
US7634140B2 (en) Pattern feature selection method, classification method, judgment method, program, and device
Gorokhovatskiy et al. Vector Quantization, Learning and Recognition in the Space of Descriptors of Structural Features of Images
CN115116115A (zh) 人脸识别及其模型训练方法和装置
CN109800854A (zh) 一种基于概率神经网络的复合绝缘子憎水性等级判定方法
Fu et al. Data dimensionality reduction with application to improving classification performance and explaining concepts of data sets
Poorani et al. Robust Rice Leaf Disease Detection using Advanced Preprocessing and Deep CNNs for Class Imbalance Resolution
JPH0981536A (ja) パターン認識方法及び装置
JPH09231079A (ja) ファジィ推論システムおよびファジィルール構築システム
US20040064425A1 (en) Physics based neural network
CN115410250A (zh) 阵列式人脸美丽预测方法、设备及存储介质
Tiensuu et al. Detecting exoplanets with machine learning: A comparative study between convolutional neural networks and support vector machines