JPH04213751A - ハイアラーキー ニューラル ネットワークに用いる分類方法及びネットワーク - Google Patents
ハイアラーキー ニューラル ネットワークに用いる分類方法及びネットワークInfo
- Publication number
- JPH04213751A JPH04213751A JP3039051A JP3905191A JPH04213751A JP H04213751 A JPH04213751 A JP H04213751A JP 3039051 A JP3039051 A JP 3039051A JP 3905191 A JP3905191 A JP 3905191A JP H04213751 A JPH04213751 A JP H04213751A
- Authority
- JP
- Japan
- Prior art keywords
- class
- neuron
- neurons
- classes
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
【0001】
【技術分野】本発明はツリー状ニューラル ネットワ
ーク内に用いる分類方法であり、学習ステップを有し、
このステップ中において、ニューラル ネットワーク
は、数クラスに分割される標本(エクザンプル)群を分
類するため、シナプス係数を決定するツリー状ニューラ
ル ネットワーク内に用いる分類方法に関するもので
ある。 さらに本発明は、かかる方法を実施するニューラル
ネットワークに関するものである。 【0002】ニューラル ネットワークは、とくに文
字及びパターン認識、音声信号プロセシング、画像プロ
セシング、情報比較等において分類(classifi
cation)を行う用途に使用される。 【0003】ニューラル ネットワークは非直線オー
トマトン(automaton )で、一般にシナプス
(synapse )によって相互連結されたオートマ
トンにより構成され、これらシナプスにはシナプス係数
が割当られている。かかるネットワークは従来の逐次処
理型コンピュータでは処理が困難であった問題のプロセ
スを可能とする。 【0004】 【従来の技術】ネットワークの最も広く普及している2
つのタイプというのは: − いわゆるホーップフィールド・ネットワーク(H
opfield networks )と呼ばれる完全
に結合している(fully connected )
ネットワーク、と− 層化された(layered
)ネットワーク:すなわちニューロンは順次の層にグル
ープ化され、各ニューロンはそれに続く層のすべてのニ
ューロンに結合するの、とである。 最も一般的な構造では、情報は(受動的−passiv
e )入力端子から(能動的−active)入力層へ
、次いで逐次各隠された(能動的)層へ、そして(能動
的)出力層に至るルートで供給される。最も簡略化され
た構造では、情報は、(受動的)入力端子から単一の(
能動的)層へと供給される。入力情報は数個の成分を有
するベクトルのシーケンスで形成される。 【0005】これらのシステムは、標本によるか又は自
己組織(self−organizing )による学
習の能力がある。 逐次型コンピュータ(sequential comp
uters)の計算時間は、学習相(learning
phases )と解答相(solution ph
ases)とを有する操作を並列に実行することにより
相当軽減することができる。 【0006】所与の操作(processing)を実
行するためには、ニューラル・ネットワークは第1にそ
れを実行する学習をしなければならない。学習相と呼ば
れるこの相では、標本(example )を用いる。 多数のアルゴリズムに対してこれらの標本の出力に得ら
れる結果は予め既知である。意図された課題を未だ採り
上げていないニューラル・ネットワークは、最初は誤っ
た結果を出すことがある。そこで、得られた結果と得ら
るべきであった結果との間の誤りが明らかにされ、ニュ
ーラル・ネットワークに選定された標本を学習すること
を許すために、変更した判定基準に基づいてシナプス係
数が変形される。この段階は、ニューラル・ネットワー
クが満足な学習をするのに必要と考えられる一団の標本
に対して何度でも繰り返される。 【0007】学習アルゴリズムは2つの階級(clas
ses )に分割される: − 局所学習(local learning)、す
なわちニューロンjをニューロンiに結合するシナプス
係数 Cijの変形が、ニューロンi及びニューロンj
上に限定されている情報にのみ依存するもの、と − 非局所学習(non−local learni
ng)、すなわちネットワーク全体に所在する情報に依
存するものである。後者の公知の例としては層化された
ネットワーク内で誤りがフィード バックされるもの
である。 【0008】種々のタイプのニューラル・ネットワーク
に関する情報は、IEEE ASSP Magazin
e誌 1987 年4月号第4−22頁に所載のアール
・ピー・リップマン(R. P. LIPPMANN)
による“An introduction to co
mputing with neural nets
”という論文に記載されている。これらのニューラル・
ネットワークでは、構造の組織は(層化されているか又
は完全に結合しているかに)固定されている、そしてニ
ューロン間の結合は前以て固定されている。 【0009】その時実行される学習の目的は、種々のア
ーキテクチャ(構造)を実施し、次で帰納的な選択(p
osteriori chice)をなすことにより、
最適構造を見出すことである。 【0010】学習の過程でアーキテクチャが決定できる
ようなアルゴリズムが、J.Phys.A:Math.
Gen. 誌 22(1989年)第2191−220
3頁に所載の“learning in Feedfo
rwardLayered Networks:the
tiling algorithm”という文献中で
既に、エム.メツアード(M. MEZARD )及び
ジェー.ピー.ナダル(J. P. NADAL )に
より提案されている。 【0011】この目的のために、該学習はある層中に割
当られた1番目のニューロンのシナプス係数を最適化す
ることにより初期化され、もしこのニューロンが分類の
課題を完成するのに十分でなければ、さらにもう1つの
ニューロンが当該の層に、又は同じく初期化されたその
次の層に追加される。この手法(approach)に
よって、アーキテクチャの学習及び、出力を2つの階級
に分離して、層化されたネットワークのパラメータ(多
層パーセプトロン)の学習ができる。 【0012】しかしこれらは何れも、理論的なニューロ
ンの数よりも遙に多数のニューロンを使用しなければな
らないので、小形化(compactness)の点で
最適ではない。さらにこれに加えて、展開的な問題(e
volutionary problem)の場合には
、入力パラメータが極く僅か変化したようなとき、例え
ば分類の問題で、既に学習したクラスに追加のクラスを
付加するようなときでも全部の学習を再開始する必要が
ある。 【0013】さらに、1988年7月 カリフォニル
ア州 サン ディエゴで開催されたニューラル
ネットワークに関するIEEE Internatio
nal Conference において、シー・コウ
ツオジエラス(C. KOUTSOUGERAS )及
びシー・エー・パパクリストウ(C. A. PAPA
CHRISTOU)が、P−1−247 〜1−254
に“Training of a neural n
etwork forpattern classif
ication based on an entro
py measure ”として発表したツリー状ニュ
ーラルネットワークが既知である。 【0014】この構造は入力データ内の2つのクラスを
識別する分類の遂行に適している。ニューロンは、入力
と2つの相補的出力と、有効化(validation
)入力Eとを有するセル(シナプス係数と非直線機能を
有する)によって構成されている。設定(create
)された第1のニューロンが、2つのクラスの完全な分
離を遂行し得ないときは、2つの後続ニューロンがシス
テム的に形成され、これらの有効化入力Eは、それぞれ
第1ニューロンの2つの相補出力によって制御される。 ニューラル ネットワークはこれらニューロンの行(
row )を順次付加してゆくことによって構成される
。実際上前述の文献は次のことを特定している。各ユニ
ット(ニューロン)の各出力は、次の行の他のユニット
(ニューロン)の入力Eに接続される。第1ニューロン
(父ニューロン)によって構成される第1ランク(段階
)に対し、すべての息子ニューロンによって第2ランク
が形成され、さらにすべての孫ニューロンによって第3
ランクが形成され、以下同様となってゆく。従ってk次
の層は、2k−1 個のニューロンを有する。この構成
によって完全2進ツリーが創成される。また一方このニ
ューラル ネットワークは2つのクラス間のみの分類
を遂行する目的を有している。このニューラル ネッ
トワークは、その入力のスペース(空間)において、位
相数学的あるいは地勢学的(topological
)な課題の解を求めるものである。すなわちこのニュー
ラル ネットワークは、1つのクラスに属しているス
ペースのゾーンを他方のクラスに属しているゾーンより
識別する。前記文献は、2つより多いクラスに分割でき
る入力データを分類する為には如何にして動作したら良
いかについては教示していない。 【0015】 【発明が解決しようとする課題】従って本発明の課題は
、多クラス分類の問題に対処でき、かつ既知の層化構造
よりもより小形のニューラル ネットワークの構造を
提供するにある。この構造(architecture
)は極めて急速に動作するを要する。さらに本構造は既
知の構造よりもより柔軟(適応)性があり、発展が容易
であるを要する。 【0016】2クラスより多いクラスの分類を行う本発
明による分類方法は、学習が次のステップを有すること
を特徴とする。 A−クラス分けすべき標本をクラスの2つのサブグルー
プに従ってクラス分けするステップ、 B−標本群より、近似の標本の2つのサブグループを識
別しこれら2つのクラスのサブグループによって分割が
可能なようにするため、ニューロンのシナプス係数を計
算するステップ、 C−サブグループが単一のクラスを含んでいるか否かを
決定するため、識別された標本の均一性をテストするス
テップ、 D−ニューロンが単一クラスを識別したとき、このニュ
ーロンのアドレスを記憶蓄積し、この単一クラスを記録
するステップ、 E−ニューロンが不均一(非斉次)のサブグループを識
別したときは、ステップAの工程を再スタートすること
によってクラスの2つの新しいサブグループに標本を各
均一のサブグループに分割し、次で標本の各不均一サブ
グループに対し、後位ニューロンを形成し、標本の新規
なサブグループが後位ニューロンによってすべてが均一
なクラスのサブグループであると識別される迄この工程
を反復するステップ。 【0017】この方法(procedure )は、ハ
イアラーキー ニューラル ネットワークと称され
、ニューロンの相互接続並びにシナプス係数のアップデ
ート(更新)は、デシジョン ツリーの通路に従って
行われる。ツリーの形状に構成されたニューラル ネ
ットワークにおいて、すべてのニューロンは入力の空間
(スペース)で動作する。(形成されたすべてのニュー
ロンは入力ベクトル成分のすべてを受信する。)これに
より得られる構造は極めて小形となる。学習期間は遙に
短縮される。その理由は、ネットワーク構造が、ニュー
ロンによってプロセスされる所望の所定サブクラスの選
択に対する最適の構造に極めて近似しているからである
。とくに第1ニューロン(父ニューロン)により形成さ
れる第1ランクに対し、第2ランクはすべての子(so
n )ニューロンを包含せず、同様に他のランクにもこ
れが当てはまり、すなわち、クラスの分離に実際に役に
立たないニューロンは形成されない。 【0018】実行(execution )フェースに
おいて、実行時間も遙に短縮される。その理由は、ある
所定のクラスに対し、当該クラスの識別に必要なニュー
ロンのみを使用(implement )するからであ
る。実際上あるニューロンにより得られた結果(res
ult)によって、動作させるべき後位のニューロンの
アドレスを決定する。このアドレスは学習中に記憶され
る。これはジー・コウツオウジエラス(G. KOUT
SOUGERAS )他の文献の処理とは異なる点であ
る。該文献では、ニューロンのアドレスは記憶されない
。それは方式的にいって、ランクkに対して、全体で2
k−1 のニューロンが創成される。 【0019】学習を行うには、父ニューロンのシナプス
係数を計算し、標本のグループM内に、複数のクラスP
のサブグループを識別する。 【0020】例えば標本グループ(群)Mが、クラスA
,B,C,Dをカバーしているとすると、識別は、これ
ら各クラスのうちの1つのクラス、例えばクラスBを隔
離(isolate)するサブグループM+1 を識別
することにより行われる。この場合、相補的(Comp
lementary)サブグループM−1 は、他のク
ラスA,C,Dにより構成される。 【0021】ニューロンがクラスA,B,C,Dのおの
おのを分離する能力に、予め定めた誤差基準(erro
r criterion)を割り当て、上述の手順を行
うに際し最小の誤差基準のものを選択することも可能て
ある。 【0022】ニューロンによって行われる標本の2つの
サブグループの識別は、標本の分布の重心に関して2群
への分割を行うことにより、標本の分布の主成分の分析
によるクラス分けの傾向に見合うようにしても行うこと
ができる。 【0023】ニューロンが識別すべき特殊のクラスは、
層化ネットワークによって予め行われる学習によっても
決定することができる。この状況において、層化ニュー
ラルネットワークは、そのシナプス係数に多クラス標本
の基本を割当てる。入力ポテンシャルによって動作する
第1層は、クラスのセパレータとして動作する。従って
、所望の分割に最も近似した識別を行うニューロンは第
1層内より選択される。この場合、ニューロンの初期シ
ナプス係数は、層化ニューラル ネットワークより前
記ととくていのクラスをもっとも良く近似してクラス識
別を行うニューロンのシナプス係数を選択して決定する
。 【0024】所定のクラスを離隔する代りに、他の態様
の分割が望まれるときもある。例えば2グループ内の標
本の数(population) を平衡させて、セパ
レータによって分離することである。このような場合に
は、層化ニューラル ネットワークのもっとも適当な
セパレータ ニューロンのシナプス係数を関連のツリ
ー状ニューロンの学習に使用する。 【0025】この場合前位の構造内の満足な結果を利用
すると有利であり、これを用いてより小形で、より急速
で、かつパワーの大なツリー状構造を構成し得る。 【0026】ニューロンによって、分離しようとする特
定のクラスPをM+1 のグループ内で行う分離は、標
本のクラスが直線分離不能なときは不完全にしか行い得
ない。従って特定のクラスPと同クラスの標本は、第1
ニューロンによって識別した後、相補的サブ グルー
プM−1 内にも見出される。 【0027】次でグループM+1 及び相補グループM
−1 に斉次テストを行い、これらが単一のクラスを包
含しているかを決定する。これらの1つまたは他方が斉
次(均一、homogeneous)であると、このグ
ループの識別は完結する。これらグループの一方または
他方が、不均一であると、これらのグループ各々に対し
次位ニューロンを形成し、次位ニューロンは非斉次(i
nhomogeneous) グループ内に2つの新
しいグループを識別する。この目的に対する手続では、
2分割(dichotomycriterion)によ
って識別を行うこの後続ニューロンに対するシナプス係
数を計算する。この識別動作は、入力標本(ベクトル)
に対し行い、この標本は関連非斉次グループを形成した
ものである。標本の二分プロセジュア及び後続ニューロ
ンの生成は、各順次の世代にわたって反復して行う。 【0028】2つのサブ グループにわたる分離を行
う各ニューロンの訓練にはいくつかの変形がある。エム
.メメザード(M.MEZARO) 及びジェー・ピー
・ナダル (J.P.NADAL)によって使用された
ポケットアルゴリズム(Pocket algorit
hm) で、エス・ギヤラント (S.GALLANT
)が、proc, 8th conf. “Patte
rn Recognition ”パリ、1986に発
表したIEEE“Optimal Linear Di
scrimiants ”に発表したポケットアルゴリ
ズムを使用すると好都合である。このポケット アル
ゴリズムは各ニューロンにより行われる分離の遂行に使
用することができる。 【0029】各ニューロンに対し、「パーセプトロン
(Perceptron) 」という訓練判定基準を用
いることも可能で、これは任意の標本に対して、ニュー
ラル ネットワークの出力で得られた結果と期待され
る結果との差異を特徴付ける誤りに基づいてシナプス係
数を再更新するものである。これらの訓練判定基準は、
当業者にとって既知である。 【0030】どのニューロンの訓練でもこれを成し遂げ
るためには、そのシナプス係数の計算は、「ポケット」
アルゴリズム(“Pocket”algorithm)
か、「パーセプトロン」型 (“Percepton
”type) の学習規則か、又はヘップ型(Hebb
type) の学習規則かのいずれかを実行すること
になる。(前掲のアール・ピー・リップマン (R.P
.LIPPMANN) の文献、及びPhys.Rev
.A誌、第37巻第7号(1988年) 第2660頁
所載アール・メイヤ(R.MEIR)とイー・ドマニー
(E.DOMANY)による“Integrated
Learning in a Iayered Fe
ed−Forward Neural Natwor
k ”という文献参照) 【0031】本発明はまた、この方法を実行するニュー
ラル・ネットワークにも関する。 【0032】ニューラル・ネットワークがツリー状構造
でまず初めに構築され、然る後に分類のタスクを実施す
るに用いられる。このときはツリーのブランチ(枝)が
構造のフアンクションに従って追跡され、後継ニューロ
ンのアドレスが学習(training) のコースで
記憶される。後継ニューロンは前位ニューロンによりも
たらされた結果によって定まる。従って各ニューロンの
出力に得られた結果の関数としてツリーを追跡しうるよ
うなメモリが必要である。この目的に対し、本ニューラ
ルネットワークには、任意のニューロンによって得られ
た結果にもとづいて、ツリー状構造による後継ニューロ
ンを指定するアドレスのディレクトリー(帳簿)を記憶
するメモリを配置する。各ニューロンによってプロセス
された標本を選定することにより、各ニューロンは前位
ニューロンの結果の関数として各ニューロン毎に互に相
異なり得るので、ニューラル ネットワークは、各後
継ニューロンによってプロセスされるべき標本を選択す
る手段を具える。 【0033】各ニューロン ネットワークはそれ自体
は学習を行わず、分類の任務のみを行うようにすること
も可能であり、この分類の仕事自体(task pro
per)はこのネットワークが指定されたかプログラム
されたものてある。この目的に対し、ニューロンの番号
、シナプス係数、連続順序、及びクラスのタイプ及び数
を規定(fix) するを要する。 【0034】本発明はさらにニューラル ネットワー
クに関するものである。本ニューラル ネットワーク
は、分類すべきデータ ワードのベクトルを受信する
入力端子と、この入力端子にリンクしているニューロン
と、ニューロン間のリンク力を規定するシナプス係数と
を有し、これらニューロンはツリー状の構成に相互接続
されており、ニューロンは2状態の結果を送出し、これ
らの結果はマルチクラス データ ワードの分類を
遂行するニューラル ネットワークでっあって、ニュ
ーロン数、シナプス係数、ニューロンの連続順序、識別
すべきクラス、及び番号は、遂行すべき分類に特殊の学
習方法によって予め規定されており、前記連続順序は、
前記ニューロンがもたらす状態によってアドレスされる
第1記憶媒体内に記憶され、識別すべき前記クラスは第
2記憶媒体内に記憶され、各ニューロンにより送出され
る結果の均一性をホスト コンピュータによりテスト
し、均一(斉次)性が満足されるときは、ホスト コ
ンピュータは第2記憶媒体をアドレスして、識別したク
ラスを送出し、均一性が満足されないときは、ホスト
コンピュータは第1記憶媒体をアドレスし、これによ
って次のニューロンのアドレスが与えられる如くしたこ
とを特徴とする。 【0035】 【実施例】以下図面により本発明を説明する。図1Aは
、セパレータの行動のモードの入力の空間内の表現であ
る。取り扱う状態というのは、標本のグループを3つに
分割した3つのクラスA,B,Cを有するものである。 この図では、セパレータ1は、空間を次の2つの部分す
なわち ─ 標本の1番目のサブグループ(クラスA,B)を
有する上部、と ─ 標本の2番目のサブグループ(クラスA,B,C
)を有する下部とに分割している。 【0036】後継のセパレータ2は、一方ではクラスA
を孤立させ、他方では標本のサブグループ(クラスA,
B)を孤立させている。 【0037】次にはセパレータ4が、そしてそれからセ
パレータ6が、クラスAとクラスBとの完全な分離を実
行するために、標本の1番目のサブグループに付加され
なければならない。 【0038】同様に、標本の2番目のサブグループに対
しても、セパレータ1の行動の後に、もしシンボルXで
表される標本(クラスC)を分離したいならば、例えば
セパレータ3、セパレータ5、セパレータ7、セパレー
タ9をこの順序で導入しなければならない。 【0039】これらと同一の結果が図1Bにツリー形式
で表されており、ここでは同じ数字が分離を実行するニ
ューロン(セパレータ)を表す。父ニューロンはニュー
ロン1であり、その他は後継ニューロンである。こうし
て茲に表される状態では、3つのクラスの完全な分離は
、9個のニューロンを必要とする。クラスCのシンボル
Xを孤立させるためのツリーの横断線は図1Bでは太線
で表される。すべてのニューロンが、入力ベクトルの構
成要素を受け取る入力端子に結合している。各ニューロ
ンは、それに先行するニューロンの結果で定まる標本又
はデータのグループ又はサブグループ上に作用する。 【0040】図2は、手順の様々なステップが出現する
ツリー状の構造に関するフローチャートを表す。この手
順は、ニューラル・ネットワークの学習訓練を実行し、
定義されたタスクにそれを適合させるために選ばれた、
標本のグループMからの選出(ステップ200)で始ま
る。 この標本のグループMは、その定義により非斉次(in
homogeneous) である。訓練は茲では広い
意味に理解されなければならない、その訳は、それは必
要とされるシナプス係数(ニューラル・ネットワークを
教示する)を決定するだけではなく、このタスクを完成
するのに必要とされるニューロンの数を同時に決定する
ものだからである。従ってそれはまたニューラル・ネッ
トワークが持っていなければならないサイズを決定する
問題でもある。 【0041】標本のグループMはk個の異なるクラスか
らの標本に対して形成される。ステップ202 では最
初に、k個のクラスをクラスG+1とクラスG−1の2
サブグループに分割し、これによってk個のクラスの分
類問題をクラスG+1とクラスG−1との2つのサブグ
ループの問題に縮小する。ステップ203 では該手順
は、標本のグループMの集合に亙って作用する父ニュー
ロンN1 のシナプス係数を決定する。これらのシナプ
ス係数は、ニューラル・ネットワークが、標本のグルー
プM中で2つのサブグループM+1とM−1との識別を
、最初に分割したクラスのサブグループG+1とG−1
とを最も良く包含するように実行することを指向するよ
うに、決定される。シナプス係数を決定することを許す
この訓練のメカニズムは、以下に述べるポケット・アル
ゴリズム(Pocket algorithm)により
実行されるのを好適とする。これらの条件下では、該訓
練は実行時間に関してもこの訓練を行うために所要のハ
ードウェアに関しても最適であることが判明する。ニュ
ーラル・ネットワークからの出力は、正確に割当てられ
たか或いは各クラスを意図したサブグループにその他の
やり方で割当てられたかが分析される。考え方を固定す
るために、例えばいくつかのクラスA,B,C,Dを有
する標本のグループの中で、クラスC(G+1=C)を
孤立させることを探究することもできる。そうするとク
ラスのサブグループG−1は標本のグループMからクラ
スのサブグループG+1を取り去ることにより形成され
る。こうして父ニューロンの学習はM+1をG+1に符
合させ、またM−1をG−1に符合させるようになるで
あろう。 【0042】先験的に線形に分離されないクラスA,B
,C,Dでは、こうして分離されたサブグループM−1
それ自体がクラスCの構成要素をも有するかも知れない
。後述するように、他の更に複雑な分割が父ニューロン
の行動の対象になり得る。 【0043】標本のサブグループM+1とM−1とを生
成する標本がその次に別々に処理される。ステップ22
0 及びステップ210 で、M+1及びM−1の斉次
性が検査される。 【0044】実際には、父ニューロンは前以て定義され
たクラスのサブグループを識別するというタスクを持つ
。もし標本のグループM+1(またはM−1)が斉次な
らば、すなわち同一のクラスの標本のみを含むならば、
これらの標本はステップ222(またはステップ212
)で識別される(階級K0,K1)。 【0045】もし標本のサブグループM+1(またはM
−1)が非斉次ならば、換言すれば異なるクラスの標本
を含むならば、この非斉次の標本のグループの区別を、
ステップ224(またはステップ214)で続けること
が必要である。 【0046】この目的のために、標本のサブグループM
+1を2つのクラスのサブグループに分割することが、
ステップ202 で述べたのと同じ分割メカニズムに従
って、標本のサブグループM+1中の残りのクラスの数
について行うことにより実行される。次いで、後継ニュ
ーロンN2(又はN3)が付加され、類似の二分法メカ
ニズムが実行される。後継ニューロン、例えばN2 の
出力ではこうして標本のサブグループM+2及びM−2
が得られ、これらはその斉次性について自身で検査され
て (ステップ240,ステップ260)、それにより
それらが標本のクラス (クラスK2,クラスK4)を
孤立させるか否かを決定する (ステップ242,ステ
ップ262)。全く同一の過程が後継ニューロンN3
の出力で行われる (ステップ250,ステップ230
,ステップ252,ステップ232)。本発明によるこ
の手順は、グループMのすべての標本がこうして処理さ
れ、各孤立した標本のサブグループが同じクラスに属す
る標本のみを含むようになったときに完成する。従って
、ニューロンの数及びそれらのシナプス係数はこの手順
自体によって決定され、この標本のグループに対する学
習訓練動作は完了する。然る後に、ニューラル・ネット
ワークは分類タスクを実行するために利用できる。 【0047】図3は本発明による手順で実行される分離
ステップのもう1つの表現である。標本の非斉次のグル
ープM上では、父ニューロンN1(太線で表す) は、
標本のサブグループM+1とM−1とによる識別を実行
する。この表現では、標本のサブグループM1+は斉次
で単一のクラスを含むと仮定する。さらにまた、標本の
サブグループM1−は非斉次とすることも仮定する。後
継ニューロンN3(太線で表す) は、M−1を2つの
標本のサブグループM+3とM−3とに分離する。サブ
グループM−3は斉次であり、サブグループM+3は非
斉次である。後者は後継ニューロンN5(太線で表す)
で標本のサブグループM+5とM−5とに分離され、
それらは茲に表されている状態では斉次である。分類の
手順はこれで終わり、ツリー状のニューラル・ネットワ
ークは他のデータのグループに分類を実行するのに使う
ことができる。図3ではその縦の列Iは、関係の後継ニ
ューロンにより実行された識別がそこで行われた標本の
グループMか又は標本のサブグループM−1,M+3を
示す、すなわち換言すれば先行のサブグループ又はグル
ープにより識別された斉次のサブグループ又はグループ
が取り出された後の標本のグループMか又は標本のサブ
グループM−1,M+3を示すのである。 【0048】標本から、父ニューロンは予め定められた
分割に近い2つの標本のサブグループに区分することを
指向するのである。 【0049】2つの標本のサブグループにクラスを分割
する1番目の例示は既に記述したが、これはある特定の
クラスを他のクラスから孤立させてそれら自身の間で標
本のクラスの集合を形成するものである。 【0050】図4Aは、クラスC1,クラスC2,クラ
スC3 から形成される標本40のグループMを表す。 クラスC1 の境界は曲線30で形成される。ニューロ
ンのシナプス係数の計算はクラスC1 を最良に孤立さ
せることであり、茲で形成されたセパレータは直線31
とされる。 【0051】分割の2番目の例示は、標本のクラスの各
々に対して誤り判定基準を前以て計算することである。 次いで、最良の分割を評価する誤り判定基準が定義され
る。この最良の分割によりこうして孤立させられた特定
のクラスは、そのシナプス係数を決定するように各ニュ
ーロンの学習を実行すべく選定されたものである。 【0052】分割の1番目及び2番目の例示は、大きな
サイズ(多数のニューロン)と大きな深さ(多数の更新
すべきニューロン)を持つツリーを導く可能性があり、
これはハンディキャップとなり得る。この理由によって
、それらにとって他の型の分割が好適となり得る。 【0053】ニューロンが指向しなければならない3番
目の分割の例示は、標本の分布の主要構成要素分析(a
principal componentsanal
ysis) を用いることである。 該主要構成要素分析というのは統計的な方法で、それは
N個のベクトル外1 【外1】 (d次元空間の点)のグループが、d個の主要方向とd
個の対応する分散σ2 を持つ平均ベクトル数1【数1
】 を援用して書き表すことを許すものである。この方法の
詳細は、1982年 Dunod社発行のE.DIDA
Y, J.LEMAIRE, J.POUGET, E
.TESTU による”Elements d’Ana
lyse deDonnees” という文献の第 1
67頁に記載されている。 【0054】図4Bの単純な場合では、標準偏差比σ1
/σ2 がほぼ3に等しい2次元空間の分布40が示さ
れている。この分布に対しては、平均外2 【外2】 及び固有の方向D1,D2 に沿った主要構成要素外3
【外3】 が定義されている。もし主要構成要素が減少する分散に
よって分類されるならば、第1の固有の方向は外4【外
4】 のノルムが標本μで最も変動する方向を示す。クラスC
1,C2,… ,Ck に割り当てられた標本の集合外
5【外5】 があり、それに対してk個のクラスの分類を進めるため
に線形セパレータ(ニューロン)を適用することが望ま
しい時には、次のようにしてk個のクラスを2つの別々
のグループG+/G− に分離することが好適である:
i) 一組の標本外6 【外6】 の平均外7 【外7】 及び最初の主要構成要素外8 【外8】 が、例えば共分散行列を計算し対角化し、続いて最大分
散を選択することによる完全な主要構成要素分析を実行
することによって計算される、 ii) Σを、クラスがCの標本の総和とし、NC を
クラスC中の標本の数とするとき、各クラスCに対応す
る重心が次式数2 【数2】 によって計算される、 iii) その重心が次の関係数3 【数3】 を満足するクラスをG+ とし、その他のクラスをG−
とすることによってグループ化が実行される。 【0055】主要構成要素分析の方法が、3つのクラス
を持つ2次元の分布に対して、図4Cに示される。分布
40は3つのクラスC1,C2,C3 を持ち、これら
の各クラスのそれぞれに対し平均値を<y>1,<y>
2,<y>3 、重心をH1,H2,H3 とする。上
記 i) に従っての平均の計算及び最初の主要ベクト
ルの計算によって、<y>及び外9 【外9】 が決定される。上記ii) に従っての各クラスに付随
する重心の計算によってH1,H2,H3 が決定され
る。上記 iii) に従ってのクラスのグループ化は
、セパレータ41を援用して、3つのクラスを2つのク
ラスのサブグループ上に分布させることを可能にする。 【0056】この場合、2つのクラスのサブグループへ
の標本の分割は、該標本の分布の重心を通り主方向に垂
直な軸に関する分割を実行するもので、該重心及び該主
方向は主要構成要素分析中に決定される。他の選択(例
えばクラスの選択)に関するこの方法の本質的利点は、
線形セパレータが更によくバランスするであろうこと、
すなわちそれは標本を、母集団がより僅かにしか異なら
ない2つの部分集合に分離するであろうことである。 【0057】分割の4番目の例示は、層化されたニュー
ラル・ネットワーク上の既知の結果を使うものである。 実際に、同一又は類似のタスクに適合するように既に訓
練を経たこのようなニューラル・ネットワークは、すで
に決定されたシナプス係数を保有している。そのような
層化されたニューラル・ネットワークの入力層は、セパ
レータ機能をも行うニューロンを有している。従って、
処理されるべき標本のグループMでは、所望の分割に最
も近い2つのサブグループへの分割をこの入力層の中で
行うことが可能である。 【0058】ニューロンにより実行される分割の以上4
つの例示は、これだけに限定されるものではなく、本発
明による他の選択も用いることが出来る。 【0059】所望のクラスのサブグループへの最善の近
似となるようにニューロンがそのシナプス係数を決定す
るために実行する学習は、J.Phys.A:Math
. Gen.誌 22(1989年) 第2191−2
203頁に所載の”Learning in Feed
forward Layered networks:
thetiling algorithm” という文
献中で M.MEZARD 及びJ.P.NADAL
により用いられ、Paris(1986年) の 8t
h Conf. on Pattern Recogn
ition におけるIEEE proc.に所載のS
.GALANTによる”Optimal Linear
Discriminants”という文献に記載され
ているポケット・アルゴリズムにより実行されるのを好
適とする。 【0060】この目的で、無作為に選ばれた各標本に対
して、ニューロンの出力のポテンシャルが計算される。 もしこのポテンシャルが安定性判定基準(S≧0)を満
足させるならば、また別の標本が選ばれる。もしこのポ
テンシャルが安定性判定基準を満足させない(S<0)
ならば、新しいシナプス係数が計算され、その新しいシ
ナプス係数はそれらが最小の誤り判定基準を満足させる
時に限り以前のシナプス係数を更新するために用いられ
る。すべての標本がこうして当該のニューロンのシナプ
ス係数を決定するのに用いられ、「ポケット」アルゴリ
ズムは非斉次のクラスの二分法を行わせるために最適の
シナプス係数に向かって収束する。 【0061】このアルゴリズム(tiling)は、現
在の層のユニットにより表される符号(+/−;1/0
)が信頼できるよう(reliable)になるまで、
すなわち換言すれば、2つの異なるクラスの標本が当面
問題の層の集合に亙って同一の符号を持たなくなるまで
、ニューロンを付加することによって多層ニューラル・
ネットワークを構築するために設計されたものである。 各層は、単一のニューロンを持つ層が得られるに至るま
で、先行の層の標本からこうして構築される。 【0062】図5はポケット・アルゴリズムのフローチ
ャートを示し、これは標本のグループを2つのグループ
に分離することを実行するものである。 【0063】所与のニューロンに対してそのシナプス係
数Cijは0に初期化される、また最大誤り判定基準C
Rm は非常に大きい値で初期化される (ステップ4
00)。1つの標本EXが無作為に採られ (ステップ
402)、それに対して安定値Sが iを目下分析の対象とされているるニューロンの指標と
し、jをそれに接続されるニューロン又は入力の指標と
し、外10 【外10】 をニューロンiの入力に存在するμ標本のj番目の構成
要素とする時数4 【数4】 によって決定される (ステップ404)。 【0064】この安定値Sが検査される (ステップ4
06)。もしそれが正ならば安定性は十分で、また別の
標本が選ばれる。 【0065】もしこの安定値Sが負又は0ならば、シナ
プス係数C’ ijは次の式 C’ ij(新)=C’ ij(旧)+yjにより決定
される (ステップ408)。 【0066】こうして決定された各新シナプス係数C’
ijは、例えば安定性が間違った符号を持つ標本の数
を算定するところの誤り判定基準CRを満足させなけれ
ばならない (ステップ410)。もしこの判定基準C
Rが判定基準の最大値CRm よりも小さければ (ス
テップ412)、決定されたシナプス係数C’ ijは
、以前に記憶されていたシナプス係数Cijを更新する
のに使われる (ステップ414)。 【0067】同様に、最大値CRm も更新される。こ
うしてすべての標本が計算のため及び恐らくはその次に
このニューロンiのシナプス係数の更新のために逐次使
われる。この学習の最後に、このニューロンiによって
行われた分離が、所与のグループの標本に対して得られ
た結果 (2つのクラスのグループ:+/−;1/0)
を算定することにより、検査される。もし該分離が斉次
なクラスのグループを供給しないならば、また別のニュ
ーロンが層に付加され、ポケット・アルゴリズムが再び
同じやり方で実行される。 【0068】このアルゴリズムはニューロンの出力で得
られたクラスのグループの2つのタイプ +/− (又
は1/0)しか区別することができない。それ故、それ
はもっと多くの数のクラスA,B,C,D等に分割する
学習中の標本に対して、直接作用することはできない。 【0069】本発明はまた、図6に図式的に示したツリ
ー状に組織されたニューラル・ネットワークにも関する
。該ネットワークは計算ユニット500 を有し、これ
は出力状態Vi を入力ポテンシャルVj から、Ci
jはニューロンiを入力j(又はニューロンj)に接続
するシナプス係数であるとすると、次式 Vi =ΣCij・Vj によって算定する。 【0070】この計算ユニット500 は、当業者にと
って既知のメカニズムによって動作し、それは例えば上
掲のR.P.LIPPMANNの文献に記載されている
。 【0071】任意のニューロンの学習中に、その後継ニ
ューロンはこの任意のニューロンのもたらす結果によっ
て異なるであろう。従って、ニューラル・ネットワーク
を使用するためには、該任意のニューロンのもたらす結
果による後継ニューロンを確定することが必要である。 この目的のために、アドレス・メモリ504 が上記結
果に対応するアドレスを受け取り、逆に後継ニューロン
のアドレスを送り出す。 【0072】以前に定義したようにしてニューロンが創
造される学習の過程で、後継ニューロンの継起の順序は
このようにして決定され、メモリ504 に搭載される
。こうしてニューラル・ネットワークはアドレスの一覧
表を記憶するメモリを具備することになり、この一覧表
には任意のニューロン上で得られた結果によるツリー状
の組織をもつ後続ニューロンに関する情報が含まれる。 ツリーのすべての分枝へアドレスすることはこうして僅
かのハードウェアだけで速やかに実行される。クラス・
メモリ506 はニューロンのツリーによって分離され
たクラスを記憶する。 【0073】ツリー状のニューラル・ネットワークを利
用するステップ中に、メモリはニューロンの与える結果
によってアドレスされ、その返しとしてN個の後継ニュ
ーロンのアドレスを供給する。この交換はホスト・コン
ピュータ502を通して実行され、このホスト・コンピ
ュータは、種々のユニットのそれら自身の間の交換の集
合、特に各ニューロンが受け取らなければならない各グ
ループ又はサブグループの交換を管理する。 【0074】ツリーの分枝の終端に到達すると、クラス
・メモリ(506) から対応するクラスが読み出され
る。このことは斉次の標本のクラスの決定が速やかに実
行されることを好適に許容する。標本は標本メモリ50
8 に記憶される。標本を割り付けるためのメモリ51
0 が、ある特定のニューロンにより処理されなければ
ならない標本のサブグループの選択を許容する。ニュー
ラル・ネットワークは、学習方法がツリーを構成するニ
ューロンをそれによって決定するところのある一定数の
ニューロンを備えていることが可能である。しかしなが
ら学習方法は、ニューロンの数、そのシナプス係数、ニ
ューロンの継起の順序、識別すべきクラス及びその数を
決定するために別々のハードウェア内で実施されること
もまた可能である。そのとき、これらのパラメータはす
べて、習得した分類のタスクに役立たせるニューラル・
ネットワークを構築するのに用いられる。その場合には
、このニューラル・ネットワークは、学習のオプション
を保有せず、専ら分類用のニューラル・ネットワーク(
習得した方法の繰り返し)でしかない。この種のツリー
状のネットワークが別の訓練方法で更に多く決定される
かもしれない。
ーク内に用いる分類方法であり、学習ステップを有し、
このステップ中において、ニューラル ネットワーク
は、数クラスに分割される標本(エクザンプル)群を分
類するため、シナプス係数を決定するツリー状ニューラ
ル ネットワーク内に用いる分類方法に関するもので
ある。 さらに本発明は、かかる方法を実施するニューラル
ネットワークに関するものである。 【0002】ニューラル ネットワークは、とくに文
字及びパターン認識、音声信号プロセシング、画像プロ
セシング、情報比較等において分類(classifi
cation)を行う用途に使用される。 【0003】ニューラル ネットワークは非直線オー
トマトン(automaton )で、一般にシナプス
(synapse )によって相互連結されたオートマ
トンにより構成され、これらシナプスにはシナプス係数
が割当られている。かかるネットワークは従来の逐次処
理型コンピュータでは処理が困難であった問題のプロセ
スを可能とする。 【0004】 【従来の技術】ネットワークの最も広く普及している2
つのタイプというのは: − いわゆるホーップフィールド・ネットワーク(H
opfield networks )と呼ばれる完全
に結合している(fully connected )
ネットワーク、と− 層化された(layered
)ネットワーク:すなわちニューロンは順次の層にグル
ープ化され、各ニューロンはそれに続く層のすべてのニ
ューロンに結合するの、とである。 最も一般的な構造では、情報は(受動的−passiv
e )入力端子から(能動的−active)入力層へ
、次いで逐次各隠された(能動的)層へ、そして(能動
的)出力層に至るルートで供給される。最も簡略化され
た構造では、情報は、(受動的)入力端子から単一の(
能動的)層へと供給される。入力情報は数個の成分を有
するベクトルのシーケンスで形成される。 【0005】これらのシステムは、標本によるか又は自
己組織(self−organizing )による学
習の能力がある。 逐次型コンピュータ(sequential comp
uters)の計算時間は、学習相(learning
phases )と解答相(solution ph
ases)とを有する操作を並列に実行することにより
相当軽減することができる。 【0006】所与の操作(processing)を実
行するためには、ニューラル・ネットワークは第1にそ
れを実行する学習をしなければならない。学習相と呼ば
れるこの相では、標本(example )を用いる。 多数のアルゴリズムに対してこれらの標本の出力に得ら
れる結果は予め既知である。意図された課題を未だ採り
上げていないニューラル・ネットワークは、最初は誤っ
た結果を出すことがある。そこで、得られた結果と得ら
るべきであった結果との間の誤りが明らかにされ、ニュ
ーラル・ネットワークに選定された標本を学習すること
を許すために、変更した判定基準に基づいてシナプス係
数が変形される。この段階は、ニューラル・ネットワー
クが満足な学習をするのに必要と考えられる一団の標本
に対して何度でも繰り返される。 【0007】学習アルゴリズムは2つの階級(clas
ses )に分割される: − 局所学習(local learning)、す
なわちニューロンjをニューロンiに結合するシナプス
係数 Cijの変形が、ニューロンi及びニューロンj
上に限定されている情報にのみ依存するもの、と − 非局所学習(non−local learni
ng)、すなわちネットワーク全体に所在する情報に依
存するものである。後者の公知の例としては層化された
ネットワーク内で誤りがフィード バックされるもの
である。 【0008】種々のタイプのニューラル・ネットワーク
に関する情報は、IEEE ASSP Magazin
e誌 1987 年4月号第4−22頁に所載のアール
・ピー・リップマン(R. P. LIPPMANN)
による“An introduction to co
mputing with neural nets
”という論文に記載されている。これらのニューラル・
ネットワークでは、構造の組織は(層化されているか又
は完全に結合しているかに)固定されている、そしてニ
ューロン間の結合は前以て固定されている。 【0009】その時実行される学習の目的は、種々のア
ーキテクチャ(構造)を実施し、次で帰納的な選択(p
osteriori chice)をなすことにより、
最適構造を見出すことである。 【0010】学習の過程でアーキテクチャが決定できる
ようなアルゴリズムが、J.Phys.A:Math.
Gen. 誌 22(1989年)第2191−220
3頁に所載の“learning in Feedfo
rwardLayered Networks:the
tiling algorithm”という文献中で
既に、エム.メツアード(M. MEZARD )及び
ジェー.ピー.ナダル(J. P. NADAL )に
より提案されている。 【0011】この目的のために、該学習はある層中に割
当られた1番目のニューロンのシナプス係数を最適化す
ることにより初期化され、もしこのニューロンが分類の
課題を完成するのに十分でなければ、さらにもう1つの
ニューロンが当該の層に、又は同じく初期化されたその
次の層に追加される。この手法(approach)に
よって、アーキテクチャの学習及び、出力を2つの階級
に分離して、層化されたネットワークのパラメータ(多
層パーセプトロン)の学習ができる。 【0012】しかしこれらは何れも、理論的なニューロ
ンの数よりも遙に多数のニューロンを使用しなければな
らないので、小形化(compactness)の点で
最適ではない。さらにこれに加えて、展開的な問題(e
volutionary problem)の場合には
、入力パラメータが極く僅か変化したようなとき、例え
ば分類の問題で、既に学習したクラスに追加のクラスを
付加するようなときでも全部の学習を再開始する必要が
ある。 【0013】さらに、1988年7月 カリフォニル
ア州 サン ディエゴで開催されたニューラル
ネットワークに関するIEEE Internatio
nal Conference において、シー・コウ
ツオジエラス(C. KOUTSOUGERAS )及
びシー・エー・パパクリストウ(C. A. PAPA
CHRISTOU)が、P−1−247 〜1−254
に“Training of a neural n
etwork forpattern classif
ication based on an entro
py measure ”として発表したツリー状ニュ
ーラルネットワークが既知である。 【0014】この構造は入力データ内の2つのクラスを
識別する分類の遂行に適している。ニューロンは、入力
と2つの相補的出力と、有効化(validation
)入力Eとを有するセル(シナプス係数と非直線機能を
有する)によって構成されている。設定(create
)された第1のニューロンが、2つのクラスの完全な分
離を遂行し得ないときは、2つの後続ニューロンがシス
テム的に形成され、これらの有効化入力Eは、それぞれ
第1ニューロンの2つの相補出力によって制御される。 ニューラル ネットワークはこれらニューロンの行(
row )を順次付加してゆくことによって構成される
。実際上前述の文献は次のことを特定している。各ユニ
ット(ニューロン)の各出力は、次の行の他のユニット
(ニューロン)の入力Eに接続される。第1ニューロン
(父ニューロン)によって構成される第1ランク(段階
)に対し、すべての息子ニューロンによって第2ランク
が形成され、さらにすべての孫ニューロンによって第3
ランクが形成され、以下同様となってゆく。従ってk次
の層は、2k−1 個のニューロンを有する。この構成
によって完全2進ツリーが創成される。また一方このニ
ューラル ネットワークは2つのクラス間のみの分類
を遂行する目的を有している。このニューラル ネッ
トワークは、その入力のスペース(空間)において、位
相数学的あるいは地勢学的(topological
)な課題の解を求めるものである。すなわちこのニュー
ラル ネットワークは、1つのクラスに属しているス
ペースのゾーンを他方のクラスに属しているゾーンより
識別する。前記文献は、2つより多いクラスに分割でき
る入力データを分類する為には如何にして動作したら良
いかについては教示していない。 【0015】 【発明が解決しようとする課題】従って本発明の課題は
、多クラス分類の問題に対処でき、かつ既知の層化構造
よりもより小形のニューラル ネットワークの構造を
提供するにある。この構造(architecture
)は極めて急速に動作するを要する。さらに本構造は既
知の構造よりもより柔軟(適応)性があり、発展が容易
であるを要する。 【0016】2クラスより多いクラスの分類を行う本発
明による分類方法は、学習が次のステップを有すること
を特徴とする。 A−クラス分けすべき標本をクラスの2つのサブグルー
プに従ってクラス分けするステップ、 B−標本群より、近似の標本の2つのサブグループを識
別しこれら2つのクラスのサブグループによって分割が
可能なようにするため、ニューロンのシナプス係数を計
算するステップ、 C−サブグループが単一のクラスを含んでいるか否かを
決定するため、識別された標本の均一性をテストするス
テップ、 D−ニューロンが単一クラスを識別したとき、このニュ
ーロンのアドレスを記憶蓄積し、この単一クラスを記録
するステップ、 E−ニューロンが不均一(非斉次)のサブグループを識
別したときは、ステップAの工程を再スタートすること
によってクラスの2つの新しいサブグループに標本を各
均一のサブグループに分割し、次で標本の各不均一サブ
グループに対し、後位ニューロンを形成し、標本の新規
なサブグループが後位ニューロンによってすべてが均一
なクラスのサブグループであると識別される迄この工程
を反復するステップ。 【0017】この方法(procedure )は、ハ
イアラーキー ニューラル ネットワークと称され
、ニューロンの相互接続並びにシナプス係数のアップデ
ート(更新)は、デシジョン ツリーの通路に従って
行われる。ツリーの形状に構成されたニューラル ネ
ットワークにおいて、すべてのニューロンは入力の空間
(スペース)で動作する。(形成されたすべてのニュー
ロンは入力ベクトル成分のすべてを受信する。)これに
より得られる構造は極めて小形となる。学習期間は遙に
短縮される。その理由は、ネットワーク構造が、ニュー
ロンによってプロセスされる所望の所定サブクラスの選
択に対する最適の構造に極めて近似しているからである
。とくに第1ニューロン(父ニューロン)により形成さ
れる第1ランクに対し、第2ランクはすべての子(so
n )ニューロンを包含せず、同様に他のランクにもこ
れが当てはまり、すなわち、クラスの分離に実際に役に
立たないニューロンは形成されない。 【0018】実行(execution )フェースに
おいて、実行時間も遙に短縮される。その理由は、ある
所定のクラスに対し、当該クラスの識別に必要なニュー
ロンのみを使用(implement )するからであ
る。実際上あるニューロンにより得られた結果(res
ult)によって、動作させるべき後位のニューロンの
アドレスを決定する。このアドレスは学習中に記憶され
る。これはジー・コウツオウジエラス(G. KOUT
SOUGERAS )他の文献の処理とは異なる点であ
る。該文献では、ニューロンのアドレスは記憶されない
。それは方式的にいって、ランクkに対して、全体で2
k−1 のニューロンが創成される。 【0019】学習を行うには、父ニューロンのシナプス
係数を計算し、標本のグループM内に、複数のクラスP
のサブグループを識別する。 【0020】例えば標本グループ(群)Mが、クラスA
,B,C,Dをカバーしているとすると、識別は、これ
ら各クラスのうちの1つのクラス、例えばクラスBを隔
離(isolate)するサブグループM+1 を識別
することにより行われる。この場合、相補的(Comp
lementary)サブグループM−1 は、他のク
ラスA,C,Dにより構成される。 【0021】ニューロンがクラスA,B,C,Dのおの
おのを分離する能力に、予め定めた誤差基準(erro
r criterion)を割り当て、上述の手順を行
うに際し最小の誤差基準のものを選択することも可能て
ある。 【0022】ニューロンによって行われる標本の2つの
サブグループの識別は、標本の分布の重心に関して2群
への分割を行うことにより、標本の分布の主成分の分析
によるクラス分けの傾向に見合うようにしても行うこと
ができる。 【0023】ニューロンが識別すべき特殊のクラスは、
層化ネットワークによって予め行われる学習によっても
決定することができる。この状況において、層化ニュー
ラルネットワークは、そのシナプス係数に多クラス標本
の基本を割当てる。入力ポテンシャルによって動作する
第1層は、クラスのセパレータとして動作する。従って
、所望の分割に最も近似した識別を行うニューロンは第
1層内より選択される。この場合、ニューロンの初期シ
ナプス係数は、層化ニューラル ネットワークより前
記ととくていのクラスをもっとも良く近似してクラス識
別を行うニューロンのシナプス係数を選択して決定する
。 【0024】所定のクラスを離隔する代りに、他の態様
の分割が望まれるときもある。例えば2グループ内の標
本の数(population) を平衡させて、セパ
レータによって分離することである。このような場合に
は、層化ニューラル ネットワークのもっとも適当な
セパレータ ニューロンのシナプス係数を関連のツリ
ー状ニューロンの学習に使用する。 【0025】この場合前位の構造内の満足な結果を利用
すると有利であり、これを用いてより小形で、より急速
で、かつパワーの大なツリー状構造を構成し得る。 【0026】ニューロンによって、分離しようとする特
定のクラスPをM+1 のグループ内で行う分離は、標
本のクラスが直線分離不能なときは不完全にしか行い得
ない。従って特定のクラスPと同クラスの標本は、第1
ニューロンによって識別した後、相補的サブ グルー
プM−1 内にも見出される。 【0027】次でグループM+1 及び相補グループM
−1 に斉次テストを行い、これらが単一のクラスを包
含しているかを決定する。これらの1つまたは他方が斉
次(均一、homogeneous)であると、このグ
ループの識別は完結する。これらグループの一方または
他方が、不均一であると、これらのグループ各々に対し
次位ニューロンを形成し、次位ニューロンは非斉次(i
nhomogeneous) グループ内に2つの新
しいグループを識別する。この目的に対する手続では、
2分割(dichotomycriterion)によ
って識別を行うこの後続ニューロンに対するシナプス係
数を計算する。この識別動作は、入力標本(ベクトル)
に対し行い、この標本は関連非斉次グループを形成した
ものである。標本の二分プロセジュア及び後続ニューロ
ンの生成は、各順次の世代にわたって反復して行う。 【0028】2つのサブ グループにわたる分離を行
う各ニューロンの訓練にはいくつかの変形がある。エム
.メメザード(M.MEZARO) 及びジェー・ピー
・ナダル (J.P.NADAL)によって使用された
ポケットアルゴリズム(Pocket algorit
hm) で、エス・ギヤラント (S.GALLANT
)が、proc, 8th conf. “Patte
rn Recognition ”パリ、1986に発
表したIEEE“Optimal Linear Di
scrimiants ”に発表したポケットアルゴリ
ズムを使用すると好都合である。このポケット アル
ゴリズムは各ニューロンにより行われる分離の遂行に使
用することができる。 【0029】各ニューロンに対し、「パーセプトロン
(Perceptron) 」という訓練判定基準を用
いることも可能で、これは任意の標本に対して、ニュー
ラル ネットワークの出力で得られた結果と期待され
る結果との差異を特徴付ける誤りに基づいてシナプス係
数を再更新するものである。これらの訓練判定基準は、
当業者にとって既知である。 【0030】どのニューロンの訓練でもこれを成し遂げ
るためには、そのシナプス係数の計算は、「ポケット」
アルゴリズム(“Pocket”algorithm)
か、「パーセプトロン」型 (“Percepton
”type) の学習規則か、又はヘップ型(Hebb
type) の学習規則かのいずれかを実行すること
になる。(前掲のアール・ピー・リップマン (R.P
.LIPPMANN) の文献、及びPhys.Rev
.A誌、第37巻第7号(1988年) 第2660頁
所載アール・メイヤ(R.MEIR)とイー・ドマニー
(E.DOMANY)による“Integrated
Learning in a Iayered Fe
ed−Forward Neural Natwor
k ”という文献参照) 【0031】本発明はまた、この方法を実行するニュー
ラル・ネットワークにも関する。 【0032】ニューラル・ネットワークがツリー状構造
でまず初めに構築され、然る後に分類のタスクを実施す
るに用いられる。このときはツリーのブランチ(枝)が
構造のフアンクションに従って追跡され、後継ニューロ
ンのアドレスが学習(training) のコースで
記憶される。後継ニューロンは前位ニューロンによりも
たらされた結果によって定まる。従って各ニューロンの
出力に得られた結果の関数としてツリーを追跡しうるよ
うなメモリが必要である。この目的に対し、本ニューラ
ルネットワークには、任意のニューロンによって得られ
た結果にもとづいて、ツリー状構造による後継ニューロ
ンを指定するアドレスのディレクトリー(帳簿)を記憶
するメモリを配置する。各ニューロンによってプロセス
された標本を選定することにより、各ニューロンは前位
ニューロンの結果の関数として各ニューロン毎に互に相
異なり得るので、ニューラル ネットワークは、各後
継ニューロンによってプロセスされるべき標本を選択す
る手段を具える。 【0033】各ニューロン ネットワークはそれ自体
は学習を行わず、分類の任務のみを行うようにすること
も可能であり、この分類の仕事自体(task pro
per)はこのネットワークが指定されたかプログラム
されたものてある。この目的に対し、ニューロンの番号
、シナプス係数、連続順序、及びクラスのタイプ及び数
を規定(fix) するを要する。 【0034】本発明はさらにニューラル ネットワー
クに関するものである。本ニューラル ネットワーク
は、分類すべきデータ ワードのベクトルを受信する
入力端子と、この入力端子にリンクしているニューロン
と、ニューロン間のリンク力を規定するシナプス係数と
を有し、これらニューロンはツリー状の構成に相互接続
されており、ニューロンは2状態の結果を送出し、これ
らの結果はマルチクラス データ ワードの分類を
遂行するニューラル ネットワークでっあって、ニュ
ーロン数、シナプス係数、ニューロンの連続順序、識別
すべきクラス、及び番号は、遂行すべき分類に特殊の学
習方法によって予め規定されており、前記連続順序は、
前記ニューロンがもたらす状態によってアドレスされる
第1記憶媒体内に記憶され、識別すべき前記クラスは第
2記憶媒体内に記憶され、各ニューロンにより送出され
る結果の均一性をホスト コンピュータによりテスト
し、均一(斉次)性が満足されるときは、ホスト コ
ンピュータは第2記憶媒体をアドレスして、識別したク
ラスを送出し、均一性が満足されないときは、ホスト
コンピュータは第1記憶媒体をアドレスし、これによ
って次のニューロンのアドレスが与えられる如くしたこ
とを特徴とする。 【0035】 【実施例】以下図面により本発明を説明する。図1Aは
、セパレータの行動のモードの入力の空間内の表現であ
る。取り扱う状態というのは、標本のグループを3つに
分割した3つのクラスA,B,Cを有するものである。 この図では、セパレータ1は、空間を次の2つの部分す
なわち ─ 標本の1番目のサブグループ(クラスA,B)を
有する上部、と ─ 標本の2番目のサブグループ(クラスA,B,C
)を有する下部とに分割している。 【0036】後継のセパレータ2は、一方ではクラスA
を孤立させ、他方では標本のサブグループ(クラスA,
B)を孤立させている。 【0037】次にはセパレータ4が、そしてそれからセ
パレータ6が、クラスAとクラスBとの完全な分離を実
行するために、標本の1番目のサブグループに付加され
なければならない。 【0038】同様に、標本の2番目のサブグループに対
しても、セパレータ1の行動の後に、もしシンボルXで
表される標本(クラスC)を分離したいならば、例えば
セパレータ3、セパレータ5、セパレータ7、セパレー
タ9をこの順序で導入しなければならない。 【0039】これらと同一の結果が図1Bにツリー形式
で表されており、ここでは同じ数字が分離を実行するニ
ューロン(セパレータ)を表す。父ニューロンはニュー
ロン1であり、その他は後継ニューロンである。こうし
て茲に表される状態では、3つのクラスの完全な分離は
、9個のニューロンを必要とする。クラスCのシンボル
Xを孤立させるためのツリーの横断線は図1Bでは太線
で表される。すべてのニューロンが、入力ベクトルの構
成要素を受け取る入力端子に結合している。各ニューロ
ンは、それに先行するニューロンの結果で定まる標本又
はデータのグループ又はサブグループ上に作用する。 【0040】図2は、手順の様々なステップが出現する
ツリー状の構造に関するフローチャートを表す。この手
順は、ニューラル・ネットワークの学習訓練を実行し、
定義されたタスクにそれを適合させるために選ばれた、
標本のグループMからの選出(ステップ200)で始ま
る。 この標本のグループMは、その定義により非斉次(in
homogeneous) である。訓練は茲では広い
意味に理解されなければならない、その訳は、それは必
要とされるシナプス係数(ニューラル・ネットワークを
教示する)を決定するだけではなく、このタスクを完成
するのに必要とされるニューロンの数を同時に決定する
ものだからである。従ってそれはまたニューラル・ネッ
トワークが持っていなければならないサイズを決定する
問題でもある。 【0041】標本のグループMはk個の異なるクラスか
らの標本に対して形成される。ステップ202 では最
初に、k個のクラスをクラスG+1とクラスG−1の2
サブグループに分割し、これによってk個のクラスの分
類問題をクラスG+1とクラスG−1との2つのサブグ
ループの問題に縮小する。ステップ203 では該手順
は、標本のグループMの集合に亙って作用する父ニュー
ロンN1 のシナプス係数を決定する。これらのシナプ
ス係数は、ニューラル・ネットワークが、標本のグルー
プM中で2つのサブグループM+1とM−1との識別を
、最初に分割したクラスのサブグループG+1とG−1
とを最も良く包含するように実行することを指向するよ
うに、決定される。シナプス係数を決定することを許す
この訓練のメカニズムは、以下に述べるポケット・アル
ゴリズム(Pocket algorithm)により
実行されるのを好適とする。これらの条件下では、該訓
練は実行時間に関してもこの訓練を行うために所要のハ
ードウェアに関しても最適であることが判明する。ニュ
ーラル・ネットワークからの出力は、正確に割当てられ
たか或いは各クラスを意図したサブグループにその他の
やり方で割当てられたかが分析される。考え方を固定す
るために、例えばいくつかのクラスA,B,C,Dを有
する標本のグループの中で、クラスC(G+1=C)を
孤立させることを探究することもできる。そうするとク
ラスのサブグループG−1は標本のグループMからクラ
スのサブグループG+1を取り去ることにより形成され
る。こうして父ニューロンの学習はM+1をG+1に符
合させ、またM−1をG−1に符合させるようになるで
あろう。 【0042】先験的に線形に分離されないクラスA,B
,C,Dでは、こうして分離されたサブグループM−1
それ自体がクラスCの構成要素をも有するかも知れない
。後述するように、他の更に複雑な分割が父ニューロン
の行動の対象になり得る。 【0043】標本のサブグループM+1とM−1とを生
成する標本がその次に別々に処理される。ステップ22
0 及びステップ210 で、M+1及びM−1の斉次
性が検査される。 【0044】実際には、父ニューロンは前以て定義され
たクラスのサブグループを識別するというタスクを持つ
。もし標本のグループM+1(またはM−1)が斉次な
らば、すなわち同一のクラスの標本のみを含むならば、
これらの標本はステップ222(またはステップ212
)で識別される(階級K0,K1)。 【0045】もし標本のサブグループM+1(またはM
−1)が非斉次ならば、換言すれば異なるクラスの標本
を含むならば、この非斉次の標本のグループの区別を、
ステップ224(またはステップ214)で続けること
が必要である。 【0046】この目的のために、標本のサブグループM
+1を2つのクラスのサブグループに分割することが、
ステップ202 で述べたのと同じ分割メカニズムに従
って、標本のサブグループM+1中の残りのクラスの数
について行うことにより実行される。次いで、後継ニュ
ーロンN2(又はN3)が付加され、類似の二分法メカ
ニズムが実行される。後継ニューロン、例えばN2 の
出力ではこうして標本のサブグループM+2及びM−2
が得られ、これらはその斉次性について自身で検査され
て (ステップ240,ステップ260)、それにより
それらが標本のクラス (クラスK2,クラスK4)を
孤立させるか否かを決定する (ステップ242,ステ
ップ262)。全く同一の過程が後継ニューロンN3
の出力で行われる (ステップ250,ステップ230
,ステップ252,ステップ232)。本発明によるこ
の手順は、グループMのすべての標本がこうして処理さ
れ、各孤立した標本のサブグループが同じクラスに属す
る標本のみを含むようになったときに完成する。従って
、ニューロンの数及びそれらのシナプス係数はこの手順
自体によって決定され、この標本のグループに対する学
習訓練動作は完了する。然る後に、ニューラル・ネット
ワークは分類タスクを実行するために利用できる。 【0047】図3は本発明による手順で実行される分離
ステップのもう1つの表現である。標本の非斉次のグル
ープM上では、父ニューロンN1(太線で表す) は、
標本のサブグループM+1とM−1とによる識別を実行
する。この表現では、標本のサブグループM1+は斉次
で単一のクラスを含むと仮定する。さらにまた、標本の
サブグループM1−は非斉次とすることも仮定する。後
継ニューロンN3(太線で表す) は、M−1を2つの
標本のサブグループM+3とM−3とに分離する。サブ
グループM−3は斉次であり、サブグループM+3は非
斉次である。後者は後継ニューロンN5(太線で表す)
で標本のサブグループM+5とM−5とに分離され、
それらは茲に表されている状態では斉次である。分類の
手順はこれで終わり、ツリー状のニューラル・ネットワ
ークは他のデータのグループに分類を実行するのに使う
ことができる。図3ではその縦の列Iは、関係の後継ニ
ューロンにより実行された識別がそこで行われた標本の
グループMか又は標本のサブグループM−1,M+3を
示す、すなわち換言すれば先行のサブグループ又はグル
ープにより識別された斉次のサブグループ又はグループ
が取り出された後の標本のグループMか又は標本のサブ
グループM−1,M+3を示すのである。 【0048】標本から、父ニューロンは予め定められた
分割に近い2つの標本のサブグループに区分することを
指向するのである。 【0049】2つの標本のサブグループにクラスを分割
する1番目の例示は既に記述したが、これはある特定の
クラスを他のクラスから孤立させてそれら自身の間で標
本のクラスの集合を形成するものである。 【0050】図4Aは、クラスC1,クラスC2,クラ
スC3 から形成される標本40のグループMを表す。 クラスC1 の境界は曲線30で形成される。ニューロ
ンのシナプス係数の計算はクラスC1 を最良に孤立さ
せることであり、茲で形成されたセパレータは直線31
とされる。 【0051】分割の2番目の例示は、標本のクラスの各
々に対して誤り判定基準を前以て計算することである。 次いで、最良の分割を評価する誤り判定基準が定義され
る。この最良の分割によりこうして孤立させられた特定
のクラスは、そのシナプス係数を決定するように各ニュ
ーロンの学習を実行すべく選定されたものである。 【0052】分割の1番目及び2番目の例示は、大きな
サイズ(多数のニューロン)と大きな深さ(多数の更新
すべきニューロン)を持つツリーを導く可能性があり、
これはハンディキャップとなり得る。この理由によって
、それらにとって他の型の分割が好適となり得る。 【0053】ニューロンが指向しなければならない3番
目の分割の例示は、標本の分布の主要構成要素分析(a
principal componentsanal
ysis) を用いることである。 該主要構成要素分析というのは統計的な方法で、それは
N個のベクトル外1 【外1】 (d次元空間の点)のグループが、d個の主要方向とd
個の対応する分散σ2 を持つ平均ベクトル数1【数1
】 を援用して書き表すことを許すものである。この方法の
詳細は、1982年 Dunod社発行のE.DIDA
Y, J.LEMAIRE, J.POUGET, E
.TESTU による”Elements d’Ana
lyse deDonnees” という文献の第 1
67頁に記載されている。 【0054】図4Bの単純な場合では、標準偏差比σ1
/σ2 がほぼ3に等しい2次元空間の分布40が示さ
れている。この分布に対しては、平均外2 【外2】 及び固有の方向D1,D2 に沿った主要構成要素外3
【外3】 が定義されている。もし主要構成要素が減少する分散に
よって分類されるならば、第1の固有の方向は外4【外
4】 のノルムが標本μで最も変動する方向を示す。クラスC
1,C2,… ,Ck に割り当てられた標本の集合外
5【外5】 があり、それに対してk個のクラスの分類を進めるため
に線形セパレータ(ニューロン)を適用することが望ま
しい時には、次のようにしてk個のクラスを2つの別々
のグループG+/G− に分離することが好適である:
i) 一組の標本外6 【外6】 の平均外7 【外7】 及び最初の主要構成要素外8 【外8】 が、例えば共分散行列を計算し対角化し、続いて最大分
散を選択することによる完全な主要構成要素分析を実行
することによって計算される、 ii) Σを、クラスがCの標本の総和とし、NC を
クラスC中の標本の数とするとき、各クラスCに対応す
る重心が次式数2 【数2】 によって計算される、 iii) その重心が次の関係数3 【数3】 を満足するクラスをG+ とし、その他のクラスをG−
とすることによってグループ化が実行される。 【0055】主要構成要素分析の方法が、3つのクラス
を持つ2次元の分布に対して、図4Cに示される。分布
40は3つのクラスC1,C2,C3 を持ち、これら
の各クラスのそれぞれに対し平均値を<y>1,<y>
2,<y>3 、重心をH1,H2,H3 とする。上
記 i) に従っての平均の計算及び最初の主要ベクト
ルの計算によって、<y>及び外9 【外9】 が決定される。上記ii) に従っての各クラスに付随
する重心の計算によってH1,H2,H3 が決定され
る。上記 iii) に従ってのクラスのグループ化は
、セパレータ41を援用して、3つのクラスを2つのク
ラスのサブグループ上に分布させることを可能にする。 【0056】この場合、2つのクラスのサブグループへ
の標本の分割は、該標本の分布の重心を通り主方向に垂
直な軸に関する分割を実行するもので、該重心及び該主
方向は主要構成要素分析中に決定される。他の選択(例
えばクラスの選択)に関するこの方法の本質的利点は、
線形セパレータが更によくバランスするであろうこと、
すなわちそれは標本を、母集団がより僅かにしか異なら
ない2つの部分集合に分離するであろうことである。 【0057】分割の4番目の例示は、層化されたニュー
ラル・ネットワーク上の既知の結果を使うものである。 実際に、同一又は類似のタスクに適合するように既に訓
練を経たこのようなニューラル・ネットワークは、すで
に決定されたシナプス係数を保有している。そのような
層化されたニューラル・ネットワークの入力層は、セパ
レータ機能をも行うニューロンを有している。従って、
処理されるべき標本のグループMでは、所望の分割に最
も近い2つのサブグループへの分割をこの入力層の中で
行うことが可能である。 【0058】ニューロンにより実行される分割の以上4
つの例示は、これだけに限定されるものではなく、本発
明による他の選択も用いることが出来る。 【0059】所望のクラスのサブグループへの最善の近
似となるようにニューロンがそのシナプス係数を決定す
るために実行する学習は、J.Phys.A:Math
. Gen.誌 22(1989年) 第2191−2
203頁に所載の”Learning in Feed
forward Layered networks:
thetiling algorithm” という文
献中で M.MEZARD 及びJ.P.NADAL
により用いられ、Paris(1986年) の 8t
h Conf. on Pattern Recogn
ition におけるIEEE proc.に所載のS
.GALANTによる”Optimal Linear
Discriminants”という文献に記載され
ているポケット・アルゴリズムにより実行されるのを好
適とする。 【0060】この目的で、無作為に選ばれた各標本に対
して、ニューロンの出力のポテンシャルが計算される。 もしこのポテンシャルが安定性判定基準(S≧0)を満
足させるならば、また別の標本が選ばれる。もしこのポ
テンシャルが安定性判定基準を満足させない(S<0)
ならば、新しいシナプス係数が計算され、その新しいシ
ナプス係数はそれらが最小の誤り判定基準を満足させる
時に限り以前のシナプス係数を更新するために用いられ
る。すべての標本がこうして当該のニューロンのシナプ
ス係数を決定するのに用いられ、「ポケット」アルゴリ
ズムは非斉次のクラスの二分法を行わせるために最適の
シナプス係数に向かって収束する。 【0061】このアルゴリズム(tiling)は、現
在の層のユニットにより表される符号(+/−;1/0
)が信頼できるよう(reliable)になるまで、
すなわち換言すれば、2つの異なるクラスの標本が当面
問題の層の集合に亙って同一の符号を持たなくなるまで
、ニューロンを付加することによって多層ニューラル・
ネットワークを構築するために設計されたものである。 各層は、単一のニューロンを持つ層が得られるに至るま
で、先行の層の標本からこうして構築される。 【0062】図5はポケット・アルゴリズムのフローチ
ャートを示し、これは標本のグループを2つのグループ
に分離することを実行するものである。 【0063】所与のニューロンに対してそのシナプス係
数Cijは0に初期化される、また最大誤り判定基準C
Rm は非常に大きい値で初期化される (ステップ4
00)。1つの標本EXが無作為に採られ (ステップ
402)、それに対して安定値Sが iを目下分析の対象とされているるニューロンの指標と
し、jをそれに接続されるニューロン又は入力の指標と
し、外10 【外10】 をニューロンiの入力に存在するμ標本のj番目の構成
要素とする時数4 【数4】 によって決定される (ステップ404)。 【0064】この安定値Sが検査される (ステップ4
06)。もしそれが正ならば安定性は十分で、また別の
標本が選ばれる。 【0065】もしこの安定値Sが負又は0ならば、シナ
プス係数C’ ijは次の式 C’ ij(新)=C’ ij(旧)+yjにより決定
される (ステップ408)。 【0066】こうして決定された各新シナプス係数C’
ijは、例えば安定性が間違った符号を持つ標本の数
を算定するところの誤り判定基準CRを満足させなけれ
ばならない (ステップ410)。もしこの判定基準C
Rが判定基準の最大値CRm よりも小さければ (ス
テップ412)、決定されたシナプス係数C’ ijは
、以前に記憶されていたシナプス係数Cijを更新する
のに使われる (ステップ414)。 【0067】同様に、最大値CRm も更新される。こ
うしてすべての標本が計算のため及び恐らくはその次に
このニューロンiのシナプス係数の更新のために逐次使
われる。この学習の最後に、このニューロンiによって
行われた分離が、所与のグループの標本に対して得られ
た結果 (2つのクラスのグループ:+/−;1/0)
を算定することにより、検査される。もし該分離が斉次
なクラスのグループを供給しないならば、また別のニュ
ーロンが層に付加され、ポケット・アルゴリズムが再び
同じやり方で実行される。 【0068】このアルゴリズムはニューロンの出力で得
られたクラスのグループの2つのタイプ +/− (又
は1/0)しか区別することができない。それ故、それ
はもっと多くの数のクラスA,B,C,D等に分割する
学習中の標本に対して、直接作用することはできない。 【0069】本発明はまた、図6に図式的に示したツリ
ー状に組織されたニューラル・ネットワークにも関する
。該ネットワークは計算ユニット500 を有し、これ
は出力状態Vi を入力ポテンシャルVj から、Ci
jはニューロンiを入力j(又はニューロンj)に接続
するシナプス係数であるとすると、次式 Vi =ΣCij・Vj によって算定する。 【0070】この計算ユニット500 は、当業者にと
って既知のメカニズムによって動作し、それは例えば上
掲のR.P.LIPPMANNの文献に記載されている
。 【0071】任意のニューロンの学習中に、その後継ニ
ューロンはこの任意のニューロンのもたらす結果によっ
て異なるであろう。従って、ニューラル・ネットワーク
を使用するためには、該任意のニューロンのもたらす結
果による後継ニューロンを確定することが必要である。 この目的のために、アドレス・メモリ504 が上記結
果に対応するアドレスを受け取り、逆に後継ニューロン
のアドレスを送り出す。 【0072】以前に定義したようにしてニューロンが創
造される学習の過程で、後継ニューロンの継起の順序は
このようにして決定され、メモリ504 に搭載される
。こうしてニューラル・ネットワークはアドレスの一覧
表を記憶するメモリを具備することになり、この一覧表
には任意のニューロン上で得られた結果によるツリー状
の組織をもつ後続ニューロンに関する情報が含まれる。 ツリーのすべての分枝へアドレスすることはこうして僅
かのハードウェアだけで速やかに実行される。クラス・
メモリ506 はニューロンのツリーによって分離され
たクラスを記憶する。 【0073】ツリー状のニューラル・ネットワークを利
用するステップ中に、メモリはニューロンの与える結果
によってアドレスされ、その返しとしてN個の後継ニュ
ーロンのアドレスを供給する。この交換はホスト・コン
ピュータ502を通して実行され、このホスト・コンピ
ュータは、種々のユニットのそれら自身の間の交換の集
合、特に各ニューロンが受け取らなければならない各グ
ループ又はサブグループの交換を管理する。 【0074】ツリーの分枝の終端に到達すると、クラス
・メモリ(506) から対応するクラスが読み出され
る。このことは斉次の標本のクラスの決定が速やかに実
行されることを好適に許容する。標本は標本メモリ50
8 に記憶される。標本を割り付けるためのメモリ51
0 が、ある特定のニューロンにより処理されなければ
ならない標本のサブグループの選択を許容する。ニュー
ラル・ネットワークは、学習方法がツリーを構成するニ
ューロンをそれによって決定するところのある一定数の
ニューロンを備えていることが可能である。しかしなが
ら学習方法は、ニューロンの数、そのシナプス係数、ニ
ューロンの継起の順序、識別すべきクラス及びその数を
決定するために別々のハードウェア内で実施されること
もまた可能である。そのとき、これらのパラメータはす
べて、習得した分類のタスクに役立たせるニューラル・
ネットワークを構築するのに用いられる。その場合には
、このニューラル・ネットワークは、学習のオプション
を保有せず、専ら分類用のニューラル・ネットワーク(
習得した方法の繰り返し)でしかない。この種のツリー
状のネットワークが別の訓練方法で更に多く決定される
かもしれない。
【図1】図1A及び図1Bは、3つのクラスA,B,C
の標本をベースとするときの入力空間におけるセパレー
タの行動モードの説明図、並びに対応のツリー構造を示
す図である。
の標本をベースとするときの入力空間におけるセパレー
タの行動モードの説明図、並びに対応のツリー構造を示
す図である。
【図2】図2は、クラスの識別のメカニズム及び関連の
標本のサブグループの識別のメカニズムを示すニューラ
ル・ツリーのフローチャートを示す図である。
標本のサブグループの識別のメカニズムを示すニューラ
ル・ツリーのフローチャートを示す図である。
【図3】図3は、標本の分離を示す図である。
【図4】図4A及び4Cは、クラスの分離における2つ
の標本を示す図であり、図4Bは、分布の主成分を示す
図である。
の標本を示す図であり、図4Bは、分布の主成分を示す
図である。
【図5】図5は、2つのクラスのグループ間の分離の遂
行を可能とするポケット・アルゴリズムで構成されたア
ルゴリズムの一例を示す図である。
行を可能とするポケット・アルゴリズムで構成されたア
ルゴリズムの一例を示す図である。
【図6】図6は、ニューラル・ツリー状に構成されたニ
ューラル・ネットワークを示す図である。
ューラル・ネットワークを示す図である。
【符号の説明】
1〜9,31,41 セパレータ
30 クラス間の境界の曲線
40 標本
200 〜 262 図2のフローチャートの各ステ
ップの番号400 〜 414 図5のフローチャー
トの各ステップの番号500 計算ユニット 502 ホスト・コンピュータ 504 アドレス・メモリ 506 クラス・メモリ 508 標本メモリ
ップの番号400 〜 414 図5のフローチャー
トの各ステップの番号500 計算ユニット 502 ホスト・コンピュータ 504 アドレス・メモリ 506 クラス・メモリ 508 標本メモリ
Claims (9)
- 【請求項1】ツリー状ニューラル ネットワーク内に
用いる分類方法であり、学習ステップを有し、このステ
ップ中において、ニューラル ネットワークは、数ク
ラスに分割される標本(エクザンプル)群を分類するた
め、シナプス係数を決定するツリー状ニューラル ネ
ットワーク内に用いる分類方法において、2クラス以上
の分類を行うため、学習ステップは次のステップを有す
ること、 A−クラス分けすべき標本をクラスの2つのサブグルー
プに従ってクラス分けするステップ、 B−標本群より、近似の標本の2つのサブグループを識
別しこれら2つのクラスのサブグループによって分割が
可能なようにするため、ニューロンのシナプス係数を計
算するステップ、 C−サブグループが単一のクラスを含んでいるか否かを
決定するため、識別された標本の均一性をテストするス
テップ、 D−ニューロンが単一クラスを識別したとき、このニュ
ーロンのアドレスを記憶蓄積し、この単一クラスを記録
するステップ、 E−ニューロンが不均一(非斉次)のサブグループを識
別したときは、ステップAの工程を再スタートすること
によってクラスの2つの新しいサブグループに標本を各
均一のサブグループに分割し、次で標本の各不均一サブ
グループに対し、後位ニューロンを形成し、標本の新規
なサブグループが後位ニューロンによってすべてが均一
なクラスのサブグループであると識別される迄この工程
を反復するステップ、を特徴とするツリー状ハイアラー
キー ニューラル ネットワークに用いる分類方法
。 - 【請求項2】ステップAの各反復において、クラスを2
つのサブグループとするクラスの分割は、特殊のクラス
を他のクラスより隔離する工程を有し、この工程は標本
のクラスのセットの各クラス中に形成するステップより
成る請求項1記載の方法。 - 【請求項3】前記特殊クラスは、初め標本の各クラスに
対するエラー基準を計算し、最小エラー判定基準を有す
るクラスを選択することによって決定する請求項2記載
の方法。 - 【請求項4】ステップAの各反復において、層化したニ
ューロン ネットワークにより既に遂行されている分
割を選択することによりクラスの分割を行う請求項1記
載の方法。 - 【請求項5】ステップAの各反復において、標本の2つ
のサブグループ クラスへの分割は、標本の分布の重
心の中心を通過する軸で、主方向に直角な軸に関して行
われ、該中心と該主方向は、主要構成成分の分析によっ
て決定される如くした請求項1記載の方法。 - 【請求項6】ニューロンの初期シナプス係数は、層とし
たニューロン ネットワークより、前記特殊クラスを
最良の近似でクラス分けするニューロンのシナプス係数
を選択することにより決定される請求項4記載の方法。 - 【請求項7】シナプス係数の計算は、“ポケット”アル
ゴリズムまたは“予知”型学習ルール、または“ヘブ”
型学習ルールの何れかを実施する請求項1ないし5のい
ずれかに記載の方法。 - 【請求項8】分類すべきデータ ワードのベクトルを
受信する入力端子と、この入力端子にリンクしているニ
ューロンと、ニューロン間のリンク力を規定するシナプ
ス係数とを有し、これらニューロンはツリー状の構成に
相互接続されており、ニューロンは2状態の結果を送出
し、これらの結果はマルチ クラス データワード
の分類を遂行するニューラル ネットワークにおいて
、ニューロン数、シナプス係数、ニューロンの連続順序
、識別すべきクラス、及び番号は、遂行すべき分類に特
殊の学習方法によって予め規定されており、前記連続順
序は、前記ニューロンがもたらす状態によってアドレス
される第1記憶媒体内に記憶され、識別すべき前記クラ
スは第2記憶媒体内に記憶され、各ニューロンにより送
出される結果の均一性をホスト コンピュータにより
テストし、均一(斉次)性が満足されるときは、ホスト
コンピュータは第2記憶媒体をアドレスして、識別
したクラスを送出し、均一性が満足されないときは、ホ
スト コンピュータは第1記憶媒体をアドレスし、こ
れによって次のニューロンのアドレスが与えられる如く
したことを特徴とするニューラル ネットワーク。 - 【請求項9】学習方法は請求項1ないし7の1つにより
行われる請求項8記載のニューラルネットワーク。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR9001529 | 1990-02-09 | ||
| FR9001529A FR2658337A1 (fr) | 1990-02-09 | 1990-02-09 | Procede d'apprentissage d'un reseau de neurones hierarchise et reseau de neurones hierarchise. |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH04213751A true JPH04213751A (ja) | 1992-08-04 |
| JP3088766B2 JP3088766B2 (ja) | 2000-09-18 |
Family
ID=9393541
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP03039051A Expired - Fee Related JP3088766B2 (ja) | 1990-02-09 | 1991-02-12 | ハイアラーキー ニューラル ネットワークに用いる分類方法及びネットワーク |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US5218646A (ja) |
| EP (1) | EP0446084B1 (ja) |
| JP (1) | JP3088766B2 (ja) |
| DE (1) | DE69126555T2 (ja) |
| FR (1) | FR2658337A1 (ja) |
Families Citing this family (44)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR930009066B1 (ko) * | 1990-08-18 | 1993-09-22 | 정호선 | 다층신경회로망 및 그 회로설계방법 |
| US5371809A (en) * | 1992-03-30 | 1994-12-06 | Desieno; Duane D. | Neural network for improved classification of patterns which adds a best performing trial branch node to the network |
| US5438629A (en) * | 1992-06-19 | 1995-08-01 | United Parcel Service Of America, Inc. | Method and apparatus for input classification using non-spherical neurons |
| DE69329218T2 (de) * | 1992-06-19 | 2001-04-05 | United Parcel Service Of America, Inc. | Verfahren und Vorrichtung zur Eingabeklassifizierung mit einem neuronalen Netzwerk |
| FR2695743A1 (fr) * | 1992-09-16 | 1994-03-18 | Philips Electronique Lab | Système de traitement d'images texturées, analyseur de textures et synthétiseur de textures. |
| FR2703804A1 (fr) * | 1993-04-07 | 1994-10-14 | Philips Electronique Lab | Méthode et appareil de classification de configurations de signaux. |
| JP3170095B2 (ja) * | 1993-04-14 | 2001-05-28 | 富士通株式会社 | 情報検索システム |
| JPH072063U (ja) * | 1993-06-07 | 1995-01-13 | 綾子 阿部 | 多数の印面を有する押し印具 |
| US5461699A (en) * | 1993-10-25 | 1995-10-24 | International Business Machines Corporation | Forecasting using a neural network and a statistical forecast |
| GB2307582A (en) * | 1994-09-07 | 1997-05-28 | Motorola Inc | System for recognizing spoken sounds from continuous speech and method of using same |
| JP3630734B2 (ja) * | 1994-10-28 | 2005-03-23 | キヤノン株式会社 | 情報処理方法 |
| WO1997029437A1 (en) * | 1996-02-09 | 1997-08-14 | Sarnoff Corporation | Method and apparatus for training a neural network to detect and classify objects with uncertain training data |
| US5995651A (en) * | 1996-07-11 | 1999-11-30 | Duke University | Image content classification methods, systems and computer programs using texture patterns |
| US6101275A (en) * | 1998-01-26 | 2000-08-08 | International Business Machines Corporation | Method for finding a best test for a nominal attribute for generating a binary decision tree |
| DE69802372T4 (de) | 1998-02-05 | 2003-01-23 | Intellix A/S, Frederiksberg | Klassifizierungssystem und -verfahren mit N-Tuple- oder RAM-basiertem neuronalem Netzwerk |
| US7039856B2 (en) * | 1998-09-30 | 2006-05-02 | Ricoh Co., Ltd. | Automatic document classification using text and images |
| US7236623B2 (en) * | 2000-04-24 | 2007-06-26 | International Remote Imaging Systems, Inc. | Analyte recognition for urinalysis diagnostic system |
| FR2827414B1 (fr) * | 2001-07-13 | 2003-12-05 | Somfy | Procede d'appariement d'emetteur et de recepteur |
| US7844476B2 (en) | 2001-12-31 | 2010-11-30 | Genworth Financial, Inc. | Process for case-based insurance underwriting suitable for use by an automated system |
| US7818186B2 (en) | 2001-12-31 | 2010-10-19 | Genworth Financial, Inc. | System for determining a confidence factor for insurance underwriting suitable for use by an automated system |
| US8793146B2 (en) * | 2001-12-31 | 2014-07-29 | Genworth Holdings, Inc. | System for rule-based insurance underwriting suitable for use by an automated system |
| US7899688B2 (en) | 2001-12-31 | 2011-03-01 | Genworth Financial, Inc. | Process for optimization of insurance underwriting suitable for use by an automated system |
| US7630910B2 (en) | 2001-12-31 | 2009-12-08 | Genworth Financial, Inc. | System for case-based insurance underwriting suitable for use by an automated system |
| US7844477B2 (en) * | 2001-12-31 | 2010-11-30 | Genworth Financial, Inc. | Process for rule-based insurance underwriting suitable for use by an automated system |
| US7895062B2 (en) | 2001-12-31 | 2011-02-22 | Genworth Financial, Inc. | System for optimization of insurance underwriting suitable for use by an automated system |
| US8005693B2 (en) | 2001-12-31 | 2011-08-23 | Genworth Financial, Inc. | Process for determining a confidence factor for insurance underwriting suitable for use by an automated system |
| US7383239B2 (en) | 2003-04-30 | 2008-06-03 | Genworth Financial, Inc. | System and process for a fusion classification for insurance underwriting suitable for use by an automated system |
| US7567914B2 (en) | 2003-04-30 | 2009-07-28 | Genworth Financial, Inc. | System and process for dominance classification for insurance underwriting suitable for use by an automated system |
| US7801748B2 (en) | 2003-04-30 | 2010-09-21 | Genworth Financial, Inc. | System and process for detecting outliers for insurance underwriting suitable for use by an automated system |
| US7813945B2 (en) | 2003-04-30 | 2010-10-12 | Genworth Financial, Inc. | System and process for multivariate adaptive regression splines classification for insurance underwriting suitable for use by an automated system |
| US7698159B2 (en) | 2004-02-13 | 2010-04-13 | Genworth Financial Inc. | Systems and methods for performing data collection |
| US7945627B1 (en) | 2006-09-28 | 2011-05-17 | Bitdefender IPR Management Ltd. | Layout-based electronic communication filtering systems and methods |
| US8572184B1 (en) | 2007-10-04 | 2013-10-29 | Bitdefender IPR Management Ltd. | Systems and methods for dynamically integrating heterogeneous anti-spam filters |
| US8010614B1 (en) | 2007-11-01 | 2011-08-30 | Bitdefender IPR Management Ltd. | Systems and methods for generating signatures for electronic communication classification |
| US8131655B1 (en) | 2008-05-30 | 2012-03-06 | Bitdefender IPR Management Ltd. | Spam filtering using feature relevance assignment in neural networks |
| EP2429644B1 (en) * | 2009-04-30 | 2017-05-31 | Medtronic, Inc. | Patient state detection based on support vector machine based algorithm |
| US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
| US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
| KR102143225B1 (ko) * | 2013-05-06 | 2020-08-11 | 삼성전자주식회사 | 뉴로모픽 칩의 스파이크 이벤트 정보 전송 방법 및 장치, 및 뉴로모픽 칩 |
| FR3012895B1 (fr) | 2013-11-05 | 2015-12-25 | Commissariat Energie Atomique | Procede et programme d'ordinateur pour l'execution deportee de taches informatiques d'un equipement sans fil |
| US20200012930A1 (en) * | 2018-07-06 | 2020-01-09 | Global Elmeast Inc. | Techniques for knowledge neuron enhancements |
| US11610107B2 (en) | 2018-07-06 | 2023-03-21 | Global Elmeast Inc. | Methodology to automatically incorporate feedback to enable self learning in neural learning artifactories |
| US10395169B1 (en) | 2018-07-06 | 2019-08-27 | Global Elmeast Inc. | Self learning neural knowledge artifactory for autonomous decision making |
| US10311058B1 (en) | 2018-07-06 | 2019-06-04 | Global Elmeast Inc. | Techniques for processing neural queries |
-
1990
- 1990-02-09 FR FR9001529A patent/FR2658337A1/fr not_active Withdrawn
-
1991
- 1991-02-08 DE DE69126555T patent/DE69126555T2/de not_active Expired - Fee Related
- 1991-02-08 US US07/653,595 patent/US5218646A/en not_active Expired - Fee Related
- 1991-02-08 EP EP91400303A patent/EP0446084B1/fr not_active Expired - Lifetime
- 1991-02-12 JP JP03039051A patent/JP3088766B2/ja not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| US5218646A (en) | 1993-06-08 |
| DE69126555D1 (de) | 1997-07-24 |
| FR2658337A1 (fr) | 1991-08-16 |
| EP0446084A1 (fr) | 1991-09-11 |
| DE69126555T2 (de) | 1998-01-02 |
| EP0446084B1 (fr) | 1997-06-18 |
| JP3088766B2 (ja) | 2000-09-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH04213751A (ja) | ハイアラーキー ニューラル ネットワークに用いる分類方法及びネットワーク | |
| Woodward et al. | Active one-shot learning | |
| Giles et al. | Constructive learning of recurrent neural networks: limitations of recurrent cascade correlation and a simple solution | |
| EP0724750B1 (en) | Method for unsupervised neural network classification with back propagation | |
| Anderson et al. | Artificial neural networks technology | |
| US5255348A (en) | Neural network for learning, recognition and recall of pattern sequences | |
| WO1990011568A1 (en) | Genetic synthesis of neural networks | |
| US12347530B2 (en) | Expert-in-the-loop AI for materials generation | |
| CN114372496A (zh) | 用于决策树计算的具有模拟内容可寻址存储器(a-cam)的硬件加速器 | |
| US5220618A (en) | Classification method implemented in a layered neural network for multiclass classification and layered neural network | |
| Petridis et al. | Predictive modular neural networks: applications to time series | |
| US5438646A (en) | Feed-forward neural network | |
| EP0636991A2 (en) | Information processing apparatus for implementing neural network | |
| CN113470740A (zh) | 基于全连接网络集成深度学习模型的药物推荐系统、计算机设备、存储介质 | |
| Cantú-Paz et al. | Evolving neural networks for the classification of galaxies | |
| Chiu et al. | Multi-objective evolutionary algorithm based optimization of neural network ensemble classifier | |
| Bera et al. | Enhancing biologically inspired hierarchical temporal memory with hardware-accelerated reflex memory | |
| Baten et al. | Biological sequence data preprocessing for classification: A case study in splice site identification | |
| Vai et al. | Representing knowledge by neural networks for qualitative analysis and reasoning | |
| Lis | The synthesis of the ranked neural networks applying genetic algorithm with the dynamic probability of mutation | |
| Alexandre et al. | Compu-search methodologies II: scheduling using genetic algorithms and artificial neural networks | |
| EP0393571A1 (en) | Computing network with nodes, procedures machines to configure it, and relative uses | |
| Cherkauer et al. | Rapidly estimating the quality of input representations for neural networks | |
| Santana et al. | A Parallel Strategy for Generation of Fuzzy Rule Bases in Big Data Problems Using the NSGA-DO | |
| Mayer et al. | Simultaneous evolution of structure and activation function types in generalized multi-layer perceptrons |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| LAPS | Cancellation because of no payment of annual fees |