JPH0581031A - フアジイ推論状態の出力方法およびフアジイ推論システム - Google Patents

フアジイ推論状態の出力方法およびフアジイ推論システム

Info

Publication number
JPH0581031A
JPH0581031A JP3241093A JP24109391A JPH0581031A JP H0581031 A JPH0581031 A JP H0581031A JP 3241093 A JP3241093 A JP 3241093A JP 24109391 A JP24109391 A JP 24109391A JP H0581031 A JPH0581031 A JP H0581031A
Authority
JP
Japan
Prior art keywords
output
node
fuzzy inference
fuzzy
statistic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3241093A
Other languages
English (en)
Other versions
JP3097212B2 (ja
Inventor
Akira Maeda
章 前田
Toshihide Ichimori
俊秀 市森
Seiju Funabashi
誠壽 舩橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP03241093A priority Critical patent/JP3097212B2/ja
Priority to GB9219721A priority patent/GB2259796A/en
Publication of JPH0581031A publication Critical patent/JPH0581031A/ja
Application granted granted Critical
Publication of JP3097212B2 publication Critical patent/JP3097212B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic
    • G06N7/023Learning or tuning the parameters of a fuzzy system

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Fuzzy Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Algebra (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】ファジィ推論パラメータを調節し入出力関係を
学習させる場合に、設計者あるいはシステム構築者など
がファジィ推論の状態を容易に認識でき、ファジィ推論
パラメータの調節やファジィルールの追加・削除・修正
などをより効率的に行なうためのファジィ推論状態の出
力方法およびその様な出力が可能なファジィ推論システ
ムを提供することを目的とする。 【構成】ファジィ推論の実際の出力と望ましい出力との
間の誤差をネットワーク上で逆方向(後向き)に伝播さ
せ、これによりネットワークの各ノードが含むパラメー
タまたは各ノードの出力に対する推論結果出力の変化の
度合いを示す変化率を算出し、この変化率の算出を幾つ
かの教師データに関して行ない、所定のノードごとにこ
の変化率に関する平均(欄601)や分散(欄602)
などの統計量を算出して出力するようにする。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ファジィ推論状態の出
力方法およびファジィ推論システムに関し、特にファジ
ィ推論の結果が所定の教師データに近付くようにファジ
ィルールに含まれるメンバシップ関数およびファジィル
ールなどを調節する際にファジィ推論の状態を表示ある
いは印刷などで出力することにより、そのような調節作
業の効率的な実施を支援することができるファジィ推論
状態の出力方法およびファジィ推論システムに関する。
【0002】
【従来の技術】メンバシップ関数の形状などのファジィ
推論パラメータを自動的に調節する方法としては、例え
ば計測自動制御学会論文集第20巻第8号(1984
年)第50頁から第56頁における「自己学習ファジィ
コントローラ」と題する文献において論じられた方法が
ある。一方、ファジィ推論過程をニューラルネットワー
クを用いた計算により実現し、推論パラメータをニュー
ラルネットワークの学習規則により自動的に調節しよう
という提案が、1990年国際合同神経回路網学会予稿
集第2巻第55頁から第58頁(proceedings of 1990
International Joint Conference on Neural Networks,
Vol.2, pp.55-58, 1990)においてなされている。ま
た、ファジィ推論をニューラルネットワーク上で行なう
という提案が、情報処理学会論文誌第30巻第6号第7
95頁から第797頁においてなされている。
【0003】これらの従来技術によれば、あらかじめ与
えられたファジィルールの枠内で、ファジィ推論の結果
が教師データ(望ましい出力値)に近付くように、メン
バシップ関数の形状などのファジィ推論パラメータを自
動的に調節する方法が提供される。これらの方法は、入
力とそれに対する望ましい出力(教師データ)の組が1
組または複数組与えられたときに、ファジィ推論の実際
の出力ができるだけその望ましい出力に近付くように、
ファジィ推論のパラメータを自動調節するものである。
【0004】
【発明が解決しようとする課題】しかしながら、一般に
はファジィ推論の結果である実際の出力と望ましい出力
とは完全には一致せず、学習が終了しても誤差が残る場
合が多い。上述の従来の技術では、ファジィ推論の内部
状態はブラックボックス的に扱われており外部から知る
ことはできない。そのため、上記の誤差が残る理由をフ
ァジィ知識ベースの設計者が認識および理解することは
困難であった。
【0005】したがって、ファジィ推論の実際の出力と
望ましい出力との間の誤差をさらに減少させたい場合、
設計者は、調節開始時のパラメータの初期状態を変えた
り、またファジィルールの試行錯誤的な追加及び/又は
削除を行なうなどの作業を繰り返さざるを得ない。その
ため、効率のよい調節は難しかった。
【0006】特に従来の技術では、学習により自動調節
されるのはメンバシップ関数などを特定するファジィ推
論パラメータのみであり、ファジィルールは自動調節さ
れない。また、どのルールがどの程度不適であるかを知
ることもできない。したがって、上記の誤差を減少させ
るために行なうファジィルールの追加及び/又は削除
は、理論的な根拠がなく試行錯誤的で非効率的な作業と
なっている。
【0007】本発明は、上記事情に鑑みてなされたもの
で、その目的とするところは、教師データを用いてファ
ジィ推論パラメータを調節し入出力関係を学習させる場
合に、設計者などが、ファジィ推論の状態を容易に認識
できるようにし、ファジィ推論パラメータの調節やファ
ジィルールの追加・削除・修正などをより効率的に行な
うことを支援する方法およびそのようなシステムを提供
することにある。
【0008】
【課題を解決するための手段】上記の目的を達成するた
めに、本発明では、ファジィ推論過程を計算ネットワー
クで表現し、ファジィ推論はこのネットワーク上の前向
きの信号の流れとして行なうファジィ推論システムにお
いて、ファジィ推論の実際の出力と望ましい出力との間
の誤差をネットワーク上で逆方向(後向き)に伝播さ
せ、これによりネットワークの各ノードが含むパラメー
タに対する推論結果出力の変化の度合いを示す変化率あ
るいはネットワークの各ノードの出力に対する推論結果
出力の変化の度合いを示す変化率を算出し、この変化率
の算出を幾つかの入力とその入力に対する望ましい出力
の組に対して行ない、所定のノードごとにこの変化率に
関する所定の統計量を算出して表示や印刷などで外部に
出力するようにしている。
【0009】
【作用】まず、ファジィ推論過程を計算ネットワークで
表現することにより、ファジィ推論に含まれる各種推論
パラメータの推論結果への依存関係をそのネットワーク
上で明確に表現することができる。ここで、ファジィ推
論過程は上記計算ネットワークに信号を前向き(順方
向)に流すことで実行される。
【0010】計算ネットワークの各ノードにおける入力
・出力関係および各ノード間の結合関係を表すリンク
は、その計算ネットワーク上で実行されるファジィ推論
過程に応じて定められる。言い替えれば、ファジィ推論
における推論パラメータ(例えばメンバシップ関数の形
状を特定するパラメータなど)の設定は、計算ネットワ
ークの所定のノードに所定の入出力関係を設定すること
で行なわれる。同様に、ファジィ推論のルールの設定
は、計算ネットワークの所定のノードおよびリンクに所
定の入出力関係および結合関係を設定することで行なわ
れる。このようにして、実行すべきファジィ推論過程に
応じて計算ネットワークの各部分の実際の入力・出力・
結合関係が定められている。したがって、推論パラメー
タを微少量変化させたときに、各ノードの出力がどう変
化するかその度合いを示す値(例えば微分係数や差分
値)を求めることができる。同様に、各ノードの入力を
微少量変化させたときに出力がどう変化するかも求める
ことができる。
【0011】推論パラメータの自動調節(学習)の目的
は、推論結果として実際に出力された値と、望ましい出
力値との間の誤差を最小にすることである。推論結果は
計算ネットワークの最後尾にあたるノードからの出力で
あるから、推論パラメータ自動調節においては、まずそ
の最後尾ノードに調節すべきパラメータが含まれる場合
にはそのパラメータに関する微分係数(差分値でもよ
い)が求められ、さらに最後尾ノードの入力に関する微
分係数が求められる。最後尾のノードの入力は一つ手前
に位置する他のノードの出力であるから、上記の計算に
より最後尾の一つ手前に位置するノードの出力に対する
(推論結果の)微分係数が求められたことになる。した
がって、最後尾の一つ手前に位置するノードに含まれる
推論パラメータおよび入力に関する微分係数が同様の手
順により求められる。
【0012】上記の操作を繰返すことにより、すなわち
推論結果である実際の出力と望ましい出力との間の誤差
を計算ネットワーク上で逆方向(後向き)に伝播させる
ことにより、各ノードの出力値に対する推論結果の変化
の度合いを示す変化率(具体的には微分係数や差分値な
ど)が得られる。また、各ノードに含まれる推論パラメ
ータに対する推論結果の変化の度合いを示す変化率を得
ることもできる。計算ネットワークの各ノードは、例え
ばファジィルールのif部およびthen部に含まれる
メンバシップ関数に対応している。したがって、ファジ
ィルールのif部およびthen部に含まれるメンバシ
ップ関数値に関する推論結果の微分係数が求められるこ
とになる。
【0013】教師データを用いたファジィ推論パラメー
タの自動調節(学習)では、与えられた入力とその入力
に対する望ましい出力との組データに対して前記のよう
に微分係数または差分値を求める。そして、このような
算出を幾つかの教師データの組に関して行ない、その平
均値に基づいて推論パラメータを自動調節する。この調
節は、最終的な推論結果が望ましい出力値に一致するよ
うに推論パラメータを修正していくものである。したが
って、学習が終了し、推論パラメータがこれ以上変化し
ない状態に落ち着いたときには、この平均値は理想的に
はほぼ「0」になっているはずである。
【0014】しかしながら学習が終了しても、望ましい
出力と実際の出力とが完全に一致せず、ファジィ推論の
性能が十分でない場合が起こり得る。この場合、単なる
パラメータの自動調節法だけでは、上記微分係数または
差分値の平均値を内部処理で用いているのみであり、外
部の操作者(例えばファジィ推論の知識ベースの設計者
など)はこれ以上の情報を知ることができない。したが
って、上記課題の欄で説明したように、設計者は、試行
錯誤的に調節開始時のパラメータの初期状態を変えたり
ファジィルールの追加・削除・修正を行なうしかなかっ
た。
【0015】これに対し、本発明によれば、推論結果と
上記望ましい出力値との間の誤差を計算ネットワーク上
で逆方向に伝播させて、各ノードが含むパラメータまた
は各ノードの出力値に対する推論結果の変化の度合いを
示す変化率をそれぞれ算出し、この変化率の算出を幾つ
かの教師データの組に対して行い、所定のノードごとに
そのノードに対応する変化率に関する所定の統計量(例
えば平均や分散など)を算出して外部に出力するように
している。したがって、例えばその統計量が出力される
ノードがファジィルールのif部またはthen部に含
まれるメンバシップ関数に対応するノードであれば、そ
のメンバシップ関数に関する変化率(微分または差分
値)の平均や分散などの統計量が求められる。また、そ
のノードがファジィルールのif部のファジィ適合度に
対応するノードであれば、その適合度に関する変化率の
平均や分散などの統計量が求められることとなる。
【0016】上記の変化率は、そのノードの出力が変化
したとき最終的な推論結果がどの程度変化するかの度合
い、すなわち推論結果のノード出力に対する感度とでも
いうべき値を示すものである。したがって、上記の変化
率の平均や分散などの統計量は、そのノードの出力が最
終的な推論結果にどのように影響しているかを表す情報
となる。例えば、あるメンバシップ関数に対応するノー
ドに関しそのノードの出力に対する推論結果の微分係数
を求めその分散を算出したとする。その分散の値が大き
ければそのメンバシップ関数値を微少量変化させたとき
の推論結果の変化のばらつきが大きいということである
から、そのメンバシップ関数およびそのメンバシップ関
数を用いているルールが不適である度合いが強い、すな
わち推論結果の誤差の原因となっているのではないかと
判断できる。
【0017】本発明は、このように変化率に関する所定
の統計量という新たな情報を算出して外部に出力してい
るので、ファジィ推論の誤差の原因となるメンバシップ
関数またはファジィルールを容易に発見可能とすること
ができる。特に、平均または分散などの統計量の大きな
(降順)あるいは小さな順(昇順)にメンバシップ関数
またはファジィルールを並べ替えて外部出力すれば視覚
的に非常に見やすく便宜である。外部への出力は例えば
表示や印刷で行なえばよい。
【0018】さらに、上記の外部出力において、メンバ
シップ関数に注目した出力方法ならばそのメンバシップ
関数を含むルールを、ルールに注目した出力方法ならば
そのルールに含まれるメンバシップ関数を、それぞれ2
次元的なマトリクスとして出力すれば、誤差の原因とな
っているメンバシップ関数またはルールを発見すること
が視覚的に非常に容易となる。したがって、ファジィ知
識ベースの設計者は、この情報に基づいて、修正すべき
ルールまたはメンバシップ関数を容易に把握することが
できる。
【0019】
【実施例】以下、本発明の実施例を図1ないし図11に
より説明する。
【0020】図1は、本発明の第1および第2の実施例
におけるファジィ知識ベース構築作業における代表的な
作業手順を示す。
【0021】まず、ルール定義処理101により、ファ
ジィルールを定義する。次に、ファジィルールに含まれ
るメンバシップ関数を、メンバシップ関数定義処理10
2により定義する。次いで学習処理103で、適当な学
習アルゴリズムにより学習を行なう。この学習処理10
3は、入力およびそれに対する望ましい出力の組データ
いわゆる教師データを幾組か与えてやり、実際の推論結
果が望ましい出力値に近付くようにメンバシップ関数形
状などのファジィ推論に含まれる推論パラメータを自動
調節する処理である。学習が終了したのち、推論状態表
示処理104で、学習後のファジィ推論の状態を表示す
る。このとき所定の統計量も表示される。評価・解析処
理105において、システム構築者は表示された情報に
基づいてファジィ推論システムの性能を評価・解析し、
性能が満足できるものであればシステム構築を終了し、
そうでなければルール定義処理101または、メンバシ
ップ定義処理102に戻り、システムの再構築を行な
う。
【0022】ここで処理101、102、105はシス
テム構築者による作業であり、処理103および処理1
04は例えば計算機システム上で動作するソフトウェア
によって実行される。
【0023】次に、本実施例に係るファジィ推論システ
ムにおけるファジィ推論方法について説明する。
【0024】ファジィ推論方法にはいくつかの異なる定
義があるが、ここではもっとも一般的な方法として、例
えば情報処理第30巻8号第942頁から第947頁
(1989年)に記載の方法を例にとって説明する。も
ちろんこれによって本発明の適用範囲が限定されること
はなく、別のファジィ推論方法に本発明を適用してもよ
い。
【0025】まずファジィルールは次の形に書ける。 if x1 is A11 and x2 is A21 and … and xn is An1 then y=B1 if x1 is A12 and x2 is A22 and … and xn is An2 then y=B2 : : if x1 is A1m and x2 is A2m and … and xn is Anm then y=Bm (1) ここでnは入力変数の数、mは出力変数yに関するファ
ジィルールの数、Aijは第j番目のルールにおける第i
番目の入力変数xiに対するファジィメンバシップ関数、
Bjは第j番目のルールにおける出力変数yに対するメン
バシップ関数である。Aij ,Bjの定義域はそれぞれの独
立変数の変域全体、値域は[0,1]である。
【0026】(1)式ではすべてのルールにすべての入
力変数が現われるとしたが、そうでなくともよい。例え
ば、第j番目のルールに第i番目の入力変数xiが無関係
な場合は、メンバシップ関数Aij が常に値「1」をとる
関数と考えればよい。また複数のルールに同一のメンバ
シップ関数が現われてもよい。そのときには、所定のメ
ンバシップ関数Aij とAkj が同一のメンバシップ関数を
表すものと考えればよい。さらに、異なる出力変数に対
するルール群は独立に考えることができるから、以後は
(1)式の形のルールのみを対象として説明する。
【0027】(1)式に対し、入力変数の値がxi=Xi の
ときの推論過程は次のようになる。まず各ルールのif部
の命題の適合度Wjを Wj = min(A1j(X1),A2j(X2), …,Anj(Xn)) (2) により算出する。そして、出力変数のメンバシップ関数
B(y)を B(y) = max(W1*B1,W2*B2, …,Wm*Bm) (3) ただし、*は乗算を表わし、×と同じ。で計算する。最
終的な出力値(推論結果)Y は、関数B を確率分布関数
と考えたときの平均値 Y = ∫B(y)y dy /∫B(y) dy (4) として決定される。
【0028】図2は、上記の推論過程をメンバシップ関
数のグラフを用いて図示したものである。簡単のため、
上記の(1)式においてルールの数m=2とし、入力変
数の数n=2とした場合を考える。この図において、グ
ラフ201は第1番目のルールにおける変数x1に対する
メンバシップ関数A11 、同様にグラフ202はメンバシ
ップ関数A21 、グラフ203はメンバシップ関数A12 、
グラフ204はメンバシップ関数A22 を、それぞれ表
す。205は上記の(2)式に基づきi=1,2として
Ai1(Xi) の最小値を計算する処理を示す。処理205に
より第1番目のルールに対する適合度W1を求める。グラ
フ206はメンバシップ関数B1を表し、斜線を施したグ
ラフ207はW1*B1 に対応するメンバシップ関数を表
す。
【0029】同様に、処理208でルール2に対する適
合度W2を求める。そして、グラフ209に示されたメン
バシップ関数B2から、W2*B2を求める。グラフ210はW
2*B2 に対応するメンバシップ関数を表す。
【0030】212は上記の(3)式に基づき出力変数
のメンバシップ関数B(y)を求める処理である。この処理
212では、各ルールに対する出力変数y のメンバシッ
プ関数の最大値を計算している。処理212により求め
られた最終的なメンバシップ関数B(y) をグラフ211
に示す。さらに、(4)式にしたがってグラフ211と
横軸で囲まれた斜線部分の重心の位置を求め、その結果
を最終的な推論結果である出力値Y として出力する。
【0031】以下、上記(3)式の最大値をとる演算を
代数和で置き換えた場合のファジィ推論方式について述
べる。この場合、(3)式は B(y) = W1*B1 + W2*B2 + … +Wm*Bm (5) となる。(5)式を(4)式に代入して整理すると、 Y = Σyi*Wi / Σsi (6) となる。ここで si = ∫Bi(y) dy (7) yi = ∫yBi(y) dy (8) である。
【0032】次に、上述したファジィ推論過程を計算ネ
ットワークで表現したモデルにつき説明する。図3は、
上記のファジィ推論過程を計算ネットワークで表現した
ものである。
【0033】301は入力変数x1に対応するノードであ
る。実際のファジィ推論に際しては具体的な入力値X1が
設定される。同様に、302は入力変数x2に対応するノ
ードで、以下同様にn個の入力変数のそれぞれに対して
ノードを対応させる。
【0034】303は第1番目のルールにおける変数x1
に対するメンバシップ関数A11 に対応するノードであ
る。ノード303は値X1が入力されたとき値A11(X1) を
出力する。(1)式に現われるすべてのメンバシップ関
数Aij に対してそれぞれノードを設ける。
【0035】304は第1番目のルールの適合度W1を求
めるノードである。すなわち(2)式にしたがって、A1
1(X1),A21(X2),…,An1(Xn)を入力としその中で最も小さ
いものを出力とするノードである。同様に、各ルールに
対する適合度Wjを求めるノードを設ける。
【0036】ノード305では(6)式の分子Σyi*Wi
を計算する。すなわち、ノード304などで算出された
各ルールの適合度Wjに(8)式のyiを重みとして乗じ、
和をとったものを出力する。同様に、ノード306では
(6)式の分母Σsiを計算する。ここでyiはノード30
5に付随したパラメータ、siはノード306に付随した
パラメータと考えておく。
【0037】ノード307では、上記(6)式に基づき
ノード305の出力Σyi*Wi をノード306の出力Σsi
で割り、最終的な出力値Y を計算する。
【0038】以上のようにして、図3の計算ネットワー
クにより(1)〜(8)式で表されたファジィ推論が実
行される。
【0039】次に、図1の学習処理103について説明
する。
【0040】ここではパラメータ調節による学習の目標
を望ましい出力Ytと実際の出力(推論結果)Y の2乗誤
差の最小化とする。そこで、目的関数をE= (Yt−Y)**
2(**2は2乗を表わす) とおき、Δα∝−∂E/∂α
(αは任意のパラメータ)として、最急降下法によりパ
ラメータ調節を行うものとする。したがって、学習処理
においてはまず上述したファジィ推論過程に含まれるす
べてのパラメータによる目的関数Eの偏微分係数を求め
る。
【0041】まず実際の出力値Y に対して望ましい出力
Ytを用意する。図3の計算ネットワークのノード308
は、両者の差Yt−Y を計算するノードである。この値Yt
−Yはノード307に対する誤差信号δ307 となる。以
後、計算手順を逆にたどることにより、図3の各ノード
の出力に対する出力値Y の偏微分係数を求めることがで
きる。以下これを示す。
【0042】出力ノード307に対する誤差信号δ307
は、ノード307の出力Y による目的関数Eの偏微分値
に比例する。ノード307は、ノード305および30
6の出力を入力とする。したがって、ノード305の出
力z305 による目的関数の偏微分係数は、合成関数の微
分則から、 ∂E/∂z305 = ∂E/∂Y ・∂Y /∂z305 =-2δ307 ・∂Y /∂z305 =-2δ307 ・(1/z306 ) (9) として求めることができる。同様に、ノード306の出
力値z306 による目的関数の偏微分係数は ∂E/∂z306 = ∂E/∂Y ・∂Y /∂z306 =-2δ307 ・∂Y /∂z306 = 2δ307 ・z305 /z306**2 (10)と して求められる。
【0043】次に、例えばノード304の出力z304 に
対する偏微分係数は、 ∂E/∂z304 = ∂E/∂z305 ・∂z305 /∂z304 + ∂E/∂z306 ・∂z306 /∂z304 (11)と 、前述の定義から導かれる次式 ∂z305 /∂z304 = Y1 ∂z306 /∂z304 = S1 とから容易に計算することができる。
【0044】後は同様にして、すべてのノードの出力に
対する目的関数Eの偏微分係数を順次求めることができ
る。ここで、例えば最小値を計算するノード304のよ
うに、部分的に微分不可能な関数関係があっても上記の
計算手順はそのまま実行できる。すなわち、ノード30
4の出力は入力Ai1(Xi) (1≦i≦n)のいずれかひと
つに等しいと考えてよいから、その等しい入力に関する
偏微分値のみが「1」で他はすべて「0」とすればよ
い。
【0045】さて、以上の手順により図3の計算ネット
ワークのすべてのノードの出力による目的関数Eの偏微
分係数が求められる。調節すべき推論パラメータは各ノ
ードの入出力関係に含まれている。すなわち、任意のひ
とつのノードの出力zは、そのノードへの入力ξ1,ξ
2,…,ξkとそのノードに付随するパラメータα1,
α2,…,αqの関数として、 z=f(ξ1,ξ2,…,ξk;α1,α2.…,αq) (13)と 書くことができる。任意のノードについて出力zに関す
る目的関数Eの偏微分係数∂E/∂zは上記の手順で求
めることができ、またパラメータαiに関する偏微分係
数は ∂E/∂αi = ∂E/∂z・∂z/∂αi (14) で求めることができる。例えば、図3のノード305に
含まれるパラメータYiに関する偏微分係数は、 ∂E/∂Yi = ∂E/∂z305 ・∂z305 /∂Yi = ∂E/∂z305 ・Wi (15) として求めることができる。パラメータYiの調節量ΔYi
を ΔYi ∝ −∂E/∂Yi (16) とすれば、最急降下法による各ノードに含まれるパラメ
ータの調節が可能である。(16)式の比例係数は、一
般に学習係数と呼ばれ、収束の速さを決める要因の一つ
となる。
【0046】次に、ノード303のようなメンバシップ
関数を表現するノードに関するパラメータの調節方法に
ついて説明する。
【0047】ノード303における入出力関係は、出力
をz203 として、 z303 =A11(X1) (17) と書ける。一般的に、メンバシップ関数は任意の形状を
とるのではなく、比較的少数のパラメータによって指定
されることが多い。図4はメンバシップ関数の形状の一
例を示す。図4において、401は台形状の形状を有す
るメンバシップ関数を示す。この場合、メンバシップ関
数の形状は4つの頂点の座標値a1,a2,a3,a4
で指定される。したがって式(17)でこのパラメータ
を明示して書くと、 z303 = A11(X1;a1,a2,a3,a4) (18) と書くことができる。出力z303 の各パラメータによる
偏微分値∂z303 /∂aiは容易に求めることができるか
ら、(16)式と同様の最急降下法によるパラメータ調
節が可能である。
【0048】本実施例で説明した上記の方法により偏微
分係数∂E/∂αiを求めれば、パラメータを一つづつ
微小変化させてファジィ推論を行い、偏微分係数を求め
る方法に比べて大幅に計算量を削減することができる。
【0049】メンバシップ関数の形状を指定するパラメ
ータのとり方は任意である。例えば、図4で台形の左右
の平行移動のみをパラメータ調節の対象とすること、な
どができるのは言うまでもない。また、台形以外の形状
をもつメンバシップ関数でも同様のことができる。
【0050】図3のネットワークでは、入力変数に対す
るメンバシップ関数はすべて異なるものとした。これに
対し、同一のメンバシップ関数が含まれかつパラメータ
調節後も同一形状のメンバシップ関数でなければならな
いという制約がある場合には、対応するノードは一つに
まとめることにより、この制約を満足させながらパラメ
ータ調節をすることができる。
【0051】以上、学習処理の例を説明した。この学習
処理により、入力とそれに対する望ましい出力の組すな
わち教師データ(学習データ)が与えられれば、推論結
果である実際の出力が望ましい出力に近づくように、自
動的にファジィ推論のパラメータを調節することができ
る。
【0052】以上は学習手順の説明であるが、さらに本
実施例では上記で計算したδα=∂E/∂α(αは任意
のパラメータ、またはファジィ推論における途中出力の
値)を用いて推論状態を表示するようにしている。従来
の誤差逆伝播法では、δαの値はパラメータを自動調節
するために用いる。したがって、学習が終了した時点
で、理想的には、δαを入出力の組に対して和をとった
もの(すなわち幾組かの教師データを与えてそれぞれ計
算したδαの和)はほぼ0になっているはずである。し
かし、学習が終了しても望ましい性能が得られない場合
がある。例えば、最初に定義したファジィルールが不適
切であったり、学習が局所的な最適値にトラップされて
しまった場合などである。このとき、何が原因で望まし
い性能が得られないのかを知ることはできず、それに対
して従来技術ではどう対処すべきかの指針を与えること
はできなかった。本実施例では、各教師データの組に対
して上記の方法で計算したδαの値を保存し、適宜加工
して表示する。具体的には、δαの値の平均や分散など
の統計量を算出し有用な情報として外部に表示するよう
にしている。
【0053】次に、このような推論状態表示処理(図1
の付番104)を説明する。δα=∂E/∂α(αは任
意のパラメータまたは任意のノードの出力)は、αが変
化したとき推論結果がどの程度変化するかの度合いを示
す変化率ということができるが、以下ではδαを一般に
「修正量」と呼ぶことにする。
【0054】図5は、推論状態表示処理の説明に用いる
ファジィルールの例を示す。この図において、入力変数
は、「移動平均1(過去)」、「移動平均1(現
在)」、「カイ離率1(過去)」、「カイ離率1(現
在)」、「移動平均2」、「株価変化1(現在)」、
「株価変化1(過去)」、「カイ離率2」、「株価変化
2」、「カイ離率3」の10変数、出力変数は「予想」
の1変数である。ルールは8個あり、例えばルール0は ルール0:もし「移動平均1(過去)」が「下降」 か
つ「移動平均1(現在)」が「横ばい上昇」 かつ「カ
イ離率1(過去)」が「負」 かつ「カイ離率1(現
在)」が「正」ならば「予想」は「確実に上昇」とな
る。他のルールも図5に示すように同様に定義されてい
る。
【0055】図6は、第1の実施例における推論状態の
表示として、メンバシップ関数に対する修正量に注目し
て表示した画面の例である。ここでは16個のメンバシ
ップ関数に対応する命題に関して命題番号の番号順に表
示してある。なお、図5のファジィルールからは全部で
19個の命題があることになるが、ここでは説明の簡単
化のため16個のみ示した。図6の横の1行が一つのメ
ンバシップ関数に対応している。欄601にはメンバシ
ップ修正量の平均の値が表示されている。この欄601
の値はそれぞれΣδαi /Nで算出した。算出に際し
て、着目した修正量δαi は図3のノード303などの
メンバシップ関数に対応するノードの出力に関する修正
量であり、和は教師データについてとった。すなわち、
N組の教師データを与えてそれぞれ修正量δαi を算出
しそれらの和を算出した。Nは注目しているメンバシッ
プ関数(ノード)に実際に修正量信号が逆伝播された教
師データの個数である。欄602に表示されているメン
バシップ修正量δαi の分散に関しても同様に算出す
る。
【0056】欄603は個々のメンバシップ関数が、ど
のルールで参照されているかを2次元マトリクス状に表
示したものである。図6によれば、例えば0番目から3
番目までのメンバシップ関数がルール0で参照され、第
4番目のメンバシップ関数がルール1,2,7で参照さ
れている。このようなマトリクス状の表示によりメンバ
シップ関数とルールとの参照関係が分かる。
【0057】欄604にはメンバシップ関数(命題)の
言語的表現を表示する。これにより個々のメンバシップ
関数の具体的な意味が表現されている。
【0058】図7は、図6の各行をメンバシップ修正量
の分散(欄602)の大きな順に並べ替えたものであ
る。
【0059】図6および図7に示した第1の実施例によ
れば、分散の大きなメンバシップ関数およびそれを含む
ルールを容易に発見することができる。上述したよう
に、この分散の値が大きいメンバシップ関数は、その出
力に対する推論結果の変化率のばらつきが大きいという
ことである。したがって、分散の値が大きいメンバシッ
プ関数あるいはそのメンバシップ関数を含むルールが、
このファジィ推論結果の誤差の原因となっていると考え
ることができる。このようにして、誤差の原因となるメ
ンバシップ関数(命題)またはルールを容易に特定する
ことができ、ファジィ知識ベースの設計者によるルール
またはメンバシップ関数の調節作業を支援することがで
きる。
【0060】図8は、第2の実施例における推論状態の
表示として、ルールに対する修正量に注目して表示した
画面の例である。ここでは8個のルールに関して番号順
に表示してある。横の1行が一つのルールに対応する。
欄801には各ルールのif部の適合度に対する修正量
(図3のノード304の出力に関する偏微分係数に対
応)の平均、欄802は同じくif部の適合度に対する修
正量の分散の値が表示される。これらの値の計算方法は
第1の実施例における計算方法とまったく同様である。
【0061】欄803には出力に関する修正量の平均、
欄804には同じく分散の値が表示される。出力に関す
る修正量とは、図3のノード305に付随したパラメー
タであるyiに関する偏微分係数である。
【0062】欄805には、各ルールのif部で用いられ
ているメンバシップ関数(命題)、欄806はthen部で
用いられているメンバシップ関数をマトリクス状に表示
する。
【0063】図9は図8の各行を、出力修正量の分散の
大きな順に並べ替えたものである。図8および図9に示
した第2の実施例によれば、分散の大きなメンバシップ
関数およびそれらを含むルールが容易に発見できる。し
たがって、ファジィ推論結果の誤差の原因となるメンバ
シップ関数またはルールの特定が容易になり、ファジィ
知識ベースの設計者によるルールまたはメンバシップ関
数の調節作業を支援することができる。
【0064】第1の実施例では、個々のメンバシップ関
数に着目した表示、第2の実施例では個々のルールに着
目した表示ができるので、両者を適宜組み合わせて使用
することにより、より効果的な推論状態の表示が可能で
ある。
【0065】図10は上記第1および第2の実施例を実
現するフローチャート(PAD形式)である。図10の
フローチャートは図1のステップ103と104をさら
に具体的にしたものである。以下、図3における各計算
ノードの出力をzi、出力ziによる推論結果出力Y の微分
係数をδi と表記する。
【0066】まずステップ1001では、ステップ10
02〜1012を無条件に繰り返す。ステップ1002
では、学習に用いる教師データすなわち入力変数の値と
それに対する望ましい出力値Ytを読み込む。ステップ1
003では、ステップ1002で読み込んだ入力変数の
値に基づいて実際にファジィ推論を行なう。この過程
で、図3における計算ネットワークのすべてのノードの
出力値ziが求まる。
【0067】ステップ1004では、計算ネットワーク
のすべてのノードを出力側から入力側へ逆順にたどる。
このとき計算ネットワークには閉じたループが含まれな
いから、この順序は確かに決まる。ステップ1004で
選択されたノードの番号をiとする。ステップ1005
では、ステップ1004で選択されたノードが計算ネッ
トワークの最後尾にあたる出力ノードかどうかを判定
し、最後尾の出力ノードならばステップ1006を、そ
うでなければステップ1007を実行する。ステップ1
006では、最後尾出力ノードに対するδi として、δ
i =Yt−Y を算出する。ステップ1007では、最後尾
出力ノード以外のノードに対するδi を、上記の式(1
1)を一般化した式 δi =Σj δj ・∂zi/∂zj により求める。ここで和は、選択されているノードの出
力ziを入力にもつすべてのノードjについてとるものと
する。
【0068】ここまでで、計算ネットワークにおけるす
べてのノードの出力による推論結果Y の微分係数が求め
られる。これらの値は、図1の推論状態表示処理104
で使用するために、適当な記憶領域に保存しておく。
【0069】ステップ1008では、すべての調節対象
パラメータαに対してステップ1009と1010を実
行する。ステップ1009では、パラメータαが含まれ
るノードiに対して、∂zi/∂αを算出する。αはノー
ドiにおける入出力関係を定めるパラメータであるか
ら、この微分値は容易に求めることができる。ステップ
1010では、ステップ1009で求めた微分係数∂zi
/∂αに基づいて、パラメータαの変更量Δαを Δα =−η−δi ・∂zi/∂α により求め、パラメータαの値をα←α+Δαと変更す
る。
【0070】ステップ1011では、あらかじめ定めら
れた終了条件の成立を判定する。例えば、あらかじめ定
められた回数だけ上記のステップが実行されたか、また
はパラメータ調節の結果実際の出力と望ましい出力との
差があらかじめ定められた値より小さくなったか、など
が終了条件となる。終了条件が成立した場合のみステッ
プ1012を実行する。終了条件が成立していない場合
はさらにステップ1002から学習を続ける。ステップ
1012では、パラメータ調節が終了したものとし、ス
テップ1001の無限ループから抜ける。
【0071】ステップ1013では、学習が終了した後
の推論状態を表示するために、処理1007で算出され
たδi の値を用いて、図6ないし図9のような形式に加
工して表示する。
【0072】図11は上述した本発明の実施例を実現す
るのに必要な計算機システム構成の一例である。CPU
1101は、あらかじめプログラムにより定められた手
順にしたがって図10で説明した処理を実行する。プロ
グラムまたはデータなどはメモリ1102に記憶され、
必要に応じてCPU1101により読出し/書込みがな
される。CPU1101はメモリ1102に記憶された
プログラムにしたがって、計算ネットワーク上でのファ
ジィ推論処理、教師データが与えられたときの誤差算
出、誤差をネットワーク上で逆方向に伝幡させることに
より行う学習処理、変化率を算出してメモリ1102に
記憶させる処理、変化率に関する統計量の算出、および
その統計量などの外部への出力処理などを行う。このシ
ステムには、キーボードまたはマウスなどの入力装置1
103が設けられており、人間の作業者からコマンドな
どが入力できるようになっている。これによりシステム
の実行が制御される。図10における推論状態表示処理
1013などの結果はディスプレイなどの表示装置11
04に出力される。図11のシステムは、具体的にはパ
ーソナルコンピュータ、ワークステーション、または大
型汎用計算機などの計算機システムで実現できる。
【0073】なお、上記の実施例では表示装置1104
に推論状態を表示するようにしているが、プリンタ装置
を設けて表示出力の代りに(または表示出力と併せて)
印刷出力を行うようにしてもよい。また上記の実施例で
は、推論状態を表示その他の方法で外部へ出力しこれを
設計者やシステム構築者が参照して、ファジィルールや
推論パラメータの追加や変更などをシステムに指示する
ような態様を説明したが、かかる外部出力情報から自動
的にファジィルールや推論パラメータの追加や変更など
を行うようにすることもできる。
【0074】
【発明の効果】以上説明したように、本発明によれば、
メンバシップ関数またはファジィルールのそれぞれがど
のように推論誤差に寄与しているかを視覚的に表示する
ことができるので、ファジィ知識ベースの設計者がどの
メンバシップ関数またはルールを調節作業の対象にすべ
きかを容易に把握することができ、効率のよい作業が可
能となる。
【図面の簡単な説明】
【図1】ファジィ知識ベースを構築する際の代表的作業
処理フローチャート
【図2】ファジィ推論過程を説明するためのメンバシッ
プ関数のグラフによる図
【図3】計算ネットワークによりファジィ推論を表現し
た図
【図4】メンバシップ関数の代表的な形状を示す図
【図5】ファジィルールの例を示す図
【図6】本発明の第1の実施例におけるメンバシップ修
正量の表示画面の例を示す図
【図7】本発明の第1の実施例において図6の表示をメ
ンバシップ修正量の分散の降順に並べ替えて表示した画
面の例を示す図
【図8】本発明の第2の実施例におけるルール修正量の
表示画面の例を示す図
【図9】本発明の第2の実施例において図8の表示を出
力修正量の分散の降順に並べ替えて表示した画面の例を
示す図
【図10】本発明の第1および第2の実施例を実現する
学習およびファジィ推論状態の表示処理の全体処理フロ
ーチャート
【図11】本発明の第1および第2の実施例を実現する
ための計算機システム構成図
【符号の説明】
301…入力変数x1に対応するノード、302…入力変
数x2に対応するノード、303…第1のルールにおける
変数x1に対するメンバシップ関数に対応するノード、3
04…第1のルールの適合度を求めるノード。

Claims (20)

    【特許請求の範囲】
  1. 【請求項1】一つまたは複数の入力値を入力しあらかじ
    め定められた手順により該入力から出力値を算出して出
    力する複数個のノードと該ノード間の結合関係を表す一
    つまたは複数個のリンクとを有する計算ネットワークを
    用いてファジィ推論過程を実行する際に、そのファジィ
    推論過程におけるファジィ推論状態を出力する方法であ
    って、 上記計算ネットワークにより実行されるファジィ推論過
    程に対し、適当な一つまたは複数の入力値とその入力値
    に対する望ましい出力値との組を与えて、ファジィ推論
    の推論結果である実際の出力値と上記望ましい出力値と
    の間の誤差を算出し、 該誤差を上記計算ネットワーク上でファジィ推論を行な
    うときの信号の流れの方向とは逆方向に伝播させて、上
    記各ノードが含むパラメータまたは上記各ノードの出力
    値に対する上記推論結果の変化の度合いを示す変化率を
    算出し、 上記変化率の算出を、幾つかの上記入力値と出力値との
    組に対して行い、 所定のノードごとに、そのノードに対応する上記変化率
    に関する所定の統計量を、算出して出力することを特徴
    とするファジィ推論状態の出力方法。
  2. 【請求項2】前記統計量の出力が、表示出力または印刷
    出力である請求項1に記載のファジィ推論状態の外部出
    力方法。
  3. 【請求項3】前記変化率が、前記各ノードが含むパラメ
    ータまたは各ノードの出力に対する前記推論結果の微分
    係数である請求項1または2に記載のファジィ推論状態
    の出力方法。
  4. 【請求項4】前記統計量が出力されるところのノードが
    ファジィ推論に含まれるメンバシップ関数に対応するノ
    ードであり、その外部出力において統計量とメンバシッ
    プ関数との対応関係が明示される請求項1ないし3のい
    ずれか一項に記載のファジィ推論状態の出力方法。
  5. 【請求項5】前記統計量とそれに対応するメンバシップ
    関数は、2次元マトリクスの形式で出力される請求項4
    に記載のファジィ推論状態の出力方法。
  6. 【請求項6】さらに前記メンバシップ関数に対応する命
    題および/または前記メンバシップ関数を用いているル
    ールを特定する情報をも出力する請求項4または5に記
    載のファジィ推論状態の出力方法。
  7. 【請求項7】前記統計量が外部出力されるところのノー
    ドがファジィ推論に含まれるルールに対応するノードで
    あり、その出力において統計量とルールとの対応関係が
    明示される請求項1ないし3のいずれか一項に記載のフ
    ァジィ推論状態の出力方法。
  8. 【請求項8】前記ファジィ推論に含まれるルールに対応
    するノードが、そのルールのif部で用いられているメン
    バシップ関数の適合度を求めるノードまたはそのルール
    のthen部で用いられているメンバシップ関数に対応する
    ノードである請求項7に記載のファジィ推論状態の出力
    方法。
  9. 【請求項9】前記統計量とそれに対応するルールは、2
    次元マトリクスの形式で外部出力される請求項7または
    8に記載のファジィ推論状態の出力方法。
  10. 【請求項10】さらに前記ルールが用いているメンバシ
    ップ関数を特定する情報および/またはそのメンバシッ
    プ関数に対応する命題をも出力する請求項7ないし9の
    いずれかに記載のファジィ推論状態の出力方法。
  11. 【請求項11】前記統計量とそれに対応するメンバシッ
    プ関数またはルールの出力は、前記統計量の昇順または
    降順に並べ替えて行なわれる請求項4ないし10のいず
    れか一項に記載のファジィ推論状態の出力方法。
  12. 【請求項12】前記統計量は、前記変化率の平均および
    分散である請求項1ないし11のいずれか一項に記載の
    ファジィ推論状態の出力方法。
  13. 【請求項13】一つまたは複数の入力値を入力しあらか
    じめ定められた手順により該入力から出力値を算出して
    出力する複数個のノードと該ノード間の結合関係を表す
    一つまたは複数個のリンクとを有する計算ネットワーク
    を用いてファジィ推論過程を実行する際に、そのファジ
    ィ推論過程におけるファジィ推論状態を外部出力する方
    法であって、 上記計算ネットワークが学習機能を有し、かつ学習のた
    めに算出した各データを記憶し、それらのデータの所定
    の統計量を、その統計量と上記ファジィ推論のメンバシ
    ップ関数との対応またはその統計量と上記ファジィ推論
    のルールとの対応を明示して出力することを特徴とする
    ファジィ推論状態の出力方法。
  14. 【請求項14】一つまたは複数の入力値を入力しあらか
    じめ定められた手順により該入力から出力値を算出して
    出力する複数個のノードと該ノード間の結合関係を表す
    一つまたは複数個のリンクとを有する計算ネットワーク
    を用いてファジィ推論過程を実行する際に、そのファジ
    ィ推論過程におけるファジィ推論状態を出力する方法で
    あって、 上記ファジィ推論の実際の出力値と望ましい出力値との
    間の誤差を算出し、 一方、ファジィ推論で用いるメンバシップ関数のパラメ
    ータまたは出力値を微小量変化させたときの該誤差の変
    化量を、ファジィ推論とは逆の手順で計算ネットワーク
    を用いて求め、 該誤差の変化量に関する所定の統計量を求め、 ファジィ推論に含まれるメンバシップ関数ごとに上記統
    計量および該メンバシップ関数を用いているルールを出
    力することを特徴とするファジィ推論状態の出力方法。
  15. 【請求項15】前記統計量、メンバシップ関数およびそ
    のメンバシップ関数を用いているルールは、2次元マト
    リクスの形式で出力される請求項14に記載のファジィ
    推論状態の出力方法。
  16. 【請求項16】前記統計量は、前記誤差の変化量の平均
    および分散である請求項14または15に記載のファジ
    ィ推論状態の出力方法。
  17. 【請求項17】一つまたは複数の入力値を入力しあらか
    じめ定められた手順により該入力から出力値を算出して
    出力する複数個のノードと該ノード間の結合関係を表す
    一つまたは複数個のリンクとを有する計算ネットワーク
    を用いてファジィ推論過程を実行するファジィ推論シス
    テムにおいて、 上記計算ネットワークにより実行されるファジィ推論過
    程に対し、適当な一つまたは複数の入力値とその入力値
    に対する望ましい出力値との組データが与えられたと
    き、上記計算ネットワーク上でファジィ推論過程を実行
    し、その推論結果である実際の出力値と上記望ましい出
    力値との間の誤差を算出する誤差算出手段と、 該誤差を、上記計算ネットワーク上でファジィ推論を行
    なうときの信号の流れの方向とは逆方向に伝播させて、
    上記各ノードが含むパラメータまたは上記各ノードの出
    力値に対する上記推論結果の変化の度合いを示す変化率
    をそれぞれ算出する変化率算出手段と、 幾つかの上記入力値と出力値との組データを与えてそれ
    ぞれ上記変化率の算出を行い、各ノードに対応する変化
    率を複数個求めて記憶する手段と、 所定のノードごとに、そのノードに対応する複数個の変
    化率を用いて所定の統計量を、算出する統計量算出手段
    と、 算出した統計量をノードごとに出力する出力手段とを具
    備することを特徴とするファジィ推論システム。
  18. 【請求項18】前記出力手段は、前記統計量とそれに対
    応するメンバシップ関数および/またはルールを特定す
    る情報を2次元マトリクスの形式で外部出力する請求項
    17に記載のファジィ推論システム。
  19. 【請求項19】前記外部出力手段は、前記統計量とそれ
    に対応するメンバシップ関数および/またはルールを特
    定する情報の外部出力を前記統計量の昇順または降順に
    並べ替えて行なう請求項18に記載のファジィ推論シス
    テム。
  20. 【請求項20】前記統計量は、前記変化率の平均および
    分散である請求項17ないし19のいずれか一項に記載
    のファジィ推論システム。
JP03241093A 1991-09-20 1991-09-20 ファジィ推論状態の出力方法およびファジィ推論システム Expired - Fee Related JP3097212B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP03241093A JP3097212B2 (ja) 1991-09-20 1991-09-20 ファジィ推論状態の出力方法およびファジィ推論システム
GB9219721A GB2259796A (en) 1991-09-20 1992-09-17 Providing status output in a fuzzy logic system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03241093A JP3097212B2 (ja) 1991-09-20 1991-09-20 ファジィ推論状態の出力方法およびファジィ推論システム

Publications (2)

Publication Number Publication Date
JPH0581031A true JPH0581031A (ja) 1993-04-02
JP3097212B2 JP3097212B2 (ja) 2000-10-10

Family

ID=17069187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03241093A Expired - Fee Related JP3097212B2 (ja) 1991-09-20 1991-09-20 ファジィ推論状態の出力方法およびファジィ推論システム

Country Status (2)

Country Link
JP (1) JP3097212B2 (ja)
GB (1) GB2259796A (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267348A (en) * 1990-03-09 1993-11-30 Hitachi, Ltd. Method and system for evaluating and modifying fuzzy knowledge
JPH04127239A (ja) * 1990-06-06 1992-04-28 Hitachi Ltd ファジィ推論パラメータの自動調節方法および学習状態の表示方法

Also Published As

Publication number Publication date
GB2259796A (en) 1993-03-24
JP3097212B2 (ja) 2000-10-10
GB9219721D0 (en) 1992-10-28

Similar Documents

Publication Publication Date Title
Babuška Fuzzy systems, modeling and identification
JPH06131188A (ja) ファジィルール獲得方法およびファジィ推論システム
Mohammadzadeh et al. Modern Adaptive Fuzzy Control Systems
Grippo Convergent on-line algorithms for supervised learning in neural networks
JP3214876B2 (ja) ニューラルネットワークの構成方法およびニューラルネットワーク構築支援システム
US5463718A (en) Learning method and apparatus
JPH04127239A (ja) ファジィ推論パラメータの自動調節方法および学習状態の表示方法
JPH0588900A (ja) 学習型フアジイ制御装置および制御方法
McKim Neural networks and identification and estimation of risk
Wang et al. Linguistic dynamic systems and computing with words for complex systems
JPH0581031A (ja) フアジイ推論状態の出力方法およびフアジイ推論システム
Prabhu et al. Fuzzy-logic-based reinforcement learning of admittance control for automated robotic manufacturing
Zhan et al. Bicriteria policy optimization for high-accuracy reinforcement learning
JP3354593B2 (ja) ネットワーク型情報処理装置の学習システム
Gu et al. Steady state hierarchical optimizing control for large-scale industrial processes with fuzzy parameters
US6662169B2 (en) Controlling the self learning behavior of an autonomous agent
Cubuktepe et al. Shared control with human trust and workload models
Barber et al. Knowledge-based project control employing heuristic optimisation
Kubota et al. Motion learning for redundant manipulator with structured intelligence
JPH0554014A (ja) ニユーラルネツトワークの学習装置
JPH0756617A (ja) マニピュレータの最適軌道計画法
Hu Problems with Continuous Action Space
Paradice et al. Dynamic construction of statistical models in managerial DSS
Kamthe Probabilistic models for data efficient reinforcement learning
Ramirez et al. On the parameter optimization of fuzzy inference systems

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees