JPH07234855A - 写像決定方法および装置 - Google Patents
写像決定方法および装置Info
- Publication number
- JPH07234855A JPH07234855A JP6221321A JP22132194A JPH07234855A JP H07234855 A JPH07234855 A JP H07234855A JP 6221321 A JP6221321 A JP 6221321A JP 22132194 A JP22132194 A JP 22132194A JP H07234855 A JPH07234855 A JP H07234855A
- Authority
- JP
- Japan
- Prior art keywords
- mapping
- function
- coefficient
- determination method
- equation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】
【目的】 短時間に、確実に、評価関数を最小にする係
数を演算することができるようにする。 【構成】 4次元のベクトル(x0,x1,x2,x3)
を、1次元のベクトルyに変換する写像を決定するに際
し、写像を関数gi(X)と係数ciとの積の線形和によ
り表現する。学習サンプルと教師ベクトルを与えて、評
価関数を得、その偏微分値が0となる連立一次方程式を
解くことで、写像の係数ciを求める。
数を演算することができるようにする。 【構成】 4次元のベクトル(x0,x1,x2,x3)
を、1次元のベクトルyに変換する写像を決定するに際
し、写像を関数gi(X)と係数ciとの積の線形和によ
り表現する。学習サンプルと教師ベクトルを与えて、評
価関数を得、その偏微分値が0となる連立一次方程式を
解くことで、写像の係数ciを求める。
Description
【0001】
【産業上の利用分野】本発明は、パターン認識、パター
ン生成、産業用ロボット等の制御系、経済問題等の予測
処理系等の多岐にわたる分野において要求される写像決
定方法および写像装置に関し、特に写像の特性付けを学
習によって決定する場合に、任意の連続写像を必要な精
度で表現することができ、かつ評価関数が極小値に陥る
ことを防止し、所望の写像を効果的、かつ効率的に実現
することができる写像決定方法および写像装置に関す
る。
ン生成、産業用ロボット等の制御系、経済問題等の予測
処理系等の多岐にわたる分野において要求される写像決
定方法および写像装置に関し、特に写像の特性付けを学
習によって決定する場合に、任意の連続写像を必要な精
度で表現することができ、かつ評価関数が極小値に陥る
ことを防止し、所望の写像を効果的、かつ効率的に実現
することができる写像決定方法および写像装置に関す
る。
【0002】
【従来の技術】音声認識や画像認識等のパターン認識、
音声合成やコンピュータ・グラフィック等のパターン生
成、景気予測や株価予測等の予測処理系、産業用ロボッ
トの制御系等の多くの分野において、所定の次元の入力
ベクトルに対して、所定の次元の出力ベクトルを生成、
出力する写像の構成をした処理系が用いられている。
音声合成やコンピュータ・グラフィック等のパターン生
成、景気予測や株価予測等の予測処理系、産業用ロボッ
トの制御系等の多くの分野において、所定の次元の入力
ベクトルに対して、所定の次元の出力ベクトルを生成、
出力する写像の構成をした処理系が用いられている。
【0003】例えば、音声認識や画像認識では、入力デ
ータからデジタル信号処理により得られた特徴ベクトル
を、さらに圧縮された特徴ベクトルとする等の目的で、
線形写像或いは非線形写像が用いられている。
ータからデジタル信号処理により得られた特徴ベクトル
を、さらに圧縮された特徴ベクトルとする等の目的で、
線形写像或いは非線形写像が用いられている。
【0004】例えば、数学的な変換を利用した写像とし
ては、線形の写像として、DFT(離散フーリエ変換)
等の直交変換があり、また非線形の写像として、対数変
換等がある。しかしながら、これらは既に決まった写像
であり、任意の入力ベクトルに対して、任意の出力ベク
トルを得る系に応用することは困難である。
ては、線形の写像として、DFT(離散フーリエ変換)
等の直交変換があり、また非線形の写像として、対数変
換等がある。しかしながら、これらは既に決まった写像
であり、任意の入力ベクトルに対して、任意の出力ベク
トルを得る系に応用することは困難である。
【0005】そこで、所定の目的の写像を学習により決
定する方法が検討されている。例えば、線形なものでは
KL変換、非線形なものでは階層型ニューラルネット等
が、この学習によって決定される写像の代表例である。
特に、階層型ニューラルネットは、中間層の数を増やし
ていくことによって、原理的には任意の連続写像を表現
することができるため、従来より、多くの分野に適用さ
れてきている。
定する方法が検討されている。例えば、線形なものでは
KL変換、非線形なものでは階層型ニューラルネット等
が、この学習によって決定される写像の代表例である。
特に、階層型ニューラルネットは、中間層の数を増やし
ていくことによって、原理的には任意の連続写像を表現
することができるため、従来より、多くの分野に適用さ
れてきている。
【0006】この階層型ニューラルネットは、各層の基
本ユニット(ニューロン素子)の出力が、次の層の基本
ユニットへの入力となるように、入力層から出力層へ向
かって結線されたネットワークで、例えば図15に示す
ように構成される。この例においては、入力層が4素子
(1乃至4)、中間層が3素子(5乃至7)、出力層が
1素子(8)で構成され、3層ニューラルネットとされ
ている。
本ユニット(ニューロン素子)の出力が、次の層の基本
ユニットへの入力となるように、入力層から出力層へ向
かって結線されたネットワークで、例えば図15に示す
ように構成される。この例においては、入力層が4素子
(1乃至4)、中間層が3素子(5乃至7)、出力層が
1素子(8)で構成され、3層ニューラルネットとされ
ている。
【0007】ここで、入力層がN素子、中間層がL素
子、出力層がM素子の一般的な3層ニューラルネットに
おいて、入力層の入力を、入力ベクトルX=(x0,
x1,x2,・・・,xN-1)とし、対応した出力層から
出力される出力を、出力ベクトルY=(y0,y1,
y2,・・・,yM-1)とした場合のネットワークの具体
的な処理内容について説明する。
子、出力層がM素子の一般的な3層ニューラルネットに
おいて、入力層の入力を、入力ベクトルX=(x0,
x1,x2,・・・,xN-1)とし、対応した出力層から
出力される出力を、出力ベクトルY=(y0,y1,
y2,・・・,yM-1)とした場合のネットワークの具体
的な処理内容について説明する。
【0008】入力層のN個の素子からの出力は、単純に
それぞれの入力xi(i=0,1,2,・・・,N−
1)そのものであり、それらの出力が、そのまま次の中
間層のL個の素子に入力される。中間層では次式を演算
し、出力する。尚、ωijは、結合重み係数であり、s
(x)は、シグモイド関数である。
それぞれの入力xi(i=0,1,2,・・・,N−
1)そのものであり、それらの出力が、そのまま次の中
間層のL個の素子に入力される。中間層では次式を演算
し、出力する。尚、ωijは、結合重み係数であり、s
(x)は、シグモイド関数である。
【0009】
【数4】
【0010】中間層のL個の素子からの出力x’j(j
=0,1,2,・・・,L−1)は、出力層のM個の素
子の入力となり、出力層では次式が演算される。
=0,1,2,・・・,L−1)は、出力層のM個の素
子の入力となり、出力層では次式が演算される。
【0011】
【数5】
【0012】4階層以上の場合にも、入出力の関係の段
数が増えること以外には、基本的には同様のネットワー
ク構造となる。
数が増えること以外には、基本的には同様のネットワー
ク構造となる。
【0013】ニューラルネットにおいては、写像をこの
ような構造に限定し、写像の特性付けのため(結合重み
係数ωの設定のため)、入力層に学習サンプルを与え、
各学習サンプルの写像からの出力(ニューラルネットの
出力)を得る。そして、この写像出力に対応して教師ベ
クトルを与え、写像出力と教師ベクトルとの二乗誤差の
総和を評価関数として設定し、バックプロパゲーション
により、結合重み係数ωを決定する。
ような構造に限定し、写像の特性付けのため(結合重み
係数ωの設定のため)、入力層に学習サンプルを与え、
各学習サンプルの写像からの出力(ニューラルネットの
出力)を得る。そして、この写像出力に対応して教師ベ
クトルを与え、写像出力と教師ベクトルとの二乗誤差の
総和を評価関数として設定し、バックプロパゲーション
により、結合重み係数ωを決定する。
【0014】このバックプロパゲーションのアルゴリズ
ムは、データ毎の最急降下法(確率降下法)をニューラ
ルネットに対し、具現化したものである。
ムは、データ毎の最急降下法(確率降下法)をニューラ
ルネットに対し、具現化したものである。
【0015】
【発明が解決しようとする課題】ところで、この最急降
下法においては、その結果が、一般的に、評価関数の形
によっては、評価関数に対する初期値の与え方に依存
し、最小値(グローバルミニマム)に対応した最適解
(演算値)が求まらないで、極小値(ローカルミニマ
ム)が求められる場合がある。
下法においては、その結果が、一般的に、評価関数の形
によっては、評価関数に対する初期値の与え方に依存
し、最小値(グローバルミニマム)に対応した最適解
(演算値)が求まらないで、極小値(ローカルミニマ
ム)が求められる場合がある。
【0016】ニューラルネットの場合の評価関数は、正
にこの場合に相当しており、バックプロパゲーションに
よって求まった解が、最小の誤差に対応するものである
保証は何もない。つまり、初期値の与え方によっては、
教師ベクトルと大きく異なる出力を出す写像が求まって
しまう可能性がある。
にこの場合に相当しており、バックプロパゲーションに
よって求まった解が、最小の誤差に対応するものである
保証は何もない。つまり、初期値の与え方によっては、
教師ベクトルと大きく異なる出力を出す写像が求まって
しまう可能性がある。
【0017】このため、例えば初期値を乱数で振って、
繰り返し学習を行なう等の方法で、可能な限り準最適解
を得るような方策が講じられる。
繰り返し学習を行なう等の方法で、可能な限り準最適解
を得るような方策が講じられる。
【0018】しかしながら、このような対処療法的な方
法では、基本的に、最適解(最小値)に辿り着く保証は
何もなく、準最適解と言っているものも、最適解の最小
誤差と比較すると、誤差が大きなものである可能性が残
る。しかも、そのような準最適解を求めることさえ、多
大な学習時間を必要とする。
法では、基本的に、最適解(最小値)に辿り着く保証は
何もなく、準最適解と言っているものも、最適解の最小
誤差と比較すると、誤差が大きなものである可能性が残
る。しかも、そのような準最適解を求めることさえ、多
大な学習時間を必要とする。
【0019】さらに、ニューラルネットが任意の連続写
像を表現できるのは、中間層のニューロン素子の数を無
限に設定した、理想化した場合であり、現実には、与え
られた有限個の数の中間層で、所望の写像を構成するこ
とになる。言い換えれば、中間層の素子数を現実的な数
に限定した場合に、理想的な写像を何処まで近似できる
かが、ニューラルネットの性能となる。
像を表現できるのは、中間層のニューロン素子の数を無
限に設定した、理想化した場合であり、現実には、与え
られた有限個の数の中間層で、所望の写像を構成するこ
とになる。言い換えれば、中間層の素子数を現実的な数
に限定した場合に、理想的な写像を何処まで近似できる
かが、ニューラルネットの性能となる。
【0020】しかしながら、ニューラルネットの構造的
自由度としては、結合重み係数の他には、階層の段数と
素子数という、ネットワークの規模に影響を与えるもの
以外残されていない。従って、ニューラルネットは、現
実的な規模の制約下では、近似能力が不十分な場合が生
じる。
自由度としては、結合重み係数の他には、階層の段数と
素子数という、ネットワークの規模に影響を与えるもの
以外残されていない。従って、ニューラルネットは、現
実的な規模の制約下では、近似能力が不十分な場合が生
じる。
【0021】以上のように、従来の学習型の写像装置で
あるニューラルネットは、学習時において、以下の3点
で問題を有している。 (1)誤差最小が保証されず、極小値に陥ってしまう可
能性がある。 (2)最適解に少しでも近い解を得ようとすれば、多大
な学習時間を必要とする。 (3)現実的規模では所望の写像の近似能力が不十分な
場合がある。
あるニューラルネットは、学習時において、以下の3点
で問題を有している。 (1)誤差最小が保証されず、極小値に陥ってしまう可
能性がある。 (2)最適解に少しでも近い解を得ようとすれば、多大
な学習時間を必要とする。 (3)現実的規模では所望の写像の近似能力が不十分な
場合がある。
【0022】本発明はこのような状況に鑑みてなされた
ものであり、短時間に、確実に、最適解を得ることがで
きるようにするとともに、より近似能力の高い写像を得
ることができるようにするものである。
ものであり、短時間に、確実に、最適解を得ることがで
きるようにするとともに、より近似能力の高い写像を得
ることができるようにするものである。
【0023】また、処理のためにデータを記憶する場合
の容量が少なくて済み、追加学習も可能にするばかりで
なく、識別能力を有するようにするものである。
の容量が少なくて済み、追加学習も可能にするばかりで
なく、識別能力を有するようにするものである。
【0024】
【課題を解決するための手段】本発明の写像決定方法
は、N次元計量ベクトル空間ΩNからM次元計量ベクト
ル空間ΩMへの写像Fを求める写像決定方法において、
写像Fの第m成分の関数fm(X)を、Lm個の関数glm
(X)と係数clmとの積の線形和
は、N次元計量ベクトル空間ΩNからM次元計量ベクト
ル空間ΩMへの写像Fを求める写像決定方法において、
写像Fの第m成分の関数fm(X)を、Lm個の関数glm
(X)と係数clmとの積の線形和
【数6】 により表すことを特徴とする。
【0025】この場合、Q個のカテゴリCq(q=0,
1,2,・・・,Q−1)に分類されているN次元計量
ベクトル空間ΩN上の学習サンプルSq(=(Sq0,
Sq1,・・・,Sq(N-1)))と、カテゴリCqに対する
M次元計量ベクトル空間ΩM上のQ個の教師ベクトルTq
(=(tq0,tq1,tq2,・・・,tq(M-1)))とを与
えて、所定の評価関数Jを演算し、評価関数Jを最小に
する係数clmを求めるようにすることができる。
1,2,・・・,Q−1)に分類されているN次元計量
ベクトル空間ΩN上の学習サンプルSq(=(Sq0,
Sq1,・・・,Sq(N-1)))と、カテゴリCqに対する
M次元計量ベクトル空間ΩM上のQ個の教師ベクトルTq
(=(tq0,tq1,tq2,・・・,tq(M-1)))とを与
えて、所定の評価関数Jを演算し、評価関数Jを最小に
する係数clmを求めるようにすることができる。
【0026】この評価関数Jは、E{X∈Sq}{f
(X)}を、学習サンプルSqの全要素にわたって関数
f(X)の期待値を求める演算とするとき、
(X)}を、学習サンプルSqの全要素にわたって関数
f(X)の期待値を求める演算とするとき、
【数7】 で表されるようにすることができる。
【0027】また、関数glm(X)は、N変数関数空間
上の完備な関数系に属するものとし、Lmの値は、教師
ベクトルTqとの誤差が充分小さくなる値に設定するこ
とができる。
上の完備な関数系に属するものとし、Lmの値は、教師
ベクトルTqとの誤差が充分小さくなる値に設定するこ
とができる。
【0028】従って、関数glm(X)は、N変数の単項
式とすることができる。
式とすることができる。
【0029】また、係数clmは、各mに対して、 αqmij=E{X∈Sq}{gim(X)gjm(X)} βqmi =E{X∈Sq}{gim(X)} とするとき、
【数8】 の線形方程式を解くことにより求めることができる。
【0030】あるいは、係数clmは、評価関数Jに対し
て最急降下法を適用して求めることができる。
て最急降下法を適用して求めることができる。
【0031】また、関数fm(X)を求めた後、さらに
シグモイド関数による演算を行うようにしてもよい。
シグモイド関数による演算を行うようにしてもよい。
【0032】係数clmは、逐次的に決定することができ
る。この場合、t+1回目の学習データをx、t+1回
目の写像の係数をckn(t+1)、t回目の写像の係数
をckn(t)、修正関数をDnq、所定の定数をεとする
とき、t+1回目の係数ckn(t+1)は、次式 ckn(t+1)=ckn(t)−εDnq(x,t)g
nk(x) より演算することができる。
る。この場合、t+1回目の学習データをx、t+1回
目の写像の係数をckn(t+1)、t回目の写像の係数
をckn(t)、修正関数をDnq、所定の定数をεとする
とき、t+1回目の係数ckn(t+1)は、次式 ckn(t+1)=ckn(t)−εDnq(x,t)g
nk(x) より演算することができる。
【0033】また係数clmを逐次的に決定する前に、係
数clmに所定の値を初期設定することができる。さらに
学習データは、カテゴリCq毎に設定することができ
る。
数clmに所定の値を初期設定することができる。さらに
学習データは、カテゴリCq毎に設定することができ
る。
【0034】これらの方法を適用して、写像装置を実現
することができる。
することができる。
【0035】この装置には、評価関数Jを最小にする係
数clmを記憶する記憶手段(例えば図3の係数格納部3
2)と、数6の式に基づいて関数fm(X)を演算する
演算手段(例えば図3のGGM計算部31)とを設ける
ことができる。
数clmを記憶する記憶手段(例えば図3の係数格納部3
2)と、数6の式に基づいて関数fm(X)を演算する
演算手段(例えば図3のGGM計算部31)とを設ける
ことができる。
【0036】
【作用】上記構成の写像決定方法および装置において
は、写像Fの第m成分の関数fm(X)が、Lm個の関数
glm(X)と係数clmとの積の線形和により表される。
従って、極小値に陥ることなく、最適解(最小値)を得
ることが可能になる。
は、写像Fの第m成分の関数fm(X)が、Lm個の関数
glm(X)と係数clmとの積の線形和により表される。
従って、極小値に陥ることなく、最適解(最小値)を得
ることが可能になる。
【0037】
【実施例】本発明においては、N次元計量ベクトル空間
ΩNからM次元計量ベクトル空間ΩMへの写像Fを決定す
るに際し、写像Fの第m成分の関数fm(X)が、Lm個
の関数glm(X)の線形和として、次に示すように定義
される。
ΩNからM次元計量ベクトル空間ΩMへの写像Fを決定す
るに際し、写像Fの第m成分の関数fm(X)が、Lm個
の関数glm(X)の線形和として、次に示すように定義
される。
【0038】
【数9】
【0039】ここで、X=(x0,x1,x2,・・・,
xN-1)であり、clmは所定の係数である。
xN-1)であり、clmは所定の係数である。
【0040】即ち、本発明においては、関数glm(X)
として、N変数関数空間上の完備な関数系が採用され
る。関数解析における「任意の関数は完備な関数系の線
形結合で表現することができる」という定理から、個数
Lmの大きさを充分大きくすることにより、原理的に
は、任意の連続写像を、この関数glm(X)により表現
することができることが判る。
として、N変数関数空間上の完備な関数系が採用され
る。関数解析における「任意の関数は完備な関数系の線
形結合で表現することができる」という定理から、個数
Lmの大きさを充分大きくすることにより、原理的に
は、任意の連続写像を、この関数glm(X)により表現
することができることが判る。
【0041】このことは、階層型ニューラルネットにお
ける中間層のニューロン素子の数が充分大きければ、原
理的には、任意の連続写像を表現することができること
に対応する。
ける中間層のニューロン素子の数が充分大きければ、原
理的には、任意の連続写像を表現することができること
に対応する。
【0042】図15に示す従来のニューラルネットワー
クとの比較のために、本発明の写像をネットワークで表
現すると、図1に示すようになる。
クとの比較のために、本発明の写像をネットワークで表
現すると、図1に示すようになる。
【0043】即ち、素子11乃至14には、それぞれ入
力x0乃至x3が入力される。これらの入力は、それぞれ
中間層の素子15乃至17にそのまま出力される。
力x0乃至x3が入力される。これらの入力は、それぞれ
中間層の素子15乃至17にそのまま出力される。
【0044】中間層の素子15においては、次式で表さ
れるような演算が行われる。
れるような演算が行われる。
【0045】
【数10】
【0046】即ち、変数x0,x1,x2,x3から関数g
0(X)(=g0(x0,x1,x2,x3))の関数値を計
算した後、係数c0が乗算される。同様に、素子16と
素子17においては、それぞれ次式で表すような演算が
行われる。
0(X)(=g0(x0,x1,x2,x3))の関数値を計
算した後、係数c0が乗算される。同様に、素子16と
素子17においては、それぞれ次式で表すような演算が
行われる。
【0047】
【数11】
【0048】
【数12】
【0049】そして、出力層の素子18において、中間
層の素子15乃至17の出力x’0,x’1,x’2が加
算され、出力yが得られる。
層の素子15乃至17の出力x’0,x’1,x’2が加
算され、出力yが得られる。
【0050】従って、関数gi(X)を所定のものに選
択、設定すれば、その後、学習により、係数ciを所定
のものに設定することで、写像Fが得られることにな
る。
択、設定すれば、その後、学習により、係数ciを所定
のものに設定することで、写像Fが得られることにな
る。
【0051】この係数ciを決定するため、Q個のカテ
ゴリCq(q=0,1,2,・・・,Q−1)に分類さ
れているN次元(計量)ベクトル空間ΩN上の学習サン
プル(カテゴリCqの学習サンプルの集合をSq(=(S
q0,Sq1,・・・,Sq(N-1)))とする)を用い、それ
ぞれのカテゴリCqに対するM次元(計量)ベクトル空
間ΩM上のQ個の教師ベクトルTq(=(tq0,tq1,t
q2,・・・,tq(M-1)))を与え、次式で表される評価
関数Jを演算する。
ゴリCq(q=0,1,2,・・・,Q−1)に分類さ
れているN次元(計量)ベクトル空間ΩN上の学習サン
プル(カテゴリCqの学習サンプルの集合をSq(=(S
q0,Sq1,・・・,Sq(N-1)))とする)を用い、それ
ぞれのカテゴリCqに対するM次元(計量)ベクトル空
間ΩM上のQ個の教師ベクトルTq(=(tq0,tq1,t
q2,・・・,tq(M-1)))を与え、次式で表される評価
関数Jを演算する。
【0052】
【数13】
【0053】尚、上式におけるE{X∈Sq}{ }
は、{ }内において、学習用サンプルの集合Sqの全
要素にわたって、平均値(期待値)を演算することを意
味する。従って、評価関数Jは、学習サンプルに対する
写像出力と教師ベクトルとの自乗誤差のアンサンブル平
均を意味している。
は、{ }内において、学習用サンプルの集合Sqの全
要素にわたって、平均値(期待値)を演算することを意
味する。従って、評価関数Jは、学習サンプルに対する
写像出力と教師ベクトルとの自乗誤差のアンサンブル平
均を意味している。
【0054】(3)式を、(7)式に代入すると、次式
が得られる。
が得られる。
【0055】
【数14】
【0056】ここで、 αqmij=E{X∈Sq}{gim(X)gjm(X)} (9) βqmi =E{X∈Sq}{gim(X)} (10) とおくと、上記(8)式は、次のように表すことができ
る。
る。
【0057】
【数15】
【0058】ここで、評価関数Jの極値を求めるため、
(11)式を、次式で表すように、cimで偏微分し、そ
の値を0とする。
(11)式を、次式で表すように、cimで偏微分し、そ
の値を0とする。
【0059】
【数16】
【0060】(11)式を、(12)式に示すように演
算することにより、次式が得られる。
算することにより、次式が得られる。
【0061】
【数17】
【0062】この(13)式は、各mに関し、Lm個の
未知数(係数)cim(i=0,1,・・・,Lm-1)に
関する連立一次方程式となる。
未知数(係数)cim(i=0,1,・・・,Lm-1)に
関する連立一次方程式となる。
【0063】この(13)式を、さらに、次の(14)
式と(15)式のようにおくと、(16)式に示すよう
な簡潔な形となる。
式と(15)式のようにおくと、(16)式に示すよう
な簡潔な形となる。
【0064】
【数18】
【0065】
【数19】
【0066】
【数20】
【0067】(13)式または(16)式は、一次方程
式であるから、不定あるいは不能となる特殊な場合を除
き、一意に解が得られる。
式であるから、不定あるいは不能となる特殊な場合を除
き、一意に解が得られる。
【0068】このことは、(8)式で表される評価関数
Jの最小値に対応するcimが、(13)式の方程式また
は(16)式の方程式を解くことにより、求めることが
できることを意味する。
Jの最小値に対応するcimが、(13)式の方程式また
は(16)式の方程式を解くことにより、求めることが
できることを意味する。
【0069】この解が一意に決まるという特性は、ニュ
ーラルネットにおけるような準最適解を求めるために、
初期値を変更して繰り返し学習する処理を不要にする。
また、(3)式に示すように写像を表現するようにした
ため、係数cimの値の自由度と、関数glm(X)とし
て、どのような関数を採用するかの自由度があることに
なる(即ち、大きくは自由度が2種類となる)。
ーラルネットにおけるような準最適解を求めるために、
初期値を変更して繰り返し学習する処理を不要にする。
また、(3)式に示すように写像を表現するようにした
ため、係数cimの値の自由度と、関数glm(X)とし
て、どのような関数を採用するかの自由度があることに
なる(即ち、大きくは自由度が2種類となる)。
【0070】このため、同程度の規模で考えれば、写像
の潜在的表現能力は、上述した本発明による写像決定方
法(GGM(Guaranteed Global minimum Mapping))
の方が、ニューラルネットよりも大きくなる。なぜなら
ば、ニューラルネットの場合には、規模が固定されれ
ば、残る表現の自由度は、結合重み係数の値の取り得る
自由度だけとなるからである。
の潜在的表現能力は、上述した本発明による写像決定方
法(GGM(Guaranteed Global minimum Mapping))
の方が、ニューラルネットよりも大きくなる。なぜなら
ば、ニューラルネットの場合には、規模が固定されれ
ば、残る表現の自由度は、結合重み係数の値の取り得る
自由度だけとなるからである。
【0071】次に、本発明を、2次元データの2カテゴ
リへの判別を行なう判別装置に適用した実施例について
説明する。
リへの判別を行なう判別装置に適用した実施例について
説明する。
【0072】この実施例においては、入力空間の次元数
N=2、出力空間の次元数M=1、カテゴリの数Q=2
(そのカテゴリをC0,C1とする)とされる。また、各
カテゴリに学習用データ(人工データ)が23サンプル
与えられ、カテゴリC0,C1の教師ベクトルが、それぞ
れT0=(0),T1=(1)(この場合は、M=1であ
るから、スカラー)とされる。
N=2、出力空間の次元数M=1、カテゴリの数Q=2
(そのカテゴリをC0,C1とする)とされる。また、各
カテゴリに学習用データ(人工データ)が23サンプル
与えられ、カテゴリC0,C1の教師ベクトルが、それぞ
れT0=(0),T1=(1)(この場合は、M=1であ
るから、スカラー)とされる。
【0073】尚、本実施例ではM=1であるから、今後
mに関する添字は省略する。従って、例えばLmは、L
と略記する。
mに関する添字は省略する。従って、例えばLmは、L
と略記する。
【0074】表1は、この実施例におけるカテゴリ
C0,C1のそれぞれ23サンプルの2次元データ(学習
サンプル)の一覧表である。
C0,C1のそれぞれ23サンプルの2次元データ(学習
サンプル)の一覧表である。
【0075】
【表1】
【0076】カテゴリC0のデータNo.21からデー
タNo.23のデータは、カテゴリC1のデータNo.
44からデータNo.46のデータとコンフュージョン
するように与えられている(同一のデータとされてい
る)。
タNo.23のデータは、カテゴリC1のデータNo.
44からデータNo.46のデータとコンフュージョン
するように与えられている(同一のデータとされてい
る)。
【0077】図2は、これらのデータを2次元に配置し
た状態を示す図である。同図において、縦軸は、表1に
示す、左右1対の値よりなる各サンプルデータのうち
の、左側の値を、また、横軸は、右側の値を、それぞれ
表している。
た状態を示す図である。同図において、縦軸は、表1に
示す、左右1対の値よりなる各サンプルデータのうち
の、左側の値を、また、横軸は、右側の値を、それぞれ
表している。
【0078】図3は、以上の2次元データを処理する判
別装置の構成例を示している。上述した2次元データ
は、GGM(Guaranteed Global minimum Mapping)計
算部31に入力され、所定の演算が行われるようになさ
れている。係数格納部32には、所定の係数ciが記憶
されており、GGM計算部31は、この係数格納部32
に記憶されている係数ciを適宜参照し、所定の演算を
行うようになされている。GGM計算部31の出力y
は、判別部33に供給され、所定の判別が行われるよう
になされている。
別装置の構成例を示している。上述した2次元データ
は、GGM(Guaranteed Global minimum Mapping)計
算部31に入力され、所定の演算が行われるようになさ
れている。係数格納部32には、所定の係数ciが記憶
されており、GGM計算部31は、この係数格納部32
に記憶されている係数ciを適宜参照し、所定の演算を
行うようになされている。GGM計算部31の出力y
は、判別部33に供給され、所定の判別が行われるよう
になされている。
【0079】すべての単項式からなる系は完備であるか
ら、単項式giを適宜選択することにより、これらの単
項式の線形結合により生成される写像によって、任意の
連続写像を表現することができる。そこで、このGGM
計算部31においては、関数gi(X)として、2変数
の単項式の5次までの全ての項を採用する。即ち、GG
M計算部31においては、写像Fの関数fm(X)を次
式のように定義する。 fm(X)=c20x0 3x1 2+c19x0 2x1 3+c18x0 2x1 2 +c17x0x1 4+c16x0x1 3+c15x0x1 2+c14x0 4x1 +c13x0 3x1+c12x0 2x1+c11x0x1+c10x1 5+c9x1 4 +c8x1 3+c7x1 2+c6x1+c5x0 5+c4x0 4+c3x0 3 +c2x0 2+c1x0+c0 (17)
ら、単項式giを適宜選択することにより、これらの単
項式の線形結合により生成される写像によって、任意の
連続写像を表現することができる。そこで、このGGM
計算部31においては、関数gi(X)として、2変数
の単項式の5次までの全ての項を採用する。即ち、GG
M計算部31においては、写像Fの関数fm(X)を次
式のように定義する。 fm(X)=c20x0 3x1 2+c19x0 2x1 3+c18x0 2x1 2 +c17x0x1 4+c16x0x1 3+c15x0x1 2+c14x0 4x1 +c13x0 3x1+c12x0 2x1+c11x0x1+c10x1 5+c9x1 4 +c8x1 3+c7x1 2+c6x1+c5x0 5+c4x0 4+c3x0 3 +c2x0 2+c1x0+c0 (17)
【0080】この実施例は、(3)式におけるL=21
の場合に対応する。
の場合に対応する。
【0081】このGGM計算部31は、図4のフローチ
ャートに示す処理に従って、最初に係数ciを演算す
る。
ャートに示す処理に従って、最初に係数ciを演算す
る。
【0082】図4のステップS1においては、各カテゴ
リC0,C1のそれぞれLm個のサンプル値を、(9)式
と(10)式に全て代入し、αqijとβqi(期待値)を
求める。
リC0,C1のそれぞれLm個のサンプル値を、(9)式
と(10)式に全て代入し、αqijとβqi(期待値)を
求める。
【0083】例えば、(10)式のE{X∈Sq}
{ }における{ }内の関数が定数の1であるとき、
期待値(平均値)も1となる。このため、β0=1とな
る。同様にして、各関数に、各カテゴリのサンプルデー
タの値を全て代入し、平均値の演算を行うことで、βqi
を求めることができる。
{ }における{ }内の関数が定数の1であるとき、
期待値(平均値)も1となる。このため、β0=1とな
る。同様にして、各関数に、各カテゴリのサンプルデー
タの値を全て代入し、平均値の演算を行うことで、βqi
を求めることができる。
【0084】また、(9)式のαqijも、E{X∈Sq}
{ }の{ }内が、gi(X)とgj(X)の積である
から、その積に、各カテゴリのサンプルデータの値を代
入し、平均演算を行うことにより求めることができる。
{ }の{ }内が、gi(X)とgj(X)の積である
から、その積に、各カテゴリのサンプルデータの値を代
入し、平均演算を行うことにより求めることができる。
【0085】次にステップS2に進み、ステップS1で
求めたαqij,βqiを、(14)式と(15)式に代入
し、αijとβiを求める。
求めたαqij,βqiを、(14)式と(15)式に代入
し、αijとβiを求める。
【0086】さらにステップS3に進み、(16)式の
方程式から、一次方程式の解法プログラムなどを用い、
6個の未知数ciを求める。
方程式から、一次方程式の解法プログラムなどを用い、
6個の未知数ciを求める。
【0087】以上のようにして求められた係数ciは、
係数格納部32に格納される。
係数格納部32に格納される。
【0088】以上のようにして、係数ciが求められる
と、次に、GGM計算部31は、入力される2次元デー
タ(学習サンプル)に対して、図5のフローチャートに
示すような処理を実行する。
と、次に、GGM計算部31は、入力される2次元デー
タ(学習サンプル)に対して、図5のフローチャートに
示すような処理を実行する。
【0089】最初にステップS11において、カウンタ
iを0に、また、出力値yを0に初期設定する。次にス
テップS12に進み、入力ベクトル(x0,x1)から、
関数gi(x0,x1)を演算する。いまの場合、i=0
であるから、関数g0(x0,x1)を演算する。
iを0に、また、出力値yを0に初期設定する。次にス
テップS12に進み、入力ベクトル(x0,x1)から、
関数gi(x0,x1)を演算する。いまの場合、i=0
であるから、関数g0(x0,x1)を演算する。
【0090】次にステップS13に進み、係数格納部3
2に記憶されている係数ciを読み込み、cigi(x0,
x1)を演算し、この演算して得られた結果に対し、出
力値yを加算し、これを新たな出力値yとする。いまの
場合、y=0であるから、新たな出力値yは、y=c0
g0(x0,x1)=c0となる。
2に記憶されている係数ciを読み込み、cigi(x0,
x1)を演算し、この演算して得られた結果に対し、出
力値yを加算し、これを新たな出力値yとする。いまの
場合、y=0であるから、新たな出力値yは、y=c0
g0(x0,x1)=c0となる。
【0091】次にステップS14に進み、カウンタの値
iが20に等しいか否かが判定され、iが20に達して
いないとき、ステップS15に進み、iを1だけインク
リメントし(i=1とし)、ステップS12に戻る。そ
して、ステップS12においては、関数g1(x0,
x1)を演算する。そしてステップS13において、係
数格納部32から係数c1を読み込み、c1g1(x0,x
1)に、それまでの出力値y(=c0)を加算し、新たな
出力値y=c1x0+c0を得る。
iが20に等しいか否かが判定され、iが20に達して
いないとき、ステップS15に進み、iを1だけインク
リメントし(i=1とし)、ステップS12に戻る。そ
して、ステップS12においては、関数g1(x0,
x1)を演算する。そしてステップS13において、係
数格納部32から係数c1を読み込み、c1g1(x0,x
1)に、それまでの出力値y(=c0)を加算し、新たな
出力値y=c1x0+c0を得る。
【0092】以下、同様の処理を繰り返し、(17)式
により表される演算を実行し、出力値yを求める。
により表される演算を実行し、出力値yを求める。
【0093】以上の図5の処理をブロック図に表すと、
図6に示すようになる。この例においては、乗算回路5
1乃至54に、入力x0が入力されている。乗算器51
には、他の入力端子からも入力x0が入力されており、
乗算器51は、この2つの入力x0を乗算し、出力x0 2
を出力する。
図6に示すようになる。この例においては、乗算回路5
1乃至54に、入力x0が入力されている。乗算器51
には、他の入力端子からも入力x0が入力されており、
乗算器51は、この2つの入力x0を乗算し、出力x0 2
を出力する。
【0094】乗算器51の出力x0 2は、乗算器52に入
力され、乗算器52は、入力x0と入力x0 2を乗算し、
出力x0 3を出力する。
力され、乗算器52は、入力x0と入力x0 2を乗算し、
出力x0 3を出力する。
【0095】乗算器52の出力x0 3は、乗算器53に入
力され、乗算器53は、入力x0と入力x0 3を乗算し、
出力x0 4を出力する。
力され、乗算器53は、入力x0と入力x0 3を乗算し、
出力x0 4を出力する。
【0096】乗算器53の出力x0 4は、乗算器54に入
力され、乗算器54は、入力x0と入力x0 4を乗算し、
出力x0 5を出力する。
力され、乗算器54は、入力x0と入力x0 4を乗算し、
出力x0 5を出力する。
【0097】同様にして、乗算器56乃至59が、入力
x1から出力x1 2乃至x1 5を生成し、出力している。
x1から出力x1 2乃至x1 5を生成し、出力している。
【0098】また、乗算器60乃至63は、入力x0と
入力x1とを乗算し、出力x0x1,x0 2x1,x0 3x1,
x0 4x1を生成し、出力している。
入力x1とを乗算し、出力x0x1,x0 2x1,x0 3x1,
x0 4x1を生成し、出力している。
【0099】また、乗算器64乃至69は、入力x1,
x0を演算し、出力x0x1 2,x0x1 3,x0x1 4,x0 2x
1 2,x0 2x1 3,x0 3x1 2を出力している。
x0を演算し、出力x0x1 2,x0x1 3,x0x1 4,x0 2x
1 2,x0 2x1 3,x0 3x1 2を出力している。
【0100】さらに、乗算器70乃至90は、入力1,
x0,x0 2,x0 3,x0 4,x0 5,x1,x1 2,x1 3,
x1 4,x1 5,x0x1,x0 2x1,x0 3x1,x0 4x1,x0
x1 2,x0x1 3,x0x1 4,x0 2x1 2,x0 2x1 3,x0 3x
1 2に対して、それぞれ係数c0乃至c20を乗算し、出力
している。
x0,x0 2,x0 3,x0 4,x0 5,x1,x1 2,x1 3,
x1 4,x1 5,x0x1,x0 2x1,x0 3x1,x0 4x1,x0
x1 2,x0x1 3,x0x1 4,x0 2x1 2,x0 2x1 3,x0 3x
1 2に対して、それぞれ係数c0乃至c20を乗算し、出力
している。
【0101】加算器91は、これら乗算器70乃至90
の出力を加算し、出力yとして出力している。
の出力を加算し、出力yとして出力している。
【0102】以上のようにして、出力値yが求められる
と、この出力値yは、図3の判別部33に供給される。
判別部33は、図7のフローチャートに示すような処理
を実行する。
と、この出力値yは、図3の判別部33に供給される。
判別部33は、図7のフローチャートに示すような処理
を実行する。
【0103】即ち、最初にステップS21において、入
力された値yを所定の閾値0.4および0.6と比較す
る。そしてステップS22とステップS23において、
値yが0.4より小さいか、あるいは0.6より大きい
か否かをそれぞれ判定する。
力された値yを所定の閾値0.4および0.6と比較す
る。そしてステップS22とステップS23において、
値yが0.4より小さいか、あるいは0.6より大きい
か否かをそれぞれ判定する。
【0104】ステップS22において、演算値yが0.
4より小さいと判定された場合、ステップS25に進
み、入力されたデータ(x0,x1)はカテゴリ0に属す
るものと判定する。
4より小さいと判定された場合、ステップS25に進
み、入力されたデータ(x0,x1)はカテゴリ0に属す
るものと判定する。
【0105】一方、ステップS23において、演算値y
が0.6より大きいと判定された場合、ステップS26
に進み、入力されたデータ(x0,x1)はカテゴリ1に
属するものと判定する。
が0.6より大きいと判定された場合、ステップS26
に進み、入力されたデータ(x0,x1)はカテゴリ1に
属するものと判定する。
【0106】ステップS22とステップS23におい
て、演算値yが0.4以上、0.6以下であると判定さ
れた場合、ステップS27に進み、入力(x0,x1)
は、カテゴリ0とカテゴリ1のいずれにも属さないもの
(不定)として判定する。
て、演算値yが0.4以上、0.6以下であると判定さ
れた場合、ステップS27に進み、入力(x0,x1)
は、カテゴリ0とカテゴリ1のいずれにも属さないもの
(不定)として判定する。
【0107】表1と図2に示した46個のサンプルを、
GGM計算部31において演算し、得られた出力値yを
図に表すと、図8に示すようになる。図8において、横
軸は、46個のサンプルの番号に対応し、縦軸は、各サ
ンプルの出力値yを表している。
GGM計算部31において演算し、得られた出力値yを
図に表すと、図8に示すようになる。図8において、横
軸は、46個のサンプルの番号に対応し、縦軸は、各サ
ンプルの出力値yを表している。
【0108】図8から明かなように、カテゴリC0の2
0個のサンプルは、教師ベクトル0に近づき、カテゴリ
C1の20個のサンプルは、教師ベクトル1に近づいて
いる。そして、コンフュージョンが存在する3個のサン
プルは、0と1の中間的な値に変換されていることが判
る。
0個のサンプルは、教師ベクトル0に近づき、カテゴリ
C1の20個のサンプルは、教師ベクトル1に近づいて
いる。そして、コンフュージョンが存在する3個のサン
プルは、0と1の中間的な値に変換されていることが判
る。
【0109】ここで、従来の写像決定方式であるニュー
ラルネットと比較するために、学習により決定すべきパ
ラメータ(結合重み係数ωi)の個数が、上記実施例と
同様に21個である中間層が5個の3層ニューラルネッ
トを用いて、同一の学習サンプルと教師ベクトルで処理
した結果を、図9と図10に示す。図9は、ニューラル
ネットによる変換の成功例を表し、図10は、失敗例を
表している。
ラルネットと比較するために、学習により決定すべきパ
ラメータ(結合重み係数ωi)の個数が、上記実施例と
同様に21個である中間層が5個の3層ニューラルネッ
トを用いて、同一の学習サンプルと教師ベクトルで処理
した結果を、図9と図10に示す。図9は、ニューラル
ネットによる変換の成功例を表し、図10は、失敗例を
表している。
【0110】ニューラルネットの場合、初期値を乱数で
変え、10回学習を実行した結果、うち8回が図9のよ
うな結果を得、うち2回が図10のような結果が得られ
た。この後者の2回は、明らかに、ローカルミニマムに
陥った場合と考えられる。
変え、10回学習を実行した結果、うち8回が図9のよ
うな結果を得、うち2回が図10のような結果が得られ
た。この後者の2回は、明らかに、ローカルミニマムに
陥った場合と考えられる。
【0111】図9のニューラルネットの成功例と、図8
の本実施例(GGM)の結果とを比較すると、一見、ニ
ューラルネットの場合(図9)の方が、教師ベクトルと
の誤差が小さくなっているように思われる。しかしなが
ら、これは、ニューラルネットの場合は、出力層にシグ
モイド関数が入っているので、両端が0と1に張り付く
傾向があることに起因する。
の本実施例(GGM)の結果とを比較すると、一見、ニ
ューラルネットの場合(図9)の方が、教師ベクトルと
の誤差が小さくなっているように思われる。しかしなが
ら、これは、ニューラルネットの場合は、出力層にシグ
モイド関数が入っているので、両端が0と1に張り付く
傾向があることに起因する。
【0112】つまり、写像の優劣を正確に評価するため
には、ニューラルネットの出力にシグモイド関数の逆関
数を施して、本発明の写像(GGM)の出力と比較する
か、または逆に、図11に示すように、本発明による写
像(GGM)の出力に、シグモイド関数計算部41によ
りシグモイド関数を施して、ニューラルネットの出力と
比較する必要がある。
には、ニューラルネットの出力にシグモイド関数の逆関
数を施して、本発明の写像(GGM)の出力と比較する
か、または逆に、図11に示すように、本発明による写
像(GGM)の出力に、シグモイド関数計算部41によ
りシグモイド関数を施して、ニューラルネットの出力と
比較する必要がある。
【0113】以後、図11に示すように、GGMの出力
にシグモイド関数を施した写像を、GGMS(Guarante
ed Global minimum Mapping with Sigmoid)と呼ぶこと
にする。
にシグモイド関数を施した写像を、GGMS(Guarante
ed Global minimum Mapping with Sigmoid)と呼ぶこと
にする。
【0114】図12は、図8の結果に、シグモイド関数
を施した結果を示す。この図12の結果は、GGMが、
誤差の点でも、ニューラルネット(図9)に比較し、何
ら見劣りのしない結果を導くことを示している。
を施した結果を示す。この図12の結果は、GGMが、
誤差の点でも、ニューラルネット(図9)に比較し、何
ら見劣りのしない結果を導くことを示している。
【0115】シグモイド関数は、s(x)=1/(1+
exp(−x))なる形の1変数の単調関数であり、l
og(x/(1−x))(0<x<1)なる逆関数が存
在するため、GGMの結果とGGMSの結果には、本質
的な差異はない。従って、出力がニューラルネットのよ
うに、0または1に張り付いた結果が好ましい場合に
は、GGMSを用い、その他の場合には、GGMを用い
ればよい。
exp(−x))なる形の1変数の単調関数であり、l
og(x/(1−x))(0<x<1)なる逆関数が存
在するため、GGMの結果とGGMSの結果には、本質
的な差異はない。従って、出力がニューラルネットのよ
うに、0または1に張り付いた結果が好ましい場合に
は、GGMSを用い、その他の場合には、GGMを用い
ればよい。
【0116】本実施例では関数g1(X)として単項式
を採用したが、本発明の基本的な構成は、与えられた学
習サンプルの分布状態の特質等を考慮した、より最適な
関数を選べる自由度があるため、より誤差の少ない写像
を決定できることになる。
を採用したが、本発明の基本的な構成は、与えられた学
習サンプルの分布状態の特質等を考慮した、より最適な
関数を選べる自由度があるため、より誤差の少ない写像
を決定できることになる。
【0117】このように決定された係数により構成され
た判別装置であることから、従来のニューラルネットに
よる判別装置に比較し、性能の優れた判別装置が実現で
きる。
た判別装置であることから、従来のニューラルネットに
よる判別装置に比較し、性能の優れた判別装置が実現で
きる。
【0118】以上のGGMとニューラルネットの特性を
比較すると、表2に示すようになる。
比較すると、表2に示すようになる。
【0119】
【表2】
【0120】この表に示すように、ニューラルネットに
おいては、中間層のニューロン素子の数を増加すること
で、任意の連続写像を記述することができるが、GGM
においては、関数gi(X)を適宜選択することで、任
意の連続写像を記述することができる。
おいては、中間層のニューロン素子の数を増加すること
で、任意の連続写像を記述することができるが、GGM
においては、関数gi(X)を適宜選択することで、任
意の連続写像を記述することができる。
【0121】また、フリーパラメータは、ニューラルネ
ットにおいては、結合重み係数ωiであるのに対し、G
GMにおいては、係数ciである。しかしながら、GG
Mの場合は、さらにgi(X)の関数形の選択の自由度
がある。従って、GGMにおいては、写像の表現能力に
関係する自由度が、大きく2種類存在することになる。
ットにおいては、結合重み係数ωiであるのに対し、G
GMにおいては、係数ciである。しかしながら、GG
Mの場合は、さらにgi(X)の関数形の選択の自由度
がある。従って、GGMにおいては、写像の表現能力に
関係する自由度が、大きく2種類存在することになる。
【0122】また、ニューラルネットにおいては、評価
関数の誤差を最小にすることは、初期値の問題があるた
め補償されないが、GGMにおいては、初期値の問題が
存在せず、確実に評価関数の誤差を最小にすることが可
能となる。
関数の誤差を最小にすることは、初期値の問題があるた
め補償されないが、GGMにおいては、初期値の問題が
存在せず、確実に評価関数の誤差を最小にすることが可
能となる。
【0123】さらに、ニューラルネットにおける学習法
はバックプロパゲーションであるが、GGMにおける学
習は、線形方程式を解くことにより行われる。
はバックプロパゲーションであるが、GGMにおける学
習は、線形方程式を解くことにより行われる。
【0124】さらに、写像の構造が、ニューラルネット
においては、シグモイド関数が内部に組み込まれた複雑
な構造となるのに対して、GGMにおいては、関数と係
数の積の和という単純な構造となる。
においては、シグモイド関数が内部に組み込まれた複雑
な構造となるのに対して、GGMにおいては、関数と係
数の積の和という単純な構造となる。
【0125】その他、写像の特性付けは、ニューラルネ
ットとGGM、いずれの場合においても、教師ベクトル
により行われ、評価関数は、いずれの場合も、出力と教
師ベクトルとの自乗誤差を最小にする関数が用いられ
る。
ットとGGM、いずれの場合においても、教師ベクトル
により行われ、評価関数は、いずれの場合も、出力と教
師ベクトルとの自乗誤差を最小にする関数が用いられ
る。
【0126】尚、本実施例においては、GGMを判別装
置に適用した例を、2次元の学習内データに対する判別
を行う場合で示したが、より多次元データの判別装置
や、入力パラメータからコントロール信号を出力する形
態の制御装置等で用いられる写像形態の計算部において
も、全く同様の構成の写像装置を実現することができ
る。
置に適用した例を、2次元の学習内データに対する判別
を行う場合で示したが、より多次元データの判別装置
や、入力パラメータからコントロール信号を出力する形
態の制御装置等で用いられる写像形態の計算部において
も、全く同様の構成の写像装置を実現することができ
る。
【0127】上記実施例では、写像F、つまり係数clm
を求めるために、上記(7)式で表される評価関数J
を、係数clmによって偏微分して得られる(13)式ま
たは(16)式の連立方程式(正規方程式)を解くよう
にした。このようにして決定された解は、その連立方程
式のヤコビ行列が特異(ランク落ち)でない限り、まさ
にJの最小値を与える。この意味で、上記実施例は、最
も素朴かつ優れた方法であると言える。
を求めるために、上記(7)式で表される評価関数J
を、係数clmによって偏微分して得られる(13)式ま
たは(16)式の連立方程式(正規方程式)を解くよう
にした。このようにして決定された解は、その連立方程
式のヤコビ行列が特異(ランク落ち)でない限り、まさ
にJの最小値を与える。この意味で、上記実施例は、最
も素朴かつ優れた方法であると言える。
【0128】しかしながら、このような係数の決定方法
では、(9)式と(10)式における演算を行うため
に、各データを全て一旦メモリに記憶する必要があり、
写像の各成分関数の基底関数glmを増やすと、(9)式
と(10)式で示すαqmij,βqmiの数が増大する。こ
れにより、次の問題が発生する。 (1)αqmij,βqmiの決定に長い時間を費やさなけれ
ばならない。 (2)演算のために十分な記憶領域を必要とする。 (3)必要に応じて、追加学習(写像を修正)すること
が困難である(もう一度、E{X∈Sq}{gim(X)
gjm(X)},E{X∈Sq}{gim(X)}を求め
て、正規方程式を解くことが必要である)。
では、(9)式と(10)式における演算を行うため
に、各データを全て一旦メモリに記憶する必要があり、
写像の各成分関数の基底関数glmを増やすと、(9)式
と(10)式で示すαqmij,βqmiの数が増大する。こ
れにより、次の問題が発生する。 (1)αqmij,βqmiの決定に長い時間を費やさなけれ
ばならない。 (2)演算のために十分な記憶領域を必要とする。 (3)必要に応じて、追加学習(写像を修正)すること
が困難である(もう一度、E{X∈Sq}{gim(X)
gjm(X)},E{X∈Sq}{gim(X)}を求め
て、正規方程式を解くことが必要である)。
【0129】そこで、データを入力する毎に逐次的に写
像を決定していく方法を考える。このために、写像の決
定を、写像の開折の力学系の軌道決定として定式化す
る。
像を決定していく方法を考える。このために、写像の決
定を、写像の開折の力学系の軌道決定として定式化す
る。
【0130】上述したように、評価関数Jは(7)式で
表され、この(7)式は、次のように書き換えることが
できる。
表され、この(7)式は、次のように書き換えることが
できる。
【0131】
【数21】
【0132】ここで、写像Fの次のような1パラメータ
開折Uを考える。 U:RN×R→RM U(x,t)=(f0(x,t),・・・,fM-1(x,t)) (19) 即ち、RMは、RNの要素xと、Rの要素tの組み合わせ
(直積)で表される。
開折Uを考える。 U:RN×R→RM U(x,t)=(f0(x,t),・・・,fM-1(x,t)) (19) 即ち、RMは、RNの要素xと、Rの要素tの組み合わせ
(直積)で表される。
【0133】尚、(19)式において、fm(x,t)
は、次式で表される。
は、次式で表される。
【0134】
【数22】
【0135】この開折Uに対して、次式よりJ(tの関
数)を求める。
数)を求める。
【0136】
【数23】
【0137】そして、次の力学系を考える。但し、簡単
のため、以後、(1/2)Jを、Jとする。
のため、以後、(1/2)Jを、Jとする。
【0138】
【数24】
【0139】この力学系に従い、U(即ち、係数c
(t))が動くとき、Jは非増加である。つまり、次式
が成立する。
(t))が動くとき、Jは非増加である。つまり、次式
が成立する。
【0140】
【数25】
【0141】この(23)式の等号成立の必要充分条件
は、次の通りである。
は、次の通りである。
【0142】
【数26】
【0143】実際、計算してみると、次式が成立する。
【0144】
【数27】
【0145】従って、等号成立の必要充分条件は、上式
より明らかに次の通りとなる。
より明らかに次の通りとなる。
【0146】
【数28】
【0147】これより、十分大なるtに対して、UはJ
の最小値になる。つまり、Jを最小にする写像(その係
数)を、次のようにして決定することができる。
の最小値になる。つまり、Jを最小にする写像(その係
数)を、次のようにして決定することができる。
【0148】
【数29】
【0149】このように、写像を決定するために、この
力学系(微分方程式)の軌道(解曲線)を決定すればよ
い。
力学系(微分方程式)の軌道(解曲線)を決定すればよ
い。
【0150】上記の力学系(微分方程式)の軌道(解曲
線)を、直接解析的に求めるのではなく、データ毎に逐
次的に導いていく。
線)を、直接解析的に求めるのではなく、データ毎に逐
次的に導いていく。
【0151】
【数30】
【0152】そこで、上記力学系の式におけるdckn/
dtを、(ckn(t+h)−ckn(t))で近似するこ
とにより、次式が得られる。
dtを、(ckn(t+h)−ckn(t))で近似するこ
とにより、次式が得られる。
【0153】
【数31】
【0154】また、次式が成立している。
【0155】
【数32】
【0156】そこで、次式を定義する。 Dnq(x,t)≡fn(x,t)−tnq (31)
【0157】これにより、次の逐次的学習規則が導かれ
る。
る。
【0158】
【数33】
【0159】この式は、次のように変形することができ
る。
る。
【0160】
【数34】
【0161】いま、 Sq∋x(q):i回目データ とするとき、次式が成立する。 ckn(t+(i/N)h)=ckn(t+((i−1)/N)h) −(h/Cq)Dnq(x(q),t)gnk(x(q)) (34) (i=0,1,2,・・・) (1≦m≦M−1,1≦l≦Lm−1)
【0162】従って、次のように写像(係数)を更新す
ることができる。 ckn(t+1)=ckn(t)−εDnq(x,t)gnk(x) (35) (t=0,1,・・・) (εは小なる定数)
ることができる。 ckn(t+1)=ckn(t)−εDnq(x,t)gnk(x) (35) (t=0,1,・・・) (εは小なる定数)
【0163】即ち、(t+1)回目の学習データx(こ
れが、x∈Sqであったとする)とするとき、各k,n
に対して、写像の係数cknを、(35)式に従って更新
していく。この方式を使うことにより、所望の写像を決
定することができる。また、この方式は、一度得られた
写像(データを一旦全て記憶した後、まとめて処理する
方法により得られた写像であれ、データを逐次的に処理
する方法により得られた写像であれ)に対し、必要に応
じてその写像の係数を、この方法より更新することで、
写像を容易に修正することができる。
れが、x∈Sqであったとする)とするとき、各k,n
に対して、写像の係数cknを、(35)式に従って更新
していく。この方式を使うことにより、所望の写像を決
定することができる。また、この方式は、一度得られた
写像(データを一旦全て記憶した後、まとめて処理する
方法により得られた写像であれ、データを逐次的に処理
する方法により得られた写像であれ)に対し、必要に応
じてその写像の係数を、この方法より更新することで、
写像を容易に修正することができる。
【0164】以上の原理に従って、逐次的にデータを処
理して写像Fを決定する(係数clmを決定する)より詳
細な方法について、図13のフローチャートを参照して
説明する。
理して写像Fを決定する(係数clmを決定する)より詳
細な方法について、図13のフローチャートを参照して
説明する。
【0165】いま、F(i)を、i回目に更新された設
定写像とし、F(i)(x)を、次式で定義する。 F(i)(x)=(f0(i)(x),・・・,fM-1(i)(x)) (36)
定写像とし、F(i)(x)を、次式で定義する。 F(i)(x)=(f0(i)(x),・・・,fM-1(i)(x)) (36)
【0166】さらに、1≦m≦M−1に対して、f
m(x)を次式で表す。
m(x)を次式で表す。
【0167】
【数35】
【0168】また、学習データ(特徴ベクトル)全体
を、次式で表す。 D={dj|j=1,・・・,N}⊂RN (38)
を、次式で表す。 D={dj|j=1,・・・,N}⊂RN (38)
【0169】さらに、各カテゴリq(q=1,・・・,
Q−1)に対応する教師ベクトルTを、 T=(tq0,・・・,tqM-1) と表す。学習繰り返し制限回数をSとする。
Q−1)に対応する教師ベクトルTを、 T=(tq0,・・・,tqM-1) と表す。学習繰り返し制限回数をSとする。
【0170】最初にステップS41で、係数の初期化処
理を実行する。即ち、変数を、それぞれ、i=0,j=
0,s=0とするとともに、係数clm(0)(1≦m≦
M−1,0≦l≦Lm−1)を小さい値の乱数で初期化
する。
理を実行する。即ち、変数を、それぞれ、i=0,j=
0,s=0とするとともに、係数clm(0)(1≦m≦
M−1,0≦l≦Lm−1)を小さい値の乱数で初期化
する。
【0171】次にステップS42で、学習データのセッ
トを行う。即ち、dj∈Sq(いまの場合、d0)を学習
データとする。
トを行う。即ち、dj∈Sq(いまの場合、d0)を学習
データとする。
【0172】さらにステップS43に進み、写像値の計
算を行う。即ち、 F(i)(dj)=(f0(i)(dj),・・・,fM-1(i)(dj)) (39) の値を計算する。
算を行う。即ち、 F(i)(dj)=(f0(i)(dj),・・・,fM-1(i)(dj)) (39) の値を計算する。
【0173】次にステップS44で、誤差の計算を行
う。即ち、各mに対して、次式を計算する。 Dmq(i)(dj)=fm(i)(dj)−tmq (40)
う。即ち、各mに対して、次式を計算する。 Dmq(i)(dj)=fm(i)(dj)−tmq (40)
【0174】ステップS45では、係数の更新を行う。
即ち、次式を計算する。 clm(i+1)=clm(i)−εDqm(dj)glm(dj) (41)
即ち、次式を計算する。 clm(i+1)=clm(i)−εDqm(dj)glm(dj) (41)
【0175】次にステップS46で、学習データの更新
を行う。即ち、次データdj+1をdjとする。
を行う。即ち、次データdj+1をdjとする。
【0176】さらにステップS47に進み、学習データ
数jと、学習データ総数Nとを比較し、j<Nならステ
ップS42に戻り、それ以降の処理を繰り返す。
数jと、学習データ総数Nとを比較し、j<Nならステ
ップS42に戻り、それ以降の処理を繰り返す。
【0177】j=Nの場合、ステップS47からステッ
プS48に進み、学習繰り返し数の更新を行う(インク
リメントする)。即ち、s=s+1とする。
プS48に進み、学習繰り返し数の更新を行う(インク
リメントする)。即ち、s=s+1とする。
【0178】次にステップS49において、学習繰り返
し数sと、制限回数Sとを比較し、s<Sなら、ステッ
プS50において、j=0とした後、ステップS42に
戻り、それ以降の処理を繰り返す。s=Sの場合、処理
を終了する。
し数sと、制限回数Sとを比較し、s<Sなら、ステッ
プS50において、j=0とした後、ステップS42に
戻り、それ以降の処理を繰り返す。s=Sの場合、処理
を終了する。
【0179】写像を修正する場合においては、ステップ
S41において、係数clmを小さい値の乱数で初期化す
る代わりに、先に決定された写像の所定の係数(値)を
clm(0)(1≦m≦M−1,0≦l≦Lm−1)に代
入すればよい。
S41において、係数clmを小さい値の乱数で初期化す
る代わりに、先に決定された写像の所定の係数(値)を
clm(0)(1≦m≦M−1,0≦l≦Lm−1)に代
入すればよい。
【0180】ところで、この写像決定方法を利用する
際、設定写像の決定が重要である。上記した最初の実施
例では、全学習データ(特徴ベクトル)を用いて相関係
数を計算することにより、成分関数の基底をなす単項式
を求めた。そして、この単項式により生成される(線形
結合として表される)多項式を各成分が持つように写像
を設定した。
際、設定写像の決定が重要である。上記した最初の実施
例では、全学習データ(特徴ベクトル)を用いて相関係
数を計算することにより、成分関数の基底をなす単項式
を求めた。そして、この単項式により生成される(線形
結合として表される)多項式を各成分が持つように写像
を設定した。
【0181】これに対して、最初の実施例および後の実
施例のいずれにおいても、全学習データ(特徴ベクト
ル)を用いるのではなく、カテゴリに分けた学習データ
を使い、それらの相関係数より決定された単項式により
生成される多項式を、そのカテゴリに対応する成分関数
として設定し、これにより、設定写像自体に識別性を込
めるようにすることができる。
施例のいずれにおいても、全学習データ(特徴ベクト
ル)を用いるのではなく、カテゴリに分けた学習データ
を使い、それらの相関係数より決定された単項式により
生成される多項式を、そのカテゴリに対応する成分関数
として設定し、これにより、設定写像自体に識別性を込
めるようにすることができる。
【0182】次に、図14のフローチャートを参照し
て、その処理例について説明する。最初にステップS6
1で、各カテゴリq(0≦q≦Q−1)のベクトルをx
q(=(xq0,・・・,xqN-1))に対して、次式で表
される相関係数ρq,k,l(0≧k≧l≧N−1)を計算
する。
て、その処理例について説明する。最初にステップS6
1で、各カテゴリq(0≦q≦Q−1)のベクトルをx
q(=(xq0,・・・,xqN-1))に対して、次式で表
される相関係数ρq,k,l(0≧k≧l≧N−1)を計算
する。
【0183】
【数36】
【0184】次にステップS62において、(0≦k≦
l≦N−1)なるk,lに対し、次の対応関係を考え
る。
l≦N−1)なるk,lに対し、次の対応関係を考え
る。
【0185】
【数37】
【0186】そして、さらに、これから次のような組み
合わせを作成する。
合わせを作成する。
【0187】
【数38】
【0188】また、ステップS63では、d=3からd
=Dqまで、以下の処理を繰り返す。即ち、(d+1)
個の組(cq1,cq2,・・・,cqd;v)から、次のよ
うな(d+2)個の組を作る(ここで、Dqは、パター
ン集合の規模、処理時間の現実性にあわせて予め決定す
る)。
=Dqまで、以下の処理を繰り返す。即ち、(d+1)
個の組(cq1,cq2,・・・,cqd;v)から、次のよ
うな(d+2)個の組を作る(ここで、Dqは、パター
ン集合の規模、処理時間の現実性にあわせて予め決定す
る)。
【0189】
【数39】
【0190】ステップS64では、ステップS62,S
63で作った組および、(1),(kq,l),(0≦
k≦N)を加えたリストを、右端値((・・・;v)に
おけるvの値)について大きい順に、かつ、組数の小さ
い順に並べ、パターン集合の規模、処理時間の現実性に
あわせてW個選択する。このWは、成分関数毎に変えて
も構わない。
63で作った組および、(1),(kq,l),(0≦
k≦N)を加えたリストを、右端値((・・・;v)に
おけるvの値)について大きい順に、かつ、組数の小さ
い順に並べ、パターン集合の規模、処理時間の現実性に
あわせてW個選択する。このWは、成分関数毎に変えて
も構わない。
【0191】ステップS65では、選択したW個の組に
対して、次のように単項式を決定する。 (cqi(1),cqi(2),・・・,cqi(l))→xi(1)x
i(2)・・・xi(l) ここで、 0≦l≦N−1,1≦i(1)≦i(2),・・・,≦
i(l) である。そして、これらにより生成される次のような多
項式を成分関数fqとして決定する(1≦q≦Q−1な
る全てのカテゴリに対して、上記のように対応する成分
関数を決定する)。
対して、次のように単項式を決定する。 (cqi(1),cqi(2),・・・,cqi(l))→xi(1)x
i(2)・・・xi(l) ここで、 0≦l≦N−1,1≦i(1)≦i(2),・・・,≦
i(l) である。そして、これらにより生成される次のような多
項式を成分関数fqとして決定する(1≦q≦Q−1な
る全てのカテゴリに対して、上記のように対応する成分
関数を決定する)。
【0192】
【数40】
【0193】次にステップS66で、これらの成分関数
より設定写像を決定し、さらにステップS67で、上述
した先のまたは後の写像決定法に従って、写像を決定す
る。
より設定写像を決定し、さらにステップS67で、上述
した先のまたは後の写像決定法に従って、写像を決定す
る。
【0194】このように、カテゴリに対応して成分関数
を設定することにより、各カテゴリのデータの特質を、
より効果的に関数に反映することができ、より正確な判
別結果を得ることができる。即ち、識別性をより向上さ
せることができる。
を設定することにより、各カテゴリのデータの特質を、
より効果的に関数に反映することができ、より正確な判
別結果を得ることができる。即ち、識別性をより向上さ
せることができる。
【0195】
【発明の効果】以上説明したように、本発明によれば次
の効果が得られる。 (1)誤差最小(グローバルミニマム)を保証できる。 (2)関数glm(X)の選択の自由度がある。 (3)代数的方法(方程式を解く方法)による場合にお
いては、初期値問題が無いため、繰り返し学習が不要と
なり、高速学習が可能となる。
の効果が得られる。 (1)誤差最小(グローバルミニマム)を保証できる。 (2)関数glm(X)の選択の自由度がある。 (3)代数的方法(方程式を解く方法)による場合にお
いては、初期値問題が無いため、繰り返し学習が不要と
なり、高速学習が可能となる。
【0196】従って、同程度のニューラルネットと比較
し、所望の写像をより正確に近似した写像を実現するこ
とができ、目的に対して、より効果的な写像装置を実現
することが可能になる。
し、所望の写像をより正確に近似した写像を実現するこ
とができ、目的に対して、より効果的な写像装置を実現
することが可能になる。
【0197】また、係数を逐次的に決定するようにした
場合においては、より短い時間で、かつ、処理のために
データを記憶するための容量を大きくすることなく、係
数を決定することができる。さらに、写像を容易に修正
することが可能となる。
場合においては、より短い時間で、かつ、処理のために
データを記憶するための容量を大きくすることなく、係
数を決定することができる。さらに、写像を容易に修正
することが可能となる。
【0198】また、カテゴリ毎に学習データを設定する
ようにした場合においては、写像自体に識別性を込める
ことが可能になる。
ようにした場合においては、写像自体に識別性を込める
ことが可能になる。
【図1】本発明の写像決定方法を用いたネットワークの
構成を示す図である。
構成を示す図である。
【図2】図3の実施例において処理する学習サンプルを
2次元に配置した状態を示す図である。
2次元に配置した状態を示す図である。
【図3】本発明の写像決定方法を応用した判別装置の構
成例を示すブロック図である。
成例を示すブロック図である。
【図4】図3のGGM計算部31の動作を説明するフロ
ーチャートである。
ーチャートである。
【図5】図3のGGM計算部31の他の動作を説明する
フローチャートである。
フローチャートである。
【図6】図5の処理の構成例を示すブロック図である。
【図7】図3の判別部33の動作を説明するフローチャ
ートである。
ートである。
【図8】図3のGGM計算部31の演算結果を示す図で
ある。
ある。
【図9】ニューラルネットにおける処理の成功例を示す
図である。
図である。
【図10】ニューラルネットにおける処理の失敗例を示
す図である。
す図である。
【図11】本発明の写像決定方法を応用した他の判別装
置の構成例を示す図である。
置の構成例を示す図である。
【図12】図11の処理結果を示す図である。
【図13】データを逐次的に処理する場合の処理例を示
すフローチャートである。
すフローチャートである。
【図14】学習データをカテゴリ毎に設定する場合の処
理例を示すフローチャートである。
理例を示すフローチャートである。
【図15】従来のニューラルネットの構成例を示す図で
ある。
ある。
1乃至8 ニューロン素子 11乃至18 素子 31 GGM計算部 32 係数格納部 33 判別部
フロントページの続き (72)発明者 石井 和夫 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 加藤 靖彦 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 表 雅則 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 南野 活樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内
Claims (14)
- 【請求項1】 N次元計量ベクトル空間ΩNからM次元
計量ベクトル空間ΩMへの写像Fを求める写像決定方法
において、 前記写像Fの第m成分の関数fm(X)を、Lm個の関数
glm(X)と係数clmとの積の線形和 【数1】 により表すことを特徴とする写像決定方法。 - 【請求項2】 Q個のカテゴリCq(q=0,1,2,
・・・,Q−1)に分類されているN次元計量ベクトル
空間ΩN上の学習サンプルSq(=(Sq0,Sq1,・・
・,Sq(N-1)))と、前記カテゴリCqに対するM次元
計量ベクトル空間ΩM上のQ個の教師ベクトルTq(=
(tq0,tq1,tq2,・・・,tq(M-1)))とを与え
て、所定の評価関数Jを演算し、 前記評価関数Jを最小にする前記係数clmを求めること
を特徴とする請求項1に記載の写像決定方法。 - 【請求項3】 前記評価関数Jは、E{X∈Sq}{f
(X)}を、学習サンプルSqの全要素にわたって前記
関数f(X)の期待値を求める演算とするとき、 【数2】 で表されることを特徴とする請求項2に記載の写像決定
方法。 - 【請求項4】 前記関数glm(X)は、N変数関数空間
上の完備な関数系に属し、 前記Lmの値を、教師ベクトルTqとの誤差が充分小さく
なる値に設定することを特徴とする請求項2または3に
記載の写像決定方法。 - 【請求項5】 前記関数glm(X)は、N変数の単項式
であることを特徴とする請求項4に記載の写像決定方
法。 - 【請求項6】 前記係数clmは、各mに対して、 αqmij=E{X∈Sq}{gim(X)gjm(X)} βqmi =E{X∈Sq}{gim(X)} とするとき、 【数3】 の線形方程式を解くことにより求めることを特徴とする
請求項3乃至5のいずれかに記載の写像決定方法。 - 【請求項7】 前記係数clmは、前記評価関数Jに対し
て最急降下法を適用して求めることを特徴とする請求項
2または3に記載の写像決定方法。 - 【請求項8】 前記関数fm(X)を求めた後、さらに
シグモイド関数による演算を行うことを特徴とする請求
項1乃至7のいずれかに記載の写像決定方法。 - 【請求項9】 前記係数clmは、逐次的に決定すること
を特徴とする請求項1または2に記載の写像決定方法。 - 【請求項10】 t+1回目の学習データをx、t+1
回目の写像の係数をckn(t+1)、t回目の写像の係
数をckn(t)、修正関数をDnq、所定の定数をεとす
るとき、t+1回目の係数ckn(t+1)は、次式 ckn(t+1)=ckn(t)−εDnq(x,t)g
nk(x) より演算することを特徴とする請求項9に記載の写像決
定方法。 - 【請求項11】 前記係数clmを逐次的に決定する前
に、前記係数clmに所定の値を初期設定することを特徴
とする請求項9または10に記載の写像決定方法。 - 【請求項12】 前記学習データは、前記カテゴリCq
毎に設定されることを特徴とする請求項1乃至11のい
ずれかに記載の写像決定方法。 - 【請求項13】 請求項1乃至12のいずれかに記載の
方法を適用したことを特徴とする写像装置。 - 【請求項14】 請求項2に記載の方法を適用した写像
装置であって、 前記評価関数Jを最小にする係数clmを記憶する記憶手
段と、 請求項1に記載の式に基づいて前記関数fm(X)を演
算する演算手段とを備えることを特徴とする写像装置。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP6221321A JPH07234855A (ja) | 1993-12-28 | 1994-09-16 | 写像決定方法および装置 |
| US08/365,493 US5704013A (en) | 1994-09-16 | 1994-12-28 | Map determination method and apparatus |
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP5-334171 | 1993-12-28 | ||
| JP33417193 | 1993-12-28 | ||
| JP6221321A JPH07234855A (ja) | 1993-12-28 | 1994-09-16 | 写像決定方法および装置 |
| US08/365,493 US5704013A (en) | 1994-09-16 | 1994-12-28 | Map determination method and apparatus |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH07234855A true JPH07234855A (ja) | 1995-09-05 |
Family
ID=27330533
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP6221321A Pending JPH07234855A (ja) | 1993-12-28 | 1994-09-16 | 写像決定方法および装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH07234855A (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08123462A (ja) * | 1994-10-27 | 1996-05-17 | Sony Corp | 音声認識装置 |
| JPH08123473A (ja) * | 1994-10-28 | 1996-05-17 | Sony Corp | 音韻ラベル化装置 |
| JP2019074890A (ja) * | 2017-10-13 | 2019-05-16 | 日本電信電話株式会社 | 関数学習装置、関数計算装置、関数学習方法、関数計算方法、及びプログラム |
| JP7566206B1 (ja) * | 2023-11-16 | 2024-10-11 | 三菱電機株式会社 | 遠隔制御装置 |
-
1994
- 1994-09-16 JP JP6221321A patent/JPH07234855A/ja active Pending
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08123462A (ja) * | 1994-10-27 | 1996-05-17 | Sony Corp | 音声認識装置 |
| JPH08123473A (ja) * | 1994-10-28 | 1996-05-17 | Sony Corp | 音韻ラベル化装置 |
| JP2019074890A (ja) * | 2017-10-13 | 2019-05-16 | 日本電信電話株式会社 | 関数学習装置、関数計算装置、関数学習方法、関数計算方法、及びプログラム |
| JP7566206B1 (ja) * | 2023-11-16 | 2024-10-11 | 三菱電機株式会社 | 遠隔制御装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Rullière et al. | Nested Kriging predictions for datasets with a large number of observations | |
| Zhang et al. | Neuron-adaptive higher order neural-network models for automated financial data modeling | |
| Castillo et al. | Some applications of functional networks in statistics and engineering | |
| US20210312261A1 (en) | Neural network search method and related apparatus | |
| WO2018227800A1 (zh) | 一种神经网络训练方法及装置 | |
| JP2000511307A (ja) | 同時学習およびパフォーマンス情報処理システム | |
| CN110413878B (zh) | 基于自适应弹性网络的用户-商品偏好的预测装置和方法 | |
| Heitz et al. | Ground metric learning on graphs | |
| CN113095254A (zh) | 一种人体部位关键点的定位方法及系统 | |
| De Freitas et al. | Sequential Monte Carlo methods for optimisation of neural network models | |
| CN114819295B (zh) | 数据分析预测方法、装置、服务器、存储介质和程序产品 | |
| US7392231B2 (en) | Determining utility functions from ordenal rankings | |
| CN108304790A (zh) | 骨骼运动预测处理方法、装置和肢体运动预测处理方法 | |
| Sarajedini et al. | Conditional probability density function estimation with sigmoidal neural networks | |
| JPH07234855A (ja) | 写像決定方法および装置 | |
| EP0661645A2 (en) | Neural network | |
| US20210248476A1 (en) | Machine-Learned Models Featuring Matrix Exponentiation Layers | |
| JP2020030702A (ja) | 学習装置、学習方法及び学習プログラム | |
| Dash | DECPNN: A hybrid stock predictor model using Differential Evolution and Chebyshev Polynomial neural network | |
| CN113010687A (zh) | 一种习题标签预测方法、装置、存储介质以及计算机设备 | |
| Jokinen | A nonlinear network model for continuous learning | |
| JPH07225747A (ja) | 写像決定方法 | |
| US20230267363A1 (en) | Machine learning with periodic data | |
| CN117556292A (zh) | 基于动态超图连续学习的连续任务数据分类方法及装置 | |
| Xie et al. | Group sparse recovery via group square-root elastic net and the iterative multivariate thresholding-based algorithm |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040225 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040621 |