JPH02296298A - パターン認識方法および標準パターン学習方法 - Google Patents
パターン認識方法および標準パターン学習方法Info
- Publication number
- JPH02296298A JPH02296298A JP1117706A JP11770689A JPH02296298A JP H02296298 A JPH02296298 A JP H02296298A JP 1117706 A JP1117706 A JP 1117706A JP 11770689 A JP11770689 A JP 11770689A JP H02296298 A JPH02296298 A JP H02296298A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- vector
- learning
- state model
- standard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 claims abstract description 106
- 238000000034 method Methods 0.000 claims description 38
- 238000012567 pattern recognition method Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 13
- 238000012937 correction Methods 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 5
- 238000003062 neural network model Methods 0.000 claims 1
- 238000003491 array Methods 0.000 abstract 6
- 230000002123 temporal effect Effects 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000002945 steepest descent method Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 230000001186 cumulative effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005309 stochastic process Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 101100492787 Caenorhabditis elegans mai-1 gene Proteins 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/12—Speech classification or search using dynamic programming techniques, e.g. dynamic time warping [DTW]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は音声信号などのように特徴ベクトルの時系列と
して表されるパターンを認識するパターン認識方式に関
する。
して表されるパターンを認識するパターン認識方式に関
する。
(従来の技術)
音声などのベクトル時系列を認識する方式として、隠れ
マルコフモデル(以下、rHMMJと略記する)がよく
知られている。HMMではベクトル時系列がマルコフ確
率過程によって生成されたとしてモデル化している。H
MMの標準パターンは複数の状態とその状態間の遷移で
表されており、各状態はあらかじめ決められた確率分布
に従ってパターンベクトルを出力し、状態間の遷移には
あらかじめ決められた遷移確率が付随している。入力パ
ターンと標準パターンの間の距離は、標準パターンであ
るマルコフ確率モデルが入力パターンベクトル列を生成
する尤度によって与えられる。HMMの詳細に関しては
[確率モデルによる音声認識j(電子情報通信学会編、
中耕を一著、1988年)に解説されている。
マルコフモデル(以下、rHMMJと略記する)がよく
知られている。HMMではベクトル時系列がマルコフ確
率過程によって生成されたとしてモデル化している。H
MMの標準パターンは複数の状態とその状態間の遷移で
表されており、各状態はあらかじめ決められた確率分布
に従ってパターンベクトルを出力し、状態間の遷移には
あらかじめ決められた遷移確率が付随している。入力パ
ターンと標準パターンの間の距離は、標準パターンであ
るマルコフ確率モデルが入力パターンベクトル列を生成
する尤度によって与えられる。HMMの詳細に関しては
[確率モデルによる音声認識j(電子情報通信学会編、
中耕を一著、1988年)に解説されている。
(発明が解決しようとする問題点)
HMMはパターンベクトル系列がマルコフ確率過程に従
って生成されたことを仮定綻してモデル化を行なってい
るために、パターンベクトル系列のベクトル間の時間的
相関は隣接フレーム間の相関だけしか考慮されていない
。したがって、音声パターンなどにおける時間的に離れ
た相関、たとえば、発声の前半部の発声速度と後半部の
発声速度の間の相関などを直接モデル化することは困難
である。
って生成されたことを仮定綻してモデル化を行なってい
るために、パターンベクトル系列のベクトル間の時間的
相関は隣接フレーム間の相関だけしか考慮されていない
。したがって、音声パターンなどにおける時間的に離れ
た相関、たとえば、発声の前半部の発声速度と後半部の
発声速度の間の相関などを直接モデル化することは困難
である。
またHMMは[パターンベクトル系列の時間的な構造」
と「各ベクトルのベクトル空間内の分布Jを独立にモデ
ル化しているために、音声パターンなどにおける発声の
時間的構造と各時点のスペクトルパターンベクトルの間
の相互依存性(相関)を考慮にいれたモデル化を行なう
ことが難しい。
と「各ベクトルのベクトル空間内の分布Jを独立にモデ
ル化しているために、音声パターンなどにおける発声の
時間的構造と各時点のスペクトルパターンベクトルの間
の相互依存性(相関)を考慮にいれたモデル化を行なう
ことが難しい。
本発明の目的は認識対象とするパターンベクトル系列の
時間構造における任意の長さの時間的相関と、時間構造
と各ベクトルのベクトル空間内の分布の間の相関を取り
入れることができるような表現能力の高い標準パターン
のモデルを用いたパターン認識方式と、学習用のパター
ンベクトル系列から自動学習によって標準パターンモデ
ルを構築することができるような学習方式を提供するこ
とにある。
時間構造における任意の長さの時間的相関と、時間構造
と各ベクトルのベクトル空間内の分布の間の相関を取り
入れることができるような表現能力の高い標準パターン
のモデルを用いたパターン認識方式と、学習用のパター
ンベクトル系列から自動学習によって標準パターンモデ
ルを構築することができるような学習方式を提供するこ
とにある。
(問題点を解決するための手段)
本発明は音声などのように特徴ベクトルの時系列として
表されたパターンを認識するパターン認識方式で、各認
識対象カテゴリ毎に順序づけられた状態モデルから構成
される標準パターンを有し、各状態モデルは固定長のパ
ターンベクトル列と過去の予測の際に出力された状態ベ
クトルを入力として予測パターンベクトルと新しい状態
ベクトルを出力する、機能を有し、認識時には入力パタ
ーンを部分列に分割して前記状態モデルを各部分列に割
り当てて、各部分列の始点から順次固定長のパターンベ
クトル列を切り出して割り当てられた状態モデルに入力
して予測パターンベクトル部分列を算出し、各状態モデ
ルによる予測パターンベクトル部分列を連結して得られ
る予測パターンベクトル系列と入力パターンベクトル系
列の間の予測誤差を最小にするような入力パターンの部
分列への分割を選び出し、その時の予測誤差を入力パタ
ーンと該標準パターンとの距離とすることを特徴とする
。
表されたパターンを認識するパターン認識方式で、各認
識対象カテゴリ毎に順序づけられた状態モデルから構成
される標準パターンを有し、各状態モデルは固定長のパ
ターンベクトル列と過去の予測の際に出力された状態ベ
クトルを入力として予測パターンベクトルと新しい状態
ベクトルを出力する、機能を有し、認識時には入力パタ
ーンを部分列に分割して前記状態モデルを各部分列に割
り当てて、各部分列の始点から順次固定長のパターンベ
クトル列を切り出して割り当てられた状態モデルに入力
して予測パターンベクトル部分列を算出し、各状態モデ
ルによる予測パターンベクトル部分列を連結して得られ
る予測パターンベクトル系列と入力パターンベクトル系
列の間の予測誤差を最小にするような入力パターンの部
分列への分割を選び出し、その時の予測誤差を入力パタ
ーンと該標準パターンとの距離とすることを特徴とする
。
標準パターンを学習により構成する標準パターン学習方
式は、状態モデルのパラメータの初期値を設定し、カテ
ゴリ既知の学習パターンと同カテゴリの標準パターンの
間の予測誤差を認識時と同様の手順で算出し、この予測
誤差を必ず減少さぜる方向に各状態モデルのパラメータ
を微小量修正する機能を有し、予測誤差の算出とパラメ
ータの修正を繰り返し行なうことにより標準パターンを
作成することを特徴とする。
式は、状態モデルのパラメータの初期値を設定し、カテ
ゴリ既知の学習パターンと同カテゴリの標準パターンの
間の予測誤差を認識時と同様の手順で算出し、この予測
誤差を必ず減少さぜる方向に各状態モデルのパラメータ
を微小量修正する機能を有し、予測誤差の算出とパラメ
ータの修正を繰り返し行なうことにより標準パターンを
作成することを特徴とする。
(作用)
本発明のパターン認識方式および標準パターン学習方式
では、各認識対象カテゴリの標準パターンは順序づけら
れた複数の状態モデルから構成されている。基本単位と
なる状態モデルは固定長のパターンベクトル列と過去の
予測のときに出力された二犬態ベクトルを入力として、
予測パターンベクトルと新しい状態ベクトルを出力する
。この状態モデルは一種の予測器として動作し、時刻t
までの入力パターンベクトル系列から次の時刻t+1に
出現すべきパターンベクトルを予測して出力する。
では、各認識対象カテゴリの標準パターンは順序づけら
れた複数の状態モデルから構成されている。基本単位と
なる状態モデルは固定長のパターンベクトル列と過去の
予測のときに出力された二犬態ベクトルを入力として、
予測パターンベクトルと新しい状態ベクトルを出力する
。この状態モデルは一種の予測器として動作し、時刻t
までの入力パターンベクトル系列から次の時刻t+1に
出現すべきパターンベクトルを予測して出力する。
さらにより良い予測を行なうために複数の予測器を予測
誤差が最小になるように動的計画法などを用いて適応的
に切り替えて、最適な予測を行なう。認識には入力パタ
ーンベクトル列と入力パターンベクトル列から予測され
た予測パターンベクトル列の間の予測誤差(2乗距離な
ど)を距離として用いる。標準パターンの学習は予測誤
差を評価関数とした最急降下法を用いて行なう。
誤差が最小になるように動的計画法などを用いて適応的
に切り替えて、最適な予測を行なう。認識には入力パタ
ーンベクトル列と入力パターンベクトル列から予測され
た予測パターンベクトル列の間の予測誤差(2乗距離な
ど)を距離として用いる。標準パターンの学習は予測誤
差を評価関数とした最急降下法を用いて行なう。
以下に本発明のパターン認識方式および標準パターン学
習方式の詳細を説明する。説明では音声パターンを認識
する場合を中心に議論することにする。その他の時系列
パターンに対しても音声パターンの部分をパターンベク
トル列に読み変えれば同様に適用できる。
習方式の詳細を説明する。説明では音声パターンを認識
する場合を中心に議論することにする。その他の時系列
パターンに対しても音声パターンの部分をパターンベク
トル列に読み変えれば同様に適用できる。
基本単位となる状態モデル(予測器)は時刻tまでの入
力音声・の特徴ベクトル系列(a1a2・・・at)か
ら次の時刻t+1に出現するべき特徴ベクトルAt+1
を予測する。過去の特徴ベクトルの履歴を予測器に与え
る方法としては入力音声から切り出した過去の固定長の
特徴ベクトル列を入力するFIRフィルタ的な方法と、
これにさらにフィードバックを導入して等測的に無限の
過去の特徴ベクトルを入力するIIRフィルタ的な方法
とがある。rIRフィルタ的な状態モデルはIIRフィ
ルタ的な状態モデルにおいて、フィードバックのパラメ
ータをOにした特別な場合と考えられるので以下ではI
IRフィルタ的な状態モデル(予測器)に関して説明す
る。
力音声・の特徴ベクトル系列(a1a2・・・at)か
ら次の時刻t+1に出現するべき特徴ベクトルAt+1
を予測する。過去の特徴ベクトルの履歴を予測器に与え
る方法としては入力音声から切り出した過去の固定長の
特徴ベクトル列を入力するFIRフィルタ的な方法と、
これにさらにフィードバックを導入して等測的に無限の
過去の特徴ベクトルを入力するIIRフィルタ的な方法
とがある。rIRフィルタ的な状態モデルはIIRフィ
ルタ的な状態モデルにおいて、フィードバックのパラメ
ータをOにした特別な場合と考えられるので以下ではI
IRフィルタ的な状態モデル(予測器)に関して説明す
る。
単語5(s=1.・・・、S)の標準パターンモデルの
第n番目の状態モデル(n” l、1.−.1’J、)
の特性は次式で与えられる。
第n番目の状態モデル(n” l、1.−.1’J、)
の特性は次式で与えられる。
ここで、At+1(s+n)は時刻t+1の予測ベクト
ルht+ t(s、n)は時刻t+1の予測At+1(
s、n)の際に出力された状態ベクトル、f(・)、g
(・)はそれぞれパラメータX、Yによって特徴づけら
れる非線形のベクトル値関数である。ここでx、Yはそ
れぞれ複数のパラメータを代表して表している。予測に
用いる固定長のベクトル列として表記を簡単にするため
に上式では1フレ一ム分のベクトル却だけを与えている
が、ここに3フレームのベクトル(at−2at−□a
t)を与えることも可能で、本方式は複数フレームにし
ても全く同様に適用することができる。
ルht+ t(s、n)は時刻t+1の予測At+1(
s、n)の際に出力された状態ベクトル、f(・)、g
(・)はそれぞれパラメータX、Yによって特徴づけら
れる非線形のベクトル値関数である。ここでx、Yはそ
れぞれ複数のパラメータを代表して表している。予測に
用いる固定長のベクトル列として表記を簡単にするため
に上式では1フレ一ム分のベクトル却だけを与えている
が、ここに3フレームのベクトル(at−2at−□a
t)を与えることも可能で、本方式は複数フレームにし
ても全く同様に適用することができる。
また1、状態モデルとして再帰型ニューラルネットワー
ク(rPDPモデル」産業図書、1989年、357頁
に解説がある)を用いる場合は状態モデルの特性は次式
で与えられる。
ク(rPDPモデル」産業図書、1989年、357頁
に解説がある)を用いる場合は状態モデルの特性は次式
で与えられる。
ここでf(・)は引き数のベクトルの各成分にシグモイ
ド関数を適用して得られるベクトル、 U(s、n)、V(s、n)、W(s、n)はニューラ
ルネットワークのユニット間結合係数行列で、式(1)
のパラメータX、Yに対応しており、式(2)は式(1
)の特別な場合であることは容易にわかる。この場合状
態ベクトルht+1(S、n)はニューラルネットワー
クの隠れ層の出力値の組に対応する。第1図に再帰型ニ
ューラルネットワークを用いた状態モデルを示す。
ド関数を適用して得られるベクトル、 U(s、n)、V(s、n)、W(s、n)はニューラ
ルネットワークのユニット間結合係数行列で、式(1)
のパラメータX、Yに対応しており、式(2)は式(1
)の特別な場合であることは容易にわかる。この場合状
態ベクトルht+1(S、n)はニューラルネットワー
クの隠れ層の出力値の組に対応する。第1図に再帰型ニ
ューラルネットワークを用いた状態モデルを示す。
式(1)または(2)においては、入力に1フレーム前
の予測の際に出力された状態ベクトルht(s、n)を
与えることによってフィードバックを実現しており、状
態ベクトルht(S+n)を介して、予測には時刻を以
前の無限の過去のベクトル系列が反映されている。
の予測の際に出力された状態ベクトルht(s、n)を
与えることによってフィードバックを実現しており、状
態ベクトルht(S+n)を介して、予測には時刻を以
前の無限の過去のベクトル系列が反映されている。
以下では表記を簡単にするために式(2)で表される状
態モデル(再帰型ニューラルネットワーク)を用いた場
合に関して説明するが、より一般的な式(1)の場合も
以下の説明は全く同様に成り立つ。
態モデル(再帰型ニューラルネットワーク)を用いた場
合に関して説明するが、より一般的な式(1)の場合も
以下の説明は全く同様に成り立つ。
式(1)で定義される状態モデルの集合で表される標準
パターン(単語モデル)を用いて未知入力音声を認識す
るアルゴリズムを述べる。未知入力音声を分析して得ら
れる長さTの特徴ベクトル系列をal、a2)・・・町
とする。このとき入力音声と単語Sのモデルの間の距離
D(s)を次式で定義する。
パターン(単語モデル)を用いて未知入力音声を認識す
るアルゴリズムを述べる。未知入力音声を分析して得ら
れる長さTの特徴ベクトル系列をal、a2)・・・町
とする。このとき入力音声と単語Sのモデルの間の距離
D(s)を次式で定義する。
D(s)=minΣ IIAt(s、n(t))=at
l12(3)n(t) t= 1 ここで記号11・11はベクトルのノルム、n(t)は
長さTの入力音声をNs個の状態で分担して予測する際
の分割を定めるものでn(t)は時刻tの予測に使われ
る状態の番号n(n=1・・・N8)を表している。こ
のn(t)は次の条件を満たず単調非減少関数である。
l12(3)n(t) t= 1 ここで記号11・11はベクトルのノルム、n(t)は
長さTの入力音声をNs個の状態で分担して予測する際
の分割を定めるものでn(t)は時刻tの予測に使われ
る状態の番号n(n=1・・・N8)を表している。こ
のn(t)は次の条件を満たず単調非減少関数である。
n(1)= 1゜
n(T)= Ns、 (
4)n(T)=n(t−1) or n(t−1)+1
. (1<t≦T)。
4)n(T)=n(t−1) or n(t−1)+1
. (1<t≦T)。
式(3)、(4)を満足するようなn(t)は第2図の
平面上での動的計画法(DPマツチング、文献「確率モ
デルによる音声認識」前出に詳しい)で容易に求めるこ
とができる。
平面上での動的計画法(DPマツチング、文献「確率モ
デルによる音声認識」前出に詳しい)で容易に求めるこ
とができる。
しかしここでDPパス1に対応する状態間の遷移が生じ
たときの境界点(第2図の■で表された格子点)での処
理には注意を要する。即ち各状態は独立した予測器であ
るが、予測のために1フレーム前の時点での状態ベクト
ルを必要とするので、状態間の遷移が生じた場合はその
境界点でどちらの状態の状態ベクトルを用いるのかあら
かじめ定めておかなければならない。以下の説明では、
接続される可能性のあるすべての状態の状態ベクトルの
次元数を等しくしておき、境界点では1フレーム前の予
測の際に出力された状態ベクトルをそのまま用いること
にする。
たときの境界点(第2図の■で表された格子点)での処
理には注意を要する。即ち各状態は独立した予測器であ
るが、予測のために1フレーム前の時点での状態ベクト
ルを必要とするので、状態間の遷移が生じた場合はその
境界点でどちらの状態の状態ベクトルを用いるのかあら
かじめ定めておかなければならない。以下の説明では、
接続される可能性のあるすべての状態の状態ベクトルの
次元数を等しくしておき、境界点では1フレーム前の予
測の際に出力された状態ベクトルをそのまま用いること
にする。
次に境界点処理も含めた基本的な認識アルゴリズムを示
しておく。
しておく。
・初期条件(t=1)
Hl(s、1)=f(U(s、1)al) 、、、、、
、、、、、、、、、、、、 (Al)A1(s、1)=
f(W(s、1)Hl(s、1)) 、、、、、、、
、、、、、 (A2)g(s、1.1)= II A
1(s、1) −aI If 、、、、、、、、、、、
、、 (A3)、漸化式(1<t≦T、p=(0,1)
)h((s、n、p)=f(U(s、n)atllV(
s、n)Htl(s、n−p)) 、、、、、、、、、
、 (Bl)At(S、n、P)”f(W(S、n)h
t(s、n、p)) 、、、、、、、、、、 (B2)
d(s+t+n、p)= If AH(s、n、p)−
atll 、、、、、、、、、、 (B3)g(s+t
+ntp)=[d(s、t、n、p) 十g(s、t、
n p)] 、、1.(B4)g(s、t、n)=m
inp=(o、x)[g(S、t、n+P)] 、、、
−−−6(B5)P=argminp[g(s、t、n
、p)] 、、、、、、、、、、、、、、、 (B6)
Ht(s、n)==ht(s、n+p) H+、+ H
H++ +、+ +、+ +、+ 、−(B7)・認識
結果O D(s)=g(s、T、N、) 、、、、、、、、、、
、’、、、、、、、、、、 (C1)o=argmin
8[D(s)] 、、、、、、、、、、、、、、、6.
.. (C2)時刻t=iでは過去の情報はないのでこ
こでは入力a1から同じ時刻の予測ベクトルA工(s、
1)を予測している。これは入力a1のコピーをaQと
しているのと同じことである。g(s+L’)は始端格
子点(t、n)=(1,1)での累積距離である。
、、、、、、、、、、、、 (Al)A1(s、1)=
f(W(s、1)Hl(s、1)) 、、、、、、、
、、、、、 (A2)g(s、1.1)= II A
1(s、1) −aI If 、、、、、、、、、、、
、、 (A3)、漸化式(1<t≦T、p=(0,1)
)h((s、n、p)=f(U(s、n)atllV(
s、n)Htl(s、n−p)) 、、、、、、、、、
、 (Bl)At(S、n、P)”f(W(S、n)h
t(s、n、p)) 、、、、、、、、、、 (B2)
d(s+t+n、p)= If AH(s、n、p)−
atll 、、、、、、、、、、 (B3)g(s+t
+ntp)=[d(s、t、n、p) 十g(s、t、
n p)] 、、1.(B4)g(s、t、n)=m
inp=(o、x)[g(S、t、n+P)] 、、、
−−−6(B5)P=argminp[g(s、t、n
、p)] 、、、、、、、、、、、、、、、 (B6)
Ht(s、n)==ht(s、n+p) H+、+ H
H++ +、+ +、+ +、+ 、−(B7)・認識
結果O D(s)=g(s、T、N、) 、、、、、、、、、、
、’、、、、、、、、、、 (C1)o=argmin
8[D(s)] 、、、、、、、、、、、、、、、6.
.. (C2)時刻t=iでは過去の情報はないのでこ
こでは入力a1から同じ時刻の予測ベクトルA工(s、
1)を予測している。これは入力a1のコピーをaQと
しているのと同じことである。g(s+L’)は始端格
子点(t、n)=(1,1)での累積距離である。
漸化式において変数pはDPパスを表し、p=Qがパス
0、p=1がパス1を表している。各格子点(t、n)
ではパスOとパス1のそれぞれに対応する隠れユニット
の出力ht(S+n>p)を算出し、対応する予測ベク
トルAt(s、n、p)とその入力特徴ベクトルaH&
の間の距離d(s、t、n、p)をそれぞれ計算してお
き、DP漸化式(B4)、(B5)によって最適なりP
パスPと累積距離g(s、t、n)を求める。また最適
経路上の予測に用いられた状態ベクトルht(s、n、
P)を格子点(t、n)における状態ベクトルH1(s
、n)として格納する。
0、p=1がパス1を表している。各格子点(t、n)
ではパスOとパス1のそれぞれに対応する隠れユニット
の出力ht(S+n>p)を算出し、対応する予測ベク
トルAt(s、n、p)とその入力特徴ベクトルaH&
の間の距離d(s、t、n、p)をそれぞれ計算してお
き、DP漸化式(B4)、(B5)によって最適なりP
パスPと累積距離g(s、t、n)を求める。また最適
経路上の予測に用いられた状態ベクトルht(s、n、
P)を格子点(t、n)における状態ベクトルH1(s
、n)として格納する。
認識はg(s、t、Ns)を単語Sと入力音声の間の距
離D(s)として、認識対象単語の中で最小の距離を与
える単語σを認識結果とする。
離D(s)として、認識対象単語の中で最小の距離を与
える単語σを認識結果とする。
また以上の説明から知れるように本方式では、隣接する
状態モデルの間に直接の依存性がないために、複数の標
準パターンを連結して新たな標準パターンとして連続音
声を認識することが可能である。さらにこの場合、累積
距離を入力音声のフレームに同期して計算でき、累積距
離がフレーム数の増加に関して加法的に増加するので、
有限状態オートマトン制御クロック同期伝播型DP法(
[クロック同期伝播DP法による連続音声認識の検討]
迫江、亘理、音声研究会資料881−65.1981年
12月)を用いて連続音声認識を非常に効率よく行なう
ことが可能になる。
状態モデルの間に直接の依存性がないために、複数の標
準パターンを連結して新たな標準パターンとして連続音
声を認識することが可能である。さらにこの場合、累積
距離を入力音声のフレームに同期して計算でき、累積距
離がフレーム数の増加に関して加法的に増加するので、
有限状態オートマトン制御クロック同期伝播型DP法(
[クロック同期伝播DP法による連続音声認識の検討]
迫江、亘理、音声研究会資料881−65.1981年
12月)を用いて連続音声認識を非常に効率よく行なう
ことが可能になる。
次に標準パターンのモデルを学習によって自動的に構築
する標準パターン学習方式について説明する。単語Sの
モデルをM3個の学習用音声(単語S。
する標準パターン学習方式について説明する。単語Sの
モデルをM3個の学習用音声(単語S。
Ms回全発声m=1・・M、)から学習するアルゴリズ
ムは次の通りである。モデルのパラメータにニューラル
ネットワークの場合はユニット間結合行列、閾値なと)
はあらかじめ乱数などで初期化しておく。学習は最急降
下法(岩披講座情報料学「最適化J 1982年)によ
るパラメータの繰り返し修正によって行なう。k回目の
繰り返しにおけるパラメータの修正前の平均の予測誤差
Dk(s)を次式で定義する。
ムは次の通りである。モデルのパラメータにニューラル
ネットワークの場合はユニット間結合行列、閾値なと)
はあらかじめ乱数などで初期化しておく。学習は最急降
下法(岩披講座情報料学「最適化J 1982年)によ
るパラメータの繰り返し修正によって行なう。k回目の
繰り返しにおけるパラメータの修正前の平均の予測誤差
Dk(s)を次式で定義する。
Dk(s) = (1/Ms) Σ Dk(s、m)
(5)m舞1 n(t) t=1 ここでA((s、n(t、)、m、k)は単語Sのm#
目の学習データ(al(m)・aTm(m))を入力と
して、単語Sのn(t)番目の、状態モデルが出力した
予測ベクトルである。平均予測誤差を減少させるために
は、式(7)の計算から得られる最適なりP経路上(学
習データパターン系列の最適な分割n(t)上)で最急
降下法を行なえば良い。
(5)m舞1 n(t) t=1 ここでA((s、n(t、)、m、k)は単語Sのm#
目の学習データ(al(m)・aTm(m))を入力と
して、単語Sのn(t)番目の、状態モデルが出力した
予測ベクトルである。平均予測誤差を減少させるために
は、式(7)の計算から得られる最適なりP経路上(学
習データパターン系列の最適な分割n(t)上)で最急
降下法を行なえば良い。
すなわち、各状態モデルの出力ベクトル4(s、n(t
)、m、k)に対して、教師信号ベクトルat(m)と
して、2つのベクトル間の誤差(2乗距離など)を減少
さぜるように最急降下法によってパラメータを微小量修
正する。パラメータXの修正量δXは次式で与えられる
。
)、m、k)に対して、教師信号ベクトルat(m)と
して、2つのベクトル間の誤差(2乗距離など)を減少
さぜるように最急降下法によってパラメータを微小量修
正する。パラメータXの修正量δXは次式で与えられる
。
δX=−eΣ (aDk(s、m)/aX)
(7)+n=1 ここで8は微小な正の定数である。状態モデルとして再
帰型ニューラルネットワークを用いた場合は、この最急
降下法はパックプロパゲーション学習(FPDPモデル
」前出)と完全に一致する。パラメータの微小量修正の
後に上記のDP経路n(t)上での平均予測誤差の値を
Dk、bp(s)とすると、最急降下法の性質上必ず平
均予測誤差は減少しているはずである。
(7)+n=1 ここで8は微小な正の定数である。状態モデルとして再
帰型ニューラルネットワークを用いた場合は、この最急
降下法はパックプロパゲーション学習(FPDPモデル
」前出)と完全に一致する。パラメータの微小量修正の
後に上記のDP経路n(t)上での平均予測誤差の値を
Dk、bp(s)とすると、最急降下法の性質上必ず平
均予測誤差は減少しているはずである。
Dk(s)≧Dklbp(S) (
8)この時点ではモデルのパラメータが修正されたため
に修正前と同じDP経路n(t)は最適な経路(最小の
予測誤差を与える経路)ではなくなっている。そこでに
+1回目の繰り返しにおけるパラメータ修正前の平均予
測誤差Dk+1(S)を計算すると修正されたパラメー
タに関する最適なりP経路が求められる。DPの最適性
から次式が成り立つ。
8)この時点ではモデルのパラメータが修正されたため
に修正前と同じDP経路n(t)は最適な経路(最小の
予測誤差を与える経路)ではなくなっている。そこでに
+1回目の繰り返しにおけるパラメータ修正前の平均予
測誤差Dk+1(S)を計算すると修正されたパラメー
タに関する最適なりP経路が求められる。DPの最適性
から次式が成り立つ。
Dk、bp(S)≧Dk+1(s) (
9)よって以上の式(8)−(9)から、繰り返し学習
によって平均予測誤差は必ず減少することがわかる。
9)よって以上の式(8)−(9)から、繰り返し学習
によって平均予測誤差は必ず減少することがわかる。
Dk+1(S)≦Dk(S)(10)
このように学習の最適性が保証されるのは、予測誤差と
状態モデルの出力の誤差が同じ2次形式で、DPマツチ
ングとバックプロパゲーション学習がそれぞれこの誤差
を減少させるように働くからである。
状態モデルの出力の誤差が同じ2次形式で、DPマツチ
ングとバックプロパゲーション学習がそれぞれこの誤差
を減少させるように働くからである。
また誤認識を減少させるために有効な学習法(反例学習
と呼ぶことにする)として、標準パターンの属するカテ
ゴリとは異なるカテゴリの学習パターンを用いて、式(
7)のパラメータ修正量δXの符号を反転させることを
除いて上記と同様の繰り返し学習を行なうことによって
、異なるカテゴリの入力音声に対しては予測誤差が大き
くなるような標準パターンを構成することが可能である
。
と呼ぶことにする)として、標準パターンの属するカテ
ゴリとは異なるカテゴリの学習パターンを用いて、式(
7)のパラメータ修正量δXの符号を反転させることを
除いて上記と同様の繰り返し学習を行なうことによって
、異なるカテゴリの入力音声に対しては予測誤差が大き
くなるような標準パターンを構成することが可能である
。
以上述べたように本発明によれば、状態ベクトルを介し
たフィードバックを導入したことにより、認識対象とす
るパターンベクトル系列の時間構造における任意の長さ
の時間的相関をモデル化することができるようになる。
たフィードバックを導入したことにより、認識対象とす
るパターンベクトル系列の時間構造における任意の長さ
の時間的相関をモデル化することができるようになる。
また状態モデルが状態ベクトルと固定長パターンベクト
ルを一つの非線形関数への入力として処理を行なうため
、パターンベクトル系列内の時間構造と各ベクトル空間
内の構造の間の相関もモデル内に表現することが可能と
なる。さらに上記の最急降下法に基づく標準パターン学
習方式により学習用のパターンベクトル系列から自動学
習によって標準パターンモデルを構築することができる
ようになる。
ルを一つの非線形関数への入力として処理を行なうため
、パターンベクトル系列内の時間構造と各ベクトル空間
内の構造の間の相関もモデル内に表現することが可能と
なる。さらに上記の最急降下法に基づく標準パターン学
習方式により学習用のパターンベクトル系列から自動学
習によって標準パターンモデルを構築することができる
ようになる。
(実施例)
第3図は本発明のパターン認識方式による認識のフロー
チャートを示すもので、長さTの入力パターンベクトル
系列および、標準パターンモデルのパラメータは外部か
ら与えられているとする。このフローチャートは作用の
中で説明した認識アルゴリズム(以下認識アルゴリズム
と呼ぶ)を具体化したものであり、変数などの表記はそ
こで与えたものに従うことにする。以下流れに沿って説
明する。
チャートを示すもので、長さTの入力パターンベクトル
系列および、標準パターンモデルのパラメータは外部か
ら与えられているとする。このフローチャートは作用の
中で説明した認識アルゴリズム(以下認識アルゴリズム
と呼ぶ)を具体化したものであり、変数などの表記はそ
こで与えたものに従うことにする。以下流れに沿って説
明する。
ステップ101から103でカウンターの初期設定を行
なう。ステップ104は入力パターンの始端点を検出し
、始点であればステップ109に、そうでなければステ
ップ105へ分岐する。ステップ109では認識アルゴ
リズムの中の初期条件の式(A1)から(A3)の計算
を行なう。ステップ105ではDPパスを示す変数pを
0にして(DPパス0に対応)、ステップ106で認識
アルゴリズムの中の漸化式の式(B1)から(B4)の
計算を行なう。ステップ107でpを1増やして、pが
1を超えるまでふたたびステップ106で漸化式計算を
行なう。ステップ110では2つのDPパスp=Qとp
=lに対応する累積距離の値を比較して、ステップ11
1〜112で小さい方のDPパスを最適パスPとする。
なう。ステップ104は入力パターンの始端点を検出し
、始点であればステップ109に、そうでなければステ
ップ105へ分岐する。ステップ109では認識アルゴ
リズムの中の初期条件の式(A1)から(A3)の計算
を行なう。ステップ105ではDPパスを示す変数pを
0にして(DPパス0に対応)、ステップ106で認識
アルゴリズムの中の漸化式の式(B1)から(B4)の
計算を行なう。ステップ107でpを1増やして、pが
1を超えるまでふたたびステップ106で漸化式計算を
行なう。ステップ110では2つのDPパスp=Qとp
=lに対応する累積距離の値を比較して、ステップ11
1〜112で小さい方のDPパスを最適パスPとする。
ステップ113では最適DPパス上の累積距離および状
態ベクトルを設定する(認識アルゴリズムの中の漸化式
の式(B5)、(B7)に対応)。ステップ114で状
態番号nをインクリメントし、単語Sの終状態Nsに達
していなければ■に戻って繰り返し計算を続ける。
態ベクトルを設定する(認識アルゴリズムの中の漸化式
の式(B5)、(B7)に対応)。ステップ114で状
態番号nをインクリメントし、単語Sの終状態Nsに達
していなければ■に戻って繰り返し計算を続ける。
ステップ116では単語番号Sをインクリメントし、単
語数の最大値Sに達していなければ■に戻って繰り返し
計算を続ける。ステップ118ではフレーム番号tをイ
ンクリメントし、入力パターンの終端点に達していなけ
れば■に戻って計算を絖ける。
語数の最大値Sに達していなければ■に戻って繰り返し
計算を続ける。ステップ118ではフレーム番号tをイ
ンクリメントし、入力パターンの終端点に達していなけ
れば■に戻って計算を絖ける。
入力パターンの終端点に達していれば、ステップ120
で認識アルゴリズムの中の認識結果の式(Bl)、(B
2)に従って認識結果を選出する。
で認識アルゴリズムの中の認識結果の式(Bl)、(B
2)に従って認識結果を選出する。
このフローチャートより明らかなようにステップ101
から119までの間の処理はすべて入力パターンの1フ
レーム内で行なうことができるので、入力パターンの時
間軸に沿ってフレームに同期して処理を進めることがで
きる。このことを利用すれば、音声認識などで発声が終
わらない内に処理を進めることができ、原理的には発声
が終わってから終端点の1フレ一ム分だけの処理時間で
認識を行なうことができ、実時間性に優れた認識システ
ムを構築することができる。
から119までの間の処理はすべて入力パターンの1フ
レーム内で行なうことができるので、入力パターンの時
間軸に沿ってフレームに同期して処理を進めることがで
きる。このことを利用すれば、音声認識などで発声が終
わらない内に処理を進めることができ、原理的には発声
が終わってから終端点の1フレ一ム分だけの処理時間で
認識を行なうことができ、実時間性に優れた認識システ
ムを構築することができる。
また連続音声認識を実現するためには標準パターンとし
て、複数のカテゴリの標準パターンを並べたパターンを
連結標準パターンとして用いて、上記の認識処理を行な
い、予測誤差が最小になる連結標準パターンを認識結果
とする。
て、複数のカテゴリの標準パターンを並べたパターンを
連結標準パターンとして用いて、上記の認識処理を行な
い、予測誤差が最小になる連結標準パターンを認識結果
とする。
第4図は本発明の標準パターン学習方式による学習のフ
ローチャートを示したものである。以下処理の流れに沿
って説明する。ステップ401はモデルのパラメータを
初期設定する。ステップ402から404はカウンター
を初期化している。kは繰り返し学習の回数を表すカウ
ンターで1からKまで、Sは単語番号で1からSまで、
mは学習データの番号で1からM8までの値をとる。ス
テップ405では学習回数に回目で単語Sのm番目のデ
ータに対する予測誤差Dk(s、m)を減少させるよう
に最急降下法でモデルパラメータδXの修正量を算出す
る。ステップ406は前記修正量に従ってパラメータを
修正する。ステップ407から412は繰り返し計算の
カウンターのインクリメントおよび繰り返しの終了判定
を行なう。
ローチャートを示したものである。以下処理の流れに沿
って説明する。ステップ401はモデルのパラメータを
初期設定する。ステップ402から404はカウンター
を初期化している。kは繰り返し学習の回数を表すカウ
ンターで1からKまで、Sは単語番号で1からSまで、
mは学習データの番号で1からM8までの値をとる。ス
テップ405では学習回数に回目で単語Sのm番目のデ
ータに対する予測誤差Dk(s、m)を減少させるよう
に最急降下法でモデルパラメータδXの修正量を算出す
る。ステップ406は前記修正量に従ってパラメータを
修正する。ステップ407から412は繰り返し計算の
カウンターのインクリメントおよび繰り返しの終了判定
を行なう。
皮剥学習を行なう場合には、第4図のステップ405で
計算される修正量の符号を反転すればよい。
計算される修正量の符号を反転すればよい。
(発明の効果)
以上述べたように本発明によれば、認識対象とするパタ
ーンベクトル系列の時間構造における任意の長さの時間
的相関と、時間構造と各ベクトル空間内の構造の間の相
関を考慮した表現能力の高い標準パターンのモデルを用
いたパターン認識方式と、学習用のパターンベクトル系
列から自動学習によって標準パターンモデルを構築する
ことができるような学習方式を提供することができる。
ーンベクトル系列の時間構造における任意の長さの時間
的相関と、時間構造と各ベクトル空間内の構造の間の相
関を考慮した表現能力の高い標準パターンのモデルを用
いたパターン認識方式と、学習用のパターンベクトル系
列から自動学習によって標準パターンモデルを構築する
ことができるような学習方式を提供することができる。
第1図は再帰型ニューラルネットワークによる状態モデ
ルの構成例を示す図、第2図は単語標準パターンと入力
パターンの間の予測誤差の算出に動的計画法(DPマツ
チング)を用いる際のマツチング平面を示した図、第3
図は本発明のパターン認識方式によって時系列パターン
を認識するためのフローチャートを示す図、第4図は本
発明の標準パターン学習方式によって学習データから標
準パターンを自動作成するためのフローチャートを示す
図である。
ルの構成例を示す図、第2図は単語標準パターンと入力
パターンの間の予測誤差の算出に動的計画法(DPマツ
チング)を用いる際のマツチング平面を示した図、第3
図は本発明のパターン認識方式によって時系列パターン
を認識するためのフローチャートを示す図、第4図は本
発明の標準パターン学習方式によって学習データから標
準パターンを自動作成するためのフローチャートを示す
図である。
Claims (7)
- (1)特徴ベクトルの時系列として表されたパターンを
認識するパターン認識方式で、各認識対象カテゴリ毎に
順序づけられた状態モデルから構成される標準パターン
を有し、各状態モデルは固定長のパターンベクトル列と
過去の予測の際に出力された状態ベクトルを入力として
予測パターンベクトルと新しい状態ベクトルを出力する
機能を有し、認識時には入力パターンを部分列に分割し
て前記状態モデルを各部分列に割り当てて、各部分列の
始点から順次固定長のパターンベクトル列を切り出して
割り当てられた状態モデルに入力して予測パターンベク
トル部分列を算出し、各状態モデルによる予測パターン
ベクトル部分列を連結して得られる予測パターンベクト
ル系列と入力パターンベクトル系列の間の予測誤差を最
小にするような入力パターンの部分列への分割を選び出
し、その時の予測誤差を入力パターンと該標準パターン
との距離とすることを特徴とするパターン認識方式。 - (2)請求項1記載のパターン認識方式において、動的
計画法を用いて予測誤差を最小にするような入力パター
ンの部分列への分割を選び出すことを特徴とするパター
ン認識方式。 - (3)請求項1記載のパターン認識方式において、状態
モデルとして複数のパラメータによって特徴づけられる
非線形関数を用いることを特徴とするパターン認識方式
。 - (4)請求項3記載のパターン認識方式において、非線
形関数として再帰型のニューラルネットワークモデルを
用いることを特徴とするパターン認識方式。 - (5)請求項3記載のパターン認識方式における状態モ
デルを学習により構成する標準パターン学習方式で、状
態モデルのパラメータの初期値を設定し、カテゴリ既知
の学習パターンと同カテゴリの標準パターンの予測誤差
を認識時と同様の手順で算出し、この予測誤差を必ず減
少させる方向に各状態モデルのパラメータを微小量修正
する機能を有し、予測誤差の算出とパラメータの修正を
繰り返し行なうことにより標準パターンを作成すること
を特徴とする標準パターン学習方式。 - (6)請求項3記載のパターン認識方式における状態モ
デルを学習により構成する標準パターン学習方式で、状
態モデルのパラメータの初期値を設定し、標準パターン
の学習の際に該標準パターンとは異なるカテゴリの学習
パターンとの間の予測誤差を認識時と同様の手順で算出
し、この予測誤差を必ず増加させる方向に各状態モデル
のパラメータを微小量修正する機能を有し、予測誤差の
算出とパラメータの修正を繰り返し行なうことを特徴と
する標準パターン学習方式。 - (7)特徴ベクトルの時系列として表された音声パター
ンを認識する連続音声認識方式で各認識対象カテゴリ毎
に順序づけられた状態モデルから構成される標準パター
ンを有し、各状態モデルは固定長のパターンベクトル列
と過去の予測の際に出力された状態ベクトルを入力とし
て予測パターンベクトルと新しい状態ベクトルを出力す
る機能を有し、認識時には複数の標準パターンを並べて
連結標準パターンとし、入力パターンを部分列に分割し
て前記連結標準パターンの状態モデルを各部分列に割り
当てて、各部分列の始点から順次固定長のパターンベク
トル列を切り出して割り当てられた状態モデルに入力し
て予測パターンベクトル部分列を算出し、各状態モデル
による予測パターンベクトル部分列を連結して得られる
予測パターンベクトル系列と入力パターンベクトル系列
の間の予測誤差を最小にするような入力パターンの部分
列への分割を選び出し、その時の予測誤差を入力パター
ンと該連結標準パターンとの距離とすることを特徴とす
るパターン認識方式。
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1117706A JP2545982B2 (ja) | 1989-05-10 | 1989-05-10 | パターン認識方法および標準パターン学習方法 |
| CA002016342A CA2016342C (en) | 1989-05-10 | 1990-05-09 | Pattern recognition method by using reference patterns each of which is defined by state models |
| DE69029425T DE69029425T2 (de) | 1989-05-10 | 1990-05-09 | Einrichtung zur Mustererkennung unter Anwendung von durch Zustandsmodelle bestimmten Bezugsmustern |
| CA002109916A CA2109916C (en) | 1989-05-10 | 1990-05-09 | Pattern recognition method by using reference patterns each of which is defined by state models |
| EP90108724A EP0397136B1 (en) | 1989-05-10 | 1990-05-09 | Pattern recognition method by using reference patterns each of which is defined by state models |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP1117706A JP2545982B2 (ja) | 1989-05-10 | 1989-05-10 | パターン認識方法および標準パターン学習方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH02296298A true JPH02296298A (ja) | 1990-12-06 |
| JP2545982B2 JP2545982B2 (ja) | 1996-10-23 |
Family
ID=14718296
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP1117706A Expired - Lifetime JP2545982B2 (ja) | 1989-05-10 | 1989-05-10 | パターン認識方法および標準パターン学習方法 |
Country Status (4)
| Country | Link |
|---|---|
| EP (1) | EP0397136B1 (ja) |
| JP (1) | JP2545982B2 (ja) |
| CA (1) | CA2016342C (ja) |
| DE (1) | DE69029425T2 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5696877A (en) * | 1990-05-10 | 1997-12-09 | Nec Corporation | Pattern recognition using a predictive neural network |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2979711B2 (ja) * | 1991-04-24 | 1999-11-15 | 日本電気株式会社 | パターン認識方式および標準パターン学習方式 |
| JPH0776880B2 (ja) * | 1993-01-13 | 1995-08-16 | 日本電気株式会社 | パターン認識方法および装置 |
| ES3048289T3 (en) * | 2018-11-15 | 2025-12-09 | Essilor Int | A method and system for determining parameters used to manufacture an optical article and a corresponding optical article |
| CN110532646B (zh) * | 2019-08-09 | 2023-05-02 | 北京工商大学 | 基于自适应动态规划的湖库蓝藻水华预测方法 |
-
1989
- 1989-05-10 JP JP1117706A patent/JP2545982B2/ja not_active Expired - Lifetime
-
1990
- 1990-05-09 CA CA002016342A patent/CA2016342C/en not_active Expired - Lifetime
- 1990-05-09 EP EP90108724A patent/EP0397136B1/en not_active Expired - Lifetime
- 1990-05-09 DE DE69029425T patent/DE69029425T2/de not_active Expired - Fee Related
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5696877A (en) * | 1990-05-10 | 1997-12-09 | Nec Corporation | Pattern recognition using a predictive neural network |
Also Published As
| Publication number | Publication date |
|---|---|
| EP0397136A3 (en) | 1992-09-23 |
| CA2016342C (en) | 1994-04-26 |
| EP0397136B1 (en) | 1996-12-18 |
| DE69029425D1 (de) | 1997-01-30 |
| CA2016342A1 (en) | 1990-11-10 |
| EP0397136A2 (en) | 1990-11-14 |
| DE69029425T2 (de) | 1997-04-03 |
| JP2545982B2 (ja) | 1996-10-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP0510632B1 (en) | Speech recognition by neural network adapted to reference pattern learning | |
| EP2221805B1 (en) | Method for automated training of a plurality of artificial neural networks | |
| US10467525B2 (en) | Recurrent neural network training method, computer program therefor and speech recognition device | |
| EP0303022B1 (en) | Rapidly training a speech recognizer to a subsequent speaker given training data of a reference speaker | |
| CA1256562A (en) | Speech recognition method | |
| US5050215A (en) | Speech recognition method | |
| JP3003276B2 (ja) | 信号解析装置 | |
| CN113660676B (zh) | 基站流量预测方法、系统、存储介质及设备 | |
| KR20180018031A (ko) | 주의집중 기반 문맥 종속 음향 모델을 이용한 음성 인식 장치 및 방법 | |
| US5737486A (en) | Pattern recognition method by using reference patterns each of which is defined by predictors | |
| EP0762383B1 (en) | Pattern adapting apparatus for speech or pattern recognition | |
| EP0725383B1 (en) | Pattern adaptation system using tree scheme | |
| JPWO1993020552A1 (ja) | ニューラルネットワークを用いた音声認識装置およびその学習方法 | |
| JPH02296298A (ja) | パターン認識方法および標準パターン学習方法 | |
| JPH06208392A (ja) | パターン認識方法および装置 | |
| Lawrence et al. | The Gamma MLP for speech phoneme recognition | |
| KR20230033071A (ko) | Gru 기반 구조물 시계열 응답 예측 방법 | |
| CN115062114B (zh) | 一种有模型的情绪感知对话策略学习方法 | |
| JP2982689B2 (ja) | 情報量基準を用いた標準パターン作成方式 | |
| Lawrence et al. | The gamma MLP-using multiple temporal resolutions for improved classification | |
| JP3532248B2 (ja) | 学習音声パタンモデル使用音声認識装置 | |
| JP3000642B2 (ja) | パターン認識方式および標準パターン学習方式 | |
| Smith et al. | Application of a sequential pattern learning system to connected speech recognition | |
| Bengio et al. | A comparative study on hybrid acoustic phonetic decoders based on artificial neural networks. | |
| Naranjo et al. | Speech intelligibility measure for vocal control of an automaton |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070808 Year of fee payment: 11 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080808 Year of fee payment: 12 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080808 Year of fee payment: 12 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090808 Year of fee payment: 13 |
|
| EXPY | Cancellation because of completion of term | ||
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090808 Year of fee payment: 13 |