JPH0424720B2 - - Google Patents

Info

Publication number
JPH0424720B2
JPH0424720B2 JP59157813A JP15781384A JPH0424720B2 JP H0424720 B2 JPH0424720 B2 JP H0424720B2 JP 59157813 A JP59157813 A JP 59157813A JP 15781384 A JP15781384 A JP 15781384A JP H0424720 B2 JPH0424720 B2 JP H0424720B2
Authority
JP
Japan
Prior art keywords
standard pattern
unit
section
pattern group
standard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP59157813A
Other languages
English (en)
Other versions
JPS6135497A (ja
Inventor
Satoshi Fujii
Katsuyuki Futayada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP15781384A priority Critical patent/JPS6135497A/ja
Publication of JPS6135497A publication Critical patent/JPS6135497A/ja
Priority to US07/441,225 priority patent/US5131043A/en
Publication of JPH0424720B2 publication Critical patent/JPH0424720B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】 産業上の利用分野 本発明は音声の内容を自動的に認識するための
音声認識装置に関するものである。
従来例の構成とその問題点 従来の音声認識装置のブロツク図の一例を第1
図に示す、まずあらかじめ多数話者の音声データ
をクラスリング手法等を用いてグループ分けし、
音素あるいは音節の単位で標準パタン群を作成
し、標準パタン格納部11に格納しておく。ここ
では説明のため標準パタン格納部11中の標準パ
タン群1は男性のみのデータで、標準パタン群2
は女性のみのデータとし各群毎に6種類の標準パ
タンが用意されているとする。
さてマイク1より入力された入力音声はAD変
換器2によりAD変換された後に一方は信号処理
回路3へ送られ、プリエンフアシス、窓計算を行
つて線形予測分析プロセツサ4へ送られる。AD
変換された他方の信号はセグメンテーシヨン部5
に送られ、ここで帯域パワー計算、音声区間の検
出、有声無声音判定、子音のセグメンテーシヨン
を行い、結果をメインメモリ7に転送する。線形
予測分析プロセツサ4で得たLPCパラメータを
用い、類似度計算部6は次の手順で類似度計算を
行う。まず標準パタン格納部11に格納された標
準パタン群1の中の標準パタンを類似度計算部6
に転送し、フレーム毎に類似度計算を行い、メイ
ンメモリ7に転送する。同様にして標準パタン群
2についても行う。メインプロセツサ8はメイン
メモリ7を参照しフレーム毎に最も類似度の高か
つた標準パタンに相当する音素又は音節を認識結
果として採用し、これとセグメンテーシヨン部5
の結果を用いて音素又は音節の系列を作成する。
そしてできた系列を単語辞書12と照合する事に
よつて単語認識を行い、結果を出力部9に送る。
この従来例の欠点は、標準パタン格納部11に
格納されている標準パタン群全部に対して類似度
計算を常に行なわねばならないために 類似度計算部6の計算量が大きなものとな
り、高速演算の要求される高価なものとなる。
標準パタン群を複数個用意し、全ての標準パ
タン群を対象としてその中で最も類似度の高い
音素を認識に用いる方法であるために、似かよ
つた音素の数が多くなり互いの混同が増加する
ことにより認識性能を低下させる。
用意されたいずれの標準パタンにも該当しな
い音声を持つ使用者に対して認識性能が大きく
低下してしまう。
という欠点があつた。
発明の目的 本発明は前記欠点を解消し、類似度計算部の計
算量を軽減して低価格化すると共に認識性能を大
幅に向上し、かつ標準パタンからはずれた音声の
性質を持つ人に対しても使用を可能とし、不特定
多数の使用者に対して高い信頼度で使用すること
のできる音声認識装置を提供することを目的とす
る。
発明の構成 本発明は上記目的を達成するもので、入力音声
よりフレーム周期ごとに得られたスペクトル又は
それに類似する情報(以下スペクトル情報と記
す)を算出する音響分析部と、入力音声の音声区
間の検出と音素毎のセグメンテーシヨンを行うセ
グメンテーシヨン部と、多数話者からなる標準音
声信号から、性質の類似した話者ごとに分類され
た複数の標準パタン群を予め格納する標準パタン
格納部と、前記標準パタン格納部の標準パタン群
と前記スペクトル情報とを用いて音素ごとの類似
度を求める類似度計算部と、前記類似度計算部と
セグメンテーシヨン部の結果から少なくとも母音
部を決定し、その中心フレームを示す位置情報を
選択するプロセツサ部と、前記プロセツサ部から
の位置情報に基づき、標準パタン格納部内の標準
パタン群の選択を少なくとも行う学習部と、前記
プロセツサ部で作成された音素又は音節系列と比
較する単語辞書を格納する単語辞書部とを備え、
前記学習部が、プロセツサ部で得られた位着情報
に基づき、統計的距離尺度による類似度和の最も
大きい標準パターン群又は最大類似度になる標準
パターンの数の最も多い標準パターン群を選択す
る選択部と、前記選択結果に基づく標準パターン
群を、プロセツサ部で得られた位置情報に基づき
修正する修正部とで構成されていることを特徴と
する音声認識装置を提供するものである。
実施例の説明 以下に本発明の実施例を図面を用いて説明す
る。第2図に本発明の一実施例における音声認識
装置のブロツク図を示す。
本実施例においては、あらかじめ多数話者の音
声を収集して男性,女性,子供……というように
グループ分けしておく。さらに、各グループ毎に
音声の中を音素単位に分けておく。
以下の実施例では男性(グループ1)と女性
(グループ2)の2つのグループのみで各グルー
プ内の音声を|a|,|i|,|u|,|e|,|o
|,鼻音の6個の分けた場合を例に説明する。
まず標準パタン格納部33に格納する内容を説
明する。まずグループ1の音声における音素iの
LPCケプストラム係数の平均値を 〓i(1)=(Mi1 (1),Mi2 (1),……,Mij(1),……, Mip(1)) とする。(1)はグループ1であることを示し、pは
分析次数である。又、6個の音素に共通の共分散
行列を〓(1)とし、その逆行列〓-1(1)(そのjj′要素を
δjj′とする)を求めて、この〓-1(1)と平均値〓i(1)
を標準パタン格納部33に標準パタン群1として
格納する。同様にグループ2の音声で平均値〓
i(2)と逆行列〓-1(2)を求め、標準パタン群2に入れ
る。
さらに、グループ1について逆行列〓-1(1)
(j,j′)要素をδjj′として、音素iのj次に対す
る重み係数を aij(1)=2pj=1δjj′Mij(1) (1) で求める。又、音素iの平均距離di(1)を、 di(1)=〓(1)t-1(1)〓i(1) (2) で求める(tは転置行列を表わす。)。
グループ2についてもaij(2),di(2)を求め、
aij(1),di(1),aij(2),di(2)をバツフア36にあらか
じめ格納しておく。
本実施例では重み係数aij、平均距離diをバツ
フア36に格納する場合について説明するが、こ
れらは標準パタン格納部33に格納しても良く、
その場合はバツフア36は不必要となる。
またスペクトル情報としては一例としてLPC
ケプストラム係数を用いた場合について述べる。
次に本実施例の特徴部である学習部32の第1
の機能である標準パタン群の自動選択について第
2図のブロツク図及び第3図のフローチヤートを
用いて説明する。
処理イに示すように任意の言葉、例えば「ハジ
メ」(hazime)という音声をマイク31に入力さ
れたとする。かかる音声はA/D変換器21で
A/D変換され(処理ロ)、一方は信号処理回路
22へ、他方はセグメンテーシヨン部26へ送ら
れる。信号処理回路22では処理ハに示すように
フレーム毎にプリエンフアシス、ハミング窓によ
る窓計算を行つた後、その結果を線形予測分析プ
ロセツサ23へ送る。線形予測分析プロセツサ2
3は線形予測分析を行なつてLPCケプストラム
係数C=(C1,C2,……,Cj,……,Cp)を求め
(処理ニ)、類似度計算部24へ送る。
一方、セグメンテーシヨン部26は帯域フイル
ム計算を行ない(処理ホ)、又線形予測分析プロ
セツサ23で求めたLPCケプストラム係数Cを
用いて有声無声判定、音声区間の検出(処理ヘ)、
子音hazimeの|h|,|z|,|m|のセグメン
テーシヨンおよび子音判別(処理ト)を行ないそ
の結果をメインメモリ27に送る(処理チ)。
また学習部32の選択部34はバツフア36の
中に予め準備されたaij(1),di(1)を類似度計算部2
4に送る(処理リ)。類似度計算部24では処理
ヌに示すように次式でグループ1の音素iに対す
る類似度li(1)を求める。
li(1)pj=1 aij(1)Cj−di(1) (3) 類似度はベイズ判定やマハラノビス距離等の統
計的距離尺度に基づくものが好適である。同様に
グループ2についてもli(2)を求め、これらをメイ
ンメモリ27に転送する(処理ル)。
メインプロセツサ28はセグメンテーシヨン結
果と、母音・鼻音に対する類似度を参照して処理
オの如く母音・鼻音部hazimeの|a|と|i|
と|m|と|e|を決定し、決定した母音・鼻音
部の中から、最も母音又は鼻音らしい中心フレー
ム(中央の位置又は類似度最大の位置)を各母
音・鼻音部に対して選び、その位置情報を学習部
32中の選択部34に与える。
選択部34は中心フレームにおける類似度li(1)
の総和L(1)を次式で求める(処理ワ)。
L(1)Nn=1 Ki=1 li(1) (4) ここでKは予め用意されている音素の種類の数
(この場合はK=6)、Nは中心フレームの数であ
る。
さらに標準パタン群2の場合についても同様に
L(2)を求め、L(1)とL(2)の大きさを比較してL(1)が大
きければその音声は標準パタン群1に属すると決
定する(処理カ)。この場合その音声がどの標準
パタン群に属するかの比較は、最大類似度になる
標準パタンの数で比較しても良い。例えば入力音
声中の母音又は鼻音の第1番目(hazimeの|a
|)の中心フレームにおける類似度l1 (1),l2 (1)
……lk(1)とl1 (2),l2 (2),……,lk(2)を求め、max
(l1 (1),l2 (1),……,lk(1),l1 (2),l2 (2),……,l
k(2)
がli(1)の場合、標準パタン群1に属すると考える。
これをN個(ここでは|a|,|i|,|m|,|
e|の4個)の中心フレームについて求め、使用
者の音声は属する回数の多い標準パタン群に最終
的に属すると決定する方法である。この機能を学
習部32に持たせることにより同様に標準パタン
群の自動選択を行なうことができる。
従つて以後入力された音声については選択され
た標準パタン群1に対応する、バツフア26内の
データのみを用いて類似度計算をすれば良く、従
来のようにバツフア26内の全標準パタン群に対
応するデータについて類似度計算を行なう必要が
ないので、計算量を大幅に減少させることができ
るとともに、音素同士の混同をなくし認識性能を
向上させることができる。
次に本発明の第2の実施例として、前記実施例
よりもさらに高い認識率を得たい場合、第1の機
能のみでは認識が著しく困難なとき、たとえば標
準パタンに入力者の音声が適していないような場
合には、第1の機能に加えてさらに以下に述べる
第2の機能を働かせる例について述べる。
すなわち本実施例は、学習部に第2の機能とし
て標準パタンの自動修正機能を付加するもので、
これは、音声認識装置が使用者に対して入力内容
を指示することによつて必要な情報を得、その使
用者の声の認識に最も適した形の標準パタンに修
正し、話者適合の能力を付加したものである。
以下第2図と第4図を用いて説明する。音声認
識装置が使用者に対しある定められた言葉、例え
ば「ナニヌネノ」(naninuneno)と発声するよう
に指示し、マイク31からその音声が入力された
とする(処理ヨ)。その音声は第1の機能の場合
と同様の手順で処理される。すなわちA/D変換
器21でA/D変換され(処理ロ)、信号処理回
路22でプリエンフアシス、窓計算を行なつた
(処理ハ)後、線形予測分析プロセツサ23で
LPCケプストラム係数を求め(処理ニ)、学習部
32の選択部34を介してバツフア36内の格納
されたaij,djを類似度計算部34へ転送し(処
理リ)、類似度計算部24で前記(3)式を用いて類
似度計算を行ない(処理ヌ)、その結果をメイン
メモリ27へ転送する(処理ル)。
一方A/D変換された音声は、帯域フイルタ計
算(処理ホ)、有声無声判定及び音声区間検出
(処理ヘ)、子音セグメンテーシヨン及び子音判別
(処理ト)を経て(ここではnaninunenoの子音|
n|)メインメモリ27に転送され(処理チ)、
処理オに示すように第1の機能の場合と同様の手
順で母音・鼻音部の決定を行ない、それぞれ
naninunenoの中の|a|,|i|,|u|,|e
|,|o|および|n|の中心部を自動検出し、
その位置情報を学習部32中の選択部34及び修
正部35に与える。
選択部34では前記(4)式を用いて標準パタン群
ごとに類似度和Lを求め(処理ワ)、類似度和の
大きい方の標準パタン群にその音声が属すると判
定しておく(処理カ)。
一方修正部35は、線形予測分析プロセツサ2
3から送られた音素iの中心部に対応するLPC
ケプストラム係数をCijとし、標準パタン格納部
33から、選択部34の第1の機能の選択結果に
基づく標準パタン群の平均値Mij(1)、逆行列の
(j,j′)要素δjj′を読み出し、使用者の声に適合
した平均値M′ij(1)を M′ij(1)=(WMij(1)+Cij)/(W+1) (5) で求める(処理タ)。ここでWはあらかじめ求め
てある定数である。
この平均値の求め方は以下のようにしても良
い。すなわちある音素のα次における新しい平均
値M′αを求めるために多重回帰分析法を利用す
る。
α次の特徴パラメータの推定に対し、その音素
にかかわる全データを使用する方法である。
あらかじめ用意した多数話者の平均値Qα(R)
学習データ〓(R)の間に次式の関係を仮定する。
(R)=b′α+〓′α〓(R)+Eα(R) (6) α=1,2,……,j,……,p Eα(R):誤差 p:パラメータの次数 R=1,2,……,k k:用意した話者の人数 〓′α=(β′α1,β′α2,……,β′αj,……
,β′αp) b′α,〓′αの最小2乗推定値をbα,〓αとす
ると、ある音素の平均値の推定値Mαは入力され
た学習データのLPCケプストラム係数〓=(C1
C2,……,Cj,……,Cp)を使用して次式で求
めることができる。
Mj=bα+〓α〓=bα+pj=1 βαj・Cj (7) このβαj,bαはあらかじめ用意されたQα(K),〓
(K)を用いて、次式で求められる。
βαj=pj=1Sαjj′Sαj′y (8) ここで、 Sαjj′=KR=1 (Vαj(R)−)(Vαj′(K)′) (9) Sαj′y=KR=1 (Vαj′(R)−′)(Qα(R)) (10) ただし、,はそれぞれVαj(R),Qα(R)

=1,2,……,K)の平均値、Sαjj′はSαjj′の
逆行列の要素を表わす。
また bα=−pj=1 βαj・ (11) でbiが求められる。
すなわち、あらかじめ多数話者のデータを用い
て(8)式でβαj、(11)式でbαを求めて修正部35に入
れておけば新しい平均値M′αを(7)式で算出するこ
とができる。
このようにして得られた平均値M′ij(1)を用い
て、修正部35において新しい重み係数a′ij(1)を a′ij(1)=2pj=1δjj′M′ij(1) (12) 平均距離d′i(1)を d′i(1)=〓′i(1)t〓-1(1)〓′i(1) (13) で求め(処理レ)、このa′ij(1)およびd′i(1)を新し

標準パタン群としてバツフア36に登録する(処
理ソ)。従つて次に入力された音声に対しては第
3図で示したフローチヤートの処理イ〜処理ヌに
従つて類似度計算を次式 li(1)pj=1 a′ij(1)Cj−d′i(1) (14) で計算し、メインメモリ27に転送され、メイン
プロセツサ28でこの結果とセグメンテーシヨン
部26の結果を用いて音素又は音節の系列を作成
し、単語辞書メモリ29内の単語辞書と照合して
単語認識を行ない、その結果を出力部30に送
る。
このように、標準パタンの内容を自動修正する
ことにより、標準パタンに合わない使用者の声に
対し認識性能を向上させることができる。
以上述べた学習部32の第1の機能および第2
の機能が働くことにより、使用者に適した標準パ
タン群が自動的に選択され、かつその選択された
標準パタンの内容が最もその使用者の声の認識に
適合するように自動修正され、いかなる使用者の
声に対しても安定した、高い認識率を得ることの
できる、信頼性の高い音声認識装置として使用す
ることができる。
前述の実施例の処理手順の全体のフローを第5
図を用いて説明する。
まず第1の実施例の場合について述べる。使用
者によつて任意の音声が最初に入力される(判断
ツ)と、音声認識装置は音響分析を行なう(処理
ネ)。次に標準パタン群の選択かいなかを判断し
(判断ナ)、標準パタン群選択の作業のため、セグ
メンテーシヨン、音素判別(1)を行なう(処理ラ)。
この結果に基づいて類似度の総和の最も大きい標
準パタン群を選択する。
次に標準パタン群の修正が必要か否かを判断し
(判断ウ)、その必要がない場合は上記選択された
標準パタン群を標準パタンメモリへ転送する(処
理イ)。その結果とセグメンテーシヨン結果を用
いて音素認識を行ない(処理ノ)、その結果を単
語辞書と照合して単語認識を行ない(処理ヲ)、
認識単語を出力して(処理ク)最初の入力待ちに
もどる。
次に入力された音声に対してはすでに標準パタ
ン群の選択は終了しているため、登録された標準
パタン群を用いて処理ヤで示すセグメンテーシヨ
ン・音素判別(2)を行ない、処理ノ,処理オを経て
認識結果が出力される。
ここでセグメンテーシヨン・音素判別の(1)と(2)
のちがいは、(2)が選ばれた1組の標準パタン群で
のみ計算すれば良いのに対し、(1)は標準パタン格
納部に存在する全ての標準パタン群に対して計算
が必要なことであり、(1)の作業はかなり大きな演
算量を要することである。しかし(1)は使用開始直
後の音声にしか作動しないため、実用上問題には
ならない。
次に第2の実施例の場合について述べる。第5
図において内容が指定された音声(例えば「ナニ
ヌネノ」という音声)が入力され(判断ツ)、第
1の実施例と同様の手順により音響分析(処理
ネ)、セグメンテーシヨン・音素判別(1)(処理
ラ)、標準パタンの選択(処理ム)を行なう。次
に選択された標準パタン群の内容をその音声に適
合するように修正する(処理マ)。その結果を標
準メモリへ転送し(処理イ)、第1の実施例と同
様に音素認識(処理ノ)、単語認識(処理ヲ)を
行ない、認識結果を出力(処理ク)1最初の入力
待ちにもどる。
次に入力された音声に対してはすでに標準パタ
ン群の選択および修正が終了しているため、修正
後の標準パタン群を用いてセグメンテーシヨン・
音素判別(2)を行ない、音素認識(処理ノ)、単語
認識(処理ヲ)して認識結果が出力される。
なお自動選択(第1の機能)と自動修正(第2
の機能)の両機能を有する場合、前実施例では特
定の音声に基づいて標準パタン群の自動選択、自
動修正を行なう例について述べたが、始めに任意
の音声に基づいて標準パタン群の自動選択を行な
い、次に特定の音声を入力して自動修正を行なつ
ても良いことはもちろんである。
第1の実施例の効果を確かめるため、男性グル
ープ10名、女性グループ10名の音声を用いて標準
パタン群の自動選択の評価を行なつた。例えば女
性AKの音声がどちらかの標準パタン群に属する
かを選択する実験条件として、男性グループの標
準パタン群は男性10名の音声を用いて構成し、女
性グループの標準パタン群はAKを除く他の9名
の音声で構成し評価した。その結果、最初の入力
音声で女性CSを除き20名中19名が男性は男性グ
ループに、女性は女性グループに正しく判定でき
ることがわかつた。正しく判定できなかつた女性
CSは入力音声の内容によつて男性グループに入
つたり女性グループに入つたりし、不安定である
が、標準パタン群の自動修正を行なえば安定した
認識率の得られることがわかつた。
第2の実施例の効果を確かめるために、女性10
名を対象にフレーム単位での音素認識率の評価を
行なつた。評価は5母音および鼻音(|m|,|
n|と|N|)を対象とし、平均認識率とバラツ
キを表わす標準偏差を用いて行なつた。結果を第
6図に、横軸を話者別にして示す。41は従来の
方法による、用意された全ての標準パタン群を用
いて最大類似度を得る標準パタンに相当する音素
を認識結果とすることにより求めた認識率であ
る。平均認識率は74.6%、標準偏差は6.01%であ
る。42は第1の機能である自動選択の効果を示
すもので、女性が正しく女性グループに選択され
た場合に、女性グループ専用の標準パタン群を使
用することにより従来より性能を向上できること
がわかる。平均認識率は79.4%、標準偏差は5.34
%である。平均認識率は従来より4.8%向上し、
バラツキも減少する。43は第2の機能である自
動修正の効果を示すもので、入力音声の内容が既
知の場合に(例えば「ナニヌネノ」)、その入力音
声を用いて女声グループ専用の標準パタン群の内
容を修正することによつて性能を大幅に向上でき
ることがわかる。平均認識率は85.0%、標準偏差
は2.01%である。平均認識率は従来に比し10.4%
の大幅な向上が得られる。特に従来認識率の低か
つた話者YI,YM,KKが改善されることによ
り、バラツキは従来の半分以下になり、話者に依
存しない安定な認識が実現できる。
発明の効果 以上述べたように本発明は、音声認識装置に学
習部を設け、あらかじめ多数話者の音声をグルー
プ分けしてグループ毎に用意された標準パタン群
を、入力音声によつて自動的に選択し、前記選択
結果に基づく標準パターン群を、プロセツサ部で
得られた位置情報に基づき修正することにより、
使用者の声に最も適した標準パターン群が選択で
き、かつ選択された標準パターン群を使用者の声
に合うように修正することにより、不特定多数の
使用者に安定した高い認識精度を得ることができ
るとともに計算量を大幅に減らすことにより、音
声認識装置の低価格化と高速化をはかることがで
きる。
【図面の簡単な説明】
第1図は従来の音声認識装置のブロツク図、第
2図は本発明の一実施例における音声認識装置の
ブロツク図、第3図は本発明の一実施例における
標準パタン群の自動選択機能を説明するフローチ
ヤート、第4図は本発明の他の実施例における標
準パタン群の自動修正機能を説明するフローチヤ
ート、第5図は本発明の音声認識装置の認識手順
の一例を示すフローチヤート、第6図は本実施例
による音素認識率を従来例と比較した図である。 23……線形予測分析プロセツサ、24……類
似度計算部、26……セグメンテーシヨン部、2
8……メインプロセツサ、29……単語辞書メモ
リ、32……学習部、33……標準パタン格納
部、34……選択部、35……修正部、36……
バツフア。

Claims (1)

  1. 【特許請求の範囲】 1 入力音声よりフレーム周期ごとに得られたス
    ペクトル又はそれに類似する情報(以下スペクト
    ル情報と記す)を算出する音響分析部と、入力音
    声の音声区間の検出と音素毎のセグメンテーシヨ
    ンを行うセグメンテーシヨン部と、多数話者から
    なる標準音声信号から、性質の類似した話者ごと
    に分類された複数の標準パターン群を予め格納す
    る標準パターン格納部と、前記標準パターン格納
    部の標準パターン群と前記スペクトル情報とを用
    いて音素ごとの類似度を求める類似度計算部と、
    前記類似度計算部とセグメンテーシヨン部の結果
    から少なくとも母音部を決定し、その中心フレー
    ムを示す位置情報を選択するプロセツサ部と、前
    記プロセツサ部からの位置情報に基づき、標準パ
    ターン格納部内の標準パターン群の選択を少なく
    とも行う学習部と、前記プロセツサ部で作成され
    た音素又は音節系列と比較する単語辞書を格納す
    る単語辞書部とを具備し、前記学習部が、プロセ
    ツサ部で得られた位置情報に基づき、統計的距離
    尺度による類似度和の最も大きい標準パターン群
    又は最大類似度になる標準パターンの数の最も多
    い標準パターン群を選択する選択部と、前記選択
    結果に基づく標準パターン群を、プロセツサ部で
    得られた位置情報に基づき修正する修正部とで構
    成されていることを特徴とする音声認識装置。 2 標準パターン格納部が第1と第2の格納部か
    らなり、第1の格納部に少なくとも共分散逆行列
    及び平均値が、第2の格納部に重み係数及び平均
    距離が標準パターン群ごとに格納されていること
    を特徴とする特許請求の範囲第1項記載の音声認
    識装置。
JP15781384A 1983-09-05 1984-07-27 音声認識装置 Granted JPS6135497A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP15781384A JPS6135497A (ja) 1984-07-27 1984-07-27 音声認識装置
US07/441,225 US5131043A (en) 1983-09-05 1989-11-20 Method of and apparatus for speech recognition wherein decisions are made based on phonemes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15781384A JPS6135497A (ja) 1984-07-27 1984-07-27 音声認識装置

Publications (2)

Publication Number Publication Date
JPS6135497A JPS6135497A (ja) 1986-02-19
JPH0424720B2 true JPH0424720B2 (ja) 1992-04-27

Family

ID=15657851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15781384A Granted JPS6135497A (ja) 1983-09-05 1984-07-27 音声認識装置

Country Status (1)

Country Link
JP (1) JPS6135497A (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58209800A (ja) * 1982-05-31 1983-12-06 松下電器産業株式会社 音素判別方法

Also Published As

Publication number Publication date
JPS6135497A (ja) 1986-02-19

Similar Documents

Publication Publication Date Title
Svendsen et al. On the automatic segmentation of speech signals
US5131043A (en) Method of and apparatus for speech recognition wherein decisions are made based on phonemes
US5465318A (en) Method for generating a speech recognition model for a non-vocabulary utterance
JP2745535B2 (ja) 音声認識装置
JP3444108B2 (ja) 音声認識装置
JPH0721759B2 (ja) 音声認識応答装置
JPH0424720B2 (ja)
JPH0455518B2 (ja)
JP2921059B2 (ja) 連続音声認識装置
JP2879989B2 (ja) 音声認識方法
JPH0823758B2 (ja) 話者適応形音声認識装置
JP3285047B2 (ja) 不特定話者用音声認識装置
JP3100180B2 (ja) 音声認識方法
JP3289670B2 (ja) 音声認識方法および音声認識装置
JP2991288B2 (ja) 話者認識装置
JPH034918B2 (ja)
JP3285048B2 (ja) 不特定話者用音声認識装置
KR20010000054A (ko) 유성음/무성음/묵음 정보를 이용한 동적 시간정합고립단어 인식 시스템
JPH053596B2 (ja)
JPS63236098A (ja) ラベリングシステム
JPH07113838B2 (ja) 音声認識方法
JPS6336678B2 (ja)
JPH11338492A (ja) 話者認識装置
JPS60164800A (ja) 音声認識装置
JP2000242292A (ja) 音声認識方法、この方法を実施する装置およびこの方法を実行するプログラムを記憶した記憶媒体

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term