JPH0355838B2 - - Google Patents
Info
- Publication number
- JPH0355838B2 JPH0355838B2 JP62254821A JP25482187A JPH0355838B2 JP H0355838 B2 JPH0355838 B2 JP H0355838B2 JP 62254821 A JP62254821 A JP 62254821A JP 25482187 A JP25482187 A JP 25482187A JP H0355838 B2 JPH0355838 B2 JP H0355838B2
- Authority
- JP
- Japan
- Prior art keywords
- label
- adaptation
- speech
- markov model
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired
Links
- 230000006978 adaptation Effects 0.000 claims abstract description 82
- 230000007704 transition Effects 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 description 10
- 238000002372 labelling Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000013139 quantization Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Synchronisation In Digital Transmission Systems (AREA)
- Machine Translation (AREA)
- Character Discrimination (AREA)
Description
【発明の詳細な説明】
A 産業上の利用分野
この発明はマルコフ・モデルを利用した音声認
識方式に関し、とくに話者や環境雑音への適応化
を簡易に行えるようにしたものである。
識方式に関し、とくに話者や環境雑音への適応化
を簡易に行えるようにしたものである。
B 従来の技術
マルコフ・モデルを利用した音声認識は確率的
な観点から音声の認識を行おうとするものであ
る。たとえばそのうちの1つの手法では単語ごと
にマルコフ・モデルが設定される。通常このマル
コフ・モデルには複数の状態と、これら状態の間
の遷移が規定され、これら遷移にはその生起確率
が割り当てられ、また、状態またはその遷移に
は、その状態または遷移においてラベル(シンボ
ル)を出力する確率が割り当てられる。未知入力
音声はラベルの系列に変換され、こののち単語マ
ルコフ・モデルの各々がこのラベル系列を生成す
る確率を、上述の遷移生起確率およびラベル出力
確率(以下これらをパラメータと呼ぶ)に基づい
て決定し、ラベル生成確率が最大となる単語マル
コフ・モデルを求める。そしてこの結果に基づい
て認識を行う。このマルコフ・モデルを利用した
音声認識では、パラメータを統計的に推定するこ
とができ、このため認識制度を向上させることが
できる。
な観点から音声の認識を行おうとするものであ
る。たとえばそのうちの1つの手法では単語ごと
にマルコフ・モデルが設定される。通常このマル
コフ・モデルには複数の状態と、これら状態の間
の遷移が規定され、これら遷移にはその生起確率
が割り当てられ、また、状態またはその遷移に
は、その状態または遷移においてラベル(シンボ
ル)を出力する確率が割り当てられる。未知入力
音声はラベルの系列に変換され、こののち単語マ
ルコフ・モデルの各々がこのラベル系列を生成す
る確率を、上述の遷移生起確率およびラベル出力
確率(以下これらをパラメータと呼ぶ)に基づい
て決定し、ラベル生成確率が最大となる単語マル
コフ・モデルを求める。そしてこの結果に基づい
て認識を行う。このマルコフ・モデルを利用した
音声認識では、パラメータを統計的に推定するこ
とができ、このため認識制度を向上させることが
できる。
なお、この認識手法については以下の論文に詳
細が記載されている。
細が記載されている。
(1) “A Maximum Likelihood Approach to
Continuous Speech Recognition”(IEEE
Transactions on Pattern Analysisand
Machine Intelligence、PAMI−5巻、2号、
PP.179−190、1983、Lalit R Bahl
Frederick JelinekおよびRobert L.Mercer) (2) “Continuous Speech Recognition by
Statistical Methods”(Proceedings of the
IEEE 64巻、1976、pp.532−556、Frederick
Jelinek) (3) “An Introduction to the Application of
the Theory of Probabilistic Functions of
a Markov Process to Automatic Speech
Recognition”(The Bell System Technical
Journal 64巻、4号、1983、4月、S.E.
Levinson、L.R.RabinerおおびM.M.Sondhi) ところでマルコフ・モデルを利用した音声認識
では学習用に膨大な量の音声データが必要であ
り、また学習を行うのにも多くの時間を必要とす
る。しかも所定の話者の音声データで学習を行つ
たシステムでは他の話者の認識精度が十分ではな
い場合が多い。また、同一話者であつても、学習
時と認識時との間にかなりの時間を置き、そのた
め環境が異なつてしまうと、認識精度が低下す
る。さらに環境雑音による認識精度の劣化も問題
となる。
Continuous Speech Recognition”(IEEE
Transactions on Pattern Analysisand
Machine Intelligence、PAMI−5巻、2号、
PP.179−190、1983、Lalit R Bahl
Frederick JelinekおよびRobert L.Mercer) (2) “Continuous Speech Recognition by
Statistical Methods”(Proceedings of the
IEEE 64巻、1976、pp.532−556、Frederick
Jelinek) (3) “An Introduction to the Application of
the Theory of Probabilistic Functions of
a Markov Process to Automatic Speech
Recognition”(The Bell System Technical
Journal 64巻、4号、1983、4月、S.E.
Levinson、L.R.RabinerおおびM.M.Sondhi) ところでマルコフ・モデルを利用した音声認識
では学習用に膨大な量の音声データが必要であ
り、また学習を行うのにも多くの時間を必要とす
る。しかも所定の話者の音声データで学習を行つ
たシステムでは他の話者の認識精度が十分ではな
い場合が多い。また、同一話者であつても、学習
時と認識時との間にかなりの時間を置き、そのた
め環境が異なつてしまうと、認識精度が低下す
る。さらに環境雑音による認識精度の劣化も問題
となる。
近年このような課題を解決するために学習ずみ
のマルコフ・モデルを話者や環境に適応化させる
ことが提案されている。そしてこのような提案は
つぎの2つの類型に分けて考えることができる。
のマルコフ・モデルを話者や環境に適応化させる
ことが提案されている。そしてこのような提案は
つぎの2つの類型に分けて考えることができる。
1つは初期の学習時にマルコフ・モデルのパラ
メータを推定するのに用いたイベントの頻度を保
持しておき、適応化用のデータに対してもイベン
トの頻度を求め、これらを補間して新しいパラメ
ータを推定するものである。これについては、 (4) “Speaker Adaptation for A Hidden
Markov Model”(Proceedings of ICASSP
‘86、1986、4月、49−11、pp.2667−2670、
菅原一秀、西村雅史、黒田明裕 (5) 特願昭61−65030号 に記載がある。しかしながらこの方法では適応化
学習のために対象語彙を全て発声する必要があ
り、大語彙を対象とする音声認識に適用するには
話者の負担が大きい。さらに計算量も多い。
メータを推定するのに用いたイベントの頻度を保
持しておき、適応化用のデータに対してもイベン
トの頻度を求め、これらを補間して新しいパラメ
ータを推定するものである。これについては、 (4) “Speaker Adaptation for A Hidden
Markov Model”(Proceedings of ICASSP
‘86、1986、4月、49−11、pp.2667−2670、
菅原一秀、西村雅史、黒田明裕 (5) 特願昭61−65030号 に記載がある。しかしながらこの方法では適応化
学習のために対象語彙を全て発声する必要があ
り、大語彙を対象とする音声認識に適用するには
話者の負担が大きい。さらに計算量も多い。
2つめは初期の学習時に得られたマルコフ・モ
デルのパラメータを、パラメータ間の対応を取る
ことによつて変形するもので、 (6) “Isolated Word Recognition Using
Hidden Markov Models”(Proceedings of
ICASSP‘85、1985、3月1−1、pp.1−4、
菅原一秀、西村雅史、年岡晃一、大河内正明、
金子豊久) (7) “Rapid Speaker Adaptation Using A
Probabilistic Spectral Mapping”
(Proceedings of ICASSP‘87、1987、4月、
15−3、pp.633−636、Richard Schwartz
Yen−Lu Chow、Francis Kubala) に記載がある。文献(6)の手法ではラベル付けされ
た単語間でDPマツチングを行ない、最適パス上
でのラベル間の対応からラベルのコンフユージヨ
ン・マトリクスを作成し、マルコフ・モデルのパ
ラメータを変形している。この場合、マルコフ・
モデルとは別にDPマツチングを必要とすること
から記憶量の面で効率が悪い。また十分な頻度を
持つコンフユージヨン・マトリクスを作成するに
は大量の音声データが必要である。また、文献(7)
の手法は従来のマルコフ・モデルの出力確率に直
接ラベル間の対応の確率を導入したもので、フオ
ーワード・バツクワード計算を必要とすることか
ら計算量・記憶量が多い。
デルのパラメータを、パラメータ間の対応を取る
ことによつて変形するもので、 (6) “Isolated Word Recognition Using
Hidden Markov Models”(Proceedings of
ICASSP‘85、1985、3月1−1、pp.1−4、
菅原一秀、西村雅史、年岡晃一、大河内正明、
金子豊久) (7) “Rapid Speaker Adaptation Using A
Probabilistic Spectral Mapping”
(Proceedings of ICASSP‘87、1987、4月、
15−3、pp.633−636、Richard Schwartz
Yen−Lu Chow、Francis Kubala) に記載がある。文献(6)の手法ではラベル付けされ
た単語間でDPマツチングを行ない、最適パス上
でのラベル間の対応からラベルのコンフユージヨ
ン・マトリクスを作成し、マルコフ・モデルのパ
ラメータを変形している。この場合、マルコフ・
モデルとは別にDPマツチングを必要とすること
から記憶量の面で効率が悪い。また十分な頻度を
持つコンフユージヨン・マトリクスを作成するに
は大量の音声データが必要である。また、文献(7)
の手法は従来のマルコフ・モデルの出力確率に直
接ラベル間の対応の確率を導入したもので、フオ
ーワード・バツクワード計算を必要とすることか
ら計算量・記憶量が多い。
その他の関連文献として、
(8) “ベクトル量子化による話者適応化”(電子
通信学会技術研究報告、1986、12月、SP86−
65、pp.33−40、鹿野清宏) があり、これにはベクトル量子化のための特徴量
の適応化に関する記載がある。
通信学会技術研究報告、1986、12月、SP86−
65、pp.33−40、鹿野清宏) があり、これにはベクトル量子化のための特徴量
の適応化に関する記載がある。
C 発明が解決しようとする問題点
この発明は以上の事情を考慮してなされたもの
であり、一旦学習を行なつたシステムを、学習時
とは異なる環境に適応化させることが出来、しか
もその適応化を比較的簡易に行うことが出来る音
声認識手法を提供することを目的としている。
であり、一旦学習を行なつたシステムを、学習時
とは異なる環境に適応化させることが出来、しか
もその適応化を比較的簡易に行うことが出来る音
声認識手法を提供することを目的としている。
D 問題点を解決するための手段
本発明ではまず、適応化用の音声のラベル化を
行う。そして、この適応化用の音声のラベル系列
と、前以て大量の音声データを用いて推定された
マルコフ・モデルの各状態との時系列上での対応
関係を求める。そしてこの対応関係に基づき、新
たにラベル間および状態遷移間の対応の頻度をす
べての適応化用発声に対してカウントし、このカ
ウントからラベル間および状態遷移間の条件付確
率を推定する。そしてこの条件付確率を用いて、
前以て求められていたマルコフ・モデルのパラメ
ータを変換して新しいパラメータを推定するよう
にしている。なお、適応化用の音声のラベル化を
行うまえに、適応化用音声を用いて量子化誤差を
最小化するようにラベル・プロトタイプを変形す
るようにしてもよい。
行う。そして、この適応化用の音声のラベル系列
と、前以て大量の音声データを用いて推定された
マルコフ・モデルの各状態との時系列上での対応
関係を求める。そしてこの対応関係に基づき、新
たにラベル間および状態遷移間の対応の頻度をす
べての適応化用発声に対してカウントし、このカ
ウントからラベル間および状態遷移間の条件付確
率を推定する。そしてこの条件付確率を用いて、
前以て求められていたマルコフ・モデルのパラメ
ータを変換して新しいパラメータを推定するよう
にしている。なお、適応化用の音声のラベル化を
行うまえに、適応化用音声を用いて量子化誤差を
最小化するようにラベル・プロトタイプを変形す
るようにしてもよい。
一例として第1図に示すようなマルコフ・モデ
ルと適応化用音声のラベル列との対応を考えよ
う。第1図において横軸は適応化用音声のラベル
列を示し、縦軸はマルコフ・モデルの状態を示
す。入力ラベル系列をL(t)と表すことにする。
ただしtは時刻を示す。第1図中のパスで示され
るようにラベル系列とモデルの各状態に、ある対
応関係Vが求まると、L(t)と対応するマルコ
フ・モデルの状態Skは Sk=V(L(t)) で得られる。このSkにおけ各ラベルの出力確率
P(LilSk)をそれぞれカウントすれば、L(t)
と各ラベルの対応の頻度Cが求まる。なお、Liは
初期学習用のラベル識別子であり、以下のLjは適
応化用のラベル職別子を示す。
ルと適応化用音声のラベル列との対応を考えよ
う。第1図において横軸は適応化用音声のラベル
列を示し、縦軸はマルコフ・モデルの状態を示
す。入力ラベル系列をL(t)と表すことにする。
ただしtは時刻を示す。第1図中のパスで示され
るようにラベル系列とモデルの各状態に、ある対
応関係Vが求まると、L(t)と対応するマルコ
フ・モデルの状態Skは Sk=V(L(t)) で得られる。このSkにおけ各ラベルの出力確率
P(LilSk)をそれぞれカウントすれば、L(t)
と各ラベルの対応の頻度Cが求まる。なお、Liは
初期学習用のラベル識別子であり、以下のLjは適
応化用のラベル職別子を示す。
C(Lj、Li)=
〓L(t)=Lj
P(Li|V(L(t)))
これを次式に基づき、ラベル、Li毎に正規化す
ることによりラベルLiにラベルLjが対応付けられ
る確率が得られる。
ることによりラベルLiにラベルLjが対応付けられ
る確率が得られる。
P(Lj|Li)=C(Lj、Li)/
〓Lj
(Lj、Li)
この確率を用いて、前以て求められているマル
コフ・モデルの出力確率P(Li|Sk)を次式で変
換すれば、適応化用音声データを正確に反映した
パラメータが得られる。
コフ・モデルの出力確率P(Li|Sk)を次式で変
換すれば、適応化用音声データを正確に反映した
パラメータが得られる。
P(Lj|Sk)=
〓Li
(Li|Sk)P(Lj|Li)
遷移確率についても同様に、適応化用音声のラ
ベル系列とマルコフ・モデルの各状態との対応関
係Vから得られる状態遷移のパスに沿い、状態遷
移間の対応の頻度を各状態における遷移確率P
(Ti|Sk)を用いてカウントする。これを正規化
することによつてP(Tj|Ti)を得る。ただし
Ti、Tjは状態遷移番号である。この確率を用い
て、前以て求められているマルコフ・モデルの遷
移確率P(Ti|Sk)を次式で変換し、これを用い
て音声認識を行う。
ベル系列とマルコフ・モデルの各状態との対応関
係Vから得られる状態遷移のパスに沿い、状態遷
移間の対応の頻度を各状態における遷移確率P
(Ti|Sk)を用いてカウントする。これを正規化
することによつてP(Tj|Ti)を得る。ただし
Ti、Tjは状態遷移番号である。この確率を用い
て、前以て求められているマルコフ・モデルの遷
移確率P(Ti|Sk)を次式で変換し、これを用い
て音声認識を行う。
P(Tj|Sk)=
〓Li
P(Ti|Sk)P(Tj|Ti)
ここではマルコフ・モデルの確率パラメータと
して各モデルがラベル出力確率と状態遷移確率を
個別のパラメータとして持つ場合について説明し
たが、各遷移がそれぞれラベル出力確率を持つと
する場合にもこの発明を適用出来る。
して各モデルがラベル出力確率と状態遷移確率を
個別のパラメータとして持つ場合について説明し
たが、各遷移がそれぞれラベル出力確率を持つと
する場合にもこの発明を適用出来る。
また、ラベル・プロトタイプ、マルコフ・モデ
ルのパラメータのいずれかだけの適応化も可能で
ある。
ルのパラメータのいずれかだけの適応化も可能で
ある。
なお、上述の例では第1図から示唆されるよう
にラベル列をマルコフ・モデルに最適に整合させ
るパスを用いてラベルL(t)と状態Skとを対応
させた。これには音声認識時のビタービのアルゴ
リズムをそのまま用いることができる。ただし対
応付けはこのようなものに限るものでなく、状態
とラベル列とを線形に対応付ける等種々変更が可
能である。
にラベル列をマルコフ・モデルに最適に整合させ
るパスを用いてラベルL(t)と状態Skとを対応
させた。これには音声認識時のビタービのアルゴ
リズムをそのまま用いることができる。ただし対
応付けはこのようなものに限るものでなく、状態
とラベル列とを線形に対応付ける等種々変更が可
能である。
E 実施例
以下、この発明を単語音声認識に適用した一実
施例について図面を参照しながら説明しよう。
施例について図面を参照しながら説明しよう。
第2図はこの実施例を全体として示すものであ
り、この第2図において、入力音声データはマイ
クロホン1および増幅器2を介してアナログ・デ
ジタル(A/D)変換器3に供給され、ここでデ
ジタル・データとされる。デジタル化された音声
データは特徴量抽出装置4に供給される。この特
徴量抽出装置4においては、まず音声データが離
散フーリエ変換されたのち聴覚の特性を反映した
20チヤネル分の臨界帯域フイルタのそれぞれの出
力として取り出される。この出力は8m秒毎に
25.6m秒のウインドウを介して次段の切換装置5
に送られ、ラベル・プロトタイプ初期学習装置
6、ラベル・プロトタイプ適応化装置7およびラ
ベル付け装置8のいずれかに送られる。ラベル・
プロトタイプの初期学習時には切換装置5がラベ
ル・プロトタイプで学習装置6側に切換わつて、
臨界帯域フイルタの出力を学習装置6に供給す
る。学習装置6はクラスタリングによつて128個
のラベル・プロトタイプからなる辞書9を作成す
る。ラベル・プロトタイプの適応化を行う際には
切換装置5が適応化装置7側に切換わり、適応換
装置7が初期学習時のラベル・プロトタイプ辞書
9を初期値としてラベル・プロトタイプの適応化
を行う。なお適応化装置7の詳細についてはのち
に第3図を参照して説明する。認識を行う際ある
いはマルコフ・モデルの初期学習、適応化を行う
際には切換装置5がラベル付け装置8側に切換わ
り、ラベル付け装置8はラベル・プロトタイプ辞
書9を参照して順次ラベル付けを行つてゆく。た
だしマルコフ・モデルの初期学習を行う際にはラ
ベル・プロトタイプは初期学習時のものが用いら
れる。
り、この第2図において、入力音声データはマイ
クロホン1および増幅器2を介してアナログ・デ
ジタル(A/D)変換器3に供給され、ここでデ
ジタル・データとされる。デジタル化された音声
データは特徴量抽出装置4に供給される。この特
徴量抽出装置4においては、まず音声データが離
散フーリエ変換されたのち聴覚の特性を反映した
20チヤネル分の臨界帯域フイルタのそれぞれの出
力として取り出される。この出力は8m秒毎に
25.6m秒のウインドウを介して次段の切換装置5
に送られ、ラベル・プロトタイプ初期学習装置
6、ラベル・プロトタイプ適応化装置7およびラ
ベル付け装置8のいずれかに送られる。ラベル・
プロトタイプの初期学習時には切換装置5がラベ
ル・プロトタイプで学習装置6側に切換わつて、
臨界帯域フイルタの出力を学習装置6に供給す
る。学習装置6はクラスタリングによつて128個
のラベル・プロトタイプからなる辞書9を作成す
る。ラベル・プロトタイプの適応化を行う際には
切換装置5が適応化装置7側に切換わり、適応換
装置7が初期学習時のラベル・プロトタイプ辞書
9を初期値としてラベル・プロトタイプの適応化
を行う。なお適応化装置7の詳細についてはのち
に第3図を参照して説明する。認識を行う際ある
いはマルコフ・モデルの初期学習、適応化を行う
際には切換装置5がラベル付け装置8側に切換わ
り、ラベル付け装置8はラベル・プロトタイプ辞
書9を参照して順次ラベル付けを行つてゆく。た
だしマルコフ・モデルの初期学習を行う際にはラ
ベル・プロトタイプは初期学習時のものが用いら
れる。
ラベル付けは例えば第3図に示すように行なわ
れる。第3図においてXは入力の特徴量、Yiは
第i番目のプロトタイプの特徴量、Nはプロトタ
イプの個数(=128)、dist(X、Yi)はXとYiと
のユークリツト距離、mは各時点までのdist(X、
Yi)の最小値である。なおmは非常に大きな値
Vに最初設定される。図から明らかなように入力
の特徴量Xはプロトタイプの特徴量の各々と順次
比較されていき、最も似ている、すなわち距離の
最も小さいものが観測されたラベル(ラベル番
号)Lとして出力されていく。
れる。第3図においてXは入力の特徴量、Yiは
第i番目のプロトタイプの特徴量、Nはプロトタ
イプの個数(=128)、dist(X、Yi)はXとYiと
のユークリツト距離、mは各時点までのdist(X、
Yi)の最小値である。なおmは非常に大きな値
Vに最初設定される。図から明らかなように入力
の特徴量Xはプロトタイプの特徴量の各々と順次
比較されていき、最も似ている、すなわち距離の
最も小さいものが観測されたラベル(ラベル番
号)Lとして出力されていく。
このようにしてラベル付け装置8からは、ラベ
ル間の間隔が8m秒のラベル系列が出力されてい
く。
ル間の間隔が8m秒のラベル系列が出力されてい
く。
第2図において、ラベル付け装置8からのラベ
ル系列は切換装置10を介してマルコフ・モデル
初期学習装置11、マルコフ・モデル適応化装置
12及び認識装置13のいずれか1つに供給され
る。初期学習装置11及び適応化装置12の動作
の詳細についてはのちに第5図以降の図を参照し
て説明する。マルコフ・モデルの初期学習時には
切換装置10が学習装置11側に切り換わつてラ
ベル系列を学習装置11に供給する。学習装置1
1はラベル系列を利用してマルコフ・モデルの学
習を行ないパラメータ・テーブル14のパラメー
タ値を決定する。適応化を行う際には切換装置1
0が適応装置12側に切り換わり、適応化装置1
2が入力ラベル系列とマルコフ・モデルの各状態
との対応関係を利用してパラメータ・テーブル1
4のパラメータ値を適応化する。認識を行う際に
は切換装置10が認識装置13側に切り換わり、
認識装置13は入力ラベル系列とパラメータ・テ
ーブルとに基づいて入力音声の認識を行う。この
認識装置13はフオワード計算またはビタービ・
アルゴリズムに基づくものとすることが出来る。
ル系列は切換装置10を介してマルコフ・モデル
初期学習装置11、マルコフ・モデル適応化装置
12及び認識装置13のいずれか1つに供給され
る。初期学習装置11及び適応化装置12の動作
の詳細についてはのちに第5図以降の図を参照し
て説明する。マルコフ・モデルの初期学習時には
切換装置10が学習装置11側に切り換わつてラ
ベル系列を学習装置11に供給する。学習装置1
1はラベル系列を利用してマルコフ・モデルの学
習を行ないパラメータ・テーブル14のパラメー
タ値を決定する。適応化を行う際には切換装置1
0が適応装置12側に切り換わり、適応化装置1
2が入力ラベル系列とマルコフ・モデルの各状態
との対応関係を利用してパラメータ・テーブル1
4のパラメータ値を適応化する。認識を行う際に
は切換装置10が認識装置13側に切り換わり、
認識装置13は入力ラベル系列とパラメータ・テ
ーブルとに基づいて入力音声の認識を行う。この
認識装置13はフオワード計算またはビタービ・
アルゴリズムに基づくものとすることが出来る。
認識装置13の出力はワークステーシヨン15
に供給され、たとえばその表示装置に表示され
る。
に供給され、たとえばその表示装置に表示され
る。
なお第2図において破線のブロツクで囲まれた
部分は実際にはホスト・コンピユータ上にソフト
ウエアとして実現されている。ホスト・コンピユ
ータとしてはIBM社の3083処理装置、オペレー
シヨン・システムとしてはCMS、言語としては
PL/Iを用いた。もちろんハードウエアで実現
してもよい。
部分は実際にはホスト・コンピユータ上にソフト
ウエアとして実現されている。ホスト・コンピユ
ータとしてはIBM社の3083処理装置、オペレー
シヨン・システムとしてはCMS、言語としては
PL/Iを用いた。もちろんハードウエアで実現
してもよい。
次にラベル・プロトタイプ適応換装置7につい
て説明する。第4図はこの適応化の手順を示すも
のであり、この図において、まず初期学習で得ら
れたラベル・プロトタイプ辞書をよみこむ(ステ
ツプ16)。次に適応化用の音声を入力する(ステ
ツプ17)。この適応化用の音声は、これから音声
を入力しようとしている話者から得たものであ
る。この適応化用音声には単音節、文章、単語な
ど何を用いても構わない。例えば認識対象語藁の
一部を発声した場合には、この発声はマルコフ・
モデル適応化装置12においてもそのまま利用出
来る。適応化用の音声はラベル・プロトタイプを
用いて順次ラベル化される(ステツプ18)。全て
の適応化用の音声をラベル化したのち、同一のラ
ベル番号がつけられた適応化用の音声の特徴量を
平均化し、これによつて既存のラベル・プロトタ
イプを置き換える(ステツプ19)。以上のプロセ
スすなわちステツプ17〜19を予定回数例えば2回
繰返してプロトタイプの適応化を終了する。
て説明する。第4図はこの適応化の手順を示すも
のであり、この図において、まず初期学習で得ら
れたラベル・プロトタイプ辞書をよみこむ(ステ
ツプ16)。次に適応化用の音声を入力する(ステ
ツプ17)。この適応化用の音声は、これから音声
を入力しようとしている話者から得たものであ
る。この適応化用音声には単音節、文章、単語な
ど何を用いても構わない。例えば認識対象語藁の
一部を発声した場合には、この発声はマルコフ・
モデル適応化装置12においてもそのまま利用出
来る。適応化用の音声はラベル・プロトタイプを
用いて順次ラベル化される(ステツプ18)。全て
の適応化用の音声をラベル化したのち、同一のラ
ベル番号がつけられた適応化用の音声の特徴量を
平均化し、これによつて既存のラベル・プロトタ
イプを置き換える(ステツプ19)。以上のプロセ
スすなわちステツプ17〜19を予定回数例えば2回
繰返してプロトタイプの適応化を終了する。
次にマルコフ・モデル初期学習装置11の動作
について第5図〜第7図を参照しながら説明しよ
う。第5図は初期学習の手順を示すもので、この
図においてまず単語マルコフ・モデルの各々につ
いて規定を行う(ステツプ21)。第6図は単語マ
ルコフ・モデルの例で、黒のドツトが状態の各々
を示し、矢印が遷移の各々を示している。状態の
個数は初期状態SI及び最終状態SFを含めて8で
ある。遷移の種類としては自己への遷移T1、次
の状態への遷移T2ならびにラベルを出力するこ
となく次の状態に遷移するナル遷移T3の3つか
らなつている。単語マルコフ・モデルの規定は第
2図のパラメータ・テーブル11を暫定的に確立
することである。具体的には第7図に示すような
テーブル・フオーマツトを各単語毎に割当て、そ
ののちパラメータP(Li|Sk)およびP(Ti|
Sk)の初期設定を行う。なおパラメータP(Li|
Sk)は状態SkにおけるラベルLiの出力確率、P
(Ti|Sk)は状態Skにおいて遷移Tiをとる遷移
確率を表す。初期設定では遷移確率はT1,T
2,T3がそれぞれ0.9:0.05:0.05で起り、各ラ
ベルは1/128の確率で均等に出力されるものと
して各パラメータを設定している。なお、第7図
では学習ずみを確率値を示してある。
について第5図〜第7図を参照しながら説明しよ
う。第5図は初期学習の手順を示すもので、この
図においてまず単語マルコフ・モデルの各々につ
いて規定を行う(ステツプ21)。第6図は単語マ
ルコフ・モデルの例で、黒のドツトが状態の各々
を示し、矢印が遷移の各々を示している。状態の
個数は初期状態SI及び最終状態SFを含めて8で
ある。遷移の種類としては自己への遷移T1、次
の状態への遷移T2ならびにラベルを出力するこ
となく次の状態に遷移するナル遷移T3の3つか
らなつている。単語マルコフ・モデルの規定は第
2図のパラメータ・テーブル11を暫定的に確立
することである。具体的には第7図に示すような
テーブル・フオーマツトを各単語毎に割当て、そ
ののちパラメータP(Li|Sk)およびP(Ti|
Sk)の初期設定を行う。なおパラメータP(Li|
Sk)は状態SkにおけるラベルLiの出力確率、P
(Ti|Sk)は状態Skにおいて遷移Tiをとる遷移
確率を表す。初期設定では遷移確率はT1,T
2,T3がそれぞれ0.9:0.05:0.05で起り、各ラ
ベルは1/128の確率で均等に出力されるものと
して各パラメータを設定している。なお、第7図
では学習ずみを確率値を示してある。
単語マルコフ・モデルの規定ののち、初期学習
用データを入力する(ステツプ22)。この初期学
習用データは認識対象語彙をそれぞれ10回ずつ発
声して得たラベル列である。なおラベル・プロト
タイプはプロトタイプの初期学習時のものを用い
る。初期学習用のデータの入力が終了するとフオ
ワード・バツクワード計算を行う(ステツプ23)。
この計算を認識対象単語毎に全ての初期学習用の
データに対して行ない、マルコフ・モデルのパラ
メータを単語毎に推定する(ステツプ24)。新に
推定されたパラメータを用いて以上のプロセスす
なわちステツプ22〜24を予定回数たとえば5回繰
返してマルコフ・モデルの初期学習を終了する。
用データを入力する(ステツプ22)。この初期学
習用データは認識対象語彙をそれぞれ10回ずつ発
声して得たラベル列である。なおラベル・プロト
タイプはプロトタイプの初期学習時のものを用い
る。初期学習用のデータの入力が終了するとフオ
ワード・バツクワード計算を行う(ステツプ23)。
この計算を認識対象単語毎に全ての初期学習用の
データに対して行ない、マルコフ・モデルのパラ
メータを単語毎に推定する(ステツプ24)。新に
推定されたパラメータを用いて以上のプロセスす
なわちステツプ22〜24を予定回数たとえば5回繰
返してマルコフ・モデルの初期学習を終了する。
次にマルコフ・モデルの適応化装置12の動作
について第8図および第9図を参照しながら説明
しよう。ここではまず認識対象語彙の一部を適応
化用に用い、マルコフ・モデルの出力確率を適応
化した例を取り上げる。第8図においてまず適応
化に用いる単語マルコフ・モデルのパラメータを
1単語分読みこむ(ステツプ26)。これは先の初
期学習で得られたものである。次に適応化用単語
の発声を入力する(ステツプ27)。この適応化用
の発声は、これから音声を入力しようとしている
話者が発声したもので、適応化装置7で適応化さ
れたラベル・プロトタイプを用いてラベル化され
ている。次にこの適応化用音声のラベル列と、単
語マルコフ・モデルの各状態との最適パス上での
対応をビタービのアルゴリズムによつて得る(ス
テツプ28)。ビタービのアルゴリズムを適用して
得られる最適パス上のラベルとマルコフ・モデル
の状態との対応関係をVとすると、 Sk=V(L(w、t))ただしSkは状態番号、L
(w、t)は単語番号w、時刻tにおけるラベル
番号 と表せる。
について第8図および第9図を参照しながら説明
しよう。ここではまず認識対象語彙の一部を適応
化用に用い、マルコフ・モデルの出力確率を適応
化した例を取り上げる。第8図においてまず適応
化に用いる単語マルコフ・モデルのパラメータを
1単語分読みこむ(ステツプ26)。これは先の初
期学習で得られたものである。次に適応化用単語
の発声を入力する(ステツプ27)。この適応化用
の発声は、これから音声を入力しようとしている
話者が発声したもので、適応化装置7で適応化さ
れたラベル・プロトタイプを用いてラベル化され
ている。次にこの適応化用音声のラベル列と、単
語マルコフ・モデルの各状態との最適パス上での
対応をビタービのアルゴリズムによつて得る(ス
テツプ28)。ビタービのアルゴリズムを適用して
得られる最適パス上のラベルとマルコフ・モデル
の状態との対応関係をVとすると、 Sk=V(L(w、t))ただしSkは状態番号、L
(w、t)は単語番号w、時刻tにおけるラベル
番号 と表せる。
このパスに沿つてラベルLiがLjに対応付けられ
る確率をカウントし加算する(ステツプ29)。
る確率をカウントし加算する(ステツプ29)。
C(Lj、Li)=
〓L(w,t)=Lj
(Li|V(w、t)))
第9図はこれらの操作を模式的に示したもので
ある。
ある。
以上のプロセスすなわちステツプ26〜29を適応
化用の発声すべてに対して行う。そして得られた
C(Lj、Li)をLi毎に正規化することによつてP
(Lj|Li)を得る(ステツプ31)。
化用の発声すべてに対して行う。そして得られた
C(Lj、Li)をLi毎に正規化することによつてP
(Lj|Li)を得る(ステツプ31)。
P(Lj|Li)=C(Lj、Li)/Σ
CLj
(Lj、Li)
最後に初期学習で得られたすべてのマルコフ・
モデルの出力確率をP(Lj|Li)を用いて変換す
る(ステツプ32)。
モデルの出力確率をP(Lj|Li)を用いて変換す
る(ステツプ32)。
P(Lj|Sk)=
〓Lj
P(Li|Sk)P(Lj|Li)
ここでは出力確率を例にとつたが、遷移確率に
ついても同様に処理できる。
ついても同様に処理できる。
以上で適応化を終了する。こののち適応化の対
象となつた話者の音声は高精度に認識される。
象となつた話者の音声は高精度に認識される。
この実施例によれば認識対象語彙の一部のよう
な少ない適応化データでしかも非常に高速にシス
テムを異なる環境に適応化させることが出来る。
特に認識対象語彙が千語以上の大語彙の場合、話
者毎あるいは環境毎に各単語数回程度の発生によ
り初期学習をするのは話者に多大な負担を与え、
膨大な計算量を必要とするが、本発明を適用する
ことにより特定の話者で得られた初期学習データ
をそれら以外の話者で活用できるので、話者の負
担は大幅に軽減され、効率も非常に良い。また、
マルコフ・モデルのパラメータの適応化について
は、話者や環境の適応化に必要とされるテーブル
は、P(Lj|Li)とP(Tj|ti)だけで、新たに必
要とする記憶量、計算量も極めて少ない。
な少ない適応化データでしかも非常に高速にシス
テムを異なる環境に適応化させることが出来る。
特に認識対象語彙が千語以上の大語彙の場合、話
者毎あるいは環境毎に各単語数回程度の発生によ
り初期学習をするのは話者に多大な負担を与え、
膨大な計算量を必要とするが、本発明を適用する
ことにより特定の話者で得られた初期学習データ
をそれら以外の話者で活用できるので、話者の負
担は大幅に軽減され、効率も非常に良い。また、
マルコフ・モデルのパラメータの適応化について
は、話者や環境の適応化に必要とされるテーブル
は、P(Lj|Li)とP(Tj|ti)だけで、新たに必
要とする記憶量、計算量も極めて少ない。
最後に「警報、平方、直線、直前」など類似性
が高い150単語を認識対象語彙としてこの実施例
を評価実験を行つた。この実験ではラベル・プロ
トタイプ及びマルコフ・モデルの初期学習用の音
声データは男性話者1名の10回分の150単語発声
を用い、そして他の7名の話者(男性5名、女性
2名)で適応化の効果をみた。適応化は対象語彙
の一部(10、25、50、100、及び150単語:各単語
1回の発声)で行ない、各話者3回分の150単語
発声を用いて認識実験を行つた。第10図に実験
結果を示す。ここで、横軸は適応化用単語数、縦
軸は平均誤認識率である。菱形は男性話者、四角
は女性話者、実線はラベル・プロトタイプのみの
適応化を行つた場合の結果を、点数はさらにマル
コフ・モデルの確率パラメータに対しても適応化
を行つた結果を示す。なお4%のところの実線
は、初期学習を行つた話者での認識実験結果であ
る。この結果から、本発明を適用することにより
男性話者では初期学習を行つた話者とほぼ同等の
認識精度が25単語程度の適応化用発声で得られる
ことがわかる。また、従来難しいとされていた女
性話者への適応化能力も高い。
が高い150単語を認識対象語彙としてこの実施例
を評価実験を行つた。この実験ではラベル・プロ
トタイプ及びマルコフ・モデルの初期学習用の音
声データは男性話者1名の10回分の150単語発声
を用い、そして他の7名の話者(男性5名、女性
2名)で適応化の効果をみた。適応化は対象語彙
の一部(10、25、50、100、及び150単語:各単語
1回の発声)で行ない、各話者3回分の150単語
発声を用いて認識実験を行つた。第10図に実験
結果を示す。ここで、横軸は適応化用単語数、縦
軸は平均誤認識率である。菱形は男性話者、四角
は女性話者、実線はラベル・プロトタイプのみの
適応化を行つた場合の結果を、点数はさらにマル
コフ・モデルの確率パラメータに対しても適応化
を行つた結果を示す。なお4%のところの実線
は、初期学習を行つた話者での認識実験結果であ
る。この結果から、本発明を適用することにより
男性話者では初期学習を行つた話者とほぼ同等の
認識精度が25単語程度の適応化用発声で得られる
ことがわかる。また、従来難しいとされていた女
性話者への適応化能力も高い。
なお、この発明は上述実施例に限定されるもの
ではなく、その趣旨を逸脱しない範囲で種々変更
が可能である。たとえば特願昭61−16993号所載
のいわゆるフイーニーム(Feneme)型のHMM
音声認識の適応化にも適用できる。この場合には
適応化用音声のラベル列とフイーニーム・マルコ
フ・モデルの連鎖である単語マルコフ・モデルと
を整列させて適応化用音声のラベルと単語マルコ
フ・モデルの状態とをマツピングさせればよい。
ではなく、その趣旨を逸脱しない範囲で種々変更
が可能である。たとえば特願昭61−16993号所載
のいわゆるフイーニーム(Feneme)型のHMM
音声認識の適応化にも適用できる。この場合には
適応化用音声のラベル列とフイーニーム・マルコ
フ・モデルの連鎖である単語マルコフ・モデルと
を整列させて適応化用音声のラベルと単語マルコ
フ・モデルの状態とをマツピングさせればよい。
F 発明の効果
以上説明したように、この発明によれば少ない
データでしかも短かい時間で音声認識システムの
適応化を行うことが出来る。また、そのための計
算量や記憶量も少ない。
データでしかも短かい時間で音声認識システムの
適応化を行うことが出来る。また、そのための計
算量や記憶量も少ない。
第1図はこの発明を説明するための図、第2図
はこの発明の1実施例を示すブロツク図、第3図
は第2図例のラベル付け装置8を説明するフロー
チヤート、第4図は第2図例のラベル・プロトタ
イプ適応化装置7を説明するフローチヤート、第
5図は第2図例のマルコフ・モデル初期学習装置
11の動作を説明するフローチヤート、第6図お
よび第7図は第5図の動作の流れを説明するため
の図、第8図は第2図例のマルコフ・モデル適応
化装置12の動作を説明するフローチヤート、第
9図は第8図の動作の流れを説明するための図、
第10図は本発明の適用結果の実験データを示す
図である。 6……ラベル・プロトタイプ初期学習装置、7
……ラベル・プロトタイプ適応化装置、8……ラ
ベル付け装置、9……ラベル・プロトタイプの辞
書、11……マルコフ・モデル初期学習装置、1
2……マルコフ・モデル適応化装置、13……認
識装置、14……パラメータ・テーブル。
はこの発明の1実施例を示すブロツク図、第3図
は第2図例のラベル付け装置8を説明するフロー
チヤート、第4図は第2図例のラベル・プロトタ
イプ適応化装置7を説明するフローチヤート、第
5図は第2図例のマルコフ・モデル初期学習装置
11の動作を説明するフローチヤート、第6図お
よび第7図は第5図の動作の流れを説明するため
の図、第8図は第2図例のマルコフ・モデル適応
化装置12の動作を説明するフローチヤート、第
9図は第8図の動作の流れを説明するための図、
第10図は本発明の適用結果の実験データを示す
図である。 6……ラベル・プロトタイプ初期学習装置、7
……ラベル・プロトタイプ適応化装置、8……ラ
ベル付け装置、9……ラベル・プロトタイプの辞
書、11……マルコフ・モデル初期学習装置、1
2……マルコフ・モデル適応化装置、13……認
識装置、14……パラメータ・テーブル。
Claims (1)
- 【特許請求の範囲】 1 初期学習用ラベル組および初期学習用音声に
基づいて学習が実行されたマルコフ・モデルを適
応化用音声に基づいて修正する音声認識方法にお
いて、 上記適応化用音声を適応化用ラベル組を用いて
適応化用ラベル系列に変換するステツプと、 この適応化用ラベル系列に含まれる各ラベルを
上記適応化用音声に対応するマルコフ・モデルの
各状態または各状態遷移に対応付けるステツプ
と、 上記各ラベルと上記各状態または各状態遷移と
の間の対応付けおよび上記マルコフ・モデルの上
記初期学習用ラベル組に関連する各パラメータの
値に基づいて、上記初期学習用ラベル組の各ラベ
ルと上記適応化用ラベル組の各ラベルとの間で混
同が生じる混同確率を求めるステツプと、 この混同確率および上記マルコフ・モデルの上
記初期学習用モデル組に関連する各パラメータの
値に基づいて上記マルコフ・モデルの上記適応化
用ラベル組に関連する各パラメータの値を求める
ステツプとを有する音声認識方法。 2 上記適応化用ラベル組と初期学習用ラベル組
とを異ならせた特許請求の範囲第1項記載の音声
認識方法。 3 上記初期学習用ラベル組の各ラベルの各ラベ
ル・プロトタイプを適応化用音声を用いて修正し
て上記適応化用ラベル組の各ラベルの各ラベル・
プロトタイプを生成する特許請求の範囲第2項記
載の音声認識方法。 4 上記適応化用音声から抽出した特徴ベクトル
を上記初期学習用ラベル組のラベル・プロトタイ
プで分類し、各分類ごとに特徴ベクトルを平均化
し、上記適応化用ラベル組の、対応するラベル・
プロトタイプとする特許請求の範囲第3項記載の
音声認識方法。 5 上記各ラベルと上記各状態または各状態遷移
との間の対応付けを、上記適応化用ラベル系列を
上記適応化用音声に対応するマルコフ・モデルに
最適に整列させる最適パスによつて確立する特許
請求の範囲第1項〜第4項記載の音声認識方法。 6 上記各ラベルと上記各状態または各状態遷移
との間の対応付けを、上記適応化用ラベル系列を
上記適応化用音声に対応するマルコフ・モデルに
一意に整列させるパスによつて確立する特許請求
の範囲第1項〜第4項記載の音声認識方法。
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP62254821A JPH01102599A (ja) | 1987-10-12 | 1987-10-12 | 音声認識方法 |
| EP88308585A EP0312209B1 (en) | 1987-10-12 | 1988-09-16 | Speech recognition system using markov models |
| DE8888308585T DE3876207T2 (de) | 1987-10-12 | 1988-09-16 | Spracherkennungssystem unter verwendung von markov-modellen. |
| US07/524,689 US5050215A (en) | 1987-10-12 | 1990-05-10 | Speech recognition method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP62254821A JPH01102599A (ja) | 1987-10-12 | 1987-10-12 | 音声認識方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPH01102599A JPH01102599A (ja) | 1989-04-20 |
| JPH0355838B2 true JPH0355838B2 (ja) | 1991-08-26 |
Family
ID=17270338
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP62254821A Granted JPH01102599A (ja) | 1987-10-12 | 1987-10-12 | 音声認識方法 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US5050215A (ja) |
| EP (1) | EP0312209B1 (ja) |
| JP (1) | JPH01102599A (ja) |
| DE (1) | DE3876207T2 (ja) |
Families Citing this family (175)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2870224B2 (ja) * | 1991-06-19 | 1999-03-17 | 松下電器産業株式会社 | 音声認識方法 |
| US5388183A (en) * | 1991-09-30 | 1995-02-07 | Kurzwell Applied Intelligence, Inc. | Speech recognition providing multiple outputs |
| EP0619913B1 (en) * | 1991-12-31 | 2002-03-06 | Unisys PulsePoint Communications | Voice controlled messaging system and processing method |
| JPH0782348B2 (ja) * | 1992-03-21 | 1995-09-06 | 株式会社エイ・ティ・アール自動翻訳電話研究所 | 音声認識用サブワードモデル生成方法 |
| US5745873A (en) * | 1992-05-01 | 1998-04-28 | Massachusetts Institute Of Technology | Speech recognition using final decision based on tentative decisions |
| JP2795058B2 (ja) * | 1992-06-03 | 1998-09-10 | 松下電器産業株式会社 | 時系列信号処理装置 |
| US5483579A (en) * | 1993-02-25 | 1996-01-09 | Digital Acoustics, Inc. | Voice recognition dialing system |
| NL9301119A (nl) * | 1993-06-25 | 1995-01-16 | Nederland Ptt | Methode voor de detectie van het beste pad door een stochastisch netwerk, in het bijzonder voor spraak- of beeldherkenning. |
| AU7802194A (en) * | 1993-09-30 | 1995-04-18 | Apple Computer, Inc. | Continuous reference adaptation in a pattern recognition system |
| US5488652A (en) * | 1994-04-14 | 1996-01-30 | Northern Telecom Limited | Method and apparatus for training speech recognition algorithms for directory assistance applications |
| KR100324988B1 (ko) * | 1994-06-13 | 2002-08-27 | 마츠시타 덴끼 산교 가부시키가이샤 | 신호해석장치 |
| US5727124A (en) * | 1994-06-21 | 1998-03-10 | Lucent Technologies, Inc. | Method of and apparatus for signal recognition that compensates for mismatching |
| US5737723A (en) * | 1994-08-29 | 1998-04-07 | Lucent Technologies Inc. | Confusable word detection in speech recognition |
| US5835894A (en) * | 1995-01-19 | 1998-11-10 | Ann Adcock Corporation | Speaker and command verification method |
| US5864810A (en) * | 1995-01-20 | 1999-01-26 | Sri International | Method and apparatus for speech recognition adapted to an individual speaker |
| JP3008799B2 (ja) * | 1995-01-26 | 2000-02-14 | 日本電気株式会社 | 音声適応化装置,単語音声認識装置,連続音声認識装置およびワードスポッティング装置 |
| US5615286A (en) * | 1995-05-05 | 1997-03-25 | Bell Communications Research, Inc. | Method for determining a most likely sequence of states |
| JP3453456B2 (ja) * | 1995-06-19 | 2003-10-06 | キヤノン株式会社 | 状態共有モデルの設計方法及び装置ならびにその状態共有モデルを用いた音声認識方法および装置 |
| US5963903A (en) * | 1996-06-28 | 1999-10-05 | Microsoft Corporation | Method and system for dynamically adjusted training for speech recognition |
| US5835890A (en) * | 1996-08-02 | 1998-11-10 | Nippon Telegraph And Telephone Corporation | Method for speaker adaptation of speech models recognition scheme using the method and recording medium having the speech recognition method recorded thereon |
| US6151575A (en) * | 1996-10-28 | 2000-11-21 | Dragon Systems, Inc. | Rapid adaptation of speech models |
| US5987414A (en) * | 1996-10-31 | 1999-11-16 | Nortel Networks Corporation | Method and apparatus for selecting a vocabulary sub-set from a speech recognition dictionary for use in real time automated directory assistance |
| US5839107A (en) * | 1996-11-29 | 1998-11-17 | Northern Telecom Limited | Method and apparatus for automatically generating a speech recognition vocabulary from a white pages listing |
| US6137863A (en) * | 1996-12-13 | 2000-10-24 | At&T Corp. | Statistical database correction of alphanumeric account numbers for speech recognition and touch-tone recognition |
| US5987408A (en) * | 1996-12-16 | 1999-11-16 | Nortel Networks Corporation | Automated directory assistance system utilizing a heuristics model for predicting the most likely requested number |
| US6212498B1 (en) | 1997-03-28 | 2001-04-03 | Dragon Systems, Inc. | Enrollment in speech recognition |
| US6154579A (en) * | 1997-08-11 | 2000-11-28 | At&T Corp. | Confusion matrix based method and system for correcting misrecognized words appearing in documents generated by an optical character recognition technique |
| US6219453B1 (en) | 1997-08-11 | 2001-04-17 | At&T Corp. | Method and apparatus for performing an automatic correction of misrecognized words produced by an optical character recognition technique by using a Hidden Markov Model based algorithm |
| US6018708A (en) * | 1997-08-26 | 2000-01-25 | Nortel Networks Corporation | Method and apparatus for performing speech recognition utilizing a supplementary lexicon of frequently used orthographies |
| US6122361A (en) * | 1997-09-12 | 2000-09-19 | Nortel Networks Corporation | Automated directory assistance system utilizing priori advisor for predicting the most likely requested locality |
| US5995929A (en) * | 1997-09-12 | 1999-11-30 | Nortel Networks Corporation | Method and apparatus for generating an a priori advisor for a speech recognition dictionary |
| CA2216224A1 (en) * | 1997-09-19 | 1999-03-19 | Peter R. Stubley | Block algorithm for pattern recognition |
| US6253173B1 (en) | 1997-10-20 | 2001-06-26 | Nortel Networks Corporation | Split-vector quantization for speech signal involving out-of-sequence regrouping of sub-vectors |
| US6098040A (en) * | 1997-11-07 | 2000-08-01 | Nortel Networks Corporation | Method and apparatus for providing an improved feature set in speech recognition by performing noise cancellation and background masking |
| US6205428B1 (en) * | 1997-11-20 | 2001-03-20 | At&T Corp. | Confusion set-base method and apparatus for pruning a predetermined arrangement of indexed identifiers |
| US6208965B1 (en) | 1997-11-20 | 2001-03-27 | At&T Corp. | Method and apparatus for performing a name acquisition based on speech recognition |
| US5983177A (en) * | 1997-12-18 | 1999-11-09 | Nortel Networks Corporation | Method and apparatus for obtaining transcriptions from multiple training utterances |
| US6223158B1 (en) | 1998-02-04 | 2001-04-24 | At&T Corporation | Statistical option generator for alpha-numeric pre-database speech recognition correction |
| US6205261B1 (en) | 1998-02-05 | 2001-03-20 | At&T Corp. | Confusion set based method and system for correcting misrecognized words appearing in documents generated by an optical character recognition technique |
| US6343267B1 (en) | 1998-04-30 | 2002-01-29 | Matsushita Electric Industrial Co., Ltd. | Dimensionality reduction for speaker normalization and speaker and environment adaptation using eigenvoice techniques |
| US6263309B1 (en) | 1998-04-30 | 2001-07-17 | Matsushita Electric Industrial Co., Ltd. | Maximum likelihood method for finding an adapted speaker model in eigenvoice space |
| WO1999059141A1 (de) | 1998-05-11 | 1999-11-18 | Siemens Aktiengesellschaft | Verfahren und anordnung zur einführung zeitlicher abhängigkeit in hidden-markov-modellen für die spracherkennung |
| US6400805B1 (en) | 1998-06-15 | 2002-06-04 | At&T Corp. | Statistical database correction of alphanumeric identifiers for speech recognition and touch-tone recognition |
| US7031925B1 (en) | 1998-06-15 | 2006-04-18 | At&T Corp. | Method and apparatus for creating customer specific dynamic grammars |
| US7937260B1 (en) * | 1998-06-15 | 2011-05-03 | At&T Intellectual Property Ii, L.P. | Concise dynamic grammars using N-best selection |
| US6163768A (en) | 1998-06-15 | 2000-12-19 | Dragon Systems, Inc. | Non-interactive enrollment in speech recognition |
| US6243680B1 (en) | 1998-06-15 | 2001-06-05 | Nortel Networks Limited | Method and apparatus for obtaining a transcription of phrases through text and spoken utterances |
| US6377921B1 (en) * | 1998-06-26 | 2002-04-23 | International Business Machines Corporation | Identifying mismatches between assumed and actual pronunciations of words |
| US6208964B1 (en) | 1998-08-31 | 2001-03-27 | Nortel Networks Limited | Method and apparatus for providing unsupervised adaptation of transcriptions |
| EP1192789B1 (en) | 1999-06-11 | 2008-10-15 | Telstra Corporation Limited | A method of developing an interactive system |
| US6571208B1 (en) | 1999-11-29 | 2003-05-27 | Matsushita Electric Industrial Co., Ltd. | Context-dependent acoustic models for medium and large vocabulary speech recognition with eigenvoice training |
| US6526379B1 (en) | 1999-11-29 | 2003-02-25 | Matsushita Electric Industrial Co., Ltd. | Discriminative clustering methods for automatic speech recognition |
| US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
| AU2002950336A0 (en) | 2002-07-24 | 2002-09-12 | Telstra New Wave Pty Ltd | System and process for developing a voice application |
| AU2002951244A0 (en) | 2002-09-06 | 2002-09-19 | Telstra New Wave Pty Ltd | A development system for a dialog system |
| AU2003900584A0 (en) | 2003-02-11 | 2003-02-27 | Telstra New Wave Pty Ltd | System for predicting speech recognition accuracy and development for a dialog system |
| US7117153B2 (en) * | 2003-02-13 | 2006-10-03 | Microsoft Corporation | Method and apparatus for predicting word error rates from text |
| AU2003902020A0 (en) | 2003-04-29 | 2003-05-15 | Telstra New Wave Pty Ltd | A process for grammatical inference |
| WO2006119122A2 (en) * | 2005-05-02 | 2006-11-09 | Graham Shapiro | Statistical machine learning system and methods |
| US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
| US7970613B2 (en) | 2005-11-12 | 2011-06-28 | Sony Computer Entertainment Inc. | Method and system for Gaussian probability data bit reduction and computation |
| US8010358B2 (en) * | 2006-02-21 | 2011-08-30 | Sony Computer Entertainment Inc. | Voice recognition with parallel gender and age normalization |
| US7778831B2 (en) * | 2006-02-21 | 2010-08-17 | Sony Computer Entertainment Inc. | Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch |
| US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
| JP4322934B2 (ja) * | 2007-03-28 | 2009-09-02 | 株式会社東芝 | 音声認識装置、方法およびプログラム |
| US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
| US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
| US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
| US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
| US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
| WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
| US8788256B2 (en) * | 2009-02-17 | 2014-07-22 | Sony Computer Entertainment Inc. | Multiple language voice recognition |
| US8442833B2 (en) * | 2009-02-17 | 2013-05-14 | Sony Computer Entertainment Inc. | Speech processing with source location estimation using signals from two or more microphones |
| US8442829B2 (en) * | 2009-02-17 | 2013-05-14 | Sony Computer Entertainment Inc. | Automatic computation streaming partition for voice recognition on multiple processors with limited memory |
| US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
| US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
| US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
| US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
| US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
| US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
| US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
| US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
| US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
| US8977584B2 (en) | 2010-01-25 | 2015-03-10 | Newvaluexchange Global Ai Llp | Apparatuses, methods and systems for a digital conversation management platform |
| US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
| CN102063900A (zh) * | 2010-11-26 | 2011-05-18 | 北京交通大学 | 克服混淆发音的语音识别方法及系统 |
| US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
| US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
| US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
| US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
| US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
| US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
| US9153235B2 (en) | 2012-04-09 | 2015-10-06 | Sony Computer Entertainment Inc. | Text dependent speaker recognition with long-term feature based on functional data analysis |
| US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
| US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
| US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
| US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
| US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
| KR102579086B1 (ko) | 2013-02-07 | 2023-09-15 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
| US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
| WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
| KR101759009B1 (ko) | 2013-03-15 | 2017-07-17 | 애플 인크. | 적어도 부분적인 보이스 커맨드 시스템을 트레이닝시키는 것 |
| US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
| WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
| WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
| WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
| US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
| JP6259911B2 (ja) | 2013-06-09 | 2018-01-10 | アップル インコーポレイテッド | デジタルアシスタントの2つ以上のインスタンスにわたる会話持続を可能にするための機器、方法、及びグラフィカルユーザインタフェース |
| HK1220313A1 (zh) | 2013-06-13 | 2017-04-28 | 苹果公司 | 用於由语音命令发起的紧急呼叫的系统和方法 |
| CN105453026A (zh) | 2013-08-06 | 2016-03-30 | 苹果公司 | 基于来自远程设备的活动自动激活智能响应 |
| US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
| US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
| US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
| US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
| US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
| US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
| US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
| US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
| US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
| US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
| US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
| US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
| US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
| EP3480811A1 (en) | 2014-05-30 | 2019-05-08 | Apple Inc. | Multi-command single utterance input method |
| US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
| US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
| US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
| US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
| US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
| US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
| US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
| US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
| US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
| US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
| US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
| US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
| US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
| US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
| US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
| US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
| US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
| US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
| US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
| US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
| US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
| US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
| US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
| US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
| US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
| US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
| US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
| US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
| US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
| US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
| US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
| US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
| US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
| US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
| US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
| US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
| US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
| US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
| DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
| US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
| US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
| US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
| US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
| US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
| DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
| DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
| DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
| DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
| US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
| DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
| DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6116993A (ja) * | 1984-07-02 | 1986-01-24 | Hitachi Zosen Corp | 石炭の化学的脱灰方法 |
| JPS6165030A (ja) * | 1984-09-07 | 1986-04-03 | Toyota Motor Corp | デイ−ゼルエンジンの加速装置 |
| US4718094A (en) * | 1984-11-19 | 1988-01-05 | International Business Machines Corp. | Speech recognition system |
| US4741036A (en) * | 1985-01-31 | 1988-04-26 | International Business Machines Corporation | Determination of phone weights for markov models in a speech recognition system |
| US4759068A (en) * | 1985-05-29 | 1988-07-19 | International Business Machines Corporation | Constructing Markov models of words from multiple utterances |
| US4748670A (en) * | 1985-05-29 | 1988-05-31 | International Business Machines Corporation | Apparatus and method for determining a likely word sequence from labels generated by an acoustic processor |
| JPS62220998A (ja) * | 1986-03-22 | 1987-09-29 | 工業技術院長 | 音声認識装置 |
| JPS62231993A (ja) * | 1986-03-25 | 1987-10-12 | インタ−ナシヨナル ビジネス マシ−ンズ コ−ポレ−シヨン | 音声認識方法 |
| US4827521A (en) * | 1986-03-27 | 1989-05-02 | International Business Machines Corporation | Training of markov models used in a speech recognition system |
| US4817156A (en) * | 1987-08-10 | 1989-03-28 | International Business Machines Corporation | Rapidly training a speech recognizer to a subsequent speaker given training data of a reference speaker |
-
1987
- 1987-10-12 JP JP62254821A patent/JPH01102599A/ja active Granted
-
1988
- 1988-09-16 DE DE8888308585T patent/DE3876207T2/de not_active Expired - Fee Related
- 1988-09-16 EP EP88308585A patent/EP0312209B1/en not_active Expired - Lifetime
-
1990
- 1990-05-10 US US07/524,689 patent/US5050215A/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| DE3876207D1 (de) | 1993-01-07 |
| EP0312209B1 (en) | 1992-11-25 |
| DE3876207T2 (de) | 1993-06-03 |
| US5050215A (en) | 1991-09-17 |
| JPH01102599A (ja) | 1989-04-20 |
| EP0312209A2 (en) | 1989-04-19 |
| EP0312209A3 (en) | 1989-08-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JPH0355838B2 (ja) | ||
| US8990084B2 (en) | Method of active learning for automatic speech recognition | |
| EP0361788A2 (en) | A speech recognition system | |
| US8515758B2 (en) | Speech recognition including removal of irrelevant information | |
| JPH0355837B2 (ja) | ||
| JPH02238496A (ja) | 音声認識装置 | |
| KR100307623B1 (ko) | 엠.에이.피 화자 적응 조건에서 파라미터의 분별적 추정 방법 및 장치 및 이를 각각 포함한 음성 인식 방법 및 장치 | |
| CN102651217A (zh) | 用于合成语音的方法、设备以及用于语音合成的声学模型训练方法 | |
| EP1465154B1 (en) | Method of speech recognition using variational inference with switching state space models | |
| CN106340297A (zh) | 一种基于云计算与置信度计算的语音识别方法与系统 | |
| EP2888669A2 (en) | Method and system for selectively biased linear discriminant analysis in automatic speech recognition systems | |
| CN101390156B (zh) | 标准模式适应装置、标准模式适应方法 | |
| Stadermann et al. | A hybrid SVM/HMM acoustic modeling approach to automatic speech recognition | |
| US6662158B1 (en) | Temporal pattern recognition method and apparatus utilizing segment and frame-based models | |
| Rose | Word spotting from continuous speech utterances | |
| JPH0486899A (ja) | 標準パターン適応化方式 | |
| Helali et al. | Arabic corpus implementation: Application to speech recognition | |
| US7634404B2 (en) | Speech recognition method and apparatus utilizing segment models | |
| JPH08123469A (ja) | 句境界確率計算装置および句境界確率利用連続音声認識装置 | |
| JPH01202798A (ja) | 音声認識方法 | |
| JP2000214879A (ja) | 音声認識装置の適応化方法 | |
| Qu et al. | A speech recognition system based on a hybrid HMM/SVM architecture | |
| Wang et al. | Speech utterance classification model training without manual transcriptions | |
| Kenny et al. | Speaker adaptation in a large-vocabulary Gaussian HMM recognizer | |
| Laface et al. | Experimental results on a large lexicon access task |