JPH05158493A - 音声認識装置 - Google Patents
音声認識装置Info
- Publication number
- JPH05158493A JPH05158493A JP3324930A JP32493091A JPH05158493A JP H05158493 A JPH05158493 A JP H05158493A JP 3324930 A JP3324930 A JP 3324930A JP 32493091 A JP32493091 A JP 32493091A JP H05158493 A JPH05158493 A JP H05158493A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- likelihood
- unit
- character string
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
(57)【要約】
【目的】本発明は、ユーザの入力する音声情報の表す文
字列を認識して出力していくよう動作する音声認識装置
に関し、正確な認識結果を少ない音声情報の入力回数で
もって得られるようにすることを目的とする。 【構成】登録されてある音声標準パターンと認識対象の
音声パターンとの尤度を局所尤度列を求めつつ評価し
て、最も尤度の高い音声標準パターンに対応する文字列
を特定して出力していく音声認識装置において、認識結
果の文字列を分割するとともに、求められた局所尤度列
をその分割に対応して分割する分割部12と、分割され
た各局所尤度列の代表値を算出することで、分割された
各文字部分に対応付けられる尤度を算出する算出部13
とを備え、認識結果の文字列を出力していくときに、算
出部13により算出された尤度を対応する文字部分に関
連付けて出力していくように構成する。
字列を認識して出力していくよう動作する音声認識装置
に関し、正確な認識結果を少ない音声情報の入力回数で
もって得られるようにすることを目的とする。 【構成】登録されてある音声標準パターンと認識対象の
音声パターンとの尤度を局所尤度列を求めつつ評価し
て、最も尤度の高い音声標準パターンに対応する文字列
を特定して出力していく音声認識装置において、認識結
果の文字列を分割するとともに、求められた局所尤度列
をその分割に対応して分割する分割部12と、分割され
た各局所尤度列の代表値を算出することで、分割された
各文字部分に対応付けられる尤度を算出する算出部13
とを備え、認識結果の文字列を出力していくときに、算
出部13により算出された尤度を対応する文字部分に関
連付けて出力していくように構成する。
Description
【0001】
【産業上の利用分野】本発明は、ユーザの入力する音声
情報が予め登録されてある文字列のどれに対応するのか
を認識して、その認識結果をユーザに対して出力してい
くよう動作する音声認識装置に関し、特に、正確な認識
結果を少ない音声情報の入力回数でもって得られるよう
にする音声認識装置に関するものである。
情報が予め登録されてある文字列のどれに対応するのか
を認識して、その認識結果をユーザに対して出力してい
くよう動作する音声認識装置に関し、特に、正確な認識
結果を少ない音声情報の入力回数でもって得られるよう
にする音声認識装置に関するものである。
【0002】近年、オペレータの発声する音声情報を認
識して、その認識結果に従って対象物の自動振り分け等
の処理を実行していくようなシステムが普及しつつあ
る。このようなシステムに用いられる音声認識装置は、
オペレータの発声する音声情報が予め登録されてある文
字列のどれに対応するのかを認識していくとともに、オ
ペレータは、その認識結果が正しいものでない場合に
は、正しい認識結果が得られるまで音声情報の発声を繰
り返していくことになる。これから、このような音声認
識装置では、オペレータの希望する認識結果が少ない音
声情報の発声回数でもって得られるようにする構成を採
っていく必要がある。
識して、その認識結果に従って対象物の自動振り分け等
の処理を実行していくようなシステムが普及しつつあ
る。このようなシステムに用いられる音声認識装置は、
オペレータの発声する音声情報が予め登録されてある文
字列のどれに対応するのかを認識していくとともに、オ
ペレータは、その認識結果が正しいものでない場合に
は、正しい認識結果が得られるまで音声情報の発声を繰
り返していくことになる。これから、このような音声認
識装置では、オペレータの希望する認識結果が少ない音
声情報の発声回数でもって得られるようにする構成を採
っていく必要がある。
【0003】
【従来の技術】ユーザの入力する音声情報が予め登録さ
れてある文字列のどれに対応するのかを認識して、その
認識結果をユーザに対して表示していくよう動作する音
声認識装置では、従来、1位の認識結果の文字列を表示
する構成を採るか、上位複数個の認識結果の文字列を表
示する構成を採っている。
れてある文字列のどれに対応するのかを認識して、その
認識結果をユーザに対して表示していくよう動作する音
声認識装置では、従来、1位の認識結果の文字列を表示
する構成を採るか、上位複数個の認識結果の文字列を表
示する構成を採っている。
【0004】そして、ユーザは、この認識結果がいずれ
も正しいものでないときには、再度音声情報を発声して
音声認識装置に入力していくことになる。
も正しいものでないときには、再度音声情報を発声して
音声認識装置に入力していくことになる。
【0005】
【発明が解決しようとする課題】このように、従来の音
声認識装置では、ただ単に認識結果となる文字列を表示
する構成を採るだけであることから、ユーザは、音声認
識装置がどの音声情報部分で誤認識したのかを知るすべ
がなく、音声認識装置が誤認識した場合、やみくもに音
声情報の入力を繰り返していくことになる。これから、
正しい認識結果を得られるまでに、音声情報を何回も入
力していかなくてはならないことが起こるという問題点
があったのである。
声認識装置では、ただ単に認識結果となる文字列を表示
する構成を採るだけであることから、ユーザは、音声認
識装置がどの音声情報部分で誤認識したのかを知るすべ
がなく、音声認識装置が誤認識した場合、やみくもに音
声情報の入力を繰り返していくことになる。これから、
正しい認識結果を得られるまでに、音声情報を何回も入
力していかなくてはならないことが起こるという問題点
があったのである。
【0006】本発明はかかる事情に鑑みてなされたもの
であって、正確な認識結果を少ない音声情報の入力回数
でもって得られるようにする新たな音声認識装置の提供
を目的とするものである。
であって、正確な認識結果を少ない音声情報の入力回数
でもって得られるようにする新たな音声認識装置の提供
を目的とするものである。
【0007】
【課題を解決するための手段】図1に本発明の原理構成
を図示する。図中、1は本発明を具備する音声認識装
置、2は音声認識装置1の認識結果を出力する出力装置
である。
を図示する。図中、1は本発明を具備する音声認識装
置、2は音声認識装置1の認識結果を出力する出力装置
である。
【0008】音声認識装置1は、標準パターン管理部1
0と、認識部11と、分割部12と、算出部13と、出
力部14とを備える。この標準パターン管理部10は、
入力されてくる可能性のある音声信号の持つ音声パター
ンを文字列との対応関係をとりつつ音声標準パターンと
して管理する。認識部11は、認識対象の音声信号の音
声パターンが与えられるときに、その音声パターンと標
準パターン管理部10に管理されている音声標準パター
ンとの尤度を局所尤度列を求めつつ評価して、認識対象
の音声信号の表す文字列を認識する。
0と、認識部11と、分割部12と、算出部13と、出
力部14とを備える。この標準パターン管理部10は、
入力されてくる可能性のある音声信号の持つ音声パター
ンを文字列との対応関係をとりつつ音声標準パターンと
して管理する。認識部11は、認識対象の音声信号の音
声パターンが与えられるときに、その音声パターンと標
準パターン管理部10に管理されている音声標準パター
ンとの尤度を局所尤度列を求めつつ評価して、認識対象
の音声信号の表す文字列を認識する。
【0009】分割部12は、認識部11の認識した文字
列を分割するとともに、その分割に対応して認識部11
により求められた局所尤度列を分割する。分割部12
は、この分割処理にあたって、時間を基準として認識結
果の文字列を分割していくことがあり、また、音素又は
音節を基準として認識結果の文字列を分割していくこと
がある。
列を分割するとともに、その分割に対応して認識部11
により求められた局所尤度列を分割する。分割部12
は、この分割処理にあたって、時間を基準として認識結
果の文字列を分割していくことがあり、また、音素又は
音節を基準として認識結果の文字列を分割していくこと
がある。
【0010】算出部13は、分割部12により分割され
た各局所尤度列の代表値を算出することで、分割部12
により分割された各文字部分に対応付けられる尤度を算
出する。出力部14は、出力装置2に認識結果を出力す
る。
た各局所尤度列の代表値を算出することで、分割部12
により分割された各文字部分に対応付けられる尤度を算
出する。出力部14は、出力装置2に認識結果を出力す
る。
【0011】
【作用】本発明では、ユーザが認識対象となる音声情報
を発声することで、認識部11に認識対象の音声パター
ンが与えられると、認識部11は、その音声パターンと
標準パターン管理部10に管理されている音声標準パタ
ーンとの尤度を局所尤度列を求めつつ評価して、最も尤
度の高い音声標準パターン、あるいは上位複数個の音声
標準パターンに対応する文字列を認識対象の音声情報の
表す文字列として認識する。
を発声することで、認識部11に認識対象の音声パター
ンが与えられると、認識部11は、その音声パターンと
標準パターン管理部10に管理されている音声標準パタ
ーンとの尤度を局所尤度列を求めつつ評価して、最も尤
度の高い音声標準パターン、あるいは上位複数個の音声
標準パターンに対応する文字列を認識対象の音声情報の
表す文字列として認識する。
【0012】このようにして、認識部11により認識結
果の文字列が求められると、分割部12は、その認識結
果の文字列を例えば音素を基準にして分割するととも
に、その分割に対応して認識部11により求められた局
所尤度列を分割し、この分割処理を受けて、算出部13
は、分割部12により分割された各局所尤度列の例えば
平均値を算出していくことで、分割部12により分割さ
れた各文字部分に対応付けられる尤度を算出する。
果の文字列が求められると、分割部12は、その認識結
果の文字列を例えば音素を基準にして分割するととも
に、その分割に対応して認識部11により求められた局
所尤度列を分割し、この分割処理を受けて、算出部13
は、分割部12により分割された各局所尤度列の例えば
平均値を算出していくことで、分割部12により分割さ
れた各文字部分に対応付けられる尤度を算出する。
【0013】そして、出力部14は、この算出部13の
算出結果を受けて、認識部11の認識した認識結果の文
字列を出力していくときに、算出された尤度を対応する
各文字部分に関連付けて出力していく。このとき、算出
された尤度の内の相対的に高い1つ又は複数の尤度と、
この尤度に対応付けられる文字部分との双方又はいずれ
か一方を、他の文字部分についての出力形態とは異なる
出力形態で出力していくよう処理することがある。
算出結果を受けて、認識部11の認識した認識結果の文
字列を出力していくときに、算出された尤度を対応する
各文字部分に関連付けて出力していく。このとき、算出
された尤度の内の相対的に高い1つ又は複数の尤度と、
この尤度に対応付けられる文字部分との双方又はいずれ
か一方を、他の文字部分についての出力形態とは異なる
出力形態で出力していくよう処理することがある。
【0014】このように、本発明の音声認識装置1で
は、ただ単に認識結果となる文字列を表示するのではな
くて、認識処理により求められた各文字部分の尤度を関
連付けて表示する構成を採るものであることから、ユー
ザは、認識結果が誤りであることで音声情報を再入力す
るときにあって、どの音声情報部分に注意して発声すべ
きかを知ることができるので、音声情報を何回も入力し
ていかなくても済むようになるのである。
は、ただ単に認識結果となる文字列を表示するのではな
くて、認識処理により求められた各文字部分の尤度を関
連付けて表示する構成を採るものであることから、ユー
ザは、認識結果が誤りであることで音声情報を再入力す
るときにあって、どの音声情報部分に注意して発声すべ
きかを知ることができるので、音声情報を何回も入力し
ていかなくても済むようになるのである。
【0015】
【実施例】以下、実施例に従って本発明を詳細に説明す
る。図2に、本発明の一実施例を図示する。図中、1は
本発明に係る音声認識装置の一実施例、2aは音声認識
装置1の認識結果を出力するディスプレイ装置、3はユ
ーザの発声する単語音声情報を電気信号に変換すること
で単語音声信号を生成するマイクロフォンである。
る。図2に、本発明の一実施例を図示する。図中、1は
本発明に係る音声認識装置の一実施例、2aは音声認識
装置1の認識結果を出力するディスプレイ装置、3はユ
ーザの発声する単語音声情報を電気信号に変換すること
で単語音声信号を生成するマイクロフォンである。
【0016】この実施例の音声認識装置1は、音声入力
部15と、周波数分析部16と、標準周波数パターン管
理部10aと、照合部11aと、音素分割部12aと、
音素尤度算出部13aと、認識結果表示制御部14aと
を備える。
部15と、周波数分析部16と、標準周波数パターン管
理部10aと、照合部11aと、音素分割部12aと、
音素尤度算出部13aと、認識結果表示制御部14aと
を備える。
【0017】この音声入力部15は、マイクロフォン3
の変換した単語音声信号をA/D変換する。周波数分析
部16は、音声入力部15によりA/D変換された単語
音声信号をある適当な周期毎に周波数分析することで時
間周波数パターン(各時間でどのような周波数特性を持
つのかを表示する)を得る。標準周波数パターン管理部
10aは、図1の標準パターン管理部10に対応するも
のであって、入力されてくる可能性のある単語音声信号
の持つ典型的な時間周波数パターンを単語文字列との対
応関係をとりつつ標準周波数パターンとして管理する。
の変換した単語音声信号をA/D変換する。周波数分析
部16は、音声入力部15によりA/D変換された単語
音声信号をある適当な周期毎に周波数分析することで時
間周波数パターン(各時間でどのような周波数特性を持
つのかを表示する)を得る。標準周波数パターン管理部
10aは、図1の標準パターン管理部10に対応するも
のであって、入力されてくる可能性のある単語音声信号
の持つ典型的な時間周波数パターンを単語文字列との対
応関係をとりつつ標準周波数パターンとして管理する。
【0018】照合部11aは、図1の認識部11に相当
するものであって、例えばDPマッチングのような照合
手法を用いて、周波数分析部16の分析する時間周波数
パターンと、標準周波数パターン管理部10aの管理す
る標準周波数パターンとを照合して、最も尤度(類似
度)の高い単語文字列を特定して音素分割部12aに出
力するとともに、その照合の際に求めた局所尤度列(最
適照合経路上の局所尤度の列)を音素分割部12aに出
力する。
するものであって、例えばDPマッチングのような照合
手法を用いて、周波数分析部16の分析する時間周波数
パターンと、標準周波数パターン管理部10aの管理す
る標準周波数パターンとを照合して、最も尤度(類似
度)の高い単語文字列を特定して音素分割部12aに出
力するとともに、その照合の際に求めた局所尤度列(最
適照合経路上の局所尤度の列)を音素分割部12aに出
力する。
【0019】音素分割部12aは、図1の分割部12に
相当するものであって、照合部11aにより求められた
単語文字列を音素毎に分割するとともに、その分割に対
応して、照合部11aにより求められた局所尤度列を音
素毎に分割する。音素尤度算出部13aは、図1の算出
部13に相当するものであって、音素分割部12aによ
り分割された音素毎の局所尤度列の平均値を算出するこ
とで音素毎の尤度を算出する。認識結果表示制御部14
aは、図1の出力部14に相当するものであって、ディ
スプレイ装置2aに対して認識結果を出力する。
相当するものであって、照合部11aにより求められた
単語文字列を音素毎に分割するとともに、その分割に対
応して、照合部11aにより求められた局所尤度列を音
素毎に分割する。音素尤度算出部13aは、図1の算出
部13に相当するものであって、音素分割部12aによ
り分割された音素毎の局所尤度列の平均値を算出するこ
とで音素毎の尤度を算出する。認識結果表示制御部14
aは、図1の出力部14に相当するものであって、ディ
スプレイ装置2aに対して認識結果を出力する。
【0020】次に、このように構成される実施例の動作
処理について詳細に説明する。ユーザが認識対象となる
単語音声情報を発声すると、音声入力部15が、マイク
ロフォン3により電気信号に変換された単語音声信号を
A/D変換し、周波数分析部16が、このA/D変換さ
れた単語音声信号をある適当な周期毎に周波数分析する
ことで時間周波数パターンを得る。
処理について詳細に説明する。ユーザが認識対象となる
単語音声情報を発声すると、音声入力部15が、マイク
ロフォン3により電気信号に変換された単語音声信号を
A/D変換し、周波数分析部16が、このA/D変換さ
れた単語音声信号をある適当な周期毎に周波数分析する
ことで時間周波数パターンを得る。
【0021】このようにして、ユーザの発声した音声情
報の時間周波数パターンが得られると、照合部11a
は、周波数分析部16の分析する時間周波数パターン
と、標準周波数パターン管理部10aの管理する標準周
波数パターンとを照合して、最も尤度の高い単語文字列
を特定して音素分割部12aに出力するとともに、その
照合の際に求めた局所尤度列を音素分割部12aに出力
する。
報の時間周波数パターンが得られると、照合部11a
は、周波数分析部16の分析する時間周波数パターン
と、標準周波数パターン管理部10aの管理する標準周
波数パターンとを照合して、最も尤度の高い単語文字列
を特定して音素分割部12aに出力するとともに、その
照合の際に求めた局所尤度列を音素分割部12aに出力
する。
【0022】この照合部11aによる単語文字列の出力
処理を受けて、音素分割部12aは、受け取った単語文
字列を音素毎に分割するとともに、その分割に対応し
て、照合部11aにより求められた局所尤度列を音素毎
に分割し、この音素分割部12aによる局所尤度列の分
割処理を受けて、音素尤度算出部13aは、分割された
音素毎の局所尤度列の平均値を算出することで音素毎の
尤度を算出する。
処理を受けて、音素分割部12aは、受け取った単語文
字列を音素毎に分割するとともに、その分割に対応し
て、照合部11aにより求められた局所尤度列を音素毎
に分割し、この音素分割部12aによる局所尤度列の分
割処理を受けて、音素尤度算出部13aは、分割された
音素毎の局所尤度列の平均値を算出することで音素毎の
尤度を算出する。
【0023】そして、認識結果表示制御部14aは、照
合部11aの認識した認識結果の単語文字列をディスプ
レイ装置2aに表示していくとともに、この音素尤度算
出部13aの算出結果を受けて、算出された音素毎の尤
度を認識結果の単語文字列の対応する音素に関連付けて
表示していくよう制御する。
合部11aの認識した認識結果の単語文字列をディスプ
レイ装置2aに表示していくとともに、この音素尤度算
出部13aの算出結果を受けて、算出された音素毎の尤
度を認識結果の単語文字列の対応する音素に関連付けて
表示していくよう制御する。
【0024】このようにして、ユーザが例えば「CHI
BA(千葉)」という単語音声情報を発声するときにあ
って、照合部11aが「SHIGA(滋賀)」と認識す
る場合でもって説明するならば、音素分割部12aは、
認識結果の「SHIGA」を音素を単位に分割すること
で「/SH/,/I/,/G/,/A/」を得て、音素
尤度算出部13aは、例えば、「SH」の尤度が“1
0”で、「I」の尤度が“5”で、「G」の尤度が
“4”で、「A」の尤度が“12”であることを算出
し、これらの処理結果を受けて、認識結果表示制御部1
4aは、図3に示すように、ディスプレイ装置2aのデ
ィスプレイ画面上に、認識結果の単語文字列である「S
HIGA」と、その「SHIGA」を構成する各音素の
尤度とを関連付けて表示していくよう制御するのであ
る。
BA(千葉)」という単語音声情報を発声するときにあ
って、照合部11aが「SHIGA(滋賀)」と認識す
る場合でもって説明するならば、音素分割部12aは、
認識結果の「SHIGA」を音素を単位に分割すること
で「/SH/,/I/,/G/,/A/」を得て、音素
尤度算出部13aは、例えば、「SH」の尤度が“1
0”で、「I」の尤度が“5”で、「G」の尤度が
“4”で、「A」の尤度が“12”であることを算出
し、これらの処理結果を受けて、認識結果表示制御部1
4aは、図3に示すように、ディスプレイ装置2aのデ
ィスプレイ画面上に、認識結果の単語文字列である「S
HIGA」と、その「SHIGA」を構成する各音素の
尤度とを関連付けて表示していくよう制御するのであ
る。
【0025】この表示制御に従い、ユーザは、「CHI
BA」の「CH」が「SH」に誤認識され、「CHIB
A」の「B」が「G」に誤認識されていることを知ると
きにあって、「SH」の尤度が高いことを知ることがで
きるので、次に「CHIBA」を再入力するときには、
高い尤度でもって間違えられた「CH」に注意しなが
ら、「CHIBA」を発声していくようにすればよいこ
とを知ることができるのである。
BA」の「CH」が「SH」に誤認識され、「CHIB
A」の「B」が「G」に誤認識されていることを知ると
きにあって、「SH」の尤度が高いことを知ることがで
きるので、次に「CHIBA」を再入力するときには、
高い尤度でもって間違えられた「CH」に注意しなが
ら、「CHIBA」を発声していくようにすればよいこ
とを知ることができるのである。
【0026】この図3に示す表示例では、単に、音素尤
度算出部13aにより算出された尤度を認識結果の単語
文字列の各音素に対応付けて表示していく構成例でもっ
て示したが、例えば、相対的に高い尤度を他の尤度とは
別の色で表示させたりフリッカ表示させたり、あるいは
その尤度に対応付けられる音素も別の色で表示させたり
フリッカ表示させたりすると、ユーザの注意を促すのに
便利なものとなる。
度算出部13aにより算出された尤度を認識結果の単語
文字列の各音素に対応付けて表示していく構成例でもっ
て示したが、例えば、相対的に高い尤度を他の尤度とは
別の色で表示させたりフリッカ表示させたり、あるいは
その尤度に対応付けられる音素も別の色で表示させたり
フリッカ表示させたりすると、ユーザの注意を促すのに
便利なものとなる。
【0027】このように、本発明の音声認識装置1で
は、ただ単に認識結果となる文字列を表示するのではな
くて、認識処理により求められた各文字部分の尤度を関
連付けて表示する構成を採ることを特徴とするものであ
る。
は、ただ単に認識結果となる文字列を表示するのではな
くて、認識処理により求められた各文字部分の尤度を関
連付けて表示する構成を採ることを特徴とするものであ
る。
【0028】図示実施例について説明したが、本発明は
これに限定されるものではない。例えば、実施例では、
単語音声情報の認識処理を例にして本発明を説明した
が、本発明はこれに限られることなく、文節等の音声認
識処理についてもそのまま適用することが可能である。
これに限定されるものではない。例えば、実施例では、
単語音声情報の認識処理を例にして本発明を説明した
が、本発明はこれに限られることなく、文節等の音声認
識処理についてもそのまま適用することが可能である。
【0029】また、実施例では、音素を基準にして認識
結果の文字列を分割していくことで開示したが、本発明
はこれに限られることなく、音節や時間を基準にして認
識結果の文字列を分割していく構成を採ることも可能で
ある。例えば時間を基準にして分割すると、ユーザは発
声する音声情報の前半部分に注意すべきであるとか、後
半部分に注意すべきであるとかいう情報が表示されるこ
とになるのである。
結果の文字列を分割していくことで開示したが、本発明
はこれに限られることなく、音節や時間を基準にして認
識結果の文字列を分割していく構成を採ることも可能で
ある。例えば時間を基準にして分割すると、ユーザは発
声する音声情報の前半部分に注意すべきであるとか、後
半部分に注意すべきであるとかいう情報が表示されるこ
とになるのである。
【0030】
【発明の効果】以上説明したように、本発明によれば、
音声認識装置にあって、認識結果の文字列を表示すると
きに、認識処理により求められた各文字部分の尤度を関
連付けて表示する構成を採るものであることから、ユー
ザは、認識結果が誤りであることで音声情報を再入力す
るときにあって、どの音声情報部分に注意して発声すべ
きかを知ることができるので、音声情報を何回も入力し
ていかなくても済むようになるのである。
音声認識装置にあって、認識結果の文字列を表示すると
きに、認識処理により求められた各文字部分の尤度を関
連付けて表示する構成を採るものであることから、ユー
ザは、認識結果が誤りであることで音声情報を再入力す
るときにあって、どの音声情報部分に注意して発声すべ
きかを知ることができるので、音声情報を何回も入力し
ていかなくても済むようになるのである。
【図1】本発明の原理構成図である。
【図2】本発明の一実施例である。
【図3】認識結果の表示例の説明図である。
1 音声認識装置 2 出力装置 10 標準パターン管理部 11 認識部 12 分割部 13 算出部 14 出力部
Claims (4)
- 【請求項1】 予め登録されてある音声標準パターン
と、認識対象の音声パターンとの尤度を局所尤度列を求
めつつ評価して、最も尤度の高い音声標準パターン、あ
るいは上位複数個の音声標準パターンに対応する文字列
を特定して出力していく音声認識装置において、 認識結果の文字列を分割するとともに、求められた局所
尤度列を該分割に対応して分割する分割部(12)と、 上記分割部(12)により分割された各局所尤度列の代表値
を算出することで、上記分割部(12)により分割された各
文字部分に対応付けられる尤度を算出する算出部(13)と
を備え、 認識結果の文字列を出力していくときに、上記算出部(1
3)により算出された尤度を対応する文字部分に関連付け
て出力していくよう処理することを、 特徴とする音声認識装置。 - 【請求項2】 請求項1記載の音声認識装置において、 分割部(12)は、時間を基準として認識結果の文字列を分
割していくよう処理することを、 特徴とする音声認識装置。 - 【請求項3】 請求項1記載の音声認識装置において、 分割部(12)は、音素又は音節を基準として認識結果の文
字列を分割していくよう処理することを、 特徴とする音声認識装置。 - 【請求項4】 請求項1、2又は3記載の音声認識装置
において、 認識結果の文字列を出力していくときに、算出部(13)に
より算出された尤度の内の相対的に高い1つ又は複数の
尤度と、該尤度に対応付けられる文字部分との双方又は
いずれか一方を、他の文字部分についての出力形態とは
異なる出力形態で出力していくよう処理することを、 特徴とする音声認識装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP3324930A JPH05158493A (ja) | 1991-12-10 | 1991-12-10 | 音声認識装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP3324930A JPH05158493A (ja) | 1991-12-10 | 1991-12-10 | 音声認識装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPH05158493A true JPH05158493A (ja) | 1993-06-25 |
Family
ID=18171203
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP3324930A Pending JPH05158493A (ja) | 1991-12-10 | 1991-12-10 | 音声認識装置 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPH05158493A (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008257042A (ja) * | 2007-04-06 | 2008-10-23 | Nippon Telegr & Teleph Corp <Ntt> | 音声信号レベル表示装置およびその方法 |
| JP2021089376A (ja) * | 2019-12-05 | 2021-06-10 | Tvs Regza株式会社 | 情報処理装置及びプログラム |
-
1991
- 1991-12-10 JP JP3324930A patent/JPH05158493A/ja active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008257042A (ja) * | 2007-04-06 | 2008-10-23 | Nippon Telegr & Teleph Corp <Ntt> | 音声信号レベル表示装置およびその方法 |
| JP2021089376A (ja) * | 2019-12-05 | 2021-06-10 | Tvs Regza株式会社 | 情報処理装置及びプログラム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US6671669B1 (en) | combined engine system and method for voice recognition | |
| JP3762327B2 (ja) | 音声認識方法および音声認識装置および音声認識プログラム | |
| US5794196A (en) | Speech recognition system distinguishing dictation from commands by arbitration between continuous speech and isolated word modules | |
| US6836758B2 (en) | System and method for hybrid voice recognition | |
| US6058363A (en) | Method and system for speaker-independent recognition of user-defined phrases | |
| EP2048655A1 (en) | Context sensitive multi-stage speech recognition | |
| CN1639768B (zh) | 自动语音识别方法及装置 | |
| CN112750445B (zh) | 语音转换方法、装置和系统及存储介质 | |
| EP1734509A1 (en) | Method and system for speech recognition | |
| JPH07219579A (ja) | 音声認識装置 | |
| JP2996019B2 (ja) | 音声認識装置 | |
| JPH05158493A (ja) | 音声認識装置 | |
| JPH07230293A (ja) | 音声認識装置 | |
| JP2001005483A (ja) | 単語音声認識方法及び単語音声認識装置 | |
| JP3291073B2 (ja) | 音声認識方式 | |
| JP2752981B2 (ja) | 音声認識装置 | |
| JP3097134B2 (ja) | Dpマッチング法 | |
| JPH0635495A (ja) | 音声認識装置 | |
| JPH09305195A (ja) | 音声認識装置および音声認識方法 | |
| JPH07281694A (ja) | ワードスポッティング機能を有する単語音声認識方法 | |
| JPS6312000A (ja) | 音声認識装置 | |
| JP2000056794A (ja) | 音声認識システム及び記録媒体 | |
| JPH0632006B2 (ja) | 音声認識装置 | |
| JP2002287781A (ja) | 音声認識装置 | |
| JPS5962900A (ja) | 音声認識方式 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20010213 |