JPH03111900A - 音声認識方法 - Google Patents

音声認識方法

Info

Publication number
JPH03111900A
JPH03111900A JP1251170A JP25117089A JPH03111900A JP H03111900 A JPH03111900 A JP H03111900A JP 1251170 A JP1251170 A JP 1251170A JP 25117089 A JP25117089 A JP 25117089A JP H03111900 A JPH03111900 A JP H03111900A
Authority
JP
Japan
Prior art keywords
pattern
recognition
similarity
vector
standard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1251170A
Other languages
English (en)
Other versions
JP2613108B2 (ja
Inventor
Ryuichi Oka
隆一 岡
Hiroshi Matsumura
松村 博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Sanyo Electric Co Ltd
Original Assignee
Agency of Industrial Science and Technology
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology, Sanyo Electric Co Ltd filed Critical Agency of Industrial Science and Technology
Priority to JP1251170A priority Critical patent/JP2613108B2/ja
Publication of JPH03111900A publication Critical patent/JPH03111900A/ja
Application granted granted Critical
Publication of JP2613108B2 publication Critical patent/JP2613108B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は音声認識方式に関し、更に詳述すればベクトル
場のパターンを利用して得た標準パターンと、同じく認
識対象音声に対応する特徴パターンとの類似度の計算に
係るものである。
〔従来技術〕
音声認識は、一般に、認識させるべき単語から特徴を抽
出して得た音声の標準パターンを単語夫々に用意してお
き、認識対象として入力された音声から同様にして抽出
した特徴パターンと複数の標準パターンとを整合し、最
も類偵性が高い標準パターンを求め、この標準パターン
に係る単語が入力されたものと判定する方式をとってい
る。そして、従来は上記特徴パターンとして、音声信号
を分析して得られる、時間軸を横軸、空間軸を縦軸とす
るスカラー場の時空間パターンそのものを用いていた。
このようなスカラー場の時空間パターンとしては、周波
数を空間軸とするスペクトルが代表的なものであり、こ
の他、ケフレンシーを空間軸とするケプストラム、PA
RCOR係数、LSP 係数、声道断面積関数等種々の
時空間パターンが用いられていた。
また、音声認識の分野において解決すべき課題の1つと
して多数話者又は不特定話者への対応があり、これには
1つの単語に多数の標準パターンを用意することで認識
率の向上を図っていた。更に、話者が同一であっても発
音速度が異なることがあり、このような場合にも対応で
きるように時間軸変動を吸収し得るDPマツチング法が
開発されていた。
スカラー場での時空間パターンそのものを用いる従来の
方式では、大語粟又は不特定話者を対象とした場合、必
ずしも十分な認識率が得られておらず、たとえ、上述の
如く1つの単語に多数の標準パターンを用意したり、あ
るいは叶マツチング法を用いても、これらは本格的な解
決にはならなかった。
従って、大語霊又は不特定話者を対象とした音声認識シ
ステムの実用化が停滞しているのである。
そこで、本発明者の1人は、特開昭60−59394号
公報において、時間−周波数の時空間パターンであるス
カラー場のスペクトルを空間微分してスペクトルベクト
ル場パターンを得、このパターンを音声の特徴として用
いる手法を提案した。そしてそれを更に一歩進め音節認
識、単語認識に適し、また高い認識率が得られるような
音声の特徴抽出方式、音声認識方式を、本発明者等は特
願昭62−248915号、特願昭62−136377
号によって提案した。
この音声認識方式の基本適な特徴は、音声信号から時間
軸及び空間軸で規定されるスカラー場の時空間パターン
を得、該時空間パターンを空間機。
分することにより空間の各格子点で大きさと方向をもつ
ベクトル場パターンに変換し、該ベクトル場パターンの
ベクトルについて、その方向パラメータをN個(N:整
数)に量子化し、この量子化値を同じくするベクトル毎
に各々分離して、そのベクトル、の大きさを各格子点の
値としたN個の方向別2次元パターンを作成し、該方向
別2次元パターンによって予め作成しておいた標準パタ
ーンと、認識対象として入力された音声信号によって得
た前記方向別2次元パターンである特徴パターンとの類
似度を計算して入力音声を識別する点にある。
〔発明が解決しようとする課題〕
上述の音声認識方式は高い単語認識率を得ることができ
るが、より困難な単音節認識を高認識率で行わせること
が課題となっていた。
本発明は斯かる課題を達成することを目的としてなされ
たものである。
〔課題を解決するための手段〕
本発明に係る音声認識方式は、音声信号から時間軸及び
空間軸で規定されるスカラー場の時空間パターンを得、
該時空間パターンを空間微分することにより空間の各格
子点で大きさと方向をもっベクトル場パターンに変換し
、該ベクトル場パターンのベクトルについて、その方向
パラメータをN個(N:整数)に量子化し、この量子化
値を同じくするベクトル毎に各々分離して、そのベクト
ルの大きさを各格子点の値としたN個の方向別2次元パ
ターンを作成し、該方向別2次元パターンによって予め
作成しておいた標準パターンと、認識対象として入力さ
れた音声信号によって得た前記方向別2次元パターンで
ある特徴パターンとの類似度を計算して入力音声を識別
する音声認識方式において、標準パターン及び特徴パタ
ーン夫々の前記方向ごとに類似度の計算を行うことを特
徴とする。
また、この方向ごとの計算を方向別2次元パターンの時
間軸方向の単位ごとに行うことを特徴とする。
〔作用〕
特徴抽出は方向別に分離して行われている。従って方向
別のスペクトルベクトル場ではスペクトルの同様の変化
が抽出されていることになる。従って方向別に類似度計
算を行うと、標準パターンと特徴パターンの類似度をよ
り正確に求めることができる。更に時間軸方向の単位ご
とに類似度計算を行うと、特徴抽出の際の処理に際して
行われる正規化のくずれの影響が少なくなり、これによ
り正確な類似度が求められる。
〔実施例〕
以下本発明をその実施例を示す図面に基づいて詳述する
第1図は本発明方式を実施するための装置の構成を示す
ブロック図である。この実施例では分析部で音声信号を
スペクトル分析してスカラー場の時空間パターンとして
、周波数軸を空間軸とするスペクトルを用いている。
標準パターン作成のための音声の入力又は認識対象の音
声の入力はマイクロホン等の音声検出器及びA/D &
換器からなる音声入力部1によって行われ、これによっ
て得られた音声信号は通過周波数帯域を夫々に異にする
複数チャネル(例えば10〜30)のバンドパスフィル
タを並列的に接続してなる分析部2に入力される。分析
部では、分析の結果、時空間パターンが得られ、このパ
ターンが単語区間切出部3によって認識単位の単語ごと
に区分されて特徴抽出部4へ与えられる。単語区間切出
部3としては従来から知られているものを用いればよい
なお周波数帯域ごとに音声信号を分割する分析部として
、以後の説明においては、上記した如くバンドパスフィ
ルタ群を用いることとするが、高速フーリエ変換器を用
いてもよい。
特徴抽出部4への入カバターンは横軸を時間軸、縦軸を
周波数とする時空間パターンであり、単語区間切出部3
によって切出された第2図に示す時空間パターンをr 
(t、x)  (但しtはサンプリングの時刻を示す番
号、Xはバンドパスフィルタのチャネル番号又は周波数
帯域を特定する番号。
1≦t≦T、1≦X≦L)と表す。
単語区間切出部3出力は特徴抽出部4の正規化部41へ
入力され、正規化部41は時間軸の線形正規化をする。
これは単語の長短1人力音声の長短等をある程度吸収す
るためであり、時間軸をTフレームからMフレーム(例
えば16〜32フレ一ム程度)にする。具体的にはM≦
Tの場合は、正規化した時空間パターンF(t、x)は
下記(1)弐で求められる。
但し1≦L≦M そして、M>Tである場合は F (t、x) = f l、x)   ”(2)但し
j = (T/M)  ・t としてt=1〜Mまで計算すればよい。
第3図はこのようにして正規化した時空間パターンF(
t、x)を示す。
なお上記実施例は線形正規化の場合であるが、非線形正
規化を行う場合は例えばf (t、x)のスペクトルベ
クトル場を次に説明するのと同様の方法で求め、このベ
クトル場密度を一定とするヘクトル場密度イコライゼイ
ション等を用いればよい。
正規化した時空間パターンはスペクトル場抽出部42に
おいて下記のようにしてスペクトルベクトル場の抽出が
行われる。このスペクトルベクトル場は第1表に示す如
き正規化された時空間パターンの各格子点(t、x)の
8近傍の値を用いて算出される。
第  1  表 X = F (t+1.x+1)  +2F(t+1.
x)  + F (t+1.x−1)−F (t−1,
x+1) −2P(t−1,x)  −F (t−1,
x−1)Y = F (t−1,x+1)  +2F(
t、x+1)  + F (t+1.x+1)F(t−
1,x−1) −2P(t、x−1)  −F(t+1
.x−1)r =J X2+Y”    −(5)・・
・(3) ・・・(4) θ=  jan−’         ・・・(6)と
して3 (r、  θ)で示されるのがスペクトルベク
トル場パターンである。
(3)〜(6)式について少し説明を加えるとXは対象
データの時間軸方向の増分を周波数軸方向に重み付けを
して求めた値であり、時間軸方向の微分値、つまり時間
軸方向の変化指標と言うことができる。
Yは同様に周波数軸方向の微分値、つまり周波数軸方向
の変化指標と言うことができる。
これらの2つの指標を直交座標とするベクトル場におい
て、rはベクトルの大きさ、θはベクトルの方向を表す
次にこのスペクトルベクトル場パターンS(r。
θ)から方向別2次元パターン作成部43において方向
別2次元パターンが作成される。即ち、先ず、ベクトル
場パターンの全ての格子点のベクトルについて、その方
向パラメータθをN値に量子化する。第4図はN=8の
場合の量子化例を説明するための図であり、第2表のよ
うにθとNは対応する。
(以 下 余 白) 第 表 次に全ての格子点のベクトルがら、方向の量子化値であ
るN値を同じくするベクトルを、N値毎に分離して各々
取り出し、そのベクトルの大きさを各格子点の値とした
N個の方向別2次元パター7 H(1+L θ)を作成
する。第5図がこの方向別2次元パターンの模式図であ
って、Nの値が該当する位置にのみrが存在し、他の位
置は0となっている。(3)、 (4)式から理解され
るようにX、 Yの算出には8近傍が必要であるので、
算出されるS(r、  θ)は第3図におけるt=1.
t=Mの列、及びx=1.x=Lの行については算出さ
れない。
従ってこの方向別2次元パターンH(t、x、θ)では
時間軸方向はM−2列、周波数軸方向はL−2行となる
なお、Nの値は8に限るものではない。
さて以上のように作成した方向別2次元パターンH(t
、χ、θ)に対してボカシ処理部5にてボカシ処理を行
う。ボカシ処理は、処理対象のパターンを、その位置に
応じて重みづけした9近傍のマスクパターンを乗するこ
とにより行われボカシ処理後の方向別2次元パターンを H(t、x、  θ)とすると ・・・(7) として表すことができる。
ここにおいてωj(J・θ〜8)はボカシ処理のマスク
パターンであり、例えば下記(8) (9)の如き値を
有し、中心のω。が処理対象データの位置に、またω1
〜ω6が8近傍位置のデータに対応する。
時間 時間 また (α。
β、 ) j・θ〜8 は第3表のとおり である。
(以 下 余 白) 第 3 表 この(αj、βJ)は、ω。を対応させる対象データの
位置、鮪〜ω8を、対応させる8近傍のデータの位置を
各特定するものである。
(8)、 (9)式の意味する処は時間軸方向のボヵシ
処理を周波数軸方向のボヵシ処理に比して積極的に行う
にある。
そして男性又は女性の一方の性のみの音声の特徴抽出を
行うのに用いる場合には(8)式のように周波数軸方向
のボカシ処理は行わず、男性5女性の両方の性の音声の
特徴抽出を行う場合は(9)式のように周波数軸方向の
ボカシ処理も少し行う。
ポカシ処理をすることで抽出した特徴はその抽出に用い
た音声固有の特徴の変動が小さくなったものとなる。つ
まり、話者が異なることや、発生速度の異なりによって
生ずる特徴の時空間的変動の安定化が図れるのである。
従ってこれを標準パターンとし、或いは未認識パターン
とする場合には音声認識率の向上が図れるのである。
然るところ時間軸方向のボカシ処理を積極的に行うのは
時間軸は発声速度に係り、発声時及び発声者によって大
きく変動するからであり、この変動の悪影響を排除する
ためである。
また両方の性の音声の場合は男性と女性とで周波数分布
が異なり、これによる変動の悪影響を周波数軸も同時に
ボカシ処理することによって排除するためである。
なおボカシ処理は(7)式に従い複数回反復するのがよ
いが、一方の性のみの場合は(8)式に示されるように
時間軸のみのボカシ効果をもつボカシ処理を4〜7回程
度、両方の性の場合は(9)弐に示されるように時間軸
へのボカシの重みの174〜1/8程度の空間軸の重み
を同時にもつ時空間のボカシ処理を、それぞれ、4回程
度繰り返し行うことが適当である。
このようにして予め各種単語について抽出した特徴は標
準パターンとしてこれを特定するデータと共に標準パタ
ーン格納部6へ格納される。そして認識の際には認識対
象として入力された音声について得られたボカシ処理部
5出力の特徴パターンと、標準パターン格納部6内の標
準パターンの夫々とにつき計算部7において類似度の計
算を行い、最も類僚する標準パターンを特定するデータ
を認識結果として出力する。
而して本発明の第1の方式は次に述べる類似度計算に特
徴を有している。これを要約すると、まず第5図に示す
如きNのパターンの夫々について、特徴パターンと標準
パターンとの類似度計算を行う。この計算には市街地距
離Dc、ユークリッド距離り0.相関係数Cが類似度判
定の指標として用いられる。限定するものではないが相
関係数Cによる場合は最も高い認識率が得られる。更に
本発明の第2の方式ではNの方向ごとに、更に時間軸の
単位、っまり1フレームごとに同様の計算を行う。
次にDC,D、、Cについて説明する。
市街地路!IDcは比較するパターン同士の同位置の差
の絶対値の総和であり、計算が簡単であるという利点を
有している。
ユークリッド距離り、は比較するパターン同士の数学的
に正確な距離を指す。
相関係数Cは比較するパターンのR4Q度を表す指標で
ある。
標準パターンをZ!  (un  X* θ)、認識対
象音声の特徴パターンを1 (t、X、θ)とすると本
発明の第1方式に係るN方向ごとの計算では以下のよう
に表される。
D、=Σ4Σ (1(t、X、  θ)−Z!  (t
、X。
@    LIK θ))2 また第2方式に係るフレームごとの計算は以下のように
表せる。
但し、T′はフレーム総数(−M−2)更にT’ xX
xN次元ベクトルとしての計算を行う(以下第1比較方
式という)場合は以下のように表せる。(但しXはXの
総数(−L−2))この場合は市街地距離も計算でき、 D=−、E、jノ(t、 X、θ)−Z+(L、χ・θ
)また、T′個のフレームごとに計算する(以下第2比
較方式という)場合は以下のように表せる。
次にこれら4つの方式の優劣を比較するために行った実
験について説明する。実験は離散発生された日本語の単
音節101種類について行われた。
発声は成人男性によって行われたものであり、平。
均発声長は440m5ecである。
音声入力部1におけるA/D変換は12bitの精度、
またサンプリング周波数12.5kHzで行った。
分析部2におけるフィルタは20チヤンネルのバンドパ
スフィルタによる。またフレーム間隔ハ5.12n+s
ecである。これらの仕様により正規化して得た2次元
音声パターンは 32 (=T’ ) xlB (=X) x8 (=N
)である。
実験1 10人のデータで標準パターンを1個作り、同
じ10人が発声した音声の認識を行わせるクローズ(c
lose)話者実験実験n  29人分のデータで標準
パターンを1個作り、これとは別の1人が発声した音 声の認識を行わせるオープン(open)話者実験 実験■ 1人が発声した10回分のデータで標準パター
ンを1個つくり、同じ10回分のデータを認識する特定
話者のクローズ データの実験(但し話者2名分) 実験IVI人が発声した9回分のデ、−夕で標準パター
ン、を1個作り、別の1人が発声した音声の認識を行う
特定話者2名の オーブンデータの実験 これらの実験■〜■について前述の類似度計算の結果を
第4表に示す。
(以 下 余 白) 第 麦 以上の実験結果によれば同計算式による市街地距離Dc
を除き、実験1〜Nのいずれにおいても本発明の第1.
第2方式が第1.第2比較方式より高い認識率を得てお
り、また、実験■の相関係数Cを除き第2方式か第1方
式より高い認識率を得ている。
更に本発明の第1.第2方式においては、ユークリッド
距離り、よりも相関係数Cの方が認識率が高い。
本発明方式の基礎となる特願昭62−248915号。
同62−136377号の音声認識方式は第1.第2比
較方式の結果に示すように単音節においても高い認識率
を得させるものであるが、本発明の第1.第2方式によ
れば、−層高い認識率が実現できるものである。
本発明の如く方向ごとに類僚度計算を行うことで、高い
認識率が得られるのは前述したようにスペクトルベクト
ル場が方向別のものとなっているためであると考えられ
る。また更にフレームごとに計算を行うと高い認識率が
得られるのは前述のボカシ処理の影響を回避できるから
と考えられる。
即ち、フレーム毎の処理による方がボカシ処理に伴う正
規化のくずれによる影響が少ないと考えられる。
さらに相関係数Cにより高い認識率が得られるのは単音
節認識特存の効果であると考えられる。
即ち、一般にスペクトルで音声認識を行う場合には、ス
ペクトルパターンを求める段階で音の大きさの正規化を
フレームごとに行っている。これによって直流分が除去
される。前述の実験では以下のような計算でこれを行っ
ている。
フレームごとに 1ogA、  +logA2  +=   +logA
、)  /20=八八(但し^1〜A、。は20チヤネ
ルのフィルタ夫々の原出力) として、 B+=IogA+   AAB2=IogA
2    AA Bzo=10gAzo−八A を1つのフレームの20のチャネルのフィルタの各出力
としている。即ち、第2図のスペクトルの時空間パター
ンf (t、x)はBt−Bzoがtフレーム分集まっ
たものである。
この処理を行えば、スペクトルを用いて音声認識する場
合はDC,D、、Cのいずれを用いてもほぼ同様の結果
となる。ところが、方向別に分離して、更にはボカシ処
理を行うので、前記正規化でフレームごとに正規化され
ている状態がくずれてしまう。この傾向は、単語認識よ
りも単音節認識のときに顕著である。
即ち、単語認識では母音部(安定状態)が長い(多い)
ため、ボカシ処理の影響が出にくいが、単音節では、前
に位置する子音部即ち、ベクトル場が変化する部分が、
単語よりも時間的に多いためと考えられる。そこで、類
似性を計算する相関係数が単音節認識でよい結果が得ら
れるのである。
〔発明の効果〕
以上の如く本発明方式による場合は極めて認識が困難な
単音節認識、しかも成人男性の発声による場合も極めて
高い認識等が得られることとなる。
【図面の簡単な説明】
第1図は本発明方式を実施するための装置の構成を示す
ブロック図、第2図は時空間パターンの模式図、第3図
は正規化された時空間パターンを示す模式図、第4図は
ベクトル方向量子化の説明図、第5図は方向別2次元パ
ターンの模式図である。 4・・・特徴抽出部 5・・・ボカシ処理部 6・・・
標準パターン格納部 7・・・計算部 41・・・正規
化部42・・・スペクトルベクトル場抽出部 43・・
・方向別2次元パターン作成部 特 許 出願人 工業技術院長 杉浦  賢 外1名復
代理人並びに代理人 弁理士  河 野 登 夫1 第 図 第 図 第 図 −2 第 図

Claims (1)

  1. 【特許請求の範囲】 1、音声信号から時間軸及び空間軸で規定されるスカラ
    ー場の時空間パターンを得、該時空間パターンを空間微
    分することにより空間の各格子点で大きさと方向をもつ
    ベクトル場パターンに変換し、該ベクトル場パターンの
    ベクトルについて、その方向パラメータをN値(N:整
    数)に量子化し、この量子化値を同じくするベクトル毎
    に各々分離して、そのベクトルの大きさを各格子点の値
    としたN個の方向別2次元パターンを作成し、該方向別
    2次元パターンによって予め作成しておいた標準パター
    ンと、認識対象として入力された音声信号によって得た
    前記方向別2次元パターンである特徴パターンとの類似
    度を計算して入力音声を識別する音声認識方式において
    、標準パターン及び特徴パターン夫々の前記方向ごとに
    類似度の計算を行うことを特徴とする音声認識方式。 2、前記方向ごとの類似度計算を前記方向別2次元パタ
    ーンの時間軸方向の単位ごとに行うことを特徴とする請
    求項1記載の音声認識方式。
JP1251170A 1989-09-27 1989-09-27 音声認識方法 Expired - Lifetime JP2613108B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1251170A JP2613108B2 (ja) 1989-09-27 1989-09-27 音声認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1251170A JP2613108B2 (ja) 1989-09-27 1989-09-27 音声認識方法

Publications (2)

Publication Number Publication Date
JPH03111900A true JPH03111900A (ja) 1991-05-13
JP2613108B2 JP2613108B2 (ja) 1997-05-21

Family

ID=17218721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1251170A Expired - Lifetime JP2613108B2 (ja) 1989-09-27 1989-09-27 音声認識方法

Country Status (1)

Country Link
JP (1) JP2613108B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158496A (ja) * 1987-09-30 1989-06-21 Agency Of Ind Science & Technol 音声の特徴抽出方式

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158496A (ja) * 1987-09-30 1989-06-21 Agency Of Ind Science & Technol 音声の特徴抽出方式

Also Published As

Publication number Publication date
JP2613108B2 (ja) 1997-05-21

Similar Documents

Publication Publication Date Title
CN109767756B (zh) 一种基于动态分割逆离散余弦变换倒谱系数的音声特征提取算法
CN112201255A (zh) 语音信号频谱特征和深度学习的语音欺骗攻击检测方法
Deshmukh et al. Speech based emotion recognition using machine learning
US8489404B2 (en) Method for detecting audio signal transient and time-scale modification based on same
US9704505B2 (en) Audio signal processing apparatus and method
CN115691539B (zh) 基于视觉导引的两阶段语音分离方法及系统
CN108520756A (zh) 一种说话人语音分离的方法及装置
EP0292929B1 (en) Method of feature extraction and recognition of voice and recognition apparatus
Zheng et al. Improving the spectra recovering of bone-conducted speech via structural similarity loss function
Singh et al. Novel feature extraction algorithm using DWT and temporal statistical techniques for word dependent speaker’s recognition
Wolf et al. Audio source separation with time-frequency velocities
JPH03111900A (ja) 音声認識方法
Chougule et al. Channel robust MFCCs for continuous speech speaker recognition
US7454337B1 (en) Method of modeling single data class from multi-class data
GB2216320A (en) Selective addition of noise to templates employed in automatic speech recognition systems
JPH01158496A (ja) 音声の特徴抽出方式
CN120748414B (zh) 一种基于人工智能的语音处理方法
CN120412651B (zh) 一种通过静音去除实现口语评测效率提升的方法
CN112562726B (zh) 一种基于mfcc相似矩阵的语音音乐分离方法
Biswas et al. Audio visual isolated Hindi digits recognition using HMM
Sarma et al. Speaker change detection using excitation source and vocal tract system information
JPH0330159B2 (ja)
Diener et al. Codebook clustering for unit selection based EMG-to-speech conversion.
CN109903777B (zh) 一种基于元音谱空间衰减率的异常说话人与正常说话人区分方法
Mishra et al. HINDI SPEECH AUDIO VISUAL FEATURE RECOGNITION

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080227

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090227

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 13

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 13