JP2000209663A - Method for transmitting non-voice information in voice channel - Google Patents

Method for transmitting non-voice information in voice channel

Info

Publication number
JP2000209663A
JP2000209663A JP2766A JP2000002766A JP2000209663A JP 2000209663 A JP2000209663 A JP 2000209663A JP 2766 A JP2766 A JP 2766A JP 2000002766 A JP2000002766 A JP 2000002766A JP 2000209663 A JP2000209663 A JP 2000209663A
Authority
JP
Japan
Prior art keywords
information
voice
output
codebook
vocoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2766A
Other languages
Japanese (ja)
Inventor
A Benno Stephen
エー.ベンノ スティーブン
Charles Ricchion Michael
チャールズ リッチオン マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia of America Corp
Original Assignee
Lucent Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lucent Technologies Inc filed Critical Lucent Technologies Inc
Publication of JP2000209663A publication Critical patent/JP2000209663A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Transmitters (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance transmission of data, especially a non-voice signal data through a radio voice channel. SOLUTION: Information is transmitted by bits assigned to an output of one or both code books by setting a gain of a concerned code book to zero. A receiver side VOCODER does not interpret the output of the code book whose gain is set to zero. According to this system, the information can further be transmitted to a VOCODER 10 with a completely transparent method. As an application of this technology where a 'secret' message is transmitted, a parameter to generate a non-voice signal may be transmitted. For example, the information to generate a call waiting tone, a DTMF tone or a TTY/TDD character is imbedded secretly to a compressed bit stream, from which a non-voice tone can be regenerated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、通信に関し、特
に、無線音声チャネルにおけるデータの送信に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to communications, and more particularly, to the transmission of data on a wireless voice channel.

【0002】[0002]

【従来の技術】音声信号を圧縮するために音声エンコー
ダ/デコーダ(ボコーダ)が用いられ、通信チャネル上
の伝送バンド幅を減らしている。呼び当たりのバンド幅
を減らすことによって、同じチャネル上の呼びを増やす
ことができる。符号励起線形予測(CELP)ボコーダ
として知られる種類のボコーダがあり、これらボコーダ
においては、音声は一連のフィルターによりモデル化さ
れている。これらフィルターのパラメータは元の音声よ
りも遙かに少ないビット数で送ることができる。
2. Description of the Related Art Speech encoders / decoders (vocoders) are used to compress speech signals, reducing the transmission bandwidth on communication channels. By reducing per-call bandwidth, calls on the same channel can be increased. There is a type of vocoder known as a code-excited linear prediction (CELP) vocoder in which speech is modeled by a series of filters. The parameters of these filters can be sent with far fewer bits than the original speech.

【0003】また、これらフィルターに入力(励起)を
送り、元の音声を再構築する必要がある。励起を直接送
るのには多すぎるバンド幅が必要なので、励起を少ない
数の非ゼロパルスで置き換えることにより粗い(crud
e)近似を行う。これらパルスの位置は非常に少ないビ
ット数で送ることができ、この元の励起に対するクルー
ド近似は高品質音声を再生するために適切である。この
励起は、固定したコードブック貢献および対応するゲイ
ンで表される。また、音声に存在する擬似周期性は、適
用性コードブック出力と対応するゲインで表される。固
定コードブック出力とその対応するゲイン、適用性コー
ドブック出力とその対応するゲイン、フィルターパラメ
ータ(線形予測コーダパラメータとしても知られる)が
エンコードされた音声信号を表すために送られる。
Further, it is necessary to send an input (excitation) to these filters to reconstruct the original sound. Because too much bandwidth is required to send the excitation directly, coarser replacement of the excitation with a smaller number of non-zero pulses can be used.
e) Perform approximation. The positions of these pulses can be sent with a very small number of bits, and a crude approximation to this original excitation is appropriate for reproducing high quality speech. This excitation is represented by a fixed codebook contribution and the corresponding gain. Also, the pseudo-periodicity existing in the voice is represented by the gain corresponding to the output of the applicability codebook. A fixed codebook output and its corresponding gain, an adaptive codebook output and its corresponding gain, and filter parameters (also known as linear prediction coder parameters) are sent to represent the encoded audio signal.

【0004】ボコーダは、その特性をモデル化し、音声
自体を送るよりも遙かに少ないビット数でそのパラメー
タを送ることにより音声を圧縮するように初期には設計
されていた。無線電話が一般的になるにつれ、ボイスメ
ールにアクセスすることや呼び待ち音を受けることのよ
うな伝統的な地上電話で用いられるように、人々は無線
電話を非音声アプリケーションの同じ領域で用いること
を益々期待している。最近になり、米国連邦通信委員会
(FCC)は、デジタルセルラー電話を用いる聴覚障害
者用テキスト電話(TTY/TDD)を規定した。
[0004] Vocoders were initially designed to model their characteristics and compress speech by sending its parameters with far fewer bits than sending the speech itself. As wireless telephones become more common, people use wireless telephones in the same area of non-voice applications as they are used in traditional terrestrial telephones, such as accessing voicemail and receiving calls. I expect more and more. More recently, the United States Federal Communications Commission (FCC) has defined a text telephone for the deaf (TTY / TDD) using a digital cellular telephone.

【0005】[0005]

【発明が解決しようとする課題】非音声アプリケーショ
ンにまつわる問題として、それらのボコーダの音声モデ
ルに合致しないことがある。非音声信号がボコーダによ
って処理される場合、デコードされた結果は必ずしも満
足いくものではない。また、この問題は無線電話がエラ
ーに弱い環境にて稼働することにより更に悪くなってい
る。伝送エラーから回復するために、ボコーダがランダ
ムエラーから回復するために音声モデルに依存する。こ
のように、非音声信号はこのモデルに合致せず再構築は
適切ではなくなってしまう。
A problem with non-speech applications is that they do not match the vocoder's speech model. If the non-speech signal is processed by a vocoder, the decoded result is not always satisfactory. This problem is further exacerbated by the fact that wireless telephones operate in error-prone environments. To recover from transmission errors, the vocoder relies on a speech model to recover from random errors. Thus, non-speech signals do not fit this model and reconstruction is not appropriate.

【0006】[0006]

【課題を解決するための手段】本発明は、対応するコー
ドブックのゲインをゼロにセットすることにより、一方
または両方のコードブック出力に割り当てられたビット
で情報を送る。ゲインをゼロにセットすることにより、
コードブックの出力は受け側ボコーダによって解釈され
ない。この方式により、ボコーダに完全に透過性のある
方法で更なる情報を送ることが可能になる。「秘密」メ
ッセージを送るこの技術のアプリケーションとして、非
音声信号を生成するパラメータを送ることがある。例え
ば、呼び待ちトーン、DTMFトーン、またはTTY/
TDD文字を生成する情報を圧縮ビットストリームに秘
密的に(clandestinely)埋め込み、非音声トーンを再
生成することができる。
SUMMARY OF THE INVENTION The present invention sends information in bits assigned to one or both codebook outputs by setting the gain of the corresponding codebook to zero. By setting the gain to zero,
The output of the codebook is not interpreted by the receiving vocoder. This scheme allows the vocoder to send more information in a completely transparent manner. An application of this technique to send a "secret" message is to send a parameter that produces a non-voice signal. For example, call waiting tone, DTMF tone, or TTY /
The information that generates the TDD characters can be clandestinely embedded in the compressed bitstream to regenerate non-voice tones.

【0007】[0007]

【発明の実施の形態】図1は、典型的なボコーダのブロ
ック図を示す。ボコーダ10は入力12にてデジタル化
した音声を受信する。このデジタル化した音声はA/D
変換器を通過したアナログ音声信号であり、典型的には
20msのオーダの各フレームへと分けられている。入
力12における信号はエンコーダ部14にわたされ、こ
れは音声伝送に用いられるバンド幅量を減らすために音
声をエンコードする。エンコードされた音声は出力16
にて利用可能となる。
FIG. 1 shows a block diagram of a typical vocoder. Vocoder 10 receives digitized audio at input 12. This digitized audio is A / D
An analog audio signal that has passed through a converter and is typically divided into frames of the order of 20 ms. The signal at input 12 is passed to an encoder section 14, which encodes the audio to reduce the amount of bandwidth used for audio transmission. The encoded audio is output 16
It will be available at.

【0008】エンコードされた音声は通信チャネルの他
端における同様なボコーダのデコーダ部によって受信さ
れる。通信チャネルの他端におけるデコーダは、ボコー
ダ10のデコーダ部と同様ないし同一である。各音声は
入力18を介してボコーダ10によって受信され、デコ
ーダ部20へとわたされる。デコーダ部20は、送信ボ
コーダから受信したエンコードされた信号を用いて出力
22にてデジタル化した音声を作る。
The encoded speech is received by a similar vocoder decoder at the other end of the communication channel. The decoder at the other end of the communication channel is similar or identical to the decoder section of vocoder 10. Each voice is received by the vocoder 10 via an input 18 and passed to a decoder unit 20. The decoder section 20 produces digitized audio at an output 22 using the encoded signal received from the transmitting vocoder.

【0009】ボコーダは通信分野において周知である。
例えば、ボコーダは、文献、Speechand audio coding f
or wireless and network applications, Bishnu S. At
al,Vladimir Cuperman, Allen Gersho編集, 1993, Kluw
er Academic Publishersに記載されている。ボコーダは
広く利用可能であり、Qualcomm IncorporatedやLucent
Technologies Inc.のような会社によって製造されてい
る。
[0009] Vocoders are well known in the communications arts.
For example, vocoders can use literature, Speechand audio coding f
or wireless and network applications, Bishnu S. At
al, Vladimir Cuperman, edited by Allen Gersho, 1993, Kluw
er Academic Publishers. Vocoders are widely available, including Qualcomm Incorporated and Lucent
Manufactured by companies such as Technologies Inc.

【0010】図2は、ボコーダ10のエンコーダ14の
主な機能を示す。デジタル化した音声信号は入力12に
て受けられ、線形予測コーダ40へとわたされる。線形
予測コーダはフレーム当たり1回の入音声の線形予測解
析を行う。線形予測解析はこの分野において周知であ
り、入力音声信号に基づいた声道(vocal tract)の線
形予測合成モデルを作る。このモデルを記述する線形予
測パラメータないし係数が出力16を介してエンコード
された音声信号の一部として送られる。
FIG. 2 shows the main functions of the encoder 14 of the vocoder 10. The digitized audio signal is received at input 12 and passed to linear prediction coder 40. The linear prediction coder performs a linear prediction analysis of the input speech once per frame. Linear predictive analysis is well known in the art and creates a linear predictive synthesis model of the vocal tract based on the input speech signal. The linear prediction parameters or coefficients describing this model are sent via output 16 as part of the encoded audio signal.

【0011】コーダ40はこのモデルを用いて、入力音
声信号をこのモデルが作る際に用いる励起を表す残余
(residual)音声信号を作る。この残余音声信号は出力
42にて利用可能となる。出力42からの残余音声は開
ループピッチサーチユニット50の入力48へ、適用コ
ードブックユニット72の入力へ、そして固定コードブ
ックユニット82へと与えられる。インパルス応答ユニ
ット60は線形予測コーダから線形予測パラメータを受
信し、コーダ40にて生成されたモデルのインパルス応
答を生成する。このインパルス応答は適用および固定コ
ードブックユニットにて用いられる。
The coder 40 uses this model to produce a residual speech signal that represents the excitation used by the model to produce the input speech signal. This residual audio signal is made available at output 42. The residual speech from output 42 is provided to input 48 of open loop pitch search unit 50, to the input of applicable codebook unit 72, and to fixed codebook unit 82. The impulse response unit 60 receives the linear prediction parameters from the linear prediction coder and generates an impulse response of the model generated by the coder 40. This impulse response is used in application and fixed codebook units.

【0012】開ループピッチサーチユニット50はコー
ダ40からの残余音声信号を用いてそのピッチをモデル
化し、出力52にて、ピッチ、すなわち、ピッチ周期ま
たはピッチ遅延信号と一般に呼ばれているものを与え
る。この出力52からのピッチ遅延信号およびインパル
ス応答ユニット60の出力64からのインパルス応答信
号は、適用コードブックユニット72の入力70にて受
けられる。適用コードブックユニット72はピッチゲイ
ン出力およびピッチインデックス出力を作り、これはボ
コーダ10のエンコードされた音声出力16の一部とな
る。適用コードブックユニット72の出力74は、固定
コードブックユニット82の入力80へピッチゲインピ
ッチインデックス信号をも与える。また、適用コードブ
ックユニット72は入力80へと励起信号および適用コ
ードブックターゲット信号を与える。
The open loop pitch search unit 50 models the pitch using the residual speech signal from the coder 40 and provides at output 52 the pitch, ie, what is commonly referred to as the pitch period or pitch delay signal. . The pitch delayed signal from output 52 and the impulse response signal from output 64 of impulse response unit 60 are received at input 70 of applicable codebook unit 72. The application codebook unit 72 produces a pitch gain output and a pitch index output, which becomes part of the encoded audio output 16 of the vocoder 10. Output 74 of applicable codebook unit 72 also provides a pitch gain pitch index signal to input 80 of fixed codebook unit 82. Also, the application codebook unit 72 provides an excitation signal and an application codebook target signal to an input 80.

【0013】適用コードブック72は入力12からのデ
ジタル化した音声信号および線形予測コーダ40が作ら
れた残余音声信号を用いてその出力を作る。適用コード
ブック72はデジタル化した音声信号および線形予測コ
ーダ40の残余音声信号を用いて適用コードブックター
ゲット信号を形成する。適用コードブックターゲット信
号は固定コードブックユニット82への入力として用い
られ、また、適用コードブックユニット72のピッチゲ
イン、ピッチインデックス、励起出力を作る演算手段へ
の入力として用いる。また、適用コードブックターゲッ
ト信号、開ループピッチサーチユニット50からのピッ
チ遅延信号、インパルス応答ユニット60からのインパ
ルス応答はピッチインデックス、ピッチゲイン、励起信
号を作るために用いられ、これらは固定コードブックユ
ニット82へとわたされる。これら信号が演算される方
式はボコーダの分野において周知である。
An application codebook 72 produces its output using the digitized audio signal from input 12 and the residual audio signal produced by linear prediction coder 40. The adaptive codebook 72 uses the digitized audio signal and the residual audio signal of the linear prediction coder 40 to form an adaptive codebook target signal. The applied codebook target signal is used as an input to the fixed codebook unit 82, and is also used as an input to a calculating means for generating a pitch gain, a pitch index and an excitation output of the applied codebook unit 72. Also, the applied codebook target signal, the pitch delay signal from the open loop pitch search unit 50, and the impulse response from the impulse response unit 60 are used to create a pitch index, a pitch gain, and an excitation signal, which are fixed codebook units. It is passed to 82. The manner in which these signals are computed is well known in the vocoder field.

【0014】固定コードブックユニット82は入力80
から受信した入力を用いて、固定ゲイン出力および固定
インデックス出力を作り、これらは出力16にてエンコ
ードされた音声の一部として用いられる。固定コードブ
ックユニットは線形予測コーダ40の残余音声信号の確
率的(stochastic)部分をモデル化しようと試みる。固
定コードブックサーチのターゲットは、現在の適用コー
ドブックターゲット信号と残余音声信号の間のエラーを
判断することにより作られる。固定コードブックサーチ
は、励起パルスに対する固定ゲインと固定インデックス
信号を作り、このエラーを最小化する。適用コードブッ
クユニット72からの出力を用いて固定ゲインと固定イ
ンデックス信号が計算される方式はボコーダの分野にお
いて周知である。
The fixed code book unit 82 has an input 80
Using the input received from, a fixed gain output and a fixed index output are made, which are used at output 16 as part of the encoded speech. The fixed codebook unit attempts to model the stochastic part of the residual speech signal of the linear prediction coder 40. The fixed codebook search target is created by determining the error between the currently applied codebook target signal and the residual audio signal. A fixed codebook search creates a fixed gain and fixed index signal for the excitation pulse, minimizing this error. The manner in which the fixed gain and fixed index signals are calculated using the output from the applied codebook unit 72 is well known in the field of vocoders.

【0015】スイッチ90、92は、固定コードブック
出力と適用コードブック出力をそれぞれ送るのに用いら
れるビット群に置き換わるデータを送るのに用いられ
る。これらスイッチ90,92の接点が位置Aにあれ
ば、対応するコードブック出力はデータないし他の情報
で置き換わり、対応するコードブックゲインはゼロない
しほぼゼロにセットされる。結果として、受信器におい
て作られるスケールされたコードブック出力ないし励起
はゼロないしほぼゼロになり、通常送信される音声をモ
デル化するために受信側ボコーダによって用いられるフ
ィルターに対して悪影響を与えずに済む。
Switches 90 and 92 are used to send data that replaces the bits used to send the fixed codebook output and the applied codebook output, respectively. When the contacts of these switches 90, 92 are in position A, the corresponding codebook output is replaced with data or other information and the corresponding codebook gain is set to zero or nearly zero. As a result, the scaled codebook output or excitation produced at the receiver will be zero or nearly zero, without adversely affecting the filters normally used by the receiving vocoder to model the transmitted speech. I'm done.

【0016】図3は、ボコーダ10のデコーダ部20の
機能的ブロック図を示す。エンコードされた音声信号は
エンコーダ20の入力18にて受信される。このエンコ
ードされた音声信号はデコーダ100によって受信され
る。デコーダ100は固定インデックスおよびピッチイ
ンデックス信号それぞれに対応する固定および適用コー
ドベクトルを作る。これらコードベクトルはピッチゲイ
ンおよび固定ゲイン信号とともにユニット110の励起
構築部分にわたされる。ピッチゲイン信号は、ピッチイ
ンデックス信号を用いて作られた適用ベクトルをスケー
ルするのに用いられ、固定ゲイン信号は、固定インデッ
クス信号を用いてえられた固定ベクトルをスケールする
のに用いられる。
FIG. 3 shows a functional block diagram of the decoder section 20 of the vocoder 10. The encoded audio signal is received at input 18 of encoder 20. The encoded audio signal is received by the decoder 100. Decoder 100 produces fixed and applied code vectors corresponding to the fixed index and pitch index signals, respectively. These code vectors along with the pitch gain and fixed gain signals are passed to the excitation building block of unit 110. The pitch gain signal is used to scale the application vector created using the pitch index signal, and the fixed gain signal is used to scale the fixed vector obtained using the fixed index signal.

【0017】デコーダ100は、線形予測コードパラメ
ータをフィルターにわたす。フィルターまたはユニット
110のモデル合成部分へとわたす。続いて、ユニット
110はスケールされたベクトルを用いて線形予測コー
ダが作った線形予測係数を用いて合成されたフィルター
を励起し、入力12にて元々受信したデジタル化した音
声を表す出力信号を作る。随意に、ポストフィルター1
20を用いて出力20にて作られるデジタル化した音声
信号のスペクトルを整形するのに用いることができる。
The decoder 100 passes the linear prediction code parameters to a filter. Pass to the filter or model synthesis portion of unit 110. Subsequently, unit 110 uses the scaled vector to excite the synthesized filter using the linear prediction coefficients produced by the linear prediction coder, producing an output signal representing the digitized speech originally received at input 12. . Optionally, post filter 1
20 can be used to shape the spectrum of the digitized audio signal produced at output 20.

【0018】音声情報ではなくデータが送信される場
合、ピッチインデックス(適用コードブック出力)およ
び/または固定インデックス(固定コードブック出力)
がデータを受信するのに用いられる。ユニット110に
よるフィルター合成に対しての非データ信号の影響は除
去される。なぜなら、ピッチないしコードインデックス
に対応するゲイン値がゼロであるからである。
When data is transmitted instead of voice information, the pitch index (applied codebook output) and / or the fixed index (fixed codebook output)
Is used to receive data. The effect of non-data signals on filter synthesis by unit 110 is eliminated. This is because the gain value corresponding to the pitch or chord index is zero.

【0019】このような機能的ブロック図は多くの形態
にて実装することができる。各ブロックは、マイクロプ
ロセッサやマイクロコンピュータを用いて個別に実装し
てもよいが、1つのマイクロプロセッサやマイクロコン
ピュータを用いて実装してもよい。前期会社や他の半導
体会社から利用可能なプログラマブルデジタルシグナル
プロセッシングデバイスや特殊用途デバイスを用いて機
能ブロックの一部ないし全てを実装することができる。
Such a functional block diagram can be implemented in many forms. Each block may be individually implemented using a microprocessor or a microcomputer, or may be implemented using one microprocessor or a microcomputer. Some or all of the functional blocks can be implemented using programmable digital signal processing devices or special purpose devices available from previous companies and other semiconductor companies.

【図面の簡単な説明】[Brief description of the drawings]

【図1】典型的なボコーダのブロック図。FIG. 1 is a block diagram of a typical vocoder.

【図2】ボコーダ10のエンコーダ14の主な機能を示
す図。
FIG. 2 is a diagram showing main functions of an encoder 14 of the vocoder 10;

【図3】ボコーダ10のデコーダ部20の機能的なブロ
ック図。
FIG. 3 is a functional block diagram of a decoder unit 20 of the vocoder 10.

【符号の説明】[Explanation of symbols]

10 ボコーダ 14 エンコーダ 20 デコーダ 12 音声信号 40 線形予測コーダ 50 開ループピッチサーチユニット 60 インパルス応答ユニット 72 適用コードブックユニット 82 固定コードブックユニット 20 デコーダ部 100 デコーダ 110 ユニット 120 ポストフィルター Reference Signs List 10 vocoder 14 encoder 20 decoder 12 audio signal 40 linear prediction coder 50 open loop pitch search unit 60 impulse response unit 72 applied codebook unit 82 fixed codebook unit 20 decoder unit 100 decoder 110 unit 120 post filter

───────────────────────────────────────────────────── フロントページの続き (71)出願人 596077259 600 Mountain Avenue, Murray Hill, New Je rsey 07974−0636U.S.A. (72)発明者 スティーブン エー.ベンノ アメリカ合衆国、07801 ニュージャージ ー、ドーバー、プリンストン アベニュー 53 (72)発明者 マイケル チャールズ リッチオン アメリカ合衆国、07110 ニュージャージ ー、ナッツリー、パザイック アベニュー 565 ──────────────────────────────────────────────────続 き Continuation of the front page (71) Applicant 596077259 600 Mountain Avenue, Murray Hill, New Jersey 07974-0636 U.S.A. S. A. (72) Inventor Stephen A. Benno United States, 07801 New Jersey, Dover, Princeton Avenue 53 (72) Inventor Michael Charles Richon United States, 07110 New Jersey, Knutsley, Pazaik Avenue 565

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 音声チャネル上で非音声情報を送信する
方法であって、 (A)ピッチインデックス情報の代わりに非音声情報を
送信するステップと、 (B)ほぼゼロの値のピッチゲイン値を送信するステッ
プとを有することを特徴とする方法。
1. A method of transmitting non-voice information over a voice channel, comprising: (A) transmitting non-voice information instead of pitch index information; and (B) providing a pitch gain value of substantially zero value. Transmitting.
【請求項2】 前期非音声情報は、DTMFトーン情報
であることを特徴とする請求項1記載の方法。
2. The method according to claim 1, wherein the non-voice information is DTMF tone information.
【請求項3】 前期非音声情報は、聴覚障害者用テキス
ト電話の情報であることを特徴とする請求項1記載の方
法。
3. The method according to claim 1, wherein the non-speech information is information of a text telephone for the hearing impaired.
【請求項4】 音声チャネル上で非音声情報を送信する
方法であって、 (A)固定インデックス情報の代わりに第1の非音声情
報を送信するステップと、 (B)ほぼゼロの値のインデックスゲイン値を送信する
ステップとを有することを特徴とする方法。
4. A method for transmitting non-voice information over a voice channel, comprising: (A) transmitting first non-voice information instead of fixed index information; and (B) an index of substantially zero value. Transmitting the gain value.
【請求項5】 (C)ピッチインデックス情報の代わり
に第2の非音声情報を送信するステップと、 (D)ほぼゼロの値のピッチゲイン値を送信するステッ
プとを有することを特徴とする請求項4記載の方法。
5. The method according to claim 1, further comprising the steps of: (C) transmitting second non-voice information instead of pitch index information; and (D) transmitting a pitch gain value having a value of substantially zero. Item 5. The method according to Item 4.
JP2766A 1999-01-11 2000-01-11 Method for transmitting non-voice information in voice channel Pending JP2000209663A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US22810299A 1999-01-11 1999-01-11
US09/228102 1999-01-11

Publications (1)

Publication Number Publication Date
JP2000209663A true JP2000209663A (en) 2000-07-28

Family

ID=22855803

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2766A Pending JP2000209663A (en) 1999-01-11 2000-01-11 Method for transmitting non-voice information in voice channel

Country Status (7)

Country Link
EP (1) EP1020848A2 (en)
JP (1) JP2000209663A (en)
KR (1) KR20000053407A (en)
CN (1) CN1262577A (en)
AU (1) AU6533799A (en)
BR (1) BR0000002A (en)
CA (1) CA2293165A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7310596B2 (en) 2002-02-04 2007-12-18 Fujitsu Limited Method and system for embedding and extracting data from encoded voice code

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002039762A2 (en) * 2000-11-07 2002-05-16 Ericsson Inc. Method of and apparatus for detecting tty type calls in cellular systems
JP4330346B2 (en) * 2002-02-04 2009-09-16 富士通株式会社 Data embedding / extraction method and apparatus and system for speech code
US7932851B1 (en) * 2002-10-15 2011-04-26 Itt Manufacturing Enterprises, Inc. Ranging signal structure with hidden acquisition code
US7970606B2 (en) 2002-11-13 2011-06-28 Digital Voice Systems, Inc. Interoperable vocoder
US7634399B2 (en) 2003-01-30 2009-12-15 Digital Voice Systems, Inc. Voice transcoder
EP1455509A3 (en) * 2003-03-03 2005-01-05 FREQUENTIS GmbH Method and system for speech recording
US8359197B2 (en) 2003-04-01 2013-01-22 Digital Voice Systems, Inc. Half-rate vocoder
FR2859566B1 (en) 2003-09-05 2010-11-05 Eads Telecom METHOD FOR TRANSMITTING AN INFORMATION FLOW BY INSERTION WITHIN A FLOW OF SPEECH DATA, AND PARAMETRIC CODEC FOR ITS IMPLEMENTATION
US7752039B2 (en) 2004-11-03 2010-07-06 Nokia Corporation Method and device for low bit rate speech coding
DE102007007627A1 (en) * 2006-09-15 2008-03-27 Rwth Aachen Method for embedding steganographic information into signal information of signal encoder, involves providing data information, particularly voice information, selecting steganographic information, and generating code word
US8036886B2 (en) 2006-12-22 2011-10-11 Digital Voice Systems, Inc. Estimation of pulsed speech model parameters
US11270714B2 (en) 2020-01-08 2022-03-08 Digital Voice Systems, Inc. Speech coding using time-varying interpolation
US12254895B2 (en) 2021-07-02 2025-03-18 Digital Voice Systems, Inc. Detecting and compensating for the presence of a speaker mask in a speech signal
US11990144B2 (en) 2021-07-28 2024-05-21 Digital Voice Systems, Inc. Reducing perceived effects of non-voice data in digital speech
US12451151B2 (en) 2022-04-08 2025-10-21 Digital Voice Systems, Inc. Tone frame detector for digital speech
US12462814B2 (en) 2023-10-06 2025-11-04 Digital Voice Systems, Inc. Bit error correction in digital speech

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7310596B2 (en) 2002-02-04 2007-12-18 Fujitsu Limited Method and system for embedding and extracting data from encoded voice code

Also Published As

Publication number Publication date
BR0000002A (en) 2002-01-02
CN1262577A (en) 2000-08-09
CA2293165A1 (en) 2000-07-11
KR20000053407A (en) 2000-08-25
EP1020848A2 (en) 2000-07-19
AU6533799A (en) 2000-07-13

Similar Documents

Publication Publication Date Title
EP0920693B1 (en) Method and apparatus for improving the voice quality of tandemed vocoders
JP2000209663A (en) Method for transmitting non-voice information in voice channel
KR20030076646A (en) Method and apparatus for interoperability between voice transmission systems during speech inactivity
US8340959B2 (en) Method and apparatus for transmitting wideband speech signals
CN101006495A (en) Audio encoding apparatus, audio decoding apparatus, communication apparatus and audio encoding method
JP2006099124A (en) Automatic voice/speaker recognition on digital radio channel
US8259629B2 (en) System and method for transmitting and receiving wideband speech signals with a synthesized signal
CN1200404C (en) Relative pulse position of code-excited linear predict voice coding
AU6203300A (en) Coded domain echo control
JP2003533902A5 (en)
US6633840B1 (en) Method and system for transmitting data on a speech channel
JP3722366B2 (en) Packet configuration method and apparatus, packet configuration program, packet decomposition method and apparatus, and packet decomposition program
JP2001265397A (en) Method and device for vocoding input signal
KR100542435B1 (en) Method and apparatus for concealing frame loss in packet network
JP4373693B2 (en) Hierarchical encoding method and hierarchical decoding method for acoustic signals
JP3496618B2 (en) Apparatus and method for speech encoding / decoding including speechless encoding operating at multiple rates
Choudhary et al. Study and performance of amr codecs for gsm
CN1964244B (en) A Method of Sending and Receiving Digital Signals Using a Vocoder
Viswanathan et al. Medium and low bit rate speech transmission
JPH034300A (en) Voice encoding and decoding system
Kulakcherla Non linear adaptive filters for echo cancellation of speech coded signals
GB2365297A (en) Data modem compatible with speech codecs
KR20050059572A (en) Apparatus for changing audio level and method thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040706