JP2017201415A - 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 - Google Patents
臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 Download PDFInfo
- Publication number
- JP2017201415A JP2017201415A JP2017131120A JP2017131120A JP2017201415A JP 2017201415 A JP2017201415 A JP 2017201415A JP 2017131120 A JP2017131120 A JP 2017131120A JP 2017131120 A JP2017131120 A JP 2017131120A JP 2017201415 A JP2017201415 A JP 2017201415A
- Authority
- JP
- Japan
- Prior art keywords
- subband
- prediction
- signal
- model
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
- G10L19/0208—Subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0204—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
- G06F30/32—Circuit design at the digital level
- G06F30/327—Logic synthesis; Behaviour synthesis, e.g. mapping logic, HDL to netlist, high-level language to RTL or netlist
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/032—Quantisation or dequantisation of spectral components
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/093—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using sinusoidal excitation models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/24—Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
- G10L19/265—Pre-filtering, e.g. high frequency emphasis prior to encoding
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/08—Probabilistic or stochastic CAD
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
- G10L21/0388—Details of processing therefor
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Theoretical Computer Science (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Measurement Of Radiation (AREA)
- Design And Manufacture Of Integrated Circuits (AREA)
Abstract
Description
1.単一の基本周波数Ω:S={Ων:ν=1,2,…}
2.M個の基本周波数Ω0、Ω1、…、ΩM-1:S={Ωkν:ν=1,2,…, k=0,1,…,M−1}
3.シングル・サイドのバンド・シフトされた基本周波数Ω,θ:S={Ω(ν+θ):ν=1,2,…}
4.やや非調和的なモデル:Ω,a:S={Ων・(1+aν2)1/2: ν=1,2,…} ここで、aがモデルの非調和成分を記述する。
ここで、コサイン変調されたフィルタバンクの場合、
〔態様1〕
オーディオ信号の第一のサブバンド内の第一のサブバンド信号の第一のサンプル(615)を推定する方法であって、前記オーディオ信号の前記第一のサブバンド信号は、前記オーディオ信号からそれぞれ複数のサブバンドにおける複数のサブバンド信号を提供する複数の分解フィルタを有する分解フィルタバンク(612)を使って決定され、当該方法は:
・信号モデルのモデル・パラメータ(613)を決定する段階と;
・前記第一のサブバンド信号から導出された第一の復号されたサブバンド信号の、前のサンプル(614)に適用されるべき予測係数を、前記信号モデルに基づき、前記モデル・パラメータ(613)に基づき、かつ前記分解フィルタバンク(612)に基づいて決定する段階であって、前記前のサンプル(614)の時間スロットは前記第一のサンプル(615)の時間スロットより前である、段階と;
・前記予測係数を前記前のサンプル(614)に適用することによって前記第一のサンプル(615)の推定値を決定する段階とを含む、
方法。
〔態様2〕
・前記信号モデルが、一つまたは複数の正弦波モデル成分を含み、
・前記モデル・パラメータが前記一つまたは複数の正弦波モデル成分の周波数を示す、
態様1記載の方法。
〔態様3〕
前記モデル・パラメータが、マルチ正弦波信号モデルの基本周波数Ωを示す、態様2記載の方法。
〔態様4〕
・前記マルチ正弦波信号モデルが周期的信号成分を有し、
・前記周期的信号成分が複数の正弦波成分を含み、
・前記複数の正弦波成分が前記基本周波数Ωの倍数である周波数をもつ、
態様3記載の方法。
〔態様5〕
当該方法が前記信号モデルの複数のモデル・パラメータ(613)を含む、態様1ないし4のうちいずれか一項記載の方法。
〔態様6〕
・前記信号モデルが、複数の周期的信号成分を有しており、
・前記複数のモデル・パラメータは前記複数の周期的信号成分の複数の基本周波数Ω0、Ω1、……、ΩM-1を示す、
態様5記載の方法。
〔態様7〕
前記複数の信号モデル・パラメータの一つまたは複数は、周期的信号モデルからの前記信号モデルのシフトおよび/または逸脱を示す、態様5または6記載の方法。
〔態様8〕
前記モデル・パラメータを決定する段階が、前記モデル・パラメータおよび予測誤差信号を示す受領されたビットストリームから前記モデル・パラメータを抽出することを含む、態様1ないし7のうちいずれか一項記載の方法。
〔態様9〕
・前記モデル・パラメータを決定する段階が、平方された予測誤差信号の平均値が小さくなるよう前記モデル・パラメータを決定することを含み、
・前記予測誤差信号は、前記第一のサンプルと前記第一のサンプルの前記推定値との間の差に基づいて決定される、
態様1ないし7のうちいずれか一項記載の方法。
〔態様10〕
前記平方予測誤差信号の前記平均値が、前記第一のサブバンド信号の複数の相続く第一のサンプルに基づいて決定される、態様9記載の方法。
〔態様11〕
・前記予測係数を決定する段階が、ルックアップテーブルまたは解析関数を使って前記予測係数を決定することを含み、
・前記ルックアップテーブルまたは前記解析関数は、前記モデル・パラメータから導出されるあるパラメータの関数として前記予測係数を与え、
・前記ルックアップテーブルまたは前記解析関数は前記信号モデルに基づき、かつ前記分解フィルタバンクに基づいてあらかじめ決定される、
態様1ないし10のうちいずれか一項記載の方法。
〔態様12〕
・前記分解フィルタバンクが変調された構造を有し、
・前記予測係数の絶対値が前記第一のサブバンドのインデックス番号と独立である、
態様11記載の方法。
〔態様13〕
・前記モデル・パラメータが、マルチ正弦波信号モデルの基本周波数Ωを示し、
・前記予測係数を決定する段階が、前記第一のサブバンド内にある前記基本周波数Ωの倍数を決定することを含む、
態様11または12記載の方法。
〔態様14〕
前記予測係数を決定する段階が、
・前記基本周波数Ωの倍数が前記第一のサブバンド内にある場合、前記基本周波数Ωの前記倍数の、前記第一のサブバンドの中心周波数からの相対オフセットを決定し、
・前記基本周波数Ωのどの倍数も前記第一のサブバンド内にない場合、前記予測係数を0に設定することを含む、
態様13記載の方法。
〔態様15〕
・前記ルックアップテーブルまたは前記解析関数は、前記予測係数をあるサブバンドの中心周波数からの可能な相対オフセットの関数として与え、
・前記予測係数を決定する段階は、前記予測係数を、決定された相対オフセットを使って前記ルックアップテーブルまたは前記解析関数に基づいて決定することを含む、
態様14記載の方法。
〔態様16〕
・前記ルックアップテーブルは、限られた数の可能な相対オフセットについての限られた数のエントリーを含み、
・前記予測係数を決定する段階は、決定された相対オフセットを、前記限られた数の可能な相対オフセットからの最も近い可能な相対オフセットに丸めることを含む、
態様15記載の方法。
〔態様17〕
前記予測係数を決定する段階は、
・前記モデル・パラメータに基づいて複数のルックアップテーブルのうちの一つを選択し、
・前記予測係数を、前記複数のルックアップテーブルのうちの選択された一つに基づいて決定することを含む、
態様13ないし16のうちいずれか一項記載の方法。
〔態様18〕
・前記モデル・パラメータが周期性Tを示し、
・前記複数のルックアップテーブルが、周期性Tの異なる値についてのルックアップテーブルを含み、
・当該方法が、選択されたルックアップテーブルを、前記モデル・パラメータによって示される周期性Tについてのルックアップテーブルとして決定することを含む、
態様17記載の方法。
〔態様19〕
・前記複数のルックアップテーブルは、[Tmin,Tmax]の範囲内の所定のきざみサイズΔTでの周期性Tの異なる値についてのルックアップテーブルを含み、
・Tminは、T<Tminについては前記オーディオ信号が単一の正弦波モデル成分を有する信号モデルを使ってモデル化できるようなものである、および/または
・Tmaxは、T>Tmaxについては周期性TmaxないしTmax+1についてのルックアップテーブルが実質的に周期性Tmax−1ないしTmaxについてのルックアップテーブルに対応するようなものである、
態様18記載の方法。
〔態様20〕
周期性T>Tmaxを示すモデル・パラメータについて、
・残差周期性Trが[Tmax−1,Tmax]の範囲内にはいるようにTからある整数値を減算することにより、残差周期性Trを決定する段階と;
・前記予測係数を決定するためのルックアップテーブルを、残差周期性Trについてのルックアップテーブルとして決定する段階とをさらに含む、
態様19記載の方法。
〔態様21〕
周期性T<Tminを示すモデル・パラメータについて、
・前記予測係数を決定するためのルックアップテーブルを、周期性Tminについてのルックアップテーブルとして選択する段階と;
・前記予測係数を与える選択されたルックアップテーブルのエントリーを同定するためのルックアップ・パラメータを、比Tmin/Tを使ってスケーリングする段階と;
・前記予測係数を、選択されたルックアップテーブルおよびスケーリングされたルックアップ・パラメータを使って決定する段階とをさらに含む、
態様19ないし20のうちいずれか一項記載の方法。
〔態様22〕
・複数の予測マスク・サポート・サブバンドにおける複数の前のサンプルを示す予測マスク(203、205)を決定する段階であって、前記複数の予測マスク・サポート・サブバンドは前記複数のサブバンドのうちの、前記第一のサブバンドとは異なる少なくとも一つを含む、段階と;
・前記複数の前のサンプルに適用されるべき複数の予測係数を、前記信号モデルに基づき、前記モデル・パラメータに基づき、かつ前記分解フィルタバンクに基づいて決定する段階と;
・前記複数の予測係数を前記複数の前のサンプルにそれぞれ適用することによって前記第一のサンプルの推定値を決定する段階とをさらに含む、
態様1ないし21のうちいずれか一項記載の方法。
〔態様23〕
前記第一のサンプルの推定値を決定する段階が、前記複数のそれぞれの予測係数によって重みをかけられた前記複数の前のサンプルの和を決定することを含む、態様22記載の方法。
〔態様24〕
・前記複数のサブバンドが等しいサブバンド間隔をもち、
・前記第一のサブバンドが前記複数のサブバンドのうちの一つである、
態様1ないし23のうちいずれか一項記載の方法。
〔態様25〕
・前記分解フィルタバンクの前記分解フィルタは互いにシフト不変である;および/または
・前記分解フィルタバンクの前記分解フィルタは共通の窓関数を含む;および/または
・前記分解フィルタバンクの前記分解フィルタは前記共通の窓関数の異なる変調をされたバージョンを含む;および/または
・前記共通の窓関数はコサイン関数を使って変調される;および/または
・前記共通の窓関数は有限の継続時間Kをもつ;および/または
・前記分解フィルタバンクの前記分解フィルタは直交基底をなす;および/または
・前記分解フィルタバンクの前記分解フィルタは正規直交基底をなす;および/または
・前記分解フィルタバンクはコサイン変調されたフィルタバンクを含む;および/または
・前記分解フィルタバンクは臨界サンプリングされたフィルタバンクである;および/または
・前記分解フィルタバンクは重複変換を含む;および/または
・前記分解フィルタバンクは、MDCT、QMF、ELT変換のうちの一つまたは複数を含む;および/または
・前記分解フィルタバンクは変調構造を含む、
態様1ないし24のうちいずれか一項記載の方法。
〔態様26〕
オーディオ信号の第一のサブバンド内の第一のサブバンド信号の第一のサンプルを推定する方法であって、前記オーディオ信号の前記第一のサブバンド信号は、前記オーディオ信号からそれぞれ複数のサブバンドにおける複数のサブバンド信号を提供する複数の分解フィルタを有する分解フィルタバンクを使って決定され、当該方法は:
・複数の予測マスク・サポート・サブバンドにおける複数の前のサンプルを示す予測マスク(203、205)を決定する段階であって、前記複数の予測マスク・サポート・サブバンドは前記複数のサブバンドのうちの、前記第一のサブバンドとは異なる少なくとも一つを含む、段階と;
・前記複数の前のサンプルに適用されるべき複数の予測係数を決定する段階と;
・前記複数の予測係数を前記複数の前のサンプルにそれぞれ適用することによって前記第一のサンプルの推定値を決定する段階とを含む、
方法。
〔態様27〕
前記複数の予測マスク・サポート・サブバンドは、
・前記第一のサブバンドを含む;および/または
・前記第一のサブバンドに直接隣接する前記複数のサブバンドのうちの一つまたは複数を含む、
態様26記載の方法。
〔態様28〕
・当該方法がさらに、信号モデルのモデル・パラメータを決定する段階を含み;
・前記複数の予測係数を決定する段階が、前記複数の予測係数を、前記信号モデルに基づき、前記モデル・パラメータに基づき、かつ前記分解フィルタバンクに基づいて決定することを含む、
態様26または27記載の方法。
〔態様29〕
・前記複数の予測係数を決定する段階が、ルックアップテーブルまたは解析関数を使って前記複数の予測係数を決定することを含み、
・前記ルックアップテーブルまたは前記解析関数は、前記モデル・パラメータから導出されるあるパラメータの関数として前記複数の予測係数を与え、
・前記ルックアップテーブルまたは前記解析関数は前記信号モデルに基づき、かつ前記分解フィルタバンクに基づいてあらかじめ決定される、
態様28記載の方法。
〔態様30〕
・オーディオ信号をエンコードする方法であって、
・複数の分解フィルタを有する分解フィルタバンクを使って前記オーディオ信号から複数のサブバンド信号を決定する段階と;
・態様1ないし29のうちいずれか一項記載の方法を使って前記複数のサブバンド信号のサンプルを推定し、それにより複数の推定されたサブバンド信号を与える段階と;
・複数の予測誤差サブバンド信号のサンプルを、前記複数のサブバンド信号の対応するサンプルおよび前記複数の推定されたサブバンド信号のサンプルに基づいて決定する段階と;
・前記複数の予測誤差サブバンド信号を量子化する段階と;
・前記複数の量子化された予測誤差サブバンド信号を示し、前記複数の推定されたサブバンド信号のサンプルを推定するために使われた一つまたは複数のパラメータを示す
エンコードされたオーディオ信号を生成する段階とを含む、
方法。
〔態様31〕
エンコードされたオーディオ信号をデコードする方法であって、前記エンコードされたオーディオ信号は、複数の量子化された予測誤差サブバンド信号と、複数の推定されたサブバンド信号のサンプルを推定するために使われるべき一つまたは複数のパラメータとを示し、当該方法は、
・前記複数の量子化された予測誤差サブバンド信号を量子化解除して、複数の量子化解除された予測誤差サブバンド信号を与える段階と:
・態様1ないし29のうちいずれか一項記載の方法を使って前記複数の推定されたサブバンド信号のサンプルを推定する段階と;
・複数のデコードされたサブバンド信号のサンプルを、前記複数の推定されたサブバンド信号の対応するサンプルおよび前記複数の量子化解除された予測誤差サブバンド信号のサンプルに基づいて決定する段階と;
・複数の合成フィルタを含む合成フィルタバンクを使って、前記複数のデコードされたサブバンド信号から、デコードされたオーディオ信号を決定する段階とを含む、
方法。
〔態様32〕
オーディオ信号の第一のサブバンド信号の一つまたは複数の第一のサンプルを推定するよう構成されたシステム(103、105)であって、前記オーディオ信号の前記第一のサブバンド信号は、前記オーディオ信号から複数のサブバンド信号を提供する複数の分解フィルタを有する分解フィルタバンクを使って決定され、当該システムは、
・信号モデルのモデル・パラメータを決定するよう構成され、前記第一のサブバンド信号から導出された第一のデコードされたサブバンド信号の一つまたは複数の前のサンプルに適用されるべき一つまたは複数の予測係数を決定するよう構成されている予測器計算器であって、前記一つまたは複数の予測係数は、前記信号モデルに基づき、前記モデル・パラメータに基づき、かつ前記分解フィルタバンクに基づいて決定され、前記一つまたは複数の前のサンプルの時間スロットは前記一つまたは複数の第一のサンプルの時間スロットより前である、予測器計算器と;
・前記一つまたは複数の予測係数を前記一つまたは複数の前のサンプルに適用することによって前記一つまたは複数の第一のサンプルの推定値を決定するよう構成されたサブバンド予測器を有する、
システム。
〔態様33〕
オーディオ信号の第一のサブバンド信号の一つまたは複数の第一のサンプルを推定するよう構成されたシステム(103、105)であって、前記第一のサブバンド信号は第一のサブバンドに対応し、前記第一のサブバンド信号は、それぞれ前記複数のサブバンド内の複数のサブバンド信号を提供する複数の分解フィルタを有する分解フィルタバンクを使って決定され、当該システムは、
・複数の予測マスク・サポート・サブバンドにおいて複数の前のサンプルを示す予測マスク(203、205)を決定するよう構成された予測器計算器であって、前記複数の予測マスク・サポート・サブバンドは前記複数のサブバンドのうち、前記第一のサブバンドとは異なる少なくとも一つを含み、前記予測器計算器はさらに、前記複数の前のサンプルに適用されるべき複数の予測係数を決定するよう構成されている、予測器計算器と;
・前記複数の予測係数を前記複数の前のサンプルにそれぞれ適用することによって前記一つまたは複数の第一のサンプルの推定値を決定するよう構成されたサブバンド予測器とを有する、
システム。
〔態様34〕
オーディオ信号をエンコードするよう構成されたオーディオ・エンコーダであって、
・複数の分解フィルタを使って前記オーディオ信号から複数のサブバンド信号を決定するよう構成された分解フィルタバンクと;
・前記複数のサブバンド信号のサンプルを推定し、それにより複数の推定されたサブバンド信号を与えるよう構成されている、態様32ないし33のうちいずれか一項記載のシステムと;
・複数の予測誤差サブバンド信号のサンプルを、前記複数のサブバンド信号および前記複数の推定されたサブバンド信号の対応するサンプルに基づいて決定するよう構成された差分ユニットと;
・前記複数の予測誤差サブバンド信号を量子化するよう構成された量子化ユニットと;
・前記複数の量子化された予測誤差サブバンド信号と、前記複数の推定されたサブバンド信号のサンプルを推定するために使われた一つまたは複数のパラメータとを示すエンコードされたオーディオ信号を生成するよう構成されたビットストリーム生成ユニットとを有する、
オーディオ・エンコーダ。
〔態様35〕
エンコードされたオーディオ信号をデコードするよう構成されたオーディオ・デコーダであって、前記エンコードされたオーディオ信号は、前記複数の量子化された予測誤差サブバンド信号と、複数の推定されたサブバンド信号のサンプルを推定するために使われた一つまたは複数のパラメータとを示し、当該オーディオ・デコーダは、
・前記複数の量子化された予測誤差サブバンド信号を量子化解除して、それにより複数の量子化解除された予測誤差サブバンド信号を与えるよう構成された逆量子化器と;
・前記複数の推定されたサブバンド信号のサンプルを推定するよう構成されている、態様32または33記載のシステムと;
・前記複数の推定されたサブバンド信号の対応するサンプルに基づき、かつ前記複数の量子化解除された予測誤差サブバンド信号のサンプルに基づいて、複数のデコードされたサブバンド信号のサンプルを決定するよう構成されている加算ユニットと;
・複数の合成フィルタ使って、前記複数のデコードされたサブバンド信号から、デコードされたオーディオ信号を決定するよう構成された合成フィルタバンクとを有する、
オーディオ・デコーダ。
Claims (15)
- サブバンド信号のサンプルの推定値を前記サブバンド信号の二つ以上の前のサンプルから決定する方法であって、前記サブバンド信号は、オーディオ信号のサブバンド領域表現の複数のサブバンドの一つに対応し、当該方法は:
・モデル・パラメータを含む信号モデル・データを決定する段階と;
・前記サブバンド信号の第一の前のサンプルに適用されるべき第一の予測係数を決定する段階であって、前記第一の前のサンプルの時間スロットは前記第一のサンプルの時間スロットの直前であり、前記第一の予測係数は、前記モデル・パラメータに応答して第一のルックアップテーブルおよび/または第一の解析関数を使って決定される、段階と;
・前記サブバンド信号の第二の前のサンプルに適用されるべき第二の予測係数を決定する段階であって、前記第二の前のサンプルの時間スロットは前記第一の前のサンプルの時間スロットの直前であり、前記第二の予測係数は、前記モデル・パラメータに応答して第二のルックアップテーブルおよび/または第二の解析関数を使って決定される、段階と;
・前記第一の予測係数を前記第一の前のサンプルに適用し、前記第二の予測係数を前記第二の前のサンプルに適用することによって前記サンプルの推定値を決定する段階とを含む、
方法。 - ・前記信号モデルが、一つまたは複数の正弦波モデル成分を含み、
・前記モデル・パラメータが前記一つまたは複数の正弦波モデル成分の周波数を示す、
請求項1記載の方法。 - 前記モデル・パラメータが、マルチ正弦波信号モデルの基本周波数Ωを示す、請求項2記載の方法。
- ・前記マルチ正弦波信号モデルが周期的信号成分を有し、
・前記周期的信号成分が複数の正弦波成分を含み、
・前記複数の正弦波成分が前記基本周波数Ωの倍数である周波数をもつ、
請求項3記載の方法。 - 前記モデル・パラメータを決定することが、前記モデル・パラメータおよび予測誤差信号を示す受領されたビットストリームから前記モデル・パラメータを抽出することを含む、請求項1ないし4のうちいずれか一項記載の方法。
- 前記予測係数を決定することが、前記サブバンド内にある前記基本周波数Ωの倍数を決定することを含む、請求項3ないし5のうちいずれか一項記載の方法。
- 前記予測係数を決定することが、・前記基本周波数Ωの倍数が前記第一のサブバンド内にある場合、前記基本周波数Ωの前記倍数の、前記第一のサブバンドの中心周波数からの相対オフセットを決定し、
・前記基本周波数Ωのどの倍数も前記第一のサブバンド内にない場合、前記予測係数を0に設定することを含む、
請求項6記載の方法。 - ・前記ルックアップテーブルまたは前記解析関数は、前記予測係数をあるサブバンドの中心周波数からの可能な相対オフセットの関数として与え、
・前記予測係数を決定することは、前記予測係数を、決定された相対オフセットを使って前記ルックアップテーブルまたは前記解析関数に基づいて決定することを含む、
請求項7記載の方法。 - ・前記ルックアップテーブルは、限られた数の可能な相対オフセットについての限られた数のエントリーを含み、
・前記予測係数を決定することは、決定された相対オフセットを、前記限られた数の可能な相対オフセットからの最も近い可能な相対オフセットに丸めることを含む、
請求項8記載の方法。 - 前記複数のサブバンドが等しいサブバンド間隔をもつ、請求項1ないし9のうちいずれか一項記載の方法。
- 前記第一のルックアップテーブルおよび/または前記第一の解析関数は、前記モデル・パラメータから導出されるあるパラメータの関数として前記第一の予測係数を決定する、請求項1ないし10のうちいずれか一項記載の方法。
- 前記第二のルックアップテーブルおよび/または前記第二の解析関数は、前記モデル・パラメータから導出されるあるパラメータの関数として前記第二の予測係数を決定する、請求項1ないし11のうちいずれか一項記載の方法。
- 前記第一のルックアップテーブルと前記第二のルックアップテーブルは異なる、および/または前記第一の解析関数と前記第二の解析関数は異なる、請求項1ないし12のうちいずれか一項記載の方法。
- サブバンド信号のサンプルの推定値を前記サブバンド信号の二つ以上の前のサンプルから決定するよう構成されたシステムであって、前記サブバンド信号は、オーディオ信号のサブバンド領域表現の複数のサブバンドの一つに対応し、当該システムは:
予測器計算器と、
サブバンド予測器とを有しており、
前記予測器計算器は、
モデル・パラメータを含む信号モデル・データを決定する段階と;
前記サブバンド信号の第一の前のサンプルに適用されるべき第一の予測係数を決定する段階であって、前記第一の前のサンプルの時間スロットは前記第一のサンプルの時間スロットの直前であり、前記第一の予測係数は、前記モデル・パラメータに応答して第一のルックアップテーブルおよび/または第一の解析関数を使って決定される、段階と;
前記サブバンド信号の第二の前のサンプルに適用されるべき第二の予測係数を決定する段階であって、前記第二の前のサンプルの時間スロットは前記第一の前のサンプルの時間スロットの直前であり、前記第二の予測係数は、前記モデル・パラメータに応答して第二のルックアップテーブルおよび/または第二の解析関数を使って決定される、段階とを実行するよう構成されており、
前記サブバンド予測器は、前記第一の予測係数を前記第一の前のサンプルに適用し、前記第二の予測係数を前記第二の前のサンプルに適用することによって前記第一のサンプルの推定値を決定するよう構成されている、
システム。 - コンピュータによって実行されたときに該コンピュータに請求項1ないし13のうちいずれか一項記載の方法を実行させる命令のシーケンスを有するコンピュータ・プログラム・プロダクト。
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201361750052P | 2013-01-08 | 2013-01-08 | |
| US61/750,052 | 2013-01-08 | ||
| US201361875528P | 2013-09-09 | 2013-09-09 | |
| US61/875,528 | 2013-09-09 |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015551193A Division JP6173484B2 (ja) | 2013-01-08 | 2014-01-07 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019093724A Division JP6592634B2 (ja) | 2013-01-08 | 2019-05-17 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2017201415A true JP2017201415A (ja) | 2017-11-09 |
| JP6530787B2 JP6530787B2 (ja) | 2019-06-12 |
Family
ID=50000954
Family Applications (8)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015551193A Active JP6173484B2 (ja) | 2013-01-08 | 2014-01-07 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2017131120A Active JP6530787B2 (ja) | 2013-01-08 | 2017-07-04 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2019093724A Active JP6592634B2 (ja) | 2013-01-08 | 2019-05-17 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2019171286A Active JP7053545B6 (ja) | 2013-01-08 | 2019-09-20 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2021212121A Active JP7258118B2 (ja) | 2013-01-08 | 2021-12-27 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2023060972A Active JP7418637B2 (ja) | 2013-01-08 | 2023-04-04 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2024000944A Active JP7760621B2 (ja) | 2013-01-08 | 2024-01-09 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2025173314A Pending JP2026012753A (ja) | 2013-01-08 | 2025-10-15 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2015551193A Active JP6173484B2 (ja) | 2013-01-08 | 2014-01-07 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
Family Applications After (6)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019093724A Active JP6592634B2 (ja) | 2013-01-08 | 2019-05-17 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2019171286A Active JP7053545B6 (ja) | 2013-01-08 | 2019-09-20 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2021212121A Active JP7258118B2 (ja) | 2013-01-08 | 2021-12-27 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2023060972A Active JP7418637B2 (ja) | 2013-01-08 | 2023-04-04 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2024000944A Active JP7760621B2 (ja) | 2013-01-08 | 2024-01-09 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
| JP2025173314A Pending JP2026012753A (ja) | 2013-01-08 | 2025-10-15 | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 |
Country Status (19)
| Country | Link |
|---|---|
| US (10) | US9659567B2 (ja) |
| EP (6) | EP3648104B1 (ja) |
| JP (8) | JP6173484B2 (ja) |
| KR (1) | KR101634979B1 (ja) |
| CN (2) | CN107452392B (ja) |
| AU (8) | AU2014204954B2 (ja) |
| BR (2) | BR112015016275B1 (ja) |
| CA (8) | CA2897321C (ja) |
| DK (1) | DK2943953T3 (ja) |
| ES (4) | ES2613747T3 (ja) |
| HU (1) | HUE032831T2 (ja) |
| IL (11) | IL302061B2 (ja) |
| IN (1) | IN2015MN01874A (ja) |
| MX (5) | MX370086B (ja) |
| MY (2) | MY193865A (ja) |
| PL (1) | PL2943953T3 (ja) |
| RU (2) | RU2636093C2 (ja) |
| SG (2) | SG11201504705SA (ja) |
| WO (1) | WO2014108393A1 (ja) |
Families Citing this family (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP4459881A3 (en) | 2010-04-09 | 2024-12-18 | Dolby International AB | Mdct-based complex prediction stereo coding |
| PL2943953T3 (pl) * | 2013-01-08 | 2017-07-31 | Dolby International Ab | Prognozowanie oparte na modelu w próbkowanym krytycznie banku filtrów |
| WO2014161994A2 (en) | 2013-04-05 | 2014-10-09 | Dolby International Ab | Advanced quantizer |
| KR101739789B1 (ko) | 2013-04-05 | 2017-05-25 | 돌비 인터네셔널 에이비 | 오디오 인코더 및 디코더 |
| JP6543838B2 (ja) * | 2014-08-28 | 2019-07-17 | 株式会社緑野リサーチ | 位相撮影装置およびその復元方法 |
| WO2016142002A1 (en) * | 2015-03-09 | 2016-09-15 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal |
| EP3800636B1 (en) | 2017-09-12 | 2023-03-08 | Dolby Laboratories Licensing Corporation | Packet loss concealment for critically-sampled filter bank-based codecs using multi-sinusoidal detection |
| CN110068771B (zh) * | 2019-05-28 | 2020-02-07 | 山东大学 | 基于输出响应重构的高精度电池模型参数辨识方法及系统 |
| CN110849971B (zh) * | 2019-11-21 | 2021-05-18 | 西南交通大学 | 基于双指数窗函数法的结构模态参数识别方法 |
| CN113452472B (zh) * | 2020-03-26 | 2024-05-31 | 瑞昱半导体股份有限公司 | 无线信号的分组检测方法及其系统 |
| US11348594B2 (en) * | 2020-06-11 | 2022-05-31 | Qualcomm Incorporated | Stream conformant bit error resilience |
| CN112259116B (zh) * | 2020-10-14 | 2024-03-15 | 北京字跳网络技术有限公司 | 一种音频数据的降噪方法、装置、电子设备及存储介质 |
| CN112767956B (zh) * | 2021-04-09 | 2021-07-16 | 腾讯科技(深圳)有限公司 | 音频编码方法、装置、计算机设备及介质 |
| CN115598489B (zh) * | 2021-06-28 | 2024-04-05 | 本源量子计算科技(合肥)股份有限公司 | 量子比特参数的测量方法和装置、量子芯片的测试方法 |
| CN114454237B (zh) * | 2022-02-18 | 2024-05-14 | 杭州勤鹄科技有限公司 | 一种珍珠棉定长切断装置及方法 |
| CN117610313B (zh) * | 2024-01-18 | 2024-04-26 | 西安石油大学 | 页岩油藏人工裂缝的网格加密方法及装置 |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1063298A (ja) * | 1996-08-16 | 1998-03-06 | Nec Corp | 広帯域音声スペクトル係数量子化装置 |
| JPH10511243A (ja) * | 1994-12-20 | 1998-10-27 | ドルビー・ラボラトリーズ・ライセンシング・コーポレーション | 知覚符号化システムのサブバンドに波形予測を適用する装置及び方法 |
| JP2002006841A (ja) * | 2000-06-26 | 2002-01-11 | Dainippon Printing Co Ltd | 音響信号符号化システム |
| US20030191634A1 (en) * | 2002-04-05 | 2003-10-09 | Thomas David B. | Signal-predictive audio transmission system |
| JP2004053891A (ja) * | 2002-07-19 | 2004-02-19 | Sony Corp | データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体 |
| US20060015329A1 (en) * | 2004-07-19 | 2006-01-19 | Chu Wai C | Apparatus and method for audio coding |
| JP2007171821A (ja) * | 2005-12-26 | 2007-07-05 | Sony Corp | 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体 |
| JP2007519027A (ja) * | 2003-07-18 | 2007-07-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 低ビットレートオーディオ符号化 |
Family Cites Families (44)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS62227198A (ja) * | 1986-03-28 | 1987-10-06 | 松下電器産業株式会社 | 帯域分割予測符号化方法 |
| US5956674A (en) | 1995-12-01 | 1999-09-21 | Digital Theater Systems, Inc. | Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels |
| FI114248B (fi) | 1997-03-14 | 2004-09-15 | Nokia Corp | Menetelmä ja laite audiokoodaukseen ja audiodekoodaukseen |
| US7272556B1 (en) * | 1998-09-23 | 2007-09-18 | Lucent Technologies Inc. | Scalable and embedded codec for speech and audio signals |
| FR2815160B1 (fr) | 2000-10-06 | 2003-01-17 | France Telecom | Procede et dispositif de codage d'un signal audiofrequence |
| US6633839B2 (en) * | 2001-02-02 | 2003-10-14 | Motorola, Inc. | Method and apparatus for speech reconstruction in a distributed speech recognition system |
| US20040252772A1 (en) * | 2002-12-31 | 2004-12-16 | Markku Renfors | Filter bank based signal processing |
| US7277550B1 (en) * | 2003-06-24 | 2007-10-02 | Creative Technology Ltd. | Enhancing audio signals by nonlinear spectral operations |
| AU2003291862A1 (en) * | 2003-12-01 | 2005-06-24 | Aic | A highly optimized method for modelling a windowed signal |
| US7392195B2 (en) * | 2004-03-25 | 2008-06-24 | Dts, Inc. | Lossless multi-channel audio codec |
| KR101187597B1 (ko) * | 2004-11-02 | 2012-10-12 | 돌비 인터네셔널 에이비 | 복소수 값 필터 뱅크들을 사용하는 오디오 신호들의 인코딩및 디코딩 |
| JP2006211243A (ja) | 2005-01-27 | 2006-08-10 | Kobe Steel Ltd | ディジタル信号符号化装置,ディジタル信号符号化方法 |
| US7177804B2 (en) | 2005-05-31 | 2007-02-13 | Microsoft Corporation | Sub-band voice codec with multi-stage codebooks and redundant coding |
| US7720677B2 (en) * | 2005-11-03 | 2010-05-18 | Coding Technologies Ab | Time warped modified transform coding of audio signals |
| JP2009543112A (ja) * | 2006-06-29 | 2009-12-03 | エヌエックスピー ビー ヴィ | 音声パラメータの復号化 |
| PL4481731T3 (pl) * | 2006-07-04 | 2025-12-01 | Dolby International Ab | Układ filtra zawierający konwerter filtra i kompresor filtra i sposób działania układu filtra |
| FR2912249A1 (fr) | 2007-02-02 | 2008-08-08 | France Telecom | Codage/decodage perfectionnes de signaux audionumeriques. |
| GB2441835B (en) * | 2007-02-07 | 2008-08-20 | Sonaptic Ltd | Ambient noise reduction system |
| KR101149448B1 (ko) * | 2007-02-12 | 2012-05-25 | 삼성전자주식회사 | 오디오 부호화 및 복호화 장치와 그 방법 |
| WO2008106036A2 (en) * | 2007-02-26 | 2008-09-04 | Dolby Laboratories Licensing Corporation | Speech enhancement in entertainment audio |
| US8428957B2 (en) * | 2007-08-24 | 2013-04-23 | Qualcomm Incorporated | Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands |
| KR101380170B1 (ko) * | 2007-08-31 | 2014-04-02 | 삼성전자주식회사 | 미디어 신호 인코딩/디코딩 방법 및 장치 |
| RU2472306C2 (ru) | 2007-09-26 | 2013-01-10 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. | Устройство и способ для извлечения сигнала окружающей среды в устройстве и способ получения весовых коэффициентов для извлечения сигнала окружающей среды |
| EP2076900A1 (en) * | 2007-10-17 | 2009-07-08 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Audio coding using upmix |
| EP2077550B8 (en) | 2008-01-04 | 2012-03-14 | Dolby International AB | Audio encoder and decoder |
| WO2009114656A1 (en) * | 2008-03-14 | 2009-09-17 | Dolby Laboratories Licensing Corporation | Multimode coding of speech-like and non-speech-like signals |
| MX2010012580A (es) * | 2008-05-23 | 2010-12-20 | Koninkl Philips Electronics Nv | Aparato de mezcla ascendente estereo parametrico, decodificador estereo parametrico, aparato de mezcla descendente estereo parametrico, codificador estereo parametrico. |
| EP2301020B1 (en) * | 2008-07-11 | 2013-01-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for encoding/decoding an audio signal using an aliasing switch scheme |
| MX2011000375A (es) | 2008-07-11 | 2011-05-19 | Fraunhofer Ges Forschung | Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada. |
| EP2144231A1 (en) | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme with common preprocessing |
| PL2311033T3 (pl) | 2008-07-11 | 2012-05-31 | Fraunhofer Ges Forschung | Dostarczanie sygnału aktywującego dopasowanie czasowe i kodowanie sygnału audio z jego użyciem |
| EP2311271B1 (en) * | 2008-07-29 | 2014-09-03 | Dolby Laboratories Licensing Corporation | Method for adaptive control and equalization of electroacoustic channels |
| US8457975B2 (en) | 2009-01-28 | 2013-06-04 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program |
| CN101646123B (zh) * | 2009-08-28 | 2012-09-05 | 中国科学院声学研究所 | 一种模拟听觉感知模型的滤波器组 |
| ES2374008B1 (es) * | 2009-12-21 | 2012-12-28 | Telefónica, S.A. | Codificación, modificación y síntesis de segmentos de voz. |
| EP2362375A1 (en) * | 2010-02-26 | 2011-08-31 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Apparatus and method for modifying an audio signal using harmonic locking |
| EP2552038A4 (en) * | 2010-03-26 | 2015-09-16 | Field System Inc | SHIPPING SERVICE |
| US8600737B2 (en) | 2010-06-01 | 2013-12-03 | Qualcomm Incorporated | Systems, methods, apparatus, and computer program products for wideband speech coding |
| US9236063B2 (en) | 2010-07-30 | 2016-01-12 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for dynamic bit allocation |
| CN102088603B (zh) * | 2010-12-31 | 2013-12-04 | 北京大学深圳研究生院 | 用于视频编码器的熵编码器及其实现方法 |
| US20120245927A1 (en) * | 2011-03-21 | 2012-09-27 | On Semiconductor Trading Ltd. | System and method for monaural audio processing based preserving speech information |
| EP2530840B1 (en) * | 2011-05-30 | 2014-09-03 | Harman Becker Automotive Systems GmbH | Efficient sub-band adaptive FIR-filtering |
| PL2943953T3 (pl) * | 2013-01-08 | 2017-07-31 | Dolby International Ab | Prognozowanie oparte na modelu w próbkowanym krytycznie banku filtrów |
| CN107326559A (zh) | 2017-06-09 | 2017-11-07 | 杭州慧群机电设备有限公司 | 一种珠绣多色换珠装置 |
-
2014
- 2014-01-07 PL PL14701146T patent/PL2943953T3/pl unknown
- 2014-01-07 EP EP19208681.7A patent/EP3648104B1/en active Active
- 2014-01-07 MX MX2019002421A patent/MX370086B/es unknown
- 2014-01-07 EP EP16192075.6A patent/EP3176784B1/en active Active
- 2014-01-07 AU AU2014204954A patent/AU2014204954B2/en active Active
- 2014-01-07 EP EP26156315.9A patent/EP4715813A1/en active Pending
- 2014-01-07 ES ES14701146.4T patent/ES2613747T3/es active Active
- 2014-01-07 HU HUE14701146A patent/HUE032831T2/en unknown
- 2014-01-07 CA CA2897321A patent/CA2897321C/en active Active
- 2014-01-07 CA CA3121651A patent/CA3121651C/en active Active
- 2014-01-07 MX MX2015008659A patent/MX342822B/es active IP Right Grant
- 2014-01-07 CA CA3234476A patent/CA3234476A1/en active Pending
- 2014-01-07 EP EP21171483.7A patent/EP3893240B1/en active Active
- 2014-01-07 US US14/655,037 patent/US9659567B2/en active Active
- 2014-01-07 MY MYPI2018002422A patent/MY193865A/en unknown
- 2014-01-07 EP EP14701146.4A patent/EP2943953B1/en active Active
- 2014-01-07 ES ES19208681T patent/ES2880252T3/es active Active
- 2014-01-07 SG SG11201504705SA patent/SG11201504705SA/en unknown
- 2014-01-07 DK DK14701146.4T patent/DK2943953T3/en active
- 2014-01-07 CN CN201710814654.1A patent/CN107452392B/zh active Active
- 2014-01-07 CA CA3076775A patent/CA3076775C/en active Active
- 2014-01-07 IN IN1874MUN2015 patent/IN2015MN01874A/en unknown
- 2014-01-07 BR BR112015016275-4A patent/BR112015016275B1/pt active IP Right Grant
- 2014-01-07 IL IL302061A patent/IL302061B2/en unknown
- 2014-01-07 ES ES21171483T patent/ES2980709T3/es active Active
- 2014-01-07 RU RU2015127216A patent/RU2636093C2/ru active
- 2014-01-07 RU RU2017134071A patent/RU2742460C2/ru active
- 2014-01-07 CA CA3140749A patent/CA3140749C/en active Active
- 2014-01-07 SG SG10201709631PA patent/SG10201709631PA/en unknown
- 2014-01-07 CA CA3012134A patent/CA3012134C/en active Active
- 2014-01-07 CA CA3054712A patent/CA3054712C/en active Active
- 2014-01-07 MY MYPI2015702155A patent/MY173781A/en unknown
- 2014-01-07 BR BR122017000308-9A patent/BR122017000308B1/pt active IP Right Grant
- 2014-01-07 IL IL309437A patent/IL309437B2/en unknown
- 2014-01-07 ES ES16192075T patent/ES2769845T3/es active Active
- 2014-01-07 KR KR1020157018150A patent/KR101634979B1/ko active Active
- 2014-01-07 CA CA3092138A patent/CA3092138C/en active Active
- 2014-01-07 CN CN201480004153.1A patent/CN104919523B/zh active Active
- 2014-01-07 MX MX2016013420A patent/MX362990B/es unknown
- 2014-01-07 EP EP24166625.4A patent/EP4372602B1/en active Active
- 2014-01-07 JP JP2015551193A patent/JP6173484B2/ja active Active
- 2014-01-07 IL IL315641A patent/IL315641A/en unknown
- 2014-01-07 WO PCT/EP2014/050139 patent/WO2014108393A1/en not_active Ceased
-
2015
- 2015-06-16 IL IL239444A patent/IL239444B/en active IP Right Grant
- 2015-07-02 MX MX2022013536A patent/MX2022013536A/es unknown
- 2015-07-02 MX MX2019014295A patent/MX2019014295A/es unknown
-
2017
- 2017-04-13 US US15/486,943 patent/US9892741B2/en active Active
- 2017-07-04 JP JP2017131120A patent/JP6530787B2/ja active Active
- 2017-08-15 AU AU2017216470A patent/AU2017216470B2/en active Active
- 2017-12-15 US US15/843,853 patent/US10102866B2/en active Active
-
2018
- 2018-03-15 IL IL258153A patent/IL258153B/en active IP Right Grant
- 2018-09-12 US US16/129,280 patent/US10325608B2/en active Active
- 2018-10-24 IL IL262551A patent/IL262551B/en active IP Right Grant
-
2019
- 2019-05-03 US US16/403,028 patent/US10573330B2/en active Active
- 2019-05-17 JP JP2019093724A patent/JP6592634B2/ja active Active
- 2019-08-05 IL IL268510A patent/IL268510B/en active IP Right Grant
- 2019-09-20 JP JP2019171286A patent/JP7053545B6/ja active Active
- 2019-11-15 AU AU2019264642A patent/AU2019264642B2/en active Active
-
2020
- 2020-02-21 US US16/797,841 patent/US10971164B2/en active Active
- 2020-09-03 IL IL277117A patent/IL277117B/en unknown
-
2021
- 2021-01-04 AU AU2021200013A patent/AU2021200013B2/en active Active
- 2021-04-01 US US17/219,914 patent/US11651777B2/en active Active
- 2021-05-25 IL IL283412A patent/IL283412B/en unknown
- 2021-12-27 JP JP2021212121A patent/JP7258118B2/ja active Active
-
2022
- 2022-02-14 IL IL290600A patent/IL290600B2/en unknown
- 2022-03-10 AU AU2022201676A patent/AU2022201676B2/en active Active
- 2022-09-11 IL IL296350A patent/IL296350B2/en unknown
-
2023
- 2023-03-30 US US18/128,494 patent/US11915713B2/en active Active
- 2023-04-04 JP JP2023060972A patent/JP7418637B2/ja active Active
- 2023-05-16 AU AU2023203057A patent/AU2023203057B2/en active Active
-
2024
- 2024-01-09 JP JP2024000944A patent/JP7760621B2/ja active Active
- 2024-02-20 US US18/582,289 patent/US12277945B2/en active Active
- 2024-07-22 AU AU2024205020A patent/AU2024205020B2/en active Active
-
2025
- 2025-04-10 US US19/174,939 patent/US20250285629A1/en active Pending
- 2025-09-24 AU AU2025237948A patent/AU2025237948A1/en active Pending
- 2025-10-15 JP JP2025173314A patent/JP2026012753A/ja active Pending
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10511243A (ja) * | 1994-12-20 | 1998-10-27 | ドルビー・ラボラトリーズ・ライセンシング・コーポレーション | 知覚符号化システムのサブバンドに波形予測を適用する装置及び方法 |
| JPH1063298A (ja) * | 1996-08-16 | 1998-03-06 | Nec Corp | 広帯域音声スペクトル係数量子化装置 |
| JP2002006841A (ja) * | 2000-06-26 | 2002-01-11 | Dainippon Printing Co Ltd | 音響信号符号化システム |
| US20030191634A1 (en) * | 2002-04-05 | 2003-10-09 | Thomas David B. | Signal-predictive audio transmission system |
| JP2004053891A (ja) * | 2002-07-19 | 2004-02-19 | Sony Corp | データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体 |
| JP2007519027A (ja) * | 2003-07-18 | 2007-07-12 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 低ビットレートオーディオ符号化 |
| US20060015329A1 (en) * | 2004-07-19 | 2006-01-19 | Chu Wai C | Apparatus and method for audio coding |
| JP2007171821A (ja) * | 2005-12-26 | 2007-07-05 | Sony Corp | 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体 |
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7418637B2 (ja) | 臨界サンプリングされたフィルタバンクにおけるモデル・ベースの予測 | |
| HK40104045A (en) | Model based prediction in a critically sampled filterbank | |
| HK40061538A (en) | Model based prediction in a critically sampled filterbank | |
| HK40061538B (en) | Model based prediction in a critically sampled filterbank | |
| HK1243545A1 (en) | Model based prediction in a critically sampled filterbank | |
| HK1213081B (en) | Model based prediction in a critically sampled filterbank | |
| HK1233377B (en) | Model based prediction in a filterbank | |
| HK1233377A1 (en) | Model based prediction in a filterbank | |
| HK1233377A (en) | Model based prediction in a filterbank |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180821 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181114 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190423 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190517 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6530787 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
