BRPI0711063B1 - Método e aparelho para modificar um parâmetro de processamento de dinâmicas de áudio - Google Patents
Método e aparelho para modificar um parâmetro de processamento de dinâmicas de áudio Download PDFInfo
- Publication number
- BRPI0711063B1 BRPI0711063B1 BRPI0711063-4A BRPI0711063A BRPI0711063B1 BR PI0711063 B1 BRPI0711063 B1 BR PI0711063B1 BR PI0711063 A BRPI0711063 A BR PI0711063A BR PI0711063 B1 BRPI0711063 B1 BR PI0711063B1
- Authority
- BR
- Brazil
- Prior art keywords
- audio
- time
- auditory
- event
- signal
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
- H03G3/3089—Control of digital or coded signals
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
- H03G3/3005—Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G1/00—Details of arrangements for controlling amplification
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G7/00—Volume compression or expansion in amplifiers
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G7/00—Volume compression or expansion in amplifiers
- H03G7/007—Volume compression or expansion in amplifiers of digital or coded signals
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G9/00—Combinations of two or more types of control, e.g. gain control and tone control
- H03G9/005—Combinations of two or more types of control, e.g. gain control and tone control of digital or coded signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers
- H04R3/04—Circuits for transducers for correcting frequency response
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/03—Synergistic effects of band splitting and sub-band processing
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
- Control Of Amplification And Gain Control (AREA)
- Circuit For Audible Band Transducer (AREA)
- Circuits Of Receivers In General (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Document Processing Apparatus (AREA)
Abstract
controle de ganho de áudio utilizando detecção de evento auditivo baseado em sonoridade específica. a presente invenção refere-se a modificações de ganho dinâmico aplicadas a um sinal de áudio pelo menos parcialmente em resposta a eventos auditivos e/ou o grau de mudança em características de sinal associadas aos ditos limites de evento auditivo. em outro aspecto, um sinal de áudio é dividido em eventos auditivos pela comparação da diferença em sonoridade específica entre os sucessivos blocos de tempo do sinal de áudio.
Description
[001] A presente invenção refere-se a métodos e aparelho de controle de faixa dinâmica de áudio nos quais um dispositivo de processamento de áudio analisa um sinal de áudio e muda o nível, o ganho ou a faixa dinâmica do áudio, e todos ou alguns dos parâmetros do ganho de áudio e do processamento dinâmico são gerados como uma função de eventos auditivos. A invenção também refere-se a programas de computador para praticar tais métodos ou controlar tal aparelho.
[002] A presente invenção também refere-se a métodos e aparelho que utilizam uma detecção baseada em sonoridade específica de eventos auditivos. A invenção também refere-se a programas de computador para praticar tais métodos ou controlar tal aparelho.
[003] As técnicas de controle de ganho automático (AGC) e controle de faixa dinâmica (DRC) são bens conhecidas e são um elemento comum em muitos percursos de sinal de áudio. Em um senso abstrato, ambas as técnicas medem o nível de um sinal de áudio em algum modo e então modificam em ganho o sinal por um valor que é uma função do nível medido. Em um sistema de processamento dinâmico linear, 1:1, o áudio de entrada não é processado e o sinal de áudio de saída idealmente coincide com o sinal de áudio de entrada. Além disso, se tivesse um sistema de processamento dinâmico de áudio que mede automaticamente as características do sinal de entrada e utiliza esta medição para controlar o sinal de saída, se o sinal de entrada aumentar de nível por 6 dB e o sinal de saída for processado de modo que este somente aumente de nível por 3 dB, então o sinal de saída foi comprimido por uma razão de 2:1 em relação ao sinal de entrada. A Publicação Internacional Número WO 2006/047600 A1 ("Calculando e Ajustando a Sonoridade Percebida e/ou o Balanço Espectral Percebido de Um Sinal de Áudio" por Alan Jeffrey Seefeldt) provê uma vista geral detalhada dos cinco tipos básicos de processamento dinâmico de áudio: compressão, limitação, controle de ganho automático (AGC), expansão e obstrução.
[004] A divisão de sons em unidades ou segmentos percebidos como separados e distintos é algumas vezes referida como "análise de evento auditivo" ou "análise de cena auditiva" ("ASA") e os segmentos são algumas vezes referido como "eventos auditivos" ou "eventos de áudio". Uma discussão extensa de análise de cena auditiva é apresentada por Albert S. Bregman no seu livro Auditory Scene Analysis - The Perceptual Organization of Sound, Massachusetts Institute of Technology, 1991, Quarta impressão, 2001, Segunda edição de brochura de MIT Press. Além disso, a Patente U.S. Número 6.002.776 para Bhad- kamkar et al., 14 de Dezembro de 1999 sita publicações que datam até 1976 como "trabalho de técnica anterior relativo à separação de som por análise de cena auditiva". No entanto, a patente de Bhadkamkar et al. desencoraja a utilização prática de análise de cena auditiva, concluindo que "[t]écnicas que envolvem a análise de cena auditiva, apesar de interessantes de um ponto de vista científico como modelos de processamento auditivo humano, são atualmente computacionalmente solicitantes demais e especializados para serem consideradas técnicas práticas para separação de som até que um progresso fundamental seja feito".
[005] Um modo útil para identificar os eventos auditivos é apresentado por Crockett e Crocket et al. em vários pedidos de patente e documentos abaixo listados sob o cabeçalho "Incorporação Por Referência". De acordo com estes documentos, um sinal de áudio está dividido em eventos auditivos, cada um dos quais tende a ser percebido como separado e distinto, pela detecção de mudanças em composição espectral (amplitude como uma função de freqüência) em relação ao tempo. Isto pode ser feito, por exemplo, calculando o conteúdo espectral de blocos de tempo sucessivos do sinal de áudio, calculando a diferença em conteúdo espectral entre blocos de tempo sucessivos do sinal de áudio, e identificando um limite de evento auditivo como o limite entre sucessivos blocos de tempo quando a diferença no conteúdo espectral entre tais blocos de tempo sucessivos excede um limite. Alternativamente, mudanças em amplitude em relação ao tempo podem ser calculadas ao invés de ou em adição a mudanças em composição espectral com relação ao tempo.
[006] Em sua implementação menos computacionalmente solicitante, o processo divide o áudio em segmentos de tempo pela análise da banda de freqüência inteira (áudio de largura de banda total) ou substancialmente a banda de freqüência inteira (em implementações práticas, uma filtragem de limitação de banda nas extremidades do espectro é freqüentemente empregada), e dando o maior peso para os componentes de sinal de áudio mais altos. Esta proposta aproveita-se de um fenômeno psicoacústico no qual em menores escalas de tempo (20 milissegundos (ms) e menos) o ouvido pode tender a focalizar sobre um único evento auditivo a um dado tempo. Isto implica em que apesar de múltiplos eventos poderem estar ocorrendo ao mesmo tempo, um componente tende a ser perceptualmente mais proeminente e pode ser processado individualmente como se este fosse o único evento acontecendo. O aproveitamento deste efeito também permite que a detecção de evento auditivo escale com a complexidade do áudio que está sendo processado. Por exemplo, se o sinal de áudio de entrada que está sendo processado for um instrumento solo, os eventos de áudio que são identificados provavelmente serão as notas individuais que estão sendo tocadas. Similarmente para um sinal de voz de entrada, os componentes individuais de fala, as vogais e as consoantes por exemplo, serão provavelmente identificados como elementos de áudio individuais. Conforme a complexidade do áudio aumenta, tal como uma música com bateria ou múltiplos instrumentos e voz, a detecção de evento auditivo identifica o elemento de áudio "mais proeminente" (isto é, o mais alto) em qualquer dado momento.
[007] A expensas de uma maior complexidade computacional, o processo pode também levar em consideração as mudanças em composição espectral em relação ao tempo em sub-bandas de freqüência discretas (sub-bandas fixas ou dinamicamente determinadas ou tanto fixas quanto dinamicamente determinadas) ao invés da largura de banda total. Esta proposta alternativa leva em conta mais do que um fluxo de áudio em diferentes sub-bandas de freqüência ao invés de assumir que somente um único fluxo é perceptível em um tempo específico.
[008] Uma detecção de evento auditivo pode ser implementada dividindo uma forma de onda de áudio de domínio de tempo em intervalos ou blocos de tempo e então convertendo os dados em cada bloco para o domínio de freqüência, utilizando ou um banco de filtros ou uma transformação de tempo - freqüência, tal como a FFT. A amplitude do conteúdo espectral de cada bloco pode ser normalizada de modo a eliminar ou reduzir o efeito de mudanças de amplitude. Cada representação de domínio de freqüência resultante provê uma indicação do conteúdo espectral do áudio no bloco específico. O conteúdo espectral de blocos sucessivos é comparado e as mudanças maiores do que um limite podem ser tomadas para indicar o início temporal ou o fim temporal de um evento auditivo.
[009] Preferencialmente, os dados de domínio de freqüência são normalizados, como é descrito abaixo.
[0010] O grau no qual os dados de domínio de freqüência precisam ser normalizados fornece uma indicação de amplitude. Com isto, se uma mudança neste grau exceder um limite predeterminado isto também pode ser tomado para indicar um limite de evento. Os pontos de início e fim de evento que resultam de mudanças espectrais e de mudanças de amplitude podem ser ORed juntos de modo que os limites de evento que resultam de cada tipo de mudança sejam identificados.
[0011] Apesar das técnicas descritas nos ditos pedidos e documentos de Crockett e Crocket et al. serem especificamente úteis em conexão com os aspectos da presente invenção, outras técnicas para identificar os eventos auditivos e os limites de eventos podem ser empregadas em aspectos da presente invenção.
[0012] O processamento dinâmico de áudio da técnica anterior convencional envolve multiplicar o áudio por um sinal de controle que varia no tempo que ajusta o ganho do áudio produzindo um resultado desejado. "Ganho" é um fator de escalagem que escala a amplitude de áudio. Este sinal de controle pode ser gerado em uma base contínua ou de blocos de dados de áudio, mas é geralmente derivado por alguma forma de medição do áudio que está sendo processado, e esta taxa de mudança é determinada por filtros de suavização, algumas vezes com características fixas e algumas vezes com características que variam com a dinâmica do áudio. Por exemplo, os tempos de resposta podem ser ajustáveis de acordo com as mudanças na magnitude ou na potência do áudio. Os métodos da técnica anterior tais como o controle de ganho automático (AGC) e a compressão de faixa dinâmica (DRC) não avaliam em nenhum modo psicoacusticamente baseado os intervalos de tempo durante os quais as mudanças de ganho podem ser percebidas como deteriorações e quando estas podem ser aplicadas sem imprimir artefatos audíveis. Portanto, os processos de dinâmica de áudio convencionais podem freqüentemente introduzir artefatos audíveis, isto é, os efeitos do processamento de dinâmica podem introduzir mudanças perceptíveis indesejadas no áudio.
[0013] A análise de cena auditiva identifica os eventos auditivos perceptualmente discretos, com cada evento ocorrendo entre dois limites de evento auditivo consecutivos. As deteriorações audíveis causadas por uma mudança de ganho podem ser grandemente reduzidas assegurando que dentro de um evento auditivo o ganho é mais praticamente constante e confinando muitas das mudanças à vizinhança de um limite de evento. No contexto de compressores ou expansores, a resposta a um aumento em nível de áudio (freqüentemente denominada o ataque) pode ser rápida, comparável com ou mais curta do que a duração mínima de eventos auditivos, mas a resposta a uma diminuição (a liberação ou recuperação) pode ser mais lenta do que os sons que deveriam parecer constantes ou decair gradualmente mas audivelmente perturbados. Sob tais circunstâncias, é muito benéfico retardar a recuperação de ganho até o próximo limite ou diminuir a taxa de mudança de ganho durante um evento. Para as aplicações de controle de ganho automáticas, onde o nível médio a longo prazo ou sonoridade do áudio é normalizado e tanto o tempo de ataque quanto de liberação podem portanto ser longos comparados com a duração mínima de um evento auditivo, é benéfico durante os eventos retardar as mudanças ou diminui as taxas de mudança em ganho até o próximo limite de evento tanto para os ganhos crescentes quanto decrescentes.
[0014] De acordo com um aspecto da presente invenção, um sistema de processamento de áudio recebe um sinal de áudio e analisa e altera o ganho e/ou as características de faixa dinâmica do áudio. A modificação de faixa dinâmica do áudio é freqüentemente controlada por parâmetros de um sistema de processamento de dinâmica (tempo de ataque e liberação, taxa de compressão, etc.) que tem efeitos significativos sobre os artefatos perceptuais introduzidos pelo processamento de dinâmica. As mudanças em características de sinal em relação ao tempo no sinal de áudio são detectadas e identificadas como limites de evento auditivo, de modo que um segmento de áudio entre limites consecutivos constitui um evento auditivo no sinal de áudio. As características dos eventos auditivos de interesse podem incluir as características dos eventos tais como força perceptual ou duração. Alguns dos ditos um ou mais parâmetros de processamento de dinâmica são gerados pelo menos parcialmente em resposta a eventos auditivos e/ou o grau de mudança em características de sinal associadas com os ditos limites de evento auditivo.
[0015] Tipicamente, um evento auditivo é um segmento de áudio que tende a ser percebido como separado e distinto. Uma medida utilizável de características de sinal inclui uma medida do conteúdo espectral do áudio, por exemplo, como descrito nos documentos de Crockett e Crocket et al. citados. Todos ou alguns dos um ou mais parâmetros de processamento de dinâmica de áudio podem ser gerados pelo menos parcialmente em resposta à presença ou à ausência e às características de um ou mais eventos auditivos. Um limite de evento auditivo pode ser identificado como uma mudança em características de sinal em relação ao tempo que excede um limite. Alternativamente, todos ou alguns dos um ou mais parâmetros podem ser gerados pelo menos parcialmente em resposta a uma medida continuada do grau de mudança em características de sinal associadas com os ditos limites de evento auditivo. Apesar de que, em princípio, os aspectos da invenção podem ser implementados em domínios analógicos e/ou digitais, as implementações práticas são prováveis serem implementadas no do- mínio digital no qual cada um dos sinais de áudio está representado por amostras individuais ou amostras dentro de blocos de dados. Neste caso, as características de sinal podem ser o conteúdo espectral de áudio dentro de um bloco, a detecção de mudanças em características de sinal em relação ao tempo podem ser a detecção de mudanças em conteúdo espectral de áudio de bloco para bloco, e os limites de início e fim temporais de evento auditivo cada um coincide com um limite de um bloco de dados. Deve ser notado que para o caso mais tradicional de executar as mudanças de ganho dinâmico em uma base de amostra por amostra, que a análise de cena auditiva descrita poderia ser executada em uma base de bloco e as informações de evento auditivo resultantes sendo utilizadas para executar as mudanças de ganho dinâmico que são aplicadas amostra por amostra.
[0016] Pelo controle dos parâmetros de processamento de dinâmica de áudio chaves utilizando os resultados de análise de cena auditiva, uma redução dramática de artefatos audíveis introduzidos por processamento de dinâmica pode ser conseguida.
[0017] A presente invenção apresenta dois modos para executar uma análise de cena auditiva. O primeiro executa um análise espectral e identifica a localização de eventos de áudio perceptíveis que são utilizados para controlar os parâmetros de ganho dinâmico pela identificação de mudanças em conteúdo espectral. O segundo modo transforma o áudio em um domínio de sonoridade perceptual (que pode prover mais informações psicoacusticamente relevantes do que o primeiro modo) e identifica a localização de eventos auditivos que são subseqüentemente utilizados para controlar os parâmetros de ganho dinâmico. Deve ser notado que o segundo modo requer que o processamento de áudio esteja ciente de níveis de reprodução acústica abso-lutos, o que pode não ser possível em algumas implementações. A apresentação de ambos os métodos de análise de cena auditiva per mite implementações de modificação de ganho dinâmico controladas por ASA utilizando os processos ou dispositivos que podem ser calibrados ou não para levar em conta os níveis de reprodução absolutos.
[0018] Os aspectos da presente invenção estão aqui descritos em um ambiente de processamento de dinâmica de áudio que inclui os aspectos de outras invenções. Tais outras invenções estão descritas em vários Pedidos de Patente Pendentes dos Estados Unidos ou Internacionais do Dolby Laboratories Licensing Corporation, o proprietário do presente pedido, cujos pedidos estão aqui identificados.
[0019] Figura 1 é um fluxograma que mostra um exemplo de etapas de processamento para executar uma análise de cena auditiva.
[0020] Figura 2 mostra um exemplo de processamento de bloco, abertura de janelas e execução de DFT em áudio enquanto executando a análise de cena auditiva.
[0021] Figura 3 está na natureza de um fluxograma ou diagrama de blocos funcional, que mostra um processamento paralelo no qual o áudio é utilizado para identificar os eventos auditivos e identificar as características dos eventos auditivos de modo que os eventos e suas características sejam utilizados para modificar os parâmetros de processamento de dinâmica.
[0022] Figura 4 está na natureza de um fluxograma ou diagrama de blocos funcional, que mostra um processamento no qual o áudio é utilizado somente para identificar os eventos auditivos e as características de evento são determinadas da detecção de evento de áudio de modo que os eventos e suas características sejam utilizados para modificar os parâmetros de processamento de dinâmica.
[0023] Figura 5 está na natureza de um fluxograma ou diagrama de blocos funcional, que mostra um processamento no qual o áudio é utilizado somente para identificar os eventos auditivos e as caracterís- ticas de evento são determinadas da detecção de evento de áudio de modo que somente as características de eventos auditivos sejam utilizadas para modificar os parâmetros de processamento de dinâmica.
[0024] Figura 6 mostra um conjunto de respostas características de filtro auditivo idealizadas que aproximam um requadramento crítico na escala de ERB. A escala horizontal é a freqüência em Hertz e escala vertical é o nível em decibéis.
[0025] Figura 7 mostra contornos de sonoridade iguais da ISO 226. A escala horizontal é a freqüência em Hertz (escala logarítmica de base 10) e a escala vertical e o nível de pressão de som em decibéis.
[0026] Figuras 8a-c mostram as características de entrada / saída idealizadas e as características de ganho de entrada de um compressor de faixa dinâmica de áudio.
[0027] Figuras 9a-f mostram um exemplo da utilização de eventos auditivos para controlar o tempo de liberação em uma implementação digital de um Controlador de Faixa Dinâmica (DRC) tradicional no qual o controle de ganho é derivado da potência de Valor Médio Quadrático (RMS) do sinal.
[0028] As figuras 10a-f mostram um exemplo da utilização de eventos auditivos para controlar o tempo de liberação em uma implementação digital de um Controlador de Faixa Dinâmica (DRC) tradicional no qual o controle de ganho é derivado da potência de Valor Médio Quadrático (RMS) do sinal para um sinal alternativo àquele utilizado na figura 9.
[0029] Figura 11 apresenta um conjunto adequado de curvas de AGC e de DRC idealizadas para a aplicação de AGC seguido por DRC em um sistema de processamento de dinâmica de domínio de sonoridade. O objetivo da combinação é fazer com que todo a áudio processado tenha aproximadamente a mesma sonoridade percebida enquanto ainda mantendo pelo menos alguma da dinâmica de áudio original.
[0030] De acordo com uma modalidade de um aspecto da presente invenção, uma análise de cena auditiva pode ser composta de quatro etapas de processamento gerais como mostrado em uma porção da figura 1. A primeira etapa 1-1 ("Executar Análise Espectral") toma um sinal de áudio de domínio de tempo, divide-o em blocos e calcula um perfil espectral ou conteúdo espectral para cada um dos blocos. A análise espectral transforma o sinal de áudio no domínio de freqüência de curto prazo. Isto pode ser executado utilizando qualquer banco de filtros, ou baseado em transformadas ou bancos de filtros de passagem de banda, e em espaço de freqüência ou linear ou distorcido (tal como a escala de Bark ou banda crítica, a qual melhor se aproxima das características do ouvido humano). Com qualquer banco de filtros existe uma negociação entre o tempo e a freqüência. Uma maior resolução de tempo, e com isto intervalos de tempo mais curtos, leva a uma menor resolução de freqüência. Uma maior resolução de fre- qüência, e com isto sub-bandas mais estreitas, leva a intervalos de tempo mais longos.
[0031] A primeira etapa, ilustrada conceitualmente na figura 1, calcula o conteúdo espectral de sucessivos segmentos de tempo do sinal de áudio. Em uma modalidade prática, o tamanho de bloco de ASA pode ser que qualquer número de amostras do sinal de áudio de entrada, apesar de que 512 amostras provêem uma boa negociação de tempo e resolução de freqüência. Na segunda etapa 1-2, as diferenças em conteúdo espectral de bloco para bloco são determinadas ("Executar medições de diferença de perfil espectral"). Assim, a segunda etapa calcula a diferença em conteúdo espectral entre os sucessivos segmentos de tempo do sinal de áudio. Como acima discutido, um indica- dor poderoso do início ou do fim de um evento auditivo percebido acredita-se ser uma mudança em conteúdo espectral. Na terceira etapa 1-2 ("Identificar a localização de limites de evento auditivo"), quando a diferença espectral entre um bloco de perfil espectral e o seguinte é maior do que um limite, o limite de bloco é considerado ser um limite de evento auditivo. O segmento de áudio entre limites consecutivos constitui um evento auditivo. Assim, a terceira etapa determina um limite de evento auditivo entre os sucessivos segmentos de tempo quando a diferença no conteúdo de perfil espectral entre tais segmentos de tempo sucessivos excede um limite, assim definindo os eventos auditivos. Nesta modalidade, os limites de evento auditivo definem os eventos auditivos que tem um comprimento que é um múltiplo integral de blocos de perfil espectral com um comprimento mínimo de um bloco de perfil espectral (512 amostras neste exemplo). Em princípio, os limites de eventos não precisam ser tão limitados. Como uma alternativa às modalidades práticas aqui discutidas, o tamanho de bloco de entrada pode variar, por exemplo, de modo a ter essencialmente o tamanho de um evento auditivo.
[0032] Após a identificação dos limites de eventos, as características chave do evento auditivo são identificadas, como mostrado na etapa 1-4.
[0033] Os segmentos sobrepostos ou não sobrepostos do áudio podem ser abertos em janelas e utilizados para computar os perfis espectrais do áudio de entrada. A sobreposição resulta em uma resolução mais fina quanto à localização de eventos auditivos e, também, torna menos provável perder um evento, tal como um transiente curto. No entanto, a sobreposição também aumenta a complexidade computacional. Assim, a sobreposição pode ser omitida. A figura 2 mostra uma representação conceitual de N blocos de amostra não sobrepostos sendo abertos em janelas e transformados no domínio de freqüên- cia pela Transformada de Fourier Discreta (DFT). Cada bloco pode ser aberto em janela e transformado no domínio de freqüência, tal como pela utilização da DFT, de preferência implementada como uma Transformada de Fourier Rápida (FFT) para velocidade.
[0034] As seguintes variáveis podem ser utilizadas para computar o perfil espectral do bloco de entrada: M = número de amostras abertas em janelas em um bloco utilizado para computar um perfil espectral P = número de amostras de sobreposição de computação espectral
[0035] Em geral, quaisquer números inteiros podem ser utilizados para as variáveis acima. No entanto, a implementação será mais eficiente se M for determinado igual a uma potência de 2 de modo que FFTs padrão podem ser utilizadas para os cálculos de perfil espectral. Em uma modalidade prática do processo de análise de cena auditiva, os parâmetros listados podem ser ajustados para: M = 512 amostras (ou 11,6 ms a 44,1 kHz) P = 0 amostras (sem sobreposição)
[0036] Os valores acima listados foram determinados experimentalmente e foram descobertos geralmente identificar com uma precisão suficiente a localização e a duração de eventos auditivos. No entanto, ajustando o valor de P para 256 amostras (50% de sobreposição) ao invés de zero amostras (sem sobreposição) foi descoberto ser útil na identificação de eventos difíceis de encontrar. Apesar de muitos diferentes tipos de janelas poderem ser utilizados para minimizar os artefatos espectrais devido à abertura em janela, a janela utilizada nos cálculos de perfil espectral é uma janela de M pontos de Hanning, Kaiser-Bessel ou outra janela adequada, de preferência não retangular. Os valores acima indicados e um tipo de janela de Hanning foram selecionados após uma extensa análise experimental já que estes mos- traram prover excelentes resultados através de uma ampla faixa de material de áudio. A abertura em janela não retangular é preferida para o processamento de sinais de áudio com conteúdo de freqüência pre-dominantemente baixo. A abertura em janela retangular produz artefatos espectrais que podem causar uma detecção incorreta de eventos. Ao contrário de certas aplicações de codificador / decodificador (codec) onde um processo de sobreposição / adição total deve prover um nível constante, tal restrição não aplica-se aqui e a janela pode ser escolhida por características tais como a sua resolução de tempo / fre- qüência e rejeição de banda de corte.
[0037] Na etapa 1-1 (figura 1), o espectro de cada bloco de amostras M pode ser computado abrindo em janela os dados com uma janela de M pontos de Hanning, Kaiser-Bessel ou outra janela adequada, convertendo para o domínio de freqüência utilizando uma Transformada de Fourier Rápida de M pontos, e calculando a magnitude dos coeficientes de FFT complexos. Os dados resultantes são normalizados de modo que a maior magnitude é ajustada para a unidade, e a matriz normalizada de M números é convertida para o domínio log. Os dados podem também ser normalizados por alguma outra métrica tal como o valor de magnitude média ou o valor de potência média dos dados. A matriz não precisa ser convertida para o domínio log, mas a conversão simplifica o cálculo da medida de diferença na etapa 1-2. Mais ainda, o domínio log coincide mais proximamente com a natureza do sistema auditivo humano. Os valores de domínio log resultantes tem uma faixa de menos infinito até zero. Uma modalidade prática, um limite inferior pode ser imposto sobre a faixa de valores; o limite pode ser fixo, por exemplo -60 dB, ou ser dependente de freqüência para refletir a audibilidade mais baixa de sons discretos em freqüências baixas e muito altas. (Note que seria possível reduzir o tamanho da matriz para M/2 em que a FFT representa as freqüências negativas assim como as po- sitivas).
[0038] A etapa 1-2 calcula uma medida da diferença entre os espectros de blocos adjacentes. Para cada bloco, cada um dos M (log) coeficientes espectrais da etapa 1-1 é subtraído do coeficiente correspondente para o bloco precedente, e a magnitude da diferença calculada (o sinal é ignorado). Estas M diferenças são então somadas para um número. Esta medida de diferença pode também ser expressa como uma diferença média por coeficiente espectral dividindo a medida de diferença pelo número de coeficientes espectrais utilizados na soma (neste caso M coeficientes).
[0039] A etapa 1-3 identifica as localizações de limites de eventos auditivos pela aplicação de um limite à matriz de medidas de diferença da etapa 1-2 com um valor limite. Quando uma medida de diferença excede um limite, a mudança em espectro é considerada suficiente para sinalizar um novo evento e o número de bloco da mudança é gravado como um limite de evento. Para os valores de M e P acima fornecidos e para os valores de domínio log (na etapa 1-1) expressos em unidades de dB, o limite pode ser determinado igual a 2500 se a FFT de magnitude inteira (incluindo a parte espelhada) for comparada ou 1250 se metade da FFT for comparada (como acima notado, a FFT representa as freqüências negativas assim como positivas - para a magnitude da FFT, uma é a imagem de espelho da outra). Este valor foi escolhido experimentalmente e este provê uma boa detecção de limite de evento auditivo. Este valor de parâmetro pode ser mudado para reduzir (aumentar o limite) ou aumentar (diminuir o limite) a detecção de eventos.
[0040] O processo da figura 1 pode ser representado mais genericamente pelas disposições equivalentes das figuras 3, 4 e 5. Na figura 3, um sinal de áudio é aplicado em paralelo a uma função de "Identificar os Eventos Auditivos" ou etapa 3-1 que divide o sinal de áudio em eventos auditivos, cada um dos quais tende a ser percebido como separado e distinto e para uma função de "Identificar as Características de Eventos Auditivos" opcional ou etapa 3-2. O processo da figura 1 pode ser empregado para dividir o sinal de áudio em eventos auditivos e as suas características identificadas ou algum outro processo adequado pode ser empregado. As informações de evento auditivo, as quais podem ser uma identificação de limites de evento auditivo, determinada pela função ou etapa 3-1 são então utilizadas para modificar os parâmetros de processamento de dinâmica de áudio (tais como ataque, liberação, razão, etc.), conforme desejado, por uma função de "Modificar os Parâmetros de Dinâmica" ou etapa 3-3. A função de "Identificar Características" opcional ou etapa 3-3 também recebe as informações de evento auditivo. A função de "Identificar Características" ou etapa 3-3 pode caracterizar alguns ou todos os eventos auditivos por uma ou mais características. Tais características podem incluir uma identificação da sub-banda dominante do evento auditivo, como descrito em conexão com o processo da figura 1. As características podem também incluir uma ou mais características de áudio, que incluem, por exemplo, uma medida de potência do evento auditivo, uma medida de amplitude do evento auditivo, uma medida de nivelamento espectral do evento auditivo, e se o evento auditivo é substancialmente silencioso, ou outras características que ajudam a modificar os parâmetros de dinâmica de modo que os artefatos audíveis negativos do processamento sejam reduzidos ou removidos. As características podem também incluir outras características tais como se o evento auditivo inclui um transiente.
[0041] Alternativas à disposição da figura 3 estão mostradas nas figuras 4 e 5. Na figura 4, o sinal de entrada de áudio não é aplicado diretamente na função de "Identificar Características" ou etapa 4-3, mas este recebe as informações da função de "Identificar os Eventos Auditivos" ou etapa 4-1. A disposição da figura 1 é um exemplo específico de tal disposição. Na figura 5, as funções ou etapas 5-1, 5-2 e 5-3 estão dispostas em série.
[0042] Os detalhes desta modalidade prática não são críticos. Outros modos de calcular o conteúdo espectral de segmentos de tempo sucessivos do sinal de áudio, calcular as diferenças entre os segmentos de tempo sucessivos, e determinar os limites de evento auditivo nos respectivos limites entre os sucessivos segmentos de tempo quando a diferença no conteúdo de perfil espectral entre tais segmentos de tempo sucessivos excede um limite podem ser empregados.
[0043] O Pedido Internacional sob o Tratado de Cooperação de Patentes S.N. PCT/US2005/038579, depositado em 25 de Outubro de 2005, publicado como Publicação Internacional Número WO 2006/047600 A1 ("Calculando e Ajustando a Sonoridade Percebida e/ou o Balanço Espectral Percebido de Um Sinal de Áudio" por Alan Jeffrey Seefeldt) descreve, entre outras coisas, uma medida objetiva de sonoridade percebida com base em um modelo psicoacústico. O dito pedido está por meio disto incorporado por referência em sua totalidade. Como descrito no dito pedido, de um sinal de áudio, x[n], um sinal de excitação E[b,t] é computado que aproxima a distribuição de energia ao longo da membrana basilar do ouvido interno na banda crítica b durante o bloco de tempo t. Esta excitação pode ser computada da Transformada de Fourier Discreta de Curto Prazo (STDFT) do sinal de áudio como segue: onde X[k,t] representa a STDFT de x[n] no bloco de tempo t e na caixa k. Note que na equação 1 t representa o tempo em unidades discretas de blocos de transformadas em oposição a uma medida contínua, tal como segundos. T[k] representa a resposta de freqüência de um filtro que simula a transmissão de áudio através do ouvido externo e médio, e Cb[k] representa a resposta de freqüência da membrana basilar em uma localização que corresponde à banda crítica b. A figura 6 apresenta um conjunto adequado de respostas de filtro de banda crítica no qual 40 bandas estão espaçadas uniformemente ao longo da escala de Largura de Banda Retangular Equivalente (ERB), como definido por Moore e Glasberg. Cada forma de filtro está descrita por uma função exponencial arredondada e as bandas estão distribuídas utilizando um espaçamento de 1 ERB. Finalmente, a constante de tempo de suavi- zação Àb na equação 1 pode ser vantajosamente escolhida proporcional ao tempo de integração de percepção de sonoridade humana den-tro da banda b.
[0044] Utilizando contornos de sonoridade iguais, tais como aqueles apresentados na figura 7, a excitação em cada banda é transformada em um nível de excitação que geraria a mesma sonoridade percebida a 1 kHz. A sonoridade específica, uma medida de sonoridade perceptual distribuída através de freqüência e tempo, é então computada da excitação transformada, E1kHz[b,t], através de uma não linearidade compressiva. Uma tal função adequada para computar a sonoridade específica N[b,t] é dada por: onde TQ1kHz é o limite em silêncio a 1 kHz e as constantes β e α são escolhidas para coincidir com o crescimento de dados de sonoridade como coletados de experiências de escuta. Abstratamente, esta trans formação de excitação para sonoridade específica pode ser representada pela função Ψ{ } de modo que:
[0045] Finalmente, a sonoridade total, L[t], representada em unidades de sone, é computada somando a sonoridade específica através das bandas:
[0046] A sonoridade específica N[b,t] é uma representação espectral destinada a simular o modo no qual um humano percebe o áudio como uma função de freqüência e tempo. Esta captura as variações em sensibilidade a diferentes freqüências, variações em sensibilidade a nível, e variações em resolução de freqüência. Como tal, esta é uma representação espectral bem coincidida com a detecção de eventos auditivos. Apesar de mais computacionalmente complexo, comparar a diferença de N[b,t] através das bandas entre os sucessivos blocos de tempo pode em muitos casos resultar em uma detecção perceptual- mente mais precisa de eventos auditivos em comparação com a utilização direta de sucessivos espectros de FFT acima descrito.
[0047] No dito pedido de patente, diversas aplicações para modificar o áudio com base neste modelo de sonoridade psicoacústico estão descritas. Entre estas estão diversos algoritmos de processamento de dinâmica, tal como AGC e DRC. Estes algoritmos descritos podem beneficiar-se da utilização de eventos auditivos para controlar os vários parâmetros associados. Como a sonoridade específica já está computada, esta está prontamente disponível para o propósito de detectar os ditos eventos. Os detalhes de uma modalidade preferida estão abaixo discutidos.
[0048] Dois exemplos de modalidades da invenção serão agora apresentados. O primeiro descreve a utilização de eventos auditivos para controlar o tempo de liberação em uma implementação digital de um Controlador de Faixa Dinâmica (DRC) no qual o controle de ganho é derivado da potência de Valor Médio Quadrático (RMS) do sinal. A segunda modalidade descreve a utilização de eventos auditivos para controlar certos aspectos de uma combinação mais sofisticada de AGC e DRC implementada dentro do contexto do modelo de sonoridade psicoacústico acima descrito. Estas duas modalidades destinam-se a servir como exemplos da invenção somente, e não deve ser com-preendido que a utilização de eventos auditivos para controlar os parâmetros de um algoritmo de processamento de dinâmica não está restrita às especificidades abaixo descritas.
[0049] A implementação digital descrita de um DRC segmenta um sinal de áudio x[n] em blocos abertos em janela, semi-sobrepostos, e para cada bloco um ganho de modificação com base em uma medida da potência local do sinal e uma curva de compressão selecionada é computado. O ganho é suavizado através dos blocos e então multiplicado com cada bloco. Os blocos modificados são finalmente adicionados sobrepostos para gerar o sinal de áudio modificado y[n].
[0050] Deve ser notado, que apesar da análise de cena auditiva e da implementação digital de DRC como aqui descrito dividir o sinal de áudio de domínio de tempo em blocos para executar a análise e o processamento, o processamento de DRC não precisa ser executado utilizando a segmentação de blocos. Por exemplo, a análise de cena au- ditiva poderia ser executada utilizando a segmentação de blocos e análise espectral como acima descrito e as localizações e características de eventos auditivos resultantes poderiam ser utilizadas para prover as informações de controle para uma implementação digital de uma implementação de DRC tradicional que tipicamente opera em uma base de amostra por amostra. Aqui, no entanto, a mesma estrutura de bloqueio utilizada para a análise de cena auditiva é empregada para o DRC para simplificar a descrição de sua combinação.
[0051] Prosseguindo com a descrição de uma implementação de DRC baseada em blocos, os blocos sobrepostos do sinal de áudio podem ser representados como: para 0 < n < M - 1 onde M é o comprimento de bloco e o tamanho de salto é M/2, w[n] é a janela, n é o índice de amostra dentro do bloco, e t é o índice de bloco (note que aqui t é utilizado no mesmo modo como com a STDFT na equação 1; este representa o tempo em unidades discretas de blocos ao invés de segundos, por exemplo). Idealmente, a janela w[n] afila para zero em ambas as extremidades e soma à unidade quando semi- sobreposta com si mesma; a janela de seno comumente utilizada atende estes critérios, por exemplo.
[0052] Para cada bloco, pode-se então computar a potência de RMS para gerar uma medida de potência P[t] em dB por bloco:
[0053] Como anteriormente mencionado, poderia suavizar-se esta medida de potência com um rápido ataque e uma lenta liberação antes do processamento com uma curva de compressão, mas como uma alternativa a potência instantânea P[t] é processada e o ganho resultante é suavizado. Esta proposta alternativa tem a vantagem que uma simples curva de compressão com pontos de cotovelo agudos pode ser utilizada, mas os ganhos resultantes são ainda suavizados conforme a potência desloca-se através do ponto de cotovelo. Representando uma curva de compressão como mostrado na figura 8c como uma função F de nível de sinal que gera um ganho, o ganho de bloco G[t] é dado por:
[0054] Assumindo que a curva de compressão aplica uma maior atenuação conforme o nível de sinal aumenta, o ganho será decrescente quando o sinal estiver em "modo de ataque" e crescente quando no "modo de liberação". Portanto, um ganho suavizado pode ser computado de acordo com: onde e
[0055] Finalmente, o ganho suavizado, o qual é em dB, é aplicado a cada bloco do sinal, e os blocos modificados são adicionados sobrepostos para produzir o áudio modificado:
[0056] Note que como os blocos foram multiplicados por uma janela afinada, como mostrado na equação 4, a síntese de adição de so-breposição acima mostrada efetivamente suaviza os ganhos através de amostras do sinal processado y[n]. Assim, o sinal de controle de ganho recebe suavização além daquela mostrada na equação 7a. Em uma implementação mais tradicional de DRC operando amostra por amostra ao invés de bloco por bloco, uma suavização de ganho mais sofisticada do que o simples filtro de um pólo mostrado na equação 7a poderia ser necessária de modo a impedir uma distorção audível no sinal processado. Também, a utilização de um processamento baseado em bloco introduz um retardo inerente de M/2 amostras no sistema, e desde que o tempo de decaimento associado com «attack fique próximo deste retardo, o sinal x[n] não precisa ser retardado adicionalmente antes da aplicação dos ganhos para os propósitos de impedir exceder.
[0057] As figuras 9a até 9c apresentam o resultado de aplicar o processamento de DRC descrito a um sinal de áudio. Para esta im-plementação específica, um comprimento de bloco de M = 512 é utilizado na taxa de amostragem de 44,1 kHz. Uma curva de compressão similar àquela mostrada na figura 8b é utilizada: acima de -20 dB em relação a digital em escala total o sinal é atenuado dom uma razão de 5:1, e abaixo de -30 dB o sinal é intensificado com uma razão de 5:1. O ganho é suavizado com um coeficiente de ataque «attack que cor-responde a um meio tempo de decaimento de 10 ms e um coeficiente de liberação «release que corresponde a um meio tempo de decaimento de 500 ms. O sinal de áudio original apresentado na figura 9a consiste em seis acordes de piano consecutivos, com o acorde final localizado ao redor da amostra de 1,75 x 105, decaindo para o silêncio. Examinando um gráfico do ganho G-[t] na figura 9b, deve ser notado que o ganho permanece próximo de 0 dB enquanto os seis acordes são tocados. Isto é porque a energia de sinal permanece, pela maior parte, entre -30 dB e -20 dB, a região dentro da qual a curva de DRC não pede nenhuma modificação. No entanto, após a execução do último acorde, a energia de sinal cai abaixo de -30 dB, e o ganho começa a aumentar, eventualmente além de 15 dB, conforme o acorde decai. A figura 9c apresenta o sinal de áudio modificado resultante, e pode-se ver que a cauda do acorde final é intensificada significativamente. Au- divelmente, esta intensificação do som de decaimento de baixo nível, natural do acorde cria um resultado extremamente não natural. É o objetivo da presente invenção impedir os problemas deste tipo que estão associados com um processador de dinâmica tradicional.
[0058] As figuras 10a até 10c apresentam os resultados da aplicação do mesmo sistema de DRC exato a um sinal de áudio diferente. Neste caso a primeira metade do sinal consiste uma peça de música de tempo crescente em um alto nível, e então a aproximadamente a amostra 10 x 104 o sinal muda para uma segunda peça de música de tempo crescente, mas a um nível significativamente mais baixo. Examinando o ganho na figura 6b, vê-se que o sinal é atenuado por aproximadamente 10 dB durante a primeira metade, e então o ganho sobe novamente para 0 dB durante a segunda metade quando a peça mais suave está tocando. Neste caso, o ganho comporta-se como desejado. Se desejaria que a segunda peça fosse intensificada em relação à primeira, e o ganho deveria aumentar rapidamente após a transição para a segunda peça para ser audivelmente não obstrusiva. Vê-se um comportamento de ganho que é similar àquele para o primeiro sinal discutido, mas aqui o comportamento é desejável. Portanto, se gostaria de fixar o primeiro caso sem afetar o segundo. A utilização de eventos auditivos para controlar o tempo de liberação deste sistema de DRC provê tal solução.
[0059] No primeiro sinal que foi examinado na figura 9, a intensificação do decaimento do último acorde parece não natural porque o acorde e o seu decaimento são percebidos com um único evento auditivo cuja integridade é esperada ser mantida. No segundo caso, no entanto, muitos eventos auditivos ocorrem enquanto o ganho aumenta, significando que para qualquer evento individual, pouca mudança é imposta. Portanto a mudança de ganho total não é tão discutível. Pode-se portanto questionar que uma mudança de ganho deveria ser permitida somente na vizinhança quase temporal de um limite de evento auditivo. Pode-se aplicar este princípio a um ganho enquanto este está ou no modo de ataque ou de liberação, mas para a maioria das implementações práticas de um DRC, o ganho move-se tão rapidamente no modo de ataque em comparação com a resolução temporal humana de percepção de eventos que nenhum controle é necessário. Pode-se portanto utilizar os eventos para controlar a suavização do ganho de DRC somente quando este está no modo de liberação.
[0060] Um comportamento adequado do controle de liberação será agora descrito. Em termos qualitativos, se um evento por detectado, o ganho é suavizado com o tempo de liberação constante como acima especificado na Equação 7a. Conforme o tempo evolui passando pelo evento detectado, e se nenhum evento subsequente for detectado, a constante de tempo de liberação aumenta continuamente de modo que eventualmente o ganho suavizado é "congelado" no lugar. Se outro evento for detectado, então a constante de tempo de suavização é rea-justada para o valor original e o processo repete-se. De modo a modular o tempo de liberação, pode-se primeiro gerar um sinal de controle baseado nos limites de evento detectados.
[0061] Como anteriormente discutido, os limites de evento podem ser detectados procurando por mudanças em espectros sucessivos do sinal de áudio. Nesta implementação específica, a DFT de cada bloco sobreposto x[n,t] pode ser computada para gerar a STDFT do sinal de áudio x[n]:
[0062] A seguir, a diferença entre os espectros de magnitude log normalizados de blocos sucessivos pode ser computada de acordo com: Onde
[0063] Aqui o máximo de |X[k,t]| através das caixas k é utilizado para a normalização, apesar de que se poderia empregar outros fatores de normalização; por exemplo, a média de |X[k,t]| através das caixas. Se a diferença D[t] exceder um limite Dmin, então um evento é considerado ter ocorrido. Além disso, pode-se atribuir uma força a este evento, que fica entre zero e um, com base no tamanho de D[t] em comparação com um limite máximo Dmax. O sinal de força de evento auditivo resultante A[t] pode ser computado como:
[0064] Atribuindo uma força para o evento auditivo proporcional à quantidade de mudança espectral associada com aquele evento, um maior controle sobre o processamento de dinâmica é conseguido em comparação com uma decisão de evento binário. Os inventores des-cobriram que maiores mudanças de ganho são aceitáveis durante os eventos mais fortes, e o sinal na equação 11 permite tal controle variá-vel.
[0065] O sinal A[t] é um sinal impulsivo com um impulso ocorrendo na localização de um limite de evento. Para os propósitos de controlar o tempo de liberação, pode-se adicionalmente suavizar o sinal A[t] de modo que este decaia suavemente para zero após a detecção de um limite de evento. O sinal de controle de evento suavizado pode ser computado de A[t] de acordo com:
[0066] Aqui αθvent controla o tempo de decaimento do sinal de controle de evento. As figuras 9d e 10d apresentam o sinal de controle de evento para os dois sinais de áudio correspondentes, com o tem- po de meio decaimento do mais suave ajustado para 250 ms. No primeiro caso, vê-se que um limite de evento é detectado para cada um dos seis acordes de piano, e que o sinal de controle de evento decai suavemente na direção de zero após cada evento. Para o segundo sinal, muitos eventos são detectados muito próximos uns dos outros no tempo, e portanto o sinal de controle de evento nunca decai totalmente para zero.
[0067] Pode-se agora utilizar o sinal de controle de evento para variar a constante de tempo de liberação utilizada para suavizar o ganho. Quando o sinal de controle é igual a um, o coeficiente de sua- vização «[t] da Equação 7a é igual a «release, como antes, e quando o sinal de controle é igual a zero, o coeficiente é igual a um de modo que o ganho suavizado é impedido de mudar. O coeficiente de suavização é interpolado entre estes dois extremos utilizando o sina de controle de acordo com:
[0068] Pela interpolação do coeficiente de suavização continuamente como uma função do sinal de controle de evento, o tempo de liberação é reajustado para um valor proporcional à força de evento no início de um evento e então aumenta suavemente para infinito após a ocorrência de um evento. A taxa deste aumento é ditada pelo coeficiente «event utilizado para gerar o sinal de controle de evento suavizado.
[0069] As figuras 9e e 10e mostram o efeito de suavização do ganho com o coeficiente controlado por evento da Equação 13 em oposição ao coeficiente não controlado por evento da Equação 7b. No primeiro caso, o sinal de controle de evento cai para zero após o último acorde de piano por meio disto impedindo que o ganho mova-se para cima. Como um resultado, o áudio modificado correspondente na figura 9f não sofre uma intensificação não natural do decaimento do acorde. No segundo caso, o sinal de controle de evento nunca se aproxima de zero, e portanto o sinal de ganho suavizado é muito pouco inibido através da aplicação do controle de evento. A trajetória do ganho suavizado é quase idêntica ao ganho não controlado por evento na figura 10b. Este é exatamente o efeito desejado.
[0070] Como uma alternativa às técnicas de processamento de dinâmica tradicionais onde as modificações de sinal são uma função direta de simples medições de sinal tal como o Pico ou a potência de RMS, o Pedido de Patente Internacional S.N. PCT/US2005/038579 descreve a utilização do modelo de sonoridade baseado em psicoa- cústica anteriormente descrito como uma estrutura dentro da qual executar o processamento de dinâmica. Diversas vantagens são citadas. Primeiro, as medições e as modificações são especificadas em unidades de sone, a qual é uma medida mais precisa de percepção de sonoridade do que as medições mais básicas tais como o Pico ou a potência de RMS. Segundamente, o áudio pode ser modificado de modo que o balanço espectral percebido do áudio original é mantido conforme a sonoridade total é mudada. Deste modo, mudanças na sonoridade total tornam-se menos perceptualmente aparentes em comparação com um processador de dinâmica que utiliza um ganho de banda larga, por exemplo, para modificar o áudio. Finalmente, o modelo psicoa- cústico é inerentemente de múltiplas bandas, e portanto o sistema é facilmente configurado para executar um processamento de dinâmica de múltiplas bandas de modo a aliviar os problemas de bombeamento espectral cruzado bem conhecido associados com um processador de dinâmica de banda larga.
[0071] Apesar da execução de processamento de dinâmica neste domínio de sonoridade já apresenta diversas vantagens sobre um pro-cessamento de dinâmica mais tradicional, a técnica pode ser adicio-nalmente aperfeiçoada através da utilização de eventos auditivos para controlar vários parâmetros. Considere o segmento de áudio que contém os acordes de piano como apresentado em 27a e o DRC associado mostrado nas figuras 10b e c. Poderia-se executar um DRC similar no domínio de sonoridade, e neste caso, quando a sonoridade do de-caimento do acorde do piano final é intensificada, a intensificação seria menos aparente porque o balanço espectral da nota em decaimento seria mantido conforme a intensificação é aplicada. No entanto, uma melhor solução é não intensificar o decaimento, e portanto pode-se vantajosamente aplicar o mesmo princípio de controlar os tempos de ataque e de liberação com os eventos auditivos no domínio de sonori-dade como foi anteriormente descrito para o DRC tradicional.
[0072] O sistema de processamento de dinâmica de domínio de sonoridade que é agora descrito consiste em AGC seguido por DRC. O objetivo desta combinação é fazer com que todo o áudio processado tenha aproximadamente a mesma sonoridade percebida enquanto ainda mantendo pelo menos alguma da dinâmica de áudio original. A figura 11 apresenta um conjunto adequado de curvas de AGC e de DRC para esta aplicação. Note que a entrada e a saída de ambas as curvas estão representadas em unidades de sone já que o processamento é executado no domínio de sonoridade. A curva de AGC esforça-se para trazer o áudio de saída mais próximo a algum nível alvo, e, como anteriormente mencionado, o faz com constantes de tempo relativamente lentas. Pode-se pensar do AGC como fazendo a sonoridade de longo prazo do áudio igual ao alvo, mas em uma base de curto prazo, a sonoridade pode flutuar significativamente ao redor deste alvo. Portanto, pode-se empregar um DRC que atue mais rápido para limitar estas flutuações a alguma faixa considerada aceitável para a aplicação específica. A figura 11 mostra tal curva de DRC onde o alvo de AGC cai dentro da "banda nula" do DRC, a porção da curva que não requer nenhuma modificação. Com esta combinação de curvas, o AGC coloca a sonoridade de longo prazo do áudio dentro da banda nula da curva de DRC de modo que modificações de DRC de atuação rápida mínimas precisam ser aplicadas. Se a sonoridade de curto prazo ainda flutuar fora da banda nula, o DRC então atua para mover a sonoridade do áudio na direção de sua banda nula. Como uma nota geral final, pode-se aplicar o AGC de atuação lenta de modo que todas as bandas do modelo de sonoridade recebam a mesma quantidade de modificação de sonoridade, por meio disto mantendo o balanço espectral percebido, e pode-se aplicar o DRC de atuação rápida em um modo que permita que a modificação de sonoridade varie através das bandas de modo a aliviar o bombeamento espectral cruzado que poderia de outro modo resultar da modificação de sonoridade independente de banda de atuação rápida.
[0073] Os eventos auditivos podem ser utilizados para controlar o ataque e a liberação tanto do AGC quanto do DRC. No caso do AGC, tanto o tempo de ataque quanto de liberação são grandes em comparação com a resolução temporal de percepção de evento, e portanto o controle de evento pode ser vantajosamente empregado em ambos os casos. Com o DRC, o ataque é relativamente curto, e portanto o controle de evento pode ser necessário somente para a liberação como com o DRC tradicional acima descrito.
[0074] Como anteriormente descrito, pode-se utilizar o espectro de sonoridade específico associado com o modelo de sonoridade empre-gado para os propósitos de detecção de evento. Um sinal de diferença D[t], similar àquele nas Equações 10a e b pode ser computado da so-noridade específica N[b,t], definida na Equação 2, como segue: onde
[0075] Aqui o máximo de |N[b,t]| através das bandas de freqüência b é utilizado para a normalização, apesar de que se poderia empregar outros fatores de normalização; por exemplo, a média de |N[b,t]| através das bandas de freqüência. Se a diferença D[t] exceder um limite Dmin, então um evento é considerado ter ocorrido. O sinal de diferença pode então ser processado no mesmo modo mostrado nas Equações 11 e 12 para gerar um sinal de controle de evento suave A[t] utilizado para controlar os tempos de ataque e de liberação.
[0076] A curva de AGC apresentada na figura 11 pode ser representada como uma função que toma como a sua entrada uma medida de sonoridade e gera uma sonoridade de saída desejada:
[0077] A curva de DRC pode ser similarmente representada
[0078] Para o AGC, a sonoridade de entrada é uma medida da so- noridade de longo prazo do áudio. Pode-se computar tal medida suavi-zando a sonoridade instantânea L[t], definida na Equação 3, utilizando constantes de tempo relativamente longas (na ordem de diversos se-gundos). Foi mostrado que no julgamento de sonoridade de longo prazo de um segmento de áudio, os seres humanos ponderam as porções mais altas mais pesadamente do que as suaves, e pode-se utilizar um ataque mais rápido do que a liberação na suavização para simular este efeito. Com a incorporação de controle de evento tanto para o ataque quanto a liberação, a sonoridade de longo prazo utilizada para determinar a modificação de AGC pode portanto ser computada de acordo: onde
[0079] Além disso, pode ser computar um espectro de sonoridade específica de longo prazo associado que posteriormente será utilizado para o DRC de múltiplas bandas:
[0080] Na prática pode-se escolher os coeficientes de suavização de modo que o tempo de ataque seja aproximadamente a metade daquele da liberação. Dada a medida de sonoridade de longo prazo, pode-se então computar a escalagem de modificação de sonoridade associada com o AGC como a razão da sonoridade de saída para a so- noridade de entrada:
[0081] A modificação de DRC pode agora ser computada da sonoridade após a aplicação da escalagem de AGC. Ao invés de suavizar uma medida da sonoridade antes da aplicação da curva de DRC, pode-se alternativamente aplicar a curva de DRC na sonoridade instantânea e então subsequentemente suavizar a modificação resultante. Isto é similar à técnica anteriormente descrita para suavizar o ganho do DRC tradicional. Além disso, o DRC pode ser aplicado em um modo de múltiplas bandas, significando que a modificação de DRC é uma função da sonoridade específica N[b,t] em cada banda d, ao invés da sonoridade total L[t]. No entanto, de modo a manter o balanço espectral médio do áudio original, pode-se aplicar o DRC a cada banda de modo que as modificações resultantes tenham o mesmo efeito médio que resultaria da aplicação de DRC na sonoridade total. Isto pode ser conseguido escalando cada banda pela razão da sonoridade total de longo prazo (após a aplicação da escalagem de AGC) para a sonoridade específica a longo prazo, e utilizando este valor como o argumento para a função de DRC. O resultado é então reescalado pelo inverso da dita razão para produzir a sonoridade específica de saída. Assim a escalagem de DRC em cada banda pode ser computada de acordo com:
[0082] As modificações de AGC e de DRC podem então ser combinadas para formar a escalagem de sonoridade total por banda:
[0083] Esta escalagem total pode então ser suavizada através do tempo independentemente para cada banda com um rápido ataque e uma lenta liberação e o controle de evento aplicado somente à liberação. Idealmente, a suavização é executada no logaritmo da escalagem análogo aos ganhos do DRC tradicional sendo suavizados em sua re-presentação de decibel, apesar disto não ser essencial. Para assegurar que a escalagem total suavizada move-se em sincronismo com a sonoridade específica em cada banda, os modos de ataque e de libe-ração podem ser determinados através da suavização simultânea da própria sonoridade específica: Onde
[0084] Finalmente pode-se computar uma sonoridade específica alvo com base na escalagem suavizada aplicada na sonoridade específica original e então resolver para os ganhos G[b,t] que quando aplicados à excitação original resultam em uma sonoridade específica igual ao alvo:
[0085] Os ganhos podem ser aplicados a cada banda do banco de filtros utilizado para computar a excitação, e o áudio modificado pode então ser gerado pela inversão do banco de filtros para produzir um sinal de áudio de domínio de tempo modificado.
[0086] Apesar da discussão acima ter focalizado no controle dos parâmetros de ataque e de liberação de AGC e de DRC através de análise de cena auditiva do áudio que está sendo processado, outros parâmetros importantes podem também beneficiar-se de serem contro-lados através dos resultados de ASA. Por exemplo, o sinal de controle de evento A[t] da Equação 12 pode ser utilizado para variar o valor do parâmetro de razão de DRC que é utilizado para ajustar dinamicamente o ganho do áudio. O parâmetro de Razão, similarmente aos parâmetros de tempo de ataque e de liberação, pode contribuir significativamente para os artefatos perceptuais introduzidos por ajustes de ganho dinâmico.
[0087] A invenção pode ser implementada em hardware ou em software, ou uma combinação de ambos (por exemplo, matrizes de lógica programável). A menos que de outro modo especificado, os algoritmos incluídos como parte da invenção não estão inerentemente relacionados a nenhum computador ou outro aparelho específico. Especifica- mente, várias máquinas de uso geral podem ser utilizadas com os programas escritos de acordo com os ensinamentos aqui, ou pode ser mais conveniente construir um aparelho mais especializado (por exemplo, circuitos integrados) para executar as etapas de método re-queridas. Assim, a invenção pode ser implementada em um ou mais programas de computador que executam em um ou mais sistemas de computador programáveis cada um compreendendo pelo menos um processador, pelo menos um sistema de armazenamento de dados (incluindo uma memória volátil e não-volátil e/ou elementos de arma-zenamento), pelo menos um dispositivo ou porta de entrada, e pelo menos um dispositivo ou porta de saída. Um código de programa é aplicado aos dados de entrada para executar as funções aqui descritas e gerar as informações de saída. As informações de saídas são aplicadas a um ou mais dispositivo de saída, em um modo conhecido.
[0088] Cada tal programa pode ser implementado em qualquer linguagem de computador desejada (incluindo as linguagens de programação de máquina, assembly, ou de procedimentais de alto nível, lógicas, ou orientadas em objeto) para comunicar com um sistema de computador. Em qualquer caso, a linguagem pode ser uma linguagem compilada ou interpretada.
[0089] Cada tal programa de computador está de preferência armazenado em ou carregado para um meio ou dispositivo de armazenamento (por exemplo, uma memória ou mídia de estado sólido, ou mídia magnética ou ótica) legível por um computador programado de uso geral ou especial, para configurar e operar o computador quando o meio ou dispositivo de armazenamento é lido pelo sistema de computador para executar os procedimentos aqui descritos. O sistema inventivo pode também ser considerado ser implementado como um meio de armazenamento legível por computador, configurado com um programa de computador, onde o meio de armazenamento assim configu- rado faz com que um sistema de computador opere em um modo es-pecífico e predefinido para executar as funções aqui descritas.
[0090] Um número de modalidades da invenção foi descrito. Apesar de tudo, será compreendido que várias modificações podem ser feitas sem afastar-se do espírito e do escopo da invenção. Por exemplo, algumas das etapas aqui descritas podem ser independentes de ordem, e assim podem ser executadas em uma ordem diferente daquela descrita.
[0091] Deve ser compreendido que a implementação de outras variações e modificações da invenção e seus vários aspectos serão aparentes para aqueles versados na técnica, e que a invenção não está limitada por estas modalidades específicas descritas. É portanto contemplado cobrir pela presente invenção quaisquer e todas modificações, variações, ou equivalentes que caiam dentro do verdadeiro espírito e escopo dos princípios subjacentes básicos aqui descritos e reivindicados.
[0092] As seguintes patentes, pedidos de patente e publicações estão por meio disto incorporadas por referência, cada uma em sua totalidade.
[0093] Audio Engineer's Reference Book, editado por Michael Talbot-Smith, 2a edição. Limiters and Compressors, Alan Tutton, 2-1492165. Focal Press, Reed Educational and Professional Publishing, Ltd., 1999.
[0094] Pedido de Patente U.S. S.N. 10/474.387, "High Quality Time-Scaling and Pitch-Scaling of Audio Signals" de Brett Graham Crockett, publicado em 24 de Junho de 2004 como US 2004/0122662 A1.
[0095] Pedido de Patente U.S. S.N. 10/478.398, "Method for Time Aligning Audio Signals Using Characterizations Based on Auditory Events" de Brett G. Crockett et al, publicado em 29 de Julho de 2004 como US 2004/0148159 A1.
[0096] Pedido de Patente U.S. S.N. 10/478.538, "Segmenting Audio Signals Into Auditory Events" de Brett G. Crockett, publicado em 26 de Agosto de 2004 como US 2004/0165730 A1. Aspectos da presente invenção provêem um meio para detectar os eventos auditivos além daqueles descritos no dito pedido de Crockett.
[0097] Pedido de Patente U.S. S.N. 10/478.397, "Comparing Audio Using Characterizations Based on Auditory Events" de Brett G. Crockett et al, publicado em 02 de Setembro de 2004 como US 2004/0172240 A1.
[0098] Pedido Internacional sob o Tratado de Cooperação de Patentes S.N. PCT/US 05/24630 depositado em 13 de Julho de 2005, intitulado "Method for Combining Audio Signals Using Auditory Scene Analysis", de Michael John Smithers, publicado em 09 de Março de 2006 como WO 2006/026161.
[0099] Pedido Internacional sob o Tratado de Cooperação de Patentes S.N. PCT/US 2004/016964, depositado em 27 de maio de 2004, intitulado "Method, Apparatus and Computer Program for Calculating and Adjusting the Perceived Loudness of an Audio Signal" de Alan Jeffrey Seefeldt et al, publicado em 23 de Dezembro de 2004 como WO 2004/111994 A2.
[00100] Pedido Internacional sob o Tratado de Cooperação de Patentes S.N. PCT/US2005/038579, depositado em 25 de Outubro de 2005, intitulado "Calculating and Adjusting the Perceived Loudness and/or the Perceived Spectral Balance of an Audio Signal" por Alan Jeffrey Seefeldt e publicado como Publicação Internacional Número WO 2006/047600.
[00101] "A Method for Characterizing and Identifying Audio Based on Auditory Scene Analysis", por Brett Crockett e Michael Smithers, Audio Engineering Society Convention Paper 6416, 118th Convention, Barcelona, 28-31 de Maio de 2005.
[00102] "High Quality Multichannel Time Scaling and Pitch-Shifting using Auditory Scene Analysis", por Brett Crockett, Audio Engineering Society Convention Paper 5948, New York, Outubro de 2003.
[00103] "A New Objective Measure of Perceived Loudness" por Alan Seefeldt et al, Audio Engineering Society Convention Paper 6236, San Francisco, 28 de Outubro de 2004.
[00104] Handbook for Sound Engineers, The New Audio Cyclopedia, editado por Glen M. Ballou, 2a Edição. Dynamics, 850-851. Focal Press an imprint of Butterworth-Heinemann, 1998.
[00105] Audio Engineer's Reference Book, editado por Michael Talbot-Smith, 2a Edição, Seção 2.9 ("Limiters and Compressors" por Alan Tutton), pp. 2.149-2.165, Focal Press, Reed Educational and Professional Publishing, Ltd., 1999.
Claims (12)
1. Método para modificar um parâmetro de processamento de dinâmicas de áudio compreendendo as etapas de: detectar as mudanças em características espectrais em re-lação ao tempo em um sinal de áudio, identificar as mudanças de limites de evento auditivo maiores do que um limite em características espectrais em relação ao tempo no sinal de áudio, caracterizado pelo fato de que um segmento de áudio entre os limites consecutivos constitui um evento auditivo, gerar um sinal de controle de modificação de parâmetro com base nos limites de evento identificados, e modificar o parâmetro de processamento de dinâmicas de áudio como uma função do sinal de controle.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o parâmetro é um dentre tempo de ataque, tempo de liberação e razão.
3. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o parâmetro modificado é uma constante de tempo de suavização de ganho.
4. Método, de acordo com a reivindicação 3, caracterizado pelo fato de que a constante de tempo de suavização de ganho é uma constante de tempo de ataque de suavização de ganho.
5. Método, de acordo com a reivindicação 3, caracterizado pelo fato de que a constante de tempo de suavização de ganho é uma constante de tempo de liberação de suavização de ganho.
6. Método, de acordo com qualquer uma das reivindicações 1 a 5, caracterizado pelo fato de que o sinal de controle de modificação de parâmetro é baseado na localização dos limites de evento auditivo e no grau de mudança em características espectrais associadas a cada um dos limites de evento auditivo.
7. Método, de acordo com a reivindicação 6, caracterizado pelo fato de que gerar um sinal de controle de modificação de parâmetro compreende: proporcionar um impulso em cada um dos limites de evento auditivo, cada um dos impulsos tendo uma amplitude proporcional ao grau das mudanças em características espectrais, e suavizar no tempo cada impulso de modo que a sua ampli-tude decaia suavemente na direção zero, obtendo assim o sinal de controle de modificação de parâmetro.
8. Método, de acordo com qualquer uma das reivindicações 1 a 7, caracterizado pelo fato de que as mudanças em características espectrais em relação ao tempo são detectadas comparando as diferenças em sonoridades especificas.
9. Método, de acordo com a reivindicação 8, caracterizado pelo fato de que o sinal de áudio é representado por uma sequência de tempo discreta x[n] que foi amostrada a partir de uma fonte de áudio a uma frequência de amostragem fs e as mudanças em características espectrais em relação ao tempo são calculadas pela comparação da diferença em sonoridade específica N[b,t] através de bandas de frequência b entre os sucessivos blocos de tempo t.
10. Método, de acordo com a reivindicação 9, caracterizado pelo fato de que a diferença em conteúdo espectral entre os sucessivos blocos de tempo do sinal de áudio é calculada de acordo com onde
11. Método, de acordo com a reivindicação 9, caracteriza- do pelo fato de que a diferença em conteúdo espectral entre os su-cessivos blocos de tempo do sinal de áudio é calculada de acordo com onde
12. Aparelho caracterizado pelo fato de que compreende um meio adaptado para executar o método conforme definido em qualquer uma das reivindicações 1 a 11.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US79580806P | 2006-04-27 | 2006-04-27 | |
| US60/795,808 | 2006-04-27 | ||
| PCT/US2007/008313 WO2007127023A1 (en) | 2006-04-27 | 2007-03-30 | Audio gain control using specific-loudness-based auditory event detection |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| BRPI0711063A2 BRPI0711063A2 (pt) | 2011-08-23 |
| BRPI0711063B1 true BRPI0711063B1 (pt) | 2023-09-26 |
Family
ID=38445597
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| BRPI0711063-4A BRPI0711063B1 (pt) | 2006-04-27 | 2007-03-30 | Método e aparelho para modificar um parâmetro de processamento de dinâmicas de áudio |
Country Status (21)
| Country | Link |
|---|---|
| US (26) | US8144881B2 (pt) |
| EP (1) | EP2011234B1 (pt) |
| JP (2) | JP5129806B2 (pt) |
| KR (2) | KR101200615B1 (pt) |
| CN (2) | CN102684628B (pt) |
| AT (1) | ATE493794T1 (pt) |
| AU (2) | AU2007243586B2 (pt) |
| BR (1) | BRPI0711063B1 (pt) |
| CA (1) | CA2648237C (pt) |
| DE (1) | DE602007011594D1 (pt) |
| DK (1) | DK2011234T3 (pt) |
| ES (1) | ES2359799T3 (pt) |
| IL (1) | IL194430A (pt) |
| MX (1) | MX2008013753A (pt) |
| MY (1) | MY141426A (pt) |
| NO (13) | NO345590B1 (pt) |
| PL (1) | PL2011234T3 (pt) |
| RU (1) | RU2417514C2 (pt) |
| TW (1) | TWI455481B (pt) |
| UA (1) | UA93243C2 (pt) |
| WO (1) | WO2007127023A1 (pt) |
Families Citing this family (115)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7711123B2 (en) | 2001-04-13 | 2010-05-04 | Dolby Laboratories Licensing Corporation | Segmenting audio signals into auditory events |
| US7610205B2 (en) | 2002-02-12 | 2009-10-27 | Dolby Laboratories Licensing Corporation | High quality time-scaling and pitch-scaling of audio signals |
| CN101819771B (zh) | 2003-05-28 | 2012-04-11 | 杜比实验室特许公司 | 用于计算和调节音频信号的感觉响度的方法和设备 |
| CA2992125C (en) | 2004-03-01 | 2018-09-25 | Dolby Laboratories Licensing Corporation | Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters |
| US7508947B2 (en) | 2004-08-03 | 2009-03-24 | Dolby Laboratories Licensing Corporation | Method for combining audio signals using auditory scene analysis |
| US8199933B2 (en) | 2004-10-26 | 2012-06-12 | Dolby Laboratories Licensing Corporation | Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal |
| AU2005299410B2 (en) | 2004-10-26 | 2011-04-07 | Dolby Laboratories Licensing Corporation | Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal |
| WO2006132857A2 (en) | 2005-06-03 | 2006-12-14 | Dolby Laboratories Licensing Corporation | Apparatus and method for encoding audio signals with decoding instructions |
| EP2002426B1 (en) | 2006-04-04 | 2009-09-02 | Dolby Laboratories Licensing Corporation | Audio signal loudness measurement and modification in the mdct domain |
| TWI517562B (zh) | 2006-04-04 | 2016-01-11 | 杜比實驗室特許公司 | 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式 |
| CA2648237C (en) | 2006-04-27 | 2013-02-05 | Dolby Laboratories Licensing Corporation | Audio gain control using specific-loudness-based auditory event detection |
| UA94968C2 (ru) | 2006-10-20 | 2011-06-25 | Долби Леборетериз Лайсенсинг Корпорейшн | Обработка динамических свойств аудио с использованием перенастройки |
| US8521314B2 (en) | 2006-11-01 | 2013-08-27 | Dolby Laboratories Licensing Corporation | Hierarchical control path with constraints for audio dynamics processing |
| US8254591B2 (en) | 2007-02-01 | 2012-08-28 | Personics Holdings Inc. | Method and device for audio recording |
| US11217237B2 (en) | 2008-04-14 | 2022-01-04 | Staton Techiya, Llc | Method and device for voice operated control |
| US11317202B2 (en) | 2007-04-13 | 2022-04-26 | Staton Techiya, Llc | Method and device for voice operated control |
| US9185507B2 (en) | 2007-06-08 | 2015-11-10 | Dolby Laboratories Licensing Corporation | Hybrid derivation of surround sound audio channels by controllably combining ambience and matrix-decoded signal components |
| EP2168122B1 (en) | 2007-07-13 | 2011-11-30 | Dolby Laboratories Licensing Corporation | Audio processing using auditory scene analysis and spectral skewness |
| EP2232700B1 (en) | 2007-12-21 | 2014-08-13 | Dts Llc | System for adjusting perceived loudness of audio signals |
| BRPI0906142B1 (pt) * | 2008-03-10 | 2020-10-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. | dispositivo e método para a manipulação de um sinal de áudio tendo um evento transiente |
| JP5341983B2 (ja) * | 2008-04-18 | 2013-11-13 | ドルビー ラボラトリーズ ライセンシング コーポレイション | サラウンド体験に対する影響を最小限にしてマルチチャンネルオーディオにおけるスピーチの聴覚性を維持するための方法及び装置 |
| US9253560B2 (en) * | 2008-09-16 | 2016-02-02 | Personics Holdings, Llc | Sound library and method |
| WO2010033387A2 (en) | 2008-09-19 | 2010-03-25 | Dolby Laboratories Licensing Corporation | Upstream signal processing for client devices in a small-cell wireless network |
| EP2329492A1 (en) | 2008-09-19 | 2011-06-08 | Dolby Laboratories Licensing Corporation | Upstream quality enhancement signal processing for resource constrained client devices |
| US9129291B2 (en) | 2008-09-22 | 2015-09-08 | Personics Holdings, Llc | Personalized sound management and method |
| EP2352225A1 (en) * | 2008-10-17 | 2011-08-03 | Sharp Kabushiki Kaisha | Audio signal adjustment device and audio signal adjustment method |
| EP2362996B1 (en) * | 2008-11-14 | 2012-10-24 | THAT Corporation | Dynamic volume control and multi-spatial processing protection |
| WO2010075377A1 (en) | 2008-12-24 | 2010-07-01 | Dolby Laboratories Licensing Corporation | Audio signal loudness determination and modification in the frequency domain |
| WO2010099237A2 (en) * | 2009-02-25 | 2010-09-02 | Conexant Systems, Inc. | Speaker distortion reduction system and method |
| US8422699B2 (en) * | 2009-04-17 | 2013-04-16 | Linear Acoustic, Inc. | Loudness consistency at program boundaries |
| US8938313B2 (en) | 2009-04-30 | 2015-01-20 | Dolby Laboratories Licensing Corporation | Low complexity auditory event boundary detection |
| WO2010127024A1 (en) | 2009-04-30 | 2010-11-04 | Dolby Laboratories Licensing Corporation | Controlling the loudness of an audio signal in response to spectral localization |
| TWI503816B (zh) | 2009-05-06 | 2015-10-11 | Dolby Lab Licensing Corp | 調整音訊信號響度並使其具有感知頻譜平衡保持效果之技術 |
| US9055374B2 (en) * | 2009-06-24 | 2015-06-09 | Arizona Board Of Regents For And On Behalf Of Arizona State University | Method and system for determining an auditory pattern of an audio segment |
| US8249275B1 (en) * | 2009-06-26 | 2012-08-21 | Cirrus Logic, Inc. | Modulated gain audio control and zipper noise suppression techniques using modulated gain |
| US8554348B2 (en) * | 2009-07-20 | 2013-10-08 | Apple Inc. | Transient detection using a digital audio workstation |
| WO2011015237A1 (en) * | 2009-08-04 | 2011-02-10 | Nokia Corporation | Method and apparatus for audio signal classification |
| US8538042B2 (en) | 2009-08-11 | 2013-09-17 | Dts Llc | System for increasing perceived loudness of speakers |
| WO2011043020A1 (ja) * | 2009-10-07 | 2011-04-14 | 日本電気株式会社 | マルチバンドコンプレッサ、その調整方法 |
| EP2367286B1 (en) | 2010-03-12 | 2013-02-20 | Harman Becker Automotive Systems GmbH | Automatic correction of loudness level in audio signals |
| CN105812817B (zh) | 2010-11-23 | 2019-07-12 | Lg电子株式会社 | 由编码装置和解码装置执行的间预测方法 |
| US8855322B2 (en) * | 2011-01-12 | 2014-10-07 | Qualcomm Incorporated | Loudness maximization with constrained loudspeaker excursion |
| JP5707219B2 (ja) * | 2011-05-13 | 2015-04-22 | 富士通テン株式会社 | 音響制御装置 |
| EP2714184B1 (en) * | 2011-05-26 | 2017-05-10 | Advanced Bionics AG | Systems for improving representation by an auditory prosthesis system of audio signals having intermediate sound levels |
| DE102011085036A1 (de) * | 2011-10-21 | 2013-04-25 | Siemens Medical Instruments Pte. Ltd. | Verfahren zum Ermitteln einer Kompressionskennlinie |
| TWI575962B (zh) * | 2012-02-24 | 2017-03-21 | 杜比國際公司 | 部份複數處理之重疊濾波器組中的低延遲實數至複數轉換 |
| WO2013154868A1 (en) | 2012-04-12 | 2013-10-17 | Dolby Laboratories Licensing Corporation | System and method for leveling loudness variation in an audio signal |
| US9312829B2 (en) | 2012-04-12 | 2016-04-12 | Dts Llc | System for adjusting loudness of audio signals in real time |
| JP5527827B2 (ja) * | 2012-04-17 | 2014-06-25 | Necエンジニアリング株式会社 | ラウドネス調整装置、ラウドネス調整方法、及びプログラム |
| US9685921B2 (en) | 2012-07-12 | 2017-06-20 | Dts, Inc. | Loudness control with noise detection and loudness drop detection |
| US10019000B2 (en) | 2012-07-17 | 2018-07-10 | Elwha Llc | Unmanned device utilization methods and systems |
| US9733644B2 (en) | 2012-07-17 | 2017-08-15 | Elwha Llc | Unmanned device interaction methods and systems |
| US9991861B2 (en) * | 2012-08-10 | 2018-06-05 | Bellevue Investments Gmbh & Co. Kgaa | System and method for controlled dynamics adaptation for musical content |
| EP2898510B1 (en) | 2012-09-19 | 2016-07-13 | Dolby Laboratories Licensing Corporation | Method, system and computer program for adaptive control of gain applied to an audio signal |
| CN119479682A (zh) | 2013-01-21 | 2025-02-18 | 杜比实验室特许公司 | 用于在不同回放设备之间优化响度和动态范围的系统和方法 |
| EP2974253B1 (en) | 2013-03-15 | 2019-05-08 | Dolby Laboratories Licensing Corporation | Normalization of soundfield orientations based on auditory scene analysis |
| CN104079247B (zh) | 2013-03-26 | 2018-02-09 | 杜比实验室特许公司 | 均衡器控制器和控制方法以及音频再现设备 |
| CN104080024B (zh) | 2013-03-26 | 2019-02-19 | 杜比实验室特许公司 | 音量校平器控制器和控制方法以及音频分类器 |
| CN104078050A (zh) | 2013-03-26 | 2014-10-01 | 杜比实验室特许公司 | 用于音频分类和音频处理的设备和方法 |
| TWM487509U (zh) * | 2013-06-19 | 2014-10-01 | 杜比實驗室特許公司 | 音訊處理設備及電子裝置 |
| JP6216553B2 (ja) * | 2013-06-27 | 2017-10-18 | クラリオン株式会社 | 伝搬遅延補正装置及び伝搬遅延補正方法 |
| EP3044786B1 (en) | 2013-09-12 | 2024-04-24 | Dolby Laboratories Licensing Corporation | Loudness adjustment for downmixed audio content |
| CN109920440B (zh) * | 2013-09-12 | 2024-01-09 | 杜比实验室特许公司 | 用于各种回放环境的动态范围控制 |
| US9608588B2 (en) * | 2014-01-22 | 2017-03-28 | Apple Inc. | Dynamic range control with large look-ahead |
| US10063207B2 (en) * | 2014-02-27 | 2018-08-28 | Dts, Inc. | Object-based audio loudness management |
| CN106031141B (zh) | 2014-02-28 | 2017-12-29 | 杜比实验室特许公司 | 会议中使用改变视盲的感知连续性 |
| CN105142067B (zh) | 2014-05-26 | 2020-01-07 | 杜比实验室特许公司 | 音频信号响度控制 |
| US10013992B2 (en) | 2014-07-11 | 2018-07-03 | Arizona Board Of Regents On Behalf Of Arizona State University | Fast computation of excitation pattern, auditory pattern and loudness |
| US9712934B2 (en) | 2014-07-16 | 2017-07-18 | Eariq, Inc. | System and method for calibration and reproduction of audio signals based on auditory feedback |
| CN113257274B (zh) | 2014-10-01 | 2024-09-13 | 杜比国际公司 | 高效drc配置文件传输 |
| ES2980796T3 (es) * | 2014-10-10 | 2024-10-03 | Dolby Laboratories Licensing Corp | Sonoridad de programa basada en la presentación, independiente de la transmisión |
| JP6228100B2 (ja) * | 2014-11-17 | 2017-11-08 | Necプラットフォームズ株式会社 | ラウドネス調整装置、ラウドネス調整方法及びラウドネス調整用プログラム |
| US9852744B2 (en) * | 2014-12-16 | 2017-12-26 | Psyx Research, Inc. | System and method for dynamic recovery of audio data |
| WO2016154150A1 (en) * | 2015-03-25 | 2016-09-29 | Dolby Laboratories Licensing Corporation | Sub-band mixing of multiple microphones |
| WO2016172363A1 (en) * | 2015-04-24 | 2016-10-27 | Cyber Resonance Corporation | Methods and systems for performing signal analysis to identify content types |
| US10109288B2 (en) | 2015-05-27 | 2018-10-23 | Apple Inc. | Dynamic range and peak control in audio using nonlinear filters |
| GB2539875B (en) * | 2015-06-22 | 2017-09-20 | Time Machine Capital Ltd | Music Context System, Audio Track Structure and method of Real-Time Synchronization of Musical Content |
| US9837086B2 (en) * | 2015-07-31 | 2017-12-05 | Apple Inc. | Encoded audio extended metadata-based dynamic range control |
| CA2994446C (en) | 2015-08-28 | 2021-01-12 | The Procter & Gamble Company | Catalysts for the dehydration of hydroxypropionic acid and its derivatives |
| US9590580B1 (en) | 2015-09-13 | 2017-03-07 | Guoguang Electric Company Limited | Loudness-based audio-signal compensation |
| US10341770B2 (en) * | 2015-09-30 | 2019-07-02 | Apple Inc. | Encoded audio metadata-based loudness equalization and dynamic equalization during DRC |
| CN105404654A (zh) * | 2015-10-30 | 2016-03-16 | 魅族科技(中国)有限公司 | 一种音频文件播放方法及装置 |
| WO2017079334A1 (en) | 2015-11-03 | 2017-05-11 | Dolby Laboratories Licensing Corporation | Content-adaptive surround sound virtualization |
| US9756281B2 (en) | 2016-02-05 | 2017-09-05 | Gopro, Inc. | Apparatus and method for audio based video synchronization |
| WO2017142916A1 (en) * | 2016-02-19 | 2017-08-24 | Dolby Laboratories Licensing Corporation | Diffusivity based sound processing method and apparatus |
| US10923132B2 (en) | 2016-02-19 | 2021-02-16 | Dolby Laboratories Licensing Corporation | Diffusivity based sound processing method and apparatus |
| CN105845151B (zh) * | 2016-05-30 | 2019-05-31 | 百度在线网络技术(北京)有限公司 | 应用于语音识别前端的音频增益调整方法和装置 |
| US20170366897A1 (en) * | 2016-06-15 | 2017-12-21 | Robert Azarewicz | Microphone board for far field automatic speech recognition |
| US9697849B1 (en) | 2016-07-25 | 2017-07-04 | Gopro, Inc. | Systems and methods for audio based synchronization using energy vectors |
| US9640159B1 (en) * | 2016-08-25 | 2017-05-02 | Gopro, Inc. | Systems and methods for audio based synchronization using sound harmonics |
| US9653095B1 (en) | 2016-08-30 | 2017-05-16 | Gopro, Inc. | Systems and methods for determining a repeatogram in a music composition using audio features |
| GB201615538D0 (en) * | 2016-09-13 | 2016-10-26 | Nokia Technologies Oy | A method , apparatus and computer program for processing audio signals |
| US9916822B1 (en) | 2016-10-07 | 2018-03-13 | Gopro, Inc. | Systems and methods for audio remixing using repeated segments |
| TWI590239B (zh) * | 2016-12-09 | 2017-07-01 | 宏碁股份有限公司 | 語音信號處理裝置及語音信號處理方法 |
| CN108281148B (zh) * | 2016-12-30 | 2020-12-22 | 宏碁股份有限公司 | 语音信号处理装置及语音信号处理方法 |
| US10374564B2 (en) | 2017-04-20 | 2019-08-06 | Dts, Inc. | Loudness control with noise detection and loudness drop detection |
| US10491179B2 (en) | 2017-09-25 | 2019-11-26 | Nuvoton Technology Corporation | Asymmetric multi-channel audio dynamic range processing |
| CN111183476B (zh) * | 2017-10-06 | 2024-03-22 | 索尼欧洲有限公司 | 基于子窗口序列内的rms功率的音频文件包络 |
| US11011180B2 (en) * | 2018-06-29 | 2021-05-18 | Guoguang Electric Company Limited | Audio signal dynamic range compression |
| CN112470219B (zh) | 2018-07-25 | 2024-08-02 | 杜比实验室特许公司 | 压缩机目标曲线以避免增强噪声 |
| US11775250B2 (en) | 2018-09-07 | 2023-10-03 | Gracenote, Inc. | Methods and apparatus for dynamic volume adjustment via audio classification |
| EP4554090A3 (en) * | 2018-09-07 | 2025-07-09 | Gracenote, Inc. | Methods and apparatus for dynamic volume adjustment via audio classification |
| JP7031543B2 (ja) * | 2018-09-21 | 2022-03-08 | 株式会社Jvcケンウッド | 処理装置、処理方法、再生方法、及びプログラム |
| EP3662468B1 (en) * | 2018-09-28 | 2020-11-04 | Dolby Laboratories Licensing Corporation | Distortion reducing multi-band compressor with dynamic thresholds based on scene switch analyzer guided distortion audibility model |
| US11218125B2 (en) * | 2018-10-24 | 2022-01-04 | Gracenote, Inc | Methods and apparatus to adjust audio playback settings based on analysis of audio characteristics |
| US11347470B2 (en) * | 2018-11-16 | 2022-05-31 | Roku, Inc. | Detection of media playback loudness level and corresponding adjustment to audio during media replacement event |
| CN109889170B (zh) * | 2019-02-25 | 2021-06-04 | 珠海格力电器股份有限公司 | 音频信号的控制方法和装置 |
| JP7275711B2 (ja) * | 2019-03-20 | 2023-05-18 | ヤマハ株式会社 | オーディオ信号の処理方法 |
| US11133787B2 (en) | 2019-06-25 | 2021-09-28 | The Nielsen Company (Us), Llc | Methods and apparatus to determine automated gain control parameters for an automated gain control protocol |
| US11019301B2 (en) | 2019-06-25 | 2021-05-25 | The Nielsen Company (Us), Llc | Methods and apparatus to perform an automated gain control protocol with an amplifier based on historical data corresponding to contextual data |
| US12160214B2 (en) * | 2020-03-13 | 2024-12-03 | Immersion Networks, Inc. | Loudness equalization system |
| US12217494B2 (en) | 2020-04-10 | 2025-02-04 | Gracenote, Inc. | Keyframe extractor |
| EP3961624B1 (de) * | 2020-08-28 | 2024-09-25 | Sivantos Pte. Ltd. | Verfahren zum betrieb einer hörvorrichtung in abhängigkeit eines sprachsignals |
| US12198711B2 (en) | 2020-11-23 | 2025-01-14 | Cyber Resonance Corporation | Methods and systems for processing recorded audio content to enhance speech |
| CN116614668A (zh) * | 2023-04-07 | 2023-08-18 | 百果园技术(新加坡)有限公司 | 一种直播音量的自适应控制方法、系统、设备及存储介质 |
Family Cites Families (168)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US2808475A (en) | 1954-10-05 | 1957-10-01 | Bell Telephone Labor Inc | Loudness indicator |
| DE1736966U (de) | 1956-09-28 | 1956-12-27 | Heinz Schulze | Luftschraube fuer spiel- und modell-flugzeuge. |
| SU720691A1 (ru) * | 1978-04-27 | 1980-03-05 | Предприятие П/Я Р-6609 | Устройство дл автоматического регулировани усилени |
| US4281218A (en) | 1979-10-26 | 1981-07-28 | Bell Telephone Laboratories, Incorporated | Speech-nonspeech detector-classifier |
| US4624009A (en) | 1980-05-02 | 1986-11-18 | Figgie International, Inc. | Signal pattern encoder and classifier |
| DE3314570A1 (de) | 1983-04-22 | 1984-10-25 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Verfahren und anordnung zur einstellung der verstaerkung |
| US4739514A (en) | 1986-12-22 | 1988-04-19 | Bose Corporation | Automatic dynamic equalizing |
| US4887299A (en) | 1987-11-12 | 1989-12-12 | Nicolet Instrument Corporation | Adaptive, programmable signal processing hearing aid |
| US4882762A (en) * | 1988-02-23 | 1989-11-21 | Resound Corporation | Multi-band programmable compression system |
| KR940003351B1 (ko) * | 1988-03-31 | 1994-04-20 | 주식회사 금성사 | 조도에 따른 자동이득 제어증폭기 이득 제어회로 |
| US4953112A (en) | 1988-05-10 | 1990-08-28 | Minnesota Mining And Manufacturing Company | Method and apparatus for determining acoustic parameters of an auditory prosthesis using software model |
| US5027410A (en) | 1988-11-10 | 1991-06-25 | Wisconsin Alumni Research Foundation | Adaptive, programmable signal processing and filtering for hearing aids |
| JPH02118322U (pt) | 1989-03-08 | 1990-09-21 | ||
| US5097510A (en) | 1989-11-07 | 1992-03-17 | Gs Systems, Inc. | Artificial intelligence pattern-recognition-based noise reduction system for speech processing |
| US5369711A (en) | 1990-08-31 | 1994-11-29 | Bellsouth Corporation | Automatic gain control for a headset |
| US5632005A (en) | 1991-01-08 | 1997-05-20 | Ray Milton Dolby | Encoder/decoder for multidimensional sound fields |
| WO1992012607A1 (en) | 1991-01-08 | 1992-07-23 | Dolby Laboratories Licensing Corporation | Encoder/decoder for multidimensional sound fields |
| DE69214882T2 (de) | 1991-06-06 | 1997-03-20 | Matsushita Electric Ind Co Ltd | Gerät zur Unterscheidung von Musik und Sprache |
| US5278912A (en) | 1991-06-28 | 1994-01-11 | Resound Corporation | Multiband programmable compression system |
| US5175769A (en) | 1991-07-23 | 1992-12-29 | Rolm Systems | Method for time-scale modification of signals |
| KR940003351Y1 (ko) | 1991-10-17 | 1994-05-23 | 삼성전관 주식회사 | 편광판 부착장치 |
| US5363147A (en) | 1992-06-01 | 1994-11-08 | North American Philips Corporation | Automatic volume leveler |
| KR940003351A (ko) | 1992-07-15 | 1994-02-21 | 강진구 | 온 스크린 그래픽 표시 제어 장치 및 방법 |
| DE4335739A1 (de) | 1992-11-17 | 1994-05-19 | Rudolf Prof Dr Bisping | Verfahren zur Steuerung des Signal-/Rausch-Abstandes bei rauschbehafteten Tonaufnahmen |
| GB2272615A (en) | 1992-11-17 | 1994-05-18 | Rudolf Bisping | Controlling signal-to-noise ratio in noisy recordings |
| US5457769A (en) | 1993-03-30 | 1995-10-10 | Earmark, Inc. | Method and apparatus for detecting the presence of human voice signals in audio signals |
| US5706352A (en) | 1993-04-07 | 1998-01-06 | K/S Himpp | Adaptive gain and filtering circuit for a sound reproduction system |
| US5434922A (en) | 1993-04-08 | 1995-07-18 | Miller; Thomas E. | Method and apparatus for dynamic sound optimization |
| BE1007355A3 (nl) | 1993-07-26 | 1995-05-23 | Philips Electronics Nv | Spraaksignaaldiscriminatieschakeling alsmede een audio-inrichting voorzien van een dergelijke schakeling. |
| IN184794B (pt) | 1993-09-14 | 2000-09-30 | British Telecomm | |
| JP2986345B2 (ja) | 1993-10-18 | 1999-12-06 | インターナショナル・ビジネス・マシーンズ・コーポレイション | 音声記録指標化装置及び方法 |
| US5530760A (en) | 1994-04-29 | 1996-06-25 | Audio Products International Corp. | Apparatus and method for adjusting levels between channels of a sound system |
| US5463695A (en) * | 1994-06-20 | 1995-10-31 | Aphex Systems, Ltd. | Peak accelerated compressor |
| US5500902A (en) | 1994-07-08 | 1996-03-19 | Stockham, Jr.; Thomas G. | Hearing aid device incorporating signal processing techniques |
| GB9419388D0 (en) | 1994-09-26 | 1994-11-09 | Canon Kk | Speech analysis |
| US5548538A (en) | 1994-12-07 | 1996-08-20 | Wiltron Company | Internal automatic calibrator for vector network analyzers |
| US5682463A (en) | 1995-02-06 | 1997-10-28 | Lucent Technologies Inc. | Perceptual audio compression based on loudness uncertainty |
| CA2167748A1 (en) | 1995-02-09 | 1996-08-10 | Yoav Freund | Apparatus and methods for machine learning hypotheses |
| ATE229729T1 (de) | 1995-03-13 | 2002-12-15 | Phonak Ag | Verfahren zur anpassung eines hörgerätes, vorrichtung hierzu und hörgerät |
| US5727119A (en) | 1995-03-27 | 1998-03-10 | Dolby Laboratories Licensing Corporation | Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase |
| US6041295A (en) | 1995-04-10 | 2000-03-21 | Corporate Computer Systems | Comparing CODEC input/output to adjust psycho-acoustic parameters |
| US6301555B2 (en) | 1995-04-10 | 2001-10-09 | Corporate Computer Systems | Adjustable psycho-acoustic parameters |
| US5601617A (en) | 1995-04-26 | 1997-02-11 | Advanced Bionics Corporation | Multichannel cochlear prosthesis with flexible control of stimulus waveforms |
| JPH08328599A (ja) | 1995-06-01 | 1996-12-13 | Mitsubishi Electric Corp | Mpegオーディオ復号器 |
| US5663727A (en) | 1995-06-23 | 1997-09-02 | Hearing Innovations Incorporated | Frequency response analyzer and shaping apparatus and digital hearing enhancement apparatus and method utilizing the same |
| US5712954A (en) | 1995-08-23 | 1998-01-27 | Rockwell International Corp. | System and method for monitoring audio power level of agent speech in a telephonic switch |
| US6002776A (en) | 1995-09-18 | 1999-12-14 | Interval Research Corporation | Directional acoustic signal processor and method therefor |
| US5907622A (en) | 1995-09-21 | 1999-05-25 | Dougherty; A. Michael | Automatic noise compensation system for audio reproduction equipment |
| WO1997027578A1 (en) * | 1996-01-26 | 1997-07-31 | Motorola Inc. | Very low bit rate time domain speech analyzer for voice messaging |
| US6327366B1 (en) | 1996-05-01 | 2001-12-04 | Phonak Ag | Method for the adjustment of a hearing device, apparatus to do it and a hearing device |
| US6108431A (en) | 1996-05-01 | 2000-08-22 | Phonak Ag | Loudness limiter |
| US6430533B1 (en) | 1996-05-03 | 2002-08-06 | Lsi Logic Corporation | Audio decoder core MPEG-1/MPEG-2/AC-3 functional algorithm partitioning and implementation |
| JPH09312540A (ja) | 1996-05-23 | 1997-12-02 | Pioneer Electron Corp | ラウドネスボリュームコントロール装置 |
| JP3765622B2 (ja) | 1996-07-09 | 2006-04-12 | ユナイテッド・モジュール・コーポレーション | オーディオ符号化復号化システム |
| EP0820212B1 (de) | 1996-07-19 | 2010-04-21 | Bernafon AG | Lautheitsgesteuerte Verarbeitung akustischer Signale |
| JPH1074097A (ja) | 1996-07-26 | 1998-03-17 | Ind Technol Res Inst | オーディオ信号のパラメータを変更する方法及び装置 |
| JP2953397B2 (ja) | 1996-09-13 | 1999-09-27 | 日本電気株式会社 | ディジタル補聴器の聴覚補償処理方法及びディジタル補聴器 |
| US6049766A (en) | 1996-11-07 | 2000-04-11 | Creative Technology Ltd. | Time-domain time/pitch scaling of speech or audio signals with transient handling |
| JP2991982B2 (ja) | 1996-11-29 | 1999-12-20 | 日本イーライリリー株式会社 | 注射練習器具 |
| US6570991B1 (en) | 1996-12-18 | 2003-05-27 | Interval Research Corporation | Multi-feature speech/music discrimination system |
| US5862228A (en) | 1997-02-21 | 1999-01-19 | Dolby Laboratories Licensing Corporation | Audio matrix encoding |
| US6125343A (en) | 1997-05-29 | 2000-09-26 | 3Com Corporation | System and method for selecting a loudest speaker by comparing average frame gains |
| US6272360B1 (en) | 1997-07-03 | 2001-08-07 | Pan Communications, Inc. | Remotely installed transmitter and a hands-free two-way voice terminal device using same |
| US6185309B1 (en) | 1997-07-11 | 2001-02-06 | The Regents Of The University Of California | Method and apparatus for blind separation of mixed and convolved sources |
| KR100261904B1 (ko) | 1997-08-29 | 2000-07-15 | 윤종용 | 헤드폰 사운드 출력장치 |
| US6088461A (en) | 1997-09-26 | 2000-07-11 | Crystal Semiconductor Corporation | Dynamic volume control system |
| US6330672B1 (en) | 1997-12-03 | 2001-12-11 | At&T Corp. | Method and apparatus for watermarking digital bitstreams |
| US6233554B1 (en) | 1997-12-12 | 2001-05-15 | Qualcomm Incorporated | Audio CODEC with AGC controlled by a VOCODER |
| US6298139B1 (en) | 1997-12-31 | 2001-10-02 | Transcrypt International, Inc. | Apparatus and method for maintaining a constant speech envelope using variable coefficient automatic gain control |
| US6182033B1 (en) | 1998-01-09 | 2001-01-30 | At&T Corp. | Modular approach to speech enhancement with an application to speech coding |
| US6353671B1 (en) | 1998-02-05 | 2002-03-05 | Bioinstco Corp. | Signal processing circuit and method for increasing speech intelligibility |
| US6311155B1 (en) | 2000-02-04 | 2001-10-30 | Hearing Enhancement Company Llc | Use of voice-to-remaining audio (VRA) in consumer applications |
| US6498855B1 (en) | 1998-04-17 | 2002-12-24 | International Business Machines Corporation | Method and system for selectively and variably attenuating audio data |
| WO1999065276A1 (en) | 1998-06-08 | 1999-12-16 | Cochlear Limited | Hearing instrument |
| EP0980064A1 (de) | 1998-06-26 | 2000-02-16 | Ascom AG | Verfahren zur Durchführung einer maschinengestützten Beurteilung der Uebertragungsqualität von Audiosignalen |
| GB2340351B (en) | 1998-07-29 | 2004-06-09 | British Broadcasting Corp | Data transmission |
| US6351731B1 (en) | 1998-08-21 | 2002-02-26 | Polycom, Inc. | Adaptive filter featuring spectral gain smoothing and variable noise multiplier for noise reduction, and method therefor |
| US6823303B1 (en) | 1998-08-24 | 2004-11-23 | Conexant Systems, Inc. | Speech encoder using voice activity detection in coding noise |
| US6411927B1 (en) | 1998-09-04 | 2002-06-25 | Matsushita Electric Corporation Of America | Robust preprocessing signal equalization system and method for normalizing to a target environment |
| FI113935B (fi) | 1998-09-25 | 2004-06-30 | Nokia Corp | Menetelmä äänitason kalibroimiseksi monikanavaisessa äänentoistojärjestelmässä ja monikanavainen äänentoistojärjestelmä |
| US6266644B1 (en) | 1998-09-26 | 2001-07-24 | Liquid Audio, Inc. | Audio encoding apparatus and methods |
| DE19848491A1 (de) | 1998-10-21 | 2000-04-27 | Bosch Gmbh Robert | Rundfunkempfänger zum Empfang von Radio-Daten und Verfahren zur Beeinflussung einer Klangcharakteristik eines wiederzugebenden Audiosignals in einem Rundfunkempfänger |
| US6314396B1 (en) | 1998-11-06 | 2001-11-06 | International Business Machines Corporation | Automatic gain control in a speech recognition system |
| GB9824776D0 (en) | 1998-11-11 | 1999-01-06 | Kemp Michael J | Audio dynamic control effects synthesiser |
| DE69933141T2 (de) | 1999-02-05 | 2007-08-16 | Hearworks Pty Ltd. | Tonprozessor zur adaptiven dynamikbereichsverbesserung |
| DE69933929T2 (de) | 1999-04-09 | 2007-06-06 | Texas Instruments Inc., Dallas | Bereitstellen von digitalen Audio- und Videoprodukten |
| CA2372017A1 (en) | 1999-04-26 | 2000-11-02 | Dspfactory Ltd. | Loudness normalization control for a digital hearing aid |
| US6263371B1 (en) | 1999-06-10 | 2001-07-17 | Cacheflow, Inc. | Method and apparatus for seaming of streaming content |
| US6442278B1 (en) | 1999-06-15 | 2002-08-27 | Hearing Enhancement Company, Llc | Voice-to-remaining audio (VRA) interactive center channel downmix |
| AR024353A1 (es) | 1999-06-15 | 2002-10-02 | He Chunhong | Audifono y equipo auxiliar interactivo con relacion de voz a audio remanente |
| EP1254513A4 (en) | 1999-11-29 | 2009-11-04 | Syfx | SYSTEMS AND METHODS FOR SIGNAL PROCESSING |
| FR2802329B1 (fr) | 1999-12-08 | 2003-03-28 | France Telecom | Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames |
| US6351733B1 (en) | 2000-03-02 | 2002-02-26 | Hearing Enhancement Company, Llc | Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process |
| DE10018666A1 (de) | 2000-04-14 | 2001-10-18 | Harman Audio Electronic Sys | Vorrichtung und Verfahren zum geräuschabhängigen Anpassen eines akustischen Nutzsignals |
| US6651040B1 (en) | 2000-05-31 | 2003-11-18 | International Business Machines Corporation | Method for dynamic adjustment of audio input gain in a speech system |
| US6889186B1 (en) | 2000-06-01 | 2005-05-03 | Avaya Technology Corp. | Method and apparatus for improving the intelligibility of digitally compressed speech |
| HK1080243B (zh) | 2000-08-16 | 2009-05-15 | 多尔拜实验特许公司 | 响应补充信息修改音频或视频感知编码系统的一个或多个参数 |
| AUPQ952700A0 (en) | 2000-08-21 | 2000-09-14 | University Of Melbourne, The | Sound-processing strategy for cochlear implants |
| JP3448586B2 (ja) | 2000-08-29 | 2003-09-22 | 独立行政法人産業技術総合研究所 | 聴覚障害を考慮した音の測定方法およびシステム |
| US20040013272A1 (en) * | 2001-09-07 | 2004-01-22 | Reams Robert W | System and method for processing audio data |
| US6625433B1 (en) | 2000-09-29 | 2003-09-23 | Agere Systems Inc. | Constant compression automatic gain control circuit |
| US6947888B1 (en) * | 2000-10-17 | 2005-09-20 | Qualcomm Incorporated | Method and apparatus for high performance low bit-rate coding of unvoiced speech |
| US6807525B1 (en) | 2000-10-31 | 2004-10-19 | Telogy Networks, Inc. | SID frame detection with human auditory perception compensation |
| DK1206104T3 (da) | 2000-11-09 | 2006-10-30 | Koninkl Kpn Nv | Måling af en samtalekvalitet af en telefonforbindelse i et telekommunikationsnetværk |
| US7457422B2 (en) | 2000-11-29 | 2008-11-25 | Ford Global Technologies, Llc | Method and implementation for detecting and characterizing audible transients in noise |
| US6958644B2 (en) | 2001-01-10 | 2005-10-25 | The Trustees Of Columbia University In The City Of New York | Active filter circuit with dynamically modifiable gain |
| FR2820573B1 (fr) | 2001-02-02 | 2003-03-28 | France Telecom | Methode et dispositif de traitement d'une pluralite de flux binaires audio |
| WO2004019656A2 (en) | 2001-02-07 | 2004-03-04 | Dolby Laboratories Licensing Corporation | Audio channel spatial translation |
| EP1233509A1 (en) * | 2001-02-14 | 2002-08-21 | Thomson Licensing S.A. | Digital audio processor |
| DE10107385A1 (de) | 2001-02-16 | 2002-09-05 | Harman Audio Electronic Sys | Vorrichtung zum geräuschabhängigen Einstellen der Lautstärken |
| US6915264B2 (en) | 2001-02-22 | 2005-07-05 | Lucent Technologies Inc. | Cochlear filter bank structure for determining masked thresholds for use in perceptual audio coding |
| DK1290914T3 (da) | 2001-04-10 | 2004-09-27 | Phonak Ag | Fremgangsmåde til tilpasning af et höreapparat til et individ |
| US7711123B2 (en) * | 2001-04-13 | 2010-05-04 | Dolby Laboratories Licensing Corporation | Segmenting audio signals into auditory events |
| US7283954B2 (en) | 2001-04-13 | 2007-10-16 | Dolby Laboratories Licensing Corporation | Comparing audio using characterizations based on auditory events |
| US7461002B2 (en) | 2001-04-13 | 2008-12-02 | Dolby Laboratories Licensing Corporation | Method for time aligning audio signals using characterizations based on auditory events |
| CN1279511C (zh) | 2001-04-13 | 2006-10-11 | 多尔拜实验特许公司 | 一种时间标度和/或音调偏移一个音频信号的方法 |
| US7610205B2 (en) | 2002-02-12 | 2009-10-27 | Dolby Laboratories Licensing Corporation | High quality time-scaling and pitch-scaling of audio signals |
| WO2002097790A1 (en) * | 2001-05-25 | 2002-12-05 | Dolby Laboratories Licensing Corporation | Comparing audio using characterizations based on auditory events |
| ATE318062T1 (de) | 2001-04-18 | 2006-03-15 | Gennum Corp | Mehrkanal hörgerät mit übertragungsmöglichkeiten zwischen den kanälen |
| US20020173864A1 (en) * | 2001-05-17 | 2002-11-21 | Crystal Voice Communications, Inc | Automatic volume control for voice over internet |
| MXPA03010751A (es) * | 2001-05-25 | 2005-03-07 | Dolby Lab Licensing Corp | Segmentacion de senales de audio en eventos auditivos. |
| US7177803B2 (en) | 2001-10-22 | 2007-02-13 | Motorola, Inc. | Method and apparatus for enhancing loudness of an audio signal |
| US20040037421A1 (en) | 2001-12-17 | 2004-02-26 | Truman Michael Mead | Parital encryption of assembled bitstreams |
| US7068723B2 (en) | 2002-02-28 | 2006-06-27 | Fuji Xerox Co., Ltd. | Method for automatically producing optimal summaries of linear media |
| JP4714416B2 (ja) | 2002-04-22 | 2011-06-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 空間的オーディオのパラメータ表示 |
| US7155385B2 (en) | 2002-05-16 | 2006-12-26 | Comerica Bank, As Administrative Agent | Automatic gain control for adjusting gain during non-speech portions |
| US20030223597A1 (en) | 2002-05-29 | 2003-12-04 | Sunil Puria | Adapative noise compensation for dynamic signal enhancement |
| US7447631B2 (en) | 2002-06-17 | 2008-11-04 | Dolby Laboratories Licensing Corporation | Audio coding system using spectral hole filling |
| JP4257079B2 (ja) | 2002-07-19 | 2009-04-22 | パイオニア株式会社 | 周波数特性調整装置および周波数特性調整方法 |
| DE10236694A1 (de) | 2002-08-09 | 2004-02-26 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren |
| US7454331B2 (en) | 2002-08-30 | 2008-11-18 | Dolby Laboratories Licensing Corporation | Controlling loudness of speech in signals that contain speech and other types of audio material |
| JP2006518049A (ja) | 2003-02-06 | 2006-08-03 | ドルビー・ラボラトリーズ・ライセンシング・コーポレーション | 連続的な予備オーディオ |
| DE10308483A1 (de) | 2003-02-26 | 2004-09-09 | Siemens Audiologische Technik Gmbh | Verfahren zur automatischen Verstärkungseinstellung in einem Hörhilfegerät sowie Hörhilfegerät |
| US7551745B2 (en) | 2003-04-24 | 2009-06-23 | Dolby Laboratories Licensing Corporation | Volume and compression control in movie theaters |
| CN101819771B (zh) | 2003-05-28 | 2012-04-11 | 杜比实验室特许公司 | 用于计算和调节音频信号的感觉响度的方法和设备 |
| JP2004356894A (ja) * | 2003-05-28 | 2004-12-16 | Mitsubishi Electric Corp | 音質調整装置 |
| JP4226395B2 (ja) | 2003-06-16 | 2009-02-18 | アルパイン株式会社 | 音声補正装置 |
| US8918316B2 (en) | 2003-07-29 | 2014-12-23 | Alcatel Lucent | Content identification system |
| US7729497B2 (en) | 2004-01-13 | 2010-06-01 | Koninklijke Philips Electronics N.V. | Audio signal enhancement |
| CA2992125C (en) | 2004-03-01 | 2018-09-25 | Dolby Laboratories Licensing Corporation | Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters |
| GB2413906A (en) | 2004-04-21 | 2005-11-09 | Imagination Tech Ltd | Radio volume control system |
| JP4168976B2 (ja) | 2004-05-28 | 2008-10-22 | ソニー株式会社 | オーディオ信号符号化装置及び方法 |
| ATE394008T1 (de) | 2004-05-28 | 2008-05-15 | Research In Motion Ltd | System und verfahren zur einstellung eines audiosignals |
| US7574010B2 (en) | 2004-05-28 | 2009-08-11 | Research In Motion Limited | System and method for adjusting an audio signal |
| JP2008504783A (ja) * | 2004-06-30 | 2008-02-14 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 音声信号のラウドネスを自動的に調整する方法及びシステム |
| US7617109B2 (en) | 2004-07-01 | 2009-11-10 | Dolby Laboratories Licensing Corporation | Method for correcting metadata affecting the playback loudness and dynamic range of audio information |
| US7508947B2 (en) | 2004-08-03 | 2009-03-24 | Dolby Laboratories Licensing Corporation | Method for combining audio signals using auditory scene analysis |
| AU2005299410B2 (en) | 2004-10-26 | 2011-04-07 | Dolby Laboratories Licensing Corporation | Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal |
| WO2007120453A1 (en) | 2006-04-04 | 2007-10-25 | Dolby Laboratories Licensing Corporation | Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal |
| WO2006058361A1 (en) | 2004-12-04 | 2006-06-08 | Dynamic Hearing Pty Ltd | Method and apparatus for adaptive sound processing parameters |
| US20060126865A1 (en) | 2004-12-13 | 2006-06-15 | Blamey Peter J | Method and apparatus for adaptive sound processing parameters |
| US8265295B2 (en) | 2005-03-11 | 2012-09-11 | Rane Corporation | Method and apparatus for identifying feedback in a circuit |
| TW200638335A (en) | 2005-04-13 | 2006-11-01 | Dolby Lab Licensing Corp | Audio metadata verification |
| TWI397903B (zh) | 2005-04-13 | 2013-06-01 | Dolby Lab Licensing Corp | 編碼音訊之節約音量測量技術 |
| TWI396188B (zh) | 2005-08-02 | 2013-05-11 | Dolby Lab Licensing Corp | 依聆聽事件之函數控制空間音訊編碼參數的技術 |
| TWI517562B (zh) | 2006-04-04 | 2016-01-11 | 杜比實驗室特許公司 | 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式 |
| EP2002426B1 (en) | 2006-04-04 | 2009-09-02 | Dolby Laboratories Licensing Corporation | Audio signal loudness measurement and modification in the mdct domain |
| CA2648237C (en) * | 2006-04-27 | 2013-02-05 | Dolby Laboratories Licensing Corporation | Audio gain control using specific-loudness-based auditory event detection |
| US8750538B2 (en) | 2006-05-05 | 2014-06-10 | Creative Technology Ltd | Method for enhancing audio signals |
| UA94968C2 (ru) | 2006-10-20 | 2011-06-25 | Долби Леборетериз Лайсенсинг Корпорейшн | Обработка динамических свойств аудио с использованием перенастройки |
| US8521314B2 (en) | 2006-11-01 | 2013-08-27 | Dolby Laboratories Licensing Corporation | Hierarchical control path with constraints for audio dynamics processing |
| WO2008085330A1 (en) | 2007-01-03 | 2008-07-17 | Dolby Laboratories Licensing Corporation | Hybrid digital/analog loudness-compensating volume control |
| EP2547031B1 (en) | 2007-03-15 | 2014-02-26 | InterDigital Technology Corporation | Method and apparatus for reordering data in an evolved high speed packet access |
| US8560320B2 (en) | 2007-03-19 | 2013-10-15 | Dolby Laboratories Licensing Corporation | Speech enhancement employing a perceptual model |
| CA2679953C (en) | 2007-06-19 | 2014-01-21 | Dolby Laboratories Licensing Corporation | Loudness measurement with spectral modifications |
| US8054948B1 (en) | 2007-06-28 | 2011-11-08 | Sprint Communications Company L.P. | Audio experience for a communications device user |
| EP2232700B1 (en) | 2007-12-21 | 2014-08-13 | Dts Llc | System for adjusting perceived loudness of audio signals |
| JP4823352B2 (ja) | 2009-12-24 | 2011-11-24 | 株式会社東芝 | 情報処理装置 |
-
2007
- 2007-03-30 CA CA2648237A patent/CA2648237C/en not_active Expired - Fee Related
- 2007-03-30 AT AT07754779T patent/ATE493794T1/de active
- 2007-03-30 AU AU2007243586A patent/AU2007243586B2/en not_active Ceased
- 2007-03-30 ES ES07754779T patent/ES2359799T3/es active Active
- 2007-03-30 PL PL07754779T patent/PL2011234T3/pl unknown
- 2007-03-30 CN CN201210148962.2A patent/CN102684628B/zh not_active Expired - Fee Related
- 2007-03-30 MY MYPI20084037A patent/MY141426A/en unknown
- 2007-03-30 JP JP2009507694A patent/JP5129806B2/ja active Active
- 2007-03-30 WO PCT/US2007/008313 patent/WO2007127023A1/en not_active Ceased
- 2007-03-30 UA UAA200813668A patent/UA93243C2/ru unknown
- 2007-03-30 US US12/226,698 patent/US8144881B2/en not_active Expired - Fee Related
- 2007-03-30 RU RU2008146747/09A patent/RU2417514C2/ru not_active IP Right Cessation
- 2007-03-30 TW TW096111338A patent/TWI455481B/zh not_active IP Right Cessation
- 2007-03-30 NO NO20191310A patent/NO345590B1/no unknown
- 2007-03-30 EP EP07754779A patent/EP2011234B1/en not_active Not-in-force
- 2007-03-30 KR KR1020117001302A patent/KR101200615B1/ko not_active Expired - Fee Related
- 2007-03-30 CN CN2007800147428A patent/CN101432965B/zh not_active Expired - Fee Related
- 2007-03-30 KR KR1020087029070A patent/KR101041665B1/ko not_active Expired - Fee Related
- 2007-03-30 DE DE602007011594T patent/DE602007011594D1/de active Active
- 2007-03-30 MX MX2008013753A patent/MX2008013753A/es active IP Right Grant
- 2007-03-30 DK DK07754779.2T patent/DK2011234T3/da active
- 2007-03-30 BR BRPI0711063-4A patent/BRPI0711063B1/pt not_active IP Right Cessation
-
2008
- 2008-09-28 IL IL194430A patent/IL194430A/en active IP Right Grant
- 2008-10-16 NO NO20084336A patent/NO339346B1/no not_active IP Right Cessation
-
2011
- 2011-02-09 JP JP2011025711A patent/JP5255663B2/ja active Active
- 2011-03-24 AU AU2011201348A patent/AU2011201348B2/en not_active Ceased
-
2012
- 2012-02-28 US US13/406,929 patent/US9136810B2/en active Active
- 2012-05-04 US US13/464,102 patent/US8428270B2/en active Active
-
2013
- 2013-03-26 US US13/850,380 patent/US9450551B2/en active Active
-
2016
- 2016-08-12 NO NO20161296A patent/NO342157B1/no unknown
- 2016-08-12 NO NO20161295A patent/NO342160B1/no not_active IP Right Cessation
- 2016-08-17 US US15/238,820 patent/US9685924B2/en not_active Expired - Fee Related
- 2016-09-12 NO NO20161439A patent/NO342164B1/no unknown
-
2017
- 2017-03-02 US US15/447,556 patent/US9787269B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,564 patent/US9866191B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,543 patent/US9787268B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,482 patent/US9742372B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,493 patent/US9762196B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,456 patent/US9698744B1/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,469 patent/US9768749B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,518 patent/US9780751B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,503 patent/US9768750B2/en not_active Expired - Fee Related
- 2017-03-02 US US15/447,529 patent/US9774309B2/en not_active Expired - Fee Related
- 2017-11-10 US US15/809,413 patent/US10103700B2/en active Active
-
2018
- 2018-02-21 NO NO20180272A patent/NO344658B1/no unknown
- 2018-02-21 NO NO20180266A patent/NO343877B1/no unknown
- 2018-02-21 NO NO20180271A patent/NO344655B1/no unknown
- 2018-09-12 US US16/128,642 patent/US10284159B2/en active Active
-
2019
- 2019-01-07 NO NO20190022A patent/NO344013B1/no unknown
- 2019-01-07 NO NO20190002A patent/NO344364B1/no unknown
- 2019-01-07 NO NO20190018A patent/NO344363B1/no unknown
- 2019-01-08 NO NO20190024A patent/NO344362B1/no unknown
- 2019-01-08 NO NO20190025A patent/NO344361B1/no unknown
- 2019-03-27 US US16/365,947 patent/US10523169B2/en active Active
- 2019-12-29 US US16/729,468 patent/US10833644B2/en active Active
-
2020
- 2020-11-09 US US17/093,178 patent/US11362631B2/en active Active
-
2022
- 2022-06-13 US US17/839,099 patent/US11711060B2/en active Active
-
2023
- 2023-06-01 US US18/327,585 patent/US11962279B2/en active Active
-
2024
- 2024-02-08 US US18/436,667 patent/US12218642B2/en active Active
- 2024-05-23 US US18/672,224 patent/US12301189B2/en active Active
- 2024-05-23 US US18/672,762 patent/US12283931B2/en active Active
- 2024-05-23 US US18/672,726 patent/US12301190B2/en active Active
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12218642B2 (en) | Audio control using auditory event detection | |
| BR122018077035B1 (pt) | Método para processar um sinal de áudio e meio de armazenamento legível por computador não-transitório | |
| HK1126902B (en) | Audio gain control using specific-loudness-based auditory event detection |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| B07A | Application suspended after technical examination (opinion) [chapter 7.1 patent gazette] | ||
| B09B | Patent application refused [chapter 9.2 patent gazette] | ||
| B12B | Appeal against refusal [chapter 12.2 patent gazette] | ||
| B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 30/03/2007, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO. |
|
| B21F | Lapse acc. art. 78, item iv - on non-payment of the annual fees in time |
Free format text: REFERENTE A 17A ANUIDADE. |
|
| B24J | Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12) |
Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2769 DE 30-01-2024 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013. |