BRPI0711063A2 - controle de ganho de áudio utilizando detecção de evento auditivo baseado em sonoridade especìfica - Google Patents

controle de ganho de áudio utilizando detecção de evento auditivo baseado em sonoridade especìfica Download PDF

Info

Publication number
BRPI0711063A2
BRPI0711063A2 BRPI0711063-4A BRPI0711063A BRPI0711063A2 BR PI0711063 A2 BRPI0711063 A2 BR PI0711063A2 BR PI0711063 A BRPI0711063 A BR PI0711063A BR PI0711063 A2 BRPI0711063 A2 BR PI0711063A2
Authority
BR
Brazil
Prior art keywords
audio
event
auditory
signal
formula
Prior art date
Application number
BRPI0711063-4A
Other languages
English (en)
Inventor
Brett Graham Crockett
Alan Jeffrey Seefeldt
Original Assignee
Dolby Lab Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Lab Licensing Corp filed Critical Dolby Lab Licensing Corp
Publication of BRPI0711063A2 publication Critical patent/BRPI0711063A2/pt
Publication of BRPI0711063B1 publication Critical patent/BRPI0711063B1/pt

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/3089Control of digital or coded signals
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/3005Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G1/00Details of arrangements for controlling amplification
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G7/00Volume compression or expansion in amplifiers
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G7/00Volume compression or expansion in amplifiers
    • H03G7/007Volume compression or expansion in amplifiers of digital or coded signals
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G9/00Combinations of two or more types of control, e.g. gain control and tone control
    • H03G9/005Combinations of two or more types of control, e.g. gain control and tone control of digital or coded signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers
    • H04R3/04Circuits for transducers for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; ELECTRIC HEARING AIDS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
  • Control Of Amplification And Gain Control (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Circuits Of Receivers In General (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Document Processing Apparatus (AREA)

Abstract

CONTROLE DE GANHO DE áUDIO UTILIZANDO DETECçãO DE EVENTO AUDITIVO BASEADO EM SONORIDADE ESPECìFICA. A presente invenção refere-se a modificações de ganho dinâmico aplicadas a um sinal de áudio pelo menos parcialmente em resposta a eventos auditivos e/ou o grau de mudança em características de sinal associadas aos ditos limites de evento auditivo. Em outro aspecto, um sinal de áudio é dividido em eventos auditivos pela comparação da diferença em sonoridade específica entre os sucessivos blocos de tempo do sinal de áudio.

Description

Relatório Descritivo da Patente de Invenção para "CONTROLEDE GANHO DE ÁUDIO UTILIZANDO DETECÇÃO DE EVENTO AUDITIVOBASEADO EM SONORIDADE ESPECÍFICA". '
Campo da Técnica
A presente invenção refere-se a métodos e aparelho de controlede faixa dinâmica de áudio nos quais um dispositivo de processamento deáudio analisa um sinal de áudio e muda o nível, o ganho ou a faixa dinâmicado áudio, e todos ou alguns dos parâmetros do ganho de áudio e do proces-samento dinâmico são gerados como uma função de eventos auditivos. Ainvenção também refere-se a programas de computador para praticar taismétodos ou controlar tal aparelho.
A presente invenção também refere-se a métodos e aparelhoque utilizam uma detecção baseada em sonoridade específica de eventosauditivos. A invenção também refere-se a programas de computador parapraticar tais métodos ou controlar tal aparelho.
Antecedentes da Técnica
Processamento Dinâmico de Áudio
As técnicas de controle de ganho automático (AGC) e controlede faixa dinâmica (DRC) são bens conhecidas e são um elemento comumem muitos percursos de sinal de áudio. Em um senso abstrato, ambas astécnicas medem o nível de um sinal de áudio em algum modo e então modi-ficam em ganho o sinal por um valor que é uma função do nível medido. Emum sistema de processamento dinâmico linear, 1:1, o áudio de entrada não éprocessado e o sinal de áudio de saída idealmente coincide com o sinal deáudio de entrada. Além disso, se tivesse um sistema de processamento di-nâmico de áudio que mede automaticamente as características do sinal deentrada e utiliza esta medição para controlar o sinal de saída, se o sinal deentrada aumentar de nível por 6 dB e o sinal de saída for processado demodo que este somente aumente de nível por 3 dB, então o sinal de saídafoi comprimido por uma razão de 2:1 em relação ao sinal de entrada. A Pu-blicação Internacional Número WO 2006/047600 A1 ("Calculando e Ajustan-do a Sonoridade Percebida e/ou o Balanço Espectral Percebido de Um Sinalde Áudio" por Alan Jeffrey Seefeldt) provê uma vista geral detalhada dos cin-co tipos básicos de processamento dinâmico de áudio: compressão, limita-ção, controle de ganho automático (AGC)1 expansão e obstrução.
Eventos Auditivos e Detecção de Evento Auditivo
A divisão de sons em unidades ou segmentos percebidos comoseparados e distintos é algumas vezes referida como "análise de evento au-ditivo" ou "análise de cena auditiva" ("ASA") e os segmentos são algumasvezes referido como "eventos auditivos" ou "eventos de áudio". Uma discus-são extensa de análise de cena auditiva é apresentada por Albert S. Breg-man no seu livro Auditory Scene Analysis - The Perceptual Organization ofSound, Massachusetts Institute of Technology, 1991, Quarta impressão,2001, Segunda edição de brochura de MIT Press. Além disso, a PatenteU.S. Número 6.002.776 para Bhadkamkar et al., 14 de Dezembro de 1999sita publicações que datam até 1976 como "trabalho de técnica anterior rela-tivo à separação de som por análise de cena auditiva", No entanto, a patentede Bhadkamkar et al. desencoraja a utilização prática de análise de cenaauditiva, concluindo que "[t]écnicas que envolvem a análise de cena auditiva,apesar de interessantes de um ponto de vista científico como modelos deprocessamento auditivo humano, são atualmente computacionalmente solici-tantes demais e especializados para serem consideradas técnicas práticaspara separação de som até que urrrprogresso fundamental seja feito".
Um modo útil para identificar os eventos auditivos é apresentadopor Crockett e Crocket et al. em vários pedidos de patente e documentosabaixo listados sob o cabeçalho "Incorporação Por Referência". De acordocom estes documentos, um sinal de áudio está dividido em eventos auditi-vos, cada um dos quais tende a ser percebido como separado e distinto, pe-la detecção de mudanças em composição espectral (amplitude como umafunção de freqüência) em relação ao tempo. Isto pode ser feito, por exemplo,calculando o conteúdo espectral de blocos de tempo sucessivos do sinal deáudio, calculando a diferença em conteúdo espectral entre blocos de temposucessivos do sinal de áudio, e identificando um limite de evento auditivocomo o limite entre sucessivos blocos de tempo quando a diferença no con-teúdo espectral entre tais blocos de tempo sucessivos excede um limite. Al-ternativamente, mudanças em amplitude em relação ao tempo podem sercalculadas ao invés de ou em adição a mudançaá em composição espectralcom relação ao tempo.
Em sua implementação menos computacionalmente solicitante,o processo divide o áudio em segmentos de tempo pela análise da banda defreqüência inteira (áudio de largura de banda total) ou substancialmente abanda de freqüência inteira (em implementações práticas, uma filtragem delimitação de banda nas extremidades do espectro é freqüentemente empre-gada), e dando o maior peso para os componentes de sinal de áudio maisaltos. Esta proposta aproveita-se de um fenômeno psicoacústico no qual emmenores escalas de tempo (20 milissegundos (ms) e menos) o ouvido podetender a focalizar sobre um único evento auditivo a um dado tempo. Isto im-plica em que apesar de múltiplos eventos poderem estar ocorrendo aomesmo tempo, um componente tende a ser perceptualmente mais proemi-nente e pode ser processado individualmente como se este fosse o únicoevento acontecendo. O aproveitamento deste efeito também permite que adetecção de evento auditivo escale com a complexidade do áudio que estásendo processado. Por exemplo, se o sinal de áudio de entrada que estásendo processado for um instrumento solo, os eventos de áudio que sãoidentificados provavelmente serão as notas individuais que estão sendo to-cadas. Similarmente para um sinal de voz de entrada, os componentes indi-viduais de fala, as vogais e as consoantes por exemplo, serão provavelmen-te identificados como elementos de áudio individuais. Conforme a complexi-dade do áudio aumenta, tal como uma música com bateria ou múltiplos ins-trumentos e voz, a detecção de evento auditivo identifica o elemento de áu-dio "mais proeminente" (isto é, o mais alto) em qualquer dado momento.
A expensas de uma maior complexidade computacional, o pro-cesso pode também levar em consideração as mudanças em composiçãoespectral em relação ao tempo em sub-bandas de freqüência discretas (sub-bandas fixas ou dinamicamente determinadas ou tanto fixas quanto dinami-camente determinadas) ao invés da largura de banda total. Esta propostaalternativa leva em conta mais do que um fluxo de áudio em diferentes sub-bandas de freqüência ao invés de assumir que somente um único fluxo éperceptível em um tempo específico. ·
Uma detecção de evento auditivo pode ser implementada divi-dindo uma forma de onda de áudio de domínio de tempo em intervalos oublocos de tempo e então convertendo os dados em cada bloco para o domí-nio de freqüência, utilizando ou um banco de filtros ou uma transformação detempo - freqüência, tal como a FFT. A amplitude do conteúdo espectral decada bloco pode ser normalizada de modo a eliminar ou reduzir o efeito demudanças de amplitude. Cada representação de domínio de freqüência re-sultante provê uma indicação do conteúdo espectral do áudio nò bloco espe-cífico. O conteúdo espectral de blocos sucessivos é comparado e as mudan-ças maiores do que um limite podem ser tomadas para indicar o início tem-poral ou o fim temporal de um evento auditivo.
Preferencialmente, os dados de domínio de freqüência são nor-malizados, como é descrito abaixo.
O grau no qual os dados de domínio de freqüência precisam sernormalizados fornece uma indicação de amplitude. Com isto, se uma mu-dança neste grau exceder um limite predeterminado isto também pode sertomado para indicar um limite de evento. Os pontos de início e fim de eventoque resultam de mudanças espectrais e de mudanças, de amplitude podemser ÒRed juntos de modo que os limites de evento que resultam de cada tipode mudança sejam identificados.
Apesar das técnicas descritas nos ditos pedidos e documentosde Crockett e Crocket et al. serem especificamente úteis em conexão comos aspectos da presente invenção, outras técnicas para identificar os even-tos auditivos e os limites de eventos podem ser empregadas em aspectos dapresente invenção.Descrição da Invenção
O processamento dinâmico de áudio da técnica anterior conven-cional envolve multiplicar o áudio por um sinal de controle que varia no tem-po que ajusta o ganho do áudio produzindo um resultado desejado. "Ganho"é um fator de escalagem que escala a amplitude de áudio. Este sinal de con-trole pode ser gerado em uma base contínua ou de blocos de dados de áu-dio, mas é geralmente derivado por alguma formá de medição do áudio queestá sendo processado, e esta taxa de mudança é determinada por filtros de suavização, algumas vezes com características fixas e algumas vezes comcaracterísticas que variam com a dinâmica do áudio. Por exemplo, os tem-pos de resposta podem ser ajustáveis de acordo com as mudanças na mag-nitude ou na potência do áudio. Os métodos da técnica anterior tais como ocontrole de ganho automático (AGC) e a compressão de faixa dinâmica (DRC) não avaliam em nenhum modo psicoacusticamente baseado os inter-valos de tempo durante os quais as mudanças de ganho podem ser percebi-das como deteriorações e quando estas podem ser aplicadas sem imprimirartefatos audíveis. Portanto, os processos de dinâmica de áudio convencio-nais podem freqüentemente introduzir artefatos audíveis, isto é, os efeitos doprocessamento de dinâmica podem introduzir mudanças perceptíveis inde-sejadas no áudio.
A análise de cena auditiva identifica os eventos auditivos percep-tualmente discretos, com cada evento ocorrendo entre dois limites de eventoauditivo consecutivos. As deteriorações audíveis causadas por uma mudan- ça de.ganho podem ser grandemente reduzidas assegurando que dentro deum evento auditivo o ganho é mais praticamente constante e confinandomuitas das mudanças à vizinhança de um limite de evento. No contexto decompressores ou expansores, a resposta a um aumento em nível de áudio(freqüentemente denominada o ataque) pode ser rápida, comparável com ou mais curta do que a duração mínima de eventos auditivos, mas a resposta auma diminuição (a liberação ou recuperação) pode ser mais lenta do que ossons que deveriam parecer constantes ou decair gradualmente mas audi-velmente perturbados. Sob tais circunstâncias, é muito benéfico retardar arecuperação de ganho até o próximo limite ou diminuir a taxa de mudança de ganho durante um evento. Para as aplicações de controle de ganho au-tomáticas, onde o nível médio a longo prazo ou sonoridade do áudio é nor-malizado e tanto o tempo de ataque quanto de liberação podem portanto serlongos comparados com a duração mínima de um evento auditivo, é benéfi-co durante os eventos retardar as mudanças ou diminui as taxas de mudan-ça em ganho até o próximo limite de evento tanto 1^ara os ganhos crescentesquanto decrescentes.
De acordo com um aspecto da presente invenção, um sistemade processamento de áudio recebe um sinal de áudio e analisa e altera oganho e/ou as características de faixa dinâmica do áudio. A modificação defaixa dinâmica do áudio é freqüentemente controlada por parâmetros de umsistema de processamento de dinâmica (tempo de ataque e liberação, taxade compressão, etc.) que tem efeitos significativos sobre os artefatos per-ceptuais introduzidos pelo processamento de dinâmica. As mudanças emcaracterísticas de sinal em relação ao tempo no sinal de áudio são detecta-das e identificadas como limites de evento auditivo, de modo que um seg-mento de áudio entre limites consecutivos constitui um evento auditivo nosinal de áudio. As características dos eventos auditivos de interesse podemincluir as características dos eventos tais como força perceptual ou duração.Alguns dos ditos um ou mais parâmetros de processamento de dinâmica sãogerados pelo menos parcialmente em resposta a eventos auditivos e/ou ograu de mudança em características de sinal associadas com os ditos limitesde evento auditivo.
Tipicamente, um evento auditivo é um segmento de áudio quetende a ser percebido como separado e distinto. Uma medida utilizável decaracterísticas de sinal inclui uma medida do conteúdo espectral do áudio,por exemplo, como descrito nos documentos de Crockett e Crocket et al.citados. Todos ou alguns dos um ou mais parâmetros de processamento dedinâmica de áudio podem ser gerados pelo menos parcialmente em respostaà presença ou à ausência e às características de um ou mais eventos auditi-vos. Um limite de evento auditivo pode ser identificado como uma mudançaem características de sinal em relação ao tempo que excede um limite. Al-ternativamente, todos ou alguns dos um ou mais parâmetros podem ser ge-rados pelo menos parcialmente em resposta a uma medida continuada dograu de mudança em características de sinal associadas com os ditos limitesde evento auditivo. Apesar de que, em princípio, os aspectos da invençãopodem ser implementados em domínios analógicos e/ou digitais, as imple-mentações práticas são prováveis serem implementadas no domínio digitalno qual cada um dos sinais de áudio está representado por amostras indivi-duais ou amostras dentro de blocos de dados. Neste caso, as característicasde sinal podem ser o conteúdo espectral de áudio dentro de um bloco, a de-tecção de mudanças em características de sinal em relação ao tempo po-dem ser a detecção de mudanças em conteúdo espectral de áudio de blocopara bloco, e os limites de início e fim temporais de evento auditivo cada umcoincide com um limite de um bloco de dados. Deve ser notado que para ocaso mais tradicional de executar as mudanças de ganho dinâmico em umabase de amostra por amostra, que a análise de cena auditiva descrita pode-ria ser executada em uma base de bloco e as informações de evento auditi-vo resultantes sendo utilizadas para executar as mudanças de ganho dinâ-mico que são aplicadas amostra por amostra.
Pelo controle dos parâmetros de processamento de dinâmica deáudio chaves utilizando os resultados de análise de cena auditiva, uma re-dução dramática de artefatos audíveis introduzidos por processamento dedinâmica pode ser conseguida.
A presente invenção apresenta dois modos para executar umaanálise de cena. auditiva. O pi-imeiro-executa um análise espectral e identificaa localização de eventos de áudio perceptíveis que são utilizados para con-trolar os parâmetros de ganho dinâmico pela identificação de mudanças emconteúdo espectral. O segundo modo transforma o áudio em um domínio desonoridade perceptual (que pode prover mais informações psicoacustica-mente relevantes do que o primeiro modo) e identifica a localização de even-tos auditivos que são subseqüentemente utilizados para controlar os parâ-metros de ganho dinâmico. Deve ser notado que o segundo modo requerque o processamento de áudio esteja ciente de níveis de reprodução acústi-ca absolutos, o que pode não ser possível em algumas implementações. Aapresentação de ambos os métodos de análise de cena auditiva permite im-plementações de modificação de ganho dinâmico controladas por ASA utili-zando os processos ou dispositivos que podem ser calibrados ou não paralevar em conta os níveis de reprodução absolutos.
Os aspectos da presente invenção eStão aqui descritos em umambiente de processamento de dinâmica de áudio que inclui os aspectos deoutras invenções. Tais outras invenções estão descritas em vários Pedidosde Patente Pendentes dos Estados Unidos ou Internacionais do Dolby Labo-ratories Dcensing Corporation, o proprietário do presente pedido, cujos pedi-dos estão aqui identificados.
Descrição dos Desenhos
Figura 1 é um fluxograma que mostra um exemplo de etapas deprocessamento para executar uma análise de cena auditiva.
Figura 2 mostra um exemplo de processamento de bloco, aber-tura de janelas e execução de DFT em áudio enquanto executando a análisede cena auditiva.
Figura 3 está na natureza de um fluxograma ou diagrama deblocos funcional, que mostra um processamento paralelo no qual o áudio éutilizado para identificar os eventos auditivos e identificar as característicasdos eventos auditivos de modo que os eventos e suas características sejamutilizados para modificar os parâmetros de processamento de dinâmica.
Figura 4 está na natureza de um fluxograma ou diagrama, deblocos funcional, que mostra um processamento no qual o áudio é.utilizadosomente para identificar os eventos auditivos e as características de eventosão determinadas da detecção de evento de áudio de modo que os eventose suas características sejam utilizados para modificar os parâmetros de pro-cessamento de dinâmica.
Figura 5 está na natureza de um fluxograma ou diagrama deblocos funcional, que mostra um processamento no qual o áudio é utilizadosomente para identificar os eventos auditivos e as características de eventosão determinadas da detecção de evento de áudio de modo que somente ascaracterísticas de eventos auditivos sejam utilizadas para modificar os pa-râmetros de processamento de dinâmica.
Figura 6 mostra um conjunto de respostas características de fil-tro auditivo idealizadas que aproximam um requadramento crítico na escalade ERB. A escala horizontal é a freqüência em Hertz e escala vertical é onível em decibéis.
Figura 7 mostra contornos de sonoridade iguais da ISO 226. Aescala horizontal é a freqüência em Hertz (escala logarítmica de base 10) ea escala vertical e o nível de pressão de som em decibéis.
Figuras 8a-c mostram as características de entrada / saída idea-lizadas e as características de ganho de entrada de um compressor de faixadinâmica de áudio.
Figuras 9a-f mostram um exemplo da utilização de eventos audi-tivos para controlar o tempo de liberação em uma implementação digital deum Controlador de Faixa Dinâmica (DRC) tradicional no qual o controle deganho é derivado da potência de Valor Médio Quadrático (RMS) do sinal.
As figuras 10a-f mostram um exemplo da utilização de eventosauditivos para controlar o tempo de liberação em uma implementação digitalde um Controlador de Faixa Dinâmica (DRC) tradicional no qual o controlede ganho é derivado da potência de Valor Médio Quadrático (RMS) do sinalpara um sinal alternativo àquele utilizado na figura 9.
Figura 11 apresenta um conjunto adequado de curvas de AGC ede DRC idealizadas para a aplicação de AGC seguido por DRC em um sis-tema de processamento dedinâmica de domínio de sonoridade. O objetivoda çiombinação é fazer com que todo a áudio processado tenha aproxima-damente a mesma sonoridade percebida enquanto ainda mantendo pelomenos alguma da dinâmica de áudio original.
Melhor Modo para Executar a Invenção
Análise de CenaAuditiva (Método de Domínio Original, Sem Sonoridade)
De acordo com uma modalidade de um aspecto da presente in-venção, uma análise de cena auditiva pode ser composta de quatro etapasde processamento gerais como mostrado em uma porção da figura 1. A pri-meira etapa 1-1 ("Executar Análise Espectral") toma um sinal de áudio dedomínio de tempo, divide-o em blocos e calcula um perfil espectral ou conte-údo espectral para cada um dos blocos. A análise espectral transforma osinal de áudio no domínio de freqüência de curto prazo. Isto pode ser execu-tado utilizando qualquer banco de filtros, ou baseado em transformadas oubancos de filtros de passagem de banda, e em espaço de freqüência ou li-near ou. distorcido (tal como a escala de Bark ou banda crítica, a qual melhorse aproxima das características do ouvido humano). Com qualquer banco defiltros existe uma negociação entre o tempo e a freqüência. Uma maior reso-lução dé tempo, e com isto intervalos de tempo mais curtos, leva a uma me-nor resolução de freqüência. Uma maior resolução de freqüência, e com istosub-bandas mais estreitas, leva a intervalos de tempo mais longos.
A primeira etapa, ilustrada conceitualmente na figura 1, calcula oconteúdo espectral de sucessivos segmentos de tempo do sinal de áudio.Em uma modalidade prática, o tamanho de bloco de ASA pode ser que qual-quer número de amostras do sinal de áudio de entrada, apesar de que 512amostras provêem uma boa negociação de tempo e resolução de freqüên-cia. Na segunda etapa 1-2, as diferenças em conteúdo espectral de blocopara bloco são determinadas ("Executar medições de diferença de perfil es-pectral"). Assim, a segunda etapa calcula a diferença em conteúdo espectralentre os sucessivos segmentos de tempo do sinal de áudio. Como acimadiscutido, um indicador poderoso do início ou do fim de um evento auditivopercebido acredita-se ser uma mudança em conteúdo espectral. Na terceiraetapa 1-2 ("Identificar a localização de limites de evento auditivo"), quando adiferença espectral entre um bloco de perfil espectral e o seguinte é maior doque um limite, o limite de bloco é considerado ser um limite de evento auditi-vo. O segmento de áudio entre limites consecutivos constitui um evento au-ditivo. Assim, a terceira etapa determina um limite de evento auditivo entreos sucessivos segmentos de tempo quando a diferença no conteúdo de per-fil espectral entre tais segmentos de tempo sucessivos excede um limite,assim definindo os eventos auditivos. Nesta modalidade, os limites de even-to auditivo definem os eventos auditivos que tem um comprimento que é ummúltiplo integral de blocos de perfil espectral com um comprimento mínimode um bloco de perfil espectral (512 amostras neste exemplo). Em princípio,os limites de eventos não precisam ser tão limitados. Como uma alternativaàs modalidades práticas aqui discutidas, o tamanho de bloco de entrada po-de variar, por exemplo, de modo a ter essencialmente o tamanho de um e-vento auditivo.
Após a identificação dos limites de eventos, as característicaschave do evento auditivo são identificadas, como mostrado na etapa 1-4.
Os segmentos sobrepostos ou não sobrepostos do áudio podemser abertos em janelas e utilizados para computar os perfis espectrais doáudio de entrada. A sobreposição resulta em uma resolução mais fina quantoà localização de eventos auditivos e, também, torna menos provável perderum evento, tal como um transiente curto. No entanto, a sobreposição tam-bém aumenta a complexidade computacional. Assim, a sobreposição podeser omitida. A figura 2 mostra uma representação conceituai de N blocos deamostra não sobrepostos sendo abertos em janelas e transformados no do-mínio de freqüência pela Transformada de Fourier Discreta (DFT). Cada blo-co pode ser. aberto em janela e transformado no domínio de freqüência, talcomo pela utilização da DFT, dé preferência implementada como uma Trans-formada de Fourier Rápida (FFT) para velocidade.
As seguintes variáveis podem ser utilizadas para computar operfil espectral do bloco de entrada:
M = número de amostras abertas em janelas em um bloco utili-zado para computar um perfil espectral
P = número de amostras de sobreposição de computação es-pectral
Em geral, quaisquer números inteiros podem ser utilizados paraas variáveis acima. No entanto, a implementação será mais eficiente se Mfor determinado igual a uma potência de 2 de modo que FFTs padrão podemser utilizadas para os cálculos de perfil espectral. Em uma modalidade práti-ca do processo de análise de cena auditiva, os parâmetros listados podemser ajustados para:
M = 512 amostras (ou 11,6 ms a 44,1 kHz)
P = O amostras (sem sobreposição)
Os valores acima listados foram determinados experimentalmen-te e foram descobertos geralmente identificar com uma precisão suficiente alocalização e a duração de eventos auditivos. No entanto, ajustando o valorde P para 256 amostras (50% de sobreposição) *ao invés de zero amostras(sem sobreposição) foi descoberto ser útil na identificação de eventos difí-ceis de encontrar. Apesar de muitos diferentes tipos de janelas poderem serutilizados para minimizar os artefatos espectrais devido à abertura em jane-la, a janela utilizada nos cálculos de perfil espectral é uma janela de M pon-tos de Hanning, Kaiser-Bessel ou outra janela adequada, de preferência nãoretangular. Os valores acima indicados e um tipo de janela de Hanning foramselecionados após uma extensa análise experimental já que estes mostra-ram prover excelentes resultados através de uma ampla faixa de material deáudio. A abertura em janela não retangular é preferida para o processamentode sinais de áudio com conteúdo de freqüência predominantemente baixo. Aabertura em janela retangular produz artefatos espectrais que podem causaruma detecção incorreta de eventos. Ao contrário de certas aplicações decodificador / decodificador (codec) onde um processo de sobreposição / adi-ção total deve prover um nível constante, tal restrição não aplica-se aqui e ajanela pode ser escolhida por características tais como a sua resolução detempo / freqüência e rejeição de banda de corte.
Na etapa 1-1 (figura 1), o espectro de cada bloco de amostras Mpode ser computado abrindo~em janela os dados com uma janela de M pon-tos de Hanning, Kaiser-Bessel ou outra janela adequada, convertendo para odomínio de freqüência utilizando uma Transformada de Fourier Rápida de Mpontos, e calculando a magnitude dos coeficientes de FFT complexos. Osdados resultantes são normalizados de modo que a maior magnitude é ajus-tada para a unidade, e a matriz normalizada de M números é convertida parao domínio log. Os dados podem também ser normalizados por alguma outramétrica tal como o valor de magnitude média ou o valor de potência médiados dados. A matriz não precisa ser convertida para o domínio log, mas aconversão simplifica o cálculo da medida de diferença na etapa 1-2. Maisainda, o domínio Iog coincide mais proximamente com a natureza do sistemaauditivo humano. Os valores de domínio Iog resultantes tem uma faixa demenos infinito até zero. Uma modalidade prática, um limite inferior pode serimposto sobre a faixa de valores; o limite pode ser fixo, por exemplo -60 dB,ou ser dependente de freqüência para refletir a audibilidade mais baixa desons discretos em freqüências baixas e muito altas. (Note que seria possívelreduzir o tamanho da matriz para M/2 em que a FFT representa as freqüên-cias negativas assim como as positivas).
A etapa 1-2 calcula uma medida da diferença entre os espectrosde blocos adjacentes. Para cada bloco, cada um dos M (Iog) coeficientesespectrais da etapa 1-1 é subtraído do coeficiente correspondente para obloco precedente, e a magnitude da diferença calculada (o sinal é ignorado).Estas M diferenças são então somadas para um número. Esta medida dediferença pode também ser expressa como uma diferença média por coefici-ente espectral dividindo a medida de diferença pelo número de coeficientesespectrais utilizados na soma (neste caso M coeficientes).
A etapa 1-3 identifica as localizações de limites de eventos audi-tivos pela aplicação de um limite à matriz de medidas de diferença da etapa1-2 com um valor limite. Quando uma medida de diferença excede um limite,a mudança em espectro é considerada suficiente para sinalizar um novo e-vento e o número de bloco da mudança é gravado como um limite de even-to. Para os valores de M e P acima fornecidos e para os valores de domíniolog (na etapa 1-1) expressos em unidades de dB, o limite pode ser determi-nado igual a 2500 se a FFT de magnitude inteira (incluindo a parte espelha-da) for comparada ou 1250 se metade da FFT for comparada (como acimanotado, a FFT representa as freqüências negativas assim como positivas -para a magnitude da FFT, uma é a imagem de espelho da outra). Este valorfoi escolhido experimentalmente e este provê uma boa detecção de limite deevento auditivo. Este valor de parâmetro pode ser mudado para reduzir (au-mentar o limite) ou aumentar (diminuir o limite) a detecção de eventos.
O processo da figura 1 pode ser representado mais generica-mente pelas disposições equivalentes das figuras 3, 4 e 5. Na figura 3, umsinal de áudio é aplicado em paralelo a uma função de "Identificar os Even-tos Auditivos" ou etapa 3-1 que divide o sinal de áudio em eventos auditivos,cada um dos quais tende a ser percebido como separado e distinto e parauma função de "Identificar as Características de Eventos Auditivos" opcionalou etapa 3-2. O processo da figura 1 pode ser empregado para dividir o sinalde áudio em eventos auditivos e as suas características identificadas ou al-gum outro processo adequado pode ser empregado. As informações de e-vento auditivo, as quais podem ser uma identificação de limites de eventoauditivo, determinada pela função ou etapa 3-1 são então utilizadas paramodificar os parâmetros de processamento de dinâmica de áudio (tais comoataque, liberação, razão, etc.), conforme desejado, por uma função de "Mo-dificar os Parâmetros de Dinâmica" ou etapa 3-3. A função de "IdentificarCaracterísticas" opcional ou etapa 3-3 também recebe as informações deevento auditivo. A função de "Identificar Características" ou etapa 3-3 podecaracterizar alguns ou todos os eventos auditivos por uma ou mais caracte-rísticas. Tais características podem incluir uma identificação da sub-bandadominante do evento auditivo, como descrito em conexão com o processoda figura 1. As características podem também incluir uma ou mais caracterís-ticas de áudio, que incluem, por exemplo, uma medida de potência do even-to auditivo, uma medida de amplitude do evento auditivo, uma medida denivelamento espectral do evento auditivo, e se o evento auditivo é substan-cialmente silencioso, ou outras características que ajudam a modificar-os-parâmetros de dinâmica de modo que os artefatos audíveis negativos doprocessamento sejam reduzidos ou removidos. As características podemtambém incluir outras características tais como se o evento auditivo inclui umtransiente.
Alternativas à disposição da figura 3 estão mostradas nas figuras4 e 5. Na figura 4, o sinal de entrada de áudio não é aplicado diretamente nafunção de "Identificar Características" ou etapa 4-3, mas este recebe as in-formações da função de "Identificar os Eventos Auditivos" ou etapa 4-1. Adisposição da figura 1 é um exemplo específico de tal disposição. Na figura5, as funções ou etapas 5-1, 5-2 e 5-3 estão dispostas em série.
Os detalhes desta modalidade prática não são críticos. Outrosmodos de calcular o conteúdo espectral de segmentos de tempo sucessivosdo sinal de áudio, calcular as diferenças entre os segmentos de tempo su-cessivos, e determinar os limites de evento auditivo nos respectivos limitesentre os sucessivos segmentos de tempo quando a diferença no conteúdode perfil espectral entre tais segmentos de tempo sucessivos excede um Ii-mite podem ser empregados.
Análise de Cena Auditiva (Novo Método de Domínio de Sonoridade)
O Pedido Internacional sob o Tratado de Cooperação de Paten-tes S.N. PCT/US2005/038579, depositado em 25 de Outubro de 2005, publi-cado como Publicação Internacional Número WO 2006/047600 A1 ("Calcu-lando e Ajustando a Sonoridade Percebida e/ou o Balanço Espectral Perce-bido de Um Sinal de Áudio" por Alan Jeffrey Seefeldt) descreve, entre outrascoisas, uma medida objetiva de sonoridade percebida com base em um mo-delo psicoacústico. O dito pedido está por meio disto incorporado por refe-rência em sua totalidade. Como descrito no dito pedido, de um sinal de áu-dio, x[n], um sinal de excitação E[b,t] é computado que aproxima a distribui-ção de energia ao longo da membrana basilar do ouvido interno na bandacrítica b durante o bloco de tempo t. Esta excitação pode ser computada daTransformada de Fourier Discreta de Curto Prazo (STDFT) do sinal de áudiocomo segue:
<formula>formula see original document page 16</formula>
onde X[k,t] representa a STDFT de x[n] no bloco de tempo t e na caixa k.Note que na equação 1 t representa o tempo em unidades discretas de blo-cos de transformadas em oposição a uma medida contínua, tal como segun-dos. T[k] representa a resposta de freqüência de um filtro que simula atransmissão de áudio através do ouvido externo e médio, e Cb[k] representaa resposta de freqüência da membrana basilar em uma localização que cor-responde à banda crítica b. A figura 6 apresenta um conjunto adequado derespostas de filtro de banda crítica no qual 40 bandas estão espaçadas uni-formemente ao longo da escala de Largura de Banda Retangular Equivalen-te (ERB), como definido por Moore e Glasberg. Cada forma de filtro estádescrita por uma função exponencial arredondada e as bandas estão distri-buídas utilizando um espaçamento de 1 ERB. Pinalmente, a constante detempo de suavização na equação 1 pode ser vantajosamente escolhidaproporcional ao tempo de integração de percepção de sonoridade humanadentro da banda b.
Utilizando contornos de sonoridade iguais, tais como aquelesapresentados na figura 7, a excitação em cada banda é transformada em umnível de excitação que geraria a mesma sonoridade percebida a 1 kHz. Asonoridade específica, uma medida de sonoridade perceptual distribuídaatravés de freqüência e tempo, é então computada da excitação transforma-da, EikHz[b,t], através de uma não linearidade compressiva. Uma tal funçãoadequada para computar a sonoridade específica N[b,t] é dada por:
<formula>formula see original document page 17</formula>
onde TQ1kHz é o limite em silêncio a 1 kHz e as constantes β e α são esco-lhidas para coincidir com o crescimento de dados de sonoridade como cole-tados de experiências de escuta. Abstratamente, esta transformação dè exci-tação para sonoridade específica pode ser representada pela funçãoΨ{} de modo que:
<formula>formula see original document page 17</formula>
Finalmente, a sonoridade total, L[t], representada em unidadesde sone, é computada somando a sonoridade específica através das bandas:
<formula>formula see original document page 17</formula>A sonoridade específica N[b,t] é uma representação espectraldestinada a simular o modo no qual um humano percebe o áudio como umafunção de freqüência e tempo. Esta captura as váriações em sensibilidade adiferentes freqüências, variações em sensibilidade a nível, e variações em resolução de freqüência. Como tal, esta é uma representação espectral bemcoincidida com a detecção de eventos auditivos. Apesar de mais computa-cionalmente complexo, comparar a diferença de N[b,t] através das bandasentre os sucessivos blocos de tempo pode em muitos casos resultar em umadetecção perceptualmente mais precisa de eventos auditivos em compara- ção com a utilização direta de sucessivos espectros de FFT acima descrito.
No dito pedido de patente, diversas aplicações para modificar oáudio com base neste modelo de sonoridade psicoacústico estão descritas.Entre estas estão diversos algoritmos de processamento de dinâmica, talcomo AGC e DRC. Estes algoritmos descritos podem beneficiar-se da utili- zação de eventos auditivos para controlar os vários parâmetros associados.Como a sonoridade específica já está computada, esta está prontamentedisponível para o propósito de detectar os ditos eventos. Os detalhes deuma modalidade preferida estão abaixo discutidos.
Controle de Parâmetro de Processamento de Dinâmica de Áudio com Even-tos Auditivos
Dois exemplos de modalidades da invenção serão agora apre-sentados. O primeiro descreve a utilização de eventos auditivos para contro-lar o tempo de liberação em uma implementação digital de um Controladorde Faixa Dinâmica (DRC) no qual o controle de ganho é derivado da potên- cia de Valor Médio Quadrático (RMS) do sinal. A segunda modalidade des-creve a utilização de eventos auditivos para controlar certos aspectos deuma combinação mais sofisticada de AGC e DRC implementada dentro docontexto do modelo de sonoridade psicoacústico acima descrito. Estas duasmodalidades destinam-se a servir como exemplos da invenção somente, e não deve ser compreendido que a utilização de eventos auditivos para con-trolar os parâmetros de um algoritmo de processamento de dinâmica nãoestá restrita às especificidades abaixo descritas.Controle de Faixa Dinâmica
A implementação digital descrita de um DRC segmenta um sinalde áudio x[n] em blocos abertos em janela, semi-sobrepostos, e para cadabloco um ganho de modificação com base em uma medida da potência localdo sinal e uma curva de compressão selecionada é computado. O ganho ésuavizado através dos blocos e então multiplicado com cada bloco. Os blo-cos modificados são finalmente adicionados sobrepostos para gerar o sinalde áudio modificado y[n].
Deve ser notado, que apesar da análise de cena auditiva e daimplementação digital de DRC como aqui descrito dividir o sinal de áudio dedomínio de tempo em blocos para executar a análise e o processamento, oprocessamento de DRC não precisa ser executado utilizando a segmenta-ção de blocos. Por exemplo, a análise de cena auditiva poderia ser executa-da utilizando a segmentação de blocos e análise espectral como acima des-crito e as localizações e características de eventos auditivos resultantes po-deriam ser utilizadas para prover as informações de controle para uma im-plementação digital de uma implementação de DRC tradicional que tipica-mente opera em uma base de amostra por amostra. Aqui, no entanto, amesma estrutura de bloqueio utilizada para a análise de cena auditiva é em·pregada para o DRC para simplificar a descrição de sua combinação.
Prosseguindo com a descrição de umaimplementação de DRCbasèada em blocos, os blocos sobrepostos do sinal de áudio podem ser re-presentados como:
<formula>formula see original document page 19</formula>
onde M é o comprimento de bloco e o tamanho de salto é M/2, w[n] é a jane-la, n é o índice de amostra dentro do bloco, e t é o índice de bloco (note queaqui t é utilizado no mesmo modo como com a STDFT na equação 1; esterepresenta o tempo em unidades discretas de blocos ao invés de segundos,por exemplo). Idealmente, a janela w[n] afila para zero em ambas as extre-midades e soma à unidade quando semi-sobreposta com si mesma; a janelade seno comumente utilizada atende estes critérios, por exemplo.
Para cada bloco, pode-se então computar a potência de RMSpara gerar uma medida de potência P[t] em dB poi* bloco:
<formula>formula see original document page 20</formula>
(5)
Como anteriormente mencionado, poderia suavizar-se esta me-dida de potência com um rápido ataque e uma lenta liberação antes do pro-cessamento com uma curva de compressão, mas como uma alternativa apotência instantânea P[t] é processada e o ganho resultante é suavizado.Esta proposta alternativa tem a vantagem que uma simples curva de com-pressão com pontos de cotovelo agudos pode ser utilizada, mas os ganhosresultantes são ainda suavizados conforme a potência des[oca-se através doponto de cotovelo. Representando uma curva de compressão como mostra-do na figura 8c como uma função F de nível de sinal que gera um ganho, oganho de bloco G[t] é dado por:
<formula>formula see original document page 20</formula>
(6)
Assumindo que a curva de compressão aplica uma maior atenu-ação conforme o nível de sinal aumenta, o ganho será decrescente quandoo sinal estiver em "modo de ataque" e crescente quando no "modo de libera-ção". Portanto, um ganho suavizado G[t] pode ser computado de acordocom:
<formula>formula see original document page 20</formula>
(7a)
onde<formula>formula see original document page 21</formula>
Finalmente, o ganho suavizado G[t], o qual é em dB, é aplicado
a cada bloco do sinal, e os blocos modificados são adicionados sobrepostos
<formula>formula see original document page 21</formula>
Note que como os blocos'foram multiplicados por uma janelaafinada, como mostrado na equação 4, a síntese de adição de sobreposiçãoacima mostrada efetivamente suaviza os ganhos através de amostras dosinal processado y[n]. Assim, o sinal de controle de ganho recebe suaviza-ção além daquela mostrada na equação 7a. Em uma implementação maistradicional de DRC operando amostra por amostra ao invés de bloco porblocp, uma suavização de ganho mais sofisticada do que o simples filtro deum pólo mostrado na equação 7a poderia ser necessária de modo a impediruma distorção audível no sinal processado. Também, a utilização de um pro-cessamento baseado em bloco introduz um retardo inerente de M/2 amos-tras no sistema, e desde que o tempo de decaimento associado com (Xattackfique próximo deste retardo, o sinal x[n] não precisa ser retardado adicional-mente antes da aplicação dos ganhos para os propósitos de impedir exce-der.
As figuras 9a até 9c apresentam o resultado de aplicar o proces-samento de DRC descrito a um sinal de áudio. Para esta implementaçãoespecífica, um comprimento de bloco de M = 512 é utilizado na taxa de a -mostragem de 44,1 kHz. Uma curva de compressão similar àquela mostradapara produzir o áudio modificado:na figura 8b é utilizada:
acima de -20 dB em relação a digital em escala total o sinal éatenuado dom uma razão de 5:1, e
abaixo de -30 dB o sinal é intensificado com uma razão de 5:1.O ganho é suavizado com um coeficiente de ataque otattack que correspondea um meio tempo de decaimento de 10 ms e um coeficiente de liberaçãoOtreiease que corresponde a um meio tempo de decaimento de 500 ms. O sinalde áudio original apresentado na figura 9a consiste em seis acordes de pia-no consecutivos, com o acorde final localizado ao redor da amostra de 1,75χ 10^5, decaindo para o silêncio. Examinando um gráfico do ganho G-[t] nafigura 9b, deve ser notado que o ganho permanece próximo de 0 dB enquan-to os seis acordes são tocados. Isto é porque a energia de sinal permanece,pela maior parte, entre -30 dB e -20 dB, a região dentro da qual a curva deDRC não pede nenhuma modificação. No entanto, após a execução do últi-mo acorde, a energia de sinal cai abaixo de -30 dB, e o ganho começa aaumentar, eventualmente além de 15 dB, conforme o acorde decai. A figura9c apresenta o sinal de áudio modificado resultante, e pode-se ver que acauda do acorde final é intensificada significativamente. Audivelmente, estaintensificação do som de decaimento de baixo nível, natural do acorde criaum resultado extremamente não natural. É o objetivo da presente invençãoimpediros problemas deste tipo que estão associados com um processadorde dinâmica tradicional.
As figuras 10a até 10c apresentam os resultados da aplicaçãodo mesmo sistema de DRC exato a um sinal de áudio diferente. Neste casoa primeira metade do sinal consiste uma peça de música de tempo crescen-te em um alto nível, e então a aproximadamente a amostra 10 χ 10^4 o sinalmuda para uma segunda peça de música de tempo crescente, mas a umnível significativamente mais baixo. Examinando o ganho na figura 6b, vê-seque o sinal é atenuado por aproximadamente 10 dB durante a primeira me-tade, e então o ganho sobe novamente para 0 dB durante a segunda metadequando a peça mais suave está tocando. Neste caso, o ganho comporta-secomo desejado. Se desejaria que a segunda peça fosse intensificada emrelação à primeira, e o ganho deveria aumentar rapidamente após a transi-ção para a segunda peça para ser audivelmente não obstrusiva. Vê-se umcomportamento de ganho que é similar àquele pára o primeiro sinal discuti-do, mas aqui o comportamento é desejável. Portanto, se gostaria de fixar oprimeiro caso sem afetar o segundo. A utilização de eventos auditivos paracontrolar o tempo de liberação deste sistema de DRC provê tal solução.
No primeiro sinal que foi examinado na figura 9, a intensificaçãodo decaimento do último acorde parece não natural porque o acorde e o seudecaimento são percebidos com um único evento auditivo cuja integridade éesperada ser mantida. No segundo caso, no entanto, muitos eventos auditi-vos ocorrem enquanto o ganho aumenta, significando que para qualquer e-vento individual, pouca mudança é imposta. Portanto a mudança de ganhototal não é tão discutível. Pode-se portanto questionar que uma mudança deganho deveria ser permitida somente na vizinhança quase temporal de umlimite de evento auditivo. Pode-se aplicar este princípio a um ganho enquan-to este está ou no modo de ataque ou de liberação, mas para a maioria dasimplementações práticas de um DRC, o ganho move-se tão rapidamente nomodo de ataque em comparação com a resolução temporal humana de per-cepção de eventos que nenhum controle é necessário. Pode-se portantoutilizar os-eventos para controlar a suavização do ganho de DRC somentequando este está no modo de liberação.
Um comportamento adequado do controle de liberação será a-gora descrito. Em termos qualitativos, se um evento por detectado, o ganhoé suavizado com o tempo de liberação constante como acima especificadona Equação 7a. Conforme o tempo evolui passando pelo evento detectado,e se nenhum evento subsequente for detectado, a constante de tempo deliberação aumenta continuamente de modo que eventualmente o ganho su-avizado é "congelado" no lugar. Se outro evento for detectado, então a cons-tante de tempo de suavização é reajustada para o valor original e o processorepete-se. De modo a modular o tempo de liberação, pode-se primeiro gerarum sinal de controle baseado nos limites de evento detectados.
Como anteriormente discutido, os limites de evento podem serdetectados procurando por mudanças em espectros sucessivos do sinal deáudio. Nesta implementação específica, a DFT de cada bloco sobrepostox[n,t] pode ser computada para gerar a STDFT do sinal de áudio x[n]:
<formula>formula see original document page 24</formula>
A seguir, a diferença entre os espectros de magnitude Iog nor-malizados de blocos sucessivos pode ser computada de acordo com:
<formula>formula see original document page 24</formula>
onde
<formula>formula see original document page 24</formula>
Aqui o máximo de |X[k,t]| através das caixas k é utilizado para anormalização, apesar de que se poderia empregar outros fatores de normali-zação; por exemplo, a média de |X[k,t]| através das caixas. Se a diferençaD[t] exceder um limite Dmin, então um evento é considerado ter ocorrido. A-lém disso, pode-se atribuir uma força a este evento, que fica entre zero eum, com base no tamanho de D[t] em comparação com um limite máximoDmax. O sinal de força de evento auditivo resultante A[t] pode ser computadocomo:
<formula>formula see original document page 24</formula>Atribuindo uma força para o evento auditivo proporcional à quan-tidade de mudança espectral associada com aquele evento, um maior con-trole sobre o processamento de dinâmica é conseguido em comparação comuma decisão de evento binário. Os inventores descobriram que maiores mu-danças de ganho são aceitáveis durante os eventos mais fortes, e o sinal naequação 11 permite tal controle variável.
O sinal A[t] é um sinal impulsivo com um impulso ocorrendo nalocalização de um limite de evento. Para os propósitos de controlar o tempode liberação, pode-se adicionalmente suavizar o sinal A[t] de modo que estedecaia suavemente para zero após a detecção de um limite de evento. Osinal de controle de evento suavizado A[t] pode ser computado de A[t] deacordo com:
<formula>formula see original document page 25</formula>
Aqui Oevent controla o tempo de decaimento do sinal de controlede evento. As figuras 9d e 10d apresentam o sinal de controle de evento A[t]para os dois sinais de.áudio correspondentes, com o tempo de meio decai-mento do mais suave ajustado para 250 ms. No primeiro caso, vê-se que umlimite de evento é detectado para cada um dos seis acordes de piano, e queo sinal de controle de evento decai suavemente na direção de zero após ca-da evento. Para o segundo sinal, muitos eventos são detectados muito pró-ximos uns dos outros no tempo, e portanto o sinal de controle de eventonunca decai totalmente para zero.
Pode-se agora utilizar o sinal de controle de evento A[t] paravariar a constante de tempo de liberação utilizada para suavizar o ganho.Quando o sinal de controle é igual a um, o coeficiente de suavização a[t] daEquação 7a é igual a areiease. como antes, e quando o sinal de controle é i-gual a zero, o coeficiente é igual a um de modo que o ganho suavizado éimpedido de mudar. O coeficiente de suavização é interpolado entre estesdois extremos utilizando o sina de controle de acordo com:
<formula>formula see original document page 26</formula>
Pela interpolação do coeficiente de suavização continuamentecomo uma função do sinal de controle de evento, o tempo de liberação éreajustado para um valor proporcional à força de evento no início de um e-vento e então aumenta suavemente para infinito após a ocorrência de umevento. A taxa deste aumento é ditada pelo coeficiente otevent utilizado paragerar o sinal de controle de evento suavizado.
As figuras 9e e 10e mostram o efeito de suavização do ganhocom o coeficiente controlado por evento da Equação 13 em oposição aocoeficiente não controlado por evento da Equação 7b. No primeiro caso, osinal de controle de evento cai para zero após o último acorde de piano pormeio disto impedindo que o ganho mova-se para cima. Como um resultado,o áudio modificado correspondente na figura 9f não sofre uma intensificaçãonão natural do decaimento do acorde. No segundo caso, o sinal de controlede evento nunca se aproxima de zero, e portanto o sinal de ganho suavizadoé muito pouco inibido através da aplicação do controle de evento. A trajetória -do ganho suavizado é quase idêntica ao ganho não controlado por evento nafigura 10b. Este é exatamente o efeito desejado.
AGC e DRC baseados em sonoridade
Como uma alternativa às técnicas de processamento de dinâmi-ca tradicionais onde as modificações de sinal são uma função direta de sim-ples medições de sinal tal como o Pico ou a potência de RMS, o Pedido dePatente Internacional S.N. PCT/US2005/038579 descreve a utilização domodelo de sonoridade baseado em psicoacústica anteriormente descritocomo uma estrutura dentro da qual executar o processamento de dinâmica.Diversas vantagens são citadas. Primeiro, as medições e as modificaçõessão especificadas em unidades de sone, a qual é uma medida mais precisade percepção de sonoridade do que as medições mais básicas tais como oPico ou a potência de RMS. Segundamente, o áudio pode ser modificado demodo que o balanço espectral percebido do áudio original é mantido confor-me a sonoridade total é mudada. Deste modo, mutianças na sonoridade totaltornam-se menos perceptualmente aparentes em comparação com um pro-cessador de dinâmica que utiliza um ganho de banda larga, por exemplo,para modificar o áudio. Finalmente, o modelo psicoacústico é inerentementede múltiplas bandas, e portanto o sistema é facilmente configurado para e-xecutar um processamento de dinâmica de múltiplas bandas de modo a ali-viar os problemas de bombeamento espectral cruzado bem conhecido asso-ciados com um processador de dinâmica de banda larga.
Apesar da execução dé processamento de dinâmica neste do-mínio de sonoridade já apresenta diversas vantagens sobre um processa-mento de dinâmica mais tradicional, a técnica pode ser adicionalmente aper-feiçoada através da utilização de eventos auditivos para controlar vários pa-râmetros. Considere o segmento de áudio que contém os acordes. de pianocomo apresentado em 27a e o DRC associado mostrado nas figuras 10b e c.Poderia-se executar um DRC similar no domínio de sonoridade, e neste ca-so, quando a sonoridade do decaimento do acorde do piano final é intensifi-cada, a intensificação seria menos aparente porque o balanço espectral danota errrdecaimento seria mantido conforme a intensificação é aplicada. Noentanto, uma melhor solução é não intensificar o decaimento, e portanto po-de-se vantajosamente aplicar o mesmo princípio de controlar os tempos deataque e de liberação com os eventos auditivos no domínio de sonoridadecomo foi anteriormente descrito para o DRC tradicional.
O sistema de processamento de dinâmica de domínio de sonori-dade que é agora descrito consiste em AGC seguido por DRC. O objetivodesta combinação é fazer com que todo o áudio processado tenha aproxi-madamente a mesma sonoridade percebida enquanto ainda mantendo pelomenos alguma da dinâmica de áudio original. A figura 11 apresenta um con-junto adequado de curvas de AGC e de DRC para esta aplicação. Note quea entrada e a saída de ambas as curvas estão representadas em unidadesde sone já que o processamento é executado no domínio de sonoridade. Acurva de AGC esforça-se para trazer o áudio de saída mais próximo a algumnível alvo, e, como anteriormente mencionado, o faz com constantes detempo relativamente lentas. Pode-se pensar do AGC como fazendo a sono-ridade de longo prazo do áudio igual ao alvo, mas em uma base de curtoprazo, a sonoridade pode flutuar significativamente ao redor deste alvo. Por-tanto, pode-se empregar um DRC que atue mais rápido para limitar estasflutuações a alguma faixa considerada aceitável para a aplicação específica.A figura 11 mostra tal curva de DRC onde o alvo de AGC cai dentro da "ban-da nula" do DRC, a porção da curva que não requer nenhuma modificação.Com esta combinação de curvas, o AGC coloca a sonoridade de longo prazodo áudio dentro da banda nula da curva de DRC de modo que modificaçõesde DRC de atuação rápida mínimas precisam ser aplicadas. Se a sonoridadede curto prazo ainda flutuar fora da banda nula, o DRC então atua para mo-ver a sonoridade do áudio na direção de sua banda nula. Como uma notageral final, pode-se aplicar o AGC de atuação lenta de modo que todas asbandas do modelo de sonoridade recebam a mesma quantidade de modifi-cação de sonoridade, por meio disto mantendo o balanço espectral percebi-do, e pode-se aplicar o DRC de atuação rápida em um modo que permitaque a modificação de sonoridade varie através das bandas de modo a aliviaro bombeamentorespectral cruzado que poderia de outro modo resultar damodificação de sonoridade-independente de banda da atuação rápida.
Os eventos auditivos podem ser utilizados para controlar o ata-que e a liberação tanto do AGC quanto do DRC. No caso do AGC, tanto otempo de ataque quanto de liberação são grandes em comparação com aresolução temporal de percepção de evento, e portanto o controle de eventopode ser vantajosamente empregado em ambos os casos. Com o DRC, oataque é relativamente curto, e portanto o controle de evento pode ser ne-cessário somente para a liberação como com o DRC tradicional acima des-crito.
Como anteriormente descrito, pode-se utilizar o espectro de so-noridade específico associado com o modelo de sonoridade empregado paraos propósitos de detecção de evento. Um sinal de diferença D[t], similar à-quele nas Equações 10a e b pode ser computado da sonoridade específicaN[b,t], definida na Equação 2, como segue:
<formula>formula see original document page 29</formula>
onde
<formula>formula see original document page 29</formula>
Aqui o máximo de |N[b,t]| através das bandas de freqüência b éutilizado para a normalização, apesar de que se poderia empregar outrosfatores de normalização; por exemplo, a média de |N[b,t]| através das ban-das de freqüência. Se a diferença D[t] exceder um limite Dmin, então um e-vento é considerado ter ocorrido. O sinal de diferença pode então ser pro-cessado no mesmo modo mostrado nas Equações 11 e 12 para gerar umsinal de controle de evento suave A[t] utilizado para controlar os tempos deataque e de liberação.
A curva de AGG apresentada na figura 11 pode ser representadacomo uma função que toma como a sua entrada uma medida de sonoridadee gera uma sonoridade de saída desejada:
<formula>formula see original document page 29</formula>
A curva de DRC pode ser similarmente representada:
<formula>formula see original document page 29</formula>
Para o AGC, a sonoridade de entrada é uma medida da sonori-dade de longo prazo do áudio. Pode-se computar tal medida suavizando asonoridade instantânea L[t], definida na Equação 3, utilizando constantes detempo relativamente longas (na ordem de diversos segundos). Foi mostradoque no julgamento de sonoridade de longo prazo de um segmento de áudio,os seres humanos ponderam as porções mais altas mais pesadamente doque as suaves, e pode-se utilizar um ataque mais rápido do que a liberaçãona suavização para simular este efeito. Com a incorporação de controle deevento tanto para o ataque quanto a liberação, a sonoridade de longo prazoutilizada para determinar a modificação de AGC pode portanto ser computa-da de acordo:
<formula>formula see original document page 30</formula>
onde
<formula>formula see original document page 30</formula>
Além disso, pode ser computar um espectro de sonoridade es-pecífica de longo prazo associado que posteriormente será utilizado para oDRC de múltiplas bandas:
<formula>formula see original document page 30</formula>
Na prática pode-se escolher os coeficientes de suavização demodo que o tempo de ataque seja aproximadamente a metade daquele daliberação. Dada a medida de sonoridade de longo prazo, pode-se entãocomputar a escalagem de modificação de sonoridade associada com o AGCcomo a razão da sonoridade de saída para a sonoridade de entrada:<formula>formula see original document page 31</formula>
A modificação de DRC pode agora ser computada da sonoridadeapós a aplicação da escalagem de AGC. Ao invés de suavizar uma medidada sonoridade antes da aplicação da curva de DRC, pode-se alternativamen-te aplicar a curva de DRC na sonoridade instantânea e então subsequente-mente suavizar a modificação resultante. Isto é similar à técnica anterior-mente descrita para suavizar o ganho do DRC tradicional. Além disso, oDRC pode ser aplicado em um modo de múltiplas bandas, significando que amodificação de DRC é uma função da sonoridade específica N[b,t] em cadabanda d, ao invés da sonoridade total L[t]. No entanto, de modo a manter obalanço espectral médio do áudio original, pode-se aplicar o DRC a cadabanda de modo que as modificações resultantes tenham o mesmo efeitomédio que resultaria da aplicação de DRC na sonoridade total. Isto pode serconseguido escalando cada banda pela razão da sonoridade total de longoprazo (após a aplicação da escalagem de AGC) para a sonoridade específi-ca a longo prazo, e utilizando este valor como o argumento para a função deDRÇ. O resultado é então reescalado pelo inverso da dita razão para produ-zir à sonoridade específica de saída. Assim a escalagem de DRC em cadabanda pode ser computada de acordo com:
<formula>formula see original document page 31</formula>
As modificações de AGC e de DRC podem então ser combina-das para formar a escalagem de sonoridade total por banda:
<formula>formula see original document page 31</formula>
Esta escalagem total pode então ser suavizada através do tem-po independentemente para cada banda com um rápido ataque e uma lentaliberação e o controle de evento aplicado somente à liberação. Idealmente, asuavização é executada no Iogaritmo da escalagém análogo aos ganhos doDRC tradicional sendo suavizados em sua representação de decibel, apesardisto não ser essencial. Para assegurar que a escalagem total suavizadamove-se em sincronismo com a sonoridade específica em cada banda, osmodos de ataque e de liberação podem ser determinados através da suavi-zação simultânea da própria sonoridade específica:
<formula>formula see original document page 32</formula>
onde
<formula>formula see original document page 32</formula>
Finalmente pode-se computar uma sonoridade específica alvocom base na escalagem suavizada aplicada na sonoridade específica origi-nal
<formula>formula see original document page 32</formula>
e então resolver para os ganhos G[b,t] que quando aplicados à excitaçãooriginal resultam em uma sonoridade específica igual ao alvo:
<formula>formula see original document page 32</formula>
Os ganhos podem ser aplicados a cada banda do banco de fil-tros utilizado para computar a excitação, e o áudio modificado pode entãoser gerado pela inversão do banco de filtros para produzir um sinal de áudiode domínio de tempo modificado.
Controle de Parâmetro Adicional
Apesar da discussão acima ter focalizado no controle dos parâ-metros de ataque e de liberação de AGC e de DRC através de análise decena auditiva do áudio que está sendo processado, outros parâmetros im-portantes podem também beneficiar-se de serem controlados através dosresultados de ASA. Por exemplo, o sinal de controle de evento Ã[t] da E-quação 12 pode ser utilizado para variar o valor do parâmetro de razão deDRC que é utilizado para ajustar dinamicamente o ganho do áudio. O parâ-metro de Razão, similarmente aos parâmetros de tempo de ataque e de libe-ração, pode contribuir significativamente para os artefatos perceptuais intro-duzidos por ajustes de ganho dinâmico.
Implementação
A. invenção pode ser implementada em hardware ou em softwa-re, ou uma combinação de ambos (por exemplo, matrizes de lógica progra-mável). A menos que de outro modo especificado, os algoritmos incluídoscomo parte da invenção não estão inerentemente relacionados a nenhumcomputador ou outro aparelho específico. Especificamente, várias máquinasde uso geral podem ser utilizadas com os programas escritos de acordo comos ensinamentos aqui, ou pode ser mais conveniente construir um aparelhomais especializado (por exemplo, circuitos integrados) para executar as eta-pas de método requeridas. Assim, a invenção pode ser implementada emum ou mais programas de computador que executam em um ou mais siste-mas de computador programáveis cada um compreendendo pelo menos umprocessador, pelo menos um sistema de armazenamento de dados (incluin-do uma memória volátil e não-volátil e/ou elementos de armazenamento),pelo menos um dispositivo ou porta de entrada, e pelo menos um dispositivoou porta de saída. Um código de programa é aplicado aos dados de entradapara executar as funções aqui descritas e gerar as informações de saída. Asinformações de saídas são aplicadas a um ou mais dispositivo de saída, emum modo conhecido.Cada tal programa pode ser implementado em qualquer lingua-gem de computador desejada (incluindo as linguagens de programação demáquina, assembly, ou de procedimentais de alto nível, lógicas, ou orienta-das em objeto) para comunicar com um sistema de computador. Em qual-quer caso, a linguagem pode ser uma linguagem compilada ou interpretada.
Cada tal programa de computador está de preferência armaze-nado em ou carregado para um meio ou dispositivo de armazenamento (porexemplo, uma memória ou mídia de estado sólido, ou mídia magnética ouótica) legível por um computador programado de uso geral ou especial, paraconfigurar e operar o computador quando o meio ou dispositivo de armaze-namento é lido pelo sistema de computador para executar os procedimentosaqui descritos. O sistema inventivo pode também ser considerado ser im-plementado como um meio de armazenamento legível por computador, con-figurado com um programa de computador, onde o meio de armazenamentoassim configurado faz com que um sistema de computador opere em ummodo específico e predefinido para executar as funções aqui descritas.
Um número de modalidades da invenção foi descrito. Apesar detudo, será compreendido que várias modificações podem ser feitas sem a-fastar-se do espírito e do escopo da invenção. Por exemplo, algumas dasetapas aqui descritas podem ser independentes de ordem, e assim podem-ser executadas em uma ordem diferente daquela descrita.
Deve ser compreendido que a implementação de outras varia-ções e modificações da invenção e seus vários aspectos serão aparentespara aqueles versados na técnica, e que a invenção não está limitada porestas modalidades específicas descritas. É portanto contemplado cobrir pelapresente invenção quaisquer e todas modificações, variações, ou equivalen-tes que caiam dentro do verdadeiro espírito e escopo dos princípios subja-centes básicos aqui descritos e reivindicados.
Incorporação por Referência
As seguintes patentes, pedidos de patente e publicações estãopor meio disto incorporadas por referência, cada uma em sua totalidade.Processamento de Dinâmica de ÁudioAudio Engineer1S Reference Book, editado por Michael Talbot-Smith, 2- edição. Limiters and Compressors, Alan Tutton, 2-1492-165. FocaiPress, Reed Educational and Professional Publishing1 Ltd., 1999.
Detectando e Utilizando os Eventos Auditivos
Pedido de Patente U.S. S.N. 10/474.387, "High Quality Time-Scaling and Pitch-Scaling of Audio Signals" de Brett Graham Crockett, publi-cado em 24 de Junho de 2004 como US 2004/0122662 A1.
Pedido de Patente U.S. S.N. 10/478.398, "Method for Time Alig-ning Audio Signals Using Characterizations Based on Auditory Events" deBrett G. Crockett et al, publicado em 29 de Julho de 2004 como US2004/0148159 A1.
Pedido de Patente U.S. S.N. 10/478.538, "Segmenting AudioSignals Into Auditory Events" de Brett G. Crockett, publicado em 26 de Agos-to de 2004 como US 2004/0165730 A1. Aspectos da presente invenção pro-vêem um meio para detectar os eventos auditivos além daqueles descritosno dito pedido de Crockett.
Pedido de Patente U.S. S.N. 10/478.397, "Comparing Audio U-sing Characterizations Based on Auditory Events" de Brett G. Crockett et al,publicado em 02 de Setembro de 2004 como US 2004/0172240 A1.
Pedido InternacionaL spb o Tratado de. Cooperação de PatentesS.N. PCT/US 05/24630 depositado em 13 de Julho de 2005, intitulado "Me-thod for Combining Audio Signals Using Auditory Scene Analysis", de Micha-el John Smithers, publicado em 09 de Março de 2006 como WO2006/026161.
Pedido Internacional sob o Tratado de Cooperação de PatentesS.N. PCT/US 2004/016964, depositado em 27 de maio de 2004, intitulado"Method, Apparatus and Computer Program for Calculating and Adjusting thePerceived Loudness of an Audio Signal" de Alan Jeffrey Seefeldt et al, publi-cado em 23 de Dezembro de 2004 como WO 2004/111994 A2.
Pedido Internacional sob o Tratado de Cooperação de PatentesS.N. PCT/US2005/038579, depositado em 25 de Outubro de 2005, intitulado"Calculating and Adjusting the Perceived Loudness and/or the PerceivedSpectral Balance ,of an Audio Signal" por Alan Jeffrey Seefeldt e publicadocomo Publicação Internacional Número WO 2006/047600.
"A Method for Characterizing and ldentifying Audio Based onAuditory Scene Analysis", por Brett Crockett e Michael Smithers, Audio Engi-neering Society Convention Paper 6416, 118th Convention, Barcelona, 28-31de Maio de 2005.
"High Quality Multichannel Time Scaling and Pitch-Shifting usingAuditory Scene Analysis", por Brett Crockett1 Audio Engineering SocietyConvention Paper 5948, New York, Outubro de 2003.
"A New Objective Measure of Perceived Loudness" por AlanSeefeldt et al, Audio Engineering Society Convention Paper 6236, San Fran-cisco, 28 de Outubro de 2004.
Handbook for Sound Engineers, The New Audio Cyclopedia, edi-tado por Glen M. Bailou, 2- Edição. Dynamics, 850-851. Focai Press an im-print of Butterworth-HeiF.cmann, 1998.
Audio Engineer1S Reference Book, editado por Michael Talbot-Smith, 2a Edição, Seção 2.9 ("Limiters and Compressors" por Alan Tutton),pp. 2.149-2.165, Focai Press, Reed Educational and Professional Publishing,Ltd., 1999.

Claims (18)

1. Método de processamento de áudio no qual um processadorrecebe um canal de entrada e gera um canal dê saída que é gerado pelaaplicação de modificações de ganho dinâmico no canal de entrada, quecompreende:detectar as mudanças em características de sinal em relação aotempo no canal de entrada de áudio,identificar como limites de evento auditivo as mudanças em ca-racterísticas de sinal em relação ao tempo no dito canal de entrada, em queum segmento de áudio entre os limites consecutivos constitui um evento au-ditivo no canal, egerar todos ou alguns de um ou mais parâmetros do método demodificação de ganho dinâmico pelo menos parcialmente em resposta a e-ventos auditivos e/ou o grau de mudança em características de sinal associ-sdas aos ditos limites de evento auditivo.
2. Método de acordo com a reivindicação 1, em que um eventoauditivo é um segmento de áudio que tende a ser percebido como separadoe distinto.
3. Método de acordo com a reivindicação 1 ou reivindicação 2,em que as ditas características de;sirial incluem o conteúdo espectral do áudio.
4. Método de acordo com a reivindicação 1 ou reivindicação 2,em que as ditas características de sinal incluem a sonoridade perceptual doáudio.
5. Método de acordo com qualquer uma das reivindicações 1 a-4, em que todos ou alguns dos ditos um ou mais parâmetros são geradospelo menos parcialmente em resposta à presença ou à ausência de um oumais eventos auditivos.
6. Método de acordo com qualquer uma das reivindicações 1 a-4, em que a dita identificação identifica como um limite de evento auditivouma mudança em características de sinal em relação ao tempo que excedeum limite.
7. Método de acordo com qualquer uma das reivindicações 1 a 4, em que o dito limite de evento auditivo pode ser modificado por uma fun-ção para criar um sinal de controle que é utilizado'para modificar os parâme-tros de modificação de ganho dinâmico de áudio.
8. Método de acordo com qualquer uma das reivindicações 1 a 4, em que todos ou alguns dos ditos um ou mais parâmetros são geradospelo menos parcialmente em resposta a uma medida continuada do grau demudança em características de sinal associadas aos ditos limites de eventosauditivos.
9. Aparelho adaptado para executar os métodos como definidosem qualquer uma das reivindicações 1 a 8.
10. Programa de computador armazenado em um meio legívelpor computador, para fazer com que um computador controle o aparelhocomo definido na reivindicação 9.
11. Programa de computador armazenado em um meio legívelpor computador, para fazer com que um computador execute os métodos deacordo com qualquer uma das reivindicações 1 a 8.
12. Método para dividir um sinal de áudio em eventos auditivos,cada um dos quais tende a ser percebido como separado e distinto, que compreende:calcular a diferença em conteúdo espectral entre os sucessivosblocos de tempo do dito sinal de áudio, em que a diferença é calculada pelacomparação.da diferença em sonoridade específica entre os sucessivos blo-cos de tempo, em que a sonoridade específica é uma medida de sonoridadeperceptual como uma função de freqüência e tempo, eidentificar um limite de evento auditivo como o limite entre ossucessivos blocos de tempo quando a diferença em conteúdo espectral en-tre tais sucessivos blocos de tempo excede um limite.
13. Método de acordo com a reivindicação 12, em que o dito si-nal de áudio é representado por uma seqüência de tempo discreta x[n] quefoi mostrada de uma fonte de áudio a uma freqüência de amostragem /s e adiferença é calculada pela comparação da diferença em sonoridade especí-fica N[b,t] através de bandas de freqüência b entre os sucessivos blocos detempo t.
14. Método de acordo com a reivindicàção 13, em que a diferen-ça em conteúdo espectral entre os sucessivos blocos de tempo do sinal deáudio é calculada de acordo com<formula>formula see original document page 39</formula>
15. Método de acordo com a reivindicação 13, em que a diferen-ça em conteúdo espectral entre os sucessivos blocos de tempo do sinal deáudio é calculada de acordo com<formula>formula see original document page 39</formula>
16. Aparelho adaptado para executar os métodos como definidosem qualquer uma das reivindicações 12 a 15.
17. Programa de computador, armazenado em um meio legívelpor computador, para fazer com que um computador controle o aparelhocomo definido na reivindicação 16.
18. Programa de computador armazenado em um meio legívelpor computador, para fazer com que um computador execute os métodoscomo definidos em qualquer uma das reivindicações 12 a 15.
BRPI0711063-4A 2006-04-27 2007-03-30 Método e aparelho para modificar um parâmetro de processamento de dinâmicas de áudio BRPI0711063B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US79580806P 2006-04-27 2006-04-27
US60/795,808 2006-04-27
PCT/US2007/008313 WO2007127023A1 (en) 2006-04-27 2007-03-30 Audio gain control using specific-loudness-based auditory event detection

Publications (2)

Publication Number Publication Date
BRPI0711063A2 true BRPI0711063A2 (pt) 2011-08-23
BRPI0711063B1 BRPI0711063B1 (pt) 2023-09-26

Family

ID=38445597

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0711063-4A BRPI0711063B1 (pt) 2006-04-27 2007-03-30 Método e aparelho para modificar um parâmetro de processamento de dinâmicas de áudio

Country Status (21)

Country Link
US (26) US8144881B2 (pt)
EP (1) EP2011234B1 (pt)
JP (2) JP5129806B2 (pt)
KR (2) KR101200615B1 (pt)
CN (2) CN102684628B (pt)
AT (1) ATE493794T1 (pt)
AU (2) AU2007243586B2 (pt)
BR (1) BRPI0711063B1 (pt)
CA (1) CA2648237C (pt)
DE (1) DE602007011594D1 (pt)
DK (1) DK2011234T3 (pt)
ES (1) ES2359799T3 (pt)
IL (1) IL194430A (pt)
MX (1) MX2008013753A (pt)
MY (1) MY141426A (pt)
NO (13) NO345590B1 (pt)
PL (1) PL2011234T3 (pt)
RU (1) RU2417514C2 (pt)
TW (1) TWI455481B (pt)
UA (1) UA93243C2 (pt)
WO (1) WO2007127023A1 (pt)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9820044B2 (en) 2009-08-11 2017-11-14 Dts Llc System for increasing perceived loudness of speakers

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7610205B2 (en) 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
CN101819771B (zh) 2003-05-28 2012-04-11 杜比实验室特许公司 用于计算和调节音频信号的感觉响度的方法和设备
CA2992125C (en) 2004-03-01 2018-09-25 Dolby Laboratories Licensing Corporation Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters
US7508947B2 (en) 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
US8199933B2 (en) 2004-10-26 2012-06-12 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
AU2005299410B2 (en) 2004-10-26 2011-04-07 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
WO2006132857A2 (en) 2005-06-03 2006-12-14 Dolby Laboratories Licensing Corporation Apparatus and method for encoding audio signals with decoding instructions
EP2002426B1 (en) 2006-04-04 2009-09-02 Dolby Laboratories Licensing Corporation Audio signal loudness measurement and modification in the mdct domain
TWI517562B (zh) 2006-04-04 2016-01-11 杜比實驗室特許公司 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式
CA2648237C (en) 2006-04-27 2013-02-05 Dolby Laboratories Licensing Corporation Audio gain control using specific-loudness-based auditory event detection
UA94968C2 (ru) 2006-10-20 2011-06-25 Долби Леборетериз Лайсенсинг Корпорейшн Обработка динамических свойств аудио с использованием перенастройки
US8521314B2 (en) 2006-11-01 2013-08-27 Dolby Laboratories Licensing Corporation Hierarchical control path with constraints for audio dynamics processing
US8254591B2 (en) 2007-02-01 2012-08-28 Personics Holdings Inc. Method and device for audio recording
US11217237B2 (en) 2008-04-14 2022-01-04 Staton Techiya, Llc Method and device for voice operated control
US11317202B2 (en) 2007-04-13 2022-04-26 Staton Techiya, Llc Method and device for voice operated control
US9185507B2 (en) 2007-06-08 2015-11-10 Dolby Laboratories Licensing Corporation Hybrid derivation of surround sound audio channels by controllably combining ambience and matrix-decoded signal components
EP2168122B1 (en) 2007-07-13 2011-11-30 Dolby Laboratories Licensing Corporation Audio processing using auditory scene analysis and spectral skewness
EP2232700B1 (en) 2007-12-21 2014-08-13 Dts Llc System for adjusting perceived loudness of audio signals
BRPI0906142B1 (pt) * 2008-03-10 2020-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. dispositivo e método para a manipulação de um sinal de áudio tendo um evento transiente
JP5341983B2 (ja) * 2008-04-18 2013-11-13 ドルビー ラボラトリーズ ライセンシング コーポレイション サラウンド体験に対する影響を最小限にしてマルチチャンネルオーディオにおけるスピーチの聴覚性を維持するための方法及び装置
US9253560B2 (en) * 2008-09-16 2016-02-02 Personics Holdings, Llc Sound library and method
WO2010033387A2 (en) 2008-09-19 2010-03-25 Dolby Laboratories Licensing Corporation Upstream signal processing for client devices in a small-cell wireless network
EP2329492A1 (en) 2008-09-19 2011-06-08 Dolby Laboratories Licensing Corporation Upstream quality enhancement signal processing for resource constrained client devices
US9129291B2 (en) 2008-09-22 2015-09-08 Personics Holdings, Llc Personalized sound management and method
EP2352225A1 (en) * 2008-10-17 2011-08-03 Sharp Kabushiki Kaisha Audio signal adjustment device and audio signal adjustment method
EP2362996B1 (en) * 2008-11-14 2012-10-24 THAT Corporation Dynamic volume control and multi-spatial processing protection
WO2010075377A1 (en) 2008-12-24 2010-07-01 Dolby Laboratories Licensing Corporation Audio signal loudness determination and modification in the frequency domain
WO2010099237A2 (en) * 2009-02-25 2010-09-02 Conexant Systems, Inc. Speaker distortion reduction system and method
US8422699B2 (en) * 2009-04-17 2013-04-16 Linear Acoustic, Inc. Loudness consistency at program boundaries
US8938313B2 (en) 2009-04-30 2015-01-20 Dolby Laboratories Licensing Corporation Low complexity auditory event boundary detection
WO2010127024A1 (en) 2009-04-30 2010-11-04 Dolby Laboratories Licensing Corporation Controlling the loudness of an audio signal in response to spectral localization
TWI503816B (zh) 2009-05-06 2015-10-11 Dolby Lab Licensing Corp 調整音訊信號響度並使其具有感知頻譜平衡保持效果之技術
US9055374B2 (en) * 2009-06-24 2015-06-09 Arizona Board Of Regents For And On Behalf Of Arizona State University Method and system for determining an auditory pattern of an audio segment
US8249275B1 (en) * 2009-06-26 2012-08-21 Cirrus Logic, Inc. Modulated gain audio control and zipper noise suppression techniques using modulated gain
US8554348B2 (en) * 2009-07-20 2013-10-08 Apple Inc. Transient detection using a digital audio workstation
WO2011015237A1 (en) * 2009-08-04 2011-02-10 Nokia Corporation Method and apparatus for audio signal classification
WO2011043020A1 (ja) * 2009-10-07 2011-04-14 日本電気株式会社 マルチバンドコンプレッサ、その調整方法
EP2367286B1 (en) 2010-03-12 2013-02-20 Harman Becker Automotive Systems GmbH Automatic correction of loudness level in audio signals
CN105812817B (zh) 2010-11-23 2019-07-12 Lg电子株式会社 由编码装置和解码装置执行的间预测方法
US8855322B2 (en) * 2011-01-12 2014-10-07 Qualcomm Incorporated Loudness maximization with constrained loudspeaker excursion
JP5707219B2 (ja) * 2011-05-13 2015-04-22 富士通テン株式会社 音響制御装置
EP2714184B1 (en) * 2011-05-26 2017-05-10 Advanced Bionics AG Systems for improving representation by an auditory prosthesis system of audio signals having intermediate sound levels
DE102011085036A1 (de) * 2011-10-21 2013-04-25 Siemens Medical Instruments Pte. Ltd. Verfahren zum Ermitteln einer Kompressionskennlinie
TWI575962B (zh) * 2012-02-24 2017-03-21 杜比國際公司 部份複數處理之重疊濾波器組中的低延遲實數至複數轉換
WO2013154868A1 (en) 2012-04-12 2013-10-17 Dolby Laboratories Licensing Corporation System and method for leveling loudness variation in an audio signal
US9312829B2 (en) 2012-04-12 2016-04-12 Dts Llc System for adjusting loudness of audio signals in real time
JP5527827B2 (ja) * 2012-04-17 2014-06-25 Necエンジニアリング株式会社 ラウドネス調整装置、ラウドネス調整方法、及びプログラム
US9685921B2 (en) 2012-07-12 2017-06-20 Dts, Inc. Loudness control with noise detection and loudness drop detection
US10019000B2 (en) 2012-07-17 2018-07-10 Elwha Llc Unmanned device utilization methods and systems
US9733644B2 (en) 2012-07-17 2017-08-15 Elwha Llc Unmanned device interaction methods and systems
US9991861B2 (en) * 2012-08-10 2018-06-05 Bellevue Investments Gmbh & Co. Kgaa System and method for controlled dynamics adaptation for musical content
EP2898510B1 (en) 2012-09-19 2016-07-13 Dolby Laboratories Licensing Corporation Method, system and computer program for adaptive control of gain applied to an audio signal
CN119479682A (zh) 2013-01-21 2025-02-18 杜比实验室特许公司 用于在不同回放设备之间优化响度和动态范围的系统和方法
EP2974253B1 (en) 2013-03-15 2019-05-08 Dolby Laboratories Licensing Corporation Normalization of soundfield orientations based on auditory scene analysis
CN104079247B (zh) 2013-03-26 2018-02-09 杜比实验室特许公司 均衡器控制器和控制方法以及音频再现设备
CN104080024B (zh) 2013-03-26 2019-02-19 杜比实验室特许公司 音量校平器控制器和控制方法以及音频分类器
CN104078050A (zh) 2013-03-26 2014-10-01 杜比实验室特许公司 用于音频分类和音频处理的设备和方法
TWM487509U (zh) * 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
JP6216553B2 (ja) * 2013-06-27 2017-10-18 クラリオン株式会社 伝搬遅延補正装置及び伝搬遅延補正方法
EP3044786B1 (en) 2013-09-12 2024-04-24 Dolby Laboratories Licensing Corporation Loudness adjustment for downmixed audio content
CN109920440B (zh) * 2013-09-12 2024-01-09 杜比实验室特许公司 用于各种回放环境的动态范围控制
US9608588B2 (en) * 2014-01-22 2017-03-28 Apple Inc. Dynamic range control with large look-ahead
US10063207B2 (en) * 2014-02-27 2018-08-28 Dts, Inc. Object-based audio loudness management
CN106031141B (zh) 2014-02-28 2017-12-29 杜比实验室特许公司 会议中使用改变视盲的感知连续性
CN105142067B (zh) 2014-05-26 2020-01-07 杜比实验室特许公司 音频信号响度控制
US10013992B2 (en) 2014-07-11 2018-07-03 Arizona Board Of Regents On Behalf Of Arizona State University Fast computation of excitation pattern, auditory pattern and loudness
US9712934B2 (en) 2014-07-16 2017-07-18 Eariq, Inc. System and method for calibration and reproduction of audio signals based on auditory feedback
CN113257274B (zh) 2014-10-01 2024-09-13 杜比国际公司 高效drc配置文件传输
ES2980796T3 (es) * 2014-10-10 2024-10-03 Dolby Laboratories Licensing Corp Sonoridad de programa basada en la presentación, independiente de la transmisión
JP6228100B2 (ja) * 2014-11-17 2017-11-08 Necプラットフォームズ株式会社 ラウドネス調整装置、ラウドネス調整方法及びラウドネス調整用プログラム
US9852744B2 (en) * 2014-12-16 2017-12-26 Psyx Research, Inc. System and method for dynamic recovery of audio data
WO2016154150A1 (en) * 2015-03-25 2016-09-29 Dolby Laboratories Licensing Corporation Sub-band mixing of multiple microphones
WO2016172363A1 (en) * 2015-04-24 2016-10-27 Cyber Resonance Corporation Methods and systems for performing signal analysis to identify content types
US10109288B2 (en) 2015-05-27 2018-10-23 Apple Inc. Dynamic range and peak control in audio using nonlinear filters
GB2539875B (en) * 2015-06-22 2017-09-20 Time Machine Capital Ltd Music Context System, Audio Track Structure and method of Real-Time Synchronization of Musical Content
US9837086B2 (en) * 2015-07-31 2017-12-05 Apple Inc. Encoded audio extended metadata-based dynamic range control
CA2994446C (en) 2015-08-28 2021-01-12 The Procter & Gamble Company Catalysts for the dehydration of hydroxypropionic acid and its derivatives
US9590580B1 (en) 2015-09-13 2017-03-07 Guoguang Electric Company Limited Loudness-based audio-signal compensation
US10341770B2 (en) * 2015-09-30 2019-07-02 Apple Inc. Encoded audio metadata-based loudness equalization and dynamic equalization during DRC
CN105404654A (zh) * 2015-10-30 2016-03-16 魅族科技(中国)有限公司 一种音频文件播放方法及装置
WO2017079334A1 (en) 2015-11-03 2017-05-11 Dolby Laboratories Licensing Corporation Content-adaptive surround sound virtualization
US9756281B2 (en) 2016-02-05 2017-09-05 Gopro, Inc. Apparatus and method for audio based video synchronization
WO2017142916A1 (en) * 2016-02-19 2017-08-24 Dolby Laboratories Licensing Corporation Diffusivity based sound processing method and apparatus
US10923132B2 (en) 2016-02-19 2021-02-16 Dolby Laboratories Licensing Corporation Diffusivity based sound processing method and apparatus
CN105845151B (zh) * 2016-05-30 2019-05-31 百度在线网络技术(北京)有限公司 应用于语音识别前端的音频增益调整方法和装置
US20170366897A1 (en) * 2016-06-15 2017-12-21 Robert Azarewicz Microphone board for far field automatic speech recognition
US9697849B1 (en) 2016-07-25 2017-07-04 Gopro, Inc. Systems and methods for audio based synchronization using energy vectors
US9640159B1 (en) * 2016-08-25 2017-05-02 Gopro, Inc. Systems and methods for audio based synchronization using sound harmonics
US9653095B1 (en) 2016-08-30 2017-05-16 Gopro, Inc. Systems and methods for determining a repeatogram in a music composition using audio features
GB201615538D0 (en) * 2016-09-13 2016-10-26 Nokia Technologies Oy A method , apparatus and computer program for processing audio signals
US9916822B1 (en) 2016-10-07 2018-03-13 Gopro, Inc. Systems and methods for audio remixing using repeated segments
TWI590239B (zh) * 2016-12-09 2017-07-01 宏碁股份有限公司 語音信號處理裝置及語音信號處理方法
CN108281148B (zh) * 2016-12-30 2020-12-22 宏碁股份有限公司 语音信号处理装置及语音信号处理方法
US10374564B2 (en) 2017-04-20 2019-08-06 Dts, Inc. Loudness control with noise detection and loudness drop detection
US10491179B2 (en) 2017-09-25 2019-11-26 Nuvoton Technology Corporation Asymmetric multi-channel audio dynamic range processing
CN111183476B (zh) * 2017-10-06 2024-03-22 索尼欧洲有限公司 基于子窗口序列内的rms功率的音频文件包络
US11011180B2 (en) * 2018-06-29 2021-05-18 Guoguang Electric Company Limited Audio signal dynamic range compression
CN112470219B (zh) 2018-07-25 2024-08-02 杜比实验室特许公司 压缩机目标曲线以避免增强噪声
US11775250B2 (en) 2018-09-07 2023-10-03 Gracenote, Inc. Methods and apparatus for dynamic volume adjustment via audio classification
EP4554090A3 (en) * 2018-09-07 2025-07-09 Gracenote, Inc. Methods and apparatus for dynamic volume adjustment via audio classification
JP7031543B2 (ja) * 2018-09-21 2022-03-08 株式会社Jvcケンウッド 処理装置、処理方法、再生方法、及びプログラム
EP3662468B1 (en) * 2018-09-28 2020-11-04 Dolby Laboratories Licensing Corporation Distortion reducing multi-band compressor with dynamic thresholds based on scene switch analyzer guided distortion audibility model
US11218125B2 (en) * 2018-10-24 2022-01-04 Gracenote, Inc Methods and apparatus to adjust audio playback settings based on analysis of audio characteristics
US11347470B2 (en) * 2018-11-16 2022-05-31 Roku, Inc. Detection of media playback loudness level and corresponding adjustment to audio during media replacement event
CN109889170B (zh) * 2019-02-25 2021-06-04 珠海格力电器股份有限公司 音频信号的控制方法和装置
JP7275711B2 (ja) * 2019-03-20 2023-05-18 ヤマハ株式会社 オーディオ信号の処理方法
US11133787B2 (en) 2019-06-25 2021-09-28 The Nielsen Company (Us), Llc Methods and apparatus to determine automated gain control parameters for an automated gain control protocol
US11019301B2 (en) 2019-06-25 2021-05-25 The Nielsen Company (Us), Llc Methods and apparatus to perform an automated gain control protocol with an amplifier based on historical data corresponding to contextual data
US12160214B2 (en) * 2020-03-13 2024-12-03 Immersion Networks, Inc. Loudness equalization system
US12217494B2 (en) 2020-04-10 2025-02-04 Gracenote, Inc. Keyframe extractor
EP3961624B1 (de) * 2020-08-28 2024-09-25 Sivantos Pte. Ltd. Verfahren zum betrieb einer hörvorrichtung in abhängigkeit eines sprachsignals
US12198711B2 (en) 2020-11-23 2025-01-14 Cyber Resonance Corporation Methods and systems for processing recorded audio content to enhance speech
CN116614668A (zh) * 2023-04-07 2023-08-18 百果园技术(新加坡)有限公司 一种直播音量的自适应控制方法、系统、设备及存储介质

Family Cites Families (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2808475A (en) 1954-10-05 1957-10-01 Bell Telephone Labor Inc Loudness indicator
DE1736966U (de) 1956-09-28 1956-12-27 Heinz Schulze Luftschraube fuer spiel- und modell-flugzeuge.
SU720691A1 (ru) * 1978-04-27 1980-03-05 Предприятие П/Я Р-6609 Устройство дл автоматического регулировани усилени
US4281218A (en) 1979-10-26 1981-07-28 Bell Telephone Laboratories, Incorporated Speech-nonspeech detector-classifier
US4624009A (en) 1980-05-02 1986-11-18 Figgie International, Inc. Signal pattern encoder and classifier
DE3314570A1 (de) 1983-04-22 1984-10-25 Philips Patentverwaltung Gmbh, 2000 Hamburg Verfahren und anordnung zur einstellung der verstaerkung
US4739514A (en) 1986-12-22 1988-04-19 Bose Corporation Automatic dynamic equalizing
US4887299A (en) 1987-11-12 1989-12-12 Nicolet Instrument Corporation Adaptive, programmable signal processing hearing aid
US4882762A (en) * 1988-02-23 1989-11-21 Resound Corporation Multi-band programmable compression system
KR940003351B1 (ko) * 1988-03-31 1994-04-20 주식회사 금성사 조도에 따른 자동이득 제어증폭기 이득 제어회로
US4953112A (en) 1988-05-10 1990-08-28 Minnesota Mining And Manufacturing Company Method and apparatus for determining acoustic parameters of an auditory prosthesis using software model
US5027410A (en) 1988-11-10 1991-06-25 Wisconsin Alumni Research Foundation Adaptive, programmable signal processing and filtering for hearing aids
JPH02118322U (pt) 1989-03-08 1990-09-21
US5097510A (en) 1989-11-07 1992-03-17 Gs Systems, Inc. Artificial intelligence pattern-recognition-based noise reduction system for speech processing
US5369711A (en) 1990-08-31 1994-11-29 Bellsouth Corporation Automatic gain control for a headset
US5632005A (en) 1991-01-08 1997-05-20 Ray Milton Dolby Encoder/decoder for multidimensional sound fields
WO1992012607A1 (en) 1991-01-08 1992-07-23 Dolby Laboratories Licensing Corporation Encoder/decoder for multidimensional sound fields
DE69214882T2 (de) 1991-06-06 1997-03-20 Matsushita Electric Ind Co Ltd Gerät zur Unterscheidung von Musik und Sprache
US5278912A (en) 1991-06-28 1994-01-11 Resound Corporation Multiband programmable compression system
US5175769A (en) 1991-07-23 1992-12-29 Rolm Systems Method for time-scale modification of signals
KR940003351Y1 (ko) 1991-10-17 1994-05-23 삼성전관 주식회사 편광판 부착장치
US5363147A (en) 1992-06-01 1994-11-08 North American Philips Corporation Automatic volume leveler
KR940003351A (ko) 1992-07-15 1994-02-21 강진구 온 스크린 그래픽 표시 제어 장치 및 방법
DE4335739A1 (de) 1992-11-17 1994-05-19 Rudolf Prof Dr Bisping Verfahren zur Steuerung des Signal-/Rausch-Abstandes bei rauschbehafteten Tonaufnahmen
GB2272615A (en) 1992-11-17 1994-05-18 Rudolf Bisping Controlling signal-to-noise ratio in noisy recordings
US5457769A (en) 1993-03-30 1995-10-10 Earmark, Inc. Method and apparatus for detecting the presence of human voice signals in audio signals
US5706352A (en) 1993-04-07 1998-01-06 K/S Himpp Adaptive gain and filtering circuit for a sound reproduction system
US5434922A (en) 1993-04-08 1995-07-18 Miller; Thomas E. Method and apparatus for dynamic sound optimization
BE1007355A3 (nl) 1993-07-26 1995-05-23 Philips Electronics Nv Spraaksignaaldiscriminatieschakeling alsmede een audio-inrichting voorzien van een dergelijke schakeling.
IN184794B (pt) 1993-09-14 2000-09-30 British Telecomm
JP2986345B2 (ja) 1993-10-18 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声記録指標化装置及び方法
US5530760A (en) 1994-04-29 1996-06-25 Audio Products International Corp. Apparatus and method for adjusting levels between channels of a sound system
US5463695A (en) * 1994-06-20 1995-10-31 Aphex Systems, Ltd. Peak accelerated compressor
US5500902A (en) 1994-07-08 1996-03-19 Stockham, Jr.; Thomas G. Hearing aid device incorporating signal processing techniques
GB9419388D0 (en) 1994-09-26 1994-11-09 Canon Kk Speech analysis
US5548538A (en) 1994-12-07 1996-08-20 Wiltron Company Internal automatic calibrator for vector network analyzers
US5682463A (en) 1995-02-06 1997-10-28 Lucent Technologies Inc. Perceptual audio compression based on loudness uncertainty
CA2167748A1 (en) 1995-02-09 1996-08-10 Yoav Freund Apparatus and methods for machine learning hypotheses
ATE229729T1 (de) 1995-03-13 2002-12-15 Phonak Ag Verfahren zur anpassung eines hörgerätes, vorrichtung hierzu und hörgerät
US5727119A (en) 1995-03-27 1998-03-10 Dolby Laboratories Licensing Corporation Method and apparatus for efficient implementation of single-sideband filter banks providing accurate measures of spectral magnitude and phase
US6041295A (en) 1995-04-10 2000-03-21 Corporate Computer Systems Comparing CODEC input/output to adjust psycho-acoustic parameters
US6301555B2 (en) 1995-04-10 2001-10-09 Corporate Computer Systems Adjustable psycho-acoustic parameters
US5601617A (en) 1995-04-26 1997-02-11 Advanced Bionics Corporation Multichannel cochlear prosthesis with flexible control of stimulus waveforms
JPH08328599A (ja) 1995-06-01 1996-12-13 Mitsubishi Electric Corp Mpegオーディオ復号器
US5663727A (en) 1995-06-23 1997-09-02 Hearing Innovations Incorporated Frequency response analyzer and shaping apparatus and digital hearing enhancement apparatus and method utilizing the same
US5712954A (en) 1995-08-23 1998-01-27 Rockwell International Corp. System and method for monitoring audio power level of agent speech in a telephonic switch
US6002776A (en) 1995-09-18 1999-12-14 Interval Research Corporation Directional acoustic signal processor and method therefor
US5907622A (en) 1995-09-21 1999-05-25 Dougherty; A. Michael Automatic noise compensation system for audio reproduction equipment
WO1997027578A1 (en) * 1996-01-26 1997-07-31 Motorola Inc. Very low bit rate time domain speech analyzer for voice messaging
US6327366B1 (en) 1996-05-01 2001-12-04 Phonak Ag Method for the adjustment of a hearing device, apparatus to do it and a hearing device
US6108431A (en) 1996-05-01 2000-08-22 Phonak Ag Loudness limiter
US6430533B1 (en) 1996-05-03 2002-08-06 Lsi Logic Corporation Audio decoder core MPEG-1/MPEG-2/AC-3 functional algorithm partitioning and implementation
JPH09312540A (ja) 1996-05-23 1997-12-02 Pioneer Electron Corp ラウドネスボリュームコントロール装置
JP3765622B2 (ja) 1996-07-09 2006-04-12 ユナイテッド・モジュール・コーポレーション オーディオ符号化復号化システム
EP0820212B1 (de) 1996-07-19 2010-04-21 Bernafon AG Lautheitsgesteuerte Verarbeitung akustischer Signale
JPH1074097A (ja) 1996-07-26 1998-03-17 Ind Technol Res Inst オーディオ信号のパラメータを変更する方法及び装置
JP2953397B2 (ja) 1996-09-13 1999-09-27 日本電気株式会社 ディジタル補聴器の聴覚補償処理方法及びディジタル補聴器
US6049766A (en) 1996-11-07 2000-04-11 Creative Technology Ltd. Time-domain time/pitch scaling of speech or audio signals with transient handling
JP2991982B2 (ja) 1996-11-29 1999-12-20 日本イーライリリー株式会社 注射練習器具
US6570991B1 (en) 1996-12-18 2003-05-27 Interval Research Corporation Multi-feature speech/music discrimination system
US5862228A (en) 1997-02-21 1999-01-19 Dolby Laboratories Licensing Corporation Audio matrix encoding
US6125343A (en) 1997-05-29 2000-09-26 3Com Corporation System and method for selecting a loudest speaker by comparing average frame gains
US6272360B1 (en) 1997-07-03 2001-08-07 Pan Communications, Inc. Remotely installed transmitter and a hands-free two-way voice terminal device using same
US6185309B1 (en) 1997-07-11 2001-02-06 The Regents Of The University Of California Method and apparatus for blind separation of mixed and convolved sources
KR100261904B1 (ko) 1997-08-29 2000-07-15 윤종용 헤드폰 사운드 출력장치
US6088461A (en) 1997-09-26 2000-07-11 Crystal Semiconductor Corporation Dynamic volume control system
US6330672B1 (en) 1997-12-03 2001-12-11 At&T Corp. Method and apparatus for watermarking digital bitstreams
US6233554B1 (en) 1997-12-12 2001-05-15 Qualcomm Incorporated Audio CODEC with AGC controlled by a VOCODER
US6298139B1 (en) 1997-12-31 2001-10-02 Transcrypt International, Inc. Apparatus and method for maintaining a constant speech envelope using variable coefficient automatic gain control
US6182033B1 (en) 1998-01-09 2001-01-30 At&T Corp. Modular approach to speech enhancement with an application to speech coding
US6353671B1 (en) 1998-02-05 2002-03-05 Bioinstco Corp. Signal processing circuit and method for increasing speech intelligibility
US6311155B1 (en) 2000-02-04 2001-10-30 Hearing Enhancement Company Llc Use of voice-to-remaining audio (VRA) in consumer applications
US6498855B1 (en) 1998-04-17 2002-12-24 International Business Machines Corporation Method and system for selectively and variably attenuating audio data
WO1999065276A1 (en) 1998-06-08 1999-12-16 Cochlear Limited Hearing instrument
EP0980064A1 (de) 1998-06-26 2000-02-16 Ascom AG Verfahren zur Durchführung einer maschinengestützten Beurteilung der Uebertragungsqualität von Audiosignalen
GB2340351B (en) 1998-07-29 2004-06-09 British Broadcasting Corp Data transmission
US6351731B1 (en) 1998-08-21 2002-02-26 Polycom, Inc. Adaptive filter featuring spectral gain smoothing and variable noise multiplier for noise reduction, and method therefor
US6823303B1 (en) 1998-08-24 2004-11-23 Conexant Systems, Inc. Speech encoder using voice activity detection in coding noise
US6411927B1 (en) 1998-09-04 2002-06-25 Matsushita Electric Corporation Of America Robust preprocessing signal equalization system and method for normalizing to a target environment
FI113935B (fi) 1998-09-25 2004-06-30 Nokia Corp Menetelmä äänitason kalibroimiseksi monikanavaisessa äänentoistojärjestelmässä ja monikanavainen äänentoistojärjestelmä
US6266644B1 (en) 1998-09-26 2001-07-24 Liquid Audio, Inc. Audio encoding apparatus and methods
DE19848491A1 (de) 1998-10-21 2000-04-27 Bosch Gmbh Robert Rundfunkempfänger zum Empfang von Radio-Daten und Verfahren zur Beeinflussung einer Klangcharakteristik eines wiederzugebenden Audiosignals in einem Rundfunkempfänger
US6314396B1 (en) 1998-11-06 2001-11-06 International Business Machines Corporation Automatic gain control in a speech recognition system
GB9824776D0 (en) 1998-11-11 1999-01-06 Kemp Michael J Audio dynamic control effects synthesiser
DE69933141T2 (de) 1999-02-05 2007-08-16 Hearworks Pty Ltd. Tonprozessor zur adaptiven dynamikbereichsverbesserung
DE69933929T2 (de) 1999-04-09 2007-06-06 Texas Instruments Inc., Dallas Bereitstellen von digitalen Audio- und Videoprodukten
CA2372017A1 (en) 1999-04-26 2000-11-02 Dspfactory Ltd. Loudness normalization control for a digital hearing aid
US6263371B1 (en) 1999-06-10 2001-07-17 Cacheflow, Inc. Method and apparatus for seaming of streaming content
US6442278B1 (en) 1999-06-15 2002-08-27 Hearing Enhancement Company, Llc Voice-to-remaining audio (VRA) interactive center channel downmix
AR024353A1 (es) 1999-06-15 2002-10-02 He Chunhong Audifono y equipo auxiliar interactivo con relacion de voz a audio remanente
EP1254513A4 (en) 1999-11-29 2009-11-04 Syfx SYSTEMS AND METHODS FOR SIGNAL PROCESSING
FR2802329B1 (fr) 1999-12-08 2003-03-28 France Telecom Procede de traitement d'au moins un flux binaire audio code organise sous la forme de trames
US6351733B1 (en) 2000-03-02 2002-02-26 Hearing Enhancement Company, Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
DE10018666A1 (de) 2000-04-14 2001-10-18 Harman Audio Electronic Sys Vorrichtung und Verfahren zum geräuschabhängigen Anpassen eines akustischen Nutzsignals
US6651040B1 (en) 2000-05-31 2003-11-18 International Business Machines Corporation Method for dynamic adjustment of audio input gain in a speech system
US6889186B1 (en) 2000-06-01 2005-05-03 Avaya Technology Corp. Method and apparatus for improving the intelligibility of digitally compressed speech
HK1080243B (zh) 2000-08-16 2009-05-15 多尔拜实验特许公司 响应补充信息修改音频或视频感知编码系统的一个或多个参数
AUPQ952700A0 (en) 2000-08-21 2000-09-14 University Of Melbourne, The Sound-processing strategy for cochlear implants
JP3448586B2 (ja) 2000-08-29 2003-09-22 独立行政法人産業技術総合研究所 聴覚障害を考慮した音の測定方法およびシステム
US20040013272A1 (en) * 2001-09-07 2004-01-22 Reams Robert W System and method for processing audio data
US6625433B1 (en) 2000-09-29 2003-09-23 Agere Systems Inc. Constant compression automatic gain control circuit
US6947888B1 (en) * 2000-10-17 2005-09-20 Qualcomm Incorporated Method and apparatus for high performance low bit-rate coding of unvoiced speech
US6807525B1 (en) 2000-10-31 2004-10-19 Telogy Networks, Inc. SID frame detection with human auditory perception compensation
DK1206104T3 (da) 2000-11-09 2006-10-30 Koninkl Kpn Nv Måling af en samtalekvalitet af en telefonforbindelse i et telekommunikationsnetværk
US7457422B2 (en) 2000-11-29 2008-11-25 Ford Global Technologies, Llc Method and implementation for detecting and characterizing audible transients in noise
US6958644B2 (en) 2001-01-10 2005-10-25 The Trustees Of Columbia University In The City Of New York Active filter circuit with dynamically modifiable gain
FR2820573B1 (fr) 2001-02-02 2003-03-28 France Telecom Methode et dispositif de traitement d'une pluralite de flux binaires audio
WO2004019656A2 (en) 2001-02-07 2004-03-04 Dolby Laboratories Licensing Corporation Audio channel spatial translation
EP1233509A1 (en) * 2001-02-14 2002-08-21 Thomson Licensing S.A. Digital audio processor
DE10107385A1 (de) 2001-02-16 2002-09-05 Harman Audio Electronic Sys Vorrichtung zum geräuschabhängigen Einstellen der Lautstärken
US6915264B2 (en) 2001-02-22 2005-07-05 Lucent Technologies Inc. Cochlear filter bank structure for determining masked thresholds for use in perceptual audio coding
DK1290914T3 (da) 2001-04-10 2004-09-27 Phonak Ag Fremgangsmåde til tilpasning af et höreapparat til et individ
US7711123B2 (en) * 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7283954B2 (en) 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US7461002B2 (en) 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
CN1279511C (zh) 2001-04-13 2006-10-11 多尔拜实验特许公司 一种时间标度和/或音调偏移一个音频信号的方法
US7610205B2 (en) 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
WO2002097790A1 (en) * 2001-05-25 2002-12-05 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
ATE318062T1 (de) 2001-04-18 2006-03-15 Gennum Corp Mehrkanal hörgerät mit übertragungsmöglichkeiten zwischen den kanälen
US20020173864A1 (en) * 2001-05-17 2002-11-21 Crystal Voice Communications, Inc Automatic volume control for voice over internet
MXPA03010751A (es) * 2001-05-25 2005-03-07 Dolby Lab Licensing Corp Segmentacion de senales de audio en eventos auditivos.
US7177803B2 (en) 2001-10-22 2007-02-13 Motorola, Inc. Method and apparatus for enhancing loudness of an audio signal
US20040037421A1 (en) 2001-12-17 2004-02-26 Truman Michael Mead Parital encryption of assembled bitstreams
US7068723B2 (en) 2002-02-28 2006-06-27 Fuji Xerox Co., Ltd. Method for automatically producing optimal summaries of linear media
JP4714416B2 (ja) 2002-04-22 2011-06-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 空間的オーディオのパラメータ表示
US7155385B2 (en) 2002-05-16 2006-12-26 Comerica Bank, As Administrative Agent Automatic gain control for adjusting gain during non-speech portions
US20030223597A1 (en) 2002-05-29 2003-12-04 Sunil Puria Adapative noise compensation for dynamic signal enhancement
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
JP4257079B2 (ja) 2002-07-19 2009-04-22 パイオニア株式会社 周波数特性調整装置および周波数特性調整方法
DE10236694A1 (de) 2002-08-09 2004-02-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum skalierbaren Codieren und Vorrichtung und Verfahren zum skalierbaren Decodieren
US7454331B2 (en) 2002-08-30 2008-11-18 Dolby Laboratories Licensing Corporation Controlling loudness of speech in signals that contain speech and other types of audio material
JP2006518049A (ja) 2003-02-06 2006-08-03 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 連続的な予備オーディオ
DE10308483A1 (de) 2003-02-26 2004-09-09 Siemens Audiologische Technik Gmbh Verfahren zur automatischen Verstärkungseinstellung in einem Hörhilfegerät sowie Hörhilfegerät
US7551745B2 (en) 2003-04-24 2009-06-23 Dolby Laboratories Licensing Corporation Volume and compression control in movie theaters
CN101819771B (zh) 2003-05-28 2012-04-11 杜比实验室特许公司 用于计算和调节音频信号的感觉响度的方法和设备
JP2004356894A (ja) * 2003-05-28 2004-12-16 Mitsubishi Electric Corp 音質調整装置
JP4226395B2 (ja) 2003-06-16 2009-02-18 アルパイン株式会社 音声補正装置
US8918316B2 (en) 2003-07-29 2014-12-23 Alcatel Lucent Content identification system
US7729497B2 (en) 2004-01-13 2010-06-01 Koninklijke Philips Electronics N.V. Audio signal enhancement
CA2992125C (en) 2004-03-01 2018-09-25 Dolby Laboratories Licensing Corporation Reconstructing audio signals with multiple decorrelation techniques and differentially coded parameters
GB2413906A (en) 2004-04-21 2005-11-09 Imagination Tech Ltd Radio volume control system
JP4168976B2 (ja) 2004-05-28 2008-10-22 ソニー株式会社 オーディオ信号符号化装置及び方法
ATE394008T1 (de) 2004-05-28 2008-05-15 Research In Motion Ltd System und verfahren zur einstellung eines audiosignals
US7574010B2 (en) 2004-05-28 2009-08-11 Research In Motion Limited System and method for adjusting an audio signal
JP2008504783A (ja) * 2004-06-30 2008-02-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声信号のラウドネスを自動的に調整する方法及びシステム
US7617109B2 (en) 2004-07-01 2009-11-10 Dolby Laboratories Licensing Corporation Method for correcting metadata affecting the playback loudness and dynamic range of audio information
US7508947B2 (en) 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
AU2005299410B2 (en) 2004-10-26 2011-04-07 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
WO2007120453A1 (en) 2006-04-04 2007-10-25 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
WO2006058361A1 (en) 2004-12-04 2006-06-08 Dynamic Hearing Pty Ltd Method and apparatus for adaptive sound processing parameters
US20060126865A1 (en) 2004-12-13 2006-06-15 Blamey Peter J Method and apparatus for adaptive sound processing parameters
US8265295B2 (en) 2005-03-11 2012-09-11 Rane Corporation Method and apparatus for identifying feedback in a circuit
TW200638335A (en) 2005-04-13 2006-11-01 Dolby Lab Licensing Corp Audio metadata verification
TWI397903B (zh) 2005-04-13 2013-06-01 Dolby Lab Licensing Corp 編碼音訊之節約音量測量技術
TWI396188B (zh) 2005-08-02 2013-05-11 Dolby Lab Licensing Corp 依聆聽事件之函數控制空間音訊編碼參數的技術
TWI517562B (zh) 2006-04-04 2016-01-11 杜比實驗室特許公司 用於將多聲道音訊信號之全面感知響度縮放一期望量的方法、裝置及電腦程式
EP2002426B1 (en) 2006-04-04 2009-09-02 Dolby Laboratories Licensing Corporation Audio signal loudness measurement and modification in the mdct domain
CA2648237C (en) * 2006-04-27 2013-02-05 Dolby Laboratories Licensing Corporation Audio gain control using specific-loudness-based auditory event detection
US8750538B2 (en) 2006-05-05 2014-06-10 Creative Technology Ltd Method for enhancing audio signals
UA94968C2 (ru) 2006-10-20 2011-06-25 Долби Леборетериз Лайсенсинг Корпорейшн Обработка динамических свойств аудио с использованием перенастройки
US8521314B2 (en) 2006-11-01 2013-08-27 Dolby Laboratories Licensing Corporation Hierarchical control path with constraints for audio dynamics processing
WO2008085330A1 (en) 2007-01-03 2008-07-17 Dolby Laboratories Licensing Corporation Hybrid digital/analog loudness-compensating volume control
EP2547031B1 (en) 2007-03-15 2014-02-26 InterDigital Technology Corporation Method and apparatus for reordering data in an evolved high speed packet access
US8560320B2 (en) 2007-03-19 2013-10-15 Dolby Laboratories Licensing Corporation Speech enhancement employing a perceptual model
CA2679953C (en) 2007-06-19 2014-01-21 Dolby Laboratories Licensing Corporation Loudness measurement with spectral modifications
US8054948B1 (en) 2007-06-28 2011-11-08 Sprint Communications Company L.P. Audio experience for a communications device user
EP2232700B1 (en) 2007-12-21 2014-08-13 Dts Llc System for adjusting perceived loudness of audio signals
JP4823352B2 (ja) 2009-12-24 2011-11-24 株式会社東芝 情報処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9820044B2 (en) 2009-08-11 2017-11-14 Dts Llc System for increasing perceived loudness of speakers
US10299040B2 (en) 2009-08-11 2019-05-21 Dts, Inc. System for increasing perceived loudness of speakers

Also Published As

Publication number Publication date
UA93243C2 (ru) 2011-01-25
BRPI0711063B1 (pt) 2023-09-26
CN101432965B (zh) 2012-07-04
US20240186972A1 (en) 2024-06-06
US11711060B2 (en) 2023-07-25
US12283931B2 (en) 2025-04-22
JP2011151811A (ja) 2011-08-04
US20130243222A1 (en) 2013-09-19
US20170179907A1 (en) 2017-06-22
US20190013786A1 (en) 2019-01-10
KR20110022058A (ko) 2011-03-04
US20170179903A1 (en) 2017-06-22
JP2009535897A (ja) 2009-10-01
US20170179904A1 (en) 2017-06-22
US10833644B2 (en) 2020-11-10
US9787268B2 (en) 2017-10-10
US11362631B2 (en) 2022-06-14
US9787269B2 (en) 2017-10-10
CN101432965A (zh) 2009-05-13
NO20180272A1 (no) 2008-11-17
US20190222186A1 (en) 2019-07-18
CA2648237C (en) 2013-02-05
ATE493794T1 (de) 2011-01-15
ES2359799T3 (es) 2011-05-27
US20170179908A1 (en) 2017-06-22
US20120155659A1 (en) 2012-06-21
US9136810B2 (en) 2015-09-15
NO344362B1 (no) 2019-11-18
NO20190022A1 (no) 2008-11-17
US20170179906A1 (en) 2017-06-22
JP5255663B2 (ja) 2013-08-07
US9685924B2 (en) 2017-06-20
MX2008013753A (es) 2009-03-06
NO344658B1 (no) 2020-03-02
US11962279B2 (en) 2024-04-16
US12218642B2 (en) 2025-02-04
US20090220109A1 (en) 2009-09-03
KR101200615B1 (ko) 2012-11-12
US9768749B2 (en) 2017-09-19
AU2011201348B2 (en) 2013-04-18
NO342160B1 (no) 2018-04-09
US20200144979A1 (en) 2020-05-07
RU2008146747A (ru) 2010-06-10
IL194430A (en) 2013-05-30
US9698744B1 (en) 2017-07-04
DE602007011594D1 (de) 2011-02-10
NO20180271A1 (no) 2008-11-17
WO2007127023A1 (en) 2007-11-08
US10523169B2 (en) 2019-12-31
US8428270B2 (en) 2013-04-23
NO20190018A1 (no) 2008-11-17
EP2011234A1 (en) 2009-01-07
US20170179902A1 (en) 2017-06-22
US20170179905A1 (en) 2017-06-22
CA2648237A1 (en) 2007-11-08
RU2417514C2 (ru) 2011-04-27
NO20180266A1 (no) 2008-11-17
US20170179900A1 (en) 2017-06-22
US20160359465A1 (en) 2016-12-08
NO342164B1 (no) 2018-04-09
NO20190025A1 (no) 2008-11-17
NO20191310A1 (no) 2008-11-17
US20170179901A1 (en) 2017-06-22
AU2007243586A1 (en) 2007-11-08
AU2007243586B2 (en) 2010-12-23
TW200803161A (en) 2008-01-01
US9742372B2 (en) 2017-08-22
NO20161439A1 (no) 2008-11-17
US9768750B2 (en) 2017-09-19
US10103700B2 (en) 2018-10-16
US9866191B2 (en) 2018-01-09
CN102684628B (zh) 2014-11-26
PL2011234T3 (pl) 2011-05-31
NO344361B1 (no) 2019-11-18
NO343877B1 (no) 2019-06-24
NO339346B1 (no) 2016-11-28
NO344364B1 (no) 2019-11-18
US20120321096A1 (en) 2012-12-20
US9780751B2 (en) 2017-10-03
JP5129806B2 (ja) 2013-01-30
US9774309B2 (en) 2017-09-26
US20230318555A1 (en) 2023-10-05
NO344655B1 (no) 2020-02-24
NO345590B1 (no) 2021-05-03
NO20084336L (no) 2008-11-17
US20220394380A1 (en) 2022-12-08
US9450551B2 (en) 2016-09-20
HK1176177A1 (en) 2013-07-19
US20170179909A1 (en) 2017-06-22
NO20161296A1 (no) 2008-11-17
TWI455481B (zh) 2014-10-01
US12301190B2 (en) 2025-05-13
NO344363B1 (no) 2019-11-18
DK2011234T3 (da) 2011-03-14
AU2011201348A1 (en) 2011-04-14
US20240313730A1 (en) 2024-09-19
IL194430A0 (en) 2009-08-03
KR101041665B1 (ko) 2011-06-15
HK1126902A1 (en) 2009-09-11
CN102684628A (zh) 2012-09-19
US8144881B2 (en) 2012-03-27
NO20161295A1 (no) 2008-11-17
KR20090005225A (ko) 2009-01-12
NO20190024A1 (no) 2008-11-17
NO20190002A1 (no) 2008-11-17
EP2011234B1 (en) 2010-12-29
US20210126606A1 (en) 2021-04-29
US20240313731A1 (en) 2024-09-19
NO342157B1 (no) 2018-04-09
MY141426A (en) 2010-04-30
US12301189B2 (en) 2025-05-13
US9762196B2 (en) 2017-09-12
US10284159B2 (en) 2019-05-07
US20240313729A1 (en) 2024-09-19
US20180069517A1 (en) 2018-03-08
NO344013B1 (no) 2019-08-12

Similar Documents

Publication Publication Date Title
BRPI0711063A2 (pt) controle de ganho de áudio utilizando detecção de evento auditivo baseado em sonoridade especìfica
BR122018077035B1 (pt) Método para processar um sinal de áudio e meio de armazenamento legível por computador não-transitório
HK1126902B (en) Audio gain control using specific-loudness-based auditory event detection

Legal Events

Date Code Title Description
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09B Patent application refused [chapter 9.2 patent gazette]
B12B Appeal against refusal [chapter 12.2 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 30/03/2007, OBSERVADAS AS CONDICOES LEGAIS. PATENTE CONCEDIDA CONFORME ADI 5.529/DF, QUE DETERMINA A ALTERACAO DO PRAZO DE CONCESSAO.

B21F Lapse acc. art. 78, item iv - on non-payment of the annual fees in time

Free format text: REFERENTE A 17A ANUIDADE.

B24J Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12)

Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2769 DE 30-01-2024 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.