CN109448751B - 一种基于深度学习的双耳语音增强方法 - Google Patents
一种基于深度学习的双耳语音增强方法 Download PDFInfo
- Publication number
- CN109448751B CN109448751B CN201811646317.7A CN201811646317A CN109448751B CN 109448751 B CN109448751 B CN 109448751B CN 201811646317 A CN201811646317 A CN 201811646317A CN 109448751 B CN109448751 B CN 109448751B
- Authority
- CN
- China
- Prior art keywords
- complex
- channel
- speech
- domain signal
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000013135 deep learning Methods 0.000 title claims abstract description 9
- 230000000873 masking effect Effects 0.000 claims abstract description 64
- 238000013528 artificial neural network Methods 0.000 claims abstract description 23
- 238000009432 framing Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Stereophonic System (AREA)
Abstract
本发明公开了一种基于深度学习的双耳语音增强方法,包括:对包含待增强目标语音信号的左/右通道带噪语音信号分别进行处理得到左/右频域信号,并对其幅值进行组合得到单通道复数特征,利用左/右通道的频域信号和对应的目标频域信号理论值分别计算出对应的目标语音理想复数掩蔽,将其组合构成目标语音单通道复数掩蔽理论值,并结合单通道复数特征对复数前馈神经网络进行训练得到双耳语音增强模型,利用模型输出的目标语音单通道复数掩蔽估计值分别处理左/右通道带噪语音信号得到左/右通道频域信号,最后得到对应的目标语音时域信号。本方法可以抑制噪声干扰并保持目标声源的空间信息。充分利用深度神经网络的泛化能力,达到双耳语音的增强。
Description
技术领域
本发明涉及语音增强技术领域,尤其涉及一种基于深度学习的双耳语音增强方法。
背景技术
目前,语音增强技术主要是去除语音信号中背景噪声以及指向性噪声干扰,提高语音的质量和可懂度,从而在语音识别和人耳理解方面取得更好的表现。在以单通道语音为输出的增强技术中,通过利用单通道输入时频域中语音和噪声的不同特性可以抑制背景噪声,利用多通道输入中目标语音和干扰信号的空间信息,可以更好的去除指向性噪声。而在双耳听觉中,人耳可以利用双通道语音中目标与干扰信号的空间信息差异提高对语音的理解度,并可以利用目标声源的空间信息进行定位。在大多数传统的以双通道为输出的语音增强中,大多只考虑了去除干扰,对于目标语音的空间信息保持没有特殊处理,并且对于非平稳的噪声的抑制效果欠佳。
发明内容
本发明的目的在于解决现有技术存在的缺陷。
为达到上述目的,本发明公开了一种基于深度学习的双耳语音增强方法,包括步骤:
对左通道带噪语音信号和右通道带噪语音信号分别进行分帧、加窗和傅里叶变换,得到左通道带噪语音频域信号和右通道带噪语音频域信号;左通道带噪语音信号中包含待增强的左通道目标语音信号,右通道带噪语音信号中包含待增强的右通道目标语音信号;
将左通道带噪语音频域信号和右通道带噪语音频域信号的幅值进行组合得到单通道复数特征;
利用左通道带噪语音频域信号和左通道目标语音频域信号理论值计算得到左通道目标语音理想复数掩蔽;利用右通道带噪语音频域信号和右通道目标语音频域信号理论值计算得到右通道目标语音理想复数掩蔽;
将左通道目标语音理想复数掩蔽和右通道目标语音理想复数掩蔽进行组合构成目标语音单通道复数掩蔽理论值;
使用单通道复数特征和目标语音单通道复数掩蔽理论值对复数前馈神经网络进行训练得到双耳语音增强模型;
将单通道复数特征作为双耳语音增强模型的输入,输出目标语音单通道复数掩蔽估计值,利用目标语音单通道复数掩蔽估计值分别对左通道带噪语音频域信号和右通道带噪语音频域信号进行增强,得到左通道目标语音频域信号估计值和右通道目标语音频域信号估计值;
对左通道目标语音频域信号估计值和右通道目标语音频域信号估计值分别进行逆傅里叶变换,得到左通道目标语音时域信号和右通道目标语音时域信号。
优选地,对左通道带噪语音信号和右通道带噪语音信号进行分帧、加窗和傅里叶变换的步骤,具体为,
对左通道带噪语音信号和右通道带噪语音信号分别进行分帧和加窗处理,取1024个采样点作为一帧信号,若长度不足则先补零到1024点;然后对每一帧信号进行加窗,加窗函数采用汉明窗;最后对每一帧信号进行傅里叶变换。
优选地,单通道复数特征XC=|XL|+j|XR|,其中,j为复数虚部单位,|XL|为左通道带噪语音频域信号的幅值,|XR|为右通道带噪语音频域信号的幅值。
优选地,左通道目标语音理想复数掩蔽为:
其中,j为复数虚部单位,XL为复数,为左通道带噪语音频域信号,SL为复数,为左通道目标语音频域信号理论值,r和i表示取复数的实部和虚部;
优选地,右通道目标语音理想复数掩蔽为:
其中,j为复数虚部单位,XR为复数,为右通道带噪语音频域信号,SR为复数,为右通道目标语音频域信号理论值,r和i表示取复数的实部和虚部。
优选地,目标语音单通道复数掩蔽理论值MC=ML+jMR,其中,j为复数虚部单位,ML为左通道目标语音理想复数掩蔽,MR为右通道目标语音理想复数掩蔽。
优选地,使用单通道复数特征和目标语音单通道复数掩蔽理论值对复数前馈神经网络进行训练得到双耳语音增强模型的步骤,具体为,
复数前馈神经网络为一个4层的全连接神经网络,网络中每层有1024个隐层复数节点。每个神经元的激活函数使用的是线性修正单元,并且分别作用在复数节点的实部和虚部上,其表达式为f(x)=max(0,x)。
将单通道复数特征进行前后帧扩展,得到单通道复数扩展特征,并作为复数前馈神经网络的输入,输出目标语音单通道复数掩蔽估计值,将目标语音单通道复数掩蔽理论值作为复数前馈神经网络的训练目标,通过迭代不断使目标语音单通道复数掩蔽估计值与目标语音单通道复数掩蔽理论值的均方误差减小。
优选地,单通道复数掩蔽估计值MC′=ML′+jMR′,其中,j为复数虚部单位,ML′为左通道目标语音理想复数掩蔽的估计值,MR′为右通道目标语音理想复数掩蔽的估计值。
优选地,左通道目标语音频域信号估计值X′L=M′L*XL,其中,ML′为左通道目标语音理想复数掩蔽的估计值,XL为左通道带噪语音频域信号;
优选地,右通道目标语音频域信号估计值X′R=M′R*XR,其中,MR′为右通道目标语音理想复数掩蔽的估计值,XR为右通道带噪语音频域信号。
本发明的优点在于:通过利用左通道和右通道的理想复数掩蔽构造单通道复数掩蔽,并通过复数前馈神经网络对其进行估计,达到对左通道和右通道联合处理的目的,进而在抑制噪声干扰的同时保持目标声源的空间信息。通过在训练数据中包含足够多的噪声类型和方位,可以充分利用深度神经网络的泛化能力,提高模型的鲁棒性,达到双耳语音增强的目的。
附图说明
为了更清楚说明本发明实施例的技术方案,下面将对实施例描述中所需使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一种基于深度学习的双耳语音增强方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为一种基于深度学习的双耳语音增强方法的流程图。如图1所示,包括:
步骤S101:对左通道带噪语音信号和右通道带噪语音信号分别进行分帧、加窗和傅里叶变换,得到左通道带噪语音频域信号和右通道带噪语音频域信号。
左通道带噪语音信号中包含待增强的左通道目标语音信号,右通道带噪语音信号中包含待增强的右通道目标语音信号。
在一个具体实施例中,对左通道带噪语音信号和右通道带噪语音信号分别进行分帧和加窗处理,取1024个采样点作为一帧信号,若长度不足则先补零到1024点;然后对每一帧信号进行加窗,加窗函数采用汉明窗;最后对每一帧信号进行傅里叶变换,得到左通道带噪语音频域信号和右通道带噪语音频域信号。
步骤S102:将左通道带噪语音频域信号和右通道带噪语音频域信号的幅值进行组合得到单通道复数特征。
具体地,单通道复数特征XC=|XL|+j|XR|,其中,j为复数虚部单位,|XL|为左通道带噪语音频域信号的幅值,|XR|为右通道带噪语音频域信号的幅值。
步骤S103:利用左通道带噪语音频域信号和左通道目标语音频域信号理论值计算得到左通道目标语音理想复数掩蔽;利用右通道带噪语音频域信号和右通道目标语音频域信号理论值计算得到右通道目标语音理想复数掩蔽。
具体地,左通道目标语音理想复数掩蔽为:
其中,j为复数虚部单位,XL为复数,为左通道带噪语音频域信号,SL为复数,为左通道目标语音频域信号理论值,r和i表示取复数的实部和虚部。
右通道目标语音理想复数掩蔽为:
其中,j为复数虚部单位,XR为复数,为右通道带噪语音频域信号,SR为复数,为右通道目标语音频域信号理论值,r和i表示取复数的实部和虚部。
步骤S104:将左通道目标语音理想复数掩蔽和右通道目标语音理想复数掩蔽进行组合构成目标语音单通道复数掩蔽理论值。
具体地,目标语音单通道复数掩蔽理论值MC=ML+jMR,其中,j为复数虚部单位,ML为左通道目标语音理想复数掩蔽,MR为右通道目标语音理想复数掩蔽。
步骤S105:使用单通道复数特征和目标语音单通道复数掩蔽理论值对复数前馈神经网络进行训练得到双耳语音增强模型。
在一个具体实施例中,复数前馈神经网络为一个4层的全连接神经网络,网络中每层有1024个隐层复数节点。每个神经元的激活函数使用的是线性修正单元,并且分别作用在复数节点的实部和虚部上,其表达式为f(x)=max(0,x)。
将单通道复数特征进行前后帧扩展,得到单通道复数扩展特征,并作为复数前馈神经网络的输入,输出目标语音单通道复数掩蔽估计值,将目标语音单通道复数掩蔽理论值作为复数前馈神经网络的训练目标,通过迭代不断使目标语音单通道复数掩蔽估计值与目标语音单通道复数掩蔽理论值的均方误差减小。
步骤S106:将单通道复数特征作为双耳语音增强模型的输入,输出目标语音单通道复数掩蔽估计值,利用目标语音单通道复数掩蔽估计值分别对左通道带噪语音频域信号和右通道带噪语音频域信号进行增强,得到左通道目标语音频域信号估计值和右通道目标语音频域信号估计值。
具体地,单通道复数掩蔽估计值MC′=ML′+jMR′,其中,j为复数虚部单位,ML′为左通道目标语音理想复数掩蔽的估计值,MR′为右通道目标语音理想复数掩蔽的估计值。
左通道目标语音频域信号估计值X′L=M′L*XL,其中,ML′为左通道目标语音理想复数掩蔽的估计值,XL为左通道带噪语音频域信号。
右通道目标语音频域信号估计值X′R=M′R*XR,其中,MR′为右通道目标语音理想复数掩蔽的估计值,XR为右通道带噪语音频域信号。
步骤S107:对左通道目标语音频域信号估计值和右通道目标语音频域信号估计值分别进行逆傅里叶变换,得到左通道目标语音时域信号和右通道目标语音时域信号。
本发明提供了一种基于深度学习的双耳语音增强方法,通过利用左通道和右通道的理想复数掩蔽构造单通道复数掩蔽,并通过复数前馈神经网络对其进行估计,达到对左通道和右通道联合处理的目的,进而在抑制噪声干扰的同时保持目标声源的空间信息。通过在训练数据中包含足够多的噪声类型和方位,可以充分利用深度神经网络的泛化能力,提高模型的鲁棒性,达到双耳语音增强的目的。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于深度学习的双耳语音增强方法,其特征在于,包括步骤:
对左通道带噪语音信号和右通道带噪语音信号分别进行分帧、加窗和傅里叶变换,得到左通道带噪语音频域信号和右通道带噪语音频域信号;所述左通道带噪语音信号中包含待增强的左通道目标语音信号,所述右通道带噪语音信号中包含待增强的右通道目标语音信号;
将所述左通道带噪语音频域信号和右通道带噪语音频域信号的幅值进行组合得到单通道复数特征;
利用所述左通道带噪语音频域信号和左通道目标语音频域信号理论值计算得到左通道目标语音理想复数掩蔽;利用所述右通道带噪语音频域信号和右通道目标语音频域信号理论值计算得到右通道目标语音理想复数掩蔽;
将左通道目标语音理想复数掩蔽和右通道目标语音理想复数掩蔽进行组合构成目标语音单通道复数掩蔽理论值;
使用所述单通道复数特征和目标语音单通道复数掩蔽理论值对复数前馈神经网络进行训练得到双耳语音增强模型;
将所述单通道复数特征作为所述双耳语音增强模型的输入,输出目标语音单通道复数掩蔽估计值,利用所述目标语音单通道复数掩蔽估计值分别对左通道带噪语音频域信号和右通道带噪语音频域信号进行增强,得到左通道目标语音频域信号估计值和右通道目标语音频域信号估计值;
对所述左通道目标语音频域信号估计值和右通道目标语音频域信号估计值分别进行逆傅里叶变换,得到左通道目标语音时域信号和右通道目标语音时域信号。
2.根据权利要求1所述的方法,其特征在于,所述对左通道带噪语音信号和右通道带噪语音信号分别进行分帧、加窗和傅里叶变换的步骤,具体为,
对所述左通道带噪语音信号和右通道带噪语音信号分别进行分帧和加窗处理,取1024个采样点作为一帧信号,若长度不足则先补零到1024点;然后对每一帧信号进行加窗,加窗函数采用汉明窗;最后对每一帧信号进行傅里叶变换。
3.根据权利要求1所述的方法,其特征在于,所述单通道复数特征为:
XC=|XL|+j|XR|
其中,j为复数虚部单位,|XL|为左通道带噪语音频域信号的幅值,|XR|为右通道带噪语音频域信号的幅值。
5.根据权利要求1或4任一权利要求所述的方法,其特征在于,所述目标语音单通道复数掩蔽理论值为:
MC=ML+jMR
其中,j为复数虚部单位,ML为左通道目标语音理想复数掩蔽,MR为右通道目标语音理想复数掩蔽。
6.根据权利要求1所述的方法,其特征在于,所述使用所述单通道复数特征和目标语音单通道复数掩蔽理论值对复数前馈神经网络进行训练得到双耳语音增强模型的步骤,具体为,
所述复数前馈神经网络为一个4层的全连接神经网络,网络中每层有1024个隐层复数节点;每个神经元的激活函数使用的是线性修正单元,并且分别作用在复数节点的实部和虚部上,其表达式为f(x)=max(0,x);
将所述单通道复数特征进行前后帧扩展,得到单通道复数扩展特征,并作为所述复数前馈神经网络的输入,输出目标语音单通道复数掩蔽估计值,将目标语音单通道复数掩蔽理论值作为所述复数前馈神经网络的训练目标,通过迭代不断使目标语音单通道复数掩蔽估计值与目标语音单通道复数掩蔽理论值的均方误差减小。
7.根据权利要求1所述的方法,其特征在于,所述单通道复数掩蔽估计值为:
MC′=ML′+jMR′
其中,j为复数虚部单位,ML′为左通道目标语音理想复数掩蔽的估计值,MR′为右通道目标语音理想复数掩蔽的估计值。
8.根据权利要求1或7所述的方法,其特征在于,
所述左通道目标语音频域信号估计值:
X′L=M′L*XL
其中,ML′为左通道目标语音理想复数掩蔽的估计值,XL为左通道带噪语音频域信号;
所述右通道目标语音频域信号估计值:
X′R=M′R*XR
其中,MR′为右通道目标语音理想复数掩蔽的估计值,XR为右通道带噪语音频域信号。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201811646317.7A CN109448751B (zh) | 2018-12-29 | 2018-12-29 | 一种基于深度学习的双耳语音增强方法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN201811646317.7A CN109448751B (zh) | 2018-12-29 | 2018-12-29 | 一种基于深度学习的双耳语音增强方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN109448751A CN109448751A (zh) | 2019-03-08 |
| CN109448751B true CN109448751B (zh) | 2021-03-23 |
Family
ID=65540255
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN201811646317.7A Active CN109448751B (zh) | 2018-12-29 | 2018-12-29 | 一种基于深度学习的双耳语音增强方法 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN109448751B (zh) |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110739002B (zh) * | 2019-10-16 | 2022-02-22 | 中山大学 | 基于生成对抗网络的复数域语音增强方法、系统及介质 |
| CN111239686B (zh) * | 2020-02-18 | 2021-12-21 | 中国科学院声学研究所 | 一种基于深度学习的双通道声源定位方法 |
| CN111681646A (zh) * | 2020-07-17 | 2020-09-18 | 成都三零凯天通信实业有限公司 | 端到端架构的通用场景中文普通话语音识别方法 |
| CN114333811A (zh) * | 2020-09-30 | 2022-04-12 | 中国移动通信有限公司研究院 | 一种语音识别方法、系统及设备 |
| CN114694672B (zh) * | 2020-12-30 | 2025-10-21 | 阿里巴巴集团控股有限公司 | 语音增强方法、装置及设备 |
| CN113129918B (zh) * | 2021-04-15 | 2022-05-03 | 浙江大学 | 联合波束形成和深度复数U-Net网络的语音去混响方法 |
| CN115862649B (zh) * | 2021-09-24 | 2025-07-22 | 北京字跳网络技术有限公司 | 一种音频降噪方法、装置、设备及存储介质 |
| CN113921027B (zh) * | 2021-12-14 | 2022-04-29 | 北京清微智能信息技术有限公司 | 一种基于空间特征的语音增强方法、装置及电子设备 |
| CN115512714B (zh) * | 2022-03-22 | 2025-09-12 | 钉钉(中国)信息技术有限公司 | 语音增强方法、装置及设备 |
| CN114566189B (zh) * | 2022-04-28 | 2022-10-04 | 之江实验室 | 基于三维深度特征融合的语音情感识别方法及系统 |
| CN114999510B (zh) * | 2022-04-29 | 2025-07-11 | 中国科学技术大学 | 基于掩蔽效应的复卷积循环神经网络单通道语音增强方法 |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN102157156B (zh) * | 2011-03-21 | 2012-10-10 | 清华大学 | 一种单通道语音增强的方法和系统 |
| US9881631B2 (en) * | 2014-10-21 | 2018-01-30 | Mitsubishi Electric Research Laboratories, Inc. | Method for enhancing audio signal using phase information |
| CN107845389B (zh) * | 2017-12-21 | 2020-07-17 | 北京工业大学 | 一种基于多分辨率听觉倒谱系数和深度卷积神经网络的语音增强方法 |
| CN108564963B (zh) * | 2018-04-23 | 2019-10-18 | 百度在线网络技术(北京)有限公司 | 用于增强语音的方法和装置 |
-
2018
- 2018-12-29 CN CN201811646317.7A patent/CN109448751B/zh active Active
Also Published As
| Publication number | Publication date |
|---|---|
| CN109448751A (zh) | 2019-03-08 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN109448751B (zh) | 一种基于深度学习的双耳语音增强方法 | |
| CN110970053B (zh) | 一种基于深度聚类的多通道与说话人无关语音分离方法 | |
| CN109584903B (zh) | 一种基于深度学习的多人语音分离方法 | |
| CN105869651B (zh) | 基于噪声混合相干性的双通道波束形成语音增强方法 | |
| US9681246B2 (en) | Bionic hearing headset | |
| CN102157156B (zh) | 一种单通道语音增强的方法和系统 | |
| CN111081267B (zh) | 一种多通道远场语音增强方法 | |
| CN100524465C (zh) | 一种噪声消除装置和方法 | |
| CN110728989B (zh) | 一种基于长短时记忆网络lstm的双耳语音分离方法 | |
| CN111292759A (zh) | 一种基于神经网络的立体声回声消除方法及系统 | |
| CN106373589B (zh) | 一种基于迭代结构的双耳混合语音分离方法 | |
| KR20180069879A (ko) | 음성 강화를 위해 전역적으로 최적화된 최소 제곱 포스트 필터링 | |
| CN113362846B (zh) | 一种基于广义旁瓣相消结构的语音增强方法 | |
| CN108986832B (zh) | 基于语音出现概率和一致性的双耳语音去混响方法和装置 | |
| CN101964934A (zh) | 二元麦克风微阵列语音波束形成方法 | |
| WO2022105690A1 (zh) | 耳机及降噪方法 | |
| CN106297817A (zh) | 一种基于双耳信息的语音增强方法 | |
| WO2022032608A1 (zh) | 一种音频降噪方法和装置 | |
| Li et al. | Multichannel online dereverberation based on spectral magnitude inverse filtering | |
| Wolff et al. | A generalized view on microphone array postfilters | |
| CN110858485B (zh) | 语音增强方法、装置、设备及存储介质 | |
| CN114038475A (zh) | 一种基于语谱补偿的单通道语音增强系统 | |
| Aroudi et al. | Cognitive-driven convolutional beamforming using EEG-based auditory attention decoding | |
| CN115188391A (zh) | 一种远场双麦克风的语音增强方法及装置 | |
| CN104394498B (zh) | 一种三通道全息声场回放方法及声场采集装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |





