CN109448751B - 一种基于深度学习的双耳语音增强方法 - Google Patents

一种基于深度学习的双耳语音增强方法 Download PDF

Info

Publication number
CN109448751B
CN109448751B CN201811646317.7A CN201811646317A CN109448751B CN 109448751 B CN109448751 B CN 109448751B CN 201811646317 A CN201811646317 A CN 201811646317A CN 109448751 B CN109448751 B CN 109448751B
Authority
CN
China
Prior art keywords
complex
channel
speech
domain signal
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811646317.7A
Other languages
English (en)
Other versions
CN109448751A (zh
Inventor
李军锋
孙兴伟
夏日升
颜永红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Acoustics CAS
Original Assignee
Institute of Acoustics CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Acoustics CAS filed Critical Institute of Acoustics CAS
Priority to CN201811646317.7A priority Critical patent/CN109448751B/zh
Publication of CN109448751A publication Critical patent/CN109448751A/zh
Application granted granted Critical
Publication of CN109448751B publication Critical patent/CN109448751B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Stereophonic System (AREA)

Abstract

本发明公开了一种基于深度学习的双耳语音增强方法,包括:对包含待增强目标语音信号的左/右通道带噪语音信号分别进行处理得到左/右频域信号,并对其幅值进行组合得到单通道复数特征,利用左/右通道的频域信号和对应的目标频域信号理论值分别计算出对应的目标语音理想复数掩蔽,将其组合构成目标语音单通道复数掩蔽理论值,并结合单通道复数特征对复数前馈神经网络进行训练得到双耳语音增强模型,利用模型输出的目标语音单通道复数掩蔽估计值分别处理左/右通道带噪语音信号得到左/右通道频域信号,最后得到对应的目标语音时域信号。本方法可以抑制噪声干扰并保持目标声源的空间信息。充分利用深度神经网络的泛化能力,达到双耳语音的增强。

Description

一种基于深度学习的双耳语音增强方法
技术领域
本发明涉及语音增强技术领域,尤其涉及一种基于深度学习的双耳语音增强方法。
背景技术
目前,语音增强技术主要是去除语音信号中背景噪声以及指向性噪声干扰,提高语音的质量和可懂度,从而在语音识别和人耳理解方面取得更好的表现。在以单通道语音为输出的增强技术中,通过利用单通道输入时频域中语音和噪声的不同特性可以抑制背景噪声,利用多通道输入中目标语音和干扰信号的空间信息,可以更好的去除指向性噪声。而在双耳听觉中,人耳可以利用双通道语音中目标与干扰信号的空间信息差异提高对语音的理解度,并可以利用目标声源的空间信息进行定位。在大多数传统的以双通道为输出的语音增强中,大多只考虑了去除干扰,对于目标语音的空间信息保持没有特殊处理,并且对于非平稳的噪声的抑制效果欠佳。
发明内容
本发明的目的在于解决现有技术存在的缺陷。
为达到上述目的,本发明公开了一种基于深度学习的双耳语音增强方法,包括步骤:
对左通道带噪语音信号和右通道带噪语音信号分别进行分帧、加窗和傅里叶变换,得到左通道带噪语音频域信号和右通道带噪语音频域信号;左通道带噪语音信号中包含待增强的左通道目标语音信号,右通道带噪语音信号中包含待增强的右通道目标语音信号;
将左通道带噪语音频域信号和右通道带噪语音频域信号的幅值进行组合得到单通道复数特征;
利用左通道带噪语音频域信号和左通道目标语音频域信号理论值计算得到左通道目标语音理想复数掩蔽;利用右通道带噪语音频域信号和右通道目标语音频域信号理论值计算得到右通道目标语音理想复数掩蔽;
将左通道目标语音理想复数掩蔽和右通道目标语音理想复数掩蔽进行组合构成目标语音单通道复数掩蔽理论值;
使用单通道复数特征和目标语音单通道复数掩蔽理论值对复数前馈神经网络进行训练得到双耳语音增强模型;
将单通道复数特征作为双耳语音增强模型的输入,输出目标语音单通道复数掩蔽估计值,利用目标语音单通道复数掩蔽估计值分别对左通道带噪语音频域信号和右通道带噪语音频域信号进行增强,得到左通道目标语音频域信号估计值和右通道目标语音频域信号估计值;
对左通道目标语音频域信号估计值和右通道目标语音频域信号估计值分别进行逆傅里叶变换,得到左通道目标语音时域信号和右通道目标语音时域信号。
优选地,对左通道带噪语音信号和右通道带噪语音信号进行分帧、加窗和傅里叶变换的步骤,具体为,
对左通道带噪语音信号和右通道带噪语音信号分别进行分帧和加窗处理,取1024个采样点作为一帧信号,若长度不足则先补零到1024点;然后对每一帧信号进行加窗,加窗函数采用汉明窗;最后对每一帧信号进行傅里叶变换。
优选地,单通道复数特征XC=|XL|+j|XR|,其中,j为复数虚部单位,|XL|为左通道带噪语音频域信号的幅值,|XR|为右通道带噪语音频域信号的幅值。
优选地,左通道目标语音理想复数掩蔽为:
Figure BDA0001932133400000031
其中,j为复数虚部单位,XL为复数,为左通道带噪语音频域信号,SL为复数,为左通道目标语音频域信号理论值,r和i表示取复数的实部和虚部;
优选地,右通道目标语音理想复数掩蔽为:
Figure BDA0001932133400000032
其中,j为复数虚部单位,XR为复数,为右通道带噪语音频域信号,SR为复数,为右通道目标语音频域信号理论值,r和i表示取复数的实部和虚部。
优选地,目标语音单通道复数掩蔽理论值MC=ML+jMR,其中,j为复数虚部单位,ML为左通道目标语音理想复数掩蔽,MR为右通道目标语音理想复数掩蔽。
优选地,使用单通道复数特征和目标语音单通道复数掩蔽理论值对复数前馈神经网络进行训练得到双耳语音增强模型的步骤,具体为,
复数前馈神经网络为一个4层的全连接神经网络,网络中每层有1024个隐层复数节点。每个神经元的激活函数使用的是线性修正单元,并且分别作用在复数节点的实部和虚部上,其表达式为f(x)=max(0,x)。
将单通道复数特征进行前后帧扩展,得到单通道复数扩展特征,并作为复数前馈神经网络的输入,输出目标语音单通道复数掩蔽估计值,将目标语音单通道复数掩蔽理论值作为复数前馈神经网络的训练目标,通过迭代不断使目标语音单通道复数掩蔽估计值与目标语音单通道复数掩蔽理论值的均方误差减小。
优选地,单通道复数掩蔽估计值MC′=ML′+jMR′,其中,j为复数虚部单位,ML′为左通道目标语音理想复数掩蔽的估计值,MR′为右通道目标语音理想复数掩蔽的估计值。
优选地,左通道目标语音频域信号估计值X′L=M′L*XL,其中,ML′为左通道目标语音理想复数掩蔽的估计值,XL为左通道带噪语音频域信号;
优选地,右通道目标语音频域信号估计值X′R=M′R*XR,其中,MR′为右通道目标语音理想复数掩蔽的估计值,XR为右通道带噪语音频域信号。
本发明的优点在于:通过利用左通道和右通道的理想复数掩蔽构造单通道复数掩蔽,并通过复数前馈神经网络对其进行估计,达到对左通道和右通道联合处理的目的,进而在抑制噪声干扰的同时保持目标声源的空间信息。通过在训练数据中包含足够多的噪声类型和方位,可以充分利用深度神经网络的泛化能力,提高模型的鲁棒性,达到双耳语音增强的目的。
附图说明
为了更清楚说明本发明实施例的技术方案,下面将对实施例描述中所需使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一种基于深度学习的双耳语音增强方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为一种基于深度学习的双耳语音增强方法的流程图。如图1所示,包括:
步骤S101:对左通道带噪语音信号和右通道带噪语音信号分别进行分帧、加窗和傅里叶变换,得到左通道带噪语音频域信号和右通道带噪语音频域信号。
左通道带噪语音信号中包含待增强的左通道目标语音信号,右通道带噪语音信号中包含待增强的右通道目标语音信号。
在一个具体实施例中,对左通道带噪语音信号和右通道带噪语音信号分别进行分帧和加窗处理,取1024个采样点作为一帧信号,若长度不足则先补零到1024点;然后对每一帧信号进行加窗,加窗函数采用汉明窗;最后对每一帧信号进行傅里叶变换,得到左通道带噪语音频域信号和右通道带噪语音频域信号。
步骤S102:将左通道带噪语音频域信号和右通道带噪语音频域信号的幅值进行组合得到单通道复数特征。
具体地,单通道复数特征XC=|XL|+j|XR|,其中,j为复数虚部单位,|XL|为左通道带噪语音频域信号的幅值,|XR|为右通道带噪语音频域信号的幅值。
步骤S103:利用左通道带噪语音频域信号和左通道目标语音频域信号理论值计算得到左通道目标语音理想复数掩蔽;利用右通道带噪语音频域信号和右通道目标语音频域信号理论值计算得到右通道目标语音理想复数掩蔽。
具体地,左通道目标语音理想复数掩蔽为:
Figure BDA0001932133400000061
其中,j为复数虚部单位,XL为复数,为左通道带噪语音频域信号,SL为复数,为左通道目标语音频域信号理论值,r和i表示取复数的实部和虚部。
右通道目标语音理想复数掩蔽为:
Figure BDA0001932133400000062
其中,j为复数虚部单位,XR为复数,为右通道带噪语音频域信号,SR为复数,为右通道目标语音频域信号理论值,r和i表示取复数的实部和虚部。
步骤S104:将左通道目标语音理想复数掩蔽和右通道目标语音理想复数掩蔽进行组合构成目标语音单通道复数掩蔽理论值。
具体地,目标语音单通道复数掩蔽理论值MC=ML+jMR,其中,j为复数虚部单位,ML为左通道目标语音理想复数掩蔽,MR为右通道目标语音理想复数掩蔽。
步骤S105:使用单通道复数特征和目标语音单通道复数掩蔽理论值对复数前馈神经网络进行训练得到双耳语音增强模型。
在一个具体实施例中,复数前馈神经网络为一个4层的全连接神经网络,网络中每层有1024个隐层复数节点。每个神经元的激活函数使用的是线性修正单元,并且分别作用在复数节点的实部和虚部上,其表达式为f(x)=max(0,x)。
将单通道复数特征进行前后帧扩展,得到单通道复数扩展特征,并作为复数前馈神经网络的输入,输出目标语音单通道复数掩蔽估计值,将目标语音单通道复数掩蔽理论值作为复数前馈神经网络的训练目标,通过迭代不断使目标语音单通道复数掩蔽估计值与目标语音单通道复数掩蔽理论值的均方误差减小。
步骤S106:将单通道复数特征作为双耳语音增强模型的输入,输出目标语音单通道复数掩蔽估计值,利用目标语音单通道复数掩蔽估计值分别对左通道带噪语音频域信号和右通道带噪语音频域信号进行增强,得到左通道目标语音频域信号估计值和右通道目标语音频域信号估计值。
具体地,单通道复数掩蔽估计值MC′=ML′+jMR′,其中,j为复数虚部单位,ML′为左通道目标语音理想复数掩蔽的估计值,MR′为右通道目标语音理想复数掩蔽的估计值。
左通道目标语音频域信号估计值X′L=M′L*XL,其中,ML′为左通道目标语音理想复数掩蔽的估计值,XL为左通道带噪语音频域信号。
右通道目标语音频域信号估计值X′R=M′R*XR,其中,MR′为右通道目标语音理想复数掩蔽的估计值,XR为右通道带噪语音频域信号。
步骤S107:对左通道目标语音频域信号估计值和右通道目标语音频域信号估计值分别进行逆傅里叶变换,得到左通道目标语音时域信号和右通道目标语音时域信号。
本发明提供了一种基于深度学习的双耳语音增强方法,通过利用左通道和右通道的理想复数掩蔽构造单通道复数掩蔽,并通过复数前馈神经网络对其进行估计,达到对左通道和右通道联合处理的目的,进而在抑制噪声干扰的同时保持目标声源的空间信息。通过在训练数据中包含足够多的噪声类型和方位,可以充分利用深度神经网络的泛化能力,提高模型的鲁棒性,达到双耳语音增强的目的。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于深度学习的双耳语音增强方法,其特征在于,包括步骤:
对左通道带噪语音信号和右通道带噪语音信号分别进行分帧、加窗和傅里叶变换,得到左通道带噪语音频域信号和右通道带噪语音频域信号;所述左通道带噪语音信号中包含待增强的左通道目标语音信号,所述右通道带噪语音信号中包含待增强的右通道目标语音信号;
将所述左通道带噪语音频域信号和右通道带噪语音频域信号的幅值进行组合得到单通道复数特征;
利用所述左通道带噪语音频域信号和左通道目标语音频域信号理论值计算得到左通道目标语音理想复数掩蔽;利用所述右通道带噪语音频域信号和右通道目标语音频域信号理论值计算得到右通道目标语音理想复数掩蔽;
将左通道目标语音理想复数掩蔽和右通道目标语音理想复数掩蔽进行组合构成目标语音单通道复数掩蔽理论值;
使用所述单通道复数特征和目标语音单通道复数掩蔽理论值对复数前馈神经网络进行训练得到双耳语音增强模型;
将所述单通道复数特征作为所述双耳语音增强模型的输入,输出目标语音单通道复数掩蔽估计值,利用所述目标语音单通道复数掩蔽估计值分别对左通道带噪语音频域信号和右通道带噪语音频域信号进行增强,得到左通道目标语音频域信号估计值和右通道目标语音频域信号估计值;
对所述左通道目标语音频域信号估计值和右通道目标语音频域信号估计值分别进行逆傅里叶变换,得到左通道目标语音时域信号和右通道目标语音时域信号。
2.根据权利要求1所述的方法,其特征在于,所述对左通道带噪语音信号和右通道带噪语音信号分别进行分帧、加窗和傅里叶变换的步骤,具体为,
对所述左通道带噪语音信号和右通道带噪语音信号分别进行分帧和加窗处理,取1024个采样点作为一帧信号,若长度不足则先补零到1024点;然后对每一帧信号进行加窗,加窗函数采用汉明窗;最后对每一帧信号进行傅里叶变换。
3.根据权利要求1所述的方法,其特征在于,所述单通道复数特征为:
XC=|XL|+j|XR|
其中,j为复数虚部单位,|XL|为左通道带噪语音频域信号的幅值,|XR|为右通道带噪语音频域信号的幅值。
4.根据权利要求1所述的方法,其特征在于,
所述左通道目标语音理想复数掩蔽为:
Figure FDA0002659484200000021
其中,j为复数虚部单位,XL为复数,为左通道带噪语音频域信号,SL为复数,为左通道目标语音频域信号理论值,r和i表示取复数的实部和虚部;
所述右通道目标语音理想复数掩蔽为:
Figure FDA0002659484200000022
其中,j为复数虚部单位,XR为复数,为右通道带噪语音频域信号,SR为复数,为右通道目标语音频域信号理论值,r和i表示取复数的实部和虚部。
5.根据权利要求1或4任一权利要求所述的方法,其特征在于,所述目标语音单通道复数掩蔽理论值为:
MC=ML+jMR
其中,j为复数虚部单位,ML为左通道目标语音理想复数掩蔽,MR为右通道目标语音理想复数掩蔽。
6.根据权利要求1所述的方法,其特征在于,所述使用所述单通道复数特征和目标语音单通道复数掩蔽理论值对复数前馈神经网络进行训练得到双耳语音增强模型的步骤,具体为,
所述复数前馈神经网络为一个4层的全连接神经网络,网络中每层有1024个隐层复数节点;每个神经元的激活函数使用的是线性修正单元,并且分别作用在复数节点的实部和虚部上,其表达式为f(x)=max(0,x);
将所述单通道复数特征进行前后帧扩展,得到单通道复数扩展特征,并作为所述复数前馈神经网络的输入,输出目标语音单通道复数掩蔽估计值,将目标语音单通道复数掩蔽理论值作为所述复数前馈神经网络的训练目标,通过迭代不断使目标语音单通道复数掩蔽估计值与目标语音单通道复数掩蔽理论值的均方误差减小。
7.根据权利要求1所述的方法,其特征在于,所述单通道复数掩蔽估计值为:
MC′=ML′+jMR
其中,j为复数虚部单位,ML′为左通道目标语音理想复数掩蔽的估计值,MR′为右通道目标语音理想复数掩蔽的估计值。
8.根据权利要求1或7所述的方法,其特征在于,
所述左通道目标语音频域信号估计值:
X′L=M′L*XL
其中,ML′为左通道目标语音理想复数掩蔽的估计值,XL为左通道带噪语音频域信号;
所述右通道目标语音频域信号估计值:
X′R=M′R*XR
其中,MR′为右通道目标语音理想复数掩蔽的估计值,XR为右通道带噪语音频域信号。
CN201811646317.7A 2018-12-29 2018-12-29 一种基于深度学习的双耳语音增强方法 Active CN109448751B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811646317.7A CN109448751B (zh) 2018-12-29 2018-12-29 一种基于深度学习的双耳语音增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811646317.7A CN109448751B (zh) 2018-12-29 2018-12-29 一种基于深度学习的双耳语音增强方法

Publications (2)

Publication Number Publication Date
CN109448751A CN109448751A (zh) 2019-03-08
CN109448751B true CN109448751B (zh) 2021-03-23

Family

ID=65540255

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811646317.7A Active CN109448751B (zh) 2018-12-29 2018-12-29 一种基于深度学习的双耳语音增强方法

Country Status (1)

Country Link
CN (1) CN109448751B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110739002B (zh) * 2019-10-16 2022-02-22 中山大学 基于生成对抗网络的复数域语音增强方法、系统及介质
CN111239686B (zh) * 2020-02-18 2021-12-21 中国科学院声学研究所 一种基于深度学习的双通道声源定位方法
CN111681646A (zh) * 2020-07-17 2020-09-18 成都三零凯天通信实业有限公司 端到端架构的通用场景中文普通话语音识别方法
CN114333811A (zh) * 2020-09-30 2022-04-12 中国移动通信有限公司研究院 一种语音识别方法、系统及设备
CN114694672B (zh) * 2020-12-30 2025-10-21 阿里巴巴集团控股有限公司 语音增强方法、装置及设备
CN113129918B (zh) * 2021-04-15 2022-05-03 浙江大学 联合波束形成和深度复数U-Net网络的语音去混响方法
CN115862649B (zh) * 2021-09-24 2025-07-22 北京字跳网络技术有限公司 一种音频降噪方法、装置、设备及存储介质
CN113921027B (zh) * 2021-12-14 2022-04-29 北京清微智能信息技术有限公司 一种基于空间特征的语音增强方法、装置及电子设备
CN115512714B (zh) * 2022-03-22 2025-09-12 钉钉(中国)信息技术有限公司 语音增强方法、装置及设备
CN114566189B (zh) * 2022-04-28 2022-10-04 之江实验室 基于三维深度特征融合的语音情感识别方法及系统
CN114999510B (zh) * 2022-04-29 2025-07-11 中国科学技术大学 基于掩蔽效应的复卷积循环神经网络单通道语音增强方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102157156B (zh) * 2011-03-21 2012-10-10 清华大学 一种单通道语音增强的方法和系统
US9881631B2 (en) * 2014-10-21 2018-01-30 Mitsubishi Electric Research Laboratories, Inc. Method for enhancing audio signal using phase information
CN107845389B (zh) * 2017-12-21 2020-07-17 北京工业大学 一种基于多分辨率听觉倒谱系数和深度卷积神经网络的语音增强方法
CN108564963B (zh) * 2018-04-23 2019-10-18 百度在线网络技术(北京)有限公司 用于增强语音的方法和装置

Also Published As

Publication number Publication date
CN109448751A (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
CN109448751B (zh) 一种基于深度学习的双耳语音增强方法
CN110970053B (zh) 一种基于深度聚类的多通道与说话人无关语音分离方法
CN109584903B (zh) 一种基于深度学习的多人语音分离方法
CN105869651B (zh) 基于噪声混合相干性的双通道波束形成语音增强方法
US9681246B2 (en) Bionic hearing headset
CN102157156B (zh) 一种单通道语音增强的方法和系统
CN111081267B (zh) 一种多通道远场语音增强方法
CN100524465C (zh) 一种噪声消除装置和方法
CN110728989B (zh) 一种基于长短时记忆网络lstm的双耳语音分离方法
CN111292759A (zh) 一种基于神经网络的立体声回声消除方法及系统
CN106373589B (zh) 一种基于迭代结构的双耳混合语音分离方法
KR20180069879A (ko) 음성 강화를 위해 전역적으로 최적화된 최소 제곱 포스트 필터링
CN113362846B (zh) 一种基于广义旁瓣相消结构的语音增强方法
CN108986832B (zh) 基于语音出现概率和一致性的双耳语音去混响方法和装置
CN101964934A (zh) 二元麦克风微阵列语音波束形成方法
WO2022105690A1 (zh) 耳机及降噪方法
CN106297817A (zh) 一种基于双耳信息的语音增强方法
WO2022032608A1 (zh) 一种音频降噪方法和装置
Li et al. Multichannel online dereverberation based on spectral magnitude inverse filtering
Wolff et al. A generalized view on microphone array postfilters
CN110858485B (zh) 语音增强方法、装置、设备及存储介质
CN114038475A (zh) 一种基于语谱补偿的单通道语音增强系统
Aroudi et al. Cognitive-driven convolutional beamforming using EEG-based auditory attention decoding
CN115188391A (zh) 一种远场双麦克风的语音增强方法及装置
CN104394498B (zh) 一种三通道全息声场回放方法及声场采集装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant