CN113393857A - 一种音乐信号的人声消除方法、设备及介质 - Google Patents
一种音乐信号的人声消除方法、设备及介质 Download PDFInfo
- Publication number
- CN113393857A CN113393857A CN202110649872.0A CN202110649872A CN113393857A CN 113393857 A CN113393857 A CN 113393857A CN 202110649872 A CN202110649872 A CN 202110649872A CN 113393857 A CN113393857 A CN 113393857A
- Authority
- CN
- China
- Prior art keywords
- signal
- voice
- music
- frame
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000001755 vocal effect Effects 0.000 claims abstract description 99
- 238000012546 transfer Methods 0.000 claims abstract description 90
- 238000000926 separation method Methods 0.000 claims abstract description 53
- 230000001629 suppression Effects 0.000 claims abstract description 41
- 238000003379 elimination reaction Methods 0.000 claims abstract description 32
- 230000008030 elimination Effects 0.000 claims abstract description 31
- 238000001228 spectrum Methods 0.000 claims description 97
- 230000006870 function Effects 0.000 claims description 96
- 238000004590 computer program Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 14
- 238000009432 framing Methods 0.000 claims description 7
- 210000001260 vocal cord Anatomy 0.000 claims 10
- 230000005236 sound signal Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L21/0232—Processing in the frequency domain
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
Abstract
本申请公开了一种音乐信号的人声消除方法、设备及介质,包括:将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号;基于所述音乐信号以及所述人声信号确定线性***传递函数;将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号,并利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。这样,先利用声伴分离模型对音乐信号的人声信号进行初步消除,之后利用线性***传统函数对利用声伴分离模型确定的初始人声消除信号进行进一步的人声压制,能够提升对音乐信号中人声信号的消除程度,从而得到更加干净的人声消除信号。
Description
技术领域
本申请涉及音频处理技术领域,特别涉及一种音乐信号的人声消除方法、设备及介质。
背景技术
当前,深度学习被广泛应用于音乐信号的人声和伴奏的分离,常见的输出伴奏的声伴分离模型,虽然可以在一定程度上消除音乐信号中的人声信号成分,但其相关系数需要提前训练,且是固定不变的,这种处理方式,是从静态的角度分析人声信号在一段音乐信号中的分布情况,面对动态起伏的人声信号,存在消除的不够彻底,仍有部分残留的人声信号成分的缺点,尤其是在人声信号从无到有出现时,往往会残留人耳可分辨的人声信号。综上,在实现本发明的过程中,发明人至少发现,现有技术中存在音乐信号中人声信号消除不够彻底,存在部分残留的问题。
发明内容
有鉴于此,本申请的目的在于提供一种音乐信号的人声消除方法、设备及介质,能够提升对音乐信号中人声信号的消除程度,从而得到更加干净的人声消除信号。其具体方案如下:
第一方面,本申请公开了一种音乐信号的人声消除方法,包括:
将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号;
基于所述音乐信号以及所述人声信号确定线性***传递函数;
将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号;
利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。
可选的,所述利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号,包括:
确定所述初始人声消除信号的频域信号,得到目标频域信号;
利用所述线性***传递函数以及所述目标频域信号确定人声压制频域信号;
对所述人声压制频域信号进行傅里叶逆变换,得到最终的人声消除信号。
可选的,所述确定所述初始人声消除信号的频域信号,得到目标频域信号,包括:
确定所述音乐信号的第一频域信号,以及所述人声信号的第二频域信号;
将所述第一频域信号和所述第二频域信号的差信号确定为所述初始人声消除信号的频域信号,得到目标频域信号。
可选的,所述基于所述音乐信号以及所述人声信号确定线性***传递函数,包括:
对所述音乐信号以及所述人声信号进行分帧处理,得到所述音乐信号以及所述人声信号的每一帧数据;
基于所述音乐信号以及所述人声信号的每一帧数据确定每一帧数据对应的线性***传递函数。
可选的,所述基于所述音乐信号以及所述人声信号的每一帧数据确定每一帧数据对应的线性***传递函数,包括:
确定所述音乐信号的每一帧数据对应的第一自功率谱,以及所述人声信号的每一帧数据对应的第二自功率谱;
基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;
基于所述第一自功率谱、所述第二自功率谱、所述互功率谱确定每一帧数据对应的线性***传递函数。
可选的,所述基于所述第一自功率谱、所述第二自功率谱、所述互功率谱确定每一帧数据对应的线性***传递函数,包括:
利用所述第二自功率谱对应的控制人声信号压制程度的参数、所述第一自功率谱、所述第二自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
可选的,所述基于所述音乐信号以及所述人声信号的每一帧数据确定每一帧数据对应的线性***传递函数,包括:
确定所述音乐信号的每一帧数据对应的第一自功率谱;
基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;
利用所述第一自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
可选的,所述基于所述音乐信号以及所述人声信号的每一帧数据确定每一帧数据对应的线性***传递函数,包括:
基于所述音乐信号以及所述人声信号的每一帧数据确定所述初始人声消除信号的每一帧数据对应的第三自功率谱;
基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;
利用所述第三自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
第二方面,本申请公开了一种音乐信号的人声消除装置,包括:
人声信号获取模块,用于将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号;
传递函数确定模块,用于基于所述音乐信号以及所述人声信号确定线性***传递函数;
人声信号压制模块,用于将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号,并利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。
第三方面,本申请公开了一种电子设备,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现前述的音乐信号的人声消除方法。
第四方面,本申请公开了一种计算机可读存储介质,用于保存计算机程序,所述计算机程序被处理器执行时实现前述的音乐信号的人声消除方法。
可见,本申请先将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号,之后基于所述音乐信号以及所述人声信号确定线性***传递函数,将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号,并利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。也即,本申请先将音乐信号输入至声伴分离模型,得到声伴分离模型输出的人声信号,音乐信号与人声信号的差信号作为初步的人声消除信号,之后基于音乐信号和人声信号确定线性***传递函数,对初步的人声消除信号进行进一步的人声压制,从而得到最终的人声消除信号,这样,先利用声伴分离模型对音乐信号的人声信号进行初步消除,之后利用线性***传统函数对利用声伴分离模型确定的初始人声消除信号进行进一步的人声压制,能够提升对音乐信号中人声信号的消除程度,从而得到更加干净的人声消除信号。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的模型训练方案所适用的***框架示意图;
图2为本申请公开的一种音乐信号的人声消除方法流程图;
图3为本申请公开的一种具体的音乐信号的人声消除方法流程图;
图4为本申请公开的一种具体的音乐信号的人声消除方法流程图;
图5为本申请公开的一种音乐信号的人声消除装置结构示意图;
图6为本申请公开的一种电子设备结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
当前,深度学习被广泛应用于音乐信号的人声和伴奏的分离,常见的输出伴奏的声伴分离模型,虽然可以在一定程度上消除音乐信号中的人声信号成分,但其相关系数需要提前训练,且是固定不变的,这种处理方式,是从静态的角度分析人声信号在一段音乐信号中的分布情况,面对动态起伏的人声信号,存在消除的不够彻底,仍有部分残留的人声信号成分的缺点,尤其是在人声信号从无到有出现时,往往会残留人耳可分辨的人声信号。综上,在实现本发明的过程中,发明人至少发现,现有技术中存在音乐信号中人声信号消除不够彻底,存在部分残留的问题。为此,本申请提供了一种音乐信号的人声消除方案,能够提升对音乐信号中人声信号的消除程度,从而得到更加干净的人声消除信号。
本申请的音乐信号的人声消除方案中,采用的***框架具体可以参见图1所示,具体可以包括:后台服务器和与后台服务器建立通信连接的若干数量的用户端。其中,用户端包括但不限于平板电脑、笔记本电脑、智能手机、个人电脑(personal computer,PC),此处不做限定。
本申请中,后台服务器执行音乐信号的人声消除方法的步骤,包括将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号;基于所述音乐信号以及所述人声信号确定线性***传递函数;将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号,并利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。
当后台服务器获取到用户端发送的播放伴奏请求,后台服务器进行响应,以控制用户端播放相应的人声消除信号,即伴奏信号。
参见图2所示,本申请实施例公开了一种音乐信号的人声消除方法,包括:
步骤S11:将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号。
可以理解的是,将音乐信号输入至声伴分离模型,利用声伴分离模型输出人声信号,则音乐信号与人声信号的差信号可作为经过初步人声消除处理的信号,即初始人声消除信号。例如,向量song表示一段音乐信号,向量vocal表示声伴分离模型输出的人声信号,则初始人声消除信号为:deVocal=song–vocal,信号deVocal可以认为是原始音乐信号song利用声伴分离模型消除人声信号后的输出结果。需要指出的是,前述声伴分离模型的处理过程可以视为一个非线性***的处理过程,输入为音乐信号,输出为初始人声消除信号。
步骤S12:基于所述音乐信号以及所述人声信号确定线性***传递函数。
本申请实施例可以基于音乐信号和人声信号确定线性***传递函数,传递函数描述线性***的输入信号与输出信号之间的关系式,也即,本申请实施例添加了线性***的处理过程,进一步的对经过声伴分离模型处理得到的人声消除信号进行人声压制。
步骤S13:将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号。
步骤S14:利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。
在具体的实施方式中,可以确定所述初始人声消除信号的频域信号,得到目标频域信号;利用所述线性***传递函数以及所述目标频域信号确定人声压制频域信号;对所述人声压制频域信号进行傅里叶逆变换,得到最终的人声消除信号。
在一种具体的实施方式中,可以对所述初始人声消除信号进行傅里叶变换,得到目标频域信号。
在另一具体的实施方式中,可以确定所述音乐信号的第一频域信号,以及所述人声信号的第二频域信号;将所述第一频域信号和所述第二频域信号的差信号确定为所述初始人声消除信号的频域信号,得到目标频域信号。
可见,本申请实施例先将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号,之后基于所述音乐信号以及所述人声信号确定线性***传递函数,将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号,并利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。也即,本申请先将音乐信号输入至声伴分离模型,得到声伴分离模型输出的人声信号,音乐信号与人声信号的差信号作为初步的人声消除信号,之后基于音乐信号和人声信号确定线性***传递函数,对初步的人声消除信号进行进一步的人声压制,从而得到最终的人声消除信号,这样,先利用声伴分离模型对音乐信号的人声信号进行初步消除,之后利用线性***传统函数对利用声伴分离模型确定的初始人声消除信号进行进一步的人声压制,能够提升对音乐信号中人声信号的消除程度,从而得到更加干净的人声消除信号。
参见图3所示,本申请实施例公开了一种音乐信号的人声消除方法,包括:
步骤S21:将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号。
步骤S22:对所述音乐信号以及所述人声信号进行分帧处理,得到所述音乐信号以及所述人声信号的每一帧数据。
步骤S23:基于所述音乐信号以及所述人声信号的每一帧数据确定每一帧数据对应的线性***传递函数。
在具体的实施方式中,对所述音乐信号以及所述人声信号进行分帧处理以及加窗处理,并进行傅里叶变换,得到所述音乐信号以及所述人声信号的每一帧数据对应的频域信号,具体的:
音乐信号的频域信号为songF=fft(song.*win);
人声信号的频域信号为vocalF=fft(vocal.*win);
初始人声消除信号的频域信号为deVocalF=songF–vocalF。
其中,函数fft()表示傅立叶变换,操作符号.*表示向量之间的逐点相乘,向量win表示与数据帧长度相等的窗函数。
需要指出的是,本申请实施例确定线性***传递函数,而传递函数为描述线性***的输入信号与输出信号之间的关系式,本申请实施例中,设线性***的输入信号为songF,线性***的输出信号为deVocalF。
在一种具体的实施方式中,可以确定所述音乐信号的每一帧数据对应的第一自功率谱;基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;利用所述第一自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
其中,音乐信号的第一自功率谱为:
songF2=alpha*songF2+(1-alpha)*songF.*conj(songF);
互功率谱为:
songVocalF2=alpha*songVocalF2+(1-alpha)*songF.*conj(deVocalF);
其中,参数alpha表示功率谱的更新速率,取值0-1之间,alpha数值越大更新越慢。函数conj()表示取对应复数的共轭值。songF2、songVocalF2的初始值均为0,并随着时间而逐帧迭代,则线性***传递函数为:
H=songVocalF2./songF2。
其中,操作符号./表示向量之间的逐点相除。
在另一具体的实施方式中,可以基于所述音乐信号以及所述人声信号的每一帧数据确定所述初始人声消除信号的每一帧数据对应的第三自功率谱;基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;利用所述第三自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
具体的,可以利用deVocal的第三自功率谱除以(逐点相除)互功率谱songVocalF2,来确定传递函数H。
步骤S24:将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号,并利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。
本申请实施例中,线性***传递函数是一个随时间动态更新的传递函数。在声伴分离模型消除人声信号的基础上,进一步的压制残余人声信号。则最终的人声消除信号为:
output=ifft(H.*deVocalF);
其中,函数ifft()表示逆傅立叶变换。
需要指出的是,声伴分离模型是估计出人声占比的信息,对人声信号做一定程度的消除,而传递函数则可以继续挖掘该信息,对人声信号做进一步压制,最终得到的信号output将拥有更少的人声残余信号。深度学习神经网络的训练需要耗费巨大的人力和物力,利用线性***传递函数在声伴分离模型的基础上进一步压制人声信号的成本较低,能够高效的得到相对干净的人声消除信号。
可见,本申请实施例确定每一帧数据对应的线性***传递函数,线性***传递函数随着每一帧数据更新,这样,应能更好的应对动态变化的人声信号,得到更干净的人声消除信号。
参见图4所示,本申请实施例公开了一种具体的人声消除方法,包括:
步骤S31:将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号。
步骤S32:对所述音乐信号以及所述人声信号进行分帧处理,得到所述音乐信号以及所述人声信号的每一帧数据。
步骤S33:确定所述音乐信号的每一帧数据对应的第一自功率谱,以及所述人声信号的每一帧数据对应的第二自功率谱。
其中,人声信号的第二自功率谱为:
vocalF2=alpha*vocalF2+(1-alpha)*vocalF.*conj(vocalF);
参数alpha表示功率谱的更新速率,取值0-1之间,alpha数值越大更新越慢。函数conj()表示取对应复数的共轭值。vocalF2的初始值为0,并随着时间而逐帧迭代。
第一自功率谱的确定确定过程可以参考前述实施例公开的相应内容,在此不再进行赘述。
步骤S34:基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱。
关于上述步骤S34的具体实现方式,可以参考前述实施例公开的内容,在此不再进行赘述。
步骤S35:基于所述第一自功率谱、所述第二自功率谱、所述互功率谱确定每一帧数据对应的线性***传递函数。
在具体的实施方式中,可以利用所述第二自功率谱对应的控制人声信号压制程度的参数、所述第一自功率谱、所述第二自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
其中,线性***传递函数具体为:
H=songVocalF2./(songF2+belta.*vocalF2);
belta表示控制人声信号压制程度的参数。
可以理解的是,belta用于调节滤波程度,数值越大,输出的最终的人声消除信号越小,可以根据实际场景,设定一个经验值,也可由用户自己设定。
步骤S36:将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号,并利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。
关于上述步骤S36的具体实现方式,可以参考前述实施例公开的内容,在此不再进行赘述。
可见,本申请实施例基于音乐信号的第一自功率谱、人声信号的第二自功率谱、音乐信号与初始人声消除信号的互功率谱确定每一帧数据对应的线性***传递函数,在计算线性***传递函数的过程中考虑了人声信号的自功率谱,这样,能够通过添加参数的形式控制人声信号的压制程度,从而在相应的应用场景下得到信号压制效果较好的线性***传递函数,从而提升人声消除效果。
下面,以某款音乐APP为例,对本申请的技术方案进行说明。
假设这款音乐APP的后台服务器基于这款音乐APP的歌曲数据库消除人声信号,得到伴奏信号。后台服务器可以对歌曲数据库中所有歌曲的音乐信号执行以下步骤:将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号;基于所述音乐信号以及所述人声信号确定线性***传递函数;将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号,并利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。这样,得到曲库中所有歌曲的伴奏信号,形成伴奏库。用户通过用户端打开这款音乐APP,搜索歌曲《遇见》,点击唱这首歌,用户端向后台服务器发送歌曲《遇见》对应的播放伴奏请求,当后台服务器获取到用户端发送的播放伴奏请求,进行响应,从伴奏库中搜索歌曲《遇见》对应的伴奏信号,然后控制用户端播放歌曲《遇见》对应的伴奏信号,以便用户进行跟唱。
参见图5所示,本申请实施例公开了一种公开了一种音乐信号的人声消除装置,包括:
人声信号获取模块11,用于将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号;
传递函数确定模块12,用于基于所述音乐信号以及所述人声信号确定线性***传递函数;
人声信号压制模块13,用于将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号,并利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。
可见,本申请实施例先将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号,之后基于所述音乐信号以及所述人声信号确定线性***传递函数,将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号,并利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。也即,本申请先将音乐信号输入至声伴分离模型,得到声伴分离模型输出的人声信号,音乐信号与人声信号的差信号作为初步的人声消除信号,之后基于音乐信号和人声信号确定线性***传递函数,对初步的人声消除信号进行进一步的人声压制,从而得到最终的人声消除信号,这样,先利用声伴分离模型对音乐信号的人声信号进行初步消除,之后利用线性***传统函数对利用声伴分离模型确定的初始人声消除信号进行进一步的人声压制,能够提升对音乐信号中人声信号的消除程度,从而得到更加干净的人声消除信号。
其中,人声信号压制模块13,包括:
目标频域信号获取子模块,用于确定所述初始人声消除信号的频域信号,得到目标频域信号;
人声信号压制子模块,用于利用所述线性***传递函数以及所述目标频域信号确定人声压制频域信号;
最终人声消除信号获取子模块,用于对所述人声压制频域信号进行傅里叶逆变换,得到最终的人声消除信号。
在一种具体的实施方式中,目标频域信号获取子模块,具体用于对所述初始人声消除信号进行傅里叶变换,得到目标频域信号。
在另一种具体的实施方式中,目标频域信号获取子模块,具体包括:
第一频域信号确定单元,用于确定所述音乐信号的第一频域信号;
第二频域信号确定单元,用于确定所述人声信号的第二频域信号;
目标频域信号获取单元,用于将所述第一频域信号和所述第二频域信号的差信号确定为所述初始人声消除信号的频域信号,得到目标频域信号。
传递函数确定模块12,具体包括:
数据分帧子模块,用于对所述音乐信号以及所述人声信号进行分帧处理,得到所述音乐信号以及所述人声信号的每一帧数据;
线性***传递函数确定子模块,用于基于所述音乐信号以及所述人声信号的每一帧数据确定每一帧数据对应的线性***传递函数。
在第一种具体的实施方式中,线性***传递函数确定子模块,包括:
第一自功率谱确定单元,用于确定所述音乐信号的每一帧数据对应的第一自功率谱;
第二自功率谱确定单元,用于确定所述人声信号的每一帧数据对应的第二自功率谱;
互功率谱确定单元,用于基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;
线性***传递函数确定单元,用于基于所述第一自功率谱、所述第二自功率谱、所述互功率谱确定每一帧数据对应的线性***传递函数。
其中,线性***传递函数确定单元,具体用于利用所述第二自功率谱对应的控制人声信号压制程度的参数、所述第一自功率谱、所述第二自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
在第二种具体的实施方式中,线性***传递函数确定子模块,包括:
第一自功率谱确定单元,用于确定所述音乐信号的每一帧数据对应的第一自功率谱;
互功率谱确定单元,用于基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;
线性***传递函数确定单元,用于利用所述第一自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
在第三种具体的实施方式中,线性***传递函数确定子模块,包括:
第三自功率谱确定单元,用于基于所述音乐信号以及所述人声信号的每一帧数据确定所述初始人声消除信号的每一帧数据对应的第三自功率谱;
互功率谱确定单元,用于基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;
线性***传递函数确定单元,用于利用所述第三自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
进一步的,本申请实施例还提供了一种电子设备。图6是根据一示例性实施例示出的电子设备6结构图,图中的内容不能被认为是对本申请的使用范围的任何限制。
图6为本申请实施例提供的一种电子设备20的结构示意图。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任一实施例公开的音乐信号的人声消除方法中的相关步骤。另外,本实施例中的电子设备20具体可以为服务器。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源可以包括操作***221、计算机程序222及歌曲数据223等,存储方式可以是短暂存储或者永久存储。
其中,操作***221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,以实现处理器21对存储器22中歌曲数据223的运算与处理,其可以是Windows Server、Netware、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的音乐信号的人声消除方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。
进一步的,本申请实施例还公开了一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器加载并执行时,实现前述任一实施例公开的音乐信号的人声消除方法步骤。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的一种音乐信号的人声消除方法、设备及介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (10)
1.一种音乐信号的人声消除方法,其特征在于,包括:
将音乐信号输入至声伴分离模型,得到所述声伴分离模型输出的人声信号;
基于所述音乐信号以及所述人声信号确定线性***传递函数;
将所述音乐信号以及所述人声信号之间的差信号作为初始人声消除信号;
利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号。
2.根据权利要求1所述的音乐信号的人声消除方法,其特征在于,所述利用所述线性***传递函数对所述初始人声消除信号进行人声压制,得到最终的人声消除信号,包括:
确定所述初始人声消除信号的频域信号,得到目标频域信号;
利用所述线性***传递函数以及所述目标频域信号确定人声压制频域信号;
对所述人声压制频域信号进行傅里叶逆变换,得到最终的人声消除信号。
3.根据权利要求2所述的音乐信号的人声消除方法,其特征在于,所述确定所述初始人声消除信号的频域信号,得到目标频域信号,包括:
确定所述音乐信号的第一频域信号,以及所述人声信号的第二频域信号;
将所述第一频域信号和所述第二频域信号的差信号确定为所述初始人声消除信号的频域信号,得到目标频域信号。
4.根据权利要求1至3任一项所述的音乐信号的人声消除方法,其特征在于,所述基于所述音乐信号以及所述人声信号确定线性***传递函数,包括:
对所述音乐信号以及所述人声信号进行分帧处理,得到所述音乐信号以及所述人声信号的每一帧数据;
基于所述音乐信号以及所述人声信号的每一帧数据确定每一帧数据对应的线性***传递函数。
5.根据权利要求4所述的音乐信号的人声消除方法,其特征在于,所述基于所述音乐信号以及所述人声信号的每一帧数据确定每一帧数据对应的线性***传递函数,包括:
确定所述音乐信号的每一帧数据对应的第一自功率谱,以及所述人声信号的每一帧数据对应的第二自功率谱;
基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;
基于所述第一自功率谱、所述第二自功率谱、所述互功率谱确定每一帧数据对应的线性***传递函数。
6.根据权利要求5所述的音乐信号的人声消除方法,其特征在于,所述基于所述第一自功率谱、所述第二自功率谱、所述互功率谱确定每一帧数据对应的线性***传递函数,包括:
利用所述第二自功率谱对应的控制人声信号压制程度的参数、所述第一自功率谱、所述第二自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
7.根据权利要求4所述的音乐信号的人声消除方法,其特征在于,所述基于所述音乐信号以及所述人声信号的每一帧数据确定每一帧数据对应的线性***传递函数,包括:
确定所述音乐信号的每一帧数据对应的第一自功率谱;
基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;
利用所述第一自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
8.根据权利要求4所述的音乐信号的人声消除方法,其特征在于,所述基于所述音乐信号以及所述人声信号的每一帧数据确定每一帧数据对应的线性***传递函数,包括:
基于所述音乐信号以及所述人声信号的每一帧数据确定所述初始人声消除信号的每一帧数据对应的第三自功率谱;
基于所述音乐信号以及所述人声信号的每一帧数据确定所述音乐信号与所述初始人声消除信号的每一帧数据对应的互功率谱;
利用所述第三自功率谱以及所述互功率谱确定每一帧数据对应的线性***传递函数。
9.一种电子设备,其特征在于,包括:
存储器,用于保存计算机程序;
处理器,用于执行所述计算机程序,以实现如权利要求1至8任一项所述的音乐信号的人声消除方法。
10.一种计算机可读存储介质,其特征在于,用于保存计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述的音乐信号的人声消除方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110649872.0A CN113393857B (zh) | 2021-06-10 | 2021-06-10 | 一种音乐信号的人声消除方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110649872.0A CN113393857B (zh) | 2021-06-10 | 2021-06-10 | 一种音乐信号的人声消除方法、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113393857A true CN113393857A (zh) | 2021-09-14 |
CN113393857B CN113393857B (zh) | 2024-06-14 |
Family
ID=77620375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110649872.0A Active CN113393857B (zh) | 2021-06-10 | 2021-06-10 | 一种音乐信号的人声消除方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113393857B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114333876A (zh) * | 2021-11-25 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 信号处理的方法和装置 |
Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030065509A1 (en) * | 2001-07-13 | 2003-04-03 | Alcatel | Method for improving noise reduction in speech transmission in communication systems |
CN101236742A (zh) * | 2008-03-03 | 2008-08-06 | 中兴通讯股份有限公司 | 音乐/非音乐的实时检测方法和装置 |
JP2009069425A (ja) * | 2007-09-12 | 2009-04-02 | Sharp Corp | 音楽検出装置、音声検出装置、および音場制御装置 |
US20100131086A1 (en) * | 2007-04-13 | 2010-05-27 | Kyoto University | Sound source separation system, sound source separation method, and computer program for sound source separation |
CN102522082A (zh) * | 2011-12-27 | 2012-06-27 | 重庆大学 | 一种公共场所异常声音的识别与定位方法 |
KR20120130908A (ko) * | 2011-05-24 | 2012-12-04 | 한국전자통신연구원 | 음성 신호 분리 장치 |
US20130054231A1 (en) * | 2011-08-29 | 2013-02-28 | Intel Mobile Communications GmbH | Noise reduction for dual-microphone communication devices |
CN104134444A (zh) * | 2014-07-11 | 2014-11-05 | 福建星网视易信息***有限公司 | 一种基于mmse的歌曲去伴奏方法和装置 |
JP2015079122A (ja) * | 2013-10-17 | 2015-04-23 | ヤマハ株式会社 | 音響処理装置 |
JP2016156938A (ja) * | 2015-02-24 | 2016-09-01 | 国立大学法人京都大学 | 歌声信号分離方法及びシステム |
CN106653048A (zh) * | 2016-12-28 | 2017-05-10 | 上海语知义信息技术有限公司 | 基于人声模型的单通道声音分离方法 |
US20180137877A1 (en) * | 2015-06-09 | 2018-05-17 | Grg Banking Equipment Co., Ltd. | Method, device and system for noise suppression |
CN109473118A (zh) * | 2018-12-24 | 2019-03-15 | 苏州思必驰信息科技有限公司 | 双通道语音增强方法及装置 |
CN109754813A (zh) * | 2019-03-26 | 2019-05-14 | 南京时保联信息科技有限公司 | 基于快速收敛特性的变步长回声消除方法 |
CN109801644A (zh) * | 2018-12-20 | 2019-05-24 | 北京达佳互联信息技术有限公司 | 混合声音信号的分离方法、装置、电子设备和可读介质 |
CN110503976A (zh) * | 2019-08-15 | 2019-11-26 | 广州华多网络科技有限公司 | 音频分离方法、装置、电子设备及存储介质 |
CN111128213A (zh) * | 2019-12-10 | 2020-05-08 | 展讯通信(上海)有限公司 | 一种分频段进行处理的噪声抑制方法及其*** |
CN111445917A (zh) * | 2020-03-17 | 2020-07-24 | 浙江大华技术股份有限公司 | 一种回声消除方法、装置以及计算机存储介质 |
CN111540374A (zh) * | 2020-04-17 | 2020-08-14 | 杭州网易云音乐科技有限公司 | 伴奏和人声提取方法及装置、逐字歌词生成方法及装置 |
CN111916039A (zh) * | 2019-05-08 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 音乐文件的处理方法、装置、终端及存储介质 |
-
2021
- 2021-06-10 CN CN202110649872.0A patent/CN113393857B/zh active Active
Patent Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030065509A1 (en) * | 2001-07-13 | 2003-04-03 | Alcatel | Method for improving noise reduction in speech transmission in communication systems |
US20100131086A1 (en) * | 2007-04-13 | 2010-05-27 | Kyoto University | Sound source separation system, sound source separation method, and computer program for sound source separation |
JP2009069425A (ja) * | 2007-09-12 | 2009-04-02 | Sharp Corp | 音楽検出装置、音声検出装置、および音場制御装置 |
CN101236742A (zh) * | 2008-03-03 | 2008-08-06 | 中兴通讯股份有限公司 | 音乐/非音乐的实时检测方法和装置 |
KR20120130908A (ko) * | 2011-05-24 | 2012-12-04 | 한국전자통신연구원 | 음성 신호 분리 장치 |
US20130054231A1 (en) * | 2011-08-29 | 2013-02-28 | Intel Mobile Communications GmbH | Noise reduction for dual-microphone communication devices |
CN102522082A (zh) * | 2011-12-27 | 2012-06-27 | 重庆大学 | 一种公共场所异常声音的识别与定位方法 |
JP2015079122A (ja) * | 2013-10-17 | 2015-04-23 | ヤマハ株式会社 | 音響処理装置 |
CN104134444A (zh) * | 2014-07-11 | 2014-11-05 | 福建星网视易信息***有限公司 | 一种基于mmse的歌曲去伴奏方法和装置 |
JP2016156938A (ja) * | 2015-02-24 | 2016-09-01 | 国立大学法人京都大学 | 歌声信号分離方法及びシステム |
US20180137877A1 (en) * | 2015-06-09 | 2018-05-17 | Grg Banking Equipment Co., Ltd. | Method, device and system for noise suppression |
CN106653048A (zh) * | 2016-12-28 | 2017-05-10 | 上海语知义信息技术有限公司 | 基于人声模型的单通道声音分离方法 |
CN109801644A (zh) * | 2018-12-20 | 2019-05-24 | 北京达佳互联信息技术有限公司 | 混合声音信号的分离方法、装置、电子设备和可读介质 |
CN109473118A (zh) * | 2018-12-24 | 2019-03-15 | 苏州思必驰信息科技有限公司 | 双通道语音增强方法及装置 |
CN109754813A (zh) * | 2019-03-26 | 2019-05-14 | 南京时保联信息科技有限公司 | 基于快速收敛特性的变步长回声消除方法 |
CN111916039A (zh) * | 2019-05-08 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 音乐文件的处理方法、装置、终端及存储介质 |
CN110503976A (zh) * | 2019-08-15 | 2019-11-26 | 广州华多网络科技有限公司 | 音频分离方法、装置、电子设备及存储介质 |
CN111128213A (zh) * | 2019-12-10 | 2020-05-08 | 展讯通信(上海)有限公司 | 一种分频段进行处理的噪声抑制方法及其*** |
CN111445917A (zh) * | 2020-03-17 | 2020-07-24 | 浙江大华技术股份有限公司 | 一种回声消除方法、装置以及计算机存储介质 |
CN111540374A (zh) * | 2020-04-17 | 2020-08-14 | 杭州网易云音乐科技有限公司 | 伴奏和人声提取方法及装置、逐字歌词生成方法及装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114333876A (zh) * | 2021-11-25 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 信号处理的方法和装置 |
CN114333876B (zh) * | 2021-11-25 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 信号处理的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113393857B (zh) | 2024-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | On the importance of power compression and phase estimation in monaural speech dereverberation | |
CN112820315B (zh) | 音频信号处理方法、装置、计算机设备及存储介质 | |
Unoki et al. | A method of signal extraction from noisy signal based on auditory scene analysis | |
CN113921022B (zh) | 音频信号分离方法、装置、存储介质和电子设备 | |
US9947341B1 (en) | Real-time voice masking in a computer network | |
CN111048061B (zh) | 回声消除滤波器的步长获取方法、装置及设备 | |
CN113571078B (zh) | 噪声抑制方法、装置、介质以及电子设备 | |
Mian Qaisar | Isolated speech recognition and its transformation in visual signs | |
Dash et al. | Improved phase aware speech enhancement using bio-inspired and ANN techniques | |
CN113393857A (zh) | 一种音乐信号的人声消除方法、设备及介质 | |
Eichas et al. | Virtual analog modeling of dynamic range compression systems | |
CN113450811B (zh) | 对音乐进行通透处理的方法及设备 | |
Kalamani et al. | Modified least mean square adaptive filter for speech enhancement | |
CN111354374A (zh) | 语音处理方法、模型训练方法及电子设备 | |
Wells | Modal decompositions of impulse responses for parametric interaction | |
CN117373468A (zh) | 远场语音增强处理方法、装置、计算机设备和存储介质 | |
Kazama et al. | Signal representation including waveform envelope by clustered line-spectrum modeling | |
Lüling et al. | A two-dimensional cochlear fluid model based on conformal mapping | |
CN113571079A (zh) | 语音增强方法、装置、设备及存储介质 | |
CN111415674A (zh) | 语音降噪方法及电子设备 | |
Korvel et al. | A modified additive synthesis method using source-filter model | |
Radke et al. | Audio Interpolation for Virtual Audio Synthesis | |
Mao et al. | An efficient nonlinear adaptive filter algorithm based on the rectified linear unit | |
Audfray et al. | Reverberation loudness model for mixed-reality audio | |
Baskind et al. | Sound power radiated by sources in diffuse field |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |