CN114333804A - 音频分类识别方法、装置、电子设备及存储介质 - Google Patents

音频分类识别方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN114333804A
CN114333804A CN202111610788.4A CN202111610788A CN114333804A CN 114333804 A CN114333804 A CN 114333804A CN 202111610788 A CN202111610788 A CN 202111610788A CN 114333804 A CN114333804 A CN 114333804A
Authority
CN
China
Prior art keywords
audio
features
coding
output
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111610788.4A
Other languages
English (en)
Other versions
CN114333804B (zh
Inventor
郑雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202111610788.4A priority Critical patent/CN114333804B/zh
Publication of CN114333804A publication Critical patent/CN114333804A/zh
Application granted granted Critical
Publication of CN114333804B publication Critical patent/CN114333804B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开关于一种音频分类识别方法、装置、电子设备及存储介质。该方法包括:通过获取待识别音频的音频特征;然后将音频特征输入目标卷积神经网络,对目标卷积神经网络的末端解码单元输出的第一特征,以及目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到待识别音频的目标音频特征;最后基于目标音频特征,确定待识别音频对应的分类识别结果。本公开实现了将目标卷积神经网络与音频分类识别进行结合,将音频特征利用目标卷积神经网络进行特征提取并融合,得到了待识别音频的多层次的目标音频特征,并依据该目标音频特征对待识别音频进行分类识别,提高了音频分类识别的准确性。

Description

音频分类识别方法、装置、电子设备及存储介质
技术领域
本公开涉及计算机技术领域,尤其涉及一种音频分类识别方法、装置、电子设备及存储介质。
背景技术
随着多媒体技术的不断发展,音频文件的播放也逐渐智能化起来;不仅能够根据账户的音频收听历史推送账户可能感兴趣的音频,还能够根据音频的收听历史确定账户感兴趣的音频风格。
相关技术中,通常通过深层卷积网络模型对音频文件进行特征提取,基于提取的特征确定音频分类识别结果;但是,现有的深层卷积网络在提取音频特征时存在特征不全面的问题,导致音频分类识别的准确率还较低。
发明内容
本公开提供一种音频分类识别方法、装置、电子设备及存储介质,以至少解决相关技术中音频分类识别的准确率还较低的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种音频分类识别方法,包括:
获取待识别音频的音频特征;
将所述音频特征输入目标卷积神经网络,对所述目标卷积神经网络的末端解码单元输出的第一特征,以及所述目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到所述待识别音频的目标音频特征;
基于所述目标音频特征,确定所述待识别音频对应的分类识别结果。
在一示例性实施例中,所述目标卷积神经网络为U型卷积神经网络,所述U型卷积神经网络中包括编码网络与解码网络;所述编码网络包括多级所述编码单元,所述解码网络包括多级解码单元;
所述对所述目标卷积神经网络的末端解码单元输出的第一特征,以及所述目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到所述待识别音频的目标音频特征,包括:
输入所述音频特征至所述编码网络,通过多级所述编码单元分别提取所述音频特征对应的不同深度的编码特征,其中上一级编码单元输出的编码特征作为下一级编码单元的输入;
将最后一级编码单元输出的编码特征输入所述解码网络,通过多级解码单元分别提取所述音频特征对应的不同深度的解码特征;其中,第一级解码单元基于所述最后一级编码单元输出的编码特征以及与之对称的编码单元输出的编码特征提取解码特征,其他解码单元基于上一级解码单元输出的解码特征以及与之对称的编码单元输出的编码特征提取解码特征;
获取最后一级解码单元输出的解码特征作为所述第一特征,获取至少一级编码单元输出的编码特征作为所述第二特征,将所述第一特征与所述第二特征融合,得到所述目标音频特征。
在一示例性实施例中,所述获取至少一级编码单元输出的编码特征作为所述第二特征,包括:
获取第一级编码单元输出的编码特征,以及最后一级编码单元输出的编码特征,作为所述第二特征。
在一示例性实施例中,所述通过多级所述编码单元分别提取所述音频特征对应的不同深度的编码特征,包括:
在所述下一级编码单元中,将上一级编码单元输出的所述编码特征输入卷积层,得到卷积结果;
将所述卷积结果输入中间层,在所述中间层中基于注意力机制,对所述卷积结果进行冗余去除处理;
将冗余去除处理后的卷积结果输入池化层,将所述池化层输出的特征作为所述下一级编码单元输出的编码特征。
在一示例性实施例中,所述通过多级解码单元分别提取所述音频特征对应的不同深度的解码特征,包括:
在所述下一级解码单元中,将上一级解码单元输出的所述解码特征输入卷积层,得到卷积结果;
将所述卷积结果输入中间层,在所述中间层中基于注意力机制,对所述卷积结果进行冗余去除处理;
将冗余去除处理后的卷积结果输入上卷积层,将所述上卷积层输出的特征作为所述下一级解码单元输出的解码特征。
在一示例性实施例中,所述基于所述目标音频特征,确定所述待识别音频对应的分类识别结果,包括:
将所述目标音频特征输入预先训练的分类模型,确定出所述目标音频特征与多个预设标签对应的概率,将概率最大的预设标签作为所述待识别音频对应的分类识别结果。
在一示例性实施例中,所述获取待识别音频的音频特征,包括:
对所述待识别音频进行短时傅里叶变换,得到短时傅里叶变换结果;
对所述短时傅里叶变换结果进行梅尔频谱系数转换处理,得到所述待识别音频的梅尔频谱,并作为所述待识别音频的音频特征。
根据本公开实施例的第二方面,提供一种音频分类识别装置,包括:
特征获取单元,被配置为执行获取待识别音频的音频特征;
特征融合单元,被配置为执行将所述音频特征输入目标卷积神经网络,对所述目标卷积神经网络的末端解码单元输出的第一特征,以及所述目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到所述待识别音频的目标音频特征;
特征识别单元,被配置为执行基于所述目标音频特征,确定所述待识别音频对应的分类识别结果。
在一示例性实施例中,所述目标卷积神经网络为U型卷积神经网络,所述U型卷积神经网络中包括编码网络与解码网络;所述编码网络包括多级所述编码单元,所述解码网络包括多级解码单元;
所述特征融合单元,还被配置为执行输入所述音频特征至所述编码网络,通过多级所述编码单元分别提取所述音频特征对应的不同深度的编码特征,其中上一级编码单元输出的编码特征作为下一级编码单元的输入;将最后一级编码单元输出的编码特征输入所述解码网络,通过多级解码单元分别提取所述音频特征对应的不同深度的解码特征;其中,第一级解码单元基于所述最后一级编码单元输出的编码特征以及与之对称的编码单元输出的编码特征提取解码特征,其他解码单元基于上一级解码单元输出的解码特征以及与之对称的编码单元输出的编码特征提取解码特征;获取最后一级解码单元输出的解码特征作为所述第一特征,获取至少一级编码单元输出的编码特征作为所述第二特征,将所述第一特征与所述第二特征融合,得到所述目标音频特征。
在一示例性实施例中,所述特征融合单元,还被配置为执行获取第一级编码单元输出的编码特征,以及最后一级编码单元输出的编码特征,作为所述第二特征。
在一示例性实施例中,所述特征融合单元,还被配置为执行在所述下一级编码单元中,将上一级编码单元输出的所述编码特征输入卷积层,得到卷积结果;将所述卷积结果输入中间层,在所述中间层中基于注意力机制,对所述卷积结果进行冗余去除处理;将冗余去除处理后的卷积结果输入池化层,将所述池化层输出的特征作为所述下一级编码单元输出的编码特征。
在一示例性实施例中,所述特征融合单元,还被配置为执行在所述下一级解码单元中,将上一级解码单元输出的所述解码特征输入卷积层,得到卷积结果;将所述卷积结果输入中间层,在所述中间层中基于注意力机制,对所述卷积结果进行冗余去除处理;将冗余去除处理后的卷积结果输入上卷积层,将所述上卷积层输出的特征作为所述下一级解码单元输出的解码特征。
在一示例性实施例中,所述特征识别单元,还被配置为执行将所述目标音频特征输入预先训练的分类模型,确定出所述目标音频特征与多个预设标签对应的概率,将概率最大的预设标签作为所述待识别音频对应的分类识别结果。
在一示例性实施例中,所述特征获取单元,还被配置为执行对所述待识别音频进行短时傅里叶变换,得到短时傅里叶变换结果;对所述短时傅里叶变换结果进行梅尔频谱系数转换处理,得到所述待识别音频的梅尔频谱,并作为所述待识别音频的音频特征。
根据本公开实施例的第三方面,提供一种电子设备,包括:处理器;用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为执行所述指令,以实现如第一方面任一项所述的音频分类识别方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,当所述计算机可读存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如第一方面任一项所述的音频分类识别方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,所述计算机程序产品中包括指令,所述指令被电子设备的处理器执行时,使得所述电子设备能够执行如第一方面任一项所述的音频分类识别方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
通过获取待识别音频的音频特征,将音频特征输入目标卷积神经网络,对目标卷积神经网络的末端解码单元输出的第一特征,以及目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到待识别音频的目标音频特征;最后基于目标音频特征,确定待识别音频对应的分类识别结果。实现了将目标卷积神经网络与音频分类识别进行结合,将音频特征利用目标卷积神经网络进行特征提取并融合,得到待识别音频的多层次的目标音频特征,并依据该目标音频特征对待识别音频进行分类识别,提高了音频分类识别的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种音频分类识别方法的应用环境图。
图2是根据一示例性实施例示出的一种音频分类识别方法的流程图。
图3是根据一示例性实施例示出的目标卷积神经网络的示意图。
图4是根据一示例性实施例示出的U型卷积神经网络的结构示意图。
图5是根据一示例性实施例示出的得到待识别音频的目标音频特征的步骤的流程图。
图6是根据一示例性实施例示出的获取第二特征的步骤的流程图。
图7是根据一示例性实施例示出的提取音频特征对应的不同深度的编码特征的步骤的流程图。
图8是根据一示例性实施例示出的SE-block层结构示意图。
图9是根据一示例性实施例示出的提取音频特征对应的不同深度的解码特征的步骤的流程图。
图10是根据一示例性实施例示出的解码网络中最后一级解码单元的结构示意图。
图11是根据一示例性实施例示出的又一种音频分类识别方法的流程图。
图12是根据一示例性实施例示出的一种音频分类识别装置的框图。
图13是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
需要说明的是,本公开所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于展示的数据、分析的数据等),均为经用户授权或者经过各方充分授权的信息和数据;对应的,本公开还提供有相应的用户授权入口,供用户选择授权或者选择拒绝。
本公开所提供的音频分类识别方法,可以应用于如图1所示的应用环境中。其中,终端110通过网络与服务器120进行交互;服务器120获取终端110采集的待识别音频的音频特征;服务器120将音频特征输入目标卷积神经网络,对目标卷积神经网络的末端解码单元输出的第一特征,以及目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到待识别音频的目标音频特征;服务器120基于目标音频特征,确定待识别音频对应的分类识别结果;服务器120将待识别音频对应的分类识别结果返回至终端110。当然,上述音频分类识别方法也可在终端110执行。
其中,终端110可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
图2是根据一示例性实施例示出的一种音频分类识别方法的流程图,音频分类识别方法可以用于如图1所示的终端110中,包括以下步骤。
在步骤S210中,获取待识别音频的音频特征。
其中,待识别音频是指需要进行音频分类识别的文件;待识别音频可以由手机、电脑、录音笔等常用设备获取,待识别音频的文件格式可以是任何音频文件格式,例如mp3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、wma(Windows Media Audio,微软推出的一种音频格式)、aac(Advanced Audio Coding,高级音频编码)等;待识别音频还可以是视频等文件中附带的音频信息;终端在获取到相应文件时可以进行类型识别,并相应提取出其中包含的音频文件。音/视频文件在获取后可以进行格式转换,使得终端以最优的音频文件格式进行处理。
其中,音频特征是指对待识别音频进行相关处理后得到的表征音频文件至少一方面特征的信息;例如梅尔频谱(mel spectrogram)、梅尔频率倒谱系数(Mel-FrequencyCepstral Coefficients,MFCCs)、STFT和声谱图(Spectrogram)等。
具体地,终端对待识别音频进行相应预处理,得到待识别音频的音频特征。
在步骤S220中,将音频特征输入目标卷积神经网络,对目标卷积神经网络的末端解码单元输出的第一特征,以及目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到待识别音频的目标音频特征。
其中,目标卷积神经网络可看做是由如图3所示的编码网络和解码网络构成的神经网络模型,同时编码网络的各个编码单元和解码网络的各解码单元对应神经网络层之间存在跳层连接。
其中,末端编码单元是指目标卷积神经网络的解码网络中最后一级解码单元;至少一个编码单元是指目标卷积神经网络的编码网络中第一级编码单元至最后一级编码单元中任意一级编码单元。
其中,融合处理是指将目标卷积神经网络输出的多个特征进行融合的过程;融合处理过程中采用的特征可以是目标卷积神经网络中任意位置输出的特征;例如将末端解码单元输出的特征作为第一特征,将目标卷积神经网络中的至少一个编码单元输出的特征作为第二特征进行融合。
其中,目标音频特征是指将目标卷积神经网络中任意编码单元输出的特征及末端解码单元输入的特征进行融合处理后得到的音频特征;该目标音频特征融合了目标卷积神经网络中不同层级的特征,因此保留了特征所表征的多层次性,使得目标音乐特征中特征信息丰富,以此进行音频分类识别的结果也会相应更加准确。
具体地,终端将获取到的音频特征输入至预先训练好的目标卷积神经网络,目标卷积神经网络中的编码网络对输入的音频特征进行编码处理,将编码处理后的音频特征再输出解码网络,解码网络的末端解码单元输出解码处理后的音频特征;终端获取解码后的音频特征作为第二特征,再将编码过程中至少一个编码单元输出的音频特征作为第一特征,将第二特征与第一特征进行融合处理后得到待识别音频的目标音频特征。
在步骤S230中,基于目标音频特征,确定待识别音频对应的分类识别结果。
其中,分类识别结果是指按照预设的分类标准对目标音频特征进行分类处理后得到的分类结果;分类识别可以是音乐情感分类识别、音乐场景分类识别等;分类识别的过程可以用预先训练好的分类识别神经网络进行。
具体地,终端根据融合处理后得到的目标音频特征分别输入至少一个预先训练好的分类识别神经网络进行处理,根据该分类识别神经网络输出的结果确定出该目标音频特征的类型作为待识别音频对应的分类识别结果。例如预先训练好的分类识别神经网络能够分别输出目标音频特征所对应的预先设置的类别标签的概率值,根据概率值的大小能够确定出确定的类别标签作为待识别音频对应的分类识别结果。
上述音频分类识别方法中,通过获取待识别音频的音频特征;然后将音频特征输入目标卷积神经网络,对目标卷积神经网络的末端解码单元输出的第一特征,以及目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到待识别音频的目标音频特征;最后基于目标音频特征,确定待识别音频对应的分类识别结果;实现了将目标卷积神经网络与音频分类识别进行结合,将音频特征利用目标卷积神经网络进行特征提取并融合,得到了待识别音频的多层次的目标音频特征,并依据该目标音频特征对待识别音频进行分类识别,提高了音频分类识别的准确性。
在一示例性实施例中,如图4所示,目标卷积神经网络为U型卷积神经网络,U型卷积神经网络中包括编码网络41与解码网络42;编码网络包括多级编码单元,解码网络包括多级解码单元;
如图5所示,在上述步骤S220中,对目标卷积神经网络的末端解码单元输出的第一特征,以及目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到待识别音频的目标音频特征,包括:
步骤S510,输入音频特征至编码网络,通过多级编码单元分别提取音频特征对应的不同深度的编码特征,其中上一级编码单元输出的编码特征作为下一级编码单元的输入;
步骤S520,将最后一级编码单元输出的编码特征输入解码网络,通过多级解码单元分别提取音频特征对应的不同深度的解码特征;其中,第一级解码单元基于最后一级编码单元输出的编码特征以及与之对称的编码单元输出的编码特征提取解码特征,其他解码单元基于上一级解码单元输出的解码特征以及与之对称的编码单元输出的编码特征提取解码特征;
步骤S530,获取最后一级解码单元输出的解码特征作为第一特征,获取至少一级编码单元输出的编码特征作为第二特征,将第一特征与第二特征融合,得到目标音频特征。
其中,U型卷积神经网络是卷积神经网络的一种变形,因其结构形似字母U,因而得名U型卷积神经网络或者U-net;目标卷积神经网络还可以是V型卷积神经网络,V型卷积神经网络同样是卷积神经网络的一种变形,即V-net或者V型卷积神经网络,其结构与U型卷积神经网络类似;需要说明的是,本公开不受限于上述U型卷积神经网络、V型卷积神经网络或者其他类似形状或层级构造的神经网络。
如图4所示,可见U型卷积神经网络大致分为左侧的编码网络41与右侧的解码网络42;编码网路41由层级连接的多个编码单元构成,并且上一级编码的输出是下一级编码单元的输入;最后一级编码单元的输出是第一级解码单元的输入;上一级解码单元的输出同样作为下一级解码单元的输入;直到解码网络中的最后一级解码单元输出解码后的音乐特征。
其中,编码网络和解码网络在U型卷积神经网络可视作成对称关系,即解码网络中的解码单元存在与之对称的编码单元,且两个相互对称的编码单元与解码单元之间存在跳层连接;每一级解码单元会在解码处理时会同时获取上一级解码单元输出的解码特征,以及获取与之对称的编码单元输出的编码特征,并基于解码特征以及与之对称的编码单元输出的编码特征提取解码特征后输入至下一解码单元。
具体地,终端将音频特征输入至U型卷积神经网络,U型卷积神经网络中的编码网络首先获取输入的音频特征;编码网络中的第一级编码单元对音频特征进行处理后得到一定深度的编码特征后输入至下一级编码单元,下一级编码单元对输入的编码特征进行再次处理后得到一定深度的编码特征,再次输入至再下一级编码单元,以此类推,直到编码网络的最后一级编码单元将输出的编码特征输入至第一级解码单元。第一级解码单元接收最后一级编码单元输出的编码特征,同时获取在U型卷积神经网络中相对称的编码单元输出的编码特征进行融合后进行解码处理,提取出解码特征后输入至下一级解码单元;下一级解码单元同样接收上一级解码单元输出的解码特征,同时获取在U型卷积神经网络中相对称的编码单元输出的编码特征进行融合后进行解码处理,提取出解码特征后输入至再下一级解码单元,以此类推,直到解码网络的最后一级解码单元输出的解码特征,并将最后一级解码单元输出的解码特征作为第一特征。从编码网络中选取至少一个编码单元输出的编码特征作为第二特征,将第一特征与第二特征进行融合处理后,即得到目标音乐特征。
本公开实施例提供的技术方案中,通过U型卷积神经网络中的编码网络及解码网络对音频特征进行处理,分别得到第一特征和第二特征;第一特征和第二特征中包含有不同层次以及不同深度的音频特征信息,将第一特征与第二特征进行融合处理能够得到多层次、特征丰富的目标音频特征,使得通过U型卷积神经网络提取出的目标音频特征更能够反映出待识别音频的特征,提高了音频分类识别的准确性。
在一示例性实施例中,上述步骤S530,获取至少一级编码单元输出的编码特征作为第二特征,包括:获取第一级编码单元输出的编码特征,以及最后一级编码单元输出的编码特征,作为第二特征。
具体地,如图6所示,由于第二特征根据至少一个编码单元输出的编码特征得到,因此本方案将第一级编码单元输出的编码特征以及最后以及编码单元输出的编码特征共同作为第二特征;为便于识别,将第一级编码单元可命名为L端(L为Left,意为U型卷积神经网络的左端),则第一级编码单元输出的编码特征为L端特征;将最后一级编码单元可命名为M端(M为Middle,意为U型卷积神经网络的中端),则最后一级编码单元输出的编码特征为M端特征;将最后一级解码单元可命名为R端(R为Right,意为U型卷积神经网络的右端),则最后一级解码单元输出的解码特征为R端特征;进一步地,据此融合后得到目标音频特征相当于由不同层次的特征融合而来,即目标音频特征相当于L+M+R融合后得到的特征,目标音频特征中的特征信息更为丰富,音频分类识别也会更加准确。
本公开实施例提供的技术方案中,通过U型卷积神经网络中的编码网络及解码网络对音频特征进行处理,分别得到第一特征和第二特征,其中第二特征分别由第一级编码单元输出的编码特征,以及最后一级编码单元输出的编码特征得到;第一特征和第二特征中包含有不同层次以及不同深度的音频特征信息,将第一特征与第二特征进行融合处理能够得到多层次、特征丰富的目标音频特征,使得通过U型卷积神经网络提取出的目标音频特征更能够反映出待识别音频的特征,提高了音频分类识别的准确性。
在一示例性实施例中,如图7所示,上述步骤S510,通过多级编码单元分别提取音频特征对应的不同深度的编码特征,包括:
步骤S710中,在下一级编码单元中,将上一级编码单元输出的编码特征输入卷积层,得到卷积结果;
步骤S720中,将卷积结果输入中间层,在中间层中基于注意力机制,对卷积结果进行冗余去除处理;
步骤S730中,将冗余去除处理后的卷积结果输入池化层,将池化层输出的特征作为下一级编码单元输出的编码特征。
其中,在编码网络中,每个编码单元之间通过池化层相互连接,即上一级编码单元将输出的编码特征通过池化层进行最大池化处理后输入下一级编码单元。
其中,注意力机制通过在神经网络中加入SE-block层实现,SE-block层引入注意力机制,对每个通道捕捉自己不同的特征,用一个权重来表示该通道在下一个阶段的重要性,有效捕获全局信息,使得低层的预测结合全局的环境输出更加精确的类别信息;如图8所示,为SE-block层结构示意图,该过程通过以下方式实现:
步骤A,压缩,当特征图输出W×H×C大小时,经过全局池化将每个通道的W×H个像素值相加取平均作为每个通道的值,输出的结果大小为1×1×C,式中σ表示激活函数使用sigmoid函数;δ表示激活函数使用relu函数;H表示特征图的高度信息,W表示特征图的宽度信息,C表示通道数量信息;i表示像素,j表示当前处理的像素;Z表示向量,uc表示卷积核输出的特征,Fsq表示对特征进行压缩(Squeeze);上述压缩步骤具体通过以下方式进行:
Figure BDA0003435369560000121
步骤B,激励,使用C/r个1×1×C和C个1×1×C/r卷积输出1×1×C大小,这里的r是缩放因子,可以取值16用来减轻网络的计算复杂度和参数量;其中,z表示步骤A中压缩得到的结果;Fex表示激励(Excitation);S表示特征图的权重;g表示激励操作;上述激励步骤具体通过以下方式进行:
S=Fex(z,W)=σ(g(z,W))=σ(W2δ(W1z)).
步骤C,规整,将获得的输入特征图U的各个通道的权重与原始特征融合,这里的融合是进行逐通道相乘,输出带有注意力机制的特征图;其中,Fscale表示规整;Sc表示激励得到的结果;上述规整步骤具体通过以下方式进行:
Figure BDA0003435369560000122
具体地,每个编码单元在收到上一级编码单元输入的编码特征后,会首先通过卷积层对编码特征进行卷积处理,将卷积处理后的编码特征及基于注意力机制进行冗余去除处理,得到冗余去除后的编码特征并进行最大池化处理后输入下一级编码单元,完成对音频特征的编码处理。
本公开实施例提供的技术方案中,通过编码网络中的多级编码单元对音频特征进行多次编码处理,在每个编码单元中,还通过SE-block进行冗余去除处理,使得每一级编码单元输出的编码特征具备低冗余、高丰富度的特点。
在一示例性实施例中,如图9所示,上述步骤S520,通过多级解码单元分别提取音频特征对应的不同深度的解码特征,包括:
步骤S910,在下一级解码单元中,将上一级解码单元输出的解码特征输入卷积层,得到卷积结果;
步骤S920,将卷积结果输入中间层,在中间层中基于注意力机制,对卷积结果进行冗余去除处理;
步骤S930,将冗余去除处理后的卷积结果输入上卷积层,将上卷积层输出的特征作为下一级解码单元输出的解码特征。
其中,在解码网络中,每个解码单元之间通过上卷积层相互连接,即上一级解码单元将输出的解码特征通过上卷积层进行上卷积处理后输入下一级解码单元。每个解码单元中采用与编码单元同样的SE-block层进行冗余去除处理,其原理与编码单元中的SE-block层相同,此处不再赘述。
进一步地,解码网络中最后一级解码单元可以采用如图10所示的结构,即包含有两层卷积层对输入的解码特征进行卷积处理,以及基于注意力机制的中间层对卷积处理后的卷积结果进行冗余去除处理,得到最终输出的解码特征。
本公开实施例提供的技术方案中,通过解码网络中的多级解码单元对音频特征进行多次解码处理,在每个解码单元中,还通过SE-block进行冗余去除处理,使得每一级解码单元输出的解码特征具备低冗余、高丰富度的特点。
在一示例性实施例中,基于目标音频特征,确定待识别音频对应的分类识别结果,包括:将目标音频特征输入预先训练的分类模型,确定出目标音频特征与多个预设标签对应的概率,将概率最大的预设标签作为待识别音频对应的分类识别结果。
其中,预先训练的分类模型至少可以由softmax分类器与全连接层构建得到。
具体地,预先训练的分类模型能够对输入的目标音频特征进行分类识别,得到与多个预设标签对应的概率;根据概率最大的预设标签即可确定待识别音频对应的分类识别结果。
本公开实施例提供的技术方案中,通过预先训练的分类模型对融合后多层次的目标音频特征进行分类识别,提高了音频分类识别的准确性和识别的效率。
在一示例性实施例中,获取待识别音频的音频特征,包括:对待识别音频进行短时傅里叶变换,得到短时傅里叶变换结果;对短时傅里叶变换结果进行梅尔频谱系数转换处理,得到待识别音频的梅尔频谱,并作为待识别音频的音频特征。
具体地,终端先对待识别进行短时傅里叶变化,得到短时傅里叶变化结果,短时傅里叶变化过程可以根据实际需要确定,比如设置短时傅里叶变换的时间窗口参数W1,尺寸可以为RT*F等,其中,R表示实数,T表示时间,F表示频域;且短时傅里叶变化结果的样式可以根据实际需要确定。得到短时傅里叶变换结果之后,还可以对短时傅里叶变换结果做梅尔频谱系数转换,得到梅尔频谱特征,其结构可以为RT*F,其中,R表示实数,T表示时间,F表示频域。根据需要对梅尔频谱特征进行截断处理后得到待识别音频相应的梅尔频谱,并作为待识别音频的音频特征。
本公开实施例提供的技术方案中,通过获取待识别音频的梅尔频谱作为U型卷积神经网络的输入,减少了输入数据的信息量,加快U型卷积神经网络的运行效率,提高了音频分类识别的效率。
在一示例性实施例中,如图11所示,提供了又一种音频分类识别方法,包括:
步骤S1102,对待识别音频进行短时傅里叶变换,得到短时傅里叶变换结果;对短时傅里叶变换结果进行梅尔频谱系数转换处理,得到待识别音频的梅尔频谱,并作为待识别音频的音频特征。
步骤S1104,输入音频特征至编码网络,在下一级编码单元中,将上一级编码单元输出的编码特征输入卷积层,得到卷积结果;将卷积结果输入中间层,在中间层中基于注意力机制,对卷积结果进行冗余去除处理;将冗余去除处理后的卷积结果输入池化层,将池化层输出的特征作为下一级编码单元输出的编码特征,其中上一级编码单元输出的编码特征作为下一级编码单元的输入。
步骤S1106,将最后一级编码单元输出的编码特征输入解码网络,在下一级解码单元中,将上一级解码单元输出的解码特征输入卷积层,得到卷积结果;将卷积结果输入中间层,在中间层中基于注意力机制,对卷积结果进行冗余去除处理;将冗余去除处理后的卷积结果输入上卷积层,将上卷积层输出的特征作为下一级解码单元输出的解码特征;其中,第一级解码单元基于最后一级编码单元输出的编码特征以及与之对称的编码单元输出的编码特征提取解码特征,其他解码单元基于上一级解码单元输出的解码特征以及与之对称的编码单元输出的编码特征提取解码特征。
步骤S1108,获取最后一级解码单元输出的解码特征作为第一特征,获取第一级编码单元输出的编码特征,以及最后一级编码单元输出的编码特征,作为第二特征,将第一特征与第二特征融合,得到目标音频特征。
步骤S1110,将目标音频特征输入预先训练的分类模型,确定出目标音频特征与多个预设标签对应的概率,将概率最大的预设标签作为待识别音频对应的分类识别结果。
通过获取待识别音频的音频特征;然后将音频特征输入U型卷积神经网络,对U型卷积神经网络的末端解码单元输出的第一特征,以及U型卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到待识别音频的目标音频特征;最后基于目标音频特征,确定待识别音频对应的分类识别结果;实现了将U型卷积神经网络与音频分类识别进行结合,将音频特征利用U型卷积神经网络进行特征提取并融合,得到了待识别音频的多层次的目标音频特征,并依据该目标音频特征对待识别音频进行分类识别,提高了音频分类识别的准确性。
应该理解的是,虽然图2、5、7、9、11的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图图2、5、7、9、11中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
可以理解的是,本说明书中上述方法的各个实施例之间相同/相似的部分可互相参见,每个实施例重点说明的是与其他实施例的不同之处,相关之处参见其他方法实施例的说明即可。
图12是根据一示例性实施例示出的一种音频分类识别装置框图。参照图12,该装置包括特征获取单元1202,特征融合单元1204和特征识别单元1206。
特征获取单元1202被配置为执行获取待识别音频的音频特征;
特征融合单元1204被配置为执行将音频特征输入目标卷积神经网络,对目标卷积神经网络的末端解码单元输出的第一特征,以及目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到待识别音频的目标音频特征;
特征识别单元1206,被配置为执行基于目标音频特征,确定待识别音频对应的分类识别结果。
在一示例性实施例中,目标卷积神经网络为U型卷积神经网络,U型卷积神经网络中包括编码网络与解码网络;编码网络包括多级编码单元,解码网络包括多级解码单元;
特征融合单元1204,还被配置为执行输入音频特征至编码网络,通过多级编码单元分别提取音频特征对应的不同深度的编码特征,其中上一级编码单元输出的编码特征作为下一级编码单元的输入;将最后一级编码单元输出的编码特征输入解码网络,通过多级解码单元分别提取音频特征对应的不同深度的解码特征;其中,第一级解码单元基于最后一级编码单元输出的编码特征以及与之对称的编码单元输出的编码特征提取解码特征,其他解码单元基于上一级解码单元输出的解码特征以及与之对称的编码单元输出的编码特征提取解码特征;获取最后一级解码单元输出的解码特征作为第一特征,获取至少一级编码单元输出的编码特征作为第二特征,将第一特征与第二特征融合,得到目标音频特征。
在一示例性实施例中,特征融合单元1204,还被配置为执行获取第一级编码单元输出的编码特征,以及最后一级编码单元输出的编码特征,作为第二特征。
在一示例性实施例中,特征融合单元1204,还被配置为执行在下一级编码单元中,将上一级编码单元输出的编码特征输入卷积层,得到卷积结果;将卷积结果输入中间层,在中间层中基于注意力机制,对卷积结果进行冗余去除处理;将冗余去除处理后的卷积结果输入池化层,将池化层输出的特征作为下一级编码单元输出的编码特征。
在一示例性实施例中,特征融合单元1204,还被配置为执行在下一级解码单元中,将上一级解码单元输出的解码特征输入卷积层,得到卷积结果;将卷积结果输入中间层,在中间层中基于注意力机制,对卷积结果进行冗余去除处理;将冗余去除处理后的卷积结果输入上卷积层,将上卷积层输出的特征作为下一级解码单元输出的解码特征。
在一示例性实施例中,特征识别单元1206,还被配置为执行将目标音频特征输入预先训练的分类模型,确定出目标音频特征与多个预设标签对应的概率,将概率最大的预设标签作为待识别音频对应的分类识别结果。
在一示例性实施例中,特征获取单元1202,还被配置为执行对待识别音频进行短时傅里叶变换,得到短时傅里叶变换结果;对短时傅里叶变换结果进行梅尔频谱系数转换处理,得到待识别音频的梅尔频谱,并作为待识别音频的音频特征。
图13是根据一示例性实施例示出的一种用于音频分类识别的电子设备1300的框图。例如,电子设备1300可以是移动电话、计算机、数字广播终端、消息收发设备、游戏控制台、平板设备、医疗设备、健身设备、个人数字助理等。
参照图13,电子设备1300可以包括以下一个或多个组件:处理组件1302、存储器1304、电源组件1306、多媒体组件1308、音频组件1310、输入/输出(I/O)的接口1312、传感器组件1314以及通信组件1316。
处理组件1302通常控制电子设备1300的整体操作,诸如与显示、电话呼叫、数据通信、相机操作和记录操作相关联的操作。处理组件1302可以包括一个或多个处理器1320来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1302可以包括一个或多个模块,便于处理组件1302和其他组件之间的交互。例如,处理组件1302可以包括多媒体模块,以方便多媒体组件1308和处理组件1302之间的交互。
存储器1304被配置为存储各种类型的数据以支持在电子设备1300的操作。这些数据的示例包括用于在电子设备1300上操作的任何应用程序或方法的指令、联系人数据、电话簿数据、消息、图片、视频等。存储器1304可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器、磁盘、光盘或石墨烯存储器。
电源组件1306为电子设备1300的各种组件提供电力。电源组件1306可以包括电源管理***,一个或多个电源,及其他与为电子设备1300生成、管理和分配电力相关联的组件。
多媒体组件1308包括在电子设备1300和用户之间的提供输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1308包括前置摄像头和/或后置摄像头。当电子设备1300处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是固定的光学透镜***或具有焦距和光学变焦能力。
音频组件1310被配置为输出和/或输入音频信号。例如,音频组件1310包括麦克风(MIC),当电子设备1300处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1304或经由通信组件1316发送。在一些实施例中,音频组件1310还包括扬声器,用于输出音频信号。
I/O接口1312为处理组件1302和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1314包括一个或多个传感器,用于为电子设备1300提供各个方面的状态评估。例如,传感器组件1314可以检测到电子设备1300的打开/关闭状态,组件的相对定位,例如组件为电子设备1300的显示器和小键盘,传感器组件1314还可以检测电子设备1300或电子设备1300组件的位置改变,用户与电子设备1300接触的存在或不存在,设备1300方位或加速/减速和电子设备1300的温度变化。传感器组件1314可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1314还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1314还可以包括加速度传感器、陀螺仪传感器、磁传感器、压力传感器或温度传感器。
通信组件1316被配置为便于电子设备1300和其他设备之间有线或无线方式的通信。电子设备1300可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件1316经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,通信组件1316还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备1300可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的计算机可读存储介质,例如包括指令的存储器1304,上述指令可由电子设备1300的处理器1320执行以完成上述方法。例如,计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供一种计算机程序产品,计算机程序产品中包括指令,上述指令可由电子设备1300的处理器1320执行以完成上述方法。
需要说明的,上述的装置、电子设备、计算机可读存储介质、计算机程序产品等根据方法实施例的描述还可以包括其他的实施方式,具体的实现方式可以参照相关方法实施例的描述,在此不作一一赘述。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种音频分类识别方法,其特征在于,包括:
获取待识别音频的音频特征;
将所述音频特征输入目标卷积神经网络,对所述目标卷积神经网络的末端解码单元输出的第一特征,以及所述目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到所述待识别音频的目标音频特征;
基于所述目标音频特征,确定所述待识别音频对应的分类识别结果。
2.根据权利要求1所述的方法,其特征在于,所述目标卷积神经网络为U型卷积神经网络,所述U型卷积神经网络中包括编码网络与解码网络;所述编码网络包括多级所述编码单元,所述解码网络包括多级解码单元;
所述对所述目标卷积神经网络的末端解码单元输出的第一特征,以及所述目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到所述待识别音频的目标音频特征,包括:
输入所述音频特征至所述编码网络,通过多级所述编码单元分别提取所述音频特征对应的不同深度的编码特征,其中上一级编码单元输出的编码特征作为下一级编码单元的输入;
将最后一级编码单元输出的编码特征输入所述解码网络,通过多级解码单元分别提取所述音频特征对应的不同深度的解码特征;其中,第一级解码单元基于所述最后一级编码单元输出的编码特征以及与之对称的编码单元输出的编码特征提取解码特征,其他解码单元基于上一级解码单元输出的解码特征以及与之对称的编码单元输出的编码特征提取解码特征;
获取最后一级解码单元输出的解码特征作为所述第一特征,获取至少一级编码单元输出的编码特征作为所述第二特征,将所述第一特征与所述第二特征融合,得到所述目标音频特征。
3.根据权利要求2所述的方法,其特征在于,所述获取至少一级编码单元输出的编码特征作为所述第二特征,包括:
获取第一级编码单元输出的编码特征,以及最后一级编码单元输出的编码特征,作为所述第二特征。
4.根据权利要求2所述的方法,其特征在于,所述通过多级所述编码单元分别提取所述音频特征对应的不同深度的编码特征,包括:
在所述下一级编码单元中,将上一级编码单元输出的所述编码特征输入卷积层,得到卷积结果;
将所述卷积结果输入中间层,在所述中间层中基于注意力机制,对所述卷积结果进行冗余去除处理;
将冗余去除处理后的卷积结果输入池化层,将所述池化层输出的特征作为所述下一级编码单元输出的编码特征。
5.根据权利要求2所述的方法,其特征在于,所述通过多级解码单元分别提取所述音频特征对应的不同深度的解码特征,包括:
在所述下一级解码单元中,将上一级解码单元输出的所述解码特征输入卷积层,得到卷积结果;
将所述卷积结果输入中间层,在所述中间层中基于注意力机制,对所述卷积结果进行冗余去除处理;
将冗余去除处理后的卷积结果输入上卷积层,将所述上卷积层输出的特征作为所述下一级解码单元输出的解码特征。
6.根据权利要求1所述的方法,其特征在于,所述基于所述目标音频特征,确定所述待识别音频对应的分类识别结果,包括:
将所述目标音频特征输入预先训练的分类模型,确定出所述目标音频特征与多个预设标签对应的概率,将概率最大的预设标签作为所述待识别音频对应的分类识别结果。
7.一种音频分类识别装置,其特征在于,包括:
特征获取单元,被配置为执行获取待识别音频的音频特征;
特征融合单元,被配置为执行将所述音频特征输入目标卷积神经网络,对所述目标卷积神经网络的末端解码单元输出的第一特征,以及所述目标卷积神经网络中的至少一个编码单元输出的第二特征,进行特征融合处理,得到所述待识别音频的目标音频特征;
特征识别单元,被配置为执行基于所述目标音频特征,确定所述待识别音频对应的分类识别结果。
8.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至6中任一项所述的音频分类识别方法。
9.一种计算机可读存储介质,其特征在于,当所述计算机可读存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至6中任一项所述的音频分类识别方法。
10.一种计算机程序产品,所述计算机程序产品中包括指令,其特征在于,所述指令被电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至6任一项所述的音频分类识别方法。
CN202111610788.4A 2021-12-27 2021-12-27 音频分类识别方法、装置、电子设备及存储介质 Active CN114333804B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111610788.4A CN114333804B (zh) 2021-12-27 2021-12-27 音频分类识别方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111610788.4A CN114333804B (zh) 2021-12-27 2021-12-27 音频分类识别方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN114333804A true CN114333804A (zh) 2022-04-12
CN114333804B CN114333804B (zh) 2024-07-12

Family

ID=81013233

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111610788.4A Active CN114333804B (zh) 2021-12-27 2021-12-27 音频分类识别方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN114333804B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115602165A (zh) * 2022-09-07 2023-01-13 杭州优航信息技术有限公司(Cn) 基于金融***的数字员工智能***
WO2024012284A1 (zh) * 2022-07-13 2024-01-18 北京有竹居网络技术有限公司 音频识别方法、装置、电子设备和计算机程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390363A (zh) * 2019-07-29 2019-10-29 上海海事大学 一种图像描述方法
CN111223488A (zh) * 2019-12-30 2020-06-02 Oppo广东移动通信有限公司 语音唤醒方法、装置、设备及存储介质
US20210134312A1 (en) * 2019-11-06 2021-05-06 Microsoft Technology Licensing, Llc Audio-visual speech enhancement
CN113780140A (zh) * 2021-08-31 2021-12-10 河北大学 基于深度学习的手势图像分割与识别方法以及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390363A (zh) * 2019-07-29 2019-10-29 上海海事大学 一种图像描述方法
US20210134312A1 (en) * 2019-11-06 2021-05-06 Microsoft Technology Licensing, Llc Audio-visual speech enhancement
CN111223488A (zh) * 2019-12-30 2020-06-02 Oppo广东移动通信有限公司 语音唤醒方法、装置、设备及存储介质
CN113780140A (zh) * 2021-08-31 2021-12-10 河北大学 基于深度学习的手势图像分割与识别方法以及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BIN XIAO ET AL.: "Global-Feature Encoding U-Net (GEU-Net) for Multi-Focus Image Fusion", IEEE TRANSACTIONS ON IMAGE PROCESSING, 28 October 2020 (2020-10-28), pages 163 - 175, XP011821031, DOI: 10.1109/TIP.2020.3033158 *
JUNG-WOOK HWANG ET AL.: "Efficient Audio-Visual Speech Enhancement Using Deep U-Net With Early Fusion of Audio and Video Information and RNN Attention Blocks", IEEE ACCESS, 5 October 2021 (2021-10-05), pages 137584 - 137598, XP011882813, DOI: 10.1109/ACCESS.2021.3118211 *
黄磊等: "基于多特征U-Net网络的工程活动图斑快速识别", 测绘通报, vol. 537, no. 12, 25 December 2021 (2021-12-25), pages 75 - 78 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024012284A1 (zh) * 2022-07-13 2024-01-18 北京有竹居网络技术有限公司 音频识别方法、装置、电子设备和计算机程序产品
CN115602165A (zh) * 2022-09-07 2023-01-13 杭州优航信息技术有限公司(Cn) 基于金融***的数字员工智能***

Also Published As

Publication number Publication date
CN114333804B (zh) 2024-07-12

Similar Documents

Publication Publication Date Title
CN109801644B (zh) 混合声音信号的分离方法、装置、电子设备和可读介质
CN110659640B (zh) 文本序列的识别方法及装置、电子设备和存储介质
CN111612070B (zh) 基于场景图的图像描述生成方法及装置
CN110909815B (zh) 神经网络训练、图像处理方法、装置及电子设备
CN109887515B (zh) 音频处理方法及装置、电子设备和存储介质
CN114333804B (zh) 音频分类识别方法、装置、电子设备及存储介质
CN111242303B (zh) 网络训练方法及装置、图像处理方法及装置
CN111583919B (zh) 信息处理方法、装置及存储介质
CN111210844B (zh) 语音情感识别模型的确定方法、装置、设备及存储介质
CN108038102A (zh) 表情图像的推荐方法、装置、终端及存储介质
CN110633470A (zh) 命名实体识别方法、装置及存储介质
CN115100472A (zh) 展示对象识别模型的训练方法、装置和电子设备
CN110930984A (zh) 一种语音处理方法、装置和电子设备
CN108320208A (zh) 车辆推荐方法及装置
CN114332503A (zh) 对象重识别方法及装置、电子设备和存储介质
CN109388699A (zh) 输入方法、装置、设备及存储介质
CN114446318A (zh) 音频数据分离方法、装置、电子设备及存储介质
CN112948565A (zh) 人机对话方法、装置、电子设备及存储介质
CN113923517B (zh) 一种背景音乐生成方法、装置及电子设备
CN111831132A (zh) 一种信息推荐方法、装置和电子设备
CN111860552A (zh) 基于核自编码器的模型训练方法、装置及存储介质
CN114036937A (zh) 场景布局预测网络的训练方法及场景布局的估计方法
CN112149653A (zh) 信息处理方法、装置、电子设备及存储介质
CN110119735A (zh) 视频的文字检测方法及装置
CN117153166B (zh) 语音唤醒方法、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant