CN114550731A - 一种音频识别方法、装置、电子设备及存储介质 - Google Patents
一种音频识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114550731A CN114550731A CN202210343564.XA CN202210343564A CN114550731A CN 114550731 A CN114550731 A CN 114550731A CN 202210343564 A CN202210343564 A CN 202210343564A CN 114550731 A CN114550731 A CN 114550731A
- Authority
- CN
- China
- Prior art keywords
- audio
- identified
- determining
- compression function
- nonlinear
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000006870 function Effects 0.000 claims abstract description 74
- 230000006835 compression Effects 0.000 claims abstract description 68
- 238000007906 compression Methods 0.000 claims abstract description 68
- 238000004590 computer program Methods 0.000 claims abstract description 15
- 238000000605 extraction Methods 0.000 claims description 31
- 230000005236 sound signal Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 14
- 238000005070 sampling Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000011176 pooling Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 238000001914 filtration Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/20—Pattern transformations or operations aimed at increasing system robustness, e.g. against channel noise or different working conditions
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种音频识别方法、装置、电子设备、可读存储介质以及计算机程序产品,涉及人工智能、安全认证技术以及声纹识别技术领域。具体实现方案为:基于待识别音频在频域对应的第一音频特征,确定所述待识别音频在实数域对应的第二音频特征;利用目标压缩函数对所述第二音频特征进行特征压缩,获得所述待识别音频对应的非线性音频特征,所述目标压缩函数为预先对可平滑对数压缩函数进行参数学***滑对数压缩函数中包括预设的可学习参数;基于所述非线性音频特征,确定所述待识别音频对应的音频识别结果。该方案能够在无需人工提取音频特征的情况下,高效的模拟出待识别音频的非线性,进而能够提高音频识别的安全性和识别效率。
Description
技术领域
本公开涉及人工智能领域,进一步涉及安全认证技术、声纹识别技术领域,具体涉及一种音频识别方法、装置、电子设备、可读存储介质以及计算机程序产品。
背景技术
随着计算机技术和人工智能技术的快速发展,生物识别技术也得到了快速的推广与发展。生物识别技术作为一种利用人体固有的生物特征来进行个人身份认证的技术,具有不易遗忘以及随时随地可用等优点。
但是,生物识别技术在应用过程中也会面临安全性低以及识别效率较低等诸多问题。例如:利用使用者的音频特征来进行个人身份认证的音频识别技术,在应用过程中往往会面临恶意欺骗攻击的问题。
发明内容
本公开提供了提供一种音频识别方法、装置、电子设备、可读存储介质以及计算机程序产品,以提高音频识别的安全性和识别效率。
根据本公开的一方面,提供了一种音频识别方法,该方法可以包括以下步骤:
基于待识别音频在频域对应的第一音频特征,确定待识别音频在实数域对应的第二音频特征;
利用目标压缩函数对第二音频特征进行特征压缩,获得待识别音频对应的非线性音频特征,目标压缩函数为预先对可平滑对数压缩函数进行参数学***滑对数压缩函数中包括预设的可学习参数;
基于非线性音频特征,确定待识别音频对应的音频识别结果根据本公开的第二方面,提供了一种音频识别装置,该装置可以包括:
第二音频特征确定单元,用于基于待识别音频在频域对应的第一音频特征,确定待识别音频在实数域对应的第二音频特征;
非线性音频特征确定单元,用于利用目标压缩函数对第二音频特征进行特征压缩,获得待识别音频对应的非线性音频特征,目标压缩函数为预先对可平滑对数压缩函数进行参数学***滑对数压缩函数中包括预设的可学习参数;
音频识别结果确定单元,用于基于非线性音频特征,确定待识别音频对应的音频识别结果。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机执行本公开任一实施例中的方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序/指令,其特征在于,该计算机程序/指令被处理器执行时实现本公开任一实施例中的方法。
本公开的技术,利用对可平滑对数压缩函数进行参数学***滑对数压缩函数能够使非线性音频特征的获得过程较为简单。并且通过对可平滑对数压缩函数进行参数学习得到的目标压缩函数,能够在无需人工提取音频特征的情况下,高效的模拟出待识别音频的非线性,进而能够提高音频识别的安全性和识别效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开的实施例提供一种音频识别方法的流程图;
图2为本公开的实施例中提供的一种非线性音频特征获得方法的流程图;
图3为本公开的实施例中提供的一种音频识别结果确定方法的流程图;
图4为本公开的实施例中提供的一种音频识别结果获得方法的流程图;
图5为本公开的实施例中提供的一种音频识别过程的示意图;
图6为本公开的实施例中提供一种音频识别装置的示意图;
图7为本公开的实施例中提供的一种电子设备的示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开的实施例提供一种音频识别方法,具体请参照图1,其为本公开的实施例提供一种音频识别方法的流程图,该方法可以包括如下步骤:
步骤S101:基于待识别音频在频域对应的第一音频特征,确定待识别音频在实数域对应的第二音频特征。
步骤S102:利用目标压缩函数对第二音频特征进行特征压缩,获得待识别音频对应的非线性音频特征,目标压缩函数为预先对可平滑对数压缩函数进行参数学***滑对数压缩函数中包括预设的可学习参数。
步骤S103:基于非线性音频特征,确定待识别音频对应的音频识别结果。
本公开的实施例中提供的音频识别方法,利用对可平滑对数压缩函数进行参数学***滑对数压缩函数能够使非线性音频特征的获得过程较为简单。并且通过对可平滑对数压缩函数进行参数学习得到的目标压缩函数,能够在无需人工提取音频特征的情况下,高效的模拟出待识别音频的非线性,进而能够提高音频识别的安全性和识别效率。
另外,在可平滑对数压缩函数中预设可学***滑对数压缩函数能够接入到特定的神经网络模型中进行端到端的训练。
待识别音频属于随着时间的变化而变化的时域信号,一般为非线性时域信号。在实际应用中,待识别音频可以是:基于预设的音频采集设备,针对目标对象采集到的音频;也可以是:对音频采集设备采集到的音频进行音频预处理后获得的已处理音频。
本公开的实施例中,对音频进行音频预处理的方式包括但不限于:噪音去除以及音频时域增强。其中,噪音去除的目的是:去除音频采集设备采集到的音频中的环境噪音、忙音或者手机外放产生的声音等;音频时域增强的目的是:混叠回声,或者改变音频的语速速率等。
通过对音频采集设备采集到的音频进行音频预处理,来获得待识别音频,能够降低待识别音频中的干扰因素,提高待识别音频的音频质量,从而能够提高音频识别结果的准确度。
本公开的实施例中,具体可以通过预先训练好的目标音频识别模型来实现该音频识别方法。即,上述步骤S101-步骤S104可以通过目标音频识别模型来实现。
所谓目标音频识别模型为基于音频样本以及对应的标注,对待训练的音频识别模型进行模型训练得到的模型。目标音频识别模型用于识别待识别音频获得音频识别结果。
为了使目标音频识别模型能够实现上述步骤S101-步骤S104,待训练的音频识别模型以及目标音频识别模型需要至少需要包括用于进行音频特征提取的第一子模型子模型,以及用于基于非线性音频特征确定音频识别结果的第二子模型。具体的,第一子模型中至少包括第一音频特征提取层、第二音频特征提取层以及第三音频特征提取层。
需要说明的是,第一音频特征提取层为针对待识别音频获得第一音频特征的特征提取层。第二音频特征提取层为基于第一音频特征获得第二音频特征特征提取层。第三音频特征提取层为第二音频特征获得非线性音频特征的特征提取层。也就是说,目标压缩函数属于目标音频识别模型中用于获得非线性音频特征的特征提取层。
本公开的实施例中,针对第一音频特征提取层以及第三音频特征提取层可以分别预先设置可学***滑对数压缩函数进行参数学***滑对数压缩函数进行参数学习,获得目标压缩函数。
针对第一音频特征提取层以及第三音频特征提取层预设可学习参数,能够增强目标音频识别模型的泛化能力。另外,由于可以通过对预设的可学习参数进行参数学习,来训练第一音频特征提取层以及第三音频特征用于音频特征提取,从而能够在无需人工提取音频特征的情况下,提取非线性音频特征,以用于确定音频识别结果。因此,能够提高音频识别的安全性和识别效率。
本公开的实施例中,第一音频特征提取层核心为N个带通滤波器(Gabor滤波器),N个Gabor滤波器能够分别基于高斯核对待识别音频进行卷积操作,从而获得第一音频特征。对于N个Gabor滤波器而言,N个Gabor滤波器中的每个Gabor滤波器均可以形式化为如下公式:
上述公式中,t用于表示时间,n用于表示N个Gabor滤波器中的第n个,ηn用于表示第n个Gabor滤波器的中心频率,σn用于表示第n个Gabor滤波器的逆带宽,W用于表示Gabor滤波器的长度,为复数算子,ηn用于表示Gabor滤波器的中心频率。
本公开的实施例中,第三音频特征提取层的核心为包括预设的可学***滑对数压缩函数。其中,可平滑对数压缩函数的函数形式为:F(x)=s*log(1+θx)。
上述公式中,x用于表示第二音频特征,s用于表示平滑参数矩阵,θ用于表示第二音频特征的权重。由于F(x)可微,因此,参数s以及θ参数均可预设为可学习参数。
本公开的实施例中,基于音频样本以及对应的标注,对待训练的音频识别模型进行模型训练的具体实现方式如下:
首先,采集音频样本,并针对音频样本进行对应标注,聚德标注的信息为:音频样本对应的实际音频识别结果。
然后,将音频样本以及对应的标注输入到待训练的音频识别模型中,获得待训练的音频识别模型针对音频样本输出的当前音频识别结果。利用预设的损失函数,获得实际音频识别结果与当前音频识别结果之间的损失函数值,并基于该损失函数值对待训练的音频识别模型进行参数更新。反复迭代多伦上述步骤,在损失函数收敛的情况下,获得目标音频识别模型。
本公开的实施例中,预设的损失函数一般为:针对人脸识别的损失函数(ArcFace-Softmax Loss,AAM-Softmax Loss),也可为其他类型的损失函数。本公开的实施例中对损失函数的形式或者种类不做具体限定。
另外,所谓参数是指网络模型参数,对待训练的音频识别模型进行参数更新的方式可以为:利用自适应的动量估计算法(Adaptive Momentum Estimation,ADAM)更新待训练的音频识别模型中的可学习参数。
本公开的实施例中,步骤S102的具体实现方式如图2所示,图2为本公开的实施例中提供的一种非线性音频特征获得方法的流程图,该方法可以包括以下步骤:
步骤S201:对第二音频特征进行特征采样,获得第二音频特征对应的采样音频特征。
步骤S202:将采样音频特征输入到目标压缩函数中,获得非线性音频特征。
对第二音频特征进行特征采样,能够压缩第二音频特征,从而可以减小后续特征处理过程中的计算量、降低后续特征处理的内存消耗。
本公开的实施例中,对第二音频特征进行特征采样的方式为:对第二音频特征进行下采样。
相应的,在利用目标音频识别模型来实现步骤S102的情况下,可以通过目标音频识别模型中的滤波池化层来进行卷积池化,从而将第二音频特征下采样到较低的采样率,以获得采样音频特征。
具体的,滤波池化层为预设在待训练的音频识别模型中的特征提取层。在目标音频识别模型中,滤波池化层中的每个卷积通道都与一个高通滤波器相关联,并通过每个卷积通道上对应的高通滤波器针对第二音频特征进行滤波,从而实现对第二音频特征的下采样。
通过每个卷积通道上对应的高通滤波器进行滤波,来对音频特征进行下采样的优势在于:由于每个卷积通道的卷积核参数(高通滤波器的带宽)是可学习的,从而可以根据不同的音频识别任务,学习到适用于对应音频识别任务的带宽信息。
也就是说,本公开的实施例中的目标音频识别模型还可以包括用于对第二音频特征进行特征采样的滤波池化层。另外,对于待训练的音频识别模型而言,可以针对该滤波池化层预先设置可学习的参数。例如,高通滤波器的带宽。
在针对该滤波池化层预先设置可学习的参数的情况下,对滤波池化层中的可学习参数进行参数学习的方式为:在针对待训练的音频识别模型进行模型训练,获得目标音频识别模型的过程中,对高通滤波器的带宽进行参数学习。
本公开的实施例中提供的音频识别方法,可应用于音频分类,此时,音频识别结果为待识别音频对应的音频类型。具体的,音频分类可以为:对待识别音频进行真实人声和非真实人声的分类。还可以为对其他音频进行音频分类,例如:确定待识别音频对应的发声对象等。
在音频分类为对待识别音频进行真实人声和非真实人声的分类的情况下,音频识别结果包括用于表示待识别音频是否为真实人声的识别结果。此时,确定待识别音频对应的音频识别结果的步骤如图3所示,图3为本公开的实施例中提供的一种音频识别结果确定方法的流程图,该音频识别结果的确定方法可以包括如下步骤:
步骤S301:基于非线性音频特征,确定待识别音频为真实人声的概率。
步骤S302:基于概率,确定音频识别结果。
本公开的实施例中提供的音频识别方法,在确定出待识别音频为真实人声的概率后,会进一步基于该概率确定出待识别音频是否为真实人声,从而能够确定出是否为真实人声。因此,能够有效防止在利用使用者的音频特征来进行个人身份认证时,攻击者使用录音音频等伪造人声当作真实人声,进而能够提高利用使用者的音频特征来进行个人身份认证的安全性。
本公开的实施例中,基于概率,确定音频识别结果的识别方式如图4所示,图4为本公开的实施例中提供的一种音频识别结果获得方法的流程图,该方法可以包括如下步骤:
步骤S401:在概率满足预设条件的情况下,确定待识别音频为真实人声。
步骤S402:将待识别音频为真实人声确定为音频识别结果。
在概率满足预设条件的情况下,才将待识别音频确定为真实人声,能够提高音频识别结果的精确度。
所谓预设条件可以包括:概率达到对应的概率阈值,例如:50%。进一步的,该预设条件可以为:待识别音频为真实人声的概率大于或等于待识别音频为非真实人声的概率。此时,确定待识别音频为真实人声的具体实现方式如下:
首先,在确定待识别音频为真实人声的概率后,将待识别音频为真实人声的概率确定为第一概率,同时,基于非线性音频特征,确定待识别音频为分真实人声的概率,并将待识别音频为分真实人声的概率确定为第二概率。然后,将第一概率与第二概率进行比较,并在第一概率大于或等于第二概率的情况下,确定待识别音频为真实人声。
另外,在第一概率小于第二概率的情况下,则可以确定待识别音频为非真实人声。
在基于目标音频识别模块来进行音频识别时,可以将第二子模型设置成基于ECAPA-TDNN分类器为核心的模块。ECAPA-TDNN分类器能够基于非线性音频特征,分别获得待识别音频为真实人声的概率以及待识别音频为非真实人声的概率。另外,本公开的实施例中,也可以采用其他类型的第二子模型,来基于非线性音频特征,确定音频识别结果。
本公开的实施例中,第一音频特征的确定方式如下:首先,将待识别音频由时域信号转化为频域信号,获得待识别音频对应的频域音频信号。然后,将频域音频信号确定为第一音频特征。
由于频域信号能够更为直观、方便的表示出待识别音频的音频特性,因此,将频域音频信号确定为第一音频特征,能够确保第一音频特征可以更为直观、方便的表示出待识别音频的音频特性。
本公开的实施例中,确定待识别音频在实数域对应的第二音频特征的方式为:首先,将第一音频特征由频域信号转化为实数域信号,获得待识别音频对应的实数域音频信号。然后,将实数域音频信号确定为第二音频特征。
通过将第一音频特征由频域信号转化为实数域信号,来获得第二音频特征,能够在第二音频特征中增加非线性因素,进而能够增强第二音频特征的特征表达能力。
本公开的实施例中,可以基于平方激活函数等其他预设的方式,将第一音频特征由频域信号转化为实数域信号。相应的,在基于目标音频识别模块来进行音频识别时,可以将平方激活函数作为第二音频特征提取层的核心。
以下具体以通过目标音频识别模型,识别待识别音频是否为真实人声为例,来对本公开的实施例中提供的音频识别方法进行详细的说明。具体请参照图5,其为本公开的实施例中提供的一种音频识别过程的示意图,该音频识别过程如下:
第一,将待识别音频输入到目标音频识别模型中,由第一子模型中的第一音频特征提取层基于N个Gabor滤波器,对待识别音频进行卷积操作,从而获得第一音频特征,并将第一音频特征输出至第二音频特征提取层。
第二,第二音频特征提取层在获得第一音频特征后,第二音频特征提取层会基于平方激活函数,将第一音频特征由频域信号转化为实数域信号,从而获得第二音频特征,并将第二音频特征输出至滤波池化层。
第三,滤波池化层在获得第二音频特征后,会通过每个卷积通道上对应的高通滤波器针对第二音频特征进行滤波,从而实现对第二音频特征的下采样,以获得第二音频特征对应的采样音频特征,并将采样音频特征输出至第三音频特征提取层。
第四,第三音频特征提取层在获得采样音频特征后,会基于目标压缩函数对第三音频特征进行特征压缩,从而获得非线性音频特征,并将非线性音频特征输入至第二子模型。
第五,第二子模型在获得非线性音频特征后会基于ECAPA-TDNN分类器,分别获得待识别音频为真实人声的概率以及待识别音频为非真实人声的概率,并进一步基于待识别音频为真实人声的概率以及待识别音频为非真实人声的概率,确定待识别音频是否为真实人声,从而获得音频识别结果。
如图6所示,本公开的实施例提供一种音频识别装置,该装置包括:
第二音频特征确定单元601,用于基于待识别音频在频域对应的第一音频特征,确定待识别音频在实数域对应的第二音频特征;
非线性音频特征确定单元602,用于利用目标压缩函数对第二音频特征进行特征压缩,获得待识别音频对应的非线性音频特征,目标压缩函数为预先对可平滑对数压缩函数进行参数学***滑对数压缩函数中包括预设的可学习参数;
音频识别结果确定单元603,用于基于非线性音频特征,确定待识别音频对应的音频识别结果。
在一种实施方式中,音频识别结果确定单元603,可以包括:
特征采样子单元,用于对第二音频特征进行特征采样,获得第二音频特征对应的采样音频特征;
非线性音频特征子单元,用于将采样音频特征输入到目标压缩函数中,获得非线性音频特征。
在一种实施方式中,音频识别结果确定单元603,可以包括:
目标音频识别模型训练模块,用于在训练获得目标音频识别模型的过程中,对可平滑对数压缩函数进行参数学习,获得目标压缩函数;
其中,目标音频识别模型为基于音频样本以及对应的标注训练得到的模型,用于识别待识别音频以获得音频识别结果,目标压缩函数属于目标音频识别模型中用于获得非线性音频特征的特征提取层。
在一种实施方式中,在音频识别结果包括用于表示待识别音频是否为真实人声的识别结果情况下,音频识别结果确定单元603,可以包括:
概率确定子单元,用于基于非线性音频特征,确定待识别音频为真实人声的概率;
音频识别结果确定子单元,用于基于概率,确定音频识别结果。
在一种实施方式中,音频识别结果确定子单元,可以包括:
真实人声确定子单元,用于在概率满足预设条件的情况下,确定待识别音频为真实人声;
真实人声识别结果确定子单元,用于将待识别音频为真实人声确定为音频识别结果。
在一种实施方式中,第二音频特征确定单元601,可以包括:
频域音频信号获得单元,用于将待识别音频由时域信号转化为频域信号,获得待识别音频对应的频域音频信号;
第一音频特征确定子单元,用于将频域音频信号确定为第一音频特征。
在一种实施方式中,第二音频特征确定单元601,可以包括:
实数域音频信号获得单元,用于将第一音频特征由频域信号转化为实数域信号,获得待识别音频对应的实数域音频信号;
第二音频特征确定子单元,用于将实数域音频信号确定为第二音频特征。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开实施例,本公开还提供了一种电子设备和一种可读存储介质。
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如音频识别方法。例如,在一些实施例中,音频识别方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的音频识别方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行音频识别方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程音频识别装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (11)
1.一种音频识别方法,包括:
基于待识别音频在频域对应的第一音频特征,确定所述待识别音频在实数域对应的第二音频特征;
利用目标压缩函数对所述第二音频特征进行特征压缩,获得所述待识别音频对应的非线性音频特征,所述目标压缩函数为预先对可平滑对数压缩函数进行参数学***滑对数压缩函数中包括预设的可学习参数;
基于所述非线性音频特征,确定所述待识别音频对应的音频识别结果。
2.根据权利要求1所述的方法,其中,所述利用目标压缩函数对所述第二音频特征进行特征压缩,获得所述待识别音频对应的非线性音频特征,包括:
对所述第二音频特征进行特征采样,获得所述第二音频特征对应的采样音频特征;
将所述采样音频特征输入到所述目标压缩函数中,获得所述非线性音频特征。
3.根据权利要求1或2所述的方法,其中,所述目标压缩函数的确定方式,包括:
在训练获得目标音频识别模型的过程中,对所述可平滑对数压缩函数进行参数学习,获得所述目标压缩函数;
其中,所述目标音频识别模型为基于音频样本以及对应的标注训练得到的模型,用于识别所述待识别音频以获得所述音频识别结果,所述目标压缩函数属于所述目标音频识别模型中用于获得所述非线性音频特征的特征提取层。
4.根据权利要求1或2所述的方法,其中,在所述音频识别结果包括用于表示所述待识别音频是否为真实人声的识别结果情况下,所述基于所述非线性音频特征,确定所述待识别音频对应的音频识别结果,包括:
基于所述非线性音频特征,确定所述待识别音频为所述真实人声的概率;
基于所述概率,确定所述音频识别结果。
5.根据权利要求4所述的方法,其中,所述基于所述概率,确定所述音频识别结果,包括:
在所述概率满足预设条件的情况下,确定所述待识别音频为所述真实人声;
将所述待识别音频为所述真实人声确定为所述音频识别结果。
6.根据权利要求1所述的方法,其中,所述第一音频特征的确定方式,包括:
将所述待识别音频由时域信号转化为频域信号,获得所述待识别音频对应的频域音频信号;
将所述频域音频信号确定为所述第一音频特征。
7.根据权利要求6所述的方法,其中,所述确定所述待识别音频在实数域对应的第二音频特征,包括:
将所述第一音频特征由频域信号转化为实数域信号,获得所述待识别音频对应的实数域音频信号;
将所述实数域音频信号确定为所述第二音频特征。
8.一种音频识别装置,包括:
第二音频特征确定单元,用于基于待识别音频在频域对应的第一音频特征,确定所述待识别音频在实数域对应的第二音频特征;
非线性音频特征确定单元,用于利用目标压缩函数对所述第二音频特征进行特征压缩,获得所述待识别音频对应的非线性音频特征,所述目标压缩函数为预先对可平滑对数压缩函数进行参数学***滑对数压缩函数中包括预设的可学习参数;
音频识别结果确定单元,用于基于所述非线性音频特征,确定所述待识别音频对应的音频识别结果。
9.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至7中任意一项所述的方法。
10.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使计算机执行权利要求1至7中任意一项所述的方法。
11.一种计算机程序产品,包括计算机程序/指令,其中,该计算机程序/指令被处理器执行时实现权利要求1至7所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210343564.XA CN114550731A (zh) | 2022-03-31 | 2022-03-31 | 一种音频识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210343564.XA CN114550731A (zh) | 2022-03-31 | 2022-03-31 | 一种音频识别方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114550731A true CN114550731A (zh) | 2022-05-27 |
Family
ID=81666247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210343564.XA Pending CN114550731A (zh) | 2022-03-31 | 2022-03-31 | 一种音频识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114550731A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115188109A (zh) * | 2022-07-26 | 2022-10-14 | 思必驰科技股份有限公司 | 设备音频解锁方法、电子设备和存储介质 |
CN118116408A (zh) * | 2024-04-29 | 2024-05-31 | 荣耀终端有限公司 | 音频识别方法、介质、电子设备及程序产品 |
-
2022
- 2022-03-31 CN CN202210343564.XA patent/CN114550731A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115188109A (zh) * | 2022-07-26 | 2022-10-14 | 思必驰科技股份有限公司 | 设备音频解锁方法、电子设备和存储介质 |
CN118116408A (zh) * | 2024-04-29 | 2024-05-31 | 荣耀终端有限公司 | 音频识别方法、介质、电子设备及程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114550731A (zh) | 一种音频识别方法、装置、电子设备及存储介质 | |
CN111276124B (zh) | 一种关键词识别方法、装置、设备及可读存储介质 | |
CN114242098A (zh) | 一种语音增强方法、装置、设备以及存储介质 | |
KR20220116395A (ko) | 사전 훈련 모델의 결정 방법, 장치, 전자 기기 및 저장 매체 | |
CN114360562A (zh) | 语音处理方法、装置、电子设备和存储介质 | |
CN114494814A (zh) | 基于注意力的模型训练方法、装置及电子设备 | |
CN112634880A (zh) | 话者识别的方法、装置、设备、存储介质以及程序产品 | |
CN114724144B (zh) | 文本识别方法、模型的训练方法、装置、设备及介质 | |
CN116363444A (zh) | 模糊分类模型训练方法、识别模糊图像的方法及装置 | |
CN116312559A (zh) | 跨信道声纹识别模型的训练方法、声纹识别方法及装置 | |
CN112786058B (zh) | 声纹模型训练方法、装置、设备以及存储介质 | |
CN115601042A (zh) | 信息识别方法、装置、电子设备及存储介质 | |
CN112820298B (zh) | 声纹识别方法及装置 | |
CN113361621B (zh) | 用于训练模型的方法和装置 | |
CN114078274A (zh) | 人脸图像检测方法、装置、电子设备以及存储介质 | |
CN114842541A (zh) | 模型的训练及人脸识别方法、装置、设备以及存储介质 | |
CN114220430A (zh) | 多音区语音交互方法、装置、设备以及存储介质 | |
CN114333912A (zh) | 语音激活检测方法、装置、电子设备和存储介质 | |
CN115809687A (zh) | 一种图像处理网络的训练方法及装置 | |
CN114171038A (zh) | 语音降噪方法、装置、设备、存储介质及程序产品 | |
CN115312042A (zh) | 用于处理音频的方法、装置、设备以及存储介质 | |
CN114882890A (zh) | 深度学习模型的训练方法、声纹识别方法、装置和设备 | |
CN112951268A (zh) | 音频识别方法、设备和存储介质 | |
CN115761717A (zh) | 题目图像的识别方法、装置、电子设备及存储介质 | |
CN113807413A (zh) | 对象的识别方法、装置、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |