CN110751942A - 一种识别特征声音的方法和装置 - Google Patents

一种识别特征声音的方法和装置 Download PDF

Info

Publication number
CN110751942A
CN110751942A CN201810801712.1A CN201810801712A CN110751942A CN 110751942 A CN110751942 A CN 110751942A CN 201810801712 A CN201810801712 A CN 201810801712A CN 110751942 A CN110751942 A CN 110751942A
Authority
CN
China
Prior art keywords
sound
characteristic
sound data
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810801712.1A
Other languages
English (en)
Inventor
李俊玲
王博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingdong Financial Technology Holding Co Ltd
Original Assignee
Beijing Jingdong Financial Technology Holding Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingdong Financial Technology Holding Co Ltd filed Critical Beijing Jingdong Financial Technology Holding Co Ltd
Priority to CN201810801712.1A priority Critical patent/CN110751942A/zh
Publication of CN110751942A publication Critical patent/CN110751942A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种识别特征声音的方法和装置,涉及计算机技术领域。该方法的一具体实施方式包括:对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据;从所述至少一段单元声音数据中,确定出属于特征声音的单元声音数据;根据所述属于特征声音的单元声音数据之间的时间距离,对其进行合并以得到特征声音片段。该方法能够提高声音识别的准确性,还可以进一步根据每段单元声音数据的起始时间和结束时间,准确的确定出每段特征声音片段的起始时间和结束时间。

Description

一种识别特征声音的方法和装置
技术领域
本发明涉及计算机技术领域,尤其涉及一种识别特征声音的方法和装置。
背景技术
随着计算机技术和深度学习的发展,借助声音特征的分析技术可以实现一些特征声音(咳嗽声、求救声或者打嗝声等)的识别,以达到自动监测的目的。这种监测方法具备成本低、效率高、全方位非接触监控的优点,能够在一定程度上降低人力成本。现有技术中对于特征声音的识别,一般是通过直接对获取的待检测声音数据进行判断处理。最终的结果为该一大段待检测声音中具有特征声音,或者不具有特征声音。该现有技术中识别特征声音的方法,不仅识别的准确性低,也无法确定出特征声音的起始时间和结束时间。
发明内容
有鉴于此,本发明实施例提供一种识别特征声音的方法和装置,能够提高声音识别的准确性,还可以进一步根据每段单元声音数据的起始时间和结束时间,准确的确定出每段特征声音片段的起始时间和结束时间。
为实现上述目的,根据本发明实施例的一个方面,提供了一种识别特征声音的方法。
本发明实施例的识别特征声音的方法包括:对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据;从所述至少一段单元声音数据中,确定出属于特征声音的单元声音数据;根据所述属于特征声音的单元声音数据之间的时间距离,对其进行合并以得到特征声音片段。
可选地,所述对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据的步骤包括:根据滑动窗口对待检测声音数据进行拆分处理;截取出单元声音数据,所述单元声音数据为每个滑动窗口中包括的声音数据。
可选地,从所述至少一段单元声音数据中,确定出属于特征声音的单元声音数据的步骤包括:通过训练的检测模型,确定每段单元声音数据为特征声音的概率;根据预设的概率阈值,从所述至少一段单元声音数据中,标注出属于特征声音的单元声音数据。
可选地,在通过训练的检测模型,确定每段单元声音数据为特征声音的概率之前,还包括:获取标注后的训练数据,其中标注为1的训练数据为特征声音,标注为0的训练数据为非特征声音;搭建包括3层二维卷积神经网络以及两层全连接层的网络模型,其中,最后一层全连接层包含有采用sigmoid激活函数的神经元;基于所述训练数据和所述网络模型,训练得到检测模型,其中目标损失函数Loss为:
Loss=-∑targets*log(predict)
targets表示真实值,取值为0或者1;predict表示预测值。
可选地,根据预设的概率阈值,从所述至少一段单元声音数据中,标注出属于特征声音的单元声音数据的步骤包括:判断单元声音数据为特征声音的概率是否大于预设的概率阈值,如果大于,则将该单元声音数据标注为1;否则标注为0;
根据所述属于特征声音的单元声音数据之间的时间距离,对其进行合并以得到特征声音片段的步骤包括:按照时间顺序,将连续标注为1的单元声音数据进行合并,以得到至少一段的初步特征声音片段。
可选地,在按照时间顺序,将连续标注为1的单元声音数据进行合并之后,还包括:判断所述至少一段的步特征声音片段之间的时间距离是否小于预设的距离偏移量;如果小于,则将其进行合并以得到特征声音片段。
可选地,在对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据之前,还包括:对所述待检测声音进行加重处理;通过汉明窗对所述加重处理后的待检测声音进行加窗处理。
可选地,所述滑动窗口的尺寸为0.3s-0.7s,所述滑动窗口的步长为70ms-85ms;和/或,所述特征声音为猪咳嗽声。
为实现上述目的,根据本发明实施例的另一个方面,提供了一种识别特征声音的装置。
本发明实施例的识别特征声音的装置包括:单元声音数据截取模块,用于对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据;特征声音确定模块,用于从所述至少一段单元声音数据中,确定出属于特征声音的单元声音数据;特征声音片段确定模块,用于根据所述属于特征声音的单元声音数据之间的时间距离,对其进行合并以得到特征声音片段。
可选地,所述单元声音数据截取模块,还用于根据滑动窗口对待检测声音数据进行拆分处理;截取出单元声音数据,所述单元声音数据为每个滑动窗口中包括的声音数据。
可选地,所述特征声音确定模块,还用于通过训练的检测模型,确定每段单元声音数据为特征声音的概率;根据预设的概率阈值,从所述至少一段单元声音数据中,标注出属于特征声音的单元声音数据。
可选地,还包括训练模块,用于获取标注后的训练数据,其中标注为1的训练数据为特征声音,标注为0的训练数据为非特征声音;搭建包括3层二维卷积神经网络以及两层全连接层的网络模型,其中,最后一层全连接层包含有采用sigmoid激活函数的神经元;基于所述训练数据和所述网络模型,训练得到检测模型,其中目标损失函数Loss为:
Loss=-∑targets*log(predict)
targets表示真实值,取值为0或者1;predict表示预测值。
可选地,所述特征声音确定模块,还用于判断单元声音数据为特征声音的概率是否大于预设的概率阈值,如果大于,则将该单元声音数据标注为1;否则标注为0;所述特征声音片段确定模块,还用于按照时间顺序,将连续标注为1的单元声音数据进行合并,以得到至少一段的初步特征声音片段。
可选地,所述特征声音片段确定模块,还用于判断所述至少一段的步特征声音片段之间的时间距离是否小于预设的距离偏移量;如果小于,则将其进行合并以得到特征声音片段。
可选地,还包括预处理模块,用于对所述待检测声音进行加重处理;通过汉明窗对所述加重处理后的待检测声音进行加窗处理。
可选地,所述滑动窗口的尺寸为0.3s-0.7s,所述滑动窗口的步长为70ms-85ms;和/或,所述特征声音为猪咳嗽声。
为实现上述目的,根据本发明实施例的再一个方面,提供了一种电子设备。
本发明实施例的电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述任一项的识别特征声音的方法。
为实现上述目的,根据本发明实施例的再一个方面,提供了一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现上述任一项的识别特征声音的方法。
上述发明中的一个实施例具有如下优点或有益效果:通过对待检测声音数据进行拆分处理,截取出单元声音数据,并对每段单元声音数据进行识别,确定每段单元声音数据是否为特征声音。最后,基于每段属于特征声音的单元声音数据之间的距离,对其进行合并,合并后的单元声音数据构成特征声音片段。本发明实施例不仅能够提高声音识别的准确性,还可以进一步根据每段单元声音数据的起始时间和结束时间,准确的确定出每段特征声音片段的起始时间和结束时间。
上述的非惯用的可选方式所具有的进一步效果将在下文中结合具体实施方式加以说明。
附图说明
附图用于更好地理解本发明,不构成对本发明的不当限定。其中:
图1是根据本发明实施例的识别特征声音的方法的主要流程的示意图;
图2是根据本发明实施例的识别猪咳嗽声的方法的示意图;
图3是根据本发明实施例的猪咳嗽声加重处理后的示意图;
图4是根据本发明实施例的猪咳嗽声加窗处理后的示意图;
图5是根据本发明实施例的猪咳嗽声分帧的示意图;
图6是根据本发明实施例的81维频谱特征的示意图;
图7是根据本发明实施例的识别特征声音的装置的主要模块的示意图;
图8是本发明实施例可以应用于其中的示例性***架构图;
图9是适于用来实现本发明实施例的终端设备或服务器的计算机***的结构示意图。
具体实施方式
以下结合附图对本发明的示范性实施例做出说明,其中包括本发明实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本发明的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本发明实施例的识别特征声音的方法的主要流程的示意图,如图1所示,本发明实施例的识别特征声音的方法主要包括:
步骤S101:对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据。通过该过程,可将待检测声音数据进行细分处理,可将拆分出的每一段数据都作为单元声音数据,也可从拆分的很多段数据中截取一部分作为后续检测的单元声音数据。可根据滑动窗口对待检测声音数据进行拆分处理,截取出单元声音数据,单元声音数据为每个滑动窗口中包括的声音数据。
滑动窗口的尺寸为0.3s-0.7s,滑动窗口的步长为70ms-85ms。滑动窗口(Slidingwindow)是一种流量控制技,可通过设置的滑动窗口的尺寸(大小)和步长(间隔),从一大段待处理数据中截取出一小段一小段的单元声音数据。例如,单次持续时间为0.4s~0.6s,而且间断不超过200ms的猪咳嗽声,将滑动窗口的尺寸设置为0.6s,窗口滑动的步长为80ms,可保证每个窗口内都包含咳嗽声信息。后续检测过程,可直接对该滑动窗口内包含的声音数据进行,滑动窗口不包含的数据则不用进行处理。通过上述步骤,可大大提高识别的精准度。
在步骤S101之前,加重处理可增强信号的高频信噪比,以及最大程度地降低非特征声音的干扰信息,对待检测声音进行加重处理;通过汉明窗对加重处理后的待检测声音进行加窗处理。其中,汉明窗是语音信号进行加窗分帧的一种方法,能够保持帧间连续性。
步骤S102:从至少一段单元声音数据中,确定出属于特征声音的单元声音数据。具体的,通过训练的检测模型,确定每段单元声音数据为特征声音的概率;根据预设的概率阈值,从至少一段单元声音数据中,标注出属于特征声音的单元声音数据。
对于检测模型的训练,首先获取标注后的训练数据。其中标注为1的训练数据为特征声音,标注为0的训练数据为非特征声音。然后搭建包括3层二维卷积神经网络以及两层全连接层的网络模型,其中,最后一层全连接层包含有采用sigmoid激活函数的神经元。最后基于训练数据和网络模型,训练得到检测模型,其中目标损失函数Loss为:
Loss=-∑targets*log(predict)
targets表示真实值,取值为0或者1;predict表示预测值。
神经网络参数训练采用了SGD(Stochastic Gradient Descent,神经网络的一种参数更新方法)方法,Batch size(批尺寸)为64,并且模型的学习率随epoch(当一个完整的数据集通过了神经网络一次并且返回了一次,这个过程称为一个epoch)的增加而递减。当Loss函数稳定时,停止模型的训练,并选取在验证集上表现最好的模型作为最终的检测模型。本方法实施例采用CNN卷积神经网对声音样本进行训练,训练参数选取了SGD,并选取样本集上表现最好的模型作为最终的监测模型。卷积神经网络在特征提取方面表现出显著优势,卷积神经网络以其局部权值共享的特殊结构在语音识别方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,避免了特征提取和分类过程中数据重建的复杂度,利用了卷积的不变性来克服语音中的多变性。
由于滑动窗口长度比较小,窗口数较多,每次只预测一个窗口比较浪费计算资源,可两种方式进行了优化,提升了CPU的计算资源利用率,预测阶段的运算速度提升了50%。其一,Batch的方式:由于每个滑动窗口的长度是固定的,可以采用2的指数倍的相邻窗口批量计算,大大的提升了计算速度,一般选择为32,64,128。以及,Multi-threading的方式:针对CPU的计算资源合理设置线程个数,有效的提升了CPU的资源利用率。
步骤S103:根据属于特征声音的单元声音数据之间的时间距离,对其进行合并以得到特征声音片段。由于每段单元声音数据具有时间的先后性,基于时间序列,单元声音数据之间具有时间距离,例如一段单元声音数据的起始时间为10:30结束时间为10:35,另一段单元声音数据的起始时间为10:40结束时间为10:45,则两段单元声音数据之间的时间距离为5分钟。如果预设要将时间距离小于10分钟的单元声音数据进行合并,则要将上述两段单元声音数据进行合并,如果这两段单元声音数据已经确定为特征声音,则合并后的片段数据构成一段特征声音片段。
在步骤S102中,还可判断单元声音数据为特征声音的概率是否大于预设的概率阈值,如果大于,则将该单元声音数据标注为1;否则标注为0。则在步骤S103中,可按照时间顺序,将连续标注为1的单元声音数据进行合并,以得到至少一段的初步特征声音片段。该至少一段的初步特征声音片段为从待检测声音数据中识别出的特征数据,并且由于每段初步特征声音片段的起始时间的结束时间都是很容易确定的,所以可进一步确定识别出的特征数据的起始时间和结束时间,该效果是现有技术无法达到的。假设滑动窗口的概率序列为[0,0,1,1,0,1,1,1,0,0,1,1],这个序列一共出现3次连续大于概率阈值1的片断,分别为[1,1],[1,1,1,],[1,1]。分别将[1,1],[1,1,1,],[1,1]合并,得到三段特征声音片段。
以及在按照时间顺序,将连续标注为1的单元声音数据进行合并之后,判断至少一段的步特征声音片段之间的时间距离是否小于预设的距离偏移量;如果小于,则将其进行合并以得到特征声音片段。通过该过程,可对特征声音片段的起始时间和结束时间进行微调,例如,其中一段特征声音片段由10段单元声音片段合并而成,另一段特征声音片段由8段单元声音片段合并而成,这两段特征声音片段之间只间隔了一个单元声音片段(相当于两段的时间距离小于预设的距离偏移量),则可将这两个特征声音片段进一步合成组成一段特征声音片段。该过程对特征声音片段的起始时间和结束时间具有微调作用,识别出的结果更能符合现实数据,进一步提高了识别的准确性。
本发明实施例通过对待检测声音数据进行拆分处理,截取出单元声音数据,并对每段单元声音数据进行识别,确定每段单元声音数据是否为特征声音。最后,基于每段属于特征声音的单元声音数据之间的距离,对其进行合并,合并后的单元声音数据构成特征声音片段。本发明实施例不仅能够提高声音识别的准确性,还可以进一步根据每段单元声音数据的起始时间和结束时间,准确的确定出每段特征声音片段的起始时间和结束时间。以及,采用滑动窗口方式截取单元声音数据,CNN卷积神经网对声音样本进行训练,训练参数选取了SGD,并选取验证集上表现最好的模型作为最终的检测模型。卷积神经网络在特征提取方面表现出显著优势,卷积神经网络以其局部权值共享的特殊结构在语音识别方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,避免了特征提取和分类过程中数据重建的复杂度,利用了卷积的不变性来克服语音中的多变性。
随着养猪产业正逐步向规模化生产和自动化生产方向发展,如何对养殖中猪频发的呼吸道疾病问题进行快速有效监测,一直是畜牧业研究的热点和难点。一般大规模化的猪场,平均一人负责100头猪,饲养员无法及时发现患病猪只咳嗽声,导致未能及时发现并处理患病猪只而造成大量猪只死亡。随着计算机技术和深度学***。本发明实施例以识别猪咳嗽声为例,说明识别特征声音的方法。其中,图2是根据本发明实施例的识别猪咳嗽声的方法的示意图;图3是根据本发明实施例的猪咳嗽声加重处理后的示意图;图4是根据本发明实施例的猪咳嗽声加窗处理后的示意图;图5是根据本发明实施例的猪咳嗽声分帧的示意图;图6是根据本发明实施例的81维频谱特征的示意图。
如图2所示,本发明实施例的识别猪咳嗽声的方法包括:
步骤S201:对获取的训练数据和待检测声音数据进行预处理。在猪场采集的猪咳嗽声和尖叫声等声音数据经过预处理,最大程度地降低非咳嗽声的干扰信息,预处理的步骤包含加重和分帧加窗处理。为了增强信号的高频信噪比,以一段猪咳嗽声音为例,对声音进行加重处理的效果如图3所示,对声音进行加窗处理效果如图4所示。
由于猪咳嗽声音具有短时平稳性,分帧的作用就是把一段声音分成长度相等的音频信号,为了防止遗漏有效声音信号,会让两相邻帧之间有一段重叠区域,分帧方式如图5所示,帧长为25ms,帧移为10ms。为了保持帧间连续性,选择汉明窗对声音信号进行加窗处理。
步骤S202:构造样本数据。采集的训练数据包含了猪咳嗽声,以及噪音、尖叫等其他非咳嗽声。猪咳嗽一般会连续咳嗽多次,单次持续时间为0.4s~0.6s,间断不超过200ms,根据连续咳嗽声的起始时间和结束时间,将猪咳嗽声标注为1,其他非咳嗽声均标注为0。采用滑动窗口的方式截取训练样本,滑动窗口的尺寸为0.6s,窗口滑动的步长为80ms,进而可保证每个窗口内都包含有猪咳嗽声信息。正样本来源于从标注为1的声音片段,负样本来源于0的声音片段,该正样本和负样本组成样本数据。
步骤S203:搭建网络模型和训练样本数据,以得到检测模型。本发明实施例采用3层二维卷积神经网络以及两层全连接层,最后一层全连接的输出含有一个神经元,并采用sigmoid激活函数。神经网络神经元中,输入的inputs通过加权,求和后,还被作用了一个函数,这个函数就是激活函数Activation Function,神经网络中激活函数的主要作用是提供网络的非线性建模能力。Sigmoid激活函数是一个S型函数,也称为S型生长曲线,能够将变量映射到0,1之间。以及,目标损失函数为对数似然函数,公式如下:
Loss=-∑targets*log(predict)
其中,targets表示真实值,取值为0或者1,predict表示预测值。
神经网络参数训练采用了SGD(Stochastic Gradient Descent)方法,Batch size(批尺寸)为64,并且模型的学习率随epoch的增加而递减。当Loss函数稳定时,停止模型的训练,并选取在验证集上表现最好的模型作为最终的检测模型。对于检测模型的训练,特征选择与提取是语音识别中至关重要的一个环节,特征的好坏直接影响后续的识别准确度。为了充分利用声音信号的有效信息,本发明实施例选用了81维频谱特征作为卷积网络的输入,如图6所示。选用81维频谱特征作为卷积网络的输入,既充分使用了声音信号的有效信息,又不会因为维数过大导致计算效率降低。频谱是频率谱密度的简称,是频率的分布曲线。复杂振荡分解为振幅不同和频率不同的谐振荡,这些谐振荡的幅值按频率排列的图形叫做频谱。
步骤S204:根据滑动窗口,将待检测声音数据进行拆分处理,截取单元声音数据。其中,滑动窗口的方式截取训练样本,滑动窗口的尺寸为0.6s,窗口滑动的步长为80ms。
步骤S205:根据检测模型确定每段单元声音数据为猪咳嗽声的概率值label。其中,label取值范围在0到1之间,Label越大,表示该窗口内的单元声音数据为猪咳嗽声的概率越大。
步骤S206:分析处理label值。本发明假设调用检测算法的声音信号不小于1s,通过滑动窗口进行识别预测后,会得到一个连续时间的labels序列,labels=[x1,x2,…,xi,xn],i∈[0,n),n为滑动窗口总数,xi为单个窗口预测值。设定概率阈值threshold,判定该窗口是否包含猪咳嗽窗口,大于threshold的值设置为1,认为是猪咳嗽窗口,反之设置为0,得到label_mask,公式为:
Figure BDA0001737265840000121
步骤S207:合并处理得到猪咳嗽声片段,以及确定每段猪咳嗽声片段的起始时间和结束时间。首先,统计连续label_mask为1的元素及索引,确定出一个二维序列,如下所示:
cough_points=[[index1,num1],…,[indexi,numi],…,[indexm,numm]],i∈[0,m)
其中,indexi表示第i个特征声音片段,该特征声音片段由连续2个大于概率阈值1的单元声音数据组成;numi表示第i个特征声音片段中包括的单元声音数据的个数,m为label_mask连续为1的片段总数。根据indexi和numi,结合滑动窗口长度和步长可以计算出该咳嗽片段的起始时间和结束时间,如果两个片段间隔小于预设的偏移步长,就将两个咳嗽片段合并成一个,其中,预设的偏移步长与窗口步长正相关。能够适当微调起始时间和结束时间,可提高检测时间的准确性。
由于猪咳嗽声的特征声音持续时间较短,单次持续时间为0.4s~0.6s,而且间断不超过200ms,针对该特征,现有技术中通常采用VAD端点检测(Voice ActivityDetection,语音活动检测),提取疑似猪咳嗽声的标准或改进MFCC特征(梅尔频率倒谱系数)及一阶MFCC特征作为表征猪咳嗽的特征向量,识别模型有动态时间规整算法、矢量量化模型和隐马尔科夫模型等。徐亚妮等在2016年提出了利用声音功率谱密度特征,作为聚类中心,运用改进的C均值聚类算法对待产梅山母猪咳嗽声和尖叫声进行识别分类。Exadaktylos等提出了一种基于频域信号特征识别猪咳嗽声音的实时算法;C.Yongwha等通过提取梅尔倒谱系数特征,利用支持向量机对猪咳嗽声进行识别。张振华等在2017年提出基于梅尔倒谱系数及其一阶差分为特征参数的隐马尔科夫模型对猪干咳和湿咳的识别方案。上述现有的猪咳嗽声识别方法基本都依赖传统的语音识别方法,抗噪能力差,泛化能力弱。基于矢量技术的算法最简单,是典型的模板匹配算法,在遇到样本量多或者同一种声音持续时长不同时,矢量量化的识别率会低很多;动态规整算法可以解决同种声音持续时长不同的匹配问题,运算量也很小,但是过于依赖端点检测的准确性,并且需要由足够大量的模板样本,由于每次识别都需要重新匹配模板,识别耗时长,效率低;隐马尔科夫模型在语音识别中应用广泛,但是需要复杂的参数调优,前期需要充足的数据进行训练,并且模型运算量大。
本发明实施例可通过设置滑动窗口的尺寸(例如0.6s)以及滑动窗口的步长(例如80ms),将一大段中包括的猪咳嗽声音都截取出,而且本发明实施例针对养殖场监控猪呼吸疾病的业务场景,实现了一种基于CNN卷积神经网络深度学习识别猪咳嗽声,有效的提升了猪咳嗽声识别的准确度,并提供了咳嗽声起始结束时间点。由于滑动窗口长度比较小,窗口数较多,每次只预测一个窗口比较浪费计算资源,可两种方式进行了优化,提升了CPU的计算资源利用率,预测阶段的运算速度提升了50%。其中,Batch的方式:由于每个滑动窗口的长度是固定的,可以采用2的指数倍的相邻窗口批量计算,大大的提升了计算速度,一般选择为32,64,128。以及,Multi-threading的方式:针对CPU的计算资源合理设置线程个数,有效的提升了CPU的资源利用率。
本发明实施例的识别猪咳嗽声的方法,通过训练好的模型对声音片段进行预测,根据生成的labels序列进行分析处理,然后用预测值和时间索引,计算出咳嗽起止时间。本算法识别咳嗽声音的准确率高,资源利用率高,速度快。不仅可以解决大型养猪场疫病防治工作中人工诊断效率低下的问题,还可以智能化识别猪咳嗽声音,及时预警治疗,降低了人力成本,对畜牧养殖疾病的预防和治疗提供实用价值。
图7是根据本发明实施例识别特征声音的装置的主要模块的示意图,如图7所示,本发明实施例的识别特征声音的装置700包括单元声音数据截取模块701、特征声音确定模块702和特征声音片段确定模块703。
单元声音数据截取模块701用于,对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据。单元声音数据截取模块,还用于根据滑动窗口对待检测声音数据进行拆分处理;截取出单元声音数据,单元声音数据为每个滑动窗口中包括的声音数据。滑动窗口的尺寸为0.3s-0.7s,滑动窗口的步长为70ms-85ms;和/或,特征声音为猪咳嗽声。
特征声音确定模块702用于,从至少一段单元声音数据中,确定出属于特征声音的单元声音数据。特征声音确定模块,还用于通过训练的检测模型,确定每段单元声音数据为特征声音的概率;根据预设的概率阈值,从至少一段单元声音数据中,标注出属于特征声音的单元声音数据。
本发明实施例的识别特征声音的装置还包括训练模块,用于获取标注后的训练数据,其中标注为1的训练数据为特征声音,标注为0的训练数据为非特征声音;搭建包括3层二维卷积神经网络以及两层全连接层的网络模型,其中,最后一层全连接层包含有采用sigmoid激活函数的神经元;基于训练数据和网络模型,训练得到检测模型,其中目标损失函数Loss为:
Loss=-∑targets*log(predict)
targets表示真实值,取值为0或者1;predict表示预测值。
特征声音片段确定模块703用于,根据属于特征声音的单元声音数据之间的时间距离,对其进行合并以得到特征声音片段。特征声音确定模块,还用于判断单元声音数据为特征声音的概率是否大于预设的概率阈值,如果大于,则将该单元声音数据标注为1;否则标注为0;特征声音片段确定模块,还用于按照时间顺序,将连续标注为1的单元声音数据进行合并,以得到至少一段的初步特征声音片段。特征声音片段确定模块,还用于判断至少一段的步特征声音片段之间的时间距离是否小于预设的距离偏移量;如果小于,则将其进行合并以得到特征声音片段。
本发明实施例的识别特征声音的装置还包括预处理模块,用于对待检测声音进行加重处理;通过汉明窗对加重处理后的待检测声音进行加窗处理。
本发明实施例通过对待检测声音数据进行拆分处理,截取出单元声音数据,并对每段单元声音数据进行识别,确定每段单元声音数据是否为特征声音。最后,基于每段属于特征声音的单元声音数据之间的距离,对其进行合并,合并后的单元声音数据构成特征声音片段。本发明实施例不仅能够提高声音识别的准确性,还可以进一步根据每段单元声音数据的起始时间和结束时间,准确的确定出每段特征声音片段的起始时间和结束时间。以及,采用滑动窗口方式截取单元声音数据,CNN卷积神经网对声音样本进行训练,训练参数选取了SGD,并选取验证集上表现最好的模型作为最终的检测模型。卷积神经网络在特征提取方面表现出显著优势,卷积神经网络以其局部权值共享的特殊结构在语音识别方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,避免了特征提取和分类过程中数据重建的复杂度,利用了卷积的不变性来克服语音中的多变性。
图8示出了可以应用本发明实施例的识别特征声音的方法或识别特征声音的装置的示例性***架构800。
如图8所示,***架构800可以包括终端设备801、802、803,网络804和服务器805。网络804用以在终端设备801、802、803和服务器805之间提供通信链路的介质。网络804可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备801、802、803通过网络804与服务器805交互,以接收或发送消息等。终端设备801、802、803上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备801、802、803可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器805可以是提供各种服务的服务器,例如对用户利用终端设备801、802、803所浏览的购物类网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的产品信息查询请求等数据进行分析等处理,并将处理结果反馈给终端设备。
需要说明的是,本发明实施例所提供的识别特征声音的方法一般由服务器805执行,相应地,识别特征声音的装置一般设置于服务器805中。
应该理解,图8中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图9,其示出了适于用来实现本发明实施例的终端设备的计算机***900的结构示意图。图9示出的终端设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,计算机***900包括中央处理单元(CPU)901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有***900操作所需的各种程序和数据。CPU 901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
以下部件连接至I/O接口905:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被中央处理单元(CPU)901执行时,执行本发明的***中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的模块也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元声音数据截取模块、特征声音确定模块和特征声音片段确定模块。其中,这些模块的名称在某种情况下并不构成对该模块本身的限定,例如,单元声音数据截取模块还可以被描述为“对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据的模块”。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据;从至少一段单元声音数据中,确定出属于特征声音的单元声音数据;根据属于特征声音的单元声音数据之间的时间距离,对其进行合并以得到特征声音片段。
本发明实施例通过对待检测声音数据进行拆分处理,截取出单元声音数据,并对每段单元声音数据进行识别,确定每段单元声音数据是否为特征声音。最后,基于每段属于特征声音的单元声音数据之间的距离,对其进行合并,合并后的单元声音数据构成特征声音片段。本发明实施例不仅能够提高声音识别的准确性,还可以进一步根据每段单元声音数据的起始时间和结束时间,准确的确定出每段特征声音片段的起始时间和结束时间。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,取决于设计要求和其他因素,可以发生各种各样的修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (18)

1.一种识别特征声音的方法,其特征在于,包括:
对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据;
从所述至少一段单元声音数据中,确定出属于特征声音的单元声音数据;
根据所述属于特征声音的单元声音数据之间的时间距离,对其进行合并以得到特征声音片段。
2.根据权利要求1所述的方法,其特征在于,所述对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据的步骤包括:
根据滑动窗口对待检测声音数据进行拆分处理;
截取出单元声音数据,所述单元声音数据为每个滑动窗口中包括的声音数据。
3.根据权利要求1所述的方法,其特征在于,从所述至少一段单元声音数据中,确定出属于特征声音的单元声音数据的步骤包括:
通过训练的检测模型,确定每段单元声音数据为特征声音的概率;
根据预设的概率阈值,从所述至少一段单元声音数据中,标注出属于特征声音的单元声音数据。
4.根据权利要求3所述的方法,其特征在于,在通过训练的检测模型,确定每段单元声音数据为特征声音的概率之前,还包括:
获取标注后的训练数据,其中标注为1的训练数据为特征声音,标注为0的训练数据为非特征声音;
搭建包括3层二维卷积神经网络以及两层全连接层的网络模型,其中,最后一层全连接层包含有采用sigmoid激活函数的神经元;
基于所述训练数据和所述网络模型,训练得到检测模型,其中目标损失函数Loss为:
Loss=-∑targets*log(predict)
targets表示真实值,取值为0或者1;predict表示预测值。
5.根据权利要求3所述的方法,其特征在于,
根据预设的概率阈值,从所述至少一段单元声音数据中,标注出属于特征声音的单元声音数据的步骤包括:
判断单元声音数据为特征声音的概率是否大于预设的概率阈值,如果大于,则将该单元声音数据标注为1;否则标注为0;
根据所述属于特征声音的单元声音数据之间的时间距离,对其进行合并以得到特征声音片段的步骤包括:
按照时间顺序,将连续标注为1的单元声音数据进行合并,以得到至少一段的初步特征声音片段。
6.根据权利要求5所述的方法,其特征在于,在按照时间顺序,将连续标注为1的单元声音数据进行合并之后,还包括:
判断所述至少一段的步特征声音片段之间的时间距离是否小于预设的距离偏移量;如果小于,则将其进行合并以得到特征声音片段。
7.根据权利要求1所述的方法,其特征在于,在对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据之前,还包括:
对所述待检测声音进行加重处理;
通过汉明窗对所述加重处理后的待检测声音进行加窗处理。
8.根据权利要求2所述的方法,其特征在于,所述滑动窗口的尺寸为0.3s-0.7s,所述滑动窗口的步长为70ms-85ms;和/或,
所述特征声音为猪咳嗽声。
9.一种识别特征声音的装置,其特征在于,包括:
单元声音数据截取模块,用于对待检测声音数据进行拆分处理,并截取出至少一段单元声音数据;
特征声音确定模块,用于从所述至少一段单元声音数据中,确定出属于特征声音的单元声音数据;
特征声音片段确定模块,用于根据所述属于特征声音的单元声音数据之间的时间距离,对其进行合并以得到特征声音片段。
10.根据权利要求9所述的装置,其特征在于,所述单元声音数据截取模块,还用于根据滑动窗口对待检测声音数据进行拆分处理;截取出单元声音数据,所述单元声音数据为每个滑动窗口中包括的声音数据。
11.根据权利要求9所述的装置,其特征在于,所述特征声音确定模块,还用于通过训练的检测模型,确定每段单元声音数据为特征声音的概率;根据预设的概率阈值,从所述至少一段单元声音数据中,标注出属于特征声音的单元声音数据。
12.根据权利要求11所述的装置,其特征在于,还包括训练模块,用于获取标注后的训练数据,其中标注为1的训练数据为特征声音,标注为0的训练数据为非特征声音;搭建包括3层二维卷积神经网络以及两层全连接层的网络模型,其中,最后一层全连接层包含有采用sigmoid激活函数的神经元;基于所述训练数据和所述网络模型,训练得到检测模型,其中目标损失函数Loss为:
Loss=-∑targets*log(predict)
targets表示真实值,取值为0或者1;predict表示预测值。
13.根据权利要求11所述的装置,其特征在于,所述特征声音确定模块,还用于判断单元声音数据为特征声音的概率是否大于预设的概率阈值,如果大于,则将该单元声音数据标注为1;否则标注为0;
所述特征声音片段确定模块,还用于按照时间顺序,将连续标注为1的单元声音数据进行合并,以得到至少一段的初步特征声音片段。
14.根据权利要求13所述的装置,其特征在于,所述特征声音片段确定模块,还用于判断所述至少一段的步特征声音片段之间的时间距离是否小于预设的距离偏移量;如果小于,则将其进行合并以得到特征声音片段。
15.根据权利要求9所述的装置,其特征在于,还包括预处理模块,用于对所述待检测声音进行加重处理;通过汉明窗对所述加重处理后的待检测声音进行加窗处理。
16.根据权利要求10所述的装置,其特征在于,所述滑动窗口的尺寸为0.3s-0.7s,所述滑动窗口的步长为70ms-85ms;和/或,所述特征声音为猪咳嗽声。
17.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-8中任一所述的方法。
CN201810801712.1A 2018-07-20 2018-07-20 一种识别特征声音的方法和装置 Pending CN110751942A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810801712.1A CN110751942A (zh) 2018-07-20 2018-07-20 一种识别特征声音的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810801712.1A CN110751942A (zh) 2018-07-20 2018-07-20 一种识别特征声音的方法和装置

Publications (1)

Publication Number Publication Date
CN110751942A true CN110751942A (zh) 2020-02-04

Family

ID=69274750

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810801712.1A Pending CN110751942A (zh) 2018-07-20 2018-07-20 一种识别特征声音的方法和装置

Country Status (1)

Country Link
CN (1) CN110751942A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462920A (zh) * 2020-05-24 2020-07-28 绍兴声科科技有限公司 用于监控传染疾病流行程度的声音监测方法及***
CN113160835A (zh) * 2021-04-23 2021-07-23 河南牧原智能科技有限公司 一种猪只声音提取方法、装置、设备及可读存储介质
CN114041779A (zh) * 2021-11-26 2022-02-15 河南牧原智能科技有限公司 用于对牲畜呼吸道疾病进行识别的识别***和计算机设备

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5611002A (en) * 1991-08-09 1997-03-11 U.S. Philips Corporation Method and apparatus for manipulating an input signal to form an output signal having a different length
US6535847B1 (en) * 1998-09-17 2003-03-18 British Telecommunications Public Limited Company Audio signal processing
WO2003061299A1 (en) * 2002-01-18 2003-07-24 Koninklijke Philips Electronics N.V. Audio coding
CN1669070A (zh) * 2002-08-08 2005-09-14 科斯莫坦股份有限公司 使用可变长度合成和简化互相关计算的音频信号时间缩放比例修改方法
US20110295510A1 (en) * 2010-03-05 2011-12-01 Vialogy Llc Active Noise Injection Computations for Improved Predictability in Oil and Gas Reservoir Characterization and Microseismic Event Analysis
US20120143610A1 (en) * 2010-12-03 2012-06-07 Industrial Technology Research Institute Sound Event Detecting Module and Method Thereof
CN103207408A (zh) * 2013-03-01 2013-07-17 中煤科工集团西安研究院 被动地震监测数据压缩方法及控制***
CN103280220A (zh) * 2013-04-25 2013-09-04 北京大学深圳研究生院 一种实时的婴儿啼哭声识别方法
CN104934040A (zh) * 2014-03-17 2015-09-23 华为技术有限公司 音频信号的时长调整方法和装置
CN105719642A (zh) * 2016-02-29 2016-06-29 黄博 连续长语音识别方法及***、硬件设备
CN106952644A (zh) * 2017-02-24 2017-07-14 华南理工大学 一种基于瓶颈特征的复杂音频分割聚类方法
CN107095645A (zh) * 2016-02-22 2017-08-29 上海宽带技术及应用工程研究中心 一种基于鼾声的睡眠呼吸低通暂停综合症的诊断装置
CN108172213A (zh) * 2017-12-26 2018-06-15 北京百度网讯科技有限公司 娇喘音频识别方法、装置、设备及计算机可读介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5611002A (en) * 1991-08-09 1997-03-11 U.S. Philips Corporation Method and apparatus for manipulating an input signal to form an output signal having a different length
US6535847B1 (en) * 1998-09-17 2003-03-18 British Telecommunications Public Limited Company Audio signal processing
WO2003061299A1 (en) * 2002-01-18 2003-07-24 Koninklijke Philips Electronics N.V. Audio coding
CN1669070A (zh) * 2002-08-08 2005-09-14 科斯莫坦股份有限公司 使用可变长度合成和简化互相关计算的音频信号时间缩放比例修改方法
US20110295510A1 (en) * 2010-03-05 2011-12-01 Vialogy Llc Active Noise Injection Computations for Improved Predictability in Oil and Gas Reservoir Characterization and Microseismic Event Analysis
US20120143610A1 (en) * 2010-12-03 2012-06-07 Industrial Technology Research Institute Sound Event Detecting Module and Method Thereof
CN103207408A (zh) * 2013-03-01 2013-07-17 中煤科工集团西安研究院 被动地震监测数据压缩方法及控制***
CN103280220A (zh) * 2013-04-25 2013-09-04 北京大学深圳研究生院 一种实时的婴儿啼哭声识别方法
CN104934040A (zh) * 2014-03-17 2015-09-23 华为技术有限公司 音频信号的时长调整方法和装置
CN107095645A (zh) * 2016-02-22 2017-08-29 上海宽带技术及应用工程研究中心 一种基于鼾声的睡眠呼吸低通暂停综合症的诊断装置
CN105719642A (zh) * 2016-02-29 2016-06-29 黄博 连续长语音识别方法及***、硬件设备
CN106952644A (zh) * 2017-02-24 2017-07-14 华南理工大学 一种基于瓶颈特征的复杂音频分割聚类方法
CN108172213A (zh) * 2017-12-26 2018-06-15 北京百度网讯科技有限公司 娇喘音频识别方法、装置、设备及计算机可读介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
任双雪: "风电功率爬坡事件的滑动窗检测与实例分析", 电网与清洁能源, 31 January 2018 (2018-01-31), pages 109 - 111 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111462920A (zh) * 2020-05-24 2020-07-28 绍兴声科科技有限公司 用于监控传染疾病流行程度的声音监测方法及***
CN113160835A (zh) * 2021-04-23 2021-07-23 河南牧原智能科技有限公司 一种猪只声音提取方法、装置、设备及可读存储介质
CN114041779A (zh) * 2021-11-26 2022-02-15 河南牧原智能科技有限公司 用于对牲畜呼吸道疾病进行识别的识别***和计算机设备

Similar Documents

Publication Publication Date Title
Mukherjee et al. Line spectral frequency-based features and extreme learning machine for voice activity detection from audio signal
CN103117061B (zh) 一种基于语音的动物识别方法及装置
WO2021082420A1 (zh) 声纹认证方法、装置、介质及电子设备
CN110767218A (zh) 端到端语音识别方法、***、装置及其存储介质
CN110751942A (zh) 一种识别特征声音的方法和装置
CN110930989B (zh) 语音意图识别方法、装置、计算机设备和存储介质
CN113066499A (zh) 一种陆空通话说话人身份识别方法及装置
CN104205215A (zh) 自动实时言语障碍矫正
CN113077821A (zh) 音频质量检测方法、装置、电子设备及存储介质
CN116741159A (zh) 音频分类及模型的训练方法、装置、电子设备和存储介质
CN112992190A (zh) 音频信号的处理方法、装置、电子设备和存储介质
US11282514B2 (en) Method and apparatus for recognizing voice
Tang et al. Transound: Hyper-head attention transformer for birds sound recognition
CN113327584B (zh) 语种识别方法、装置、设备及存储介质
CN112244863A (zh) 信号识别方法、信号识别装置、电子设备及可读存储介质
CN109634554B (zh) 用于输出信息的方法和装置
CN113160823B (zh) 基于脉冲神经网络的语音唤醒方法、装置及电子设备
Wang et al. A hierarchical birdsong feature extraction architecture combining static and dynamic modeling
CN114898737A (zh) 声学事件检测方法、装置、电子设备和存储介质
CN115240647A (zh) 声音事件检测方法、装置、电子设备及存储介质
CN112863548A (zh) 训练音频检测模型的方法、音频检测方法及其装置
CN107437414A (zh) 基于嵌入式gpu***的并行化游客识别方法
CN112992175A (zh) 一种语音区分方法及其语音记录装置
CN113327616A (zh) 声纹识别方法、装置、电子设备及存储介质
CN112381989A (zh) 排序方法、装置、***和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant after: Jingdong Technology Holding Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant before: Jingdong Digital Technology Holding Co.,Ltd.

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant after: Jingdong Digital Technology Holding Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant before: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

Address after: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant after: JINGDONG DIGITAL TECHNOLOGY HOLDINGS Co.,Ltd.

Address before: 101111 Room 221, 2nd Floor, Block C, 18 Kechuang 11th Street, Beijing Economic and Technological Development Zone

Applicant before: BEIJING JINGDONG FINANCIAL TECHNOLOGY HOLDING Co.,Ltd.

CB02 Change of applicant information