CN115188366A - 基于深度学习的语种识别方法、装置、可读存储介质 - Google Patents
基于深度学习的语种识别方法、装置、可读存储介质 Download PDFInfo
- Publication number
- CN115188366A CN115188366A CN202210519620.0A CN202210519620A CN115188366A CN 115188366 A CN115188366 A CN 115188366A CN 202210519620 A CN202210519620 A CN 202210519620A CN 115188366 A CN115188366 A CN 115188366A
- Authority
- CN
- China
- Prior art keywords
- language
- identification
- model
- real
- call
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000013135 deep learning Methods 0.000 title claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000012545 processing Methods 0.000 claims description 23
- 238000012216 screening Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 claims description 4
- 239000000126 substance Substances 0.000 claims description 2
- NGVDGCNFYWLIFO-UHFFFAOYSA-N pyridoxal 5'-phosphate Chemical compound CC1=NC=C(COP(O)(O)=O)C(C=O)=C1O NGVDGCNFYWLIFO-UHFFFAOYSA-N 0.000 claims 6
- 238000010586 diagram Methods 0.000 description 18
- 239000008186 active pharmaceutical agent Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 210000002569 neuron Anatomy 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000013518 transcription Methods 0.000 description 5
- 230000035897 transcription Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 241001672694 Citrus reticulata Species 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Abstract
本公开提供了一种基于深度学习的语种识别方法、装置、可读存储介质。所述方法包括:语种标签获取步骤,获取历史通话录音集,识别所述历史通话录音集中每个通话录音的语种类别,并根据识别出的语种类别为所对应的通话录音标记语种标签,得到包括多个带有语种标签的通话录音的音频数据集;模型训练步骤,通过所述音频数据集训练设定模型的模型参数,得到专用于语种识别的识别模型;语种识别步骤,将实时语音输入至所述识别模型进行语种识别,得到并输出所述实时语音的语种类别。该方法针对细分领域实现了更高的准确率和更快的识别速度,且无需大量人力标注语种,不依赖运营商提供训练语料,从而节省了大量的人力和时间成本。
Description
技术领域
本公开涉及电信通讯领域、语音识别、数据特征处理、深度学习领域,特别是涉及一种基于深度学习的语种识别方法、装置和可读存储介质。
背景技术
现有坐席助手类型的产品,在用户拨打电话与坐席进行交互的过程中需要进行识别语种。只有在语种识别正确的情况下,在配置其他功能时才能正确录入用户的诉求内容,减少坐席手动录入信息的时长,从而减轻坐席的压力。现有的语种识别方法主要针对ASR(Automatic Speech Recognition,自动语音识别)实时语音转写后的文本(通话转写文本),基于文本进行识别来实现语种识别。
使用通话转写文本进行语种识别存在两方面缺陷:1.识别准确率很大程度上依赖于ASR转写是否准确;2.使用实时ASR转写后才能进行语种识别,识别速度与直接语音识别相差甚远。坐席人员能明显感知文本语种识别的速度很慢。
此外,还有一种方法是采用外部语种识别API接口进行实时语种识别,虽然该识别速度快,但存在由于API接口是面向通用业务场景,在面对细分行业时,如客服领域或者地方口音严重情况下识别准确率明显下降,只有64%左右准确率,无法满足特定细分领域的需求。
除此之外,在深度学习领域,模型准确率高且上线支持高并发情况下,更多于依赖大量人工来标注语种类别,从而获取训练语料,至少需要训练语料3、4W通,这将耗费大量的人工成本和时间成本。
发明内容
基于目前语种识别存在识别速度慢;训练语料需要大量人工标注;外部语种识别API接口面向细分领域效果差的情况,本公开将深度学习和语音识别相结合提供一种基于深度学习来实现语种识别的方法。
根据本公开的第一方面,提供了一种基于深度学习来实现语种识别的方法,所述方法包括:
语种标签获取步骤,获取历史通话录音集,识别所述历史通话录音集中每个通话录音的语种类别,并根据识别出的语种类别为所对应的通话录音标记语种标签,得到包括多个带有语种标签的通话录音的音频数据集;
模型训练步骤,通过所述音频数据集训练设定模型的模型参数,得到专用于语种识别的识别模型;
语种识别步骤,将实时语音输入至所述识别模型进行语种识别,得到并输出所述实时语音的语种类别。
因此,该方法无需人工标记就能够获得训练语料,无需将语音转出文本即可进行识别,节省人力和时间。
可选地,所述设定模型是基于深度神经网络实现的语音特征模型。
可选地,所述模型训练步骤还包括特征提取步骤,对所述音频数据集的PLP特征参数进行提取,利用所述PLP特征参数对所述设定模型进行模型训练。
可选地,在所述语种识别步骤中,对所述实时语音的PLP特征参数进行提取,将所提取的实时语音的PLP特征参数输入至所述识别模型来对所述实时语音进行语种识别。
可选地,所述方法在所述模型训练步骤之前还包括过滤步骤,所述过滤步骤包括错误类别剔除步骤、识别度筛选步骤、时长筛选步骤中的至少一个步骤;其中,
错误类别剔除步骤,从所述音频数据集中删除带有特定语种标签的通话录音,其中,所述特定语种标签为不属于预先设定的语种类别集的标签;
识别度筛选步骤,从所述音频数据集中删除对于语种类别的识别准确率低于设定阈值的通话录音;
时长筛选步骤,使用librosa音频处理库读取所述音频数据集中每个通话录音的时长,将时长小于3秒的通话录音删除。
通过该过滤步骤能够针对细分领域筛选训练语料,进而更高效地完成建模,并获得更高的识别准确率。
可选地,所述特征提取步骤包括:
读取步骤,使用librosa音频处理库读取每个通话录音;
参数获取步骤,使用PLP技术对所读取的每个通话录音获取PLP特征参数。
可选地,在所述语种识别步骤中,所述设定模型得出实时语音属于各个语种的概率,将概率的最大值所对应的语种类别作为识别结果输出。
可选地,在所述语种识别步骤中,在所述概率的最大值大于预先设定的输出阈值的情况下,将概率的最大值所对应的语种类别作为识别结果输出。
根据本公开的第二方面,提供了一种基于深度学习的语种识别装置,所述装置包括:
语种标签获取模块,获取历史通话录音集,识别所述历史通话录音集中每个通话录音的语种类别,并根据识别出的语种类别为所对应的通话录音标记语种标签,得到包括多个带有语种标签的通话录音的音频数据集;
模型训练模块,通过所述音频数据集训练设定模型的模型参数,得到专用于语种识别的识别模型;
语种识别模块,将实时语音输入至所述识别模型进行语种识别,得到并输出所述实时语音的语种类别。
根据本公开的第三方面,提供了一种可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时实现如本公开第一方面所述的方法。
通过本实施例的方法,能够通过语音降噪和现有的语种识别API接口来自动完成训练语料的制作;通过深度学习对训练语料进行特征建模,最后对实时的通话录音进行分析、语种识别,能够建立针对细分领域的模型,实现更高的识别准确率和更快地识别速度,以此降低人工复听压力、节省人力。
此外,由于现有的语种识别API接口是收费的,在业务场景中进行语种识别会持续产生费用。而根据本实施例的方法,仅在获取语种标签时产生一定费用,完成训练语料的制作后,便可以利用根据本公开的方法得到的识别模型进行识别,而不再依赖语种识别API接口,也就不会在这方面产生费用,从而减少了成本。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本公开的实施例,并且连同其说明一起用于解释本公开的原理。
图1是可用于实现本公开的实施例的语种识别装置的硬件配置示意图。
图2示出了根据本公开的语种识别方法的原理图。
图3示出了使用根据本公开的语种方法进行语种识别的流程图。
图4本公开的实施例的***结构示意图。
图5示出了根据本公开的语种识别装置的功能模块示意图。
具体实施方式
下面将参照附图来详细描述本公开的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<硬件配置>
图1是可用于实施根据本公开实施例的语种识别方法的语种识别装置1000的硬件配置示意图。
该语种识别装置1000可以包括但不限于处理器1100、存储器1200、接口单元1300、通信单元1400、显示单元1500、输入单元1600、扬声器1700、麦克风1800等等。其中,处理器1100可以是中央处理器CPU、图形处理器GPU、微处理器MCU等,用于执行计算机程序,该计算机程序可以采用比如x86、Arm、RISC、MIPS、SSE等架构的指令集编写。存储器1200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口单元1300例如包括USB接口、串行接口、并行接口等。通信单元1400例如能够利用光纤或电缆进行有线通信,或者进行无线通信,具体地可以包括WiFi通信、蓝牙通信、2G/3G/4G/5G通信等。显示单元1500例如是液晶显示屏、触摸显示屏等。输入单元1600例如可以包括触摸屏、键盘、体感输入等。扬声器1700用于输出音频信号。麦克风1800用于采集音频信号。
语种识别装置1000的存储器1200用于存储计算机程序,该计算机程序用于控制所述处理器1100进行操作以实现根据本公开实施例的语种识别方法。技术人员可以根据本公开所公开方案设计该计算机程序。该计算机程序如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。该语种识别装置1000可以安装有智能操作***(例如Windows、Linux、安卓、IOS等***)和应用软件。
本领域技术人员应当理解,尽管在图1中示出了语种识别装置1000的多个单元,但是,本公开实施例的语种识别装置1000可以仅涉及其中的部分单元,例如,只涉及处理器1100和存储器1200等。
下面,参照附图描述根据本发明的各个实施例和例子。
<方法实施例>
下面参照图2和图4描述根据本公开的语种识别方法的原理和***结构。图2示出了根据本公开的语种识别方法的原理图。图4示出了本公开的实施例的***结构示意图。根据本公开的语种识别方法包括语种标签获取步骤(S201)、模型训练步骤(S202)和语种识别步骤(S203)。
在步骤S201中,通过FTP下载历史通话录音,获取历史通话录音集。然后利用语种识别API接口识别历史通话录音集中每个通话录音的语种类别,优选地,还能够利用语种识别API接口在获得语种类别的同时获得被识别为该语种的准确率。然后,根据识别出的语种类别为所对应的通话录音标记语种标签,得到包括多个带有语种标签的通话录音的音频数据集。在下文的描述中,包括多个带有语种标签的通话录音的音频数据集也被称为“训练语料”。
在步骤S202中进行模型训练,包括:对在步骤S201中获得训练语料进行特征提取,从语音信号中获取例如PLP的特征参数,利用PLP的特征参数训练设定模型(例如,基于全连接前馈神经网络的语音特征模型)的模型参数,得到专用于语种识别的识别模型。
在步骤S203中,通过例如FTP获取实时语音,提取实时语音的PLP特征参数并将其输入至在步骤S202中得到的识别模型中进行语种识别,得到并输出实时语音的语种类别。
下面结合图3详细说明根据本公开的语种识别方法。图3示出了使用根据本公开的语种方法进行语种识别的流程图。
在步骤S301中,通过FTP下载历史通话录音文件,以获取历史通话录音。
在步骤S302中,通过语种识别API接口,识别历史通话录音的语种类别,并对该历史通话录音标记语种标签。同时,还可以通过该语种识别API接口得到识别准确率。例如,通过语种识别API接口可以得到“普通话,0.9”的结果。其中,“普通话”为语种类别,“0.9”为识别准确率。
在步骤S303中,对训练语料进行过滤。过滤可以采用下列步骤中的一个,也可以将下列步骤任意组合。
(1)错误类别剔除步骤。预先设定语种类别集,例如预先设定语种类别集仅包括“普通话”和“粤语”。当某段录音在步骤S302中被标记了例如“英语”的情况下,由于“英语”不属于预先设定的语种类别集,所以将带有“英语”语种标签的通话录音从训练语料中删除。通过错误类别剔除步骤能够针对细分领域来进行语音特征的提取,使得模型训练更高效。
(2)识别度筛选步骤,从训练语料中删除对于语种类别的识别准确率低于设定阈值的通话录音。例如,将识别准确率阈值设定为0.8,在识别度筛选步骤中将识别率低于0.8的训练语料全部删除。通过该步骤可以获得更加准确的训练语料。
(3)时长筛选步骤,使用librosa音频处理库读取训练语料中每个通话录音的时长,将时长小于3秒的通话录音删除。
通过上述训练语料过滤步骤可以得到更优质的训练语料,能够更准确、快速地完成特征模型训练。
下面进行详细说明。
在步骤S304中,使用例如PLP(感知线性预测)技术对过滤后的训练语料提取语音特征,获取PLP特征参数。
对PLP特征参数的提取包括如下步骤:
(1)读取步骤,使用l ibrosa音频处理库将每个通话录音读取进内存;
(2)参数获取步骤,使用PLP技术对所读取的每个通话录音获取PLP特征参数。
在步骤S305中,利用PLP特征参数进行模型训练。在本实施例中使用全连接前馈神经网络(Feedforward neural network,FNN)模型,FNN模型包括输入层、隐藏层和输出层。该FNN模型使用输入值和权重进行一系列线性运算和激活运算,每层的神经元接收前一层的神经元的输入,输出到下一层的神经元中。在连接过程中,前一层的输入经过加权处理与非线性激活函数的处理,实现输入空间到输出空间的映射。
在进行模型训练时使用多帧拼接方法将在步骤S304中提取的PLP特征参数输入到FNN输入层中。将当前帧与后面例如10帧拼接起来,将连续的11帧拼接为1帧。然后对下一帧重复相同的拼接。每帧有39维,连续的11帧(也就是拼接后的1帧)共有39x11=429维拼接后的PLP特征参数。
之后,PLP特征参数进入隐藏层,对每个神经元进行加权处理。隐藏层例如共有两层,输入层到第一层隐藏层的权重w1计算公式如下:
w1=v×h
其中,v为输入层神经元个数,h为隐藏层神经元个数。
第一层隐藏层到第二层隐藏层的权重w2计算公式如下:
w2=h×h
第二层到输出层的权重w3计算公式如下:
w3=h×s
其中,s为输出层维度。
每一层隐藏层使用ReLU激活函数处理上一层神经元的输入信号,保留特征并映射到下一层神经元。隐藏层的输出信号进入Softmax层,在Softmax层使用Softmax函数输出属于每个语种类别的概率。之后求出Softmax层的输出值与目标值之间的误差,然后进行反复训练,当误差等于或小于预先设定的期望值时,结束训练,得到识别模型。
在步骤S306中,对实时语音的语种类别进行识别。通过FTP获取实时的通话录音(实时语音),提取实时语音的PLP特征参数并将其传输至在步骤S305中训练好的识别模型,识别模型的Softmax层得出属于每个语种类别的概率,然后比较各个概率的大小,将概率最大的语种类别输出为识别结果。优选地,设置输出阈值(例如0.8),只有当概率的最大值大于0.8时才输出结果。否则,继续对实时语音进行识别,直到得到概率值大于0.8的识别结果才输出。
<装置实施例>
图5示出了根据本公开的语种识别装置1000的功能模块示意图。如图5所示,语种识别装置包括:
语种标签获取模块4100,获取历史通话录音集,识别所述历史通话录音集中每个通话录音的语种类别,并根据识别出的语种类别为所对应的通话录音标记语种标签,得到包括多个带有语种标签的通话录音的音频数据集;
模型训练模块4200,通过所述音频数据集训练设定模型的模型参数,得到专用于语种识别的识别模型;
语种识别模块4300,将实时语音输入至所述识别模型进行语种识别,得到并输出所述实时语音的语种类别。
在一个实施例中,所述设定模型是基于深度神经网络实现的语音特征模型。
在一个实施例中,所述模型训练模块还包括特征提取模块,对所述音频数据集的PLP特征参数进行提取,利用所述PLP特征参数对所述设定模型进行模型训练。
在一个实施例中,所述语种识别模块对所述实时语音的PLP特征参数进行提取,将所提取的实时语音的PLP特征参数输入至所述识别模型来对所述实时语音进行语种识别。
在一个实施例中,所述语种识别装置还包括过滤模块,在进行特征参数提取之前,所述过滤模块进行错误类别剔除、识别度筛选、时长筛选中的至少一个;其中,
错误类别剔除,从所述音频数据集中删除带有特定语种标签的通话录音,其中,所述特定语种标签为不属于预先设定的语种类别集的标签;
识别度筛选,从所述音频数据集中删除对于语种类别的识别准确率低于设定阈值的通话录音;
时长筛选,使用librosa音频处理库读取所述音频数据集中每个通话录音的时长,将时长小于3秒的通话录音删除。
在一个实施例中,对PLP特征参数的提取包括:
读取,使用librosa音频处理库读取每个通话录音;
参数获取,使用PLP技术对所读取的每个通话录音获取PLP特征参数。
在一个实施例中,在所述语种识别模块中,所述设定模型得出实时语音属于各个语种的概率,将概率的最大值所对应的语种类别作为识别结果输出。
在一个实施例中,在所述语种识别模块中,在所述概率的最大值大于预先设定的输出阈值的情况下,将概率的最大值所对应的语种类别作为识别结果输出。
本领域技术人员应当明白,可以通过各种方式来实现语种识别装置1000。例如,可以通过指令配置处理器来实现语种识别装置1000。例如,可以将指令存储在ROM中,并且当启动设备时,将指令从ROM读取到可编程器件中来实现语种识别装置1000。例如,可以将语种识别装置1000固化到专用器件(例如ASIC)中。可以将语种识别装置1000分成相互独立的单元,或者可以将它们合并在一起实现。语种识别装置1000可以通过上述各种实现方式中的一种来实现,或者可以通过上述各种实现方式中的两种或更多种方式的组合来实现。
在本实施例中,语种识别装置1000可以具有多种实现形式,例如,可以是任何的提供控制服务的软件产品或者应用程序中运行的功能模块,或者是这些软件产品或者应用程序的外设嵌入件、插件、补丁件等,还可以是这些软件产品或者应用程序本身。
<可读存储介质>
在本实施例中,还提供一种可读存储介质,其上存储有计算机程序,计算机程序在被处理器执行时实现如本公开任意实施例的语种识别方法。
本公开可以是***、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本公开的范围由所附权利要求来限定。
Claims (10)
1.一种基于深度学习的语种识别方法,其特征在于,所述方法包括:
语种标签获取步骤,获取历史通话录音集,识别所述历史通话录音集中每个通话录音的语种类别,并根据识别出的语种类别为所对应的通话录音标记语种标签,得到包括多个带有语种标签的通话录音的音频数据集;
模型训练步骤,通过所述音频数据集训练设定模型的模型参数,得到专用于语种识别的识别模型;
语种识别步骤,将实时语音输入至所述识别模型进行语种识别,得到并输出所述实时语音的语种类别。
2.根据权利要求1所述的方法,其特征在于,所述设定模型是基于深度神经网络实现的语音特征模型。
3.根据权利要求1所述的方法,其特征在于,所述模型训练步骤还包括特征提取步骤,对所述音频数据集的PLP特征参数进行提取,利用所述PLP特征参数对所述设定模型进行模型训练。
4.根据权利要求3所述的方法,其特征在于,在所述语种识别步骤中,对所述实时语音的PLP特征参数进行提取,将所提取的实时语音的PLP特征参数输入至所述识别模型来对所述实时语音进行语种识别。
5.根据权利要求1所述的方法,其特征在于,所述方法在所述模型训练步骤之前还包括过滤步骤,所述过滤步骤包括错误类别剔除步骤、识别度筛选步骤、时长筛选步骤中的至少一个步骤;其中,
错误类别剔除步骤,从所述音频数据集中删除带有特定语种标签的通话录音,其中,所述特定语种标签为不属于预先设定的语种类别集的标签;
识别度筛选步骤,从所述音频数据集中删除对于语种类别的识别准确率低于设定阈值的通话录音;
时长筛选步骤,使用librosa音频处理库读取所述音频数据集中每个通话录音的时长,将时长小于3秒的通话录音删除。
6.根据权利要求3所述的方法,其特征在于,所述特征提取步骤包括:
读取步骤,使用librosa音频处理库读取每个通话录音;
参数获取步骤,使用PLP技术对所读取的每个通话录音获取PLP特征参数。
7.根据权利要求1所述的方法,其特征在于,在所述语种识别步骤中,所述设定模型得出实时语音属于各个语种的概率,将概率的最大值所对应的语种类别作为识别结果输出。
8.根据权利要求7所述的方法,其特征在于,在所述语种识别步骤中,在所述概率的最大值大于预先设定的输出阈值的情况下,将所述概率的最大值所对应的语种类别作为识别结果输出。
9.一种基于深度学习的语种识别装置,其特征在于,所述装置包括:
语种标签获取模块,获取历史通话录音集,识别所述历史通话录音集中每个通话录音的语种类别,并根据识别出的语种类别为所对应的通话录音标记语种标签,得到包括多个带有语种标签的通话录音的音频数据集;
模型训练模块,通过所述音频数据集训练设定模型的模型参数,得到专用于语种识别的识别模型;
语种识别模块,将实时语音输入至所述识别模型进行语种识别,得到并输出所述实时语音的语种类别。
10.一种可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时实现如权利要求1至8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210519620.0A CN115188366A (zh) | 2022-05-12 | 2022-05-12 | 基于深度学习的语种识别方法、装置、可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210519620.0A CN115188366A (zh) | 2022-05-12 | 2022-05-12 | 基于深度学习的语种识别方法、装置、可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115188366A true CN115188366A (zh) | 2022-10-14 |
Family
ID=83513580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210519620.0A Pending CN115188366A (zh) | 2022-05-12 | 2022-05-12 | 基于深度学习的语种识别方法、装置、可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115188366A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101894548A (zh) * | 2010-06-23 | 2010-11-24 | 清华大学 | 一种用于语种识别的建模方法及装置 |
CN105336324A (zh) * | 2015-11-17 | 2016-02-17 | 百度在线网络技术(北京)有限公司 | 一种语种识别方法及装置 |
US20190318725A1 (en) * | 2018-04-13 | 2019-10-17 | Mitsubishi Electric Research Laboratories, Inc. | Methods and Systems for Recognizing Simultaneous Speech by Multiple Speakers |
CN110517663A (zh) * | 2019-08-01 | 2019-11-29 | 北京语言大学 | 一种语种识别方法及识别*** |
CN111783437A (zh) * | 2020-06-03 | 2020-10-16 | 广州云趣信息科技有限公司 | 基于深度学习实现语种识别的方法 |
CN111986650A (zh) * | 2020-08-07 | 2020-11-24 | 云知声智能科技股份有限公司 | 借助语种识别辅助语音评测的方法及*** |
CN114360506A (zh) * | 2021-12-14 | 2022-04-15 | 苏州驰声信息科技有限公司 | 一种语种识别方法及装置 |
-
2022
- 2022-05-12 CN CN202210519620.0A patent/CN115188366A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101894548A (zh) * | 2010-06-23 | 2010-11-24 | 清华大学 | 一种用于语种识别的建模方法及装置 |
CN105336324A (zh) * | 2015-11-17 | 2016-02-17 | 百度在线网络技术(北京)有限公司 | 一种语种识别方法及装置 |
US20190318725A1 (en) * | 2018-04-13 | 2019-10-17 | Mitsubishi Electric Research Laboratories, Inc. | Methods and Systems for Recognizing Simultaneous Speech by Multiple Speakers |
CN110517663A (zh) * | 2019-08-01 | 2019-11-29 | 北京语言大学 | 一种语种识别方法及识别*** |
CN111783437A (zh) * | 2020-06-03 | 2020-10-16 | 广州云趣信息科技有限公司 | 基于深度学习实现语种识别的方法 |
CN111986650A (zh) * | 2020-08-07 | 2020-11-24 | 云知声智能科技股份有限公司 | 借助语种识别辅助语音评测的方法及*** |
CN114360506A (zh) * | 2021-12-14 | 2022-04-15 | 苏州驰声信息科技有限公司 | 一种语种识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110085251B (zh) | 人声提取方法、人声提取装置及相关产品 | |
CN107103903B (zh) | 基于人工智能的声学模型训练方法、装置及存储介质 | |
CN109889920B (zh) | 网络课程视频剪辑方法、***、设备及存储介质 | |
CN111160004B (zh) | 一种断句模型的建立方法及装置 | |
CN107679032A (zh) | 语音转换纠错方法和装置 | |
CN111081279A (zh) | 语音情绪波动分析方法及装置 | |
CN110942763B (zh) | 语音识别方法及装置 | |
CN109087667B (zh) | 语音流利度识别方法、装置、计算机设备及可读存储介质 | |
CN113488024B (zh) | 一种基于语义识别的电话打断识别方法和*** | |
CN111160003B (zh) | 一种断句方法及装置 | |
CN112818680B (zh) | 语料的处理方法、装置、电子设备及计算机可读存储介质 | |
CN114360557B (zh) | 语音音色转换方法、模型训练方法、装置、设备和介质 | |
CN113903363B (zh) | 基于人工智能的违规行为检测方法、装置、设备及介质 | |
CN111009238A (zh) | 一种拼接语音的识别方法和装置以及设备 | |
CN111276129A (zh) | 一种电视剧音频分割方法和装置以及设备 | |
CN113744727A (zh) | 模型训练方法、***、终端设备及存储介质 | |
CN110706710A (zh) | 一种语音识别方法、装置、电子设备及存储介质 | |
US20180268736A1 (en) | Communication tone coach | |
CN111326142A (zh) | 基于语音转文本的文本信息提取方法、***和电子设备 | |
CN112885379A (zh) | 客服语音评估方法、***、设备及存储介质 | |
CN111554270A (zh) | 训练样本筛选方法及电子设备 | |
CN115188366A (zh) | 基于深度学习的语种识别方法、装置、可读存储介质 | |
CN112466286A (zh) | 数据处理方法及装置、终端设备 | |
CN115440238A (zh) | 一种语音自动标注数据中的噪音筛选方法及*** | |
CN113823271B (zh) | 语音分类模型的训练方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20221014 |
|
RJ01 | Rejection of invention patent application after publication |