CN112738338B - 基于深度学习的电话识别方法、装置、设备及介质 - Google Patents
基于深度学习的电话识别方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN112738338B CN112738338B CN202011564958.5A CN202011564958A CN112738338B CN 112738338 B CN112738338 B CN 112738338B CN 202011564958 A CN202011564958 A CN 202011564958A CN 112738338 B CN112738338 B CN 112738338B
- Authority
- CN
- China
- Prior art keywords
- call voice
- voice signal
- network
- call
- short
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000013135 deep learning Methods 0.000 title claims abstract description 45
- 238000013145 classification model Methods 0.000 claims abstract description 19
- 238000001228 spectrum Methods 0.000 claims description 96
- 238000000605 extraction Methods 0.000 claims description 29
- 238000004458 analytical method Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 5
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000002265 prevention Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012550 audit Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010183 spectrum analysis Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/22—Arrangements for supervision, monitoring or testing
- H04M3/2281—Call monitoring, e.g. for law enforcement purposes; Call tracing; Detection or prevention of malicious calls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/14—Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
- G06F17/141—Discrete Fourier transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/12—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Mathematics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Pure & Applied Mathematics (AREA)
- Computing Systems (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Technology Law (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Discrete Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明涉及人工智能技术领域,揭露一种基于深度学习的电话识别方法,包括:采集客户端的通话语音信号;提取通话语音信号的特征;将通话语音信号的特征输入语音分类模型,获得通话语音信号的分类,所述分类包括正常电话、骚扰电话和诈骗电话。本发明还涉及基于深度学习的电话识别装置、电子设备和介质。本发明提高捕获有效特征的准确性,提高骚扰电话和诈骗电话的识别率。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于深度学习的电话识别方法、装置、电子设备及计算机可读存储介质。
背景技术
随着移动通信业务在全球范围内的快速发展,用户在享受移动网络便捷服务的同时也伴随着一些问题,其中就包括很大一部分用户经常受到一些不良、不法电话或者信息的骚扰与诈骗,该类问题也逐渐成为业界重视的问题。
对于移动客户端的电话防骚扰、防诈骗,目前业界采用较多的是利用人工标注方法:当接收人员标记出该拨入电话为骚扰类电话,该拨入号码将会作为可能存在风险的号码被纳入云端数据库中,当该号码被标记超过一定次数时,该号码将会作为黑名单号码处理。另外近些年来,也出现了通过数据挖掘技术并结合贝叶斯算法等处理手段,利用数据间的特性来实现对于可疑号码的识别。
目前对于骚扰、诈骗电话的识别与拦截仍然处于研究阶段,不过对于现有的识别与拦截技术进行分析,仍然存在一些不足和问题:1)对于纳入数据库中的标记号码需要大量的人工标注来进行该工作,2)传统防骚扰技术对于骚扰电话的识别率较低,对于可能存在诈骗嫌疑的语音通话无法做到有效识别,3)未考虑到大数据集的语音数据对于防骚扰、防诈骗识别的作用。
发明内容
本发明提供一种基于深度学习的电话识别方法、装置、电子设备及计算机可读存储介质,其主要目的在于提高捕获有效特征的准确性,使语音识别有更好的准确率,提高骚扰电话和诈骗电话的识别率。
为实现上述目的,本发明提供的一种基于深度学习的电话识别方法,包括:
采集客户端的通话语音信号;
提取通话语音信号的特征;
将所述通话语音信号的特征输入语音分类模型,获得通话语音信号的分类,所述分类包括正常电话、骚扰电话和诈骗电话;
其中,所述提取通话语音信号的特征的步骤包括:
利用openSMILE提取出所述通话语音信号中的PLP特征;
利用脚本调用提取所述PLP特征对应的config文件来生成通话语音信号所对应的PLP特征数据;
利用Faster RCNN网络对所述PLP特征数据进行特征再提取,得到通话语音信号的特征。
可选地,所述利用openSMILE提取出通话语音信号中的PLP特征的步骤包括:
通话语音信号经过采样、加窗、离散傅里叶变换后,取短时语音频谱的实部和虚部的平方和,得到短时功率谱,
P(f)=Rx[X(f)]2+Im[X(f)]2
其中,X(f)为通话语音信号的短时频谱,f为通话语音信号的短时频谱的频率轴,Rx[X(f)]2为通话语音信号的短时频谱的实部,Im[X(f)]2为通话语音信号的短时频谱的虚部,P(f)为通话语音信号的短时功率谱;
对通话语音信号的短时功率谱进行临界频带分析,得到通话语音信号的多个临界带宽听觉谱θ(k);
通过下式对多个临界带宽听觉谱θ(k)进行等响度预加重,
Γ(k)=E[f0(k)]θ(k),(k=1,2,...,17)
其中,Γ(k)为等响度预加重后的听觉谱,f0(k)表示第k个临界带宽听觉谱的中心频率对应的频率,E[f0(k)]表示频率f0(k)所对应的等响曲线,通过下式获得:
对等响度预加重后的多个临界带宽听觉谱θ(k)通过下式进行强度-响度转换
φ(k)=Γ(k)0.33
其中,φ(k)为强度-响度转换后的多个临界带宽听觉谱;
经过强度-响度转换后的多个临界带宽听觉谱θ(k)经过傅里叶逆变换,获得傅里叶逆变换后的通话语音信号进行计算全极点模型,并求出通话语音信号的倒谱系数,得到PLP特征。
可选地,所述对通话语音信号的短时功率谱进行临界频带分析的步骤包括:
对通话语音信号的短时功率谱通过下式进行临界频带分析,
其中,Z(f)为Bark域频率;
将频谱P(f)的频率轴f映射到Bark频率Z,得到17个频带,每个频带的能量谱与加权系数相乘求和之后得到临界带宽听觉谱θ(k),
其中,Z0(k)表示第k个临界带宽听觉谱的中心频率,ψ(Z-Z0(k))为每个频带对应的加权系数,P(f(z))为每个频带对应的能量谱。
可选地,
所述Faster RCNN网络的构建步骤包括:
通过卷积层、RNP网络、综合卷积层和全连接层构建Faster RCNN网络;
通过所述卷积层提取语音特征的特征图;
通过所述RNP网络生成候选区域;
利用softmax判断锚框类型,通过修正锚框获得候选区域;
通过所述综合卷积层提取的特征图和RNP网络获得候选区域,提取出多个候选特征图;
通过所述全连接层综合多个候选特征图。
可选地,所述语音分类模型为Transformer网络。
可选地,所述Transformer网络的构建步骤包括
通过编码器和解码器构建Transformer网络;
通过所述编码器对所述Faster RCNN网络提取的通话语音信号的特征进行编码得到上下文语义向量;
通过所述解码器对得到的上下文语义向量进行数据解码,通过一层softmax得出分类类别。
可选地,还包括:将Faster RCNN和Transformer网络组合为语音类别识别网络,将语音类别识别网络上传至云端。
为了解决上述问题,本发明还提供一种基于深度学习的电话识别装置,所述装置包括:
采集模块,采集客户端的通话语音信号;
特征提取模块,提取采集模块采集的通话语音信号的特征;
分类模块,构建语音分类模型,将特征提取模块提取的通话语音信号的特征输入语音分类模型,获得通话语音信号的分类,所述分类包括正常电话、骚扰电话和诈骗电话;
其中,所述特征提取模块包括:
第一特征提取子模块,利用openSMILE提取出通话语音信号中的PLP特征;
特征数据生成子模块,利用脚本调用第一特征提取子模块提取的PLP特征对应的config文件来生成通话语音信号所对应的PLP特征数据;
第二特征提取子模块,利用Faster RCNN网络对特征数据生成子模块生成个的PLP特征数据进行特征再提取。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现上述所述的基于深度学习的电话识别方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现上述所述的基于深度学习的电话识别方法。
本发明所述基于深度学习的电话识别方法、装置、电子设备及计算机可读存储介质提取PLP特征,生成PLP数据,然后再利用Faster RCNN网络进行二次特征提取,经过两次特征提取,舍弃掉一些无用特征数据,提高捕获有效特征的准确性,使语音识别有更好的准确率。
附图说明
图1为本发明一实施例提供的基于深度学习的电话识别方法的流程示意图;
图2为本发明一实施例提供的提取通话语音信号的特征方法的流程示意图;
图3为本发明一实施例提供的利用openSMILE提取出通话语音信号中的PLP特征方法的流程示意图;
图4为本发明一实施例提供的对通话语音信号的短时功率谱进行临界频带分析的方法的流程示意图;
图5为本发明一实施例提供的基于深度学习的电话识别装置的模块示意图;
图6为本发明一实施例提供的实现基于深度学习的电话识别方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于深度学习的电话识别方法。参照图1所示,为本发明一实施例提供的基于深度学习的电话识别方法的流程示意图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,基于深度学习的电话识别方法包括:
步骤S100:采集客户端的通话语音信号;
步骤S200:提取通话语音信号的特征,如图2所示,包括:
步骤S210,利用openSMILE提取出通话语音信号中的PLP(感知线性预测系数)特征;
步骤S220,利用脚本调用提取PLP特征对应的config文件来生成通话语音信号所对应的PLP特征数据,优选地,利用CSV文件进行数据存储;
步骤S230,利用Faster RCNN网络对PLP特征数据进行特征再提取。
步骤S300:将通话语音信号的特征输入语音分类模型,获得通话语音信号的分类,所述分类包括正常电话、骚扰电话和诈骗电话。
在一个实施例中,如图3所示,步骤S210包括:将语音信号通过傅里叶变换得到频谱,再对幅度求平方,然后需要经过临界频带积分,后续需要进行等响度预加重和强度响度变换,最后是进行逆傅里叶变换和线性预测得到PLP特征,具体地,包括:
步骤S211,对通话语音信号进行频谱分析,也就是说对通话语音信号进行通过傅里叶变换得到频谱,再对幅度求平方,具体地:通话语音信号经过采样、加窗、离散傅里叶变换后,取短时语音频谱的实部和虚部的平方和,得到短时功率谱,
P(f)=Rx[X(f)]2+Im[X(f)]2 (1)
其中,X(f)为通话语音信号的短时频谱,f为通话语音信号的短时频谱的频率轴,Rx[X(f)]2为通话语音信号的短时频谱的实部,Im[X(f)]2为通话语音信号的短时频谱的虚部,P(f)为通话语音信号的短时功率谱。
步骤S212,对通话语音信号的短时功率谱进行临界频带分析,得到通话语音信号的多个临界带宽听觉谱θ(k),临界频带的划分反映了人耳听觉的掩蔽效应,
步骤S213,通过下式(5)对多个临界带宽听觉谱θ(k)进行等响度预加重,优选地,采用模拟人耳等响曲线E(f)(大约40dB)对θ(k)进行等响度曲线加重,
Γ(k)=E[f0(k)]θ(k),(k=1,2,...,17) (5)
其中,Γ(k)为等响度预加重后的听觉谱,f0(k)表示第k个临界带宽听觉谱的中心频率对应的频率,E[f0(k)]表示频率f0(k)所对应的等响曲线,通过下式(6)获得:
步骤S214,对等响度预加重后的多个临界带宽听觉谱θ(k)通过下式(7)进行强度-响度转换,近似模拟声音的强度与人耳感受的响度间的非线性关系
φ(k)=Г(k)0.33 (7)
其中,φ(k)为强度-响度转换后的多个临界带宽听觉谱。
步骤S215,经过强度-响度转换后的多个临界带宽听觉谱θ(k)经过傅里叶逆变换,获得傅里叶逆变换后的通话语音信号进行计算全极点模型,并求出通话语音信号的倒谱系数,得到PLP特征。
在一个实施例中,步骤S212包括:
对通话语音信号的短时功率谱通过下式(2)进行临界频带分析
其中,Z(f)为Bark域频率。
将频谱P(f)的频率轴f映射到Bark频率Z,得到17个频带(Bark域有24个频带,范围为:20-15500Hz,经过之前的处理该步骤可得到其中17个频带),在17个频带中每个频带内的能量谱与公式(3)的加权系数相乘,在求和之后得到临界带宽听觉谱θ(k)
其中,Z0(k)表示第k个临界带宽听觉谱的中心频率,ψ(Z-Z0(k))为每个频带对应的加权系数,P(f(z))为每个频带对应的能量谱。
在一个实施例中,步骤S230中,Faster RCNN网络包括Conv Layers(卷积层)、RegionProposalNetwork(RNP网络)、RoiPooling(综合卷积层)和Classification(全连接层),其中,Conv Layers:使用conv、relu、pooling基础cnn网络层提取语音特征的featuremaps(特征图);RegionProposalNetwork:该网络用于生成regionproposals(候选区域),利用softmax判断anchors(锚框)类型,之后通过修正anchors获得精确的regionproposals;RoiPooling:收集输入的featuremaps和regionproposals,综合两部分信息提取出proposalfeaturemaps。也就是说,所述Faster RCNN网络的构建步骤包括:
通过卷积层、RNP网络、综合卷积层和全连接层构建Faster RCNN网络;
通过所述卷积层提取语音特征的特征图;
通过所述RNP网络生成候选区域;
利用softmax判断锚框类型,通过修正锚框获得候选区域;
通过所述综合卷积层提取的特征图和RNP网络获得候选区域,提取出多个候选特征图;
通过所述全连接层综合多个候选特征图
在一个而实施例中,步骤S300包括:
所述语音分类模型为Transrormer网络,也就是说,采用Transformer网络对通话语音数据进行分类。
Transformer网络由两部分构成,分别为Encoders(编码器)和Decoders(解码器),Transformer网络中的Encoders首先会对前面Faster RCNN网络提取的语音数据特征进行数据的编码得到上下文语义向量(contextvector),后者利用Decoders对其得到的上下文语义向量进行数据解码,最后通过一层softmax得出分类类别。也就是说,所述Transformer网络的构建步骤包括
通过编码器和解码器构建Transformer网络;
通过所述编码器对所述Faster RCNN网络提取的通话语音信号的特征进行编码得到上下文语义向量;
通过所述解码器对得到的上下文语义向量进行数据解码,通过一层softmax得出分类类别
在一个实施例中,Decoders两部分中都同时加入了positionalencoding(位置编码)。Positionalencoding公式为:
其中,pos表示Faster RCNN提取语音数据特征后语音内容位置,i表示语音内容维度,dmodel为模型维度,PE即为positionalencoding。
在一个实施例中,步骤S300还包括:
对语音分类模型进行训练。
在一个实施例中,基于深度学习的电话识别方法还包括:
黑名单号码的拨号和信息拦截,包括:对于新拨入号码的语音识别结果如果识别为非正常通话(骚扰、诈骗),即刻提示用户进行纳入黑名单处理,被纳入黑名单的号码在以后的拨号过程中将会被拦截,该号码也会在手机***的黑名单中共享,该号码的信息发送也会被拦截。
在一个而实施例中,基于深度学习的电话识别方法还包括:
向客户端反馈通话语音数据的识别结果。
本发明所述基于深度学习的电话识别方法基于深度学习实现电话端防骚扰防诈骗的识别与拦截,可以对现实生活中用户接入的拨号语音进行分析,对可能存在高风险的号码进行有效的防骚扰、防诈骗识别,用户可根据风险提示利用该***直接将拨入号码拉黑进入黑名单,无需用户再另做处理。另外根据共享的黑名单也可以对已标识的号码进行垃圾信息的拦截。拨号与发送消息两方面的拦截处理有效的帮助用户进行黑名单号码过滤,一方面用户不用再接听已处理的骚扰拨号,另一方面减少了电话诈骗案例发生的次数,有效降低了用户的生命财产损失。
在一个实施例中,为了提升识别的效率和降低能耗,将Faster RCNN和Transformer网络组合为语音类别识别网络,将语音类别识别网络上传至云端,对已经过客户端同意上传的通话语音进行特征分析识别,若该识别结果为正常通话,则该通话识别过程结束,如果该识别结果为非正常通话,则将该通话识别结果推送至用户并建议其将该拨号纳入黑名单处理,经用户确认后确认结果再次回传云端,具体地,如图4所示,基于深度学习的电话识别方法包括:
采集客户端的语音通话信号;
对语音通话信号进行语音音频特征提取;
构建语音类别识别网络,将语音类别识别网络上传至云端,所述语音类别识别网络包括Faster RCNN和Transformer网络;
通过语音类别识别网络识别语音音频特征;
如果语音音频特征为正常通话,则该通话识别过程结束;
如果所述语音音频特征为非正常语音通话,则判断所述语音音频特征是否骚扰电话或诈骗电话;
如果所述语音音频特征为骚扰电话或诈骗电话,则发送预警信号给客户端;
获得客户端的反馈识别结果,如果反馈识别结果是骚扰电话或诈骗电话,则将所述骚扰电话或诈骗电话纳入黑名单;
如果反馈识别结果不是骚扰电话和诈骗电话,则结束识别过程。
优选地,基于深度学习的电话识别方法还包括:
采集客户端的语音通话信号,发送是否将语音文件上传云端的指令,当接收到是客户端的上传指令时,将所述语音文件上传云端,通过语音类别识别网络对语音文件进行识别。
优选地,所述发送预警信号给客户端的步骤包括:
通过拨号或发送信息拦截给客户端。
在一个实施例中,基于深度学习的电话识别方法还包括
数据库,用于存储语音类别识别网络识别为非正常通话通过客户端反馈为正常通话的通话语音信号,还可以存储其他通话语音信号
本发明基于深度学习的电话识别方法采用了深度学习技术,用户向云端反馈识别结果会增加语音类别识别网络训练所需的标记好的语音数据,语音类别识别网络会因为语音数据量的增加和网络模型的调整对于语音识别率进而提升。因此随着语音识别过程的进行,通过不断收集可利用的骚扰类别的语音通话、诈骗类别的语音通话、正常场景下的语音通话对模型识别率的提升有可见的效果。
如图5所示,是本发明基于深度学习的电话识别装置的功能模块图。本发明所述基于深度学习的电话识别装置100可以安装于电子设备中。根据实现的功能,所述基于深度学习的电话识别装置可以包括数采集模块110、特征提取模块120和分类模块130。本发所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
数采集模块110采集客户端的通话语音信号;
特征提取模块120提取采集模块采集的通话语音信号的特征;
分类模块130构建语音分类模型,将特征提取模块提取的通话语音信号的特征输入语音分类模型,获得通话语音信号的分类,所述分类包括正常电话、骚扰电话和诈骗电话;
其中,所述特征提取模块120包括:
第一特征提取子模块121,利用openSMILE提取出通话语音信号中的PLP特征;
特征数据生成子模块122,利用脚本调用第一特征提取子模块提取的PLP特征对应的config文件来生成通话语音信号所对应的PLP特征数据;
第二特征提取子模块123,利用Faster RCNN网络对特征数据生成子模块生成个的PLP特征数据进行特征再提取。
在一个实施例中,第一特征提取子模块121包括:
短时功率谱获得单元,通话语音信号经过采样、加窗、离散傅里叶变换后,取短时语音频谱的实部和虚部的平方和,得到短时功率谱,
P(f)=Rx[X(f)]2+Im[X(f)]2
其中,X(f)为通话语音信号的短时频谱,f为通话语音信号的短时频谱的频率轴,Rx[X(f)]2为通话语音信号的短时频谱的实部,Im[X(f)]2为通话语音信号的短时频谱的虚部,P(f)为通话语音信号的短时功率谱;
临界频带分析单元,对通话语音信号的短时功率谱进行临界频带分析,得到通话语音信号的多个临界带宽听觉谱θ(k);
等响度预加重单元,通过下式对多个临界带宽听觉谱θ(k)进行等响度预加重.
Г(k)=E[f0(k)]θ(k),(k=1,2,...,17)
其中,Г(k)为等响度预加重后的听觉谱,f0(k)表示第k个临界带宽听觉谱的中心频率对应的频率,E[f0(k)]表示频率f0(k)所对应的等响曲线,通过下式获得:
强度-响度转换单元,对等响度预加重后的多个临界带宽听觉谱θ(k)通过下式进行强度-响度转换
φ(k)=Г(k)0.33
其中,φ(k)为强度-响度转换后的多个临界带宽听觉谱;
特征获得单元,经过强度-响度转换后的多个临界带宽听觉谱θ(k)经过傅里叶逆变换,获得傅里叶逆变换后的通话语音信号进行计算全极点模型,并求出通话语音信号的倒谱系数,得到PLP特征。
优选地,临界频带分析单元包括:
频带分析子单元,对通话语音信号的短时功率谱通过下式进行临界频带分析,
其中,Z(f)为Bark域频率;
临界带宽听觉谱获得子单元,将频谱P(f)的频率轴f映射到Bark频率Z,得到17个频带,每个频带的能量谱与加权系数相乘求和之后得到临界带宽听觉谱θ(k),
其中,Z0(k)表示第k个临界带宽听觉谱的中心频率,ψ(Z-Z0(k))为每个频带对应的加权系数,P(f(z))为每个频带对应的能量谱
在一个实施例中,所述Faster RCNN网络包括卷积层、RNP网络、综合卷积层和全连接层,所述卷积层提取语音特征的特征图;所述RNP网络用于生成候选区域,利用softmax判断锚框类型,通过修正锚框获得候选区域;所述综合卷积层提取的特征图和RNP网络获得候选区域,提取出多个候选特征图;所述全连接层综合多个候选特征图。
在一个实施例中,所述语音分类模型为Transformer网络,所述Transformer网络包括编码器和解码器,所述编码器对所述Faster RCNN网络提取的通话语音信号的特征进行编码得到上下文语义向量,所述编码器对得到的上下文语义向量进行数据解码,通过一层softmax得出分类类别。
如图6所示,是本发明实现基于深度学习的电话识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于深度学习的电话识别程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如基于深度学习的电话识别程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如基于深度学习的电话识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图6仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于深度学习的电话识别程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
采集客户端的通话语音信号;
提取通话语音信号的特征;
构建语音分类模型,将通话语音信号的特征输入语音分类模型,获得通话语音信号的分类,所述分类包括正常电话、骚扰电话和诈骗电话;
其中,所述提取通话语音信号的特征的步骤包括:
利用openSMILE提取出通话语音信号中的PLP特征;
利用脚本调用提取PLP特征对应的config文件来生成通话语音信号所对应的PLP特征数据;
利用Faster RCNN网络对PLP特征数据进行特征再提取。
具体地,所述处理器10对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。需要强调的是,为进一步保证上述待稽核数据的私密和安全性,上述稽核数据还可以存储于一区块链的节点中。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质可以是非易失性,也可以是易失性,计算机可读存储介质中包括计算机程序,该计算机程序被处理器执行时实现如下操作:
采集客户端的通话语音信号;
提取通话语音信号的特征;
构建语音分类模型,将通话语音信号的特征输入语音分类模型,获得通话语音信号的分类,所述分类包括正常电话、骚扰电话和诈骗电话;
其中,所述提取通话语音信号的特征的步骤包括:
利用openSMILE提取出通话语音信号中的PLP特征;
利用脚本调用提取PLP特征对应的config文件来生成通话语音信号所对应的PLP特征数据;
利用Faster RCNN网络对PLP特征数据进行特征再提取。
本发明之计算机可读存储介质的具体实施方式与上述基于深度学习的电话识别方法、装置、电子设备的具体实施方式大致相同,在此不再赘述。
本发明基于深度学习的电话识别方法、装置、电子设备及介质采用了深度学习技术,更好的利用了大量的语音数据以及数据间的相关性,提升了通话语音类别的识别率。语音类别识别网络模型中采用了新型网络结构Transformer网络,可利用GPU加速计算使其模型更新速度加快、识别效率提升。次利用了通话语音数据,利用语音数据特征训练语音类别识别网络模型,能够做到在对用户通话语音内容进行即刻分析并做出分类后起到预警作用。在防骚扰方面可以达到一定识别率,大大降低了骚扰电话的拨打频率,另外辅助用户进行黑名单处理。在防诈骗方面可以即时预警,降低了电话诈骗的犯罪率,特别是保护了防范意识较低的年轻人、老年人。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。***权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (9)
1.一种基于深度学习的电话识别方法,其特征在于,所述方法包括:
采集客户端的通话语音信号;
提取通话语音信号的特征;
将所述通话语音信号的特征输入语音分类模型,获得通话语音信号的分类,所述分类包括正常电话、骚扰电话和诈骗电话;
其中,所述提取通话语音信号的特征的步骤包括:
利用openSMILE提取出所述通话语音信号中的感知线性预测系数PLP特征;
利用脚本调用提取所述PLP特征对应的config文件来生成通话语音信号所对应的PLP特征数据;
利用Faster RCNN网络对所述PLP特征数据进行特征再提取,得到通话语音信号的特征,
其中,利用openSMILE提取出所述通话语音信号中的感知线性预测系数PLP特征,包括:
通话语音信号经过采样、加窗、离散傅里叶变换后,取短时语音频谱的实部和虚部的平方和,得到短时功率谱;
对通话语音信号的短时功率谱进行临界频带分析,得到通话语音信号的多个临界带宽听觉谱θ(k);
对多个临界带宽听觉谱θ(k)进行等响度预加重,
对等响度预加重后的多个临界带宽听觉谱θ(k)进行强度-响度转换
经过强度-响度转换后的多个临界带宽听觉谱θ(k)经过傅里叶逆变换,获得傅里叶逆变换后的通话语音信号进行计算全极点模型,并求出通话语音信号的倒谱系数,得到PLP特征,
其中,所述Faster RCNN网络的构建步骤包括:
通过卷积层、RNP网络、综合卷积层和全连接层构建Faster RCNN网络;
通过所述卷积层提取语音特征的特征图;
通过所述RNP网络生成候选区域;
利用softmax判断锚框类型,通过修正锚框获得候选区域;
通过所述综合卷积层提取的特征图和RNP网络获得候选区域,提取出多个候选特征图;
通过所述全连接层综合多个候选特征图。
2.如权利要求1所述的基于深度学习的电话识别方法,其特征在于,
得到短时功率谱的公式如下:
P(f)=Rx[X(f)]2+Im[X(f)]2
其中,X(f)为通话语音信号的短时频谱,f为通话语音信号的短时频谱的频率轴,Rx[X(f)]2为通话语音信号的短时频谱的实部,Im[X(f)]2为通话语音信号的短时频谱的虚部,P(f)为通话语音信号的短时功率谱;
通过下式对多个临界带宽听觉谱θ(k)进行等响度预加重,
Γ(k)=E[f0(k)]θ(k),k=1,2,...,17
其中,Γ(k)为等响度预加重后的听觉谱,f0(k)表示第k个临界带宽听觉谱的中心频率对应的频率,E[f0(k)]表示频率f0(k)所对应的等响曲线,通过下式获得:
对等响度预加重后的多个临界带宽听觉谱θ(k)通过下式进行强度-响度转换
φ(k)=Γ(k)0.33
其中,φ(k)为强度-响度转换后的多个临界带宽听觉谱。
4.如权利要求1所述的基于深度学习的电话识别方法,其特征在于,所述语音分类模型为Transformer网络。
5.如权利要求4所述的基于深度学习的电话识别方法,其特征在于,所述Transformer网络的构建步骤包括
通过编码器和解码器构建Transformer网络;
通过所述编码器对所述Faster RCNN网络提取的通话语音信号的特征进行编码得到上下文语义向量;
通过所述解码器对得到的上下文语义向量进行数据解码,通过一层softmax得出分类类别。
6.如权利要求4所述的基于深度学习的电话识别方法,其特征在于,还包括:将FasterRCNN和Transformer网络组合为语音类别识别网络,将语音类别识别网络上传至云端。
7.一种基于深度学习的电话识别装置,其特征在于,所述装置包括:
采集模块,采集客户端的通话语音信号;
特征提取模块,提取采集模块采集的通话语音信号的特征;
分类模块,构建语音分类模型,将特征提取模块提取的通话语音信号的特征输入语音分类模型,获得通话语音信号的分类,所述分类包括正常电话、骚扰电话和诈骗电话;
其中,所述特征提取模块包括:
第一特征提取子模块,利用openSMILE提取出通话语音信号中的感知线性预测系数PLP特征;
特征数据生成子模块,利用脚本调用第一特征提取子模块提取的PLP特征对应的config文件来生成通话语音信号所对应的PLP特征数据;
第二特征提取子模块,利用Faster RCNN网络对特征数据生成子模块生成个的PLP特征数据进行特征再提取,
其中,利用openSMILE提取出所述通话语音信号中的感知线性预测系数PLP特征,包括:
通话语音信号经过采样、加窗、离散傅里叶变换后,取短时语音频谱的实部和虚部的平方和,得到短时功率谱;
对通话语音信号的短时功率谱进行临界频带分析,得到通话语音信号的多个临界带宽听觉谱θ(k);
对多个临界带宽听觉谱θ(k)进行等响度预加重,
对等响度预加重后的多个临界带宽听觉谱θ(k)进行强度-响度转换
经过强度-响度转换后的多个临界带宽听觉谱θ(k)经过傅里叶逆变换,获得傅里叶逆变换后的通话语音信号进行计算全极点模型,并求出通话语音信号的倒谱系数,得到PLP特征,
其中,所述Faster RCNN网络的构建步骤包括:
通过卷积层、RNP网络、综合卷积层和全连接层构建Faster RCNN网络;
通过所述卷积层提取语音特征的特征图;
通过所述RNP网络生成候选区域;
利用softmax判断锚框类型,通过修正锚框获得候选区域;
通过所述综合卷积层提取的特征图和RNP网络获得候选区域,提取出多个候选特征图;
通过所述全连接层综合多个候选特征图。
8.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任一所述的基于深度学习的电话识别方法。
9.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一所述的基于深度学习的电话识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011564958.5A CN112738338B (zh) | 2020-12-25 | 2020-12-25 | 基于深度学习的电话识别方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011564958.5A CN112738338B (zh) | 2020-12-25 | 2020-12-25 | 基于深度学习的电话识别方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112738338A CN112738338A (zh) | 2021-04-30 |
CN112738338B true CN112738338B (zh) | 2022-10-14 |
Family
ID=75616376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011564958.5A Active CN112738338B (zh) | 2020-12-25 | 2020-12-25 | 基于深度学习的电话识别方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112738338B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114449106B (zh) * | 2022-02-10 | 2024-04-30 | 恒安嘉新(北京)科技股份公司 | 一种异常电话号码的识别方法、装置、设备和存储介质 |
CN115334509B (zh) * | 2022-06-18 | 2023-10-31 | 义乌中国小商品城大数据有限公司 | 应用大数据服务的通话风控*** |
CN117555916B (zh) * | 2023-11-06 | 2024-05-31 | 广东电网有限责任公司佛山供电局 | 一种基于自然语言处理的语音交互方法及*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982801A (zh) * | 2012-11-12 | 2013-03-20 | 中国科学院自动化研究所 | 一种用于鲁棒语音识别的语音特征提取方法 |
CN109525700A (zh) * | 2018-12-25 | 2019-03-26 | 出门问问信息科技有限公司 | 来电识别方法、装置、计算机设备及可读存储介质 |
CN111222025A (zh) * | 2019-12-27 | 2020-06-02 | 南京中新赛克科技有限责任公司 | 一种基于卷积神经网络的诈骗号码识别方法及*** |
CN111970400A (zh) * | 2019-05-20 | 2020-11-20 | ***通信集团陕西有限公司 | 骚扰电话识别方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011007497A1 (ja) * | 2009-07-16 | 2011-01-20 | 日本電気株式会社 | 音声データ解析装置、音声データ解析方法及び音声データ解析用プログラム |
-
2020
- 2020-12-25 CN CN202011564958.5A patent/CN112738338B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982801A (zh) * | 2012-11-12 | 2013-03-20 | 中国科学院自动化研究所 | 一种用于鲁棒语音识别的语音特征提取方法 |
CN109525700A (zh) * | 2018-12-25 | 2019-03-26 | 出门问问信息科技有限公司 | 来电识别方法、装置、计算机设备及可读存储介质 |
CN111970400A (zh) * | 2019-05-20 | 2020-11-20 | ***通信集团陕西有限公司 | 骚扰电话识别方法及装置 |
CN111222025A (zh) * | 2019-12-27 | 2020-06-02 | 南京中新赛克科技有限责任公司 | 一种基于卷积神经网络的诈骗号码识别方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN112738338A (zh) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112738338B (zh) | 基于深度学习的电话识别方法、装置、设备及介质 | |
CN108833722A (zh) | 语音识别方法、装置、计算机设备及存储介质 | |
CN110047510A (zh) | 音频识别方法、装置、计算机设备及存储介质 | |
CN113903363B (zh) | 基于人工智能的违规行为检测方法、装置、设备及介质 | |
CN113488024B (zh) | 一种基于语义识别的电话打断识别方法和*** | |
CN114338623B (zh) | 音频的处理方法、装置、设备及介质 | |
CN112071300B (zh) | 语音会话方法、装置、计算机设备和存储介质 | |
CN113191787A (zh) | 电信数据的处理方法、装置电子设备及存储介质 | |
CN112037800A (zh) | 声纹核身模型训练方法、装置、介质及电子设备 | |
CN111276119A (zh) | 语音生成方法、***和计算机设备 | |
CN112019500B (zh) | 一种基于深度学习的加密流量识别方法及电子装置 | |
CN114333896A (zh) | 语音分离方法、电子设备、芯片及计算机可读存储介质 | |
CN109545226A (zh) | 一种语音识别方法、设备及计算机可读存储介质 | |
CN114155832A (zh) | 基于深度学习的语音识别方法、装置、设备及介质 | |
CN113571048A (zh) | 一种音频数据检测方法、装置、设备及可读存储介质 | |
CN110556114B (zh) | 基于注意力机制的通话人识别方法及装置 | |
CN116092503B (zh) | 联合时域和频域的伪造语音检测方法、装置、设备及介质 | |
CN116312559A (zh) | 跨信道声纹识别模型的训练方法、声纹识别方法及装置 | |
CN108010533A (zh) | 音频数据码率的自动识别方法和装置 | |
CN116072119A (zh) | 用于应急指挥的语音控制***、方法、电子设备和介质 | |
CN113555003B (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN113823292B (zh) | 基于通道注意力深度可分卷积网络的小样本话者辨认方法 | |
CN111985231B (zh) | 无监督角色识别方法、装置、电子设备及存储介质 | |
CN109065066B (zh) | 一种通话控制方法、装置及设备 | |
CN113327616A (zh) | 声纹识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |