CN108986825A - 基于语音交互的上下文获取方法及设备 - Google Patents
基于语音交互的上下文获取方法及设备 Download PDFInfo
- Publication number
- CN108986825A CN108986825A CN201810709218.2A CN201810709218A CN108986825A CN 108986825 A CN108986825 A CN 108986825A CN 201810709218 A CN201810709218 A CN 201810709218A CN 108986825 A CN108986825 A CN 108986825A
- Authority
- CN
- China
- Prior art keywords
- dialogue
- voice
- vocal print
- database
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 65
- 238000000034 method Methods 0.000 title claims abstract description 53
- 230000001755 vocal effect Effects 0.000 claims abstract description 117
- 238000012549 training Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 4
- 230000005055 memory storage Effects 0.000 claims description 2
- 238000013461 design Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/18—Artificial neural networks; Connectionist approaches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明实施例提供一种基于语音交互的上下文获取方法及设备,该方法包括:在获取到本次对话后,提取本次对话的第一声纹特征;若在声纹数据库中确定存在与第一声纹特征匹配的第二声纹特征,则从声纹数据库中获取第二声纹特征对应的第一用户标识;若确定语音数据库中存储有第一用户标识对应的已存对话,则根据本次对话与已存对话确定语音交互的上下文,并将本次对话存储至语音数据库中。本实施例可以提高获取语音交互的上下文的准确率。
Description
技术领域
本发明实施例涉及语音交互技术领域,尤其涉及一种基于语音交互的上下文获取方法及设备。
背景技术
随着人工智能技术的发展,智能语音交互产品的研发和使用备受关注。其中,智能语音交互是基于语音输入的一种交互模式,用户可以通过语音来输入自己的请求,该产品可以根据请求的意图,响应相应的内容。
现有技术中,在智能服务机器人的应用场景中,例如:迎宾机器人,警务机器人等,往往存在多个人同时与智能服务机器人交互的场景。在多人与机器人对话时,如果不能识别对话内容的来源,则无法准确的获取对话上下文,从而无法向用户提供准确的服务,造成糟糕的对话体验。目前,在假设同一用户的对话内容中不会有不同主题的内容,且两个用户的对话内容的主题是没有交叠的前提下,通过自然语言理解来根据对话含义来进行身份识别,以获取同一用户的对话上下文。
然而,在实际应用时基于自然语言理解的假设并不总是成立的,导致获取语音对话上下文的错误率较高。
发明内容
本发明实施例提供一种基于语音交互的上下文获取方法及设备,以克服获取语音对话上下文的错误率较高的问题。
第一方面,本发明实施例提供一种基于语音交互的上下文获取方法,包括:
在获取到本次对话后,提取所述本次对话的第一声纹特征;
若在声纹数据库中确定存在与所述第一声纹特征匹配的第二声纹特征,则从所述声纹数据库中获取所述第二声纹特征对应的第一用户标识;
若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中。
在一种可能的设计中,若在所述声纹数据库中确定不存在与所述第一声纹特征匹配的第二声纹特征,所述方法还包括:
根据所述第一声纹特征,生成所述用户的第二用户标识;
将所述本次对话与所述第二用户标识关联存储到语音数据库中,以及将所述用户的第一声纹特征与所述第二用户标识关联存储到声纹数据库中。
在一种可能的设计中,所述根据所述本次对话与所述已存对话确定语音交互的上下文,包括:
根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。
在一种可能的设计中,若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,所述方法还包括:
在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。
在一种可能的设计中,所述方法还包括:
将所述声纹数据库中在预设时间段内未匹配的第三用户标识以及对应的声纹特征删除。
在一种可能的设计中,所述提取所述本次对话的第一声纹特征,包括:
将所述本次对话输入至预设的声纹特征模型中,获取所述声纹特征模型输出的第一声纹特征。
在一种可能的设计中,所述将所述本次对话输入至预设的声纹特征模型中之前,所述方法还包括:
获取语音训练样本,所述语音训练样本包括语音段和标签;
根据所述语音训练样本,得到训练后的初始的声纹特征模型;所述初始的声纹特征模型包括输入层、特征层、分类层以及输出层;
将所述初始的声纹特征模型中的分类层删除,得到所述预设的声纹特征模型。
在一种可能的设计中,所述声纹特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。
第二方面,本发明实施例提供一种基于语音交互的上下文获取设备,包括:
提取模块,用于在获取到本次对话后,提取所述本次对话的第一声纹特征;
匹配模块,用于若在声纹数据库中确定存在与所述第一声纹特征匹配的第二声纹特征,则从所述声纹数据库中获取所述第二声纹特征对应的第一用户标识;
获取模块,用于若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中。
在一种可能的设计中,所述匹配模块还用于,若在所述声纹数据库中确定不存在与所述第一声纹特征匹配的第二声纹特征根据所述第一声纹特征,生成所述用户的第二用户标识;
将所述本次对话与所述第二用户标识关联存储到语音数据库中,以及将所述用户的第一声纹特征与所述第二用户标识关联存储到声纹数据库中。
在一种可能的设计中,所述获取模块具体用于:
根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。
在一种可能的设计中,所述获取模块还具体用于:若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。
在一种可能的设计中,所述匹配模块还用于:
将所述声纹数据库中在预设时间段内未匹配的第三用户标识以及对应的声纹特征删除。
在一种可能的设计中,所述提取模块具体用于:将所述本次对话输入至预设的声纹特征模型中,获取所述声纹特征模型输出的第一声纹特征。
在一种可能的设计中,还包括:建模模块;
所述建模模块用于获取语音训练样本,所述语音训练样本包括语音段和标签;
根据所述语音训练样本,得到训练后的初始的声纹特征模型;所述初始的声纹特征模型包括输入层、特征层、分类层以及输出层;
将所述初始的声纹特征模型中的分类层删除,得到所述预设的声纹特征模型。
在一种可能的设计中,所述声纹特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。
第三方面,本发明实施例提供一种基于语音交互的上下文获取设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面或第一方面各种可能的设计所述的基于语音交互的上下文获取方法。
第四方面,本发明实施例提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面或第一方面各种可能的设计所述的基于语音交互的上下文获取方法。
本实施例提供的基于语音交互的上下文获取方法,通过在获取到本次对话后,提取本次对话的第一声纹特征;若在声纹数据库中确定存在与第一声纹特征匹配的第二声纹特征,则从声纹数据库中获取第二声纹特征对应的第一用户标识;通过声纹识别实现了准确的对用户进行身份识别,若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中,通过用户标识能够获取与本次对话属于同一用户的已存对话,根据同一用户的对话来获取语音交互的上下文,避免了将不同用户的对话作为上下文,提高了获取上下文的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于语音交互的上下文获取方法的***架构图;
图2为本发明实施例提供的基于语音交互的上下文获取方法的流程图一;
图3为本发明实施例提供的基于语音交互的上下文获取方法的流程图二;
图4为本发明实施例提供的人脸特征模型的结构示意图;
图5为本发明实施例提供的基于语音交互的上下文获取设备的结构示意图;
图6为本发明实施例提供的基于语音交互的上下文获取设备的硬件结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的基于语音交互的上下文获取方法的***架构图。如图1所示,该***包括终端110和服务器120。该终端110可以为故事机、手机、平板、车载终端、迎宾机器人、警务机器人等具有语音交互功能的设备。
本实施例对终端110的实现方式不做特别限制,只要该终端110能够与用户进行语音交互即可,例如,该终端110具有麦克风,能够采集声音。该服务器120可以提供各种线上服务,能够针对用户的问答提供相应的问答结果。
对于多个用户与终端110进行对话的过程,本发明实施例也同样适用。其中,本实施例中所涉及的多个用户与终端110进行对话的过程可以为:当用户A与终端110进行对话时,在用户A与终端110的对话间隙中,用户B又插进来与终端110进行对话,此时,就存在用户A与用户B交替与终端110进行对话,由此形成了多人对话场景。
本发明实施例基于声纹来对用户进行身份识别,能够获取用户的上下文,例如能够在用户A与用户B同时于终端的交互过程中,获取用户A的上下文以及用户B的上下文,从而降低了获取上下文的错误率。在获取到同一用户语音交互的上下文之后,结合上下文来向用户反馈问答结果,提高用户体验。
本发明实施例的执行主体可以为上述的服务器,该终端在获取了用户输入的对话后,向服务器发送该对话,由服务器返回该对话的问答结果。本领域技术人员可以理解,当终端的功能足够强大时,也可以由终端在获取到对话后,自行反馈问答结果。下面以服务器作为执行主体,来详细说明本发明实施例提供的基于语音交互的上下文获取方法。
图2为本发明实施例提供的基于语音交互的上下文获取方法的流程图一,如图2所示,该方法包括:
S201、在获取到本次对话后,提取本次对话的第一声纹特征。
随着人机交互技术的发展,语音识别技术显示出其重要性。在语音识别***中,语音端点检测技术是非常重要的一项技术,通常也称为语音活动性检测技术(voiceactivity detection,VAD)。语音端点检测是指在连续声音信号中找出语音部分的语音起点和语音终点。对于语音活动性检测技术的具体实现方式,本实施例此处不做特别限制。其中,该语音活动性检测技术的执行者可以为上述的终端,也可以为终端向服务器实时发送语音,有服务器来执行。
本实施例中的本次对话和已存对话是指用户向终端输入的一条连续的语音,即一句话。在描述进行对话时,该“对话”可以理解为执行的动作。本实施例的“对话”在一些场景中还可以表示为名词。对于“对话”的词性,可根据语言描述场景来确定。
在检测到语音起点和语音终点之后,即得到了本次对话。然后提取本次对话的声纹特征。在具体实现过程中,可以通过预设的声纹特征模型来获取本次对话的第一声纹特征。
在本实施例中,终端还可以根据每个服务器的负载,对服务器进行调度,即由负载较轻的服务器来执行本实施例的步骤。
S202、判断在声纹数据库中是否存在与第一声纹特征匹配的第二声纹特征,若是,则执行S202,若否,则执行S207;
S203、从声纹数据库中获取第二声纹特征对应的第一用户标识。
在得到本次对话的第一声纹特征后,将该第一声纹特征与声纹数据库中的声纹特征进行匹配,判断是否存在与第一声纹特征匹配的第二声纹特征。
其中,该声纹数据库中存储有声纹特征以及对应的用户标识。不同的声纹特征对应的用户标识不同。
本实施例中的匹配可以理解为第一声纹特征与第二声纹特征的相似度大于预设值的前提下,相似度最高的两个声纹特征。该匹配也可以理解为第一声纹特征与第二声纹特征代表同一用户的声纹特征。
在存在与第一声纹特征匹配的第二声纹特征,从声纹数据库中获取第二声纹特征对应的第一用户标识,然后依次执行S204、S205以及S206。
在不存在与第一声纹特征匹配的第二声纹特征时,则依次执行S207和S208。
S204、判断语音数据库中是否存储有第一用户标识对应的已存对话,若是,则执行S205,若否,则执行S206;
S205、根据本次对话与已存对话确定语音交互的上下文,并将本次对话存储至语音数据库中;
S206、将本次对话与第一用户标识关联存储到语音数据库中。
在存在与第一声纹特征匹配的第二声纹特征,从声纹数据库中获取第二声纹特征对应的第一用户标识,判断语音数据库中是否存储有第一用户标识对应的已存对话。其中语音数据库中关联存储有用户标识与对应的对话。
若语音数据库中存储有第一用户标识对应的已存对话,则说明本次对话并不是预设时间段内用户向终端输入的第一句语音,则根据本次对话与已存对话确定语音交互的上下文,即在该已存对话中确定本次对话的上下文。此时,在有限数量的对话中,可以结合自然语言理解来获取与本次对话相关的已存对话,即获取上下文。然后将本次对话存储至语音数据库中,并建立本次对话与语音数据库中第一用户标识的关联关系。
若语音数据库中没有存储第一用户标识对应的已存对话,则说明本次对话是用户在预设时间段内向终端输入的第一句语音,该预设时间段为当前时刻之前的预设时间段,例如当前时刻之前的半小时。此时,认为本次对话并不具备上下文,则将本次对话与第一用户标识关联存储到语音数据库中。
可选地,在本实施例中,还可以将语音数据库和声纹数据库合为一个数据库,即在一个数据库中关联存储有用户标识、对应的声纹特征以及用户对话。可选地,还可以在数据库中直接关联存储声纹特征以及对应的用户对话。
此时,若确定存在与第一声纹特征匹配的第二声纹特征,则从数据库中获取第二声纹特征对应的已存对话,根据本次对话与已存对话确定语音交互的上下文,并将本次对话存储至语音数据库中。
在本实施例中,通过将声纹数据库和语音数据库单独设置,便于声纹数据库和语音数据库的单独存储和维护。
S207、根据第一声纹特征,生成用户的第二用户标识;
S208、将本次对话与第二用户标识关联存储到语音数据库中,以及将用户的第一声纹特征与第二用户标识关联存储到声纹数据库中。
在不存在与第一声纹特征匹配的第二声纹特征时,则说明当前的用户在此之前从未与终端进行过语音交互,则根据第一声纹特征生成第二用户标识,该用户标识可以为数字、字母等或其组合。再例如,还可以通过哈希算法来生成用户的用户标识。本实施例对用户标识的实现方式不做特别限制。
由此,将本次对话的声纹特征与第二用户标识关联存储到声纹数据库中,并将本次对话与第二用户标识关联存储到语音数据库中,以便该用户再次与终端进行语音交互时,能够基于声纹数据库和语音数据库中的内容在已存对话中获取上下文。
本实施例提供的基于语音交互的上下文获取方法,通过在获取到本次对话后,提取本次对话的第一声纹特征;若在声纹数据库中确定存在与第一声纹特征匹配的第二声纹特征,则从声纹数据库中获取第二声纹特征对应的第一用户标识;通过声纹识别实现了准确的对用户进行身份识别,若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中,通过用户标识能够获取与本次对话属于同一用户的已存对话,根据同一用户的对话来获取语音交互的上下文,避免了将不同用户的对话作为上下文,提高了获取上下文的准确率。
下面来说明确定语音交互的上下文的实现方式。图3为本发明实施例提供的基于语音交互的上下文获取方法的流程图二。如图3所示,该方法包括:
S301、根据第一用户标识从语音数据库中获取第一用户标识对应的上一对话的语音起点和语音终点;
S302、判断上一对话的语音终点与本次对话的语音起点之间的时间间隔是否小于预设间隔,若是,则执行S303,若否,则执行S304;
S303、根据本次对话与已存对话确定语音交互的上下文;
S304、在语音数据库中删除关联存储的第一用户标识和对应的已存对话。
在具体实现过程中,语音数据库中存储有用户标识以及该用户标识对应的每句话,即该用户标识与用户的至少一个对话关联存储。其中,每个对话在存储时,会对应存储该对话的语音起点的时间和语音终点的时间。
在根据声纹特征获取到第一用户标识之后,根据第一用户标识从语音数据库中获取第一用户标识对应的上一对话的语音起点和语音终点。
然后根据上一对话的语音终点的发生时间和本次对话的语音起点的发生时间,获取上一对话的语音终点与本次对话的语音起点之间的时间间隔。
若该时间间隔小于预设间隔,则说明上一次对话与本次对话为上下文对话的可能性较高,例如该预设间隔可以为10分钟、30分钟等,本实施例对该预设间隔的实现方式不做特别限制。
若该时间间隔大于或等于预设间隔,则说明该对话为用户针对一主题的上一次对话,并不能算作本次上下文对话。由此,在语音数据库中删除关联存储的第一用户标识和对应的已存对话,本次对话并不存在上下文。
可选地,在语音数据库中删除关联存储的第一用户标识和对应的已存对话时,还可以在声纹数据库中删除关联存储的第一用户标识和对应的声纹特征。
可选地,二者也可以不同步删除,可以将声纹数据库中在预设时间段内未匹配的第三用户标识以及对应的声纹特征删除。通过该删除方式,可以对关联存储的用户标识和声纹特征进行批量删除,提高了删除效率。
本领域技术人员可以理解,在每获取一个对话时,都会进行上述的操作,从而在语音数据库中存储的每个用户的多个对话都是时间间隔小于预设间隔的对话。因此,基于该用户的所有的已存对话和本次对话来获取本次对话的上下文。例如,可以该用户的本次对话以及所有的已存对话作为语音交互的上下文,也可以针对同一用户的对话,基于自然语言理解,在所有已存对话中获取本次对话的上下文。
在本实施例中,通过判断上一对话的语音终点与本次对话的语音起点之间的时间间隔是否小于预设间隔,能够更加准确的判断本次对话的上下文,提高了上下文获取的准确率。
在上述的实施例中,本发明实施例通过声纹特征模型来获取每个用户的声纹特征。下面采用详细的实施例来说明构建声纹特征模型的过程。
图4为本发明实施例提供的声纹特征模型的结构示意图。如图4所示,该声纹特征模型可以采用深度卷积神经网络(Deep Convolutional Neural Networks,Deep CNN)。该模型包括输入层、特征层、分类层以及输出层。可选地,该特征层包括卷积层、池化层、全连接层。其中,在特征层中可以包括多个交替的卷积层和池化层。
在具体实现过程中,对于不同的使用场景,基于该声纹特征模型,可以设计不同深度、不同数量神经元、不同卷积池化组织方式构成的深度神经网络模型。
在训练该模型时,获取语音训练样本,该语音训练样本包括语音段和标签。其中,标签为预先标定的声纹特征的分类结果,该标签可以为矩阵形式的向量。
将该语音段从输入层输入,输入实际可以为矩阵组成的向量,然后卷积层利用权值不同的卷积核对原始图像或特征图(feature map)进行扫描卷积,从中提取各种意义的特征,并输出至特征图中,池化层夹在连续的卷积层中间,用于压缩数据和参数的量,减小过拟合,即对特征图进行降维操作,保留特征图中的主要特征。两层之间所有神经元都有权重连接,通常全连接层在卷积神经网络尾部。最后特征经过分类层之后输出结果。
当模型的输出与标签之间的误差值小于预先设定的符合业务要求的阈值时,停止训练。利用这种具有卷积、池化操作的深度神经网络模型,可以对声音的变形、模糊、噪声等具有较高的鲁棒性,对于分类任务具有更高的可泛化性。
通过上述的模型训练过程,得到了初始的声纹特征模型,将该初始的声纹特征模型中的分类层删除,得到该预设的声纹特征模型,由于删除了分类层,所以在使用该预设的声纹特征模型时,将本次对话输入至声纹特征模型中,该声纹特征模型能够直接输出声纹特征,而不是输出分类结果。
本实施例通过使用深度卷积神经网络模型提取声纹特征,进行身份识别,能够准确的区分对话的来源,找到每个人的对话上下文,提高多人场景下的对话体验。
图5为本发明实施例提供的基于语音交互的上下文获取设备的结构示意图。如图5所示,该基于语音交互的上下文获取设备50包括:提取模块501、匹配模块502以及获取模块503。可选地,还包括建模模块504。
提取模块501,用于在获取到本次对话后,提取所述本次对话的第一声纹特征;
匹配模块502,用于若在声纹数据库中确定存在与所述第一声纹特征匹配的第二声纹特征,则从所述声纹数据库中获取所述第二声纹特征对应的第一用户标识;
获取模块503,用于若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中。
可选地,所述匹配模块502还用于,若在所述声纹数据库中确定不存在与所述第一声纹特征匹配的第二声纹特征根据所述第一声纹特征,生成所述用户的第二用户标识;
将所述本次对话与所述第二用户标识关联存储到语音数据库中,以及将所述用户的第一声纹特征与所述第二用户标识关联存储到声纹数据库中。
可选地,所述获取模块503具体用于:
根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。
可选地,所述获取模块503还具体用于:若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。
可选地,所述匹配模块502还用于:
将所述声纹数据库中在预设时间段内未匹配的第三用户标识以及对应的声纹特征删除。
可选地,所述提取模块501具体用于:将所述本次对话输入至预设的声纹特征模型中,获取所述声纹特征模型输出的第一声纹特征。
可选地,所述建模模块用于获取语音训练样本,所述语音训练样本包括语音段和标签;
根据所述语音训练样本,得到训练后的初始的声纹特征模型;所述初始的声纹特征模型包括输入层、特征层、分类层以及输出层;
将所述初始的声纹特征模型中的分类层删除,得到所述预设的声纹特征模型。
可选地,所述声纹特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。
本实施例提供的基于语音交互的上下文获取设备,其实现原理和技术效果与上述的方法实施例类似,本实施例此处不再赘述。
图6为本发明实施例提供的基于语音交互的上下文获取设备的硬件结构示意图。如图6所示,该基于语音交互的上下文获取设备60包括:至少一个处理器601和存储器602。可选地,该语音交互的上下文获取设备60还包括通信部件603。其中,处理器601、存储器602以及通信部件603通过总线604连接。
在具体实现过程中,至少一个处理器601执行所述存储器602存储的计算机执行指令,使得至少一个处理器601执行如上的基于语音交互的上下文获取方法。
通信部件603可以与其它设备进行数据交互。
处理器601的具体实现过程可参见上述方法实施例,其实现原理和技术效果类似,本实施例此处不再赘述。
在上述的6所示的实施例中,应理解,处理器可以是中央处理单元(英文:CentralProcessing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:DigitalSignal Processor,简称:DSP)、专用集成电路(英文:Application Specific IntegratedCircuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器。
总线可以是工业标准体系结构(Industry Standard Architecture,ISA)总线、外部设备互连(Peripheral Component,PCI)总线或扩展工业标准体系结构(ExtendedIndustry Standard Architecture,EISA)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,本申请附图中的总线并不限定仅有一根总线或一种类型的总线。
本申请还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上所述的基于语音交互的上下文获取方法。
上述的计算机可读存储介质,上述可读存储介质可以是由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。可读存储介质可以是通用或专用计算机能够存取的任何可用介质。
一种示例性的可读存储介质耦合至处理器,从而使处理器能够从该可读存储介质读取信息,且可向该可读存储介质写入信息。当然,可读存储介质也可以是处理器的组成部分。处理器和可读存储介质可以位于专用集成电路(Application Specific IntegratedCircuits,简称:ASIC)中。当然,处理器和可读存储介质也可以作为分立组件存在于设备中。
所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (18)
1.一种基于语音交互的上下文获取方法,其特征在于,包括:
在获取到本次对话后,提取所述本次对话的第一声纹特征;
若在声纹数据库中确定存在与所述第一声纹特征匹配的第二声纹特征,则从所述声纹数据库中获取所述第二声纹特征对应的第一用户标识;
若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中。
2.根据权利要求1所述的方法,其特征在于,若在所述声纹数据库中确定不存在与所述第一声纹特征匹配的第二声纹特征,所述方法还包括:
根据所述第一声纹特征,生成所述用户的第二用户标识;
将所述本次对话与所述第二用户标识关联存储到语音数据库中,以及将所述用户的第一声纹特征与所述第二用户标识关联存储到声纹数据库中。
3.根据权利要求1所述的方法,其特征在于,所述根据所述本次对话与所述已存对话确定语音交互的上下文,包括:
根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。
4.根据权利要求3所述的方法,其特征在于,若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,所述方法还包括:
在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述声纹数据库中在预设时间段内未匹配的第三用户标识以及对应的声纹特征删除。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述提取所述本次对话的第一声纹特征,包括:
将所述本次对话输入至预设的声纹特征模型中,获取所述声纹特征模型输出的第一声纹特征。
7.根据权利要求6所述的方法,其特征在于,所述将所述本次对话输入至预设的声纹特征模型中之前,所述方法还包括:
获取语音训练样本,所述语音训练样本包括语音段和标签;
根据所述语音训练样本,得到训练后的初始的声纹特征模型;所述初始的声纹特征模型包括输入层、特征层、分类层以及输出层;
将所述初始的声纹特征模型中的分类层删除,得到所述预设的声纹特征模型。
8.根据权利要求7所述的方法,其特征在于,所述声纹特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。
9.一种基于语音交互的上下文获取设备,其特征在于,包括:
提取模块,用于在获取到本次对话后,提取所述本次对话的第一声纹特征;
匹配模块,用于若在声纹数据库中确定存在与所述第一声纹特征匹配的第二声纹特征,则从所述声纹数据库中获取所述第二声纹特征对应的第一用户标识;
获取模块,用于若确定语音数据库中存储有所述第一用户标识对应的已存对话,则根据所述本次对话与所述已存对话确定语音交互的上下文,并将所述本次对话存储至所述语音数据库中。
10.根据权利要求9所述的设备,其特征在于,所述匹配模块还用于,若在所述声纹数据库中确定不存在与所述第一声纹特征匹配的第二声纹特征根据所述第一声纹特征,生成所述用户的第二用户标识;
将所述本次对话与所述第二用户标识关联存储到语音数据库中,以及将所述用户的第一声纹特征与所述第二用户标识关联存储到声纹数据库中。
11.根据权利要求9所述的设备,其特征在于,所述获取模块具体用于:
根据所述第一用户标识从所述语音数据库中获取所述第一用户标识对应的上一对话的语音起点和语音终点;
若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔小于预设间隔,则根据所述本次对话与所述已存对话确定语音交互的上下文。
12.根据权利要求11所述的设备,其特征在于,所述获取模块还具体用于:若确定所述上一对话的语音终点与所述本次对话的语音起点之间的时间间隔大于或等于预设间隔,在所述语音数据库中删除关联存储的所述第一用户标识和对应的已存对话。
13.根据权利要求9所述的设备,其特征在于,所述匹配模块还用于:
将所述声纹数据库中在预设时间段内未匹配的第三用户标识以及对应的声纹特征删除。
14.根据权利要求9至13任一项所述的设备,其特征在于,所述提取模块具体用于:
将所述本次对话输入至预设的声纹特征模型中,获取所述声纹特征模型输出的第一声纹特征。
15.根据权利要求14所述的设备,其特征在于,还包括:建模模块;
所述建模模块用于获取语音训练样本,所述语音训练样本包括语音段和标签;
根据所述语音训练样本,得到训练后的初始的声纹特征模型;所述初始的声纹特征模型包括输入层、特征层、分类层以及输出层;
将所述初始的声纹特征模型中的分类层删除,得到所述预设的声纹特征模型。
16.根据权利要求15所述的设备,其特征在于,所述声纹特征模型为深度卷积神经网络模型,所述特征层包括卷积层、池化层以及全连接层。
17.一种基于语音交互的上下文获取设备,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求1至8任一项所述的基于语音交互的上下文获取方法。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求1至8任一项所述的基于语音交互的上下文获取方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810709218.2A CN108986825A (zh) | 2018-07-02 | 2018-07-02 | 基于语音交互的上下文获取方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810709218.2A CN108986825A (zh) | 2018-07-02 | 2018-07-02 | 基于语音交互的上下文获取方法及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108986825A true CN108986825A (zh) | 2018-12-11 |
Family
ID=64539511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810709218.2A Pending CN108986825A (zh) | 2018-07-02 | 2018-07-02 | 基于语音交互的上下文获取方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108986825A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109545203A (zh) * | 2018-12-14 | 2019-03-29 | 深圳壹账通智能科技有限公司 | 语音识别方法、装置、设备和存储介质 |
CN110033757A (zh) * | 2019-04-04 | 2019-07-19 | 行知技术有限公司 | 一种人声识别算法 |
CN110060689A (zh) * | 2019-04-10 | 2019-07-26 | 南京启诺信息技术有限公司 | 一种具有特征人声识别的智能穿戴设备及其使用方法 |
CN110297702A (zh) * | 2019-05-27 | 2019-10-01 | 北京蓦然认知科技有限公司 | 一种多任务并行处理方法和装置 |
CN110310657A (zh) * | 2019-07-10 | 2019-10-08 | 北京猎户星空科技有限公司 | 一种音频数据处理方法及装置 |
CN111341325A (zh) * | 2020-02-13 | 2020-06-26 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、存储介质、电子装置 |
CN113160817A (zh) * | 2021-04-22 | 2021-07-23 | 平安科技(深圳)有限公司 | 基于意图识别的语音交互方法及*** |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140249819A1 (en) * | 2005-02-22 | 2014-09-04 | Nuance Communications, Inc. | Verifying a user using speaker verification and a multimodal web-based interface |
CN104268279A (zh) * | 2014-10-16 | 2015-01-07 | 魔方天空科技(北京)有限公司 | 语料数据的查询方法和装置 |
CN105810200A (zh) * | 2016-02-04 | 2016-07-27 | 深圳前海勇艺达机器人有限公司 | 基于声纹识别的人机对话装置及其方法 |
US20160225133A1 (en) * | 2015-01-30 | 2016-08-04 | Pixart Imaging Inc. | Interactive system, remote controller and operating method thereof |
CN105895101A (zh) * | 2016-06-08 | 2016-08-24 | 国网上海市电力公司 | 用于电力智能辅助服务***的语音处理设备及处理方法 |
WO2016173326A1 (zh) * | 2015-04-30 | 2016-11-03 | 北京贝虎机器人技术有限公司 | 基于主题的交互***及方法 |
US20160328548A1 (en) * | 2008-06-23 | 2016-11-10 | The John Nicholas and Kristin Gross Trust U/A/D April 13, 2010 | System and Method for Identifying Speakers |
CN106782545A (zh) * | 2016-12-16 | 2017-05-31 | 广州视源电子科技股份有限公司 | 一种将音视频数据转化成文字记录的***和方法 |
CN107086041A (zh) * | 2017-03-27 | 2017-08-22 | 竹间智能科技(上海)有限公司 | 基于加密计算的语音情感分析方法及装置 |
CN107221323A (zh) * | 2017-06-05 | 2017-09-29 | 北京智能管家科技有限公司 | 语音点歌方法、终端及存储介质 |
CN107799126A (zh) * | 2017-10-16 | 2018-03-13 | 深圳狗尾草智能科技有限公司 | 基于有监督机器学习的语音端点检测方法及装置 |
CN107808145A (zh) * | 2017-11-13 | 2018-03-16 | 河南大学 | 基于多模态智能机器人的交互身份鉴别与跟踪方法及*** |
CN107919128A (zh) * | 2017-12-01 | 2018-04-17 | 张子辰 | 一种多用户协作的语音辅助方法 |
-
2018
- 2018-07-02 CN CN201810709218.2A patent/CN108986825A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140249819A1 (en) * | 2005-02-22 | 2014-09-04 | Nuance Communications, Inc. | Verifying a user using speaker verification and a multimodal web-based interface |
US20160328548A1 (en) * | 2008-06-23 | 2016-11-10 | The John Nicholas and Kristin Gross Trust U/A/D April 13, 2010 | System and Method for Identifying Speakers |
CN104268279A (zh) * | 2014-10-16 | 2015-01-07 | 魔方天空科技(北京)有限公司 | 语料数据的查询方法和装置 |
US20160225133A1 (en) * | 2015-01-30 | 2016-08-04 | Pixart Imaging Inc. | Interactive system, remote controller and operating method thereof |
WO2016173326A1 (zh) * | 2015-04-30 | 2016-11-03 | 北京贝虎机器人技术有限公司 | 基于主题的交互***及方法 |
CN105810200A (zh) * | 2016-02-04 | 2016-07-27 | 深圳前海勇艺达机器人有限公司 | 基于声纹识别的人机对话装置及其方法 |
CN105895101A (zh) * | 2016-06-08 | 2016-08-24 | 国网上海市电力公司 | 用于电力智能辅助服务***的语音处理设备及处理方法 |
CN106782545A (zh) * | 2016-12-16 | 2017-05-31 | 广州视源电子科技股份有限公司 | 一种将音视频数据转化成文字记录的***和方法 |
CN107086041A (zh) * | 2017-03-27 | 2017-08-22 | 竹间智能科技(上海)有限公司 | 基于加密计算的语音情感分析方法及装置 |
CN107221323A (zh) * | 2017-06-05 | 2017-09-29 | 北京智能管家科技有限公司 | 语音点歌方法、终端及存储介质 |
CN107799126A (zh) * | 2017-10-16 | 2018-03-13 | 深圳狗尾草智能科技有限公司 | 基于有监督机器学习的语音端点检测方法及装置 |
CN107808145A (zh) * | 2017-11-13 | 2018-03-16 | 河南大学 | 基于多模态智能机器人的交互身份鉴别与跟踪方法及*** |
CN107919128A (zh) * | 2017-12-01 | 2018-04-17 | 张子辰 | 一种多用户协作的语音辅助方法 |
Non-Patent Citations (3)
Title |
---|
SHARMA S ET AL.: "FAREC - CNN Based Efficient Face Recognition Technique using Dlib", 《2016 INTERNATIONAL CONFERENCE ON ADVANCED COMMUNICATION CONTROL AND COMPUTING TECHNOLOGIES (ICACCCT)》 * |
刘振焘等: "语音情感特征提取及其降维方法综述", 《计算机学报》 * |
楚博策等: "基于卷积神经网络的语音特征提取算法", 《中国科技论文在线,道客巴巴》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109545203A (zh) * | 2018-12-14 | 2019-03-29 | 深圳壹账通智能科技有限公司 | 语音识别方法、装置、设备和存储介质 |
CN110033757A (zh) * | 2019-04-04 | 2019-07-19 | 行知技术有限公司 | 一种人声识别算法 |
CN110060689A (zh) * | 2019-04-10 | 2019-07-26 | 南京启诺信息技术有限公司 | 一种具有特征人声识别的智能穿戴设备及其使用方法 |
CN110297702A (zh) * | 2019-05-27 | 2019-10-01 | 北京蓦然认知科技有限公司 | 一种多任务并行处理方法和装置 |
CN110297702B (zh) * | 2019-05-27 | 2021-06-18 | 北京蓦然认知科技有限公司 | 一种多任务并行处理方法和装置 |
CN110310657A (zh) * | 2019-07-10 | 2019-10-08 | 北京猎户星空科技有限公司 | 一种音频数据处理方法及装置 |
CN110310657B (zh) * | 2019-07-10 | 2022-02-08 | 北京猎户星空科技有限公司 | 一种音频数据处理方法及装置 |
CN111341325A (zh) * | 2020-02-13 | 2020-06-26 | 平安科技(深圳)有限公司 | 声纹识别方法、装置、存储介质、电子装置 |
CN113160817A (zh) * | 2021-04-22 | 2021-07-23 | 平安科技(深圳)有限公司 | 基于意图识别的语音交互方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108920639A (zh) | 基于语音交互的上下文获取方法及设备 | |
CN108986825A (zh) | 基于语音交互的上下文获取方法及设备 | |
CN108920640A (zh) | 基于语音交互的上下文获取方法及设备 | |
CN109514586B (zh) | 实现智能客服机器人的方法及*** | |
CN111488433A (zh) | 一种适用于银行的提升现场体验感的人工智能交互*** | |
CN112784670A (zh) | 基于像素差异的对象检测 | |
US20240046159A1 (en) | Continual learning for multi modal systems using crowd sourcing | |
CN108682420A (zh) | 一种音视频通话方言识别方法及终端设备 | |
CN111653275B (zh) | 基于lstm-ctc尾部卷积的语音识别模型的构建方法及装置、语音识别方法 | |
CN105549841A (zh) | 一种语音交互方法、装置及设备 | |
CN112632244A (zh) | 一种人机通话的优化方法、装置、计算机设备及存储介质 | |
CN114268747A (zh) | 基于虚拟数字人的访谈业务处理方法及相关装置 | |
CN104361311A (zh) | 多模态在线增量式来访识别***及其识别方法 | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、***及存储介质 | |
CN114138960A (zh) | 用户意图识别方法、装置、设备及介质 | |
CN112069338A (zh) | 图片处理方法、装置、电子设备及存储介质 | |
CN111062019A (zh) | 用户攻击检测方法、装置、电子设备 | |
CN111159378B (zh) | 对问题描述信息进行分类的方法及装置 | |
CN112884083A (zh) | 智能外呼处理方法和装置 | |
CN116205726B (zh) | 一种贷款风险预测方法、装置、电子设备及存储介质 | |
CN108234785A (zh) | 电话销售提示方法、电子装置及可读存储介质 | |
CN113010664B (zh) | 一种数据处理方法、装置及计算机设备 | |
CN116304014A (zh) | 训练实体类型识别模型的方法、实体类型识别方法及装置 | |
CN113449506A (zh) | 一种数据检测方法、装置、设备及可读存储介质 | |
CN111639536A (zh) | 面审欺诈辅助识别方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181211 |