CN113362824B - 一种语音识别方法、装置及终端设备 - Google Patents
一种语音识别方法、装置及终端设备 Download PDFInfo
- Publication number
- CN113362824B CN113362824B CN202110642269.XA CN202110642269A CN113362824B CN 113362824 B CN113362824 B CN 113362824B CN 202110642269 A CN202110642269 A CN 202110642269A CN 113362824 B CN113362824 B CN 113362824B
- Authority
- CN
- China
- Prior art keywords
- output voice
- integrity
- corpus
- complete
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000004590 computer program Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
- G10L15/05—Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本发明适用于语音识别技术领域,提供了一种语音识别方法、装置及终端设备,方法包括采集目标在当前时刻的第一输出语音,并对第一输出语音进行识别获得识别结果;根据识别结果判断第一输出语音的完整性;对判断结果进行完整置信度评分;完整置信度满足预设条件时,对第一输出语音做出响应。通过本发明可以达到较好的断句效果,准确分析用户是否已经完整表达其意图,且适用范围广。
Description
技术领域
本发明涉及语音识别技术领域,尤其涉及一种语音识别方法、装置及终端设备。
背景技术
在AI(Artificial Intelligence,人工智能)设备的交互设计中,语音识别是重要部分,当用户需要与AI设备进行交互时,AI设备首先对用户的输出语音进行语音识别。而语音识别的关键技术包括语义识别和断句分词。其中,对于断句识别,通常在AI设备的交互上进行设计,使用户主动请求断句结束,如点击或释放按键;或者使用静音检测,当一段时间内没有检测到用户有语音指示,则认为触发断句。
但是,上述的第一种方式不适用于特定环境,如车载语音识别,而第二种方式中静音检测的时间判定很难有确切标准,存在识别提前结束的情况。
发明内容
本发明的主要目的在于提出一种语音识别方法、装置及终端设备,以解决现有AI设备的语音识别设计中,断句方式的设置适用范围窄、断句效果较差的问题。
为实现上述目的,本发明实施例第一方面提供一种语音识别方法,包括:
采集目标在当前时刻的第一输出语音,并对所述第一输出语音进行识别获得识别结果;
根据所述识别结果判断所述第一输出语音的完整性;
对所述判断结果进行完整置信度评分;
所述完整置信度满足预设条件时,对所述第一输出语音做出响应。
结合本发明实施例第一方面,本发明第一实施方式中,对所述第一输出语音进行识别获得识别结果,包括:
将所述第一输出语音转换为文本信息;
对所述文本信息进行分词处理,将分词处理结果作为所述识别结果。
结合本发明实施例第一方面第一实施方式,本发明第二实施方式中,根据所述识别结果判断所述第一输出语音的完整性之前,包括:
获取完整用户语料;
对N条所述完整用户语料进行拆分,其中,基于第n条所述完整性用户语料获得k组拆分语料;
对每组所述拆分语料进行语料完整性分类,所述拆分语料的数量与所述语料完整性的数值成正比;
基于进行语料完整性分类后的完整用户语料构建完整用户语料库。
结合本发明实施例第一方面第二实施方式,本发明第三实施方式中,根据所述识别结果判断所述第一输出语音的完整性,包括:
将所述识别结果在所述完整用户语料库中进行匹配,获得基于所述识别结果的语料完整性;
所述识别结果的语料完整性大于预设数值时,所述第一输出语音完整。
结合本发明实施例第一方面,本发明第四实施方式中,所述完整置信度不满足预设条件时,获取目标在下一时刻的第二输出语音,并对所述第二输出语音进行识别获得补充识别结果;
将所述识别结果和所述补充识别结果拼接,并根据所述拼接结果判断所述第一输出语音和所述第二输出语音的完整性;
所述第一输出语音和所述第二输出语音完整时根据拼接结果进行响应。
结合本发明实施例第一方面第四实施方式,本发明第五实施方式中,所述第一输出语音和所述第二输出语音不完整时删除基于所述第一输出语音的识别结果。
结合本发明实施例第一方面第四实施方式,本发明第六实施方式中,若无法获取到目标在下一时刻的第二输出语音,则删除所述第一输出语音及基于所述第一输出语音的识别结果。
本发明实施例第二方面提供一种语音识别装置,包括:
第一输出语音获取模块,用于采集目标在当前时刻的第一输出语音,并对所述第一输出语音进行识别获得识别结果;
完整性判断模块,用于根据所述识别结果判断所述第一输出语音的完整性;
置信度评分模块,用于对所述判断结果进行完整置信度评分;
语音响应模块,用于所述完整置信度满足预设条件时,对所述第一输出语音做出响应。
本发明实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在上述存储器中并可在上述处理器上运行的计算机程序,上述处理器执行上述计算机程序时实现如上第一方面所提供的方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现如上第一方面所提供的方法的步骤。
本发明实施例提出一种语音识别方法,将用户作为目标,采集目标在当前时刻的第一输出语音,并对第一输出语音进行完整性判断及完整置信度分析,进而分析用户是否已经完整表达其意图,与用户主动请求断句结束的方式相比,其不需要用户手动进行交互操作,不受限于应用场景,适用范围广;与静音检测的断句方式相比,避免了静音检测的时间判定难以设置而使得语音识别提前结束,无法识别用户完整意图的情况。
附图说明
图1为本发明实施例提供的语音识别方法的实现流程示意图;
图2为本发明实施例提供的语音识别装置的组成结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
在本文中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,"模块"与"部件"可以混合地使用。
如图1所示,本发明实施例提供一种语音识别方法,应用于AI设备,其包括但不限于如下步骤:
S101、采集目标在当前时刻的第一输出语音,并对所述第一输出语音进行识别获得识别结果。
在上述步骤S101中,目标为当前使用AI设备的用户,则可以想到的是,采集目标在当前时刻的第一输出语音之前,还应识别当前目标是否为具有使用权限的用户。
在具体应用中,如在车载语音识别的环境中,具有使用权限的用户可以限定为驾驶员,在家庭语音识别的环境中,具有使用权限的用户可以为使用预设指示语句的用户。
在上述步骤S101中,第一输出语音的识别为自然语音识别,即将第一输出语音转换为机器可识别的文本信息。
在一个实施例中,上述步骤S101的一种实现方式可以为:
将所述第一输出语音转换为文本信息;
对所述文本信息进行分词处理,将分词处理结果作为所述识别结果。
在本发明实施例中,通过分词处理一方面模拟用户对句子的理解,达到语义分析的效果,另一方面如下述步骤S102所示,用于判断所述第一输出语音的完整性。
S102、根据所述识别结果判断所述第一输出语音的完整性。
在上述步骤S102中,通过判断第一输出语音的完整性,获取目标是否断句结束的信息,详细地说,判断出第一输出语音完整时,目标断句结束,即用户已经给出了完整的语音指示;判断第一输出语音不完整时,目标断句未结束,即用户还未给出完整的语音指示。
在本发明实施例中,识别结果为经过分词处理的文本信息,在根据识别结果对第一输出语音的完整性进行判断时,使用完整用户语料库对识别结果的完整性进行评估,则实现上述步骤S102之前,还需构建完整用户语料库,其实现方式为:
根据所述识别结果判断所述第一输出语音的完整性之前,包括:
获取完整用户语料;
对N条所述完整用户语料进行拆分,其中,基于第n条所述完整用户语料获得k组拆分语料;
对每组所述拆分语料进行语料完整性分类,所述拆分语料的数量与所述语料完整性的数值成正比;
基于进行语料完整性分类后的完整用户语料构建完整用户语料库。
本实施例以具体数据对上述的完整用户语料库进行说明,假设当前有完整用户语料导航到A地点,导航到B地点以及导航到C地点,则对其进行拆分后,可以获得基于第1条完整用户语料的3组拆分语料,表示为:{导航到,A地点},{导航到},{A地点};以及基于第2条完整用户语料的3组拆分语料,表示为:{导航到,B地点},{导航到},{B地点};以及基于第3条完整用户语料的3组拆分语料,表示为:{导航到,C地点},{导航到},{C地点}。且其中,{导航到,A地点}、{导航到,B地点}、{导航到,C地点}的语料完整性的数值可以假设为2,{导航到}、{A地点}、{B地点}、{C地点}的语料完整性的数值可以假设为1。
基于上述的完整用户语料库,上述步骤S102的实现方式包括:
将所述识别结果在所述完整用户语料库中进行匹配,获得基于所述识别结果的语料完整性;
所述识别结果的语料完整性大于预设数值时,所述第一输出语音完整。
通过上述的匹配,可以获得识别结果的语料完整性,结合上述的具体数据,设置预设数值为1,因为根据完整用户语料拆分获得的拆分语料中,{导航到}、{A地点}、{B地点}、{C地点}为不完整语料,其语料完整性的数值均为1。则当第一输出语音为导航到时,根据上述步骤S101及其详细实现方式,识别结果为{导航到},将其在完整用户语料库中进行匹配,而在完整性语料数据库中,其与上述的3条完整用户语料的匹配结果均表示其语料完整性的数值为1,因此,此时可以判断第一输出语音不完整。当第一输出语音为导航到A地点时,根据上述步骤S101及其详细实现方式,识别结果为{导航到,A地点},将其在完整用户语料库中进行匹配,而在完整性语料数据库中,其与上述的3条完整用户语料的匹配结果表示其语料完整性的数值分别为2,1,1,均值大于1,因此,此时可以判断第一输出语音完整。
S103、对所述判断结果进行完整置信度评分。
S104、所述完整置信度满足预设条件时,对所述第一输出语音做出响应。
通过上述步骤S101至步骤S104,对第一输出语音的完整性进行分析和完整置信度判断,进而分析用户是否已经完整表达其意图,如果完整则AI设备做出响应。上述的语音识别方法,与用户主动请求断句结束的方式相比,其不需要用户手动进行交互操作,不受限于应用场景,适用范围广;与静音检测的断句方式相比,避免了静音检测的时间判定难以设置而使得语音识别提前结束,无法识别用户完整意图的情况。
在具体应用中,若完整置信度不满足预设条件,即判断结果表示第一输出语音不完整时,可以继续等待用户表达完整,如继续获取目标的输出语音并根据完整的输出语音进行识别及完整性分析。
因此,在一个实施例中,所述完整置信度不满足预设条件时,获取目标在下一时刻的第二输出语音,并对所述第二输出语音进行识别获得补充识别结果;
将所述识别结果和所述补充识别结果拼接,并根据所述拼接结果判断所述第一输出语音和所述第二输出语音的完整性;
所述第一输出语音和所述第二输出语音完整时根据拼接结果进行响应。
其中,第一输出语音和第二输出语音之间的间隔不影响是否将第一输出语音和第二输出语音作为完整的输出语音,因此,克服了静音检测实现断句所导致的识别提前结束的问题。
在一个实施例中,所述第一输出语音和所述第二输出语音不完整时删除基于所述第一输出语音的识别结果。
在本发明实施例中,上述的第一输出语音和所述第二输出语音不完整,表示第一输出语音和第二输出语音不能作为完整的输出语音。此时,删除基于第一输出语音的识别结果,以将第二输出语音作为新的第一输出语音,并返回上述步骤S101,通过上述步骤S101至步骤S104重新进行语音识别,
在一个实施例中,若无法获取到目标在下一时刻的第二输出语音,则所述第一输出语音及基于所述第一输出语音的识别结果。
在具体应用中,无法获取到目标在下一时刻的第二输出语音的情况可以为预设时间内未获取到目标的输出语音,则当前时刻加上预设时间所得时刻之前的时刻均可以为上述的下一时刻。
其中,上述的预设时间至少为一个小时,或者其他区别于静音检测断句的时间间隔,本发明实施例中不对其进行限定。
如图2所示,本发明实施例提供一种语音识别装置20,包括:
第一输出语音获取模块21,用于采集目标在当前时刻的第一输出语音,并对所述第一输出语音进行识别获得识别结果;
完整性判断模块22,用于根据所述识别结果判断所述第一输出语音的完整性;
置信度评分模块23,用于对所述判断结果进行完整置信度评分;
语音响应模块24,用于所述完整置信度满足预设条件时,对所述第一输出语音做出响应。
本发明实施例还提供一种终端设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如实施例一中所述的语音识别方法中的各个步骤。
本发明实施例还提供一种存储介质,所述存储介质为计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时,实现如实施例一中所述的语音识别方法中的各个步骤。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (8)
1.一种语音识别方法,其特征在于,包括:
采集目标在当前时刻的第一输出语音,并对所述第一输出语音进行识别获得识别结果;
根据所述识别结果判断所述第一输出语音的完整性;
对判断结果进行完整置信度评分;
所述完整置信度满足预设条件时,对所述第一输出语音做出响应;
对所述第一输出语音进行识别获得识别结果,包括:
将所述第一输出语音转换为文本信息;
对所述文本信息进行分词处理,将分词处理结果作为所述识别结果。
根据所述识别结果判断所述第一输出语音的完整性之前,包括:
获取完整用户语料;
对N条所述完整用户语料进行拆分,其中,基于第n条所述完整性用户语料获得k组拆分语料;
对每组所述拆分语料进行语料完整性分类,所述拆分语料的数量与所述语料完整性的数值成正比;
基于进行语料完整性分类后的完整用户语料构建完整用户语料库。
2.如权利要求1所述的语音识别方法,其特征在于,根据所述识别结果判断所述第一输出语音的完整性,包括:
将所述识别结果在所述完整用户语料库中进行匹配,获得基于所述识别结果的语料完整性;
所述识别结果的语料完整性大于预设数值时,所述第一输出语音完整。
3.如权利要求1所述的语音识别方法,其特征在于,所述完整置信度不满足预设条件时,获取目标在下一时刻的第二输出语音,并对所述第二输出语音进行识别获得补充识别结果;
将所述识别结果和所述补充识别结果拼接,并根据拼接结果判断所述第一输出语音和所述第二输出语音的完整性;
所述第一输出语音和所述第二输出语音完整时根据拼接结果进行响应。
4.如权利要求3所述的语音识别方法,其特征在于,所述第一输出语音和所述第二输出语音不完整时删除基于所述第一输出语音的识别结果。
5.如权利要求3所述的语音识别方法,其特征在于,若无法获取到目标在下一时刻的第二输出语音,则删除所述第一输出语音及基于所述第一输出语音的识别结果。
6.一种语音识别装置,其特征在于,包括:
第一输出语音获取模块,用于采集目标在当前时刻的第一输出语音,并对所述第一输出语音进行识别获得识别结果;
完整性判断模块,用于根据所述识别结果判断所述第一输出语音的完整性;
置信度评分模块,用于对判断结果进行完整置信度评分;
语音响应模块,用于所述完整置信度满足预设条件时,对所述第一输出语音做出响应;
对所述第一输出语音进行识别获得识别结果,包括:
将所述第一输出语音转换为文本信息;
对所述文本信息进行分词处理,将分词处理结果作为所述识别结果。
根据所述识别结果判断所述第一输出语音的完整性之前,包括:
获取完整用户语料;
对N条所述完整用户语料进行拆分,其中,基于第n条所述完整性用户语料获得k组拆分语料;
对每组所述拆分语料进行语料完整性分类,所述拆分语料的数量与所述语料完整性的数值成正比;
基于进行语料完整性分类后的完整用户语料构建完整用户语料库。
7.一种终端设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现如权利要求1至5任一项所述的语音识别方法中的各个步骤。
8.一种存储介质,所述存储介质为计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1至5任一项所述的语音识别方法中的各个步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110642269.XA CN113362824B (zh) | 2021-06-09 | 2021-06-09 | 一种语音识别方法、装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110642269.XA CN113362824B (zh) | 2021-06-09 | 2021-06-09 | 一种语音识别方法、装置及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113362824A CN113362824A (zh) | 2021-09-07 |
CN113362824B true CN113362824B (zh) | 2024-03-12 |
Family
ID=77533385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110642269.XA Active CN113362824B (zh) | 2021-06-09 | 2021-06-09 | 一种语音识别方法、装置及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113362824B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107919130A (zh) * | 2017-11-06 | 2018-04-17 | 百度在线网络技术(北京)有限公司 | 基于云端的语音处理方法和装置 |
CN109344231A (zh) * | 2018-10-31 | 2019-02-15 | 广东小天才科技有限公司 | 一种补全语义残缺的语料的方法及*** |
WO2020113918A1 (zh) * | 2018-12-06 | 2020-06-11 | 平安科技(深圳)有限公司 | 基于语义解析的语句合理性判断方法、装置、计算机设备 |
CN111583933A (zh) * | 2020-04-30 | 2020-08-25 | 北京猎户星空科技有限公司 | 一种语音信息的处理方法、装置、设备及介质 |
CN112530417A (zh) * | 2019-08-29 | 2021-03-19 | 北京猎户星空科技有限公司 | 语音信号处理方法、装置、电子设备及存储介质 |
CN112581938A (zh) * | 2019-09-30 | 2021-03-30 | 华为技术有限公司 | 基于人工智能的语音断点检测方法、装置和设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10269341B2 (en) * | 2015-10-19 | 2019-04-23 | Google Llc | Speech endpointing |
-
2021
- 2021-06-09 CN CN202110642269.XA patent/CN113362824B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107919130A (zh) * | 2017-11-06 | 2018-04-17 | 百度在线网络技术(北京)有限公司 | 基于云端的语音处理方法和装置 |
CN109344231A (zh) * | 2018-10-31 | 2019-02-15 | 广东小天才科技有限公司 | 一种补全语义残缺的语料的方法及*** |
WO2020113918A1 (zh) * | 2018-12-06 | 2020-06-11 | 平安科技(深圳)有限公司 | 基于语义解析的语句合理性判断方法、装置、计算机设备 |
CN112530417A (zh) * | 2019-08-29 | 2021-03-19 | 北京猎户星空科技有限公司 | 语音信号处理方法、装置、电子设备及存储介质 |
CN112581938A (zh) * | 2019-09-30 | 2021-03-30 | 华为技术有限公司 | 基于人工智能的语音断点检测方法、装置和设备 |
CN111583933A (zh) * | 2020-04-30 | 2020-08-25 | 北京猎户星空科技有限公司 | 一种语音信息的处理方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113362824A (zh) | 2021-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108304372B (zh) | 实体提取方法和装置、计算机设备和存储介质 | |
JP6857581B2 (ja) | 成長型対話装置 | |
KR102447513B1 (ko) | 점증적 대화지식 자가학습 기반 대화장치 및 그 방법 | |
CN110309305B (zh) | 基于多任务联合训练的机器阅读理解方法及计算机存储介质 | |
KR102316063B1 (ko) | 오디오 중의 키 프레이즈를 인식하기 위한 방법과 장치, 기기 및 매체 | |
CN110347787B (zh) | 一种基于ai辅助面试场景的面试方法、装置及终端设备 | |
KR101727139B1 (ko) | 코퍼스 자동 구축 방법 및 이를 이용한 개체명 인식 방법과 장치 | |
CN110047467B (zh) | 语音识别方法、装置、存储介质及控制终端 | |
CN112925945A (zh) | 会议纪要生成方法、装置、设备及存储介质 | |
CN112256845A (zh) | 意图识别方法、装置、电子设备和计算机可读存储介质 | |
US9652997B2 (en) | Method and apparatus for building emotion basis lexeme information on an emotion lexicon comprising calculation of an emotion strength for each lexeme | |
CN114399379A (zh) | 基于人工智能的催收行为识别方法、装置、设备及介质 | |
Gandhe et al. | Using web text to improve keyword spotting in speech | |
CN114218348A (zh) | 基于问答文本的直播片段获取方法、装置、设备及介质 | |
CN111708870A (zh) | 基于深度神经网络的问答方法、装置及存储介质 | |
CN112699671B (zh) | 一种语言标注方法、装置、计算机设备和存储介质 | |
Williams | Zero Shot Intent Classification Using Long-Short Term Memory Networks. | |
CN113362824B (zh) | 一种语音识别方法、装置及终端设备 | |
CN109660621A (zh) | 一种内容推送方法及服务设备 | |
Hakkani-Tür et al. | A discriminative classification-based approach to information state updates for a multi-domain dialog system | |
US20120197894A1 (en) | Apparatus and method for processing documents to extract expressions and descriptions | |
CN113657496B (zh) | 基于相似度匹配模型的信息匹配方法、装置、设备及介质 | |
CN115689603A (zh) | 用户反馈信息收集方法、装置及用户反馈*** | |
CN112071304B (zh) | 一种语意分析方法及装置 | |
KR101126186B1 (ko) | 형태적 중의성 동사 분석 장치, 방법 및 그 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |