CN107589828A - 基于知识图谱的人机交互方法及*** - Google Patents
基于知识图谱的人机交互方法及*** Download PDFInfo
- Publication number
- CN107589828A CN107589828A CN201610539546.3A CN201610539546A CN107589828A CN 107589828 A CN107589828 A CN 107589828A CN 201610539546 A CN201610539546 A CN 201610539546A CN 107589828 A CN107589828 A CN 107589828A
- Authority
- CN
- China
- Prior art keywords
- analysis result
- module
- modal input
- input record
- record
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种基于知识图谱的人机交互方法及***,该方法包括:获取用户的多模态输入记录;根据知识图谱对多模态输入记录和意图模块进行关联;当关联到的意图模块唯一时,获取该意图模块的解析结果,输出该解析结果;或者,当关联到的意图模块不唯一时,获取每个意图模块的解析结果,对多个解析结果进行评估,获取最优解析结果,输出该最优解析结果。本发明可以根据知识图谱,对用户的输入进行意图识别,以及对意图识别结果进行解析,获取解析结果,从而消除歧义,实现多轮会话。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于知识图谱的人机交互方法及***。
背景技术
现有的基于知识图谱的人机交互技术无法实现多轮会话的顺利进行,例如,用户输入:声音大一点,机器人无法识别是将所播放的音乐声音调大,还是机器人的声音调大,由此产生歧义,导致多轮会话无法继续。
发明内容
本发明的目的是提供一种基于知识图谱的人机交互方法及***,解决了现有的基于知识图谱的人机交互技术在用户指令产生歧义时会话无法继续的问题。
本发明解决其技术问题所采用的技术方案是:
一种基于知识图谱的人机交互方法,包括:
获取用户的多模态输入记录,对多模态输入记录进行处理;
根据知识图谱对多模态输入记录和意图模块进行关联,获取关联记录;所述关联记录包括多模态输入记录和关联到的意图模块;
当关联到的意图模块唯一时,基于该意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取该意图模块的解析结果,作为多模态输入记录的解析结果;或者,当关联到的意图模块不唯一时,基于每个意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取每个意图模块的解析结果,作为多模态输入记录的解析结果;
当多模态输入记录的解析结果唯一时,输出该解析结果;或者,当多模态输入记录的解析结果不唯一时,对多个解析结果进行评估,获取最优解析结果,输出该最优解析结果。
在此基础上,进一步地,所述多模态输入记录为文字、语音、动画、表情、动作、手势、图片或视频。
在上述任意实施例的基础上,进一步地,还包括:
当多模态输入记录的解析结果唯一时,根据多模态输入记录及其解析结果对知识图谱进行更新;或者,
当多模态输入记录的解析结果不唯一时,根据多模态输入记录及其最优解析结果对知识图谱进行更新。
在此基础上,进一步地,还包括:
将知识图谱的更新记录存储于云服务器。
在上述任意实施例的基础上,进一步地,所述意图模块和知识图谱存储于云服务器。
一种基于知识图谱的人机交互***,包括:
输入模块,用于获取用户的多模态输入记录,对多模态输入记录进行处理;
意图识别模块,用于根据知识图谱对多模态输入记录和意图模块进行关联,获取关联记录;所述关联记录包括多模态输入记录和关联到的意图模块;
解析模块,用于当关联到的意图模块唯一时,基于该意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取该意图模块的解析结果,作为多模态输入记录的解析结果;或者,当关联到的意图模块不唯一时,基于每个意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取每个意图模块的解析结果,作为多模态输入记录的解析结果;
输出模块,用于当多模态输入记录的解析结果唯一时,输出该解析结果;或者,当多模态输入记录的解析结果不唯一时,对多个解析结果进行评估,获取最优解析结果,输出该最优解析结果。
在此基础上,进一步地,所述多模态输入记录为文字、语音、动画、表情、动作、手势、图片或视频。
在上述任意实施例的基础上,进一步地,所述输出模块还用于当多模态输入记录的解析结果唯一时,根据多模态输入记录及其解析结果对知识图谱进行更新;或者,当多模态输入记录的解析结果不唯一时,根据多模态输入记录及其最优解析结果对知识图谱进行更新。
在此基础上,进一步地,还包括:
更新记录模块,用于将知识图谱的更新记录存储于云服务器。
在上述任意实施例的基础上,进一步地,所述意图模块和知识图谱存储于云服务器。
本发明的有益效果是:
本发明提供了一种基于知识图谱的人机交互方法及***,根据知识图谱,对用户的输入进行意图识别,以及对意图识别结果进行解析,获取解析结果,从而消除歧义,实现多轮会话。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1示出了本发明实施例提供的一种基于知识图谱的人机交互方法的流程图;
图2示出了本发明实施例提供的一种基于知识图谱的人机交互***的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不限定本发明。
具体实施例一
如图1所示,本发明实施例提供了一种基于知识图谱的人机交互方法,包括:
步骤S101,获取用户的多模态输入记录,对多模态输入记录进行处理;
步骤S102,根据知识图谱对多模态输入记录和意图模块进行关联,获取关联记录;所述关联记录包括多模态输入记录和关联到的意图模块;
步骤S103,当关联到的意图模块唯一时,基于该意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取该意图模块的解析结果,作为多模态输入记录的解析结果;或者,当关联到的意图模块不唯一时,基于每个意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取每个意图模块的解析结果,作为多模态输入记录的解析结果;
步骤S104,当多模态输入记录的解析结果唯一时,输出该解析结果;或者,当多模态输入记录的解析结果不唯一时,对多个解析结果进行评估,获取最优解析结果,输出该最优解析结果。
在步骤S101中,因为输出的信息多样化(图片、文字、语音、动作、手势、视频等),因此要对多种输入进行处理,处理的目标就是供意图识别模块能直接利用;
在步骤S102中,把输入信息关联到对应的意图(可以理解成是场景、状态、某项技能等);需要说明的是,输入的信息有可能是关联到多个,比如“音量增加”,有可能是说“电视音量增加”,也有可能是“机器本身的音量增加”;另外,有时候,仅凭输入信息并不能识别出意图,这个时候,可以结合知识图谱(此处的知识图谱可以简单地分两个部分,一部分是静态的;长期不变的,不同的用户通用的;一部分是动态的,是持续更新的,或者说因用户的不同、时间的不同而不同)进行识别;
在步骤S103中,在意图识别过后,会将多模态输入记录关联到一个或多个意图模块,被关联到的意图模块分别基于自己状态、场景、定义的模板、训练的模型、方法等进行解析;不同的意图模块解析的方式方法各异,其可以是:根据输入信息及知识图谱进行解析;
在步骤S104中,在意图识别过后,有可能关联到了一个或多个意图模块,若是一个意图模块,那解析结果唯一,输出模块就仅仅将该意图模块的解析结果输出;当意图识别过后关联到多个意图模块时,就会有多个解析结果,输出模块就需要对多个解析结果进行评估,并选取一个最优解析结果进行输出。
本发明实施例中的知识图谱可以分为两部分,一部分是公有的知识图谱;一部分是用户私有的知识图谱;公有知识图谱是所有用户通用的知识所构建的图谱;而私有知识图谱是用户私有的,不同用户间其图谱知识不通用。
本发明实施例根据知识图谱,对用户的输入进行意图识别,以及对意图识别结果进行解析,获取解析结果,从而消除歧义,实现多轮会话。
本发明实施例对步骤S101中多模态输入记录的形式不做限定,优选的,所述多模态输入记录可以为文字、语音、动画、表情、动作、手势、图片或视频。
在上述任意实施例的基础上,优选的,本发明实施例还可以包括:
当多模态输入记录的解析结果唯一时,根据多模态输入记录及其解析结果对知识图谱进行更新;或者,
当多模态输入记录的解析结果不唯一时,根据多模态输入记录及其最优解析结果对知识图谱进行更新。
本发明实施例可以在输出的同时,将某些数据抄送给知识图谱,使知识图谱得以更新学习。
在上述实施例的基础上,优选的,本发明实施例还可以包括将知识图谱的更新记录存储于云服务器。这样做的好处是,方便用户查询历史更新记录。
本发明实施例对意图模块和知识图谱的存储位置不做限定,在上述任意实施例的基础上,优选的,所述意图模块和知识图谱可以存储于云服务器。将意图模块和知识图谱存储于云服务器,可以实现用户在使用不同设备时的信息共享。
具体实施例二
如图2所示,本发明实施例提供了一种基于知识图谱的人机交互***,包括:
输入模块,用于获取用户的多模态输入记录,对多模态输入记录进行处理;
意图识别模块,用于根据知识图谱对多模态输入记录和意图模块进行关联,获取关联记录;所述关联记录包括多模态输入记录和关联到的意图模块;
解析模块,用于当关联到的意图模块唯一时,基于该意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取该意图模块的解析结果,作为多模态输入记录的解析结果;或者,当关联到的意图模块不唯一时,基于每个意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取每个意图模块的解析结果,作为多模态输入记录的解析结果;
输出模块,用于当多模态输入记录的解析结果唯一时,输出该解析结果;或者,当多模态输入记录的解析结果不唯一时,对多个解析结果进行评估,获取最优解析结果,输出该最优解析结果。
在“输入”模块中,因为输出的信息多样化(图片、文字、语音、动作、手势、视频等),此模块的作用是对多种输入进行处理,处理的目标就是供意图识别模块能直接利用;
意图识别模块主要的作用就是,把输入信息关联到对应的意图(可以理解成是场景、状态、某项技能等);需要说明的是,输入的信息有可能是关联到多个,比如“音量增加”,有可能是说“电视音量增加”,也有可能是“机器本身的音量增加”;另外,有时候,仅凭输入信息并不能识别出意图,此时可以结合知识图谱(此处的知识图谱可以简单地分两个部分,一部分是静态的;长期不变的,不同的用户通用的;一部分是动态的,是持续更新的,或者说因用户的不同、时间的不同而不同)进行识别;
解析模块属于多轮对话的核心。在意图识别模块对多模态输入记录进行意图识别后,会将输入关联到一个或多个意图模块,被关联到的意图模块分别基于自己状态、场景、定义的模板、训练的模型、方法等进行解析;不同的意图模块解析的方式方法各异,但通用的做法都是:根据输入信息及知识图谱进行解析;
输出模块:在意图识别过后,有可能关联到了一个或多个意图模块,若是一个意图模块,那解析结果唯一,输出模块就仅仅将该意图模块的解析结果输出;当意图识别过后关联到多个意图模块时,就会有多个解析结果,输出模块就需要对多个解析结果进行评估,并选取一个最优解析结果进行输出。
本发明实施例中的知识图谱可以分为两部分,一部分是公有的知识图谱;一部分是用户私有的知识图谱;公有知识图谱是所有用户通用的知识所构建的图谱;而私有知识图谱是用户私有的,不同用户间其图谱知识不通用。
本发明实施例根据知识图谱,对用户的输入进行意图识别,以及对意图识别结果进行解析,获取解析结果,从而消除歧义,实现多轮会话。
本发明实施例对输入模块中多模态输入记录的形式不做限定,优选的,所述多模态输入记录可以为文字、语音、动画、表情、动作、手势、图片或视频。
在上述任意实施例的基础上,优选的,本发明实施例中所述输出模块还可以用于当多模态输入记录的解析结果唯一时,根据多模态输入记录及其解析结果对知识图谱进行更新;或者,当多模态输入记录的解析结果不唯一时,根据多模态输入记录及其最优解析结果对知识图谱进行更新。本发明实施例可以在输出的同时,将某些数据抄送给知识图谱,使知识图谱得以更新学习。
在上述实施例的基础上,优选的,本发明实施例还可以包括更新记录模块,用于将知识图谱的更新记录存储于云服务器。这样做的好处是,方便用户查询历史更新记录。
本发明实施例对意图模块和知识图谱的存储位置不做限定,在上述任意实施例的基础上,优选的,所述意图模块和知识图谱可以存储于云服务器。将意图模块和知识图谱存储于云服务器,可以实现用户在使用不同设备时的信息共享。
尽管本发明已进行了一定程度的描述,明显地,在不脱离本发明的精神和范围的条件下,可进行各个条件的适当变化。可以理解,本发明不限于所述实施方案,而归于权利要求的范围,其包括所述每个因素的等同替换。
Claims (10)
1.一种基于知识图谱的人机交互方法,其特征在于,包括:
获取用户的多模态输入记录,对多模态输入记录进行处理;
根据知识图谱对多模态输入记录和意图模块进行关联,获取关联记录;所述关联记录包括多模态输入记录和关联到的意图模块;
当关联到的意图模块唯一时,基于该意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取该意图模块的解析结果,作为多模态输入记录的解析结果;或者,当关联到的意图模块不唯一时,基于每个意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取每个意图模块的解析结果,作为多模态输入记录的解析结果;
当多模态输入记录的解析结果唯一时,输出该解析结果;或者,当多模态输入记录的解析结果不唯一时,对多个解析结果进行评估,获取最优解析结果,输出该最优解析结果。
2.根据权利要求1所述的基于知识图谱的人机交互方法,其特征在于,所述多模态输入记录为文字、语音、动画、表情、动作、手势、图片或视频。
3.根据权利要求1或2所述的基于知识图谱的人机交互方法,其特征在于,还包括:
当多模态输入记录的解析结果唯一时,根据多模态输入记录及其解析结果对知识图谱进行更新;或者,
当多模态输入记录的解析结果不唯一时,根据多模态输入记录及其最优解析结果对知识图谱进行更新。
4.根据权利要求3所述的基于知识图谱的人机交互方法,其特征在于,还包括:
将知识图谱的更新记录存储于云服务器。
5.根据权利要求1或2所述的基于知识图谱的人机交互方法,其特征在于,所述意图模块和知识图谱存储于云服务器。
6.一种基于知识图谱的人机交互***,其特征在于,包括:
输入模块,用于获取用户的多模态输入记录,对多模态输入记录进行处理;
意图识别模块,用于根据知识图谱对多模态输入记录和意图模块进行关联,获取关联记录;所述关联记录包括多模态输入记录和关联到的意图模块;
解析模块,用于当关联到的意图模块唯一时,基于该意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取该意图模块的解析结果,作为多模态输入记录的解析结果;或者,当关联到的意图模块不唯一时,基于每个意图模块中的状态、场景、模板、模型、方法,根据输入信息和知识图谱对多模态输入记录进行解析,获取每个意图模块的解析结果,作为多模态输入记录的解析结果;
输出模块,用于当多模态输入记录的解析结果唯一时,输出该解析结果;或者,当多模态输入记录的解析结果不唯一时,对多个解析结果进行评估,获取最优解析结果,输出该最优解析结果。
7.根据权利要求6所述的基于知识图谱的人机交互***,其特征在于,所述多模态输入记录为文字、语音、动画、表情、动作、手势、图片或视频。
8.根据权利要求6或7所述的基于知识图谱的人机交互***,其特征在于,所述输出模块还用于当多模态输入记录的解析结果唯一时,根据多模态输入记录及其解析结果对知识图谱进行更新;或者,当多模态输入记录的解析结果不唯一时,根据多模态输入记录及其最优解析结果对知识图谱进行更新。
9.根据权利要求8所述的基于知识图谱的人机交互***,其特征在于,还包括:
更新记录模块,用于将知识图谱的更新记录存储于云服务器。
10.根据权利要求6或7所述的基于知识图谱的人机交互***,其特征在于,所述意图模块和知识图谱存储于云服务器。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610539546.3A CN107589828A (zh) | 2016-07-07 | 2016-07-07 | 基于知识图谱的人机交互方法及*** |
JP2017538655A JP2018525691A (ja) | 2016-07-07 | 2016-08-12 | 知識マップに基づくヒューマンコンピュータインタラクション方法及びシステム |
PCT/CN2016/094908 WO2018006472A1 (zh) | 2016-07-07 | 2016-08-12 | 基于知识图谱的人机交互方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610539546.3A CN107589828A (zh) | 2016-07-07 | 2016-07-07 | 基于知识图谱的人机交互方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107589828A true CN107589828A (zh) | 2018-01-16 |
Family
ID=60901744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610539546.3A Pending CN107589828A (zh) | 2016-07-07 | 2016-07-07 | 基于知识图谱的人机交互方法及*** |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2018525691A (zh) |
CN (1) | CN107589828A (zh) |
WO (1) | WO2018006472A1 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108214513A (zh) * | 2018-01-23 | 2018-06-29 | 深圳狗尾草智能科技有限公司 | 机器人多维度响应交互方法及装置 |
CN108804698A (zh) * | 2018-03-30 | 2018-11-13 | 深圳狗尾草智能科技有限公司 | 基于人物ip的人机交互方法、***、介质及设备 |
CN108920497A (zh) * | 2018-05-23 | 2018-11-30 | 北京奇艺世纪科技有限公司 | 一种人机交互方法及装置 |
CN109272999A (zh) * | 2018-09-19 | 2019-01-25 | 三角兽(北京)科技有限公司 | 信息处理装置、其人机对话方法及存储介质 |
CN110516050A (zh) * | 2019-07-15 | 2019-11-29 | 上海文思海辉金信软件有限公司 | 一种基于知识图谱的多路径训练场景的构建方法 |
CN112115252A (zh) * | 2020-08-26 | 2020-12-22 | 罗彤 | 智能辅助写作处理方法、装置、电子设备及存储介质 |
CN112464814A (zh) * | 2020-11-27 | 2021-03-09 | 北京百度网讯科技有限公司 | 视频处理方法、装置、电子设备及存储介质 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108536861B (zh) * | 2018-04-19 | 2022-03-18 | 中国科学院重庆绿色智能技术研究院 | 一种医疗指南的交互式培训方法及其*** |
CN110442694A (zh) * | 2019-02-26 | 2019-11-12 | 北京蓦然认知科技有限公司 | 一种智能交互平台训练方法、装置、设备 |
CN110162641B (zh) * | 2019-05-17 | 2022-01-04 | 五竹科技(北京)有限公司 | 基于音频交互的营销方法、装置以及存储介质 |
CN110795532A (zh) * | 2019-10-18 | 2020-02-14 | 珠海格力电器股份有限公司 | 一种语音信息的处理方法、装置、智能终端以及存储介质 |
CN111694965B (zh) * | 2020-05-29 | 2023-06-13 | 中国科学院上海微***与信息技术研究所 | 一种基于多模态知识图谱的图像场景检索***及方法 |
CN112131405B (zh) * | 2020-09-28 | 2024-05-17 | 中国科学技术大学 | 一种基于智能搜索的ar肿瘤知识图谱多模态演示方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104871150A (zh) * | 2012-07-20 | 2015-08-26 | 韦韦欧股份有限公司 | 在对话交互***中推断搜索输入中的用户意图的方法和*** |
CN104965592A (zh) * | 2015-07-08 | 2015-10-07 | 苏州思必驰信息科技有限公司 | 基于语音和手势识别的多模态非触摸人机交互方法及*** |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426436B (zh) * | 2015-11-05 | 2019-10-15 | 百度在线网络技术(北京)有限公司 | 基于人工智能机器人的信息提供方法和装置 |
CN105630917A (zh) * | 2015-12-22 | 2016-06-01 | 成都小多科技有限公司 | 智能应答方法及装置 |
-
2016
- 2016-07-07 CN CN201610539546.3A patent/CN107589828A/zh active Pending
- 2016-08-12 WO PCT/CN2016/094908 patent/WO2018006472A1/zh active Application Filing
- 2016-08-12 JP JP2017538655A patent/JP2018525691A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104871150A (zh) * | 2012-07-20 | 2015-08-26 | 韦韦欧股份有限公司 | 在对话交互***中推断搜索输入中的用户意图的方法和*** |
CN104965592A (zh) * | 2015-07-08 | 2015-10-07 | 苏州思必驰信息科技有限公司 | 基于语音和手势识别的多模态非触摸人机交互方法及*** |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108214513A (zh) * | 2018-01-23 | 2018-06-29 | 深圳狗尾草智能科技有限公司 | 机器人多维度响应交互方法及装置 |
CN108804698A (zh) * | 2018-03-30 | 2018-11-13 | 深圳狗尾草智能科技有限公司 | 基于人物ip的人机交互方法、***、介质及设备 |
CN108920497A (zh) * | 2018-05-23 | 2018-11-30 | 北京奇艺世纪科技有限公司 | 一种人机交互方法及装置 |
CN108920497B (zh) * | 2018-05-23 | 2021-10-15 | 北京奇艺世纪科技有限公司 | 一种人机交互方法及装置 |
CN109272999A (zh) * | 2018-09-19 | 2019-01-25 | 三角兽(北京)科技有限公司 | 信息处理装置、其人机对话方法及存储介质 |
CN110516050A (zh) * | 2019-07-15 | 2019-11-29 | 上海文思海辉金信软件有限公司 | 一种基于知识图谱的多路径训练场景的构建方法 |
CN112115252A (zh) * | 2020-08-26 | 2020-12-22 | 罗彤 | 智能辅助写作处理方法、装置、电子设备及存储介质 |
CN112115252B (zh) * | 2020-08-26 | 2023-06-02 | 罗彤 | 智能辅助写作处理方法、装置、电子设备及存储介质 |
CN112464814A (zh) * | 2020-11-27 | 2021-03-09 | 北京百度网讯科技有限公司 | 视频处理方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2018525691A (ja) | 2018-09-06 |
WO2018006472A1 (zh) | 2018-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107589828A (zh) | 基于知识图谱的人机交互方法及*** | |
US11302337B2 (en) | Voiceprint recognition method and apparatus | |
WO2018072663A1 (zh) | 数据处理方法及装置、分类器训练方法及***、存储介质 | |
EP3158559B1 (en) | Session context modeling for conversational understanding systems | |
US11321535B2 (en) | Hierarchical annotation of dialog acts | |
US10971133B2 (en) | Voice synthesis method, device and apparatus, as well as non-volatile storage medium | |
US9997157B2 (en) | Knowledge source personalization to improve language models | |
US20190122092A1 (en) | Automated Dynamic Virtual Representation of Individual Attributes | |
CN109101545A (zh) | 基于人机交互的自然语言处理方法、装置、设备和介质 | |
WO2019084810A1 (zh) | 一种信息处理方法及终端、计算机存储介质 | |
CN108288468A (zh) | 语音识别方法及装置 | |
US11830482B2 (en) | Method and apparatus for speech interaction, and computer storage medium | |
JP2016532942A (ja) | イベント知識データベースの構築方法および装置 | |
CN109271018A (zh) | 基于虚拟人行为标准的交互方法及*** | |
CN108345385A (zh) | 虚拟陪跑人物建立与交互的方法及装置 | |
US20190371319A1 (en) | Method for human-machine interaction, electronic device, and computer-readable storage medium | |
WO2021027421A1 (zh) | 用于人机交互的人机多轮对话方法及***、智能设备 | |
CN107704169A (zh) | 虚拟人的状态管理方法和*** | |
JP2022547596A (ja) | チャットボットシステムにおける無関係な発話の検出 | |
CN109343695A (zh) | 基于虚拟人行为标准的交互方法及*** | |
CN105244042A (zh) | 一种基于有限状态自动机的语音情感交互装置与方法 | |
CN111553138B (zh) | 用于规范内容结构文档的辅助写作方法及装置 | |
CN109324515A (zh) | 一种控制智能电器的方法及控制终端 | |
CN105335466A (zh) | 一种音频数据的检索方法与装置 | |
CN111883101B (zh) | 一种模型训练及语音合成方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180116 |
|
RJ01 | Rejection of invention patent application after publication |