CN109086351A - 一种获取用户标签的方法及用户标签*** - Google Patents

一种获取用户标签的方法及用户标签*** Download PDF

Info

Publication number
CN109086351A
CN109086351A CN201810781856.5A CN201810781856A CN109086351A CN 109086351 A CN109086351 A CN 109086351A CN 201810781856 A CN201810781856 A CN 201810781856A CN 109086351 A CN109086351 A CN 109086351A
Authority
CN
China
Prior art keywords
user
user tag
tag
interaction
dimension
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810781856.5A
Other languages
English (en)
Other versions
CN109086351B (zh
Inventor
谢巧菁
魏晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Guangnian Wuxian Technology Co Ltd
Original Assignee
Beijing Guangnian Wuxian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Guangnian Wuxian Technology Co Ltd filed Critical Beijing Guangnian Wuxian Technology Co Ltd
Priority to CN201810781856.5A priority Critical patent/CN109086351B/zh
Publication of CN109086351A publication Critical patent/CN109086351A/zh
Application granted granted Critical
Publication of CN109086351B publication Critical patent/CN109086351B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种获取用户标签的方法以及用户标签***。方法包括:基于外部输入的用户信息获取用户标签;根据已获取的用户标签预测并生成新的用户标签。相较于现有技术,根据本发明的方法及***,可以获取更为全面的用户画像数据,从而提高智能机器人交互回应的准确性以及交互回应与当前用户的匹配度,从而大大提高智能机器人的用户体验。

Description

一种获取用户标签的方法及用户标签***
技术领域
本发明涉及计算机领域,具体涉及一种获取用户标签的方法及用户标签***。
背景技术
随着人工智能技术的不断发展,智能机器人被越来越多的应用于人类的生产生活当中。
在智能机器人与人类的交互过程中,为了提高智能机器人对用户需求回应的准确度,提高智能机器人的用户体验,通常会为智能机器人提前输入其所要服务的用户的用户画像数据,这样,智能机器人在对用户的交互需求进行应答时就可以根据已保存的用户画像数据缩小应答内容的选择范围、提高交互应答的准确度从而提高自身的用户体验。
在实际的人机交互应用场景中,用户的交互需求是多种多样的,其会涉及到和用户自身相关的各个不同的属性维度。为了能够回应用户多种多样的交互需求,就要求智能机器人必须保存有一个非常全面的用户画像数据,该用户画像数据中必须有用户各个不同的属性维度的用户标签。然而,在现有技术中,由于用户数据采集的困难性,很难事先为智能机器人提供足够全面的用户画像数据。
发明内容
本发明提供了一种获取用户标签的方法,所述方法包括:
基于外部输入的用户信息获取用户标签;
根据已获取的用户标签预测并生成新的用户标签。
在一实施例中,所述方法还包括:
建立多维度的用户标签间的关联;
基于多维度的用户标签间的关联,根据已获取的用户标签预测并生成新的用户标签。
在一实施例中,建立多维度的用户标签间的关联,其中,利用循环神经网络得到多维度的用户标签间的相关性。
在一实施例中,所述方法还包括:
获取用户描述数据,结合产品设定用户标签维度;
根据所述用户描述数据和所述用户标签维度进行用户标签标注;
获取不同的用户标签维度间的相关性;
基于不同的用户标签维度间的相关性,根据已标注的用户标签预测新的用户标签。
本发明还提出了一种交互方法,所述方法包括:
获取用户多模态数据并解析,确定用户交互意图,所述用户包括儿童用户;
获取回应所述用户交互意图所需的用户标签维度所对应的用户标签,其中,根据已保存的用户标签预测回应所述用户交互意图所需的用户标签维度所对应的用户标签;
基于所述用户标签针对所述用户交互意图生成包含表情回应数据的多模态交互回应数据。
在一实施例中,获取回应所述用户交互意图所需的用户标签维度所对应的用户标签,包括:
确定回应所述用户交互意图所需的用户标签维度;
根据已保存的用户标签判断回应所述用户交互意图所需的用户标签维度是否已被标注;
当回应所述用户交互意图所需的用户标签维度尚未被标注时,根据已保存的用户标签预测回应所述用户交互意图所需的用户标签维度所对应的用户标签。
本发明还提出了一种存储介质,所述存储介质上存储有可实现如本发明所述方法的程序代码。
本发明还提出了一种用户标签***,所述***包括:
用户描述数据获取模块,其配置为获取用户描述数据,根据所述用户描述数据进行用户标签的标注;
标签预测模块,其配置为根据所述用户描述数据获取模块标注的用户标签预测新的用户标签。
在一实施例中,所述***还包括标签关联确认模块,其中:
所述标签关联确认模块配置为确定不同用户标签维度间的相关性;
所述标签预测模块还配置为基于不同用户标签维度间的相关性,根据所述用户描述数据获取模块已标注的用户标签维度对应的用户标签预测未被标注的用户标签维度对应的用户标签。
本发明还提出了一种交互***,所述***包括:
输入获取模块,其配置为采集用户多模态数据;
交互解析模块,其配置为解析所述用户多模态数据,获取用户交互意图并确定回应所述用户交互意图所需的用户标签维度;
如本发明所述的用户标签***,其配置为输出回应所述用户交互意图所需的用户标签维度所对应的用户标签;
交互回应生成模块,其配置为基于所述用户标签***输出的用户标签,针对所述用户交互意图,生成对应的多模态交互回应数据。
相较于现有技术,根据本发明的方法及***,可以获取更为全面的用户画像数据,从而提高智能机器人交互回应的准确性以及交互回应与当前用户的匹配度,从而大大提高智能机器人的用户体验。
本发明的其它特征或优点将在随后的说明书中阐述。并且,本发明的部分特征或优点将通过说明书而变得显而易见,或者通过实施本发明而被了解。本发明的目的和部分优点可通过在说明书、权利要求书以及附图中所特别指出的步骤来实现或获得。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例共同用于解释本发明,并不构成对本发明的限制。在附图中:
图1~3是根据本发明不同实施例的获取用户标签的方法流程图;
图4是根据本发明一实施例的交互方法的流程图;
图5是根据本发明实施例的交互方法的部分流程图;
图6、7是根据本发明不同实施例的用户标签***结构简图;
图8是根据本发明一实施例的交互***结构简图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此本发明的实施人员可以充分理解本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程并依据上述实现过程具体实施本发明。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
在智能机器人与人类的交互过程中,为了提高智能机器人对用户需求回应的准确度,提高智能机器人的用户体验,通常会为智能机器人提前输入其所要服务的用户的用户画像数据,这样,智能机器人在对用户的交互需求进行应答时就可以根据已保存的用户画像数据缩小应答内容的选择范围、提高交互应答的准确度从而提高自身的用户体验。
在实际的人机交互应用场景中,用户的交互需求是多种多样的,其会涉及到和用户自身相关的各个不同的属性维度。为了能够回应用户多种多样的交互需求,就要求智能机器人必须保存有一个非常全面的用户画像数据,该用户画像数据中必须有用户各个不同的属性维度的用户标签。然而,在现有技术中,由于用户数据采集的困难性,很难事先为智能机器人提供足够全面的用户画像数据。
针对上述问题,本发明提出了一种获取用户标签的方法。在本发明的方法中,根据已获取的用户标签预测并生成新的用户标签,从而拓展用户画像中用户标签的维度。相较于现有技术,根据本发明的方法及***,可以获取更为全面的用户画像数据,从而提高智能机器人交互回应的准确性以及交互回应与当前用户的匹配度,从而大大提高智能机器人的用户体验。
接下来基于附图详细描述根据本发明实施例的方法的详细流程,附图的流程图中示出的步骤可以在包含诸如一组计算机可执行指令的计算机***中执行。虽然在流程图中示出了各步骤的逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
具体的,如图1所示,在一实施例中,本发明的方法包含以下流程。
基于外部输入的用户信息获取用户标签(S110);
根据已获取的用户标签预测并生成新的用户标签(S120)。
进一步的,在一实施例中,在步骤S120中,根据不同维度的用户标签间的关联属性,预测并生成新的用户标签。具体的,在一实施例中,如图2所示,方法还包括:
建立多维度的用户标签间的关联(S210);
基于多维度的用户标签间的关联,根据已获取的用户标签预测并生成新的用户标签(S220)。
具体的,在一实施例中,建立多维度的用户标签间的关联,其中,利用循环神经网络得到多维度的用户标签间的相关性。
具体的,在一实施例中,给设定兴趣、性格、生活状态等维度,根据用户的内容数据和标签维度进行人工标注,训练得到多标签分类模型。在多标签分类模型中,利用循环神经网络来得到标签之间的相关性。
例如在兴趣维度标签中,用户有“电视剧”这个标签,那对这个用户标签的预测中,考虑“电视剧”这个标签的信息加入到网络中,对预测“电影”标签能够帮助,从而拓展用户标签。
进一步的,在一实施例中,用户画像(用户标签)是为了个性化推荐***服务的,根据用户标签,可推送用户可能喜欢的内容。具体的,在推送用户可能喜欢的内容时,不仅仅根据已标注的用户标签进行推送,还根据已标注的用户标签进行新标签的预测生成,根据预测生成的新标签进行推送。具体的,基于已标注的用户标签,根据不同维度的用户标签间的关联进行推送。
例如:用户拥有{“兴趣”:“户外运动,游戏”,“性格”:“活泼,开朗”},根据对应的标签,对该用户推送音乐的时候我们会优先推送“轻快”,“游戏主题曲”等风格的歌曲。
具体的,如图3所示,在一实施例中,本发明的方法包含以下流程。
获取用户描述数据(S310),结合产品设定用户标签维度(S320);
根据用户描述数据和用户标签维度进行用户标签标注(S330);
获取不同的用户标签维度间的相关性(S340);
基于不同的用户标签维度间的相关性,根据已标注的用户标签预测新的用户标签(S350)。
进一步的,基于本发明所提出的获取用户标签的方法,本发明还提出了一种交互方法。具体的,如图4所示,在一实施例中,本发明的交互方法包含以下流程。
获取用户多模态数据并解析(S410),确定用户交互意图(S420),用户包括儿童用户;
获取回应用户交互意图所需的用户标签维度所对应的用户标签(S430),其中,根据已保存的用户标签预测回应用户交互意图所需的用户标签维度所对应的用户标签;
基于用户标签针对用户交互意图生成包含表情回应数据的多模态交互回应数据(S440)。
具体的,如图5所示,在一实施例中,获取回应用户交互意图所需的用户标签维度所对应的用户标签,包括以下步骤。
确定回应用户交互意图所需的用户标签维度(S510);
根据已保存的用户标签判断回应所述用户交互意图所需的用户标签维度是否已被标注(S520);
当回应用户交互意图所需的用户标签维度已被标注时,提取已保存的用户标签(S521);
当回应用户交互意图所需的用户标签维度尚未被标注时,根据已保存的用户标签预测回应用户交互意图所需的用户标签维度所对应的用户标签(S522)。
进一步的,基于本发明的方法,本发明还提出了一种存储介质,该存储介质上存储有可实现本发明所述方法的程序代码。
进一步的,基于本发明所提出的获取用户标签的方法,本发明还提出了一种用户标签***。如图6所示,在一实施例中,***包括:
用户描述数据获取模块610,其配置为获取用户描述数据,根据用户描述数据进行用户标签的标注;
标签预测模块620,其配置为根据用户描述数据获取模块标注的用户标签预测新的用户标签。
进一步的,如图7所示,在一实施例中,***还包括标签关联确认模块730,其中:
标签关联确认模块730配置为确定不同用户标签维度间的相关性;
标签预测模块720还配置为基于不同用户标签维度间的相关性,根据用户描述数据获取模块710已标注的用户标签维度对应的用户标签预测未被标注的用户标签维度对应的用户标签。
进一步的,基于本发明所提出的交互方法,本发明还提出了一种交互***。如图8所示,在一实施例中,***包括:
输入获取模块810,其配置为采集用户多模态数据;
交互解析模块820,其配置为解析用户多模态数据,获取用户交互意图并确定回应用户交互意图所需的用户标签维度;
用户标签***830,其配置为输出回应用户交互意图所需的用户标签维度所对应的用户标签,具体的,用户标签***830采用本发明所提出的用户标签***;
交互回应生成模块840,其配置为基于用户标签***830输出的用户标签,针对用户交互意图,生成对应的多模态交互回应数据。
进一步的,基于本发明的交互方法以及交互***,本发明还提出了一种交互***。在一实施例中,***包括智能设备以及云端服务器,其中:智能设备包括但不限于:儿童故事机、儿童平板电脑、儿童手表、儿童智能拍照设备、儿童陪伴人形机器人。
云端服务器包含如本发明所述的交互***以及多个能力接口。交互***配置为调用云端服务器的能力接口获取用户多模态数据并解析,生成并输出多模态交互回应数据。具体的,多模态数据解析过程中各个能力接口分别调用对应的逻辑处理。
具体的,云端服务器的能力接口包括语义理解接口、视觉识别接口、情感计算接口、认知计算接口。
具体的,在一实施例中,以下为各个接口的说明:
语义理解接口,其接收从智能设备的通信模块转发的特定语音指令,对其进行语音识别以及基于大量语料的自然语言处理。
视觉识别接口,可以针对人体、人脸、场景依据计算机视觉算法、深度学习算法等进行视频内容检测、识别、跟踪等。即根据预定的算法对图像进行识别,给出定量的检测结果。具备图像预处理功能、特征提取功能和决策功能。其中:
图像预处理功能可以是对获取的视觉采集数据进行基本处理,包括颜色空间转换、边缘提取、图像变换和图像阈值化;
特征提取功能可以提取出图像中目标的肤色、颜色、纹理、运动和坐标等特征信息;
决策功能可以是对特征信息,按照一定的决策策略分发给需要该特征信息的具体多模态输出设备或多模态输出应用,如实现人脸检测、人物肢体识别、运动检测等功能。
情感计算接口,其接收从通信模块转发的多模态数据,利用情感计算逻辑(可以是情绪识别技术)来计算用户当前的情绪状态。情绪识别技术是情感计算的一个重要组成部分,情绪识别研究的内容包括面部表情、语音、行为、文本和生理信号识别等方面,通过以上内容可以判断用户的情绪状态。情绪识别技术可以仅通过视觉情绪识别技术来监控用户的情绪状态,也可以采用视觉情绪识别技术和声音情绪识别技术结合的方式来监控用户的情绪状态,且并不局限于此。在本实施例中,优选采用二者结合的方式来监控情绪。
情感计算接口是在进行视觉情绪识别时,通过使用图像采集设备收集人类面部表情图像,而后转换成可分析数据,再利用图像处理等技术进行表情情绪分析。理解面部表情,通常需要对表情的微妙变化进行检测,比如脸颊肌肉、嘴部的变化以及挑眉等。
认知计算接口,其接收从通信模块转发的多模态数据,认知计算接口用以处理多模态数据进行数据采集、识别和学习,以获取用户画像、知识图谱等,以对多模态输出数据进行合理决策。
应该理解的是,本发明所公开的实施例不限于这里所公开的特定结构、处理步骤或材料,而应当延伸到相关领域的普通技术人员所理解的这些特征的等同替代。还应当理解的是,在此使用的术语仅用于描述特定实施例的目的,而并不意味着限制。
说明书中提到的“一实施例”意指结合实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语“一实施例”并不一定均指同一个实施例。
虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。本发明所述的方法还可有其他多种实施例。在不背离本发明实质的情况下,熟悉本领域的技术人员当可根据本发明做出各种相应的改变或变形,但这些相应的改变或变形都应属于本发明的权利要求的保护范围。

Claims (10)

1.一种获取用户标签的方法,其特征在于,所述方法包括:
基于外部输入的用户信息获取用户标签;
根据已获取的用户标签预测并生成新的用户标签。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
建立多维度的用户标签间的关联;
基于多维度的用户标签间的关联,根据已获取的用户标签预测并生成新的用户标签。
3.根据权利要求2所述的方法,其特征在于,建立多维度的用户标签间的关联,其中,利用循环神经网络得到多维度的用户标签间的相关性。
4.根据权利要求1~3中任一项所述的方法,其特征在于,所述方法还包括:
获取用户描述数据,结合产品设定用户标签维度;
根据所述用户描述数据和所述用户标签维度进行用户标签标注;
获取不同的用户标签维度间的相关性;
基于不同的用户标签维度间的相关性,根据已标注的用户标签预测新的用户标签。
5.一种基于权利要求1~4中任一项方法的交互方法,所述方法包括:
获取用户多模态数据并解析,确定用户交互意图,所述用户包括儿童用户;
获取回应所述用户交互意图所需的用户标签维度所对应的用户标签,其中,根据已保存的用户标签预测回应所述用户交互意图所需的用户标签维度所对应的用户标签;
基于所述用户标签针对所述用户交互意图生成包含表情回应数据的多模态交互回应数据。
6.根据权利要求5所述的方法,其特征在于,获取回应所述用户交互意图所需的用户标签维度所对应的用户标签,包括:
确定回应所述用户交互意图所需的用户标签维度;
根据已保存的用户标签判断回应所述用户交互意图所需的用户标签维度是否已被标注;
当回应所述用户交互意图所需的用户标签维度尚未被标注时,根据已保存的用户标签预测回应所述用户交互意图所需的用户标签维度所对应的用户标签。
7.一种存储介质,其特征在于,所述存储介质上存储有可实现如权利要求1-6中任一项所述方法的程序代码。
8.一种用户标签***,其特征在于,所述***包括:
用户描述数据获取模块,其配置为获取用户描述数据,根据所述用户描述数据进行用户标签的标注;
标签预测模块,其配置为根据所述用户描述数据获取模块标注的用户标签预测新的用户标签。
9.根据权利要求8所述的***,其特征在于,所述***还包括标签关联确认模块,其中:
所述标签关联确认模块配置为确定不同用户标签维度间的相关性;
所述标签预测模块还配置为基于不同用户标签维度间的相关性,根据所述用户描述数据获取模块已标注的用户标签维度对应的用户标签预测未被标注的用户标签维度对应的用户标签。
10.一种交互***,其特征在于,所述***包括:
输入获取模块,其配置为采集用户多模态数据;
交互解析模块,其配置为解析所述用户多模态数据,获取用户交互意图并确定回应所述用户交互意图所需的用户标签维度;
如权利要求8或9所述的用户标签***,其配置为输出回应所述用户交互意图所需的用户标签维度所对应的用户标签;
交互回应生成模块,其配置为基于所述用户标签***输出的用户标签,针对所述用户交互意图,生成对应的多模态交互回应数据。
CN201810781856.5A 2018-07-17 2018-07-17 一种获取用户标签的方法及用户标签*** Active CN109086351B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810781856.5A CN109086351B (zh) 2018-07-17 2018-07-17 一种获取用户标签的方法及用户标签***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810781856.5A CN109086351B (zh) 2018-07-17 2018-07-17 一种获取用户标签的方法及用户标签***

Publications (2)

Publication Number Publication Date
CN109086351A true CN109086351A (zh) 2018-12-25
CN109086351B CN109086351B (zh) 2022-03-22

Family

ID=64838049

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810781856.5A Active CN109086351B (zh) 2018-07-17 2018-07-17 一种获取用户标签的方法及用户标签***

Country Status (1)

Country Link
CN (1) CN109086351B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109840274A (zh) * 2018-12-28 2019-06-04 北京百度网讯科技有限公司 数据处理方法及装置、存储介质
CN111190939A (zh) * 2019-12-27 2020-05-22 深圳市优必选科技股份有限公司 一种用户画像构建方法及装置
CN113672818A (zh) * 2020-05-13 2021-11-19 中南大学 一种获取社交媒体用户画像的方法及***
CN117235234A (zh) * 2023-11-08 2023-12-15 深圳市腾讯计算机***有限公司 对象信息获取方法、装置、计算机设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103218457A (zh) * 2013-05-10 2013-07-24 清华大学 基于社交网络的人物搜索和发现方法及***
US9177069B1 (en) * 2011-05-19 2015-11-03 Google Inc. Determining labels from similar geographic features
CN107644047A (zh) * 2016-07-22 2018-01-30 华为技术有限公司 标签预测生成方法及装置
CN108108340A (zh) * 2017-11-28 2018-06-01 北京光年无限科技有限公司 用于智能机器人的对话交互方法及***
US20180181572A1 (en) * 2016-12-28 2018-06-28 Facebook, Inc. Topic ranking of content items for topic-based content feeds

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9177069B1 (en) * 2011-05-19 2015-11-03 Google Inc. Determining labels from similar geographic features
CN103218457A (zh) * 2013-05-10 2013-07-24 清华大学 基于社交网络的人物搜索和发现方法及***
CN107644047A (zh) * 2016-07-22 2018-01-30 华为技术有限公司 标签预测生成方法及装置
US20180181572A1 (en) * 2016-12-28 2018-06-28 Facebook, Inc. Topic ranking of content items for topic-based content feeds
CN108108340A (zh) * 2017-11-28 2018-06-01 北京光年无限科技有限公司 用于智能机器人的对话交互方法及***

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109840274A (zh) * 2018-12-28 2019-06-04 北京百度网讯科技有限公司 数据处理方法及装置、存储介质
CN111190939A (zh) * 2019-12-27 2020-05-22 深圳市优必选科技股份有限公司 一种用户画像构建方法及装置
CN111190939B (zh) * 2019-12-27 2024-02-02 深圳市优必选科技股份有限公司 一种用户画像构建方法及装置
CN113672818A (zh) * 2020-05-13 2021-11-19 中南大学 一种获取社交媒体用户画像的方法及***
CN113672818B (zh) * 2020-05-13 2023-11-14 中南大学 一种获取社交媒体用户画像的方法及***
CN117235234A (zh) * 2023-11-08 2023-12-15 深圳市腾讯计算机***有限公司 对象信息获取方法、装置、计算机设备和存储介质
CN117235234B (zh) * 2023-11-08 2024-03-01 深圳市腾讯计算机***有限公司 对象信息获取方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN109086351B (zh) 2022-03-22

Similar Documents

Publication Publication Date Title
CN108665492B (zh) 一种基于虚拟人的舞蹈教学数据处理方法及***
CN107894833B (zh) 基于虚拟人的多模态交互处理方法及***
Zhang et al. Intelligent facial emotion recognition and semantic-based topic detection for a humanoid robot
CN108942919B (zh) 一种基于虚拟人的交互方法及***
Gunes et al. Categorical and dimensional affect analysis in continuous input: Current trends and future directions
CN109086351A (zh) 一种获取用户标签的方法及用户标签***
CN109522835A (zh) 基于智能机器人的儿童读物阅读与交互方法及***
CN109086860B (zh) 一种基于虚拟人的交互方法及***
CN109871450A (zh) 基于绘本阅读的多模态交互方法及***
CN109948447A (zh) 基于视频图像识别的人物网络关系发现及演化呈现方法
CN111414506B (zh) 基于人工智能情绪处理方法、装置、电子设备及存储介质
CN109241336A (zh) 音乐推荐方法和装置
CN109278051A (zh) 基于智能机器人的交互方法及***
CN109032328A (zh) 一种基于虚拟人的交互方法及***
CN107016046A (zh) 基于视觉场景化的智能机器人对话方法及***
CN109343695A (zh) 基于虚拟人行为标准的交互方法及***
Yan et al. Raf-au database: in-the-wild facial expressions with subjective emotion judgement and objective au annotations
CN108595012A (zh) 基于虚拟人的视觉交互方法及***
CN113703585A (zh) 交互方法、装置、电子设备及存储介质
Zhang et al. Intelligent Facial Action and emotion recognition for humanoid robots
da Silva et al. Recognition of affective and grammatical facial expressions: a study for Brazilian sign language
Celiktutan et al. Computational analysis of affect, personality, and engagement in human–robot interactions
Minu A extensive survey on sign language recognition methods
CN116883608B (zh) 一种多模态数字人社交属性控制方法及相关装置
CN112149599B (zh) 表情追踪方法、装置、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant