CN116188642A - 交互方法、装置、机器人和存储介质 - Google Patents

交互方法、装置、机器人和存储介质 Download PDF

Info

Publication number
CN116188642A
CN116188642A CN202211651994.4A CN202211651994A CN116188642A CN 116188642 A CN116188642 A CN 116188642A CN 202211651994 A CN202211651994 A CN 202211651994A CN 116188642 A CN116188642 A CN 116188642A
Authority
CN
China
Prior art keywords
interaction
avatar
emotion
target user
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211651994.4A
Other languages
English (en)
Inventor
刘宝
胡静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Toycloud Technology Co Ltd
Original Assignee
Anhui Toycloud Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Toycloud Technology Co Ltd filed Critical Anhui Toycloud Technology Co Ltd
Priority to CN202211651994.4A priority Critical patent/CN116188642A/zh
Publication of CN116188642A publication Critical patent/CN116188642A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明涉及人工智能领域,提供一种交互方法、装置、机器人和存储介质,其中方法包括:确定目标用户;基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态;基于所述虚拟形象的当前情绪状态进行交互,所述交互包括所述虚拟形象主动发起交互。本发明提供的交互方法、装置、机器人和存储介质,在与用户交互过程中,虚拟形象是具有情感和情绪的,且虚拟形象的情绪是动态持续变化的。虚拟形象不仅可以基于当前情绪状态响应用户的交互,还可以主动向用户发起交互,使得虚拟形象表现得更加人性化,实现与用户进行更加有效的互动,进而提高用户体验感。

Description

交互方法、装置、机器人和存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种交互方法、装置、机器人和存储介质。
背景技术
机器人的研究已经逐步走出工业领域,逐渐扩展到医疗、保健、家庭、娱乐以及服务行业等领域。而家庭陪伴型智能机器人可以借助网络打破空间界限,营造一种科技感的陪伴体验。
然而,现有的智能机器人仅能完成固定制式的交互,例如完成唱歌、讲故事、播报新闻、响应用户的指令或者简单回答问题等。
如何使智能机器人表现得更加人性化,实现与用户进行更加有效的互动,进而提高用户体验感是亟需解决的问题。
发明内容
本发明提供一种交互方法、装置、机器人和存储介质,用以解决现有技术中智能机器人仅能完成固定制式的交互的缺陷。
本发明提供一种交互方法,包括:
确定目标用户;
基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态;
基于所述虚拟形象的当前情绪状态进行交互,所述交互包括所述虚拟形象主动发起交互。
根据本发明提供的交互方法,所述基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态,包括:
对所述目标用户的行为数据进行行为识别,基于行为识别结果确定行为影响值,和/或,对所述目标用户的行为数据进行情绪识别,基于情绪识别结果确定情绪影响值;
基于所述虚拟形象与所述目标用户的交互时长,确定时长影响值;
将所述行为影响值和/或情绪影响值,以及时长影响值和初始情绪状态对应的初始情绪值进行融合,得到所述虚拟形象的当前情绪值,所述当前情绪值反映所述虚拟形象的当前情绪状态。
根据本发明提供的交互方法,所述对所述目标用户的行为数据进行行为识别,基于行为识别结果确定行为影响值,包括:
对所述目标用户的行为数据进行友好分类,得到友好分类结果;
基于所述行为数据的友好分类结果和同类行为数据的统计次数,确定所述行为数据的行为影响值。
根据本发明提供的交互方法,所述基于所述虚拟形象的当前情绪状态进行交互,包括:
在检测到所述虚拟形象的初始情绪值、行为影响值、情绪影响值和时长影响值中的任一项发生变化的情况下,确定所述任一项的变化原因;
基于所述任一项的变化原因,确定所述虚拟形象的交互内容和交互状态,并基于所述交互内容和交互状态进行交互,所述交互状态包括声音情感、语速、表情、动作和灯光中的至少一种。
根据本发明提供的交互方法,所述虚拟形象的初始情绪状态是基于所述虚拟形象的身份信息、历史情绪状态、所述虚拟形象在镜像世界的经历以及当前天气信息中的至少一种确定的。
根据本发明提供的交互方法,所述基于所述虚拟形象的当前情绪状态进行交互,包括:
基于当前环境、所述目标用户的用户画像以及所述虚拟形象的当前情绪状态,确定与所述目标用户的交互内容,并基于所述交互内容主动进行个性化交互;所述目标用户的用户画像是对所述目标用户的历史行为数据和历史交互数据进行数据分析后确定的。
根据本发明提供的交互方法,所述基于所述交互内容主动进行个性化交互,包括:
在检测到所述虚拟形象的当前情绪状态在预设范围之内的情况下,基于所述预设范围对应的多轮交互模式和所述交互内容,主动进行多轮个性化交互。
本发明还提供一种交互装置,包括:
用户确定单元,用于确定目标用户;
状态确定单元,用于基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态;
交互单元,用于基于所述虚拟形象的当前情绪状态进行交互,所述交互包括所述虚拟形象主动发起交互。
本发明还提供一种机器人,包括机器人本体、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序以确定目标用户,基于所述目标用户的行为数据和/或所述目标用户的情绪识别结果,以及所述机器人的初始情绪状态、所述机器人与目标用户的交互时长,确定所述机器人的当前情绪状态,基于所述机器人的当前情绪状态进行交互,所述交互包括所述机器人主动发起交互。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述交互方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述交互方法。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述交互方法。
本发明提供的交互方法、装置、机器人和存储介质,在与用户交互过程中,虚拟形象是具有情感和情绪的,虚拟形象的情绪与目标用户的行为数据、虚拟形象的初始情绪状态以及虚拟形象与目标用户的交互时长这三者密切相关,虚拟形象的情绪是动态持续变化的,会随着三者中任一项的变化而变化。目标用户的行为数据能够对虚拟形象产生持续性的影响,并非短暂的影响。
此外,虚拟形象不仅可以基于当前情绪状态响应用户的交互,还可以主动向用户发起交互,使得虚拟形象表现得更加人性化,实现与用户进行更加有效的互动,进而提高用户体验感。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的交互方法的流程示意图之一;
图2是本发明提供的交互方法中步骤120的流程示意图;
图3是本发明提供的交互方法的流程示意图之二;
图4是本发明提供的交互方法中步骤130的流程示意图;
图5是本发明提供的交互装置的结构示意图;
图6是本发明提供的机器人的结构示意图;
图7是本发明提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有的智能机器人仅能完成固定制式的交互,例如完成唱歌、讲故事、播报新闻、响应用户的指令或者简单回答问题等。这种人机交互方法使得机器人本质上是一个冷冰冰的机器,而不是具有特定人类情感元素的“人”。
基于此,为了使虚拟形象表现得更加人性化,实现与用户进行更加有效的互动,进而提高用户体验感,本发明的发明构思在于:在与用户交互过程中,虚拟形象是具有情感和情绪的,虚拟形象的情绪与目标用户的行为数据、虚拟形象的初始情绪状态以及虚拟形象与目标用户的交互时长这三者密切相关。可理解的是,虚拟形象的情绪是动态持续变化的,会随着三者中任一项的变化而变化。
在此基础上,基于虚拟形象的当前情绪状态进行交互,能够使得虚拟形象表现得更加人性化,实现与用户进行更加有效的互动。此外,为了进一步提高虚拟形象的拟人化程度,本发明中的互动还包括虚拟形象主动与用户发起交互。
基于上述发明构思,本发明提供一种交互方法、装置、机器人和存储介质,应用于人工智能技术中的人机交互过程,特别是可应用于陪伴型的虚拟形象与儿童之间的交互场景,以达到提高交互的人性化和有效性,从而提高用户体验感。
下面将结合附图详细描述本发明的技术方案。图1是本发明提供的交互方法的流程示意图之一,该方法中各步骤的执行主体可以是交互装置,该装置可通过软件和/或硬件实现,该装置可集成在电子设备中,电子设备可以是终端设备(如智能手机、智能机器人、智能家居等),也可以是服务器(如本地服务器或云端服务器,也可以为服务器集群等),也可以是处理器,也可以是芯片等。如图1所示,该方法可以包括如下步骤:
步骤110,确定目标用户。
具体地,目标用户即与虚拟形象进行交互的用户。虚拟形象可以是具备交互功能的产品,虚拟形象可以是以电子设备为载体的具备虚拟人物形象的程序产品,也可以是具备虚拟人物形象的实体硬件产品,本发明实施例对此不作具体限定。例如虚拟形象可以是智能机器人、智能家居产品等。虚拟形象可配置图像采集设备、拾音设备和扬声器。
虚拟形象可通过图像采集设备获取当前环境中的用户图像,并对用户图像进行人脸识别以确定目标用户;还可以通过拾音设备获取当前环境中用户的语音数据,通过对语音数据进行声纹识别以确定目标用户,本发明实施例对此不作具体限定。
需说明的是,目标用户可以是由虚拟形象主动识别得到的,也可以是响应于用户的唤醒操作之后识别得到的。用户的唤醒操作可以包括语音、按键或者其他形式。
步骤120,基于目标用户的行为数据、虚拟形象的初始情绪状态以及虚拟形象与目标用户的交互时长,确定虚拟形象的当前情绪状态。
具体地,目标用户的行为数据可以是接收到的与用户相关的信息,比如可以包括文本信息、语音信息、图像信息和接触信息。
其中,文本信息可以是通过对语音信息进行实时文本转写得到的,也可以是用户通过文本编辑接口直接输入得到的,还可以是对文本图像进行文本识别得到的,本发明实施例对此不作具体限定。通过对文本信息进行自然语言理解,能够快速获取用户的意图。
语音信息可以是通过麦克风或麦克风阵列拾音得到的。对语音信息进行处理,可得到语音信息所表征的语义,以及语音信息的音量、振幅、韵律、语气、语速和情感起伏等信息。
图像信息可以是通过摄像头拍摄得到的,也可以是通过图像载入工具(例如外接设备的接口)得到的。利用图像处理技术对图像进行处理,例如依据人脸图像中眼、口、鼻等关键信息,可识别用户的五官动作及形态,从而得到该图像所表征的表情。再例如,还可以对图像中的衣服颜色、人体姿态或人体手势进行识别,从而得到更加丰富的用户信息。姿态和手势能够在一定程度上反映用户所处的环境,或者用户的情感状态。
接触信息可以通过设置在虚拟形象上的传感器获得。可以在虚拟形象的不同位置处设置传感器,当用户触摸到虚拟形象时,通过传感器的信号可确定用户触摸该虚拟形象的力度以及位置信息。比如通过传感器信号能够确定是轻轻抚摸还是重重拍打,比如还能够确定是抚摸脸颊还是抚摸身体其他部位等。
通过上述分析可知,在与用户的交互过程中,用户的行为数据能够对虚拟形象的情绪状态产生影响,有些可能会产生积极的影响,而有些可能会产生消极的影响,从而影响虚拟形象与用户的交互过程。
此处,虚拟形象的初始情绪状态能够反映虚拟形象在其自身的镜像世界的情绪状态,可以每隔一定时间间隔重置虚拟形象的初始情绪状态,比如每天或者每周等,本发明实施例对此不作具体限定。在此基础上,根据虚拟形象在其镜像世界里发生的事情,比如过生日、生病等,调整其初始情绪状态。
虚拟形象与目标用户的交互时长能够反映用户对虚拟形象的喜爱程度,交互时长可以从多个维度进行统计分析,例如可以是目标用户的累计使用天数、连续使用天数、每天使用次数或每天使用时长等等。还可以统计针对同一目标用户的交互时长的变化情况,或者针对不同的目标用户,各个用户的交互时长占比情况等等。
虚拟形象的当前情绪状态能够反映在与目标用户交互过程中的当前情绪状态,可理解的是,当前情绪状态综合考虑了目标用户的行为数据、虚拟形象的初始情绪状态以及虚拟形象与目标用户的交互时长。目标用户的行为数据能够对虚拟形象产生持续性的影响,并非短暂的影响。
步骤130,基于虚拟形象的当前情绪状态进行交互,交互包括虚拟形象主动发起交互。
具体地,得到虚拟形象的当前情绪状态之后,可以基于虚拟形象的当前情绪状态进行交互。比如虚拟形象的当前情绪状态不佳,会以一种消极的状态与用户进行交互,比如不愿意回答,或者采用悲伤难过的情绪状态(可以反映在语言、表情和语气语调等各方面)与用户进行交互。再比如虚拟形象的当前情绪状态很好,会以一种积极的状态与用户进行交互,比如主动发起交互,或者交互时能让用户感受到表达积极情绪的信号,同样可以反映在语言、表情和语气语调等各方面。
需说明的是,虚拟形象不仅可以基于当前情绪状态响应用户的交互,还可以主动向用户发起交互,即交互包括虚拟形象主动发起交互。在由虚拟形象主动发起交互的场景下,可在识别到目标用户出现时,根据当前的环境状态,目标用户的行为数据,以及虚拟形象的当前情绪状态发起最适合的交互。
可理解的是,虚拟形象可以和不同的用户进行交互,并可以建立每个用户的画像,且每个用户与虚拟形象进行交互时,虚拟想象当时的情绪都是单独计算的,但也会一定的相互影响。比如用户A与虚拟形象交互时不礼貌,此时用户A的行为数据会对虚拟形象的当前情绪状态产生影响;在用户B与虚拟形象交流时,用户A与虚拟形象交互时不礼貌的行为会影响虚拟形象的初始情绪状态。
本发明实施例提供的方法,在与用户交互过程中,虚拟形象是具有情感和情绪的,虚拟形象的情绪与目标用户的行为数据、虚拟形象的初始情绪状态以及虚拟形象与目标用户的交互时长这三者密切相关,虚拟形象的情绪是动态持续变化的,会随着三者中任一项的变化而变化。目标用户的行为数据能够对虚拟形象产生持续性的影响,并非短暂的影响。
此外,虚拟形象不仅可以基于当前情绪状态响应用户的交互,还可以主动向用户发起交互,使得虚拟形象表现得更加人性化,实现与用户进行更加有效的互动,进而提高用户体验感。
基于上述实施例,图2是本发明提供的交互方法中步骤120的流程示意图,如图2所示,步骤120具体包括:
步骤121,对目标用户的行为数据进行行为识别,基于行为识别结果确定行为影响值,和/或,对目标用户的行为数据进行情绪识别,基于情绪识别结果确定情绪影响值。
具体地,目标用户的行为数据可以是接收到的与用户相关的信息,比如可以包括文本信息、语音信息、图像信息和接触信息。
此处对目标用户的行为数据进行行为识别,具体可以是对文本信息、语音信息、图像信息和接触信息中的一项或多项进行识别,并基于行为识别结果确定行为影响值。行为影响值可理解为用户的行为对虚拟形象情绪的影响值。通常用户一些积极健康文明礼貌的行为能够给虚拟形象的情绪带来正面的影响,用户一些消极粗鲁不文明不礼貌的行为能够给虚拟形象的情绪带来负面的影响。
比如通过对用户的语音内容或文本信息进行分析,在识别到诸如“你真可爱,谢谢你、你好聪明,给你点赞”等之类积极正面评价虚拟形象的语言时,行为影响值可能是正值;如果识别到诸如“你是个大笨蛋”等不礼貌、不文明的语言,或者甚至是骂人的脏话时,行为影响值可能是负值。
再比如可通过对用户的接触信息进行分析,在识别到用户动作温柔,如轻轻抚摸虚拟形象时,行为影响值可能是正值;如果识别到用户动作粗鲁,如重重摇晃或拍打虚拟形象时,行为影响值可能是负值。
相应地,对目标用户的行为数据进行情绪识别,具体可以是对文本信息、语音信息和图像信息中的一项或多项进行识别,并基于情绪识别确定情绪影响值。为了得到情绪识别结果,可采用训练好的情绪识别模型进行情绪识别,如将目标用户的行为数据输入至情绪识别模型,得到情绪识别模型输出的情绪识别结果。
例如可对目标用户的语音信息进行情绪识别,包括语音内容、语气、语速等进行分析确定该语言的情绪;还可以对目标用户的人脸图像信息进行情绪识别,依据眼、口、鼻等关键信息识别个人五官动作及形态;还可以对目标用户的手势图像信息进行情绪识别,比如高兴时拍手称快,悲痛时捶打胸脯,愤怒时挥舞拳头等。由此得到的情绪识别结果包括但不限于高兴、难过、生气、害怕、惊讶、平静等。
可理解的是,用户的情绪对虚拟形象的情绪状态也会产生影响,可基于识别得到的情绪识别结果确定情绪影响值,以使虚拟形象能够同理用户的情绪。
步骤122,基于虚拟形象与目标用户的交互时长,确定时长影响值;
步骤123,将行为影响值和/或情绪影响值,以及时长影响值和初始情绪状态对应的初始情绪值进行融合,得到虚拟形象的当前情绪值,当前情绪值反映虚拟形象的当前情绪状态。
具体地,时长影响值可反映在一段时间内目标用户和虚拟形象之间的交互时长,时长影响值也可以是正值或负值。如果虚拟形象与目标用户的交互时长越长,则时长影响值是正值的概率越大,且其绝对值也越大;如果虚拟形象与目标用户的交互时长越短,则时长影响值是负值的概率越大,且其绝对值也越大。
在一个示例中,可预先设置用户的期望时长,如果统计得到的实际交互时长超过该期望时长,则时长影响值为正值;反之,如果统计得到的实际交互时长超过该期望时长,则时长影响值为负值。
需说明的是,行为影响值、情绪影响值和时长影响值还可按照模型训练数据进行赋值。
随即,将得到的行为影响值和/或情绪影响值,以及时长影响值和初始情绪状态对应的初始情绪值进行融合,比如可以直接相加,还可以基于各自对应的权重进行加权融合。由此可得到虚拟形象的当前情绪值,当前情绪值能够反映虚拟形象的当前情绪状态。
可理解的是,用户的行为、情绪以及与虚拟形象的交互时长均可影响虚拟形象的当前情绪值,且影响是持续性的,不会因为用户行为的停止而停止对情绪的影响,而是一个持续累加的效果。
本发明实施例提供的方法,通过将行为影响值和/或情绪影响值,以及时长影响值和初始情绪状态对应的初始情绪值进行融合,得到虚拟形象的当前情绪值,通过更加精确的数值计算,进一步使得虚拟形象具备“人”的情绪情感,使得交互更加人性化,从而提高用户体验感。
基于上述任一实施例,图3是本发明提供的交互方法的流程示意图之二,如图3所示,步骤121中对目标用户的行为数据进行行为识别,基于行为识别结果确定行为影响值,具体包括:
步骤121-1,对目标用户的行为数据进行友好分类,得到友好分类结果;
步骤121-2,基于行为数据的友好分类结果和同类行为数据的统计次数,确定行为数据的行为影响值。
具体地,为了得到目标用户的行为数据针对虚拟形象情绪的影响值,即行为影响值,可通过对目标用户的行为数据进行友好分类,并基于友好分类结果和统计次数确定。
友好分类可通过分类模型实现,比如将目标用户的行为数据输入预先训练好的友好分类模型,得到友好分类模型输出的友好分类结果;还可以基于行为数据的语义特征,对行为数据所反映出的语义特征经自然语言理解得到友好分类结果。友好分类结果可以包括友好行为或不友好行为。
例如正面评价虚拟形象(可从语音或文本中提取得到的正面词汇,如聪明、可爱等进行判断)、抚摸、主动找机器人玩、配合交互、陪玩频率时长等可理解为友好行为;而说脏话、骂人、不配合交互、粗鲁对待虚拟形象(重拍、摇晃等)可理解为不友好行为。
用户的不同行为会对虚拟形象造成正向、负向2种影响,友好行为的行为影响值为正值,不友好行为的行为影响值为负值。
此外,虽然同为正向、负向影响,但不同的行为数据的行为影响值也是不同。得到友好分类结果的基础上,可同时结合同类行为数据的统计次数,确定行为影响值。同类行为数据的统计次数,可通过统计在一段时间内,用户的行为数据分类为友好行为的发生次数,或用户的行为数据分类为不友好行为的发生次数实现。
通常情况下,在识别到用户首次发生友好行为时,对虚拟形象的正向情绪影响越大,该友好行为可赋予相对较大的正向行为影响值,后续每次识别到用户发生该类友好行为时,可减少正向行为影响值的绝对值;同样地,在识别到用户首次发生不友好行为时,对虚拟形象的负向情绪影响越小,该不友好行为可赋予相对较小的负向行为影响值,后续每次识别到用户发生该类不友好行为时,可增大负向行为影响值的绝对值。
在一个示例中,同类友好行为的行为影响值可以按照指数递减关系进行正向赋值,同类不友好行为的行为影响值可以按照指数递增关系进行负向赋值。
本发明实施例提供的方法,通过基于行为数据的友好分类结果和同类行为数据的统计次数,确定行为数据的行为影响值,能够更加准确的确定目标用户的行为数据对虚拟形象情绪的影响值,从而使得虚拟形象在交互过程中更加人性化。
基于上述任一实施例,图4是本发明提供的交互方法中步骤130的流程示意图,如图4所示,步骤130具体包括:
步骤131,在检测到虚拟形象的初始情绪值、行为影响值、情绪影响值和时长影响值中的任一项发生变化的情况下,确定任一项的变化原因;
步骤132,基于任一项的变化原因,确定虚拟形象的交互内容和交互状态,并基于交互内容和交互状态进行交互,交互状态包括声音情感、语速、表情、动作和灯光中的至少一种。
具体地,在虚拟形象与目标用户进行交互的过程中,可以实时检测虚拟形象的初始情绪值、行为影响值、情绪影响值和时长影响值,并在其中的任意一项发生变化的情况下,确定该发生变化项的变化原因。
例如,当用户重重拍打虚拟形象时,此时行为影响值可能发生负向变化,则可确定该项发生变化的原因是传感器接收到来自外界的重压,同时还可结合摄像头获取用户的手势或姿态等信息,得到行为影响值发生变化的原因是用户拍打了虚拟形象,且力度较重。则可确定虚拟形象的交互内容可以是“小家伙,你刚才为什么打我呀?这样不礼貌哦,我感到不开心”等等。通过交互内容可明确告知用户,虚拟形象的情绪值降低的原因,并纠正孩子不友好的行为。
再例如,通过摄像头拍摄到目标用户的面部图像,当检测到用户的情绪识别结果是开心时,虚拟形象的情绪值可发生正向的变化。则可控制虚拟形象主动发起交互内容“你遇到什么开心的事了,可以和我分享吗?”等等,通过交互内容可明确告知用户,虚拟形象的情绪值增加的原因,并鼓励孩子保持开心的积极情绪。
此外,除了交互内容,还可以通过其他形式展示虚拟形象的情绪变化,即虚拟形象所呈现出来的交互状态。例如可通过声音情感、语速、表情、动作和灯光中的至少一种展示虚拟形象的情绪变化。
例如,当情绪发生正向变化时,可控制灯光的颜色为暖色系,语气语调为积极阳光的,语速为正常的;反之当情绪发生负向变化时,可控制灯光的颜色为冷色系,语气语调为消极懒散的,语速为快速或慢速的等等。
本发明实施例提供的方法,通过各种用户能够感知到的形式,通过交互状态展示虚拟形象的情绪变化,并且通过交互内容告知用户虚拟形象的情绪变化原因,在陪伴的同时还能够起到引导和教育的作用。
基于上述任一实施例,虚拟形象的初始情绪状态是基于虚拟形象的身份信息、历史情绪状态、虚拟形象在镜像世界的经历以及当前天气信息中的至少一种确定的。
具体地,虚拟形象的初始情绪状态能够反映虚拟形象在其自身的镜像世界的情绪状态,为了实现更高程度的拟人化,可以为虚拟形象构建一个镜像世界。在镜像世界里,虚拟形象有自己的身份信息、社交信息以及镜像世界里发生的其他一些事情。
虚拟形象可以每隔固定时间,比如每天获取默认值,默认值可以为任意值,比如可以为0,表示情绪比较平静。在此基础上,初始情绪状态可根据虚拟形象自身的事件影响而发生情绪的变化。即虚拟形象的初始情绪状态是基于虚拟形象的身份信息、历史情绪状态以及当前天气信息中的至少一种确定的。
此处的身份信息具体可包括出生日期,性别,姓名,各种社会关系比如同学关系、家人关系等。比如在虚拟形象的生日当天,其初始情绪状态可能发生正向变化;在虚拟形象需要考试的当天,其情绪可能比较紧张,会发生负向变化等等,可根据实际情况灵活设置。
历史情绪状态可以表征虚拟形象的历史情绪,比如最近一周的情绪比较积极稳定,则可在默认值的基础上发生正向变化;反之昨天的情绪非常低落,可能导致虚拟形象晚上做噩梦,则可在默认值的基础上发生负向变化。可选的,还可以设置虚拟形象的噩梦周期。
可预先为虚拟形象构建一个镜像世界,虚拟形象在镜像世界的经历能够影响虚拟形象的初始情绪状态。假如虚拟形象用来陪伴一个6岁左右的小朋友,则虚拟形象也可以是一个6岁左右的小朋友身份。在为其构建的镜像世界里,可以包括每日的日常安排,比如和现实世界里一样,虚拟形象可以上学、做功课、玩耍、旅游等,以及与他的老师、同学、好朋友和亲人之间发生的事件信息等等。镜像世界的经历均会影响虚拟形象的初始情绪状态。比如踢球受伤、晚上做噩梦、考试得满分等均会影响初始情绪状态。
当前天气信息可以表征虚拟形象的健康状态,比如当天气出现骤然降温或者持续酷暑时,虚拟形象可能会受凉生病或中暑难受,导致初始情绪状态发生负向变化;当天气比较稳定时,可能对初始情绪状态的影响较小。
本发明实施例提供的方法,通过构建虚拟形象的镜像世界,基于虚拟形象的身份信息、历史情绪状态、虚拟形象在镜像世界的经历以及当前天气信息中的至少一种确定虚拟形象的初始情绪状态,进一步提高了虚拟形象的拟人化程度,使得交互时具有更加丰富的情绪状态。
基于上述任一实施例,步骤130具体包括:
基于当前环境、目标用户的用户画像以及虚拟形象的当前情绪状态,确定与目标用户的交互内容,并基于交互内容主动进行个性化交互;目标用户的用户画像是对目标用户的行为数据进行数据分析后得到的。
具体地,虚拟形象除了能够响应用户的交互请求,还可以主动针对目标用户发起个性化交互。当通过摄像头或者声纹识别到用户出现时会主动发起交互,虚拟形象主动发起交互时,交互的内容会根据虚拟形象现在所处的当前环境(时间、天气、位置等)、目标用户的用户画像以及虚拟形象的当前情绪状态等发起最合适的交互。
当虚拟形象的当前情绪状态为正值时,则以积极情绪状态与用户进行交互,聊一些比较积极的话题;当虚拟形象的当前情绪状态为负值时,则以消极情绪状态与用户进行交互,少发起或不发起主动交互。
可以根据目标用户的用户画像确定个性化交互内容。比如可以在目标用户的生日当天,送上生日祝福;还可以在目标用户连续几天都说一些不礼貌的语言时,着重标注语言礼貌部分,在交互时发起具有教育引导作用的交互内容,比如播放关于文明礼貌用语的故事或者玩相关的游戏,比如教用户疏解情绪、不能说脏话等。
此外,在交互过程中会通过鼓励用户的友好行为、纠正用户的不友好行为,并通过一些特定的互动(对话、故事、游戏等)来培养用户的人际交往能力,如用户夸虚拟形象时虚拟形象表示感谢,并告知用户自己因为夸奖而开心;用户骂人时,虚拟形象告知用户骂人不对,并讲有关骂人的故事引导用户认知错误,当用户出现负向情绪时,通过一些情绪疏解游戏(深呼吸等)来引导用户完成情绪调节。
对目标用户的历史行为数据和历史交互数据进行数据分析后,可得到目标用户的用户画像。用户画像信息包括但不限以下信息:个人信息(姓名、年龄、性别、喜好、能力、行为偏好等)、周围人信息(家人、邻居、朋友、老师、同学等)、事件信息(考试、吃饭、出游等)。
本发明实施例提供的方法,通过基于当前环境、目标用户的用户画像以及虚拟形象的当前情绪状态,确定交互内容,并基于交互内容主动进行个性化交互。能够通过用户画像进行符合目标用户的个性化交互,同时通过用户画像持续的关注目标用户的行为数据,以便对用户的行为进行教育和指导。
基于上述任一实施例,基于交互内容主动进行个性化交互,具体包括:
在检测到虚拟形象的当前情绪状态在预设范围之内的情况下,基于预设范围对应的多轮交互模式和交互内容,主动进行多轮个性化交互。
具体地,目标用户的行为数据对虚拟形象的当前情绪状态影响是持续性,不会因为用户行为的停止而停止,当虚拟形象的当前情绪状态在预设范围之内的情况下,基于预设范围对应的多轮交互模式和交互内容,主动进行多轮个性化交互。当前情绪状态可用情绪值表示,当情绪值达到正、负一定数值时,会发起特定的几轮情绪交互表达虚拟形象此时的情绪。
例如情绪值达到+5时,会邀请用户唱歌、跳舞、击掌等交互行式;情绪值达到-5时会要求用户哄、道歉、帮助疏解情绪、拒绝与用户交互等。如用户骂人时告知用户骂人不对,引导用户道歉;当用户生气时,通过玩一些能放松情绪的游戏(如吹蜡烛)教会孩子如何调节情绪。
需说明的是,此时交互可用是多轮的,比如当情绪值达到+5时,会邀请用户唱歌、用户唱完后虚拟形象模仿唱、然后两人合唱,接着聊歌曲话题等通过多轮交互表达此时的情绪。当情绪值达到-5时,会要求用户道歉,道歉完后会引导用户听一些相关故事/儿歌资源等多轮交互引导用户认识到自己的错误。
本发明实施例提供的方法,通过预设范围对应的多轮交互模式和交互内容,主动进行多轮个性化交互,能够实现具有更有教育和指导意义的交互。
下面对本发明提供的交互装置进行描述,下文描述的交互装置与上文描述的交互方法可相互对应参照。
基于上述任一实施例,图5是本发明提供的交互装置的结构示意图,如图5所示,交互装置包括:
用户确定单元510,用于确定目标用户;
状态确定单元520,用于基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态;
交互单元530,用于基于所述虚拟形象的当前情绪状态进行交互,所述交互包括所述虚拟形象主动发起交互。
本发明实施例提供的交互装置,在与用户交互过程中,虚拟形象是具有情感和情绪的,虚拟形象的情绪与目标用户的行为数据、虚拟形象的初始情绪状态以及虚拟形象与目标用户的交互时长这三者密切相关。且虚拟形象的情绪是动态持续变化的,会随着三者中任一项的变化而变化。目标用户的行为数据能够对虚拟形象产生持续性的影响,并非短暂的影响。
此外,虚拟形象不仅可以基于当前情绪状态响应用户的交互,还可以主动向用户发起交互,使得虚拟形象表现得更加人性化,实现与用户进行更加有效的互动,进而提高用户体验感。
基于上述任一实施例,状态确定单元具体用于:
对所述目标用户的行为数据进行行为识别,基于行为识别结果确定行为影响值,和/或,对所述目标用户的行为数据进行情绪识别,基于情绪识别结果确定情绪影响值;
基于所述虚拟形象与所述目标用户的交互时长,确定时长影响值;
将所述行为影响值和/或情绪影响值,以及时长影响值和初始情绪状态对应的初始情绪值进行融合,得到所述虚拟形象的当前情绪值,所述当前情绪值反映所述虚拟形象的当前情绪状态。
基于上述任一实施例,状态确定单元具体用于:
对所述目标用户的行为数据进行友好分类,得到友好分类结果;
基于所述行为数据的友好分类结果和同类行为数据的统计次数,确定所述行为数据的行为影响值
基于上述任一实施例,交互单元具体用于:
在检测到所述虚拟形象的初始情绪值、行为影响值、情绪影响值和时长影响值中的任一项发生变化的情况下,确定所述任一项的变化原因;
基于所述任一项的变化原因,确定所述虚拟形象的交互内容和交互状态,并基于所述交互内容和交互状态进行交互,所述交互状态包括声音情感、语速、表情、动作和灯光中的至少一种。
基于上述任一实施例,所述虚拟形象的初始情绪状态是基于所述虚拟形象的身份信息、历史情绪状态、虚拟形象在镜像世界的经历以及当前天气信息中的至少一种确定的。
基于上述任一实施例,交互单元具体用于:
基于当前环境、所述目标用户的用户画像以及所述虚拟形象的当前情绪状态,确定与所述目标用户的交互内容,并基于所述交互内容主动进行个性化交互;所述目标用户的用户画像是对所述目标用户的历史行为数据和历史交互数据进行数据分析后确定的。
基于上述任一实施例,交互单元具体用于:
在检测到所述虚拟形象的当前情绪状态在预设范围之内的情况下,基于所述预设范围对应的多轮交互模式和所述交互内容,主动进行多轮个性化交互。
基于上述任一实施例,本发明实施例提供一种机器人,包括机器人本体、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序以确定目标用户,基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态,基于所述机器人的当前情绪状态进行交互,所述交互包括所述机器人主动发起交互。
本发明实施例提供的机器人是具有情感和情绪的,机器人的情绪与目标用户的行为数据、机器人的初始情绪状态以及机器人与目标用户的交互时长这三者密切相关。且机器人的情绪是动态持续变化的,会随着三者中任一项的变化而变化。目标用户的行为数据能够对机器人产生持续性的影响,并非短暂的影响。
此外,机器人不仅可以基于当前情绪状态响应用户的交互,还可以主动向用户发起交互。使得机器人表现得更加人性化,实现与用户进行更加有效的互动,进而提高用户体验感。
基于上述任一实施例,图6是本发明提供的机器人的结构示意图,如图6所示,该智能机器人可配置为儿童陪伴型机器人,该机器人可包括初始情绪模块610、用户情绪识别模块620、用户行为识别模块630、机器人情绪处理模块640、机器人情绪展示模块650、人机交互模块660和用户画像模块670。
类似于人,机器人每天也有自己的初始情绪,可通过初始情绪模块进行配置,初始情绪可默认为平静,但会受到机器人自身的因素影响而进行调整,比如机器人的身份信息、历史情绪状态以及当前天气信息中的至少一种。
用户情绪识别模块用于对目标用户的行为数据进行情绪识别,基于情绪识别结果确定情绪影响值。
用户行为识别模块用于对目标用户的行为数据进行行为识别,基于行为识别结果确定行为影响值。
机器人情绪处理模块用于将所述行为影响值和/或情绪影响值,以及时长影响值和初始情绪状态对应的初始情绪值进行融合,得到机器人的当前情绪值,当前情绪值反映机器人的当前情绪状态。
机器人情绪展示模块用于展示机器人的交互状态,交互状态包括声音情感、语速、表情、动作和灯光中的至少一种。
人机交互模块用于基于机器人的当前情绪状态响应于用户的交互请求或者主动发起交互。
用户画像模块用于在与用户的交互过程中,记录所有使用用户的情绪、用户的行为以及用户在交互过程中提供的其它信息并分析,逐步形成每个用户的用户画像。
在一些实施例中,交互过程可以如下:当识别到用户出现时,机器人根据现在所处的物理环境(天气、位置等)、用户的当前情绪状态、自身因素等发起最合适的主动交互,在交互过程通过用户行为、用户情绪收集用户信息,并计算这些信息对机器人情绪的影响,计算出来的情绪会有个外显化表现,并进一步调整下一步的主动交互行为,并在整个人机交互过程中不断收集用户的画像信息,形成用户的用户画像,方便更加个性化地用户互动,并有意识对用户的不当行为进行引导,进一步提升用户的人际交往能力。
图7示例了一种电子设备的实体结构示意图,如图7所示,该电子设备可以包括:处理器(processor)710、通信接口(Communications Interface)720、存储器(memory)730和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑指令,以执行交互方法,该方法包括:确定目标用户;基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态;基于所述虚拟形象的当前情绪状态进行交互,所述交互包括所述虚拟形象主动发起交互。
此外,上述的存储器730中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的交互方法,该方法包括:确定目标用户;基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态;基于所述虚拟形象的当前情绪状态进行交互,所述交互包括所述虚拟形象主动发起交互。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的交互方法,该方法包括:确定目标用户;基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态;基于所述虚拟形象的当前情绪状态进行交互,所述交互包括所述虚拟形象主动发起交互。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种交互方法,其特征在于,包括:
确定目标用户;
基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态;
基于所述虚拟形象的当前情绪状态进行交互,所述交互包括所述虚拟形象主动发起交互。
2.根据权利要求1所述的交互方法,其特征在于,所述基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态,包括:
对所述目标用户的行为数据进行行为识别,基于行为识别结果确定行为影响值,和/或,对所述目标用户的行为数据进行情绪识别,基于情绪识别结果确定情绪影响值;
基于所述虚拟形象与所述目标用户的交互时长,确定时长影响值;
将所述行为影响值和/或情绪影响值,以及时长影响值和初始情绪状态对应的初始情绪值进行融合,得到所述虚拟形象的当前情绪值,所述当前情绪值反映所述虚拟形象的当前情绪状态。
3.根据权利要求2所述的交互方法,其特征在于,所述对所述目标用户的行为数据进行行为识别,基于行为识别结果确定行为影响值,包括:
对所述目标用户的行为数据进行友好分类,得到友好分类结果;
基于所述行为数据的友好分类结果和同类行为数据的统计次数,确定所述行为数据的行为影响值。
4.根据权利要求2所述的交互方法,其特征在于,所述基于所述虚拟形象的当前情绪状态进行交互,包括:
在检测到所述虚拟形象的初始情绪值、行为影响值、情绪影响值和时长影响值中的任一项发生变化的情况下,确定所述任一项的变化原因;
基于所述任一项的变化原因,确定所述虚拟形象的交互内容和交互状态,并基于所述交互内容和交互状态进行交互,所述交互状态包括声音情感、语速、表情、动作和灯光中的至少一种。
5.根据权利要求1所述的交互方法,其特征在于,所述虚拟形象的初始情绪状态是基于所述虚拟形象的身份信息、历史情绪状态、所述虚拟形象在镜像世界的经历以及当前天气信息中的至少一种确定的。
6.根据权利要求1-5中任一项所述的交互方法,其特征在于,所述基于所述虚拟形象的当前情绪状态进行交互,包括:
基于当前环境、所述目标用户的用户画像以及所述虚拟形象的当前情绪状态,确定与所述目标用户的交互内容,并基于所述交互内容主动进行个性化交互;所述目标用户的用户画像是对所述目标用户的历史行为数据和历史交互数据进行数据分析后确定的。
7.根据权利要求6所述的交互方法,其特征在于,所述基于所述交互内容主动进行个性化交互,包括:
在检测到所述虚拟形象的当前情绪状态在预设范围之内的情况下,基于所述预设范围对应的多轮交互模式和所述交互内容,主动进行多轮个性化交互。
8.一种交互装置,其特征在于,包括:
用户确定单元,用于确定目标用户;
状态确定单元,用于基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态;
交互单元,用于基于所述虚拟形象的当前情绪状态进行交互,所述交互包括所述虚拟形象主动发起交互。
9.一种机器人,包括机器人本体、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序以确定目标用户,基于所述目标用户的行为数据、虚拟形象的初始情绪状态以及所述虚拟形象与目标用户的交互时长,确定所述虚拟形象的当前情绪状态,基于所述机器人的当前情绪状态进行交互,所述交互包括所述机器人主动发起交互。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述交互方法。
CN202211651994.4A 2022-12-21 2022-12-21 交互方法、装置、机器人和存储介质 Pending CN116188642A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211651994.4A CN116188642A (zh) 2022-12-21 2022-12-21 交互方法、装置、机器人和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211651994.4A CN116188642A (zh) 2022-12-21 2022-12-21 交互方法、装置、机器人和存储介质

Publications (1)

Publication Number Publication Date
CN116188642A true CN116188642A (zh) 2023-05-30

Family

ID=86431810

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211651994.4A Pending CN116188642A (zh) 2022-12-21 2022-12-21 交互方法、装置、机器人和存储介质

Country Status (1)

Country Link
CN (1) CN116188642A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116627261A (zh) * 2023-07-25 2023-08-22 安徽淘云科技股份有限公司 交互方法、装置、存储介质和电子设备
CN116704085A (zh) * 2023-08-08 2023-09-05 安徽淘云科技股份有限公司 虚拟形象生成方法、装置、电子设备和存储介质
CN118260407A (zh) * 2024-05-30 2024-06-28 青岛网信信息科技有限公司 一种知识库问答机器人的情绪模拟方法、介质及***

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116627261A (zh) * 2023-07-25 2023-08-22 安徽淘云科技股份有限公司 交互方法、装置、存储介质和电子设备
CN116704085A (zh) * 2023-08-08 2023-09-05 安徽淘云科技股份有限公司 虚拟形象生成方法、装置、电子设备和存储介质
CN116704085B (zh) * 2023-08-08 2023-11-24 安徽淘云科技股份有限公司 虚拟形象生成方法、装置、电子设备和存储介质
CN118260407A (zh) * 2024-05-30 2024-06-28 青岛网信信息科技有限公司 一种知识库问答机器人的情绪模拟方法、介质及***

Similar Documents

Publication Publication Date Title
US11222632B2 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
CN110998725B (zh) 在对话中生成响应
CN116188642A (zh) 交互方法、装置、机器人和存储介质
CN111368609A (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
Gratch et al. Using social agents to explore theories of rapport and emotional resonance
CN109564783A (zh) 在自动聊天中辅助心理治疗
KR20020067590A (ko) 개인 상호작용을 시뮬레이팅하는 환경-응답 유저인터페이스/엔터테인먼트 장치
KR20020067592A (ko) 개인 상호 작용을 시뮬레이트하고 유저의 정신 상태및/또는 인격에 응답하는 유저 인터페이스/엔터테인먼트장치
KR20020067591A (ko) 개인의 상호작용을 시뮬레이팅하는 자기-갱신 사용자인터페이스/오락 장치
KR20020071917A (ko) 개인 상호 작용을 시뮬레이트하고 관련 데이터를 갖는외부 데이터베이스를 차징하는 유저인터페이스/엔터테인먼트 장치
KR20210070213A (ko) 음성 사용자 인터페이스
CN106503786B (zh) 用于智能机器人的多模态交互方法和装置
US20190251350A1 (en) System and method for inferring scenes based on visual context-free grammar model
KR101984283B1 (ko) 기계학습모델을 이용한 자동화된 피평가자분석 시스템, 방법, 및 컴퓨터 판독가능매체
US20190251331A1 (en) System and method for reconstructing unoccupied 3d space
CN115167656A (zh) 基于人工智能虚拟形象的互动服务方法及装置
JP5223605B2 (ja) ロボットシステム、コミュニケーション活性化方法及びプログラム
EP4102398A1 (en) Context-based social agent interaction
Ritschel et al. Multimodal joke generation and paralinguistic personalization for a socially-aware robot
JP2023156489A (ja) 自然言語処理システム、自然言語処理方法および自然言語処理プログラム
CN117541444A (zh) 一种互动虚拟现实口才表达训练方法、装置、设备及介质
CN115145434A (zh) 基于虚拟形象的互动服务方法及装置
Tozadore et al. Towards adaptation and personalization in task based on human-robot interaction
Schuller et al. Computational charisma—A brick by brick blueprint for building charismatic artificial intelligence

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination