CN110286771B - 交互方法、装置、智能机器人、电子设备及存储介质 - Google Patents

交互方法、装置、智能机器人、电子设备及存储介质 Download PDF

Info

Publication number
CN110286771B
CN110286771B CN201910578601.3A CN201910578601A CN110286771B CN 110286771 B CN110286771 B CN 110286771B CN 201910578601 A CN201910578601 A CN 201910578601A CN 110286771 B CN110286771 B CN 110286771B
Authority
CN
China
Prior art keywords
interaction
user
intelligent robot
unit
interaction data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910578601.3A
Other languages
English (en)
Other versions
CN110286771A (zh
Inventor
蒋志轩
郝凯阳
靳国强
蔡孟笈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Kingsoft Internet Security Software Co Ltd
Original Assignee
Beijing Kingsoft Internet Security Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Kingsoft Internet Security Software Co Ltd filed Critical Beijing Kingsoft Internet Security Software Co Ltd
Priority to CN201910578601.3A priority Critical patent/CN110286771B/zh
Publication of CN110286771A publication Critical patent/CN110286771A/zh
Application granted granted Critical
Publication of CN110286771B publication Critical patent/CN110286771B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提出一种交互方法、装置、智能机器人、电子设备及存储介质,方法由智能机器人执行,智能机器人设有交互单元和展示单元,交互单元和展示单元分离设置,交互单元和展示单元之间进行数据通信,交互单元包括摄像头,展示单元包括显示屏,该方法包括采用摄像头采集环境图像;当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征;确定与用户特征对应的交互数据;基于对应的交互数据,采用交互单元结合显示屏与用户进行交互。通过本发明能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。

Description

交互方法、装置、智能机器人、电子设备及存储介质
技术领域
本发明涉及电子设备技术领域,尤其涉及一种交互方法、装置、智能机器人、电子设备及存储介质。
背景技术
随着人工智能(Artificial Intelligence,AI)技术的发展,智能机器人应运而生,智能机器人给人们的日常生活带来了极大的便利,为了丰富智能机器人的应用场景。相关技术中研发出在公共场合提供服务的智能机器人。
相关技术中,智能机器人在与其所处环境中的用户进行交互的过程中,一般是采用通用的交互方式与用户进行交互,例如,播放预录入的一些通用的询问语音向用户询问以进行交互,或者,显示交互界面,并显示通用的询问文字向用户询问以进行交互。
这种方式下,在进行交互时,不能根据不同用户的交互习惯进行针对性的交互,不能够满足用户的个性化交互需求。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种交互方法、装置、智能机器人、电子设备及存储介质,能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
为达到上述目的,本发明第一方面实施例提出的交互方法,所述方法由智能机器人执行,所述智能机器人设有交互单元和展示单元,所述交互单元和所述展示单元分离设置,所述交互单元和所述展示单元之间进行数据通信,所述交互单元包括摄像头,所述展示单元包括显示屏,包括:采用所述摄像头采集环境图像;当所述环境图像中呈现有注视所述智能机器人的用户时,执行预设交互过程以确定用户特征;确定与所述用户特征对应的交互数据;基于所述对应的交互数据,采用所述交互单元结合所述显示屏与所述用户进行交互。
一些实施例中,所述执行预设交互过程以确定用户特征,包括:
执行语音交互过程,以确定用户语音特征并作为所述用户特征;或者,
执行预设交互过程以识别所述用户的身体特征并作为所述用户特征,所述身体特征包括:面部特征和/或指纹特征。
一些实施例中,所述交互数据具有相关联的第一特征,所述确定与所述用户特征对应的交互数据,包括:
确定是否存在与所述用户特征匹配的第一特征;
若存在所述匹配的第一特征,则将与所述匹配的第一特征关联的交互数据作为所述对应的交互数据;
若不存在所述匹配的第一特征,则引导用户输入用户特征;
结合预设交互规则,生成与所述用户特征对应的交互数据;
将所述用户特征与所述对应的交互数据相关联,并根据关联后的用户特征与所述对应的交互数据,对已有的交互数据和关联的第一特征进行补充。
一些实施例中,所述当所述环境图像中呈现有注视所述智能机器人的用户时,执行预设交互过程以确定用户特征,包括:
当所述用户为多个时,确定各所述用户注视所述智能机器人持续的时长,所述时长均小于或者等于时间阈值;
从多个时长中确定目标时长;
执行所述预设交互过程以确定所述目标时长所属用户的用户特征。
一些实施例中,所述当所述环境图像中呈现有注视所述智能机器人的用户时,执行预设交互过程以确定用户特征,包括:
当所述用户为多个时,播放预录入的语音,所述预录入的语音用于引导目标用户输入语音数据;
确定所述语音数据所属目标用户的位置信息;
基于所述位置信息,执行所述预设交互过程以确定所述目标用户的特征。
一些实施例中,所述基于所述位置信息,执行所述预设交互过程以确定所述目标用户的特征,包括:
根据所述位置信息,调整所述交互单元的方向;
采用调整方向后的交互单元,执行所述预设交互过程以确定所述目标用户的特征。
本发明第一方面实施例提出的交互方法,通过当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征,并确定与用户特征对应的交互数据,以及基于对应的交互数据与用户进行交互,并且,将交互与展示的功能由不同屏幕承担,能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
为达到上述目的,本发明第二方面实施例提出的交互装置,所述方法由智能机器人执行,所述智能机器人设有交互单元和展示单元,所述交互单元和所述展示单元分离设置,所述交互单元和所述展示单元之间进行数据通信,所述交互单元包括摄像头,所述展示单元包括显示屏,包括:采集模块,经由所述摄像头采集环境图像;执行模块,用于当所述环境图像中呈现有注视所述智能机器人的用户时,执行预设交互过程以确定用户特征;第一确定模块,用于确定与所述用户特征对应的交互数据;交互模块,用于基于所述对应的交互数据,经由所述交互单元结合所述显示屏与所述用户进行交互。
一些实施例中,所述执行模块,包括:
语音特征子模块,用于执行语音交互过程,以确定用户语音特征并作为所述用户特征;或者,
身体特征子模块,用于执行预设交互过程以识别所述用户的身体特征并作为所述用户特征,所述身体特征包括:面部特征和/或指纹特征。
一些实施例中,所述交互数据具有相关联的第一特征,所述交互装置,还包括:
第二确定模块,用于确定是否存在与所述用户特征匹配的第一特征,并在存在所述匹配的第一特征,将与所述匹配的第一特征关联的交互数据作为所述对应的交互数据;
引导模块,用于在不存在所述匹配的第一特征,引导用户输入用户特征;
生产模块,用于结合预设交互规则,生成与所述用户特征对应的交互数据;
关联模块,用于将所述用户特征与所述对应的交互数据相关联,并根据关联后的用户特征与所述对应的交互数据,对已有的交互数据和关联的第一特征进行补充。
一些实施例中,所述执行模块,还用于:
当所述用户为多个时,确定各所述用户注视所述智能机器人持续的时长,所述时长均小于或者等于时间阈值,并从多个时长中确定目标时长,以及执行所述预设交互过程以确定所述目标时长所属用户的用户特征。
一些实施例中,所述执行模块,还用于:
当所述用户为多个时,播放预录入的语音,所述预录入的语音用于引导目标用户输入语音数据;
确定所述语音数据所属目标用户的位置信息;
基于所述位置信息,执行所述预设交互过程以确定所述目标用户的特征。
一些实施例中,所述执行模块,还用于:
根据所述位置信息,调整所述交互单元的方向;
采用调整方向后的交互单元,执行所述预设交互过程以确定所述目标用户的特征。
本发明第二方面实施例提出的交互装置,通过当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征,并确定与用户特征对应的交互数据,以及基于对应的交互数据与用户进行交互,并且,将交互与展示的功能由不同屏幕承担,能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
为达到上述目的,本发明第三方面还提出一种电子设备,该电子设备包括壳体、处理器、存储器、电路板和电源电路,其中,所述电路板安置在所述壳体围成的空间内部,所述处理器和所述存储器设置在所述电路板上;所述电源电路,用于为所述电子设备的各个电路或器件供电;所述存储器用于存储可执行程序代码;所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于执行:采集环境图像;当所述环境图像中呈现有注视所述智能机器人的用户时,执行预设交互过程以确定用户特征;确定与所述用户特征对应的交互数据;基于所述对应的交互数据与所述用户进行交互。
本发明第三方面还提出一种电子设备,通过当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征,并确定与用户特征对应的交互数据,以及基于对应的交互数据与用户进行交互,并且,将交互与展示的功能由不同屏幕承担,能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
为达到上述目的,本发明第四方面实施例提出了一种计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行:本发明第一方面实施例提出的交互方法。
本发明第四方面实施例提出了一种计算机可读存储介质,通过当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征,并确定与用户特征对应的交互数据,以及基于对应的交互数据与用户进行交互,并且,将交互与展示的功能由不同屏幕承担,能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
为达到上述目的,本发明第五方面实施例提出了一种智能机器人,包括:存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如本发明第一方面实施例提出的交互方法。
本发明第五方面实施例提出了一种智能机器人,通过当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征,并确定与用户特征对应的交互数据,以及基于对应的交互数据与用户进行交互,并且,将交互与展示的功能由不同屏幕承担,能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一实施例提出的交互方法的流程示意图;
图2为本发明实施例中智能机器人结构示意图;
图3是本发明另一实施例提出的交互方法的流程示意图;
图4是本发明另一实施例提出的交互方法的流程示意图;
图5是本发明一实施例提出的交互装置的结构示意图;
图6是本发明另一实施例提出的交互装置的结构示意图;
图7是本发明一实施例提出的电子设备的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
为了解决相关技术中的智能机器人在进行交互时,不能根据不同用户的交互习惯进行针对性的交互,不能够满足用户的个性化交互需求的技术问题,本发明实施例提供一种交互方法,通过当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征,并确定与用户特征对应的交互数据,以及基于对应的交互数据与用户进行交互,并且,将交互与展示的功能由不同屏幕承担,能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
图1是本发明一实施例提出的交互方法的流程示意图。
本发明实施例中,该交互方法由智能机器人执行,其中,智能机器人可以为任意一种具有计算处理能力的设备、器械或者机器。
本发明实施例中,可以将智能机器人设置为在接收到管理员的启动指令时,即触发执行该交互方法,或者,也可以设置为由智能机器人智能地检测时间,在检测到的时间在预设的时间范围内时,自动触发执行该交互方法,例如,当公共场合内中午时段人流量比较大时,可以将智能机器人设置为实时地执行该交互方法,设置方式灵活,智能化程度高。
参见图2,图2为本发明实施例中智能机器人结构示意图,该智能机器人20包括:交互单元21和展示单元22,交互单元21用于与用户进行交互,交互单元21包括摄像头211,展示单元22用于进行展示,展示单元22包括显示屏221。交互单元21和展示单元22分离设置,交互单元21和展示单元22之间进行数据通信。
其中,交互单元21和展示单元22可以上下设置,也可以左右设置,图2中以交互单元21和展示单元22上下设置进行示例,对此不做限制。
本发明实施例中,通过分开设置交互单元和展示单元,可以将较小的屏幕作为交互单元,用户通过该较小的屏幕进行交互,将较大的屏幕作为展示单元,使得展示单元的显示屏设置的可以更大一些,不会受限于交互单元的尺寸,从而有利于进行展示。并且,在交互单元进行交互过程中,还可以通过采用交互单元结合显示屏与用户进行交互,例如采用显示屏显示交互数据,并结合交互单元与用户进行交互,将交互与展示的功能由不同屏幕承担,能够同步地进行交互和展示,提高了互动的效率。
由于交互单元不仅能显示,还需进行信息采集,通常需要采用触控屏,成本较高,而展示单元的屏幕仅需要进行展示,仅需要设置为普通的显示屏,无需设置为触控屏,本实施例中将交互与展示的功能由不同屏幕承担,无需较大的触控屏,在一定程度上降低了成本。
参见图1,该方法包括:
S101:采用摄像头采集环境图像。
其中,智能机器人所处的环境对应的图像,可以被称为环境图像,该环境图像可以具体为环境图片、或者环境视频图像,对此不作限制。
本发明实施例在具体执行的过程中,可以直接由设置在智能机器人上的摄像头拍摄得到环境图像,在保障智能机器人交互功能的基础上,提升环境图像的采集时效性,从时限的角度保障交互效果。
本发明实施例中,可以将智能机器人的摄像头设置为实时地采集环境图像,或者,每隔预设时间间隔采集环境图像,对此不作限制。
在拍摄得到环境图像的同时,还可以实时地记录所采集环境图像对应的时间范围,该时间范围可用于对环境图像进行溯源。
本发明实施例中,不仅仅可以采集环境图像实现一些常用的监控功能,还可以采用该环境图像辅助后续的交互,拓展了智能机器人的应用功能,实现结合使用场景中实际的环境情况进行交互,使得交互更具有针对性。
本发明实施例中,还可以在智能机器人中设置图像处理模块,在智能机器人通过摄像头拍摄得到环境图像时,可以实时地将该环境图像传输至图像处理模块,由图像处理模块进行后续的人像识别。
S102:当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征。
一些实施例中,在由图像处理模块采用相关技术中的人像识别算法,识别出环境图像中具有人像时,进一步地,还可以对所识别出的人像眼部注视角度进行检测,得到目标角度,并将该目标角度与预设的角度阈值进行比对(该预设的角度阈值可以经由经验设定),在目标角度在预设的角度阈值范围内时,确定对环境图像进行识别得到的人像注视智能机器人。
另一些实施例中,还可以为智能机器人设置深度信息检测模块,在由图像处理模块采用相关技术中的人像识别算法,识别出环境图像中具有人像时,进一步地,由深度信息检测模块确定人像眼部的深度信息,而后,分析该深度信息以确定人像是否注视智能机器人。
本发明实施例中,考虑到当用户未注视智能机器人时,可能不会及时与智能机器人进行交互,因此,为了保证交互针对性的同时,还为了保障交互时效性,本发明是在环境图像中呈现有注视智能机器人的用户时,才触发执行预设交互过程以确定用户特征。
其中,用户特征用于唯一标识该用户的身份,该用户特征可以是用户的一些生物特征,或者,也可以是与用户的一些生物特征所对应的身份标识,例如,在初始采集用户生物特征的过程中,根据采集到的生物特征结合标识生成规则,生成相应的标识作为该用户的身份标识,对此不作限制。
本发明实施例中以用户特征为用户的一些生物特征进行示例,用户特征例如为,面部轮廓特征、声纹特征,瞳孔特征等,对此不作限制。
一些实施例中,在执行预设交互过程以确定用户特征的过程中,可以是执行语音交互过程,以确定用户语音特征并作为用户特征,能够有效简化用户输入操作步骤,尽量降低与用户交互的学习成本,提升用户使用粘性,提升用户使用体验度。
例如,可以在智能机器人中预置语音播报模块,在环境图像中呈现有注视智能机器人的用户时,即触发播放预录入的询问语音,该询问语音可以是智能机器人的出厂程序预先设定的,或者,也可由智能机器人使用场景的管理员进行设定,对此不作限制。
询问语音例如为,请您讲一句话?以引导用户录入一段语音,询问语音当然也可以为其它任意可能的形式,对此不作限制。
在具体执行的过程中,在播放预录入的询问语音的同时,可以启动智能机器人的语音监听装置(语音监听装置例如为麦克风装置),经由该语音监听装置实时地探测是否接收到针对询问语音的答复语音。
在具体执行的过程中,还可以在智能机器人中预置语音识别模块,在上述经由该语音监听装置监听到答复语音时,可以将该答复语音实时地发送至语音识别模块,由语音识别模块采用相关技术中的语音分析技术,分析答复语音以确定用户语音特征。
另一些实施例中,在执行预设交互过程以确定用户特征的过程中,也可以是识别用户的身体特征并作为用户特征,身体特征包括:面部特征和/或指纹特征,面部特征例如为瞳孔特征,由此可见,本发明实施例中确定用户特征的方法较为灵活,可以根据实际的使用需求选取合适的方式以确定用户特征。
在具体执行的过程中,可以在智能机器人中预置生物特征识别模块,以在检测到环境图像中呈现有注视智能机器人的用户时,识别用户的身体特征并作为用户特征。
S103:确定与用户特征对应的交互数据。
其中,交互数据可以用于描述用户在使用智能机器人相关的操控功能时的一些使用习惯信息,和喜好信息等。
例如,用户A在使用该智能机器人相关的打招呼的功能时,希望智能机器人以英文语音打招呼,用户B在使用该智能机器人相关的打招呼的功能时,希望智能机器人以日文语音打招呼,或者,用户A在使用该智能机器人相关的办理业务的功能时,希望智能机器人以业务流程A协助办理业务,用户B在使用该智能机器人相关的办理业务的功能时,希望智能机器人以业务流程B协助办理业务,对应的,在采用用户A的用户特征匹配出的希望智能机器人以英文语音打招呼,或者,希望智能机器人以业务流程A协助办理业务,即可以被称为对应的交互数据。
其中,用户特征与对应的交互数据可以是预先对海量用户的使用习惯信息,和喜好信息等采集,基于大数据进行分析并存储得到的。
S104:基于对应的交互数据,采用交互单元结合显示屏与用户进行交互。
例如,若上述在采用用户A的用户特征匹配出的希望智能机器人以英文语音打招呼,或者,希望智能机器人以业务流程A协助办理业务,则可以控制智能机器人以英文语音打招呼,或者,控制智能机器人以业务流程A协助办理业务。
本实施例中,通过当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征,并确定与用户特征对应的交互数据,以及基于对应的交互数据与用户进行交互,并且,将交互与展示的功能由不同屏幕承担,能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
图3是本发明另一实施例提出的交互方法的流程示意图。
参见图3,该方法包括:
S301:采用摄像头采集环境图像。
S301的说明可以详见上述实施例。
S302:当用户为多个时,确定各用户注视智能机器人持续的时长,时长均小于或者等于时间阈值。
本实施例中的步骤,是考虑到在识别用户特征时,智能机器人对向的用户可能为一个,也可能为多个,即多用户注视智能机器人的场景,有可能此时需要进行交互的仅仅为其中一个用户,或者,多个用户均有交互的需求。
因此,本发明中为了实现依次进行交互,可以确定各用户注视智能机器人持续的时长,由于注视持续的时长较长的用户,可能具有较强烈的交互意愿,可以优先识别具有较强烈的交互意愿用户的用户特征。
其中,时间阈值为控制智能机器人响应用户交互的门限值,预设阈值可以由智能机器人的出厂程序预先标定,或者,由智能机器人的管理员根据实际使用需求进行设定,对此不作限制。
时间阈值例如为15s。
在具体执行的过程中,例如,探测15s各用户注视智能机器人持续的时长,而后,根据多个持续的时长从中确定出具有较强烈的交互意愿的用户。
S303:从多个时长中确定目标时长。
其中的目标时长为多个时长中的最大值。
可以理解的是,结合实际的使用场景,注视时间较长的用户一般具有较强烈的交互意愿。
因此,本实施例中,可以从多个时长中确定最大的时长并作为目标时长,而后确定目标时长所属用户的用户特征,实现结合了实际的使用场景控制智能机器人进行交互,能够精准地确定出具有较强交互意愿的用户,保障交互效果。
S304:执行预设交互过程以确定目标时长所属用户的用户特征。
S305:确定与用户特征对应的交互数据。
S306:基于对应的交互数据,采用交互单元结合显示屏与用户进行交互。
S304-S306的说明可以详见上述实施例。
作为另一种示例,当用户为多个时,播放预录入的语音,预录入的语音用于引导目标用户输入语音数据;确定语音数据所属目标用户的位置信息;基于位置信息,执行预设交互过程以确定目标用户的特征,在基于位置信息,执行预设交互过程以确定目标用户的特征时,可以具体根据位置信息,调整交互单元的方向;采用调整方向后的交互单元,执行预设交互过程以确定目标用户的特征。
例如,若当前用户为多个,则可以播放预录入的语音:请需要交互的用户讲一句话,而后,可以启动内置的语音监听装置,监听用户输入的语音,在监听到用户输入语音之后,可以采用相关技术中的声源定位技术,结合语音对其所属用户进行定位,得到位置信息,而后,可以分析该位置信息得到该用户与智能机器人的相对方向,进而,将交互单元的方向调整为该相对方向,以采用调整方向后的交互单元,执行预设交互过程以确定目标用户的特征。
由此可见,本发明实施例中能够实现针对性的识别,当用户为多个时,可以通过声源定位的方式确定出目标用户,而后,将交互单元的方向调整为该相对方向以确定目标用户的特征,精准地确定出具有较强交互意愿的用户,使得交互单元旋转以便于目标用户的操作,由此能够取得更好的交互效果,提升用户使用体验度,提升智能机器人的智能化控制效果。
本实施例中,通过当用户为多个时,确定各用户注视智能机器人持续的时长,时长均小于或者等于时间阈值,从多个时长中确定目标时长,以及执行预设交互过程以确定目标时长所属用户的用户特征,实现结合了实际的使用场景控制智能机器人进行交互,能够精准地确定出具有较强交互意愿的用户,保障交互效果。
图4是本发明另一实施例提出的交互方法的流程示意图。
参见图4,该方法包括:
S401:采用摄像头采集环境图像。
S402:当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征。
S401和S402的说明可以详见上述实施例,在此不再赘述。
S403:确定是否存在与用户特征匹配的第一特征,交互数据具有相关联的第一特征。
在具体执行的过程中,智能机器人可以在本地存储模块中基于用户特征进行检索,本地存储模块中可以预先存储候选的交互数据以及各交互数据关联的第一特征,其中,该第一特征为预先学习的交互数据所属用户的用户特征,或者,也可以向服务器发送确定请求,服务器中可以预先存储候选的交互数据以及各交互数据关联的第一特征,以使服务器基于确定请求确定是否存在与用户特征匹配的第一特征,并将确定的结果反馈至智能机器人。
S404:若存在匹配的第一特征,则将与匹配的第一特征关联的交互数据作为对应的交互数据。
在具体执行的过程中,若存在与用户特征匹配的第一特征,则表明智能机器人已学习过当前注视智能机器人的用户的交互数据,此时,可以直接读取与匹配的第一特征关联的交互数据作为对应的交互数据,直接采用对应的交互数据与用户进行交互,以此能够保障较好的交互效率,并且由于智能机器人已学习过当前注视智能机器人的用户的交互数据,此时采用调取的交互数据进行交互,提升了智能化交互效果。
S405:基于对应的交互数据,采用交互单元结合显示屏与用户进行交互。
S405的说明可以详见上述实施例,在此不再赘述。
S406:若不存在匹配的第一特征,则引导用户输入用户特征。
例如,可以采用语音交互的形式,或者采用文字交互的形式引导用户输入用户特征,可以播放预录入的语音:请您注视摄像头!而后,在检测到用户注视智能机器人的摄像头时,采集用户的瞳孔特征并作为用户特征,或者,也可以显示文字:请您将手指放置在指纹识别器上!引导用户输入指纹特征并作为用户特征。
S407:结合预设交互规则,生成与用户特征对应的交互数据。
预设交互规则例如为,预先模拟一些交互场景(例如,打招呼的交互场景),并引导用户输入相应的反馈信息(例如,针对智能机器人播放的打招呼的语言类型,确定用户是否反馈的该语言类型的语音信息),若智能机器人播放的打招呼的语言类型为英语,若确定用户反馈的该的是中文的语音信息,则将中文的语音信息作为对应的交互数据,对此不作限制。
S408:将用户特征与对应的交互数据相关联,并根据关联后的用户特征与对应的交互数据,对已有的交互数据和关联的第一特征进行补充。
例如,在结合预设交互规则,生成与用户特征对应的交互数据时,可以是预先模拟一些交互场景(例如,打招呼的交互场景),引导用户输入相应的反馈信息(例如,针对智能机器人播放的打招呼的方式,用户所反馈的语音信息),分析该反馈信息得到交互数据,并将该交互数据与引导用户输入的用户特征进行关联,对已有的交互数据和关联的第一特征进行补充。
本实施例中,通过确定是否存在与用户特征匹配的第一特征时,直接读取与匹配的第一特征关联的交互数据作为对应的交互数据,直接采用对应的交互数据与用户进行交互,以此能够保障较好的交互效率,并且由于智能机器人已学习过当前注视智能机器人的用户的交互数据,此时采用调取的交互数据进行交互,提升了智能化交互效果。通过确定不存在与用户特征匹配的第一特征时,引导用户输入用户特征,结合预设交互规则,生成与用户特征对应的交互数据,以及将用户特征与对应的交互数据相关联,并根据关联后的用户特征与对应的交互数据,对已有的交互数据和关联的第一特征进行补充,实现对智能机器人所学习的交互数据进行动态补充和更新,以更好地满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
图5是本发明一实施例提出的交互装置的结构示意图。
该交互装置被设置于智能机器人内部。
智能机器人设有交互单元和展示单元,交互单元和展示单元分离设置,交互单元和展示单元之间进行数据通信,交互单元包括摄像头,展示单元包括显示屏。
参见图5,该交互装置500,包括:
采集模块501,用于经由摄像头采集环境图像;
执行模块502,用于当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征;
第一确定模块503,用于确定与用户特征对应的交互数据;
交互模块504,用于基于对应的交互数据,经由交互单元结合显示屏与用户进行交互。
可选地,一些实施例中,参见图6,执行模块502,包括:
语音特征子模块5021,用于执行语音交互过程,以确定用户语音特征并作为用户特征;或者,
身体特征子模块5022,用于执行预设交互过程以识别用户的身体特征并作为用户特征,身体特征包括:面部特征和/或指纹特征。
可选地,一些实施例中,交互数据具有相关联的第一特征,交互装置500,还包括:
第二确定模块505,用于确定是否存在与用户特征匹配的第一特征,并在存在匹配的第一特征,将与匹配的第一特征关联的交互数据作为对应的交互数据。
引导模块506,用于在不存在匹配的第一特征,引导用户输入用户特征;
生产模块507,用于结合预设交互规则,生成与用户特征对应的交互数据;
关联模块508,用于将用户特征与对应的交互数据相关联,并根据关联后的用户特征与对应的交互数据,对已有的交互数据和关联的第一特征进行补充。
可选地,一些实施例中,执行模块502,还用于:
当用户为多个时,确定各用户注视智能机器人持续的时长,时长均小于或者等于时间阈值,并从多个时长中确定目标时长,以及执行预设交互过程以确定目标时长所属用户的用户特征。
可选地,一些实施例中,执行模块502,还用于:
当用户为多个时,播放预录入的语音,预录入的语音用于引导目标用户输入语音数据;
确定语音数据所属目标用户的位置信息;
基于位置信息,执行预设交互过程以确定目标用户的特征。
可选地,一些实施例中,执行模块502,还用于:
根据位置信息,调整交互单元的方向;
采用调整方向后的交互单元,执行预设交互过程以确定目标用户的特征。
需要说明的是,前述图1-图4实施例中对交互方法实施例的解释说明也适用于该实施例的交互装置500,其实现原理类似,此处不再赘述。
本实施例中,通过当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征,并确定与用户特征对应的交互数据,以及基于对应的交互数据与用户进行交互,并且,将交互与展示的功能由不同屏幕承担,能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
图7是本发明一个实施例提出的电子设备的结构示意图。
参见图7,电子设备700可以包括以下一个或多个组件:处理器701,存储器702,电源电路703,多媒体组件704,音频组件705,输入/输出(I/O)的接口706,传感器组件707,以及通信组件705。
电源电路703,用于为移动终端的各个电路或器件供电;存储器602用于存储可执行程序代码;处理器701通过读取存储器702中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于执行以下步骤:
采集环境图像;
当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征;
确定与用户特征对应的交互数据;
基于对应的交互数据与用户进行交互。
需要说明的是,前述图1-图4实施例中对交互方法实施例的解释说明也适用于该实施例的电子设备700,其实现原理类似,此处不再赘述。
本实施例中,通过当环境图像中呈现有注视智能机器人的用户时,执行预设交互过程以确定用户特征,并确定与用户特征对应的交互数据,以及基于对应的交互数据与用户进行交互,并且,将交互与展示的功能由不同屏幕承担,能够同步地进行交互和展示,提高了互动的效率,实现根据不同用户的交互习惯进行针对性的交互,满足用户的个性化交互需求,提升智能机器人的智能化交互效果。
为了实现上述实施例,本发明还提出一种计算机可读存储介质,当存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行上述实施例提出的交互方法。
为了实现上述实施例,本发明还提出一种智能机器人,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时,实现如本发明前述实施例提出的交互方法。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (9)

1.一种交互方法,其特征在于,所述方法由智能机器人执行,所述智能机器人设有交互单元和展示单元的屏幕,所述交互单元的屏幕和所述展示单元的屏幕分离设置,所述交互单元的屏幕大小小于所述展示单元的屏幕大小,所述交互单元的屏幕为触控屏,所述交互单元和所述展示单元之间进行数据通信,所述交互单元包括摄像头,所述展示单元的屏幕为显示屏,包括:
采用所述摄像头采集环境图像,将所述环境图像传输至图像处理模块;
在所述图像处理模块识别出环境图像中具有人像时,对所识别出的人像眼部注视角度进行检测,将检测得到的目标角度与预设的角度阈值进行比对,在所述目标角度处于所述角度阈值的范围时,确定所述环境图像中呈现有注视所述智能机器人的用户,在环境图像中呈现有注视所述智能机器人的用户时,播放预录入的询问语音并启动智能机器人的语音监听装置,采用声源定位技术,结合所述语音监听装置监听到答复语音,对所属用户进行定位,以得到用户的位置信息,分析所述位置信息与所述智能机器人的相对方向,依据所述相对方向调整所述交互单元,执行语音交互过程以确定用户语音特征并作为用户特征,或者执行预设交互过程以识别所述用户的身体特征并作为所述用户特征,其中,所述用户特征包括指纹特征,当所述用户为多个时,还确定各所述用户注视所述智能机器人持续的时长,从多个时长中确定目标时长,执行所述预设交互过程以确定所述目标时长所属用户的用户特征,所述时长均小于或者等于时间阈值,所述目标时长为多个时长中的最大值;
确定与所述用户特征对应的交互数据,所述交互数据包括用于描述用户在使用所述智能机器人相关操控功能时的使用习惯信息;
基于所述对应的交互数据,采用所述交互单元结合所述显示屏与所述用户进行交互。
2.如权利要求1所述的交互方法,其特征在于,所述用户特征还包括:面部特征。
3.如权利要求2所述的交互方法,其特征在于,所述交互数据具有相关联的第一特征,所述确定与所述用户特征对应的交互数据,包括:
确定是否存在与所述用户特征匹配的第一特征;
若存在所述匹配的第一特征,则将与所述匹配的第一特征关联的交互数据作为所述对应的交互数据;
若不存在所述匹配的第一特征,则引导用户输入用户特征;
结合预设交互规则,生成与所述用户特征对应的交互数据;
将所述用户特征与所述对应的交互数据相关联,并根据关联后的用户特征与所述对应的交互数据,对已有的交互数据和关联的第一特征进行补充。
4.一种交互装置,其特征在于,所述装置设置于智能机器人中,所述智能机器人设有交互单元和展示单元的屏幕,所述交互单元的屏幕和所述展示单元的屏幕分离设置,所述交互单元的屏幕大小小于所述展示单元的屏幕大小,所述交互单元的屏幕为触控屏,所述交互单元和所述展示单元之间进行数据通信,所述交互单元包括摄像头,所述展示单元的屏幕为显示屏,包括:
采集模块,经由所述摄像头采集环境图像,将所述环境图像传输至图像处理模块;
执行模块,用于在所述图像处理模块识别出环境图像中具有人像时,对所识别出的人像眼部注视角度进行检测,将检测得到的目标角度与预设的角度阈值进行比对,在所述目标角度处于所述角度阈值的范围时,确定所述环境图像中呈现有注视所述智能机器人的用户,在环境图像中呈现有注视所述智能机器人的用户时,播放预录入的询问语音并启动智能机器人的语音监听装置,采用声源定位技术,结合所述语音监听装置监听到答复语音,对所属用户进行定位,以得到用户的位置信息,分析所述位置信息与所述智能机器人的相对方向,依据所述相对方向调整所述交互单元,执行语音交互过程以确定用户语音特征并作为用户特征,或者执行预设交互过程以识别所述用户的身体特征并作为所述用户特征,其中,所述用户特征包括指纹特征,当所述用户为多个时,还确定各所述用户注视所述智能机器人持续的时长,从多个时长中确定目标时长,执行所述预设交互过程以确定所述目标时长所属用户的用户特征,所述时长均小于或者等于时间阈值,所述目标时长为多个时长中的最大值;
第一确定模块,用于确定与所述用户特征对应的交互数据,所述交互数据包括用于描述用户在使用所述智能机器人相关操控功能时的使用习惯信息;
交互模块,基于所述对应的交互数据,经由所述交互单元结合所述显示屏与所述用户进行交互。
5.如权利要求4所述的交互装置,其特征在于,所述用户特征还包括:指纹特征。
6.如权利要求5所述的交互装置,其特征在于,所述交互数据具有相关联的第一特征,所述交互装置,还包括:
第二确定模块,用于确定是否存在与所述用户特征匹配的第一特征,并在存在所述匹配的第一特征,将与所述匹配的第一特征关联的交互数据作为所述对应的交互数据;
引导模块,用于在不存在所述匹配的第一特征,引导用户输入用户特征;
生产模块,用于结合预设交互规则,生成与所述用户特征对应的交互数据;
关联模块,用于将所述用户特征与所述对应的交互数据相关联,并根据关联后的用户特征与所述对应的交互数据,对已有的交互数据和关联的第一特征进行补充。
7.一种电子设备,包括壳体、处理器、存储器、电路板和电源电路,其中,所述电路板安置在所述壳体围成的空间内部,所述处理器和所述存储器设置在所述电路板上;所述电源电路,用于为所述电子设备的各个电路或器件供电;所述存储器用于存储可执行程序代码;所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于执行如权利要求1-3中任一项所述的交互方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-3中任一项所述的交互方法。
9.一种智能机器人,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现如权利要求1-3中任一所述的交互方法。
CN201910578601.3A 2019-06-28 2019-06-28 交互方法、装置、智能机器人、电子设备及存储介质 Active CN110286771B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910578601.3A CN110286771B (zh) 2019-06-28 2019-06-28 交互方法、装置、智能机器人、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910578601.3A CN110286771B (zh) 2019-06-28 2019-06-28 交互方法、装置、智能机器人、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN110286771A CN110286771A (zh) 2019-09-27
CN110286771B true CN110286771B (zh) 2024-06-07

Family

ID=68020163

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910578601.3A Active CN110286771B (zh) 2019-06-28 2019-06-28 交互方法、装置、智能机器人、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN110286771B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991249A (zh) * 2019-11-04 2020-04-10 支付宝(杭州)信息技术有限公司 人脸检测方法、装置、电子设备及介质
CN112655000B (zh) * 2020-04-30 2022-10-25 华为技术有限公司 车内用户定位方法、车载交互方法、车载装置及车辆
CN111710046A (zh) * 2020-06-05 2020-09-25 北京有竹居网络技术有限公司 交互方法、装置和电子设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010182287A (ja) * 2008-07-17 2010-08-19 Steven C Kays 適応型インテリジェント・デザイン
CN102610035A (zh) * 2012-04-05 2012-07-25 广州广电运通金融电子股份有限公司 金融自助设备及其防偷窥***和方法
CN102609089A (zh) * 2011-01-13 2012-07-25 微软公司 用于机器人和用户交互的多状态模型
CN108068121A (zh) * 2017-12-22 2018-05-25 达闼科技(北京)有限公司 一种人机交互控制方法、装置及机器人
WO2018156912A1 (en) * 2017-02-27 2018-08-30 Tobii Ab System for gaze interaction
CN108733208A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 智能设备的交互目标确定方法和装置
EP3399427A1 (de) * 2017-05-03 2018-11-07 Karlsruher Institut für Technologie Verfahren und system zur quantitativen messung der mentalen beanspruchung eines individuellen benutzers
CN109015593A (zh) * 2018-09-21 2018-12-18 中新智擎科技有限公司 一种广告机器人及其广告投放方法
CN109144262A (zh) * 2018-08-28 2019-01-04 广东工业大学 一种基于眼动的人机交互方法、装置、设备及存储介质
CN109840804A (zh) * 2019-01-21 2019-06-04 深圳市丰巢科技有限公司 第三方信息展示方法、装置、设备和存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140247208A1 (en) * 2013-03-01 2014-09-04 Tobii Technology Ab Invoking and waking a computing device from stand-by mode based on gaze detection
US10063560B2 (en) * 2016-04-29 2018-08-28 Microsoft Technology Licensing, Llc Gaze-based authentication

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010182287A (ja) * 2008-07-17 2010-08-19 Steven C Kays 適応型インテリジェント・デザイン
CN102609089A (zh) * 2011-01-13 2012-07-25 微软公司 用于机器人和用户交互的多状态模型
CN102610035A (zh) * 2012-04-05 2012-07-25 广州广电运通金融电子股份有限公司 金融自助设备及其防偷窥***和方法
WO2018156912A1 (en) * 2017-02-27 2018-08-30 Tobii Ab System for gaze interaction
EP3399427A1 (de) * 2017-05-03 2018-11-07 Karlsruher Institut für Technologie Verfahren und system zur quantitativen messung der mentalen beanspruchung eines individuellen benutzers
CN108068121A (zh) * 2017-12-22 2018-05-25 达闼科技(北京)有限公司 一种人机交互控制方法、装置及机器人
CN108733208A (zh) * 2018-03-21 2018-11-02 北京猎户星空科技有限公司 智能设备的交互目标确定方法和装置
CN109144262A (zh) * 2018-08-28 2019-01-04 广东工业大学 一种基于眼动的人机交互方法、装置、设备及存储介质
CN109015593A (zh) * 2018-09-21 2018-12-18 中新智擎科技有限公司 一种广告机器人及其广告投放方法
CN109840804A (zh) * 2019-01-21 2019-06-04 深圳市丰巢科技有限公司 第三方信息展示方法、装置、设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
新一代人机交互:自然用户界面的现状、类型与教育应用探究――兼对脑机接口技术的初步展望;徐振国等;远程教育杂志;20180717(第04期);全文 *

Also Published As

Publication number Publication date
CN110286771A (zh) 2019-09-27

Similar Documents

Publication Publication Date Title
EP3616050B1 (en) Apparatus and method for voice command context
CN111492328B (zh) 虚拟助手的非口头接合
US11163356B2 (en) Device-facing human-computer interaction method and system
CN108052079B (zh) 设备控制方法、装置、设备控制装置及存储介质
US12002138B2 (en) Speech-driven animation method and apparatus based on artificial intelligence
CN104049721B (zh) 信息处理方法及电子设备
CN108363706B (zh) 人机对话交互的方法和装置、用于人机对话交互的装置
US11854550B2 (en) Determining input for speech processing engine
CN110286771B (zh) 交互方法、装置、智能机器人、电子设备及存储介质
CN110519636B (zh) 语音信息播放方法、装置、计算机设备及存储介质
CN111683263B (zh) 直播指导方法、装置、设备及计算机可读存储介质
CN109120790B (zh) 通话控制方法、装置、存储介质及穿戴式设备
CN109637518A (zh) 虚拟主播实现方法及装置
CN112236739B (zh) 基于检测到的嘴运动和/或凝视的适配自动助理
CN109259724B (zh) 一种用眼监控方法、装置、存储介质及穿戴式设备
CN105204642A (zh) 虚拟现实交互画面的调节方法和装置
CN108965981B (zh) 视频播放方法、装置、存储介质及电子设备
WO2021232875A1 (zh) 一种驱动数字人的方法、装置及电子设备
KR20190113252A (ko) 시선 추적 방법 및 이를 수행하기 위한 단말
CN107452381B (zh) 一种多媒体语音识别装置及方法
CN111063024A (zh) 三维虚拟人驱动方法、装置、电子设备及存储介质
CN108388399B (zh) 虚拟偶像的状态管理方法及***
CN111966321A (zh) 音量调节方法、ar设备及存储介质
WO2023006033A1 (zh) 语音交互方法、电子设备及介质
CN113657173B (zh) 一种数据处理方法、装置和用于数据处理的装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant