CN106393113A - 机器人和机器人的交互控制方法 - Google Patents

机器人和机器人的交互控制方法 Download PDF

Info

Publication number
CN106393113A
CN106393113A CN201611008780.XA CN201611008780A CN106393113A CN 106393113 A CN106393113 A CN 106393113A CN 201611008780 A CN201611008780 A CN 201611008780A CN 106393113 A CN106393113 A CN 106393113A
Authority
CN
China
Prior art keywords
robot
interactive operation
feedback
feedback behavior
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611008780.XA
Other languages
English (en)
Inventor
蒋化冰
孙斌
吴礼银
康力方
李小山
张干
赵亮
邹武林
徐浩明
廖凯
齐鹏举
方园
李兰
米万珠
舒剑
吴琨
管伟
罗璇
罗承雄
张海建
马晨星
张俊杰
谭舟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Muye Robot Technology Co Ltd
Original Assignee
Shanghai Muye Robot Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Muye Robot Technology Co Ltd filed Critical Shanghai Muye Robot Technology Co Ltd
Priority to CN201611008780.XA priority Critical patent/CN106393113A/zh
Publication of CN106393113A publication Critical patent/CN106393113A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

本发明公开了一种机器人和机器人的交互控制方法,机器人包括:设置于机器人机身、用于检测交互操作的检测器;根据交互操作和交互操作对应的检测器位置,控制反馈装置执行反馈行为的中控元件;以及执行反馈行为的反馈装置。通过本方案,机器人能够基于用户在机身上触发的交互操作行为和交互操作位置实现人机智能交互,使得人机交互不仅限于语音以及对显示屏的触摸交互,扩展了机器人的交互形式。

Description

机器人和机器人的交互控制方法
技术领域
本发明属于移动机器人领域,尤其涉及一种机器人和机器人的交互控制方法。
背景技术
近年来,机器人技术的发展和人工智能研究不断深入,智能机器人在人类生活中扮演越来越重要的角色。随着人们的需求不断增多,更强交互功能的机器人将逐渐会成为机器人界的宠儿。
而现阶段的机器人多为根据用户输入的语音指令或者在显示屏上输入的触控指令做出相应的交互反应,而这些交互功能基本都是出于业务逻辑的角度设置的,机器人的拟人化交互功能比较欠缺,使得目前机器人的人机交互形式过于单一。
发明内容
有鉴于此,本发明实施例提供了一种机器人和机器人的交互控制方法,用于扩展机器人的人机交互形式,提高人机交互的智能性。
本发明实施例提供了一种机器人,包括:
设置于机器人机身、用于检测交互操作的检测器;
根据所述交互操作和所述交互操作对应的检测器位置,控制反馈装置执行反馈行为的中控元件;以及
执行所述反馈行为的所述反馈装置。
本发明实施例提供了一种机器人的交互控制方法,包括:
若检测到交互对象在所述机器人上触发了交互操作,则根据所述交互操作和所述交互操作对应的触发位置,确定反馈行为;
控制所述机器人执行所述反馈行为。
本发明提供的机器人和机器人的交互控制方法,在机器人机身上设置一个或多个检测器,以通过检测器检测用户在机器人上触发的交互操作。由于可以预先设定不同的检测器位置和不同的交互操作行为对应于不同的反馈行为,从而,当中控元件接收到某个检测器传送的交互操作信息后,可以基于该交互操作以及相应检测器的预设位置确定出对应的反馈行为,并控制反馈装置执行该反馈行为。通过本方案,机器人能够基于用户在机身上触发的交互操作行为和交互操作位置实现人机智能交互,使得人机交互不仅限于语音以及对显示屏触摸交互,扩展了机器人的交互形式。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的机器人实施例一的结构示意图;
图2为本发明实施例提供的机器人实施例二的结构示意图;
图3为本发明实施例提供的机器人的交互控制方法实施例一的流程图;
图4为本发明实施例提供的机器人的交互控制方法实施例二的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的机器人实施例一的结构示意图,如图1所示,该机器人包括检测器10、中控元件20以及反馈装置30。
其中,检测器10设置于机器人机身1上,用于检测用户的交互操作。
中控元件20设置于机身1的内部,用于根据检测器10检测到的交互操作和该交互操作对应的检测器10位置控制反馈装置30执行反馈行为。
反馈装置30连接于中控元件20,并在中控元件20的控制下执行反馈行为。
本发明实施例中,中控元件20可以使用各种应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、微控制器、微处理器或其他电子元件实现。
可选地,在实际应用中,检测器10包括设置在机器人机身1上不同位置的至少一个触摸传感器110,和/或至少一个振动传感器120。其中,触摸传感器110用于检测触摸滑动的方向和/或速度;振动传感器120用于检测敲击操作的次数和/或力度。检测器在机器人机身1上的设置位置可以是但不限制于是头部11、肩部12、腹部13等。如,在肩部12分别设置两个振动传感器120;在头部11以及腹部13分别设置多个触摸传感器110。可以理解的是,为了实现拟人化的交互效果,检测器在机器人机身上的设置位置可以通过对大量用户对机器人的习惯操作位置统计确定,也可以经验设定。
需要指出的是,触摸传感器110以及振动传感器120可以理解为示例性质,可以想到的是其他类型的传感器,假如具有检测人机交互的交互操作,也可以纳入检测器10的保护范围,属于本发明同一构思,应落入本发明的保护范围。
在实际应用中,为了提示用户可以对机器人进行哪些交互操作,可以在机器人机身上的检测器的设置位置附近贴覆有相应的提示信息,或者也可以在机器人的显示屏上显示提示信息,该显示屏比如为设置在机器人腹部的触摸屏。
当用户根据上述提示信息对机器人进行了相应的交互操作时,相应位置的检测器10检测到用户触发的交互操作信息,比如敲击的次数、力度,从而该检测器10将检测到的交互操作信息发送至中控元件20。中控元件20基于接收到的交互操作信息和该检测器10的位置,确定出相应的反馈行为,并控制反馈装置30执行该反馈行为,向用户反馈机器人对其触发的交互操作的响应。
具体地,检测器10在向中控元件20传送检测到的交互操作信息时,将自身的标识发送至中控元件20,其中,该标识比如为该检测器10的设备型号。中控元件20基于该设备型号可以确定该检测器10的在机器人机身1上的设置位置。
具体地,本发明实施例中,机器人中可以设置有存储器40,该存储器40中可以存储有检测器标识与检测器位置的对应关系,从而中控元件20可以实现上述设置位置的确定。
该存储器40中还可以存储有多种反馈行为,其中,每种反馈行为的存储索引可以通过检测器位置、交互操作信息的编码结果来表达。从而,当中控元件20接收到交互操作信息,并确定出检测器位置后,对交互操作信息(比如触摸滑动方向、速度;敲击次数、敲击力度)和检测器位置进行编码,得到编码结果,以得到的编码结果为索引查询存储器40,以获得相应的反馈行为。因此,可以理解的是,中控元件20中包含有用于实现编码逻辑的相关器件。
本实施例中,机器人向用户进行交互反馈的反馈行为可以包括声音反馈行为、图像反馈行为以及动作反馈行为中的至少一种。也就是说,存储器40中可以存储有声音、图像、动作序列中的一种或多种反馈数据。从而可选地,反馈装置30包括声音播放器310、显示屏320、运动组件330中的至少一种。
其中,声音播放器310与中控元件20连接,用于接受中控元件20的控制对声音反馈行为即用于反馈的声音进行播放使得用户及时的从听觉上得到交互反馈;显示屏320连接于中控元件20,用于接受中控元件20的控制对图像反馈行为即用作反馈的图像进行播放显示,使得用户及时的从视觉上得到交互反馈;运动组件330包括但不限制于机器人的双腿、手臂、头等,运动组件330连接于中控元件20,用于接受中控元件20的控制执行动作反馈行为即用于反馈的动作,使得用户及时的从机器人的肢体变化中感受到交互反馈。
下面以几个示例来举例说明本发明实施例中交互反馈的具体实现:
比如,反馈装置30包括运动组件330,检测器10包括设置在机器人腹部的多个触摸传感器110,比如设置在所述显示屏320下的多个触摸传感器110,用于检测触摸滑动的方向。此时,当该多个触摸传感器110检测到用户触发了某个方向的滑动操作时,中控元件20根据检测到的触摸滑动的方向控制运动组件330,使机器人向对应方向行走。本示例中,多个触摸传感器110既可以设置在所述显示屏320处,还可以设置于所述显示屏320相邻的位置处,当设置在所述显示屏320下时,即为通过具有触摸检测功能的所述显示屏320,用户可以对机器人进行行走控制。
具体地,设置于包括但不限制于腹部13的多个触摸传感器110检测到有用户的滑动操作,且检测到滑动操作的方向后,将该滑动操作的方向和自身的设备标识发送至中控元件20,中控元件20根据该设备标识确定滑动操作的发生位置,通过对该发生位置以及滑动操作的方向编码得到存储索引,从而查询确定出相应的反馈行为,如“向前行进50厘米”,这里的向前方向与滑动操作的方向相对应,中控元件20进而控制运动组件330中的双腿,使机器人向前行进50厘米,即完成因用户的触摸操作,致使机器人做出“向前行进50厘米”的动作反馈行为。
又如,反馈装置30包括声音播放器310,检测器10包括设置在机器人肩部的至少一个振动传感器120,用于检测用户的敲击操作。当振动传感器检测到用户触发了敲击操作,并检测到敲击次数和力度后,将检测到的信息发送至中控元件20,中控元件20根据检测到的信息和该敲击操作的发生位置确定相应的声音文件,并控制声音播放器310播放相应的声音文件;另外,所述检测器10还可以包括设置在机器人腹部的多个所述触摸传感器110,如设置在所述显示屏320下方的多个所述触摸传感器110,用于检测触摸滑动的方向,当检测到用户触发了某个方向的滑动操作时,判断所述滑动操作的方向,所述中控元件20根据所述滑动操作的方向控制所述声音播放器310播放声音文件时的音量大小,如检测到的滑动操作方向为从显示屏的顶部到底部时减小所述声音播放器310播放声音文件时的音量,反之检测到的滑动操作方向为从显示屏的底部到顶部时加大所述声音播放器310播放声音文件时的音量,以实现通过所述检测器10对所述反馈装置30的控制
另如,反馈装置30包括所述显示屏320,检测器10包括设置在机器人机身腹部侧边的多个触摸传感器110,用于检测用户的触摸操作。当多个触摸传感器110检测到用户触发了滑动操作,并检测到滑动的速度后,将检测到的信息发送至中控元件20。中控元件20基于该多个触摸传感器110的位置以及其检测到的触摸信息,确定相应的反馈行为,比如为图片文件。中控元件20进而控制显示屏320播放显示相应的图片文件。上述滑动速度仅为举例,实际中,检测到的触摸操作信息还可以包括比如触摸持续时间、覆盖面积等。其中,图片文件比如为笑脸图片、文字提示图片等。
本实施例中,在机器人机身上设置一个或多个检测器,以通过检测器检测用户在机器人上触发的交互操作。由于可以预先设定不同的检测器位置和不同的交互操作行为对应于不同的反馈行为,从而,当中控元件接收到某个检测器传送的交互操作信息后,可以基于该交互操作以及相应检测器的预设位置确定出对应的反馈行为,并控制反馈装置执行该反馈行为。通过本方案,机器人能够基于用户在机身上触发的交互操作行为和交互操作位置实现人机智能交互,使得人机交互不仅限于语音以及对显示屏的触摸交互,扩展了机器人的交互形式。
图2为本发明实施例提供的机器人实施例二的结构示意图,如图2所示,在图1所示实施例基础上,该机器人还包括图像采集器50以及图像识别器60。
其中,图像采集器50设置于机器人机身1上,用于采集交互对象的图像;图像识别器60分别连接于中控元件20以及图像采集器50,用于识别交互对象的图像,以获取交互对象的特征。
图像采集器50包括但不限制于摄像头510,其一般设置于机器人机身1的较高位置,如头部11位置,具体用于采集与机器人进行交互的用户的图像信息,即交互对象的图像信息。本实施例中采集交互对象的图像信息可以是对交互对象进行拍照,也可以是对交互对象进行摄像,采集到交互对象的图像信息后将图像信息发送至图像识别器60。
图像识别器60其可以是具有图像识别功能的电子设备,其具体用于识别交互对象的图像,以获取交互对象的特征。本实施例中,交互对象的特征包括但不限制于交互对象的性别(男、女)、交互对象的年龄(成人、儿童)等。
本实施例中,通过对交互对象的特征进行识别,可以实现针对性的交互反馈。在本实施例中,中控元件20除了基于检测器10检测到的交互操作、该交互操作的触发位置进行反馈行为的确定外,还结合交互对象的特征,确定反馈行为,从而实现针对交互对象的个性化交互反馈。
举例说明,一儿童在面对机器人并在机器人的肚子上摸了摸(触发了触摸交互操作),图像采集器50对其进行拍照,然后图像识别器60对所拍摄的照片进行识别,获取交互对象(儿童)的特征为儿童,然后中控元件20根据设置于机器人腹部13的触摸传感器110检测到的触摸交互操作,以及触摸交互操作发生的具***置(腹部13),结合该交互对象的特征,控制相关的反馈装置30做出相应的反馈行为,如发出笑声,并说出“小朋友,你好”的对话,同时伸出手臂做出握手的动作本实施例中,基于对交互对象的特征识别,对交互对象所触发交互操作的检测,以及对交互操作位置的确定,能够实现针对性的交互反馈,提高了机器人的交互智能性。
图3为本发明实施例提供的机器人的交互控制方法实施例一的流程图,如图3所示,该方法包括:
步骤101,若检测到交互对象在机器人上触发了交互操作,则根据交互操作和交互操作对应的触发位置,确定反馈行为。
具体地,交互操作可以包括操作类型以及操作参数信息,从而,可以根据交互操作的操作参数、交互操作的操作类型和触发位置,确定反馈行为。
其中,操作类型比如可以包括触摸操作类型和/或敲击操作类型,不同的操作类型对应的操作行为由相应类型的检测器来检测。相应的,操作参数比如包括:触摸滑动的方向和/或速度,以及敲击操作的次数和/或力度。
本实施例中,反馈行为包括如下反馈行为中的至少一种:声音反馈行为、图像反馈行为、动作反馈行为。
步骤102,控制机器人执行反馈行为。
本实施例提供的机器人的交互控制方法中未详细描述的部分可以参考图1所示实施例中的相关描述,该技术方案的执行过程和技术效果参见图1所示实施例中的描述,在此不再赘述。
图4为本发明实施例提供的机器人的交互控制方法实施例二的流程图,如图4所示,该方法包括如下步骤:
步骤201,若检测到交互对象在机器人上触发了交互操作,采集交互对象的图像。
步骤202,识别交互对象的图像,获取交互对象的特征。
相应地,步骤101适应性变为:
步骤203、根据交互对象的特征、交互操作和交互操作对应的触发位置,确定反馈行为。
步骤204,控制机器人执行反馈行为。
本实施例提供的机器人的交互控制方法中未详细描述的部分可以参考图2所示实施例中的相关描述,该技术方案的执行过程和技术效果参见图2所示实施例中的描述,在此不再赘述。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种机器人,其特征在于,包括:
设置于机器人机身、用于检测交互操作的检测器;
根据所述交互操作和所述交互操作对应的检测器位置,控制反馈装置执行反馈行为的中控元件;以及
执行所述反馈行为的所述反馈装置。
2.根据权利要求1所述的机器人,其特征在于,所述检测器包括设置在所述机器人机身上不同位置的至少一个触摸传感器,和/或至少一个振动传感器;
所述触摸传感器,用于检测触摸滑动的方向和/或速度;
所述振动传感器,用于检测敲击操作的次数和/或力度。
3.根据权利要求2所述的机器人,其特征在于,所述反馈装置包括声音播放器、显示屏、运动组件中的至少一种。
4.根据权利要求3所述的机器人,其特征在于,所述反馈装置包括所述运动组件,所述至少一个触摸传感器中包括:设置在所述显示屏下的触摸传感器,用于检测触摸滑动的方向;
所述中控元件还用于:根据所述触摸滑动的方向控制所述运动组件,使所述机器人向对应方向行走。
5.根据权利要求1至4中任一项所述的机器人,其特征在于,还包括:
用于存储多种反馈行为的存储器。
6.根据权利要求1至4中任一项所述的机器人,其特征在于,还包括:
用于采集交互对象的图像、设置在所述机器人机身上的图像采集器;以及,
识别所述交互对象的图像,获取所述交互对象的特征的图像识别器;
所述中控元件还用于:根据所述交互操作、所述交互操作的触发位置和所述交互对象的特征,确定所述反馈行为。
7.一种机器人的交互控制方法,其特征在于,包括:
若检测到交互对象在所述机器人上触发了交互操作,则根据所述交互操作和所述交互操作对应的触发位置,确定反馈行为;
控制所述机器人执行所述反馈行为。
8.根据权利要求7所述的方法,其特征在于,所述根据所述交互操作和所述交互操作对应的触发位置,确定反馈行为,包括:
根据所述交互操作的操作参数、所述交互操作的操作类型和所述触发位置,确定反馈行为。
9.根据权利要求7所述的方法,其特征在于,所述根据所述交互操作和所述交互操作对应的触发位置,确定反馈行为之前,还包括:
采集所述交互对象的图像;
识别所述交互对象的图像,获取所述交互对象的特征;
所述根据所述交互操作和所述交互操作对应的触发位置,确定反馈行为,包括:
根据所述交互对象的特征、所述交互操作和所述交互操作对应的触发位置,确定反馈行为。
10.根据权利要求7至9中任一项所述的方法,其特征在于:
所述操作类型包括触摸操作类型和/或敲击操作类型,相应的,所述操作参数包括:触摸滑动的方向和/或速度,以及敲击操作的次数和/或力度;
所述反馈行为包括如下反馈行为中的至少一种:声音反馈行为、图像反馈行为、动作反馈行为。
CN201611008780.XA 2016-11-16 2016-11-16 机器人和机器人的交互控制方法 Pending CN106393113A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611008780.XA CN106393113A (zh) 2016-11-16 2016-11-16 机器人和机器人的交互控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611008780.XA CN106393113A (zh) 2016-11-16 2016-11-16 机器人和机器人的交互控制方法

Publications (1)

Publication Number Publication Date
CN106393113A true CN106393113A (zh) 2017-02-15

Family

ID=59230590

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611008780.XA Pending CN106393113A (zh) 2016-11-16 2016-11-16 机器人和机器人的交互控制方法

Country Status (1)

Country Link
CN (1) CN106393113A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106881716A (zh) * 2017-02-21 2017-06-23 深圳市锐曼智能装备有限公司 基于3d摄像头机器人的人体跟随方法及***
CN107081774A (zh) * 2017-05-27 2017-08-22 上海木爷机器人技术有限公司 机器人握手控制方法和***
CN107463291A (zh) * 2017-07-28 2017-12-12 上海木爷机器人技术有限公司 基于触摸的具有人格化表现的机器人
CN108818531A (zh) * 2018-06-25 2018-11-16 珠海格力智能装备有限公司 机器人的控制方法和装置
CN110653813A (zh) * 2018-06-29 2020-01-07 深圳市优必选科技有限公司 一种机器人控制方法、机器人及计算机存储介质
CN111376226A (zh) * 2018-12-28 2020-07-07 沈阳新松机器人自动化股份有限公司 一种用于幼儿教育娱乐陪伴的自平衡机器人
CN112140118A (zh) * 2019-06-28 2020-12-29 北京百度网讯科技有限公司 一种交互方法、装置、机器人和介质
CN114138113A (zh) * 2021-11-30 2022-03-04 上海霖运科技有限公司 一种车载ai机器人的触摸交互***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009157733A1 (en) * 2008-06-27 2009-12-30 Yujin Robot Co., Ltd. Interactive learning system using robot and method of operating the same in child education
CN202123513U (zh) * 2011-05-10 2012-01-25 富通彗(北京)科技有限公司 多点感应触摸机器人
CN104440925A (zh) * 2014-11-27 2015-03-25 国家康复辅具研究中心 一种宠物型陪护机器人及***
CN205201537U (zh) * 2015-11-04 2016-05-04 上海拓趣信息技术有限公司 陪护机器人
CN105563500A (zh) * 2016-02-04 2016-05-11 北京光年无限科技有限公司 一种面向家用小型智能机器人的电子控制***及方法
CN206475183U (zh) * 2016-11-16 2017-09-08 上海木爷机器人技术有限公司 机器人

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009157733A1 (en) * 2008-06-27 2009-12-30 Yujin Robot Co., Ltd. Interactive learning system using robot and method of operating the same in child education
CN202123513U (zh) * 2011-05-10 2012-01-25 富通彗(北京)科技有限公司 多点感应触摸机器人
CN104440925A (zh) * 2014-11-27 2015-03-25 国家康复辅具研究中心 一种宠物型陪护机器人及***
CN205201537U (zh) * 2015-11-04 2016-05-04 上海拓趣信息技术有限公司 陪护机器人
CN105563500A (zh) * 2016-02-04 2016-05-11 北京光年无限科技有限公司 一种面向家用小型智能机器人的电子控制***及方法
CN206475183U (zh) * 2016-11-16 2017-09-08 上海木爷机器人技术有限公司 机器人

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106881716A (zh) * 2017-02-21 2017-06-23 深圳市锐曼智能装备有限公司 基于3d摄像头机器人的人体跟随方法及***
CN107081774A (zh) * 2017-05-27 2017-08-22 上海木爷机器人技术有限公司 机器人握手控制方法和***
CN107081774B (zh) * 2017-05-27 2019-11-05 上海木木机器人技术有限公司 机器人握手控制方法和***
CN107463291A (zh) * 2017-07-28 2017-12-12 上海木爷机器人技术有限公司 基于触摸的具有人格化表现的机器人
CN108818531A (zh) * 2018-06-25 2018-11-16 珠海格力智能装备有限公司 机器人的控制方法和装置
CN110653813A (zh) * 2018-06-29 2020-01-07 深圳市优必选科技有限公司 一种机器人控制方法、机器人及计算机存储介质
CN111376226A (zh) * 2018-12-28 2020-07-07 沈阳新松机器人自动化股份有限公司 一种用于幼儿教育娱乐陪伴的自平衡机器人
CN112140118A (zh) * 2019-06-28 2020-12-29 北京百度网讯科技有限公司 一种交互方法、装置、机器人和介质
CN114138113A (zh) * 2021-11-30 2022-03-04 上海霖运科技有限公司 一种车载ai机器人的触摸交互***

Similar Documents

Publication Publication Date Title
CN106393113A (zh) 机器人和机器人的交互控制方法
US10126826B2 (en) System and method for interaction with digital devices
CN105224069B (zh) 一种增强现实虚拟键盘输入方法及使用该方法的装置
Heo et al. Forcetap: extending the input vocabulary of mobile touch screens by adding tap gestures
US8270670B2 (en) Method for recognizing and tracing gesture
WO2014088621A1 (en) System and method for detecting gestures
KR101745651B1 (ko) 손 제스처 인식 시스템 및 방법
US9152857B2 (en) System and method for detecting object using depth information
JP6810048B2 (ja) モバイル機器のバーチャルボールのシミュレーションおよびコントロールの方法
CN112383805A (zh) 一种基于人手关键点实现电视端人机交互的方法
CN108594995A (zh) 一种基于手势识别的电子设备操作方法及电子设备
CN112541375A (zh) 一种手部关键点识别方法及装置
CN105183538B (zh) 一种信息处理方法及电子设备
CN106601217B (zh) 一种交互式乐器演奏方法及装置
CN107787478A (zh) 在用户界面显示器中选择内容项
KR20200056287A (ko) 시각적 특성을 기초로 한 햅틱 효과 생성 시스템 및 방법
Gillies et al. Non-representational interaction design
CN206475183U (zh) 机器人
Vyas et al. Gesture recognition and control
CN103558913A (zh) 一种具有振动反馈的虚拟输入手套键盘
CN103809909B (zh) 一种信息处理方法及电子设备
CN103376884B (zh) 人机交互方法及其装置
CN111860086A (zh) 基于深度神经网络的手势识别方法、装置及***
Jamaludin et al. Dynamic hand gesture to text using leap motion
Nigam et al. A complete study of methodology of hand gesture recognition system for smart homes

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170215