CN210121851U - 一种机器人 - Google Patents

一种机器人 Download PDF

Info

Publication number
CN210121851U
CN210121851U CN201920268384.3U CN201920268384U CN210121851U CN 210121851 U CN210121851 U CN 210121851U CN 201920268384 U CN201920268384 U CN 201920268384U CN 210121851 U CN210121851 U CN 210121851U
Authority
CN
China
Prior art keywords
steering engine
control board
robot
facial features
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201920268384.3U
Other languages
English (en)
Inventor
文斌
钟鑫
苗靖
吴超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Tami Robot Co ltd
Original Assignee
KUNSHAN TAMI ROBOT CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUNSHAN TAMI ROBOT CO Ltd filed Critical KUNSHAN TAMI ROBOT CO Ltd
Priority to CN201920268384.3U priority Critical patent/CN210121851U/zh
Application granted granted Critical
Publication of CN210121851U publication Critical patent/CN210121851U/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

本实用新型实施例公开一种机器人,包括五官部件、主控板、舵机控制板、五官舵机和图像传感器,舵机控制板和图像传感器分别与主控板连接,五官舵机与舵机控制板连接,图像传感器用于采集至少一个脸部图像,主控板用于根据至少一个脸部图像确定目标用户的五官运动范围,并根据目标用户的五官运动范围生成相应的控制指令,发送给舵机控制板,舵机控制板用于根据控制指令控制五官舵机的运动,五官舵机用于带动机器人五官部件的运动。上述方案无需预建立表情库或规则库,通过主控板确定目标用户的五官运动范围,根据该运动范围控制控制五官部件的运动,克服了因表情库中的表情有限而无法准确模仿目标用户实际表情的缺陷,提高了表情模仿的准确度。

Description

一种机器人
技术领域
本实用新型实施例涉及运动控制技术领域,尤其涉及一种机器人。
背景技术
随着技术的不断发展,机器人的应用也越来越广泛,例如可以利用机器人模仿用户的表情以实现与用户的互动。
现有技术大多通过建立表情库或者规则库实现机器人的表情模仿,即提取用户图像的表情特征,将提取到的表情特征与表情库中存储的表情进行匹配,将匹配度最高的表情确定为机器人需要模仿的表情,这种建立表情库的方式虽然在一定程度上可以模仿用户的表情,但由于表情库中存储的表情数量有限、表达固定以及实际表情的多样性,导致模仿的准确度较低,甚至无法达到真正意义上的任意表情。
实用新型内容
本实用新型实施例提供一种机器人,以提高表情模仿的准确度。
本实用新型实施例提供一种机器人,包括五官部件,还包括主控板、舵机控制板、五官舵机和图像传感器,
所述舵机控制板和所述图像传感器分别与所述主控板连接,所述五官舵机与所述舵机控制板连接;
所述图像传感器用于采集至少一个脸部图像;
所述主控板用于根据所述至少一个脸部图像,确定目标用户的五官运动范围,并根据所述目标用户的五官运动范围生成相应的控制指令,发送给所述舵机控制板;
所述舵机控制板用于根据所述控制指令控制所述五官舵机的运动;
所述五官舵机用于带动所述机器人五官部件的运动。
进一步的,所述主控板包括处理器和存储器,
所述处理器分别与所述存储器、所述舵机控制板和所述图像传感器连接;
所述存储器用于存储所述机器人五官部件和所述目标用户五官的关联信息;
所述处理器用于接收所述图像传感器采集的至少一个脸部图像,还用于根据所述关联信息确定所述目标用户的五官运动范围,并基于所述五官运动范围生成相应的控制指令,发送给所述舵机控制板。
进一步的,所述五官舵机包括:头部旋转舵机、眉毛舵机、眼皮舵机、眼球舵机和嘴巴舵机,所述头部旋转舵机、眉毛舵机、眼皮舵机、眼球舵机和嘴巴舵机分别与所述舵机控制板连接。
进一步的,所述头部旋转舵机,用于根据所述舵机控制板的控制,带动所述机器人的头部旋转;
其中,所述舵机控制板具体根据所述控制指令中的头部旋转信息控制所述头部旋转舵机。
进一步的,所述眉毛舵机,用于根据所述舵机控制板的控制,带动所述机器人的眉毛运动;
其中,所述舵机控制板具体根据所述控制指令中的眉毛数据信息控制所述眉毛舵机。
进一步的,所述眼皮舵机,用于根据所述舵机控制板的控制,带动所述机器人的眼皮运动;
其中,所述舵机控制板具体根据所述控制指令中的眼皮数据信息控制所述眼皮舵机。
进一步的,所述眼球舵机,用于根据所述舵机控制板的控制,带动所述机器人的眼球旋转;
其中,所述舵机控制板具体根据所述控制指令中的眼球旋转角度信息控制所述眼球舵机。
进一步的,所述嘴巴舵机,用于根据所述舵机控制板的控制,带动所述机器人的嘴巴运动;
其中,所述舵机控制板具体根据所述控制指令中的嘴巴数据信息控制所述嘴巴舵机。
进一步的,所述图像传感器设置于所述机器人的头部。
本实用新型实施例提供一种机器人,包括五官部件,还包括主控板、舵机控制板、五官舵机和图像传感器,所述舵机控制板和所述图像传感器分别与所述主控板连接,所述五官舵机与所述舵机控制板连接,所述图像传感器用于采集至少一个脸部图像,所述主控板用于根据所述至少一个脸部图像,确定目标用户的五官运动范围,并根据所述目标用户的五官运动范围生成相应的控制指令,发送给所述舵机控制板,所述舵机控制板用于根据所述控制指令控制所述五官舵机的运动,所述五官舵机用于带动所述机器人五官部件的运动,与现有技术相比,本实用新型实施例无需预先建立表情库或规则库,通过主控板确定目标用户的五官运动范围,并根据该五官运动范围控制五官舵机带动机器人五官部件的运动,克服了因表情库中的表情有限而无法准确模仿目标用户实际表情的缺陷,提高了表情模仿的准确度。
附图说明
为了更清楚地说明本实用新型实施例中的技术方案,下面将对本实用新型实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本实用新型的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据本实用新型实施例的内容和这些附图获得其他的附图。
图1为本实用新型实施例提供的一种机器人的结构图;
图2为一种机器人的头部示意图;
图3为一种机器人头部的***图。
具体实施方式
下面结合附图和实施例对本实用新型作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本实用新型,而非对本实用新型的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本实用新型相关的部分而非全部结构。
参考图1-图3,本实用新型实施例提供了一种机器人,包括五官部件100,还包括主控板140、舵机控制板110、五官舵机130和图像传感器120,舵机控制板110和图像传感器120分别与主控板140连接,五官舵机130与舵机控制板110连接;
图像传感器120用于采集至少一个脸部图像;
主控板140用于根据所述至少一个脸部图像,确定目标用户的五官运动范围,并根据所述目标用户的五官运动范围生成相应的控制指令,发送给舵机控制板110;
舵机控制板110用于根据所述控制指令控制五官舵机130的运动;
五官舵机130用于带动所述机器人五官部件300的运动。
具体的,五官部件100包括头部1001、左眼眉毛1002、右眼眉毛1003、左眼皮1004、右眼皮1005、左眼球1006、右眼球1007以及嘴巴1008,其中,左眼眉毛1002和右眼眉毛1003统称为眉毛,左眼皮1004和右眼皮1005统称为眼皮,左眼球1006和右眼球1007统称为眼球。
舵机是一种位置伺服的驱动器,适用于需要角度不断变化并可以保持的控制***。舵机控制板110是一个从机,用于接受命令或执行预先设置好的命令,比如可以通过主控板140发送命令给舵机控制板110,舵机控制板110根据接收到的命令控制五官舵机130的运动。舵机控制板110通常采用RAM内核的处理器,比如采用32位RAM内核的处理器时,可以同时控制32个舵机,采用24位RAM内核的处理器时,可以同时控制24个舵机。实施例中的舵机控制板110为8路舵机控制板,可以同时控制8个舵机达到控制机器人运动的目的。
五官舵机130分别与舵机控制板110和五官部件100连接,根据舵机控制板110的控制带动五官部件100的运动,完成表情模仿。以五官部件100中的嘴巴1008为例,嘴巴舵机1308在舵机控制板110的控制下带动嘴巴1008运动,从而控制机器人的嘴巴满足目标状态。
图像传感器120用于采集至少一个脸部图像,并将采集的至少一个脸部图像传输给主控板140。图像传感器120可以是一个独立的图像采集装置,也可以设置在机器人上,当图像传感器120是一个独立的图像采集装置时,可以将采集到的脸部图像通过数据线或无线网络传输到机器人,当图像传感器120设置在机器人上时,主控板140可以直接获取图像传感器120采集的脸部图像,这样设置的好处是可以缩短脸部图像的获取时间,实时模仿用户的表情。图像传感器120既可以采集某个时刻的脸部图像,也可以采集连续时间段内的脸部图像。
其中,脸部图像是包含用户脸部轮廓的图像,该脸部图像中除了包括脸部轮廓,还可以包括脸部轮廓以外的其他图像,例如背景图像或包含用户身体的图像,脸部图像的采集情况与图像采集装置的距离和设置有关,比如,当图像传感器120距离用户较远时,采集的脸部图像可能是用户的全身图像,距离用户较近时,采集的脸部图像可能是包含用户部分身体的图像,当然也可以通过设置,直接获取用户的头部图像,以方便后续图像的处理。实际应用中,为了提高模仿的准确度,可以在采集图像后进行预处理,其中预处理可以是滤波、降噪以及去除与人脸无关的图像等。
需要说明的是,当脸部图像中存在多个人脸区域时,可以根据设定规则确定目标用户的脸部区域,例如可以将人脸区域范围大于或等于预设范围的人脸区域作为目标用户的脸部区域,其中,预设范围可以根据实际需要设置一个固定值,也可以根据实际人脸区域的大小进行调整,以保证大于或等于预设范围的人脸区域只有一个。当然,也可以直接比较各个人脸区域的大小,将面积最大的人脸区域作为目标用户的脸部区域。具体的,可以计算代表人脸区域的各个矩形框的面积,将面积最大的矩形框对应的人脸区域作为目标用户的脸部区域。还需要说明的是,当连续获取多张脸部图像时,在根据第一张脸部图像确定目标用户的脸部区域后,可以认为后续脸部图像中目标用户的脸部区域也是确定的,无需再判断,而且多张脸部图像中的目标用户为同一用户,其中,识别脸部图像中人脸区域的方法实施例不进行限定。
五官运动范围是目标用户呈现表情时对应的各个器官的运动范围,比如嘴巴张开的大小,头部旋转的角度等,五官运动范围不同,目标用户呈现出来的表情也不同。需要说明的是,目标用户的五官运动范围小于或等于五官实际可以达到的最大范围,比如嘴巴张开的大小小于或等于目标用户可以张开的最大程度。
具体的,图像传感器120采集脸部图像后,将脸部图像传输给主控板140,主控板140根据脸部图像确定目标用户以及目标用户的五官运动范围,根据该运动范围生成相应的控制指令,发送给舵机控制板110,舵机控制板110根据该命令控制五官舵机130带动机器人五官的运动,完成目标用户表情的模仿。本实施例的技术方案在用户表情出现细微变化时,也可以检测出五官的运动范围,进而控制五官舵机带动五官部件的运动,提高了表情模仿的准确度。
本实用新型实施例提供一种机器人,包括五官部件,还包括主控板、舵机控制板、五官舵机和图像传感器,所述舵机控制板和所述图像传感器分别与所述主控板连接,所述图像传感器用于采集至少一个脸部图像,所述主控板用于根据所述至少一个脸部图像,确定目标用户的五官运动范围,并根据所述目标用户的五官运动范围生成相应的控制指令,发送给所述舵机控制板,所述舵机控制板用于根据所述控制指令控制所述五官舵机的运动,所述五官舵机用于带动所述机器人五官部件的运动,与现有技术相比,本实用新型实施例无需预先建立表情库或规则库,通过主控板确定目标用户的五官运动范围,并根据该五官运动范围控制五官舵机带动机器人五官部件的运动,克服了因表情库中的表情有限而无法准确模仿目标用户实际表情的缺陷,提高了表情模仿的准确度。
在上述实施例的基础上,主控板140包括处理器1401和存储器1402,
处理器1401分别与存储器1402、舵机控制板110和图像传感器120连接;
存储器1402用于存储机器人五官部件100和目标用户五官的关联信息;
处理器1401用于接收图像传感器120采集的至少一个脸部图像,还用于根据所述关联信息确定所述目标用户的五官运动范围,并基于所述五官运动范围生成相应的控制指令,发送给所述舵机控制板。
具体的,关联信息是反映机器人五官部件100和目标用户五官的关联关系的信息,包括目标用户的五官运动范围和机器人五官的运动限定范围的映射关系,两者之间的具体映射关系可以根据实际需要设计,例如可以是按照一比一的比例,即目标用户的五官运动范围和机器人五官部件的运动范围保持一致,这种情况下,根据脸部图像确定目标用户五官的运动范围之后,即可生成相应的控制指令,使得舵机控制板110根据该控制指令控制五官舵机130带动五官部件100的运动。也可以根据某种设定的比例关系或其他的映射关系,在确定目标用户五官的运动范围之后,根据两者之间的映射关系进一步确定机器人五官的运动范围,然后根据该运动范围生成相应的控制指令。需要说明的是,根据映射关系确定的机器人五官的运动范围小于或等于机器人五官运动的最大限定范围。通过确定五官运动范围的形式控制机器人五官的运动,克服了现有技术中由于表情库中存储的表情有限而无法实现真正意义上的表情模仿的缺陷。
在上述实施例的基础上,五官舵机130包括:头部旋转舵机1301、眉毛舵机2、眼皮舵机3、眼球舵机5和嘴巴舵机1308,头部旋转舵机1301、眉毛舵机2、眼皮舵机3、眼球舵机5和嘴巴舵机1308分别与舵机控制板110连接。
具体的,五官舵机130包括头部旋转舵机1301、左眼眉毛舵机1302、右眼眉毛舵机1303、左眼皮舵机1304、右眼皮舵机1305、左眼球舵机1306、右眼球舵机1307以及嘴巴舵机1308,头部旋转舵机1301、左眼眉毛舵机1302、右眼眉毛舵机1303、左眼皮舵机1304、右眼皮舵机1305、左眼球舵机1306、右眼球舵机1307以及嘴巴舵机1308分别与处理器1101连接,其中,左眼眉毛舵机1302和右眼眉毛舵机1303统称为眉毛舵机2,左眼皮舵机1304和右眼皮舵机1305统称为眼皮舵机3,左眼球舵机1306和右眼球舵机1307统称为眼球舵机5。实施例中的舵机控制板110可以同时控制上述8个舵机分别带动对应的器官部件运动。
在上述实施例的基础上,头部旋转舵机1301,用于根据舵机控制板110的控制,带动所述机器人的头部1001旋转;
其中,舵机控制板110具体根据所述控制指令中的头部旋转信息控制头部旋转舵机1301。
具体的,头部旋转信息是头部的旋转角度信息,头部旋转舵机1301分别与机器人的头部1001和舵机控制板110连接,头部旋转舵机1301在舵机控制板110的控制下带动机器人的头部1001旋转至控制指令中的旋转角度。
在上述实施例的基础上,眉毛舵机2,用于根据舵机控制板110的控制,带动所述机器人的眉毛运动;
其中,舵机控制板110具体根据所述控制指令中的眉毛数据信息控制眉毛舵机2。
眉毛数据信息包括左眉毛的变化范围和右眉毛的变化范围,实际应用时,左眉毛舵机1302与左眼眉毛1002连接,右眼眉毛舵机1303与右眼眉毛1003连接,以左眉毛舵机1302为例,左眉毛舵机1302在舵机控制板110的控制下带动机器人的左眉毛运动至目标变化范围,即控制指令中左眉毛的变化范围。
在上述实施例的基础上,眼皮舵机3,用于根据舵机控制板110的控制,带动所述机器人的眼皮运动;
其中,舵机控制板110具体根据所述控制指令中的眼皮数据信息控制眼皮舵机3。
眼皮数据信息包括左眼皮的变化范围和右眼皮的变化范围,实际应用时,左眼皮舵机1304与左眼皮1004连接,右眼皮舵机1305与右眼皮1005连接,控制过程与上述头部和眉毛的控制过程类似,此处不再赘述。
在上述实施例的基础上,眼球舵机5,用于根据舵机控制板110的控制,带动所述机器人的眼球旋转;
其中,舵机控制板110具体根据所述控制指令中的眼球旋转角度信息控制眼球舵机5。
眼球旋转角度信息包括左眼球的旋转角度信息和右眼球的旋转角度信息,实际应用时,左眼球舵机1306与左眼球1006连接,右眼球舵机1307与右眼球1007连接,控制过程与上述头部和眉毛的控制过程类似,此处不再赘述。
在上述实施例的基础上,嘴巴舵机1308,用于根据舵机控制板110的控制,带动所述机器人的嘴巴1008运动;
其中,舵机控制板110具体根据所述控制指令中的嘴巴数据信息控制嘴巴舵机1308。
嘴巴数据信息包括嘴巴张开的大小和形状,实际应用时,嘴巴舵机1308与嘴巴1008连接,嘴巴舵机1308在舵机控制板110的控制下带动机器人的嘴巴运动至控制指令中的大小时即可完成表情的模仿。
在上述实施例的基础上,图像传感器120设置于所述机器人的头部1001。
参考图2,图像传感器129设置于机器人的头部1001,这样设置的好处是可以缩短脸部图像的获取时间,实现实时模仿。可选的,可以设置在头部1001的中间位置,可以使机器人的外观布局保持美观。
下面对机器人模仿表情的过程进行描述。
机器人五官部件100各部分的位置关系如图2所示,图像传感器120采集脸部图像后,传输给主控板140,主控板140在接收到脸部图像后,对脸部图像进行预处理,确定脸部图像中目标用户的脸部区域,并在脸部区域内提取目标用户的五官特征,包括头部、眉毛、眼皮、眼球和嘴巴,确定五官特征的位置关系以及五官特征对应的状态信息,根据五官特征对应的状态信息确定目标用户的运动范围,进而根据该运动范围生成相应的控制指令,发送给舵机控制板110,舵机控制板110根据控制指令控制五官舵机130带动五官部件100运动,实现表情模仿,其中,五官特征的提取方式实施例不进行限定。
示例性的,以嘴巴为例,处理器1401在确定机器人嘴巴1008的目标大小之后,舵机控制板110根据控制指令控制嘴巴舵机1308带动嘴巴1008张大或缩小至目标大小,其他器官的控制与此类似,此处不再赘述。由此,即可完成表情的模仿。
注意,上述仅为本实用新型的较佳实施例及所运用技术原理。本领域技术人员会理解,本实用新型不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本实用新型的保护范围。因此,虽然通过以上实施例对本实用新型进行了较为详细的说明,但是本实用新型不仅仅限于以上实施例,在不脱离本实用新型构思的情况下,还可以包括更多其他等效实施例,而本实用新型的范围由所附的权利要求范围决定。

Claims (7)

1.一种机器人,包括五官部件,其特征在于,还包括主控板、舵机控制板、五官舵机和图像传感器,
所述舵机控制板和所述图像传感器分别与所述主控板连接,所述五官舵机与所述舵机控制板连接;
所述图像传感器用于采集至少一个脸部图像;
所述主控板用于根据所述至少一个脸部图像,确定目标用户的五官运动范围,并根据所述目标用户的五官运动范围生成相应的控制指令,发送给所述舵机控制板;
所述舵机控制板用于根据所述控制指令控制所述五官舵机的运动;
所述五官舵机用于带动所述机器人五官部件的运动;
所述五官舵机包括:头部旋转舵机、眉毛舵机、眼皮舵机、眼球舵机和嘴巴舵机,所述头部旋转舵机、眉毛舵机、眼皮舵机、眼球舵机和嘴巴舵机分别与所述舵机控制板连接。
2.根据权利要求1所述的机器人,其特征在于,所述头部旋转舵机,用于根据所述舵机控制板的控制,带动所述机器人的头部旋转;
其中,所述舵机控制板具体根据所述控制指令中的头部旋转信息控制所述头部旋转舵机。
3.根据权利要求1所述的机器人,其特征在于,所述眉毛舵机,用于根据所述舵机控制板的控制,带动所述机器人的眉毛运动;
其中,所述舵机控制板具体根据所述控制指令中的眉毛数据信息控制所述眉毛舵机。
4.根据权利要求1所述的机器人,其特征在于,所述眼皮舵机,用于根据所述舵机控制板的控制,带动所述机器人的眼皮运动;
其中,所述舵机控制板具体根据所述控制指令中的眼皮数据信息控制所述眼皮舵机。
5.根据权利要求1所述的机器人,其特征在于,所述眼球舵机,用于根据所述舵机控制板的控制,带动所述机器人的眼球旋转;
其中,所述舵机控制板具体根据所述控制指令中的眼球旋转角度信息控制所述眼球舵机。
6.根据权利要求1所述的机器人,其特征在于,所述嘴巴舵机,用于根据所述舵机控制板的控制,带动所述机器人的嘴巴运动;
其中,所述舵机控制板具体根据所述控制指令中的嘴巴数据信息控制所述嘴巴舵机。
7.根据权利要求1所述的机器人,其特征在于,所述图像传感器设置于所述机器人的头部。
CN201920268384.3U 2019-03-04 2019-03-04 一种机器人 Active CN210121851U (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201920268384.3U CN210121851U (zh) 2019-03-04 2019-03-04 一种机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201920268384.3U CN210121851U (zh) 2019-03-04 2019-03-04 一种机器人

Publications (1)

Publication Number Publication Date
CN210121851U true CN210121851U (zh) 2020-03-03

Family

ID=69633044

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201920268384.3U Active CN210121851U (zh) 2019-03-04 2019-03-04 一种机器人

Country Status (1)

Country Link
CN (1) CN210121851U (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109773807A (zh) * 2019-03-04 2019-05-21 昆山塔米机器人有限公司 运动控制方法、机器人

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109773807A (zh) * 2019-03-04 2019-05-21 昆山塔米机器人有限公司 运动控制方法、机器人
CN109773807B (zh) * 2019-03-04 2024-03-12 苏州塔米机器人有限公司 运动控制方法、机器人

Similar Documents

Publication Publication Date Title
US10832039B2 (en) Facial expression detection method, device and system, facial expression driving method, device and system, and storage medium
EP3692504B1 (en) Electronic device displaying avatar motion-performed as per movement of facial feature point and method for operating same
US10872452B2 (en) Expression animation generation method and apparatus, storage medium, and electronic apparatus
EP3933754A1 (en) Image fusion method, model training method, and related device
US20230123433A1 (en) Artificial intelligence-based animation character drive method and related apparatus
US20210177124A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
CN105825268B (zh) 面向机器人动作学习的数据处理方法和***
CN109773807B (zh) 运动控制方法、机器人
JP4333364B2 (ja) ロボット装置、顔認識方法及び顔認識装置
CN108297098A (zh) 人工智能驱动的机器人控制***及方法
CN111402290A (zh) 一种基于骨骼关键点的动作还原方法以及装置
CN103955295A (zh) 一种基于数据手套和物理引擎的虚拟手的实时抓取方法
US11850747B2 (en) Action imitation method and robot and computer readable medium using the same
CN107885124A (zh) 一种增强现实环境中的脑眼协同控制方法及***
CN107831902A (zh) 一种运动控制方法及其设备、存储介质、终端
EP4030342A1 (en) Image processing method and image synthesis method, image processing apparatus and image synthesis apparatus, and storage medium
CN109191508A (zh) 一种模拟整容装置、模拟整容方法及设备
WO2022227664A1 (zh) 机器人姿态的控制方法、机器人、存储介质及计算机程序
CN109215774A (zh) 实时远程脉诊***
CN110705094A (zh) 柔性体仿真方法和装置、电子设备、计算机可读存储介质
RU2671990C1 (ru) Способ отображения трехмерного лица объекта и устройство для него
Kowalski et al. Holoface: Augmenting human-to-human interactions on hololens
CN210121851U (zh) 一种机器人
WO2023082949A1 (zh) 智能体的控制方法、装置、电子设备、程序及存储介质
WO2016014094A1 (en) A system and method for robotic patient synthesis

Legal Events

Date Code Title Description
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 215300 5th floor, building 1, No. 619, Xintang Road, Yushan Town, Kunshan City, Suzhou City, Jiangsu Province

Patentee after: Suzhou Tami robot Co.,Ltd.

Address before: 215324 12th floor, complex building, No. 1699, Weicheng South Road, Yushan Town, Kunshan City, Suzhou City, Jiangsu Province

Patentee before: KUNSHAN TAMI ROBOT Co.,Ltd.

CP03 Change of name, title or address