CN110253590A - 机器人转身处理方法及装置 - Google Patents
机器人转身处理方法及装置 Download PDFInfo
- Publication number
- CN110253590A CN110253590A CN201910365406.2A CN201910365406A CN110253590A CN 110253590 A CN110253590 A CN 110253590A CN 201910365406 A CN201910365406 A CN 201910365406A CN 110253590 A CN110253590 A CN 110253590A
- Authority
- CN
- China
- Prior art keywords
- user
- robot
- control instruction
- control
- turns round
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/08—Programme-controlled manipulators characterised by modular constructions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Automation & Control Theory (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种机器人转身处理方法及装置。该方法包括:获取第一用户的人脸图像位于预设图像框内的位置信息;根据所述位置信息生成转身控制指令;通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示。该装置包括:获取模块,用于获取第一用户的人脸图像位于预设图像框内的位置信息;生成模块,用于根据所述位置信息生成转身控制指令;控制模块,用于通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示。本申请解决了机器人与用户交互体验效果不佳的技术问题。
Description
技术领域
本申请涉及机器人领域,具体而言,涉及一种机器人转身处理方法及装置。
背景技术
机器人在于用户交互时,能够显示内容。
发明人发现,如果用户位于机器人的侧面,机器人无法进行转身,进而影响到交互体验。
针对相关技术中机器人与用户交互体验效果不佳的问题,目前尚未提出有效的解决方案。
发明内容
本申请的主要目的在于提供一种机器人转身处理方法及装置,以解决机器人与用户交互体验效果不佳的问题。
为了实现上述目的,根据本申请的一个方面,提供了一种机器人转身处理方法。
根据本申请的机器人转身处理方法包括:获取第一用户的人脸图像位于预设图像框内的位置信息;根据所述位置信息生成转身控制指令;通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示。
进一步的,获取第一用户的人脸图像位于预设图像框内的位置信息包括:通过图像采集设备获取第一用户的人脸图像位于所述图像采集设备的图相框内位置信息。
进一步的,根据所述位置信息生成转身控制指令包括:通过人脸的位置计算机器人在固定时间内转向该用户所需要的速度。
进一步的,通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示包括:通过转身控制指令,控制机器人将显示屏幕中显示内容逐渐朝向所述第一用户进行显示。
进一步的,根据所述位置信息生成转身控制指令包括:根据人脸图像相对于预设图像框中心位置的相对偏移量,生成用于调整机器人按照预设角度进行转身的控制指令;通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示包括:通过用于调整机器人按照预设角度进行转身的控制指令,控制机器人将显示屏幕中显示内容朝向所述第一用户的正脸。获取用户在摄像头中的位置,根据用户的位置计算出机器人转身所需要的角度,并通过转化后的角度控制机器人转身,让机器人正对用户。
为了实现上述目的,根据本申请的另一方面,提供了一种机器人转身处理装置。
根据本申请的机器人转身处理装置包括:获取模块,用于获取第一用户的人脸图像位于预设图像框内的位置信息;生成模块,用于根据所述位置信息生成转身控制指令;控制模块,用于通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示。
进一步的,获取模块包括:通过图像采集设备获取第一用户的人脸图像位于所述图像采集设备的图相框内位置信息。
进一步的,生成模块包括:通过人脸的位置计算机器人在固定时间内转向该用户所需要的速度。
进一步的,控制模块包括:通过转身控制指令,控制机器人将显示屏幕中显示内容逐渐朝向所述第一用户进行显示。
进一步的,控制模块包括:根据人脸图像相对于预设图像框中心位置的相对偏移量,生成用于调整机器人按照预设角度进行转身的控制指令;通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示包括:通过用于调整机器人按照预设角度进行转身的控制指令,控制机器人将显示屏幕中显示内容朝向所述第一用户的正脸。获取用户在摄像头中的位置,根据用户的位置计算出机器人转身所需要的角度,并通过转化后的角度控制机器人转身,让机器人正对用户。
在本申请实施例中机器人转身处理方法及装置,采用获取第一用户的人脸图像位于预设图像框内的位置信息的方式,通过根据所述位置信息生成转身控制指令,达到了通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示的目的,从而实现了根据用户人脸图像相对于中心位置的偏移量控制机器人转身并正面朝向用户的技术效果,进而解决了机器人与用户交互体验效果不佳的技术问题。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的机器人转身处理方法示意图;
图2是根据本申请实施例的机器人转身处理装置示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请中,术语“上”、“下”、“左”、“右”、“前”、“后”、“顶”、“底”、“内”、“外”、“中”、“竖直”、“水平”、“横向”、“纵向”等指示的方位或位置关系为基于附图所示的方位或位置关系。这些术语主要是为了更好地描述本申请及其实施例,并非用于限定所指示的装置、元件或组成部分必须具有特定方位,或以特定方位进行构造和操作。
并且,上述部分术语除了可以用于表示方位或位置关系以外,还可能用于表示其他含义,例如术语“上”在某些情况下也可能用于表示某种依附关系或连接关系。对于本领域普通技术人员而言,可以根据具体情况理解这些术语在本申请中的具体含义。
此外,术语“安装”、“设置”、“设有”、“连接”、“相连”、“套接”应做广义理解。例如,可以是固定连接,可拆卸连接,或整体式构造;可以是机械连接,或电连接;可以是直接相连,或者是通过中间媒介间接相连,又或者是两个装置、元件或组成部分之间内部的连通。对于本领域普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
如图1所示,该方法包括如下的步骤S100至步骤S104:
步骤S100,获取第一用户的人脸图像位于预设图像框内的位置信息;
获取所述第一用户的人脸图像位置,并确定出所述第一用户的人脸图像位于预设图像框内的位置信息。所述预设图像框通常为摄像头内的图相框大小。通常地,如果用户人脸图像位于图相框内的中心位置时,则认为此时是用户人脸的朝向。
通过所述机器人上预先配置的图像采集设备设备,能够获取第一用户的人脸图像位于预设图像框内的位置信息。
步骤S102,根据所述位置信息生成转身控制指令;
根据所述位置信息,生成用于所述机器人执行转身操作的转身控制指令。所述转身控制指令具体是指控制机器人相对于当前角度位置的转身速度、转身角度或者转身半径等。
需要注意的是,在本申请的实施例中并不对具体的转身控制指令进行限定,只要能够满足相关控制指令控制需求即可。
步骤S104,通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示。
通过所述转身控制指令,可以控制所述机器人将显示内容朝向所述第一用户进行显示。由于通常所述显示内容是显示在所述机器人的显示屏幕上,所以可以控制所述显示屏幕朝向所述第一用户进行显示。
通过上述操作,使得机器人在实际使用场景下具有较高的灵活性、也进一步地提升了用户体验。此外,通过上述操作,在人多复杂场景下的时候,通过正对客户转向得动作,提示出正在与机器对话的人。
从以上的描述中,可以看出,本申请实现了如下技术效果:
在本申请实施例中机器人转身处理方法,采用获取第一用户的人脸图像位于预设图像框内的位置信息的方式,通过根据所述位置信息生成转身控制指令,达到了通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示的目的,从而实现了根据用户人脸图像相对于中心位置的偏移量控制机器人转身并正面朝向用户的技术效果,进而解决了机器人与用户交互体验效果不佳的技术问题。
根据本申请实施例,作为本实施例中的优选,获取第一用户的人脸图像位于预设图像框内的位置信息包括:
通过图像采集设备获取第一用户的人脸图像位于所述图像采集设备的图相框内位置信息。
通过设置在所述机器人上的图像采集设备,获取所述第一用户的人脸图像位于所述图像采集设备的图相框内位置信息。优选地,如果所述第一用户的人脸图像位于所述图像采集设备的图相框内位置信息没有位于中心位置,则需要按照中心位置坐标进行偏移量调整。
根据本申请实施例,作为本实施例中的优选,根据所述位置信息生成转身控制指令包括:
通过人脸的位置计算机器人在固定时间内转向该用户所需要的速度。
具体地,人脸的位置坐标可以进行相应的坐标转化,根据人脸偏移调整机器角度时计算出所述机器人在固定时间内转向该用户所需要的速度。
根据本申请实施例,作为本实施例中的优选,通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示包括:
通过转身控制指令,控制机器人将显示屏幕中显示内容逐渐朝向所述第一用户进行显示。
具体地,通过转身控制指令,根据人脸偏移调整机器角度,可以控制所述机器人将显示屏幕中显示内容逐渐朝向所述第一用户进行显示。
根据本申请实施例,作为本实施例中的优选,根据所述位置信息生成转身控制指令包括:
根据人脸图像相对于预设图像框中心位置的相对偏移量,生成用于调整机器人按照预设角度进行转身的控制指令;
通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示包括:
通过用于调整机器人按照预设角度进行转身的控制指令,控制机器人将显示屏幕中显示内容朝向所述第一用户的正脸。
具体地,通过转身控制指令,根据人脸偏移调整机器角度是指根据人脸图像相对于预设图像框中心位置的相对偏移量,生成用于调整机器人按照预设角度进行转身的控制指令,通过用于调整机器人按照预设角度进行转身的控制指令,控制机器人将显示屏幕中显示内容朝向所述第一用户的正脸。
需要注意的是,所述相对偏移量具有位置关系和角度关系。通过调整所述机器人的当前转动角度或者位置,控制机器人将显示屏幕中显示内容朝向所述第一用户的正脸。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
根据本申请实施例,还提供了一种用于实施上述机器人转身处理方法的装置,如图2所示,该装置包括:
获取模块10,用于获取第一用户的人脸图像位于预设图像框内的位置信息;
获取所述第一用户的人脸图像位置,并确定出所述第一用户的人脸图像位于预设图像框内的位置信息。所述预设图像框通常为摄像头内的图相框大小。通常地,如果用户人脸图像位于图相框内的中心位置时,则认为此时是用户人脸的朝向。
通过所述机器人上预先配置的图像采集设备设备,能够获取第一用户的人脸图像位于预设图像框内的位置信息。
生成模块20,用于根据所述位置信息生成转身控制指令;
根据所述位置信息,生成用于所述机器人执行转身操作的转身控制指令。所述转身控制指令具体是指控制机器人相对于当前角度位置的转身速度、转身角度或者转身半径等。
需要注意的是,在本申请的实施例中并不对具体的转身控制指令进行限定,只要能够满足相关控制指令控制需求即可。
控制模块30,用于通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示。
通过所述转身控制指令,可以控制所述机器人将显示内容朝向所述第一用户进行显示。由于通常所述显示内容是显示在所述机器人的显示屏幕上,所以可以控制所述显示屏幕朝向所述第一用户进行显示。
通过上述操作,使得机器人在实际使用场景下具有较高的灵活性、也进一步地提升了用户体验。此外,通过上述操作,在人多复杂场景下的时候,通过正对客户转向得动作,提示出正在与机器对话的人。
从以上的描述中,可以看出,本申请实现了如下技术效果:
在本申请实施例中机器人转身处理方法,采用获取第一用户的人脸图像位于预设图像框内的位置信息的方式,通过根据所述位置信息生成转身控制指令,达到了通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示的目的,从而实现了根据用户人脸图像相对于中心位置的偏移量控制机器人转身并正面朝向用户的技术效果,进而解决了机器人与用户交互体验效果不佳的技术问题。
根据本申请实施例,作为本实施例中的优选,获取模块10包括:
通过图像采集设备获取第一用户的人脸图像位于所述图像采集设备的图相框内位置信息。
通过设置在所述机器人上的图像采集设备,获取所述第一用户的人脸图像位于所述图像采集设备的图相框内位置信息。优选地,如果所述第一用户的人脸图像位于所述图像采集设备的图相框内位置信息没有位于中心位置,则需要按照中心位置坐标进行偏移量调整。
根据本申请实施例,作为本实施例中的优选,生成模块20包括:
通过人脸的位置计算机器人在固定时间内转向该用户所需要的速度。
具体地,人脸的位置坐标可以进行相应的坐标转化,根据人脸偏移调整机器角度时计算出所述机器人在固定时间内转向该用户所需要的速度。
根据本申请实施例,作为本实施例中的优选,控制模块30包括:
通过转身控制指令,控制机器人将显示屏幕中显示内容逐渐朝向所述第一用户进行显示。
具体地,通过转身控制指令,根据人脸偏移调整机器角度,可以控制所述机器人将显示屏幕中显示内容逐渐朝向所述第一用户进行显示。
根据本申请实施例,作为本实施例中的优选,控制模块包括:
根据人脸图像相对于预设图像框中心位置的相对偏移量,生成用于调整机器人按照预设角度进行转身的控制指令;
通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示包括:
通过用于调整机器人按照预设角度进行转身的控制指令,控制机器人将显示屏幕中显示内容朝向所述第一用户的正脸。
具体地,通过转身控制指令,根据人脸偏移调整机器角度是指根据人脸图像相对于预设图像框中心位置的相对偏移量,生成用于调整机器人按照预设角度进行转身的控制指令,通过用于调整机器人按照预设角度进行转身的控制指令,控制机器人将显示屏幕中显示内容朝向所述第一用户的正脸。
需要注意的是,所述相对偏移量具有位置关系和角度关系。通过调整所述机器人的当前转动角度或者位置,控制机器人将显示屏幕中显示内容朝向所述第一用户的正脸。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种机器人转身处理方法,其特征在于,包括:
获取第一用户的人脸图像位于预设图像框内的位置信息;
根据所述位置信息生成转身控制指令;
通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示。
2.根据权利要求1所述的机器人转身处理方法,其特征在于,获取第一用户的人脸图像位于预设图像框内的位置信息包括:
通过图像采集设备获取第一用户的人脸图像位于所述图像采集设备的图相框内位置信息。
3.根据权利要求1所述的机器人转身处理方法,其特征在于,根据所述位置信息生成转身控制指令包括:
通过人脸的位置计算机器人在固定时间内转向该用户所需要的速度。
4.根据权利要求1所述的机器人转身处理方法,其特征在于,通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示包括:
通过转身控制指令,控制机器人将显示屏幕中显示内容逐渐朝向所述第一用户进行显示。
5.根据权利要求1所述的机器人转身处理方法,其特征在于,
根据所述位置信息生成转身控制指令包括:
根据人脸图像相对于预设图像框中心位置的相对偏移量,生成用于调整机器人按照预设角度进行转身的控制指令;
通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示包括:
通过用于调整机器人按照预设角度进行转身的控制指令,控制机器人将显示屏幕中显示内容朝向所述第一用户的正脸。
获取用户在摄像头中的位置,根据用户的位置计算出机器人转身所需要的角度,并通过转化后的角度控制机器人转身,让机器人正对用户。
6.一种机器人转身处理装置,其特征在于,包括:
获取模块,用于获取第一用户的人脸图像位于预设图像框内的位置信息;
生成模块,用于根据所述位置信息生成转身控制指令;
控制模块,用于通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示。
7.根据权利要求1所述的机器人转身处理方法,其特征在于,获取模块包括:
通过图像采集设备获取第一用户的人脸图像位于所述图像采集设备的图相框内位置信息。
8.根据权利要求1所述的机器人转身处理方法,其特征在于,生成模块包括:
通过人脸的位置计算机器人在固定时间内转向该用户所需要的速度。
9.根据权利要求1所述的机器人转身处理方法,其特征在于,控制模块包括:
通过转身控制指令,控制机器人将显示屏幕中显示内容逐渐朝向所述第一用户进行显示。
10.根据权利要求1所述的机器人转身处理方法,其特征在于,控制模块包括:
根据人脸图像相对于预设图像框中心位置的相对偏移量,生成用于调整机器人按照预设角度进行转身的控制指令;
通过转身控制指令,控制机器人将显示内容朝向所述第一用户进行显示包括:
通过用于调整机器人按照预设角度进行转身的控制指令,控制机器人将显示屏幕中显示内容朝向所述第一用户的正脸。
获取用户在摄像头中的位置,根据用户的位置计算出机器人转身所需要的角度,并通过转化后的角度控制机器人转身,让机器人正对用户。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910365406.2A CN110253590B (zh) | 2019-04-30 | 2019-04-30 | 机器人转身处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910365406.2A CN110253590B (zh) | 2019-04-30 | 2019-04-30 | 机器人转身处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110253590A true CN110253590A (zh) | 2019-09-20 |
CN110253590B CN110253590B (zh) | 2021-08-17 |
Family
ID=67914090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910365406.2A Active CN110253590B (zh) | 2019-04-30 | 2019-04-30 | 机器人转身处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110253590B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049007A (zh) * | 2012-12-29 | 2013-04-17 | 安科智慧城市技术(中国)有限公司 | 一种基于操控员头部动作操控移动平台的***和方法 |
CN103605466A (zh) * | 2013-10-29 | 2014-02-26 | 四川长虹电器股份有限公司 | 一种基于面部识别操控终端的方法 |
CN104754218A (zh) * | 2015-03-10 | 2015-07-01 | 广东欧珀移动通信有限公司 | 一种智能拍照方法及终端 |
CN105205455A (zh) * | 2015-08-31 | 2015-12-30 | 李岩 | 一种移动平台上人脸识别的活体检测方法及*** |
US20160151917A1 (en) * | 2013-03-15 | 2016-06-02 | JIBO, Inc. | Multi-segment social robot |
CN105701447A (zh) * | 2015-12-30 | 2016-06-22 | 上海智臻智能网络科技股份有限公司 | 迎宾机器人 |
CN105773633A (zh) * | 2016-04-14 | 2016-07-20 | 中南大学 | 基于人脸位置和灵敏度参数的移动机器人人机控制*** |
CN106203259A (zh) * | 2016-06-27 | 2016-12-07 | 旗瀚科技股份有限公司 | 机器人的交互方向调整方法及装置 |
CN107133609A (zh) * | 2017-06-02 | 2017-09-05 | 王永安 | 一种人机交流机器人与其控制方法 |
CN207942403U (zh) * | 2017-10-25 | 2018-10-09 | 隆宸星股份有限公司 | 智能机器人 |
CN109108968A (zh) * | 2018-08-17 | 2019-01-01 | 深圳市三宝创新智能有限公司 | 机器人头部运动调整的交互方法、装置、设备和存储介质 |
-
2019
- 2019-04-30 CN CN201910365406.2A patent/CN110253590B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103049007A (zh) * | 2012-12-29 | 2013-04-17 | 安科智慧城市技术(中国)有限公司 | 一种基于操控员头部动作操控移动平台的***和方法 |
US20160151917A1 (en) * | 2013-03-15 | 2016-06-02 | JIBO, Inc. | Multi-segment social robot |
CN103605466A (zh) * | 2013-10-29 | 2014-02-26 | 四川长虹电器股份有限公司 | 一种基于面部识别操控终端的方法 |
CN104754218A (zh) * | 2015-03-10 | 2015-07-01 | 广东欧珀移动通信有限公司 | 一种智能拍照方法及终端 |
CN105205455A (zh) * | 2015-08-31 | 2015-12-30 | 李岩 | 一种移动平台上人脸识别的活体检测方法及*** |
CN105701447A (zh) * | 2015-12-30 | 2016-06-22 | 上海智臻智能网络科技股份有限公司 | 迎宾机器人 |
CN105773633A (zh) * | 2016-04-14 | 2016-07-20 | 中南大学 | 基于人脸位置和灵敏度参数的移动机器人人机控制*** |
CN106203259A (zh) * | 2016-06-27 | 2016-12-07 | 旗瀚科技股份有限公司 | 机器人的交互方向调整方法及装置 |
CN107133609A (zh) * | 2017-06-02 | 2017-09-05 | 王永安 | 一种人机交流机器人与其控制方法 |
CN207942403U (zh) * | 2017-10-25 | 2018-10-09 | 隆宸星股份有限公司 | 智能机器人 |
CN109108968A (zh) * | 2018-08-17 | 2019-01-01 | 深圳市三宝创新智能有限公司 | 机器人头部运动调整的交互方法、装置、设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110253590B (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180315364A1 (en) | Information Processing Apparatus and Image Generation Method | |
CN107038724A (zh) | 全景鱼眼相机影像校正、合成与景深重建方法与*** | |
US20170127051A1 (en) | Stereoscopic Display System using Light Field Type Data | |
CN104536579A (zh) | 交互式三维实景与数字图像高速融合处理***及处理方法 | |
Enomoto et al. | Diminished reality using multiple handheld cameras | |
CN110362193A (zh) | 用手或眼睛跟踪辅助的目标跟踪方法及*** | |
CN109032348A (zh) | 基于增强现实的智能制造方法与设备 | |
CN104272726A (zh) | 显示影像形成装置及显示影像形成方法 | |
CN1969313A (zh) | 图像显示***、图像显示方法以及图像显示程序 | |
CN108280851B (zh) | 深度图产生装置 | |
CN104618648A (zh) | 一种全景视频拼接***及拼接方法 | |
CN104869372B (zh) | 一种投影方法及电子设备 | |
CN105847665A (zh) | 双摄像头拍摄设备及双摄像头光轴校正装置 | |
CN103577789A (zh) | 检测方法和装置 | |
JP2019514136A (ja) | マルチユーザ対話方法、装置及びシャペロンロボット | |
CN107145822A (zh) | 偏离深度相机的用户体感交互标定的方法和*** | |
CN107133984A (zh) | 深度相机与主体设备的标定方法与*** | |
CN112672133A (zh) | 基于无人机的立体成像方法和装置、计算机可读存储介质 | |
CN103253193A (zh) | 基于触摸屏操作的全景泊车标定方法及*** | |
CN106791396A (zh) | 全景图片拍摄方法、***及电子设备 | |
CN105340258A (zh) | 位置检测装置 | |
CN111586383B (zh) | 用于投影的方法及装置、投影设备 | |
CN108553889A (zh) | 虚拟模型交互方法及装置 | |
CN106331435B (zh) | 实时实现图像特效显示的方法 | |
CN110253590A (zh) | 机器人转身处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089 Patentee after: Beijing Yunji Technology Co.,Ltd. Address before: Room 702, 7th floor, NO.67, Beisihuan West Road, Haidian District, Beijing 100089 Patentee before: BEIJING YUNJI TECHNOLOGY Co.,Ltd. |