CN107515606A - 机器人实现方法、控制方法及机器人、电子设备 - Google Patents
机器人实现方法、控制方法及机器人、电子设备 Download PDFInfo
- Publication number
- CN107515606A CN107515606A CN201710595912.1A CN201710595912A CN107515606A CN 107515606 A CN107515606 A CN 107515606A CN 201710595912 A CN201710595912 A CN 201710595912A CN 107515606 A CN107515606 A CN 107515606A
- Authority
- CN
- China
- Prior art keywords
- robot
- scene image
- real scene
- target location
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000033001 locomotion Effects 0.000 claims abstract description 57
- 230000004888 barrier function Effects 0.000 claims description 58
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000009877 rendering Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 3
- 230000002452 interceptive effect Effects 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000003993 interaction Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本申请提供了一种机器人实现方法、控制方法及机器人、电子设备,包括:机器人发送获取到的实景图像及其同步信息,控制端根据实景图像确定目标位置并将目标位置和同步信息发送至机器人;机器人根据目标位置以及同步信息,确定机器人的目标位置;根据当前场景的障碍物信息和机器人的目标位置,生成规划路径;根据所述规划路径移动至所述目标位置。采用本申请所提供的技术方案,用户只需要在机器人上传的实景图像上指定目标点,机器人即可根据用户选择的目标点自主导航到该目标点,使得机器人的运动控制更加便捷、控制频次更低,减少了控制指令的数量,而且在远程控制网络环境不佳的情况下也可以提供友好的交互体验。
Description
技术领域
本申请涉及机器人技术领域,尤其涉及一种机器人实现方法、控制方法及机器人、电子设备。
背景技术
现有的远程机器人控制技术普遍用于远程呈现机器人、服务机器人(如安保巡逻机器人、物流机器人)等产品的运动控制环节。
远程呈现机器人的运动控制交互方式为:用户在远程控制端监视机器人传回的视频流,通过摇杆(实体或虚拟)、键盘、鼠标、触摸屏等方式给机器人发送方向和速度控制指令来调整机器人的运动,用户在操控机器人运动的同时必须时刻注意机器人传输回来的视频流,通过视频流做下一步运动调整的决策。
这种通过运动方向和速度指令进行远程控制的方式,要求视频流的延迟时间必须很小,要求用户在使用时必须注意力高度集中,且在通过复杂场景时需要大量的控制指令,例如人员、障碍物和转弯较多的场景。
发明内容
本申请实施例提出了一种机器人实现方法、控制方法、机器人及电子设备,以解决现有技术中通过运动方向和速度指令进行远程控制的方式所存在的视频流延迟要求及用户使用要求较高、控制指令较多等技术问题。
第一个方面,本申请实施例提供了一种机器人实现方法,包括如下步骤:
发送获取到的实景图像及其同步信息;
接收用户根据所述实景图像确定的目标位置以及同步信息;
根据所述目标位置以及所述同步信息,确定机器人的目标位置;
根据当前场景的障碍物信息和所述机器人的目标位置,生成规划路径;
根据所述规划路径移动至所述目标位置。
第二个方面,本申请实施例提供了一种机器人控制方法,包括如下步骤:
接收机器人发送的实景图像及同步信息;
确定用户在所述实景图像上选择的目标位置;
发送所述确定的目标位置及所述同步信息。
第三个方面,本申请实施例提供了一种机器人,包括:用于获取实景图像的摄像头、电机、移动装置、处理器、存储器以及一个或多个模块;
所述一个或多个模块被存储于所述存储器中,并被配置成由所述处理器执行,所述一个或多个模块包括用于执行如上所述的一种机器人实现方法中各个步骤的指令。
第四个方面,本申请实施例提供了一种电子设备,包括:显示屏、处理器、存储器以及一个或多个模块;
所述一个或多个模块被存储于所述存储器中,并被配置成由所述处理器执行,所述一个或多个模块包括用于执行如上所述的一种机器人控制方法中各个步骤的指令。
有益效果如下:
采用本申请实施例所提供的技术方案,用户只需要在机器人上传的实景图像上指定目标点,机器人即可根据用户选择的目标点自主导航到该目标点,扩展了用户单次交互能够移动的目标范围,使得机器人的运动控制更加简捷、控制频次更低,用户无需实时关注视频流并不断选择运动方向和速度,大大减少了控制指令的数量,而且在远程控制网络环境不佳的情况下也可以提供友好的交互体验,不会因为网络环境不佳而受到视频流延迟的影响。
附图说明
下面将参照附图描述本申请的具体实施例,其中:
图1示出了本申请实施例中机器人实现方法实施的流程示意图;
图2示出了本申请实施例中机器人控制方法实施的流程示意图;
图3示出了本申请实施例中机器人与控制端的数据交互示意图;
图4示出了本申请实施例中机器人发送数据的过程示意图;
图5示出了本申请实施例中机器人接收数据后的过程示意图;
图6示出了本申请实施例中使用场景示意图;
图7示出了本申请实施例中机器人的结构示意图;
图8示出了本申请实施例中电子设备的结构示意图。
具体实施方式
为了使本申请的技术方案及优点更加清楚明白,以下结合附图对本申请的示例性实施例进行进一步详细的说明,显然,所描述的实施例仅是本申请的一部分实施例,而不是所有实施例的穷举。并且在不冲突的情况下,本说明中的实施例及实施例中的特征可以互相结合。
发明人在发明过程中注意到:
除远程呈现机器人的远程控制交互方式外,现有技术中还存在一些服务机器人领域的远程控制交互方式,比如专利(CN 106444780 A)和专利(CN105652870 A)中,机器人机身搭载雷达或视觉传感器,该类机器人首先需要用户利用指令控制机器人在区域内以雷达建图或者视觉建图的方式建立全局地图,使得用户可以通过选择地图坐标的方式指定运动目标,再利用雷达、视觉等定位方法结合路径规划、运动规划方法实现自主导航。
这种方式需要先由专业人员先对整个场景进行建图操作,同时要求建图要达到足够的精度,这就导致对计算性能要求较高,且在建图时场景内不能存在过多的动态物体(包括人);得到全局地图后用户需要对照二维地图的轮廓并根据自己预先对整个区域的理解选择想去的目标点,该种操作方式不直观,且对于不熟悉该场景的用户或者在布局相对重复的场景下具有非常大的使用难度。
针对现有技术的不足,本申请实施例提出了一种机器人实现方法、控制方法、机器人及电子设备,下面进行说明。
移动机器人,可以指在二维空间(如地面等)或者三维空间内具有移动能力的机器人,例如:扫地机器人、远程呈现机器人(telepresense robot)、无人机、无人车等。
移动机器人远程控制,可以指在远程控制端(PC或移动设备等)对配备通信模块的移动机器人的运动进行控制的一种人机交互方式。
实施例一、
图1示出了本申请实施例中机器人实现方法实施的流程示意图,如图所示,所述机器人实现方法可以包括如下步骤:
步骤101、发送获取到的实景图像及其同步信息;
步骤102、接收用户根据所述实景图像确定的目标位置及同步信息;
步骤103、根据所述目标位置以及所述同步信息,确定机器人的目标位置;
步骤104、根据当前场景的障碍物信息和所述机器人的目标位置,生成规划路径;
步骤105、根据所述规划路径移动至所述目标位置。
其中,同步信息可以包括里程计信息,里程计信息可以包括以机器人开机位置为起始点,机器人的轮子转的圈数、机器人行走的距离以及旋转的角度等信息。
具体实施时,机器人可以首先通过广角相机获取到当前场景的实景图像001,该实景图像可以为二维图像;然后将所述实景图像001发送至控制端;
控制端接收到该实景图像001之后,用户可以在该实景图像001上通过点击等方式确定用户想要机器人去的目标位置,控制端将该目标位置发送给机器人;
机器人在接收到该目标位置后,可以根据该实景图像001对应的同步信息以及目标位置,确定机器人的目标位置;
机器人确定当前时刻场景内的障碍物信息,然后结合障碍物信息以及机器人的目标位置,规划出一条移动路径,控制发动机、轮子等部件运转以使机器人移动至该目标位置。
采用本申请实施例所提供的机器人实现方法,机器人根据用户在图像上选择的目标点即可自主导航到该目标点,扩展了用户单次交互能够移动的目标范围,使得机器人的运动控制更加简捷、控制频次更低,用户无需实时关注视频流并不断选择运动方向和速度,大大减少了控制指令的数量,而且在远程控制网络环境不佳的情况下也可以提供友好的交互体验,不会因为网络环境不佳而受到视频流延迟的影响。
由于实际使用时交互图像较多,为避免用户所选择的目标点所在图像与同步信息不一致的情况,本申请实施例中机器人可以发送实景图像和该实景图像对应的同步信息,控制端在实景图像上确定目标点所在位置后,可以将该目标位置以及同步信息返回给机器人,这样,机器人即可知道用户所选择的目标位置是基于哪一帧图像进行的,从而结合当前时刻的同步信息确定当前时刻的目标位置。
其中,同步信息可以包括里程计信息、帧号、实景图像标识等信息,只要起到标识用户选择的目标位置是基于哪一幅图像所进行的选择即可。
实施中,在所述发送实景图像之前,所述方法可以进一步包括:
在所述实景图像上渲染该实景图像拍摄时刻的障碍物信息。
具体实施时,机器人可以通过广角相机获取到当前场景的实景图像,然后通过超声波、雷达、红外、深度相机等感知部件获取到当前场景的障碍物信息,在所述实景图像上渲染这些障碍物信息,最后将渲染有障碍物信息的实景图像发送给控制端,以给用户更好的体验。
实施中,所述在实景图像上渲染该实景图像拍摄时刻的障碍物信息,可以包括:
获取里程计坐标系下的障碍物坐标;
根据预先确定的相机坐标系与机器人坐标系之间的关系、以及该实景图像拍摄时刻对应的同步信息,确定相机坐标系下的障碍物坐标;
将所述相机坐标系下的障碍物坐标投影到所述实景图像上。
具体实施时,可以先通过超声波、雷达、红外、深度相机等感知部件获取里程计坐标系下的障碍物坐标,然后根据预先确定的相机坐标系与机器人坐标系之间的关系、实景图像对应的同步信息,确定障碍物在相机坐标系下的坐标,最后将相机坐标系下的障碍物坐标投影到实景图像上。
下面对本申请所涉及到的坐标系进行简要说明。
机器人坐标系,可以是以机器人两轮中心为坐标系原点,前向为X轴,左向为Y轴,朝上为Z轴确定的三维坐标系。
里程计坐标系,可以是每次里程计开启或重置时刻的机器人坐标系所确定的三维坐标系,该时刻的机器人(机器人坐标系原点)所在位置为里程计坐标系原点,该时刻的机器人坐标轴即为里程计坐标系的坐标轴,直至下一次里程计关闭或重置前,该坐标系不发生改变。
相机坐标系,可以是以相机(或摄像头)的光心为原点,沿成像平面垂直向前方向为Z轴,竖直向下的方向为Y轴、水平向右为X轴所形成的三维坐标系;
图像坐标系,可以是图像左上角为原点,竖直方向为Y轴,横向为X轴所确定的二维坐标系。
为减少机器人端的计算量,本申请还可以采用如下方式实施。
实施中,可以在所述发送实景图像的同时发送该实景图像拍摄时刻的障碍物信息。
本申请实施例既可以在机器人一端对实景图像渲染障碍物信息,也可以将障碍物信息与实景图像一并发送至控制端,由控制端对实景图像渲染障碍物信息。
实施中,所述根据所述目标位置以及同步信息,确定机器人的目标位置,可以包括:
根据对投影方程求解得到所述用户确定的目标位置在机器人坐标系下的坐标(x,y);
其中,p=(u,v,1)T,(u,v)为用户确定的目标位置,K为相机内参矩阵,为机器人坐标系b与相机坐标系c之间的变换矩阵,P=(x,y,h,1)T;
根据发送所述实景图像时刻的同步信息以及当前时刻的同步信息,将所述在机器人坐标系下的坐标(x,y)转换为所述用户确定的目标位置在里程计坐标系下的坐标。
根据视觉几何技术可知,图像中单独像素对应物理世界中一条光心发出的射线,本申请实施例可以通过实景图像中像素点的2D坐标以及相机的内参得到该射线在相机坐标系下的方程。假设用户在交互时指定的目标位置相对于机器人底盘(如地面)的高度不变,本申请实施例可以通过求解射线与平面相交点坐标来求解出该目标点对应的3D坐标。
具体实施时,设用户在控制端选择的目标位置坐标表示成齐次形式可以为p=(u,v,1)T,其中u可以为用户选择的目标位置的x轴坐标,v可以为用户选择的目标位置的y轴坐标;通过预先标定可以得到机器人坐标系和相机坐标系之间的姿态变换矩阵,可以设为其中,b可以指机器人坐标系,c可以指相机坐标系,对于两个坐标系的姿态变换矩阵的计算可以采用现有技术实现,本申请在此不做赘述。
假设该目标点在机器人坐标系下的齐次坐标可以为P=(x,y,h,1)T,由于假设用户交互指定的目标高度不变,因此h为已知;通过预先标定可以得到相机内参矩阵K,根据视觉几何可以得到投影方程为:对该投影方程求解即可得到x、y和深度s的值,从而得到用户选择的目标在机器人坐标系下的坐标(x,y);再通过同步信息(里程计信息)可以得到目标在里程计坐标系下的坐标。
本申请实施例可以将2D的实景图像发送给控制端,用户在控制端的实景图像上选择目标点之后,机器人可以将用户选择的2D坐标通过坐标系转换变换成3D坐标,采用这种转换方式不仅使得交互传输的数据变少、而且经过试验证明与将深度图像发给控制端的方式相比准确性更高。
实施中,所述根据当前场景的障碍物信息和所述机器人的目标位置,生成规划路径,可以包括:
将感知到的障碍物坐标转换为机器人坐标系下的坐标,根据障碍物坐标以及里程计信息生成机器人所处区域的障碍物地图;
根据机器人当前坐标、以及机器人的目标位置在障碍物地图中的坐标,生成规划路径。
具体实施时,本申请实施例中机器人通过超声波、雷达、红外、深度相机等感知部件感知障碍物通常是感知短距离、局部范围内的障碍物,然后将障碍物坐标与里程计信息结合起来生成机器人所处局部区域的障碍物地图;根据机器人当前坐标、目标位置在障碍物地图中的坐标以及障碍物地图等,生成规划路径。
其中,障碍物地图可以是实时变化的,根据机器人行走的实景变化进行实时更新。
生成规划路径可以采用现有技术中的路径规划算法,例如:Dijkstra、A*、RRT等,只要根据目标坐标和机器人当前坐标、障碍物信息计算出一条合理的移动路径即可,在躲避障碍物的情况下到达目标位置。
为了避免场景中障碍物变换、更加符合场景移动,本申请还可以采用如下方式实施。
实施中,所述根据所述规划路径移动至所述目标位置,可以包括:
根据所述规划路径、每个时刻的障碍物信息以及机器人自身的运动参数,生成运动指令;
根据所述运动指令控制所述机器人移动,直至移动到所述目标位置。
具体实施时,在规划出路径后,可以进行运动规划,通过规划路径、实时的障碍物地图以及机器人自身的运动参数等信息,利用运动规划算法计算出合理的运动指令,将运动指令发送给运动平台(可以指机器人的移动指定部件)。
其中,运动规划算法可以采用现有技术,例如:Path Follow、DWA、RRT等运动规划算法实现,运动指令可以包括角速度、线速度等信息。
本申请实施例在路径规划后再进行运动规划,从而可以使机器人动态感知和躲避障碍物,并且实现自主的速度调整,使得机器人的运动速度变化更加平滑,进而给远程控制端的用户、以及机器人周围的人员带来更友好的体验。
实施中,所述方法可以进一步包括:
在接收用户根据所述实景图像确定的目标位置的同时接收用户确定的机器人朝向;
将所述用户确定的机器人朝向转换为里程计坐标系下的朝向;
控制所述机器人由当前朝向转换所述用户确定的机器人朝向。
具体实施时,控制端的用户可以通过鼠标左键/右键、触摸屏的短按/长按等方式选择想要机器人面朝的方向,机器人接收用户确定的目标位置以及用户确定的机器人朝向以后,一方面可以根据目标位置进行计算规划出移动路径,另一方面可以根据用户确定的机器人朝向控制机器人改变自身朝向。
本申请实施例通过视觉几何技术对运动目标进行设置,还可以提供准确快捷的朝向调整交互方式,解决了现有技术中通过地图交互控制机器人运动的方式只能调整机器人位置、无法精确调整机器人朝向的问题。而且,本申请不依赖全局坐标系,无需在使用前进行建图操作,使用起来更加便捷,同时避免了全局定位出现误差时产生的运动失控。
实施例二、
本申请实施例还提供了一种机器人控制方法,从控制端角度进行说明如下。
图2示出了本申请实施例中机器人控制方法实施的流程示意图,如图所示,所述机器人控制方法可以包括如下步骤:
步骤201、接收机器人发送的实景图像及同步信息;
步骤202、确定用户在所述实景图像上选择的目标位置;
步骤203、发送所述确定的目标位置及所述同步信息。
本申请实施例中控制端只需要接收机器人发送的实景图像,在所述实景图像上通过点击等方式选择目标位置即可实现远程控制机器人移动到指定位置,无需用户根据视频流持续调整机器人运动从而不断趋近目标,操作更加方便、快捷,而且不会受到网络传输的影响,一次交互即可完成远程控制的目的。
实施中,所述方法可以进一步包括:
在接收机器人发送的实景图像的同时接收该实景图像拍摄时刻的障碍物信息;在所述实景图像上渲染该实景图像拍摄时刻的障碍物信息。
本申请实施例可以在控制端根据机器人发送过来的实景图像以及对应的障碍物信息,在所述实景图像上渲染该实景图像拍摄时刻的障碍物信息,从而提高用户的感官体验,减少机器人的运算量。
实施中,所述在实景图像上渲染该实景图像拍摄时刻的障碍物信息,可以包括:
获取里程计坐标系下的障碍物坐标;
根据预先确定的相机坐标系与机器人坐标系之间的关系、以及该实景图像拍摄时刻对应的里程计信息,确定相机坐标系下的障碍物坐标;
将所述相机坐标系下的障碍物坐标投影到所述实景图像上。
实施中,所述方法可以进一步包括:
确定用户在所述实景图像上选择的机器人朝向;
将所述确定的机器人朝向发送给所述机器人。
本申请实施例中,用户可以控制端的实景图像上通过鼠标右键点击、或者触摸屏上长按某个位置来确定机器人朝向,将该朝向发给机器人后,机器人可以根据用户确定的机器人朝向进行计算后转向相应的方向,可以准确、快捷的调整机器人朝向。
在明了运用的环境后,在机器人侧、控制端侧分别可以按上述方式实施。在说明过程中,分别从机器人与控制端的实施进行了说明,但这并不意味着二者必须配合实施,实际上,当机器人与控制端分开实施时,其也各自解决机器人侧、控制端的问题,只是二者结合使用时,会获得更好的技术效果。
本申请结合障碍物感知技术、路径规划技术、运动规划技术实现了一种“所见即所得、所选即所去”的远程运动控制交互方式,用户可以在机器人相机拍摄的实景图像上选择一点,机器人自动计算出图像上该点对应的物理空间位置,并以该点为目标,准确、稳定地自主移动到该物理空间位置,移动过程中机器人自主规划路径、躲避障碍物。与此同时,在远程控制端,利用增强现实技术在实景图像上渲染当前规划的路径、障碍物、预计运动轨迹等信息,给用户更好的沉浸感和交互体验。
为了便于本申请的实施,下面以实例进行说明。
图3示出了本申请实施例中机器人与控制端的数据交互示意图,如图所示,可以由云端服务器作为媒介在中间传输数据,实现控制端和机器人端的数据交互。
图4示出了本申请实施例中机器人发送数据的过程示意图,机器人可以首先获取当前规划路径、当前速度、区域内障碍信息、广角相机实景图像、里程计信息等,将这些数据同步后进行渲染,在确定连接有控制端之后,将数据发送至控制端或云端。
图5示出了本申请实施例中机器人接收数据后的过程示意图,机器人接收到云端或控制端下发的交互指令后进行解析,并结合障碍物地图进行路径规划,然后再进行运动规划,向目标位置移动,如果没有达到目标位置,则返回运动规划继续生成运动指令,直到最终达到目标位置。
本申请实施例中机器人可以包括机器人壳体、内部处理器、电机、滚轮、摄像头、里程计、各种传感器等部件,内部的处理器又可以包括第一发送模块、第一接收模块、同步模块、规划模块和移动模块等,其中,第一发送模块、第一接收模块可以与云端服务器进行通信,由云端服务器与控制端(手机或计算机等)通信。
实施例三、
假设机器人按照之前的规划路径在行进过程中,每10s拍摄一幅实景图像。
图6示出了本申请实施例中使用场景示意图,如图所示,机器人在三维真实空间中通过云端与控制端交互,控制端用户对显示的二维图像进行查看、指定目标点等。
机器人利用摄像头拍摄当前场景的实景图像(或者视频),假设是机器人在00:50时刻拍摄的第一帧实景图像,该实景图像可以RGB二维图像;并利用里程计获取当前机器人的姿态信息,例如:位置(0m,0m,0m),朝向0rad,利用障碍物感知模块(例如:超声波、雷达、红外、深度相机等)感知障碍物信息,包括00:50时刻障碍物在里程计坐标系中的位置,例如:(1.0m,0m,0m)、(1.0m,0.1m,0m)…等;将实景图像、里程计信息、障碍物信息通过处理器的第一发送模块发送至云端服务器;
云端服务器将实景图像、里程计信息、障碍物信息发送给控制端(假设为电脑/计算机);
在控制端计算机接收到这些信息后,可以将障碍物的位置坐标(例如:(1.0m,0m,0m)、(1.0m,0.1m,0m)…)转换为相机坐标系下的障碍物坐标(例如:(0.0m,-1.14m,1.37m)、(-0.1m,-1.14m,1.37m)…),并将障碍物坐标投影到该实景图像上,用户(例如:管理人员或个人用户)可以在电脑显示屏上查看该渲染有障碍物信息的实景图像,了解机器人当前的场景情况;用户可以单击鼠标左键在该实景图像中选择某一位置作为目标点,也可以在某一方向单击鼠标右键作为目标朝向。在用户确定目标点后,计算机/电脑将用户确定的目标点、以及里程计信息发送至云端服务器;
云端服务器将用户确定的目标点(例如:640*480图像中心点(320pixel,240pixel)为用户选定的目标点)、以及里程计信息发送至机器人。
由于机器人在上述云端通信、处理过程中依然处于行走、拍摄状态,且不断在感知障碍物信息并实时更新障碍物地图。此时,假设机器人已拍摄完02:00时刻的实景图像,且当前(02:00时刻)机器人在里程计坐标系下姿态信息为位置(2.0m,1.0m,0.0m)、朝向0rad。
机器人在收到用户确定的目标点、以及00:50时刻的里程计信息后,根据02:00时刻的里程计信息计算用户所确定的目标点在里程计坐标系中的目标位置(例如:目标位置为(4.0m,2.0m,0m)),机器人的处理器可以根据机器人当前在里程计坐标系中的坐标(2.0m,1.0m,0.0m)、机器人的目标位置(4.0m,2.0m,0m)、以及障碍物地图生成一条规划路径,规划路径为里程计坐标系下的姿态序列,例如:
(位置2.0m,1.0m,0.0m,朝向0rad)、(位置2.1m,1.05m,0.0m,朝向0.1rad)、(位置2.2m,1.1m,0.0m,朝向0.15rad)、(位置2.3m,1.15m,0.0m,朝向0.2rad)…(位置4.0m,2.0m,0m,朝向0.46rad)。
在生成规划路径之后,机器人还可以根据该规划路径、每个时刻的障碍物信息、机器人自身的运动参数等实时的生成运动指令,控制机器人移动到指定的目标位置。例如:
规划路径为(位置2.0m,1.0m,0.0m,朝向0rad)、(位置2.1m,1.05m,0.0m,朝向0.1rad)、(位置2.2m,1.1m,0.0m,朝向0.15rad)、(位置2.3m,1.15m,0.0m,朝向0.2rad)…(位置4.0m,2.0m,0m,朝向0.46rad);
机器人自身的运动参数可以为最大线速度:1.2m/s,最大角速度:2.0rad/s,最大线加速度2.5m/s2,最大角加速度:3.2rad/s2;
在02:00时刻,规划路径上没有障碍物,则生成运动指令为:线速度0.5m/s,角速度1.0rad/s;其中,预移动轨迹为规划路径中除第一个位置点以外的剩余路径;
在02:01时刻,预移动轨迹上到第二位置点之间没有障碍物,则生成运动指令为:线速度1.0m/s,角速度1.0rad/s,移动至规划路径中的第二个位置点;其中,预移动轨迹可以显示为规划路径中除第一个位置点、第二位置点以外的剩余路径;
在02:02时刻,预移动轨迹上到第三位置点之间存在障碍物(假设有一个人当时停留在第二位置点和第三位置点之间),则可以通过调整角速度改变移动方向躲避障碍物,例如,生成运动指令线速度0.5m/s,角速度1.5rad/s,移动至规划路径中的第三个位置点;
按照上述方式,以此类推,直至移动到目标位置点。
具体实施时,在03:00时刻,预移动轨迹上到第三位置点之间存在障碍物(假设有一个人当时停留在第二位置点和第三位置点之间)时,存在一种情况是该障碍物只是短暂停留,也许在机器人移动至该障碍物之前该障碍物已经移开、不再是障碍物,因此,在03:00时刻,可以生成运动指令减慢速度,继续监测该障碍物:
如果在到达障碍物所在位置之前,该障碍物移开、不复存在,那么,机器人可以生成运动指令恢复移动速度向该位置点移动;
如果在到达障碍物所在位置之前,该障碍物一直存在,那么,机器人可以生成运动指令改变运动方向躲避该障碍物。
进一步的,本申请实施例还可以将实时的实景图像、障碍物信息、当前规划路径、预移动轨迹等发送至云端服务器,由云端服务器发送至控制端,控制端将障碍物信息、当前规划路径和预移动轨迹渲染到该实景图像上,以便用户查看。
实施例四、
机器人利用摄像头拍摄当前场景的实景图像(或者视频),假设是机器人在10:50时刻拍摄的第一帧实景图像,该实景图像可以RGB二维图像;并利用里程计获取当前机器人的里程计信息,利用障碍物感知模块(例如:超声波、雷达、红外、深度相机等)感知障碍物信息,包括10:50时刻障碍物的位置、深度信息等;将当前的规划路径、预移动轨迹、障碍物信息等渲染到该实景图像上,然后将渲染后的实景图像以及里程计信息通过处理器发送至云端服务器;
云端服务器将实景图像、里程计信息发送给控制端(假设为触摸屏的手机/pad等);
用户可以在手机/pad的显示屏上查看该渲染有障碍物信息、规划路径和预移动轨迹的实景图像,了解机器人当前的场景情况;用户可以在该实景图像中短按某一位置作为下一个目标点,也可以在某一方向长按作为目标朝向。在用户确定目标点、目标朝向后,手机/pad将用户确定的目标点、目标朝向以及里程计信息发送至云端服务器;
云端服务器将用户确定的目标点、目标朝向以及里程计信息发送至机器人。
机器人在收到用户确定的目标点、目标朝向以及10:50时刻的里程计信息后,可以根据目标朝向、10:50时刻的里程计信息、当前时刻的里程计信息将用户确定的目标朝向转换为当前时刻、机器人视角下的目标朝向,并转向该方向;还可以根据当前时刻的里程计信息计算用户所确定的目标点在当前时刻、机器人视角下的目标位置,机器人的处理器根据机器人当前的位置坐标、机器人的目标位置、以及障碍物地图生成规划路径。
在生成规划路径之后,机器人还可以根据该规划路径、每个时刻的障碍物信息、机器人自身的运动参数等实时的生成运动指令,控制机器人移动到指定的目标位置。
基于同一发明构思,本申请实施例中还提供了一种机器人、电子设备,由于这些设备解决问题的原理与一种机器人的实现方法、控制方法相似,因此这些设备的实施可以参见方法的实施,重复之处不再赘述。
实施例五、
图7示出了本申请实施例中机器人的结构示意图,如图所示,所述机器人可以包括:用于获取实景图像的摄像头701、电机702、移动装置703、处理器704、存储器705以及一个或多个模块;
所述一个或多个模块被存储于所述存储器中,并被配置成由所述处理器执行,所述一个或多个模块包括用于执行如上所述的一种机器人实现方法中各个步骤的指令。
具体实施时,所述一个或多个模块可以为:
第一发送模块,用于发送实景图像及其同步信息;
第一接收模块,用于接收用户根据所述实景图像确定的目标位置及同步信息;
同步模块,用于根据所述目标位置以及所述同步信息,确定机器人的目标位置;
规划模块,用于根据当前场景的障碍物信息和所述机器人的目标位置,生成规划路径;
移动模块,用于根据所述规划路径控制电机转动,所述移动装置在电机的带动下将机器人移动至所述目标位置。
实施中,可以进一步包括:
第一渲染模块,用于在所述发送实景图像之前,在所述实景图像上渲染该实景图像拍摄时刻的障碍物信息。
实施中,所述第一渲染模块可以包括:
第一获取单元,用于获取里程计坐标系下的障碍物坐标;
第一转换单元,用于根据预先确定的相机坐标系与机器人坐标系之间的关系、以及该实景图像拍摄时刻对应的同步信息,确定相机坐标系下的障碍物坐标;
第一投影单元,用于将所述相机坐标系下的障碍物坐标投影到所述实景图像上。
实施中,所述第一发送模块可以用于发送实景图像以及该实景图像拍摄时刻的障碍物信息。
实施中,所述同步模块可以包括:
第一坐标单元,用于根据对投影方程求解得到所述用户确定的目标位置在机器人坐标系下的坐标(x,y);
其中,p=(u,v,1)T,(u,v)为用户确定的目标位置,K为相机内参矩阵,为机器人坐标系b与相机坐标系c之间的变换矩阵,P=(x,y,h,1)T;
第二坐标单元,用于根据发送所述实景图像时刻的同步信息以及当前时刻的同步信息,将所述在机器人坐标系下的坐标(x,y)转换为所述用户确定的目标位置在里程计坐标系下的坐标。
实施中,所述规划模块可以包括:
地图生成单元,用于将感知到的障碍物坐标转换为机器人坐标系下的坐标,根据障碍物坐标以及里程计信息生成机器人所处区域的障碍物地图;
规划单元,用于根据机器人当前坐标、以及目标位置在障碍物地图中的坐标,生成规划路径。
实施中,所述移动模块可以包括:
指令生成单元,用于根据所述规划路径、每个时刻的障碍物信息以及机器人自身的运动参数,生成运动指令;
控制单元,用于根据所述运动指令控制所述电机转动,所述电机带动所述移动装置移动,直至移动到所述目标位置。
实施中,所述第一接收模块可以进一步用于接收用户确定的机器人朝向;可以进一步包括:
朝向控制模块,用于将所述用户确定的机器人朝向转换为里程计坐标系下的朝向;控制所述机器人由当前朝向转换所述用户确定的机器人朝向。
实施例六、
图8示出了本申请实施例中电子设备的结构示意图,如图所示,所述电子设备可以包括:显示屏801、处理器802、存储器803以及一个或多个模块;
所述一个或多个模块被存储于所述存储器中,并被配置成由所述处理器执行,所述一个或多个模块包括用于执行如上所述的一种机器人控制方法中各个步骤的指令。
具体实施时,所述一个或多个模块可以为:
第二接收模块,用于接收机器人发送的实景图像及其同步信息;
目标位置确定模块,用于确定用户在所述实景图像上选择的目标位置;
第二发送模块,用于发送所述确定的目标位置及同步信息。
实施中,所述第二接收模块用于接收机器人发送的实景图像以及该实景图像拍摄时刻的障碍物信息;所述电子设备可以进一步包括:
第二渲染模块,用于在所述实景图像上渲染该实景图像拍摄时刻的障碍物信息。
实施中,所述第二渲染模块可以包括:
第二获取单元,用于获取里程计坐标系下的障碍物坐标;
第二转换单元,用于根据预先确定的相机坐标系与机器人坐标系之间的关系、以及该实景图像拍摄时刻对应的里程计信息,确定相机坐标系下的障碍物坐标;
第二投影单元,用于将所述相机坐标系下的障碍物坐标投影到所述实景图像上。
实施中,可以进一步包括:
朝向确定模块,用于确定用户在所述实景图像上选择的机器人朝向;
所述第二发送模块可以进一步用于发送所述确定的机器人朝向。
上述实施例中,均可以采用现有的功能元器件模块来实施。例如,规划模块可以采用现有的路线规划元器件,至少,现有机器人技术中采用的路径规划服务器上便具备实现该功能元器件;至于接收模块、发送模块,则是任意一个具备信号传输功能的设备都具备的元器件;同时,同步模块进行的机器人视角的目标位置计算等采用的都是现有的技术手段,本领域技术人员经过相应的设计开发即可实现;移动模块,可以是现有技术中机器人的电机、轮子等元器件或者其组合来实现移动的目的。
为了描述的方便,以上所述装置的各部分以功能分为各种模块或单元分别描述。当然,在实施本申请时可以把各模块或单元的功能在同一个或多个软件或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
Claims (14)
1.一种机器人实现方法,其特征在于,包括如下步骤:
发送获取到的实景图像及其同步信息;
接收用户根据所述实景图像确定的目标位置以及同步信息;
根据所述目标位置以及所述同步信息,确定机器人的目标位置;
根据当前场景的障碍物信息和所述机器人的目标位置,生成规划路径;
根据所述规划路径移动至所述目标位置。
2.如权利要求1所述的方法,其特征在于,在所述发送实景图像之前,进一步包括:
在所述实景图像上渲染该实景图像拍摄时刻的障碍物信息。
3.如权利要求2所述的方法,其特征在于,所述在实景图像上渲染该实景图像拍摄时刻的障碍物信息,包括:
获取里程计坐标系下的障碍物坐标;
根据预先确定的相机坐标系与机器人坐标系之间的关系、以及该实景图像拍摄时刻对应的同步信息,确定相机坐标系下的障碍物坐标;
将所述相机坐标系下的障碍物坐标投影到所述实景图像上。
4.如权利要求1所述的方法,其特征在于,在所述发送实景图像的同时发送该实景图像拍摄时刻的障碍物信息。
5.如权利要求1所述的方法,其特征在于,所述根据所述目标位置以及同步信息,确定机器人的目标位置,包括:
根据对投影方程求解得到所述用户确定的目标位置在机器人坐标系下的坐标(x,y);
其中,p=(u,v,1)T,(u,v)为用户确定的目标位置,K为相机内参矩阵,为机器人坐标系b与相机坐标系c之间的变换矩阵,P=(x,y,h,1)T;
根据发送所述实景图像时刻的同步信息以及当前时刻的同步信息,将所述在机器人坐标系下的坐标(x,y)转换为所述用户确定的目标位置在里程计坐标系下的坐标。
6.如权利要求1所述的方法,其特征在于,所述根据当前场景的障碍物信息和所述机器人的目标位置,生成规划路径,包括:
将感知到的障碍物坐标转换为机器人坐标系下的坐标,根据障碍物坐标以及里程计信息生成机器人所处区域的障碍物地图;
根据机器人当前坐标、以及机器人的目标位置在障碍物地图中的坐标,生成规划路径。
7.如权利要求1所述的方法,其特征在于,所述根据所述规划路径移动至所述目标位置,包括:
根据所述规划路径、每个时刻的障碍物信息以及机器人自身的运动参数,生成运动指令;
根据所述运动指令控制所述机器人移动,直至移动到所述目标位置。
8.如权利要求1所述的方法,其特征在于,进一步包括:
在接收用户根据所述实景图像确定的目标位置的同时接收用户确定的机器人朝向;
将所述用户确定的机器人朝向转换为里程计坐标系下的朝向;
控制所述机器人由当前朝向转换所述用户确定的机器人朝向。
9.一种机器人控制方法,其特征在于,包括如下步骤:
接收机器人发送的实景图像及同步信息;
确定用户在所述实景图像上选择的目标位置;
发送所述确定的目标位置及所述同步信息。
10.如权利要求9所述的方法,其特征在于,进一步包括:
在接收机器人发送的实景图像的同时接收该实景图像拍摄时刻的障碍物信息;在所述实景图像上渲染该实景图像拍摄时刻的障碍物信息。
11.如权利要求10所述的方法,其特征在于,所述在实景图像上渲染该实景图像拍摄时刻的障碍物信息,包括:
获取里程计坐标系下的障碍物坐标;
根据预先确定的相机坐标系与机器人坐标系之间的关系、以及该实景图像拍摄时刻对应的里程计信息,确定相机坐标系下的障碍物坐标;
将所述相机坐标系下的障碍物坐标投影到所述实景图像上。
12.如权利要求9所述的方法,其特征在于,进一步包括:
确定用户在所述实景图像上选择的机器人朝向;
将所述确定的机器人朝向发送给所述机器人。
13.一种机器人,其特征在于,包括:摄像头、电机、移动装置、处理器、存储器以及一个或多个模块;
所述一个或多个模块被存储于所述存储器中,并被配置成由所述处理器执行,所述一个或多个模块包括用于执行如权利要求1至8任一所述的一种机器人实现方法中各个步骤的指令。
14.一种电子设备,其特征在于,包括:显示屏、处理器、存储器以及一个或多个模块;
所述一个或多个模块被存储于所述存储器中,并被配置成由所述处理器执行,所述一个或多个模块包括用于执行如权利要求9至13任一所述的一种机器人控制方法中各个步骤的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710595912.1A CN107515606A (zh) | 2017-07-20 | 2017-07-20 | 机器人实现方法、控制方法及机器人、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710595912.1A CN107515606A (zh) | 2017-07-20 | 2017-07-20 | 机器人实现方法、控制方法及机器人、电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107515606A true CN107515606A (zh) | 2017-12-26 |
Family
ID=60721702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710595912.1A Pending CN107515606A (zh) | 2017-07-20 | 2017-07-20 | 机器人实现方法、控制方法及机器人、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107515606A (zh) |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108121347A (zh) * | 2017-12-29 | 2018-06-05 | 北京三快在线科技有限公司 | 用于控制设备运动的方法、装置及电子设备 |
CN108759822A (zh) * | 2018-04-12 | 2018-11-06 | 江南大学 | 一种移动机器人3d定位*** |
CN108805928A (zh) * | 2018-05-23 | 2018-11-13 | 平安科技(深圳)有限公司 | 控制无人设备直播的方法、装置、计算机设备及存储介质 |
CN108958241A (zh) * | 2018-06-21 | 2018-12-07 | 北京极智嘉科技有限公司 | 机器人路径的控制方法、装置、服务器和存储介质 |
CN109725580A (zh) * | 2019-01-17 | 2019-05-07 | 深圳市锐曼智能装备有限公司 | 机器人的远程控制方法 |
CN109990889A (zh) * | 2017-12-29 | 2019-07-09 | 深圳市优必选科技有限公司 | 一种录音机器人的控制方法及装置 |
WO2019136808A1 (zh) * | 2018-01-15 | 2019-07-18 | 深圳市沃特沃德股份有限公司 | 机器人移动方法、机器人移动装置、扫地机器人 |
CN110147091A (zh) * | 2018-02-13 | 2019-08-20 | 深圳市优必选科技有限公司 | 机器人运动控制方法、装置及机器人 |
CN110293554A (zh) * | 2018-03-21 | 2019-10-01 | 北京猎户星空科技有限公司 | 机器人的控制方法、装置和*** |
CN110398954A (zh) * | 2018-04-24 | 2019-11-01 | 北京京东尚科信息技术有限公司 | 一种路径规划、存储方法及其装置 |
CN110897557A (zh) * | 2019-12-05 | 2020-03-24 | 西安广源机电技术有限公司 | 一种扫地机器人*** |
CN110909585A (zh) * | 2019-08-15 | 2020-03-24 | 北京致行慕远科技有限公司 | 一种路线确定方法、可行进设备、和存储介质 |
CN111103875A (zh) * | 2018-10-26 | 2020-05-05 | 科沃斯机器人股份有限公司 | 避让的方法、设备及存储介质 |
CN111208738A (zh) * | 2020-01-17 | 2020-05-29 | 上海高仙自动化科技发展有限公司 | 控制器、智能机器人及智能机器人*** |
CN111309024A (zh) * | 2020-03-04 | 2020-06-19 | 北京小狗智能机器人技术有限公司 | 基于实时视觉数据的机器人定位导航方法及装置 |
CN111319041A (zh) * | 2020-01-17 | 2020-06-23 | 深圳市优必选科技股份有限公司 | 一种机器人位姿确定方法、装置、可读存储介质及机器人 |
CN111457923A (zh) * | 2019-01-22 | 2020-07-28 | 北京京东尚科信息技术有限公司 | 路径规划方法、装置及存储介质 |
CN111624997A (zh) * | 2020-05-12 | 2020-09-04 | 珠海市一微半导体有限公司 | 基于tof摄像模块的机器人控制方法、***及机器人 |
CN111625001A (zh) * | 2020-05-28 | 2020-09-04 | 珠海格力智能装备有限公司 | 机器人的控制方法及装置、工业机器人 |
CN111752161A (zh) * | 2020-06-18 | 2020-10-09 | 格力电器(重庆)有限公司 | 一种电器控制方法、***及存储介质 |
CN111781924A (zh) * | 2020-06-21 | 2020-10-16 | 珠海市一微半导体有限公司 | 一种基于割草机器人的越界控制***及其越界控制方法 |
CN111872935A (zh) * | 2020-06-21 | 2020-11-03 | 珠海市一微半导体有限公司 | 一种机器人控制***及其控制方法 |
CN112329530A (zh) * | 2020-09-30 | 2021-02-05 | 北京航空航天大学 | 支架的安装状态检测方法、设备及*** |
CN112601693A (zh) * | 2018-09-06 | 2021-04-02 | 大众汽车股份公司 | 用于监测和规划交通工具的运动的方案 |
CN112613469A (zh) * | 2020-12-30 | 2021-04-06 | 深圳市优必选科技股份有限公司 | 目标对象的运动控制方法及相关设备 |
CN112806905A (zh) * | 2020-12-31 | 2021-05-18 | 广州极飞科技股份有限公司 | 用于多设备协同作业的方法、装置、无人机及扫地机器人 |
CN113070882A (zh) * | 2021-04-28 | 2021-07-06 | 北京格灵深瞳信息技术股份有限公司 | 检修机器人控制***、方法、装置和电子设备 |
CN113362709A (zh) * | 2021-05-31 | 2021-09-07 | 南京信息工程大学 | 一种移动机器人式指示牌*** |
CN113534810A (zh) * | 2021-07-22 | 2021-10-22 | 乐聚(深圳)机器人技术有限公司 | 一种物流机器人及物流机器人*** |
CN114077243A (zh) * | 2020-08-07 | 2022-02-22 | 上海联影医疗科技股份有限公司 | 一种医疗辅助设备的运动控制方法和*** |
CN114503042A (zh) * | 2019-08-07 | 2022-05-13 | 波士顿动力公司 | 导航移动机器人 |
CN114503043A (zh) * | 2019-08-06 | 2022-05-13 | 波士顿动力公司 | 受限移动性建图 |
CN115089051A (zh) * | 2022-04-20 | 2022-09-23 | 宜宾叙控科技有限公司 | 一种多功能扫地机器人及应用于室内清扫的网格划分方法 |
CN115167395A (zh) * | 2022-06-16 | 2022-10-11 | 北京博雅睿视科技有限公司 | 平面内的机器人移动控制方法、装置、机器人及存储介质 |
CN117146828A (zh) * | 2023-10-30 | 2023-12-01 | 网思科技股份有限公司 | 拣货路径引导方法、装置、存储介质及计算机设备 |
US11969896B2 (en) | 2018-06-21 | 2024-04-30 | Beijing Geekplus Technology Co., Ltd. | Robot scheduling and robot path control method, server and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070113939A (ko) * | 2006-05-26 | 2007-11-29 | 후지쯔 가부시끼가이샤 | 이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로판독 가능한 기록 매체 |
CN104898652A (zh) * | 2011-01-28 | 2015-09-09 | 英塔茨科技公司 | 与一个可移动的远程机器人相互交流 |
CN105751230A (zh) * | 2016-03-31 | 2016-07-13 | 纳恩博(北京)科技有限公司 | 一种路径控制方法、路径规划方法、第一设备及第二设备 |
CN105922262A (zh) * | 2016-06-08 | 2016-09-07 | 北京行云时空科技有限公司 | 机器人及其远程控制设备和方法 |
-
2017
- 2017-07-20 CN CN201710595912.1A patent/CN107515606A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070113939A (ko) * | 2006-05-26 | 2007-11-29 | 후지쯔 가부시끼가이샤 | 이동 로봇, 그 제어 방법 및 프로그램을 기록한 컴퓨터로판독 가능한 기록 매체 |
CN104898652A (zh) * | 2011-01-28 | 2015-09-09 | 英塔茨科技公司 | 与一个可移动的远程机器人相互交流 |
CN105751230A (zh) * | 2016-03-31 | 2016-07-13 | 纳恩博(北京)科技有限公司 | 一种路径控制方法、路径规划方法、第一设备及第二设备 |
CN105922262A (zh) * | 2016-06-08 | 2016-09-07 | 北京行云时空科技有限公司 | 机器人及其远程控制设备和方法 |
Cited By (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108121347A (zh) * | 2017-12-29 | 2018-06-05 | 北京三快在线科技有限公司 | 用于控制设备运动的方法、装置及电子设备 |
CN109990889B (zh) * | 2017-12-29 | 2021-06-29 | 深圳市优必选科技有限公司 | 一种录音机器人的控制方法及装置 |
CN109990889A (zh) * | 2017-12-29 | 2019-07-09 | 深圳市优必选科技有限公司 | 一种录音机器人的控制方法及装置 |
WO2019136808A1 (zh) * | 2018-01-15 | 2019-07-18 | 深圳市沃特沃德股份有限公司 | 机器人移动方法、机器人移动装置、扫地机器人 |
CN110147091B (zh) * | 2018-02-13 | 2022-06-28 | 深圳市优必选科技有限公司 | 机器人运动控制方法、装置及机器人 |
CN110147091A (zh) * | 2018-02-13 | 2019-08-20 | 深圳市优必选科技有限公司 | 机器人运动控制方法、装置及机器人 |
CN110293554A (zh) * | 2018-03-21 | 2019-10-01 | 北京猎户星空科技有限公司 | 机器人的控制方法、装置和*** |
CN108759822B (zh) * | 2018-04-12 | 2021-04-30 | 江南大学 | 一种移动机器人3d定位*** |
CN108759822A (zh) * | 2018-04-12 | 2018-11-06 | 江南大学 | 一种移动机器人3d定位*** |
CN110398954A (zh) * | 2018-04-24 | 2019-11-01 | 北京京东尚科信息技术有限公司 | 一种路径规划、存储方法及其装置 |
WO2019223159A1 (zh) * | 2018-05-23 | 2019-11-28 | 平安科技(深圳)有限公司 | 控制无人设备直播的方法、装置、计算机设备及存储介质 |
CN108805928B (zh) * | 2018-05-23 | 2023-04-18 | 平安科技(深圳)有限公司 | 控制无人设备直播的方法、装置、计算机设备及存储介质 |
CN108805928A (zh) * | 2018-05-23 | 2018-11-13 | 平安科技(深圳)有限公司 | 控制无人设备直播的方法、装置、计算机设备及存储介质 |
US11969896B2 (en) | 2018-06-21 | 2024-04-30 | Beijing Geekplus Technology Co., Ltd. | Robot scheduling and robot path control method, server and storage medium |
CN108958241A (zh) * | 2018-06-21 | 2018-12-07 | 北京极智嘉科技有限公司 | 机器人路径的控制方法、装置、服务器和存储介质 |
CN112601693A (zh) * | 2018-09-06 | 2021-04-02 | 大众汽车股份公司 | 用于监测和规划交通工具的运动的方案 |
CN112601693B (zh) * | 2018-09-06 | 2023-04-18 | 大众汽车股份公司 | 用于监测和规划交通工具的运动的方案 |
US11934188B2 (en) | 2018-09-06 | 2024-03-19 | Volkswagen Aktiengesellschaft | Monitoring and planning a movement of a transportation device |
CN111103875B (zh) * | 2018-10-26 | 2021-12-03 | 科沃斯机器人股份有限公司 | 避让的方法、设备及存储介质 |
CN111103875A (zh) * | 2018-10-26 | 2020-05-05 | 科沃斯机器人股份有限公司 | 避让的方法、设备及存储介质 |
CN109725580A (zh) * | 2019-01-17 | 2019-05-07 | 深圳市锐曼智能装备有限公司 | 机器人的远程控制方法 |
CN111457923B (zh) * | 2019-01-22 | 2022-08-12 | 北京京东乾石科技有限公司 | 路径规划方法、装置及存储介质 |
CN111457923A (zh) * | 2019-01-22 | 2020-07-28 | 北京京东尚科信息技术有限公司 | 路径规划方法、装置及存储介质 |
CN114503043A (zh) * | 2019-08-06 | 2022-05-13 | 波士顿动力公司 | 受限移动性建图 |
CN114503042A (zh) * | 2019-08-07 | 2022-05-13 | 波士顿动力公司 | 导航移动机器人 |
CN110909585B (zh) * | 2019-08-15 | 2022-09-06 | 纳恩博(常州)科技有限公司 | 一种路线确定方法、可行进设备、和存储介质 |
CN110909585A (zh) * | 2019-08-15 | 2020-03-24 | 北京致行慕远科技有限公司 | 一种路线确定方法、可行进设备、和存储介质 |
CN110897557A (zh) * | 2019-12-05 | 2020-03-24 | 西安广源机电技术有限公司 | 一种扫地机器人*** |
CN111208738A (zh) * | 2020-01-17 | 2020-05-29 | 上海高仙自动化科技发展有限公司 | 控制器、智能机器人及智能机器人*** |
CN111319041A (zh) * | 2020-01-17 | 2020-06-23 | 深圳市优必选科技股份有限公司 | 一种机器人位姿确定方法、装置、可读存储介质及机器人 |
CN111309024A (zh) * | 2020-03-04 | 2020-06-19 | 北京小狗智能机器人技术有限公司 | 基于实时视觉数据的机器人定位导航方法及装置 |
CN111624997A (zh) * | 2020-05-12 | 2020-09-04 | 珠海市一微半导体有限公司 | 基于tof摄像模块的机器人控制方法、***及机器人 |
CN111625001B (zh) * | 2020-05-28 | 2024-02-02 | 珠海格力智能装备有限公司 | 机器人的控制方法及装置、工业机器人 |
CN111625001A (zh) * | 2020-05-28 | 2020-09-04 | 珠海格力智能装备有限公司 | 机器人的控制方法及装置、工业机器人 |
CN111752161A (zh) * | 2020-06-18 | 2020-10-09 | 格力电器(重庆)有限公司 | 一种电器控制方法、***及存储介质 |
CN111752161B (zh) * | 2020-06-18 | 2023-06-30 | 格力电器(重庆)有限公司 | 一种电器控制方法、***及存储介质 |
CN111872935A (zh) * | 2020-06-21 | 2020-11-03 | 珠海市一微半导体有限公司 | 一种机器人控制***及其控制方法 |
CN111781924A (zh) * | 2020-06-21 | 2020-10-16 | 珠海市一微半导体有限公司 | 一种基于割草机器人的越界控制***及其越界控制方法 |
CN114077243A (zh) * | 2020-08-07 | 2022-02-22 | 上海联影医疗科技股份有限公司 | 一种医疗辅助设备的运动控制方法和*** |
CN114077243B (zh) * | 2020-08-07 | 2023-12-05 | 上海联影医疗科技股份有限公司 | 一种医疗辅助设备的运动控制方法和*** |
CN112329530A (zh) * | 2020-09-30 | 2021-02-05 | 北京航空航天大学 | 支架的安装状态检测方法、设备及*** |
CN112329530B (zh) * | 2020-09-30 | 2023-03-21 | 北京航空航天大学 | 支架的安装状态检测方法、设备及*** |
CN112613469A (zh) * | 2020-12-30 | 2021-04-06 | 深圳市优必选科技股份有限公司 | 目标对象的运动控制方法及相关设备 |
CN112613469B (zh) * | 2020-12-30 | 2023-12-19 | 深圳市优必选科技股份有限公司 | 目标对象的运动控制方法及相关设备 |
CN112806905A (zh) * | 2020-12-31 | 2021-05-18 | 广州极飞科技股份有限公司 | 用于多设备协同作业的方法、装置、无人机及扫地机器人 |
CN113070882A (zh) * | 2021-04-28 | 2021-07-06 | 北京格灵深瞳信息技术股份有限公司 | 检修机器人控制***、方法、装置和电子设备 |
CN113362709A (zh) * | 2021-05-31 | 2021-09-07 | 南京信息工程大学 | 一种移动机器人式指示牌*** |
CN113534810A (zh) * | 2021-07-22 | 2021-10-22 | 乐聚(深圳)机器人技术有限公司 | 一种物流机器人及物流机器人*** |
CN115089051A (zh) * | 2022-04-20 | 2022-09-23 | 宜宾叙控科技有限公司 | 一种多功能扫地机器人及应用于室内清扫的网格划分方法 |
CN115167395A (zh) * | 2022-06-16 | 2022-10-11 | 北京博雅睿视科技有限公司 | 平面内的机器人移动控制方法、装置、机器人及存储介质 |
CN117146828A (zh) * | 2023-10-30 | 2023-12-01 | 网思科技股份有限公司 | 拣货路径引导方法、装置、存储介质及计算机设备 |
CN117146828B (zh) * | 2023-10-30 | 2024-03-19 | 网思科技股份有限公司 | 拣货路径引导方法、装置、存储介质及计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107515606A (zh) | 机器人实现方法、控制方法及机器人、电子设备 | |
US20210287455A1 (en) | Fusion method for movements of teacher in teaching scene | |
CN103996322B (zh) | 一种基于增强现实的焊接操作训练模拟方法及*** | |
WO2015180497A1 (zh) | 一种基于立体视觉的动作采集和反馈方法及*** | |
CN107478214A (zh) | 一种基于多传感器融合的室内定位方法及*** | |
US20110087371A1 (en) | Responsive control method and system for a telepresence robot | |
US20080267450A1 (en) | Position Tracking Device, Position Tracking Method, Position Tracking Program and Mixed Reality Providing System | |
US20100149337A1 (en) | Controlling Robotic Motion of Camera | |
CN105931263A (zh) | 一种目标跟踪方法及电子设备 | |
CN104391578B (zh) | 一种三维影像的实时手势操控方法 | |
CN107253192A (zh) | 一种基于Kinect的无标定人机交互控制***及方法 | |
JP2013061937A (ja) | ステレオカメラ及びステレオディスプレイを組み合わせたやり取り | |
JPH09153146A (ja) | 仮想空間表示方法 | |
US10606241B2 (en) | Process planning apparatus based on augmented reality | |
CN106454311A (zh) | 一种led三维成像***及方法 | |
CN105797378A (zh) | 一种基于虚拟现实技术的游戏视频实现方法 | |
CN112634318A (zh) | 一种水下维修机器人的遥操作***和方法 | |
CN109062407A (zh) | 基于vr技术的远程移动终端三维显控***和方法 | |
WO2020218368A1 (ja) | 運動用設備 | |
EP3913478A1 (en) | Systems and methods for facilitating shared rendering | |
Almeida et al. | Be the robot: Human embodiment in tele-operation driving tasks | |
CN105824417A (zh) | 一种采用虚拟现实技术的人与物的结合方法 | |
CN108830944A (zh) | 光学透视式三维近眼显示***及显示方法 | |
CN108115671A (zh) | 基于3d视觉传感器的双臂机器人控制方法及*** | |
JPH11338532A (ja) | 教示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 100192 Block B, Building 1, Tiandi Adjacent to Maple Industrial Park, No. 1, North Yongtaizhuang Road, Haidian District, Beijing Applicant after: BEIJING DEEPGLINT INFORMATION TECHNOLOGY CO., LTD. Address before: 100192 8-storey South of Building 20, Aubei Science Park, No. 1 Baosheng South Road, Haidian District, Beijing Applicant before: BEIJING DEEPGLINT INFORMATION TECHNOLOGY CO., LTD. |
|
CB02 | Change of applicant information | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171226 |
|
RJ01 | Rejection of invention patent application after publication |