CN109917786A - 一种面向复杂环境作业的机器人感知***及***运行方法 - Google Patents
一种面向复杂环境作业的机器人感知***及***运行方法 Download PDFInfo
- Publication number
- CN109917786A CN109917786A CN201910109167.4A CN201910109167A CN109917786A CN 109917786 A CN109917786 A CN 109917786A CN 201910109167 A CN201910109167 A CN 201910109167A CN 109917786 A CN109917786 A CN 109917786A
- Authority
- CN
- China
- Prior art keywords
- robot
- module
- camera
- mechanical arm
- tracking control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种面向复杂环境作业的机器人感知***及***运行方法,包括至少一个以上激光雷达、至少一个以上双目视觉相机、至少一个以上机械臂手眼相机、至少一个以上惯性测量单元(IMU),旨在完成后续规划的月球或火星基地建设及星表服务工作,本发明具备在凹凸不平的松散沙土地面、水泥地面、草地等地貌条件下的稳定行走与转向能力,具有自主导航、避障、越障及路径规划能力,具备针对特定观测目标开展精细化操作的能力,具备满载条件下的构型保持、行走转向及起蹲能力,具备抗外界冲击扰动能力,具备机器人姿态测量功能,具备无线通信功能。
Description
技术领域
本发明涉及移动机器人技术,是一种面向复杂环境作业的机器人感知***及***运行方法,具体是一种三维重建、自主定位与路径规划的感知***及***运行方法,具备全自主漫游、精细化操作以及高度智能化的特点。
背景技术
我国后续深空探测任务对空间机器人的未来发展方向提出了全自主漫游、精细化操作以及高度智能化等明确要求,针对上述需求,研制一套轻量化、集成度高、移动能力强、具备精细化操作能力的空间智能星表探测机器人,旨在完成后续规划的月球或火星基地建设及星表服务工作,具体包括基地的建设、科学仪器设备的操作、基础设施的维护、月球资源利用等。
智能星表探测机器人主要是是一种集高效移动、智能操作、多机协同等功能为一体的综合型智能化机器人,可自主适应复杂多变的行星表面环境,独立完成诸如星表巡视探测、货物搬运、设备拆装维护等复杂工作。
机器人感知***作为智能星表探测机器人的重要组成部分,主要承担了复杂环境智能感知、三维地图构建、机器人自定位、视觉导航路径规划、多传感器信息融合以及特定观测目标三维位姿测量等一系列空间任务。
发明内容
为了克服现有技术的不足,本发明的目的在于提供一种面向复杂环境作业的机器人三维重建、自主定位与路径规划的机器人感知***及***运行方法,本发明是通过以下技术方案来实现的:
本发明公开了一种面向复杂环境作业的机器人感知***,包括至少一个以上激光雷达、至少一个以上双目视觉相机、至少一个以上机械臂手眼相机、至少一个以上惯性测量单元(IMU),包含有视觉软件运行的***环境的视觉控制器以及至少一个以上的遥操作计算机,激光雷达、双目视觉相机、机械臂手眼相机、惯性测量单元均与视觉控制器有线连接,所述的遥操作计算机与视觉控制器信号连接。
作为进一步地改进,本发明所述的机器人感知***可以应用于轮式智能星表探测机器人,足式智能星表探测机器人等,不限定机器人类型。
作为进一步地改进,本发明所述的激光雷达固定在机器人本体头部,其水平方向无遮挡,用于机器人周围中远距离的环境感知;
作为进一步地改进,本发明所述的双目视觉相机固定在机器人本体头部,用于机器人行进方向中近距离的环境感知;
作为进一步地改进,本发明所述的机械臂手眼相机固定在机器人本体机械臂的末端,用于特定观测目标的三维位姿测量,引导机械臂末端执行器完成精细化操作,机械臂固定在机器人本体上,用于进行物体的抓取;
作为进一步地改进,本发明所述的IMU固定在机器人本体的头部,紧靠双目视觉相机,用于测量机器人本体的姿态角;
作为进一步地改进,本发明所述的视觉控制器固定在机器人本体的背部,用于接收感知子***内部所有传感器实时采集的图像与数据,完成图像处理、多源信息融合、障碍物检测、三维地图构建、机器人自定位、路径规划以及观测目标的三维测量,实现与上述各传感器、机械臂控制器以及遥操作计算机之间的数据通信。
作为进一步地改进,本发明所述的遥操作计算机固定放置于机器人本体之外的遥操作平台区域,用于接收视觉控制器发送的遥测数据,完成机器人自定位、三维地图、路径规划等信息的可视化以及感知子***运行状态的显示,实现与运动控制器之间的数据通信;所述的运动控制器用于控制机器人在空间中移动,所述的运动控制器与视觉控制器信号连接。
作为进一步地改进,本发明包括如下组成模块:多传感器标定模块、机器人建图与定位模块、机器人感知模块、机器人导航模块、合作检测模块、非规则样本重建模块。
作为进一步地改进,本发明所述的多传感器标定模块、机器人建图与定位模块、机器人感知模块、机器人导航模块、合作检测模块、非规则样本重建模块均与遥操作计算机信号连接。
作为进一步地改进,本发明所述的多传感器标定模块是多传感器信息融合使用的前提,用于标定各传感器之间的相对位姿;
所述的机器人建图与定位模块用于支撑机器人的实时位置反馈和与操纵员的人机交互,实现机器人对目标的方位测算;
所述的机器人感知模块是机器人对自身周围环境的实时感知,用于判断障碍物的参数,确定可行和不可行区域;
所述的机器人导航模块是基于前两者,实现机器人的无碰撞路径计算,从而指导机器人行走;
所述的合作检测模块和非规则样本重建模块是对机器人作业对象的测算,从而指导机械臂进行运动。
作为进一步地改进,本发明为了构建机器人建图与定位模块,在机器人顶部安装了激光雷达与IMU;为了构建机器人感知模块与机器人导航模块,建立局部栅格地图,检测障碍物,在机器人前部安装深度相机;为了构建合作检测模块和非规则样本重建模块,在机械臂手部安装双目相机;对于图像可视化任务,在机器人前部安装前视双目相机。
本发明还公开了一种面向复杂环境作业的机器人感知***,***运行方法是:多传感器标定模块是多传感器信息融合使用的前提,激光雷达、双目视觉相机、机械臂手眼相机、惯性测量单元在使用前都需进行多传感器标定;在机器人建图与定位模块,机器人运动过程中根据双目相机提供的彩色图像实时进行机器人定位;之后通过融合深度相机和激光信息,完成栅格地图的构建,实现机器人建图;在机器人感知模块与机器人导航模块中,借助全局的栅格地图,根据激光提供的点云数据与IMU提供的加速度、角速度得到机器人当前位置,之后人为给定目标点,进行机器人路径规划;在合作检测模块和非规则样本重建模块,通过机械臂手眼相机提供的图像重建出公共视野内的障碍物,并通过机械臂进行抓取。
作为进一步地改进,本发明为了构建机器人建图与定位模块,在机器人顶部安装了激光雷达与IMU;为了构建机器人感知模块与机器人导航模块,建立局部栅格地图,检测障碍物,在机器人前部安装深度相机;为了构建合作检测模块和非规则样本重建模块,在机械臂手部安装双目相机;对于图像可视化任务,在机器人前部安装前视双目相机。
相比现有技术,本发明的有益效果在于:
本发明公开了一种面向复杂环境作业的机器人三维重建、自主定位与路径规划的机器人感知***及***运行方法,是一套轻量化、集成度高、移动能力强、具备精细化操作能力的空间智能机器人感知***,旨在完成后续规划的月球或火星基地建设及星表服务工作,具体包括基地的建设、科学仪器设备的操作、基础设施的维护、月球资源利用等,本发明具备在凹凸不平的松散沙土(沙石)地面、水泥地面、草地等地貌条件下的稳定行走与转向能力,具有自主导航、避障、越障及路径规划能力,具备针对特定观测目标(含静态、运动)开展精细化操作的能力,具备满载(30kg)条件下的构型保持、行走转向及起蹲能力,具备抗外界冲击扰动(横向除外)能力,具备机器人姿态测量功能,具备无线通信功能。
本发明方法的优势在于:
结合本发明的空间探测任务和功能需求,如大范围的三维环境重建和自由回访的特点,可以看出本发明和目前国内外普遍采用的机器人感知***既有类似之处,也有不同的地方。其中大范围的三维环境重建和自由回访,决定了机器人的传感器选型必须进一步满足大视角和长期鲁棒性要求,这一点激光雷达传感器相比于视觉有一定的优势。并且考虑到目前视觉导航已经暴露出来的一些技术瓶颈,以及相应的解决方案并没有显著的替代趋势,所以本发明采用激光雷达的导航方式更符合对未来星表机器人的技术探索。并且该传感器无论在尺寸还是在技术上,相比于任一种激光相机方法都要更加成熟。同时考虑到无人驾驶的发展,该传感器的成熟速度将比其他的技术更快。
局部环境感知方面几乎所有的工作都高度依赖双目的深度恢复,以及双目的朝向。结合激光传感器,可以不需要解决远场大基线双目的环境重构问题,因为激光已经能够提供足够远的视野和深度重建。这也在现在的无人驾驶应用中得到了验证。因此主要的传感器选型和采用的技术可以参考近距离短基线的双目或深度相机,实现对机器人前方小片区域的准确地形重构。这样就可以更好的将远场和近场的栅格地图融合到一起。
路径规划方面,考虑到足式机器人比轮式机器人有更大的运动自由度,所以不需要考虑比较复杂的运动元模型,但考虑到足式机器人的构型呈明显的长方体,所以如果在比较狭窄的室内空间中进行移动,仍需要借助三维的路径规划算法,充分考虑机器人的本体朝向,实现对狭窄地形的穿越。另一方面,也同样借助全局导航和局部导航解耦的方式,实现对给定区域的地图重建和回访,同时保证局部的路径规划和停障避障。
此外,考虑到本发明的机器人还有手臂进行控制,这在目前相关的星表探索机器人中还不多见,所以少有发明提及。根据发明的需求,考虑到合作目标和非合作目标的特性在星表和在地表整体相同。所以主要将采用地表的机械臂视觉位置伺服技术,实现对两类目标的位置检测和反馈,引导机械臂进行正确的操作。
本发明具有复杂环境智能感知、三维地图构建、机器人自定位、视觉导航路径规划、多传感器信息融合以及特定观测目标三维位姿测量等功能。
附图说明
图1为本发明方法的***硬件安装图;
图2为本发明的各算法模块信息流;
图3为本发明的***供配电接口;
图1中,1是机器人本体,2是激光雷达,3是视觉双目相机左目,4是视觉双目相机右目,5是IMU,6是深度相机,7是机械臂手眼相机左目,8是机械臂手眼相机右目,9是视觉控制器。
具体实施方式
下面,结合说明书附图以及具体实施方式,对本发明的技术方案作进一步地描述:图1为本发明方法的***硬件安装图;包括一个机器人本体1、一个激光雷达2、视觉双目相机左目3和视觉双目相机右目4、机械臂手眼相机左目7和机械臂手眼相机右目8、一个惯性测量单元(IMU5)、一个深度相机6、包含有视觉软件运行的***环境的视觉控制器9以及至少一个以上的遥操作计算机,激光雷达2固定在机器人本体1头部,要求水平方向无遮挡,用于机器人周围中远距离的环境感知;双目视觉相机固定在机器人本体1头部,用于机器人行进方向中近距离的环境感知;机械臂手眼相机固定在机械臂末端,用于特定观测目标的三维位姿测量,引导机械臂末端执行器完成精细化操作;机械臂固定在机器人本体1上,用于进行物体的抓取;IMU5固定在机器人本体1头部,紧靠双目视觉相机,用于测量机器人本体1的姿态角;视觉控制器9固定在机器人本体1背部,接收感知子***内部所有传感器实时采集的图像与数据,完成图像处理、多源信息融合、障碍物检测、三维地图构建、机器人自定位、路径规划以及观测目标的三维测量等,实现与上述各传感器、机械臂控制器以及遥操作计算机之间的数据通信;遥操作计算机固定放置于机器人本体1之外的遥操作平台区域,接收视觉控制器9发送的遥测数据,完成机器人自定位、三维地图、路径规划等信息的可视化以及感知子***运行状态的显示,实现与运动控制器之间的数据通信;运动控制器用于控制机器人在空间中移动。
本发明所述的面向复杂环境作业的机器人感知***,包括如下组成模块:多传感器标定模块、机器人建图与定位模块、机器人感知模块、机器人导航模块、合作检测模块、非规则样本重建模块;多传感器标定模块、机器人建图与定位模块、机器人感知模块、机器人导航模块、合作检测模块、非规则样本重建模块均与遥操作计算机信号连接。
多传感器标定模块是多传感器信息融合使用的前提,用于标定各传感器之间的相对位姿;机器人建图与定位模块用于支撑机器人的实时位置反馈和与操纵员的人机交互,实现机器人对目标的方位测算;机器人感知模块是机器人对自身周围环境的实时感知,用于判断障碍物的参数,确定可行和不可行区域;机器人导航模块是基于前两者,实现机器人的无碰撞路径计算,从而指导机器人行走;合作检测模块和非规则样本重建模块是对机器人作业对象的测算,从而指导机械臂进行运动。为了构建机器人建图与定位模块,在机器人顶部安装了激光雷达2与IMU5;为了构建机器人感知模块与机器人导航模块,建立局部栅格地图,检测障碍物,在机器人前部安装深度相机6;为了构建合作检测模块和非规则样本重建模块,在机械臂手部安装双目相机;对于图像可视化任务,在机器人前部安装前视双目相机。
本发明还公开了一种面向复杂环境作业的机器人感知***,***运行方法是:多传感器标定模块是多传感器信息融合使用的前提,激光雷达2、双目视觉相机、机械臂手眼相机、惯性测量单元在使用前都需进行多传感器标定;在机器人建图与定位模块,机器人运动过程中根据双目相机提供的彩色图像实时进行机器人定位;之后通过融合深度相机6和激光信息,完成栅格地图的构建,实现机器人建图;在机器人感知模块与机器人导航模块中,借助全局的栅格地图,根据激光提供的点云数据与IMU5提供的加速度、角速度得到机器人当前位置,之后人为给定目标点,进行机器人路径规划;在合作检测模块和非规则样本重建模块,通过机械臂手眼相机提供的图像重建出公共视野内的障碍物,并通过机械臂进行抓取。
图2为本发明的各算法模块信息流;算法分为驱动层和算法层。其中驱动层的主要作用是获取激光雷达2、双目视觉相机、机械臂手眼相机、惯性测量单元采集的数据并送入算法层,算法层由传感器标定模块、机器人建图与定位模块、机器人感知模块、机器人导航模块、合作检测模块、非规则样本重建模块组成;多传感器标定模块是多传感器信息融合使用的前提,激光雷达2、双目视觉相机、机械臂手眼相机、惯性测量单元在使用前都需进行多传感器标定;在机器人建图与定位模块,机器人运动过程中根据双目相机提供的彩色图像实时进行机器人定位;之后通过融合激光信息,完成栅格地图的构建,实现机器人建图;在机器人感知模块与机器人导航模块中,借助全局的栅格地图,根据激光提供的点云数据与IMU5提供的加速度、角速度得到机器人当前位置,之后人为给定目标点,进行机器人路径规划;在合作检测模块和非规则样本重建模块,通过机械臂手眼相机提供的图像重建出公共视野内的石块,并通过机械臂进行抓取。非规则样本重建的作用是渲染图像,重建出视野中的物体。合作检测的作用是检测出视野中的障碍物,如斜坡、沟壑、高台、梯子等。
图3为本发明的***供配电接口。激光雷达2、双目视觉相机、机械臂手眼相机、惯性测量单元都与视觉控制器9有线连接,由视觉控制器9统一供电;具体的供电接口类型如图3所示,视觉控制器9还与电源子***、显示器、键盘、鼠标有线连接,并分别完成供电、显示、控制等操作,遥操作计算机、运动控制器分别与视觉控制器9信号连接,遥操作计算机接受视觉控制器9传输的信号,处理之后发送给运动控制器,由运动控制器具体控制机器人进行运动。
最后,还需要注意的是,以上列举的仅是本发明的1个具体实施例。显然,本发明不限于以上实施例,还可以有许多变形。本领域的普通技术人员能从本发明公开的内容直接导出或联想到的所有变形,均应认为是本发明的保护范围。
Claims (9)
1.一种面向复杂环境作业的机器人感知***,其特征在于,包括至少一个以上激光雷达(2)、至少一个以上双目视觉相机(3)(4)、至少一个以上机械臂手眼相机(7)(8)、至少一个以上惯性测量单元IMU(5),包含有视觉软件运行的***环境的视觉控制器(9)以及至少一个以上的遥操作计算机,所述的激光雷达(2)、双目视觉相机(3)(4)、机械臂手眼相机(7)(8)、惯性测量单元(5)均与视觉控制器(9)有线连接,所述的遥操作计算机与视觉控制器(9)信号连接。
2.根据权利要求1所述的面向复杂环境作业的机器人感知***,其特征在于,所述的机器人感知***可以应用于轮式智能星表探测机器人,足式智能星表探测机器人等,不限定机器人类型。
3.根据权利要求1所述的面向复杂环境作业的机器人感知***,其特征在于,所述的激光雷达(2)固定在机器人本体(1)头部,其水平方向无遮挡,用于机器人周围中远距离的环境感知;
所述的双目视觉相机(3)(4)固定在机器人本体(1)头部,用于机器人行进方向中近距离的环境感知;
所述的机械臂手眼相机(7)(8)固定在机器人本体(1)机械臂的末端,用于特定观测目标的三维位姿测量,引导机械臂末端执行器完成精细化操作,所述的机械臂固定在机器人本体(1)上,用于进行物体的抓取;
所述的IMU(5)固定在机器人本体(1)的头部,紧靠双目视觉相机,用于测量机器人本体(1)的姿态角;
所述的视觉控制器(9)固定在机器人本体(1)的背部,用于接收感知子***内部所有传感器实时采集的图像与数据,完成图像处理、多源信息融合、障碍物检测、三维地图构建、机器人自定位、路径规划以及观测目标的三维测量,实现与上述各传感器、机械臂控制器以及遥操作计算机之间的数据通信;
所述的遥操作计算机固定放置于机器人本体(1)之外的遥操作平台区域,用于接收视觉控制器(9)发送的遥测数据,完成机器人自定位、三维地图、路径规划等信息的可视化以及感知子***运行状态的显示。
4.根据权利要求1或3所述的面向复杂环境作业的机器人感知***,其特征在于,包括如下组成模块:多传感器标定模块、机器人建图与定位模块、机器人感知模块、机器人导航模块、合作检测模块、非规则样本重建模块。
5.根据权利要求4所述的面向复杂环境作业的机器人感知***,其特征在于,所述的多传感器标定模块、机器人建图与定位模块、机器人感知模块、机器人导航模块、合作检测模块、非规则样本重建模块均与遥操作计算机信号连接。
6.根据权利要求5所述的面向复杂环境作业的机器人感知***,其特征在于:
所述的多传感器标定模块是多传感器信息融合使用的前提,用于标定各传感器之间的相对位姿;
所述的机器人建图与定位模块用于支撑机器人的实时位置反馈和与操纵员的人机交互,实现机器人对目标的方位测算;
所述的机器人感知模块是机器人对自身周围环境的实时感知,用于判断障碍物的参数,确定可行和不可行区域;
所述的机器人导航模块是基于前两者,实现机器人的无碰撞路径计算,从而指导机器人行走;
所述的合作检测模块和非规则样本重建模块是对机器人作业对象的测算,从而指导机械臂进行运动。
7.根据权利要求5或6所述的面向复杂环境作业的机器人感知***,其特征在于,为了构建机器人建图与定位模块,在机器人顶部安装了激光雷达(2)与IMU(5);为了构建机器人感知模块与机器人导航模块,建立局部栅格地图,检测障碍物,在机器人前部安装深度相机(6);为了构建合作检测模块和非规则样本重建模块,在机械臂手部安装双目相机(7)(8);对于图像可视化任务,在机器人前部安装前视双目相机(3)(4)。
8.一种如权利要求1或2或4或5所述的面向复杂环境作业的机器人感知***的运行方法,其特征在于,多传感器标定模块是多传感器信息融合使用的前提,所述的激光雷达(2)、双目视觉相机(3)(4)、机械臂手眼相机(7)(8)、惯性测量单元(5)在使用前都需进行多传感器标定;在机器人建图与定位模块,机器人运动过程中根据双目相机提供的彩色图像实时进行机器人定位;之后通过融合深度相机(6)和激光(2)信息,完成栅格地图的构建,实现机器人建图;在机器人感知模块与机器人导航模块中,借助全局的栅格地图,根据激光提供的点云数据与IMU(5)提供的加速度、角速度得到机器人当前位置,之后人为给定目标点,进行机器人路径规划;在合作检测模块和非规则样本重建模块,通过机械臂手眼相机(7)(8)提供的图像重建出公共视野内的障碍物,并通过机械臂进行抓取。
9.如权利要求8所述的面向复杂环境作业的机器人感知***的运行方法,其特征在于,为了构建机器人建图与定位模块,在机器人顶部安装了激光雷达(2)与IMU(5);为了构建机器人感知模块与机器人导航模块,建立局部栅格地图,检测障碍物,在机器人前部安装深度相机(6);为了构建合作检测模块和非规则样本重建模块,在机械臂手部安装双目相机(7)(8);对于图像可视化任务,在机器人前部安装前视双目相机(3)(4)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910109167.4A CN109917786A (zh) | 2019-02-04 | 2019-02-04 | 一种面向复杂环境作业的机器人感知***及***运行方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910109167.4A CN109917786A (zh) | 2019-02-04 | 2019-02-04 | 一种面向复杂环境作业的机器人感知***及***运行方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109917786A true CN109917786A (zh) | 2019-06-21 |
Family
ID=66961439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910109167.4A Pending CN109917786A (zh) | 2019-02-04 | 2019-02-04 | 一种面向复杂环境作业的机器人感知***及***运行方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109917786A (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110764110A (zh) * | 2019-11-12 | 2020-02-07 | 深圳创维数字技术有限公司 | 路径导航方法、装置及计算机可读存储介质 |
CN110849351A (zh) * | 2019-11-21 | 2020-02-28 | 大连理工大学 | 一种利用深度相机和双目相机构建栅格地图的方法 |
CN111123911A (zh) * | 2019-11-22 | 2020-05-08 | 北京空间飞行器总体设计部 | 一种腿足式智能星表探测机器人感知***及其工作方法 |
CN111174765A (zh) * | 2020-02-24 | 2020-05-19 | 北京航天飞行控制中心 | 基于视觉引导的行星车目标探测控制方法及装置 |
CN111531549A (zh) * | 2020-06-18 | 2020-08-14 | 北京海益同展信息科技有限公司 | 一种机器人***及定位导航方法 |
CN112276975A (zh) * | 2020-10-30 | 2021-01-29 | 北京市安全生产科学技术研究院 | 一种面向复杂环境的大载荷应急救援机器人控制*** |
CN112405489A (zh) * | 2020-10-16 | 2021-02-26 | 国网上海市电力公司 | 一种视听觉协同的电力应急机器人及作业方法 |
CN112765299A (zh) * | 2021-01-26 | 2021-05-07 | 中国科学院西北生态环境资源研究院 | 非规则栅格数据的可视化方法、装置、电子设备、存储介质 |
CN113084809A (zh) * | 2021-04-06 | 2021-07-09 | 泰州左岸信息科技有限公司 | 双目3d感知的工业ai关键技术 |
WO2021147546A1 (zh) * | 2020-01-20 | 2021-07-29 | 深圳市普渡科技有限公司 | 多传感器融合slam***、多传感器融合方法及机器人、介质 |
CN113199454A (zh) * | 2021-06-22 | 2021-08-03 | 北京航空航天大学 | 一种轮式移动智能物流作业机器人*** |
CN113211447A (zh) * | 2021-05-27 | 2021-08-06 | 山东大学 | 一种基于双向rrt*算法的机械臂实时感知规划方法及*** |
CN114104139A (zh) * | 2021-09-28 | 2022-03-01 | 北京炎凌嘉业机电设备有限公司 | 一种仿生足式机器人步足平台融合越障及自主跟随*** |
CN114659556A (zh) * | 2022-03-03 | 2022-06-24 | 中国科学院计算技术研究所 | 一种面向巡视器的可分离式星表材质识别方法及*** |
CN114715363A (zh) * | 2022-04-02 | 2022-07-08 | 浙江大学 | 海底地层空间钻进机器人导航方法、***及电子设备 |
CN115778427A (zh) * | 2022-11-18 | 2023-03-14 | 北京航空航天大学 | 一种多模式医用超声检测机器人与操作方法 |
CN115914778A (zh) * | 2022-12-09 | 2023-04-04 | 南京理工大学 | 一种蛇形机械臂末端的视觉与接近觉融合感知*** |
CN117863190A (zh) * | 2024-03-08 | 2024-04-12 | 广州小鹏汽车科技有限公司 | 足式机器人的移动控制方法及足式机器人 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102037326A (zh) * | 2008-07-31 | 2011-04-27 | 电子地图有限公司 | 以3d显示导航数据的方法 |
CN104156972A (zh) * | 2014-08-25 | 2014-11-19 | 西北工业大学 | 基于激光扫描测距仪与多相机融合的透视成像方法 |
CN104476549A (zh) * | 2014-11-20 | 2015-04-01 | 北京卫星环境工程研究所 | 基于视觉测量的机械臂运动路径补偿方法 |
CN104933708A (zh) * | 2015-06-07 | 2015-09-23 | 浙江大学 | 一种基于多谱三维特征融合的植被环境中障碍物检测方法 |
CN106646508A (zh) * | 2016-11-24 | 2017-05-10 | 中国科学院自动化研究所 | 面向斜坡区域的基于多线激光雷达的斜坡角度估计方法 |
US20180051991A1 (en) * | 2016-08-17 | 2018-02-22 | Sharp Laboratories Of America, Inc. | Lazier graph-based path planning for autonomous navigation |
CN207206431U (zh) * | 2017-09-27 | 2018-04-10 | 哈工大机器人(合肥)国际创新研究院 | 一种移动机器人控制器 |
CN108710376A (zh) * | 2018-06-15 | 2018-10-26 | 哈尔滨工业大学 | 基于多传感器融合的slam与避障的移动底盘 |
CN108776474A (zh) * | 2018-05-24 | 2018-11-09 | 中山赛伯坦智能科技有限公司 | 集成高精度导航定位与深度学习的机器人嵌入式计算终端 |
-
2019
- 2019-02-04 CN CN201910109167.4A patent/CN109917786A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102037326A (zh) * | 2008-07-31 | 2011-04-27 | 电子地图有限公司 | 以3d显示导航数据的方法 |
CN104156972A (zh) * | 2014-08-25 | 2014-11-19 | 西北工业大学 | 基于激光扫描测距仪与多相机融合的透视成像方法 |
CN104476549A (zh) * | 2014-11-20 | 2015-04-01 | 北京卫星环境工程研究所 | 基于视觉测量的机械臂运动路径补偿方法 |
CN104933708A (zh) * | 2015-06-07 | 2015-09-23 | 浙江大学 | 一种基于多谱三维特征融合的植被环境中障碍物检测方法 |
US20180051991A1 (en) * | 2016-08-17 | 2018-02-22 | Sharp Laboratories Of America, Inc. | Lazier graph-based path planning for autonomous navigation |
CN106646508A (zh) * | 2016-11-24 | 2017-05-10 | 中国科学院自动化研究所 | 面向斜坡区域的基于多线激光雷达的斜坡角度估计方法 |
CN207206431U (zh) * | 2017-09-27 | 2018-04-10 | 哈工大机器人(合肥)国际创新研究院 | 一种移动机器人控制器 |
CN108776474A (zh) * | 2018-05-24 | 2018-11-09 | 中山赛伯坦智能科技有限公司 | 集成高精度导航定位与深度学习的机器人嵌入式计算终端 |
CN108710376A (zh) * | 2018-06-15 | 2018-10-26 | 哈尔滨工业大学 | 基于多传感器融合的slam与避障的移动底盘 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110764110A (zh) * | 2019-11-12 | 2020-02-07 | 深圳创维数字技术有限公司 | 路径导航方法、装置及计算机可读存储介质 |
CN110764110B (zh) * | 2019-11-12 | 2022-04-08 | 深圳创维数字技术有限公司 | 路径导航方法、装置及计算机可读存储介质 |
CN110849351A (zh) * | 2019-11-21 | 2020-02-28 | 大连理工大学 | 一种利用深度相机和双目相机构建栅格地图的方法 |
CN111123911A (zh) * | 2019-11-22 | 2020-05-08 | 北京空间飞行器总体设计部 | 一种腿足式智能星表探测机器人感知***及其工作方法 |
WO2021147546A1 (zh) * | 2020-01-20 | 2021-07-29 | 深圳市普渡科技有限公司 | 多传感器融合slam***、多传感器融合方法及机器人、介质 |
CN111174765B (zh) * | 2020-02-24 | 2021-08-13 | 北京航天飞行控制中心 | 基于视觉引导的行星车目标探测控制方法及装置 |
CN111174765A (zh) * | 2020-02-24 | 2020-05-19 | 北京航天飞行控制中心 | 基于视觉引导的行星车目标探测控制方法及装置 |
CN111531549A (zh) * | 2020-06-18 | 2020-08-14 | 北京海益同展信息科技有限公司 | 一种机器人***及定位导航方法 |
WO2021254367A1 (zh) * | 2020-06-18 | 2021-12-23 | 京东科技信息技术有限公司 | 机器人***及定位导航方法 |
CN112405489A (zh) * | 2020-10-16 | 2021-02-26 | 国网上海市电力公司 | 一种视听觉协同的电力应急机器人及作业方法 |
CN112276975A (zh) * | 2020-10-30 | 2021-01-29 | 北京市安全生产科学技术研究院 | 一种面向复杂环境的大载荷应急救援机器人控制*** |
CN112765299A (zh) * | 2021-01-26 | 2021-05-07 | 中国科学院西北生态环境资源研究院 | 非规则栅格数据的可视化方法、装置、电子设备、存储介质 |
CN113084809A (zh) * | 2021-04-06 | 2021-07-09 | 泰州左岸信息科技有限公司 | 双目3d感知的工业ai关键技术 |
CN113211447A (zh) * | 2021-05-27 | 2021-08-06 | 山东大学 | 一种基于双向rrt*算法的机械臂实时感知规划方法及*** |
CN113211447B (zh) * | 2021-05-27 | 2023-10-27 | 山东大学 | 一种基于双向rrt*算法的机械臂实时感知规划方法及*** |
CN113199454A (zh) * | 2021-06-22 | 2021-08-03 | 北京航空航天大学 | 一种轮式移动智能物流作业机器人*** |
CN114104139A (zh) * | 2021-09-28 | 2022-03-01 | 北京炎凌嘉业机电设备有限公司 | 一种仿生足式机器人步足平台融合越障及自主跟随*** |
CN114659556A (zh) * | 2022-03-03 | 2022-06-24 | 中国科学院计算技术研究所 | 一种面向巡视器的可分离式星表材质识别方法及*** |
CN114659556B (zh) * | 2022-03-03 | 2024-03-12 | 中国科学院计算技术研究所 | 一种面向巡视器的可分离式星表材质识别方法及*** |
CN114715363A (zh) * | 2022-04-02 | 2022-07-08 | 浙江大学 | 海底地层空间钻进机器人导航方法、***及电子设备 |
CN115778427A (zh) * | 2022-11-18 | 2023-03-14 | 北京航空航天大学 | 一种多模式医用超声检测机器人与操作方法 |
CN115914778A (zh) * | 2022-12-09 | 2023-04-04 | 南京理工大学 | 一种蛇形机械臂末端的视觉与接近觉融合感知*** |
CN117863190A (zh) * | 2024-03-08 | 2024-04-12 | 广州小鹏汽车科技有限公司 | 足式机器人的移动控制方法及足式机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109917786A (zh) | 一种面向复杂环境作业的机器人感知***及***运行方法 | |
Gao et al. | Review of wheeled mobile robots’ navigation problems and application prospects in agriculture | |
Özaslan et al. | Inspection of penstocks and featureless tunnel-like environments using micro UAVs | |
WO2021254367A1 (zh) | 机器人***及定位导航方法 | |
CN111123911B (zh) | 一种腿足式智能星表探测机器人感知***及其工作方法 | |
CN104881027B (zh) | 轮履复合式变电站巡检机器人自主越障***及控制方法 | |
KR101695914B1 (ko) | 토공공사 수행시 굴삭기의 형상정보를 실시간 제공하는 굴삭기 3d 토공 bim 시스템 | |
CN111308490B (zh) | 基于单线激光雷达的平衡车室内定位与导航*** | |
CN112461227B (zh) | 轮式底盘机器人巡检智能化自主导航方法 | |
CN108958250A (zh) | 多传感器移动平台及基于已知地图的导航与避障方法 | |
CN108177149A (zh) | 基于mr和运动规划技术的可移动机械臂控制***及方法 | |
CN106325275A (zh) | 一种机器人导航的***、方法及装置 | |
US11340620B2 (en) | Navigating a mobile robot | |
CN113325837A (zh) | 一种用于多信息融合采集机器人的控制***及方法 | |
Li et al. | Localization and navigation for indoor mobile robot based on ROS | |
CN112518739A (zh) | 履带式底盘机器人侦察智能化自主导航方法 | |
CN106066179A (zh) | 一种基于ros操作***的机器人位置丢失找回方法和控制*** | |
KR20230035139A (ko) | 웨이포인트 매칭을 이용한 자율적 맵 주행 | |
CN214520204U (zh) | 一种基于深度相机和激光雷达的港区智能巡检机器人 | |
CN204557216U (zh) | 轮履复合式变电站巡检机器人自主越障*** | |
Balaram | Kinematic state estimation for a Mars rover | |
Chiu et al. | FUMA: environment information gathering wheeled rescue robot with one-DOF arm | |
Lamon et al. | The SmartTer-a vehicle for fully autonomous navigation and mapping in outdoor environments | |
US11746501B1 (en) | Autonomous control of operations of powered earth-moving vehicles using data from on-vehicle perception systems | |
Lamon | 3D-position tracking and control for all-terrain robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190621 |