CN112650255A - 一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法 - Google Patents
一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法 Download PDFInfo
- Publication number
- CN112650255A CN112650255A CN202011600801.3A CN202011600801A CN112650255A CN 112650255 A CN112650255 A CN 112650255A CN 202011600801 A CN202011600801 A CN 202011600801A CN 112650255 A CN112650255 A CN 112650255A
- Authority
- CN
- China
- Prior art keywords
- robot
- map
- laser radar
- indoor
- outdoor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 230000004927 fusion Effects 0.000 title claims abstract description 15
- 238000013507 mapping Methods 0.000 claims abstract description 4
- 239000002245 particle Substances 0.000 claims abstract description 4
- 230000002159 abnormal effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 101000664407 Neisseria meningitidis serogroup B (strain MC58) Surface lipoprotein assembly modifier 2 Proteins 0.000 claims description 2
- 238000005259 measurement Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 7
- 238000011160 research Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,包括以下步骤:以双目相机、2D激光雷达、超声测距传感器、6轴IMU和霍尔编码器作为环境感知单元;使用ORB‑SLAM2算法采集三维稀疏点云地图,为机器人提供位姿信息;室内环境,使用激光雷达,采用gmaping算法和粒子滤波器,建立二维地图;在室外环境,提取三维稠密点云地图中低于机器人高度空间点的平面位置,映射到二维地图。将室内外地图拼接形成完整的导航地图;集成拓展卡尔曼滤波器融合上述传感器数据,获取更为准确的位姿信息;***在接受到目标点时开始导航,使用激光雷达实时建立周边环境的动态地图,对全局路径进行修正。
Description
技术领域
本发明属于移动机器人***技术领域,尤其涉及一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法。
背景技术
随着计算机视觉、控制理论、人工智能、传感器技术等多项学科的高速发展,新技术在移动机器人领域的运用越来越广泛。智能化的移动机器人在工作环境中首先要解决自身在哪里、周围是什么样的、怎么去目的地这样三个问题,前两者是指机器人在工作环境中如何定位、如何建立地图,也就是SLAM过程,第三个问题这是机器人在运动过程中的路径规划与避障,即导航问题。在移动机器人相关技术研究中,导航技术属于其核心技术,也是实现智能化和自主移动的关键技术。而要解决导航的问题,就必须解决前两个问题。
近年来很多公司都投入到对移动机器人的研究,也让移动机器人广泛的走入人们的生产生活当中,例如京东所研发的室外无人配送机器人,石头科技的智能扫地机器人,各大港口的智能AGV叉车等。但是这些机器人的环境感知和导航设计均只能适用于室内或是室外的单一环境,难以实现机器人在室内室外环境切换时的定位导航无缝衔接。
针对以上问题,故,有必要对其进行改进。
发明内容
本发明的目的在于提供一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,克服现有技术不能满足机器人同时兼容室内室外环境自主运行,同时机器人能够在室内外环境转换时实现准确定位以及导航***的稳定运行。
为了达到以上目的,本发明所采用的技术方案是:一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,包括以下步骤:
步骤一、使用jetson xavier nx主机作为机器人的运算核心,并在其中安装ROS操作***,使用双目相机、2D激光雷达、超声测距传感器、6轴IMU和霍尔编码器作为环境感知单元;
步骤二、该***集成ORB-SLAM2算法将双目相机采集到的环境数据处理为三维稀疏点云地图,为机器人提供全局地图和位姿,并将地图数据保存在主机内;
步骤三、在室内环境,使用激光雷达,集成gmaping算法和粒子滤波器,建立二维地图。在室外环境,***集成ORB-SLAM2算法,实现三维稠密点云地图的建立,提取其中低于机器人高度空间点的平面位置,映射到二维地图。将室内外地图拼接形成完整的导航地图;
步骤四、机器人在定位时,通过双目相机采集视觉数据,启动ORB-SLAM2算法的纯定位模式反馈机器人的位置信息,将位姿信息、IMU、GPS和底层里程计信息通过拓展卡尔曼滤波器融合,获取更为准确的位姿信息;
步骤五、机器人在接受到目标点开始导航时,使用先前建立的二维地图作为导航地图进行全局路径规划,使用激光雷达实时建立周边环境的动态地图,对全局路径进行修正。
作为本发明的一种优选方案,所述步骤一中,双目相机为两颗安装在机器人前面板两侧的摄像头,激光雷达安装在机器人顶部,6轴IMU安装于机器人激光雷达下方,超声测距传感器水平安装在机器人底部四周,以及斜向下45度角安装在机器人顶部四周。
作为本发明的一种优选方案,所述步骤二中,***集成了ORB_SLAM2算法,并且在室外使用双目相机采集数据时由人工遥控,并同时开启机器人局部路径规划功能,进行必要的避障措施。
作为本发明的一种优选方案,所述步骤三中,建立的二维地图属于占据地图,通过使用像素点的色彩不同来表示可通行区域,障碍物和位置区域,保存为bpm格式的图像,并设置每个像素点代表0.05m。
作为本发明的一种优选方案,所述步骤三中,机器人在室外环境还需要使用车顶超声测距传感器来检测侧方是否有坑等低于路面的情况,并将检测到低于正常路面的位置也映射到二维地图中去。
作为本发明的一种优选方案,所述步骤四中,机器人在从室外运行到室内时则停止将GPS数据引入拓展卡尔曼滤波器中计算。反之,当机器人从室内运行到室外后,则自动驶入空旷处停止等待GPS数据稳定后再继续运行。
作为本发明的一种优选方案,所述步骤五中,所使用的全局路径规划是A-star算法,局部路径规划是Timed-Elastic-Band算法,具体的导航流程为:
(1)初始化:加载步骤二中的三维稀疏点云地图,启动双目相机,进行特征点匹配,实时提供当前机器人位姿。加载步骤三中的二维栅格地图,将初始位姿映射到二维地图。开启激光雷达、复位6轴IMU、检测编码器、超声测距数据是否异常;
(2)接收目标点,首先使用二维地图进行全局路径规划,机器人开始运行,并将控制指令发送到机器人驱动器;
(3)当运行环境中有全局地图中未标注出的障碍物时,启动局部路径规划,结合激光雷达和超声测距传感器实时建立局部代价地图,进行局部路径规划,修正全局路径,并将修正后的控制指令发送到机器人驱动器;
(4)到达目标点,导航任务完成。
作为本发明的一种优选方案,所述定位导航***还包括用户UI界面和服务器,用于实现远程监控和遥控的功能,同时存放了机器人的运行数据备份。
本发明的有益效果是:
1.本发明的导航***能够将室内室外地图连接成一体,使得室内室外的路径规划算法得到通用;
2.本发明通过使用视觉和2D激光雷达,在降低成本的同时能获得更丰富的空间信息;
3.本发明采用多传感器感知运行环境,为机器人安全稳定的运行提供了保障;
4.本发明使用双目视觉建立三维点云地图,能够使得机器人在室内室外环境切换的过程中不会丢失自身的位置信息;
附图说明
图1本发明实施例中***框架图;
图2本发明实施例中***工作流程图;
具体实施方式
下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例:
如图1-2所示,本发明提供的一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,包括如下步骤:
步骤一、使用jetson xavier nx主机作为机器人的运算核心,并在其中安装ROS操作***,使用双目相机、2D激光雷达、超声测距传感器、6轴IMU和霍尔编码器作为环境感知单元。
步骤二、使用ORB-SLAM2算法将双目相机采集到的环境数据处理为三维稀疏点云地图,为机器人提供全局地图和位姿,并将地图数据保存在主机内。
步骤三、在室内环境,使用激光雷达,采用gmaping算法和粒子滤波器,建立二维地图。在室外环境,使用ORB-SLAM2算法,实现三维稠密点云地图的建立,提取其中低于机器人高度空间点的平面位置,映射到二维地图;将室内外地图拼接形成完整的导航地图。
步骤四、机器人在定位时,通过双目相机采集视觉数据,启动ORB-SLAM2算法的纯定位模式反馈机器人的位置信息,将位姿信息、IMU、GPS和底层里程计信息通过拓展卡尔曼滤波器融合,获取更为准确的位姿信息。
步骤五、机器人在接受到目标点开始导航时,使用先前建立的二维地图作为导航地图进行全局路径规划,使用激光雷达实时建立周边环境的动态地图,对全局路径进行修正。
步骤一中的双目相机为两颗安装在机器人前面板两侧的摄像头,激光雷达安装在机器人顶部,6轴IMU安装于机器人激光雷达下方,超声测距传感器水平安装在机器人底部四周,以及斜向下45度角安装在机器人顶部四周。
步骤二中在室外使用双目视觉采集数据时由人工遥控,并开启机器人局部路径规划功能,进行必要的避障措施。
步骤三中所建立的二维地图属于占据地图,通过使用像素点的色彩不同来表示可通行区域,障碍物和位置区域,保存为bpm格式的图像,并设置每个像素点代表0.05m。
步骤三中机器人在室外环境还需要使用车顶超声测距传感器来检测侧方是否有坑等低于路面的情况,并将检测到低于正常路面的位置也映射到二维地图中去
步骤四中机器人在从室外运行到室内时则停止将GPS数据引入拓展卡尔曼滤波器中计算。反之,当机器人从室内运行到室外后,则自动驶入空旷处停止等待GPS数据稳定后再继续运行。
步骤五中所使用的全局路径规划是A-star算法,局部路径规划是Timed-Elastic-Band算法,具体的导航流程为:
(1)初始化:开机加载步骤二中的三维稀疏点云地图,启动双目相机,进行特征点匹配,实时提供当前机器人位姿。加载步骤三中的二维栅格地图,将初始位姿映射到二维地图。开启激光雷达、复位6轴IMU、检测编码器、超声测距数据是否异常。若无地图数据,***进入步骤二与步骤三采集地图数据。
(2)接收目标点,首先使用二维地图进行全局路径规划,机器人开始运行,并将控制指令发送到机器人驱动器。
(3)当运行环境中有全局地图中未标注出的障碍物时,启动局部路径规划,结合激光雷达和超声测距传感器实时建立局部代价地图,进行局部路径规划,修正全局路径,并将修正后的控制指令发送到机器人驱动器。
(4)到达目标点,导航任务完成。
本发明所述的定位导航***还包括用户UI界面和服务器,用于实现远程监控和遥控的功能,同时存放了机器人的运行数据备份。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等同物界定。
Claims (8)
1.一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,其特征在于:包括以下步骤:
步骤一、使用jetson xavier nx主机作为机器人的运算核心,并在其中安装ROS操作***,使用双目相机、2D激光雷达、超声测距传感器、6轴IMU和霍尔编码器作为环境感知单元;
步骤二、该***集成ORB-SLAM2算法将双目相机采集到的环境数据处理为三维稀疏点云地图,为机器人提供全局地图和位姿,并将地图数据保存在主机内;
步骤三、在室内环境,使用激光雷达,集成gmaping算法和粒子滤波器,建立二维地图;在室外环境,***集成ORB-SLAM2算法,实现三维稠密点云地图的建立,提取其中低于机器人高度空间点的平面位置,映射到二维地图;将室内外地图拼接形成完整的导航地图;
步骤四、机器人在定位时,通过双目相机采集视觉数据,启动ORB-SLAM2算法的纯定位模式反馈机器人的位置信息,将位姿信息、IMU、GPS和底层里程计信息通过拓展卡尔曼滤波器融合,获取更为准确的位姿信息;
步骤五、机器人在接受到目标点开始导航时,使用先前建立的二维地图作为导航地图进行全局路径规划,使用激光雷达实时建立周边环境的动态地图,对全局路径进行修正。
2.根据权利要求1所述的一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,其特征在于:所述步骤一中,双目相机为两颗安装在机器人前面板两侧的摄像头,激光雷达安装在机器人顶部,6轴IMU安装于机器人激光雷达下方,超声测距传感器水平安装在机器人底部四周,以及斜向下45度角安装在机器人顶部四周。
3.根据权利要求1所述的一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,其特征在于:所述步骤二中,***集成了ORB_SLAM2算法,并且在室外使用双目相机采集数据时由人工遥控,并同时开启机器人局部路径规划功能,进行必要的避障措施。
4.根据权利要求1所述的一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,其特征在于:所述步骤三中,建立的二维地图属于占据地图,通过使用像素点的色彩不同来表示可通行区域,障碍物和位置区域,保存为bpm格式的图像,并设置每个像素点代表0.05m。
5.根据权利要求1所述的一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,其特征在于:所述步骤三中,机器人在室外环境还需要使用车顶超声测距传感器来检测侧方是否有坑等低于路面的情况,并将检测到低于正常路面的位置也映射到二维地图中去。
6.根据权利要求1所述的一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,其特征在于:所述步骤四中,机器人在从室外运行到室内时则停止将GPS数据引入拓展卡尔曼滤波器中计算。反之,当机器人从室内运行到室外后,则自动驶入空旷处停止等待GPS数据稳定后再继续运行。
7.根据权利要求1所述的一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,其特征在于:所述步骤五中,所使用的全局路径规划是A-star算法,局部路径规划是Timed-Elastic-Band算法,具体的导航流程为:
(1)初始化:加载步骤二中的三维稀疏点云地图,启动双目相机,进行特征点匹配,实时提供当前机器人位姿。加载步骤三中的二维栅格地图,将初始位姿映射到二维地图。开启激光雷达、复位6轴IMU、检测编码器、超声测距数据是否异常;
(2)接收目标点,首先使用二维地图进行全局路径规划,机器人开始运行,并将控制指令发送到机器人驱动器;
(3)当运行环境中有全局地图中未标注出的障碍物时,启动局部路径规划,结合激光雷达和超声测距传感器实时建立局部代价地图,进行局部路径规划,修正全局路径,并将修正后的控制指令发送到机器人驱动器;
(4)到达目标点,导航任务完成。
8.根据权利要求1所述的一种基于视觉与激光雷达信息融合的机器人室内外定位导航***方法,其特征在于:所述定位导航***还包括用户UI界面和服务器,用于实现远程监控和遥控的功能,同时存放了机器人的运行数据备份。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011600801.3A CN112650255B (zh) | 2020-12-29 | 2020-12-29 | 基于视觉与激光雷达信息融合的机器人定位导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011600801.3A CN112650255B (zh) | 2020-12-29 | 2020-12-29 | 基于视觉与激光雷达信息融合的机器人定位导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112650255A true CN112650255A (zh) | 2021-04-13 |
CN112650255B CN112650255B (zh) | 2022-12-02 |
Family
ID=75364106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011600801.3A Active CN112650255B (zh) | 2020-12-29 | 2020-12-29 | 基于视觉与激光雷达信息融合的机器人定位导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112650255B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113218384A (zh) * | 2021-05-19 | 2021-08-06 | 中国计量大学 | 一种基于激光slam的室内agv自适应定位*** |
CN113238554A (zh) * | 2021-05-08 | 2021-08-10 | 武汉科技大学 | 一种基于激光与视觉融合slam技术的室内导航方法及*** |
CN113282088A (zh) * | 2021-05-21 | 2021-08-20 | 潍柴动力股份有限公司 | 工程车的无人驾驶方法、装置、设备、存储介质及工程车 |
CN113276110A (zh) * | 2021-04-22 | 2021-08-20 | 国网浙江省电力有限公司嘉兴供电公司 | 一种基于ar技术的变电站操作机器人控制***及方法 |
CN113405544A (zh) * | 2021-05-08 | 2021-09-17 | 中电海康集团有限公司 | 一种移动机器人的建图与定位方法及*** |
CN113506344A (zh) * | 2021-07-07 | 2021-10-15 | 西南科技大学 | 一种核辐射环境机器人高精度三维定位装置及方法 |
CN113625288A (zh) * | 2021-06-15 | 2021-11-09 | 中国科学院自动化研究所 | 基于点云配准的相机与激光雷达位姿标定方法和装置 |
CN113686347A (zh) * | 2021-08-11 | 2021-11-23 | 追觅创新科技(苏州)有限公司 | 机器人导航路径的生成方法及装置 |
CN113838203A (zh) * | 2021-09-30 | 2021-12-24 | 四川智动木牛智能科技有限公司 | 基于三维点云地图和二维栅格地图的导航***及应用方法 |
CN113932814A (zh) * | 2021-09-30 | 2022-01-14 | 杭州电子科技大学 | 一种基于多模态地图的协同定位方法 |
CN114022984A (zh) * | 2021-09-29 | 2022-02-08 | ***通信集团浙江有限公司杭州分公司 | 一种基于无线通信的智慧社区人员监管和物流服务*** |
CN114034343A (zh) * | 2021-11-11 | 2022-02-11 | 珠海惠中智能技术有限公司 | 一种基于机器人的环境多模信息综合分析*** |
CN114474061A (zh) * | 2022-02-17 | 2022-05-13 | 新疆大学 | 基于云服务的机器人多传感器融合定位导航***及方法 |
CN114543814A (zh) * | 2022-02-24 | 2022-05-27 | 北京化工大学 | 一种应用于三维环境中的机器人自主定位与导航的方法 |
CN115218891A (zh) * | 2022-09-01 | 2022-10-21 | 西华大学 | 一种移动机器人自主定位导航方法 |
CN115509230A (zh) * | 2022-09-28 | 2022-12-23 | 北京星航机电装备有限公司 | 一种基于ros的室外机器人自主导航方法、装置及机器人 |
CN115655102A (zh) * | 2022-10-10 | 2023-01-31 | 广州里工实业有限公司 | 一种搭载尺寸测量***的自主机器人及工件测量方法 |
CN115774280A (zh) * | 2022-11-22 | 2023-03-10 | 哈尔滨师范大学 | 一种多源融合定位导航方法、电子设备及存储介质 |
CN116339336A (zh) * | 2023-03-29 | 2023-06-27 | 北京信息科技大学 | 电动农机集群协同作业方法、装置及*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108958232A (zh) * | 2017-12-07 | 2018-12-07 | 炬大科技有限公司 | 一种基于深度视觉的移动扫地机器人slam装置及算法 |
CN109752725A (zh) * | 2019-01-14 | 2019-05-14 | 天合光能股份有限公司 | 一种低速商用机器人、定位导航方法及定位导航*** |
CN110097589A (zh) * | 2019-04-29 | 2019-08-06 | 广东工业大学 | 一种应用于稀疏地图稠密化的深度补全方法 |
CN110501017A (zh) * | 2019-08-12 | 2019-11-26 | 华南理工大学 | 一种基于orb_slam2的移动机器人导航地图生成方法 |
CN110570449A (zh) * | 2019-09-16 | 2019-12-13 | 电子科技大学 | 一种基于毫米波雷达与视觉slam的定位与建图方法 |
CN111076733A (zh) * | 2019-12-10 | 2020-04-28 | 亿嘉和科技股份有限公司 | 一种基于视觉与激光slam的机器人室内建图方法及*** |
-
2020
- 2020-12-29 CN CN202011600801.3A patent/CN112650255B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108958232A (zh) * | 2017-12-07 | 2018-12-07 | 炬大科技有限公司 | 一种基于深度视觉的移动扫地机器人slam装置及算法 |
CN109752725A (zh) * | 2019-01-14 | 2019-05-14 | 天合光能股份有限公司 | 一种低速商用机器人、定位导航方法及定位导航*** |
CN110097589A (zh) * | 2019-04-29 | 2019-08-06 | 广东工业大学 | 一种应用于稀疏地图稠密化的深度补全方法 |
CN110501017A (zh) * | 2019-08-12 | 2019-11-26 | 华南理工大学 | 一种基于orb_slam2的移动机器人导航地图生成方法 |
CN110570449A (zh) * | 2019-09-16 | 2019-12-13 | 电子科技大学 | 一种基于毫米波雷达与视觉slam的定位与建图方法 |
CN111076733A (zh) * | 2019-12-10 | 2020-04-28 | 亿嘉和科技股份有限公司 | 一种基于视觉与激光slam的机器人室内建图方法及*** |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113276110A (zh) * | 2021-04-22 | 2021-08-20 | 国网浙江省电力有限公司嘉兴供电公司 | 一种基于ar技术的变电站操作机器人控制***及方法 |
CN113405544A (zh) * | 2021-05-08 | 2021-09-17 | 中电海康集团有限公司 | 一种移动机器人的建图与定位方法及*** |
CN113238554A (zh) * | 2021-05-08 | 2021-08-10 | 武汉科技大学 | 一种基于激光与视觉融合slam技术的室内导航方法及*** |
CN113405544B (zh) * | 2021-05-08 | 2024-02-09 | 中电海康集团有限公司 | 一种移动机器人的建图与定位方法及*** |
CN113218384A (zh) * | 2021-05-19 | 2021-08-06 | 中国计量大学 | 一种基于激光slam的室内agv自适应定位*** |
CN113282088A (zh) * | 2021-05-21 | 2021-08-20 | 潍柴动力股份有限公司 | 工程车的无人驾驶方法、装置、设备、存储介质及工程车 |
CN113625288A (zh) * | 2021-06-15 | 2021-11-09 | 中国科学院自动化研究所 | 基于点云配准的相机与激光雷达位姿标定方法和装置 |
CN113506344A (zh) * | 2021-07-07 | 2021-10-15 | 西南科技大学 | 一种核辐射环境机器人高精度三维定位装置及方法 |
CN113686347A (zh) * | 2021-08-11 | 2021-11-23 | 追觅创新科技(苏州)有限公司 | 机器人导航路径的生成方法及装置 |
CN113686347B (zh) * | 2021-08-11 | 2024-06-04 | 北京小米移动软件有限公司 | 机器人导航路径的生成方法及装置 |
CN114022984A (zh) * | 2021-09-29 | 2022-02-08 | ***通信集团浙江有限公司杭州分公司 | 一种基于无线通信的智慧社区人员监管和物流服务*** |
CN113838203A (zh) * | 2021-09-30 | 2021-12-24 | 四川智动木牛智能科技有限公司 | 基于三维点云地图和二维栅格地图的导航***及应用方法 |
CN113932814A (zh) * | 2021-09-30 | 2022-01-14 | 杭州电子科技大学 | 一种基于多模态地图的协同定位方法 |
CN113932814B (zh) * | 2021-09-30 | 2024-04-02 | 杭州电子科技大学 | 一种基于多模态地图的协同定位方法 |
CN113838203B (zh) * | 2021-09-30 | 2024-02-20 | 四川智动木牛智能科技有限公司 | 基于三维点云地图和二维栅格地图的导航***及应用方法 |
CN114034343A (zh) * | 2021-11-11 | 2022-02-11 | 珠海惠中智能技术有限公司 | 一种基于机器人的环境多模信息综合分析*** |
CN114474061A (zh) * | 2022-02-17 | 2022-05-13 | 新疆大学 | 基于云服务的机器人多传感器融合定位导航***及方法 |
CN114474061B (zh) * | 2022-02-17 | 2023-08-04 | 新疆大学 | 基于云服务的机器人多传感器融合定位导航***及方法 |
CN114543814A (zh) * | 2022-02-24 | 2022-05-27 | 北京化工大学 | 一种应用于三维环境中的机器人自主定位与导航的方法 |
CN115218891B (zh) * | 2022-09-01 | 2022-12-27 | 西华大学 | 一种移动机器人自主定位导航方法 |
CN115218891A (zh) * | 2022-09-01 | 2022-10-21 | 西华大学 | 一种移动机器人自主定位导航方法 |
CN115509230A (zh) * | 2022-09-28 | 2022-12-23 | 北京星航机电装备有限公司 | 一种基于ros的室外机器人自主导航方法、装置及机器人 |
CN115655102A (zh) * | 2022-10-10 | 2023-01-31 | 广州里工实业有限公司 | 一种搭载尺寸测量***的自主机器人及工件测量方法 |
CN115774280A (zh) * | 2022-11-22 | 2023-03-10 | 哈尔滨师范大学 | 一种多源融合定位导航方法、电子设备及存储介质 |
CN115774280B (zh) * | 2022-11-22 | 2023-06-02 | 哈尔滨师范大学 | 一种多源融合定位导航方法、电子设备及存储介质 |
CN116339336A (zh) * | 2023-03-29 | 2023-06-27 | 北京信息科技大学 | 电动农机集群协同作业方法、装置及*** |
Also Published As
Publication number | Publication date |
---|---|
CN112650255B (zh) | 2022-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112650255B (zh) | 基于视觉与激光雷达信息融合的机器人定位导航方法 | |
CN111897332B (zh) | 一种语义智能变电站机器人仿人巡视作业方法及*** | |
CN110446159B (zh) | 一种室内无人机精确定位与自主导航的***及方法 | |
CN111968262B (zh) | 一种语义智能变电站巡视作业机器人导航***及方法 | |
CN103064416B (zh) | 巡检机器人室内外自主导航*** | |
WO2020223974A1 (zh) | 更新地图的方法及移动机器人 | |
CN111958592B (zh) | 一种变电站巡检机器人图像语义分析***及方法 | |
CN112518739B (zh) | 履带式底盘机器人侦察智能化自主导航方法 | |
CN113189977B (zh) | 一种用于机器人的智能导航路径规划***及方法 | |
JP2022554248A (ja) | 無人飛行体を使用する構造体スキャン | |
CN113325837A (zh) | 一种用于多信息融合采集机器人的控制***及方法 | |
CN103941748A (zh) | 自主导航方法及***和地图建模方法及*** | |
CN104217439A (zh) | 一种室内视觉定位***及方法 | |
CN110211228A (zh) | 用于建图的数据处理方法及装置 | |
CN112734765A (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、***及介质 | |
Chatterjee et al. | Vision based autonomous robot navigation: algorithms and implementations | |
CN111813130A (zh) | 一种输变电站智能巡检机器人自主导航避障*** | |
CN109491383A (zh) | 多机器人定位与建图***及方法 | |
CN113238554A (zh) | 一种基于激光与视觉融合slam技术的室内导航方法及*** | |
WO2021208015A1 (zh) | 构建地图及定位方法、客户端、移动机器人及存储介质 | |
CN111263308A (zh) | 定位数据采集方法及*** | |
CN105373130A (zh) | 基于立体建模的特种设备事故现场信息探测*** | |
CN112015187A (zh) | 一种用于智能移动机器人的语义地图构建方法及*** | |
CN118020038A (zh) | 两轮自平衡机器人 | |
JP3965686B2 (ja) | 視覚情報処理装置および適用システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |