CN113703462A - 一种基于四足机器人的未知空间自主探索*** - Google Patents
一种基于四足机器人的未知空间自主探索*** Download PDFInfo
- Publication number
- CN113703462A CN113703462A CN202111025527.6A CN202111025527A CN113703462A CN 113703462 A CN113703462 A CN 113703462A CN 202111025527 A CN202111025527 A CN 202111025527A CN 113703462 A CN113703462 A CN 113703462A
- Authority
- CN
- China
- Prior art keywords
- robot
- module
- autonomous
- positioning
- exploration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013507 mapping Methods 0.000 claims abstract description 22
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 13
- 238000013135 deep learning Methods 0.000 claims description 9
- 230000008447 perception Effects 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000010168 coupling process Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000008878 coupling Effects 0.000 claims description 6
- 238000005859 coupling reaction Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 3
- 230000008901 benefit Effects 0.000 claims description 3
- 238000007405 data analysis Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 230000001502 supplementing effect Effects 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 claims description 3
- 238000004088 simulation Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 235000019994 cava Nutrition 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明提供一种基于四足机器人的未知空间自主探索***,***包括数据采集模块、定位与建图模块、自主探索模块和目标检测模块;数据采集模块采集地下空间的环境信息,利用定位与建图模块实现实时三维场景重建和自主定位;自主探索模块自主决策下一个未探测的目标点作为下一个目标位置;目标检测模块感知周围障碍物的分布,并根据到最新建立的环境地图进行路径规划,实现在未知空间的自主避障和导航,运动到下一个目标位置进行探测;最后,在探测全部完成或者机器人电量快消耗完时,***控制机器人自主根据所建立的地图返回到出发点,并建立出所探测空间的全局一致性三维环境地图。本发明的***赋予了移动机器人驾驭未知空间的能力。
Description
技术领域
本发明涉及机器人开发技术领域,尤其涉及一种基于四足机器人的未知空间自主探索***。
背景技术
未知空间具有一定的危险性,例如,矿井、管道、隧道等,这里视线较差、通信不畅、难以进入、地形莫测。但其不仅是未来军事行动的一项要素,也关乎到搜救和紧急救援。在民用领域,未知空间尤其是地下未知空间,地下设施对社会安全的作用愈发重要。由于城市发展的立体延伸,新兴城市不仅仅在地上面积范围上不断扩张,地下网络也在不断延伸,地铁、隧道、地下管道等空间密布,且存在工程图纸遗失、图纸与实际不符的情况。若通过人工测量的方式进行图纸的修正、补充,将耗费极大的人力、时间以及财力。且在地下空间缺乏GNSS信号,传统依赖GNSS定位的测量方案无法实施。一旦发生地震、地下塌方等事故造成人员伤亡,将需要组织大量人员在未知环境进行人员的搜救,并存在塌方进一步发展的可能性,危险性极大。
综上,对于未知空间的自主探索,往往会面对更多严苛的挑战。近年来,随着传感器技术和计算机视觉、人工智能等技术的发展以及计算平台小型化、低功耗等技术的突破,催生了移动机器人技术的快速进步。基于移动机器人的自主信息采集算法以及相关应用得到了长足的发展。但在地铁、隧道、地下管道以及天然洞穴等未知环境,仍然具有挑战性:未知空间交错复杂,且往往存在黑暗、狭长、无GNSS信号、无通讯信号等挑战。黑暗狭长的场景使得机器人传感器数据严重退化,狭窄环境限制了机器人的体积和移动能力。而无GNSS信号、通讯信号等特点,又使得难以通过无线电通讯等手段对机器人进行远程的定位与操控。此外,在自主探索过程中,路径规划的效率和运动控制决策的有效性仍有待提高。如何用更少的时间和更少的能量消耗,以获取更多的信息实现环境建模与监控,成为现阶段所面临的技术难题。
发明内容
针对上述现有技术的不足,本发明提供一种基于四足机器人的未知空间自主探索***。
为解决上述技术问题,本发明所采取的技术方案是:一种基于四足机器人的未知空间自主探索***,***包括数据采集模块、定位与建图模块、自主探索模块和目标检测模块;
所述数据采集模块将采集的信息发送给定位与建图模块、自主探索模块和目标检测模块进行数据分析;
所述数据采集模块包括激光雷达、相机和IMU传感器,分别采集激光点云数据信息、四足机器人所在环境的图像信息和机器人运动时的加速度和角速度信息。
进一步的,所述数据采集模块还包括硬件时间同步单元,将激光雷达、相机和IMU传感器的数据时间戳同步在一个时钟下,使得具有相同时间戳的传感器数据对应于当前的同一事件。
所述定位与建图模块获取到数据采集模块采集的数据信息,进行时空标定后,采用激光、视觉、惯性里程计多传感器紧耦合SLAM框架构建地下未知环境的三维点云地图并为自主探索模块提供精确的机器人定位信息;
所述紧耦合SLAM框架分为两个子***,分别为:视觉惯性***和激光雷达惯性***,均以紧耦合的方式设计,当任意一个子***发生故障时,SLAM仍能稳定运行;
所述视觉惯性***:融合相机和IMU数据实现实时建图定位;
所述激光雷达惯性***:融合激光雷达和IMU数据实现实时建图定位。
进一步的,***还包括LED灯,通过补光的方法使视觉惯性***和自主感知功能在黑暗场景下仍能工作。
所述目标检测模块获取到数据采集模块采集的数据信息,利用预先训练识别特定目标的深度学习网络模型,在四足机器人进行自主探索的过程中对特定目标进行识别、定位,并将其标注在定位与建图模块构建的三维点云地图中;
所述预先训练识别特定目标的深度学习网络模型,模型采用稠密的图像特征融合到稀疏点云数据中实现点云增强的方法,突破了地下环境中的弱几何特征、光线缺失的环境特点对特征提取带来的挑战难题,并突破了16线三维激光存在的数据稀疏、缺少RGB信息的问题。
进一步的,所述预先训练识别特定目标的深度学***衡:通过轻量化的网络结构首先提取图像的多维特征,之后通过图像特征金字塔对多维特征进行多次上采样和下采样融合,使网络学习到多个尺度下的目标特征,为地下复杂空间的目标检测功能提供保障。
所述自主探索模块包括局部路径规划单元和全局路径规划单元,根据定位与建图模块输出的机器人定位信息和三维点云地图信息自主决策下一个待探测的目标点。
所述局部路径规划单元的工作过程如下:
步骤1:以机器人为中心,在机器人周围构建一个长方体并在里面随机撒点;
步骤2:去掉障碍物占据的点,在剩下的点中,以机器人为起点,以长方体各个边上的点为终点构成RRG地图;
步骤3:使用Dijkstar算法搜索出一些可行的路径,再通过探索增益来评价这些路径,决策出最好的一条无碰撞路径进行平滑处理;
步骤4:在规划出无碰撞路径后,根据这条路径生成满足四足机器人运动学约束和安全约束的运动控制指令,将控制命令发送到所述四足机器人的控制器上,无碰撞前往下一目标点进行探测,执行四足机器人的自主探索功能。
所述全局路径规划单元在机器人被规划到地下隧道分支的死角时启动,对机器人重新进行定位,并将其规划到探索效益最高的分支点继续执行探索任务;此外,当探索完毕时或在机器人的剩余续航力接近其极限时,触发所述全局路径规划单元,更新返回出发点的路径。
采用上述技术方案所产生的有益效果在于:
1、本发明提供的基于四足机器人的未知空间自主探索***通过板载的传感器和计算资源,在无需外界帮助的条件下,实现在未知挑战环境中的自主感知、自主决策和自主导航;
2、本发明提出了把感知信息加入构建的三维点云地图中,利用融合的图像和点云信息,能够使未知空间坏境自主探索四足机器人清楚地知道特殊目标的具***置,为今后地下战场态势感知,人员搜救等行动提供支持。
3、本发明提供的***采用的激光雷达、相机、惯导的紧耦合SLAM框架,使***无论是在有光线的情况下,还是在完全黑暗的环境下都能稳定运行。在完全黑暗的场景下,视觉惯性***无法正常工作,但激光雷达惯性仍能正常工作,提高了***的鲁棒性,也使四足机器人面对黑暗场景有一个更优的处理方案。除此之外,本***通过外加LED灯源补光的方法使视觉惯性***和自主感知功能在黑暗场景下仍能工作。
附图说明
图1为本发明实施例中提供的基于四足机器人的未知空间自主探索***结构示意图;
图2为本发明实施例中定位与建图模块中紧耦合SLAM框架的两个子***的工作模式示意图;
图3为本发明实施例中提供的仿真环境中的地图结构示意图;
图4为本发明实施例中提供的仿真环境中机器人探索建图的效果图;
图5为本发明实施例中在模拟地下场景的楼道进行实验的示意图;
图6为本发明实施例中自主感知的特殊目标标注到三维点云地图的示意图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。以下实施例用于说明本发明,但不用来限制本发明的范围。
如图1所示,本实施例中基于四足机器人的未知空间自主探索***如下所述:
***包括数据采集模块、定位与建图模块、自主探索模块和目标检测模块;
所述数据采集模块将采集的信息发送给定位与建图模块、自主探索模块和目标检测模块进行数据分析;
所述数据采集模块包括激光雷达、相机和IMU传感器,分别采集激光点云数据信息、四足机器人所在环境的图像信息和机器人运动时的加速度和角速度信息。
进一步的,所述数据采集模块还包括硬件时间同步单元,将激光雷达、相机和IMU传感器的数据时间戳同步在一个时钟下,使得具有相同时间戳的传感器数据对应于当前的同一事件。
所述定位与建图模块获取到数据采集模块采集的数据信息,进行时空标定后,采用激光、视觉、惯性里程计多传感器紧耦合SLAM框架构建地下未知环境的三维点云地图并为自主探索模块提供精确的机器人定位信息;
所述紧耦合SLAM框架分为两个子***,如图2所示,分别为:视觉惯性***和激光雷达惯性***,均以紧耦合的方式设计,当任意一个子***发生故障时,SLAM仍能稳定运行;
所述视觉惯性***:融合相机和IMU数据实现实时建图定位;
所述激光雷达惯性***:融合激光雷达和IMU数据实现实时建图定位。
上述两个子***利用紧耦合的方法,视觉惯性***利用激光雷达惯性***的估计来做初始化。视觉惯性***利用激光雷达的测量给视觉特征提供深度来提升精度。同时激光雷达惯性***利用视觉惯性***的估计值作为初值来做帧的匹配。利用视觉做闭环检测,把检测的结果给激光雷达惯性***来做优化。最后输出高频的里程计信息,为机器人***提供精确的位姿。
进一步的,***还包括LED灯,通过补光的方法使视觉惯性***和自主感知功能在黑暗场景下仍能工作。
本实施例通过四足机器人模型和搭建的仿真环境,如图3所示,进行实验,在仿真环境中四足机器人模型能够有效的对仿真环境中的地图进行自主探索,仿真实验验证本四足机器人自主探索***的自主探索功能。仿真机器人模型在仿真环境下对地图进行自主探索,建图效果如图4所示。
所述目标检测模块获取到数据采集模块采集的数据信息,利用预先训练识别特定目标的深度学习网络模型,在四足机器人进行自主探索的过程中对特定目标进行识别、定位,并将其标注在定位与建图模块构建的三维点云地图中;
本实施例中,
所述预先训练识别特定目标的深度学习网络模型,模型采用稠密的图像特征融合到稀疏点云数据中实现点云增强的方法,突破了地下环境中的弱几何特征、光线缺失的环境特点对特征提取带来的挑战难题,并突破了16线三维激光存在的数据稀疏、缺少RGB信息的问题。
本实施例中,采用上述网络模型实现了小于10cm长度的物体的检测,且检测速度达到9Hz/s。
进一步的,所述预先训练识别特定目标的深度学***衡:通过轻量化的网络结构首先提取图像的多维特征,之后通过图像特征金字塔对多维特征进行多次上采样和下采样融合,使网络学习到多个尺度下的目标特征,为地下复杂空间的目标检测功能提供保障。
所述自主探索模块包括局部路径规划单元和全局路径规划单元,根据定位与建图模块输出的机器人定位信息和三维点云地图信息自主决策下一个待探测的目标点。
所述局部路径规划单元的工作过程如下:
步骤1:以机器人为中心,在机器人周围构建一个长方体并在里面随机撒点;
步骤2:去掉障碍物占据的点,在剩下的点中,以机器人为起点,以长方体各个边上的点为终点构成RRG地图;
步骤3:使用Dijkstar算法搜索出一些可行的路径,再通过探索增益来评价这些路径,决策出最好的一条无碰撞路径进行平滑处理;
步骤4:在规划出无碰撞路径后,根据这条路径生成满足四足机器人运动学约束和安全约束的运动控制指令,将控制命令发送到所述四足机器人的控制器上,无碰撞前往下一目标点进行探测,执行四足机器人的自主探索功能。
所述全局路径规划单元在机器人被规划到地下隧道分支的死角时启动,对机器人重新进行定位,并将其规划到探索效益最高的分支点继续执行探索任务;此外,当探索完毕时或在机器人的剩余续航力接近其极限时,触发所述全局路径规划单元,更新返回出发点的路径。
本实施例中还将搭建好的四足机器人自主探索***放置在模拟地下场景的楼道进行实验,如图5所示,验证***的可行性。在明亮的实验环境下四足机器人自主探索及自主感知功能的实现,在黑暗环境下四足机器人导航避障功能的实现,并将自主感知的特殊目标标注到构建的三维点云地图中,如图6所示。
Claims (9)
1.一种基于四足机器人的未知空间自主探索***,其特征在于,***包括数据采集模块、定位与建图模块、自主探索模块和目标检测模块;
所述数据采集模块将采集的信息发送给定位与建图模块、自主探索模块和目标检测模块进行数据分析;
所述定位与建图模块获取到数据采集模块采集的数据信息,进行时空标定后,采用激光、视觉、惯性里程计多传感器紧耦合SLAM框架构建地下未知环境的三维点云地图并为自主探索模块提供精确的机器人定位信息;
所述目标检测模块获取到数据采集模块采集的数据信息,利用预先训练识别特定目标的深度学习网络模型,在四足机器人进行自主探索的过程中对特定目标进行识别、定位,并将其标注在定位与建图模块构建的三维点云地图中;
所述自主探索模块包括局部路径规划单元和全局路径规划单元,根据定位与建图模块输出的机器人定位信息和三维点云地图信息自主决策下一个待探测的目标点。
2.根据权利要求1所述的基于四足机器人的未知空间自主探索***,其特征在于:所述数据采集模块包括激光雷达、相机和IMU传感器,分别采集激光点云数据信息、四足机器人所在环境的图像信息和机器人运动时的加速度和角速度信息。
3.根据权利要求2所述的基于四足机器人的未知空间自主探索***,其特征在于:所述数据采集模块还包括硬件时间同步单元,将激光雷达、相机和IMU传感器的数据时间戳同步在一个时钟下,使得具有相同时间戳的传感器数据对应于当前的同一事件。
4.根据权利要求1所述的基于四足机器人的未知空间自主探索***,其特征在于:所述紧耦合SLAM框架分为两个子***,分别为:视觉惯性***和激光雷达惯性***,均以紧耦合的方式设计,当任意一个子***发生故障时,SLAM仍能稳定运行;
所述视觉惯性***:融合相机和IMU数据实现实时建图定位;
所述激光雷达惯性***:融合激光雷达和IMU数据实现实时建图定位。
5.根据权利要求4所述的基于四足机器人的未知空间自主探索***,其特征在于:***还包括LED灯,通过补光的方法使视觉惯性***和自主感知功能在黑暗场景下仍能工作。
6.根据权利要求1所述的基于四足机器人的未知空间自主探索***,其特征在于:所述预先训练识别特定目标的深度学习网络模型,模型采用稠密的图像特征融合到稀疏点云数据中实现点云增强的方法,突破了地下环境中的弱几何特征、光线缺失的环境特点对特征提取带来的挑战难题,并突破了16线三维激光存在的数据稀疏、缺少RGB信息的问题。
7.根据权利要求1所述的基于四足机器人的未知空间自主探索***,其特征在于:所述预先训练识别特定目标的深度学***衡:通过轻量化的网络结构首先提取图像的多维特征,之后通过图像特征金字塔对多维特征进行多次上采样和下采样融合,使网络学习到多个尺度下的目标特征,为地下复杂空间的目标检测功能提供保障。
8.根据权利要求1所述的基于四足机器人的未知空间自主探索***,其特征在于:所述局部路径规划单元的工作过程如下:
步骤1:以机器人为中心,在机器人周围构建一个长方体并在里面随机撒点;
步骤2:去掉障碍物占据的点,在剩下的点中,以机器人为起点,以长方体各个边上的点为终点构成RRG地图;
步骤3:使用Dijkstar算法搜索出一些可行的路径,再通过探索增益来评价这些路径,决策出最好的一条无碰撞路径进行平滑处理;
步骤4:在规划出无碰撞路径后,根据这条路径生成满足四足机器人运动学约束和安全约束的运动控制指令,将控制命令发送到所述四足机器人的控制器上,无碰撞前往下一目标点进行探测,执行四足机器人的自主探索功能。
9.根据权利要求1所述的基于四足机器人的未知空间自主探索***,其特征在于:所述全局路径规划单元在机器人被规划到地下隧道分支的死角时启动,对机器人重新进行定位,并将其规划到探索效益最高的分支点继续执行探索任务;此外,当探索完毕时或在机器人的剩余续航力接近其极限时,触发所述全局路径规划单元,更新返回出发点的路径。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111025527.6A CN113703462B (zh) | 2021-09-02 | 2021-09-02 | 一种基于四足机器人的未知空间自主探索*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111025527.6A CN113703462B (zh) | 2021-09-02 | 2021-09-02 | 一种基于四足机器人的未知空间自主探索*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113703462A true CN113703462A (zh) | 2021-11-26 |
CN113703462B CN113703462B (zh) | 2023-06-16 |
Family
ID=78658925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111025527.6A Active CN113703462B (zh) | 2021-09-02 | 2021-09-02 | 一种基于四足机器人的未知空间自主探索*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113703462B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114296475A (zh) * | 2021-12-06 | 2022-04-08 | 中国兵器科学研究院 | 一种未知空间探索***、方法、装置、设备及介质 |
CN114442621A (zh) * | 2022-01-17 | 2022-05-06 | 浙江大学 | 一种基于四足机器人的自主探索和建图*** |
CN114625121A (zh) * | 2022-01-24 | 2022-06-14 | 成都理工大学 | 基于多传感器融合的自主巡检探索小车***及导航方法 |
CN116922398A (zh) * | 2023-09-15 | 2023-10-24 | 华侨大学 | 一种绳索机器人及其路径规划方法和装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001154706A (ja) * | 1999-11-29 | 2001-06-08 | Japan Atom Energy Res Inst | 移動体の経路生成法 |
JP2011122926A (ja) * | 2009-12-10 | 2011-06-23 | Clarion Co Ltd | 経路計画装置、経路計画システムおよび経路計画方法 |
WO2015024407A1 (zh) * | 2013-08-19 | 2015-02-26 | 国家电网公司 | 基于电力机器人的双目视觉导航***及方法 |
US20170165835A1 (en) * | 2015-12-09 | 2017-06-15 | Qualcomm Incorporated | Rapidly-exploring randomizing feedback-based motion planning |
CN110806211A (zh) * | 2019-11-29 | 2020-02-18 | 炬星科技(深圳)有限公司 | 机器人自主探索建图的方法、设备及存储介质 |
CN111897332A (zh) * | 2020-07-30 | 2020-11-06 | 国网智能科技股份有限公司 | 一种语义智能变电站机器人仿人巡视作业方法及*** |
CN112288857A (zh) * | 2020-10-30 | 2021-01-29 | 西安工程大学 | 一种基于深度学习的机器人语义地图物体识别方法 |
-
2021
- 2021-09-02 CN CN202111025527.6A patent/CN113703462B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001154706A (ja) * | 1999-11-29 | 2001-06-08 | Japan Atom Energy Res Inst | 移動体の経路生成法 |
JP2011122926A (ja) * | 2009-12-10 | 2011-06-23 | Clarion Co Ltd | 経路計画装置、経路計画システムおよび経路計画方法 |
WO2015024407A1 (zh) * | 2013-08-19 | 2015-02-26 | 国家电网公司 | 基于电力机器人的双目视觉导航***及方法 |
US20170165835A1 (en) * | 2015-12-09 | 2017-06-15 | Qualcomm Incorporated | Rapidly-exploring randomizing feedback-based motion planning |
WO2017099939A1 (en) * | 2015-12-09 | 2017-06-15 | Qualcomm Incorporated | Rapidly-exploring randomizing feedback-based motion planning |
CN110806211A (zh) * | 2019-11-29 | 2020-02-18 | 炬星科技(深圳)有限公司 | 机器人自主探索建图的方法、设备及存储介质 |
CN111897332A (zh) * | 2020-07-30 | 2020-11-06 | 国网智能科技股份有限公司 | 一种语义智能变电站机器人仿人巡视作业方法及*** |
CN112288857A (zh) * | 2020-10-30 | 2021-01-29 | 西安工程大学 | 一种基于深度学习的机器人语义地图物体识别方法 |
Non-Patent Citations (6)
Title |
---|
JINGJIN YU; JAVED ASLAM; SERTAC KARAMAN; DANIELA RUS: "Anytime Planning of Optimal Schedules for a Mobile Sensing Robot", 《2015 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS (IROS)》 * |
THI THOA MACCOSMIN COPOT: "Heuristic approaches in robot path planning: A survey", 《ROBOTICS AND AUTONOMOUS SYSTEMS》 * |
TIXIAO SHAN, BRENDAN ENGLOT, CARLO RATTI, DANIELA RUS: "LVI-SAM: Tightly-coupled Lidar-Visual-Inertial Odometryvia Smoothing and Mapping", 《ARXIV》 * |
TIXIAO SHAN, BRENDAN ENGLOT, CARLO RATTI, DANIELA RUS: "LVI-SAM: Tightly-coupled Lidar-Visual-Inertial Odometryvia Smoothing and Mapping", 《ARXIV》, 22 April 2021 (2021-04-22), pages 1 - 7 * |
张介嵩,黄影平,张 瑞: "基于 CNN 的点云图像融合目标检测", 《光电工程》 * |
张介嵩,黄影平,张 瑞: "基于 CNN 的点云图像融合目标检测", 《光电工程》, 31 May 2021 (2021-05-31), pages 1 - 10 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114296475A (zh) * | 2021-12-06 | 2022-04-08 | 中国兵器科学研究院 | 一种未知空间探索***、方法、装置、设备及介质 |
CN114442621A (zh) * | 2022-01-17 | 2022-05-06 | 浙江大学 | 一种基于四足机器人的自主探索和建图*** |
CN114625121A (zh) * | 2022-01-24 | 2022-06-14 | 成都理工大学 | 基于多传感器融合的自主巡检探索小车***及导航方法 |
CN116922398A (zh) * | 2023-09-15 | 2023-10-24 | 华侨大学 | 一种绳索机器人及其路径规划方法和装置 |
CN116922398B (zh) * | 2023-09-15 | 2023-12-22 | 华侨大学 | 一种绳索机器人及其路径规划方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113703462B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113703462B (zh) | 一种基于四足机器人的未知空间自主探索*** | |
CN107655473B (zh) | 基于slam技术的航天器相对自主导航*** | |
CN109885080B (zh) | 自主控制***及自主控制方法 | |
Mascarich et al. | A multi-modal mapping unit for autonomous exploration and mapping of underground tunnels | |
Krátký et al. | An autonomous unmanned aerial vehicle system for fast exploration of large complex indoor environments | |
CN107167139A (zh) | 一种变电站巡检机器人视觉定位导航方法及*** | |
CN204465738U (zh) | 一种救灾救援可视*** | |
CN104714555B (zh) | 一种基于边缘的三维自主探索方法 | |
CN103926933A (zh) | 一种无人飞行器室内同时定位与环境建模方法 | |
CN104660995A (zh) | 一种救灾救援可视*** | |
CN115256414B (zh) | 矿用钻孔机器人及其与地质、巷道模型的耦合作业方法 | |
CN113325837A (zh) | 一种用于多信息融合采集机器人的控制***及方法 | |
Li et al. | Autonomous navigation and environment modeling for MAVs in 3-D enclosed industrial environments | |
Mansouri et al. | Autonomous mav navigation in underground mines using darkness contours detection | |
Chen et al. | Multilayer mapping kit for autonomous UAV navigation | |
Cui et al. | Navigation and positioning technology in underground coal mines and tunnels: A review | |
Baudoin et al. | View-finder: robotics assistance to fire-fighting services and crisis management | |
Zheng et al. | Dual LIDAR online calibration and mapping and perception system | |
Samarakoon et al. | Impact of the Trajectory on the Performance of RGB-D SLAM Executed by a UAV in a Subterranean Environment | |
Olawoye et al. | Uav position estimation using a lidar-based 3d object detection method | |
Zhao et al. | Stereo-vision based obstacle avoidance by finding safe region | |
Fernandes et al. | Investigation of visual reconstruction techniques using mobile robots in confined environments | |
Son et al. | Waypoint and autonomous flying control of an indoor drone for GPS-denied environments | |
Xu et al. | Probabilistic Membrane Computing‐Based SLAM for Patrol UAVs in Coal Mines | |
Karaked et al. | Multi-Sensor Fusion with Extended Kalman Filter for Indoor Localization system of Multirotor UAV |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |