CN113532461B - 一种机器人自主避障导航的方法、设备及存储介质 - Google Patents
一种机器人自主避障导航的方法、设备及存储介质 Download PDFInfo
- Publication number
- CN113532461B CN113532461B CN202110772616.0A CN202110772616A CN113532461B CN 113532461 B CN113532461 B CN 113532461B CN 202110772616 A CN202110772616 A CN 202110772616A CN 113532461 B CN113532461 B CN 113532461B
- Authority
- CN
- China
- Prior art keywords
- robot
- sequence
- obstacle
- obstacle avoidance
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000003860 storage Methods 0.000 title claims description 7
- 238000001514 detection method Methods 0.000 claims abstract description 53
- 230000008569 process Effects 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 27
- 238000001914 filtration Methods 0.000 claims description 9
- 230000015654 memory Effects 0.000 claims description 7
- 230000004888 barrier function Effects 0.000 claims description 6
- 238000007689 inspection Methods 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000010408 sweeping Methods 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/343—Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/3415—Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/04—Systems determining presence of a target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Acoustics & Sound (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本说明书实施例提供了一种机器人自主避障导航的方法,方法包括:若根据超声波雷达对机器人预设路径的检测结果,确定预设路径中存在障碍物,则获取安装于机器人上的摄像机拍摄的图像,并将机器人的位置姿态信息及机器人的当前移动序列和机器人预设路径中的移动序列,输入至预先训练的第一移动模型,输出预测的避障移动序列;其中,预测的避障移动序列包括机器人的移动方向及机器人的移动速度;将预测的避障移动序列及摄像机拍摄的图像,输入至预先训练的第二移动模型,输出机器人的评分序列;根据评分序列中评分值的总和,确定出机器人的最优避障移动序列,以使机器人根据最优移动序列更新移动路径。
Description
技术领域
本说明书涉及机器学习技术领域,尤其涉及一种机器人自主避障导航的方法、设备及存储介质。
背景技术
随着计算机技术、传感器技术和人工智能等技术的快速发展,机器人技术也变得日趋成熟,而其中的移动机器人类型应用最为广泛,在家用服务、航天、工业等众多的行业中扮演着越来越重要的角色,这些各种各样的机器人能够在特定环境下很好地完成工作。但是,由于移动机器人可能处于工业园区、居民小区、施工场所等多种变量多发的工作环境中,在按照预先设定的移动路径进行移动时,不可避免的会遇到多种类型障碍物阻碍移动机器人按照预设的路径进行移动。因此,对机器人能否实现避障导航是机器人在位置环境下完成预设任务的关键技术之一。
而目前避障导航方法主要依靠的是激光雷达三维点云数据。这种方法可以通过感知障碍物的距离实现避障,但是激光雷达成本较高,且数据量较大、计算过程相对复杂,对计算平台的要求也很高。而其他自主避障导航技术也多存在结构复杂、硬件成本昂贵、维护成本高的缺点,并不适应快速增长的机器人发展需求。
基于此,需要一种可以在保证移动机器人避障导航的准确性的同时,降低避障成本的方法。
发明内容
本说明书一个或多个实施例提供了一种机器人自主避障导航的方法、设备及存储介质,用于解决如下技术问题:如何提供一种在可以保证移动机器人避障导航准确性的条件下降低避障成本的自主避障导航方法。
本说明书一个或多个实施例采用下述技术方案:
本说明书一个或多个实施例提供了一种机器人自主避障导航的方法,包括:
若根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,则获取安装于所述机器人上的摄像机拍摄的图像,并将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型,输出预测的避障移动序列;其中,所述预测的避障移动序列包括所述机器人的移动方向及所述机器人的移动速度;
将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列;其中,所述评分序列包括对所述预测的避障移动序列中各项值的评分值,且所述评分序列中的值与所述预测的避障移动序列中的值一一对应;
根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径。
可选地,本说明书一个或多个实施例中,所述根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,具体包括:
预先确定所述机器人最底端结构的距地高度,并将所述距地高度作为所述超声波雷达检测的预设阈值;
若所述超声波雷达检测到所述障碍物的高度低于所述预设阈值,则过滤所述障碍物的检测信息;
若所述超声波雷达检测到所述障碍物的高度高于或等于所述预设阈值,则确定所述预设路径中存在障碍物,并记录所述超声波雷达的检测结果。
可选地,本说明书一个或多个实施例中所述将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型之前,所述方法还包括:
根据所述机器人的工作环境,获取所述机器人工作环境的预置导航地图;其中,所述预置导航地图包括所述机器人工作环境中的无障碍通行路径,以根据所述无障碍通行路径获得所述机器人的预设路径;
根据所述预设路径获取所述机器人预设路径中的移动序列,并通过所述导航地图实时获取所述机器人的位置姿态信息;其中,所述位置姿态信息至少包括:所述机器人所处位置的坐标信息。
可选地,本说明书一个或多个实施例中所述将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型之前,所述方法还包括:
构建与所述机器人工作环境相同或类似的部署环境,以确定包含所述机器人避障数据的数据集;
截取所述机器人的避障数据,并根据预设周期将所述避障数据划分为多个独立时间片段对应的避障数据片段;其中,所述避障数据片段至少包括:所述机器人在该时间片段的位置姿态序列、所述机器人在该时间片段拍摄的图像、所述机器人在该时间片段的移动序列;
将所述机器人该时间片段的位置姿态序列及该时间片段之后的时间片段所对应的位置姿态序列输入第一移动模型进行训练,以训练出符合要求第一移动模型。
可选地,本说明书一个或多个实施例中所述构建与所述机器人工作环境相同或类似的部署环境,以确定包含所述机器人避障数据的数据集,具体包括:
根据所述机器人的工作环境,选定所述机器人训练过程的部署环境;其中,所述部署环境中设置有多种可能出现的障碍物;
控制所述机器人在所述部署环境中进行避障运动,并记录所述避障运动中所述机器人的避障数据;其中,所述避障数据至少包括:所述机器人的移动轨迹数据与所述机器人的位置姿态数据;
将收集的所述机器人的避障数据作为所述第一移动模型训练的数据集。
可选地,本说明书一个或多个实施例中所述控制所述机器人在所述部署环境中进行避障运动,并记录所述避障运动中所述机器人的避障数据之前,所述方法还包括:
若所述机器人的工作环境中存在可移动的障碍物,则在所述部署环境中设置与所述可移动的障碍物相同或类似的移动对象;
模拟所述移动对象的移动轨迹使所述移动对象按照所述移动轨迹进行移动,以保证机器人训练过程的可靠性。
可选地,本说明书一个或多个实施例中所述将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列之前,所述方法还包括:
将所述摄像机拍摄的连续图像输入至所述第二移动模型的第一训练模型中,提取所述图像的特征值,以输出所述图像的图像特征图;
将所述图像特征图与该时间片段及该时间片段之后的时间片段所对应的移动动作序列输入至所述第二移动模型的第二训练模型中,以输出评分序列。
可选地,本说明书一个或多个实施例中所述根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径,具体包括:
将所述评分序列中的评分值依次相加得到所述评分序列的评分值的总和;
将所述评分序列中评分值的总和大小,作为对应的所述预测的避障移动序列的价值评分;其中,所述价值评分越高则所述预测的避障移动序列优先级越高;
选择优先级高的预测的避障移动序列作为所述机器人的最优避障移动序列,并根据所述机器人的最优避障移动序列重新规划路径,以使所述机器人规避所述预设路径中的障碍物。
本说明书一个或多个实施例提供一种机器人自主避障导航的设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
若根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,则获取安装于所述机器人上的摄像机拍摄的图像,并将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型,输出预测的避障移动序列;其中,所述预测的避障移动序列包括所述机器人的移动方向及所述机器人的移动速度;
将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列;其中,所述评分序列包括对所述预测的避障移动序列中各项值的评分值,且所述评分序列中的值与所述预测的避障移动序列中的值一一对应;
根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径。
本说明书一个或多个实施例提供的一种非易失性计算机存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
若根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,则获取安装于所述机器人上的摄像机拍摄的图像,并将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型,输出预测的避障移动序列;其中,所述预测的避障移动序列包括所述机器人的移动方向及所述机器人的移动速度;
将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列;其中,所述评分序列包括对所述预测的避障移动序列中各项值的评分值,且所述评分序列中的值与所述预测的避障移动序列中的值一一对应;
根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:通过低成本的超声波雷达监测到障碍物后才进行避障运动,使得避障导航过程具有针对性。通过搭载摄像头的方法感知环境图像,使用图像处理技术对其进行分析处理,以此提供环境信息,完成障碍物检测即降低了避障检测的成本,相对于3D点云数据摄像机获得的避障数据其数据量相对小,便于分析处理。且结合深度学习模型获得预测的避障移动序列后在进行优先级排序获得最优移动序列,在保证更新路径的同时提供了最优的移动路径,使得机器人的自主避障导航具有高效且可靠的特点。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
在附图中:
图1为本说明书一个或多个实施例提供的一种机器人自主避障导航的方法流程示意图;
图2为本说明书一个或多个实施例提供的一种机器人自主避障导航的设备的内部结构示意图;
图3为本说明书一个或多个实施例提供的一种非易失性存储的内部结构示意图。
具体实施方式
本说明书实施例提供一种机器人自主避障导航的方法、设备以及介质。
移动机器人是一种能够完成规定任务要求的机器装置。移动机器人与人类的工作方式具有极高的相似性,不仅能够完成巨大工作量的任务,而且可以实现某些高要求的精细化生产目标。其中,避障是指机器人在行走移动过程中,通过传感器感知到其路线规划上存在的动态或静态障碍物,按照一定的算法实时更新路径,避开障碍物,最终到达目的地。
随着智能机器人,如,扫地机器人、家庭服务机器人、巡视机器人越来越广泛地应用于公共环境的巡视监控、工业生产和家庭生活的各项服务中。人们对机器人要实现灵活、高效、智能地移动,需要具有自主避障导航能力的要求越来越高。其中,自主避障导航技术是评价机器人智能化程度的关键指标之一,体现了机器人对未知障碍物的处理能力,也是机器人在未知环境的基础下完成预设任务的关键技术之一。移动机器人处在未知、复杂、动态的非结构化环境中,在没有人工干预的条件下,应该具备利用自身携带的传感器感知其所处环境信息的能力,并对环境进行建模,能够自主避开障碍物,同时尽量减少时间和能量的消耗的能力。
目前导航避障方法主要依靠的是激光雷达3D点云数据,这种方法通过感知障碍物的距离信息实现避障,但是实际应用过程中使用激光雷达进行避障时,获取3D点云数据的成本较高,且通过激光雷达获得的3D点云数据量大,计算过程复杂,对计算平台的要求较高。
为了解决上述技术问题,本说明书实施例提供了一种机器人自主避障导航的方法,通过摄像机获得的连续数据图像对机器人的运动轨迹进行分析,获得机器人的避障数据。通过将避障数据输入第一移动模型输出预测的避障移动序列作为预测的路径,在通过评分模型对移动序列中各动作进行评分获得该预测的避障移动序列整体的评分值。通过评分值获得预测的避障移动序列的优先级,从而确定出最优移动序列来更新移动路径。将激光雷达替换为成本和数据量相对较低的摄像机,通过搭载摄像头的方法感知环境图像,并使用图像处理技术对其进行分析处理,以此提供环境信息,完成障碍物检测即降低了避障检测的成本,相对于3D点云数据摄像机获得的避障数据其数据量相对小,便于分析处理。且结合深度学习模型获得预测的避障移动序列后,在进行优先级排序获得最优移动序列,在保证更新路径的同时提供了最优的移动路径,使得机器人的自主避障导航具有高效且可靠的特点。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
本说明书一个或多个实施例由控制机器人进行自主避障导航的服务器终端或所述服务器所对应的各执行单元进行操作。
以下结合附图,详细说明本说明书提供的技术方案。
如图1所示,本说明书一个或多个实施例提供了一种机器人自主避障导航的方法流程示意图。
图1中的流程可以包括以下步骤:
S101:若根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,则获取安装于所述机器人上的摄像机拍摄的图像,并将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型,输出预测的避障移动序列;其中,所述预测的避障移动序列包括所述机器人的移动方向及所述机器人的移动速度。
在本说明书一个或多个实施例中,所述根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,具体包括:
预先确定所述机器人最底端结构的距地高度,并将所述距地高度作为所述超声波雷达检测的预设阈值;
若所述超声波雷达检测到所述障碍物的高度低于所述预设阈值,则过滤所述障碍物的检测信息;
若所述超声波雷达检测到所述障碍物的高度高于或等于所述预设阈值,则确定所述预设路径中存在障碍物,并记录所述超声波雷达的检测结果。
在本说明书一个或多个实施例中,所述将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型之前,所述方法还包括:
根据所述机器人的工作环境,获取所述机器人工作环境的预置导航地图;其中,所述预置导航地图包括所述机器人工作环境中的无障碍通行路径,以根据所述无障碍通行路径获得所述机器人的预设路径;
根据所述预设路径获取所述机器人预设路径中的移动序列,并通过所述导航地图实时获取所述机器人的位置姿态信息;其中,所述位置姿态信息至少包括:所述机器人所处位置的坐标信息。
在本说明书一个或多个实施例中,所述将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型之前,所述方法还包括:
构建与所述机器人工作环境相同或类似的部署环境,以确定包含所述机器人避障数据的数据集;
截取所述机器人的避障数据,并根据预设周期将所述避障数据划分为多个独立时间片段对应的避障数据片段;其中,所述避障数据片段至少包括:所述机器人在该时间片段的位置姿态序列、所述机器人在该时间片段拍摄的图像、所述机器人在该时间片段的移动序列;
将所述机器人该时间片段的位置姿态序列及该时间片段之后的时间片段所对应的位置姿态序列输入第一移动模型进行训练,以训练出符合要求第一移动模型。
在本说明书一个或多个实施例中,所述构建与所述机器人工作环境相同或类似的部署环境,以确定包含所述机器人避障数据的数据集,具体包括:
根据所述机器人的工作环境,选定所述机器人训练过程的部署环境;其中,所述部署环境中设置有多种可能出现的障碍物;
控制所述机器人在所述部署环境中进行避障运动,并记录所述避障运动中所述机器人的避障数据;其中,所述避障数据至少包括:所述机器人的移动轨迹数据与所述机器人的位置姿态数据;
将收集的所述机器人的避障数据作为所述第一移动模型训练的数据集。
在本说明书一个或多个实施例中,所述控制所述机器人在所述部署环境中进行避障运动,并记录所述避障运动中所述机器人的避障数据之前,所述方法还包括:
若所述机器人的工作环境中存在可移动的障碍物,则在所述部署环境中设置与所述可移动的障碍物相同或类似的移动对象;
模拟所述移动对象的移动轨迹使所述移动对象按照所述移动轨迹进行移动,以保证机器人训练过程的可靠性。
随着机器人在家庭、园区、工厂等场所的普及,移动机器人以代替人工实现各种指引、巡视、监视的功能,受到越来越多的关注。为了高效的完成机器人的工作,同时避免因为剧烈碰撞对机器人造成不可挽回的重大损伤,自主避障重新规划路径是移动机器人在进行服务过程中需要具备的功能之一。而机器人在进行移动的过程中实现避障与导航的必要条件是环境感知,在未知或者是部分未知的环境下避障需要通过传感器获取周围的环境信息,包括障碍物的尺寸、形状和位置等信息。
随着深度学习在视觉任务上的研究越来越成熟,通过随深度学习模型进行训练输出预测的避障移动路径。在制作移动机器人的避障数据集时,构建与机器人工作环境相同或者类似的环境进行探索,可以使得训练完成的模型更接近与现实工作环境,识别和避障的误差更小,结果更可靠。在选择了机器人进行训练的部署环境之后,可以在进行训练的部署环境中设置可能会出现的障碍物。当遇到障碍物之后,控制机器人在部署的环境中进行避障运动,记录下避障运动中机器人的移动轨迹、机器人的位置姿态信息以及安装于机器人的摄像机拍摄的第一视角的连续画面作为避障运动过程中的避障数据。因为机器人只有在遇到障碍物之后才会触发避障过程,将避障运动中产生的避障数据进行截取后获得针对避障过程产生的避障数据。收集机器人模拟避障过程中产生的避障数据作为第一移动模型训练的数据集。
其中,需要说明的是在机器人在进行模拟避障的过程中,可能存在静态的障碍物,也可能存在可移动的障碍物。若机器人工作的环境中存在有可移动的障碍物,则在进行模拟训练收集数据集的过程中,需要设置与可移动的障碍物相同或者类似的移动对象。并模拟移动对象的移动轨迹在部署的训练环境中进行移动,以收集符合机器人工作环境的可靠的避障数据。例如:在博物馆中设置有代替导游等讲解人员的可移动的讲解机器人,讲解机器人在博物馆中进行移动讲解的过程中不可避免的会遇到在各种在博物馆内进行参观的停留或移动的人。则需要在进行训练的环境中部署各种移动的人并模拟博物馆内大部分人的移动轨迹进行移动,来保证讲解机器人可以实现高效的避障。
根据机器人所需要的移动路径的精确度设置预设的周期,将截取的避障数据划分为多个独立时间片段,以获得与多个独立时间片段相对应的避障数据片段。将机器人该时间片段的位置姿态信息、机以及机器人在该时间片段之后的时间片段所对应的位置姿态序列输入至第一移动模型进行训练,以训练出符合需要的第一移动模型。例如:对于避障精度较小需求的移动机器人可以将独立时间片段的划分周期适当延长,而对避障精度需求较高的移动机器人如博物馆内的巡视机器人对避障路径的精度要求较高,则可以将独立时间偏度的划分周期缩短,以获得符合要求的第一移动模型。
通过超声波雷达获取的扫描数据,代替传统的激光雷达3D点云数据进行机器人运行路径上的障碍物检测可以降低检测成本,同时也可以节省数据分析计算的过程,适用于多种计算平台。
在进行超声波雷达的监测之前,需要预先确定机器人最底端结构的距地高度,将这个距地高度作为超声波雷达检测过程中的最低阈值。如果检测到的障碍物低于这个阈值则说明该障碍物的高度低于机器人最低端结构的距地高度,该障碍物是可以越过的,不需要将该障碍物的信息进行收集进行后续的避障工作。例如:扫地机器人在进行清扫是可以将低于底盘结构的垃圾进行收取,此时若重新更新移动路径则不能够完成扫地机器人的基本工作。如果通过超声波雷达检测到障碍物的高度高于或等于预先设定的阈值,那么可以确定该障碍物为机器人预设前进路径上不可避免的障碍物,需要将该障碍物的信息进行收集,记录超声波雷达的检测结果为有障碍物。
考虑到现实社会中若干障碍物的体积较小和/或重量较轻,机器人可能通过碰撞可以将障碍物进行移除,则不需要重新规划路径。例如:替代保安在小区中进行环境监视的巡视机器人,可能在巡视的预设路径中,通过超声波雷达扫描到竖直放置的易拉罐,虽然其高度可能高于巡视机器人最底端结构一定程度上作为阻碍物阻碍了巡视机器人的正常通行,但是一般情况下巡视机器人的体积较大在碰撞到易拉罐后,并不会对机器人产生损害,且不需要再进行路径的重新规划。因此,在本说明书一个或多个实施例中,所述根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在机器人,还可以包括:
根据所述机器人的型号,确定所述巡视机器人的体积;并根据所述体积预先设定所述超声波检测的障碍物体积阈值;
若所述超声波雷达检测到所述障碍物的体积大小低于所述障碍物体积阈值,则确定所述障碍物为可碰撞障碍物并过滤所述障碍物的检测信息;
若所述超声波雷达检测到所述障碍物的体积大小高于或等于所述障碍物体积阈值,则确定所述障碍物为不可碰撞障碍物,并记录所述超声波雷达的检测结果。
在通过超声波雷达确定机器人的预设路径存在障碍物后,会获取安装于机器人上的摄像机拍摄的图像,根据摄像机拍摄的连续图像可以获取障碍物的位置信息。此外,通过将机器人的位置姿态信息及机器人的当前序列和机器人下一时刻在预设路径上的移动序列输入到预先训练的第一移动模型中,可以输出包括机器人移动方向以及机器人移动速度的预测的避障移动序列。
其中,需要说明的是在将机器人的位置姿态信息及机器人的当前移动序列和机器人预设路径中的移动序列输入至预先训练的第一移动模型之前,根据机器人的工作环境,可以通过互联网或者其它合法途径调取机器人工作环境的预置导航地图。通过预置的导航地图可以获取机器人工作环境中可通行区域的无障碍通行路径,根据无障碍通信路径在得知机器人任务活动的起点与终点后,可以获得机器人的预设路径。根据预设路径可以规定机器人的移动方向和移动速度,即根据预设路径可以确定出机器人在预设路径中的移动序列。同时根据导航地图的定位可以实时获取机器人移动过程中的位置姿态信息,例如:机器人处于导航地图的某个坐标位置中,可以将该坐标位置作为机器人当前时刻的位置姿态信息。
S102:将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列;其中,所述评分序列包括对所述预测的避障移动序列中各项值的评分值,且所述评分序列中的值与所述预测的避障移动序列中的值一一对应。
在本说明书一个或多个实施例中,所述将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列之前,所述方法还包括:
将所述摄像机拍摄的连续图像输入至所述第二移动模型的第一训练模型中,提取所述图像的特征值,以输出所述图像的图像特征图;
将所述图像特征图与该时间片段及该时间片段之后的时间片段所对应的移动动作序列输入至所述第二移动模型的第二训练模型中,以输出评分序列。
在超声波雷达触发了机器人避障导航工作,并通过第一移动模型获取到预测的避障移动序列之后,将预测的避障移动序列经过第二移动模型的分析可以获得避障过程中的最优移动序列,使得避障过程高效且可靠。
第二移动模型由第一训练模型与第二训练模型组成,通过第一训练模型例如:卷积神经网络模型,提取安装于机器人上的摄像机拍摄的图像,经过处理后输出所述图像的特征图。将该图像的特征图以及该时间片段和该时间片段之后的时间片段所对应的避障移动序列输入到第二训练模型例如:长短期记忆网络模型中,得到预测的避障移动序列相对应的评分模型。其中,需要说明的是评分模型中的值与其相对应的预测的避障移动序列中的各项值一一对应。
S103:根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径。
在本说明书一个或多个实施例中,所述根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径,具体包括:
将所述评分序列中的评分值依次相加得到所述评分序列的评分值的总和;
将所述评分序列中评分值的总和大小,作为对应的所述预测的避障移动序列的价值评分;其中,所述价值评分越高则所述预测的避障移动序列优先级越高;
选择优先级高的预测的避障移动序列作为所述机器人的最优避障移动序列,并根据所述机器人的最优避障移动序列重新规划路径,以使所述机器人规避所述预设路径中的障碍物。
将评分序列中的评分值依次相加得到评分值序列的评分值总和。根据上述步骤102中记载的内容可知,评分序列中的值与其相对应的预测的避障移动序列中的各项值一一对应。即评分序列是对预测的避障移动序列中的各动作所做出的评分。将所述评分序列的评分值总和作为预测的避障移动序列的优先级,可以获得最优的避障移动序列。根据步骤101中记载的避障移动序列可以得知,所述避障移动序列包括机器人的移动速度和机器人的移动方向。所以,在根据评分序列得到最优的避障移动序列后,可以重新对机器人的移动路径进行规划,使机器人高效且可靠的避免预设路径中出现的障碍物。例如:在检测到障碍物后,移动机器人由正北方2m/s的移动路径,更新为北偏东10度1m/s的移动路径,则移动机器人需要按照更新后的移动路径进行移动,以规避预设路径中出现的障碍物。
如图2所示,本说明书一个或多个实施例中提供了一种机器人自主避障导航的设备,所述设备包括:
至少一个处理器201;以及,
与所述至少一个处理器201通信连接的存储器202;其中,
所述存储器202存储有所述至少一个处理器201执行的指令,所述指令被所述至少一个处理器201执行,以使所述至少一个处理器201可以:
若根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,则获取安装于所述机器人上的摄像机拍摄的图像,并将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型,输出预测的避障移动序列;其中,所述预测的避障移动序列包括所述机器人的移动方向及所述机器人的移动速度;
将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列;其中,所述评分序列包括对所述预测的避障移动序列中各项值的评分值,且所述评分序列中的值与所述预测的避障移动序列中的值一一对应;
根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径。
如图3所示,本说明书一个或多个实施例中提供了一种非易失性存储介质,存储有计算机可执行指令301,所述计算机可执行指令301设置为:
若根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,则获取安装于所述机器人上的摄像机拍摄的图像,并将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型,输出预测的避障移动序列;其中,所述预测的避障移动序列包括所述机器人的移动方向及所述机器人的移动速度;
将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列;其中,所述评分序列包括对所述预测的避障移动序列中各项值的评分值,且所述评分序列中的值与所述预测的避障移动序列中的值一一对应;
根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述仅为本说明书的一个或多个实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书的一个或多个实施例可以有各种更改和变化。凡在本说明书的一个或多个实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (8)
1.一种机器人自主避障导航的方法,其特征在于,所述方法包括:
若根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,则获取安装于所述机器人上的摄像机拍摄的图像,并将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型,输出预测的避障移动序列;其中,所述预测的避障移动序列包括所述机器人的移动方向及所述机器人的移动速度;
将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列;其中,所述评分序列包括对所述预测的避障移动序列中各项值的评分值,且所述评分序列中的值与所述预测的避障移动序列中的值一一对应;
根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径;
所述根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,具体包括:
预先确定所述机器人最底端结构的距地高度,并将所述距地高度作为所述超声波雷达检测的预设阈值;
若所述超声波雷达检测到所述障碍物的高度低于所述预设阈值,则过滤所述障碍物的检测信息;
若所述超声波雷达检测到所述障碍物的高度高于或等于所述预设阈值,则确定所述预设路径中存在障碍物,并记录所述超声波雷达的检测结果;
其中,根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物之后,还包括:
根据所述机器人的型号,确定巡视机器人的体积;并根据所述体积预先设定所述超声波检测的障碍物体积阈值;
若所述超声波雷达检测到所述障碍物的体积大小低于所述障碍物体积阈值,则确定所述障碍物为可碰撞障碍物并过滤所述障碍物的检测信息;
若所述超声波雷达检测到所述障碍物的体积大小高于或等于所述障碍物体积阈值,则确定所述障碍物为不可碰撞障碍物,并记录所述超声波雷达的检测结果;
将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型之前,所述方法还包括:
构建与所述机器人工作环境相同或类似的部署环境,以确定包含所述机器人避障数据的数据集;
截取所述机器人的避障数据,并根据预设周期将所述避障数据划分为多个独立时间片段对应的避障数据片段;其中,所述避障数据片段至少包括:所述机器人在该时间片段的位置姿态序列、所述机器人在该时间片段拍摄的图像、所述机器人在该时间片段的移动序列;
将所述机器人该时间片段的位置姿态序列及该时间片段之后的时间片段所对应的位置姿态序列输入第一移动模型进行训练,以训练出符合要求第一移动模型。
2.根据权利要求1所述的一种机器人自主避障导航的方法,其特征在于,所述将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型之前,所述方法还包括:
根据所述机器人的工作环境,获取所述机器人工作环境的预置导航地图;其中,所述预置导航地图包括所述机器人工作环境中的无障碍通行路径,以根据所述无障碍通行路径获得所述机器人的预设路径;
根据所述预设路径获取所述机器人预设路径中的移动序列,并通过所述导航地图实时获取所述机器人的位置姿态信息;其中,所述位置姿态信息至少包括:所述机器人所处位置的坐标信息。
3.根据权利要求1所述的一种机器人自主避障导航的方法,其特征在于,所述构建与所述机器人工作环境相同或类似的部署环境,以确定包含所述机器人避障数据的数据集,具体包括:
根据所述机器人的工作环境,选定所述机器人训练过程的部署环境;其中,所述部署环境中设置有多种可能出现的障碍物;
控制所述机器人在所述部署环境中进行避障运动,并记录所述避障运动中所述机器人的避障数据;其中,所述避障数据至少包括:所述机器人的移动轨迹数据与所述机器人的位置姿态数据;
将收集的所述机器人的避障数据作为所述第一移动模型训练的数据集。
4.根据权利要求3所述的一种机器人自主避障导航的方法,其特征在于所述控制所述机器人在所述部署环境中进行避障运动,并记录所述避障运动中所述机器人的避障数据之前,所述方法还包括:
若所述机器人的工作环境中存在可移动的障碍物,则在所述部署环境中设置与所述可移动的障碍物相同或类似的移动对象;
模拟所述移动对象的移动轨迹使所述移动对象按照所述移动轨迹进行移动,以保证机器人训练过程的可靠性。
5.根据权利要求1所述的一种机器人自主避障导航的方法,其特征在于,所述将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列之前,所述方法还包括:
将所述摄像机拍摄的连续图像输入至所述第二移动模型的第一训练模型中,提取所述图像的特征值,以输出所述图像的图像特征图;
将所述图像特征图与该时间片段及该时间片段之后的时间片段所对应的预测的避障移动序列输入至所述第二移动模型的第二训练模型中,以输出评分序列。
6.根据权利要求1所述的一种机器人自主避障导航的方法,其特征在于,所述根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径,具体包括:
将所述评分序列中的评分值依次相加得到所述评分序列的评分值的总和;
将所述评分序列中评分值的总和大小,作为对应的所述预测的避障移动序列的价值评分;其中,所述价值评分越高则所述预测的避障移动序列优先级越高;
选择优先级高的预测的避障移动序列作为所述机器人的最优避障移动序列,并根据所述机器人的最优避障移动序列重新规划路径,以使所述机器人规避所述预设路径中的障碍物。
7.一种机器人自主避障导航的设备,其特征在于,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器可以:
若根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,则获取安装于所述机器人上的摄像机拍摄的图像,并将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型,输出预测的避障移动序列;其中,所述预测的避障移动序列包括所述机器人的移动方向及所述机器人的移动速度;
将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列;其中,所述评分序列包括对所述预测的避障移动序列中各项值的评分值,且所述评分序列中的值与所述预测的避障移动序列中的值一一对应;
根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径;
所述根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,具体包括:
预先确定所述机器人最底端结构的距地高度,并将所述距地高度作为所述超声波雷达检测的预设阈值;
若所述超声波雷达检测到所述障碍物的高度低于所述预设阈值,则过滤所述障碍物的检测信息;
若所述超声波雷达检测到所述障碍物的高度高于或等于所述预设阈值,则确定所述预设路径中存在障碍物,并记录所述超声波雷达的检测结果;
其中,根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物之后,还包括:
根据所述机器人的型号,确定巡视机器人的体积;并根据所述体积预先设定所述超声波检测的障碍物体积阈值;
若所述超声波雷达检测到所述障碍物的体积大小低于所述障碍物体积阈值,则确定所述障碍物为可碰撞障碍物并过滤所述障碍物的检测信息;
若所述超声波雷达检测到所述障碍物的体积大小高于或等于所述障碍物体积阈值,则确定所述障碍物为不可碰撞障碍物,并记录所述超声波雷达的检测结果;
将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型之前,还包括:
构建与所述机器人工作环境相同或类似的部署环境,以确定包含所述机器人避障数据的数据集;
截取所述机器人的避障数据,并根据预设周期将所述避障数据划分为多个独立时间片段对应的避障数据片段;其中,所述避障数据片段至少包括:所述机器人在该时间片段的位置姿态序列、所述机器人在该时间片段拍摄的图像、所述机器人在该时间片段的移动序列;
将所述机器人该时间片段的位置姿态序列及该时间片段之后的时间片段所对应的位置姿态序列输入第一移动模型进行训练,以训练出符合要求第一移动模型。
8.一种非易失性存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
若根据超声波雷达对机器人预设路径的检测结果,确定所述预设路径中存在障碍物,则获取安装于所述机器人上的摄像机拍摄的图像,并将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型,输出预测的避障移动序列;其中,所述预测的避障移动序列包括所述机器人的移动方向及所述机器人的移动速度;
将所述预测的避障移动序列及所述摄像机拍摄的图像,输入至预先训练的第二移动模型,输出所述机器人的评分序列;其中,所述评分序列包括对所述预测的避障移动序列中各项值的评分值,且所述评分序列中的值与所述预测的避障移动序列中的值一一对应;
根据所述评分序列中评分值的总和,确定出所述机器人的最优避障移动序列,以使所述机器人根据所述最优移动序列更新移动路径;
所述根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物,具体包括:
预先确定所述机器人最底端结构的距地高度,并将所述距地高度作为所述超声波雷达检测的预设阈值;
若所述超声波雷达检测到所述障碍物的高度低于所述预设阈值,则过滤所述障碍物的检测信息;
若所述超声波雷达检测到所述障碍物的高度高于或等于所述预设阈值,则确定所述预设路径中存在障碍物,并记录所述超声波雷达的检测结果;
其中,根据超声波雷达对所述机器人预设路径的检测结果,确定所述预设路径中存在障碍物之后,还包括:
根据所述机器人的型号,确定巡视机器人的体积;并根据所述体积预先设定所述超声波检测的障碍物体积阈值;
若所述超声波雷达检测到所述障碍物的体积大小低于所述障碍物体积阈值,则确定所述障碍物为可碰撞障碍物并过滤所述障碍物的检测信息;
若所述超声波雷达检测到所述障碍物的体积大小高于或等于所述障碍物体积阈值,则确定所述障碍物为不可碰撞障碍物,并记录所述超声波雷达的检测结果;
将所述机器人的位置姿态信息及所述机器人的当前移动序列和所述机器人预设路径中的移动序列,输入至预先训练的第一移动模型之前,还包括:
构建与所述机器人工作环境相同或类似的部署环境,以确定包含所述机器人避障数据的数据集;
截取所述机器人的避障数据,并根据预设周期将所述避障数据划分为多个独立时间片段对应的避障数据片段;其中,所述避障数据片段至少包括:所述机器人在该时间片段的位置姿态序列、所述机器人在该时间片段拍摄的图像、所述机器人在该时间片段的移动序列;
将所述机器人该时间片段的位置姿态序列及该时间片段之后的时间片段所对应的位置姿态序列输入第一移动模型进行训练,以训练出符合要求第一移动模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110772616.0A CN113532461B (zh) | 2021-07-08 | 2021-07-08 | 一种机器人自主避障导航的方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110772616.0A CN113532461B (zh) | 2021-07-08 | 2021-07-08 | 一种机器人自主避障导航的方法、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113532461A CN113532461A (zh) | 2021-10-22 |
CN113532461B true CN113532461B (zh) | 2024-02-09 |
Family
ID=78098288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110772616.0A Active CN113532461B (zh) | 2021-07-08 | 2021-07-08 | 一种机器人自主避障导航的方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113532461B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114047757B (zh) * | 2021-11-05 | 2023-05-19 | 季华实验室 | 一种多agv路径评估规划方法 |
TWI808792B (zh) * | 2021-12-22 | 2023-07-11 | 友達光電股份有限公司 | 清掃裝置 |
CN114265416B (zh) * | 2022-02-28 | 2022-06-28 | 季华实验室 | 一种agv小车控制方法、装置、电子设备及存储介质 |
CN117908031A (zh) * | 2024-01-20 | 2024-04-19 | 广东图灵智新技术有限公司 | 一种机器人自主导航*** |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108255182A (zh) * | 2018-01-30 | 2018-07-06 | 上海交通大学 | 一种基于深度强化学习的服务机器人行人感知避障方法 |
CN110069056A (zh) * | 2018-01-24 | 2019-07-30 | 南京机器人研究院有限公司 | 一种应用于扫地机器人的行走控制方法 |
CN110989631A (zh) * | 2019-12-30 | 2020-04-10 | 科沃斯机器人股份有限公司 | 自移动机器人控制方法、装置、自移动机器人和存储介质 |
CN111045428A (zh) * | 2019-12-27 | 2020-04-21 | 深圳前海达闼云端智能科技有限公司 | 避障方法、移动机器人及计算机可读存储介质 |
CN111381594A (zh) * | 2020-03-09 | 2020-07-07 | 兰剑智能科技股份有限公司 | 基于3d视觉的agv空间避障方法及*** |
CN111542836A (zh) * | 2017-10-04 | 2020-08-14 | 华为技术有限公司 | 一种使用神经网络为对象选择动作的方法 |
CN112445209A (zh) * | 2019-08-15 | 2021-03-05 | 纳恩博(北京)科技有限公司 | 机器人的控制方法和机器人、存储介质及电子装置 |
CN112650235A (zh) * | 2020-03-11 | 2021-04-13 | 南京奥拓电子科技有限公司 | 一种机器人避障控制方法、***及机器人 |
CN112766499A (zh) * | 2021-02-02 | 2021-05-07 | 电子科技大学 | 一种通过强化学习技术实现无人机自主飞行的方法 |
WO2021103987A1 (zh) * | 2019-11-29 | 2021-06-03 | 深圳市杉川机器人有限公司 | 扫地机器人控制方法、扫地机器人及存储介质 |
-
2021
- 2021-07-08 CN CN202110772616.0A patent/CN113532461B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111542836A (zh) * | 2017-10-04 | 2020-08-14 | 华为技术有限公司 | 一种使用神经网络为对象选择动作的方法 |
CN110069056A (zh) * | 2018-01-24 | 2019-07-30 | 南京机器人研究院有限公司 | 一种应用于扫地机器人的行走控制方法 |
CN108255182A (zh) * | 2018-01-30 | 2018-07-06 | 上海交通大学 | 一种基于深度强化学习的服务机器人行人感知避障方法 |
CN112445209A (zh) * | 2019-08-15 | 2021-03-05 | 纳恩博(北京)科技有限公司 | 机器人的控制方法和机器人、存储介质及电子装置 |
WO2021103987A1 (zh) * | 2019-11-29 | 2021-06-03 | 深圳市杉川机器人有限公司 | 扫地机器人控制方法、扫地机器人及存储介质 |
CN111045428A (zh) * | 2019-12-27 | 2020-04-21 | 深圳前海达闼云端智能科技有限公司 | 避障方法、移动机器人及计算机可读存储介质 |
CN110989631A (zh) * | 2019-12-30 | 2020-04-10 | 科沃斯机器人股份有限公司 | 自移动机器人控制方法、装置、自移动机器人和存储介质 |
CN111381594A (zh) * | 2020-03-09 | 2020-07-07 | 兰剑智能科技股份有限公司 | 基于3d视觉的agv空间避障方法及*** |
CN112650235A (zh) * | 2020-03-11 | 2021-04-13 | 南京奥拓电子科技有限公司 | 一种机器人避障控制方法、***及机器人 |
CN112766499A (zh) * | 2021-02-02 | 2021-05-07 | 电子科技大学 | 一种通过强化学习技术实现无人机自主飞行的方法 |
Non-Patent Citations (3)
Title |
---|
Optical flow-based segmentation of moving objects for mobile robot navigation using pre-trained deep learning models;Artúr I. Károly等;《2019 IEEE International Conference on Systems, Man and Cybernetics (SMC)》;全文 * |
全自主机器人避障控制方法的研究;刘祚时;罗爱华;童俊华;;煤矿机电(第02期);全文 * |
未知环境下移动机器人路径规划方法;石鸿雁, 孙茂相, 孙昌志;沈阳工业大学学报(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113532461A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113532461B (zh) | 一种机器人自主避障导航的方法、设备及存储介质 | |
Dai et al. | Fast frontier-based information-driven autonomous exploration with an mav | |
CN111700546B (zh) | 一种移动机器人的清扫方法及移动机器人 | |
CN107861508B (zh) | 一种移动机器人局部运动规划方法及装置 | |
Fox | Markov localization-a probabilistic framework for mobile robot localization and navigation. | |
Schultz et al. | Roboshepherd: Learning a complex behavior | |
CN109163722B (zh) | 一种仿人机器人路径规划方法及装置 | |
KR102629036B1 (ko) | 로봇 및 그의 제어 방법 | |
CN112075879A (zh) | 一种信息处理方法、装置及存储介质 | |
Prieto et al. | A methodology to monitor construction progress using autonomous robots | |
Pérez-Higueras et al. | Robot local navigation with learned social cost functions | |
KR20160048530A (ko) | 자율 이동 차량의 경로 생성 방법 및 경로 생성 장치 | |
US20210174245A1 (en) | Using a recursive reinforcement model to determine an agent action | |
Liu et al. | Episodic memory-based robotic planning under uncertainty | |
CN113433937A (zh) | 基于启发式探索的分层导航避障***、分层导航避障方法 | |
CN114460939A (zh) | 复杂环境下智能行走机器人自主导航改进方法 | |
US11467598B2 (en) | Method of estimating position in local area of large space and robot and cloud server implementing thereof | |
CN111975775B (zh) | 基于多角度视觉感知的自主机器人导航方法及*** | |
Wang et al. | Path planning model of mobile robots in the context of crowds | |
Yotsukura et al. | Framework of an emergency management system using different rescue simulators | |
Diaz et al. | Guided Visual Inspection enabled by AI-based Detection Models | |
Laugier et al. | Steps towards safe navigation in open and dynamic environments | |
US20230324921A1 (en) | Autonomous Robotic Platform | |
Rusu et al. | Leaving flatland: Realtime 3D stereo semantic reconstruction | |
Caley | Deep learning for robotic exploration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |