CN114998276A - 一种基于三维点云的机器人动态障碍物实时检测方法 - Google Patents
一种基于三维点云的机器人动态障碍物实时检测方法 Download PDFInfo
- Publication number
- CN114998276A CN114998276A CN202210667977.3A CN202210667977A CN114998276A CN 114998276 A CN114998276 A CN 114998276A CN 202210667977 A CN202210667977 A CN 202210667977A CN 114998276 A CN114998276 A CN 114998276A
- Authority
- CN
- China
- Prior art keywords
- point
- scanning period
- static
- point cloud
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000011897 real-time detection Methods 0.000 title claims abstract description 9
- 230000004888 barrier function Effects 0.000 claims abstract description 20
- 238000005070 sampling Methods 0.000 claims abstract description 4
- 230000011218 segmentation Effects 0.000 claims abstract description 4
- 230000003068 static effect Effects 0.000 claims description 60
- 230000009466 transformation Effects 0.000 claims description 27
- 239000011159 matrix material Substances 0.000 claims description 24
- 238000012886 linear function Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000005457 optimization Methods 0.000 abstract 1
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/06—Topological mapping of higher dimensional structures onto lower dimensional surfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于三维点云的动态障碍物实时检测方法,属于人工智能领域,首先根据三维点云数据的曲率大小提取三维点云数据中特征点,构建机器人运动状态代价函数并进行非线性优化;然后,对三维点云数据进行降采样、地面分割和非地面三维点云聚类,获得多个扫描周期非地面三维点云数据中的障碍物位置信息,并结合机器人的位姿将障碍物位置信息投影至当前扫描周期中非地面三维点云所对应的坐标系;其次,使用基于非地面三维点云数据的IoU‑Tracker实现数据关联,进行多个障碍物跟踪并获取每个障碍物的轨迹信息;最后,根据获取每个障碍物轨迹信息检测出动态障碍物。本发明使用激光雷达实现动态障碍物的检测,实时性强,准确率高。
Description
技术领域
本发明涉及到人工智能领域,具体涉及一种基于三维点云的机器人动态障碍物实时检测方法。
背景技术
随着智能感知和智能控制技术的快速发展,机器人自主能力也随之得到提高,并在日常生产、智慧物流和军事作战等领域得到广泛的应用。而智能移动机器人的自主导航能力是其智能化的关键技术之一。
目前国内外关于移动机器人已经有了许多成熟的研究成果,然而大多数研究成果是在静态环境或已知环境中进行的。在静态环境或已知环境中,通过离线的全局地图可以快速的规划出一条到终点的可行驶路径,实现移动机器人的自主导航。相比而言,在存在动态障碍物且没有已知地图的未知动态环境下,实现移动机器人自主导航研究比较困难。未知动态环境即没有已知地图且环境中存在动态障碍物的环境,未知动态环境中存在动态障碍物,例如行人、车辆等,会对移动机器人的定位建图、路径规划产生负面影响。在机器人构建环境地图时,动态障碍物的位置会随时发生变化,使最终建立的地图无法正确反映所处环境,阻碍移动机器人的自主导航。在机器人进行路径规划时,动态障碍物的前进轨迹可能会与规划得到的路径交叉重合,容易导致碰撞。因此在机器人的运行过程中,不仅要检测出环境中的障碍物,也要对检测到的障碍物进行区分,面对动态障碍物执行不同的策略。
相机和激光雷达是机器人检测障碍物最常用的传感器。相机可以感知颜色信息,并且不会发出任何测量信号,这意味着不会影响其它的感知***,随着图像处理与计算机视觉技术的发展,可以通过深度学习等人工智能算法实现目标检测,并识别目标的种类,以此检测动态障碍物,但深度学习依赖数据库的训练,硬件成本高。激光雷达不受光照条件的影响,通过发射激光可以有效地测量200米范围内的深度信息,即到物体的距离,从而获取三维信息。
发明内容
本发明的目的是针对机器人在自主导航过程中出现动态障碍物的问题,提出了一种基于三维点云的机器人动态障碍物实时检测方法。
实现本发明目的的技术解决方案为:一种基于三维点云的动态障碍物实时检测方法,具体步骤如下:
步骤S1,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1,进入步骤S2。
步骤S2,对三维点云数据集P进行降采样、地面分割和非地面点云聚类,得到多个扫描周期的包含静态和动态障碍物三维包围框:D={D1,D2,...Dk...DK}={{d1,d2,...,dn},{d1,d2,...,dn},...},D为多个扫描周期检测到的静态和动态障碍物集合,Dk指的是第k次扫描周期检测到的静态和动态障碍物集合,dn为其中一个扫描周期中检测到的第n个静态和动态障碍物,进入步骤S3。
步骤S3,结合机器人的位姿变换矩阵Tk-3、Tk-2、Tk-1,将第k-3、k-2、k-1个扫描周期的静态和动态障碍物三维包围框分别投影到第k次扫描周期的静态和动态障碍物三维包围框所在坐标系中,对应得到第k-3、k-2、k-1个扫描周期融合后静态和动态障碍物三维包围框Dk={Dk-3,Dk-2,Dk-1}={{d1,d2,...,dn},{d1,d2,...,dn},{d1,d2,...,dn}},进入步骤S4。
步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹,进入步骤S5。
步骤S5,根据静态和动态障碍物的历史轨迹,检测出动态障碍物。
本发明与现有技术相比,其显著优点在于:
(1)在没有IMU与相机的辅助下,仅使用激光雷达实现动态障碍物的实时检测,减少***的复杂度;通过激光雷达实现机器人的位姿估计,运用到移动中的机器人时仍能实现稳定的检测。
(2)采用基于非地面三维点云数据的IoU-Tracker实现数据关联,进行多个障碍物跟踪并获取每个障碍物的轨迹信息,根据障碍物轨迹信息检测出动态障碍物。相对于先识别障碍物种类再判断是否为动态障碍物的方法,本发明对机器人计算平台的要求更低,更能适应多种环境。
附图说明
图1为本发明的一种基于三维点云的动态障碍物实时检测方法框图。
图2为动态障碍物检测流程图。
图3为三维点云融合效果图,其中图(a)是整体点云投影,图(b)是行人点云投影,图(c)是行李箱点云投影。
图4为动态障碍物检测结果图。
具体实施方式
下面结合具体实施方式对本发明做进一步详细的说明。
结合图1和图2,本发明所述的基于三维点云的机器人动态障碍物实时检测方法,步骤如下:
步骤S1,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1。
步骤S1.1,计算原始激光雷达三维点云数据集P中每个点的曲率c:
步骤S1.2,将曲率c按照大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集,进入步骤S1.3。
步骤S1.3,假设机器人的初始位姿变换矩阵为T0=0,利用 计算得到第1次扫描周期位姿变换矩阵T1;根据位姿变换矩阵T1,利用计算得到第2次扫描周期的位姿变换矩阵T2,不断迭代收敛,得到第k、k+1次扫描周期位姿变换矩阵为Tk、Tk+1,利用位姿变换矩阵Tk把第k次扫描周期的三维点云Pk投影至第k+1周期初始时刻tk+1,得到第k次扫描周期的三维投影点云第k次扫描周期的边缘特征点集第k次扫描周期的平面特征点集利用位姿变换矩阵Tk+1把第k+1次扫描周期的三维点云Pk+1投影第k+1周期初始时刻tk+1,得到第k+1次扫描周期的三维投影点云第k+1次扫描周期的边缘特征点集第k+1次扫描周期的平面特征点集进入步骤S1.4。
其中,点i1为中一个点,点j1为点i1最近邻点,点l1为连续两次扫描周期中点j1的最近邻点,j1≠l1,dε为点i1到直线j1l1的距离,为点i1在激光雷达坐标系L下的坐标,为点j1在激光雷达坐标系L下的坐标,为点l1在激光雷达坐标系L下的坐标。
其中,点i2为中一个点,点j2、点l2为点i2的两个不同的最近邻点,j2≠l2,点m为点i2的最近邻点,点m在点j2的连续两次扫描周期中,dρ为点i2到平面j2l2m的距离,为点i2在激光雷达坐标系L下的坐标,为点j2在激光雷达坐标系L下的坐标,为点l2在激光雷达坐标系L下的坐标,为点m在激光雷达坐标系L下的坐标,进入步骤S1.5。
步骤S1.5,利用代价函数dε和dp构建距离模型d,d是关于位姿变换Tk+1的非线性函数f(Tk+1)=d,使用最小二乘法优化直到|d|的值接近0,求解机器人的位姿变换Tk+1:
进入步骤S2。
步骤S2,对三维点云数据集P进行降采样、地面分割和非地面点云聚类,得到多个扫描周期的包含静态和动态障碍物三维包围框:D={D1,D2,...Dk...DK}={{d1,d2,...,dn},{d1,d2,...,dn},...},D为多个扫描周期检测到的静态和动态障碍物集合,Dk指的是第k次扫描周期检测到的静态和动态障碍物集合,dn为其中一个扫描周期中检测到的第n个静态和动态障碍物,进入步骤S3。
步骤S3,如图3所示,结合机器人的位姿变换矩阵Tk-3、Tk-2、Tk-1,将第k-3、k-2、k-1个扫描周期的静态和动态障碍物三维包围框分别投影到第k次扫描周期的静态和动态障碍物三维包围框所在坐标系中,对应得到第k-3、k-2、k-1个扫描周期融合后静态和动态障碍物三维包围框Dk={Dk-3,Dk-2,Dk-1}={{d1,d2,...,dn},{d1,d2,...,dn},{d1,d2,...,dn}},进入步骤S4。
步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹。
作为对本发明的优选,具体步骤如下:
步骤S4.1,初始化集合Ta和Tf,Ta用于存储检测到的静态和动态障碍物所有轨迹,Tf为保存Ta中有效的轨迹并作为静态和动态障碍物跟踪的结果,Tf={lli|lli>lth,lli∈Ta},进入步骤S4.2。
步骤S4.2,将包含静态和动态障碍物的三维包围框坐标集合中定义检测到的第p个静态或动态障碍物dp,p∈[0,n],计算dp三维包围框 与Ta中第q个轨迹lq末端所对应三维包围框 的交并比IoU(dp,lq):
其中,为组成dp三维包围框坐标点, 组成lp三维包围框坐标点,若交并比IoU(dp,lq)大于阈值σIoU,则加入集合DIoU={dp|IoU(dp,lq)≥σIoU,dp∈Dk},进入步骤S4.3。
步骤S4.3,判断集合DIoU的数量是否为零:
若集合DIoU的数量不为零,计算集合DIoU中每个静态或动态障碍物中心坐标与轨迹lq末端中心坐标的距离,将计算得到的距离最小的静态或动态障碍物dmin_l加入到轨迹lq,并把该静态或动态障碍物从Dk中删除,进入步骤S4.4。
若集合DIoU的数量为零,比较当前时间与该轨迹的更新时间,若时间差大于阈值tmin,将该轨迹从集合Ta中删除,进入步骤S4.4。
步骤S4.4,重复步骤S4.3,遍历Dk中的所有静态和动态障碍物,对集合Dk中满足步骤S4.3的静态和动态障碍物,创建新的轨迹,并将其加入集合Ta中,进入步骤S4.5。
步骤S4.5,遍历集合Ta中的每个轨迹,将轨迹长度大于阈值lth的轨迹加集合Tf,输出静态和动态障碍物的历史轨迹集合Tf,如图4所示。进入步骤S5。
步骤S5,根据静态和动态障碍物的历史轨迹,检测出动态障碍物。
上述实施例为本发明最佳的实施例及运用技术原理,但本发明的实施例方式并不受上述实施例的限制,其他不违背本发明的原理下所做的改变、修饰、替代、组合、简化,均应为等效的置换方式,都在本发明的保护范围之内。
Claims (3)
1.一种基于三维点云的动态障碍物实时检测方法,其特征在于,步骤如下:
步骤S1,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1,进入步骤S2;
步骤S2,对三维点云数据集P进行降采样、地面分割和非地面点云聚类,得到多个扫描周期的包含静态和动态障碍物三维包围框:D={D1,D2,...Dk...DK}={{d1,d2,...,dn},{d1,d2,...,dn},...},D为多个扫描周期检测到的静态和动态障碍物集合,Dk指的是第k次扫描周期检测到的静态和动态障碍物集合,dn为其中一个扫描周期中检测到的第n个静态和动态障碍物,进入步骤S3;
步骤S3,结合机器人的位姿变换矩阵Tk-3、Tk-2、Tk-1,将第k-3、k-2、k-1个扫描周期的静态和动态障碍物三维包围框分别投影到第k次扫描周期的静态和动态障碍物三维包围框所在坐标系中,对应得到第k-3、k-2、k-1个扫描周期融合后静态和动态障碍物三维包围框Dk={Dk-3,Dk-2,Dk-1}={{d1,d2,...,dn},{d1,d2,...,dn},{d1,d2,...,dn}},进入步骤S4;
步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹,进入步骤S5;
步骤S5,根据静态和动态障碍物的历史轨迹,检测出动态障碍物。
2.根据权利要求1所述的一种基于三维点云的机器人动态障碍物实时检测方法,其特征在于,步骤S1中,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1,具体如下:
步骤S1.1,计算原始激光雷达三维点云数据集P中每个点的曲率c:
步骤S1.2,将曲率c按照大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集,进入步骤S1.3;
步骤S1.3,假设机器人的初始位姿变换矩阵为T0=0,利用 计算得到第1次扫描周期位姿变换矩阵T1;根据位姿变换矩阵T1,利用计算得到第2次扫描周期的位姿变换矩阵T2,不断迭代收敛,得到第k、k+1次扫描周期位姿变换矩阵为Tk、Tk+1,利用位姿变换矩阵Tk把第k次扫描周期的三维点云Pk投影至第k+1周期初始时刻tk+1,得到第k次扫描周期的三维投影点云第k次扫描周期的边缘特征点集第k次扫描周期的平面特征点集利用位姿变换矩阵Tk+1把第k+1次扫描周期的三维点云Pk+1投影第k+1周期初始时刻tk+1,得到第k+1次扫描周期的三维投影点云第k+1次扫描周期的边缘特征点集第k+1次扫描周期的平面特征点集进入步骤S1.4;
其中,点i1为中一个点,点j1为点i1最近邻点,点l1为连续两次扫描周期中点j1的最近邻点,j1≠l1,dε为点i1到直线j1l1的距离,为点i1在激光雷达坐标系L下的坐标,为点j1在激光雷达坐标系L下的坐标,为点l1在激光雷达坐标系L下的坐标;
其中,点i2为中一个点,点j2、点l2为点i2的两个不同的最近邻点,j2≠l2,点m为点i2的最近邻点,点m在点j2的连续两次扫描周期中,dρ为点i2到平面j2l2m的距离,为点i2在激光雷达坐标系L下的坐标,为点j2在激光雷达坐标系L下的坐标,为点l2在激光雷达坐标系L下的坐标,为点m在激光雷达坐标系L下的坐标,进入步骤S1.5;
步骤S1.5,利用代价函数dε和dp构建距离模型d,d是关于位姿变换Tk+1的非线性函数f(Tk+1)=d,使用最小二乘法优化直到|d|的值接近0,求解机器人的位姿变换Tk+1:
3.根据权利要求2所述的一种基于三维点云的机器人动态障碍物实时检测方法,其特征在于,步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹,具体如下:
步骤S4.1,初始化集合Ta和Tf,Ta用于存储检测到的静态和动态障碍物所有轨迹,Tf为保存Ta中有效的轨迹并作为静态和动态障碍物跟踪的结果,Tf={lli|lli>lth,lli∈Ta},进入步骤S4.2;
步骤S4.2,将包含静态和动态障碍物的三维包围框坐标集合中定义检测到的第p个静态或动态障碍物dp,p∈[0,n],计算dp三维包围框 与Ta中第q个轨迹lq末端所对应三维包围框 的交并比IoU(dp,lq):
其中,为组成dp三维包围框坐标点, 组成lp三维包围框坐标点,若交并比IoU(dp,lq)大于阈值σIoU,则加入集合DIoU={dp|IoU(dp,lq)≥σIoU,dp∈Dk},进入步骤S4.3;
步骤S4.3,判断集合DIoU的数量是否为零:
若集合DIoU的数量不为零,计算集合DIoU中每个静态或动态障碍物中心坐标与轨迹lq末端中心坐标的距离,将计算得到的距离最小的静态或动态障碍物dmin_l加入到轨迹lq,并把该静态或动态障碍物从Dk中删除,进入步骤S4.4;
若集合DIoU的数量为零,比较当前时间与该轨迹的更新时间,若时间差大于阈值tmin,将该轨迹从集合Ta中删除,进入步骤S4.4;
步骤S4.4,重复步骤S4.3,遍历Dk中的所有静态和动态障碍物,对集合Dk中满足步骤S4.3的静态和动态障碍物,创建新的轨迹,并将其加入集合Ta中,进入步骤S4.5;
步骤S4.5,遍历集合Ta中的每个轨迹,将轨迹长度大于阈值lth的轨迹加集合Tf,输出静态和动态障碍物的历史轨迹集合Tf。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210667977.3A CN114998276B (zh) | 2022-06-14 | 2022-06-14 | 一种基于三维点云的机器人动态障碍物实时检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210667977.3A CN114998276B (zh) | 2022-06-14 | 2022-06-14 | 一种基于三维点云的机器人动态障碍物实时检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114998276A true CN114998276A (zh) | 2022-09-02 |
CN114998276B CN114998276B (zh) | 2023-06-09 |
Family
ID=83034286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210667977.3A Active CN114998276B (zh) | 2022-06-14 | 2022-06-14 | 一种基于三维点云的机器人动态障碍物实时检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114998276B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115464650A (zh) * | 2022-09-19 | 2022-12-13 | 哈尔滨工业大学 | 一种针对动态障碍物的冗余度机械臂避障模型的构建方法 |
CN116147567A (zh) * | 2023-04-20 | 2023-05-23 | 高唐县空间勘察规划有限公司 | 基于多元数据融合的国土测绘方法 |
CN117152719A (zh) * | 2023-11-01 | 2023-12-01 | 锐驰激光(深圳)有限公司 | 除草障碍物检测方法、设备、存储介质及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108152831A (zh) * | 2017-12-06 | 2018-06-12 | 中国农业大学 | 一种激光雷达障碍物识别方法及*** |
CN114387585A (zh) * | 2022-03-22 | 2022-04-22 | 新石器慧通(北京)科技有限公司 | 障碍物检测方法、检测装置及行驶装置 |
CN114384920A (zh) * | 2022-03-23 | 2022-04-22 | 安徽大学 | 一种基于局部栅格地图实时构建的动态避障方法 |
CN114445565A (zh) * | 2020-11-06 | 2022-05-06 | 北京嘀嘀无限科技发展有限公司 | 数据处理方法、装置、电子设备和计算机可读介质 |
-
2022
- 2022-06-14 CN CN202210667977.3A patent/CN114998276B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108152831A (zh) * | 2017-12-06 | 2018-06-12 | 中国农业大学 | 一种激光雷达障碍物识别方法及*** |
CN114445565A (zh) * | 2020-11-06 | 2022-05-06 | 北京嘀嘀无限科技发展有限公司 | 数据处理方法、装置、电子设备和计算机可读介质 |
CN114387585A (zh) * | 2022-03-22 | 2022-04-22 | 新石器慧通(北京)科技有限公司 | 障碍物检测方法、检测装置及行驶装置 |
CN114384920A (zh) * | 2022-03-23 | 2022-04-22 | 安徽大学 | 一种基于局部栅格地图实时构建的动态避障方法 |
Non-Patent Citations (1)
Title |
---|
蔡自兴等: "基于激光雷达的动态障碍物实时检测" * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115464650A (zh) * | 2022-09-19 | 2022-12-13 | 哈尔滨工业大学 | 一种针对动态障碍物的冗余度机械臂避障模型的构建方法 |
CN116147567A (zh) * | 2023-04-20 | 2023-05-23 | 高唐县空间勘察规划有限公司 | 基于多元数据融合的国土测绘方法 |
CN117152719A (zh) * | 2023-11-01 | 2023-12-01 | 锐驰激光(深圳)有限公司 | 除草障碍物检测方法、设备、存储介质及装置 |
CN117152719B (zh) * | 2023-11-01 | 2024-03-26 | 锐驰激光(深圳)有限公司 | 除草障碍物检测方法、设备、存储介质及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114998276B (zh) | 2023-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114998276B (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
CN111429514A (zh) | 一种融合多帧时序点云的激光雷达3d实时目标检测方法 | |
WO2022188663A1 (zh) | 一种目标检测方法及装置 | |
Zou et al. | Real-time full-stack traffic scene perception for autonomous driving with roadside cameras | |
Yin et al. | Radar-on-lidar: metric radar localization on prior lidar maps | |
Ji et al. | RGB-D SLAM using vanishing point and door plate information in corridor environment | |
CN111198496A (zh) | 一种目标跟随机器人及跟随方法 | |
CN114049382A (zh) | 一种智能网联环境下目标融合跟踪方法、***和介质 | |
Reich et al. | Monocular 3d multi-object tracking with an ekf approach for long-term stable tracks | |
CN116310679A (zh) | 多传感器融合目标检测方法、***、介质、设备及终端 | |
CN111739066B (zh) | 一种基于高斯过程的视觉定位方法、***及存储介质 | |
Menon et al. | NBV-SC: Next best view planning based on shape completion for fruit mapping and reconstruction | |
Muresan et al. | Multimodal sparse LIDAR object tracking in clutter | |
Xiong et al. | Road-Model-Based road boundary extraction for high definition map via LIDAR | |
Qing et al. | A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation | |
Lyrio et al. | Image-based mapping, global localization and position tracking using VG-RAM weightless neural networks | |
CN113971697A (zh) | 一种空地协同车辆定位定向方法 | |
Valente et al. | Evidential SLAM fusing 2D laser scanner and stereo camera | |
Nandkumar et al. | Simulation of Indoor Localization and Navigation of Turtlebot 3 using Real Time Object Detection | |
CN113741550A (zh) | 移动机器人跟随方法和*** | |
Chavan et al. | Obstacle detection and avoidance for automated vehicle: A review | |
Spampinato et al. | Deep learning localization with 2D range scanner | |
Wang et al. | Online drone-based moving target detection system in dense-obstructer environment | |
CN115373383A (zh) | 一种垃圾回收无人艇的自主避障方法、装置及相关设备 | |
Chen et al. | Multiple-object tracking based on monocular camera and 3-D lidar fusion for autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |