CN114998276A - 一种基于三维点云的机器人动态障碍物实时检测方法 - Google Patents

一种基于三维点云的机器人动态障碍物实时检测方法 Download PDF

Info

Publication number
CN114998276A
CN114998276A CN202210667977.3A CN202210667977A CN114998276A CN 114998276 A CN114998276 A CN 114998276A CN 202210667977 A CN202210667977 A CN 202210667977A CN 114998276 A CN114998276 A CN 114998276A
Authority
CN
China
Prior art keywords
point
scanning period
static
point cloud
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210667977.3A
Other languages
English (en)
Other versions
CN114998276B (zh
Inventor
吴保磊
赵子豪
郭义鑫
张文琪
王军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN202210667977.3A priority Critical patent/CN114998276B/zh
Publication of CN114998276A publication Critical patent/CN114998276A/zh
Application granted granted Critical
Publication of CN114998276B publication Critical patent/CN114998276B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种基于三维点云的动态障碍物实时检测方法,属于人工智能领域,首先根据三维点云数据的曲率大小提取三维点云数据中特征点,构建机器人运动状态代价函数并进行非线性优化;然后,对三维点云数据进行降采样、地面分割和非地面三维点云聚类,获得多个扫描周期非地面三维点云数据中的障碍物位置信息,并结合机器人的位姿将障碍物位置信息投影至当前扫描周期中非地面三维点云所对应的坐标系;其次,使用基于非地面三维点云数据的IoU‑Tracker实现数据关联,进行多个障碍物跟踪并获取每个障碍物的轨迹信息;最后,根据获取每个障碍物轨迹信息检测出动态障碍物。本发明使用激光雷达实现动态障碍物的检测,实时性强,准确率高。

Description

一种基于三维点云的机器人动态障碍物实时检测方法
技术领域
本发明涉及到人工智能领域,具体涉及一种基于三维点云的机器人动态障碍物实时检测方法。
背景技术
随着智能感知和智能控制技术的快速发展,机器人自主能力也随之得到提高,并在日常生产、智慧物流和军事作战等领域得到广泛的应用。而智能移动机器人的自主导航能力是其智能化的关键技术之一。
目前国内外关于移动机器人已经有了许多成熟的研究成果,然而大多数研究成果是在静态环境或已知环境中进行的。在静态环境或已知环境中,通过离线的全局地图可以快速的规划出一条到终点的可行驶路径,实现移动机器人的自主导航。相比而言,在存在动态障碍物且没有已知地图的未知动态环境下,实现移动机器人自主导航研究比较困难。未知动态环境即没有已知地图且环境中存在动态障碍物的环境,未知动态环境中存在动态障碍物,例如行人、车辆等,会对移动机器人的定位建图、路径规划产生负面影响。在机器人构建环境地图时,动态障碍物的位置会随时发生变化,使最终建立的地图无法正确反映所处环境,阻碍移动机器人的自主导航。在机器人进行路径规划时,动态障碍物的前进轨迹可能会与规划得到的路径交叉重合,容易导致碰撞。因此在机器人的运行过程中,不仅要检测出环境中的障碍物,也要对检测到的障碍物进行区分,面对动态障碍物执行不同的策略。
相机和激光雷达是机器人检测障碍物最常用的传感器。相机可以感知颜色信息,并且不会发出任何测量信号,这意味着不会影响其它的感知***,随着图像处理与计算机视觉技术的发展,可以通过深度学习等人工智能算法实现目标检测,并识别目标的种类,以此检测动态障碍物,但深度学习依赖数据库的训练,硬件成本高。激光雷达不受光照条件的影响,通过发射激光可以有效地测量200米范围内的深度信息,即到物体的距离,从而获取三维信息。
发明内容
本发明的目的是针对机器人在自主导航过程中出现动态障碍物的问题,提出了一种基于三维点云的机器人动态障碍物实时检测方法。
实现本发明目的的技术解决方案为:一种基于三维点云的动态障碍物实时检测方法,具体步骤如下:
步骤S1,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε12,...,εkk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ12,...,ρkk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1,进入步骤S2。
步骤S2,对三维点云数据集P进行降采样、地面分割和非地面点云聚类,得到多个扫描周期的包含静态和动态障碍物三维包围框:D={D1,D2,...Dk...DK}={{d1,d2,...,dn},{d1,d2,...,dn},...},D为多个扫描周期检测到的静态和动态障碍物集合,Dk指的是第k次扫描周期检测到的静态和动态障碍物集合,dn为其中一个扫描周期中检测到的第n个静态和动态障碍物,进入步骤S3。
步骤S3,结合机器人的位姿变换矩阵Tk-3、Tk-2、Tk-1,将第k-3、k-2、k-1个扫描周期的静态和动态障碍物三维包围框分别投影到第k次扫描周期的静态和动态障碍物三维包围框所在坐标系中,对应得到第k-3、k-2、k-1个扫描周期融合后静态和动态障碍物三维包围框Dk={Dk-3,Dk-2,Dk-1}={{d1,d2,...,dn},{d1,d2,...,dn},{d1,d2,...,dn}},进入步骤S4。
步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹,进入步骤S5。
步骤S5,根据静态和动态障碍物的历史轨迹,检测出动态障碍物。
本发明与现有技术相比,其显著优点在于:
(1)在没有IMU与相机的辅助下,仅使用激光雷达实现动态障碍物的实时检测,减少***的复杂度;通过激光雷达实现机器人的位姿估计,运用到移动中的机器人时仍能实现稳定的检测。
(2)采用基于非地面三维点云数据的IoU-Tracker实现数据关联,进行多个障碍物跟踪并获取每个障碍物的轨迹信息,根据障碍物轨迹信息检测出动态障碍物。相对于先识别障碍物种类再判断是否为动态障碍物的方法,本发明对机器人计算平台的要求更低,更能适应多种环境。
附图说明
图1为本发明的一种基于三维点云的动态障碍物实时检测方法框图。
图2为动态障碍物检测流程图。
图3为三维点云融合效果图,其中图(a)是整体点云投影,图(b)是行人点云投影,图(c)是行李箱点云投影。
图4为动态障碍物检测结果图。
具体实施方式
下面结合具体实施方式对本发明做进一步详细的说明。
结合图1和图2,本发明所述的基于三维点云的机器人动态障碍物实时检测方法,步骤如下:
步骤S1,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε12,...,εkk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ12,...,ρkk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1
步骤S1.1,计算原始激光雷达三维点云数据集P中每个点的曲率c:
Figure BDA0003693641600000031
其中,S为点i最近邻点集,
Figure BDA0003693641600000032
为激光雷达坐标系L下的第k次扫描周期中点i的坐标,
Figure BDA0003693641600000033
表示在激光雷达坐标系L下的第k次扫描周期中点j的坐标,j∈S,进入步骤S1.2。
步骤S1.2,将曲率c按照大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε12,...,εkk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ12,...,ρkk+1,...},ρk为第k次扫描周期的平面特征点集,进入步骤S1.3。
步骤S1.3,假设机器人的初始位姿变换矩阵为T0=0,利用
Figure BDA0003693641600000041
Figure BDA0003693641600000042
计算得到第1次扫描周期位姿变换矩阵T1;根据位姿变换矩阵T1,利用
Figure BDA0003693641600000043
计算得到第2次扫描周期的位姿变换矩阵T2,不断迭代收敛,得到第k、k+1次扫描周期位姿变换矩阵为Tk、Tk+1,利用位姿变换矩阵Tk把第k次扫描周期的三维点云Pk投影至第k+1周期初始时刻tk+1,得到第k次扫描周期的三维投影点云
Figure BDA0003693641600000044
第k次扫描周期的边缘特征点集
Figure BDA0003693641600000045
第k次扫描周期的平面特征点集
Figure BDA0003693641600000046
利用位姿变换矩阵Tk+1把第k+1次扫描周期的三维点云Pk+1投影第k+1周期初始时刻tk+1,得到第k+1次扫描周期的三维投影点云
Figure BDA0003693641600000047
第k+1次扫描周期的边缘特征点集
Figure BDA0003693641600000048
第k+1次扫描周期的平面特征点集
Figure BDA0003693641600000049
进入步骤S1.4。
步骤S1.4,根据边缘特征点集
Figure BDA00036936416000000410
平面特征点集
Figure BDA00036936416000000411
构建机器人位姿代价函数dε和dp
Figure BDA00036936416000000412
其中,点i1
Figure BDA00036936416000000413
中一个点,点j1为点i1最近邻点,点l1为连续两次扫描周期中点j1的最近邻点,j1≠l1
Figure BDA00036936416000000414
dε为点i1到直线j1l1的距离,
Figure BDA00036936416000000415
为点i1在激光雷达坐标系L下的坐标,
Figure BDA00036936416000000416
为点j1在激光雷达坐标系L下的坐标,
Figure BDA00036936416000000417
为点l1在激光雷达坐标系L下的坐标。
Figure BDA00036936416000000418
其中,点i2
Figure BDA00036936416000000419
中一个点,点j2、点l2为点i2的两个不同的最近邻点,j2≠l2,点m为点i2的最近邻点,点m在点j2的连续两次扫描周期中,
Figure BDA00036936416000000420
dρ为点i2到平面j2l2m的距离,
Figure BDA00036936416000000421
为点i2在激光雷达坐标系L下的坐标,
Figure BDA00036936416000000422
为点j2在激光雷达坐标系L下的坐标,
Figure BDA00036936416000000423
为点l2在激光雷达坐标系L下的坐标,
Figure BDA00036936416000000424
为点m在激光雷达坐标系L下的坐标,进入步骤S1.5。
步骤S1.5,利用代价函数dε和dp构建距离模型d,d是关于位姿变换Tk+1的非线性函数f(Tk+1)=d,使用最小二乘法优化直到|d|的值接近0,求解机器人的位姿变换Tk+1
Figure BDA0003693641600000051
其中,Tk+1为机器人的位姿变换,λ为拉格朗日乘子,
Figure BDA0003693641600000052
为雅可比矩阵。
进入步骤S2。
步骤S2,对三维点云数据集P进行降采样、地面分割和非地面点云聚类,得到多个扫描周期的包含静态和动态障碍物三维包围框:D={D1,D2,...Dk...DK}={{d1,d2,...,dn},{d1,d2,...,dn},...},D为多个扫描周期检测到的静态和动态障碍物集合,Dk指的是第k次扫描周期检测到的静态和动态障碍物集合,dn为其中一个扫描周期中检测到的第n个静态和动态障碍物,进入步骤S3。
步骤S3,如图3所示,结合机器人的位姿变换矩阵Tk-3、Tk-2、Tk-1,将第k-3、k-2、k-1个扫描周期的静态和动态障碍物三维包围框分别投影到第k次扫描周期的静态和动态障碍物三维包围框所在坐标系中,对应得到第k-3、k-2、k-1个扫描周期融合后静态和动态障碍物三维包围框Dk={Dk-3,Dk-2,Dk-1}={{d1,d2,...,dn},{d1,d2,...,dn},{d1,d2,...,dn}},进入步骤S4。
步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹。
作为对本发明的优选,具体步骤如下:
步骤S4.1,初始化集合Ta和Tf,Ta用于存储检测到的静态和动态障碍物所有轨迹,
Figure BDA0003693641600000053
Tf为保存Ta中有效的轨迹并作为静态和动态障碍物跟踪的结果,Tf={lli|lli>lth,lli∈Ta},进入步骤S4.2。
步骤S4.2,将包含静态和动态障碍物的三维包围框坐标集合中定义检测到的第p个静态或动态障碍物dp,p∈[0,n],计算dp三维包围框
Figure BDA0003693641600000054
Figure BDA0003693641600000055
与Ta中第q个轨迹lq末端所对应三维包围框
Figure BDA0003693641600000056
Figure BDA0003693641600000065
的交并比IoU(dp,lq):
Figure BDA0003693641600000061
其中,
Figure BDA0003693641600000066
为组成dp三维包围框坐标点,
Figure BDA0003693641600000067
Figure BDA0003693641600000068
组成lp三维包围框坐标点,若交并比IoU(dp,lq)大于阈值σIoU,则加入集合DIoU={dp|IoU(dp,lq)≥σIoU,dp∈Dk},进入步骤S4.3。
步骤S4.3,判断集合DIoU的数量是否为零:
若集合DIoU的数量不为零,计算集合DIoU中每个静态或动态障碍物中心坐标与轨迹lq末端中心坐标的距离,将计算得到的距离最小的静态或动态障碍物dmin_l加入到轨迹lq,并把该静态或动态障碍物从Dk中删除,进入步骤S4.4。
Figure BDA0003693641600000062
其中,
Figure BDA0003693641600000063
为集合DIoU中第O个静态或动态障碍物中心坐标,
Figure BDA0003693641600000064
为轨迹lq末端中心坐标;
若集合DIoU的数量为零,比较当前时间与该轨迹的更新时间,若时间差大于阈值tmin,将该轨迹从集合Ta中删除,进入步骤S4.4。
步骤S4.4,重复步骤S4.3,遍历Dk中的所有静态和动态障碍物,对集合Dk中满足步骤S4.3的静态和动态障碍物,创建新的轨迹,并将其加入集合Ta中,进入步骤S4.5。
步骤S4.5,遍历集合Ta中的每个轨迹,将轨迹长度大于阈值lth的轨迹加集合Tf,输出静态和动态障碍物的历史轨迹集合Tf,如图4所示。进入步骤S5。
步骤S5,根据静态和动态障碍物的历史轨迹,检测出动态障碍物。
上述实施例为本发明最佳的实施例及运用技术原理,但本发明的实施例方式并不受上述实施例的限制,其他不违背本发明的原理下所做的改变、修饰、替代、组合、简化,均应为等效的置换方式,都在本发明的保护范围之内。

Claims (3)

1.一种基于三维点云的动态障碍物实时检测方法,其特征在于,步骤如下:
步骤S1,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1,进入步骤S2;
步骤S2,对三维点云数据集P进行降采样、地面分割和非地面点云聚类,得到多个扫描周期的包含静态和动态障碍物三维包围框:D={D1,D2,...Dk...DK}={{d1,d2,...,dn},{d1,d2,...,dn},...},D为多个扫描周期检测到的静态和动态障碍物集合,Dk指的是第k次扫描周期检测到的静态和动态障碍物集合,dn为其中一个扫描周期中检测到的第n个静态和动态障碍物,进入步骤S3;
步骤S3,结合机器人的位姿变换矩阵Tk-3、Tk-2、Tk-1,将第k-3、k-2、k-1个扫描周期的静态和动态障碍物三维包围框分别投影到第k次扫描周期的静态和动态障碍物三维包围框所在坐标系中,对应得到第k-3、k-2、k-1个扫描周期融合后静态和动态障碍物三维包围框Dk={Dk-3,Dk-2,Dk-1}={{d1,d2,...,dn},{d1,d2,...,dn},{d1,d2,...,dn}},进入步骤S4;
步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹,进入步骤S5;
步骤S5,根据静态和动态障碍物的历史轨迹,检测出动态障碍物。
2.根据权利要求1所述的一种基于三维点云的机器人动态障碍物实时检测方法,其特征在于,步骤S1中,将激光雷达固定安装于机器人上,采集原始激光雷达三维点云数据集P={P1,P2,...,Pk,Pk+1,...},Pk为第k次扫描周期的点云数据集,计算数据集P中每个点的曲率,按照曲率大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集;根据边缘特征点集ε与平面特征集ρ构建关于机器人运动状态的代价函数,求解机器人第1,2,...,k,k+1次扫描周期的位姿变换矩阵T1,T2,....,Tk,Tk+1,具体如下:
步骤S1.1,计算原始激光雷达三维点云数据集P中每个点的曲率c:
Figure FDA0003693641590000021
其中,S为点i最近邻点集,
Figure FDA0003693641590000022
为激光雷达坐标系L下的第k次扫描周期中点i的坐标,
Figure FDA0003693641590000023
表示在激光雷达坐标系L下的第k次扫描周期中点j的坐标,j∈S,进入步骤S1.2;
步骤S1.2,将曲率c按照大小进行排序,选取曲率大于阈值cmax的加入边缘特征点集ε={ε1,ε2,...,εk,εk+1,...},εk为第k次扫描周期的边缘特征点集,曲率小于cmin的点加入平面特征点集ρ={ρ1,ρ2,...,ρk,ρk+1,...},ρk为第k次扫描周期的平面特征点集,进入步骤S1.3;
步骤S1.3,假设机器人的初始位姿变换矩阵为T0=0,利用
Figure FDA0003693641590000024
Figure FDA0003693641590000025
计算得到第1次扫描周期位姿变换矩阵T1;根据位姿变换矩阵T1,利用
Figure FDA0003693641590000026
计算得到第2次扫描周期的位姿变换矩阵T2,不断迭代收敛,得到第k、k+1次扫描周期位姿变换矩阵为Tk、Tk+1,利用位姿变换矩阵Tk把第k次扫描周期的三维点云Pk投影至第k+1周期初始时刻tk+1,得到第k次扫描周期的三维投影点云
Figure FDA0003693641590000027
第k次扫描周期的边缘特征点集
Figure FDA0003693641590000028
第k次扫描周期的平面特征点集
Figure FDA0003693641590000029
利用位姿变换矩阵Tk+1把第k+1次扫描周期的三维点云Pk+1投影第k+1周期初始时刻tk+1,得到第k+1次扫描周期的三维投影点云
Figure FDA00036936415900000210
第k+1次扫描周期的边缘特征点集
Figure FDA00036936415900000211
第k+1次扫描周期的平面特征点集
Figure FDA00036936415900000212
进入步骤S1.4;
步骤S1.4,根据边缘特征点集
Figure FDA00036936415900000213
平面特征点集
Figure FDA00036936415900000214
构建机器人位姿代价函数dε和dp
Figure FDA00036936415900000215
其中,点i1
Figure FDA00036936415900000216
中一个点,点j1为点i1最近邻点,点l1为连续两次扫描周期中点j1的最近邻点,j1≠l1
Figure FDA0003693641590000031
dε为点i1到直线j1l1的距离,
Figure FDA0003693641590000032
为点i1在激光雷达坐标系L下的坐标,
Figure FDA0003693641590000033
为点j1在激光雷达坐标系L下的坐标,
Figure FDA0003693641590000034
为点l1在激光雷达坐标系L下的坐标;
Figure FDA0003693641590000035
其中,点i2
Figure FDA0003693641590000036
中一个点,点j2、点l2为点i2的两个不同的最近邻点,j2≠l2,点m为点i2的最近邻点,点m在点j2的连续两次扫描周期中,
Figure FDA0003693641590000037
dρ为点i2到平面j2l2m的距离,
Figure FDA0003693641590000038
为点i2在激光雷达坐标系L下的坐标,
Figure FDA0003693641590000039
为点j2在激光雷达坐标系L下的坐标,
Figure FDA00036936415900000310
为点l2在激光雷达坐标系L下的坐标,
Figure FDA00036936415900000311
为点m在激光雷达坐标系L下的坐标,进入步骤S1.5;
步骤S1.5,利用代价函数dε和dp构建距离模型d,d是关于位姿变换Tk+1的非线性函数f(Tk+1)=d,使用最小二乘法优化直到|d|的值接近0,求解机器人的位姿变换Tk+1
Figure FDA00036936415900000312
其中,Tk+1为机器人的位姿变换,λ为拉格朗日乘子,
Figure FDA00036936415900000313
为雅可比矩阵。
3.根据权利要求2所述的一种基于三维点云的机器人动态障碍物实时检测方法,其特征在于,步骤S4,根据融合后静态和动态障碍物三维包围框,使用基于非地面三维点云的IoU-Tracker实现数据关联,进行静态和动态障碍物跟踪,获取静态和动态障碍物的历史轨迹,具体如下:
步骤S4.1,初始化集合Ta和Tf,Ta用于存储检测到的静态和动态障碍物所有轨迹,
Figure FDA00036936415900000314
Tf为保存Ta中有效的轨迹并作为静态和动态障碍物跟踪的结果,Tf={lli|lli>lth,lli∈Ta},进入步骤S4.2;
步骤S4.2,将包含静态和动态障碍物的三维包围框坐标集合中定义检测到的第p个静态或动态障碍物dp,p∈[0,n],计算dp三维包围框
Figure FDA00036936415900000315
Figure FDA00036936415900000316
与Ta中第q个轨迹lq末端所对应三维包围框
Figure FDA00036936415900000317
Figure FDA0003693641590000041
的交并比IoU(dp,lq):
Figure FDA0003693641590000042
其中,
Figure FDA0003693641590000043
为组成dp三维包围框坐标点,
Figure FDA0003693641590000044
Figure FDA0003693641590000045
组成lp三维包围框坐标点,若交并比IoU(dp,lq)大于阈值σIoU,则加入集合DIoU={dp|IoU(dp,lq)≥σIoU,dp∈Dk},进入步骤S4.3;
步骤S4.3,判断集合DIoU的数量是否为零:
若集合DIoU的数量不为零,计算集合DIoU中每个静态或动态障碍物中心坐标与轨迹lq末端中心坐标的距离,将计算得到的距离最小的静态或动态障碍物dmin_l加入到轨迹lq,并把该静态或动态障碍物从Dk中删除,进入步骤S4.4;
Figure FDA0003693641590000046
其中,
Figure FDA0003693641590000047
为集合DIoU中第O个静态或动态障碍物中心坐标,
Figure FDA0003693641590000048
为轨迹lq末端中心坐标;
若集合DIoU的数量为零,比较当前时间与该轨迹的更新时间,若时间差大于阈值tmin,将该轨迹从集合Ta中删除,进入步骤S4.4;
步骤S4.4,重复步骤S4.3,遍历Dk中的所有静态和动态障碍物,对集合Dk中满足步骤S4.3的静态和动态障碍物,创建新的轨迹,并将其加入集合Ta中,进入步骤S4.5;
步骤S4.5,遍历集合Ta中的每个轨迹,将轨迹长度大于阈值lth的轨迹加集合Tf,输出静态和动态障碍物的历史轨迹集合Tf
CN202210667977.3A 2022-06-14 2022-06-14 一种基于三维点云的机器人动态障碍物实时检测方法 Active CN114998276B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210667977.3A CN114998276B (zh) 2022-06-14 2022-06-14 一种基于三维点云的机器人动态障碍物实时检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210667977.3A CN114998276B (zh) 2022-06-14 2022-06-14 一种基于三维点云的机器人动态障碍物实时检测方法

Publications (2)

Publication Number Publication Date
CN114998276A true CN114998276A (zh) 2022-09-02
CN114998276B CN114998276B (zh) 2023-06-09

Family

ID=83034286

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210667977.3A Active CN114998276B (zh) 2022-06-14 2022-06-14 一种基于三维点云的机器人动态障碍物实时检测方法

Country Status (1)

Country Link
CN (1) CN114998276B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115464650A (zh) * 2022-09-19 2022-12-13 哈尔滨工业大学 一种针对动态障碍物的冗余度机械臂避障模型的构建方法
CN116147567A (zh) * 2023-04-20 2023-05-23 高唐县空间勘察规划有限公司 基于多元数据融合的国土测绘方法
CN117152719A (zh) * 2023-11-01 2023-12-01 锐驰激光(深圳)有限公司 除草障碍物检测方法、设备、存储介质及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108152831A (zh) * 2017-12-06 2018-06-12 中国农业大学 一种激光雷达障碍物识别方法及***
CN114387585A (zh) * 2022-03-22 2022-04-22 新石器慧通(北京)科技有限公司 障碍物检测方法、检测装置及行驶装置
CN114384920A (zh) * 2022-03-23 2022-04-22 安徽大学 一种基于局部栅格地图实时构建的动态避障方法
CN114445565A (zh) * 2020-11-06 2022-05-06 北京嘀嘀无限科技发展有限公司 数据处理方法、装置、电子设备和计算机可读介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108152831A (zh) * 2017-12-06 2018-06-12 中国农业大学 一种激光雷达障碍物识别方法及***
CN114445565A (zh) * 2020-11-06 2022-05-06 北京嘀嘀无限科技发展有限公司 数据处理方法、装置、电子设备和计算机可读介质
CN114387585A (zh) * 2022-03-22 2022-04-22 新石器慧通(北京)科技有限公司 障碍物检测方法、检测装置及行驶装置
CN114384920A (zh) * 2022-03-23 2022-04-22 安徽大学 一种基于局部栅格地图实时构建的动态避障方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
蔡自兴等: "基于激光雷达的动态障碍物实时检测" *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115464650A (zh) * 2022-09-19 2022-12-13 哈尔滨工业大学 一种针对动态障碍物的冗余度机械臂避障模型的构建方法
CN116147567A (zh) * 2023-04-20 2023-05-23 高唐县空间勘察规划有限公司 基于多元数据融合的国土测绘方法
CN117152719A (zh) * 2023-11-01 2023-12-01 锐驰激光(深圳)有限公司 除草障碍物检测方法、设备、存储介质及装置
CN117152719B (zh) * 2023-11-01 2024-03-26 锐驰激光(深圳)有限公司 除草障碍物检测方法、设备、存储介质及装置

Also Published As

Publication number Publication date
CN114998276B (zh) 2023-06-09

Similar Documents

Publication Publication Date Title
CN114998276B (zh) 一种基于三维点云的机器人动态障碍物实时检测方法
CN111429514A (zh) 一种融合多帧时序点云的激光雷达3d实时目标检测方法
WO2022188663A1 (zh) 一种目标检测方法及装置
Zou et al. Real-time full-stack traffic scene perception for autonomous driving with roadside cameras
Yin et al. Radar-on-lidar: metric radar localization on prior lidar maps
Ji et al. RGB-D SLAM using vanishing point and door plate information in corridor environment
CN111198496A (zh) 一种目标跟随机器人及跟随方法
CN114049382A (zh) 一种智能网联环境下目标融合跟踪方法、***和介质
Reich et al. Monocular 3d multi-object tracking with an ekf approach for long-term stable tracks
CN116310679A (zh) 多传感器融合目标检测方法、***、介质、设备及终端
CN111739066B (zh) 一种基于高斯过程的视觉定位方法、***及存储介质
Menon et al. NBV-SC: Next best view planning based on shape completion for fruit mapping and reconstruction
Muresan et al. Multimodal sparse LIDAR object tracking in clutter
Xiong et al. Road-Model-Based road boundary extraction for high definition map via LIDAR
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation
Lyrio et al. Image-based mapping, global localization and position tracking using VG-RAM weightless neural networks
CN113971697A (zh) 一种空地协同车辆定位定向方法
Valente et al. Evidential SLAM fusing 2D laser scanner and stereo camera
Nandkumar et al. Simulation of Indoor Localization and Navigation of Turtlebot 3 using Real Time Object Detection
CN113741550A (zh) 移动机器人跟随方法和***
Chavan et al. Obstacle detection and avoidance for automated vehicle: A review
Spampinato et al. Deep learning localization with 2D range scanner
Wang et al. Online drone-based moving target detection system in dense-obstructer environment
CN115373383A (zh) 一种垃圾回收无人艇的自主避障方法、装置及相关设备
Chen et al. Multiple-object tracking based on monocular camera and 3-D lidar fusion for autonomous vehicles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant