CN113376638A - 一种无人物流小车环境感知方法及*** - Google Patents

一种无人物流小车环境感知方法及*** Download PDF

Info

Publication number
CN113376638A
CN113376638A CN202110639869.0A CN202110639869A CN113376638A CN 113376638 A CN113376638 A CN 113376638A CN 202110639869 A CN202110639869 A CN 202110639869A CN 113376638 A CN113376638 A CN 113376638A
Authority
CN
China
Prior art keywords
point cloud
logistics trolley
environment
unmanned logistics
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110639869.0A
Other languages
English (en)
Inventor
杨波
杨涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Technology WUT
Original Assignee
Wuhan University of Technology WUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Technology WUT filed Critical Wuhan University of Technology WUT
Priority to CN202110639869.0A priority Critical patent/CN113376638A/zh
Publication of CN113376638A publication Critical patent/CN113376638A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明提供一种无人物流小车环境感知方法及***,所述方法包括:通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,环境点云图像包括多个点云数据,至少两个激光雷达的测距范围不相同;确定多个点云数据中的目标地面点云集和目标非地面点云集;通过超声波雷达获得无人物流小车第一局部环境信息,并将第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;根据至少两个激光雷达分别采集目标点云图像中同一障碍物信息的至少两个坐标值;将至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将融合坐标值作为障碍物信息的坐标值。本发明提高了无人物流小车环境感知的鲁棒性和精度。

Description

一种无人物流小车环境感知方法及***
技术领域
本发明涉及无人驾驶技术领域,具体涉及一种无人物流小车环境感知方法及***。
背景技术
近年来,随着电商和网上购物的发展,越来越多的人们选择在网上购物。同时,由于信息交流和货物流通的加速,越来越多的文件传递和商品流通也越来越依赖于通过物流进行运输。因此,物流一线人员的工作日益增多。时常有一些暴力快递的事件发生,引发了人们对于物流行业特别是快递员甚至物流行业的不满。因此,无人物流小车应运而生。
但是现有技术中的无人物流车存在感知探测范围小,车身周边存在盲区大,从而导致无人物流小车的环境感知技术存在鲁棒性差,检测精度低等技术问题。
发明内容
本发明提供一种无人物流小车环境感知方法及***,旨在解决现有技术中存在的无人物流小车的环境感知技术存在鲁棒性差,检测精度低等技术问题。
一方面,本发明提供一种无人物流小车环境感知方法,包括:
通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,所述环境点云图像包括多个点云数据,所述至少两个激光雷达的测距范围不相同;
确定所述多个点云数据中的目标地面点云集和目标非地面点云集;
通过超声波雷达获得无人物流小车第一局部环境信息,并将所述第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;
根据所述至少两个激光雷达分别采集所述目标点云图像中同一障碍物信息的至少两个坐标值;
将所述至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将所述融合坐标值作为所述障碍物信息的坐标值。
在本发明一种可能的实现方式中,所述通过至少两个激光雷达生成无人物流小车环境点云图像包括:
通过第一激光雷达扫描无人物流小车周围环境信息,生成初始点云图像;
通过GPS/IMU对所述初始点云图像进行畸变校正,生成校正点云图像;
通过第二激光雷达采集无人物流小车第二局部环境信息,并将所述第二局部环境信息和所述校正点云图像进行融合,生成所述环境点云图像。
在本发明一种可能的实现方式中,所述通过GPS/IMU对所述初始点云图像进行畸变校正包括:
通过GPS/IMU分别采集无人物流小车在所述第一激光雷达的扫描周期内当前帧的第一位姿信息以及与所述当前帧相邻的前一帧的第二位姿信息;
通过预设的坐标转换、第一位姿信息和第二位姿信息对初始点云图像进行畸变校正。
在本发明一种可能的实现方式中,所述第一位姿信息包括第一横摆角、第一俯仰角、第一航向角、位移,所述第二位姿信息包括第二横摆角、第二俯仰角、第二航向角;所述通过预设的坐标转换、第一位姿信息和第二位姿信息对初始点云图像进行畸变校正具体为:
p’=Ripi+Ti
Figure BDA0003105872760000021
Figure BDA0003105872760000022
Figure BDA0003105872760000023
式中,p’为畸变校正后的初始点云图像中各个点云数据的坐标值;Ri为总旋转矩阵;pi为畸变校正前的初始点云图像中各个点云数据的坐标值;Ti为位移矩阵;
Figure BDA0003105872760000024
为姿态矩阵;C为第一激光雷达的扫描周期;[]T为转置矩阵;ti当前帧和与所述当前帧相邻的前一帧的时间差;
Figure BDA0003105872760000025
为第一横摆角;
Figure BDA0003105872760000026
为第一俯仰角;
Figure BDA0003105872760000027
为第一航向角量;α为第二横摆角;β为第二俯仰角;γ为第二航向角;x,y,z为位移的三个坐标分量。
在本发明一种可能的实现方式中,所述确定所述多个点云数据中的目标地面点云集和目标非地面点云集包括:
确定初始平面模型;
确定种子地面点云集和种子非地面点云集;
对所述初始平面模型进行优化;
计算所述种子地面点云集中的点云数据与优化后的平面模型之间的正交投影距离,若所述正交投影距离小于阈值距离,则所述点云数据属于种子地面点云集,若所述正交投影距离大于或等于阈值距离,则所述点云数据属于种子非地面点云集;
判断所述初始平面模型的优化次数是否小于阈值次数,若小于,则再次对所述初始平面模型进行优化;若不小于,则停止对所述初始平面模型进行优化;所述种子地面点云集和所述种子非地面点云集分别为所述目标地面点云集和目标非地面点云集。
在本发明一种可能的实现方式中,所述确定种子地面点云集和种子非地面点云集包括:
将所述多个点云数据按照预设的高度顺序进行排序;
计算所述多个点云数据的平均高度;
遍历所述多个点云数据,将高度小于所述平均高度的点云数据作为初始地面点集;
计算所述初始地面点集中的点云数据与所述初始平面模型的正交投影距离,若所述正交投影距离小于阈值距离,则所述点云数据属于所述种子地面点云集,若所述正交投影距离大于或等于阈值距离,则所述点云数据属于所述种子非地面点云集。
在本发明一种可能的实现方式中,所述第一激光雷达为十六线机械式激光雷达,所述第二激光雷达为四线固态激光雷达。
在本发明一种可能的实现方式中,所述十六线机械式激光雷达的测距范围为20m;所述四线固态激光雷达的测距范围为50m。
另一方面,本发明还提供一种无人物流小车环境感知***,包括:
第一感知模块,用于通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,所述环境点云图像包括多个点云数据,所述至少两个激光雷达的测距范围不相同;
分割模块,用于确定所述多个点云数据中的目标地面点云集和目标非地面点云集;
第二感知模块,用于通过超声波雷达获得无人物流小车第一局部环境信息,并将所述第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;
目标检测模块,用于根据所述至少两个激光雷达分别采集所述目标点云图像中同一障碍物信息的至少两个坐标值;
融合模块,用于将所述至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将所述融合坐标值作为所述障碍物信息的坐标值。
本发明通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,并在确定多个点云数据中的目标地面点云集和目标非地面点云集后,通过超声波雷达获得无人物流小车第一局部环境信息,并将第一局部环境信息与目标非地面点云集进行融合,生成目标点云图像。通过至少两个激光雷达和超声波雷达共同生成目标点云图像,可提高无人物流小车环境感知的鲁棒性,并提高检测精度。
进一步地,本发明通过将至少两个坐标值按照预最优分布式估计融合算法进行融合,生成融合坐标值,并将融合坐标值作为障碍物信息的坐标值,可进一步提高检测障碍物的鲁棒性和准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的无人物流小车环境感知方法的一个实施例流程示意图;
图2是本发明实施例提供的S101的一个实施例流程示意图;
图3是本发明实施例提供的S202的一个实施例流程示意图;
图4是本发明实施例提供的S102的一个实施例流程示意图;
图5是本发明实施例提供的S402的一个实施例流程示意图;
图6是本发明实施例提供的无人物流小车环境感知方法的硬件平台的一个实施例结构示意图;
图7是本发明实施例提供的无人物流小车环境感知***的一个实施例结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本发明提供了一种无人物流小车环境感知方法及***,以下分别进行详细说明。
图1为本发明实施例提供的无人物流小车环境感知方法的一个实施例流程示意图,如图1所示,无人物流小车环境感知方法包括:
S101、通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,环境点云图像包括多个点云数据,至少两个激光雷达的测距范围不相同;
S102、确定多个点云数据中的目标地面点云集和目标非地面点云集;
S103、通过超声波雷达获得无人物流小车第一局部环境信息,并将第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;
S104、根据至少两个激光雷达分别采集目标点云图像中同一障碍物信息的至少两个坐标值;
具体地,通过全局最近邻(GNN)算法实现至少两个激光雷达的数据关联。
S105、将至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将融合坐标值作为障碍物信息的坐标值。
本发明实施例提出的无人物流小车环境感知方法,通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,并在确定多个点云数据中的目标地面点云集和目标非地面点云集后,通过超声波雷达获得无人物流小车第一局部环境信息,并将第一局部环境信息与目标非地面点云集进行融合,生成目标点云图像。即:通过测距范围不同的至少两个激光雷达和超声波雷达共同生成目标点云图像,可提高无人物流小车环境感知的鲁棒性,并提高检测精度。
进一步地,本发明通过将至少两个坐标值按照预最优分布式估计融合算法进行融合,生成融合坐标值,并将融合坐标值作为障碍物信息的坐标值,可实现多目标跟踪,进一步提高检测障碍物的鲁棒性和准确性。
进一步地,在本发明的一些实施例中,通过第一激光雷达和第二激光雷达扫描无人物流小车周围环境信息,且第一激光雷达为十六线机械式激光雷达,第二激光雷达为四线固态激光雷达。
具体地,十六线机械式激光雷达的测距范围为20m,垂直检测角度为30°,水平检测角度为360°。四线固态激光雷达的测距范围为50m,垂直检测角度为3.2°,水平检测角度为110°。超声波雷达的测距范围为5m,水平检测角度为60°。
其中,超声波雷达的引入可补偿十六线激光雷达的行驶盲区;四线固态激光雷达解决十六线激光雷达垂直分辨率低,无法有效提取路沿信息以及远距离点云有效返回率低的问题。
具体地,将至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值为:分别计算与至少两个坐标值一一对应的至少两个权重,根据权重与对应的坐标值进行融合,生成融合坐标值。
应当理解的是:当障碍物信息与无人物流小车之间的距离小于20m时,十六线机械式激光雷达的权重大于四线固态激光雷达的权重,当障碍物信息与无人物流小车之间的距离大于20m时,十六线机械式激光雷达的权重小于四线固态激光雷达的权重。
进一步地,在本发明的一些实施例中,如图2所示,S101包括:
S201、通过第一激光雷达扫描无人物流小车周围环境信息,生成初始点云图像;
具体地,第一激光雷达扫描无人物流小车周围环境信息,并按照距离采用不同聚类半径和聚类点运输的欧式聚类生成初始点云图像。
S202、通过GPS/IMU对初始点云图像进行畸变校正,生成校正点云图像;
S203、通过第二激光雷达采集无人物流小车第二局部环境信息,并将第二局部环境信息和校正点云图像进行融合,生成环境点云图像。
通过上述设置,可校正初始点云图像的畸变,进一步提高无人物流小车的环境感知能力。
进一步地,如图3所示,S202包括:
S301、通过GPS/IMU分别采集无人物流小车在第一激光雷达的扫描周期内当前帧的第一位姿信息以及与当前帧相邻的前一帧的第二位姿信息;
S302、通过预设的坐标转换、第一位姿信息和第二位姿信息对初始点云图像进行畸变校正。
具体地,第一位姿信息包括第一横摆角、第一俯仰角、第一航向角、位移,所述第二位姿信息包括第二横摆角、第二俯仰角、第二航向角;S302具体为:
p’=Ripi+Ti
Figure BDA0003105872760000071
Figure BDA0003105872760000072
Figure BDA0003105872760000081
式中,p’为畸变校正后的初始点云图像中各个点云数据的坐标值;Ri为总旋转矩阵;pi为畸变校正前的初始点云图像中各个点云数据的坐标值;Ti为位移矩阵;
Figure BDA0003105872760000082
为姿态矩阵;C为第一激光雷达的扫描周期;[]T为转置矩阵;ti当前帧和与所述当前帧相邻的前一帧的时间差;
Figure BDA0003105872760000083
为第一横摆角;
Figure BDA0003105872760000084
为第一俯仰角;
Figure BDA0003105872760000085
为第一航向角量;α为第二横摆角;β为第二俯仰角;γ为第二航向角;x,y,z为位移的三个坐标分量;Rx,Ry,Rz分别为位移的三个坐标分量围绕着X轴,Y轴,Z轴的旋转矩阵。
进一步地,在本发明的一些实施例中,如图4所示,S102包括:
S401、确定初始平面模型;
其中,在本发明的一些实施例中,初始平面模型为线性模型。
S402、确定种子地面点云集和种子非地面点云集;
S403、对初始平面模型进行优化;
S404、计算种子地面点云集中的点云数据与优化后的平面模型之间的正交投影距离,若正交投影距离小于阈值距离,则点云数据属于种子地面点云集,若正交投影距离大于或等于阈值距离,则点云数据属于种子非地面点云集;
S405、判断初始平面模型的优化次数是否小于阈值次数,若小于,则重复S403-S404;若不小于,则停止对初始平面模型进行优化;种子地面点云集和种子非地面点云集分别为目标地面点云集和非地面点云集。
进一步地,如图5所示,S402包括:
S501、将多个点云数据按照预设的高度顺序进行排序;
S502、计算多个点云数据的平均高度;
S503、遍历多个点云数据,将高度小于平均高度的点云数据作为初始地面点集;
S504、计算初始地面点集中的点云数据与初始平面模型的正交投影距离,若正交投影距离小于阈值距离,则点云数据属于种子地面点云集,若正交投影距离大于或等于阈值距离,则点云数据属于种子非地面点云集。
通过上述设置,可确定无人物流小车的可行驶区域,供后续无人物流小车的路径规划。
通过识别离群点,并将离群点删除,可在有效去除雨雪噪音点的同时,保留环境特征的细节,进一步提高无人物流小车环境感知的鲁棒性和准确性。
进一步地,如图6所示,为本发明实施例提供的无人物流小车环境感知方法的硬件平台,硬件平台,采用机器人操作***(ROS)的NVIDIA TX2处理来自十六线机械式激光雷达、四线固态激光雷达、超声波雷达的感知数据,TX2的一个CAN通道与超声波雷达、GPS/IMU相连。十六线机械式激光雷达、四线固态激光雷达的告知数据通过以太网传输到TX2。最后,通过TX2的另一个CAN通道,将检测到的环境信息输出到CompactRIO,CompactRIO是用于路径规划和运动控制的下位机。
另一方面,为了更好实施本发明实施例中的无人物流小车环境感知方法,在无人物流小车环境感知方法基础之上,对应的,如图7所示,本发明实施例中还提供一种无人物流小车环境感知***,无人物流小车环境感知***700包括:
第一感知模块701,用于通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,所述环境点云图像包括多个点云数据,所述至少两个激光雷达的测距范围不相同;
分割模块702,用于确定多个点云数据中的目标地面点云集和目标非地面点云集;
第二感知模块703,用于通过超声波雷达获得无人物流小车第一局部环境信息,并将第一局部环境信息与目标非地面点云集进行融合,生成目标点云图像;
目标检测模块704,用于根据至少两个激光雷达分别采集目标点云图像中同一障碍物信息的至少两个坐标值;
融合模块705,用于将至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将融合坐标值作为所述障碍物信息的坐标值。
另一方面,本发明实施例还提供一种计算机设备,其集成了本发明实施例所提供的任一种无人物流小车环境感知***,所述计算机设备包括:
一个或多个处理器;
存储器;以及
一个或多个应用程序,其中所述一个或多个应用程序被存储于所述存储器中,并配置为由所述处理器执行上述无人物流小车环境感知方法实施例中任一实施例中所述的无人物流小车环境感知方法中的步骤。
具体在本实施例中,计算机设备可从而实现各种功能,如下:
通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,所述环境点云图像包括多个点云数据,所述至少两个激光雷达的测距范围不相同;
确定所述多个点云数据中的目标地面点云集和目标非地面点云集;
通过超声波雷达获得无人物流小车第一局部环境信息,并将所述第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;
根据所述至少两个激光雷达分别采集所述目标点云图像中同一障碍物信息的至少两个坐标值;
将所述至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将所述融合坐标值作为所述障碍物信息的坐标值。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本发明实施例提供一种计算机可读存储介质,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。其上存储有计算机程序,所述计算机程序被处理器进行加载,以执行本发明实施例所提供的任一种无人物流小车环境感知方法中的步骤。例如,所述计算机程序被处理器进行加载可以执行如下步骤:
通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,所述环境点云图像包括多个点云数据,所述至少两个激光雷达的测距范围不相同;
确定所述多个点云数据中的目标地面点云集和目标非地面点云集;
通过超声波雷达获得无人物流小车第一局部环境信息,并将所述第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;
根据所述至少两个激光雷达分别采集所述目标点云图像中同一障碍物信息的至少两个坐标值;
将所述至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将所述融合坐标值作为所述障碍物信息的坐标值。
具体实施时,以上各个单元或结构可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元或结构的具体实施可参见前面的方法实施例,在此不再赘述。
以上对本发明所提供的无人物流小车环境感知方法及***进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种无人物流小车环境感知方法,其特征在于,包括:
通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,所述环境点云图像包括多个点云数据,所述至少两个激光雷达的测距范围不相同;
确定所述多个点云数据中的目标地面点云集和目标非地面点云集;
通过超声波雷达获得无人物流小车第一局部环境信息,并将所述第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;
根据所述至少两个激光雷达分别采集所述目标点云图像中同一障碍物信息的至少两个坐标值;
将所述至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将所述融合坐标值作为所述障碍物信息的坐标值。
2.根据权利要求1所述的无人物流小车环境感知方法,其特征在于,所述通过至少两个激光雷达生成无人物流小车环境点云图像包括:
通过第一激光雷达扫描无人物流小车周围环境信息,生成初始点云图像;
通过GPS/IMU对所述初始点云图像进行畸变校正,生成校正点云图像;
通过第二激光雷达采集无人物流小车第二局部环境信息,并将所述第二局部环境信息和所述校正点云图像进行融合,生成所述环境点云图像。
3.根据权利要求2所述的无人物流小车环境感知方法,其特征在于,所述通过GPS/IMU对所述初始点云图像进行畸变校正包括:
通过GPS/IMU分别采集无人物流小车在所述第一激光雷达的扫描周期内当前帧的第一位姿信息以及与所述当前帧相邻的前一帧的第二位姿信息;
通过预设的坐标转换、第一位姿信息和第二位姿信息对初始点云图像进行畸变校正。
4.根据权利要求3所述的无人物流小车环境感知方法,其特征在于,所述第一位姿信息包括第一横摆角、第一俯仰角、第一航向角、位移,所述第二位姿信息包括第二横摆角、第二俯仰角、第二航向角;所述通过预设的坐标转换、第一位姿信息和第二位姿信息对初始点云图像进行畸变校正具体为:
p’=Ripi+Ti
Figure FDA0003105872750000021
Figure FDA0003105872750000022
Figure FDA0003105872750000023
式中,p’为畸变校正后的初始点云图像中各个点云数据的坐标值;Ri为总旋转矩阵;pi为畸变校正前的初始点云图像中各个点云数据的坐标值;Ti为位移矩阵;
Figure FDA0003105872750000024
为姿态矩阵;C为第一激光雷达的扫描周期;[]T为转置矩阵;ti当前帧和与所述当前帧相邻的前一帧的时间差;
Figure FDA0003105872750000025
为第一横摆角;
Figure FDA0003105872750000026
为第一俯仰角;
Figure FDA0003105872750000027
为第一航向角量;α为第二横摆角;β为第二俯仰角;γ为第二航向角;x,y,z为位移的三个坐标分量;Rx,Ry,Rz分别为位移的三个坐标分量围绕着X轴,Y轴,Z轴的旋转矩阵。
5.根据权利要求4所述的无人物流小车环境感知方法,其特征在于,所述确定所述多个点云数据中的目标地面点云集和目标非地面点云集包括:
确定初始平面模型;
确定种子地面点云集和种子非地面点云集;
对所述初始平面模型进行优化;
计算所述种子地面点云集中的点云数据与优化后的平面模型之间的正交投影距离,若所述正交投影距离小于阈值距离,则所述点云数据属于种子地面点云集,若所述正交投影距离大于或等于阈值距离,则所述点云数据属于种子非地面点云集;
判断所述初始平面模型的优化次数是否小于阈值次数,若小于,则再次对所述初始平面模型进行优化;若不小于,则停止对所述初始平面模型进行优化;所述种子地面点云集和所述种子非地面点云集分别为所述目标地面点云集和目标非地面点云集。
6.根据权利要求5所述的无人物流小车环境感知方法,其特征在于,所述确定种子地面点云集和种子非地面点云集包括:
将所述多个点云数据按照预设的高度顺序进行排序;
计算所述多个点云数据的平均高度;
遍历所述多个点云数据,将高度小于所述平均高度的点云数据作为初始地面点集;
计算所述初始地面点集中的点云数据与所述初始平面模型的正交投影距离,若所述正交投影距离小于阈值距离,则所述点云数据属于所述种子地面点云集,若所述正交投影距离大于或等于阈值距离,则所述点云数据属于所述种子非地面点云集。
7.根据权利要求2所述的无人物流小车环境感知方法,其特征在于,所述第一激光雷达为十六线机械式激光雷达,所述第二激光雷达为四线固态激光雷达。
8.根据权利要求7所述的无人物流小车环境感知方法,其特征在于,所述十六线机械式激光雷达的测距范围为20m;所述四线固态激光雷达的测距范围为50m。
9.一种无人物流小车环境感知***,其特征在于,包括:
第一感知模块,用于通过至少两个激光雷达扫描无人物流小车周围环境信息,生成环境点云图像,所述环境点云图像包括多个点云数据,所述至少两个激光雷达的测距范围不相同;
分割模块,用于确定所述多个点云数据中的目标地面点云集和目标非地面点云集;
第二感知模块,用于通过超声波雷达获得无人物流小车第一局部环境信息,并将所述第一局部环境信息与所述目标非地面点云集进行融合,生成目标点云图像;
目标检测模块,用于根据所述至少两个激光雷达分别采集所述目标点云图像中同一障碍物信息的至少两个坐标值;
融合模块,用于将所述至少两个坐标值按照最优分布式估计融合算法进行融合,生成融合坐标值,并将所述融合坐标值作为所述障碍物信息的坐标值。
CN202110639869.0A 2021-06-08 2021-06-08 一种无人物流小车环境感知方法及*** Pending CN113376638A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110639869.0A CN113376638A (zh) 2021-06-08 2021-06-08 一种无人物流小车环境感知方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110639869.0A CN113376638A (zh) 2021-06-08 2021-06-08 一种无人物流小车环境感知方法及***

Publications (1)

Publication Number Publication Date
CN113376638A true CN113376638A (zh) 2021-09-10

Family

ID=77573062

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110639869.0A Pending CN113376638A (zh) 2021-06-08 2021-06-08 一种无人物流小车环境感知方法及***

Country Status (1)

Country Link
CN (1) CN113376638A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113607166A (zh) * 2021-10-08 2021-11-05 广东省科学院智能制造研究所 基于多传感融合的自主移动机器人室内外定位方法及装置
CN113759947A (zh) * 2021-09-10 2021-12-07 中航空管***装备有限公司 基于激光雷达的机载飞行避障辅助方法、装置及***

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108037515A (zh) * 2017-12-27 2018-05-15 清华大学苏州汽车研究院(吴江) 一种激光雷达和超声波雷达信息融合***及方法
KR20180061929A (ko) * 2016-11-30 2018-06-08 주식회사 모디엠 듀얼 라이다를 구비한 철도시설물의 모바일 3d 맵핑시스템 및 이를 이용한 철도시설물의 3d 맵핑방법
CN108333589A (zh) * 2018-03-13 2018-07-27 苏州青飞智能科技有限公司 一种自动驾驶车辆障碍物检测装置
WO2018205119A1 (zh) * 2017-05-09 2018-11-15 深圳市速腾聚创科技有限公司 基于激光雷达扫描的路沿检测方法和***
CN110244321A (zh) * 2019-04-22 2019-09-17 武汉理工大学 一种基于三维激光雷达的道路可通行区域检测方法
DE102019123483A1 (de) * 2019-09-02 2021-03-04 Audi Ag Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
CN112731449A (zh) * 2020-12-23 2021-04-30 深圳砺剑天眼科技有限公司 一种激光雷达障碍物识别方法和***
CN112859051A (zh) * 2021-01-11 2021-05-28 桂林电子科技大学 激光雷达点云运动畸变的矫正方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180061929A (ko) * 2016-11-30 2018-06-08 주식회사 모디엠 듀얼 라이다를 구비한 철도시설물의 모바일 3d 맵핑시스템 및 이를 이용한 철도시설물의 3d 맵핑방법
WO2018205119A1 (zh) * 2017-05-09 2018-11-15 深圳市速腾聚创科技有限公司 基于激光雷达扫描的路沿检测方法和***
CN108037515A (zh) * 2017-12-27 2018-05-15 清华大学苏州汽车研究院(吴江) 一种激光雷达和超声波雷达信息融合***及方法
CN108333589A (zh) * 2018-03-13 2018-07-27 苏州青飞智能科技有限公司 一种自动驾驶车辆障碍物检测装置
CN110244321A (zh) * 2019-04-22 2019-09-17 武汉理工大学 一种基于三维激光雷达的道路可通行区域检测方法
DE102019123483A1 (de) * 2019-09-02 2021-03-04 Audi Ag Verfahren sowie Kraftfahrzeug-Steuereinheit zum Erfassen einer Umgebung eines Kraftfahrzeugs durch Fusionieren von Sensordaten auf Punktwolkenebene
CN112731449A (zh) * 2020-12-23 2021-04-30 深圳砺剑天眼科技有限公司 一种激光雷达障碍物识别方法和***
CN112859051A (zh) * 2021-01-11 2021-05-28 桂林电子科技大学 激光雷达点云运动畸变的矫正方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
杨波;程维政;朱超;: "小世界效应加速生物地理学优化的社团识别算法", 哈尔滨工业大学学报, vol. 52, no. 3 *
潘泉: "机载LiDAR***原理与点云处理方法", 31 October 2009, 国防工业出版社, pages: 148 - 91 *
袁金国编著: "遥感图像数字处理", 28 February 2006, 中国环境科学出版社, pages: 252 - 253 *
赵胜强: "车载激光点云典型地物提取技术研究", 铁道勘察, no. 4 *
郭鹏飞: "融合LiDAR点云与影像数据的矿区建筑物提取", 31 December 2019, 西安交通大学出版社, pages: 30 - 31 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113759947A (zh) * 2021-09-10 2021-12-07 中航空管***装备有限公司 基于激光雷达的机载飞行避障辅助方法、装置及***
CN113759947B (zh) * 2021-09-10 2023-08-08 中航空管***装备有限公司 基于激光雷达的机载飞行避障辅助方法、装置及***
CN113607166A (zh) * 2021-10-08 2021-11-05 广东省科学院智能制造研究所 基于多传感融合的自主移动机器人室内外定位方法及装置
CN113607166B (zh) * 2021-10-08 2022-01-07 广东省科学院智能制造研究所 基于多传感融合的自主移动机器人室内外定位方法及装置

Similar Documents

Publication Publication Date Title
CN110645974B (zh) 一种融合多传感器的移动机器人室内地图构建方法
KR102581263B1 (ko) 위치 추적 방법, 장치, 컴퓨팅 기기 및 컴퓨터 판독 가능한 저장 매체
EP3264364B1 (en) Method and apparatus for obtaining range image with uav, and uav
CN110068836B (zh) 一种智能驾驶电动清扫车的激光雷达路沿感知***
CN110675307A (zh) 基于vslam的3d稀疏点云到2d栅格图的实现方法
CN110794406B (zh) 多源传感器数据融合***和方法
CN112363158B (zh) 机器人的位姿估计方法、机器人和计算机存储介质
CN111699410B (zh) 点云的处理方法、设备和计算机可读存储介质
CN110889808A (zh) 一种定位的方法、装置、设备及存储介质
CN112414417B (zh) 自动驾驶地图生成方法、装置、电子设备及可读存储介质
CN103065323A (zh) 一种基于单应性变换矩阵的分段空间对准方法
CN113376638A (zh) 一种无人物流小车环境感知方法及***
CN113432533B (zh) 一种机器人定位方法、装置、机器人及存储介质
CN111257882B (zh) 数据融合方法、装置、无人驾驶设备和可读存储介质
CN113674412B (zh) 基于位姿融合优化的室内地图构建方法、***及存储介质
CN111273312A (zh) 一种智能车辆定位与回环检测方法
Song et al. Cooperative vehicle localisation method based on the fusion of GPS, inter‐vehicle distance, and bearing angle measurements
CN116608847A (zh) 基于面阵激光传感器和图像传感器的定位和建图方法
CN117389305A (zh) 一种无人机巡检路径规划方法、***、设备及介质
CN116465393A (zh) 基于面阵激光传感器的同步定位和建图方法及装置
CN114398455A (zh) 异构多机器人协同slam地图融合方法
Feller et al. Investigation of Lidar Data for Autonomous Driving with an Electric Bus
CN113534193B (zh) 确定目标反射点的方法、装置、电子设备及存储介质
KR102624644B1 (ko) 벡터 맵을 이용한 이동체의 맵 매칭 위치 추정 방법
CN113465614B (zh) 无人机及其导航地图的生成方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination