CN109829386B - 基于多源信息融合的智能车辆可通行区域检测方法 - Google Patents
基于多源信息融合的智能车辆可通行区域检测方法 Download PDFInfo
- Publication number
- CN109829386B CN109829386B CN201910007212.5A CN201910007212A CN109829386B CN 109829386 B CN109829386 B CN 109829386B CN 201910007212 A CN201910007212 A CN 201910007212A CN 109829386 B CN109829386 B CN 109829386B
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- obstacle
- information
- wave radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 101
- 230000004927 fusion Effects 0.000 title claims abstract description 33
- 230000033001 locomotion Effects 0.000 claims abstract description 47
- 238000000034 method Methods 0.000 claims abstract description 39
- 230000003068 static effect Effects 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims description 22
- 230000000875 corresponding effect Effects 0.000 claims description 18
- 230000004888 barrier function Effects 0.000 claims description 13
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000013135 deep learning Methods 0.000 claims description 5
- 238000013461 design Methods 0.000 claims description 3
- 238000003064 k means clustering Methods 0.000 claims description 3
- 230000002596 correlated effect Effects 0.000 claims description 2
- 238000012360 testing method Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 7
- 238000011160 research Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003912 environmental pollution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于多源信息融合的智能车辆可通行区域检测方法,该方法包括:S100,采集车载传感器检测到的车辆周围的障碍物目标信息,输出静态障碍物目标库;S200,接收车辆周围的障碍物目标信息,将由车载传感器检测到的障碍物目标信息进行时空同步,再将所有检测到的车辆周围的障碍物信息进行单帧目标融合,利用运动预测和多帧目标关联进行连续帧间的多目标跟踪,输出动态障碍物目标库;S300,接收静态障碍物目标库和S200输出的动态障碍物目标库,并根据静态障碍物目标库的信息更新动态障碍物目标库,形成实时的障碍物目标信息,生成可通行区域。本发明能够在车辆行驶过程中准确获取车辆周围障碍物的位置、尺度、类别和运动信息以及二值化栅格化地图,跟踪多目标的运动轨迹,形成包括二值化栅格化地图和动态障碍物信息实时更新的智能车辆可通行区域。
Description
技术领域
本发明涉及自动驾驶技术领域,特别是涉及一种基于多源信息融合的智能车辆可通行区域检测方法。
背景技术
智能车辆通过环境感知、地图导航、轨迹规划及决策控制等技术手段来实现在各种交通场景下的自动驾驶。智能车辆的推广应用对缓解交通拥堵,提高交通安全,提高燃油消耗率,减少环境污染起着积极的作用。各国政府、相关企业、科研机构和高校单位等都投入大量人力和物力到自动驾驶相关技术的学术理论研究和工程实用研究,希望自动驾驶车辆早日进入人们的日常生活中,并让人们共享自动驾驶技术带来的福祉。智能车辆通过摄像机、毫米波雷达、激光雷达、GPS(全球定位***)和IMU(惯性测量单元)等车载传感器实现车辆周围环境的感知和定位,以及自车的定位和导航信息,继而基于地图信息和障碍物信息进行实时轨迹规划,并将横纵向速度、方向盘转角等决策信息通过CAN总线发布给车辆底层控制单元,实现加减速、制动、转向等具体操作。
智能车辆可通行区域检测包括道路边界检测和障碍物检测,两者都是基于车载传感器进行环境感知和融合之后的结果,是智能车辆进行轨迹规划的基础。智能车辆可通行区域的检测是自动驾驶环境感知技术的重要组成部分,也能为智能车辆进行实时轨迹规划提供依据。智能车辆可通行区域检测的准确程度有助于提高轨迹规划子***的智能化水平,对后续智能车辆的决策控制有重要指导意义,从而提高智能车辆的整体智能化水平,实现各种交通使用者之间的各行其道,保障安全有序的交通环境。因此,智能车辆可通行区域检测方法的研究,可为智能车辆提供实时轨迹规划的信息,让智能车辆安全有序地在可通行区域行驶,预防碰撞事故的发生,保障各种交通参与者的交通安全。
目前,针对智能车辆可通行区域检测方法的研究较多,采用的传感器类型有单目摄像机、双目摄像机和激光雷达,涉及的道路类型有车道清晰或车道线模糊的结构化道路和无车道线的非结构化道路,检测的目标是车道边界或路面和障碍物。在结构化道路上,基于摄像机传感器检测的方法采用传统的非参数学习或机器学习或深度学习的方法,同时进行车道线、行人和车辆等目标的特征提取和分类,获取路面边界和障碍物目标的位置和类别信息,但缺少行人和车辆等目标的动态运动信息;基于激光雷达传感器的方法首先利用车道线反射强度和路面高度信息分割出道路边界,然后通过聚类方法筛选出障碍物,最终进行道路边界和障碍物的融合输出可通行区域,此种方法精度有限且缺少障碍物的类别信息,不利用障碍物目标的轨迹跟踪。在非结构化道路上,特别是缺少车道标记的路面,基于深度学习的路面像素点分割方法更常见,但需要事先对图像进行像素级的标记。
总体来说,现阶段针对智能车辆的可通行区域检测具有以下几个方面的问题:1)不能普遍适用于结构化道路和非结构化道路;2)没有充分考虑不同类别障碍物目标的运动信息特征,以及简单利用线性或非线性模型预测目标运动,不能有效地进行障碍物信息的实时更新;3)缺少多目标方向和轨迹跟踪功能,缺乏对真实道路场景中多目标轨迹的跟踪和管理;4)没有充分利用智能车辆常配的车载传感器,如激光雷达深度图在目标检测中的使用,以及对毫米波雷达返回宽度和速度信息的使用;5)在非结构道路上,基于深度学习的路面像素点分割的方法,需要对图像进行像素级的标记,人工成本高。
因此,希望有一种技术方案来克服或至少减轻现有技术的上述缺陷中的至少一个。
发明内容
本发明的目的在于提供一种基于多源信息融合的智能车辆可通行区域检测方法来克服或至少减轻现有技术的上述缺陷中的至少一个。
为实现上述目标,本发明提供一种基于多源信息融合的智能车辆可通行区域检测方法,所述基于多源信息融合的智能车辆可通行区域检测方法包括:
S100,采集车载传感器检测到的车辆周围的障碍物目标信息,输出静态障碍物目标库;
S200,接收S100采集到的车辆周围的障碍物目标信息,将由所述车载传感器检测到的障碍物目标信息进行时空同步,再将所有检测到的车辆周围的障碍物信息进行单帧目标融合,最后利用运动预测和多帧目标关联进行连续帧间的多目标跟踪,输出动态障碍物目标库;以及
S300,接收S100输出的静态障碍物目标库和S200输出的动态障碍物目标库,并根据静态障碍物目标库的信息更新动态障碍物目标库,形成实时的障碍物目标信息,生成可通行区域。
进一步地,S100具体包括:
采集并解析激光雷达输出的三维点云图像,生成二维俯视点云图;
根据所述二维俯视点云图,获得障碍物目标检测框和包括道路边界点信息的二值化栅格化地图;以及
结合YOLOv3_LiDAR目标检测模型生成的障碍物目标信息,更新所述二值化栅格化地图。
进一步地,所述障碍物目标检测框的获得方法具体包括:
S1141a,根据点云目标框真值数据库DB1,对YOLOv3模型进行参数学习,生成YOLOv3_LiDAR目标检测模型;
S1141b,利用S1141a得到的YOLOv3_LiDAR目标检测模型,在二维俯视点云图上进行障碍物目标检测,并输出障碍物目标信息,该障碍物目标信息包括障碍物目标的位置和大类别。
进一步地,所述二值化栅格化地图的获取方法具体包括:
S1142a,利用欧式点聚类方法,在所述二维俯视点云图中进行二值化障碍物目标检测,输出由障碍目标所在区域组成的初始的二值化的栅格化地图;
S1142b,根据解析得到的所述三维点云扫描点的高度信息和反射强度,找出可能的道路边界点,并采用二次曲线拟合局部道路边界,生成包括道路边界点信息的二值化栅格化地图。
进一步地,S100具体还包括:
S122,利用专用DBC文件对S121接收到的CAN格式的障碍物目标的信息进行解析,获取M个毫米波雷达目标数据;
S123,利用S122输出的M个毫米波雷达目标数据,根据下面的式(1)至式(3),获取初始化的毫米波雷达目标框,式中,(xj,yj)为任一个障碍物目标对应的毫米波雷达目标框的中心点位置,任一个障碍物目标的速度vj,pi为常数:
xj=rangej*sin(angle_rad*pi/180.0) (1)
yj=rangej*cos(angle_rad*pi/180.0) (2)
vj=range_ratej (3)
若毫米波雷达没有返回宽度信息widthj,则假设宽度widthj为1米,毫米波雷达目标的长度lengthj=widthj,记lj=wj,完成毫米波雷达目标框的初始化;
S124,采集毫米波雷达坐标系和图像坐标系共有区域的K个点的坐标,获取毫米波雷达-摄像机标定参数;
S125,根据S124获得的获取毫米波雷达-摄像机标定参数,将S122输出的M个毫米波雷达目标数据从毫米波雷达坐标系转换到图像坐标系,形成M个图像目标框。
进一步地,S125具体包括:
S125a,利用式(7),计算得到图像目标框真值数据库DB2中标记的图像目标框用于学习毫米波雷达坐标系转换到图像坐标系的毫米波雷达目标输出框和图像目标框的位置映射关系{λx,λy,λw,λh,bx,by};
式(7)中,{λx,λy,λw,λh,bx,by}为学习参数;毫米波雷达检测到的障碍物目标对应图像中的真实障碍物目标的坐标点表示为(xgt,ygt,wgt,hgt),xgt为毫米波雷达目标框的中心在毫米波雷达坐标系中的横坐标,ygt为毫米波雷达目标框的中心在毫米波雷达坐标系中的纵坐标,wgt为毫米波雷达目标框的中心在毫米波雷达坐标系中的宽度,hgt为毫米波雷达目标框的中心在毫米波雷达坐标系中的高度;毫米波雷达检测到的障碍物目标从毫米波雷达坐标系转换到图像坐标系中的坐标点表示为(xcam,ycam,wcam,hcam,),xcam为图像目标框的中心在图像坐标系中的横坐标,ycam为图像目标框的中心在图像坐标系中的纵坐标,wcam为图像目标框在图像坐标系中的宽度,hcam为图像目标框在图像坐标系中的高度;
S125b,借鉴Faster R-CNN目标检测模型中的RPN网络,利用图像目标框真值数据库DB2中标记的图像目标框的长宽分布规律,采用k均值聚类算法设计适应于图像目标框真值数据库DB2的目标候选框长宽,进行毫米波雷达目标输出框的扩展学习,输出尽可能多且准确的且包括真实障碍物目标的毫米波雷达目标扩展框。
进一步地,S100具体还包括:
S131,采集摄像机返回的图像数据;
S132,解析S131接收的图像数据,获取BGR三通道的PNG图像;
S133,获取激光雷达-摄像机标定参数;
S134,根据S133获得的激光雷达-摄像机标定参数,将包括道路边界点信息的二值化栅格化地图从激光雷达坐标系转换到图像坐标系中的公共区域,生成感兴趣区域;
S135,根据图像目标框真值数据库DB2,对YOLOv3模型进行参数学习,生成针对图像进行多目标检测的YOLOv3_Camera目标检测模型;
S136,利用S135得到的YOLOv3_Camera目标检测模型在S134生成的感兴趣区域示出的图像平面中进行多目标检测,输出图像数据,图像数据中的每一个障碍物目标的信息记为{x,y,w,h,c,o},(x,y)为图像目标框的左上角在图像坐标系中的坐标点,w为图像目标框的宽,h为图像目标框的高,c为障碍物目标的大类别和小类别,o为障碍物目标的朝向信息。
进一步地,S200中的“将所有检测到的车辆周围的障碍物信息进行单帧目标融合”包括:
获取摄像机-车辆标定参数,将图像坐标系中的目标框转换为车辆坐标系的目标框;
根据毫米波雷达-摄像机标定参数和激光雷达-摄像机标定参数,将同一时间戳下的单帧图像的车载传感器检测到的车辆周围的障碍物目标信息进行空间同步后,依次转换到图像坐标系、车辆坐标系中;以及
以摄像机检测结果为基准,基于全局最邻近算法,匹配对应的毫米波雷达和激光雷达信息,获取同一障碍物目标信息,该信息包括障碍物目标的位置、距离、类别和速度。
进一步地,S200中的“利用运动预测和多帧目标关联进行连续帧间的多目标跟踪”包括:
针对S221中障碍物目标中的Car、Pedestrian、Rider,分别设计三个单独的长短时记忆网络进行运动预测,涉及目标的位置信息(x,y),尺寸信息(w,h);
根据类别o∈{Car,Pedestrian,Rider},利用S222设计的长短时记忆网络进行训练,前N帧为输入数据,第N+1帧为预测/输出数据,形成LSTM运动预测模型;
在确定好的三类障碍物目标中,根据不同的跟踪ID匹配图像目标框真值数据库DB2中同一障碍物目标在连续N+1帧的数据(x,y,w,h)i-N+1~i+1,(x,y)为预测目标框的位置信息,(w,h)为预测目标框的尺寸信息;
利用训练好的LSTM模型测试连续N帧中同一障碍物目标的运动数据(x,y,w,h)i-N+1~i,预测下一帧障碍物目标的运动信息(x,y,w,h)i+1;
将障碍物目标的位置和尺度信息以及融合后的障碍物目标对应的速度、类别、距离、朝向等属性作为关联的属性,利用匈牙利算法对连续帧间的多目标进行关联匹配,赋予同一障碍物目标同一跟踪ID号,输出关联之后的动态障碍物目标库{x,y,w,h,c,id,v,o};其中,N为LSTM运动预测模型输入的帧数;i为帧号。
进一步地,S300具体包括:
S310,接收多源多目标检测模块2中的激光雷达检测单元21输出的更新后的二值化栅格化地图以及多帧目标关联单元33形成的动态障碍物目标库;
S320,利用更新后的二值化栅格化地图的信息更新动态障碍物目标库;
S330,根据S320更新后的动态障碍物目标库,更新实时障碍物目标位置和运动信息,输出车辆的可通行区域。
本发明能够在车辆行驶过程中准确获取车辆周围障碍物的位置、尺度、类别和运动信息以及二值化栅格化地图,跟踪多目标的运动轨迹,形成包括二值化栅格化地图和动态障碍物信息实时更新的智能车辆可通行区域。
附图说明
图1是本发明实施例提供的基于多源信息融合的智能车辆可通行区域检测方法的原理框图;
图2是图1所示的离线数据库单元中的目标框类别示意图;
图3是图1所示的多目标跟踪模块的原理框图。
具体实施方式
在附图中,使用相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面结合附图对本发明的实施例进行详细说明。
文中,“前”可以理解为对应指向车头的方向,“后”与“前”相反。“右”可以理解为驾驶员面向前方的右侧方向,“左”与“右”相反。“上”可以理解为对应指向车顶的方向,“下”与“前”相反。
本实施例所提供的基于多源信息融合的智能车辆可通行区域检测方法适用于不同配置的传感器组合,比如本实施例所涉及的车载传感器有摄像机、激光雷达和毫米波雷达。其中,激光雷达可以采用Velodyne VLP-16线激光雷达,激光雷达检测到的障碍物目标信息位于激光雷达坐标系中,其具体包括目标框及其坐标、障碍物目标大类别(如下文提及的Car(车)、Pedstrian(人)、Rider(骑行者)三大目标类别)和障碍物目标的与自车的相对距离。毫米波雷达可以采用Delphi ESR毫米波雷达(返回的雷达目标数M=64),毫米波雷达检测到的障碍物目标信息位于毫米波雷达坐标系中,其具体包括目标框及其坐标和自车的速度。摄像机采用IDS UI-5250CP-C-HQ单目相机,摄像机检测到的障碍物目标信息位于图像坐标系中,其具体包括目标框及其坐标、障碍物目标的大类别以及小类别、和障碍物目标的朝向。优选地,如图1所述的整个智能车辆可通行区域检测方法可在机器人开发平台(ROS)中实现,不同的模块由不同的包(package)组成,模块中的多个子功能由对应的节点(node)组成。
如图1所示,本实施例所提供的基于多源信息融合的智能车辆可通行区域检测方法对应的装置包括基础功能模块1、多源多目标检测模块2、多目标跟踪模块3和可通行区域生成模块4。
其中,基础功能模块1用于将多车载传感器(比如上述实施例给出的有摄像机、激光雷达和毫米波雷达等车载传感器)和车辆彼此对应的坐标系之间进行空间同步、将各障碍物目标信息进行时间同步以及生成离线图像数据库。“彼此之间”可以理解为各车载传感器之间以及车载传感器与车辆之间。
多源多目标检测模块2用于采集车载传感器检测到的车辆周围的障碍物目标信息,输出静态障碍物目标库和三种车载传感器输出的障碍物检测信息(如图3中示出的输入方框)。其中,静态障碍物目标库为由激光雷达检测到的包括道路边界信息的二值化栅格化地图。
多目标跟踪模块3用于接收多源多目标检测模块2采集到的障碍物目标信息,并结合基础功能模块1的时空同步功能,将来自不同车载传感器检测到各障碍物目标信息进行单帧目标融合,再利用运动预测和多帧目标关联进行连续帧间的多目标跟踪,输出动态障碍物目标库。其中,动态障碍物目标库包括障碍物目标的位置、尺寸、类别和跟踪ID以及运动速度及其方向。
可通行区域生成模块4用于接收多源多目标检测模块2输出的静态障碍物目标库和多目标跟踪模块3输出的动态障碍物目标库,并根据静态障碍物目标库的信息更新动态障碍物目标库,形成实时的障碍物目标信息,生成可通行区域。
本实施例所提供的基于多源信息融合的智能车辆可通行区域检测方法可以为智能车辆提供实时更新的可通行区域信息,由于也可以输出多车载目标的运动轨迹,故也可用于智能车辆的碰撞预警或主动避撞,为智能车辆的决策提供依据。
下面将对上述实施例中的各个模块进行详细展开说明。
基础功能模块1包括时空同步单元11、传感器驱动单元12和离线数据库单元13。
时空同步单元11用于将多车载传感器和车辆彼此之间的空间标定和数据进行时空同步。也就是说,时空同步单元11具有激光雷达-摄像机标定功能、毫米波雷达-摄像机标定功能、摄像机-车辆标定功能和数据时空同步功能。其中,“多车载传感器和车辆彼此之间的空间标定”是通过不同坐标系彼此对应点之间的旋转和平移映射矩阵关系,对不同坐标系之间进行空间标定。“不同坐标系”包括激光雷达坐标系、毫米波雷达坐标系、图像坐标系和车辆坐标系。通过利用时间戳和帧率,实现各车载传感器采集数据之间的时间同步。
传感器驱动单元12用于车载传感器的驱动解析和数据发布。本实施例中,传感器驱动单元12基于ROS机器人开发平台,建立激光雷达、毫米波雷达和摄像机的驱动解析和数据话题(topic)发布节点(node),具有激光雷达驱动功能、毫米波雷达驱动功能和摄像机驱动功能。
离线数据库单元13用于生成离线数据库,离线数据库包括点云目标框真值数据库DB1和图像目标框真值数据库DB2。其中:
点云目标框真值数据库DB1用于在由激光雷达数据生成的二维俯视点云图上标记二维目标框。点云目标框真值数据库DB1的获得方式为:利用现有的标记软件,在如下的步骤S113得到的二维俯视点云图中标记Car(车)、Pedstrian(人)、Rider(骑行者)三类点云目标框,形成点云目标框真值数据库DB1。
图像目标框真值数据库DB2用于在图像数据中的图像平面上标记二维目标框。图像目标框真值数据库DB2的获得方式为:在图像数据中的图像平面上标记Car(车)、Pedestrian(人)、Rider(骑行者)三类二维目标框,每一个二维目标框标记有每一个障碍物目标的运动朝向和跟踪ID,形成图像目标框真值数据库DB2。如图2所示,Car={car,bus,van,truck,otherCar},大括号{}中:car指普通的乘用车,bus指公交车和大巴,van指货车和厢式货车,truck指卡车,otherCar为其他类型的机动车。Pedestrian={pedestrian,dummy},大括号{}中:pedestrian指行人,dummy指假人。
Rider={cyclist,moped,scooter,tricycle,motorcycle,otherRier},大括号{}中:cyclit指自行车,moped指有脚蹬的机动脚踏两用电动车,scooter指没有脚踏板的电动车,tricycle指快递三轮车,motorcycle指摩托车,otherRider为其他类型的骑行工具。
由于激光雷达数据生成的二维俯视点云图和摄像机采集的图像均为二维图,因此,可以使用同一套数据库标记工具和标记方法。同时,由于二维俯视点云图和摄像机采集的图像待检测的障碍物目标的类别一致,因此可以采用同样的深度学习目标检测YOLOv3框架预训练目标检测模型,针对不同的数据库(DB1和DB2),设计不同的目标学习类别(二维俯视点云图只包括三大类,单目图像包括三大类和13小类,如附图2),学习不同的模型参数,得到针对二维俯视点云图和单目图像的YOLOv3目标检测模型,其中:针对二维俯视点云图的YOLOv3目标检测模型下文均称为YOLOv3_LiDAR目标检测模型,针对单目图像的YOLOv3目标检测模型下文均称为YOLOv3_Camera目标检测模型。
多源多目标检测模块2包括激光雷达检测单元21、毫米波雷达检测单元22和图像检测单元23。
激光雷达检测单元21用于采集激光雷达输出的三维点云图像,并对三维点云图像进行解析处理,生成二维俯视点云图,同时通过预训练目标检测模型进行目标检测,生成带有位置、类别和深度信息的障碍物目标检测框和二值化栅格化地图。
在一个实施例中,激光雷达检测单元21具体工作过程包括下面的步骤S111~S115:
S111,采集激光雷达返回的数据:通过基础功能模块1中的传感器驱动单元22进行激光雷达驱动后,从以太网接口获得激光雷达返回的三维点云图像。
S112,解析S111接收到的三维点云图像,获取三维点云扫描点。其中的“三维点云扫描点”表示为向量Li={Xi,Yi,Zi,ri},其中:Xi表示第i个扫描点相对于激光雷达坐标系的原点的横向偏移,右侧为正。Yi表示第i个扫描点相对于激光雷达坐标系的原点的纵向偏移,前侧为正。Zi表示第i个扫描点相对于激光雷达坐标系的原点的垂向偏移,向上为正。ri表示第i个扫描点的反射强度,从一定程度上反映了该点激光雷达脉冲回波强度。
S113,将S112解析得到的三维点云扫描点转换成二维俯视点云图:为了保障可通行区域检测的实时性,同时与摄像机获取的图像平面共享YOLOv3目标检测模型,也便于与激光雷达和摄像机进行坐标转换,将S112解析获得的三维点云扫描点(OXYZ三维坐标系)投影到可以展开的OXY二维平面上,实现三维点云扫描点的平面化,生成二维俯视点云图{Xi,Yi}。
S114,根据S113得到的二维俯视点云图,获得障碍物目标检测框和包括道路边界点信息的二值化栅格化地图。
S115,结合YOLOv3_LiDAR目标检测模型生成的障碍物目标信息,更新S114中的二值化栅格化地图。
在一个实施例中,S114中的障碍物目标检测框的获得方法具体包括S1141a和S1141b:
S1141a,训练并生成YOLOv3_LiDAR目标检测模型:根据点云目标框真值数据库DB1,对YOLOv3模型进行参数学习,生成YOLOv3_LiDAR目标检测模型。
S1141b,检测障碍物目标:利用S1141a得到的YOLOv3_LiDAR目标检测模型,在二维俯视点云图上进行障碍物目标检测,并输出障碍物目标信息,该障碍物目标信息包括障碍物目标的位置和大类别。
在一个实施例中,S114中的二值化栅格化地图的获取方法具体包括S1142a和S1142b:
S1142a,检测障碍物目标:利用欧式点聚类方法,在S113得到的二维俯视点云图中进行0/1二值化障碍物目标检测,输出由障碍目标所在区域组成的初始的二值化的栅格化地图。
S1142b,生成包括道路边界点信息的二值化栅格化地图:根据S112解析得到的三维点云扫描点的高度信息Zi和反射强度ri,找出可能的道路边界点,并采用二次曲线拟合局部道路边界,生成包括道路边界点信息的二值化栅格化地图。
毫米波雷达检测单元22用于采集毫米波雷达输出的CAN格式的目标信息,并对目标信息进行目标点解析、目标框初始化、毫米波雷达-摄像机标定、映射参数自学习(DB2),以获得毫米波雷达探测到的目标框的扩展。
在一个实施例中,毫米波雷达检测单元22具体工作过程包括下面的步骤S121~S126:
S121,采集毫米波雷达返回的数据:通过基础功能模块1中的传感器驱动单元22进行毫米波雷达驱动后,从CAN-以太网接口获得毫米波雷达返回的CAN格式的障碍物目标信息,障碍物目标信息以毫米波雷达目标框进行呈现,毫米波雷达目标框包括目标框的位置和速度。
S122,解析雷达目标:利用专用DBC文件对S121接收到的CAN格式的障碍物目标的信息进行解析,获取M个毫米波雷达目标数据(M=64),其中每一个毫米波雷达目标数据表示为向量Rj,Rj={rangej,angle_radj,range_ratej,lat_ratej,idj,widthj},其中:rangej表示第j个毫米波雷达目标框的中心与毫米波雷达坐标系原点的相对距离,angle_radj表示第j个毫米波雷达目标框的中心与毫米波雷达坐标系原点连线与纵向(毫米波雷达正前向)的相对角度,range-ratej表示第j个毫米波雷达目标框与毫米波雷达坐标系原点的相对速度,lat_ratej表示第j个毫米波雷达目标框与毫米波雷达坐标系原点的横向速度,idj表示第j个毫米波雷达目标框的ID号,widthj表示第j个毫米波雷达目标框的宽度。
S123,初始化毫米波雷达目标框:利用S122输出的M个毫米波雷达目标数据,获取初始化的毫米波雷达目标框。本实施例以第j个毫米波雷达目标框(xj,yj,vj)为例,说明初始化的毫米波雷达目标框的获取方式:
根据下面的式(1)至式(3),得到毫米波雷达目标相对毫米波雷达坐标系的原点的位置(xj,yj)和速度vj,其中,(xj,yj)为毫米波雷达目标框的中心点位置,pi为常数,取值比如可以为3.1415926:
xj=rangej*sin(angle_rad*pi/180.0) (1)
yj=rangej*cos(angle_rad*pi/180.0) (2)
vj=range_ratej (3)
若毫米波雷达没有返回宽度信息widthj,则假设宽度widthj为1米,毫米波雷达目标的长度lengthj=widthj,记lj=wj,完成毫米波雷达目标框的初始化。
S124,标定毫米波雷达-摄像机:采集毫米波雷达坐标系和图像坐标系共有区域的K个点,对于其中的一个点而言,毫米波雷达返回的坐标点为(xrad,yrad),相机返回的坐标点为(xcam,ycam),获取毫米波雷达-摄像机标定参数(Arad2cam,Lrad2cam),Arad2cam为2*3维的变换矩阵参数-旋转矩阵,Lrad2cam为2*1维的平移矩阵。
例如:利用如下透视变换关系,建立毫米波雷达坐标系的点转换到图像坐标系的方程(如下面式(4)所示),利用最小二乘法,求解最优参数,即可获得毫米波雷达-摄像机标定参数(Arad2cam,Lrad2cam)。由于式(5)和(6)共有8个参数,故K取值≥8,实施中取K=64,结合式(4)至式(6),可以计算获得Arad2cam和Lrad2cam:
S125,根据S124获得的获取毫米波雷达-摄像机标定参数,将S122输出的M个毫米波雷达目标数据从毫米波雷达坐标系转换到图像坐标系,形成M个图像目标框。其具体包括下面的S125a和S125b:
S125a,映射参数自学习:图像目标框真值数据库DB2中标记的图像目标框用于学习毫米波雷达坐标系转换到图像坐标系的毫米波雷达目标输出框和图像目标框的位置映射关系{λx,λy,λw,λh,bx,by},如式(7)所示,进而更新毫米波雷达目标输出框的信息、修正毫米波雷达坐标系和图像坐标系的转换偏差、毫米波雷达自身检测的位置和宽度信息的误差、以及估计多目标的长度。
式(7)中,{λx,λy,λw,λh,bx,by}为学习参数;毫米波雷达检测到的障碍物目标对应图像中的真实障碍物目标的坐标点表示为(xgt,ygt,wgt,hgt),xgt为毫米波雷达目标框的中心在毫米波雷达坐标系中的横坐标,ygt为毫米波雷达目标框的中心在毫米波雷达坐标系中的纵坐标,wgt为毫米波雷达目标框的中心在毫米波雷达坐标系中的宽度,hgt为毫米波雷达目标框的中心在毫米波雷达坐标系中的高度;毫米波雷达检测到的障碍物目标从毫米波雷达坐标系转换到图像坐标系中的坐标点表示为(xcam,ycam,wcam,hcam,),xcam为图像目标框的中心在图像坐标系中的横坐标,ycam为图像目标框的中心在图像坐标系中的纵坐标,wcam为图像目标框在图像坐标系中的宽度,hcam为图像目标框在图像坐标系中的高度。
S125b,目标框扩展:借鉴Faster R-CNN目标检测模型中的RPN网络,利用图像目标框真值数据库DB2中标记的图像目标框的长宽分布规律,采用k均值聚类算法(k-means)设计适应于图像目标框真值数据库DB2的目标候选框长宽(参考Faster R-CNN中的RPN网络三种尺寸和三种长宽比,设置k为9),进行毫米波雷达目标输出框的扩展学习,输出尽可能多且准确的且包括真实障碍物目标的毫米波雷达目标扩展框。
图像检测单元23用于采集摄像机拍摄到的图像数据,并将图像数据经由对激光雷达检测单元21输出的二值化栅格化地图进行激光雷达-摄像机标定,生成感兴趣区域,借助基础功能模块1中的图像目标框真值数据库DB2训练的YOLOv3模型进行目标检测,输出图像数据中的障碍物目标的信息,该信息包括目标的位置、类型和朝向信息。
在一个实施例中,图像检测单元23具体工作过程包括下面的步骤S131~S135:
S131,采集摄像机返回的数据:通过基础功能模块1中的传感器驱动单元22进行摄像机驱动后,从以太网接口获得摄像机返回的图像数据。
S132,解析S131接收的图像数据,获取BGR三通道的PNG图像。
S133,标定激光雷达-摄像机:采用与上述步骤S123类似的方法,获取激光雷达-摄像机标定参数(Alid2cam,Llid2cam)。
S134,生成感兴趣区域:根据S133获得的激光雷达-摄像机标定参数,将S114中激光雷达检测单元21输出的二值化栅格化地图从激光雷达坐标系转换到图像坐标系中的公共区域,生成感兴趣区域。
S135,训练YOLOv3目标检测模型:根据基础功能模块1中的离线数据库单元23的图像目标框真值数据库DB2,对YOLOv3模型进行参数学习,生成针对图像进行多目标检测的YOLOv3_Camera目标检测模型。
S136,检测障碍物目标:利用S135得到的YOLOv3_Camera目标检测模型在S134生成的感兴趣区域示出的图像平面中进行多目标检测,输出图像数据。图像数据中的每一个障碍物目标以图像目标框(目标矩形位置框)的形式呈现,每一个障碍物目标的信息记为{x,y,w,h,c,o},(x,y)为图像目标框的左上角在图像坐标系中的坐标点,w为图像目标框的宽,h为图像目标框的高,c(category)为障碍物目标的大类别和小类别,o(orientation)为障碍物目标的朝向信息。
多目标跟踪模块3包括单帧目标融合单元31、目标运动预测单元32和多帧目标关联单元33。
单帧目标融合单元31用于将不同车载传感器进行时空同步,对当前帧图像中的障碍物目标信息进行融合(如图3中示出的输入)。
在一个实施例中,单帧目标融合单元31具体工作过程包括下面的步骤S211~S213:
S211,接收多源多目标检测模块2输出的多源信息。
S212,标定摄像机-车辆:采用与上述步骤S123相同的方法,获取摄像机-车辆标定参数(Acam2veh,Lcam2veh),将图像坐标系中的目标框转换为车辆坐标系的目标框。
S213,坐标系转换:根据S123获得的毫米波雷达-摄像机标定参数(Arad2cam,Lrad2cam)和S133获得的激光雷达-摄像机标定参数(Alid2cam,Llid2cam),将同一时间戳下的单帧图像的车载传感器检测到的车辆周围的障碍物目标信息进行空间同步后,依次转换到图像坐标系、车辆坐标系(ISO标准,纵向为x,横向为y,垂向为z,满足右手法则)中。坐标系转换过程中,以摄像机检测结果为基准,基于全局最邻近(GNN)算法,匹配对应的毫米波雷达和激光雷达信息,获取同一障碍物目标信息,该信息包括障碍物目标的位置、距离、类别和速度。
目标运动预测单元32基于单帧目标融合单元31融合后的障碍物目标的历史N帧图像数据,对障碍物目标进行运动预测。
在一个实施例中,目标运动预测单元32具体工作过程包括下面的步骤S221~S225:
S221,接收单帧目标融合单元31输出的车辆坐标系中的障碍物目标信息。
S222,针对S221中障碍物目标信息中三大分类,即Car(车)、Pedestrian(人)和Rider(骑行者),分别设计三个单独的长短时记忆网络(LSTM)进行运动预测,包括障碍物目标的位置(x,y)和尺寸(w,h)。
S223,根据类别o∈{Car,Pedestrian,Rider},即将图像目标框真值数据库DB2中的数据样本分为Car(车)、Pedestrian(人)、Rider(骑行者)三大类别,利用S222设计的长短时记忆网络(LSTM)进行训练,前N帧为输入数据,第N+1帧为预测/输出数据,形成LSTM运动预测模型。
S224,在S223确定的三大类障碍物目标中,根据不同的跟踪ID匹配图像目标框真值数据库DB2中同一障碍物目标在连续N+1帧的数据(x,y,w,h)i-N+1~i+1。其中:N为LSTM运动预测模型输入的帧数(用包括第i帧的历史的N帧数据来预测下一帧(即i+1帧)的数据);i为帧号(第i帧图像)取值不小于N的整数(因为小于N时,历史帧数少于N帧)。历史的N帧图像的帧号为:i-N+1,i-N+2,…,i-1,i。例如:i为第12帧,N取10,则可用3,4,5,6,7,8,9,10,11,12连续十帧,预测下一帧,即第i+1=13帧。(x,y)为预测目标框的位置信息,(w,h)为预测目标框的尺寸信息。当前帧为第i帧,以包括当前帧的前N帧为输入数据,第i+1帧为预测/输出数据,进行LSTM运动预测模型的训练,形成LSTM单步长(只向前预测一帧,因为得处理当前帧i与下一帧i+1的目标关联)的运动预测模型。由于激光雷达、毫米波雷达和摄像机三种车载传感器的最低帧率为10Hz,这里LSTM模型学习历史数据时长为1s,共计10帧,取N=10。
S225,利用S224训练好的LSTM模型测试连续N帧中同一障碍物目标的运动数据(x,y,w,h)i-N+1~N,预测下一帧障碍物目标的运动信息(x,y,w,h)i+1。
多帧目标关联单元33用于关联目标运动预测单元32确定的当前帧的障碍物目标检测信息,并给出关联之后的多障碍物目标信息{x,y,w,h,c,id,v,o},输出带有连续帧障碍物目标运动信息的动态障碍物目标库。
在一个实施例中,多帧目标关联单元33具体工作过程如下:
接收目标运动预测单元32输出的当前帧的障碍物目标的运动信息(x,y,w,h),将单帧目标融合单元31输出的融合后的障碍物目标对应的速度、类别、距离、朝向等属性作为关联的属性,利用匈牙利算法(Hungarian)对连续帧间的多目标进行关联匹配,赋予同一障碍物目标同一跟踪ID号,输出关联之后的多目标信息,即动态障碍物目标库{x,y,w,h,c,id,v,o}。
可通行区域生成模块4用于接收多源多目标检测模块2输出的静态目标库或二值化栅格化地图和多目标跟踪模块输出的动态障碍物目标库,并根据静态目标库信息更新动态障碍物目标库,形成实时的障碍物信息,生成车辆可通行区域。
可通行区域生成模块4用于将激光雷达检测单元21输出的二值化栅格化地图作为静态目标库,将多帧目标关联单元33输出的具有实时运动轨迹的目标作为动态障碍物目标库,并根据静态目标库信息更新动态障碍物目标库,生成实时的车辆可通行区域。
在一个实施例中,可通行区域生成模块4具体工作过程包括下面的步骤S310~S330:
S310,接收多源多目标检测模块2中的激光雷达检测单元21输出的更新后的二值化栅格化地图以及多帧目标关联单元33形成的动态障碍物目标库;
S320,利用更新后的二值化栅格化地图的信息更新动态障碍物目标库。
S330,根据S320更新后的动态障碍物目标库,更新实时障碍物目标位置和运动信息,输出车辆的可通行区域,“可通行区域”有障碍物目标的图像区域的像素点标记为1,没有障碍物目标的图像区域的像素点标记为0,形成更新后的二值化栅格化地图。
最后需要指出的是:以上实施例仅用以说明本发明的技术方案,而非对其限制。本领域的普通技术人员应当理解:可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种基于多源信息融合的智能车辆可通行区域检测方法,其特征在于:包括:
S100,采集车载传感器检测到的车辆周围的障碍物目标信息,输出静态障碍物目标库,所述静态障碍物目标库为由激光雷达检测到的包括道路边界信息的二值化栅格化地图;
S200,接收S100采集到的车辆周围的障碍物目标信息,将由所述车载传感器检测到的障碍物目标信息进行时空同步,再将所有检测到的车辆周围的障碍物信息进行单帧目标融合,最后利用运动预测和多帧目标关联进行连续帧间的多目标跟踪,输出动态障碍物目标库,所述动态障碍物目标库包括障碍物目标的位置、尺寸、类别和跟踪ID以及运动速度及其方向,时空同步包括激光雷达-摄像机标定功能、毫米波雷达-摄像机标定功能、摄像机-车辆标定功能和数据时空同步;以及
S300,接收S100输出的静态障碍物目标库和S200输出的动态障碍物目标库,并根据静态障碍物目标库的信息更新动态障碍物目标库,形成实时的障碍物目标信息,生成可通行区域;
S200中的“将所有检测到的车辆周围的障碍物信息进行单帧目标融合”包括:
获取摄像机-车辆标定参数,将图像坐标系中的目标框转换为车辆坐标系的目标框;
根据毫米波雷达-摄像机标定参数和激光雷达-摄像机标定参数,将同一时间戳下的单帧图像的车载传感器检测到的车辆周围的障碍物目标信息进行空间同步后,依次转换到图像坐标系、车辆坐标系中;以及
以摄像机检测结果为基准,基于全局最邻近算法,匹配对应的毫米波雷达和激光雷达信息,获取同一障碍物目标信息,该信息包括障碍物目标的位置、距离、类别和速度;
S200中的“利用运动预测和多帧目标关联进行连续帧间的多目标跟踪”包括:
针对障碍物目标中的Car、Pedestrian、Rider,分别设计三个单独的长短时记忆网络进行运动预测,涉及目标的位置信息,尺寸信息;Car表示车,Pedestrian表示人,Rider表示骑行者,
根据类别c∈{Car,Pedestrian,Rider},利用长短时记忆网络进行训练,前N帧为输入数据,第N+1帧为预测/输出数据,形成长短时记忆网络运动预测模型;
在确定好的三类障碍物目标中,根据不同的跟踪ID匹配图像目标框真值数据库DB2中同一障碍物目标在连续N+1帧的数据(x,y,w,h)i-N+1~i+1,(x,y)为预测目标框的位置信息,(w,h)为预测目标框的尺寸信息,(x,y)为目标框的左上角在图像坐标系中的坐标点,w为目标框的宽,h为目标框的高,图像目标框真值数据库DB2用于在图像数据中的图像平面上标记二维目标框;
利用训练好的长短时记忆网络运动预测模型测试连续N帧中同一障碍物目标的运动数据(x,y,w,h)i-N+1~i,预测下一帧障碍物目标的运动信息(x,y,w,h)i+1;
将障碍物目标的位置和尺度信息以及融合后的障碍物目标对应的速度、类别、距离、朝向属性作为关联的属性,利用匈牙利算法对连续帧间的多目标进行关联匹配,赋予同一障碍物目标同一跟踪ID号,输出关联之后的动态障碍物目标库{x,y,w,h,c,id,v,o};
其中,N为长短时记忆网络运动预测模型输入的帧数;i为帧号,id表示毫米波雷达目标框的ID号,v表示毫米波雷达目标相对毫米波雷达坐标系的原点的速度,c为障碍物目标的大类别和小类别,o为障碍物目标的朝向信息。
2.如权利要求1所述的基于多源信息融合的智能车辆可通行区域检测方法,其特征在于,S100具体包括:
采集并解析激光雷达输出的三维点云图像,生成二维俯视点云图;
根据所述二维俯视点云图,获得障碍物目标检测框和包括道路边界点信息的二值化栅格化地图;以及
结合YOLOv3_LiDAR目标检测模型生成的障碍物目标信息,更新所述二值化栅格化地图,所述YOLOv3_LiDAR目标检测模型根据点云目标框真值数据库DB1,对YOLOv3模型进行参数学习生成,点云目标框真值数据库DB1用于在由激光雷达数据生成的二维俯视点云图上标记二维目标框,所述YOLOv3模型通过采用深度学习目标检测YOLOv3框架预训练目标检测模型,针对不同的数据库,设计不同的目标学习类别,学习不同的模型参数,得到针对二维俯视点云图和单目图像的YOLOv3目标检测模型。
3.如权利要求2所述的基于多源信息融合的智能车辆可通行区域检测方法,其特征在于,所述障碍物目标检测框的获得方法具体还包括:
利用YOLOv3_LiDAR目标检测模型,在二维俯视点云图上进行障碍物目标检测,并输出障碍物目标信息,该障碍物目标信息包括障碍物目标的位置和大类别。
4.如权利要求2所述的基于多源信息融合的智能车辆可通行区域检测方法,其特征在于,所述二值化栅格化地图的获取方法具体包括:
S1142a,利用欧式点聚类方法,在所述二维俯视点云图中进行二值化障碍物目标检测,输出由障碍目标所在区域组成的初始的二值化的栅格化地图;
S1142b,根据解析得到的所述三维点云扫描点的高度信息和反射强度,找出可能的道路边界点,并采用二次曲线拟合局部道路边界,生成包括道路边界点信息的二值化栅格化地图。
5.如权利要求2至4中任一项所述的基于多源信息融合的智能车辆可通行区域检测方法,其特征在于,S100具体还包括:
S122,利用专用DBC文件对S121接收到的障碍物目标的信息进行解析,获取M个毫米波雷达目标数据;
S123,利用S122输出的M个毫米波雷达目标数据,根据下面的式(1)至式(3),获取初始化的毫米波雷达目标框,式中,(xj,yj)为任一个障碍物目标对应的毫米波雷达目标框的中心点位置,任一个障碍物目标的速度vj,pi为常数:
xj=rangej*sin(angle_rad*pi/180.0) (1)
yj=rangej*cos(angle_rad*pi/180.0) (2)
vj=range_ratej (3)
若毫米波雷达没有返回宽度信息widthj,则假设宽度widthj为1米,毫米波雷达目标的长度lengthj=widthj,完成毫米波雷达目标框的初始化;rangej表示第j个毫米波雷达目标框的中心与毫米波雷达坐标系原点的相对距离,angle_rad表示毫米波雷达目标框的中心与毫米波雷达坐标系原点连线与纵向的相对角度,range_ratej表示第j个毫米波雷达目标框与毫米波雷达坐标系原点的相对速度;
S124,采集毫米波雷达坐标系和图像坐标系共有区域的K个点的坐标,获取毫米波雷达-摄像机标定参数;
S125,根据S124获得的毫米波雷达-摄像机标定参数,将S122输出的M个毫米波雷达目标数据从毫米波雷达坐标系转换到图像坐标系,形成M个图像目标框。
6.如权利要求5所述的基于多源信息融合的智能车辆可通行区域检测方法,其特征在于,S125具体包括:
S125a,利用式(7),计算得到图像目标框真值数据库DB2中标记的图像目标框用于学习毫米波雷达坐标系转换到图像坐标系的毫米波雷达目标输出框和图像目标框的位置映射关系{λx,λy,λw,λh,bx,by};
式(7)中,{λx,λy,λw,λh,bx,by}为学习参数;毫米波雷达检测到的障碍物目标对应图像中的真实障碍物目标的坐标点表示为(xgt,ygt,wgt,hgt),xgt为毫米波雷达目标框的中心在毫米波雷达坐标系中的横坐标,ygt为毫米波雷达目标框的中心在毫米波雷达坐标系中的纵坐标,wgt为毫米波雷达目标框的中心在毫米波雷达坐标系中的宽度,hgt为毫米波雷达目标框的中心在毫米波雷达坐标系中的高度;毫米波雷达检测到的障碍物目标从毫米波雷达坐标系转换到图像坐标系中的坐标点表示为(xcam,ycam,wcam,hcam,),xcam为图像目标框的中心在图像坐标系中的横坐标,ycarm为图像目标框的中心在图像坐标系中的纵坐标,wcam为图像目标框在图像坐标系中的宽度,hcam为图像目标框在图像坐标系中的高度;
S125b,借鉴Faster R-CNN目标检测模型中的RPN网络,利用图像目标框真值数据库DB2中标记的图像目标框的长宽分布规律,采用k均值聚类算法设计适应于图像目标框真值数据库DB2的目标候选框长宽,进行毫米波雷达目标输出框的扩展学习,输出尽可能多且准确的且包括真实障碍物目标的毫米波雷达目标扩展框。
7.如权利要求6所述的基于多源信息融合的智能车辆可通行区域检测方法,其特征在于,S100具体还包括:
S131,采集摄像机返回的图像数据;
S132,解析S131接收的图像数据,获取BGR三通道的PNG图像;
S133,获取激光雷达-摄像机标定参数;
S134,根据S133获得的激光雷达-摄像机标定参数,将包括道路边界点信息的二值化栅格化地图从激光雷达坐标系转换到图像坐标系中的公共区域,生成感兴趣区域;
S135,根据图像目标框真值数据库DB2,对YOLOv3模型进行参数学习,生成针对图像进行多目标检测的YOLOv3_Camera目标检测模型;
S136,利用S135得到的YOLOv3_Camera目标检测模型在S134生成的感兴趣区域示出的图像平面中进行多目标检测,输出图像数据,图像数据中的每一个障碍物目标的信息记为{x,y,w,h,c,o}。
8.如权利要求1所述的基于多源信息融合的智能车辆可通行区域检测方法,其特征在于,S300具体包括:
S310,接收多源多目标检测模块2中的激光雷达检测单元21输出的更新后的二值化栅格化地图以及多帧目标关联单元33形成的动态障碍物目标库;
S320,利用更新后的二值化栅格化地图的信息更新动态障碍物目标库;
S330,根据S320更新后的动态障碍物目标库,更新实时障碍物目标位置和运动信息,输出车辆的可通行区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910007212.5A CN109829386B (zh) | 2019-01-04 | 2019-01-04 | 基于多源信息融合的智能车辆可通行区域检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910007212.5A CN109829386B (zh) | 2019-01-04 | 2019-01-04 | 基于多源信息融合的智能车辆可通行区域检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109829386A CN109829386A (zh) | 2019-05-31 |
CN109829386B true CN109829386B (zh) | 2020-12-11 |
Family
ID=66860082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910007212.5A Active CN109829386B (zh) | 2019-01-04 | 2019-01-04 | 基于多源信息融合的智能车辆可通行区域检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109829386B (zh) |
Families Citing this family (98)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102592830B1 (ko) * | 2018-12-05 | 2023-10-23 | 현대자동차주식회사 | 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량 |
CN110390814A (zh) * | 2019-06-04 | 2019-10-29 | 深圳市速腾聚创科技有限公司 | 监控***和方法 |
CN112069856B (zh) * | 2019-06-10 | 2024-06-14 | 商汤集团有限公司 | 地图生成方法、驾驶控制方法、装置、电子设备及*** |
CN112084810B (zh) * | 2019-06-12 | 2024-03-08 | 杭州海康威视数字技术股份有限公司 | 一种障碍物检测方法、装置、电子设备及存储介质 |
CN112179360B (zh) * | 2019-06-14 | 2022-12-02 | 北京京东乾石科技有限公司 | 地图生成方法、装置、***及介质 |
CN112101069A (zh) * | 2019-06-18 | 2020-12-18 | 华为技术有限公司 | 确定行驶区域信息的方法及装置 |
CN110309741B (zh) * | 2019-06-19 | 2022-03-08 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法及装置 |
CN110533025A (zh) * | 2019-07-15 | 2019-12-03 | 西安电子科技大学 | 基于候选区域提取网络的毫米波人体图像检测方法 |
CN110286389B (zh) * | 2019-07-15 | 2021-05-07 | 北京智行者科技有限公司 | 一种用于障碍物识别的栅格管理方法 |
CN110501700A (zh) * | 2019-08-27 | 2019-11-26 | 四川长虹电器股份有限公司 | 一种基于毫米波雷达的人员数量计数方法 |
CN110781720B (zh) * | 2019-09-05 | 2022-08-19 | 国网江苏省电力有限公司 | 基于图像处理的多传感器融合的物体识别方法 |
CN110502018B (zh) * | 2019-09-06 | 2022-04-12 | 百度在线网络技术(北京)有限公司 | 确定车辆安全区域的方法、装置、电子设备及存储介质 |
CN110795819B (zh) * | 2019-09-16 | 2022-05-20 | 腾讯科技(深圳)有限公司 | 自动驾驶仿真场景的生成方法和装置、存储介质 |
CN110738121A (zh) * | 2019-09-17 | 2020-01-31 | 北京科技大学 | 一种前方车辆检测方法及检测*** |
CN110827320B (zh) * | 2019-09-17 | 2022-05-20 | 北京邮电大学 | 基于时序预测的目标跟踪方法和装置 |
CN110568861B (zh) * | 2019-09-19 | 2022-09-16 | 中国电子科技集团公司电子科学研究院 | 一种人机运动障碍物监测方法、可读存储介质和无人机 |
CN110688943A (zh) * | 2019-09-25 | 2020-01-14 | 武汉光庭信息技术股份有限公司 | 一种基于实际驾驶数据自动获取图像样本的方法和装置 |
CN110677491B (zh) * | 2019-10-10 | 2021-10-19 | 郑州迈拓信息技术有限公司 | 用于车辆的旁车位置估计方法 |
WO2021072696A1 (zh) * | 2019-10-17 | 2021-04-22 | 深圳市大疆创新科技有限公司 | 目标检测与跟踪方法、***、可移动平台、相机及介质 |
CN110648538B (zh) * | 2019-10-29 | 2022-02-01 | 苏州大学 | 一种基于激光雷达网络的交通信息感知***及方法 |
WO2021084731A1 (ja) * | 2019-11-01 | 2021-05-06 | 三菱電機株式会社 | 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム |
CN110927765B (zh) * | 2019-11-19 | 2022-02-08 | 博康智能信息技术有限公司 | 激光雷达与卫星导航融合的目标在线定位方法 |
CN110853393B (zh) * | 2019-11-26 | 2020-12-11 | 清华大学 | 智能网联车辆测试场数据采集与融合方法及*** |
CN110969130B (zh) * | 2019-12-03 | 2023-04-18 | 厦门瑞为信息技术有限公司 | 一种基于yolov3司机危险动作识别方法及*** |
CN111027461B (zh) * | 2019-12-06 | 2022-04-29 | 长安大学 | 基于多维单步lstm网络的车辆轨迹预测方法 |
CN111191600B (zh) * | 2019-12-30 | 2023-06-23 | 深圳元戎启行科技有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN111353481A (zh) * | 2019-12-31 | 2020-06-30 | 成都理工大学 | 基于激光点云与视频图像的道路障碍物识别方法 |
CN111076726B (zh) * | 2019-12-31 | 2022-06-21 | 深圳供电局有限公司 | 巡检机器人视觉辅助避障方法及其装置、设备和存储介质 |
CN111257892A (zh) * | 2020-01-09 | 2020-06-09 | 武汉理工大学 | 一种用于车辆自动驾驶的障碍物检测方法 |
CN113177427A (zh) * | 2020-01-23 | 2021-07-27 | 宝马股份公司 | 道路预测的方法以及自主驾驶的方法、车辆及设备 |
CN111338336B (zh) * | 2020-02-11 | 2021-07-13 | 腾讯科技(深圳)有限公司 | 一种自动驾驶方法及装置 |
CN113256962B (zh) * | 2020-02-13 | 2022-12-23 | 宁波吉利汽车研究开发有限公司 | 一种车辆安全预警方法及*** |
CN111311945B (zh) * | 2020-02-20 | 2021-07-09 | 南京航空航天大学 | 一种融合视觉和传感器信息的驾驶决策***及方法 |
CN111289969B (zh) * | 2020-03-27 | 2022-03-04 | 北京润科通用技术有限公司 | 一种车载雷达运动目标融合方法及装置 |
CN111123262B (zh) * | 2020-03-30 | 2020-06-26 | 江苏广宇科技产业发展有限公司 | 自动驾驶3d建模方法、装置及*** |
CN113496163B (zh) * | 2020-04-01 | 2024-01-16 | 北京京东乾石科技有限公司 | 障碍物识别方法和装置 |
CN111413983A (zh) * | 2020-04-08 | 2020-07-14 | 江苏盛海智能科技有限公司 | 一种无人驾驶车辆的环境感知方法及控制端 |
CN111429791B (zh) * | 2020-04-09 | 2022-11-18 | 浙江大华技术股份有限公司 | 身份确定方法、装置、存储介质及电子装置 |
CN111507233B (zh) * | 2020-04-13 | 2022-12-13 | 吉林大学 | 一种多模态信息融合的智能车路面类型识别方法 |
CN111192295B (zh) * | 2020-04-14 | 2020-07-03 | 中智行科技有限公司 | 目标检测与跟踪方法、设备和计算机可读存储介质 |
CN111208839B (zh) * | 2020-04-24 | 2020-08-04 | 清华大学 | 一种实时感知信息与自动驾驶地图的融合方法及*** |
CN111516605B (zh) * | 2020-04-28 | 2021-07-27 | 上汽大众汽车有限公司 | 多传感器监控设备及监控方法 |
CN111598823B (zh) * | 2020-05-19 | 2023-07-25 | 北京数字绿土科技股份有限公司 | 多源移动测量点云数据空地一体化融合方法、存储介质 |
CN113805572B (zh) * | 2020-05-29 | 2023-12-15 | 华为技术有限公司 | 运动规划的方法与装置 |
CN113744518B (zh) * | 2020-05-30 | 2023-04-18 | 华为技术有限公司 | 一种车辆可行驶区域的检测方法及装置 |
CN111680611B (zh) * | 2020-06-03 | 2023-06-16 | 江苏无线电厂有限公司 | 一种道路通过性检测方法、***及设备 |
CN111880191B (zh) * | 2020-06-16 | 2023-03-28 | 北京大学 | 基于多智能体激光雷达和视觉信息融合的地图生成方法 |
JP7425682B2 (ja) * | 2020-06-25 | 2024-01-31 | 株式会社日立製作所 | 情報管理システム、情報管理装置、および情報管理方法 |
CN113932820A (zh) * | 2020-06-29 | 2022-01-14 | 杭州海康威视数字技术股份有限公司 | 对象检测的方法和装置 |
CN114067556B (zh) * | 2020-08-05 | 2023-03-14 | 北京万集科技股份有限公司 | 环境感知方法、装置、服务器和可读存储介质 |
CN111898582B (zh) * | 2020-08-13 | 2023-09-12 | 清华大学苏州汽车研究院(吴江) | 双目摄像头及毫米波雷达的障碍物信息融合方法及*** |
CN111967374B (zh) * | 2020-08-14 | 2021-10-01 | 安徽海博智能科技有限责任公司 | 基于图像处理的矿山障碍物识别方法、***及设备 |
CN112083400A (zh) * | 2020-08-21 | 2020-12-15 | 达闼机器人有限公司 | 运动物体及其传感器的标定方法、装置、存储介质 |
CN112115819B (zh) * | 2020-09-03 | 2022-09-20 | 同济大学 | 基于目标检测及tet扩展指标的行车危险场景识别方法 |
CN111783905B (zh) * | 2020-09-07 | 2021-01-08 | 成都安智杰科技有限公司 | 一种目标融合方法、装置、存储介质及电子设备 |
CN112130132B (zh) * | 2020-09-11 | 2023-08-29 | 广州大学 | 基于探地雷达和深度学习的地下管线探测方法和*** |
CN112033429B (zh) * | 2020-09-14 | 2022-07-19 | 吉林大学 | 一种智能汽车的目标级多传感器融合方法 |
CN112215144B (zh) * | 2020-10-12 | 2024-05-14 | 北京四维智联科技有限公司 | 一种处理车道线的方法及*** |
CN112329552B (zh) * | 2020-10-16 | 2023-07-14 | 爱驰汽车(上海)有限公司 | 基于汽车的障碍物检测方法及装置 |
CN112233097B (zh) * | 2020-10-19 | 2022-10-28 | 中国科学技术大学 | 基于空时域多维融合的道路场景他车检测***和方法 |
CN114500736B (zh) * | 2020-10-23 | 2023-12-05 | 广州汽车集团股份有限公司 | 一种智能终端运动轨迹决策方法及其***、存储介质 |
CN112348848A (zh) * | 2020-10-26 | 2021-02-09 | 国汽(北京)智能网联汽车研究院有限公司 | 一种交通参与者的信息生成方法及*** |
CN112348894B (zh) * | 2020-11-03 | 2022-07-29 | 中冶赛迪重庆信息技术有限公司 | 废钢货车位置及状态识别方法、***、设备及介质 |
CN112389440B (zh) * | 2020-11-07 | 2021-06-04 | 吉林大学 | 一种基于车路作用机理的越野环境中车辆行驶风险预测方法 |
CN112558072B (zh) * | 2020-12-22 | 2024-05-28 | 阿波罗智联(北京)科技有限公司 | 车辆定位方法、装置、***、电子设备及存储介质 |
CN112560974B (zh) * | 2020-12-22 | 2021-12-31 | 清华大学 | 一种信息融合、车辆信息获取方法及装置 |
CN112763995B (zh) * | 2020-12-24 | 2023-09-01 | 阿波罗智联(北京)科技有限公司 | 雷达标定方法、装置、电子设备和路侧设备 |
CN112764042B (zh) * | 2020-12-28 | 2023-11-21 | 上海汽车集团股份有限公司 | 一种障碍物检测及跟踪方法和装置 |
CN112767475B (zh) * | 2020-12-30 | 2022-10-18 | 重庆邮电大学 | 一种基于c-v2x、雷达与视觉的智能路侧感知*** |
CN112686979B (zh) * | 2021-03-22 | 2021-06-01 | 中智行科技有限公司 | 仿真行人动画生成方法、装置和电子设备 |
CN113110424A (zh) * | 2021-03-26 | 2021-07-13 | 大连海事大学 | 一种基于海图信息的无人艇避碰方法 |
CN113093221A (zh) * | 2021-03-31 | 2021-07-09 | 东软睿驰汽车技术(沈阳)有限公司 | 占据栅格地图的生成方法及装置 |
CN113344954A (zh) * | 2021-05-06 | 2021-09-03 | 加特兰微电子科技(上海)有限公司 | 边界检测方法、装置、计算机设备、存储介质和传感器 |
CN113296118B (zh) * | 2021-05-24 | 2023-11-24 | 江苏盛海智能科技有限公司 | 一种基于激光雷达与gps的无人驾驶绕障方法与终端 |
CN113642616B (zh) * | 2021-07-27 | 2023-10-31 | 北京三快在线科技有限公司 | 一种基于环境数据的训练样本的生成方法及装置 |
CN113379805B (zh) * | 2021-08-12 | 2022-01-07 | 深圳市城市交通规划设计研究中心股份有限公司 | 一种交通节点的多信息资源融合处理方法 |
CN113671460B (zh) * | 2021-08-20 | 2024-03-22 | 上海商汤临港智能科技有限公司 | 一种地图生成方法、装置、计算机设备及存储介质 |
CN113657331A (zh) * | 2021-08-23 | 2021-11-16 | 深圳科卫机器人科技有限公司 | 警戒线红外感应识别方法、装置、计算机设备及存储介质 |
CN114092388A (zh) * | 2021-08-30 | 2022-02-25 | 河南笛卡尔机器人科技有限公司 | 基于单目相机和里程计的障碍物检测方法 |
CN113703460B (zh) * | 2021-08-31 | 2024-02-09 | 上海木蚁机器人科技有限公司 | 导航车识别空位的方法、装置及*** |
CN115797900B (zh) * | 2021-09-09 | 2023-06-27 | 廊坊和易生活网络科技股份有限公司 | 基于单目视觉的车路姿态感知方法 |
CN113702967B (zh) * | 2021-09-24 | 2023-07-28 | 中国北方车辆研究所 | 地面无人平台的引导车辆目标识别与跟踪方法及车载*** |
CN113917875A (zh) * | 2021-10-19 | 2022-01-11 | 河南工业大学 | 一种自主无人***开放通用智能控制器、方法及存储介质 |
CN113962301B (zh) * | 2021-10-20 | 2022-06-17 | 北京理工大学 | 一种多源输入信号融合的路面质量检测方法及*** |
CN113920735B (zh) * | 2021-10-21 | 2022-11-15 | 中国第一汽车股份有限公司 | 一种信息融合方法、装置、电子设备及存储介质 |
CN114267191B (zh) * | 2021-12-10 | 2023-04-07 | 北京理工大学 | 缓解交通拥堵驾驶员控制***、方法、介质、设备及应用 |
CN114626472A (zh) * | 2022-03-18 | 2022-06-14 | 合众新能源汽车有限公司 | 基于机器学习的辅助驾驶方法、装置和计算机可读介质 |
CN114494248B (zh) * | 2022-04-01 | 2022-08-05 | 之江实验室 | 基于点云和不同视角下的图像的三维目标检测***及方法 |
CN115222767B (zh) * | 2022-04-12 | 2024-01-23 | 广州汽车集团股份有限公司 | 一种基于空间车位的跟踪方法及*** |
CN114563007B (zh) * | 2022-04-28 | 2022-07-29 | 新石器慧通(北京)科技有限公司 | 障碍物的运动状态预测方法、装置、电子设备及存储介质 |
CN115100631A (zh) * | 2022-07-18 | 2022-09-23 | 浙江省交通运输科学研究院 | 一种多源信息复合特征提取的道路地图采集***与方法 |
CN115100633B (zh) * | 2022-08-24 | 2022-12-13 | 广东中科凯泽信息科技有限公司 | 基于机器学习的障碍物识别方法 |
CN116453205A (zh) * | 2022-11-22 | 2023-07-18 | 深圳市旗扬特种装备技术工程有限公司 | 一种营运车辆滞站揽客行为识别方法、装置及*** |
CN115965682B (zh) * | 2022-12-16 | 2023-09-01 | 镁佳(北京)科技有限公司 | 一种车辆可通行区域确定方法、装置及计算机设备 |
CN115691221A (zh) * | 2022-12-16 | 2023-02-03 | 山东矩阵软件工程股份有限公司 | 一种车辆预警方法、车辆预警***及相关装置 |
CN115900771B (zh) * | 2023-03-08 | 2023-05-30 | 小米汽车科技有限公司 | 信息确定的方法、装置、车辆及存储介质 |
CN116592871B (zh) * | 2023-04-28 | 2024-04-23 | 连云港杰瑞科创园管理有限公司 | 一种无人艇多源目标信息融合方法 |
CN117456108B (zh) * | 2023-12-22 | 2024-02-23 | 四川省安全科学技术研究院 | 一种线激光传感器与高清摄像头的三维数据采集方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9335766B1 (en) * | 2013-12-06 | 2016-05-10 | Google Inc. | Static obstacle detection |
CN106291736A (zh) * | 2016-08-16 | 2017-01-04 | 张家港长安大学汽车工程研究院 | 无人驾驶汽车车道动态障碍物检测方法 |
CN106908783B (zh) * | 2017-02-23 | 2019-10-01 | 苏州大学 | 基于多传感器信息融合的障碍物检测方法 |
CN108509918B (zh) * | 2018-04-03 | 2021-01-08 | 中国人民解放军国防科技大学 | 融合激光点云与图像的目标检测与跟踪方法 |
-
2019
- 2019-01-04 CN CN201910007212.5A patent/CN109829386B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109829386A (zh) | 2019-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829386B (zh) | 基于多源信息融合的智能车辆可通行区域检测方法 | |
CN109556615B (zh) | 基于自动驾驶的多传感器融合认知的驾驶地图生成方法 | |
US11885910B2 (en) | Hybrid-view LIDAR-based object detection | |
US11836623B2 (en) | Object detection and property determination for autonomous vehicles | |
US10310087B2 (en) | Range-view LIDAR-based object detection | |
CN112700470B (zh) | 一种基于交通视频流的目标检测和轨迹提取方法 | |
US20190310651A1 (en) | Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications | |
EP2574958B1 (en) | Road-terrain detection method and system for driver assistance systems | |
KR101822373B1 (ko) | 물체 탐지 장치 및 방법 | |
CN112149550A (zh) | 一种基于多传感器融合的自动驾驶车辆3d目标检测方法 | |
CN116685874A (zh) | 摄像机-激光雷达融合对象检测***和方法 | |
Zhang et al. | A cognitively inspired system architecture for the Mengshi cognitive vehicle | |
CN112346463B (zh) | 一种基于速度采样的无人车路径规划方法 | |
CN112379674B (zh) | 一种自动驾驶设备及*** | |
Pantilie et al. | Real-time obstacle detection using dense stereo vision and dense optical flow | |
CN111845787A (zh) | 一种基于lstm的换道意图预测方法 | |
CN114821507A (zh) | 一种用于自动驾驶的多传感器融合车路协同感知方法 | |
Kellner et al. | Road curb detection based on different elevation mapping techniques | |
CN116830164A (zh) | LiDAR去相关对象检测***与方法 | |
CN113252051A (zh) | 一种地图构建方法及装置 | |
Kellner et al. | Multi-cue, model-based detection and mapping of road curb features using stereo vision | |
DE102021132199A1 (de) | Bestimmen von Objektmobilitätsparametern unter Verwendung einer Objektsequenz | |
US20230048926A1 (en) | Methods and Systems for Predicting Properties of a Plurality of Objects in a Vicinity of a Vehicle | |
Kotur et al. | Camera and LiDAR sensor fusion for 3d object tracking in a collision avoidance system | |
Kaida et al. | Behavior prediction using 3d box estimation in road environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |