CN110175576A - 一种结合激光点云数据的行驶车辆视觉检测方法 - Google Patents
一种结合激光点云数据的行驶车辆视觉检测方法 Download PDFInfo
- Publication number
- CN110175576A CN110175576A CN201910455505.XA CN201910455505A CN110175576A CN 110175576 A CN110175576 A CN 110175576A CN 201910455505 A CN201910455505 A CN 201910455505A CN 110175576 A CN110175576 A CN 110175576A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- feature
- frame
- follows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Artificial Intelligence (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种结合激光点云数据的行驶车辆视觉检测方法,属于无人驾驶领域,解决现有以激光雷达为核心的车辆检测中的问题。本发明首先完成激光雷达与摄像机的联合标定,再进行时间对准;计算标定后的视频数据中相邻两帧间的光流灰度图,并基于光流灰度图进行运动分割,得到运动区域,即候选区域;基于各帧图像对应的时间对准后的点云数据,在候选区域对应的锥形空间内搜索车辆对应的点云数据,得到运动目标的三维包围框;基于候选区域,在各帧图像上提取方向梯度直方图特征;提取三维包围框中的点云数据的特征;基于遗传算法,将得到的特征进行特征级融合,融合后对运动区域分类,获得最后的行驶车辆检测结果。本发明用于行驶车辆的视觉检测。
Description
技术领域
一种结合激光点云数据的行驶车辆视觉检测方法,用于行驶车辆的视觉检测,属于无人驾驶领域。
背景技术
无人车对周围环境的感知是无人驾驶与辅助驾驶任务的关键问题,针对道路上运动的车辆进行检测将为无人车行为决策提供重要依据,获取可靠的相关信息对驾驶安全尤为必要。道路上的运动车辆检测对于实时性、可靠性均有较高的要求,为检测任务增添了难度。
激光雷达与摄像机是无人车中极为重要的传感器件。激光雷达凭借着其在空间信息获取上的优势获得广泛关注,但由于点云数据获取细节能力有限,障碍物检测精度受到极大限制,***获得可靠障碍物信息的难度增大;摄像机难以获取空间几何信息,虽然近年来单目深度估计等相关方向发展迅速,但始终难以达到实际的精度要求,因此,传感器融合是解决相关问题的有效方法。
目前,车辆感知***采用的目标检测方式多以激光雷达为核心,视觉、毫米波雷达等作为辅助。Chen等人在2016年提出一种将激光雷达数据与彩色图像作为输入的MV3D架构,构建三维候选区域生成网络以及多视角特征融合网络,在三维检测与定位等实际应用中均有较好的效果;Qi等人在2017年提出了通过融合RGB图像与激光雷达点云数据获取RGB-D图像的Frustum PointNets,将二维目标检测的成果推广到三维,估计目标物体的中心与几何尺寸;Zhou等人在2017年提出了一种基于激光点云的新型端到端可训练深度架构VoxelNet,仅凭点云数据便获得相当高的检测精度。目前的无人车平台车辆检测大多以激光雷达为核心,训练深度网络以提高检测精度,但实际上,缺乏对图像序列信息的挖掘,并且由于运算相当复杂,实验对硬件有极高的要求。另外,这种检测是在全局进行的,因此前期要求有大量不同场景下的车辆标注,否则,深度网络在小样本中将出现严重的过拟合,如:对比文件CN201811512935-一种基于激光雷达与摄像机融合的交通灯检测与识别方法。
发明内容
针对上述研究的问题,本发明的目的在于提供一种结合激光点云数据的行驶车辆视觉检测方法,解决现有以激光雷达为核心的车辆检测中,缺乏对图像序列信息的挖掘、运算复杂且对硬件有极高的要求的问题。
为了达到上述目的,本发明采用如下技术方案:
一种结合激光点云数据的行驶车辆视觉检测方法,包括以下步骤:
步骤1:首先完成激光雷达与摄像机的联合标定,然后将摄像机获取的视频数据离散为单帧图像后,与激光雷达扫描的点云数据进行时间对准;
步骤2:计算标定后的视频数据中相邻两帧间的光流灰度图,并基于光流灰度图进行运动分割,得到运动区域,即候选区域;
步骤3:基于各帧图像对应的时间对准后的点云数据,在候选区域对应的锥形空间内搜索车辆对应的点云数据,得到运动目标的三维包围框;
步骤4:基于候选区域,在各帧图像上提取方向梯度直方图特征;
步骤5:提取三维包围框中的点云数据的特征;
步骤6:基于遗传算法,将步骤4和步骤5得到的特征进行特征级融合,融合后对运动区域分类,获得最后的行驶车辆检测结果。
进一步,所述步骤1中激光雷达与摄像机的联合标定的具体步骤如下:
步骤1.1:利用棋盘格标定板完成摄像机的标定,估算摄像机的内参矩阵;
步骤1.2:同时从摄像机与激光雷达分别获取视频数据和点云数据,根据棋盘格标定板的几何特征在各帧的点云数据上拟合平面,并在各帧点云数据对应的图像中检测棋盘格特征点,获得激光雷达坐标系下各帧的点云数据与其对应的图像的对应坐标;
步骤1.3:基于对应坐标,估计激光雷达与摄像机矩阵间的变换关系,即外参矩阵;
步骤1.4:组合内参矩阵与外参矩阵获得点云数据到像平面的投影变换关系,对任意点云数据,根据变换关系计算其在像平面上的坐标。
进一步,所述步骤2的具体步骤为:
步骤2.1:根据视频数据中每帧图像的尺度不变特征,对相邻两帧图像进行匹配,得到匹配特征,再基于匹配特征计算损失函数,计算公式为:
其中,是像素对应的位移矢量,是像素对应的位移矢量,与分别为像素水平方向与竖直方向上的像素位移分量,是图像i在像素处提取的尺度不变特征描述子,ε为像素的空间邻域,σ为保证优先考虑较小的运动场,取值范围在200~500之间,α衡量了像素邻域内的光流场差异对损失函数的影响,取值范围在0~1之间,d为将像素邻域的光流场差异对损失函数的影响控制在一定区间内,取值范围在2~5之间;
步骤2.2:基于损失函数在光流约束下求最小值,获得光流场(u,v);
步骤2.3:将光流场(u,v)的两通道融合,并将之转化为单通道的光流灰度图,对光流灰度图做形态学运算后,再计算其最大值,获得运动区域,即候选区域。
进一步,所述步骤3的具体步骤为:
步骤3.1:基于各帧图像对应的时间对准后的点云数据,将点云数据的范围固定,即仅保留车辆周围确定检测范围内的点云;
步骤3.2:基于步骤3.1得到的点云数据,计算垂直于地面方向的所有点云数据坐标均值,作为地面的近似高度,若点云数据距离地面的距离低于阈值,去除对应的点云数据,否则,用保留的点云数据构建K-D树,构建后并根据点间距离滤除离群点;
步骤3.3:基于步骤3.2得到的点云数据,在候选区域对应的锥形空间内搜索点云数据,根据联合标定所得激光雷达坐标与像素坐标间的变换关系确定搜索范围,得到局部点云数据,在二维俯视图中,计算运动目标对应局部点云数据的包围框,基于得到的斜率为自变量的包围框、运动目标的所有点云数据在包围框内为约束条件,计算运动目标的所有点云数据到包围框距离之和,计算公式为:
其中,dij表示包围框区域内第i个点云数据到第j条包围线的距离,N为包围框区域内运动目标的所有点云数据点数;
步骤3.4:选择距离之和最小值,得到俯视图上的二维包围框,再根据二维包围框内点云数据高度的最值,得到三维包围框,即获得运动目标的空间几何信息。
进一步,所述步骤4的具体步骤为:
步骤4.1:对候选区域保留一定的上下文信息,即保留候选区域周围的一小部分像素点,再保留后的候选区域对应的左上角与右下角像素坐标分别为:
(min(xi)-c0,min(yi)-c0),(max(xi)+c0,max(yi)+c0) (3)
其中,(xi,yi)为像素点i对应坐标,c0为设定的边界宽度,min与max分别表示求最小值与求最大值;
步骤4.2:对视频数据中的各帧图像,将其从RGB彩色图像转换到HSV彩色空间下,对应保留后的候选区域,在HSV彩色空间的各通道内提取方向梯度直方图特征,提取后计算各像素点的梯度,将各像素的梯度分布作为图像特征。
进一步,所述步骤5中,所提取的特征包括曲率特征,反射强度特征和几何尺寸特征;具体步骤为:
提取曲率特征的具体步骤为:
步骤5.1:对三维包围框内的点云数据p构建协方差矩阵,有
其中,为点云数据最近邻居的质心,pi为距离点云数据最近的第i个点,k为距离点云数据阈值范围内的点数;
步骤5.2:基于协方差矩阵,计算法向量,有:
C·vl=λl·vl,l∈{0,1,2} (5)
其中,vl为第l个特征向量,λl为第l个特征值;
步骤5.3:利用协方差矩阵的特征值λl估计各点云数据的曲率值,公式为:
步骤5.4:根据各点云数据的曲率分布构建分布直方图,将曲率归一化至[0,1]之间,将曲率划分为N个组,将各组内点云数据点数与区域内点云数据总点数之比作为曲率特征;
提取反射强度特征的具体步骤为:
S5.1:对三维包围框内的反射强度分布构建分布直方图,反射强度在[0,1]之间;
S5.2:将分布直方图划分为M个组,各组内的点云数据的点数与区域内总点云数据点数之比作为点云反射强度特征;
提取几何尺寸特征的具体步骤为:
计算候选区域内的点云数据对应三维包围的长、宽、高之比,作为几何尺寸特征。
进一步,所述步骤6的具体步骤为:
步骤6.1:随机初始化种群,即若选择某特征,则将此特征定义为1,反之为0,初始化后,随机生成第一组个体的编码,定义遗传算法的适应度函数为:
其中,Ac(i)为个体i对应的分类准确率,L(i)为个体i对应的子特征基数,L为特征向量基数,N为用于特征选择的样本数,其中,个体指特征,某特征为步骤4和步骤5中提取的任意一特征;
步骤6.2:根据适应度函数评估同一代中各种特征组合方式的好坏,确定遗传到下一代的个体,并将其作为父代,其中,个体i被选择的概率为:
步骤6.3:基于用于遗传的父代和其遗传得到的父代,随机设定交叉点,生成新个体,并随机确定变异,即取反点,设定交叉与变异概率分别为Pc与Pm,满足收敛条件时结束迭代,转到步骤6.4,否则转到步骤6.2;
步骤6.4:根据迭代结果选择特征输入训练好支持向量机对候选区域进行分类,获得最后的行驶车辆检测结果。
本发明同现有技术相比,其有益效果表现在:
一、本发明融合激光雷达与视觉信息,避免了传统视觉方法获取空间几何信息困难的问题,实现了在较低硬件要求下的行驶车辆三维检测,提取视觉图像与点云数据的特征并将特征向量基于遗传算法降维处理,完成了特征级融合,平衡了精度与速度的关系。
二、本发明基于运动分割完成检测任务,仅需较小的前期标注样本即可完成检测,减少了前期繁杂的标注与训练,基于遗传算法的特征级融合较之简单的组合特征有更好的分类效果,提高了检测的召回率与精度;
三、在不使用GPU加速的前提下,以速度著称的深度学习架构YOLOv3检测单帧375×1242图像中的车辆需要数秒,而发明根据运动确定候选区域后,提取图像特征并分类所需时间在数十毫秒量级;而且现今的深度学习架构大多需要数百万的标注样本,当训练样本仅有数万甚至数千时,过于复杂的深度神经网络模型可能面临严重的过拟合,过多依赖于训练数据,在测试集中效果不佳,而本发明只需要少量的样本,也就避免了过拟合造成的分类效果不佳的问题。
附图说明
图1为本发明的流程图;
图2为本发明中待处理的视频数据中的某帧图像,及与某帧图像对应的光流灰度图与运动区域,其中,(a)表示视频数据中的某帧图像、(b)表示与(a)图对应的光流灰度图、(c)与(a)图和(b)图对应的运动区域;
图3为本发明中,点云数据俯视图、去除地面与离群点后搜索运动区域对应锥形空间所得的点云数据包围框,其中,(a)表示点云数据俯视图、(b)表示去除地面与离群点后搜索运动区域对应锥形空间所得的点云数据包围框;
图4为本发明中最终的检测结果。
具体实施方式
下面将结合附图及具体实施方式对本发明作进一步的描述。
本发明挖掘图像序列关系,选择对硬件要求更低的点云分割算法与适当的特征描述子,能够有效平衡精度与速度间的关系。具体方案如下:
一种结合激光点云数据的行驶车辆视觉检测方法,包括以下步骤:
步骤1:首先完成激光雷达与摄像机的联合标定,然后将摄像机获取的视频数据离散为单帧图像后,与激光雷达扫描的点云数据进行时间对准;
激光雷达与摄像机的联合标定的具体步骤如下:
步骤1.1:利用棋盘格标定板完成摄像机的标定,估算摄像机的内参矩阵;
步骤1.2:同时从摄像机与激光雷达分别获取视频数据和点云数据,根据棋盘格标定板的几何特征在各帧的点云数据上拟合平面,并在各帧点云数据对应的图像中检测棋盘格特征点,获得激光雷达坐标系下各帧的点云数据与其对应的图像的对应坐标;
步骤1.3:基于对应坐标,估计激光雷达与摄像机矩阵间的变换关系,即外参矩阵;
步骤1.4:组合内参矩阵与外参矩阵获得点云数据到像平面的投影变换关系,对任意点云数据,根据变换关系计算其在像平面上的坐标。
步骤2:计算标定后的视频数据中相邻两帧间的光流灰度图,并基于光流灰度图进行运动分割,得到运动区域,即候选区域;
具体步骤为:
步骤2.1:根据视频数据中每帧图像的尺度不变特征,对相邻两帧图像进行匹配,得到匹配特征,再基于匹配特征计算损失函数,计算公式为:
其中,是像素对应的位移矢量,是像素对应的位移矢量,与分别为像素水平方向与竖直方向上的像素位移分量,是图像i在像素处提取的尺度不变特征描述子,ε为像素的空间邻域,σ为保证优先考虑较小的运动场,取值范围在200~500之间,α衡量了像素邻域内的光流场差异对损失函数的影响,取值范围在0~1之间,d为将像素邻域的光流场差异对损失函数的影响控制在一定区间内,取值范围在2~5之间;
步骤2.2:基于损失函数在光流约束下求最小值,获得光流场(u,v);
步骤2.3:将光流场(u,v)的两通道融合,并将之转化为单通道的光流灰度图,对光流灰度图做形态学运算后,再计算其最大值,获得运动区域,即候选区域。
步骤3:基于各帧图像对应的时间对准后的点云数据,在候选区域对应的锥形空间内搜索车辆对应的点云数据,得到运动目标的三维包围框;
具体步骤为:
步骤3.1:基于各帧图像对应的时间对准后的点云数据,将点云数据的范围固定,即仅保留车辆周围确定检测范围内的点云;
步骤3.2:基于步骤3.1得到的点云数据,计算垂直于地面方向的所有点云数据坐标均值,作为地面的近似高度,若点云数据距离地面的距离低于阈值,去除对应的点云数据,否则,用保留的点云数据构建K-D树,构建后并根据点间距离滤除离群点;
步骤3.3:基于步骤3.2得到的点云数据,在候选区域对应的锥形空间内搜索点云数据,根据联合标定所得激光雷达坐标与像素坐标间的变换关系确定搜索范围,得到局部点云数据,在二维俯视图中,计算运动目标对应局部点云数据的包围框,基于得到的斜率为自变量的包围框、运动目标的所有点云数据在包围框内为约束条件,计算运动目标的所有点云数据到包围框距离之和,计算公式为:
其中,dij表示包围框区域内第i个点云数据到第j条包围线的距离,N为包围框区域内运动目标的所有点云数据点数;
步骤3.4:选择距离之和最小值,得到俯视图上的二维包围框,再根据二维包围框内点云数据高度的最值,得到三维包围框,即获得运动目标的空间几何信息。
步骤4:基于候选区域,在各帧图像上提取方向梯度直方图特征;
具体步骤为:
步骤4.1:对候选区域保留一定的上下文信息,即保留候选区域周围的一小部分像素点,再保留后的候选区域对应的左上角与右下角像素坐标分别为:
(min(xi)-c0,min(yi)-c0),(max(xi)+c0,max(yi)+c0) (3)
其中,(xi,yi)为像素点i对应坐标,c0为设定的边界宽度,min与max分别表示求最小值与求最大值;
步骤4.2:对视频数据中的各帧图像,将其从RGB彩色图像转换到HSV彩色空间下,对应保留后的候选区域,在HSV彩色空间的各通道内提取方向梯度直方图特征,提取后计算各像素点的梯度,将各像素的梯度分布作为图像特征。
步骤5:提取三维包围框中的点云数据的特征;所提取的特征包括曲率特征,反射强度特征和几何尺寸特征;具体步骤为:
提取曲率特征的具体步骤为:
步骤5.1:对三维包围框内的点云数据p构建协方差矩阵,有
其中,为点云数据最近邻居的质心,pi为距离点云数据最近的第i个点,k为距离点云数据阈值范围内的点数;
步骤5.2:基于协方差矩阵,计算法向量,有:
C·vl=λl·vl,l∈{0,1,2} (5)
其中,vl为第l个特征向量,λl为第l个特征值;
步骤5.3:利用协方差矩阵的特征值λl估计各点云数据的曲率值,公式为:
步骤5.4:根据各点云数据的曲率分布构建分布直方图,将曲率归一化至[0,1]之间,将曲率划分为N个组,将各组内点云数据点数与区域内点云数据总点数之比作为曲率特征;
提取反射强度特征的具体步骤为:
S5.1:对三维包围框内的反射强度分布构建分布直方图,反射强度在[0,1]之间;
S5.2:将分布直方图划分为M个组,各组内的点云数据的点数与区域内总点云数据点数之比作为点云反射强度特征;
提取几何尺寸特征的具体步骤为:
计算候选区域内的点云数据对应三维包围的长、宽、高之比,作为几何尺寸特征。
步骤6:基于遗传算法,将步骤4和步骤5得到的特征进行特征级融合,融合后对运动区域分类,获得最后的行驶车辆检测结果。
具体步骤为:
步骤6.1:随机初始化种群,即若选择某特征,则将此特征定义为1,反之为0,初始化后,随机生成第一组个体的编码,定义遗传算法的适应度函数为:
其中,Ac(i)为个体i对应的分类准确率,L(i)为个体i对应的子特征基数,L为特征向量基数,N为用于特征选择的样本数,其中,个体指特征,某特征为步骤4和步骤5中提取的任意一特征;
步骤6.2:根据适应度函数评估同一代中各种特征组合方式的好坏,确定遗传到下一代的个体,并将其作为父代,其中,个体i被选择的概率为:
步骤6.3:基于用于遗传的父代和其遗传得到的父代,随机设定交叉点,生成新个体,并随机确定变异,即取反点,设定交叉与变异概率分别为Pc与Pm,满足收敛条件时结束迭代,转到步骤6.4,否则转到步骤6.2;
步骤6.4:根据迭代结果选择特征输入训练好支持向量机对候选区域进行分类,获得最后的行驶车辆检测结果。
实施例
首先进行激光雷达与摄像机的联合标定。具体为:将激光雷达与摄像机安装于移动平台上,在车辆前方的不同位置摆放棋盘格标定板,估计摄相机的内参矩阵;同时触发激光雷达与摄像机得到单帧的点云数据与其对应的单帧的图像,根据棋盘格标定板的几何特征在单帧的点云数据上拟合平面,拟合后并在各帧点云数据对应的图像中检测棋盘格特征点,获得激光雷达坐标系下单帧的点云数据与其对应的图像的对应坐标,根据对应坐标估计外参矩阵。
由于激光雷达与摄像机频率不同,从激光雷达获取1帧数据的同时,从摄像机获取约8帧视频图像。从8帧视频图像中选择时间戳与激光雷达数据帧最为接近的图像,作为时间对准的结果。即用激光雷达与摄像机获取数据,选取与单帧点云数据时间戳最为接近的视频帧作为时间对准结果。对与激光雷达点云数据对应的某帧视频图像,在视频中选取下一帧与当前帧计算光流场,损失函数中的参数σ取200,α取0.5,d取2。将光流场进行颜色编码,转化到颜色空间内,获得光流灰度图。
对光流灰度图计算局部最值,完成运动分割。所得的运动区域即为候选区域。根据外参矩阵与内参矩阵得到的点云数据点与像素点间的对应关系,在图像对应的锥形空间内搜索点云数据,计算这些点云数据的二维包围框。在俯视图上,以包围框边界线斜率为自变量,求候选区域内的目标点云数据到各边界线的距离之和,距离之和最小的边界线确定最佳包围框。计算包围框内的点云数据点高度变化,得到目标的高度分布。
对候选区域内的局部图像以及局部点云数据,分别提取遗传算法所选择的特征,输入训练好的分类器中,确定该运动区域是否包含车辆,即完成运动车辆的检测。
训练好的分类器的训练过程为:
而后在收集到的小规模样本上训练分类器。具体为:正样本为车辆,负样本为行人与骑行者等可能存在于道路上的运动物,针对样本图像数据与点云数据提取特征,包括彩色图像对应HSV色彩空间三通道内的方向梯度直方图特征,对应的候选区域内提取光流灰度图梯度直方图特征,以及点云数据的曲率特征、反射强度特征与几何特征特征;将各个特征编码,根据遗传算法融合多特征,随机生成第一组个体的编码,例如,某个体101011代表选择第一、三、五、六个特征,计算各个个体的适应度,当适应度大于0.8时将之遗传到下一代,作为下一代的父本,对两个父本两两交叉,生成0至5间的随机数确定父本交叉发生的位置,将随机数右侧的两父本编码互换,变异概率为0.01,随机指定某位做变异运算,即得到子代。而后对子代计算适应度,淘汰适应度低于0.8的个体,将其余个体作为父代,继续迭代,直至连续迭代十次每代中的最高适应度个体相同,或达到最高迭代次数1000时,终止迭代,选择适应度最高的个体,例如,获得个体为100101,选择HSV色彩空间的第一通道,点云数据的曲率特征与几何尺寸特征。之后,对选择的特征训练支持向量机。
以上仅是本发明众多具体应用范围中的代表性实施例,对本发明的保护范围不构成任何限制。凡采用变换或是等效替换而形成的技术方案,均落在本发明权利保护范围之内。
Claims (7)
1.一种结合激光点云数据的行驶车辆视觉检测方法,其特征在于:包括以下步骤:
步骤1:首先完成激光雷达与摄像机的联合标定,然后将摄像机获取的视频数据离散为单帧图像后,与激光雷达扫描的点云数据进行时间对准;
步骤2:计算标定后的视频数据中相邻两帧间的光流灰度图,并基于光流灰度图进行运动分割,得到运动区域,即候选区域;
步骤3:基于各帧图像对应的时间对准后的点云数据,在候选区域对应的锥形空间内搜索车辆对应的点云数据,得到运动目标的三维包围框;
步骤4:基于候选区域,在各帧图像上提取方向梯度直方图特征;
步骤5:提取三维包围框中的点云数据的特征;
步骤6:基于遗传算法,将步骤4和步骤5得到的特征进行特征级融合,融合后对运动区域分类,获得最后的行驶车辆检测结果。
2.根据权利要求1所述的一种结合激光点云数据的行驶车辆视觉检测方法,其特征在于:所述步骤1中激光雷达与摄像机的联合标定的具体步骤如下:
步骤1.1:利用棋盘格标定板完成摄像机的标定,估算摄像机的内参矩阵;
步骤1.2:同时从摄像机与激光雷达分别获取视频数据和点云数据,根据棋盘格标定板的几何特征在各帧的点云数据上拟合平面,并在各帧点云数据对应的图像中检测棋盘格特征点,获得激光雷达坐标系下各帧的点云数据与其对应的图像的对应坐标;
步骤1.3:基于对应坐标,估计激光雷达与摄像机矩阵间的变换关系,即外参矩阵;
步骤1.4:组合内参矩阵与外参矩阵获得点云数据到像平面的投影变换关系,对任意点云数据,根据变换关系计算其在像平面上的坐标。
3.根据权利要求2所述的一种结合激光点云数据的行驶车辆视觉检测方法,其特征在于:所述步骤2的具体步骤为:
步骤2.1:根据视频数据中每帧图像的尺度不变特征,对相邻两帧图像进行匹配,得到匹配特征,再基于匹配特征计算损失函数,计算公式为:
其中,是像素对应的位移矢量,是像素对应的位移矢量,与分别为像素水平方向与竖直方向上的像素位移分量,是图像i在像素处提取的尺度不变特征描述子,ε为像素的空间邻域,σ为保证优先考虑较小的运动场,取值范围在200~500之间,α衡量了像素邻域内的光流场差异对损失函数的影响,取值范围在0~1之间,d为将像素邻域的光流场差异对损失函数的影响控制在一定区间内,取值范围在2~5之间;
步骤2.2:基于损失函数在光流约束下求最小值,获得光流场(u,v);
步骤2.3:将光流场(u,v)的两通道融合,并将之转化为单通道的光流灰度图,对光流灰度图做形态学运算后,再计算其最大值,获得运动区域,即候选区域。
4.根据权利要求3所述的一种结合激光点云数据的行驶车辆视觉检测方法,其特征在于:所述步骤3的具体步骤为:
步骤3.1:基于各帧图像对应的时间对准后的点云数据,将点云数据的范围固定,即仅保留车辆周围确定检测范围内的点云;
步骤3.2:基于步骤3.1得到的点云数据,计算垂直于地面方向的所有点云数据坐标均值,作为地面的近似高度,若点云数据距离地面的距离低于阈值,去除对应的点云数据,否则,用保留的点云数据构建K-D树,构建后并根据点间距离滤除离群点;
步骤3.3:基于步骤3.2得到的点云数据,在候选区域对应的锥形空间内搜索点云数据,根据联合标定所得激光雷达坐标与像素坐标间的变换关系确定搜索范围,得到局部点云数据,在二维俯视图中,计算运动目标对应局部点云数据的包围框,基于得到的斜率为自变量的包围框、运动目标的所有点云数据在包围框内为约束条件,计算运动目标的所有点云数据到包围框距离之和,计算公式为:
其中,dij表示包围框区域内第i个点云数据到第j条包围线的距离,N为包围框区域内运动目标的所有点云数据点数;
步骤3.4:选择距离之和最小值,得到俯视图上的二维包围框,再根据二维包围框内点云数据高度的最值,得到三维包围框,即获得运动目标的空间几何信息。
5.根据权利要求4所述的一种结合激光点云数据的行驶车辆视觉检测方法,其特征在于:所述步骤4的具体步骤为:
步骤4.1:对候选区域保留一定的上下文信息,即保留候选区域周围的一小部分像素点,再保留后的候选区域对应的左上角与右下角像素坐标分别为:
(min(xi)-c0,min(yi)-c0),(max(xi)+c0,max(yi)+c0) (3)
其中,(xi,yi)为像素点i对应坐标,c0为设定的边界宽度,min与max分别表示求最小值与求最大值;
步骤4.2:对视频数据中的各帧图像,将其从RGB彩色图像转换到HSV彩色空间下,对应保留后的候选区域,在HSV彩色空间的各通道内提取方向梯度直方图特征,提取后计算各像素点的梯度,将各像素的梯度分布作为图像特征。
6.根据权利要求5所述的一种结合激光点云数据的行驶车辆视觉检测方法,其特征在于:所述步骤5中,所提取的特征包括曲率特征,反射强度特征和几何尺寸特征;具体步骤为:
提取曲率特征的具体步骤为:
步骤5.1:对三维包围框内的点云数据p构建协方差矩阵,有
其中,为点云数据最近邻居的质心,pi为距离点云数据最近的第i个点,k为距离点云数据阈值范围内的点数;
步骤5.2:基于协方差矩阵,计算法向量,有:
C·vl=λl·vl,l∈{0,1,2} (5)
其中,vl为第l个特征向量,λl为第l个特征值;
步骤5.3:利用协方差矩阵的特征值λl估计各点云数据的曲率值,公式为:
步骤5.4:根据各点云数据的曲率分布构建分布直方图,将曲率归一化至[0,1]之间,将曲率划分为N个组,将各组内点云数据点数与区域内点云数据总点数之比作为曲率特征;
提取反射强度特征的具体步骤为:
S5.1:对三维包围框内的反射强度分布构建分布直方图,反射强度在[0,1]之间;
S5.2:将分布直方图划分为M个组,各组内的点云数据的点数与区域内总点云数据点数之比作为点云反射强度特征;
提取几何尺寸特征的具体步骤为:
计算候选区域内的点云数据对应三维包围的长、宽、高之比,作为几何尺寸特征。
7.根据权利要求6所述的一种结合激光点云数据的行驶车辆视觉检测方法,其特征在于:
所述步骤6的具体步骤为:
步骤6.1:随机初始化种群,即若选择某特征,则将此特征定义为1,反之为0,初始化后,随机生成第一组个体的编码,定义遗传算法的适应度函数为:
其中,Ac(i)为个体i对应的分类准确率,L(i)为个体i对应的子特征基数,L为特征向量基数,N为用于特征选择的样本数,其中,个体指特征,某特征为步骤4和步骤5中提取的任意一特征;
步骤6.2:根据适应度函数评估同一代中各种特征组合方式的好坏,确定遗传到下一代的个体,并将其作为父代,其中,个体i被选择的概率为:
步骤6.3:基于用于遗传的父代和其遗传得到的父代,随机设定交叉点,生成新个体,并随机确定变异,即取反点,设定交叉与变异概率分别为Pc与Pm,满足收敛条件时结束迭代,转到步骤6.4,否则转到步骤6.2;
步骤6.4:根据迭代结果选择特征输入训练好支持向量机对候选区域进行分类,获得最后的行驶车辆检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910455505.XA CN110175576B (zh) | 2019-05-29 | 2019-05-29 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910455505.XA CN110175576B (zh) | 2019-05-29 | 2019-05-29 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110175576A true CN110175576A (zh) | 2019-08-27 |
CN110175576B CN110175576B (zh) | 2022-09-16 |
Family
ID=67696040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910455505.XA Active CN110175576B (zh) | 2019-05-29 | 2019-05-29 | 一种结合激光点云数据的行驶车辆视觉检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110175576B (zh) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110738121A (zh) * | 2019-09-17 | 2020-01-31 | 北京科技大学 | 一种前方车辆检测方法及检测*** |
CN110880173A (zh) * | 2019-11-13 | 2020-03-13 | 珠海格力智能装备有限公司 | 空调底板的外轮廓提取方法及装置 |
CN110969648A (zh) * | 2019-12-11 | 2020-04-07 | 华中科技大学 | 一种基于点云序列数据的3d目标跟踪方法及*** |
CN110988912A (zh) * | 2019-12-06 | 2020-04-10 | 中国科学院自动化研究所 | 自动驾驶车辆的道路目标与距离检测方法、***、装置 |
CN111179328A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 数据同步标定方法、装置、可读存储介质及电子设备 |
CN111209840A (zh) * | 2019-12-31 | 2020-05-29 | 浙江大学 | 一种基于多传感器数据融合的3d目标检测方法 |
CN111242000A (zh) * | 2020-01-09 | 2020-06-05 | 电子科技大学 | 一种结合激光点云转向的道路边沿检测方法 |
CN111274927A (zh) * | 2020-01-17 | 2020-06-12 | 北京三快在线科技有限公司 | 一种训练数据的生成方法、装置、电子设备和存储介质 |
CN111310765A (zh) * | 2020-02-14 | 2020-06-19 | 北京经纬恒润科技有限公司 | 激光点云语义分割方法和装置 |
CN111353481A (zh) * | 2019-12-31 | 2020-06-30 | 成都理工大学 | 基于激光点云与视频图像的道路障碍物识别方法 |
CN111504223A (zh) * | 2020-04-22 | 2020-08-07 | 荆亮 | 一种基于线激光传感器的叶片轮廓测量方法及装置和*** |
CN111696147A (zh) * | 2020-05-22 | 2020-09-22 | 东南大学 | 一种基于改进YOLOv3模型的深度估计方法 |
CN111722245A (zh) * | 2020-06-22 | 2020-09-29 | 北京百度网讯科技有限公司 | 定位方法、定位装置和电子设备 |
CN111738203A (zh) * | 2020-07-03 | 2020-10-02 | 中兴飞流信息科技有限公司 | 一种基于自动划线区域的站台行人越线检测方法 |
CN111754583A (zh) * | 2020-05-29 | 2020-10-09 | 江苏大学 | 一种车载三维激光雷达和相机外参联合标定的自动化方法 |
CN112102409A (zh) * | 2020-09-21 | 2020-12-18 | 杭州海康威视数字技术股份有限公司 | 目标检测方法、装置、设备及存储介质 |
CN112184671A (zh) * | 2020-09-29 | 2021-01-05 | 平安科技(深圳)有限公司 | 甲状腺结节纵横比计算方法、装置、设备和存储介质 |
CN112346073A (zh) * | 2020-09-25 | 2021-02-09 | 中山大学 | 一种动态视觉传感器与激光雷达数据融合方法 |
CN112581612A (zh) * | 2020-11-17 | 2021-03-30 | 上汽大众汽车有限公司 | 基于激光雷达和环视摄像头融合的车载栅格地图生成方法及*** |
CN112684424A (zh) * | 2020-12-30 | 2021-04-20 | 同济大学 | 一种毫米波雷达与相机的自动标定方法 |
CN112799091A (zh) * | 2021-01-28 | 2021-05-14 | 知行汽车科技(苏州)有限公司 | 算法评估方法、装置及存储介质 |
CN112991454A (zh) * | 2019-12-18 | 2021-06-18 | 动态Ad有限责任公司 | 照相机到LiDAR的标定和验证 |
CN113494912A (zh) * | 2020-03-20 | 2021-10-12 | Abb瑞士股份有限公司 | 基于虚拟传感器响应的交通工具的位置估计 |
CN114120642A (zh) * | 2021-11-23 | 2022-03-01 | 深圳大学 | 一种道路车流三维重建方法、计算机设备及存储介质 |
CN115019270A (zh) * | 2022-05-31 | 2022-09-06 | 电子科技大学 | 一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法 |
US11706507B2 (en) | 2020-12-30 | 2023-07-18 | Waymo Llc | Systems, apparatus, and methods for generating enhanced images |
CN117237902A (zh) * | 2023-11-15 | 2023-12-15 | 山东飞宏工程机械有限公司 | 基于深度学习的机器人物体识别*** |
CN117611592A (zh) * | 2024-01-24 | 2024-02-27 | 长沙隼眼软件科技有限公司 | 一种异物检测方法、装置、电子设备以及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101581575A (zh) * | 2009-06-19 | 2009-11-18 | 南昌航空大学 | 基于激光和摄像机数据融合的三维重建方法 |
EP2728376A1 (en) * | 2012-11-05 | 2014-05-07 | The Chancellor, Masters and Scholars of the University of Oxford | Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus |
CN103869820A (zh) * | 2014-03-18 | 2014-06-18 | 北京控制工程研究所 | 一种巡视器地面导航规划控制方法 |
US20140300758A1 (en) * | 2013-04-04 | 2014-10-09 | Bao Tran | Video processing systems and methods |
CN108519605A (zh) * | 2018-04-09 | 2018-09-11 | 重庆邮电大学 | 基于激光雷达和摄像机的路沿检测方法 |
CN108596974A (zh) * | 2018-04-04 | 2018-09-28 | 清华大学 | 动态场景机器人定位建图***及方法 |
US20190079193A1 (en) * | 2017-09-13 | 2019-03-14 | Velodyne Lidar, Inc. | Multiple Resolution, Simultaneous Localization and Mapping Based On 3-D LIDAR Measurements |
-
2019
- 2019-05-29 CN CN201910455505.XA patent/CN110175576B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101581575A (zh) * | 2009-06-19 | 2009-11-18 | 南昌航空大学 | 基于激光和摄像机数据融合的三维重建方法 |
EP2728376A1 (en) * | 2012-11-05 | 2014-05-07 | The Chancellor, Masters and Scholars of the University of Oxford | Extrinsic calibration of imaging sensing devices and 2D LIDARs mounted on transportable apparatus |
US20140300758A1 (en) * | 2013-04-04 | 2014-10-09 | Bao Tran | Video processing systems and methods |
CN103869820A (zh) * | 2014-03-18 | 2014-06-18 | 北京控制工程研究所 | 一种巡视器地面导航规划控制方法 |
US20190079193A1 (en) * | 2017-09-13 | 2019-03-14 | Velodyne Lidar, Inc. | Multiple Resolution, Simultaneous Localization and Mapping Based On 3-D LIDAR Measurements |
CN108596974A (zh) * | 2018-04-04 | 2018-09-28 | 清华大学 | 动态场景机器人定位建图***及方法 |
CN108519605A (zh) * | 2018-04-09 | 2018-09-11 | 重庆邮电大学 | 基于激光雷达和摄像机的路沿检测方法 |
Non-Patent Citations (3)
Title |
---|
ADARSH SEHGAL 等: "Lidar-Monocular Visual Odometry with Genetic Algorithm for Parameter Optimization", 《ARXIV》 * |
程冠旻: "基于视觉与雷达的智能汽车横向避障策略研究", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》 * |
贾子永 等: "视觉与激光雷达信息融合的目标领航车识别方法", 《火力与指挥控制》 * |
Cited By (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110738121A (zh) * | 2019-09-17 | 2020-01-31 | 北京科技大学 | 一种前方车辆检测方法及检测*** |
CN110880173A (zh) * | 2019-11-13 | 2020-03-13 | 珠海格力智能装备有限公司 | 空调底板的外轮廓提取方法及装置 |
CN110988912A (zh) * | 2019-12-06 | 2020-04-10 | 中国科学院自动化研究所 | 自动驾驶车辆的道路目标与距离检测方法、***、装置 |
CN110988912B (zh) * | 2019-12-06 | 2022-12-02 | 青岛慧拓智能机器有限公司 | 自动驾驶车辆的道路目标与距离检测方法、***、装置 |
CN110969648A (zh) * | 2019-12-11 | 2020-04-07 | 华中科技大学 | 一种基于点云序列数据的3d目标跟踪方法及*** |
CN110969648B (zh) * | 2019-12-11 | 2022-05-20 | 华中科技大学 | 一种基于点云序列数据的3d目标跟踪方法及*** |
CN112991454A (zh) * | 2019-12-18 | 2021-06-18 | 动态Ad有限责任公司 | 照相机到LiDAR的标定和验证 |
US20210192788A1 (en) * | 2019-12-18 | 2021-06-24 | Motional Ad Llc | Camera-to-lidar calibration and validation |
US11940539B2 (en) * | 2019-12-18 | 2024-03-26 | Motional Ad Llc | Camera-to-LiDAR calibration and validation |
CN111179328A (zh) * | 2019-12-31 | 2020-05-19 | 智车优行科技(上海)有限公司 | 数据同步标定方法、装置、可读存储介质及电子设备 |
CN111353481A (zh) * | 2019-12-31 | 2020-06-30 | 成都理工大学 | 基于激光点云与视频图像的道路障碍物识别方法 |
CN111179328B (zh) * | 2019-12-31 | 2023-09-08 | 智车优行科技(上海)有限公司 | 数据同步标定方法、装置、可读存储介质及电子设备 |
CN111209840B (zh) * | 2019-12-31 | 2022-02-18 | 浙江大学 | 一种基于多传感器数据融合的3d目标检测方法 |
CN111209840A (zh) * | 2019-12-31 | 2020-05-29 | 浙江大学 | 一种基于多传感器数据融合的3d目标检测方法 |
CN111242000A (zh) * | 2020-01-09 | 2020-06-05 | 电子科技大学 | 一种结合激光点云转向的道路边沿检测方法 |
CN111274927A (zh) * | 2020-01-17 | 2020-06-12 | 北京三快在线科技有限公司 | 一种训练数据的生成方法、装置、电子设备和存储介质 |
CN111310765A (zh) * | 2020-02-14 | 2020-06-19 | 北京经纬恒润科技有限公司 | 激光点云语义分割方法和装置 |
CN113494912A (zh) * | 2020-03-20 | 2021-10-12 | Abb瑞士股份有限公司 | 基于虚拟传感器响应的交通工具的位置估计 |
CN111504223A (zh) * | 2020-04-22 | 2020-08-07 | 荆亮 | 一种基于线激光传感器的叶片轮廓测量方法及装置和*** |
CN111696147A (zh) * | 2020-05-22 | 2020-09-22 | 东南大学 | 一种基于改进YOLOv3模型的深度估计方法 |
CN111696147B (zh) * | 2020-05-22 | 2023-04-07 | 东南大学 | 一种基于改进YOLOv3模型的深度估计方法 |
CN111754583B (zh) * | 2020-05-29 | 2024-05-14 | 江苏大学 | 一种车载三维激光雷达和相机外参联合标定的自动化方法 |
CN111754583A (zh) * | 2020-05-29 | 2020-10-09 | 江苏大学 | 一种车载三维激光雷达和相机外参联合标定的自动化方法 |
CN111722245B (zh) * | 2020-06-22 | 2023-03-10 | 阿波罗智能技术(北京)有限公司 | 定位方法、定位装置和电子设备 |
CN111722245A (zh) * | 2020-06-22 | 2020-09-29 | 北京百度网讯科技有限公司 | 定位方法、定位装置和电子设备 |
US11713970B2 (en) | 2020-06-22 | 2023-08-01 | Beijing Baidu Netcom Science Technology Co., Ltd. | Positioning method, electronic device and computer readable storage medium |
CN111738203B (zh) * | 2020-07-03 | 2024-03-19 | 中兴飞流信息科技有限公司 | 一种基于自动划线区域的站台行人越线检测方法 |
CN111738203A (zh) * | 2020-07-03 | 2020-10-02 | 中兴飞流信息科技有限公司 | 一种基于自动划线区域的站台行人越线检测方法 |
CN112102409B (zh) * | 2020-09-21 | 2023-09-01 | 杭州海康威视数字技术股份有限公司 | 目标检测方法、装置、设备及存储介质 |
CN112102409A (zh) * | 2020-09-21 | 2020-12-18 | 杭州海康威视数字技术股份有限公司 | 目标检测方法、装置、设备及存储介质 |
CN112346073B (zh) * | 2020-09-25 | 2023-07-11 | 中山大学 | 一种动态视觉传感器与激光雷达数据融合方法 |
CN112346073A (zh) * | 2020-09-25 | 2021-02-09 | 中山大学 | 一种动态视觉传感器与激光雷达数据融合方法 |
CN112184671A (zh) * | 2020-09-29 | 2021-01-05 | 平安科技(深圳)有限公司 | 甲状腺结节纵横比计算方法、装置、设备和存储介质 |
CN112184671B (zh) * | 2020-09-29 | 2023-12-19 | 平安科技(深圳)有限公司 | 甲状腺结节纵横比计算方法、装置、设备和存储介质 |
CN112581612A (zh) * | 2020-11-17 | 2021-03-30 | 上汽大众汽车有限公司 | 基于激光雷达和环视摄像头融合的车载栅格地图生成方法及*** |
CN112581612B (zh) * | 2020-11-17 | 2022-11-01 | 上汽大众汽车有限公司 | 基于激光雷达和环视摄像头融合的车载栅格地图生成方法及*** |
US11706507B2 (en) | 2020-12-30 | 2023-07-18 | Waymo Llc | Systems, apparatus, and methods for generating enhanced images |
CN112684424A (zh) * | 2020-12-30 | 2021-04-20 | 同济大学 | 一种毫米波雷达与相机的自动标定方法 |
CN112799091A (zh) * | 2021-01-28 | 2021-05-14 | 知行汽车科技(苏州)有限公司 | 算法评估方法、装置及存储介质 |
CN114120642A (zh) * | 2021-11-23 | 2022-03-01 | 深圳大学 | 一种道路车流三维重建方法、计算机设备及存储介质 |
CN115019270A (zh) * | 2022-05-31 | 2022-09-06 | 电子科技大学 | 一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法 |
CN115019270B (zh) * | 2022-05-31 | 2024-04-19 | 电子科技大学 | 一种基于稀疏点云先验信息的自动驾驶夜间目标检测方法 |
CN117237902A (zh) * | 2023-11-15 | 2023-12-15 | 山东飞宏工程机械有限公司 | 基于深度学习的机器人物体识别*** |
CN117237902B (zh) * | 2023-11-15 | 2024-01-26 | 山东飞宏工程机械有限公司 | 基于深度学习的机器人物体识别*** |
CN117611592B (zh) * | 2024-01-24 | 2024-04-05 | 长沙隼眼软件科技有限公司 | 一种异物检测方法、装置、电子设备以及存储介质 |
CN117611592A (zh) * | 2024-01-24 | 2024-02-27 | 长沙隼眼软件科技有限公司 | 一种异物检测方法、装置、电子设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110175576B (zh) | 2022-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110175576A (zh) | 一种结合激光点云数据的行驶车辆视觉检测方法 | |
CN113255481B (zh) | 一种基于无人巡逻车的人群状态检测方法 | |
CN105260699B (zh) | 一种车道线数据的处理方法及装置 | |
CN103605953B (zh) | 基于滑窗搜索的车辆兴趣目标检测方法 | |
CN106682586A (zh) | 一种复杂光照条件下基于视觉的实时车道线检测的方法 | |
Kühnl et al. | Monocular road segmentation using slow feature analysis | |
CN110148196A (zh) | 一种图像处理方法、装置以及相关设备 | |
CN110379168B (zh) | 一种基于Mask R-CNN的交通车辆信息获取方法 | |
CN108830246B (zh) | 一种交通环境行人多维运动特征视觉提取方法 | |
CN105404857A (zh) | 一种基于红外的夜间智能车前方行人检测方法 | |
Fernández et al. | Road curb and lanes detection for autonomous driving on urban scenarios | |
CN102073846A (zh) | 基于航拍图像的交通信息获取方法 | |
CN106845364A (zh) | 一种快速自动目标检测方法 | |
CN111915583B (zh) | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 | |
CN104143077B (zh) | 基于图像的行人目标检索方法和*** | |
CN104517095A (zh) | 一种基于深度图像的人头分割方法 | |
CN106446785A (zh) | 基于双目视觉的可行道路检测方法 | |
CN109635726A (zh) | 一种基于对称式深度网络结合多尺度池化的滑坡识别方法 | |
CN109242019A (zh) | 一种水面光学小目标快速检测与跟踪方法 | |
CN107808524A (zh) | 一种基于无人机的道路交叉口车辆检测方法 | |
CN111487643B (zh) | 一种基于激光雷达点云和近红外影像的建筑物检测方法 | |
CN114049572A (zh) | 识别小目标的检测方法 | |
CN106529391B (zh) | 一种鲁棒的限速交通标志检测与识别方法 | |
WO2023060632A1 (zh) | 基于点云数据的街景地物多维度提取方法和*** | |
Zhang et al. | Front vehicle detection based on multi-sensor fusion for autonomous vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |