CN115457237A - 基于雷视融合的车辆目标快速检测方法 - Google Patents
基于雷视融合的车辆目标快速检测方法 Download PDFInfo
- Publication number
- CN115457237A CN115457237A CN202211248779.XA CN202211248779A CN115457237A CN 115457237 A CN115457237 A CN 115457237A CN 202211248779 A CN202211248779 A CN 202211248779A CN 115457237 A CN115457237 A CN 115457237A
- Authority
- CN
- China
- Prior art keywords
- pixel
- image
- pixel points
- radar
- speed information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于雷视融合的车辆目标快速检测方法,首先,将毫米波雷达经过预处理后的点云信息映射到图像像素坐标系中,得到雷达探测到的目标点云速度信息在图像上的分布;其次,利用雷达采集到的点云速度信息进行区域补偿,为图像内全部像素点赋予对应的速度信息;然后,提取图像所有像素点的RGB分量值和每个像素点在图像上的坐标位置信息,接着对RGB分量值、坐标位置、速度信息这五个维度特征信息进行融合,共同张成一组特征向量,确定聚类中心数K和K个初始聚类中心向量,再运用Kmeans算法实现像素点云聚类,分离目标像素点与背景像素点,并输出分类后结果;最后,对分类结果进行车辆目标提取,实现单帧车辆快速检测。
Description
技术领域
本发明涉及光学传感器与微波传感器交叉融合技术领域,尤其是涉及基于雷视融合的车辆目标快速检测方法。
背景技术
在智能交通***中,车辆检测与跟踪是实现交通事件行为决策的关键步骤,为后续车辆的决策规划、行为控制等高层任务提供基础支撑,所以必须使用有效的车辆目标检测算法以便更准确地检测并提取出运动目标,从而为后续的识别跟踪打下良好的基础。
黄东军等人在其发表的论文“基于改进混合高斯模型的运动物体检测研究”中提出了改进混合高斯模型的方法,对于前N帧采用邻域特性与中值滤波相结合的方法来初始化每个像素点,作为初始背景图像,对后面帧的每个像素点进行混合高斯模型更新匹配,匹配成功则判定像素点是背景点,否则判定为目标点,最后利用邻域特性,根据邻域像素点所属分类的概率决定该像素点的最终所属分类,从而提取出运动目标。该方法存在的不足之处在于若前面N帧中一直存在运动物体,那么在背景构建时离真实背景就会存在偏差,从而会影响像素点的判定结果。其次,由于背景建模是基于颜色空间的建模,运动目标的颜色与背景颜色的高斯背景模型相匹配,会导致颜色相近的区域被认为是背景而使目标区域产生部分空洞现象。
在视频中对运动车辆最常使用的方法是背景差分法,然而通过背景差分法获取运动车辆目标最为关键的是背景模型的建立,实际交通环境中,场景复杂、环境多变,干扰较多,尤其是当车辆目标颜色与背景颜色相近时,会出现将目标像素点判定为背景像素点的情况,因此很难估计出真实的背景图像,导致在实际车辆目标提取时,会出现空洞现象。
综上,如何在场景环境复杂多变特别是车辆目标颜色与背景颜色相近情况下,准确识别车辆目标轮廓,解决车辆目标提取时产生的空洞问题,快速准确实现车辆目标的检测是一个具有挑战性的问题。
发明内容
本发明目的是提出基于雷视融合的车辆目标快速检测方法,解决复杂场景环境多变情况下,由于背景构建不准确,车辆目标提取时产生空洞现象的问题,进而实现对车辆目标快速准确检测,提升车辆检测精度。
本发明的基于雷视融合的车辆目标快速检测方法,包括如下步骤:
S1、通过坐标转换将雷达的点云投影到摄像机的图像上,获取雷达探测的点云速度信息在图像上的分布;
S2、利用点云速度信息进行区域补偿,为图像内全部像素点赋予速度信息;
S3、提取图像中所有像素点的RGB颜色分量特征和像素坐标特征;
S4、从RGB分量值、坐标位置、速度信息维度对像素点进行聚类,确定聚类中心数K及每个聚类中心的初始聚类中心向量;
S5、运用Kmeans算法对聚类中心重新聚类,从而实现背景、车辆目标分类;
S6、利用聚类结果进行车辆目标提取。
进一步的,S1步骤的具体过程如下:
S11、对雷达探测的原始点云信息进行预处理,滤除掉非必要杂波,保留目标的多雷达反射点;
S12、从时间起点和数据帧两个角度对雷达数据和视频数据进行时间匹配;
S13、将匹配后的点云由雷达坐标系转化到像素坐标系,并投影至图像中。
进一步的,S2步骤的具体过如下:以点云中每个点为中心,以n*n窗口为邻域,将该点的速度信息赋予在该窗口内的其他像素点;而对于路灯、地面的像素点,则将速度信息补偿为0,从而将图像内全部像素点都被赋予速度信息。
进一步的,S4步骤的具体过程如下:取图像中的像素点ui并将其设置为第一个类的中心,然后对图像中其他像素点us的特征向量收敛值按照下式进行相似性判断:
如果满足上式,则将像素点us与像素点ui合并为一类,否则,将像素点us作为一个新的类中心;以此方式继续计算剩下的样本像素点,直到处理完所有的像素点数据,这样即可得将整个场景分成K个类别。
进一步的,S5步骤的具体过程为:
S51、取每一聚类中心的所有像素点的均值向量uk作为聚类中心向量;即,每一类有多个像素点,分别取每一类中所有像素点的均值向量作为该类聚类中心向量,一共有K个聚类中心向量;
S52、计算聚类中心中每一像素点ut与所有均值向量uk的欧式距离min(p),若像素点ut与第p个聚类中心的均值向量距离最近,则将ut归属到第p个聚类中心;
min(p)=||uk-ut||
S53、重复S51-S52,直至相邻轮次的聚类中心向量重合;
S54、将聚类后结果进行显示。
与现有技术相比,本发明具备如下优势:1)相比于传统使用背景差分进行车辆检测的方法,解决了在环境场景复杂多变和运动目标颜色与背景颜色相近情况下,背景构建无法贴合实际真实背景,造成车辆目标提取时产生的空洞问题;2)本发明通过雷视特征融合,将场景分成不同的类别,从而提取出车辆运动目标。相比传统仅依靠像素点的灰度值进行场景分类的算法,解决了在车辆像素点灰度值与背景像素点灰度值接近的情况下,背景和目标无法准确分离的问题;3)本发明可利用单帧实现车辆目标检测,一定程度上提升了车辆检测效率;4)本发明利用了不同传感器的信息进行融合互补,可以全方位、全维度地描述每个像素点的状态信息,克服了单维特征考量的片面性,提高了车辆目标提取的准确性。
附图说明
图1为本发明基于雷视融合的车辆目标快速检测方法流程图;
图2为摄像机在真实环境采集到的第25帧图像和第50帧图像;
图3为毫米波雷达对应摄像机第25帧和第50帧探测的目标原始点云经过数据预处理后的图像;
图4为基于雷视融合的第25帧和第50帧聚类效果图;
图5为对第25帧图像用本发明方法的车辆目标检测结果和使用混合高斯背景建模的车辆检测结果对比;
图6为对第50帧图像用本发明方法的车辆目标检测结果和使用混合高斯背景建模的车辆检测结果对比;
图7为采集的前100帧图像中两种不同算法的漏检率、误检率对比图。
具体实施方式
下面结合附图对本发明的实施例及效果作进一步详细描述。
如图1所示,本发明从雷视融合的角度出发,利用毫米波雷达测速较准的优势,通过雷达数据和光学数据融合,实现背景与目标的准确分离,然后对其中的车辆目标进行提取实现单帧的车辆目标快速检测。
S1、获取雷达探测的目标点云速度信息在图像上的分布。
S11、首先对雷达探测的原始点云信息进行预处理,滤除掉非必要杂波,保留目标的多雷达反射点。图3为第25帧和第50帧毫米波雷达探测的目标原始点云经过数据预处理后的图像,由于雷达点云具有稀疏性和不确定性,不同类型车辆目标的反射点数不一样。
S12、时间匹配。毫米波雷达和视频在时间方面的匹配主要分为两个部分,时间起点上的对齐和数据帧之间的对应。在采集数据时,需要对雷达和视频设备启动时间进行标记输出,作为后续时间起点对齐的参考数据。在时间起点对齐后,根据雷达和视频设备采集数据的帧率对两者数据帧进行匹配。雷达刷新率为20帧/秒,视频帧率为60帧/秒,由于视频采集率大于雷达采集率且为整数倍,因此,在采集雷达数据的时间戳上每间隔2帧对视频数据进行采样,以达到时间帧上的匹配。
S13、空间匹配。雷达检测到目标的径向距离s,角度为r。
(1)目标在雷达坐标系xryr的坐标表示为:
xr=s·sin(r),yr=s·cos(r);
(2)目标由雷达坐标系转换到世界坐标系xwywzw的坐标表示为:
xw=xr,yw=yr,zw=0;
(3)目标由世界坐标系转换到像素坐标系uv的坐标表示为:
式中,R为旋转系数矩阵;T为平移系数矩阵;M1为相机的内部参数矩阵,可通过张正友标定法获取;M2为相机的外部参数矩阵,可通过平移和旋转操作可获取。由下列公式和数据调试可知,在摄像机坐标系xcyczc下,由于雷达和摄像机设备基本处于同一位置,因此数据仅偏移了一个微弱的角度。其中,ω为旋转角度,x',y'为偏移量。
xc=xwcos(ω)-ywsin(ω)+x'
yc=xwcos(ω)+ywsin(ω)+y'
zc=zw
通过上述过程,可以将雷达预处理后点云信息在像素坐标系中显示。
S2、利用雷达采集到的点云速度信息进行区域补偿,为图像内全部像素点赋予对应的速度信息。
雷达探测到的关于目标车辆的原始点云带有速度信息,可以通过空间补偿,以每个点为中心,以n*n窗口为邻域,将该中心点的速度信息赋予在该窗口内的其他像素点。而对于路灯、地面等属于背景范围内的像素点可以将速度信息补偿为0,这样图像内全部像素点都被赋予了对应的速度信息。
S3、提取图像RGB颜色分量特征和空间位置特征。
S31、在RGB色彩空间,空间中的点越接近,这些点所代表的颜色越相似。通过把RGB色彩空间中比较接近的点划分为一类,距离较远的点划分为不同类,从而在图像分割后呈现出的是颜色相同或相近的区域被划分为同一类,颜色差异很大的区域被划分为不同的类。我们对图像进行处理后可获取图像中每一个像素点的R、G、B值。
S32、图像都是由像素组成的,像素坐标是像素在图像中的位置。要确定像素的坐标,首先要确定图像的坐标系。因此,以图像左上角为原点建立以像素为单位的直接坐标系u-v。像素的横坐标u与纵坐标v分别是在其图像数组中所在的列数与所在行数。这样我们可获得每个像素点的坐标信息。
S4、确定聚类中心数K和K个初始聚类中心向量。
根据RGB分量值、坐标位置、速度信息这五个维度特征信息进行融合,共同张成一组特征向量,每个像素点的特征向量表示为ui=[xi,yi,vi,Ri,Gi,Bi]。对每个像素点的特征向量值进行归一化得到那么将图像中全部像素点组成一个样本空间{1,2,3...N}。先取第一个样本像素点ui,作为第一个类的中心。然后,对样本空间中的其他样本像素点us的特征向量收敛值按照下式进行相似性判断:
如果满足上式,则将像素点us与像素点ui合并为一类,否则,将像素点us作为一个新的类中心。以此方式继续计算剩下的样本像素点,直到处理完所有的像素点数据,这样即可得将整个场景分成K个类别。
S5、运用Kmeans算法实现背景、目标分类。
S51、取每一聚类中心的所有像素点的均值向量uk作为聚类中心向量;即,每一类有多个像素点,分别取每一类中所有像素点的均值向量作为该类聚类中心向量,一共有K个聚类中心向量;
S52、计算聚类中心中每一像素点ut与所有均值向量uk的欧式距离min(p),若像素点ut与第p个聚类中心的均值向量距离最近,则将ut归属到第p个聚类中心;
min(p)=||uk-ut||
S53、重复S51-S52,直至相邻轮次的聚类中心向量重合;
S54、将上述步骤中属于同一类的像素点赋予相同的值。这样我们可以得到所有像素点的类别,并进行显示,为了方便看出效果,令同一类簇使用相同的颜色表示。图4中同一类用同颜色表示,可以看出,草地类、车道线类、地面类共同构成了该场景中的背景,车身类、车窗类共同构成了车辆目标。
S6、利用聚类结果进行车辆目标提取。
通过步骤S5可以将场景细化为不同的类别,背景细化为了草地类、车道线类、地面类,将这些类别进行聚合统一用一个颜色表示,贴近最真实的道路背景,将其中由车身类和车窗类组成的车辆目标从场景中提取出来,实现单帧的车辆目标快速检测。
如图2至图7所示的具体实施例中,图2为真实环境中获取的第25帧、第50帧的图像;图3为这两帧雷达探测的原始点云数据进行预处理后的结果,由于雷达点云具有稀疏性和不确定性,不同类型车辆目标的反射点数不一样;图4为通过步骤S5获得的基于雷视融合的聚类效果图,从图中可以看出将整个场景分成了5类,同一类用同颜色表示,利用雷达视频融合很好的将目标像素点与背景像素点分开,方便后续更好的提取车辆目标;图5左为使用混合高斯背景建模的车辆目标检测结果,可以看出,由于背景颜色和车身颜色相近,在背景构建导致颜色相近的区域被认为是背景而使车辆目标区域产生部分空洞现象,图5右为本发明方法的车辆目标检测结果,可以看出,本发明使用方法可以很好的分清目标像素点和背景像素点,大大降低了车辆目标提取时的空洞现象。同理,图6左为使用混合高斯背景建模的车辆目标检测结果,可以看出,该车辆目标提取时出现大量空洞现象,造成车辆目标的漏检,图6右为本发明方法的车辆目标检测结果,可以看出,本发明使用方法可以很好的提取该车辆目标。图7为采集的前100帧图像中两种不同算法的漏检率、误检率对比图。
本文通过计算比较漏检率RFN和错检率RFP来评估所提算法的有效性。
式中,TP表示正确的目标像素点数目;FP表示误检的目标像素数目;TN表示正确背景像素数目;FN表示误检的背景像素数目。
统计真实环境中的前面100帧来验证算法准确率。将两种算法的数据绘成折线图以方便比对,比对结果如图7所示,可以看出本发明的车辆检测方法平均漏检率、平均误检率均低于GMM混合高斯模型的目标检测方法,大大减少了车辆提取时所产生的空洞现象,提升了车辆检测精度。
以上是本发明的具体实施方式,但本发明的保护范围不应局限于此。任何熟悉本领域的技术人员在本发明所揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内,因此本发明的保护范围应以权利要求书所限定的保护范围为准。
Claims (5)
1.基于雷视融合的车辆目标快速检测方法,其特征在于,包括:
S1、通过坐标转换将雷达的点云投影到摄像机的图像上,获取雷达探测的点云速度信息在图像上的分布;
S2、利用点云速度信息进行区域补偿,为图像内全部像素点赋予速度信息;
S3、提取图像中所有像素点的RGB颜色分量特征和像素坐标特征;
S4、从RGB分量值、坐标位置、速度信息维度对像素点进行聚类,确定聚类中心数K及每个聚类中心的初始聚类中心向量;
S5、运用Kmeans算法对聚类中心重新聚类,从而实现背景、车辆目标分类;
S6、利用聚类结果进行车辆目标提取。
2.根据权利要求1所述的车辆目标快速检测方法,其特征在于,S1步骤的具体过程如下:
S11、对雷达探测的原始点云信息进行预处理,滤除掉非必要杂波,保留目标的多雷达反射点;
S12、从时间起点和数据帧两个角度对雷达数据和视频数据进行时间匹配;
S13、将匹配后的点云由雷达坐标系转化到像素坐标系,并投影至图像中。
3.根据权利要求1所述的车辆目标快速检测方法,其特征在于,S2步骤的具体过如下:以点云中每个点为中心,以n*n窗口为邻域,将该点的速度信息赋予在该窗口内的其他像素点;而对于路灯、地面的像素点,则将速度信息补偿为0,从而将图像内全部像素点都被赋予速度信息。
5.根据权利要求1所述的车辆目标快速检测方法,其特征在于,S5步骤的具体过程为:
S51、取每一聚类中心的所有像素点的均值向量uk作为聚类中心向量;即,每一类有多个像素点,分别取每一类中所有像素点的均值向量作为该类聚类中心向量,一共有K个聚类中心向量;
S52、计算聚类中心中每一像素点ut与所有均值向量uk的欧式距离min(p),若像素点ut与第p个聚类中心的均值向量距离最近,则将ut归属到第p个聚类中心;
min(p)=||uk-ut||
S53、重复S51-S52,直至相邻轮次的聚类中心向量重合;
S54、将聚类后结果进行显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211248779.XA CN115457237A (zh) | 2022-10-12 | 2022-10-12 | 基于雷视融合的车辆目标快速检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211248779.XA CN115457237A (zh) | 2022-10-12 | 2022-10-12 | 基于雷视融合的车辆目标快速检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115457237A true CN115457237A (zh) | 2022-12-09 |
Family
ID=84308160
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211248779.XA Pending CN115457237A (zh) | 2022-10-12 | 2022-10-12 | 基于雷视融合的车辆目标快速检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115457237A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116129365A (zh) * | 2023-04-18 | 2023-05-16 | 天津美腾科技股份有限公司 | 输送设备上颗粒物料的检测方法和*** |
-
2022
- 2022-10-12 CN CN202211248779.XA patent/CN115457237A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116129365A (zh) * | 2023-04-18 | 2023-05-16 | 天津美腾科技股份有限公司 | 输送设备上颗粒物料的检测方法和*** |
CN116129365B (zh) * | 2023-04-18 | 2023-08-15 | 天津美腾科技股份有限公司 | 输送设备上颗粒物料的检测方法和*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111369541B (zh) | 一种智能汽车恶劣天气条件下车辆检测方法 | |
CN110244322B (zh) | 基于多源传感器的路面施工机器人环境感知***及方法 | |
CN108596081B (zh) | 一种基于雷达和摄像机融合的车辆行人探测方法 | |
WO2022141914A1 (zh) | 一种基于雷视融合的多目标车辆检测及重识别方法 | |
CN105373135B (zh) | 一种基于机器视觉的飞机入坞引导和机型识别的方法及*** | |
CN103258432B (zh) | 基于视频的交通事故自动识别处理方法和*** | |
CN111079556A (zh) | 一种多时相无人机视频图像变化区域检测及分类方法 | |
CN112396650A (zh) | 一种基于图像和激光雷达融合的目标测距***及方法 | |
CN111694010A (zh) | 一种基于视觉与激光雷达融合的路侧车辆识别方法 | |
CN115943439A (zh) | 一种基于雷视融合的多目标车辆检测及重识别方法 | |
KR101374139B1 (ko) | 감시시스템의 영상 융합을 통한 객체 감시 방법 | |
CN107316321B (zh) | 多特征融合目标跟踪方法及基于信息熵的权值自适应方法 | |
CN114299417A (zh) | 一种基于雷视融合的多目标跟踪方法 | |
CN107622502A (zh) | 复杂光照条件下视觉导引***的路径提取与识别方法 | |
CN112215306A (zh) | 一种基于单目视觉与毫米波雷达融合的目标检测方法 | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及*** | |
CN111709968B (zh) | 一种基于图像处理的低空目标探测跟踪方法 | |
CN115273034A (zh) | 一种基于车载多传感器融合的交通目标检测与跟踪方法 | |
CN113822221A (zh) | 一种基于对抗神经网络和多传感器融合的目标检测方法 | |
CN112907626A (zh) | 基于卫星超时相数据多源信息的运动目标提取方法 | |
CN115376109A (zh) | 障碍物检测方法、障碍物检测装置以及存储介质 | |
CN115457237A (zh) | 基于雷视融合的车辆目标快速检测方法 | |
CN117115784A (zh) | 目标数据融合的车辆检测方法及检测装置 | |
CN116109950A (zh) | 一种低空域反无人机视觉检测、识别与跟踪方法 | |
CN116978009A (zh) | 基于4d毫米波雷达的动态物体滤除方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |