CN114758319A - 一种基于图像输入的近场车辆加塞行为预测方法 - Google Patents
一种基于图像输入的近场车辆加塞行为预测方法 Download PDFInfo
- Publication number
- CN114758319A CN114758319A CN202210289381.4A CN202210289381A CN114758319A CN 114758319 A CN114758319 A CN 114758319A CN 202210289381 A CN202210289381 A CN 202210289381A CN 114758319 A CN114758319 A CN 114758319A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- target
- lane
- lane line
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于图像输入的近场车辆加塞行为预测方法,该方法包括:(1)采集真实的结构化道路场景中基于前向全景图像的图像序列信息,通过人工方法标注图像序列中车辆目标的位置以及行为信息;(2)构建适用于结构化道路中近场车辆检测与跟踪的近场车辆检测与跟踪模型;(3)构建适用于结构化道路中车道线检测的车道线检测网络及相应的损失函数;(4)基于步骤(2)建立的近场车辆检测与跟踪模型获得的车辆ID与对应目标的边界框位置数据、以及步骤(3)建立的车道线检测网络获得的车道线,获得目标与车道线的相对位置偏差,根据先验规则的制定,得到近场车辆的加塞行为预测结果。与现有技术相比,本发明预测准确度高,效率高。
Description
技术领域
本发明涉及智能驾驶技术领域,尤其是涉及一种基于图像输入的近场车辆加塞行为预测方法。
背景技术
行为预测属于基于行为识别的进一步发展,而作为计算机视觉领域的基本任务之一,近些年随着深度学习技术的火热发展,行为预测算法也存在制定先验规则的算法以及基于深度神经网络的端到端预测技术。行为识别与预测的方法从最初的基于物理运动特征的方法发展到基于视觉视频输入的SlowFast网络、基于双模态输入动作识别网络TSN以及基于膨胀三维卷积(I3D)的3D卷积神经网络,涌现出许多好的算法技术,这些算法在开放的人类行为识别数据集上的检测效果和性能都很出色,但是针对近场车辆加塞行为预测任务,在实际应用中存在以下缺点:
其一,现有的公开数据集中,缺少针对近场车辆加塞行为预测的自车辆(EgoVehicle)视角数据集,与目标检测数据集相比,在数据的采集、标注中存在很多困难,限制了该技术的进一步发展;
其二,双模态输入技术中,光流属于手工制作特征,与RGB输入分别训练,不能实现端到端的训练,***的准确率也有待提高,同时复杂的算法降低***运行的实时性;
其三,基于LiDAR的方法硬件成本和使用维护成本较高,同时目前缺少以前向全景图像视频为输入的自车辆(Ego Vehicle)视角行为预测方法。
其四,基于深度学习的端到端的方法,存在训练模型的泛化性不好、具体原理不清晰、以及对于移动端的硬件要求较高等问题,较难在实际场景中快速落地。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于图像输入的近场车辆加塞行为预测方法,其能够以一段时间内车载高清相机提供的前向全景图像视频数据作为输入,利用基于图像输入的目标检测跟踪算法得到自车辆(Ego Vehicle)视角下的前向目标车辆感兴趣区域的感知和跟踪,再对感兴趣区域基于制定先验规则的算法进行行为预测,在保证推理速度的前提下,大大降低了实际部署的软硬件成本,最终得到对临近车辆加塞行为较为准确的预测,为智能驾驶***规避风险提供了充足的时间,提升了智能驾驶***整体的安全性。
本发明的目的可以通过以下技术方案来实现:
一种基于图像输入的近场车辆加塞行为预测方法,该方法包括:
(1)采集真实的结构化道路场景中基于前向全景图像的图像序列信息,通过人工方法标注图像序列中车辆目标的位置以及行为信息;
(2)构建适用于结构化道路中近场车辆检测与跟踪的近场车辆检测与跟踪模型;
(3)构建适用于结构化道路中车道线检测的车道线检测网络及相应的损失函数;
(4)基于步骤(2)建立的近场车辆检测与跟踪模型获得的车辆ID与对应目标的边界框位置数据、以及步骤(3)建立的车道线检测网络获得的车道线,获得目标与车道线的相对位置偏差,根据先验规则的制定,得到近场车辆的加塞行为预测结果。
优选地,步骤(1)具体包括:
(11)对摄像头的内外参进行标定,其中外参包括旋转矩阵R和平移向量T,内参包括内参矩阵K,以及相机畸变系数;
(12)利用装有摄像头的数据采集车在真实道路场景中采集视频数据,并记录采集时图像内车辆目标的类别;
(13)利用标注工具对采集到的视频数据进行标注,标注方式包含车辆目标跟踪ID标注、车辆目标类别标注、目标物体边界框标注、车辆加塞开始、车辆越过车道线中点以及车辆完成加塞行为的关键帧标注、车辆加塞行为类别标注,标注内容至少需要包含近场车辆的位置、关键帧以及加塞行为类别信息。
优选地,步骤(2)具体包括:
(21)构建基于改进的Yolov5的近场车辆目标检测网络,将输入的视频切片作为图像时间序列输入至近场车辆目标检测网络,经过多层卷积与下采样操作,对输入的图像信息进行特征提取与特征编码,得到将图片划分好的多维特征张量;
(22)构建分类网络,采用非极大抑制操作,最终得到各个目标的位置信息与分类置信度信息,包括对象的分类概率和定位概率;
(23)构建基于改进的Deep-SORT的近场车辆目标跟踪网络,将目标检测得到的目标物体边界框信息以及分类信息作为输入,对视频中多个对象同时定位与追踪并记录ID和轨迹信息,尤其是在有遮挡的条件下减少对象ID的变换,输出目标车辆的跟踪ID、目标类别以及目标物体边界框信息。
优选地,步骤(3)具体包括:
(31)构建基于卷积神经网络的车道线特征提取骨干网络,基于浅层残差连接网络输出特征,通过使用较大的感受野,在保证检测效果的同时提高模型的推理速度;
(32)构建车道线语义分割网络,在网络训练时将多尺度特征上采样到同一尺度,并经过转置卷积,计算语义分割损失,增强骨干网络的视觉特征抽取能力,最终得到增强的基于残差连接的车道线检测骨干网络;
(33)将骨干网络抽取的特征,根据先验指定的图片纵向候选锚框,在全局范围内通过分类器计算候选点,最终得到自车辆所在车道的车道线位置节点;
(34)构建车道线检测网络的损失函数,包括多分类损失、分割损失以及车道结构化损失。
优选地,所述的车道线检测网络的损失函数表示为Ltotal:
Ltotal=Lcls+Lseg+ηLlane
Lcls为多分类损失、Lseg为分割损失,Llane为车道结构化损失,η为超参数。
优选地,所述的多分类损失Lcls表示为:
其中,LCE(·)表示交叉熵损失函数,Pi,j,:表示针对第i个车道线、第j个横向锚框的所有(w+1)个车道线单元预测结果,Ti,j,:表示针对第i个车道线、第j个横向锚框的所有(w+1)个车道线单元真实分布,ci,j,:表示Pi,j,:与Ti,j,:的相似度,C与h分别代表车道线类数与车道纵向锚点数,γ与α为超参数。
优选地,所述的车道结构化损失Llane表示为:
Llane=Lsim+λLshp
其中,Lsim为相似度损失,Lshp为形状损失,λ为表示损失权重的超参数,Pi,j,k表示第i类车道线在位置为(j,k)处的预测概率,w为每行的划分单元数量。
优选地,步骤(4)训练网络与制定先验规则步骤如下:
(41)将采集到的图像序列进行数据预处理,包括:将图像进行随机的水平翻转、裁剪并统一缩放到固定的尺寸,标注数据也进行相应的翻转、裁剪和缩放,在此基础上对得到的图像按通道进行归一化处理;
(42)将车道线检测得到的自车辆所在车道的车道线位置节点,采用高鲁棒性回归模型得到自车辆所在车道的车道线拟合模型;
(43)根据自车辆所在车道的车道线模型建立加塞行为感兴趣区域,并计算目标车辆边界框信息与加塞行为感兴趣区域的位置偏差,并根据目标车辆跟踪ID建立每个目标的加塞行为期望次数与车辆状态符号字典;
(44)经过设定加塞行为期望次数阈值结合车辆状态符号判断目标车辆具体的行为,对建立的加塞行为感兴趣区域进行参数更新,迭代后得到理想的网络参数。
优选地,自车辆所在车道的车道线拟合模型为线性模型,且左右车道分别根据车道线预测位置节点拟合得到。
优选地,建立的每个目标的加塞行为期望次数与车辆状态符号字典中键值为目标跟踪ID,值为期望次数与车辆状态符号。
与现有技术相比,本发明具有如下优点:
(1)本发明针对目前的神经网络对车辆加塞行为预测不佳的问题提出全新的网络结构,在移动端计算能力有限的前提下大大提升对近场车辆实时行为预测的性能,能方便地部署在现有的智能驾驶***中,使智能驾驶汽车能对近场车辆加塞行为及时地做出反应,提高行驶过程中的安全性;
(2)本发明首先抽取变道行为的视频片段与目标的边界框(Bounding Boxe s)信息,筛选出符合前文定义的临近车辆加塞行为的数据集合,最终建立起包含标注与视频数据的“临近物体典型加塞行为数据库”数据集;
(3)本发明中凭借大的视场、高分辨率获得前向视角图像,包含目标的外观特征以及目标之间的依赖关系,开发了临近车辆检测与跟踪模型和加塞行为预测算法。其中的目标检测模块基于目前最新的One-Stage目标检测算法Yolov5深度改进,在保持一定的检测准确度的基础上有着较高的检测速度;
(4)本发明中在输出目标的边界框和类别信息之后,采用Deep-SORT多目标跟踪算法,得到与每个目标ID对应的感兴趣帧序列,考虑到传统的双模态输入网络对***的计算资源要求较高,为保证算法的实时性,本文不采用光流作为时域特征的抽取,而是采用目标序列作为时空特征输入;
(5)本发明中在加塞行为预测模块,从加塞行为的特征信息出发,基于制定先验规则的算法与上一步得到的目标序列输出,提出一种可解释的车辆行驶场景下实时高鲁棒性的临近物体加塞行为预测方法。
附图说明
图1为本发明一种基于图像输入的近场车辆加塞行为预测方法的流程示意图;
图2为本发明近场车辆目标检测网络的结构示意图;
图3为根据先验规则进行加塞行为预测的算法流程第一部分;
图4为根据先验规则进行加塞行为预测的算法流程第二部分;
图5为根据先验规则进行加塞行为预测的算法流程第三部分。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。注意,以下的实施方式的说明只是实质上的例示,本发明并不意在对其适用物或其用途进行限定,且本发明并不限定于以下的实施方式。
实施例
本发明行为预测方法主要步骤包括采集真实的结构化道路场景中基于前向全景图像的图像序列信息,通过人工方法标注图像序列中车辆目标的位置以及行为信息;构建适用于结构化道路中近场车辆检测与跟踪的深度卷积神经网络;构建适用于结构化道路中车道线检测的深度神经网络及相应的损失函数;从所建立的近场车辆检测与跟踪模型获得的车辆ID与对应目标的边界框位置数据、以及所建立的车道线检测网络获得的车道线模型,获得目标与车道线的相对位置偏差,根据先验规则的制定,得到近场车辆的加塞行为预测结果。本发明针对目前的神经网络对车辆加塞行为预测不佳的问题提出全新的加塞行为预测算法,在移动端计算能力有限的前提下大大提升对近场车辆实时行为预测的性能,能方便地部署在现有的智能驾驶***中,使智能驾驶汽车能对近场车辆加塞行为及时地做出反应,提高行驶过程中的安全性。
如图1所示,本实施例提供一种基于图像输入的近场车辆加塞行为预测方法,该方法包括:
(1)采集真实的结构化道路场景中基于前向全景图像的图像序列信息,通过人工方法标注图像序列中车辆目标的位置以及行为信息;
(2)构建适用于结构化道路中近场车辆检测与跟踪的近场车辆检测与跟踪模型;
(3)构建适用于结构化道路中车道线检测的车道线检测网络及相应的损失函数;
(4)基于步骤(2)建立的近场车辆检测与跟踪模型获得的车辆ID与对应目标的边界框位置数据、以及步骤(3)建立的车道线检测网络获得的车道线,获得目标与车道线的相对位置偏差,根据先验规则的制定,得到近场车辆的加塞行为预测结果。
具体地,步骤(1)具体包括:
(11)对摄像头的内外参进行标定,其中外参包括旋转矩阵R和平移向量T,内参包括内参矩阵K,以及相机畸变系数;
(12)利用装有摄像头的数据采集车在真实道路场景中采集视频数据,并记录采集时图像内车辆目标的类别;
(13)利用标注工具对采集到的视频数据进行标注,标注方式包含车辆目标跟踪ID标注、车辆目标类别标注、目标物体边界框标注、车辆加塞开始、车辆越过车道线中点以及车辆完成加塞行为的关键帧标注、车辆加塞行为类别标注,标注内容至少需要包含近场车辆的位置、关键帧以及加塞行为类别信息,此过程中所要求记录的车辆目标ID是唯一的。
步骤(2)具体包括:
(21)构建基于改进的Yolov5的近场车辆目标检测网络,将输入的视频切片作为图像时间序列输入至近场车辆目标检测网络,经过多层卷积与下采样操作,对输入的图像信息进行特征提取与特征编码,得到将图片划分好的多维特征张量,此部分的近场车辆目标检测网络的网络结构如图2所示,由Backbone、FPN、PAN等结构组成;
(22)构建分类网络,采用非极大抑制操作,最终得到各个目标的位置信息与分类置信度信息,包括对象的分类概率和定位概率;
(23)构建基于改进的Deep-SORT的近场车辆目标跟踪网络,将目标检测得到的目标物体边界框信息以及分类信息作为输入,对视频中多个对象同时定位与追踪并记录ID和轨迹信息,尤其是在有遮挡的条件下减少对象ID的变换,输出目标车辆的跟踪ID、目标类别以及目标物体边界框信息,Deep-SORT网络中的ReID模块经过了经过重新分类处理的新的车辆重识别数据集Compcars训练。
步骤(3)具体包括:
(31)构建基于卷积神经网络的车道线特征提取骨干网络,基于浅层残差连接网络输出特征,通过使用较大的感受野,在保证检测效果的同时提高模型的推理速度,浅层残差连接卷积神经网络输出有四种尺度,分别为112×112×3、56×56×64、28×28×128、14×14×256:
(32)构建车道线语义分割网络,在网络训练时将多尺度特征上采样到同一尺度,并经过转置卷积,计算语义分割损失,增强骨干网络的视觉特征抽取能力,最终得到增强的基于残差连接的车道线检测骨干网络,车道线语义分割网络,在网络训练时将多尺度特征上采样到同一尺度,在实际推断过程中不使用;
(33)将骨干网络抽取的特征,根据先验指定的图片纵向候选锚框,在全局范围内通过分类器计算候选点,最终得到自车辆所在车道的车道线位置节点,本实施例中车道线类数C的值为4,纵向候选锚框个数h的值为18;
(34)构建车道线检测网络的损失函数,包括多分类损失、分割损失以及车道结构化损失,车道线检测网络的损失函数表示为Ltotal:
Ltotal=Lcls+Lseg+ηLlane
Lcls为多分类损失、Lseg为分割损失,Llane为车道结构化损失,η为超参数。
其中,多分类损失Lcls和分割损失Lseg均采用了交叉熵损失函数,分割损失Lseg采用了分类数为2的多分类损失。
具体地,多分类损失Lcls表示为:
其中,LCE(·)表示交叉熵损失函数,Pi,j,:表示针对第i个车道线、第j个横向锚框的所有(w+1)个车道线单元预测结果,Ti,j,:表示针对第i个车道线、第j个横向锚框的所有(w+1)个车道线单元真实分布,ci,j,:表示Pi,j,:与Ti,j,:的相似度,C与h分别代表车道线类数与车道纵向锚点数,γ与α为超参数。
车道结构化损失Llane表示为:
Llane=Lsim+λLshp
其中,Lsim为相似度损失,Lshp为形状损失,λ为表示损失权重的超参数,Pi,j,k表示第i类车道线在位置为(j,k)处的预测概率,w为每行中的车道线单元数量。
在被实施例中,η的值为1,γ的值为2,α的值为0.25,λ的值为1.25。
步骤(4)训练网络与制定先验规则步骤如下:
(41)将采集到的图像序列进行数据预处理,包括:将图像进行随机的水平翻转、裁剪并统一缩放到固定的尺寸,标注数据也进行相应的翻转、裁剪和缩放,在此基础上对得到的图像按通道进行归一化处理;
(42)将车道线检测得到的自车辆所在车道的车道线位置节点,采用高鲁棒性回归模型得到自车辆所在车道的车道线拟合模型,自车辆所在车道的车道线拟合模型为线性模型,且左右车道分别根据车道线预测位置节点拟合得到;
(43)根据自车辆所在车道的车道线模型建立加塞行为感兴趣区域,并计算目标车辆边界框信息与加塞行为感兴趣区域的位置偏差,并根据目标车辆跟踪ID建立每个目标的加塞行为期望次数与车辆状态符号字典,建立的每个目标的加塞行为期望次数与车辆状态符号字典中键值为目标跟踪ID,值为期望次数与车辆状态符号;
(44)经过设定加塞行为期望次数阈值结合车辆状态符号判断目标车辆具体的行为,对建立的加塞行为感兴趣区域进行参数更新,迭代后得到理想的网络参数。
根据先验规则的制定,得到近场车辆的加塞行为预测结果的算法具体流程如图3、图4、图5所示。首先在每一个临近车辆在完成检测与跟踪之后,构建以目标跟踪ID为键、初始状态[0,′keep′]为值的目标状态描述符,其中0是计数值,′keep′是历史状态描述子。根据临近车辆检测边界框(Bounding Box)所在区域的不同,判断临近车辆初始车道为左侧车道或者右侧车道;同时,根据车道线检测模块获得的车道线模型适当增加车道线两侧的宽度,设置车辆加塞预测感兴趣区域(Cut-In RoI)。根据临近车辆目标与车辆加塞预测感兴趣区域(Cut-InRoI)相对位置关系,可分为两种位置状态:①临近车辆目标处于横跨该区域边缘时;②临近车辆目标处于该区域内时。后者较为简单,在此时设置目标状态描述符为[2,′follow′]。前者的状态多出现于临近车辆切入与切出两种时刻,在这种条件下可以根据历史状态描述子{′keep′,′cut_in′,′follow′}加以区分。
如果目标状态描述符为[count<Threshold,′keep′]时,认为前一时刻目标临近车辆处于车道保持状态并有从车道保持向加塞行为发展的潜在趋势,同时为了降低临近车辆加塞行为预警逻辑的误检率,可以适当延迟加塞预警预测时间,只考虑被跟踪足够长时间加塞的目标。具体而言,只有临近车辆检测边界框(Bounding Box)距离加塞预测感兴趣区域(Cut-In RoI)较远的点位于该区域外,同时在加塞预测感兴趣区域(Cut-In RoI)内的边界框关键点(距离另一端点的距离占宽度一定比例α)被检测到的次数超过阈值时,目标状态描述符为[count=count+1,′keep′]保持更新,直到count=Threshold,目标状态描述符更新为[count=Threshold,′cut_in′]。在本项目中设置α=0.4,检测到的加塞次数阈值Threshold=3。此时,当前帧临近车辆的加塞行为从action=′keep′变为action=′cut_in′,临近车辆检测边界框(Bounding Box)与加塞预测感兴趣区域(Cut-In RoI)变为红色预警。
如果当前帧目标状态描述符为[count=Threshold,′cut_in′],可以认为该目标正在延续上一帧的加塞行为,故保持目标状态描述符为[count=Threshold,′cut_in′]不变,当前帧临近车辆的加塞行为从action=′cut_in′,临近车辆检测边界框(BoundingBox)与加塞预测感兴趣区域(Cut-In RoI)继续保持红色,提示临近车辆加塞行为正在发生。
如果当前帧目标状态描述符为[count=Threshold,′cut_in′],但是此时临近车辆检测边界框(Bounding Box)完全进入加塞预测感兴趣区域(Cut-In RoI)内,可以认为该目标已经完成加塞行为,故目标状态描述符更新为[count=Threshold,′follow′],当前帧临近车辆的加塞行为从action′keep′,临近车辆检测边界框(Bounding Box)与加塞预测感兴趣区域(Cut-In RoI)变为绿色,提示临近车辆加塞行为已经完成,当前帧处于安全状态。
如果当前帧目标状态描述符为pcount=Threshold,′folow′],同时临近车辆检测边界框(Bounding Box)处于横跨加塞预测感兴趣区域(Cut-In RoI)边缘时,可以认为该目标已经完成加塞行为并在离开当前车道,故目标状态描述符更新为[count=Threshold,′keep′],当前帧临近车辆的加塞行为从action=′keep′,临近车辆检测边界框(BoundingBox)与加塞预测感兴趣区域(Cut-In RoI)继续保持绿色,当前帧处于安全状态。
在任何情况下,如果临近车辆检测边界框(Bounding Box)完全离开加塞预测感兴趣区域(Cut-In RoI)范围,则立刻更新目标状态描述符为[count=0,′keep′],并在下一帧继续重复以上步骤。使用以上算法流程,针对加塞情况有额外的3帧延迟,由于输入流的FPS=30,这个延迟相当于0.1s;真实条件下人类司机在遇到未预见加塞切入情况时,通常至少需要0.7s才能刹车。因此,即使有一个从检测到发送加塞预警的时间延迟,预计也不会造成严重的问题,符合实际的技术要求。
经过测试可知,本发明提出的网络分别成功的预测出的临近车辆加塞的行为并预警,同时能够实现加塞完成之后的预警解除,在上述类似的两种场景下均能成功辨别。
总之,本发明提出了一种基于图像输入的的近场车辆加塞行为预测方法,在移动端计算能力有限的前提下大大提升对近场车辆实时行为预测的性能,能方便地部署在现有的智能驾驶***中,使智能驾驶汽车能对近场车辆加塞行为及时地做出反应,提高行驶过程中的安全性。
上述实施方式仅为例举,不表示对本发明范围的限定。这些实施方式还能以其它各种方式来实施,且能在不脱离本发明技术思想的范围内作各种省略、置换、变更。
Claims (10)
1.一种基于图像输入的近场车辆加塞行为预测方法,其特征在于,该方法包括:
(1)采集真实的结构化道路场景中基于前向全景图像的图像序列信息,通过人工方法标注图像序列中车辆目标的位置以及行为信息;
(2)构建适用于结构化道路中近场车辆检测与跟踪的近场车辆检测与跟踪模型;
(3)构建适用于结构化道路中车道线检测的车道线检测网络及相应的损失函数;
(4)基于步骤(2)建立的近场车辆检测与跟踪模型获得的车辆ID与对应目标的边界框位置数据、以及步骤(3)建立的车道线检测网络获得的车道线,获得目标与车道线的相对位置偏差,根据先验规则的制定,得到近场车辆的加塞行为预测结果。
2.根据权利要求1所述的一种基于图像输入的近场车辆加塞行为预测方法,其特征在于,步骤(1)具体包括:
(11)对摄像头的内外参进行标定,其中外参包括旋转矩阵R和平移向量T,内参包括内参矩阵K,以及相机畸变系数;
(12)利用装有摄像头的数据采集车在真实道路场景中采集视频数据,并记录采集时图像内车辆目标的类别;
(13)利用标注工具对采集到的视频数据进行标注,标注方式包含车辆目标跟踪ID标注、车辆目标类别标注、目标物体边界框标注、车辆加塞开始、车辆越过车道线中点以及车辆完成加塞行为的关键帧标注、车辆加塞行为类别标注,标注内容至少需要包含近场车辆的位置、关键帧以及加塞行为类别信息。
3.根据权利要求1所述的一种基于图像输入的近场车辆加塞行为预测方法,其特征在于,步骤(2)具体包括:
(21)构建基于改进的Yolov5的近场车辆目标检测网络,将输入的视频切片作为图像时间序列输入至近场车辆目标检测网络,经过多层卷积与下采样操作,对输入的图像信息进行特征提取与特征编码,得到将图片划分好的多维特征张量;
(22)构建分类网络,采用非极大抑制操作,最终得到各个目标的位置信息与分类置信度信息,包括对象的分类概率和定位概率;
(23)构建基于改进的Deep-SORT的近场车辆目标跟踪网络,将目标检测得到的目标物体边界框信息以及分类信息作为输入,对视频中多个对象同时定位与追踪并记录ID和轨迹信息,尤其是在有遮挡的条件下减少对象ID的变换,输出目标车辆的跟踪ID、目标类别以及目标物体边界框信息。
4.根据权利要求1所述的一种基于图像输入的近场车辆加塞行为预测方法,其特征在于,步骤(3)具体包括:
(31)构建基于卷积神经网络的车道线特征提取骨干网络,基于浅层残差连接网络输出特征,通过使用较大的感受野,在保证检测效果的同时提高模型的推理速度;
(32)构建车道线语义分割网络,在网络训练时将多尺度特征上采样到同一尺度,并经过转置卷积,计算语义分割损失,增强骨干网络的视觉特征抽取能力,最终得到增强的基于残差连接的车道线检测骨干网络;
(33)将骨干网络抽取的特征,根据先验指定的图片纵向候选锚框,在全局范围内通过分类器计算候选点,最终得到自车辆所在车道的车道线位置节点;
(34)构建车道线检测网络的损失函数,包括多分类损失、分割损失以及车道结构化损失。
5.根据权利要求4所述的一种基于图像输入的近场车辆加塞行为预测方法,其特征在于,所述的车道线检测网络的损失函数表示为Ltotal:
Ltotal=Lcls+Lseg+ηLlane
Lcls为多分类损失、Lseg为分割损失,Llane为车道结构化损失,η为超参数。
8.根据权利要求1所述的一种基于图像输入的近场车辆加塞行为预测方法,其特征在于,步骤(4)训练网络与制定先验规则步骤如下:
(41)将采集到的图像序列进行数据预处理,包括:将图像进行随机的水平翻转、裁剪并统一缩放到固定的尺寸,标注数据也进行相应的翻转、裁剪和缩放,在此基础上对得到的图像按通道进行归一化处理;
(42)将车道线检测得到的自车辆所在车道的车道线位置节点,采用高鲁棒性回归模型得到自车辆所在车道的车道线拟合模型;
(43)根据自车辆所在车道的车道线模型建立加塞行为感兴趣区域,并计算目标车辆边界框信息与加塞行为感兴趣区域的位置偏差,并根据目标车辆跟踪ID建立每个目标的加塞行为期望次数与车辆状态符号字典;
(44)经过设定加塞行为期望次数阈值结合车辆状态符号判断目标车辆具体的行为,对建立的加塞行为感兴趣区域进行参数更新,迭代后得到理想的网络参数。
9.根据权利要求8所述的一种基于图像输入的近场车辆加塞行为预测方法,其特征在于,自车辆所在车道的车道线拟合模型为线性模型,且左右车道分别根据车道线预测位置节点拟合得到。
10.根据权利要求8所述的一种基于图像输入的近场车辆加塞行为预测方法,其特征在于,建立的每个目标的加塞行为期望次数与车辆状态符号字典中键值为目标跟踪ID,值为期望次数与车辆状态符号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210289381.4A CN114758319A (zh) | 2022-03-22 | 2022-03-22 | 一种基于图像输入的近场车辆加塞行为预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210289381.4A CN114758319A (zh) | 2022-03-22 | 2022-03-22 | 一种基于图像输入的近场车辆加塞行为预测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114758319A true CN114758319A (zh) | 2022-07-15 |
Family
ID=82327924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210289381.4A Pending CN114758319A (zh) | 2022-03-22 | 2022-03-22 | 一种基于图像输入的近场车辆加塞行为预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114758319A (zh) |
-
2022
- 2022-03-22 CN CN202210289381.4A patent/CN114758319A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368687B (zh) | 一种基于目标检测和语义分割的人行道车辆违停检测方法 | |
Azimjonov et al. | A real-time vehicle detection and a novel vehicle tracking systems for estimating and monitoring traffic flow on highways | |
Chabot et al. | Deep manta: A coarse-to-fine many-task network for joint 2d and 3d vehicle analysis from monocular image | |
CN108921875B (zh) | 一种基于航拍数据的实时车流检测与追踪方法 | |
CN108171112B (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN111104903B (zh) | 一种深度感知交通场景多目标检测方法和*** | |
Bisio et al. | A systematic review of drone based road traffic monitoring system | |
CN112990065B (zh) | 一种基于优化的YOLOv5模型的车辆分类检测方法 | |
Chao et al. | Multi-lane detection based on deep convolutional neural network | |
CN115841649A (zh) | 一种用于城市复杂场景的多尺度人数统计方法 | |
Dewangan et al. | Towards the design of vision-based intelligent vehicle system: methodologies and challenges | |
Ghahremannezhad et al. | A new adaptive bidirectional region-of-interest detection method for intelligent traffic video analysis | |
Han et al. | A method based on multi-convolution layers joint and generative adversarial networks for vehicle detection | |
CN115527133A (zh) | 一种基于目标密度信息的高分图像背景优化方法 | |
CN114973199A (zh) | 一种基于卷积神经网络的轨道交通列车障碍物检测方法 | |
Harianto et al. | Data augmentation and faster rcnn improve vehicle detection and recognition | |
Arthi et al. | Object detection of autonomous vehicles under adverse weather conditions | |
Zhang et al. | Small target detection based on squared cross entropy and dense feature pyramid networks | |
Bourja et al. | Real time vehicle detection, tracking, and inter-vehicle distance estimation based on stereovision and deep learning using YOLOv3 | |
Hänisch et al. | Free-space detection with fish-eye cameras | |
Juyal et al. | Object Classification Using A rtificial I ntelligence Technique sin Autonomous Vehicles | |
Zhang et al. | A front vehicle detection algorithm for intelligent vehicle based on improved gabor filter and SVM | |
Sri Jamiya et al. | A survey on vehicle detection and tracking algorithms in real time video surveillance | |
Imad et al. | Navigation system for autonomous vehicle: A survey | |
CN114255450A (zh) | 一种基于前向全景图像的近场车辆加塞行为预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |