CN115131968B - 一种基于车道线点集与注意力机制的匹配融合方法 - Google Patents
一种基于车道线点集与注意力机制的匹配融合方法 Download PDFInfo
- Publication number
- CN115131968B CN115131968B CN202210752033.6A CN202210752033A CN115131968B CN 115131968 B CN115131968 B CN 115131968B CN 202210752033 A CN202210752033 A CN 202210752033A CN 115131968 B CN115131968 B CN 115131968B
- Authority
- CN
- China
- Prior art keywords
- lane line
- lane
- point set
- attention
- fitted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007246 mechanism Effects 0.000 title claims abstract description 19
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 11
- 230000004927 fusion Effects 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 17
- 238000000034 method Methods 0.000 claims description 28
- 230000003044 adaptive effect Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 14
- 230000002159 abnormal effect Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000005259 measurement Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 7
- 239000000919 ceramic Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 101100021402 Caenorhabditis elegans lis-1 gene Proteins 0.000 claims 1
- 238000001514 detection method Methods 0.000 description 9
- 238000005070 sampling Methods 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000011664 nicotinic acid Substances 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0129—Traffic data processing for creating historical data or processing based on historical data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Atmospheric Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种基于车道线点集与注意力机制的匹配融合方法,包括S1、接收车辆位置和状态信息,若自动驾驶***启动则执行步骤S2;S2、接收传感器检测的道路数据和车道线点集,并对车道线点集进行处理;S3、遍历各传感器检测到的车道线点集,判断车道线点集是否在注意力聚焦区域内;S4、将车道线点集在注意力聚焦区域内的数据存入聚焦域待拟合点集存储区中,否则存入非聚焦域待拟合点集存储区中,并分别进行拟合,且对拟合后的车道线进行编号以及置信度计算,对各点置信度加权平均值作为拟合后车道线的置信度。本发明能有效降低匹配搜索空间,降低错误匹配和融合的风险,提高自动驾驶车辆路径规划和方向盘控制稳定性和安全性。
Description
技术领域
本发明涉及车辆控制技术领域,具体涉及一种基于车道线点集与注意力机制的匹配融合方法。
背景技术
自动驾驶***安全性依赖于各传感器的正确输出。示例性的,单传感器如前视摄像头或前视成像激光雷达会因为视场角范围,恶劣天气,遮挡等情况,难以持续稳定的检测车道线,前视摄像头还会受到光照条件,明暗交替等因素影响;而传感器***(如多摄像头周视***)可利用多个传感器(如摄像头)在不同方向上的检测结果构成的冗余信息,进行匹配和融合,从而提高持续稳定检测车道线的能力,以提高自动驾驶路径规划的安全性。而多传感器关键难点在于,每个传感器都只能获得局部信息,多传感器如何进行匹配和融合,降低多传感器的匹配搜索空间维度,据仿生学和心理学研究结果表明,人脑在处理信息时会利用注意力机制自动忽略低可能、低价值信息,选择遗忘和关联上下文来降低匹配搜索空间维度来融合信息,因此发明一种基于全局注意力机制的车道线匹配融合方法对于高等级自动驾驶是十分必要的。
如公开号为CN112154449A的发明专利公开了一种车道线融合方法、装置、车辆和存储介质,该车道线融合方法包括:获取可移动平台周围的环境图像,并根据环境图像得到可移动平台的初始车道线集合(S110);对初始车道线集合中的初始车道线数据进行拟合优化,得到目标车道线集合;其中,拟合优化包括:根据初始车道线数据和历史车道线集合中的历史车道线数据进行拟合优化得到目标车道线集合(S120);目标车道线集合包括相互不平行的车道线。但是该专利存在以下问题:
1、直接利用初始车道线和历史车道线进行融合,会在因为视野、光照突变的工况,当车道线信息突变时因历史车道线数据而产生识别延迟,而历史车道线数据的错误和噪声(误匹配),也会影响当前融合后的车道线的准确性。
2、当传感器的识别准确率和测量精度逐步提升后,历史车道线数据的作用降低,在传感器识别准确率接近100%和测量精度毫米级的情况下,历史车道线数据直接用于或通过预测用于车道线融合反而会引入延迟、不确定性和噪声。
发明内容
针对上述现有技术的不足,本发明所要解决的技术问题是:如何提供一种基于车道线点集与注意力机制的匹配融合方法,解决如何在多种场景下对车道线有效、准确的匹配融合,有效降低匹配搜索空间,降低错误匹配和融合的风险,提高自动驾驶车辆路径规划的稳定性和安全性。
为了解决上述技术问题,本发明采用了如下的技术方案:
一种基于车道线点集与注意力机制的匹配融合方法,包括以下步骤:
S1、接收车辆位置和状态信息,若自动驾驶***处于可用状态则执行步骤S2;
S2、接收传感器检测的道路数据和车道线点集,并对车道线点集进行处理;
S3、遍历各传感器检测到的车道线点集,判断车道线点集是否在注意力聚焦区域内;
S4、将车道线点集在注意力聚焦区域内的数据存入聚焦域待拟合点集存储区中,不在注意力聚焦区域内的数据存入非聚焦域待拟合点集存储区中,并分别进行拟合,且对拟合后的车道线进行编号以及置信度计算,对各点置信度加权平均值作为拟合后车道线的置信度;
S5、合并车道线,接收S4中所有拟合后的车道线并进行编号;
S6、根据预测规划控制请求,向预测规划控制***输出全局融合车道线;
S7、记忆N帧融合车道线,并对记忆的N帧融合车道线统一预测到当前时刻,再进行帧间匹配;
S8、注意力分级,以聚焦域待拟合点集存储区中融合车道线作为主注意力车道线,以非聚焦域待拟合点集存储区中融合车道线作为次注意力车道线;
S9、计算注意力聚焦区域中心线,根据传感器测距误差确定注意力聚焦区域。
进一步地,在步骤S2中,所述道路数据包括可行驶区域、护栏和路沿数据;根据可行驶区域、护栏和路沿数据,在车道线点集中对护栏和路沿数据外侧异常点进行剔除处理。
进一步地,在步骤S4中,对存入聚焦域待拟合点集存储区中的车道线点集数据进行处理,遍历各聚焦域待拟合点集存储区,对各聚焦域在待拟合存储区中的车道线点集,采用RANSAC算法拟合多项式函数。
进一步地,采用RANSAC算法对存入聚焦域待拟合点集存储区中的车道线点集数据进行处理,包括剔除或稀疏化车头时距远的点、剔除置信度小于自适应阈值的点、剔除深灰轮胎印和旧车道线,以减少RANSAC算法的迭代次数。
进一步地,置信度的自适应阈值按长度分段,每段的车道线点的置信度的自适应阈值ATconf为:
式中,Confpoint车道线点的置信度;λ∈(0,1]为拒绝域因子;m为按长度对车道线进行分段后,传感器在该段获得的车道线点的个数;ConfLLimit为置信度的自适应阈值的下限。
进一步地,在步骤S4中,对存入非聚焦域待拟合点集存储区中的车道线点集数据进行处理的步骤包括:
S41、对存入非聚焦域待匹配区中的车道线点集数据进行处理,将前半周中不在注意力聚焦区域内的车道线点集按长度排序,并将长度大于自适应阈值的车道线点集筛选出作为前半周长车道线linelongFP(i)(i=1,...,m),反之作为前半周短车道线lineshortFP(i)(1,...,n);
按从长到短的次序,依次将非聚焦域待拟合点集存储区中的前半周长车道线选为基准,遍历其余车道线和前半周短车道线进行匹配,当前半周的车道线都遍历匹配完则进入S42;
S42、对存入非聚焦域待匹配区中的车道线点集数据进行处理,将后半周中不在注意力聚焦区域内的车道线点集按长度排序,并将长度大于自适应阈值的车道线点集筛选出作为后半周长车道线linelongRP(i)(i=1,...,m),反之作为后半周短车道线lineshortRP(i)(1,...,n);
按从长到短的次序,依次将非聚焦域待拟合点集存储区中的后半周长车道线选为基准,遍历其余车道线和后半周短车道线进行匹配,当后半周的车道线都遍历匹配完则进入S43;
S43、以前半周融合车道线为基准,遍历车辆后半周融合车道线并进行匹配,当前半周车道线点集能与后半周车道线点集匹配,则将所有匹配上的车道线点集合并,并剔除不匹配异常点拟合多项式函数。
进一步地,对存入非聚焦域待拟合点集存储区中的车道线点集数据进行处理中的车道线长度自适应阈值的公式为:
式中,LTHline为车道线计算长度;δ∈(0,1]拒绝域因子;n为非聚焦域待拟合点集存储区中车道线总数;LTHLLimit为置信度的自适应阈值的下限。
进一步地,在步骤S7中,通过对车道线拟合n次多项式曲线进行帧间匹配,其公式为:
式中,Aip1表示后帧中n次多项式的系数,Aip2表示前帧中n次多项式的系数,TrIFM表示帧间匹配的容差阈值;ΔAinon表示多项式曲线的第i个系数的帧间匹配误差的归一化因子;
在不等式成立时,记忆车道线曲线的帧间匹配成功,存入记忆车道线序列。
进一步地,根据权利要求1所述的一种基于车道线点集与注意力机制的匹配融合方法,其特征在于,在步骤S9中,注意力聚焦区域中心线,根据预测行驶方向、主注意力车道系数和遗忘因子进行计算;其中,
预测行驶方向,与预测本车行驶方向差别过大的主注意力车道线不计入注意力聚焦区域中心线计算,当下面判别函数不等式成立时,车道线作为注意力聚焦区域中心线计算:
|A0+A1vhtpred+(2A2-Yr)(vhtpred)2|<Trpred
式中,vh为本车的车速,Yr为本车的偏航率,tpred为设定预测时间,A0、A1、A2分别为拟合后的车道线方程系数,Trpred为预测的tpred时间后车道线距离本车的横向位置的判别阈值;
计算当前帧的遗忘因子并进行存储,最多存储nm帧,其公式为:
式中,βb为遗忘因子基准值;Vrpi为车道线在行车方向上的远端可视距离;vhpi为本车的车速,confpi为当前帧主注意力车道线置信度,dtpi为当前帧与上一帧之间的时间差,μ为安全阈值,i为帧数(i=1,...,nm);
计算注意力聚集区域中心线,用三阶以及三阶以上的多项式表示,其系数的计算公式为:
式中,nm为记忆帧数上限,当m<nm-1,(βp1+βp1βp2+...(βp1βp2...βpm))>Trmemo∈(0,1)时,其中Trmemo为记忆容限阈值;/>为nm个历史帧的匹配记忆序列中的第i帧的主注意力车道线的多项式系数向量;
根据传感器测距误差确定注意力聚焦区域横向宽度的公式为:
Δd(l)=γσavg(l)
式中,Δd(l)为聚焦区域横向宽度的一半,γ∈(0,1]为根据传感器性能特性设定的安全系数,σavg(l)为l距离上的传感器测距误差平均值;
采用n次多项式表示注意力聚集区域中心线,则在下面两条曲线之间的区域为注意力聚焦区域,
A0(x)=A0pf+A1pfx+A2pfx2+A3pfx3+...+Anpfxn+Δd(x)
A0(x)=A0pf+A1pfx+A2pfx2+A3pfx3+...+Anpfxn-Δd(x)。
与现有技术相比,本发明的有益效果在于:
1、本明通过基于遗忘机制的注意力聚焦区域,将车道线点集在注意力聚焦区域的内数据存入聚焦域待拟合点集存储区中,利用RANSAC算法或其改进算法去除异常点进行拟合,以有效去除置信度低的点和误检测的点以及外点。将车道线点集不在注意力聚焦区域的内数据存入非聚焦域待拟合点集存储区中,先进行前半周、后半周局域的融合(前半周包含前向,侧前向传感器;后半周包含后向,侧后向的传感器),获得半局信息,进行全局的融合。注意力聚焦区域内的车道线点集融合可以和非聚焦域车道线点集融合可以并行异步计算,以降低注意力聚焦区域内的车道线点集匹配融合的延迟。车道线历史数据不直接参与车道线的融合,因为融合车道线历史数据必然会引入延迟和噪声,不能很好的应对车道线在一定程度上的突变。而是用历史数据来生成基于遗忘机制的注意力聚焦区域,以降低匹配搜索空间维度。从而能够在多种场景下,有效降低匹配搜索空间,对多传感器检测到的车道线点集进行快速匹配和融合,降低错误匹配和融合的风险,降低融合延迟,提高自动驾驶车辆路径规划、控制的稳定性和安全性。
附图说明
为了使发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步的详细描述,其中:
图1为本发明基于车道线点集与注意力机制的匹配融合方法的流程图;
图2为本发明中传感器分布的示意图;
图3为本发明中使用场景的示意图;
图4为本发明中注意力聚焦区域的示意图。
具体实施方式
下面结合附图对本发明作进一步的详细说明。
由于多个传感器(如摄像头)在不同方向上的对车道线进行检测,得到用点集合及每个点置信度表示的检测结果,这些检测结果数据会构成的冗余信息,如果采用正确的方法对其进行匹配和融合,可以提高持续稳定检测车道线的能力,以提高自动驾驶路径规划的安全性。
但是车道线为细长的结构,可能穿越车身并被各种目标遮挡,不同摄像头检测到的局部车道线(点集)及其特征参数,在实际复杂多变的场景中,难以正确匹配和融合起来,形成的全局的车道线信息输出。当传感器数量增加时,不同车道线的点集之间的匹配的遍历搜索空间维度也会大幅度增加,影响运算时间,不同摄像头检测车道线的错误匹配和融合会引起严重的曲率和航向角检测误差,而引起错误的路径规划结果,而产生严重的安全事故。
本方法具体实施方式基于车辆坐标系进行推导和阐述,但改变坐标系不影响本方法的实际物理含义和效果。
如图1、图2和图3所示,本实施例中提供一种基于车道线点集与注意力机制的匹配融合方法,包括以下步骤:
S1、接收车辆位置和状态信息,若自动驾驶***处于可用状态则执行步骤S2;
S2、接收传感器检测的道路数据和车道线点集,并对车道线点集进行处理;当有k个传感器,第k个传感器检测到根线的情况下,车道线点集为:
上述车道线点集,可以通过传感器的检测结果直接获得,也可以通过对传感器语义/实例分割结果稀疏采样和距离计算后,间接获得。传感器输出的车道线点集已经包含各点在车辆坐标系中的位置信息,或者可以间接计算得到车道线点在车辆坐标系中的位置信息。
S3、遍历各传感器检测到的车道线点集,判断车道线点集是否在注意力聚焦区域内;
S4、将车道线点集在注意力聚焦区域内的数据存入聚焦域待拟合点集存储区中,不在注意力聚焦区域内的数据存入非聚焦域待拟合点集存储区中,并分别进行拟合,且对拟合后的车道线进行编号以及置信度计算,对各点置信度加权平均值作为拟合后车道线的置信度;
S5、合并车道线,接收S4中所有拟合后的车道线并进行编号;
S6、根据预测规划控制请求,向预测规划控制***输出全局融合车道线,以及车辆前、后半周车道线;
S7、记忆N帧融合车道线,并对记忆的N帧融合车道线统一预测到当前时刻,再进行帧间匹配。
S8、注意力分级,以聚焦域待拟合点集存储区中融合车道线作为主注意力车道线,以非聚焦域待拟合点集存储区中融合车道线作为次注意力车道线;
当次注意力车道线在连续的N帧融合车道线中,能够帧间稳定匹配时转为主注意力车道线;
当主注意力车道线在连续的N帧融合车道线中,只要出现1帧不能帧间匹配时,转为次注意力车道线。
S9、计算注意力聚焦区域中心线,根据传感器测距误差确定注意力聚焦区域。
本发明,通过基于遗忘机制的注意力聚焦区域,将车道线点集在注意力聚焦区域的内数据存入聚焦域待拟合点集存储区中,利用RANSAC算法或其改进算法去除外点进行拟合,以有效去除置信度低的点和误检测的外点。将车道线点集不在注意力聚焦区域的内数据存入非聚焦域待拟合点集存储区中,先进行前半周、后半周局域的融合(前半周包含前向,侧前向传感器;后半周包含后向,侧后向的传感器),获得半局信息,进行全局的融合。对车道线历史数据不直接参与车道线的融合,因为融合车道线历史数据必然会引入延迟和噪声,不能很好的应对车道线在一定程度上的突变。而是用历史数据来生成基于遗忘机制的注意力聚焦区域,以降低匹配搜索空间维度。从而能够在多种场景下,有效降低匹配搜索空间,提高多传感器检测到的车道线点集进行快速匹配和融合,降低错误匹配和融合的风险,提高自动驾驶车辆路径规划和方向盘控制的稳定性和安全性。
参见图2,本发明中传感器可为周视摄像头***,包含前视、左侧前视,左侧后视,右侧前视,右侧后视,后视6个摄像头构成的***(摄像头可以被其他能够检测车道线(点集)的其他传感器如成像激光雷达替代,输出车道线点集,不影响本方法的使用。车道线点集,可以通过传感器的检测结果直接获得,也可以通过对传感器语义分割结果稀疏采样后,间接获得。
本方法适用于多视觉传感器的车道线点检测结果的融合(检测结果包含车道线点集的坐标,和每个点的置信度及色彩灰度饱和度),也适用于成像激光雷达和高线数激光雷达等其它传感器及其组合传感器的车道线点检测结果(能够生成与摄像头的车道线点检测结果类似的车道线点集数据和每个点的置信度)的融合。
本方法也适用路沿和广义道路边界点集的多传感器融合。
本实施例中,所述道路数据包括可行驶区域、护栏和路沿数据;根据可行驶区域、护栏和路沿数据,在车道线点集中对护栏和路沿数据外侧异常点进行剔除处理。
这样,车道线点集数据,经过了护栏,路沿,可行驶区域的多源信息校验,剔除了跨越护栏对向车道线的车道线,降低了错误匹配融合的风险。
优选的,本实施例中,将超过四分之三的点在聚焦域内的车道线点集,存入聚焦域待拟合点集存储区。
本实施例中,对存入聚焦域待拟合点集存储区中的车道线点集数据进行处理和存入非聚焦域待拟合点集存储区中的车道线点集数据进行处理,可并行异步处理,以降低注意力聚焦区域内的车道线点集匹配融合的延迟。
为便于理解,现分别进行阐述。
I、具体的,对存入聚焦域待拟合点集存储区中的车道线点集数据lineFocusP(i,j)(i=1,...,r;j=1,...,s(r))(r个聚焦域,每个聚焦域s(r)个点)进行处理,遍历各聚焦域待拟合点集存储区,对各聚焦域在待拟合存储区中的车道线点集,采用RANSAC(随机采样一致)算法或者改进算法RANSAC拟合多项式函数。
优选的,采用RANSAC算法或其改进算法的步骤:
1)选择初始点集,执行步骤2)。
2)在初始点集采用随机抽样选取出一组a个点,利用最小二乘方法拟合出多项式函数执行步骤3)。
3)计算每点和多项式函数曲线的最近距离,剔除掉距离大于阈值的外点,并计算未被剔除掉的点的个数。执行步骤4)
4)当未被剔除掉点个数大于总点数的一半时,再次拟合曲线,并计算曲线与点的距离之和,以及点的置信度均值并存储,执行步骤5),否则再次执行步骤2)、3)。
5)当曲线与各点的距离之和小于阈值时,将此曲线选为备选最优曲线并存储。否则再次执行步骤2)、3)、4)。
6)当步骤2)中随机抽样次数超过设定阈值c且至少有一条备选最优曲线,将备选最优曲线作为最优曲线输出。否则重复执行步骤2)、3)、4)和5),直到拟合出b条曲线。采用RANSAC算法中的加权评分机制,选取出b条曲线中评分最高的一条,作为当前的最优车道线输出。其中得分基于曲线与各点的距离之和,点集的置信度均值,车道线点的数量,车道线长度和颜色正常点比例计算。
优选的,评分公式为:
Score=e1Dsum+e2·Confmean+e3·npoint+e4·Llane+e5·Pcolor
式中,e1,...,e5为加权系数,Dsum为归一化的拟合曲线与各点的距离之和,Confmean为点集的置信度均值,npoint为归一化的车道线点的数量,Llane为归一化的车道线计算长度,Pcolor为车道线颜色正常点(非灰非黑)的比例。
上述步骤中,a为预先设定的随机抽取点个数,b为备选最优曲线的上限(迭代终止),c为随机抽样次数上限(迭代终止)。
优选的,原RANSAC算法的问题在于当点数量太多时,达到99%概率成功选出b条曲线需要的次数太多。对注意力机制聚焦域内的点,还可以采用基于车道线点集置信度,融合其他信息的特殊改进的RANSAC(随机抽样一致)算法拟合车道线。
具体的,将步骤1)中选择初始点集的方法改进为:对各聚焦域在待拟合存储区中的车道线点集,先剔除置信度小于自适应阈值的点;然后剔除或稀疏化采样大于平均车头时距大于5s/Vehicle的点(平均车头时距=平均车头间距/平均车速);稀疏化采样大于平均车头时距大于2s/Vehicle的点(平均车头时距=平均车头间距/平均车速),特别的,对能够检测到颜色的传感器,剔除掉深灰色的轮胎印和旧车道线,剔除与白色和黄色颜色差距过大的线。再使用RANSAC算法拟合多项式函数,可以有效的降低RANSAC随机取点次数。
上述选择初始点集的中,置信度(Confidence)的自适应阈值的计算方法,按长度分段,每d(示例性的,对8M摄像头,50米以内,d=5;50米至100米,d=10)米分为一段,每段的车道线点的置信度(Confidence)的自适应阈值(AdaptiveThreshold)ATconf为:
式中,Confpoint车道线点的置信度;λ∈(0,1]为拒绝域因子;m为按长度对车道线进行分段后,传感器在该段获得的车道线点的个数;ConfLLimit为置信度的自适应阈值的下限。
上述改进的RANSAC算法拟合多项式时,根据场景确定曲线拟合的多项式次数:优选的,当传感器检测到当前场景为结构化道路,车道线3次多项式曲线表示,拟合得到的车道线3次多项式函数如下:
A(x)=A0+A1x+A2x2+A3x3
当传感器检测到当前场景为非结构化道路,用5次多项式曲线表示,拟合得到的车道线5次多项式函数如下:
A(x)=A0+A1x+A2x2+A3x3+A4x4+A5x5
将所有拟合之后的车道线lineFocus(i)(i=1,...,h)进行编号,进行置信度计算,对各点置信度加权平均值作为拟合后车道线的置信度。
II、具体的,对存入非聚焦域待拟合点集存储区中的车道线点集数据进行处理的步骤包括:
S41、对非聚焦域待匹配区中的车道线点集数据进行处理,将前半周中不在注意力聚焦区域内的车道线点集按长度排序,并将长度大于自适应阈值的车道线点集筛选出作为前半周长车道线linelongFP(i)(i=1,...,m),反之作为前半周短车道线lineshortFP(i)(1,...,n);
按从长到短的次序,依次将非聚焦域待拟合点集存储区中的前半周长车道线linelongFP(i)(i=1,...,m)选为基准,遍历其余长车道线linelongFP(j)(j≠i)和前半周短车道线lineshortFP(i)(1,...,n)进行匹配,具体包括:
1)、如果车道线linelongFP(i)(i=1,...,m)能与其他前半周长车道线linelongFP(j)(j≠i)匹配上,则将所有匹配上的车道线合并,并剔除不匹配异常点拟合车道线,并将匹配上的车道线点集和前半周长车道线linelongFP(j)(j≠i)合并为linelongFP(i)作为新的基准车道线。并将前半周长车道线linelongFP(j)(j≠i)剔除出基准车道线点集,不再对前半周长车道线linelongFP(j)(j≠i),进行其余车道线匹配遍历。
2)、如果前半周长车道线点集linelongFP(i)(i=1,...,m)能与其他前半周短车道线点集lineShortFP(i)(i=1,...,n)匹配上,则将所有匹配上的车道线点集合并,并剔除不匹配异常点,再进行车道线拟合。
3)、如果车道线不能与前半周短车道线匹配,且长度大于自适应阈值,直接将车道线点集作为成独立车道线,进行拟合。
将所有拟合之后的车道线lineFP(i)(i=1,...,g)进行编号,进行置信度计算,各点置信度加权均值作为拟合后车道线置信度。
当车辆前半周车道线都遍历匹配完则进入S42。
S42、对非聚焦域待匹配区中的车道线点集数据进行处理,将后半周中不在注意力聚焦区域内的车道线点集按长度排序,并将长度大于自适应阈值的车道线点集筛选出作为后半周长车道线linelongRP(i)(i=1,...,m),反之作为后半周短车道线lineshortRP(i)(1,...,n);
按从长到短的次序,依次将非聚焦域待拟合点集存储区中的后半周长车道线选为基准,遍历其余车道线和后半周短车道线进行匹配,具体步骤包括:
1)、如果车道线linelongRP(i)(i=1,...,m)能与其他后半周长车道线linelongRP(j)(j≠i)匹配上,则将所有匹配上的车道线点集合并,并剔除不匹配异常点拟合车道线,并将匹配上的车道线和后半周长车道线合并为linelongRP(i)作为新的基准车道线。将后半周长车道线linelongRP(j)(j≠i)剔除出基准车道线点集,不再对linelongRP(j)(j≠i),进行其余车道线匹配遍历。
2)、如果后半周长车道线能与其他后半周短车道线lineshortRP(i)(1,...,n)匹配上,则将所有匹配上的车道线点集合并,并剔除不匹配异常点,再进行车道线拟合。
3)、如果车道线不能与后半周短车道线匹配,且长度大于自适应阈值,直接将车道线点集作为独立车道线,进行拟合。
将所有拟合之后的车道线lineR(i)(i=1,...,h)进行编号,进行置信度计算,各点置信度加权均值作为拟合后车道线置信度。
当后半周的车道线都遍历匹配完则进入S43;
S43、以前半周融合车道线为基准,遍历车辆后半周融合车道线并进行匹配,当前半周车道线点集能与后半周车道线点集匹配,则将所有匹配上的车道线点集合并,并剔除不匹配异常点拟合多项式函数。优选的,当传感器检测到当前场景为结构化道路,车道线3次多项式曲线表示,当传感器检测到当前场景为非结构化道路,用5次多项式曲线表示。
具体的,对存入非聚焦域待拟合点集存储区中的车道线点集数据进行处理中的车道线长度自适应阈值的公式为:
式中,LTHline为车道线计算长度;δ∈(0,1]拒绝域因子;n为非聚焦域待拟合点集存储区中车道线总数;LTHLLimit为置信度的自适应阈值的下限。
用自适应阈值公式按长度筛选的目的在于:因为传感器检测到的特别短的车道线不容易匹配而且有一定概率是其他标识线,比如不清晰的箭头符号或者不清晰的导流线。因此从匹配融合策略上不将特别短,难以匹配的车道线选为匹配基准。
具体实施时,在步骤S7中,通过对车道线拟合n次多项式曲线进行帧间匹配,其公式为:
式中,Aip1表示后帧中n次多项式的系数,Aip2表示前帧中n次多项式的系数,TrIFM表示帧间匹配的容差阈值;ΔAinon表示多项式曲线的第i个系数的帧间匹配误差的归一化因子;
在不等式成立时,记忆车道线曲线的帧间匹配成功,已匹配成功的车道线曲线存入记忆车道线序列。
当n次多项式n为3时,可对车道线拟合三次多项式曲线进行帧间匹配,其公式为:
式中,A0p1、A1p1、A2p1、A3p1表示后帧中拟合的车道线三次多项式的系数,A0p2、A1p2、A2p2、A3p2表示前帧中拟合的车道线三次多项式的系数,TrIFM为帧间匹配的容差阈值;
在不等式成立时,记忆车道线曲线的帧间匹配成功,已匹配成功的车道线曲线存入记忆车道线序列。
参见图4,在步骤S9中,注意力聚焦区域中心线,根据预测行驶方向、主注意力车道系数和遗忘因子进行计算;其中,
预测行驶方向,与预测本车行驶方向差别过大的主注意力车道线不计入注意力聚焦区域中心线计算;当下面判别函数不等式成立时,车道线作为注意力聚焦区域中心线计算:
|A0+A1vhtpred+(2A2-Yr)(vhtpred)2|<Trpred
式中,vh为本车的车速;Yr为本车的偏航率;tpred为设定预测时间;A0,A1,A2分别为拟合后的车道线方程系数,Trpred为预测的tpred时间后车道线距离本车的横向位置的判别阈值;
计算当前帧的遗忘因子并进行存储,最多存储nm帧,其公式为:
式中,βb为遗忘因子基准值;Vrpi为车道线在行车方向上的远端可视距离;vhpi为本车的车速;confpi为当前帧主注意力车道线置信度;dtpi为当前帧与上一帧之间的时间差;μ为安全阈值;i为帧数(i=1,...,nm)。即当历史帧中看到的车道线越长以及车速越慢时,遗忘因子越小,遗忘越慢,使用遗忘因子可以更有效的使用历史信息构建注意力聚焦区域。
根据预测到的行驶方向,主注意力车道线系数,置信度和遗忘因子,计算注意力聚焦区的中心线。即与人脑视觉的仿生学试验结果相同,关注行驶方向,当置信度越低,遗忘的越快。
计算注意力聚集区域中心线,用三阶以及三阶以上的多项式表示,其系数的计算公式为:
式中,nm为记忆帧数上限;当m<nm-1,(βp1+βp1βp2+...(βp1βp2...βpm))>Trmemo∈(0,1)时,其中Trmemo为记忆容限阈值;/>为nm个历史帧的匹配记忆序列中的第i帧的主注意力车道线的多项式系数向量;
根据传感器测距误差确定注意力聚焦区域横向宽度的公式为:
Δd(l)=γσavg(l)
式中,Δd(l)为聚焦区域横向宽度的一半,γ∈(0,1]为根据传感器性能特性设定的安全系数,σavg(l)为l距离上的传感器测距误差平均值;
当采用三次多项式表示注意力聚集区域中心线时,则在下面两条曲线之间的区域为注意力聚焦区域,
A0(x)=A0pf+A1pfx+A2pfx2+A3pfx3+Δd(x)
A0(x)=A0pf+A1pfx+A2pfx2+A3pfx3-Δd(x);
当采用n次多项式表示注意力聚集区域中心线时,则在下面两条曲线之间的区域为注意力聚焦区域,
A0(x)=A0pf+A1pfx+A2pfx2+A3pfx3+...+Anpfxn+Δd(x)
A0(x)=A0pf+A1pfx+A2pfx2+A3pfx3+...+Anpfxn-Δd(x)。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管通过参照本发明的优选实施例已经对本发明进行了描述,但本领域的普通技术人员应当理解,可以在形式上和细节上对其作出各种各样的改变。凡是属于本发明的技术方案所引申出的显而易见的改变仍处于本发明的保护范围之列。
Claims (9)
1.一种基于车道线点集与注意力机制的匹配融合方法,其特征在于,包括以下步骤:
S1、接收车辆位置和状态信息,若自动驾驶***处于可用状态则执行步骤S2;
S2、接收传感器检测的道路数据和车道线点集,并对车道线点集进行处理;
S3、遍历各传感器检测到的车道线点集,判断车道线点集是否在注意力聚焦区域内;
S4、将车道线点集在注意力聚焦区域内的数据存入聚焦域待拟合点集存储区中,不在注意力聚焦区域内的数据存入非聚焦域待拟合点集存储区中,并分别进行拟合,且对拟合后的车道线进行编号以及置信度计算,将各点置信度加权平均值作为拟合后车道线的置信度;
S5、接收S4中所有拟合后的车道线并进行编号;
S6、根据预测规划控制请求,向预测规划控制***输出拟合后的车道线并作为融合车道线;
S7、记忆N帧融合车道线,并对记忆的N帧融合车道线统一预测到当前时刻,再进行帧间匹配;
S8、注意力分级,以聚焦域待拟合点集存储区中融合车道线作为主注意力车道线,以非聚焦域待拟合点集存储区中融合车道线作为次注意力车道线;当次注意力车道线在连续的N帧融合车道线中,能够帧间稳定匹配时转为主注意力车道线;当主注意力车道线在连续的N帧融合车道线中,只要出现1帧不能帧间匹配时,转为次注意力车道线;
S9、利用主注意力车道线计算注意力聚焦区域中心线,根据传感器测距误差确定注意力聚焦区域横向宽度,从而确定注意力聚焦区域。
2.根据权利要求1所述的一种基于车道线点集与注意力机制的匹配融合方法,其特征在于,在步骤S2中,所述道路数据包括可行驶区域、护栏和路沿数据;根据可行驶区域、护栏和路沿数据,在车道线点集中对护栏和路沿数据外侧异常点进行剔除处理。
3.根据权利要求1所述的一种基于车道线点集与注意力机制的匹配融合方法,其特征在于,在步骤S4中,对存入聚焦域待拟合点集存储区中的车道线点集数据进行处理,遍历各聚焦域待拟合点集存储区,对各聚焦域在待拟合存储区中的车道线点集,采用RANSAC算法拟合多项式函数。
4.根据权利要求3所述的一种基于车道线点集与注意力机制的匹配融合方法,其特征在于,采用RANSAC算法对存入聚焦域待拟合点集存储区中的车道线点集数据进行处理,包括剔除或稀疏化车头时距远的点、剔除置信度小于自适应阈值的点、剔除深灰轮胎印和旧车道线,以减少RANSAC算法的迭代次数。
6.根据权利要求1所述的一种基于车道线点集与注意力机制的匹配融合方法,其特征在于,在步骤S4中,对存入非聚焦域待拟合点集存储区中的车道线点集数据进行处理的步骤包括:
S41、对存入非聚焦域待匹配区中的车道线点集数据进行处理,将前半周中不在注意力聚焦区域内的车道线点集按长度排序,并将长度大于自适应阈值的车道线点集筛选出作为前半周长车道线linelongFP(i),i=1,...,m;反之作为前半周短车道线lineshortFP(i),i=1,...,n;
按从长到短的次序,依次将非聚焦域待拟合点集存储区中的前半周长车道线选为基准,遍历其余车道线和前半周短车道线进行匹配,当前半周的车道线都遍历匹配完则进入S42;
S42、对存入非聚焦域待匹配区中的车道线点集数据进行处理,将后半周中不在注意力聚焦区域内的车道线点集按长度排序,并将长度大于自适应阈值的车道线点集筛选出作为后半周长车道线linelongRP(i),i=1,...,m;反之作为后半周短车道线lineshortRP(i),i=1,...,n;
按从长到短的次序,依次将非聚焦域待拟合点集存储区中的后半周长车道线选为基准,遍历其余车道线和后半周短车道线进行匹配,当后半周的车道线都遍历匹配完则进入S43;
S43、以前半周融合车道线为基准,遍历车辆后半周融合车道线并进行匹配,当前半周车道线点集能与后半周车道线点集匹配,则将所有匹配上的车道线点集合并,并剔除不匹配异常点拟合多项式函数。
9.根据权利要求1所述的一种基于车道线点集与注意力机制的匹配融合方法,其特征在于,在步骤S9中,注意力聚焦区域中心线,根据预测行驶方向、主注意力车道系数和遗忘因子进行计算;其中,
预测行驶方向,与预测本车行驶方向差别过大的主注意力车道线不计入注意力聚焦区域中心线计算,当下面判别函数不等式成立时,车道线作为注意力聚焦区域中心线计算:
|A0+A1vhtpred+(2A2-Yr)(vhtpred)2|<Trpred
式中,vh为本车的车速,Yr为本车的偏航率,tpred为设定预测时间,A0、A1、A2分别为拟合后的车道线方程系数,Trpred为预测的tpred时间后车道线距离本车的横向位置的判别阈值;
计算当前帧的遗忘因子并进行存储,最多存储nm帧,其公式为:
式中,βb为遗忘因子基准值;Vrpi为车道线在行车方向上的远端可视距离;vhpi为本车的车速,confpi为当前帧主注意力车道线置信度,dtpi为当前帧与上一帧之间的时间差,μ为安全阈值,i为帧数,i=1,…,nm;
计算注意力聚集区域中心线,用三阶以及三阶以上的多项式表示,其系数的计算公式为:
式中,nm为记忆帧数上限,当m<nm-1,(βp1+βp1βp2+…(βp1βp2...βpm))>Trmemo∈(0,1)时,βpm,…,βpnm-1=0,其中Trmemo为记忆容限阈值;i=1,…,nm为nm个历史帧的匹配记忆序列中的第i帧的主注意力车道线的多项式系数向量;
根据传感器测距误差确定注意力聚焦区域横向宽度的公式为:
Δd(l)=γσavg(l)
式中,Δd(l)为聚焦区域横向宽度的一半,γ∈(0,1]为根据传感器性能特性设定的安全系数,σavg(l)为l距离上的传感器测距误差平均值;
采用n次多项式表示注意力聚集区域中心线,则在下面两条曲线之间的区域为注意力聚焦区域,
A0(x)=A0pf+A1pfx+A2pfx2+A3pfx3+…+Anpfxn+Δd(x)
A0(x)=A0pf+A1pfx+A2pfx2+A3pfx3+…+Anpfxn-Δd(x)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210752033.6A CN115131968B (zh) | 2022-06-28 | 2022-06-28 | 一种基于车道线点集与注意力机制的匹配融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210752033.6A CN115131968B (zh) | 2022-06-28 | 2022-06-28 | 一种基于车道线点集与注意力机制的匹配融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115131968A CN115131968A (zh) | 2022-09-30 |
CN115131968B true CN115131968B (zh) | 2023-07-11 |
Family
ID=83380118
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210752033.6A Active CN115131968B (zh) | 2022-06-28 | 2022-06-28 | 一种基于车道线点集与注意力机制的匹配融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115131968B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118068357B (zh) * | 2024-04-19 | 2024-07-12 | 智道网联科技(北京)有限公司 | 路沿融合处理方法、装置及电子设备、存储介质 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133600A (zh) * | 2017-05-11 | 2017-09-05 | 南宁市正祥科技有限公司 | 一种基于帧间关联的实时车道线检测方法 |
CN108647664A (zh) * | 2018-05-18 | 2018-10-12 | 河海大学常州校区 | 一种基于环视图像的车道线检测方法 |
CN109409202A (zh) * | 2018-09-06 | 2019-03-01 | 惠州市德赛西威汽车电子股份有限公司 | 基于动态感兴趣区域的鲁棒性车道线检测方法 |
CN110001782A (zh) * | 2019-04-29 | 2019-07-12 | 重庆长安汽车股份有限公司 | 自动换道方法、***及计算机可读存储介质 |
CN110386146A (zh) * | 2018-04-17 | 2019-10-29 | 通用汽车环球科技运作有限责任公司 | 用于处理驾驶员注意力数据的方法和*** |
CN111582201A (zh) * | 2020-05-12 | 2020-08-25 | 重庆理工大学 | 一种基于几何注意力感知的车道线检测*** |
CN111950467A (zh) * | 2020-08-14 | 2020-11-17 | 清华大学 | 基于注意力机制的融合网络车道线检测方法及终端设备 |
CN112241728A (zh) * | 2020-10-30 | 2021-01-19 | 中国科学院合肥物质科学研究院 | 采用注意力机制学习上下文信息的实时车道线检测方法及*** |
CN112862845A (zh) * | 2021-02-26 | 2021-05-28 | 长沙慧联智能科技有限公司 | 一种基于置信度评估的车道线重构方法及装置 |
CN113468967A (zh) * | 2021-06-02 | 2021-10-01 | 北京邮电大学 | 基于注意力机制的车道线检测方法、装置、设备及介质 |
CN113591618A (zh) * | 2021-07-14 | 2021-11-02 | 重庆长安汽车股份有限公司 | 前方道路形状估算方法、***、车辆及存储介质 |
CN114022863A (zh) * | 2021-10-28 | 2022-02-08 | 广东工业大学 | 基于深度学习的车道线检测方法、***、计算机及存储介质 |
CN114120069A (zh) * | 2022-01-27 | 2022-03-01 | 四川博创汇前沿科技有限公司 | 基于方向自注意力的车道线检测***、方法和存储介质 |
CN114531913A (zh) * | 2020-09-09 | 2022-05-24 | 华为技术有限公司 | 车道线检测方法、相关设备及计算机可读存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10762358B2 (en) * | 2016-07-20 | 2020-09-01 | Ford Global Technologies, Llc | Rear camera lane detection |
TWI734472B (zh) * | 2020-05-11 | 2021-07-21 | 國立陽明交通大學 | 基於深度學習的行車輔助系統及其方法 |
-
2022
- 2022-06-28 CN CN202210752033.6A patent/CN115131968B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107133600A (zh) * | 2017-05-11 | 2017-09-05 | 南宁市正祥科技有限公司 | 一种基于帧间关联的实时车道线检测方法 |
CN110386146A (zh) * | 2018-04-17 | 2019-10-29 | 通用汽车环球科技运作有限责任公司 | 用于处理驾驶员注意力数据的方法和*** |
CN108647664A (zh) * | 2018-05-18 | 2018-10-12 | 河海大学常州校区 | 一种基于环视图像的车道线检测方法 |
CN109409202A (zh) * | 2018-09-06 | 2019-03-01 | 惠州市德赛西威汽车电子股份有限公司 | 基于动态感兴趣区域的鲁棒性车道线检测方法 |
CN110001782A (zh) * | 2019-04-29 | 2019-07-12 | 重庆长安汽车股份有限公司 | 自动换道方法、***及计算机可读存储介质 |
CN111582201A (zh) * | 2020-05-12 | 2020-08-25 | 重庆理工大学 | 一种基于几何注意力感知的车道线检测*** |
CN111950467A (zh) * | 2020-08-14 | 2020-11-17 | 清华大学 | 基于注意力机制的融合网络车道线检测方法及终端设备 |
CN114531913A (zh) * | 2020-09-09 | 2022-05-24 | 华为技术有限公司 | 车道线检测方法、相关设备及计算机可读存储介质 |
CN112241728A (zh) * | 2020-10-30 | 2021-01-19 | 中国科学院合肥物质科学研究院 | 采用注意力机制学习上下文信息的实时车道线检测方法及*** |
CN112862845A (zh) * | 2021-02-26 | 2021-05-28 | 长沙慧联智能科技有限公司 | 一种基于置信度评估的车道线重构方法及装置 |
CN113468967A (zh) * | 2021-06-02 | 2021-10-01 | 北京邮电大学 | 基于注意力机制的车道线检测方法、装置、设备及介质 |
CN113591618A (zh) * | 2021-07-14 | 2021-11-02 | 重庆长安汽车股份有限公司 | 前方道路形状估算方法、***、车辆及存储介质 |
CN114022863A (zh) * | 2021-10-28 | 2022-02-08 | 广东工业大学 | 基于深度学习的车道线检测方法、***、计算机及存储介质 |
CN114120069A (zh) * | 2022-01-27 | 2022-03-01 | 四川博创汇前沿科技有限公司 | 基于方向自注意力的车道线检测***、方法和存储介质 |
Non-Patent Citations (5)
Title |
---|
A Fast Detection Method For Polynomial Fitting Lane With Self-attention Module Added;Xi Li等;《2021 International Conference on Control, Automation and Information Sciences (ICCAIS)》;46-51 * |
一种基于帧间关联的实时车道线检测算法;李超等;《计算机科学》(第2期);317-323 * |
基于关键点检测的车道线识别及跟踪方法研究;吕川;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》(第1期);C035-344 * |
基于深度学习的车道线及道路目标检测研究;刘雷;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》(第5期);C035-424 * |
李国庆.基于深度学习的自动驾驶汽车视觉感知算法研究.2022,(第5期),C035-336. * |
Also Published As
Publication number | Publication date |
---|---|
CN115131968A (zh) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220197281A1 (en) | Intelligent decision-making method and system for unmanned surface vehicle | |
CN111274976B (zh) | 基于视觉与激光雷达多层次融合的车道检测方法及*** | |
CN109800658B (zh) | 基于神经网络的泊车位类型在线识别与定位***及方法 | |
Kong et al. | Vanishing point detection for road detection | |
Meuter et al. | A decision fusion and reasoning module for a traffic sign recognition system | |
US10457283B2 (en) | Vehicle driving assist apparatus | |
CN103020956B (zh) | 一种基于决策判断Hausdorff距离的图像匹配方法 | |
CN108764108A (zh) | 一种基于贝叶斯统计决策的前车检测方法 | |
CN114972418A (zh) | 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法 | |
CN115131968B (zh) | 一种基于车道线点集与注意力机制的匹配融合方法 | |
CN112298194B (zh) | 一种车辆的换道控制方法及装置 | |
JP2007274037A (ja) | 障害物認識方法及び障害物認識装置 | |
RU2764708C1 (ru) | Способы и системы для обработки данных лидарных датчиков | |
CN114454875A (zh) | 一种基于强化学习的城市道路自动泊车方法及*** | |
CN113111707A (zh) | 一种基于卷积神经网络的前车检测与测距方法 | |
CN111612818A (zh) | 新型双目视觉多目标跟踪方法及*** | |
CN115187799A (zh) | 一种单目标长时跟踪方法 | |
Zhao et al. | Robust online tracking with meta-updater | |
CN114296095A (zh) | 自动驾驶车辆的有效目标提取方法、装置、车辆及介质 | |
CN107506739B (zh) | 一种夜间前向车辆检测及测距方法 | |
CN117630907A (zh) | 一种红外成像与毫米波雷达融合的海面目标跟踪方法 | |
CN116311136A (zh) | 用于辅助驾驶的车道线参数计算方法 | |
Li et al. | Enhancing feature fusion using attention for small object detection | |
US20240153120A1 (en) | Method to determine the depth from images by self-adaptive learning of a neural network and system thereof | |
CN113942503A (zh) | 一种车道保持方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |