CN113361447A - 一种基于滑动窗口自注意力机制的车道线检测方法及*** - Google Patents
一种基于滑动窗口自注意力机制的车道线检测方法及*** Download PDFInfo
- Publication number
- CN113361447A CN113361447A CN202110696713.6A CN202110696713A CN113361447A CN 113361447 A CN113361447 A CN 113361447A CN 202110696713 A CN202110696713 A CN 202110696713A CN 113361447 A CN113361447 A CN 113361447A
- Authority
- CN
- China
- Prior art keywords
- lane line
- line
- lane
- inputting
- sliding window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种基于滑动窗口自注意力机制的车道线检测方法及***,其方法包括:S1:输入前视交通图像,并对其进行数据归一化处理,得到输入图像;S2:将输入图像输入基于滑动窗口自注意力机制的车道线检测网络,得到不同尺度下的不同的车道线特征图;S3:将车道线特征图输入分类网络进行车道线点分类;并进行Argmax操作,将概率值最大的点的位置作为该行的车道线点;同时,利用概率分布相似性损失函数约束车道线的连续属性;S4:将车道线点的位置进行反映射到输入图像,并输出车道线点集坐标。本发明提供了基于滑动窗口自注意力机制模块,降低了计算复杂度,并利用概率分布相似性损失函数约束车道线的连续属性,提升在各种场景下车道结构推理性能。
Description
技术领域
本发明涉及自动驾驶领域,具体涉及一种基于滑动窗口自注意力机制的车道线检测方法及***。
背景技术
车道作为限制车辆在道路上行驶的重要依据,实现准确、稳定、快速的完成车道线检测对于自动驾驶汽车投入实际使用有非常重大的意义。随着深度学习理论以及计算设备的发展,基于大数据和深度学习的车道线检测方法因其较高的检测准确率以及优良的鲁棒性已经逐渐成为主流的方法。卷积神经网络(Convolutional Neural Network,CNN)凭借其强大的特征提取能力在计算机视觉中获得了巨大的成功。典型的卷积神经网络,如VGG、GoogLeNet、ResNet,在计算机视觉中包含图像分类、分割以及目标检测等基础任务中性能表现优异。
车道线检测的任务通常可以分为三个子目标:判断车道线存在情况、准确定位以及拟合车道线。这三项子任务的具体描述形式通常也是多样的,这也催生了许多优良的车道线检测方法。例如,基于像素级分割、基于行分类以及基于锚点的车道线检测方法即为目前三种常见的车道线检测方法。
目前车道线检测网络的实现通常采用卷积神经网络。卷积神经网络通过堆叠较小感知域的卷积层,不断提升网络的感知域,浅层网络通常学习到底层的图像纹理特征,随着感知域的不断提升,在更深的网络获取与图像语义相关的特征。
但是,卷积神经网络的理论感知域随着网络层数是线性增加的,增速缓慢,其中有效感知域更是以高斯分布形式存在,感知域存在较大局限性,难以捕获远程依赖关系。卷积神经网络的这一局限性,导致这类基于卷积神经网络的车道线检测方法在一些困难场景下容易出现明显的性能降低。如何提取图像中车道线之前的远程依赖关系,进而解决困难场景下的降质问题,成为目前制约车道线检测发展的主要瓶颈。
发明内容
为了解决上述技术问题,本发明提供一种基于滑动窗口自注意力机制的车道线检测方法及***。
本发明技术解决方案为:一种基于滑动窗口自注意力机制的车道线检测方法,包括:
步骤S1:输入前视交通图像,并对其进行数据归一化处理,得到输入图像;
步骤S2:将所述输入图像输入基于滑动窗口自注意力机制的车道线检测网络,进行广感知域的特征提取,得到不同尺度下的不同的车道线特征图;
步骤S3:将所述车道线特征图输入分类网络进行逐行的车道线点分类;逐行进行Argmax操作,将概率值最大的点的位置作为该行的车道线点;同时,逐行进行概率分布相似性损失函数以约束所述车道线的连续属性;
步骤S4:将所述车道线点的位置进行反映射到所述输入图像,并输出最终的车道线点集坐标。
本发明与现有技术相比,具有以下优点:
1、本发明提供了基于滑动窗口自注意力机制模块,能够在浅层网络获得较大的感知域,可以更好地学习车道线检测任务中的远程依赖关系,从而在遮挡、极端光照等困难场景下获得更好的车道线检测效果,同时极大地降低了计算复杂度。
2、基于车道线具有特定的结构属性,本发明采用基于逐行概率分布相似性的车道线连续属性约束,能够显式的对车道线结构属性进行学习,通过进行概率分布相似性损失计算,使得临近行的概率分布是相近的,即使得每一行的概率最大的位置逐行偏差不会太大,从而约束车道线的连续属性,提升在各种场景下车道结构推理性能。
附图说明
图1为本发明实施例中一种基于滑动窗口自注意力机制的车道线检测方法的流程图;
图2为本发明实施例中一种基于滑动窗口自注意力机制的车道线检测方法中步骤S2:将输入图像输入基于滑动窗口自注意力机制的车道线检测网络,进行广感知域的特征提取,得到不同尺度下的不同的车道线特征图的流程图;
图3为本发明实施例基于滑动窗口自注意力机制的模块的结构示意图;
图4为本发明实施例中一种基于滑动窗口自注意力机制的车道线检测方法中步骤S3:将车道线特征图输入分类网络进行逐行的车道线点分类;逐行进行Argmax操作,得到值最大的位置作为该行的车道线点;同时,逐行进行概率分布相似性损失函数以约束车道线的连续属性的流程图;
图5为本发明实施例中车辆遮挡情况下的车道线检测结果的示意图;
图6为本发明实施例中极端光照场景下车道线检测结果的示意图;
图7为本发明实施例中一种基于滑动窗口自注意力机制的车道线检测***的结构示意图。
具体实施方式
本发明提供了一种基于滑动窗口自注意力机制的车道线检测方法,提供了基于滑动窗口自注意力机制模块,降低了计算复杂度,并利用概率分布相似性损失函数约束车道线的连续属性,提升在各种场景下车道结构推理性能。
为了使本发明的目的、技术方案及优点更加清楚,以下通过具体实施,并结合附图,对本发明进一步详细说明。
实施例一
如图1所示,本发明实施例提供的一种基于滑动窗口自注意力机制的车道线检测方法,包括下述步骤:
步骤S1:输入前视交通图像,并对其进行数据归一化处理,得到输入图像;
步骤S2:将输入图像输入基于滑动窗口自注意力机制的车道线检测网络,进行广感知域的特征提取,得到不同尺度下的不同的车道线特征图;
步骤S3:将车道线特征图输入分类网络进行逐行的车道线点分类;逐行进行Argmax操作,将概率值最大的点的位置作为该行的车道线点;同时,逐行进行概率分布相似性损失函数以约束车道线的连续属性;
步骤S4:将车道线点的位置进行反映射到输入图像,并输出最终的车道线点集坐标。
在一个实施例中,上述步骤S1:输入前视交通图像,并对其进行数据归一化处理,得到输入图像,具体包括:
根据车载前视摄像头得到前视交通图像,通过对前视交通图像进行求均值和方差的归一化处理,以便提升后续模型的训练收敛速度与效果,经过处理后,得到输入图像。
如图2所示,在一个实施例中,上述步骤S2:将输入图像输入基于滑动窗口自注意力机制的车道线检测网络,进行广感知域的特征提取,得到不同尺度下的不同的车道线特征图,具体包括:
步骤S21:将输入图像进行栅格划分,并进行一维展开,得到原始输入xi;
如图3所示,为本发明实施例基于滑动窗口自注意力机制的模块的结构示意图。在本步骤中,将输入图像进行栅格划分成n份,并进行一维展开,得到原始输入xi,其中,i=1,2…n。
步骤S22:对xi的位置进行编码,得到xi的位置编码向量x'i;将xi的位置编码向量x'i输入基于滑动窗口自注意力机制的模块,在预设尺寸的窗口内计算x'i的嵌入向量权重,得到不同x'i的相互关联的新描述子zi;
本发明实施例采用基于滑动窗口自注意力机制的模块,与传统的自注意力机制模块不同的是,传统自注意力机制模块会将整个图片的所有嵌入向量进行加权,当图片像素较大时,整体计算量相对于图像尺寸的平方成正比。而本发明实施例采用基于滑动窗口自注意力机制的模块可以将计算区域控制在预先设定尺寸的窗口内进行计算,以窗口为单位的策略极大减轻了网络的计算量,将复杂度降低到了图像尺寸的线性比例。传统的自注意力机制模块(Multi-head Self-Attention,MSA)和本发明的基于窗口自注意力机制的模块(WindowMulti-head Self-Attention,WMSA)的复杂度计算公式(1)~(2)分别是:
Ω(MSA)=4hwC2+2(hw)2C (1)
Ω(WMSA)=4hwC2+2M2hwC (2)
其中,h,w分别为图片高度和宽度,C为嵌入向量的维数,M为滑动窗口的大小,上述公式的复杂度的计算忽略了softmax函数所占用的计算量。公式(1)所示的采用MSA方法计算时,是通过对逐个元素进行点乘计算,当比较一整个图像时,那么计算的瓶颈就是对整个图像的逐像素比较。本发明采用的公式(2)所示的WMSA方法计算时,是在预设尺寸的窗口内的逐像素比较,因此复杂度会更低。
本发明在叠加窗口自注意力模块的同时滑动调整窗口位置,可以在保持较低计算复杂度的前提下,将不同区域的特征进行融合,从而有效提升感受野。
步骤S23:将zi与xi'经过残差结构进行再组合,并进行求和归一化,输出z'i;
步骤S24:将z'i输入多层感知机,输出不同尺度下的不同的车道线特征图。
本步骤中的多层感知机为图3中所示带有残差结构的前馈网络,通过多层感知机并对z'i进行求和归一化,最后输出不同尺度下的不同的车道线特征图。
为取代堆叠卷积层增加感知域的方式,本发明提供了基于滑动窗口自注意力机制模块,能够在浅层网络获得较大的感知域,更好地学习车道线检测任务中的远程依赖关系,从而在遮挡、极端光照等困难场景下获得更好的车道线检测效果,同时极大地降低了计算复杂度。
如图4所示,在一个实施例中,所述步骤S3:将车道线特征图输入分类网络进行逐行的车道线点分类;逐行进行Argmax操作,得到值最大的位置作为该行的车道线点;同时,逐行进行概率分布相似性损失函数以约束车道线的连续属性,具体包括:
步骤S31:将车道线特征图输入分类网络进行逐行的车道线点分类,得到车道线点的分类向量;
由于车道是连续的,即车道相邻行锚点应彼此靠近。在本发明实施例中车道线点的位置由其分类向量表示。将上述步骤得到的车道线特征图输入分类网络进行逐行的车道线点分类,得到车道线点的分类向量。
步骤S32:逐行对分类向量进行Argmax操作,将概率最大值的点的位置作为该行的车道线点;
步骤S33:构建概率分布相似性损失函数如公式(3)所示,以约束车道线的连续属性;
其中,K为车道线数量,H为预设的车道线关键行数量,Pi,j,:为第i条车道线的第j关键行的概率分布。
由于车道线一般只分布在地面而不会出现在天上,所以车道线基本上只在图像下半部分,需要人为预先定义属于图像下半部分的均匀分布的车道线关键行。
本发明实施例中的车道线连续性通过约束分类向量在相邻行上的分布来实现,使得临近行的概率分布是相近的,即使得每一行得到概率最大值的位置逐行偏差不会太大,从而约束车道线的连续属性。
在一个实施例中,上述步骤S4:将车道线点的位置进行反映射到输入图像,并输出最终的车道线点集坐标。
由于车道线特征图的尺寸小于原始输入图像,所以需要对车道线点位置进行反映射到输入图像,从而输出最终的车道线点集坐标,用于标识车道线。
图5展示了在车辆遮挡情况下的车道线检测结果,图6展示了极端光照场景下车道线检测结果。
基于车道线具有特定的结构属性,例如,车道线本身通常在场景中是连续的,本发明采用基于逐行概率分布相似性的车道线连续属性约束,能够显式的对车道线结构属性进行学习,通过进行概率分布相似性损失计算,使得临近行的概率分布是相近的,即使得每一行的概率最大的位置逐行偏差不会太大,从而约束车道线的连续属性,提升在各种场景下车道结构推理性能。
实施例二
如图7所示,本发明实施例提供了一种基于滑动窗口自注意力机制的车道线检测***,包括下述模块:
获取输入图像模块51,用于输入前视交通图像,并对其进行数据归一化处理,得到输入图像;
获取车道线特征图模块52,用于将输入图像输入基于滑动窗口自注意力机制的车道线检测网络,进行广感知域的特征提取,得到不同尺度下的不同车道线的特征图;
获取车道线点模块53,用于将车道线特征图输入分类网络进行逐行的车道线点分类;逐行进行Argmax操作,将概率值最大的点的位置作为该行的车道线点;同时,逐行进行概率分布相似性损失函数以约束车道线的连续属性;
获取车道线模块54,用于将车道线点的位置进行反映射到输入图像,并输出最终的车道线点集坐标。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。
Claims (4)
1.一种基于滑动窗口自注意力机制的车道线检测方法,其特征在于,包括:
步骤S1:输入前视交通图像,并对其进行数据归一化处理,得到输入图像;
步骤S2:将所述输入图像输入基于滑动窗口自注意力机制的车道线检测网络,进行广感知域的特征提取,得到不同尺度下的不同的车道线特征图;
步骤S3:将所述车道线特征图输入分类网络进行逐行的车道线点分类;逐行进行Argmax操作,将概率值最大的点的位置作为该行的车道线点;同时,逐行进行概率分布相似性损失函数以约束所述车道线的连续属性;
步骤S4:将所述车道线点的位置进行反映射到所述输入图像,并输出最终的车道线点集坐标。
2.根据权利要求1所述的基于滑动窗口自注意力机制的车道线检测方法,其特征在于,所述步骤S2:将所述输入图像输入基于滑动窗口自注意力机制的车道线检测网络,进行广感知域的特征提取,得到不同尺度下的不同的车道线特征图,具体包括:
步骤S21:将所述输入图像进行栅格划分,并进行一维展开,得到原始输入xi;
步骤S22:对xi的位置进行编码,得到xi的位置编码向量x'i;将所述xi的位置编码向量x'i输入基于滑动窗口自注意力机制的模块,在预设尺寸的窗口内计算x'i的嵌入向量权重,得到不同x'i的相互关联的新描述子zi;
步骤S23:将zi与xi'经过残差结构进行再组合,并进行求和归一化,输出z'i;
步骤S24:将z'i输入多层感知机,输出不同尺度下的不同的车道线特征图。
3.根据权利要求1所述的基于滑动窗口自注意力机制的车道线检测方法,其特征在于,所述步骤S3:将所述车道线特征图输入分类网络进行逐行的车道线点分类;逐行进行Argmax操作,得到值最大的位置作为该行的车道线点;同时,逐行进行概率分布相似性损失函数以约束所述车道线的连续属性,具体包括:
步骤S31:将所述车道线特征图输入分类网络进行逐行的车道线点分类,得到所述车道线点的分类向量;
步骤S32:逐行所述分类向量进行Argmax操作,将概率值最大的点的位置作为该行的车道线点;
步骤S33:构建概率分布相似性损失函数如公式(3)所示,以约束所述车道线的连续属性;
其中,K为车道线数量,H为预设的车道线的关键行数量,Pi,j,:为第i条车道线的第j关键行的概率分布。
4.一种基于滑动窗口自注意力机制的车道线检测***,其特征在于,包括下述模块:
获取输入图像模块,用于输入前视交通图像,并对其进行数据归一化处理,得到输入图像;
获取车道线特征图模块,用于将所述输入图像输入基于滑动窗口自注意力机制的车道线检测网络,进行广感知域的特征提取,得到不同尺度下的不同车道线的特征图;
获取车道线点模块,用于将所述车道线特征图输入分类网络进行逐行的车道线点分类;逐行进行Argmax操作,将概率值最大的点的位置作为该行的车道线点;同时,逐行进行概率分布相似性损失函数以约束所述车道线的连续属性;
获取车道线模块,用于将所述车道线点的位置进行反映射到所述输入图像,并输出最终的车道线点集坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110696713.6A CN113361447A (zh) | 2021-06-23 | 2021-06-23 | 一种基于滑动窗口自注意力机制的车道线检测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110696713.6A CN113361447A (zh) | 2021-06-23 | 2021-06-23 | 一种基于滑动窗口自注意力机制的车道线检测方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113361447A true CN113361447A (zh) | 2021-09-07 |
Family
ID=77535842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110696713.6A Pending CN113361447A (zh) | 2021-06-23 | 2021-06-23 | 一种基于滑动窗口自注意力机制的车道线检测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113361447A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114120069A (zh) * | 2022-01-27 | 2022-03-01 | 四川博创汇前沿科技有限公司 | 基于方向自注意力的车道线检测***、方法和存储介质 |
WO2023226951A1 (en) * | 2022-05-23 | 2023-11-30 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753841A (zh) * | 2017-11-01 | 2019-05-14 | 比亚迪股份有限公司 | 车道线识别方法和装置 |
CN110363182A (zh) * | 2019-07-24 | 2019-10-22 | 北京信息科技大学 | 基于深度学习的车道线检测方法 |
CN110827312A (zh) * | 2019-11-12 | 2020-02-21 | 北京深境智能科技有限公司 | 一种基于协同视觉注意力神经网络的学习方法 |
CN112016463A (zh) * | 2020-08-28 | 2020-12-01 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于深度学习的车道线检测方法 |
CN112396044A (zh) * | 2021-01-21 | 2021-02-23 | 国汽智控(北京)科技有限公司 | 车道线属性信息检测模型训练、车道线属性信息检测方法 |
-
2021
- 2021-06-23 CN CN202110696713.6A patent/CN113361447A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109753841A (zh) * | 2017-11-01 | 2019-05-14 | 比亚迪股份有限公司 | 车道线识别方法和装置 |
CN110363182A (zh) * | 2019-07-24 | 2019-10-22 | 北京信息科技大学 | 基于深度学习的车道线检测方法 |
CN110827312A (zh) * | 2019-11-12 | 2020-02-21 | 北京深境智能科技有限公司 | 一种基于协同视觉注意力神经网络的学习方法 |
CN112016463A (zh) * | 2020-08-28 | 2020-12-01 | 佛山市南海区广工大数控装备协同创新研究院 | 一种基于深度学习的车道线检测方法 |
CN112396044A (zh) * | 2021-01-21 | 2021-02-23 | 国汽智控(北京)科技有限公司 | 车道线属性信息检测模型训练、车道线属性信息检测方法 |
Non-Patent Citations (2)
Title |
---|
ZE LIU 等: "Swin Transformer: Hierarchical Vision Transformer using Shifted Windows", 《ARXIV》 * |
ZEQUN QIN等: "Ultra Fast Structure-aware Deep Lane Detection", 《ARXIV》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114120069A (zh) * | 2022-01-27 | 2022-03-01 | 四川博创汇前沿科技有限公司 | 基于方向自注意力的车道线检测***、方法和存储介质 |
CN114120069B (zh) * | 2022-01-27 | 2022-04-12 | 四川博创汇前沿科技有限公司 | 基于方向自注意力的车道线检测***、方法和存储介质 |
WO2023226951A1 (en) * | 2022-05-23 | 2023-11-30 | Beijing Bytedance Network Technology Co., Ltd. | Method, apparatus, and medium for video processing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210390329A1 (en) | Image processing method, device, movable platform, unmanned aerial vehicle, and storage medium | |
US11488308B2 (en) | Three-dimensional object detection method and system based on weighted channel features of a point cloud | |
Caltagirone et al. | Fast LIDAR-based road detection using fully convolutional neural networks | |
CN114782691B (zh) | 基于深度学习的机器人目标识别与运动检测方法、存储介质及设备 | |
CN114202696A (zh) | 基于上下文视觉的sar目标检测方法、装置和存储介质 | |
CN115205264A (zh) | 一种基于改进YOLOv4的高分辨率遥感船舶检测方法 | |
Chen et al. | Transforming a 3-d lidar point cloud into a 2-d dense depth map through a parameter self-adaptive framework | |
Xie et al. | A binocular vision application in IoT: Realtime trustworthy road condition detection system in passable area | |
CN111310582A (zh) | 基于边界感知和对抗学习的湍流退化图像语义分割方法 | |
CN113361447A (zh) | 一种基于滑动窗口自注意力机制的车道线检测方法及*** | |
CN113076871A (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN113420819B (zh) | 一种基于CenterNet的轻量级水下目标检测方法 | |
Li et al. | Bifnet: Bidirectional fusion network for road segmentation | |
CN104517289A (zh) | 一种基于混合摄像机的室内场景定位方法 | |
CN116222577B (zh) | 闭环检测方法、训练方法、***、电子设备及存储介质 | |
CN109858349A (zh) | 一种基于改进yolo模型的交通标志识别方法及其装置 | |
CN114529583B (zh) | 基于残差回归网络的电力设备跟踪方法及跟踪*** | |
CN114943893A (zh) | 一种土地覆盖分类的特征增强网络 | |
CN116994236A (zh) | 一种基于深度神经网络的低质图像车牌检测方法 | |
CN113160117A (zh) | 一种自动驾驶场景下的三维点云目标检测方法 | |
CN116129234A (zh) | 一种基于注意力的4d毫米波雷达与视觉的融合方法 | |
CN116385994A (zh) | 一种三维道路线提取方法及相关设备 | |
CN116310902A (zh) | 一种基于轻量级神经网络的无人机目标检测方法及*** | |
Li et al. | Enhancing feature fusion using attention for small object detection | |
CN116612398A (zh) | 基于ctpn算法的无人机巡检照片杆塔号牌文字识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |