CN116797894A - 一种增强特征信息的雷达与视频融合目标检测方法 - Google Patents
一种增强特征信息的雷达与视频融合目标检测方法 Download PDFInfo
- Publication number
- CN116797894A CN116797894A CN202310696483.2A CN202310696483A CN116797894A CN 116797894 A CN116797894 A CN 116797894A CN 202310696483 A CN202310696483 A CN 202310696483A CN 116797894 A CN116797894 A CN 116797894A
- Authority
- CN
- China
- Prior art keywords
- radar
- feature
- data
- information
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 39
- 238000001514 detection method Methods 0.000 title claims abstract description 28
- 230000002708 enhancing effect Effects 0.000 title claims abstract description 10
- 238000013507 mapping Methods 0.000 claims abstract description 29
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000006243 chemical reaction Methods 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 10
- 238000009877 rendering Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000007500 overflow downdraw method Methods 0.000 abstract description 4
- 238000003909 pattern recognition Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000003993 interaction Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000029087 digestion Effects 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Landscapes
- Image Processing (AREA)
Abstract
本发明涉及计算机视觉与模式识别技术领域,具体涉及一种增强特征信息的雷达与视频融合目标检测方法,包括获取雷达数据和图像数据,并对所述雷达数据和所述图像数据进行预处理,得到雷达点云映射图像;构建多模态融合模型,并将所述雷达点云映射图像和原始图像输入所述多模态融合模型,得到特征图;将所述特征图输入增强特征信息网络进行转换,得到增强特征图;将所述特征提取网络嵌入输入深度可分离卷积模块依次进行深度卷积和逐点卷积,得到输出特征图;对所述输出特征图进行分类与回归处理,得到目标检测结果,解决了现有的特征融合方法会因特征提取不准确导致结果偏差的问题。
Description
技术领域
本发明涉及计算机视觉与模式识别技术领域,尤其涉及一种增强特征信息的雷达与视频融合目标检测方法。
背景技术
目前在智能交通领域中,通过运用激光雷达、毫米波雷达、摄像机、北斗定位和红外线摄像头等等多个传感器数据融合,将他们应用于车辆自动或辅助驾驶、道路检测和交通监测安全等等。随着多传感器融合技术的发展,毫米波雷达与摄像头的融合技术已经逐步应用于智能路侧和交通监控领域,通过多个传感器的数据采集、分析和应用,实现车路协调,提高交通安全程度,最大程度有效减少交通事故。
其中毫米波雷达作为一种探测目标信息的装置,是通过发射调制电磁波和接收观测回波来获取场景和目标的信息,可以快速获取目标的距离、位置和速度信息,具有不受光照天气影响的工作能力,但由于得到的雷达点云具有稀疏性,导致获取的目标形状特征、纹理、高度信息等效果较差。针对单一传感器的局限性等缺点,通过多传感器融合方法作为解决这些问题的有效途径。所以通过结合摄像机采集的数据进行互补运用,摄像机可以获取丰富的目标形状轮廓等密集的特征信息,但也存在检测远距离目标模糊,受到暴雨、大雾或可见度低的环境影响而得不到准确的目标检测效果,所以通过毫米波雷达与摄像机协同应用能够采集到丰富的目标信息,同时解决单个传感器存在的局限和不足。
一般来说,毫米波雷达与视觉融合可分类为数据级、特征级和决策级融合,数据级可以获得更全面、更丰富、更准确的数据信息,能够减少不同传感器之间的不匹配问题,提高数据的可靠性和准确性;但大量的数据存储和传输带来较高成本和复杂性,对数据量大、数据种类繁多的***,数据处理时间成本大。决策级融合可以将多个传感器的判决结果相结合,得出更加准确、确信度更高的最终结果;但需要先进的决策算法和处理技术,成本和难度较高,并且当多个传感器产生的决策结果不一致时,需要解决决策一致性问题。特征级融一方面能够通过运用深度学习去把特征进行充分融合,另一方面能够减少数据存储和传输的需求,降低成本和复杂度,可以较好地处理异构性问题,提高数据处理效率;但是可能会因特征提取不准确导致结果偏差。
发明内容
本发明的目的在于提供一种增强特征信息的雷达与视频融合目标检测方法,旨在解决现有的特征融合方法会因特征提取不准确导致结果偏差的问题。
为实现上述目的,本发明提供了一种增强特征信息的雷达与视频融合目标检测方法,包括以下步骤:
获取雷达数据和图像数据,并对所述雷达数据和所述图像数据进行预处理,得到雷达点云映射图像;
构建多模态融合模型,并将所述雷达点云映射图像和原始图像输入所述多模态融合模型,得到特征图;
将所述特征图输入增强特征信息网络进行转换,得到增强特征图;
将所述特征提取网络嵌入深度可分离卷积模块依次进行深度卷积和逐点卷积,得到输出特征图;
对所述输出特征图进行分类与回归处理,得到目标检测结果。
其中,所述获取雷达数据和图像数据,并对所述雷达数据和所述图像数据进行预处理,得到雷达点云映射图像,包括:
获取雷达数据和图像数据;
对所述雷达数据和所述图像数据进行空间对齐和时间对齐,得到对齐数据;
将所述雷达数据的距离、RCS两个通道将雷达信息映射到雷达点云映射图像相应位置上作为信息增益,得到具有雷达特征的点云映射图像;
基于所述点云映射图像将具有两个通道的所述雷达数据的雷达特征图像与三个通道的所述图像数据的图像作为输入,将所述雷达特征图像和所述图像的特征信息进行关联,通过滤波器将不存在目标的地方的像素值设置为0,其他位置根据雷达通道信息填充像素值,得到雷达点云映射图像。
其中,所述多模态融合模型为选择视觉几何群网络和特征金字塔骨干网络组合而成的模型。
其中,所述增强特征信息网络包括自耦变压器、接地变压器和渲染变压器。
其中,所述将所述特征图输入增强特征信息网络进行转换,得到增强特征图,包括:
将所述特征图分别输入自耦变压器、接地变压器和渲染变压器,得到三个层级变换特征图;
将三个所述层级变换特征图按照尺寸再重新排列为对应原特征图的大小,并与原始金字塔特征拼接,通过卷积缩小维度,得到增强特征图。
其中,所述深度可分离卷积模块包括深度卷积模块和逐点卷积模块。
本发明的一种增强特征信息的雷达与视频融合目标检测方法,获取雷达数据和图像数据,并对所述雷达数据和所述图像数据进行预处理,得到雷达点云映射图像;构建多模态融合模型,并将所述雷达点云映射图像和原始图像输入所述多模态融合模型,得到特征图;将所述特征图输入增强特征信息网络进行转换,得到增强特征图;将所述特征提取网络嵌入深度可分离卷积模块依次进行深度卷积和逐点卷积,得到输出特征图;对所述输出特征图进行分类与回归处理,得到目标检测结果,通过上述处理方案,可实现跨尺度跨空间的特征信息交叉互换,以提高大小目标或相似目标的识别度;根据深度可分离卷积可减少模型训练参数量和计算量,减少运算成本。解决了现有的特征融合方法会因特征提取不准确导致结果偏差的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是雷达与视觉特征融合总体框架。
图2是雷达与视觉特征融合具体结构。
图3是增强特征信息网络。
图4是本发明提供的一种增强特征信息的雷达与视频融合目标检测方法的流程图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1至图4,本发明提供一种增强特征信息的雷达与视频融合目标检测方法,包括以下步骤:
S1获取雷达数据和图像数据,并对所述雷达数据和所述图像数据进行预处理,得到雷达点云映射图像;
具体方式为:
S11获取雷达数据和图像数据;
具体的,在Nuscenes网站上下载Nuscenes数据集,按照一定目录格式将数据集保存好,完成数据集准备任务,得到雷达数据和图像数据。
S12对所述雷达数据和所述图像数据进行空间对齐和时间对齐,得到对齐数据;
具体的,通过雷达数据和图像数据的时空对齐,将雷达点云的坐标转换到图像下的坐标,将两者统一时间空间下,才能进行目标匹配关联。通过将雷达点云映射到图像上,为了解决点云稀疏问题,将点云扩充为固定高度的垂直线。对雷达点云映射图像和图像都进行修剪处理从1600×900的图像尺寸大小转换到360×640作为输入。
S13将所述雷达数据的距离、RCS两个通道将雷达信息映射到雷达点云映射图像相应位置上作为信息增益,得到具有雷达特征的点云映射图像;
S14基于所述点云映射图像将具有两个通道的所述雷达数据的雷达特征图像与三个通道的所述图像数据的图像作为输入,将所述雷达特征图像和所述图像的特征信息进行关联,通过滤波器将不存在目标的地方的像素值设置为0,其他位置根据雷达通道信息填充像素值,得到雷达点云映射图像。
具体的,减少了其他非目标特征的干扰。
S2构建多模态融合模型,并将所述雷达点云映射图像和原始图像输入所述多模态融合模型,得到特征图;
具体的,为了充分融合毫米波雷达特征和图像特征,本发明考虑运用多级特征融合方法,因特征金字塔模型能够很有效的定位和识别不同尺度的目标对象,选择FPN作为融合模型的骨干网络,即选择VGG16和FPN骨干网络组合而成的模型。因为常规的CNN一般是通过最后一个特征图的特征来进行识别,对于小目标而言,如果输入是分辨率低的特征图小目标可能很容易被忽视的,所以使用特征金字塔实现多层特征提取,对于较大的目标,在深层特征图中预测;对于较小的目标,使用浅层的特征图预测。同时运用两个骨干网络是因为这两个骨干网络既具备良好的特征提取能力,又具备较强的多尺度特征表示能力,能够有效地支持多模态图像的融合。此外,VGG16和FPN的结构都相对简单,容易实现,计算效率也比较高。
具体实施的网络结构可由图2可知,雷达特征图像经过一边拼接融合,一边进行最大化池化处理得到下一级,原始图像在经过拼接融合后进行VGG16网络结构的5个模块层次的特征提取,得到不同尺度不同通道数的特征图,模块3、模块4和模块5输出端与特征金字塔(FPN)进行连接后,处理得到特征金字塔图,然后再经过对特征金字塔输出端进行增强特征信息网络处理,根据回归和分类模块处理,完成检测结果。
S3将所述特征图输入增强特征信息网络进行转换,得到增强特征图;
具体的,根据增强特征信息网络,基于Transformer概念的启发通过查询、键和值等方法来捕获上下文信息,能够生成新的特征图,该特征图可以对跨空间和跨尺度的非局部或局部交互进行编码,以实现不同尺度特征图信息相互补充利用。该网络根据使用自级、自上而下和自下向上的三个交互方法,将任何特征金字塔输出特征图转换为具有相同大小但更丰富信息的特征金字塔增强特征图。将特征金字塔(FPN)输出的三层特征图输入增强特征信息网络,转换后尺度与特征金字塔大小相同,但比原始的背景信息更丰富。
通过使用不同级的特征图可以识别目标的不同尺度。小物体应该在比较低的级别下识别,大的物体应该在更高的级别识别。因此需要去结合局部信息和来自于高级别的全局信息,在尺度相近时的物体,比如公交车和大货车目标轮廓大小相近,所以需要通过细化特征信息以提高目标分类精确度。此外,比如人应该出现在斑马线上而不是车道上,通过局部和全局特征信息的结合是有助于不同目标之间互相识别的。
所述增强特征信息网络包括自耦变压器、接地变压器和渲染变压器。
如图3为具体描述增强特征网络处理过程,根据对特征金字塔(FPN)输出的不同尺度的进行以下处理:
S31将所述特征图分别输入自耦变压器SelfTransformer(ST)、接地变压器Groundng Transformer(GT)和渲染变压器Rendering Transformer(RT),得到三个层级变换特征图;
SelfTransformer(ST),根据同层特征图的non-local交互,输出与输入具有相同尺度。
ST具体表述过程如下:
输入参数:fq(Pi),fk(Pj),fv(Pj),N
相似度:si,j=Fsim(fq(Pi,n),fk(Pj,n))
权重:
输出:Pi′=Fmul(wi,j,vj)
fq(Pi)、fk(Pj)、fv(Pi)分别为查询转换函数、键转换函数、值转换函数;P为特征图,P′为转换后特征图,Pi′是P′中的第i个转换后的特征位置。
Fsim为相似度函数,其为点积计算;基于软极大值(MoS)的归一化函数Fmos:σn为第n个聚合权重为/>为归一化可学***均值;Fmul为权重聚合函数,其为矩阵相乘计算。
Groundng Transformer(GT),采用自上而下的方式,输出与低层级特征图尺度相同,将高层级特征中的“概念”映射为Pc到低层级特征映射为Pf中的“像素”。
GT具体表述过程如下:
输入参数:
相似度:
权重:
输出:Pi′f=Fmul(wi,j,vj)
其中计算相似度为Pi f是Pi中的第i个特征位置,/>是Pj中的第j个特征位置;Fmul为权重聚合函数,改善了只上而下的交互作用。
RenderingTransformer(RT),采用自下而上的方式,输出的尺度与高层级特征图尺度相同。使用低层级的“像素”中合并的视觉属性来渲染高层级的“概念”,不是由像素来执行的,而是由整个特征映射来执行。
RT具体表述过程如下:
输入参数:Q,K,V
权重:w=GAP(K)
权重查询:Qw=Fw(Q,w)
下采样:V下=F3conv(V)
输出:
其中Fw为外部积函数,F1conv为步幅=1的3×3卷积函数,Fconv为3×3卷积函数,Fadd为3×3卷积的特征图求和函数。
高级特征图为Q,低级特征图为K和V,为了突出渲染目标,Q和K之间的交互以通道注意方式进行。K首先通过全局平均池化(GAP)计算Q的权重w。然后,加权Q(Qw)经过3×3卷积进行细化。V通过3×3卷积来减少特征规模图中的灰色正方形。最后,对改进后的Qw和降采样V(V下)进行求和,并通过另一个3×3卷积进行细化。
S32将三个所述层级变换特征图按照尺寸再重新排列为对应原特征图的大小,并与原始金字塔特征拼接,通过卷积缩小维度,得到增强特征图。
具体的,将每个层级变换后的特征图按照尺寸再重新排列为其对应原特征图的大小,并与原始金字塔特征拼接,通过卷积缩小维度,最终得到一组与输入相同尺度的特征信息更丰富的特征图,即与原特征图拼接后输入到卷积中降至原本的通道数。
根据上述方案的具体实施,可使特征能够跨越空间和尺度进行交互,在特征金字塔中,高或低层级的特征图包含了大量的全局或局部图像信息,通过特征信息交互后同尺度特征度拼接叠加,而得到信息增强的特征图。比如RT以自下而上设计方法,通过合并低层级中的视觉属性来呈现高层级的概念,实现特征信息增强。
S4将所述特征提取网络嵌入深度可分离卷积模块依次进行深度卷积和逐点卷积,得到输出特征图;
具体的,所述深度可分离卷积模块包括深度卷积模块和逐点卷积模块。
根据深度可分离卷积模块,其包括深度卷积和逐点卷积,作为一个轻量级可***的网络,由深度卷积模块和逐点卷积模块两个模块结合来提取特征。具体实施方法如下:
1)深度卷积模块:一个卷积核只处理一个通道,即每个卷积核只处理自己对应的通道。输入特征图有多少个通道就有多少个卷积核。将每个卷积核处理后的特征图堆叠在一起。输入和输出特征图的通道数相同。由于只处理长宽方向的信息会导致丢失跨通道信息,为了将跨通道的信息补充回来,需要进行逐点卷积。
2)逐点卷积模块:在经过卷积对跨通道维度处理后,有多少个卷积核就会生成多少个特征图,所以深度卷积模块只处理长宽方向的空间信息,之后逐点卷积只处理跨通道方向的信息,这能够较大程度减少网络的参数量和计算量,提高了模型的效率和速度。
而一般卷积是一个卷积核处理所有的通道,卷积核与特征图一一对应,所以当输入特征图有多少个通道时,卷积核就会有几个通道,所以卷积核是针对特征图的所有通道设计的,每增加特征图的一个属性,卷积核就要增加一个,即一般卷积参数的总数=属性的总数×卷积核的大小,需要的属性多参数量也随之增多。但是深度可分离卷积如果要提取更多的属性,只需设计更多的卷积核心用卷积核对通道再次做卷积,输出就和一般卷积一样。但随着要提取的属性越来越多,深度可分离卷积就能够节省更多的参数。所以相比一般卷积,深度可分离卷积参数数量和运算成本相对比较低。
S5对所述输出特征图进行分类与回归处理,得到目标检测结果。
具体的,为了得到目标检测结果,通过分类与回归处理,通过mAP、各类平均精确度和精确度和召回率等这些指标评估模型的性能。增强特征信息网络的输出最终通过边界框回归和分类块进行处理,从而得到目标检测结果。在训练模型前,需要对超参数进行设置:学习率为2e-5,批处理大小为1,epoch为25,固定高度为3。
有益效果
1、通过引入增强特征信息网络,可解决对微小目标的检测识别,比如在高速公路上像小瓶子等小目标的抛洒物,通过使用不同层次的特征图来识别不同尺度的物体,即在较低的层次中识别小物体,在较高层次的中识别大物体。通过这种方法,极大地丰富了微小物体的数量和上下文信息,可提高多模态融合模型的鲁棒性。
2、由于在FPN中对不同尺度进行融合,容易产生大量的冗余信息和冲突信息,降低了多尺度表达能力。通过对不同层特征图进行自交互、自上而下和自下而上特征信息交互。可实现更丰富的特征信息进行检测,从而提高特征利用效果。
3、因一般CNN是通过最后一个特征图的特征来进行识别,对小目标而言,如果输入是分辨率低的特征图小目标可能很容易被忽视的,所以使用特征金字塔实现多层特征提取,对较大的目标在深层特征图中预测,对较小的目标在浅层的特征图预测。
4、加入增强特征信息网络后,不可避免会增加参数量和计算量,为解决这个可通过将一般卷积替换成深度可分离卷积,在一定程度上减少训练模型时的计算量和参数量的消化,减少成本。
5、该增强特征网络是端到端的一种设计方案,避免了复杂的网络结构而造成过多的冗余度,提高融合网络的稳定性。
以上所揭露的仅为本发明一种增强特征信息的雷达与视频融合目标检测方法较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。
Claims (6)
1.一种增强特征信息的雷达与视频融合目标检测方法,其特征在于,包括以下步骤:
获取雷达数据和图像数据,并对所述雷达数据和所述图像数据进行预处理,得到雷达点云映射图像;
构建多模态融合模型,并将所述雷达点云映射图像和原始图像输入所述多模态融合模型,得到特征图;
将所述特征图输入增强特征信息网络进行转换,得到增强特征图;
将所述特征提取网络嵌入深度可分离卷积模块依次进行深度卷积和逐点卷积,得到输出特征图;
对所述输出特征图进行分类与回归处理,得到目标检测结果。
2.如权利要求1所述的增强特征信息的雷达与视频融合目标检测方法,其特征在于,
所述获取雷达数据和图像数据,并对所述雷达数据和所述图像数据进行预处理,得到雷达点云映射图像,包括:
获取雷达数据和图像数据;
对所述雷达数据和所述图像数据进行空间对齐和时间对齐,得到对齐数据;
将所述雷达数据的距离、RCS两个通道将雷达信息映射到雷达点云映射图像相应位置上作为信息增益,得到具有雷达特征的点云映射图像;
基于所述点云映射图像将具有两个通道的所述雷达数据的雷达特征图像与三个通道的所述图像数据的图像作为输入,将所述雷达特征图像和所述图像的特征信息进行关联,通过滤波器将不存在目标的地方的像素值设置为0,其他位置根据雷达通道信息填充像素值,得到雷达点云映射图像。
3.如权利要求1所述的增强特征信息的雷达与视频融合目标检测方法,其特征在于,
所述多模态融合模型为选择视觉几何群网络和特征金字塔骨干网络组合而成的模型。
4.如权利要求1所述的增强特征信息的雷达与视频融合目标检测方法,其特征在于,
所述增强特征信息网络包括自耦变压器、接地变压器和渲染变压器。
5.如权利要求4所述的增强特征信息的雷达与视频融合目标检测方法,其特征在于,
所述将所述特征图输入增强特征信息网络进行转换,得到增强特征图,包括:
将所述特征图分别输入自耦变压器、接地变压器和渲染变压器,得到三个层级变换特征图;
将三个所述层级变换特征图按照尺寸再重新排列为对应原特征图的大小,并与原始金字塔特征拼接,通过卷积缩小维度,得到增强特征图。
6.如权利要求1所述的增强特征信息的雷达与视频融合目标检测方法,其特征在于,
所述深度可分离卷积模块包括深度卷积模块和逐点卷积模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310696483.2A CN116797894A (zh) | 2023-06-13 | 2023-06-13 | 一种增强特征信息的雷达与视频融合目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310696483.2A CN116797894A (zh) | 2023-06-13 | 2023-06-13 | 一种增强特征信息的雷达与视频融合目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116797894A true CN116797894A (zh) | 2023-09-22 |
Family
ID=88039555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310696483.2A Pending CN116797894A (zh) | 2023-06-13 | 2023-06-13 | 一种增强特征信息的雷达与视频融合目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116797894A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118155221A (zh) * | 2024-05-11 | 2024-06-07 | 济南大学 | 一种基于多监督的印刷体公式识别方法 |
-
2023
- 2023-06-13 CN CN202310696483.2A patent/CN116797894A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118155221A (zh) * | 2024-05-11 | 2024-06-07 | 济南大学 | 一种基于多监督的印刷体公式识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626217B (zh) | 一种基于二维图片和三维点云融合的目标检测和追踪方法 | |
CN111695448B (zh) | 一种基于视觉传感器的路侧车辆识别方法 | |
CN110570429B (zh) | 一种基于三维点云的轻量级实时语义分割方法 | |
CN114202696A (zh) | 基于上下文视觉的sar目标检测方法、装置和存储介质 | |
CN113095152B (zh) | 一种基于回归的车道线检测方法及*** | |
Mahaur et al. | Road object detection: a comparative study of deep learning-based algorithms | |
CN114022830A (zh) | 一种目标确定方法以及目标确定装置 | |
CN111967373B (zh) | 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 | |
CN113706480A (zh) | 一种基于关键点多尺度特征融合的点云3d目标检测方法 | |
WO2022206517A1 (zh) | 一种目标检测方法及装置 | |
CN112926548A (zh) | 一种车道线检测方法、装置、电子设备及存储介质 | |
CN115861619A (zh) | 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与*** | |
CN114764856A (zh) | 图像语义分割方法和图像语义分割装置 | |
CN116797894A (zh) | 一种增强特征信息的雷达与视频融合目标检测方法 | |
CN116664856A (zh) | 基于点云-图像多交叉混合的三维目标检测方法、***及存储介质 | |
CN115880333A (zh) | 一种基于多模态信息融合的三维单目标跟踪方法 | |
CN116704304A (zh) | 一种混合注意力机制的多模态融合目标检测方法 | |
CN114998610A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
CN114332796A (zh) | 一种多传感器融合体素特征图生成方法及*** | |
CN114120270A (zh) | 一种基于注意力和采样学习的点云目标检测方法 | |
CN114218999A (zh) | 一种基于融合图像特征的毫米波雷达目标检测方法及*** | |
CN117975436A (zh) | 基于多模态融合和可变形注意力的三维目标检测方法 | |
Bi et al. | Machine vision | |
CN117115690A (zh) | 一种基于深度学习和浅层特征增强的无人机交通目标检测方法及*** | |
CN116129234A (zh) | 一种基于注意力的4d毫米波雷达与视觉的融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |