CN115393680B - 雾天场景下多模态信息时空融合的3d目标检测方法及*** - Google Patents
雾天场景下多模态信息时空融合的3d目标检测方法及*** Download PDFInfo
- Publication number
- CN115393680B CN115393680B CN202210945302.0A CN202210945302A CN115393680B CN 115393680 B CN115393680 B CN 115393680B CN 202210945302 A CN202210945302 A CN 202210945302A CN 115393680 B CN115393680 B CN 115393680B
- Authority
- CN
- China
- Prior art keywords
- space
- time
- millimeter wave
- laser radar
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 79
- 230000004927 fusion Effects 0.000 title claims abstract description 52
- 238000007781 pre-processing Methods 0.000 claims abstract description 12
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims abstract description 11
- 238000000034 method Methods 0.000 claims abstract description 10
- 238000012952 Resampling Methods 0.000 claims abstract description 9
- 238000005070 sampling Methods 0.000 claims description 9
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 claims description 5
- 230000000875 corresponding effect Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000010419 fine particle Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开了一种雾天场景下多模态信息时空融合的3D目标检测方法,包括以下步骤:获取雾天场景下的激光雷达点云和毫米波雷达点云数据并进行预处理,再进行时空特征匹配,借助毫米波点云特征对激光雷达点云特征进行重采样,并将重采样后的点云在时序上进行融合,得到初步的鸟瞰视角下时空融合特征,输入到基于自注意力的Transformer编码器,采用自注意力的方式进行特征编码,得到更高维的时空语义特征;输入至目标分类检测头和边框回归检测头两个分支,输出最后的目标检测结果,包括物体类别和在空间中的位置。本发明有效融合了激光雷达点云和毫米波雷达点云,互补其数据表征优势,从而实现了雾天场景下鲁棒高效的3D目标检测。
Description
技术领域
本发明涉及自动驾驶中的环境感知领域,尤其涉及一种雾天场景下多模态信息时空融合的3D目标检测方法及***。
背景技术
近些年,高级别自动驾驶的落地成为自动驾驶领域需要攻克的重难点。3D目标检测作为自动驾驶领域的关键研究方向,其关键挑战在于实现全天候多场景的目标检测,即在任何天气条件下,都能准确地识别周围的物体。如今,自动驾驶汽车多采用多传感器融合的配置方案来完成目标检测,如相机、激光雷达和毫米波雷达等。融合多个传感器的方式能够克服单个传感器的偶尔故障导致***失灵的问题,并比只使用单一传感器产生更准确的目标检测结果。
现有的多传感器融合目标检测方法主要为基于激光雷达和相机等来完成感知任务,其通常能在良好的天气条件下生成细粒度的点云或高分辨率的图像,提供丰富和冗余的视觉信息。然而,这些视觉传感器对天气条件很敏感,在恶劣的天气(如雾)中,不透明的粒子会扭曲光线,显著降低激光雷达和相机的感知范围,从而导致检测的结果变得不再可靠。
而对于毫米波雷达来说,相比于激光雷达和相机,除其成本低廉且被广泛应用外,毫米波雷达使用的毫米波信号的波长比雾、雨和雪等的微粒要大得多,因此很容易穿透或衍射在它们周围。因此,毫米波雷达数据受雨雾天气影响较小,采用毫米波雷达和其他传感器融合的方式能够完成在雾天场景下鲁棒的3D目标检测任务。
发明内容
本发明主要目的在于缓解天气条件和目标运动带来的干扰,实现雾天场景下鲁棒高效的3D目标检测。
本发明所采用的技术方案是:
提供一种雾天场景下多模态信息时空融合的3D目标检测方法,包括以下步骤:
S1、 获取雾天场景下的激光雷达点云数据和毫米波雷达点云数据并分别进行预处理;
S2、将经过预处理的多帧激光雷达点云和毫米波雷达点云进行时空特征匹配,借助毫米波点云特征对激光雷达点云特征进行重采样,再进一步在时序上进行融合,得到初步的鸟瞰视角下时空融合特征;
S3、将鸟瞰视角下时空融合特征输入到基于自注意力的Transformer编码器,采用自注意力的方式进行特征编码,得到与原特征图尺寸相同但更高维的时空语义特征;
S4、将更高维的时空语义特征分别输入至目标分类检测头和边框回归检测头两个分支,输出最后的目标检测结果,包括物体类别和在空间中的位置。
接上述技术方案,将激光雷达点云数据提取为体素voxel,对毫米波雷达点云采用PointNet形式进行预处理。
接上述技术方案,步骤S2中具体将毫米波雷达点云转换至激光雷达坐标系下与其体素进行匹配,然后将所有的体素和点云特征转换空间位置投影至鸟瞰图上。
接上述技术方案,步骤S2中具体将毫米波雷达点云作为中心,采用KNN搜索一定范围内的激光雷达生成的体素,并进行随机采样;最后将经过筛选的激光雷达点云体素和毫米波雷达点云进行关联和特征拼接,得到增强后的融合特征。
接上述技术方案,步骤S3具体包括以下步骤:
将2.5m×2.5m作为时空窗口的尺寸,并将不同时刻但同一位置的所有体素特征作为该时空窗口内的所有元素;
将划分后的40×40个时空窗口统一作为一个批次输入到基于自注意力的Transformer编码器中进行特征编码输出高维语义时空特征;
借助体素的坐标将高维语义特征重新映射表达为鸟瞰视角下规则栅格化的特征图。
接上述技术方案,步骤S4具体包括以下步骤:
在高维的时空语义特征图的每个位置上布置朝向分别为0°和90°的基准框;
将布置了基准框后的时空语义特征图分别输入目标分类检测头和边框回归检测头两个分支的全连接层,得到网络物体类别评分和预测边框,基于评分将输入阈值低的检测框进行过滤,以得到高质量的检测框。
接上述技术方案,基准框的尺寸根据数据集中某个类别标注数据的平均值获得,以减小网络学习的难度。
本发明还提供一种雾天场景下多模态信息时空融合的3D目标检测***,包括:
预处理模块,用于获取雾天场景下的激光雷达点云数据和毫米波雷达点云数据并分别进行预处理;
时空特征匹配模块,用于将经过预处理的多帧激光雷达点云和毫米波雷达点云进行时空特征匹配,借助毫米波点云特征对激光雷达点云特征进行重采样,再进一步在时序上进行融合,得到初步的鸟瞰视角下时空融合特征;
特征编码模块,用于将鸟瞰视角下时空融合特征输入到基于自注意力的Transformer编码器,采用自注意力的方式进行特征编码,得到与原特征图尺寸相同但更高维的时空语义特征;
分类模块,用于将更高维的时空语义特征分别输入至目标分类检测头和边框回归检测头两个分支,输出最后的目标检测结果,包括物体类别和在空间中的位置。
本发明还提供一种计算机存储介质,其内存储有可被处理器执行的计算机程序,该计算机程序执行上述技术方案所述的雾天场景下多模态信息时空融合的3D目标检测方法。
本发明还提供一种车载雾天场景目标检测***,包括数据采集器、车载存储计算平台和车辆执行器,其中数据采集器包括激光雷达、相机、毫米波雷达、车辆数据传感器,车载存储计算平台内设有所述的计算机存储介质,车辆执行器根据车载存储计算平台输出的控制指令执行相应的动作。
本发明产生的有益效果是:本发明利用毫米波雷达在雾天下的感知鲁棒性来增强激光雷达点云特征,同时仍基于激光雷达点云进行目标的定位和检测也克服了毫米波雷达对高度信息感知误差大、数据分辨率低的不足,充分结合两种传感器在雾天场景下的优势。同时采用多帧数据进行多时空融合能够进一步增强数据表征,同时一定程度上缓解天气条件和目标运动带来的干扰,从而实现了雾天场景下鲁棒高效的3D目标检测。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例雾天场景下多模态信息时空融合的3D目标检测方法流程图一;
图2是本发明实施例雾天场景下多模态信息时空融合的3D目标检测方法流程图二;
图3是本发明实施例雾天场景下多模态信息时空融合的3D目标检测***结构示意图;
图4是本发明实施车载雾天场景目标检测***架构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明主要用于在雾天等恶劣的天气条件下提高目标检测性能,提高3D目标检测***应对极端天气的可靠性。
如图1所示,本发明实施例雾天场景下多模态信息时空融合的3D目标检测方法主要利用激光雷达和毫米波雷达点云时空特征融合检测机制,其主要包括以下步骤:
S1、 获取空间点云数据并分别进行预处理,包括激光雷达点云数据和毫米波雷达点云。其中,激光雷达点云数据量较大,可将其提取为voxel,毫米波雷达点云过于稀疏,采用pointNet形式来进行预处理。
S2、时空特征匹配及自适应采样:将经过预处理的多帧激光雷达点云和毫米波雷达点云进行时空特征匹配。在雾天场景下,由于毫米波雷达点云受干扰较小,因此借助毫米波点云特征对激光雷达点云特征进行重采样,然后再进一步在时序上进行融合,得到初步的鸟瞰视角下时空融合特征。
S3、时空特征编码及提取:将匹配及重采样后的融合特征输入到Transformer编码器,采用自注意力的方式进行特征编码,提高特征的全局依赖性,最后输出得到与原特征图尺寸相同但更高维的时空语义特征。
S4、目标分类及边框回归:得到鸟瞰视角下的高维语义特征之后,将其分别输入至目标分类检测头和边框回归检测头两个分支,输出最后的目标检测结果,即物体类别及在空间中的位置。
本发明另一实施例的雾天场景目标检测方法具体实施流程如图2所示,可具体包括以下步骤:
S100、获取空间点云数据并分别进行预处理,包括如下步骤:
S110、网格划分:检测范围需要根据具体场景及传感器安装位置进行设定,在本发明实施例中,在激光雷达坐标系下分别将[-50m, 50m]、[-40m,40m]、[-3m, 5m]作为X、Y、Z方向的感知范围。将此范围内的点云按照0.25m×0.25m×8m分辨率划分为大小尺寸相等的网络;毫米波雷达获取的点云则采用PointNet方式进行初步特征提取。
S120、点云分组及特征聚合:根据S110划分的网络对激光雷达点云进行分组;将分组后的点云,按网格进行特征聚合以得到体素特征。本发明为平衡计算量和特征的鲁棒性,采用平均池化和最大池化结合的方式生成体素特征。
S200、时空特征匹配及自适应采样:将经过处理的多帧激光雷达点云体素特征和毫米波雷达点云进行时空特征匹配。在雾天场景下,由于毫米波雷达点云受干扰较小,因此借助毫米波点云特征对激光雷达点云特征进行重采样,然后再进一步在时序上进行融合,得到初步的鸟瞰视角下时空融合特征。该步骤S200具体包括:
S210、统一坐标系及鸟瞰图转换:将毫米波雷达点云转换至激光雷达坐标系下与其体素进行匹配。然后将所有的体素和点云特征转换空间位置投影至鸟瞰图上。
S220、特征重采样及增强:将毫米波雷达点云作为中心,采用KNN搜索一定范围内的激光雷达生成的体素,并根据激光雷达有效体素和毫米波雷达点云数据之间的统计关系进行多尺度随机采样;最后将经过筛选的激光雷达点云体素和毫米波雷达点云进行关联和特征拼接,得到增强后的融合特征。统计关系指的是,在一定雾气浓度下,激光雷达数据和毫米波雷达数据量存在一定比例关系。多尺度指的是knn可以根据多个范围进行搜索,在不同范围采样不同数量的数据。
S230、将多帧点云及体素均按照以上方式处理,并以时间戳顺序进行排列便得到时空融合特征。
S300、时空特征编码:将匹配及重采样后的时空融合特征输入到Transformer编码器,采用自注意力的方式进行特征编码,提高特征的全局依赖性,最后输出得到与原特征图尺寸相同但更高维的时空语义特征。其中包括:
S310、时空窗口划分及特征编码:具体将2.5m×2.5m作为时空窗口的尺寸,并将S230中不同时刻但同一位置的所有体素特征作为该时空窗口内的所有元素。然后将同一时空窗口内的元素输入到基于自注意力的Transformer编码器,通过自注意力机制的全局依赖性,一方面可以学习当前空间位置所有的环境和目标几何特征和位置特征,另一方面,可以建模同一目标在一段时间内的时序依赖,充分利用历史帧信息来增强特征表达,从而对抗雾天干扰。
S320、时空特征批处理:将划分后的40×40个时空窗口统一作为一个批次输入到基于自注意力的Transformer编码器中采用同上的特征编码方式输出高维语义时空特征,这样可以减少计算量同时提高特征提取过程中的全局依赖性。
S330、特征重栅格化:S320输出的高维语义特征是一系列乱序的元素特征,但其和体素表征形式相差不大,因此借助于体素的坐标可将其重新映射表达为鸟瞰视角下规则栅格化的特征图。
S400、目标分类及边框回归:得到鸟瞰视角下的高维语义特征之后,将其分别输入至目标分类检测头和边框回归检测头两个分支,输出最后的目标检测结果,即物体类别及在空间中的位置。其中包括:
S410、回归基准框设置:在S330得到的特征图的每个位置上布置朝向分别为0°和90°的基准框,基准框的尺寸根据数据集中某个类别标注数据的平均值获得,以减小网络学习的难度。
S420、目标分类及边框回归:将S330得到的特征图分别输分类分支和边框回归的全连接层,得到网络物体类别评分和预测边框。基于评分将输入阈值低的检测框进行过滤,以得到高质量的检测框。
本发明实施例的雾天场景下多模态信息时空融合的3D目标检测***,主要用于实现上述实施例的方法,该***包括:
预处理模块,用于获取雾天场景下的激光雷达点云数据和毫米波雷达点云数据并分别进行预处理;
时空特征匹配模块,用于将经过预处理的多帧激光雷达点云和毫米波雷达点云进行时空特征匹配,借助毫米波点云特征对激光雷达点云特征进行重采样,再进一步在时序上进行融合,得到初步的鸟瞰视角下时空融合特征;
特征编码模块,用于将鸟瞰视角下时空融合特征输入到基于自注意力的Transformer编码器,采用自注意力的方式进行特征编码,得到与原特征图尺寸相同但更高维的时空语义特征;
分类模块,用于将更高维的时空语义特征分别输入至目标分类检测头和边框回归检测头两个分支,输出最后的目标检测结果,包括物体类别和在空间中的位置。
本申请还提供一种计算机可读存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务器、App应用商城等等,其上存储有计算机程序,程序被处理器执行时实现相应功能。本实施例的计算机可读存储介质被处理器执行时实现方法实施例的雾天场景下多模态信息时空融合的3D目标检测方法。
基于上述实施例的雾天场景时空特征融合的目标检测方法,本发明进一步构建了车载雾天场景目标检测***,***架构图如图3所示,包括传感器(用于数据采集,包括激光雷达、相机、毫米波雷达、车辆数据传感器等)和车载存储计算平台(存储器、定位感知计算平台)等。其中传感器通过数据传输接口(以太网、USB、CAN)与车载存储计算平台通讯,本***的执行流程为:
(1)将本发明提出的雾天场景时空特征融合目标检测算法转换为指令代码部署于车载计算平台存储器内。
(2)配置激光雷达和毫米波雷达传感器的驱动,实现传感器数据的解析与转发,转发后的数据形式与(1)中的指令代码相匹配。
(3)基于(1)中的指令代码对解析转发后的数据在感知定位计算平台进行计算处理,并得到检测结果并送入到存储器,规划控制平台从存储器读取实时检测结果,并根据有其他算法得到的定位感知结果在规划控制计算平台完成下游任务。
(4)车辆执行器根据下游任务相应的控制指令进行动作执行。
综上,本发明利用毫米波雷达在雾天下的感知鲁棒性来增强激光雷达点云特征,同时仍基于激光雷达点云进行目标的定位和检测也克服了毫米波雷达对高度信息感知误差大、数据分辨率低的不足,充分结合两种传感器在雾天场景下的优势。同时采用多帧数据进行多时空融合能够进一步增强数据表征,一定程度上缓解天气条件和目标运动带来的干扰,从而实现了雾天场景下鲁棒高效的3D目标检测。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (8)
1.一种雾天场景下多模态信息时空融合的3D目标检测方法,其特征在于, 包括以下步骤:
S1、 获取雾天场景下的激光雷达点云数据和毫米波雷达点云数据并分别进行预处理;
S2、将经过预处理的多帧激光雷达点云和毫米波雷达点云进行时空特征匹配,借助毫米波点云特征对激光雷达点云特征进行重采样,再进一步在时序上进行融合,得到初步的鸟瞰视角下时空融合特征;
S3、将鸟瞰视角下时空融合特征输入到基于自注意力的Transformer编码器,采用自注意力的方式进行特征编码,得到与原特征图尺寸相同但更高维的时空语义特征;
S4、将更高维的时空语义特征分别输入至目标分类检测头和边框回归检测头两个分支,输出最后的目标检测结果,包括物体类别和在空间中的位置;
其中步骤S2具体包括:
统一坐标系及鸟瞰图转换:将毫米波雷达点云转换至激光雷达坐标系下与其体素进行匹配,然后将所有的体素和点云特征转换空间位置投影至鸟瞰图上;
特征重采样及增强:将毫米波雷达点云作为中心,采用KNN搜索一定范围内的激光雷达生成的体素,并根据激光雷达有效体素和毫米波雷达点云数据之间的统计关系进行多尺度随机采样;最后将经过筛选的激光雷达点云体素和毫米波雷达点云进行关联和特征拼接,得到增强后的融合特征;统计关系指的是,在一定雾气浓度下,激光雷达数据和毫米波雷达数据量存在一定比例关系;多尺度指的是KNN根据多个范围进行搜索,在不同范围采样不同数量的数据;
将多帧点云及体素均按照以上方式处理,并以时间戳顺序进行排列便得到时空融合特征。
2.根据权利要求1所述的雾天场景下多模态信息时空融合的3D目标检测方法,其特征在于,将激光雷达点云数据提取为体素voxel,对毫米波雷达点云采用PointNet形式进行预处理。
3.根据权利要求1所述的雾天场景下多模态信息时空融合的3D目标检测方法,其特征在于,步骤S3具体包括以下步骤:
将2.5m×2.5m作为时空窗口的尺寸,并将不同时刻但同一位置的所有体素特征作为该时空窗口内的所有元素;
将划分后的40×40个时空窗口统一作为一个批次输入到基于自注意力的Transformer编码器中进行特征编码输出高维语义时空特征;
借助体素的坐标将高维语义特征重新映射表达为鸟瞰视角下规则栅格化的特征图。
4.根据权利要求1所述的雾天场景下多模态信息时空融合的3D目标检测方法,其特征在于,步骤S4具体包括以下步骤:
在高维的时空语义特征图的每个位置上布置朝向分别为0°和90°的基准框;
将布置了基准框后的时空语义特征图分别输入目标分类检测头和边框回归检测头两个分支的全连接层,得到网络物体类别评分和预测边框,基于评分将输入阈值低的检测框进行过滤,以得到高质量的检测框。
5.根据权利要求4所述的雾天场景下多模态信息时空融合的3D目标检测方法,其特征在于,基准框的尺寸根据数据集中某个类别标注数据的平均值获得,以减小网络学习的难度。
6.一种雾天场景下多模态信息时空融合的3D目标检测***,其特征在于,包括:
预处理模块,用于获取雾天场景下的激光雷达点云数据和毫米波雷达点云数据并分别进行预处理;
时空特征匹配模块,用于将经过预处理的多帧激光雷达点云和毫米波雷达点云进行时空特征匹配,借助毫米波点云特征对激光雷达点云特征进行重采样,再进一步在时序上进行融合,得到初步的鸟瞰视角下时空融合特征;
特征编码模块,用于将鸟瞰视角下时空融合特征输入到基于自注意力的Transformer编码器,采用自注意力的方式进行特征编码,得到与原特征图尺寸相同但更高维的时空语义特征;
分类模块,用于将更高维的时空语义特征分别输入至目标分类检测头和边框回归检测头两个分支,输出最后的目标检测结果,包括物体类别和在空间中的位置;
其中时空特征匹配模块具体用于:统一坐标系及鸟瞰图转换:将毫米波雷达点云转换至激光雷达坐标系下与其体素进行匹配,然后将所有的体素和点云特征转换空间位置投影至鸟瞰图上;
特征重采样及增强:将毫米波雷达点云作为中心,采用KNN搜索一定范围内的激光雷达生成的体素,并根据激光雷达有效体素和毫米波雷达点云数据之间的统计关系进行多尺度随机采样;最后将经过筛选的激光雷达点云体素和毫米波雷达点云进行关联和特征拼接,得到增强后的融合特征;统计关系指的是,在一定雾气浓度下,激光雷达数据和毫米波雷达数据量存在一定比例关系;多尺度指的是KNN根据多个范围进行搜索,在不同范围采样不同数量的数据;
将多帧点云及体素均按照以上方式处理,并以时间戳顺序进行排列便得到时空融合特征。
7.一种计算机存储介质,其特征在于,其内存储有可被处理器执行的计算机程序,该计算机程序执行权利要求1-5中任一项所述的雾天场景下多模态信息时空融合的3D目标检测方法。
8.一种车载雾天场景目标检测***,其特征在于,包括数据采集器、车载存储计算平台和车辆执行器,其中数据采集器包括激光雷达、相机、毫米波雷达、车辆数据传感器,车载存储计算平台内设有权利要求7所述的计算机存储介质,车辆执行器根据车载存储计算平台输出的控制指令执行相应的动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210945302.0A CN115393680B (zh) | 2022-08-08 | 2022-08-08 | 雾天场景下多模态信息时空融合的3d目标检测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210945302.0A CN115393680B (zh) | 2022-08-08 | 2022-08-08 | 雾天场景下多模态信息时空融合的3d目标检测方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115393680A CN115393680A (zh) | 2022-11-25 |
CN115393680B true CN115393680B (zh) | 2023-06-06 |
Family
ID=84118249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210945302.0A Active CN115393680B (zh) | 2022-08-08 | 2022-08-08 | 雾天场景下多模态信息时空融合的3d目标检测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393680B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115965961B (zh) * | 2023-02-23 | 2024-04-05 | 上海人工智能创新中心 | 局部到全局的多模态融合方法、***、设备及存储介质 |
CN116467848B (zh) * | 2023-03-21 | 2023-11-03 | 之江实验室 | 一种毫米波雷达点云仿真的方法和装置 |
CN116363615B (zh) * | 2023-03-27 | 2024-02-23 | 小米汽车科技有限公司 | 数据融合方法、装置、车辆和存储介质 |
CN117576150B (zh) * | 2023-11-03 | 2024-07-26 | 扬州万方科技股份有限公司 | 一种考虑远帧依赖关系的多模态多目标3d跟踪方法及装置 |
CN117953382B (zh) * | 2024-03-19 | 2024-07-16 | 中铁四局集团有限公司 | 探地雷达数据的时空特征融合方法及*** |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111830502B (zh) * | 2020-06-30 | 2021-10-12 | 广州小鹏自动驾驶科技有限公司 | 数据集的建立方法、车辆和存储介质 |
CN113158763B (zh) * | 2021-02-23 | 2021-12-07 | 清华大学 | 4d毫米波和激光点云多视角特征融合的三维目标检测方法 |
CN113506372A (zh) * | 2021-07-26 | 2021-10-15 | 西北工业大学 | 一种环境重建方法及装置 |
CN114814826B (zh) * | 2022-04-08 | 2023-06-16 | 苏州大学 | 一种基于目标网格的雷达轨行区环境感知方法 |
CN114763997A (zh) * | 2022-04-14 | 2022-07-19 | 中国第一汽车股份有限公司 | 车辆采集到的雷达点云数据的处理方法、装置及电子设备 |
CN114708585B (zh) * | 2022-04-15 | 2023-10-10 | 电子科技大学 | 一种基于注意力机制的毫米波雷达与视觉融合的三维目标检测方法 |
-
2022
- 2022-08-08 CN CN202210945302.0A patent/CN115393680B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115393680A (zh) | 2022-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115393680B (zh) | 雾天场景下多模态信息时空融合的3d目标检测方法及*** | |
US20230228880A1 (en) | Method for creating occupancy grid map and processing apparatus | |
CN111027401B (zh) | 一种摄像头和激光雷达融合的端到端目标检测方法 | |
CN111201451B (zh) | 基于场景的激光数据和雷达数据进行场景中的对象检测的方法及装置 | |
CN112464883B (zh) | 一种自然场景下船舶目标自动检测识别方法与*** | |
WO2020253121A1 (zh) | 目标检测方法和装置及智能驾驶方法、设备和存储介质 | |
US11651302B2 (en) | Method and device for generating synthetic training data for an artificial-intelligence machine for assisting with landing an aircraft | |
KR102681992B1 (ko) | 자율 주행을 위한 단일 계층 3차원 다중 객체 검출 장치 및 방법 | |
CN114972763A (zh) | 激光雷达点云分割方法、装置、设备及存储介质 | |
EP4047565A1 (en) | Low level sensor fusion based on lightweight semantic segmentation of 3d point clouds | |
CN114998856B (zh) | 一种多相机图像的3d目标检测方法、装置、设备及介质 | |
Sebastian et al. | RangeWeatherNet for LiDAR-only weather and road condition classification | |
CN114782785A (zh) | 多传感器信息融合方法及装置 | |
CN113313763A (zh) | 一种基于神经网络的单目相机位姿优化方法及装置 | |
CN111967373A (zh) | 一种基于摄像头和激光雷达的自适应强化融合实时实例分割方法 | |
CN115830265A (zh) | 一种基于激光雷达的自动驾驶运动障碍物分割方法 | |
CN116503803A (zh) | 障碍物检测方法、装置、电子设备以及存储介质 | |
CN117808689A (zh) | 基于毫米波雷达与摄像头融合的深度补全方法 | |
CN114118247A (zh) | 一种基于多传感器融合的无锚框3d目标检测方法 | |
CN112529011A (zh) | 目标检测方法及相关装置 | |
CN117148853A (zh) | 一种基于5g技术和深度学习的无人机环境自适应避障方法及*** | |
US20230105331A1 (en) | Methods and systems for semantic scene completion for sparse 3d data | |
CN116310304A (zh) | 一种水域图像分割的方法及其分割模型的训练方法、介质 | |
KR20230119334A (ko) | 레이더 클러터 제거를 위한 자가 집중 기법 적용 3차원 물체 검출 기술 | |
CN112766100A (zh) | 一种基于关键点的3d目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |