CN115393448A - 一种激光雷达与相机外参在线标定方法、装置及存储介质 - Google Patents

一种激光雷达与相机外参在线标定方法、装置及存储介质 Download PDF

Info

Publication number
CN115393448A
CN115393448A CN202210928215.4A CN202210928215A CN115393448A CN 115393448 A CN115393448 A CN 115393448A CN 202210928215 A CN202210928215 A CN 202210928215A CN 115393448 A CN115393448 A CN 115393448A
Authority
CN
China
Prior art keywords
branch
camera
calibration
depth
laser radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210928215.4A
Other languages
English (en)
Inventor
陈启军
苏帅
刘成菊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202210928215.4A priority Critical patent/CN115393448A/zh
Publication of CN115393448A publication Critical patent/CN115393448A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/067Reshaping or unfolding 3D tree structures onto 2D planes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于深度神经网络的激光雷达与相机外参在线标定方法、装置及存储介质,其中方法包括:搭建激光雷达和相机联合标定平台;标定相机内参;同步时间戳;获取灰度图像和点云并完成预处理;初始化外参;将点云转换到相机坐标系;基于随机掩膜方式,按照预配置的遮盖比例分别遮盖点云和灰度图像;将遮盖点云投影到图像平面,得到深度信息投影和反射率信息投影;构建外参在线标定网络,由输入分支、预测分支、融合分支和结构输出模块构成,通过融合深度信息投影、深度图、反射率信息投影、遮盖灰度图像的特征实现外参标定;训练外参在线标定网络;完成外参在线标定。与现有技术相比,本发明具有标定效果好、适用范围广等优点。

Description

一种激光雷达与相机外参在线标定方法、装置及存储介质
技术领域
本发明涉及测绘领域,尤其是涉及一种基于深度神经网络的激光雷达与相机外参在线标定方法、装置及存储介质。
背景技术
现有的激光雷达-相机外参在线标定算法通常使用PCA算法分割点云数据中的杆状目标,使用反射率和地面分割得到路面上的车道线;而对于图像数据中的线特征,现有方法常使用语义分割的方法得到稀疏的线特征。而现实场景存在着更多种类的线特征,这些线特征可以同时从点云和图像数据中提取出来,但需要更加鲁棒的算法来确保特征匹配的准确率,这种跨模态对应线匹配算法首先将点云投影至图像,然后使用ICP(IterativeClosest Point,迭代最近点)算法,寻找点云投影到图像中每个点与图像中特征线的最近邻关系。这种算法效率非常低,并且只能应对激光雷达和相机外参失准较少的情况。过去的标定***后端的优化问题通常为最小二乘问题,并且使用经典的LM(列文伯格·马尔夸特)算法来解决,而这要求标定***前端的特征匹配有着较好的鲁棒性。不同于相机之间的对应点关联,跨模态的激光雷达和相机之间的数据关联难度更高,往往需要场景中有较为清晰显著的线特征。而端到端激光雷达-相机标定***能够从原始激光数据和图像数据中,自主的学到有利于跨模态数据关联的隐空间特征,因此能在更广泛的场景下完成精确的激光雷达-相机外参在线标定。
过去的端到端激光雷达-相机外参标定只考虑了投影到图像平面的激光点的深度信息,深度信息表征了场景的三维空间结构,而反射率信息一定程度上表征了场景的纹理,但需要注意的是,除了场景的纹理材质造成的反射率差异,场景的深度同样会影响激光点的反射率,因此,如何融合深度信息和反射率信息,并超越只利用深度信息的方法的性能,就成了问题的关键。
发明内容
本发明的目的就是为了提供一种基于深度神经网络的激光雷达与相机外参在线标定方法、装置及存储介质,融合深度信息和反射率信息实现外参标定,并提高标定准确度。
本发明的目的可以通过以下技术方案来实现:
一种基于深度神经网络的激光雷达与相机外参在线标定方法,包括以下步骤:
步骤1)搭建激光雷达和相机联合标定平台;
步骤2)基于相机的镜头曲率确定畸变模型,并采用标定仪器标定相机内参,其中,相机内参包括畸变系数和投影矩阵;
步骤3)基于同步信号同步激光雷达和相机的时间戳;
步骤4)在联合标定平台运动过程中,根据激光雷达内部激光器的旋转方向和角度,将激光雷达获取的原始点云赋予微秒级时间戳,并去除运动畸变,得到预处理点云;
步骤5)获取联合标定平台运动过程中相机拍摄的图像并转化为灰度图像;
步骤6)初始化激光雷达和相机的外参,其中,所述外参表示激光雷达和相机的相对位姿关系;
步骤7)基于初始化外参将预处理点云转换到相机坐标系得到转换点云;
步骤8)基于随机掩膜方式,按照预配置的遮盖比例分别遮盖转换点云和灰度图像,得到遮盖点云和遮盖灰度图像;
步骤9)根据畸变系数和投影矩阵,将遮盖点云投影到图像平面,得到深度信息投影和反射率信息投影;
步骤10)构建端到端激光雷达与相机的外参在线标定网络,所述外参在线标定网络由输入分支、预测分支、融合分支和结构输出模块构成,
所述输入分支包括深度信息分支、深度估计分支、反射率信息分支和图像特征分支,其中,所述深度信息分支的输入为深度信息投影,输出为提取的深度信息投影的特征,深度估计分支的输入为基于深度估计网络对遮盖灰度图像进行深度估计得到的深度图,输出为提取的深度图的特征,所述反射率信息分支的输入为反射率信息投影,输出为提取的反射率信息投影的特征与被赋予通道注意力的深度信息分支的输出的级联结果,所述图像特征分支的输入为遮盖灰度图像,输出为提取的遮盖灰度图像的特征;
深度信息分支和深度估计分支的输出共同构成第一预测分支,第一预测分支的输出为六自由度外参,
反射率信息分支和图像特征分支的输出共同构成第二预测分支,第二预测分支的输出为六自由度外参,
深度信息分支、深度估计分支、反射率信息分支和图像特征分支的输出共同构成融合预测分支,融合预测分支的输出为六自由度外参,
所述结果输出模块基于损失权重监督三个分支的外参估计,将融合预测分支的外参估计结果作为最终的外参标定结果;
步骤11)在云端计算资源上训练外参在线标定网络;
步骤12)基于训练完成的外参在线标定网络完成激光雷达与相机外参的在线标定。
所述联合标定平台中激光雷达和相机的位置设置基于二者感知范围的重叠区域面积确定。
所述畸变模型包括Pinhole模型,Kannala-Brandt模型,MEI模型,Scaramuzza模型。
所述同步信号包括同步线、GPS。
所述深度估计网络为单目深度估计网络或双目深度估计网络。
所述六自由度外参包括3个平移参量和3个旋转参量。
所述深度信息分支和反射率信息分支不共享权重。
所述融合预测分支的损失权重大于深度预测分支的损失权重和反射率预测分支的损失权重。
一种基于深度神经网络的激光雷达与相机外参在线标定装置,包括存储器、处理器,以及存储于所述存储器中的程序,所述处理器执行所述程序时实现如上述所述的方法。
一种存储介质,其上存储有程序,所述程序被执行时实现如上述所述的方法。
与现有技术相比,本发明具有以下有益效果:
(1)本发明构建了端到端激光雷达与相机的外参在线标定网络,基于特征级信息融合方法融合了深度信息和反射率信息,实现了外参标定,适用于更多更复杂的标定场景,提高了标定性能。
(2)本发明采用了随机掩膜的方式随机遮盖点云和图像,实现了数据增强,在不增加采集成本的情况下,极大地增强了数据多样性,有效克服了数据过拟合的问题。
附图说明
图1为本发明的方法流程图;
图2为本发明端到端激光雷达与相机的外参在线标定网络的结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
一种基于深度神经网络的激光雷达与相机外参在线标定方法,如图1所示,包括以下步骤:
步骤1)搭建激光雷达和相机联合标定平台。
所述联合标定平台中激光雷达和相机的位置设置基于二者感知范围的重叠区域面积确定,应当保证重叠区域面积较大。
步骤2)基于相机的镜头曲率确定畸变模型,并采用高精度标定仪器(如:高精度棋盘格靶标)标定相机内参,其中,相机内参包括畸变系数和投影矩阵。
所述畸变模型包括Pinhole模型,Kannala-Brandt模型,MEI模型,Scaramuzza模型。
步骤3)基于同步线或GPS等同步信号同步激光雷达和相机的时间戳。
步骤4)在联合标定平台运动过程中,根据激光雷达内部激光器的旋转方向和角度,将激光雷达获取的原始点云赋予微秒级时间戳,并去除运动畸变,得到预处理点云。
步骤5)获取联合标定平台运动过程中相机拍摄的图像并转化为灰度图像。
步骤6)初始化激光雷达和相机的外参,其中,所述外参表示激光雷达和相机的相对位姿关系。
步骤7)基于初始化外参将预处理点云转换到相机坐标系得到转换点云。
步骤8)基于随机掩膜方式,按照预配置的遮盖比例分别遮盖转换点云和灰度图像,得到遮盖点云和遮盖灰度图像。
随机掩膜可以达到数据增广的目的,从而提升模型鲁棒性,可以有效扩展算法的应用场景。
步骤9)根据畸变系数和投影矩阵,将遮盖点云投影到图像平面,得到深度信息投影和反射率信息投影。
步骤10)构建端到端激光雷达与相机的外参在线标定网络,如图2所示。
所述外参在线标定网络由输入分支、预测分支、融合分支和结构输出模块构成,
所述输入分支包括深度信息分支、深度估计分支、反射率信息分支和图像特征分支。由于深度和反射率表征具有差异,深度信息分支和反射率信息分支不共享权重。
深度信息分支的输入为深度信息投影,输出为提取的深度信息投影的特征。
深度估计分支的输入为基于深度估计网络对遮盖灰度图像进行深度估计得到的深度图,深度估计网络为单目深度估计网络或双目深度估计网络,具体根据适用场景和实际需求确定,输出为提取的深度图的特征。此深度估计过程具体属于本领域的常规设置,为了避免本申请的目的模糊,故在此不再赘述。
所述反射率信息分支的输入为反射率信息投影,输出为提取的反射率信息投影的特征与被赋予通道注意力的深度信息分支的输出的级联结果。反射率信息分支级联深度信息分支的目的在于让反射率信息分支学习到深度信息,减少因深度信息对反射率衰减的影响,让反射率分支尽可能保留纹理信息。
图像特征分支的输入为遮盖灰度图像,输出为提取的遮盖灰度图像的特征;
深度信息分支和深度估计分支的输出共同构成第一预测分支,第一预测分支的输出为六自由度外参。
反射率信息分支和图像特征分支的输出共同构成第二预测分支,第二预测分支的输出为六自由度外参。
深度信息分支、深度估计分支、反射率信息分支和图像特征分支的输出共同构成融合预测分支,融合预测分支的输出为六自由度外参。
所述六自由度外参包括3个平移参量和3个旋转参量。
所述结果输出模块基于损失权重监督三个分支的外参估计,将融合预测分支的外参估计结果作为最终的外参标定结果。融合预测分支的损失权重大于深度预测分支的损失权重和反射率预测分支的损失权重。
步骤11)在云端计算资源上训练外参在线标定网络;
步骤12)基于训练完成的外参在线标定网络完成激光雷达与相机外参的在线标定。
上述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本实施例中,采用64线激光雷达和Pinhole相机成像模型相机进行上述外参在线标定方法的验证。初始外参的旋转参量均设置为0,平移参量分别设置为tx=-40mm,ty=-750mm,tz=2700mm,输入图像的分辨率被统一调整为640×480像素,训练采用Adam优化器。随机掩膜的遮盖比例为30%,可以将数据增广为原数据的30倍。训练的迭代次数设置为100,初始学***均重投影误差,满足绝大多数三维重建应用场景的需求,具有较好的标定效果。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依据本发明的构思在现有技术的基础上通过逻辑分析、推理、或者有限的实验可以得到的技术方案,皆应在权利要求书所确定的保护范围内。

Claims (10)

1.一种基于深度神经网络的激光雷达与相机外参在线标定方法,其特征在于,包括以下步骤:
步骤1)搭建激光雷达和相机联合标定平台;
步骤2)基于相机的镜头曲率确定畸变模型,并采用标定仪器标定相机内参,其中,相机内参包括畸变系数和投影矩阵;
步骤3)基于同步信号同步激光雷达和相机的时间戳;
步骤4)在联合标定平台运动过程中,根据激光雷达内部激光器的旋转方向和角度,将激光雷达获取的原始点云赋予微秒级时间戳,并去除运动畸变,得到预处理点云;
步骤5)获取联合标定平台运动过程中相机拍摄的图像并转化为灰度图像;
步骤6)初始化激光雷达和相机的外参,其中,所述外参表示激光雷达和相机的相对位姿关系;
步骤7)基于初始化外参将预处理点云转换到相机坐标系得到转换点云;
步骤8)基于随机掩膜方式,按照预配置的遮盖比例分别遮盖转换点云和灰度图像,得到遮盖点云和遮盖灰度图像;
步骤9)根据畸变系数和投影矩阵,将遮盖点云投影到图像平面,得到深度信息投影和反射率信息投影;
步骤10)构建端到端激光雷达与相机的外参在线标定网络,所述外参在线标定网络由输入分支、预测分支、融合分支和结构输出模块构成,
所述输入分支包括深度信息分支、深度估计分支、反射率信息分支和图像特征分支,其中,所述深度信息分支的输入为深度信息投影,输出为提取的深度信息投影的特征,深度估计分支的输入为基于深度估计网络对遮盖灰度图像进行深度估计得到的深度图,输出为提取的深度图的特征,所述反射率信息分支的输入为反射率信息投影,输出为提取的反射率信息投影的特征与被赋予通道注意力的深度信息分支的输出的级联结果,所述图像特征分支的输入为遮盖灰度图像,输出为提取的遮盖灰度图像的特征;
深度信息分支和深度估计分支的输出共同构成第一预测分支,第一预测分支的输出为六自由度外参,
反射率信息分支和图像特征分支的输出共同构成第二预测分支,第二预测分支的输出为六自由度外参,
深度信息分支、深度估计分支、反射率信息分支和图像特征分支的输出共同构成融合预测分支,融合预测分支的输出为六自由度外参,
所述结果输出模块基于损失权重监督三个分支的外参估计,将融合预测分支的外参估计结果作为最终的外参标定结果;
步骤11)在云端计算资源上训练外参在线标定网络;
步骤12)基于训练完成的外参在线标定网络完成激光雷达与相机外参的在线标定。
2.根据权利要求1所述的一种基于深度神经网络的激光雷达与相机外参在线标定方法,其特征在于,所述联合标定平台中激光雷达和相机的位置设置基于二者感知范围的重叠区域面积确定。
3.根据权利要求1所述的一种基于深度神经网络的激光雷达与相机外参在线标定方法,其特征在于,所述畸变模型包括Pinhole模型,Kannala-Brandt模型,MEI模型,Scaramuzza模型。
4.根据权利要求1所述的一种基于深度神经网络的激光雷达与相机外参在线标定方法,其特征在于,所述同步信号包括同步线、GPS。
5.根据权利要求1所述的一种基于深度神经网络的激光雷达与相机外参在线标定方法,其特征在于,所述深度估计网络为单目深度估计网络或双目深度估计网络。
6.根据权利要求1所述的一种基于深度神经网络的激光雷达与相机外参在线标定方法,其特征在于,所述六自由度外参包括3个平移参量和3个旋转参量。
7.根据权利要求1所述的一种基于深度神经网络的激光雷达与相机外参在线标定方法,其特征在于,所述深度信息分支和反射率信息分支不共享权重。
8.根据权利要求1所述的一种基于深度神经网络的激光雷达与相机外参在线标定方法,其特征在于,所述融合预测分支的损失权重大于深度预测分支的损失权重和反射率预测分支的损失权重。
9.一种基于深度神经网络的激光雷达与相机外参在线标定装置,包括存储器、处理器,以及存储于所述存储器中的程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-8中任一所述的方法。
10.一种存储介质,其上存储有程序,其特征在于,所述程序被执行时实现如权利要求1-8中任一所述的方法。
CN202210928215.4A 2022-08-03 2022-08-03 一种激光雷达与相机外参在线标定方法、装置及存储介质 Pending CN115393448A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210928215.4A CN115393448A (zh) 2022-08-03 2022-08-03 一种激光雷达与相机外参在线标定方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210928215.4A CN115393448A (zh) 2022-08-03 2022-08-03 一种激光雷达与相机外参在线标定方法、装置及存储介质

Publications (1)

Publication Number Publication Date
CN115393448A true CN115393448A (zh) 2022-11-25

Family

ID=84118164

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210928215.4A Pending CN115393448A (zh) 2022-08-03 2022-08-03 一种激光雷达与相机外参在线标定方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN115393448A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116203542A (zh) * 2022-12-31 2023-06-02 中山市博测达电子科技有限公司 激光雷达畸变的测试标定方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116203542A (zh) * 2022-12-31 2023-06-02 中山市博测达电子科技有限公司 激光雷达畸变的测试标定方法
CN116203542B (zh) * 2022-12-31 2023-10-03 中山市博测达电子科技有限公司 激光雷达畸变的测试标定方法

Similar Documents

Publication Publication Date Title
CN113052835B (zh) 一种基于三维点云与图像数据融合的药盒检测方法及其检测***
CN110689562A (zh) 一种基于生成对抗网络的轨迹回环检测优化方法
CN113610172B (zh) 神经网络模型训练方法和装置、传感数据融合方法和装置
CN113050074B (zh) 无人驾驶环境感知中相机与激光雷达标定***及标定方法
CN113724379B (zh) 融合图像与激光点云的三维重建方法及装置
CN116612468A (zh) 基于多模态融合与深度注意力机制的三维目标检测方法
CN113298947A (zh) 一种基于多源数据融合的变电站三维建模方法介质及***
CN115147709B (zh) 一种基于深度学习的水下目标三维重建方法
CN114677479A (zh) 一种基于深度学习的自然景观多视图三维重建方法
CN113963117A (zh) 一种基于可变卷积深度网络的多视图三维重建方法及装置
CN116310219A (zh) 一种基于条件扩散模型的三维脚型生成方法
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计***
CN114332125A (zh) 点云重建方法、装置、电子设备和存储介质
CN115393448A (zh) 一种激光雷达与相机外参在线标定方法、装置及存储介质
CN113850189B (zh) 一种应用于机动平台的嵌入式孪生网络实时跟踪方法
CN112489189B (zh) 一种神经网络的训练方法及***
CN114519681A (zh) 自动标定方法及装置、计算机可读存储介质、终端
CN113936047A (zh) 稠密深度图生成方法及***
CN117152330B (zh) 一种基于深度学习的点云3d模型贴图方法和装置
CN116740488B (zh) 一种用于视觉定位的特征提取模型的训练方法及装置
CN116091871B (zh) 一种针对目标检测模型的物理对抗样本生成方法及装置
CN112487893B (zh) 一种三维目标识别方法及***
Yang et al. Research on Edge Detection of LiDAR Images Based on Artificial Intelligence Technology
CN113066165B (zh) 多阶段无监督学习的三维重建方法、装置和电子设备
Wada et al. Dataset Genreratoin for Semantic Segmentation from 3D Scanned Data Considering Domain Gap

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination