CN117994309A - 一种基于大模型的slam激光点云与全景影像自动配准方法 - Google Patents
一种基于大模型的slam激光点云与全景影像自动配准方法 Download PDFInfo
- Publication number
- CN117994309A CN117994309A CN202410404412.5A CN202410404412A CN117994309A CN 117994309 A CN117994309 A CN 117994309A CN 202410404412 A CN202410404412 A CN 202410404412A CN 117994309 A CN117994309 A CN 117994309A
- Authority
- CN
- China
- Prior art keywords
- panoramic
- point cloud
- slam
- pose
- panoramic image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000036544 posture Effects 0.000 claims description 6
- 230000003068 static effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006798 recombination Effects 0.000 description 2
- 238000005215 recombination Methods 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供了一种基于大模型的SLAM激光点云与全景影像自动配准方法,包括:计算全景相机到SLAM***的位姿;确定全景相机的曝光时间区间;根据所述曝光时间区间,确定全景相机对应的全景影像对应的位姿;根据所述全景影像对应的位姿得到对应的全景深度图集;基于全景影像深估计算法,根据全景深度图集,得到最优全景深度图;根据所述最优全景深度图得到全景相机和SLAM***的最优匹配点云。本发明解决了现有技术中影像点云和激光点云的配准获取的全景影像位姿准确率低下的问题。
Description
技术领域
本发明涉及SLAM激光点云技术领域,特别是涉及一种基于大模型的SLAM激光点云与全景影像自动配准方法。
背景技术
测绘用激光SLAM***可以采集室内环境的高精度点云和全景影像,这种SLAM***的特点是小型化、轻量化。因此配置的传感器都是轻量级的,包括激光、IMU、相机等。例如激光一般采用为16线或32线的多线激光,重量300g~900g,全景相机重量一般为100g~300g,这种小型全景相机具有优秀的拍摄能力,可以生成1000万~1.0亿像素的高质量全景影像。但这种相机不是工业相机,无法提供授时接口,在SLAM***中,一般只能用全景相机的SDK(二次开发包)向相机发送拍照指令,相机接收指令后再进行拍照。但相机从收到指令到曝光之间的时间间隔不固定,也就是全景影像不能提供精确的曝光时间,这种时间的不准确性导致了全景影像和SLAM激光点云无法精确配准,后续的点云着色、全景量测等常用功能出现问题。
如图1所示,背负式SLAM***简介:Simultaneous Localization and Mapping(同步定位与地图构建技术),即在一个未知环境下通过视觉(称为视觉SLAM)或激光(称为激光SLAM)采集环境,从而反算本身的位置,然后继续感知环境,通过不断迭代,实现对未知环境的三维空间感知。一般激光SLAM***包括激光器、IMU(Inertia Measurement Unit,惯性测量单元)、全景相机、工控机,其中激光器负责感知三维空间,IMU辅助提供设备的姿态,全景影像为点云赋色及提供环境的实景纹理,工控机负责时间同步和部分计算功能。背负式的SLAM***通过定制化的背架进行连接,在作业员行走过程中获取周围环境的激光点云。
利用全景视频模式获取影像,通过序列影像的密集匹配产生的影像点云,该点云与激光点云进行配准,反算全景影像的位姿。缺点是:室内环境光照变换剧烈,生成的影像点云质量很差,导致影像点云和激光点云的配准获取的全景影像位姿不准确。另外,视频全景影像数据量巨大,对数据存储造成极大压力。
发明内容
为了克服现有技术的不足,本发明的目的是提供一种基于大模型的SLAM激光点云与全景影像自动配准方法,本发明解决了现有技术中影像点云和激光点云的配准获取的全景影像位姿准确率低下的问题。
为实现上述目的,本发明提供了如下方案:
一种基于大模型的SLAM激光点云与全景影像自动配准方法,包括:
计算全景相机到SLAM***的位姿;
确定全景相机的曝光时间区间;
根据所述曝光时间区间,确定全景相机对应的全景影像对应的位姿;
根据所述全景影像对应的位姿得到对应的全景深度图集;
基于全景影像深估计算法,根据全景深度图集,得到最优全景深度图;
根据所述最优全景深度图得到全景相机和SLAM***的最优匹配点云。
优选地,所述计算全景相机到SLAM***的位姿包括:
获取标定室的真值点云;
将SLAM***静止在标定室靠中间位置进行扫描和拍照,获取SLAM***的激光点云和全景相机的全景影像;
将所述激光点云和所述真值点云进行ICP配准,得到SLAM***在真值点云坐标系下的位姿;
根据所述全景影像和真值点云,得到全景影像在真值点云坐标系下的位姿;
根据所述SLAM***的激光点云和全景相机的全景影像和所述全景影像在真值点云坐标系下的位姿,得到全景相机到SLAM***的位姿。
优选地,所述确定全景相机的曝光时间区间为100毫秒到1000毫秒。
优选地,所述根据所述曝光时间区间,确定全景相机对应的全景影像对应的位姿,包括:
根据所述曝光时间区间,获取第一预设时间和第二预设时间对应的SLAM位置和姿态;
根据所述第一预设时间和第二预设时间对应的SLAM位置和姿态,利用插值计算,确定第一预设时间和第二预设时间之间的某一时刻所对应的SLAM***的位姿;
根据所述SLAM***的位姿和所述全景相机到SLAM***的位姿,得到全景影像对应的位姿。
优选地,所述SLAM***的位姿,包括:
位置量和旋转量。
优选地,所述位置量通过线性内插得到。
优选地,旋转量通过球面线性内插获得。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供了一种基于大模型的SLAM激光点云与全景影像自动配准方法,包括:计算全景相机到SLAM***的位姿;确定全景相机的曝光时间区间;根据所述曝光时间区间,确定全景相机对应的全景影像对应的位姿;根据所述全景影像对应的位姿得到对应的全景深度图集;基于全景影像深估计算法,根据全景深度图集,得到最优全景深度图;根据所述最优全景深度图得到全景相机和SLAM***的最优匹配点云。本发明通过确定曝光时间区间,再此区间内,采用基于大模型的深度学习技术,实现最优选择,实现误差最小,从而确定全景的最优姿态。提升了全景影像和SLAM***点云配准的精确度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的背负式SLAM***示意图;
图2为本发明实施例提供的一种基于大模型的SLAM激光点云与全景影像自动配准方法流程图;
图3为本发明实施例提供的图球面线性内插示意图;
图4为本发明实施例提供的大模型辅助的全景影像深度估计网络架构示意图;
图5为本发明实施例提供的解码器架构图;
图6为本发明实施例提供的全景深度图与点云配准示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于大模型的SLAM激光点云与全景影像自动配准方法,本发明解决了现有技术中影像点云和激光点云的配准获取的全景影像位姿准确率低下的问题。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图2所示,本发明提供了一种基于大模型的SLAM激光点云与全景影像自动配准方法,包括:
步骤100:计算全景相机到SLAM***的位姿;
步骤200:确定全景相机的曝光时间区间;
步骤300:根据所述曝光时间区间,确定全景相机对应的全景影像对应的位姿;
步骤400:根据所述全景影像对应的位姿得到对应的全景深度图集;
步骤500:基于全景影像深估计算法,根据全景深度图集,得到最优全景深度图;
步骤600:根据所述最优全景深度图得到全景相机和SLAM***的最优匹配点云。
进一步的,所述计算全景相机到SLAM***的位姿包括:
获取标定室的真值点云;
将SLAM***静止在标定室靠中间位置进行扫描和拍照,获取SLAM***的激光点云和全景相机的全景影像;
将所述激光点云和所述真值点云进行ICP配准,得到SLAM***在真值点云坐标系下的位姿;
根据所述全景影像和真值点云,得到全景影像在真值点云坐标系下的位姿;
根据所述SLAM***的激光点云和全景相机的全景影像和所述全景影像在真值点云坐标系下的位姿,得到全景相机到SLAM***的位姿。
具体的,①选取一个六面体房间,打印多张不少于20cm×20cm的二维码,贴到房间的不同墙面上,注意高低错落,利用工业级固定站激光扫描仪(如Faro、Z+F等)扫描获取标定场的真值点云;②将SLAM***静止在标定室靠中间位置进行扫描和拍照,记录激光点云和全景影像。③通过获取的SLAM点云与真值点云进行ICP配准,从而获取激光器在真值点云坐标系下的位姿,记为;④在全景影像和真值点云的灰度图(灰度图可以识别颜色)上选取4对以上的同名点,建立方程求解全景影像在真值点云坐标系下的位姿,记为/>;⑤根据这两个位姿,计算全景相机到多线激光的位姿为:/>=/>。
该即为全景相机和SLAM***的初始空间关系。
进一步的,所述确定全景相机的曝光时间区间为100毫秒到1000毫秒。
具体的,SLAM***中全景影像的曝光时间不能精确确定,但可以确定处于在一定时间范围内,这个时间就是曝光延迟的时间,从SLAM***发出相机曝光指令,相机根据环境光照及相机自身预设参数,会在一个可控的时间范围内完成曝光,根据测试发现90%的情况会在300毫秒到600毫秒完成,因此设延迟为100毫秒到1000毫秒,这个延迟区间可以完全覆盖真实曝光时间。
进一步的,所述根据所述曝光时间区间,确定全景相机对应的全景影像对应的位姿,包括:
根据所述曝光时间区间,获取第一预设时间和第二预设时间对应的SLAM位置和姿态;
根据所述第一预设时间和第二预设时间对应的SLAM位置和姿态,利用插值计算,确定第一预设时间和第二预设时间之间的某一时刻所对应的SLAM***的位姿;
根据所述SLAM***的位姿和所述全景相机到SLAM***的位姿,得到全景影像对应的位姿。
具体的,任意曝光时刻的SLAM轨迹(位姿)的求取:
SLAM轨迹的数据格式为:
time时间, xyz位置,3×3旋转矩阵
因此,只要确定了曝光时间,就可以对应求得全景相机的位姿。设t时刻SLAM***给全景相机发出曝光指令,则真值曝光必然在区间(t+100,~t+1000)(时间单位:毫秒)以毫秒为时间单位。
设全景相机的准确曝光为,从SLAM轨迹上根据time1≤/>&& />≤time2,找到time1和time2,获取time1和time2对应的SLAM位置和姿态,进行插值计算,可以计算/>时刻SLAM***的位姿,设为/>。通过全景相机和SLAM坐标系的初始空间变换关系/>(见步骤1),即可求该全景影像对应的位姿:/>=/>
所述SLAM***的位姿,包括:
位置量和旋转量。
具体的,其中位置量可以直接线性内插获得,旋转量需要以球面线性内插(Spherical Linear Interpolation,slerp)获得。
旋转量需要将矩阵变换为四元数(quaternion)后进行球面内插,设旋转矩阵T1,T2转为四元数为Q1,Q2,如图3所示。
则当前时刻对应的旋转量Qi为:
;
其中:。
r表示当前帧在相邻变换的权重,取值范围为0.0~1.0,计算方法为:
其中i为当前帧序号,为第一段(section)的开始帧号,/>为第二段的结束帧号。
求取任意时刻下SLAM轨迹的位姿,也即获得了任意时刻的全景影像的位姿。
更进一步的,本发明将利用“大模型”+激光点云监督的方法获取对预定区间内所有位姿进行计算,从而获得最佳时刻,从而获得最佳全景位姿。
如图4-5所示,深度预测首先将全景图进行等距圆柱投影,将该图映射到多个视角上的多个patches,每个patch的畸变可忽略不计,将patch送入网络预测深度,所有patch预测结果合并为一个等距圆柱投影形式。为了保证不同patch深度预测的连续性,我们引入语义分割分支,在语义信息的监督下,实现深度预测的一致性。
深度估计分支:该分支基于全景影像的柱状投影,进行密集的全局深度估计。采用编码与自编码结构,编码器采用基于dinov2大模型初始化的vision transformer(ViT)作为骨干网络(backbone)提取强特征。
语义分割分支:该分支基于全景影像的六面体投影,进行全景影像的语义分割。采用与深度估计分支同样的backbone,权重共享,尽在任务head部分不与上一分支共享权重。
解码器:由重组与融合模块组成。重组模块将transformer块输出进行映射、连接、投影,并按照空间分辨率重采样工作。融合模块利用残差卷积单元对重组模块的输出特征进行融合,并对特征图进行2倍的上采样。
损失函数:
(1)深度估计分支采用Inverse Huber损失
,该损失在d小于c时执行L1损失,在d大于c时,执行L2损失。d表示每个像素预测深度
与真值
的差,在每次梯度下降时
, i表示每批次每张影像所有像素的索引,
=0.2,为每批次最大错误率。
(2)语义分割分支采用交叉熵损失函数,计算预测分割结果与真值分割结果的交叉熵Ls。
总的损失函数为:;
预训练模型与数据集
本方法backbone采用的预训练模型为dinov2,深度预测训练集为NYU深度数据集,其中包含深度数据与语义标签数据。
进一步的,全景深度图与激光点云进行配准。
本发明还提供了另一个实施例:
如图6所示,图像预处理:设全景影像曝光时间区间为[t+100,t+1000]/ms,以ti时刻对应的全景位姿(见步骤3),设为M,从成果点云上生成点云深度图。
a)开辟一张与全景影像等大小(为了快速计算,可以一定程度等比例缩小)虚拟图形,作为深度图,设为。
b)计算激光点P(x,y,z)在全景球下的坐标:
c)计算全景球坐标系下(O为坐标原点,即0,0,0)的长度ri和对应的球面经纬度(wu,hv)。
d)则深度图可表示为:DepthMap(wu,hv)=ri,其中(wu,hv)需要缩放到预设的深度图尺寸。
e)当有多个激光点都对应同一个(wu,hv)时,取深度小者。
按上述算法,计算场景内所有激光点云,从而生成点云深度图。为了快速计算,可以只选取与ti时刻位置在一定距离阈值的激光点云参与计算,如50米内。
特征提取:利用SIFT、FAST等技术,提取角点特征。
特征匹配:常利用最近邻匹配,并用随机采样一致性,利用空间位置关系剔除误匹配点
获得匹配点对后,利用梯度下降法或高斯-牛顿法估计深度图像变换矩阵。
评估配准精度。将ti时刻配准精度最高的点云深度图作为与该深度图最佳的匹配图像,从而获得最佳匹配时刻点云。
本发明的有益效果如下:
本发明提供了一种基于大模型的SLAM激光点云与全景影像自动配准方法,包括:计算全景相机到SLAM***的位姿;确定全景相机的曝光时间区间;根据所述曝光时间区间,确定全景相机对应的全景影像对应的位姿;根据所述全景影像对应的位姿得到对应的全景深度图集;基于全景影像深估计算法,根据全景深度图集,得到最优全景深度图;根据所述最优全景深度图得到全景相机和SLAM***的最优匹配点云。本发明通过确定曝光时间区间,再此区间内,采用基于大模型的深度学习技术,实现最优选择,实现误差最小,从而确定全景的最优姿态。提升了全景影像和SLAM***点云配准的精确度。从而获取测绘级的全景位姿,为测绘、建模、AR等众多场景的应用提供了有力的技术支撑。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (7)
1.一种基于大模型的SLAM激光点云与全景影像自动配准方法,其特征在于,包括:
计算全景相机到SLAM***的位姿;
确定全景相机的曝光时间区间;
根据所述曝光时间区间,确定全景相机对应的全景影像对应的位姿;
根据所述全景影像对应的位姿得到对应的全景深度图集;
基于全景影像深估计算法,根据全景深度图集,得到最优全景深度图;
根据所述最优全景深度图得到全景相机和SLAM***的最优匹配点云。
2.根据权利要求1所述的一种基于大模型的SLAM激光点云与全景影像自动配准方法,其特征在于,所述计算全景相机到SLAM***的位姿包括:
获取标定室的真值点云;
将SLAM***静止在标定室靠中间位置进行扫描和拍照,获取SLAM***的激光点云和全景相机的全景影像;
将所述激光点云和所述真值点云进行ICP配准,得到SLAM***在真值点云坐标系下的位姿;
根据所述全景影像和真值点云,得到全景影像在真值点云坐标系下的位姿;
根据所述SLAM***的激光点云和全景相机的全景影像和所述全景影像在真值点云坐标系下的位姿,得到全景相机到SLAM***的位姿。
3.根据权利要求1所述的一种基于大模型的SLAM激光点云与全景影像自动配准方法,其特征在于,所述确定全景相机的曝光时间区间为100毫秒到1000毫秒。
4.根据权利要求1所述的一种基于大模型的SLAM激光点云与全景影像自动配准方法,其特征在于,所述根据所述曝光时间区间,确定全景相机对应的全景影像对应的位姿,包括:
根据所述曝光时间区间,获取第一预设时间和第二预设时间对应的SLAM位置和姿态;
根据所述第一预设时间和第二预设时间对应的SLAM位置和姿态,利用插值计算,确定第一预设时间和第二预设时间之间的某一时刻所对应的SLAM***的位姿;
根据所述SLAM***的位姿和所述全景相机到SLAM***的位姿,得到全景影像对应的位姿。
5.根据权利要求4所述的一种基于大模型的SLAM激光点云与全景影像自动配准方法,其特征在于,所述SLAM***的位姿,包括:
位置量和旋转量。
6.根据权利要求5所述的一种基于大模型的SLAM激光点云与全景影像自动配准方法,其特征在于,所述位置量通过线性内插得到。
7.根据权利要求5所述的一种基于大模型的SLAM激光点云与全景影像自动配准方法,其特征在于,旋转量通过球面线性内插获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410404412.5A CN117994309A (zh) | 2024-04-07 | 2024-04-07 | 一种基于大模型的slam激光点云与全景影像自动配准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410404412.5A CN117994309A (zh) | 2024-04-07 | 2024-04-07 | 一种基于大模型的slam激光点云与全景影像自动配准方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117994309A true CN117994309A (zh) | 2024-05-07 |
Family
ID=90901024
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410404412.5A Pending CN117994309A (zh) | 2024-04-07 | 2024-04-07 | 一种基于大模型的slam激光点云与全景影像自动配准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117994309A (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110415342A (zh) * | 2019-08-02 | 2019-11-05 | 深圳市唯特视科技有限公司 | 一种基于多融合传感器的三维点云重建装置与方法 |
US20200363202A1 (en) * | 2019-05-17 | 2020-11-19 | Hexagon Technology Center Gmbh | Fully automatic position and alignment determination method for a terrestrial laser scanner and method for ascertaining the suitability of a position for a deployment for surveying |
CN113240813A (zh) * | 2021-05-12 | 2021-08-10 | 北京三快在线科技有限公司 | 三维点云信息确定方法及装置 |
CN113390409A (zh) * | 2021-07-09 | 2021-09-14 | 广东机电职业技术学院 | 一种机器人全程自主探索导航实现slam技术的方法 |
CN113724303A (zh) * | 2021-09-07 | 2021-11-30 | 广州文远知行科技有限公司 | 点云与图像匹配方法、装置、电子设备和存储介质 |
CN114677435A (zh) * | 2021-07-20 | 2022-06-28 | 武汉海云空间信息技术有限公司 | 一种点云全景融合要素提取方法和*** |
US20230094308A1 (en) * | 2021-09-30 | 2023-03-30 | Dalian University Of Technology | Dataset generation method for self-supervised learning scene point cloud completion based on panoramas |
CN116299367A (zh) * | 2023-05-18 | 2023-06-23 | 中国测绘科学研究院 | 一种多激光空间标定方法 |
CN116342664A (zh) * | 2023-05-18 | 2023-06-27 | 中国测绘科学研究院 | 一种slam精度增强方法 |
CN116777963A (zh) * | 2023-07-13 | 2023-09-19 | 浙江吉利控股集团有限公司 | 一种点云和图像配准方法、装置、电子设备及存储介质 |
-
2024
- 2024-04-07 CN CN202410404412.5A patent/CN117994309A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200363202A1 (en) * | 2019-05-17 | 2020-11-19 | Hexagon Technology Center Gmbh | Fully automatic position and alignment determination method for a terrestrial laser scanner and method for ascertaining the suitability of a position for a deployment for surveying |
CN110415342A (zh) * | 2019-08-02 | 2019-11-05 | 深圳市唯特视科技有限公司 | 一种基于多融合传感器的三维点云重建装置与方法 |
CN113240813A (zh) * | 2021-05-12 | 2021-08-10 | 北京三快在线科技有限公司 | 三维点云信息确定方法及装置 |
CN113390409A (zh) * | 2021-07-09 | 2021-09-14 | 广东机电职业技术学院 | 一种机器人全程自主探索导航实现slam技术的方法 |
CN114677435A (zh) * | 2021-07-20 | 2022-06-28 | 武汉海云空间信息技术有限公司 | 一种点云全景融合要素提取方法和*** |
CN113724303A (zh) * | 2021-09-07 | 2021-11-30 | 广州文远知行科技有限公司 | 点云与图像匹配方法、装置、电子设备和存储介质 |
US20230094308A1 (en) * | 2021-09-30 | 2023-03-30 | Dalian University Of Technology | Dataset generation method for self-supervised learning scene point cloud completion based on panoramas |
CN116299367A (zh) * | 2023-05-18 | 2023-06-23 | 中国测绘科学研究院 | 一种多激光空间标定方法 |
CN116342664A (zh) * | 2023-05-18 | 2023-06-27 | 中国测绘科学研究院 | 一种slam精度增强方法 |
CN116777963A (zh) * | 2023-07-13 | 2023-09-19 | 浙江吉利控股集团有限公司 | 一种点云和图像配准方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
GB2580691A (en) | Depth estimation | |
CN114666564B (zh) | 一种基于隐式神经场景表示进行虚拟视点图像合成的方法 | |
CN113689578B (zh) | 一种人体数据集生成方法及装置 | |
CN113686314B (zh) | 船载摄像头的单目水面目标分割及单目测距方法 | |
CN111144349A (zh) | 一种室内视觉重定位方法及*** | |
CN110782498A (zh) | 一种视觉传感网络的快速通用标定方法 | |
CN116778288A (zh) | 一种多模态融合目标检测***及方法 | |
CN114792345B (zh) | 一种基于单目结构光***的标定方法 | |
JP2023546739A (ja) | シーンの3次元モデルを生成するための方法、装置、およびシステム | |
CN111739103A (zh) | 一种基于单点标定物的多相机标定*** | |
CN114627240A (zh) | 一种抽沙船在河道数字孪生模型中三维重建与定位的方法 | |
CN115527016A (zh) | 一种三维gis视频融合注册方法、***、介质、设备及终端 | |
CN113345084B (zh) | 三维建模***及三维建模方法 | |
CN114266823A (zh) | 一种结合SuperPoint网络特征提取的单目SLAM方法 | |
CN111742352B (zh) | 对三维对象进行建模的方法和电子设备 | |
CN113065506A (zh) | 一种人体姿态识别方法及*** | |
CN114935316B (zh) | 基于光学跟踪与单目视觉的标准深度图像生成方法 | |
CN116797733A (zh) | 实时三维物体动态重建方法 | |
CN117994309A (zh) | 一种基于大模型的slam激光点云与全景影像自动配准方法 | |
CN116205961A (zh) | 多镜头组合影像和激光雷达点云的自动配准方法及其*** | |
CN114663599A (zh) | 一种基于多视图的人体表面重建方法及*** | |
CN114419158A (zh) | 六维姿态估计方法、网络训练方法、装置、设备及介质 | |
CN113920270A (zh) | 一种基于多视角全景的布局重建方法及其*** | |
KR20220085694A (ko) | 시퀀스의 압축을 위한 스켈레톤 기반의 동적 포인트 클라우드 추정 시스템 | |
CN112837366A (zh) | 基于双目相机和卷积神经网络的目标识别及定位的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |