CN112541950A - 一种深度相机外参的标定方法、及装置 - Google Patents
一种深度相机外参的标定方法、及装置 Download PDFInfo
- Publication number
- CN112541950A CN112541950A CN201910892567.7A CN201910892567A CN112541950A CN 112541950 A CN112541950 A CN 112541950A CN 201910892567 A CN201910892567 A CN 201910892567A CN 112541950 A CN112541950 A CN 112541950A
- Authority
- CN
- China
- Prior art keywords
- plane
- coordinate system
- camera
- calibration
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 230000009466 transformation Effects 0.000 claims description 59
- 239000013598 vector Substances 0.000 claims description 31
- 238000012216 screening Methods 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本申请公开了一种深度相机外参的标定方法,其特征在于,该方法包括,获取深度图像数据,所述深度图像数据包括像素点坐标和深度值;基于获取的深度图像数据,将该深度图像中的像素点转化为相机坐标系下的空间三维点;基于所述三维点,获取三维点的拟合平面;根据与拟合平面平行或重合的标定平面与相机坐标系的当前位姿关系,得到深度相机与标定平面之间的参数;其中,标定平面包括平行或垂直于深度相机所在移动机器人本体承载面的任一当前平面。本申请标定过程中无需借助任何外部工具,仅需采集一幅图像即可给出标定结果,借助自然水平垂直的地面和墙面即可进行标定,为基于深度图像数据的应用提供了鲁棒性佳、实时性强的应用基础。
Description
技术领域
本发明涉及机器视觉领域,特别地,涉及一种深度相机外参的标定方法。
背景技术
在图像测量过程以及机器视觉应用中,为确定空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系,必须建立相机成像的几何模型,这些几何模型参数就是相机参数。相机标定就是通过一定的方法计算相机参数的过程。
在图像拾取的过程中,相机的位姿并不是固定不变的,这导致相机坐标系并不是一个稳定的坐标系,会随着相机的移动而改变相机坐标系的原点和各个坐标轴的方向,这就需要引进一个稳定不变坐标系:世界坐标系,该坐标系是绝对坐标系。从相机坐标系到世界坐标系的变换需要旋转变换和平移变换,这些旋转变换和平移变换就成为了相机的外参。
深度相机是一种可以直接获得深度图像数据的相机,其所获得的深度图像数据中的任一像素点数据是基于像素点坐标以像素点灰度值表征空间点的距离值(深度值)的数据,可以表示为p(u,v,d),其中,u、v为图像坐标系下像素点的坐标,d为该像素点对应的空间三维点的深度值。
按照相机的构成原理,深度相机包括被动双目相机,主动双目相机,飞行时间(TOF)相机,单目结构光等。目前深度相机的外参标定,通常标定的是深度相机内部的外参,如由双目相机构成的深度相机,标定的是两个相机之间的相对旋转和平移,这种标定方法不适用于标定深度相机与外界坐标系之间的外参关系。
发明内容
本发明提供了一种深度相机外参的标定方法,以基于深度图像数据来标定相机坐标系与标定平面之间的变换关系。
本发明提供的一种深度相机外参的标定方法,该方法包括,
获取深度图像数据,所述深度图像数据包括像素点坐标和深度值;
基于获取的深度图像数据,将该深度图像中的像素点转化为相机坐标系下的空间三维点;
基于所述三维点,获取三维点的拟合平面;
根据与拟合平面平行或重合的标定平面与相机坐标系的当前位姿关系,得到深度相机与标定平面之间的参数;
其中,标定平面包括平行或垂直于深度相机所在移动机器人本体承载面的任一当前平面。
较佳地,所述深度图像数据最少仅一幅深度图像,所述将该深度图像中的像素点转化为相机坐标系下的空间三维点包括,
按照相机坐标系下的空间三维点与图像坐标系下的二维图像的映射几何模型,获得像素点对应的三维点坐标。
较佳地,所述按照相机坐标系下的空间三维点与图像坐标系下的二维图像的映射几何模型,获得像素点对应的三维点坐标,包括,
对于深度图像中的任一像素点,
将像素点的深度值作为三维点的z坐标值;
获取像素点x坐标与x方向偏移之间的第一差值,将z坐标值与相机内参中x方向焦距之比值与所述第一差值相乘,得到的结果作为三维点的x坐标值;所述x方向偏移为相机坐标系原点相对图像坐标系在x方向的偏移;
获取像素点y坐标与y方向偏移之间的第二差值,将z坐标值与相机内参中y方向焦距之比值与所述第二差值相乘,得到的结果作为三维点的y坐标值;所述y方向偏移为相机坐标系原点相对图像坐标系在y方向的偏移;
其中,相机坐标系原点相对图像坐标系中的x方向偏移、相机坐标系原点相对图像坐标系中的y方向偏移根据相机内参获得;
将深度图像中的所有像素点转化为三维点坐标,得到三维点集合。
较佳地,该方法进一步包括,按照筛选策略,对三维点集合中的三维点进行筛选,得到筛选后的三维点集合;其中,所述筛选策略包括以下任一条件或其任意组合:
(1)根据相机朝向,去除深度图像上方一定范围的三维点;
(2)有外参初始估计值的情况下,通过相机外参将相机坐标系下的三维点变换到世界坐标系下,去除高度方向上高度大于预设高度阈值的三维点;
(3)对于双目立体视觉的深度相机,去除深度值大于预设深度阈值的三维点;
(4)对于飞行时间TOF深度相机,根据像素点与其临近像素点的距离差值,去除距离差值大于预设距离阈值的三维点。
较佳地,所述基于所述三维点,获取三维点的拟合平面,包括,
根据筛选后的三维点集合,利用随机抽样一致RANSAC算法,获取三维点的拟合平面方程,其中,三维点数量大于等于3。
较佳地,所述利用随机抽样一致RANSAC算法,获取三维点的拟合平面方程,包括,
基于筛选后的三维点集合,进行随机选择,得到通过随机选择出的三维点构成的当前子集,其中,子集中的三维点数量至少包括3个;
基于当前子集中的三维点,获取该子集的拟合平面估计;
根据获取的拟合平面估计,获取筛选后的三维点集合中所有三维点相对所述拟合平面估计的符合程度;
如果符合程度不够,则返回所述基于筛选后的三维点集合进行随机选择的步骤;
如果达到符合程度,则利用符合程度最佳的拟合平面估计的内点,求解拟合平面方程;
其中,所述内点包括,筛选后的三维点集合中三维点到符合程度最佳的拟合平面的距离小于预设距离阈值的三维点。
较佳地,所述基于当前子集中的三维点,获取该子集的拟合平面估计,包括,
如果当前子集中的三维点数量等于3,则将三维点坐标值代入拟合平面方程,求解拟合平面方程中的未知数,得到当前子集的拟合平面估计;
如果当前子集中的三维点数量大于3,则将三维点坐标值代入拟合平面方程,通过最小二乘方法,求解拟合平面方程中的未知数,得到当前子集的拟合平面估计。
较佳地,所述根据获取的拟合平面估计,获取筛选后的三维点集合中所有三维点相对所述拟合平面估计的符合程度,包括,
计算筛选后的三维点集合中的每个三维点到所述拟合平面估计的距离值,
将计算得到的距离值小于设定距离阈值的三维点作为内点,
统计内点数量,
计算内点数量占筛选后的三维点云的比例,得到内点率;
根据内点率确定所述符合程度;
所述利用符合程度最佳的拟合平面估计的内点,求解拟合平面方程,包括,将内点率最高的拟合平面估计作为最佳拟合平面估计,根据最佳拟合平面估计的内点,通过最小二乘的方法,重新求解拟合平面方程中的未知数,得到拟合平面方程。
较佳地,所述根据内点率确定所述符合程度包括,
根据迭代次数确定所述符合程度,其中,迭代次数满足:
其中,m为子集中三维点的数量,η为设定的置信度,ε为内点率,为最坏条件下内点的比例,或者在初始状态下设置为最坏条件下的比例,并随着迭代次数,更新为当前最大的内点率。
较佳地,所述根据内点率确定所述符合程度包括,根据v个子集全部是内点的概率是否满足设定的置信度,确定所述符合程度,其中,v个子集全部是内点的概率为:
其中,λ为在当前迭代中子集全都是内点的选取次数的期望。
较佳地,所述根据与拟合平面平行或重合的标定平面与相机坐标系的当前位姿关系,得到深度相机与标定平面之间的参数,包括,
根据拟合平面方程,得到拟合平面法向量,
根据所述拟合平面法向量,得到与所述拟合平面平行或重合的标定平面的方程;
计算相机坐标系的原点到与所述标定平面的距离,得到相机坐标系相对标定平面的距离变换;
计算相机坐标系相对标定平面正视的旋转,到相机坐标系相对标定平面的旋转变换,
将所述距离变换、以及旋转变换,作为所述深度相机与标定平面之间的参数。
较佳地,所述深度图像数据包括有移动机器人本体承载面图像数据,
所述根据所述拟合平面法向量,得到与所述拟合平面关联的标定平面的方程,包括;
根据所述拟合平面法向量,得到与所述拟合平面平行、且具有设定距离的标定平面的方程;其中,所述标定平面为世界坐标系下移动机器人本体的承载地面;
所述计算相机坐标系的原点到与所述标定平面的距离,得到相机坐标系相对标定平面的距离变换,包括;
根据标定平面的方程参数,计算相机坐标系原点到与所述标定平面的距离,得到相机坐标系相对标定平面的高度变换;
所述计算相机坐标系相对标定平面正视的旋转,到相机坐标系相对标定平面的旋转变换,包括,
根据标定平面的方程参数,计算相机坐标系的y轴相对拟合平面法向量的旋转,得到相机坐标系相对标定平面的旋转变换。
较佳地,所述深度图像数据包括有与移动机器人本体承载面垂直的立面图像数据,
所述根据所述拟合平面法向量,得到与所述拟合平面关联的标定平面的方程,包括;
根据所述拟合平面的法向量,得到与所述拟合平面平行、且具有设定距离的标定平面的方程;其中,所述标定平面垂直于世界坐标系下移动机器人本体的承载地面;
所述计算相机坐标系的原点到与所述标定平面的距离,得到相机坐标系相对标定平面的距离变换,包括;
根据标定平面的方程参数,计算相机坐标系原点到标定平面的距离,得到相机坐标系到标定平面的距离变换;
所述计算相机坐标系相对标定平面正视的旋转,到相机坐标系相对标定平面的旋转变换,包括,
根据标定平面的方程参数,计算相机坐标系的z轴相对标定平面法向量的旋转,得到相机坐标系相对标定平面的旋转变换。
本发明提供的一种深度相机外参标定的电子设备,该电子设备包括存储器和处理器,其中,
所述存储器用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序,实现上述任一深度相机外参的标定方法。
本发明还提供一种计算机可读存储介质,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行上述任一所述深度相机外参的标定方法。
本申请提供的一种深度相机外参的标定方法,基于深度图像数据所对应的相机坐标系下的空间三维点,获取标定平面的拟合平面,从而根据相机坐标系与拟合平面的当前相对位姿,得到相机坐标系与标定平面的距离变换以及旋转变化,得到相机相对标定平面的外参。本申请标定过程中无需预先借助任何外部工具,仅需采集一幅图像可给出标定结果,这样,在实时采集一图像之时,借助自然水平垂直的地面或者墙面可实时进行标定,简单易用,实时性强,适用性强,为基于深度图像数据的应用提供了鲁棒性佳、实时性强的应用基础。
附图说明
图1为基于深度图像数据进行深度相机外参标定原理的一种示意图。
图2为本申请实施例进行深度相机外参标定的一种流程示意图。
图3为以拟合平面来进行标定的一种示意图。
图4为以与所述拟合平面垂直的第二拟合平面(墙面)来进行标定的一种示意图。
图5为本申请实施例标定方法数据关联的一种示意图。
图6为本申请实施例标定装置的一种示意图。
具体实施方式
为了使本申请的目的、技术手段和优点更加清楚明白,以下结合附图对本申请做进一步详细说明。
参见图1所示,图1为基于深度图像数据进行深度相机外参标定原理的一种示意图。安装于移动机器人本体的深度相机获取深度图像数据,深度图像的一种呈现如图中所示,图中物理空间地面(图中粗实线表示)对应的深度图像为图像中的虚线框区域,基于所述空间地面的深度图像数据求解一拟合平面Ax+By+Cz+D=0,该拟合平面可视为表征了空间地面所在的平面;鉴于世界坐标系通常是以地面为基准的,xy轴所在平面与地平面平行,z轴垂直于xy轴所在平面,相机的平移轨迹(x、y坐标变化)属于同一平面内,这样,标定相机相对地面的旋转和高度(距离),等同于求解相机相对拟合平面的旋转和高度(距离),也就获得了相机相对世界坐标系的旋转变换和z轴变换,从而获得了地面深度图像与物理空间地平面(水平面)之间成像模型的参数;广义地,深度图像与平行或垂直于移动机器人本体所在承载面的任一物理空间期望平面之间的成像模型参数,即,深度图像与标定平面之间的成像模型参数,其反映了深度相机与外界坐标系之间的一种外参关系,均可视为深度相机的一种外参,在本申请中简称为深度相机外参。
基于上述标定原理,本申请的深度相机外参标定,基于深度相机采集到的深度图像,转化为相机坐标系下的三维点,利用三维点拟合出与标定平面关联的一拟合平面,通过拟合平面与深度相机之间的当前位姿关系获取深度相机的外参。
参见图2所示,图2为本申请实施例进行深度相机外参标定的一种流程示意图。
步骤201,获取深度相机输出的任一深度图像数据,通过相机内参将深度图像投影成三维点云,即深度图像投影成三维点的集合。
鉴于标定原理中,利用深度图像的三维点可拟合出与标定平面关联的一拟合平面,通过拟合平面与深度相机之间的当前位姿关系即可获取深度相机的外参,这样,深度相机输出的深度图像最少仅用一张即可,对于深度图像上的任意一像素点p(u,v,d),其中,u、v为该像素点在图像坐标系下的坐标,d为该像素点灰度值,也是实际三维点的深度值:
按照三维坐标点与二维图像平面(单位为像素)的映射几何模型,例如针孔模型,获得将深度图像中的像素点转化为相机坐标系下的三维点pc(x,y,z)的关系式:
将像素点的深度值作为三维点的z坐标值;获取像素点x坐标与x方向偏移之间的第一差值,其中,x方向偏移为相机坐标系原点(相机光心)相对图像坐标系在x方向的偏移,将z坐标值与相机内参中x方向焦距之比值与所述第一差值相乘,得到的结果作为三维点的x坐标值;
获取像素点y坐标与y方向偏移之间的第二差值,其中,y方向偏移为相机坐标系原点相对图像坐标系在y方向的偏移,将z坐标值与相机内参中y方向焦距之比值与所述第二差值相乘,得到的结果作为三维点的y坐标值,
其中,相机坐标系原点相对图像坐标系中的x方向偏移、相机坐标系原点相对图像坐标系中的y方向偏移根据相机内参获得;
用数学式表达为:
其中,fx、fy分别为相机内参,cx、cy为相机坐标系中的相机坐标系原点相对图像坐标系中的偏移,这些参数对应着相机内参矩阵K中的数据:
按照上述方法,可将深度图像中的每一像素点都进行相机坐标系下三维点的转化,得到的三维点集合,又称为点云。
步骤202,对三维点云进行筛选,去除误差较大的三维点,以提高获得拟合平面的准确度和成功率。
以地面为例,在这一步中对步骤201所计算出的三维点云进行筛选,目的是初步去除明显不在地面上的三维点,以及误差比较大的三维点。
点云筛选策略可根据不同的使用场景,增添点云筛选的条件和标准。在这里提供几种点云筛选的条件,每种筛选条件有自己的适用情况,实际使用过程中可以是如下筛选条件的之一或任一组合:
(1)根据相机朝向去除深度图像上方一定范围的三维点。
例如:相机接***视时,深度图像中上半部分三维点不会出现在地面上,因此可以以图像的1/2为阈值,将深度图像上半部分的像素点转换的三维点去除。
(2)有外参初始估计值的情况下,可通过相机外参将相机坐标系下的三维点转到世界坐标系下,去除高度方向上高度大于预设高度阈值的点。
(3)如果深度相机的原理是采用双目立体视觉,那么由于双目测量原理固有的特点,深度测量精度会随着距离的增加而降低。也就是说,远处的三维点的深度精度会变差,因此可设定一定深度方向距离阈值(深度阈值),去除超出该深度阈值的点。
(4)如果深度相机的原理是采用TOF方法,那么由于TOF传感本身的特点,相机比较容易受到多路径反射的影响,深度图像中可能存在较多的飞点,则可以根据像素点与其临近像素点的距离差值,去除距离差值大于预设距离阈值的点。
步骤203,基于筛选后的三维点云,获取拟合平面;
在该步骤中,实施方式之一,利用随机抽样一致(RANSAC,Random SampleConsensus)算法获取拟合平面。具体包括:
步骤2031,基于筛选后的三维点云,进行随机选择,得到通过随机选择出的三维点构成的子集,其中,三维点的数量与确定拟合平面的未知数相等,由于拟合平面方程可表达为:Ax+By+Cz+D=0,可变形为ax+by+cz=1,
因而,其中包括三个未知数a、b、c,故子集中三维点的数量至少为3个。
步骤2032,基于子集中的三维点,生成该子集的拟合平面估计:利用所选择的子集中的三维点,代入平面方程,求解出拟合平面估计方程中的未知数,得到拟合平面的估计;
如果所选择的子集中的三维点数量m大于未知数数量,则需要求解超定方程组,可采用回归分析求解拟合平面估计方程中的未知数,例如,采用线性最小二乘方法,具体如下:
将拟合平面方程变形为:ax+by+cz=1,则有:
步骤2033,基于拟合平面估计,获取所有筛选后的三维点相对该拟合平面估计的符合程度;
实施方式之一是,计算拟合平面估计的内点率,根据内点率确定符合程度,具体为:
计算筛选后的三维点云中的每个点到拟合平面估计的距离,
将计算得到的距离值小于设定距离阈值的点作为内点,
统计内点数量,
计算内点数量占筛选后的三维点云的比例,得到内点率,比例越大,内点率越高,则说明符合程度越高,拟合平面估计越佳。
步骤2034,判断所述符合程度是否满足,如果是,则执行步骤2035,否则,返回步骤2031,以便重新随机选择子集来进行拟合平面估计,从而进行估计-确认的循环;
在该步骤中,实施方式之一,判断内点率是否满足预设的条件,
实施方式之二,为了在置信度η的条件下,在迭代循环过程中,至少有一次随机选择,使得选择的m个点均为内点,这样有利于在循环的过程中,至少有一次能取得拟合平面估计的最佳值。因此,迭代次数i应该满足以下条件:
其中,m为子集的大小,即,子集中三维点的数量;置信度一般设置在0.95~0.99的范围内。ε为内点率,在一般情况下,ε通常是未知的,因此可以取最坏条件下内点的比例,或者在初始状态下设置为最坏条件下的比例,然后随着迭代次数,不断更新为当前最大的内点率。
实施方式之三,判断子集全部是内点的概率是否满足要求置信度的要求,具体为,将选取的子集看作为“全部是内点”或“不全部是内点”这两种结果的二项分布,而前者的概率为p=1/εm。对于p足够小的情况下,可以将其看作为一种泊松分布,因此,在i次循环中,有v个“子集全部是内点”的概率可以表达为:
其中,λ表示在i次循环中,“子集全都是内点”的选取次数的期望。
例如,希望在这i次迭代循环中所选子集“没有一个全是内点”的概率小于某个置信度,即:p(0,λ)=e-λ<1-η,以置信度为95%为例,λ约等于3,表示在95%置信度下,在i次循环中,平均可以选到3次“好”的子集。
步骤2035,利用最佳拟合平面估计的内点求解拟合平面方程;
具体为,基于内点率最高的拟合平面估计的内点,通过最小二乘的方法,重新求解拟合平面估计,得到最终拟合平面方程。
步骤204,基于拟合平面参数,计算相机坐标系原点到拟合平面的距离、以及相机的旋转。
参见图3所示,图3为以拟合平面作为标定平面来进行标定的一种示意图,图中符号表示向量的叉乘,该拟合平面为世界坐标系下移动机器人本体的承载地面。相机坐标系原点到拟合平面的距离即为相机的高度变换,相机坐标系相对拟合平面正视的旋转对应为相机坐标系的Y轴相对拟合平面法向量的旋转;故,根据拟合平面方程Ax+By+Cz+D=0,可得:
拟合平面(地面)的法向量n=(A,B,C);
其中,符号×表示向量的叉乘。
上述实施方式可以扩展为,根据拟合平面的法向量,可以得到任何与拟合平面平行、且与所述拟合平面具有设定距离的标定平面的方程,由此,可以得到相机坐标系相对于标定平面的距离变换和旋转变换,从而得到深度相机与标定平面之间的参数。
如果深度图像是与移动机器人本体承载面垂直的立面(例如,墙面)有关,例如,获取了墙面的深度图像,则可以以立面来进行标定。参见图4所示,图4为以拟合平面为立面来进行标定的一种示意图,图中,法向量n与相机坐标系相对标定平面的正视方向相反,故为-n。相机坐标系原点到墙面的距离即为相机的距离变换,相机坐标系到第一标定平面正视的旋转对应为相机坐标系的z轴相对墙面法向量的旋转;故,根据标定平面的方程A′x+B′y+C′z+D′=0,可得:
标定平面法向量-n=(A′,B′,C′)
其中,符合×表示向量的叉乘。
所述第一标定平面方程可以基于深度图像通过步骤201-203得到。
上述实施方式可以扩展为,根据拟合平面的法向量,可以得到任何与拟合平面平行、且与拟合平面具有设定距离的标定平面的方程,由此,可以得到相机坐标系相对于标定平面的距离变换和旋转变换,从而得到深度相机与标定平面之间的参数。
本申请提出的深度相机外参标定方法,根据需求的不同,例如,当获得的深度图像包括有移动机器人本体承载面图像时,可借助地平面进行标定,当获得的深度图像包括有与移动机器人本体承载面垂直的墙面图像数据时,可借助该墙面进行标定,不需要借助任何外部工具;对深度相机自身的原理没有要求,可适用于基于双目、结构光或TOF原理的深度相机外参标定;标定方法操作简单,标定精度高,鲁棒性强;仅需要一幅深度图像即可进行标定,标定方法计算复杂度低,并且可实时进行标定;通过该外参的标定,可将相机坐标系下的三维信息转化到世界坐标系下,可以很方便地进行地面去除、三维障碍物感知等操作,具有很强的应用价值。
参见图5所示,图5为本申请实施例标定方法中的数据关联的一种示意图。基于深度图像数据,将该深度图像中的像素点转化为相机坐标系下的空间三维点;为提高获得拟合平面的准确度和成功率,可对空间三维点进行筛选;在采用RANSAC算法时,随机抽取三维点作为子集,基于子集得到该子集的拟合平面估计,通过该算法的多次随机抽取的子集、以及各个子集的拟合平面估计,按照内点率最大的条件选择出最佳拟合平面估计;基于最佳拟合平面的内点,重新计算拟合平面;如果以拟合平面为标定平面,则根据拟合平面,计算相机坐标系相对拟合平面高度变换、以及旋转变换。
参见图6所示,图6为本申请实施例标定装置的一种示意图。该装置包括,
深度图像获取模块,获取深度图像数据,所述深度图像数据包括像素点坐标和深度值;
转换模块,基于获取的深度图像数据,将该深度图像中的像素点转化为相机坐标系下的空间三维点;
拟合平面获取模块,基于所述三维点,获取三维点的拟合平面;
变换计算模块,根据与拟合平面平行或重合的标定平面与相机坐标系的当前位姿关系,得到深度相机与标定平面之间的参数;
其中,标定平面包括平行或垂直于深度相机所在移动机器人本体承载面的当前任一平面。
所述装置还包括筛选模块,按照筛选策略,对三维点集合中的三维点进行筛选,得到筛选后的三维点集合。
所述拟合平面获取模块包括,
随机选择模块,基于筛选后的三维点集合,进行随机选择,得到通过随机选择出的三维点构成的当前子集,其中,子集中的三维点数量至少包括3个;
拟合平面估计模块,基于当前子集中的三维点,获取该子集的拟合平面估计;
符合程度获取模块,根据获取的拟合平面估计,获取筛选后的三维点集合中所有三维点相对所述拟合平面估计的符合程度;
如果符合程度不够,则返回至所述随机选择模块;
如果达到符合程度,则返回至所述重解模块;
其中,所述内点包括,筛选后的三维点集合中三维点到符合程度最佳的拟合平面的距离小于预设距离阈值的三维点。
重解模块,利用符合程度最佳的拟合平面估计的内点,求解拟合平面方程。
所述拟合平面估计模块还包括,如果当前子集中的三维点数量等于3,则将三维点坐标值代入拟合平面方程,求解拟合平面方程中的未知数,得到当前子集的拟合平面估计;
如果当前子集中的三维点数量大于3,则将三维点坐标值代入拟合平面方程,通过最小二乘方法,求解拟合平面方程中的未知数,得到当前子集的拟合平面估计。
所述符合程度获取模块还包括,计算筛选后的三维点集合中的每个三维点到所述拟合平面估计的距离值,
将计算得到的距离值小于设定距离阈值的三维点作为内点,
统计内点数量,
计算内点数量占筛选后的三维点云的比例,得到内点率;
根据内点率确定所述符合程度;
或者,
根据迭代次数确定所述符合程度,其中,迭代次数满足:
其中,m为子集中三维点的数量,η为设定的置信度,ε为内点率,为最坏条件下内点的比例,或者在初始状态下设置为最坏条件下的比例,并随着迭代次数,更新为当前最大的内点率;
或者,
根据v个子集全部是内点的概率是否满足设定的置信度,确定所述符合程度,其中,v个子集全部是内点的概率为:
其中,λ为在当前迭代中子集全都是内点的选取次数的期望。
所述重解模块还包括,根据内点率最高的拟合平面估计的内点,通过最小二乘的方法,重新求解拟合平面方程中的未知数,得到拟合平面方程。
所述变换计算模块包括,根据拟合平面方程,得到拟合平面法向量,
根据所述拟合平面法向量,得到与所述拟合平面平行或重合的标定平面的方程;
计算相机坐标系的原点到与所述标定平面的距离,得到相机坐标系相对标定平面的距离变换;
计算相机坐标系相对标定平面正视的旋转,到相机坐标系相对标定平面的旋转变换,
将所述距离变换、以及旋转变换,作为所述深度相机与标定平面之间的参数。
所述深度图像数据包括有移动机器人本体承载面图像数据,所述变换计算模块还包括,
根据所述拟合平面法向量,得到与所述拟合平面平行、且具有设定距离的标定平面的方程;其中,所述标定平面为世界坐标系下移动机器人本体的承载地面;
根据标定平面的方程参数,计算相机坐标系原点到拟合平面的距离,得到相机坐标系相对标定平面的高度变换;计算相机坐标系的y轴相对拟合平面法向量的旋转,得到相机坐标系相对标定平面的旋转变换,
将所述高度变换、以及所述旋转变换,作为所述深度相机与标定平面之间的参数。
所述深度图像数据包括有与移动机器人本体承载面垂直的立面图像数据,所述变换计算模块还包括,根据所述拟合平面的法向量,得到与所述拟合平面平行、且具有设定距离的标定平面的方程;其中,所述标定平面垂直于世界坐标系下移动机器人本体的承载地面;
根据标定平面的方程参数,计算相机坐标系原点到第二拟合平面的距离,得到相机坐标系相对标定平面的距离变换;计算相机坐标系的z轴相对第二拟合平面法向量的旋转,得到相机坐标系相对标定平面的旋转变换,
将所述距离变换、以及所述旋转变换,作为所述深度相机与标定平面之间的参数。
本申请还提供一种深度相机外参标定的电子设备,该电子设备包括存储器和处理器,其中,
所述存储器用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序,实现任一所述深度相机外参的标定步骤。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明实施例还提供了一种计算机可读存储介质,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现如下步骤:
获取深度图像数据,所述深度图像数据包括像素点坐标和深度值;
基于获取的深度图像数据,将该深度图像中的像素点转化为相机坐标系下的空间三维点;
基于所述三维点,获取与标定平面关联的拟合平面;
根据拟合平面与相机坐标系的当前位姿关系,得到深度相机与标定平面之间的参数;
其中,标定平面包括平行或垂直于深度相机所在移动机器人本体承载面的当前任一平面。
对于装置/网络侧设备/存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
需要说明的是,本申请所提供的深度相机外参标定方法的实施例,可不限于上述实施方式,例如,在获取拟合平面时,可采用除RANSAC算法之外的其他拟合算法,在求解超定方程时,也可采用除了最小二乘方法之外的求解方法,例如,采用回归计算等方式等。另外,为了降低超定方程的计算复杂度,还可提高通过有目标地选择可靠的三维点,例如,辅以图像的特征点等。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (15)
1.一种深度相机外参的标定方法,其特征在于,该方法包括,
获取深度图像数据,所述深度图像数据包括像素点坐标和深度值;
基于获取的深度图像数据,将该深度图像中的像素点转化为相机坐标系下的空间三维点;
基于所述三维点,获取三维点的拟合平面;
根据与拟合平面平行或重合的标定平面与相机坐标系的当前位姿关系,得到深度相机与标定平面之间的参数;
其中,标定平面包括平行或垂直于深度相机所在移动机器人本体承载面的任一当前平面。
2.如权利要求1所述的方法,其特征在于,所述深度图像数据最少仅一幅深度图像,所述将该深度图像中的像素点转化为相机坐标系下的空间三维点包括,
按照相机坐标系下的空间三维点与图像坐标系下的二维图像的映射几何模型,获得像素点对应的三维点坐标。
3.如权利要求2所述的方法,其特征在于,所述按照相机坐标系下的空间三维点与图像坐标系下的二维图像的映射几何模型,获得像素点对应的三维点坐标,包括,
对于深度图像中的任一像素点,
将像素点的深度值作为三维点的z坐标值;
获取像素点x坐标与x方向偏移之间的第一差值,将z坐标值与相机内参中x方向焦距之比值与所述第一差值相乘,得到的结果作为三维点的x坐标值;所述x方向偏移为相机坐标系原点相对图像坐标系在x方向的偏移;
获取像素点y坐标与y方向偏移之间的第二差值,将z坐标值与相机内参中y方向焦距之比值与所述第二差值相乘,得到的结果作为三维点的y坐标值;所述y方向偏移为相机坐标系原点相对图像坐标系在y方向的偏移;
其中,相机坐标系原点相对图像坐标系中的x方向偏移、相机坐标系原点相对图像坐标系中的y方向偏移根据相机内参获得;
将深度图像中的所有像素点转化为三维点坐标,得到三维点集合。
4.如权利要求3所述的方法,其特征在于,该方法进一步包括,按照筛选策略,对三维点集合中的三维点进行筛选,得到筛选后的三维点集合;其中,所述筛选策略包括以下任一条件或其任意组合:
(1)根据相机朝向,去除深度图像上方一定范围的三维点;
(2)有外参初始估计值的情况下,通过相机外参将相机坐标系下的三维点变换到世界坐标系下,去除高度方向上高度大于预设高度阈值的三维点;
(3)对于双目立体视觉的深度相机,去除深度值大于预设深度阈值的三维点;
(4)对于飞行时间TOF深度相机,根据像素点与其临近像素点的距离差值,去除距离差值大于预设距离阈值的三维点。
5.如权利要求4所述的方法,其特征在于,所述基于所述三维点,获取三维点的拟合平面,包括,
根据筛选后的三维点集合,利用随机抽样一致RANSAC算法,获取三维点的拟合平面方程,其中,三维点数量大于等于3。
6.如权利要求5所述的方法,其特征在于,所述利用随机抽样一致RANSAC算法,获取三维点的拟合平面方程,包括,
基于筛选后的三维点集合,进行随机选择,得到通过随机选择出的三维点构成的当前子集,其中,子集中的三维点数量至少包括3个;
基于当前子集中的三维点,获取该子集的拟合平面估计;
根据获取的拟合平面估计,获取筛选后的三维点集合中所有三维点相对所述拟合平面估计的符合程度;
如果符合程度不够,则返回所述基于筛选后的三维点集合进行随机选择的步骤;
如果达到符合程度,则利用符合程度最佳的拟合平面估计的内点,求解拟合平面方程;
其中,所述内点包括,筛选后的三维点集合中三维点到符合程度最佳的拟合平面的距离小于预设距离阈值的三维点。
7.如权利要求6所述的方法,其特征在于,所述基于当前子集中的三维点,获取该子集的拟合平面估计,包括,
如果当前子集中的三维点数量等于3,则将三维点坐标值代入拟合平面方程,求解拟合平面方程中的未知数,得到当前子集的拟合平面估计;
如果当前子集中的三维点数量大于3,则将三维点坐标值代入拟合平面方程,通过最小二乘方法,求解拟合平面方程中的未知数,得到当前子集的拟合平面估计。
8.如权利要求6所述的方法,其特征在于,所述根据获取的拟合平面估计,获取筛选后的三维点集合中所有三维点相对所述拟合平面估计的符合程度,包括,
计算筛选后的三维点集合中的每个三维点到所述拟合平面估计的距离值,
将计算得到的距离值小于设定距离阈值的三维点作为内点,
统计内点数量,
计算内点数量占筛选后的三维点云的比例,得到内点率;
根据内点率确定所述符合程度;
所述利用符合程度最佳的拟合平面估计的内点,求解拟合平面方程,包括,将内点率最高的拟合平面估计作为最佳拟合平面估计,根据最佳拟合平面估计的内点,通过最小二乘的方法,重新求解拟合平面方程中的未知数,得到拟合平面方程。
11.如权利要求1至10任一所述的方法,其特征在于,所述根据与拟合平面平行或重合的标定平面与相机坐标系的当前位姿关系,得到深度相机与标定平面之间的参数,包括,
根据拟合平面方程,得到拟合平面法向量,
根据所述拟合平面法向量,得到与所述拟合平面平行或重合的标定平面的方程;
计算相机坐标系的原点到与所述标定平面的距离,得到相机坐标系相对标定平面的距离变换;
计算相机坐标系相对标定平面正视的旋转,到相机坐标系相对标定平面的旋转变换,
将所述距离变换、以及旋转变换,作为所述深度相机与标定平面之间的参数。
12.如权利要求11所述的方法,其特征在于,所述深度图像数据包括有移动机器人本体承载面图像数据,
所述根据所述拟合平面法向量,得到与所述拟合平面关联的标定平面的方程,包括;
根据所述拟合平面法向量,得到与所述拟合平面平行、且具有设定距离的标定平面的方程;其中,所述标定平面为世界坐标系下移动机器人本体的承载地面;
所述计算相机坐标系的原点到与所述标定平面的距离,得到相机坐标系相对标定平面的距离变换,包括;
根据标定平面的方程参数,计算相机坐标系原点到与所述标定平面的距离,得到相机坐标系相对标定平面的高度变换;
所述计算相机坐标系相对标定平面正视的旋转,到相机坐标系相对标定平面的旋转变换,包括,
根据标定平面的方程参数,计算相机坐标系的y轴相对拟合平面法向量的旋转,得到相机坐标系相对标定平面的旋转变换。
13.如权利要求11任一所述的方法,其特征在于,所述深度图像数据包括有与移动机器人本体承载面垂直的立面图像数据,
所述根据所述拟合平面法向量,得到与所述拟合平面关联的标定平面的方程,包括;
根据所述拟合平面的法向量,得到与所述拟合平面平行、且具有设定距离的标定平面的方程;其中,所述标定平面垂直于世界坐标系下移动机器人本体的承载地面;
所述计算相机坐标系的原点到与所述标定平面的距离,得到相机坐标系相对标定平面的距离变换,包括;
根据标定平面的方程参数,计算相机坐标系原点到标定平面的距离,得到相机坐标系到标定平面的距离变换;
所述计算相机坐标系相对标定平面正视的旋转,到相机坐标系相对标定平面的旋转变换,包括,
根据标定平面的方程参数,计算相机坐标系的z轴相对标定平面法向量的旋转,得到相机坐标系相对标定平面的旋转变换。
14.一种深度相机外参标定的电子设备,其特征在于,该电子设备包括存储器和处理器,其中,
所述存储器用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序,实现权利要求1-13任一所述深度相机外参的标定方法。
15.一种计算机可读存储介质,其特征在于,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行权利要求1-13任一所述深度相机外参的标定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910892567.7A CN112541950A (zh) | 2019-09-20 | 2019-09-20 | 一种深度相机外参的标定方法、及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910892567.7A CN112541950A (zh) | 2019-09-20 | 2019-09-20 | 一种深度相机外参的标定方法、及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112541950A true CN112541950A (zh) | 2021-03-23 |
Family
ID=75012324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910892567.7A Pending CN112541950A (zh) | 2019-09-20 | 2019-09-20 | 一种深度相机外参的标定方法、及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112541950A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112967347A (zh) * | 2021-03-30 | 2021-06-15 | 深圳市优必选科技股份有限公司 | 位姿标定方法、装置、机器人及计算机可读存储介质 |
CN113284197A (zh) * | 2021-07-22 | 2021-08-20 | 浙江华睿科技股份有限公司 | Agv的tof相机外参标定方法及装置、电子设备 |
CN113340310A (zh) * | 2021-07-08 | 2021-09-03 | 深圳市人工智能与机器人研究院 | 一种移动机器人台阶地形识别定位方法及相关装置 |
CN113689391A (zh) * | 2021-08-16 | 2021-11-23 | 炬佑智能科技(苏州)有限公司 | ToF设备的安装参数获取方法、***和ToF设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103646389A (zh) * | 2013-03-26 | 2014-03-19 | 中国科学院电子学研究所 | 一种基于几何模型的sar斜距图像同名点自动提取方法 |
CN104156972A (zh) * | 2014-08-25 | 2014-11-19 | 西北工业大学 | 基于激光扫描测距仪与多相机融合的透视成像方法 |
CN104376558A (zh) * | 2014-11-13 | 2015-02-25 | 浙江大学 | 一种基于长方体的Kinect深度相机的内参标定方法 |
JP2017118396A (ja) * | 2015-12-25 | 2017-06-29 | Kddi株式会社 | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 |
CN107146256A (zh) * | 2017-04-10 | 2017-09-08 | 中国人民解放军国防科学技术大学 | 基于差分gps***的外场大视场条件下的摄像机标定方法 |
CN107945234A (zh) * | 2016-10-12 | 2018-04-20 | 杭州海康威视数字技术股份有限公司 | 一种立体摄像机外部参数的确定方法及装置 |
CN108280853A (zh) * | 2018-01-11 | 2018-07-13 | 深圳市易成自动驾驶技术有限公司 | 车载视觉定位方法、装置及计算机可读存储介质 |
CN108416791A (zh) * | 2018-03-01 | 2018-08-17 | 燕山大学 | 一种基于双目视觉的并联机构动平台位姿监测与跟踪方法 |
CN108629756A (zh) * | 2018-04-28 | 2018-10-09 | 东北大学 | 一种Kinect v2深度图像无效点修复方法 |
CN109544677A (zh) * | 2018-10-30 | 2019-03-29 | 山东大学 | 基于深度图像关键帧的室内场景主结构重建方法及*** |
CN110111248A (zh) * | 2019-03-15 | 2019-08-09 | 西安电子科技大学 | 一种基于特征点的图像拼接方法、虚拟现实***、照相机 |
-
2019
- 2019-09-20 CN CN201910892567.7A patent/CN112541950A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103646389A (zh) * | 2013-03-26 | 2014-03-19 | 中国科学院电子学研究所 | 一种基于几何模型的sar斜距图像同名点自动提取方法 |
CN104156972A (zh) * | 2014-08-25 | 2014-11-19 | 西北工业大学 | 基于激光扫描测距仪与多相机融合的透视成像方法 |
CN104376558A (zh) * | 2014-11-13 | 2015-02-25 | 浙江大学 | 一种基于长方体的Kinect深度相机的内参标定方法 |
JP2017118396A (ja) * | 2015-12-25 | 2017-06-29 | Kddi株式会社 | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 |
CN107945234A (zh) * | 2016-10-12 | 2018-04-20 | 杭州海康威视数字技术股份有限公司 | 一种立体摄像机外部参数的确定方法及装置 |
CN107146256A (zh) * | 2017-04-10 | 2017-09-08 | 中国人民解放军国防科学技术大学 | 基于差分gps***的外场大视场条件下的摄像机标定方法 |
CN108280853A (zh) * | 2018-01-11 | 2018-07-13 | 深圳市易成自动驾驶技术有限公司 | 车载视觉定位方法、装置及计算机可读存储介质 |
CN108416791A (zh) * | 2018-03-01 | 2018-08-17 | 燕山大学 | 一种基于双目视觉的并联机构动平台位姿监测与跟踪方法 |
CN108629756A (zh) * | 2018-04-28 | 2018-10-09 | 东北大学 | 一种Kinect v2深度图像无效点修复方法 |
CN109544677A (zh) * | 2018-10-30 | 2019-03-29 | 山东大学 | 基于深度图像关键帧的室内场景主结构重建方法及*** |
CN110111248A (zh) * | 2019-03-15 | 2019-08-09 | 西安电子科技大学 | 一种基于特征点的图像拼接方法、虚拟现实***、照相机 |
Non-Patent Citations (1)
Title |
---|
孙士杰 等: "点云下地平面检测的RGB-D相机外参自动标定", 《中国图象图形学报》, vol. 23, no. 6, pages 866 - 873 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112967347A (zh) * | 2021-03-30 | 2021-06-15 | 深圳市优必选科技股份有限公司 | 位姿标定方法、装置、机器人及计算机可读存储介质 |
WO2022205845A1 (zh) * | 2021-03-30 | 2022-10-06 | 深圳市优必选科技股份有限公司 | 位姿标定方法、装置、机器人及计算机可读存储介质 |
CN112967347B (zh) * | 2021-03-30 | 2023-12-15 | 深圳市优必选科技股份有限公司 | 位姿标定方法、装置、机器人及计算机可读存储介质 |
CN113340310A (zh) * | 2021-07-08 | 2021-09-03 | 深圳市人工智能与机器人研究院 | 一种移动机器人台阶地形识别定位方法及相关装置 |
CN113340310B (zh) * | 2021-07-08 | 2024-03-15 | 深圳市人工智能与机器人研究院 | 一种移动机器人台阶地形识别定位方法及相关装置 |
CN113284197A (zh) * | 2021-07-22 | 2021-08-20 | 浙江华睿科技股份有限公司 | Agv的tof相机外参标定方法及装置、电子设备 |
CN113284197B (zh) * | 2021-07-22 | 2021-11-23 | 浙江华睿科技股份有限公司 | Agv的tof相机外参标定方法及装置、电子设备 |
CN113689391A (zh) * | 2021-08-16 | 2021-11-23 | 炬佑智能科技(苏州)有限公司 | ToF设备的安装参数获取方法、***和ToF设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112541950A (zh) | 一种深度相机外参的标定方法、及装置 | |
CN107230225B (zh) | 三维重建的方法和装置 | |
JP5759161B2 (ja) | 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム | |
CN110176032B (zh) | 一种三维重建方法及装置 | |
JP6571225B2 (ja) | カメラ姿勢推定方法およびシステム | |
CN111144349B (zh) | 一种室内视觉重定位方法及*** | |
CN112489140B (zh) | 姿态测量方法 | |
CN113156407B (zh) | 车载激光雷达外参数联合标定方法、***、介质及设备 | |
CN112083403B (zh) | 用于虚拟场景的定位追踪误差校正方法及*** | |
CN111123242A (zh) | 一种基于激光雷达和相机的联合标定方法及计算机可读存储介质 | |
Sveier et al. | Object detection in point clouds using conformal geometric algebra | |
CN116129037B (zh) | 视触觉传感器及其三维重建方法、***、设备及存储介质 | |
CN114332125A (zh) | 点云重建方法、装置、电子设备和存储介质 | |
CN114638891A (zh) | 基于图像和点云融合的目标检测定位方法与*** | |
WO2021193672A1 (ja) | 三次元モデル生成方法及び三次元モデル生成装置 | |
CN112288813A (zh) | 基于多目视觉测量与激光点云地图匹配的位姿估计方法 | |
CN117197245A (zh) | 一种位姿修复方法及装置 | |
CN112446952B (zh) | 三维点云法向量的生成方法、装置、电子设备及存储介质 | |
JP6584139B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN113706505A (zh) | 一种去除深度图像中局外点的圆柱拟合方法和装置 | |
CN113793379A (zh) | 相机姿态求解方法及***、设备和计算机可读存储介质 | |
CN116205788B (zh) | 一种三维特征图的获取方法、图像处理方法及相关装置 | |
Le et al. | Geometry-Based 3D Object Fitting and Localizing in Grasping Aid for Visually Impaired | |
Karami et al. | Camera Arrangement in Visual 3D Systems using Iso-disparity Model to Enhance Depth Estimation Accuracy | |
CN115222799B (zh) | 图像重力方向的获取方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 310051 room 304, B / F, building 2, 399 Danfeng Road, Binjiang District, Hangzhou City, Zhejiang Province Applicant after: Hangzhou Hikvision Robot Co.,Ltd. Address before: 310052 5 / F, building 1, building 2, no.700 Dongliu Road, Binjiang District, Hangzhou City, Zhejiang Province Applicant before: HANGZHOU HIKROBOT TECHNOLOGY Co.,Ltd. |
|
CB02 | Change of applicant information |