CN112734843A - 一种基于正十二面体的单目6d位姿估计方法 - Google Patents
一种基于正十二面体的单目6d位姿估计方法 Download PDFInfo
- Publication number
- CN112734843A CN112734843A CN202110022822.XA CN202110022822A CN112734843A CN 112734843 A CN112734843 A CN 112734843A CN 202110022822 A CN202110022822 A CN 202110022822A CN 112734843 A CN112734843 A CN 112734843A
- Authority
- CN
- China
- Prior art keywords
- regular dodecahedron
- aruco
- current frame
- dodecahedron
- monocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明公开了一种基于正十二面体的单目6D位姿估计方法。本方法将ArUco码与正十二面体相结合,再使用单目相机采集被ArUco码标记的正十二面体图像,计算ArUco码的中心点的空间三维坐标,获得其内切球的稀疏点云,进而利用多元非线性拟合以及迭代最近点算法比对相机坐标处的虚拟正十二面体,进而计算出当前正十二面体的空间位移量以及旋转角度,间接计算出被测物体的位姿。本方法克服了现有方法对光照、环境及设备的高要求,检测迅速,提升了稳定性;不需要在前期投入大量的精力进行模板采集或模型训练,显著降低了位姿估计成本,保证了位姿估计精度并加强通用性,并且能够进行物体大幅度运动的位姿估计。
Description
技术领域
本发明属于图像识别位姿检测领域,具体是一种基于正十二面体的单目6D位姿估计方法。
背景技术
目标物体的位姿估计是保证机器人在工作空间中实现随机操作的关键技术之一。目前工业自动化行业发展迅猛,对机器人的状态进行实时检测并反馈的要求也不断提高,而基于视觉的目标位姿估计对机器人性能的提高有重要意义。单目视觉***仅使用一台相机,结构简单成本低廉,应用比较广泛。目前目标的位姿估计的主要方法有:
使用特征点匹配方法估计位姿。具体做法是首先提取图像内的特征点,并匹配不同图像中的特征点,根据特征点的运动估计目标姿态变化。如文献《G.Lu,X.Wong andJ.McBride.From Mapping to Localization:A Complete Framework to VisuallyEstimate Position and Attitude for Autonomous Vehicles[J].2019 IEEEInternational Conference on Image Processing(ICIP),Taipei,China,2019pp.3103-3107,doi:10.1109/ICIP.2019.8803326.》中提出了一种利用特征点提取和匹配技术估计自动驾驶车位姿的方法。然而,特征点匹配技术本身具有局限性,在光照条件较差的情况下特征点跟踪将会受到较大影响。
使用基于深度学习的方法,近年来深度学习的应用非常广泛,通过训练深度神经网络并构建损失函数以达到对图像中的物体进行位姿识别的效果。文献《REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:Unified,real-time objectdetection[C]//Proceedings of the IEEE conference on computer vision andpattern recognition.2016:779-788.》中采用YOLO网络,通过图像中目标二维边框恢复其位姿,但是基于深度学习的方法需要大量的样本资源来构建大量的样本数据并进行真实位姿的标注,并需要大量计算资源进行网络的训练,难以控制成本,且大多为针对性的开发,无法满足通用性。
使用基于模板法,构建三维模板并寻找与实际位姿最接近的,用于估计当前目标位姿。如文献《AUBRY M,MATURANA D,EFROS A A,et al.Seeing 3d chairs:exemplarpart-based 2d-3d alignment using a large dataset of cad models[C].Proceedingsof the IEEE conference on computer vision and pattern recognition.2014:3762-3769.》中利用大量三维CAD模型将图像中的目标分类检测定位作为一种二维图像到三维模型的对齐问题。然而模板精度性取决与模板库大小,且一个模板适用于一种场景,缺乏通用性。
发明内容
针对现有技术的不足,本发明拟解决的技术问题是,提供一种基于正十二面体的单目6D位姿估计方法。
本发明解决所述技术问题的技术方案是,提供一种基于正十二面体的单目6D位姿估计方法,其特征在于,该方法包括以下步骤:
第一步、使用ArUco码对正十二面体进行标记,得到ArUco码标记的正十二面体;标定单目相机,再通过标定后的单目相机观测ArUco码标记的正十二面体;
第二步,分别对当前帧和初始帧中所有观测到的若干个ArUco码进行定位,再分别获得当前帧和初始帧中所有观测到的ArUco码的编码idi,i=1,2,3,...,n和ArUco码中心点的空间坐标Ai(xi,yi,zi),i=1,2,3,...,n,n表示某一帧观测到的ArUco码的数量;
第三步、对第二步得到的当前帧ArUco码中心点的空间坐标进行多元非线性拟合计算出当前帧正十二面体内切球球心坐标作为当前帧正十二面体体心的空间坐标t0,对初始帧ArUco码中心点的空间坐标进行多元非线性拟合计算出初始帧正十二面体内切球球心坐标作为初始帧正十二面体体心的空间坐标tO;再通过公式trel=t0-tO求得当前帧正十二面体体心相对于初始帧的相对空间坐标trel;
在相机坐标系原点处构建一个虚拟正十二面体,虚拟正十二面体体心与相机坐标系原点重合,再使用ArUco码对虚拟正十二面体进行标记并得到虚拟正十二面体所有ArUco码的编码及其中心点的空间坐标AWi(xWi,yWi,zWi,idWi),i=1,2,3,...,12;再将第二步得到的当前帧ArUco码中心点的空间坐标及其编码与AWi(xWi,yWi,zWi,idWi),i=1,2,3,...,12通过迭代最近点方法计算出当前帧正十二面体的旋转矩阵R,将初始帧ArUco码中心点的空间坐标及其编码与AWi(xWi,yWi,zWi,idWi),i=1,2,3,...,12通过迭代最近点方法计算出初始帧正十二面体的旋转矩阵RO,再通过公式计算得到当前帧正十二面体相对于初始帧的相对旋转矩阵Rrel;
再根据相对旋转矩阵Rrel和相对空间坐标trel,得到当前帧正十二面体相对于初始帧正十二面体的位姿矩阵Trel:
式(2)中,SE(3)表示矩阵的属性;
第四步、首先构建被测物体坐标系,将正十二面体固定于被测物体上,并计算正十二面体相对于被测物体的相对空间坐标tref和相对旋转矩阵Rref,得到正十二面体相对于被测物体的位姿矩阵Tref:
则被测物体的相对位姿矩阵T:
得到当前帧被测物体相对于初始帧的空间姿态变化。
与现有技术相比,本发明有益效果在于:
(1)本方法创造性地将ArUco码与正十二面体相结合,将位姿识别从二维标签识别扩展为对三维空间体进行识别,大幅度提升了位姿识别的性能,再使用单目相机采集被ArUco码标记的正十二面体图像,利用PnP算法计算ArUco码的中心点的空间三维坐标,获得其内切球的稀疏点云,进而利用多元非线性拟合以及迭代最近点算法比对相机坐标处的虚拟正十二面体,将位置求解和旋转矩阵求解问题转化为优化问题,进而计算出当前正十二面体的空间位移量以及旋转角度,间接计算出被测物体的位姿。
(2)本方法克服了现有方法对光照、环境及设备的高要求,检测迅速,提升了稳定性,平均每帧图像识别时间约为10ms左右;不需要在前期投入大量的精力进行模板采集或模型训练,显著降低了位姿估计成本,保证了位姿估计精度并加强通用性;使用了三维物体作为标志,能够进行空间内物体大幅度运动的位姿估计。
(3)本发明采用的正十二面体是三维物体,能够实现空间任意角度以及大幅度运动的位姿识别。正十二面体相对于同体积的正二十面体每个面面积更大,每个面可以放下更大的ArUco码供计算机视觉检测,能够在更远的位置保证识别的有效性。
(4)相较于基于特征点的方法,本发明采用单目相机识别ArUco码的方法,克服了其对光照、环境等因素的敏感程度,可以在多数环境下稳定运行。
(5)相较于基于模板的方法,本发明使用正十二面体间接测量目标位姿,通用性较强,并且不需要构建大量的模板库,节省内存空间与工作量。
(6)相较于基于深度学习的方法,本发明算法不需要相对较强的硬件性能,节省成本,满足通用性。
附图说明
图1为本发明的ArUco码标记的正十二面体的示意图;
图2为本发明的正十二面体及其内切球的示意图;
图3为本发明的虚拟正十二面体与ArUco码标记的实际正十二面体的位置关系示意图。
具体实施方式
下面给出本发明的具体实施例。具体实施例仅用于进一步详细说明本发明,不限制本申请权利要求的保护范围。
本发明提供了一种基于正十二面体的单目6D位姿估计方法(简称方法),其特征在于,该方法包括以下步骤:
第一步、使用ArUco码对正十二面体进行标记,得到ArUco码标记的正十二面体(如图1所示);标定单目相机,再通过标定后的单目相机观测ArUco码标记的正十二面体;
优选地,第一步中,使用ArUco码对正十二面体进行标记的过程为:使用OpenCV图像处理库通过C++代码生成12个ArUco码,将12个ArUco码按编码顺序分别贴附于正十二面体的12个面上,且ArUco码的几何中心与其贴附的面的几何中点重合。
优选地,第一步中,单目相机的标定使用棋盘网格标准标定板,并使用OpenCV图像处理库进行相机内部参数标定,生成相机内参矩阵K;
所述相机内参矩阵K为将空间内坐标转化为平面坐标的矩阵,标准化公式为:
式(1)中,fx、fy为相机的焦距参数;cx、cy为像素的平移量。
第二步,使用图像处理算法分别对当前帧和初始帧中所有可观测到的若干个ArUco码进行定位,再使用图像处理算法分别获得当前帧和初始帧中所有观测到的ArUco码的编码idi,i=1,2,3,...,n以及使用位姿计算方法获得当前帧和初始帧中所有观测到的ArUco码中心点的空间坐标Ai(xi,yi,zi),i=1,2,3,...,n,n表示某一帧观测到的ArUco码的数量;
当前帧是正十二面体当前所在位置的图像,初始帧是单目相机拍摄的正十二面体初始位置的图像;
优选的,第二步中,ArUco码的定位过程是:对单目相机采集到的图像进行灰度处理、中值滤波及自适应阈值分割,从分割后的图像中提取ArUco码轮廓,并过滤非凸型和非正方形的图像,进而得到符合要求的候选区域。
优选的,第二步中,ArUco码的编码的获得:首先对候选区域应用透视变换获得规范正方形标记,使用Otsu阈值处理算法分离黑白色位,并根据标记大小分为不同的单元格;再根据每一个单元格上数量最多的像素所对应的颜色来确定该单元格的颜色,最后根据颜色转化为二进制数值以确定该标记的编码。
优选的,第二步中,ArUco码中心点的空间坐标的获得:根据候选区域的四个角点信息求出ArUco码中心点的空间坐标,使用OpenCV框架中的ArUco库函数的位姿计算函数,将四个角点信息作为输入,使用PnP方式(即2D-3D匹配算法)即可得到ArUco码中心点在相机坐标系下的空间坐标。
第三步、对第二步得到的当前帧所有ArUco码中心点的空间坐标进行多元非线性拟合计算出当前帧正十二面体内切球球心坐标作为当前帧正十二面体体心的空间坐标t0=(x0,y0,z0),对初始帧ArUco码中心点的空间坐标进行多元非线性拟合计算出初始帧正十二面体内切球球心坐标作为初始帧正十二面体体心的空间坐标tO=(xO,yO,zO);再用当前帧正十二面体体心的空间坐标t0=(x0,y0,z0)减去初始帧正十二面体体心的空间坐标tO=(xO,yO,zO),通过公式trel(x,y,z)=t0(x0,y0,z0)-tO(xO,yO,zO)求得当前帧正十二面体体心相对于初始帧的相对空间坐标trel;
在相机坐标系原点处构建一个虚拟状态的正十二面体,其与实际的正十二面体的位置关系如图3所示,虚拟正十二面体体心与相机坐标系原点Oc重合,再使用ArUco码对虚拟正十二面体进行标记并得到虚拟正十二面体所有ArUco码的编码及其中心点的空间坐标AWi(xWi,yWi,zWi,idWi),i=1,2,3,...,12;再将第二步得到的当前帧ArUco码中心点的空间坐标及其编码Ai(xi,yi,zi,idi),i=1,2,3,...,n与AWi(xWi,yWi,zWi,idWi),i=1,2,3,...,12通过迭代最近点方法计算出当前帧正十二面体的旋转矩阵R,将初始帧ArUco码中心点的空间坐标及其编码与AWi(xWi,yWi,zWi,idWi),i=1,2,3,...,12通过迭代最近点方法计算出初始帧正十二面体的旋转矩阵RO,再通过公式计算得到当前帧正十二面体相对于初始帧的相对旋转矩阵Rrel;
再根据相对旋转矩阵Rrel和相对空间坐标trel,得到当前帧正十二面体相对于初始帧正十二面体的位姿矩阵Trel:
式(2)中,SE(3)表示李群,是一种数学符号表达,表示矩阵的属性;
优选地,第三步中,当前帧正十二面体体心的空间坐标的获得:由于ArUco码的几何中心与其贴附的面的几何中点重合,而正十二面体的内切球与正十二面体的交点正好位于正十二面体每个面的几何中心处(如图2所示),所以能够将第二步得到的单目相机在当前帧观测到的正十二面体部分面上的每个ArUco码中心点的空间坐标Ai(xi,yi,zi),i=1,2,3,...,n视为当前帧正十二面体内切球球面点(xi,yi,zi)的稀疏点云坐标;当单目相机获得了大于三个ArUco码中心点的空间坐标后即满足多元非线性拟合的数据条件(一般情况下,单目相机每次观测可以获得6-8个ArUco码中心点坐标,即每次观测均能够满足条件),将当前帧正十二面体内切球球面点(xi,yi,zi)与内切球半径视为参数,则内切球的标准方程为:
(xi-x0)2+(yi-y0)2+(zi-z0)2-R内 2=0 (3)
利用非线性最小二乘,对式(3)进行该球面多元非线性函数的球心拟合,构建损失函数如下:
由于多元非线性拟合对初始点要求较高,极容易陷入局部极小值中,因此利用已知球面点坐标(xi,yi,zi)对内切球球心坐标生成一组多元非线性拟合的初始值R初:
再将R初代入式(4)中获得损失函数J的一个值,随后不断更改R初的值使得式(4)中损失函数J的值不断减小,经过多次迭代求解后可以获得一组使得损失函数J最小的(x0,y0,z0)即为当前帧内切球球心坐标(即当前帧正十二面体体心在相机坐标系下的空间坐标t0=(x0,y0,z0))。
优选地,第三步中,初始帧正十二面体体心的空间坐标的获得:将第二步得到的单目相机在初始帧观测到的正十二面体部分面上的每个ArUco码中心点的空间坐标视为初始帧正十二面体内切球球面点的稀疏点云坐标,与当前帧正十二面体体心的空间坐标的获得同理,即可得到初始帧正十二面体体心在相机坐标系下的空间坐标tO=(xO,yO,zO)。
优选地,第三步中,当前帧正十二面体的旋转矩阵的获得:
搜索AWi中与第二步得到的当前帧实际正十二面体的ArUco码的编码对应的虚拟正十二面体的ArUco码的编码,将编码相同的进行匹配,进而获得空间中的一组匹配点:
(AWi,Ai),i=1,2,3,...,n(6)
该组匹配点由实际正十二面体上观测到的ArUco码中心点的空间坐标与虚拟正十二面体上与之对应的ArUco码中心点的空间坐标组成,通过式(7)分别将其去质心化(即将实际正十二面体上观测到的ArUco码中心点的空间坐标与虚拟正十二面体上与之对应的ArUco码中心点的空间坐标的质心均平移至原点处):
得到的qi为实际正十二面体ArUco码中心点的空间坐标的去质心点,qi'为虚拟正十二面体ArUco码中心点的空间坐标的去质心点,进而得到qi和qi'的关系如下:
定义误差项:
式(10)中,tr表示矩阵的迹;
为求解式(10)中的优化目标R,定义矩阵:
对式(11)中的W进行奇异值分解,得到:
W=UΣVT (12)
式(12)中,Σ为W的特征值矩阵,U与V为对角矩阵,则当前帧正十二面体的旋转矩阵R为:
R=UVT (13)。
优选地,第三步中,初始帧正十二面体的旋转矩阵的获得:搜索AWi中与第二步得到的初始帧实际正十二面体的ArUco码的编码对应的虚拟正十二面体的ArUco码的编码,将编码相同的进行匹配,与当前帧正十二面体的旋转矩阵的获得同理,即可获得初始帧正十二面体的旋转矩阵RO。
第四步、根据正十二面体与被测物体的空间相对位置关系间接计算出被测物体的6D位姿。
优选地,第四步具体是:首先构建被测物体坐标系,将正十二面体固定于被测物体上,并计算正十二面体与被测物体之间的相对位姿关系(即计算正十二面体相对于被测物体的相对空间坐标tref和相对旋转矩阵Rref),得到正十二面体相对于被测物体的位姿矩阵Tref:
则被测物体的相对位姿矩阵T:
即得到当前帧被测物体相对于初始帧的空间姿态变化。
所述相机标定方法、ArUco码的生成方法、图像处理算法、Otsu阈值处理算法、位姿计算方法是本领域公知方法。
本发明未述及之处适用于现有技术。
Claims (8)
1.一种基于正十二面体的单目6D位姿估计方法,其特征在于,该方法包括以下步骤:
第一步、使用ArUco吗对正十二面体进行标记,得到ArUco吗标记的正十二面体;标定单目相机,再通过标定后的单目相机观测ArUco吗标记的正十二面体;
第二步,分别对当前帧和初始帧中所有观测到的若干个ArUco吗进行定位,再分别获得当前帧和初始帧中所有观测到的ArUco吗的编吗idi,i=1,2,3,...,n和ArUco吗中心点的空间坐标Ai(xi,yi,zi),i=1,2,3,...,n,n表示某一帧观测到的ArUco吗的数量;
第三步、对第二步得到的当前帧ArUco吗中心点的空间坐标进行多元非线性拟合计算出当前帧正十二面体内切球球心坐标作为当前帧正十二面体体心的空间坐标t0,对初始帧ArUco吗中心点的空间坐标进行多元非线性拟合计算出初始帧正十二面体内切球球心坐标作为初始帧正十二面体体心的空间坐标tO;再通过公式trel=t0-tO求得当前帧正十二面体体心相对于初始帧的相对空间坐标trel;
在相机坐标系原点处构建一个虚拟正十二面体,虚拟正十二面体体心与相机坐标系原点重合,再使用ArUco吗对虚拟正十二面体进行标记并得到虚拟正十二面体所有ArUco吗的编吗及其中心点的空间坐标AWi(xWi,yWi,zWi,idWi),i=1,2,3,...,12;再将第二步得到的当前帧ArUco吗中心点的空间坐标及其编吗与AWi(xWi,yWi,zWi,idWi),i=1,2,3,...,12通过迭代最近点方法计算出当前帧正十二面体的旋转矩阵R,将初始帧ArUco吗中心点的空间坐标及其编吗与AWi(xWi,yWi,zWi,idWi),i=1,2,3,...,12通过迭代最近点方法计算出初始帧正十二面体的旋转矩阵RO,再通过公式计算得到当前帧正十二面体相对于初始帧的相对旋转矩阵Rrel;
再根据相对旋转矩阵Rrel和相对空间坐标trel,得到当前帧正十二面体相对于初始帧正十二面体的位姿矩阵Trel:
式(2)中,SE(3)表示矩阵的属性;
第四步、首先构建被测物体坐标系,将正十二面体固定于被测物体上,并计算正十二面体相对于被测物体的相对空间坐标tref和相对旋转矩阵Rref,得到正十二面体相对于被测物体的位姿矩阵Tref:
则被测物体的相对位姿矩阵T:
得到当前帧被测物体相对于初始帧的空间姿态变化。
2.根据权利要求1所述的基于正十二面体的单目6D位姿估计方法,其特征在于,第一步中,使用ArUco码对正十二面体进行标记的过程为:使用OpenCV图像处理库生成12个ArUco码,将12个ArUco码按编码顺序分别贴附于正十二面体的12个面上,且ArUco码的几何中心与其贴附的面的几何中心重合。
4.根据权利要求1所述的基于正十二面体的单目6D位姿估计方法,其特征在于,第二步中,ArUco码的定位过程是:对单目相机采集到的图像依次进行灰度处理、中值滤波及自适应阈值分割,从分割后的图像中提取ArUco码轮廓,并过滤非凸型和非正方形的图像,进而得到符合要求的候选区域。
5.根据权利要求4所述的基于正十二面体的单目6D位姿估计方法,其特征在于,第二步中,ArUco码的编码的获得:首先对候选区域应用透视变换获得规范正方形标记,使用Otsu阈值处理算法分离黑白色位,并根据标记大小分为不同的单元格;再根据每一个单元格上数量最多的像素所对应的颜色来确定该单元格的颜色,最后根据颜色转化为二进制数值以确定该标记的编码。
6.根据权利要求4所述的基于正十二面体的单目6D位姿估计方法,其特征在于,第二步中,ArUco码中心点的空间坐标的获得:根据候选区域的四个角点信息求出ArUco码中心点的空间坐标,使用OpenCV框架中的ArUco库函数的位姿计算函数,将四个角点信息作为输入,使用PnP方式即可得到ArUco码中心点在相机坐标系下的空间坐标。
7.根据权利要求1所述的基于正十二面体的单目6D位姿估计方法,其特征在于,第三步中,当前帧正十二面体体心的空间坐标的获得:将第二步得到的当前帧观测到的正十二面体部分面上的ArUco码中心点的空间坐标视为当前帧正十二面体内切球球面点(xi,yi,zi)的稀疏点云坐标;当单目相机获得了大于三个ArUco码中心点的空间坐标后,将当前帧正十二面体内切球球面点(xi,yi,zi)与内切球半径视为参数,则内切球的标准方程为:
(xi-x0)2+(yi-y0)2+(zi-z0)2-R内 2=0 (3)
利用非线性最小二乘,对式(3)进行该球面多元非线性函数的球心拟合,构建损失函数如下:
由于多元非线性拟合对初始点要求较高,极容易陷入局部极小值中,因此利用已知球面点坐标(xi,yi,zi)对内切球球心坐标生成一组多元非线性拟合的初始值R初:
再将R初代入式(4)中获得损失函数J的一个值,随后不断更改R初的值使得式(4)中损失函数J的值不断减小,经过多次迭代求解后可以获得一组使得损失函数J最小的(x0,y0,z0)即为当前帧内切球球心坐标。
8.根据权利要求1所述的基于正十二面体的单目6D位姿估计方法,其特征在于,第三步中,当前帧正十二面体的旋转矩阵的获得:
搜索AWi中与第二步得到的当前帧实际正十二面体的ArUco码的编码对应的虚拟正十二面体的ArUco码的编码,将编码相同的进行匹配,进而获得空间中的一组匹配点:
(AWi,Ai),i=1,2,3,...,n (6)
该组匹配点由实际正十二面体上观测到的ArUco码中心点的空间坐标与虚拟正十二面体上与之对应的ArUco码中心点的空间坐标组成,通过式(7)分别将其去质心化:
得到的qi为实际正十二面体ArUco码中心点的空间坐标的去质心点,qi′为虚拟正十二面体ArUco码中心点的空间坐标的去质心点,进而得到qi和qi′的关系如下:
定义误差项:
式(10)中,tr表示矩阵的迹;
为求解式(10)中的优化目标R,定义矩阵:
对式(11)中的W进行奇异值分解,得到:
W=U∑VT (12)
式(12)中,∑为W的特征值矩阵,U与V为对角矩阵,则当前帧正十二面体的旋转矩阵R为:
R=UVT (13)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110022822.XA CN112734843B (zh) | 2021-01-08 | 2021-01-08 | 一种基于正十二面体的单目6d位姿估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110022822.XA CN112734843B (zh) | 2021-01-08 | 2021-01-08 | 一种基于正十二面体的单目6d位姿估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112734843A true CN112734843A (zh) | 2021-04-30 |
CN112734843B CN112734843B (zh) | 2023-03-21 |
Family
ID=75591304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110022822.XA Active CN112734843B (zh) | 2021-01-08 | 2021-01-08 | 一种基于正十二面体的单目6d位姿估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112734843B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117351091A (zh) * | 2023-09-14 | 2024-01-05 | 成都飞机工业(集团)有限责任公司 | 一种相机阵列标定装置及其使用方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107291093A (zh) * | 2017-07-04 | 2017-10-24 | 西北工业大学 | 基于视觉slam的复杂环境下无人机自主降落区域选择方法 |
CN107292927A (zh) * | 2017-06-13 | 2017-10-24 | 厦门大学 | 一种基于双目视觉的对称运动平台位姿测量方法 |
CN108168504A (zh) * | 2017-12-26 | 2018-06-15 | 中国人民解放军战略支援部队信息工程大学 | 一种基于拟合球心法的天线旋转中心标校方法 |
CN108734737A (zh) * | 2018-06-14 | 2018-11-02 | 哈尔滨工业大学 | 基于视觉slam估计空间旋转非合作目标转轴的方法 |
CN109345588A (zh) * | 2018-09-20 | 2019-02-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
US20190370983A1 (en) * | 2017-02-10 | 2019-12-05 | SZ DJI Technology Co., Ltd. | System and method for real-time location tracking of a drone |
CN110962127A (zh) * | 2019-12-10 | 2020-04-07 | 南京航空航天大学 | 一种用于机械臂末端位姿辅助标定装置及其标定方法 |
CN111307146A (zh) * | 2020-03-02 | 2020-06-19 | 北京航空航天大学青岛研究院 | 一种基于双目相机和imu的虚拟现实头戴显示设备定位*** |
CN111981982A (zh) * | 2020-08-21 | 2020-11-24 | 北京航空航天大学 | 一种基于加权sfm算法的多向合作靶标光学测量方法 |
-
2021
- 2021-01-08 CN CN202110022822.XA patent/CN112734843B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190370983A1 (en) * | 2017-02-10 | 2019-12-05 | SZ DJI Technology Co., Ltd. | System and method for real-time location tracking of a drone |
CN107292927A (zh) * | 2017-06-13 | 2017-10-24 | 厦门大学 | 一种基于双目视觉的对称运动平台位姿测量方法 |
CN107291093A (zh) * | 2017-07-04 | 2017-10-24 | 西北工业大学 | 基于视觉slam的复杂环境下无人机自主降落区域选择方法 |
CN108168504A (zh) * | 2017-12-26 | 2018-06-15 | 中国人民解放军战略支援部队信息工程大学 | 一种基于拟合球心法的天线旋转中心标校方法 |
CN108734737A (zh) * | 2018-06-14 | 2018-11-02 | 哈尔滨工业大学 | 基于视觉slam估计空间旋转非合作目标转轴的方法 |
CN109345588A (zh) * | 2018-09-20 | 2019-02-15 | 浙江工业大学 | 一种基于Tag的六自由度姿态估计方法 |
CN110962127A (zh) * | 2019-12-10 | 2020-04-07 | 南京航空航天大学 | 一种用于机械臂末端位姿辅助标定装置及其标定方法 |
CN111307146A (zh) * | 2020-03-02 | 2020-06-19 | 北京航空航天大学青岛研究院 | 一种基于双目相机和imu的虚拟现实头戴显示设备定位*** |
CN111981982A (zh) * | 2020-08-21 | 2020-11-24 | 北京航空航天大学 | 一种基于加权sfm算法的多向合作靶标光学测量方法 |
Non-Patent Citations (1)
Title |
---|
李云雷: "形貌视觉测量中立体拼接靶标的设计及应用", 《仪器仪表学报》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117351091A (zh) * | 2023-09-14 | 2024-01-05 | 成都飞机工业(集团)有限责任公司 | 一种相机阵列标定装置及其使用方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112734843B (zh) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111775152B (zh) | 基于三维测量引导机械臂抓取散乱堆叠工件的方法及*** | |
CN109344882B (zh) | 基于卷积神经网络的机器人控制目标位姿识别方法 | |
CN107590836B (zh) | 一种基于Kinect的充电桩动态识别与定位方法及*** | |
CN112734844B (zh) | 一种基于正八面体的单目6d位姿估计方法 | |
He et al. | Sparse template-based 6-D pose estimation of metal parts using a monocular camera | |
Azad et al. | Stereo-based 6d object localization for grasping with humanoid robot systems | |
Lin et al. | Robotic grasping with multi-view image acquisition and model-based pose estimation | |
CN107977996B (zh) | 基于靶标标定定位模型的空间目标定位方法 | |
CN112857215B (zh) | 一种基于正二十面体的单目6d位姿估计方法 | |
Lambrecht et al. | Towards the usage of synthetic data for marker-less pose estimation of articulated robots in rgb images | |
CN109766903B (zh) | 一种基于曲面特征的点云模型曲面匹配方法 | |
Zheng et al. | Industrial part localization and grasping using a robotic arm guided by 2D monocular vision | |
Lambrecht | Robust few-shot pose estimation of articulated robots using monocular cameras and deep-learning-based keypoint detection | |
Hu et al. | Pipe pose estimation based on machine vision | |
CN106815585B (zh) | 一种复杂动态环境孔特征的高精视觉定位方法 | |
CN112734843B (zh) | 一种基于正十二面体的单目6d位姿估计方法 | |
Sun et al. | Automatic targetless calibration for LiDAR and camera based on instance segmentation | |
Liu et al. | Robust 3-d object recognition via view-specific constraint | |
CN115760984A (zh) | 一种立方星基于单目视觉的非合作目标位姿测量方法 | |
Wu et al. | Object Pose Estimation with Point Cloud Data for Robot Grasping | |
Ngo et al. | Development of a Color Object Classification and Measurement System Using Machine Vision. | |
Zhang et al. | High-precision pose estimation method of the 3C parts by combining 2D and 3D vision for robotic grasping in assembly applications | |
Tellaeche et al. | 6DOF pose estimation of objects for robotic manipulation. A review of different options | |
Li et al. | Real-time CAD-level surface of revolution reconstruction on visual slam | |
Ko et al. | 3D point cloud matching based on Its 2D representation for visual odometry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |