CN111524174A - 一种动平台动目标双目视觉三维构建方法 - Google Patents

一种动平台动目标双目视觉三维构建方法 Download PDF

Info

Publication number
CN111524174A
CN111524174A CN202010300568.0A CN202010300568A CN111524174A CN 111524174 A CN111524174 A CN 111524174A CN 202010300568 A CN202010300568 A CN 202010300568A CN 111524174 A CN111524174 A CN 111524174A
Authority
CN
China
Prior art keywords
images
feature points
cameras
line correction
construction method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010300568.0A
Other languages
English (en)
Other versions
CN111524174B (zh
Inventor
奚勇
印剑飞
朱婧文
陈光山
王兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Aerospace Control Technology Institute
Original Assignee
Shanghai Aerospace Control Technology Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Aerospace Control Technology Institute filed Critical Shanghai Aerospace Control Technology Institute
Priority to CN202010300568.0A priority Critical patent/CN111524174B/zh
Publication of CN111524174A publication Critical patent/CN111524174A/zh
Application granted granted Critical
Publication of CN111524174B publication Critical patent/CN111524174B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种动平台动目标双目视觉三维构建方法,所述方法包括如下步骤:S1:动平台双目测距***获取待测目标在两个相机采集图像中的坐标以及采集图像时两个相机各自的位姿信息;S2:对同一时刻两个相机分别采集的图像进行极线校正;S3:采用ORB算法在极线校正后的两幅图像中提取待测目标的特征点并进行描述;S4:对特征点的brief算子进行双向暴力匹配得到匹配特征点对;S5:根据匹配特征点对,建立透射投影方程组,通过求解透射投影方程组得到特征点在世界坐标系下的三维坐标。本发明用被动的方式实现了对远距离动目标的三维稀疏构建,并满足实时性处理的要求。

Description

一种动平台动目标双目视觉三维构建方法
技术领域
本发明属于三维重构技术领域,尤其涉及一种动平台动目标双目视觉三维构建方法。
背景技术
传统的获取目标三维信息的方法主要分为两种,一种是采用激光雷达、RGB-D相机等主动方式传感器,通过主动向物体发射光并接受返回的光,来获得物体到相机的距离从而获得目标的三维信息,该方法通过物理的测量手段获得目标的三维信息,计算简单,但是对传感器设备本身的要求高;另一种是采用双目相机,双目相机由两个单目相机组成,它们之间的相对位姿通常保持固定,用双目视觉的方式被动解算出目标的三维信息,该方法对传感器设备要求不高。但是双目相机测量到的深度范围与基线(两个相机之间的距离)相关。基线越长,可以构建越远距离的目标三维信息,这也决定了传统的双目相机想要获取越远的目标的三维信息,其体积必然会越大,灵活性差。
发明内容
本发明解决的技术问题是:克服现有技术的不足,提供了一种动平台动目标双目视觉三维构建方法,用动平台实时输出相机自身位姿的方式代替了传统的标定相机外参的方式来建立相机的透射投影关系,使得两个相机在采集目标过程中相对位姿可以不断变化从而保证了在延长基线的同时并不增加双目相机采集***的体积,使得该***更加灵活,可以适用于远距离动目标的三维稀疏构建。
本发明目的通过以下技术方案予以实现:一种动平台动目标双目视觉三维构建方法,所述方法包括如下步骤:S1:动平台双目测距***获取待测目标在两个相机采集图像中的坐标以及采集图像时两个相机各自的位姿信息;S2:对同一时刻两个相机分别采集的图像进行极线校正,使得两幅图像对应的特征点在同一条扫面线上;S3:采用ORB算法在极线校正后的两幅图像中提取待测目标的特征点并进行描述;S4:根据极线校正后的两幅图像的特征点在同一扫面线上的特点对特征点的brief算子进行双向暴力匹配得到匹配特征点对;S5:根据匹配特征点对,建立透射投影方程组,通过求解透射投影方程组得到特征点在世界坐标系下的三维坐标,从而完成目标的三维点云构建。
上述动平台动目标双目视觉三维构建方法中,在步骤S2中,对同一时刻两个相机分别采集的图像进行极线校正,使得两幅图像对应的特征点在同一条扫面线上,并求得极线校正后的投射投影矩阵包括如下步骤:S21:两个相机的内参相同且已知,将两个相机各自的位姿信息同一转换到世界坐标系下,解算出两个相机的旋转矩阵和平移向量;S22:采用Fusiello极线校正方法对两幅图像进行校正得到极线校正后的图像。
上述动平台动目标双目视觉三维构建方法中,在步骤S3中,采用ORB算法在极线校正后的两幅图像中提取待测目标的特征点并进行描述包括如下步骤:S31:生成特征点在N×N区域内选取128个点对模板S;S32:分别提取两幅图像的FAST特征点,计算以特征点O为中心n×n区域的灰度质心坐标C,并计算向量
Figure BDA0002453832860000021
的方向θ;S33:将步骤S31中的128个点对模板旋S转θ角度,得到每个区域内新的点对坐标Sθ;S34:比较以特征点为中心的N×N区域中Sθ位置点对的灰度值大小,生成特征点的BRIEF描述子。
上述动平台动目标双目视觉三维构建方法中,在步骤S4中,根据极线校正后的两幅图像的特征点在同一扫面线上的特点对特征点的brief算子进行双向暴力匹配得到匹配特征点对包括如下步骤:S41:先以第一相机极线校正后的图像为基准,遍历该图像上的特征点,假设其中一特征点的坐标为p(x,y),其BRIEF描述子为(a1,...,ak...,a128),然后在第二相机极线校正后的图像上遍历(y-5,y+5)范围内的特征点,得到qj(xj,yj),其BRIEF描述子为(b1j,...,bkj...,b128j);其中,j=1,2,...,m;S42:得到匹配距离最近的特征点,和第二近的特征点,当最近距离和次近距离的比值小于阈值,那么认为匹配成功,反之则失败;S43:以第二相机极线校正后的图像为基准,再重复步骤S41至步骤S42;S44:若两幅图像间的特征点相互匹配到彼此,那么则认为匹配成功,并保存匹配成功特征点的坐标。
上述动平台动目标双目视觉三维构建方法中,在步骤S32中,灰度质心坐标C通过以下公式得到:
Figure BDA0002453832860000031
其中,(x,y)分别表示图像坐标,I(x,y)表示图像在(x,y)处的灰度值。
上述动平台动目标双目视觉三维构建方法中,在步骤S32中,向量
Figure BDA0002453832860000032
的方向θ通过以下公式得到:
Figure BDA0002453832860000033
上述动平台动目标双目视觉三维构建方法中,在步骤S33中,每个区域内新的点对坐标Sθ通过以下公式得到:
Figure BDA0002453832860000034
上述动平台动目标双目视觉三维构建方法中,在步骤S34中,特征点的BRIEF描述子通过以下公式得到:
Figure BDA0002453832860000035
其中,
Figure BDA0002453832860000036
fd为特征点的BRIEF描述子。
上述动平台动目标双目视觉三维构建方法中,在步骤S41中,利用特征点描述子之间的汉明距离比较它们的相似性通过以下公式得到:
Figure BDA0002453832860000041
其中,
Figure BDA0002453832860000042
表示异或运算。
上述动平台动目标双目视觉三维构建方法中,在步骤S21中,两个相机位置参数为
Figure BDA0002453832860000043
姿态参数为ξiiii),其中λi表示经度,
Figure BDA0002453832860000044
表示纬度,hi表示高度,ψi表示方位角,θi表示俯仰角,γi表示滚转角;其中,i=1,2;那么其世界坐标系下坐标ti(Xi,Yi,Zi)可以通过以下公式计算得到:
Figure BDA0002453832860000045
其中,Re为地球半径,Rf为地球扁率,i为相机的编号。
本发明与现有技术相比具有如下有益效果:
(1)本发明以纯被动的方式实时解算出待构建目标特征点的三维绝对坐标;
(2)本发明用动平台实时输出相机自身位姿的方式代替了传统的标定相机外参的方式来建立相机的透射投影关系,使得两个相机在采集目标过程中相对位姿可以不断变化从而保证了在延长基线的同时并不增加双目相机采集***的体积,使得该***更加灵活,可以适用于远距离动目标的三维稀疏构建。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为动平台动目标双目视觉三维构建技术算法流程图;
图2为相机成像模型示意图;
图3为极线校正前两幅图像特征点对应关系示意图;
图4为极线校正后两幅图像特征点对应关系示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
本发明动平台动目标双目视觉三维构建技术,如附图1所示,具体步骤如下:
S1:动平台双目测距***获取待测目标在两个相机采集图像中的坐标以及采集目标图像时两个相机各自的位姿信息;
S2:根据组合导航设备采集到的信息,解算出相机的外参矩阵。对同一时刻两个相机分别采集的图像对进行极线校正,使得两幅图像对应的特征点在同一条扫面线上(即y轴坐标一样),如附图4所示,相机1上的特征点p对应于相机2上的一条红色直线,并求得极线校正后的投射投影矩阵;图3为极线校正前两幅图像特征点对应关系示意图;
S3:采用ORB算法在校正后的图像中提取待构建目标的特征点并进行描述;
S4:根据极线校正后两幅图像的特征点在同一扫面线上的特点对特征点的brief算子进行双向暴力匹配;
S5:根据匹配特征点对,建立透射投影方程组,通过求解方程组得到特征点在世界坐标系下的三维坐标,从而完成目标的三维点云构建。
上述S1中,首先将两个具有相同内参的单目相机分开放置,为了保证测量精度,两相机之间放置距离尽可能远一些。分别将单目相机和导航设备(卫导和惯组)通过工装固连,惯组的滚转轴和相机的光轴平行。通过分别调整两个相机的位置和姿态使得两个相机从不同角度同时获取目标的图像信息,并记录下此时惯组和卫导输出的相机的姿态和位置信息。
上述S2中,具体包括以下步骤:
S21:选取地心地固坐标系为世界坐标系,将采集得到的两个相机的位姿信息统一转换到世界坐标系下。假设导航设备采集得到的两个相机位置参数为
Figure BDA0002453832860000061
姿态参数为ξiiii)(i=1,2),其中λi表示经度,
Figure BDA0002453832860000062
表示纬度,hi表示高度,ψi表示方位角,θi表示俯仰角,γi表示滚转角。那么其世界坐标系下坐标ti(Xi,Yi,Zi)可以通过以下公式计算得到:
Figure BDA0002453832860000063
其中,Re为地球半径,Rf为地球扁率。
S22:然后根据小孔成像模型,如附图2所示,建立以下两个相机关于目标的投射投影方程。
Figure BDA0002453832860000064
其中,
Figure BDA0002453832860000065
为相机内参矩阵,Ri为旋转矩阵,只与相机的外参(位姿)有关。
Figure BDA0002453832860000066
为尺度因子,f为相机的焦距,dx、dy为像元尺寸,u0、v0为相机光心的像素坐标,Mi为3×4的透视投影矩阵,P(x,y,z)为待测目标在地心地固坐标系下的三维坐标。
S23:采用Fusiello极线校正方法对两幅图像进行校正:
根据原始的投射投影矩阵求得原始两个相机的光心在世界坐标系中的位置:
Ci=-(Mi(:,1:3))-1Mi(:,4),(i=1,2)
构造新的旋转矩阵R':
Figure BDA0002453832860000071
v1=C1-C2
v2=(R1(3,:))T×v1
v3=v1×v2
新的投射投影矩阵为:
M′i=A[R' -R'Ci],(i=1,2)
计算图像空间变换矩阵:
Ti=M′i(:,1:3)(Mi(:,1:3))-1
分别用对应的空间变换矩阵来校正两个相机得到的图像,得到极线校正后的图像。
上述S3中,具体包括以下步骤:
S31:生成特征点在N×N区域内选取128个点对
Figure BDA0002453832860000072
的模板,X和Y都符合
Figure BDA0002453832860000073
的独立高斯分布;
S32:分别提取两幅图像的FAST特征点,计算以特征点O为中心n×n区域的灰度质心坐标C:
Figure BDA0002453832860000074
其中,x,y分别表示图像坐标,I(x,y)表示图像在(x,y)处的灰度值。
计算向量
Figure BDA0002453832860000075
的方向θ:
Figure BDA0002453832860000081
S33:将S31中的点对模板旋转θ角度,得到每个区域内新的点对坐标
Figure BDA0002453832860000082
Figure BDA0002453832860000083
S34:比较以特征点为中心的N×N区域中Sθ位置点对的灰度值大小,生成BRIEF描述子:
Figure BDA0002453832860000084
Figure BDA0002453832860000085
其中,fd即为特征点的BRIEF描述子。
上述S4中,具体包括以下步骤:
S41:先以相机1极线校正后的图像为基准,遍历该图像上的特征点,假设其中一点的坐标为p(x,y),其BRIEF描述子为(a1,...,ak...,a128),然后在相机2极线校正后的图像上遍历(y-5,y+5)范围内的特征点,得到qj(xj,yj)(j=1,2,...,m),其BRIEF描述子为(b1j,...,bkj...,b128j)并利用特征点描述子之间的汉明距离比较它们的相似性:
Figure BDA0002453832860000086
其中,
Figure BDA0002453832860000087
表示异或运算;
S42:得到匹配距离最近的特征点,和第二近的特征点,当最近距离和次近距离的比值小于阈值,那么认为匹配成功,反之则失败;其中,阈值为2-10。
S43:以相机2极线校正后的图像为基准,再重复S41和S42;
S44:遍历双向匹配结果,若两幅图像间的特征点相互匹配到彼此,那么则认为匹配成功,并保存匹配成功特征点的坐标。
上述S5中,假设得到的匹配点对其中的一对为(u1,v1)和(u2,v2),那么建立透射投影方程组为:
Figure BDA0002453832860000091
通过最小二乘算法可以求得超定方程组唯一解:
P=(HTH)-1HTB
其中,
Figure BDA0002453832860000092
P即待测目标在地心地固坐标系下的坐标。
本实施例适用于远距离被动探测时对动目标进行三维构建。该方法主要应用在实时性较强的动平台双目测距***中,该***采用相机和组合导航设备(卫导和惯组)固连,通过分别调整两个相机的位置和姿态使得两个相机从不同角度同时获取待测目标的图像信息,并记录下此时惯组和卫导输出的相机的姿态和位置信息。对两个相机同一时刻获取的图像进行极线校正。采用ORB(Oriented FAST and Rotated BRIEF)算法在校正后的图像中提取待构建目标的特征点并进行描述。根据极线约束和特征点的BRIEF描述子,采用双向暴力匹配对特征点进行匹配。采用匹配得到的特征点对以及导航设备采集得到的相机的位姿建立两个相机与同一个待构建目标上的特征点间的透射投影方程组,通过解方程得到特征点在世界坐标系下的三维坐标,从而完成对目标的三维构建。该方法用被动的方式实现了对远距离动目标的三维稀疏构建,并满足实时性处理的要求。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。

Claims (9)

1.一种动平台动目标双目视觉三维构建方法,其特征在于,所述方法包括如下步骤:
S1:获取待测目标在两个相机采集图像中的坐标以及采集图像时两个相机各自的位姿信息;
S2:对同一时刻两个相机分别采集的图像进行极线校正,使得两幅图像对应的特征点在同一条扫面线上;
S3:采用ORB算法在极线校正后的两幅图像中提取待测目标的特征点并进行描述;
S4:根据极线校正后的两幅图像的特征点在同一扫面线上的特点对特征点的brief算子进行双向暴力匹配得到匹配特征点对;
S5:根据匹配特征点对,建立透射投影方程组,通过求解透射投影方程组得到特征点在世界坐标系下的三维坐标,从而完成目标的三维点云构建。
2.根据权利要求1所述的动平台动目标双目视觉三维构建方法,其特征在于:在步骤S2中,对同一时刻两个相机分别采集的图像进行极线校正,使得两幅图像对应的特征点在同一条扫面线上,并求得极线校正后的投射投影矩阵包括如下步骤:
S21:两个相机的内参相同且已知,将两个相机各自的位姿信息同一转换到世界坐标系下,解算出两个相机的旋转矩阵和平移向量;
S22:采用Fusiello极线校正方法对两幅图像进行校正得到极线校正后的图像。
3.根据权利要求1所述的动平台动目标双目视觉三维构建方法,其特征在于:在步骤S3中,采用ORB算法在极线校正后的两幅图像中提取待测目标的特征点并进行描述包括如下步骤:
S31:生成特征点在N×N区域内选取128个点对模板S;
S32:分别提取两幅图像的FAST特征点,计算以特征点O为中心n×n区域的灰度质心坐标C,并计算向量
Figure FDA0002453832850000021
的方向θ;
S33:将步骤S31中的128个点对模板旋S转θ角度,得到每个区域内新的点对坐标Sθ
S34:比较以特征点为中心的N×N区域中Sθ位置点对的灰度值大小,生成特征点的BRIEF描述子。
4.根据权利要求1所述的动平台动目标双目视觉三维构建方法,其特征在于:在步骤S4中,根据极线校正后的两幅图像的特征点在同一扫面线上的特点对特征点的brief算子进行双向暴力匹配得到匹配特征点对包括如下步骤:
S41:先以第一相机极线校正后的图像为基准,遍历该图像上的特征点,假设其中一特征点的坐标为p(x,y),其BRIEF描述子为(a1,...,ak...,a128),然后在第二相机极线校正后的图像上遍历(y-5,y+5)范围内的特征点,得到qj(xj,yj),其BRIEF描述子为(b1j,...,bkj...,b128j);其中,j=1,2,...,m;
S42:得到匹配距离最近的特征点,和第二近的特征点,当最近距离和次近距离的比值小于阈值,那么认为匹配成功,反之则失败;
S43:以第二相机极线校正后的图像为基准,再重复步骤S41至步骤S42;
S44:若两幅图像间的特征点相互匹配到彼此,那么则认为匹配成功,并保存匹配成功特征点的坐标。
5.根据权利要求3所述的动平台动目标双目视觉三维构建方法,其特征在于:在步骤S32中,灰度质心坐标C通过以下公式得到:
Figure FDA0002453832850000022
其中,(x,y)分别表示图像坐标,I(x,y)表示图像在(x,y)处的灰度值。
6.根据权利要求5所述的动平台动目标双目视觉三维构建方法,其特征在于:在步骤S32中,向量
Figure FDA0002453832850000023
的方向θ通过以下公式得到:
Figure FDA0002453832850000031
7.根据权利要求5所述的动平台动目标双目视觉三维构建方法,其特征在于:在步骤S33中,每个区域内新的点对坐标Sθ通过以下公式得到:
Figure FDA0002453832850000032
8.根据权利要求5所述的动平台动目标双目视觉三维构建方法,其特征在于:在步骤S34中,特征点的BRIEF描述子通过以下公式得到:
Figure FDA0002453832850000033
其中,
Figure FDA0002453832850000034
fd为特征点的BRIEF描述子。
9.根据权利要求4所述的动平台动目标双目视觉三维构建方法,其特征在于:在步骤S21中,两个相机位置参数为
Figure FDA0002453832850000035
姿态参数为ξiiii),其中λi表示经度,
Figure FDA0002453832850000036
表示纬度,hi表示高度,ψi表示方位角,θi表示俯仰角,γi表示滚转角;其中,i=1,2;那么其世界坐标系下坐标ti(Xi,Yi,Zi)可以通过以下公式计算得到:
Figure FDA0002453832850000037
其中,Re为地球半径,Rf为地球扁率,i为相机的编号。
CN202010300568.0A 2020-04-16 2020-04-16 一种动平台动目标双目视觉三维构建方法 Active CN111524174B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010300568.0A CN111524174B (zh) 2020-04-16 2020-04-16 一种动平台动目标双目视觉三维构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010300568.0A CN111524174B (zh) 2020-04-16 2020-04-16 一种动平台动目标双目视觉三维构建方法

Publications (2)

Publication Number Publication Date
CN111524174A true CN111524174A (zh) 2020-08-11
CN111524174B CN111524174B (zh) 2023-08-29

Family

ID=71903359

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010300568.0A Active CN111524174B (zh) 2020-04-16 2020-04-16 一种动平台动目标双目视觉三维构建方法

Country Status (1)

Country Link
CN (1) CN111524174B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257535A (zh) * 2020-10-15 2021-01-22 天目爱视(北京)科技有限公司 一种躲避物体的三维匹配的设备及方法
CN112308889A (zh) * 2020-10-23 2021-02-02 香港理工大学深圳研究院 一种利用矩形及扁率信息的点云配准方法及存储介质
CN114092549A (zh) * 2021-06-25 2022-02-25 上海航天控制技术研究所 一种动态组网协同探测***及方法
CN114608450A (zh) * 2022-03-10 2022-06-10 西安应用光学研究所 机载光电***对远距离海面目标三维尺寸测算方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548173A (zh) * 2016-11-24 2017-03-29 国网山东省电力公司电力科学研究院 一种基于分级匹配策略的改进无人机三维信息获取方法
CN107588721A (zh) * 2017-08-28 2018-01-16 武汉科技大学 一种基于双目视觉的零件多尺寸的测量方法及***
WO2018103693A1 (zh) * 2016-12-07 2018-06-14 西安知象光电科技有限公司 一种三维轮廓的光学混合检测方法
CN108510530A (zh) * 2017-02-28 2018-09-07 深圳市朗驰欣创科技股份有限公司 一种三维点云匹配方法及其***
CN110009690A (zh) * 2019-03-23 2019-07-12 西安电子科技大学 基于极线校正的双目立体视觉图像测量方法
CN110349251A (zh) * 2019-06-28 2019-10-18 深圳数位传媒科技有限公司 一种基于双目相机的三维重建方法及装置
CN110425996A (zh) * 2019-07-31 2019-11-08 工极智能科技(苏州)有限公司 基于双目立体视觉的工件尺寸测量方法
CN110849331A (zh) * 2019-11-04 2020-02-28 上海航天控制技术研究所 基于三维点云数据库模型的单目视觉测量与地面试验方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548173A (zh) * 2016-11-24 2017-03-29 国网山东省电力公司电力科学研究院 一种基于分级匹配策略的改进无人机三维信息获取方法
WO2018103693A1 (zh) * 2016-12-07 2018-06-14 西安知象光电科技有限公司 一种三维轮廓的光学混合检测方法
CN108510530A (zh) * 2017-02-28 2018-09-07 深圳市朗驰欣创科技股份有限公司 一种三维点云匹配方法及其***
CN107588721A (zh) * 2017-08-28 2018-01-16 武汉科技大学 一种基于双目视觉的零件多尺寸的测量方法及***
CN110009690A (zh) * 2019-03-23 2019-07-12 西安电子科技大学 基于极线校正的双目立体视觉图像测量方法
CN110349251A (zh) * 2019-06-28 2019-10-18 深圳数位传媒科技有限公司 一种基于双目相机的三维重建方法及装置
CN110425996A (zh) * 2019-07-31 2019-11-08 工极智能科技(苏州)有限公司 基于双目立体视觉的工件尺寸测量方法
CN110849331A (zh) * 2019-11-04 2020-02-28 上海航天控制技术研究所 基于三维点云数据库模型的单目视觉测量与地面试验方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
肖志涛;卢晓方;耿磊;张芳;吴骏;李月龙;郎建业;甘鹏;刘洋;: "基于极线校正的亚像素相位立体匹配方法", no. 1 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112257535A (zh) * 2020-10-15 2021-01-22 天目爱视(北京)科技有限公司 一种躲避物体的三维匹配的设备及方法
CN112257535B (zh) * 2020-10-15 2022-04-08 天目爱视(北京)科技有限公司 一种躲避物体的三维匹配的设备及方法
CN112308889A (zh) * 2020-10-23 2021-02-02 香港理工大学深圳研究院 一种利用矩形及扁率信息的点云配准方法及存储介质
CN112308889B (zh) * 2020-10-23 2021-08-31 香港理工大学深圳研究院 一种利用矩形及扁率信息的点云配准方法及存储介质
CN114092549A (zh) * 2021-06-25 2022-02-25 上海航天控制技术研究所 一种动态组网协同探测***及方法
CN114608450A (zh) * 2022-03-10 2022-06-10 西安应用光学研究所 机载光电***对远距离海面目标三维尺寸测算方法
CN114608450B (zh) * 2022-03-10 2023-09-26 西安应用光学研究所 机载光电***对远距离海面目标三维尺寸测算方法

Also Published As

Publication number Publication date
CN111524174B (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
CN111524174B (zh) 一种动平台动目标双目视觉三维构建方法
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
CN108534782B (zh) 一种基于双目视觉***的地标地图车辆即时定位方法
CN102472609B (zh) 位置和姿势校准方法及设备
KR101791590B1 (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
CN110728715A (zh) 一种智能巡检机器人像机角度自适应调整方法
CN110334701B (zh) 数字孪生环境下基于深度学习和多目视觉的数据采集方法
JP2013187862A (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
CN107729893A (zh) 一种合模机的视觉定位方法、***和存储介质
CN108413917B (zh) 非接触式三维测量***、非接触式三维测量方法及测量装置
CN111220120B (zh) 一种动平台双目测距自校准方法及装置
CN113724337B (zh) 一种无需依赖云台角度的相机动态外参标定方法及装置
CN114529605A (zh) 一种基于多视图融合的人体三维姿态估计方法
CN109410234A (zh) 一种基于双目视觉避障的控制方法及控制***
CN111998862A (zh) 一种基于bnn的稠密双目slam方法
JP2023505891A (ja) 環境のトポグラフィを測定するための方法
CN111583342B (zh) 一种基于双目视觉的目标快速定位方法及装置
CN111105467B (zh) 一种图像标定方法、装置及电子设备
CN111508025A (zh) 三维位置估计装置以及程序
CN116129037A (zh) 视触觉传感器及其三维重建方法、***、设备及存储介质
Seo et al. A branch-and-bound algorithm for globally optimal calibration of a camera-and-rotation-sensor system
CN114119652A (zh) 用于三维重构的方法和装置以及电子设备
CN112016568A (zh) 一种目标对象的图像特征点的跟踪方法及装置
CN113240749B (zh) 一种面向海上舰船平台无人机回收的远距离双目标定与测距方法
CN113674353B (zh) 一种空间非合作目标精确位姿测量方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant