CN107680159B - 一种基于投影矩阵的空间非合作目标三维重建方法 - Google Patents

一种基于投影矩阵的空间非合作目标三维重建方法 Download PDF

Info

Publication number
CN107680159B
CN107680159B CN201710957020.1A CN201710957020A CN107680159B CN 107680159 B CN107680159 B CN 107680159B CN 201710957020 A CN201710957020 A CN 201710957020A CN 107680159 B CN107680159 B CN 107680159B
Authority
CN
China
Prior art keywords
camera
pixel
matrix
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710957020.1A
Other languages
English (en)
Other versions
CN107680159A (zh
Inventor
宁昕
张丕辉
李帅
张家巍
袁建平
李羿霏
任璐
张敬敏
高尔心
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201710957020.1A priority Critical patent/CN107680159B/zh
Publication of CN107680159A publication Critical patent/CN107680159A/zh
Application granted granted Critical
Publication of CN107680159B publication Critical patent/CN107680159B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于投影矩阵的空间非合作目标三维重建方法,首先将左右摄像机拍摄的图像进行特征点提取,再依据图像匹配原则将对应的特征点匹配;然后根据对极几何约束原理,求出旋转矩阵R和平移矩阵T;最后通过三维空间点到图像平面投影矩阵关系,计算出三维空间点坐标。本发明在图像特征点匹配正确的情况下,仅通过对极几何约束便可以求解出摄像机内外参数,省去了摄像机标定的繁琐步骤,减小了计算量,缩短了重建时间,可以满足航天器操作对实时性的要求。

Description

一种基于投影矩阵的空间非合作目标三维重建方法
技术领域
本发明涉及一种空间非合作目标三维重建方法,属于三维重建领域。
背景技术
随着航天技术的发展,人类对外太空资源的探索和开发越来越深入。航天器发生故障、失效或完成任务后被抛弃,将在空间自由漂浮,即成为太空垃圾。因此,以传统航天器的在轨维护、失效卫星清理、空间碎片清理、太空攻防等为目的的空间非合作目标捕获技术成为了空间机器人领域新的发展方向。而获取目标的准确位置信息是实现对其进行检测、逼近、交会对接及维修等操作的前提。空间非合作目标三维重建技术作为获取目标信息的有效技术从而便成为了研究热点。
目前,国内外学者围绕空间非合作目标三维重建已经展开了相关研究工作。Tommasi提出摄影重建方法,核心思想是利用因式分解法,从两张图像恢复出场景的几何结构和摄像机运动信息。Faugeras提出采用不同的几何约束信息,将射影重建转化为欧氏空间的度量重建,但此方法仅适用于各种几何条件约束下的对象,且要求存在射影重建。Pollefeyes给出了更为普遍的方法,在摄像机的焦距长度变化情况下,使用参数范围内自动缩放方法来实现度量重建。Longuet-Higgins提出摄像机运动中恢复三维结构(Structure From Motion,SFM),主要思想是利用特征点检测及计算机几何约束关系等关键技术,计算出摄像机的内部参数及摄像机的方向、位置等信息,再重建出场景的三维结构模型。Yasutaka Furukawa和Jean Ponce提出基于面片的三维多视角立体视觉算法(Patch-Based Multi-View Stereo,PMVS),其思想主要分为三部分:初始化特征点匹配、面片生成扩展、面片筛选。上述方法大都是基于三角测量法对三维空间点坐标进行求解,求解过程计算耗时长,不能满足空间操作的实时性要求。
发明内容
为了克服现有技术的不足,本发明提供一种基于投影矩阵空间非合作目标三维重建方法,能够在给定图像平面像素点坐标位置的情况下,通过投影矩阵和摄像机内外参数,求解得到三维空间点坐标,进而对空间非合作目标进行三维重建。
本发明解决其技术问题所采用的技术方案包括以下步骤:
(1)采用针孔模型将三维空间点投影到相机像素平面中,设O-x-y-z为相机坐标系,z轴指向相机前方,x向右,y向下,O为摄像机光心;三维空间中的点P,经过光心O投影之后,落在相机图像平面O'-x'-y'上,成像点为P';设P的坐标为[X,Y,Z]T,P'的坐标为[X',Y',Z']T,相机图像平面到光心的距离为f,则
Figure BDA0001434139890000021
Figure BDA0001434139890000022
(2)设在图像平面上固定一个像素平面o-u-v,像素坐标系的原点o位于图像平面的左上角,u轴向右与x轴平行,v轴向下与y轴平行;像素坐标系与成像平面之间相差了一个缩放和一个原点的平移,假设像素坐标在u轴上缩放了α倍,在v上缩放了β倍,同时原点平移了[cx,cy]T,则存在
Figure BDA0001434139890000023
此时像素p'坐标为[u,v]T,空间点P坐标为[X,Y,Z]T,K为摄像机内参矩阵;
(3)根据步骤(2)得到的空间点和图像像素转换关系,此时从两张图像中得到一对配准好的特征点p1',p'2,则有Zp′1=KP、Zp'2=K(RP+T),R、T为旋转矩阵和平移矩阵;取x1=K-1p′1,x2=K-1p'2,则有x2=Rx1+T;此时得到对极几何约束
Figure BDA0001434139890000024
根据配准点的像素位置求出R、T;
(4)假设第i副图像投影矩阵为Ni,摄像机内参数为
Figure BDA0001434139890000025
旋转矩阵为Ri,平移向量为Ti;第i+1副图像投影矩阵为Ni+1,摄像机内参数为
Figure BDA0001434139890000026
旋转矩阵为Ri+1,平移向量为Ti+1;则有Ni=Ki(Ri/Ti),Ni+1=Ki+1(Ri+1/Ti+1);根据步骤(3)中的坐标系转换关系,得Zp′i=Ni·P,Zp'i+1=Ni+1.P;其中,
Figure BDA0001434139890000028
Figure BDA0001434139890000031
代入求解得
Figure BDA0001434139890000032
其中
Figure BDA0001434139890000033
Figure BDA0001434139890000034
即[Xw,Yw,Zw]=BA-1
本发明的有益效果是:在图像特征点匹配正确的情况下,仅通过对极几何约束便可以求解出摄像机内外参数,省去了摄像机标定的繁琐步骤,最后通过投影矩阵关系,恢复出未知物体的三维状态,从而减小了计算量,缩短了重建时间,可以满足航天器操作对实时性的要求,有利于卫星、空间机器人等执行检测、逼近、交会对接及维修等操作。
附图说明
图1是针孔相机模型示意图;
图2是相似三角形示意图;
图3是图像坐标系和像素坐标系示意图;
图4是对极几何约束示意图;
图5是双目立体相机示意图;
图6双目立体视觉输入图像;
图7不同视角下的三维重建点云结果;
图8加上纹理的三维重建结果。
具体实施方式
下面结合附图和实施例对本发明进一步说明,本发明包括但不仅限于下述实施例。
本发明的思路是:首先将左右摄像机拍摄的图像进行特征点提取,再依据图像匹配原则将对应的特征点匹配;然后根据对极几何约束原理,求出旋转矩阵R和平移矩阵T;最后通过三维空间点到图像平面投影矩阵关系,计算出三维空间点坐标。
具体求解方法如下:
(1)首先将三维空间点投影到相机像素平面中,对于这种的投影关系,我们采用针孔模型来对这种映射关系进行建模。设O-x-y-z为相机坐标系,z轴指向相机前方,x向右,y向下,O为摄像机光心。三维空间中的点P,经过光心O投影之后,落在相机图像平面O'-x'-y'上,成像点为P'。设P的坐标为[X,Y,Z]T,P'为[X',Y',Z']T,并且设相机图像平面到光心的距离为f(焦距)。则根据相似三角形关系
Figure BDA0001434139890000041
所以
Figure BDA0001434139890000042
(2)基于步骤(1)中给出的针孔模型,描述的是点P和它的像之间的空间关系。不过,在相机中,最终获得的是一个个的像素,还需要在成像平面上对像进行采样和量化。为了描述传感器将感受到的光线转换成图像像素的过程,设在图像平面上固定一个像素平面o-u-v。像素坐标系通常的定义方式是:原点o位于图像平面的左上角,u轴向右与x轴平行,v轴向下与y轴平行。像素坐标系与成像平面之间,相差了一个缩放和一个原点的平移,在此,假设像素坐标在u轴上缩放了α倍,在v上缩放了β倍,同时原点平移了[cx,cy]T。存在
Figure BDA0001434139890000043
此时像素p'坐标为[u,v]T,空间点P坐标为[X,Y,Z]T,K为内参矩阵。
(3)根据步骤(2)得到的空间点和图像像素转换关系,此时从两张图像中得到一对配准好的特征点。假设像素点分别为p1',p'2,则有Zp′1=KP,Zp'2=K(RP+T),R,T为旋转矩阵和平移矩阵。取x1=K-1p′1,x2=K-1p'2,则有x2=Rx1+T。此时两边同时左乘T^,得到T^x2=T^Rx1;再同时左乘x2 T,得到
Figure BDA0001434139890000044
上式即为对极几何约束。该约束简单地给出了两个配准点的空间位置关系,我们只需要根据配准点的像素位置求出R,T。
(4)根据步骤(3),我们已经求得R,T。假设第i副图像投影矩阵为Ni,摄像机内参数为Ki,旋转矩阵为Ri,平移向量为Ti;第i+1副图像投影矩阵为Ni+1,摄像机内参数为Ki+1,旋转矩阵为Ri+1,平移向量为Ti+1。则有Ni=Ki(Ri/Ti),Ni+1=Ki+1(Ri+1/Ti+1)。再根据步骤(3)中的坐标系转换关系,得Zp'i=Ni·P,Zp'i+1=Ni+1·P。代入求解得
Figure BDA0001434139890000052
其中
Figure BDA0001434139890000053
Figure BDA0001434139890000054
即[Xw,Yw,Zw]=BA-1
本发明的实施例包括以下步骤:
第一步,首先将三维空间点投影到相机平面上,对于这种投影关系,采用针孔模型来对这种映射关系进行建模。如图1所示为针孔相机模型示意图。相机坐标系为O-x-y-z,三维空间点坐标P为(X,Y,Z)T;图像坐标系为O'-x'-y',成像点为P'(X',Y',Z')T
第二步,从图1中可以看出,三维空间点坐标P和成像点P’存在如图2的相似三角形关系,有:
Figure BDA0001434139890000055
整理得:
Figure BDA0001434139890000056
第三步,如图3,在成像平面上固定着一个像素平面o-u-v。设像素坐标在u轴上缩放了α倍,在v上缩放了β倍,同时原点平移了[cx,cy]T。那么,P’的坐标与像素坐标[u,v]T的关系为
Figure BDA0001434139890000061
将式(3)带入式(2)并把αf合并成fx,把βf合并成fy,得:
Figure BDA0001434139890000062
其中,f单位为米,α,β单位为像素/米,所以fx,fy的单位为像素。把该式写成矩阵形式:
Figure BDA0001434139890000063
其中K为摄像机内参数矩阵。此时,把左摄像机坐标系当作世界坐标系,则右坐标系与左摄像机坐标系存在一个旋转和平移的关系。
第四步,如图4,我们从两张图像中找到了一对配对好的特征点p1',p2',右图像与左图像存在着旋转矩阵R和平移矩阵T的关系。两个相机中心分别为O1,O2,O1,O2,P三点确定的平面为极平面。O1O2称为基线,O1O2连线与像平面I1,I2的交点分别为e1,e2,称为极点。极平面与两个像平面I1,I2之间的相交线l1,l2为极线。由针孔模型,有:
Zp'1=KP,Zp'2=K(RP+T) (6)
如果使用齐次坐标,也可以把上式写成在非零常数下成立的等式:
p′1=KP,p'2=K(RP+T) (7)
取:
x1=K-1p′1,x2=K-1p'2 (8)
x1,x2是两个像素点的归一化平面上的坐标。带入式(7),得:
x2=Rx1+T (9)
两边同时左乘T^,相当于两侧同时与T做外积:
T^x2=T^Rx1 (10)
再同时左乘x2 T:
Figure BDA0001434139890000065
观察等式左侧,T^x2是一个与T和x2都垂直的向量。把它再与x2做内积时,得到0。
Figure BDA0001434139890000071
重新代入p1',p2',有:
p'2 TK-TT^RK-1p1'=0 (13)
这两个式子都称为对极几何约束。它的意义在于O1,O2,P三者共面,对极几何约束同时包含了平移和旋转。所以我们可以通过配对点的像素位置求解出R和T。
第五步,根据相机坐标系与像素坐标系的关系,设投影矩阵分别为N1、N2。将左摄像机坐标系看为世界坐标系,则左、右两幅图像投影关系如下:
Figure BDA0001434139890000072
式中,I是3×3单位矩阵,R为旋转矩阵,T为平移矩阵。K1,K2分别是左右摄像机内参数。
世界坐标系投影到像素坐标系有如下的关系:
Figure BDA0001434139890000073
将该算法应用到第i副图像和第i+1副图像上。假设第i副图像投影矩阵为Ni,摄像机内参数为Ki,旋转矩阵为Ri,平移向量为Ti;第i+1副图像投影矩阵为Ni+1,摄像机内参数为Ki+1,旋转矩阵为Ri+1,平移向量为Ti+1。代入式(14),则有:
Figure BDA0001434139890000074
根据式(16),便可求出Ni、Ni+1。代入式(15)可得:
Figure BDA0001434139890000075
Figure BDA0001434139890000076
代入式(17)得:
Figure BDA0001434139890000081
整理得:
Figure BDA0001434139890000082
消去Z,得:
Figure BDA0001434139890000083
其中
Figure BDA0001434139890000084
Figure BDA0001434139890000085
所以,三维空间点P坐标为:
[Xw,Yw,Zw]=BA-1
最后,给出一个简单的仿真实验:
将卫星模型放在精密可控转台上,可控转台转速控制在3°/s。然后用双目相机对卫星模型进行成像,选取左、右摄像机的第一帧(如图6)作为三维重建***的输入,重建结果作为输出。
经过图像特征点提取、特征点匹配、深度信息获取等工作,再根据本发明提出的算法对卫星图像三维空间点坐标进行解算,最后在Matlab中显示的点云个数是458048个,重建所需时间是15s。同样选取两个不同视角的三维点云图,如图7所示。
最后再对三维点云添加纹理信息,得到最后的重建结果如图8所示。

Claims (1)

1.一种基于投影矩阵的空间非合作目标三维重建方法,其特征在于包括下述步骤:
(1)采用针孔模型将三维空间点投影到相机像素平面中,设O-x-y-z为相机坐标系,z轴指向相机前方,x向右,y向下,O为摄像机光心;三维空间中的点P,经过光心O投影之后,落在相机图像平面O′-x′-y′上,成像点为P′;设P的坐标为[X,Y,Z]T,P′的坐标为[X′,Y′,Z′]T,相机图像平面到光心的距离为f,则
Figure FDA0002723253400000011
Figure FDA0002723253400000012
(2)设在图像平面上固定一个像素平面o-u-v,像素坐标系的原点o位于图像平面的左上角,u轴向右与x轴平行,v轴向下与y轴平行;像素坐标系与成像平面之间相差了一个缩放和一个原点的平移,假设像素坐标在u轴上缩放了α倍,在v上缩放了β倍,同时原点平移了[cx,cy]T,则存在
Figure FDA0002723253400000013
此时像素p′坐标为[u,v]T,空间点P坐标为[X,Y,Z]T,K为摄像机内参矩阵;
(3)根据步骤(2)得到的空间点和图像像素转换关系,此时从两张图像中得到一对配准好的特征点p1′,p′2,则有Zp′1=KP、Zp′2=K(RP+T),R、T为旋转矩阵和平移矩阵;取x1=K- 1p′1,x2=K-1p′2,则有x2=Rx1+T;两边同时左乘T^,相当于两侧同时与T做外积,此时得到对极几何约束
Figure FDA0002723253400000014
根据配准点的像素位置求出R、T;
(4)假设第i副图像投影矩阵为Ni,摄像机内参数为
Figure FDA0002723253400000015
旋转矩阵为Ri,平移向量为Ti;第i+1副图像投影矩阵为Ni+1,摄像机内参数为
Figure FDA0002723253400000016
旋转矩阵为Ri+1,平移向量为Ti+1;则有Ni=Ki(Ri/Ti),Ni+1=Ki+1(Ri+1/Ti+1);根据步骤(3)中的坐标系转换关系,得Zp′i=Ni·P,Zp′i+1=Ni+1·P;其中,
Figure FDA0002723253400000021
Figure FDA0002723253400000022
代入求解得
Figure FDA0002723253400000023
其中
Figure FDA0002723253400000024
Figure FDA0002723253400000025
即[Xw,Yw,Zw]=BA-1
CN201710957020.1A 2017-10-16 2017-10-16 一种基于投影矩阵的空间非合作目标三维重建方法 Expired - Fee Related CN107680159B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710957020.1A CN107680159B (zh) 2017-10-16 2017-10-16 一种基于投影矩阵的空间非合作目标三维重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710957020.1A CN107680159B (zh) 2017-10-16 2017-10-16 一种基于投影矩阵的空间非合作目标三维重建方法

Publications (2)

Publication Number Publication Date
CN107680159A CN107680159A (zh) 2018-02-09
CN107680159B true CN107680159B (zh) 2020-12-08

Family

ID=61140923

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710957020.1A Expired - Fee Related CN107680159B (zh) 2017-10-16 2017-10-16 一种基于投影矩阵的空间非合作目标三维重建方法

Country Status (1)

Country Link
CN (1) CN107680159B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109658450B (zh) * 2018-12-17 2020-10-13 武汉天乾科技有限责任公司 一种基于无人机的快速正射影像生成方法
CN111582293B (zh) * 2019-02-19 2023-03-24 曜科智能科技(上海)有限公司 平面几何一致性检测方法、计算机设备、及存储介质
CN109827547B (zh) * 2019-03-27 2021-05-04 中国人民解放军战略支援部队航天工程大学 一种分布式多传感器空间目标同步关联方法
CN110059691B (zh) * 2019-03-29 2022-10-14 南京邮电大学 基于移动终端的多视角扭曲文档图像几何校正方法
CN110933391B (zh) * 2019-12-20 2021-11-09 成都极米科技股份有限公司 投影***的标定参数补偿方法、装置及可读存储介质
CN111462331B (zh) * 2020-03-31 2023-06-27 四川大学 扩展对极几何并实时计算三维点云的查找表方法
CN111568456B (zh) * 2020-04-24 2023-07-14 长春理工大学 基于特征点三维重建的膝关节姿态测量方法
CN111504276B (zh) * 2020-04-30 2022-04-19 哈尔滨博觉科技有限公司 一种基于视觉投影尺度因子集的联合目标函数多推进器姿态角获取方法
CN111815765B (zh) * 2020-07-21 2022-07-05 西北工业大学 一种基于异构数据融合的图像三维重建方法
CN113643328B (zh) * 2021-08-31 2022-09-09 北京柏惠维康科技股份有限公司 标定物的重建方法、装置、电子设备及计算机可读介质
CN113888695A (zh) * 2021-09-21 2022-01-04 西北工业大学 基于分支重构配准的非合作目标三维重建方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101033972A (zh) * 2007-02-06 2007-09-12 华中科技大学 一种空间非合作物体三维信息的获取方法
CN103472668A (zh) * 2013-09-24 2013-12-25 东北大学 一种立体成像装置及方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103914874B (zh) * 2014-04-08 2017-02-01 中山大学 一种无特征提取的紧致sfm三维重建方法
US20150302575A1 (en) * 2014-04-17 2015-10-22 Siemens Aktiengesellschaft Sun location prediction in image space with astronomical almanac-based calibration using ground based camera
CN106204717B (zh) * 2015-05-28 2019-07-16 长沙维纳斯克信息技术有限公司 一种立体图像快速三维重建方法与装置
CN106204656A (zh) * 2016-07-21 2016-12-07 中国科学院遥感与数字地球研究所 基于视频和三维空间信息的目标定位和跟踪***及方法
CN106600645B (zh) * 2016-11-24 2019-04-09 大连理工大学 一种摄像机空间立体标定快速提取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101033972A (zh) * 2007-02-06 2007-09-12 华中科技大学 一种空间非合作物体三维信息的获取方法
CN103472668A (zh) * 2013-09-24 2013-12-25 东北大学 一种立体成像装置及方法

Also Published As

Publication number Publication date
CN107680159A (zh) 2018-02-09

Similar Documents

Publication Publication Date Title
CN107680159B (zh) 一种基于投影矩阵的空间非合作目标三维重建方法
CN105976353B (zh) 基于模型和点云全局匹配的空间非合作目标位姿估计方法
CN103247075B (zh) 基于变分机制的室内环境三维重建方法
CN107833270A (zh) 基于深度相机的实时物体三维重建方法
CN106920276B (zh) 一种三维重建方法和***
CN112902953A (zh) 一种基于slam技术的自主位姿测量方法
CN110288712B (zh) 室内场景的稀疏多视角三维重建方法
CN109115184B (zh) 基于非合作目标协同测量方法及***
WO2024045632A1 (zh) 基于双目视觉和imu的水下场景三维重建方法及设备
CN110853151A (zh) 一种基于视频的三维立体点集恢复方法
CN111415375B (zh) 一种基于多鱼眼摄像机和双针孔投影模型的slam方法
Banno et al. Omnidirectional texturing based on robust 3D registration through Euclidean reconstruction from two spherical images
CN114608561A (zh) 一种基于多传感器融合的定位与建图方法及***
CN112150518B (zh) 一种基于注意力机制的图像立体匹配方法及双目设备
Wendel et al. Automatic alignment of 3D reconstructions using a digital surface model
JP2023505891A (ja) 環境のトポグラフィを測定するための方法
Haala et al. High density aerial image matching: State-of-the-art and future prospects
Jang et al. Egocentric scene reconstruction from an omnidirectional video
Liu et al. Dense stereo matching strategy for oblique images that considers the plane directions in urban areas
CN117115271A (zh) 无人机飞行过程中的双目相机外参数自标定方法及***
CN112102504A (zh) 一种基于混合现实的三维场景和二维图像混合方法
Yokoya et al. Passive range sensing techniques: Depth from images
Wang et al. Automated mosaicking of UAV images based on SFM method
CN107806861B (zh) 一种基于本质矩阵分解的倾斜影像相对定向方法
CN113409442A (zh) 一种多全景图融合三维重建的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201208

Termination date: 20211016