CN113516606B - 倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法 - Google Patents

倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法 Download PDF

Info

Publication number
CN113516606B
CN113516606B CN202110244381.8A CN202110244381A CN113516606B CN 113516606 B CN113516606 B CN 113516606B CN 202110244381 A CN202110244381 A CN 202110244381A CN 113516606 B CN113516606 B CN 113516606B
Authority
CN
China
Prior art keywords
image
radar
point
matching
rough
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110244381.8A
Other languages
English (en)
Other versions
CN113516606A (zh
Inventor
郑翔天
何秀凤
李金旺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202110244381.8A priority Critical patent/CN113516606B/zh
Publication of CN113516606A publication Critical patent/CN113516606A/zh
Application granted granted Critical
Publication of CN113516606B publication Critical patent/CN113516606B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法,首先,利用地基雷达设站信息及倾斜影像的空间关系完成几何映射;然后,在倾斜摄影数据中依据照片拍摄点坐标及朝向透视投影变换得到瞬时视角图像,提取瞬时视角图像和拍摄照片公共点后使用最小二乘优化的仿射变换匹配,获得雷达测量图像和拍摄照片像元间映射关系;最后,引入图像融合算法,将实时形变与拍摄照片颜色空间融合得到拍摄照片‑形变融合图。本发明利用倾斜影像的三维信息辅助完成地基雷达图像和光学拍照匹配,避免了常规的方法直接利用二维图像变换方法忽略成像原理差异造成的巨大匹配误差问题。

Description

倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法
技术领域
本发明涉及一种倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法,属于露天矿边坡形变监测技术领域。
背景技术
滑坡是仅次于地震、发生最频繁、造成损失最严重的一种地质灾害。滑坡灾后现场应急抢险搜救人员及工程车辆众多,此时若发生次生灾害,损失将无法估量。对滑坡的残余岩体持续监测,分析变形特征,专家研判定位危险变形位置并及时预警是目前滑坡灾后现场应急监测广泛认可的技术路线。地基合成孔径干涉雷达(GB-InSAR)是近些年的热点技术,已被证明是区域性形变监测的有力工具,具有较短的时间间隔(重访周期可达分钟量级)。已有的滑坡监测案例表明实测精度可达到亚毫米级,GB-InSAR在滑坡应急监测预警领域有巨大前景。雷达在极坐标系成像,需映射至三维空间才便于人眼感知定位危险区域,不适合安全监测人员直接使用,因此,测量结果常被要求与监测人员拍摄照片相匹配。
现有匹配方式匹配精度低,将地基雷达图像与拍摄的影像通过二维图像变换进行匹配,二者成像原理差距大无法精确对应,难以作为判读参考。边坡现场常常具有三维激光扫描(LIDAR)和无人机倾斜摄影三维数据。三维数据一方面可以通过距离-多普勒分析通过几何映射与雷达图像匹配,另一方面倾斜摄影的瞬时视角图像又可以和拍摄照片进行匹配。因此可以通过倾斜摄影辅助完成地基边坡形变监测雷达图像和拍摄照片匹配融合。
发明内容
为克服现有技术的不足,本发明提供一种倾斜摄影作为中间数据,分别与边坡形变监测雷达影像及拍摄照片匹配,实现边坡雷达形变影像和光学照片匹配融合的方法。
本发明为解决上述技术问题采用以下技术方案:
倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法,包括以下具体步骤:
步骤1,连续测量地基雷达一步一停移动过程中的每个停止位的天线中心坐标,得到点集Prail,对点集Prail进行直线拟合得到天线行迹矢量
步骤2,计算三维倾斜摄影数据点集Pmap中各点与雷达的相对斜距和相对方位角,形成二维点集Pmap3D
步骤3,计算Pmap3D中各点与雷达图像中各像素点的欧式距离,最小欧式距离对应的像素点构成获得最邻近像素点集PI,得到Pmap3D与PI间一一映射表TI
步骤4,从光学照片Ishot内读取光学照片拍摄点的地理坐标Pshot,将Pmap的观察点设置在Pshot处,使用投影变换法调整三维倾斜摄影数据的观察视角得到的瞬时图像Itemp,保存Pmap与Itemp各点间的映射表Ttemp
步骤5,目视解译Itemp与Ishot中显著地物目标的二维坐标,得到粗匹配公共点集Pco,其中,Pco由两个子点集构成,一个为Itemp内显著地物目标的坐标子点集,另一个为Ishot内与Itemp相同的显著地物目标的坐标子点集;
步骤6,将Pco输入图像仿射变换方程f,得到图像仿射变换方程的变换参数初值,其中变换参数包括旋转因子、平移因子以及为缩放因子;
步骤7,将步骤6中的变换参数初值代回f形成变换方程f1,将Ishot中所有像素点代入f1,得到粗匹配图像Irough,形成Ishot与Irough各像素间的粗匹配映射表Trough,完成粗匹配;
步骤8,使用特征提取方法提取Itemp和Irough内的图像特征,得到若干Itemp和Irough中的相同特征点,形成精匹配公共点对集Pfine,Pfine中元素为Itemp和Irough中相同特征点的像元坐标;
步骤9,利用步骤8中的Pfine、步骤6中的变换参数初值,使用最小二乘迭代估计图像仿射变换方程f的最优变换参数,将最优变换参数代回f形成变换方程f2;
步骤10,将Irough代入变换方程f2得到Ifine,形成Irough与Ifine各像素间的精匹配映射表Tfine,通过重采样与插值方法即可得到Ishot与雷达图像PI间的映射关系Tfinal
步骤11,查找Tfinal映射表,通过图像融合方法将雷达图像中各像素点的形变值与Ishot中RGB颜色通道进行融合,获得融合图像Ifusion,完成匹配融合过程。
进一步,步骤1中的方向由雷达运行起始点指向终止点。
进一步,步骤2中利用距离-多普勒算法计算Pmap中各点与雷达的相对斜距和相对方位角。
进一步,Pmap中第i个顶点Ai与雷达的相对斜距:
式中,N表示Pmap中的顶点数,(xi,yi,zi)为Ai的三维坐标,(xs,ys,zs)为雷达合成孔径中心Os的三维坐标;
Pmap中第i个顶点Ai与雷达的相对方位角为:
式中,为Ai在天线行迹矢量/>上的垂足,|·|代表向量的模,P2为雷达行进终止点。
进一步,步骤6中图像仿射变换方程f为:
其中为目标坐标,/>为待匹配坐标,R为旋转因子,Tx、Ty为平移因子,ρ为缩放因子。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
(1)利用倾斜影像的三维信息辅助完成地基雷达图像和光学拍照匹配,避免了常规的方法直接利用二维图像变换方法忽略成像原理差异造成的巨大匹配误差问题;
(2)通过识别场景内显著地物先进行倾斜影像瞬时图像与光学拍照图粗匹配后利用特征识别大量公共点优化仿射变换方程参数,解决了常规变换方法初值选择困难问题;
(3)通过特征识别大量公共点最小二乘迭代优化变换方程参数,方法易于实现,运算速度较快,可实现像元级匹配融合精度;
(4)边坡形变监测雷达的形变测量图像实时地与地质灾害勘察人员拍摄照片匹配,易用性强,可为滑坡风险评估,灾害预警提供数据支撑。
附图说明
图1是倾斜摄影数据辅助的边坡形变监测雷达影像与光学照片匹配融合示意图;
图2是本发明实施例提供的一种倾斜摄影数据辅助的边坡形变监测雷达影像与光学照片匹配融合方法流程图。
具体实施方式
下面根据说明书附图对本发明的发明内容做进一步详细表述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法,首先,利用地基雷达设站坐标、俯仰角信息及倾斜影像的空间关系完成几何映射;然后,在倾斜摄影数据中依据照片拍摄点坐标及朝向透视投影变换得到瞬时视角图像,提取瞬时视角图像和拍摄光学照片公共点后使用最小二乘优化的仿射变换匹配,获得雷达图像和拍摄光学照片像元间映射关系;最后,引入图像融合算法,将边坡形变监测雷达图像与拍摄光学照片颜色空间融合得到拍摄照片-形变融合图。
实施例
实施例提供的一种倾斜摄影数据辅助的边坡形变监测雷达影像与光学照片匹配融合方法流程图,如图2所示。
利用全站仪、三维激光扫描、静态全球卫星导航定位***(GPS/GNSS)等常用的辅助量测设备连续测量地基雷达一步一停移动过程中的每个停止位的天线中心坐标。雷达初次运行测量点集为第n次运行测量点集为/>集合/>得到点集Prail
利用常规的直线拟合方法对点集Prail进行拟合得到雷达天线行迹矢量矢量/>方向由雷达运行起始点指向终止点。
天线行迹矢量三维倾斜摄影数据点集Pmap作为几何映射算法输入参数,利用常规距离-多普勒算法计算点集Pmap中各点与雷达的相对斜距R3D和相对方位角θ3D
令雷达合成孔径中心为Os,遍历Pmap中每个顶点(xi,yi,zi)相对于孔径中心Os(xs,ys,zs)的欧式距离:
式中表示第i个点相对孔径中心Os的斜距,N表示Pmap模型总点数。
遍历Pmap中每个模型顶点相对于孔径中心Os的方位角,以相对竖直中心平面左侧为雷达方位负角度,则方位角为:
式中,为第i个点相对孔径中心的方位角,/>为第i个点在行迹轴线/>的垂足。|·|代表向量的模。形成二维点集Pmap3D:{(R3D3D)1,(R3D3D)2,...,(R3D3D)N},计算Pmap3D各点与雷达图像I(r,θ)各网格点的欧式距离取最小欧式距离点获得最邻近像素点集PI:{(R2D2D)1,(R2D2D)2,...,(R2D2D)N},得到Pmap3D与PI间一一映射表TI
本实施例光学照片Ishot拍摄地点的地理坐标通过GPS/GNSS获取,读取拍摄照片点的地理坐标Pshot,倾斜摄影数据将观察点设置在Pshot处,再确定视线方向即可确定倾斜摄影数据的瞬时二维图像Itemp。实施例/>为观察点Pshot与场景中心PR0所成向量。投影变换调整倾斜摄影数据观察视角至瞬时图像Itemp与拍摄照片Ishot内容初步一致。本实施例中投影变换,倾斜摄影初始为世界坐标系O-XYZ,先变换至以观察点为中心的目坐标系Pshot-XeYeZe,负Ze轴指向观察方向/>世界坐标系和目坐标系均取右手三维空间直角坐标系。然后,将Pmap中各点投影至屏幕空间,所述投影指目标物描述从世界坐标系到目坐标系的变换等价与运用平移、旋转运算将目坐标系叠加到世界坐标系上的变换,再使用透视投影。将平行与XeOeYe平面且离视点的距离等于f的平面作为瞬时图像Itemp投影面,那么,目坐标系中的一点在瞬时图像Itemp投影面上的网格点坐标(Xm,Ym)可由下式进行计算:
式中,(Xs,Ys,Zs)为Pshot在世界坐标系O-XYZ中的坐标,瞬时图像Itemp投影面相对于平面XOY方位角θ和俯仰角α,观察点Pshot与瞬时图像Itemp投影面距离f,世界坐标系中任意目标点(XM,YM,ZM),保存Pmap与Itemp各网格点间的映射表Ttemp
目视解译瞬时图像Itemp与拍摄照片Ishot图像中显著地物目标的二维坐标得到粗匹配公共点集Pco,点集Pco包括为Itemp内显著地物目标的坐标子点集,还包括/>为Ishot内与Itemp相同的地物目标的坐标子点集,共np对公共点。
将粗匹配公共点集Pco输入图像仿射变换方程得到参数初值ρ0、R0、/>方程f中/>为目标坐标,/>为待匹配坐标,R为旋转因子,Tx、Ty为平移因子,ρ为缩放因子。
将参数初值带回方程f形成变换方程f1,将Ishot的所有图像网格点带入f2,得到粗匹配图像网格Irough,得到粗匹配映射表Trough,完成粗匹配。
在粗匹配结果控制下,使用特征提取方法提取Itemp和Irough内的点、线、面特征,得到大量相同特征点作为精匹配公共点集Pfine
利用精匹配公共点集Pfine,变换参数初值ρ0、R0使用最小二乘迭代寻优仿射变换方程f1参数,本实施例中最小二乘仿射变换使用迭代法优化,以平面右手直角坐标系为例,本实施例仿射变换后再进行双线性插值变换,变换模型为:
建立误差方程:
其中,n为公共点Pfine个数,则模型参数的一种最小二乘解为/>P为等权重矩阵。最小二乘迭代,令公式(4)误差最小。通过迭代计算控制舍入误差,舍入误差选取单位权中误差/>自由度/>为误差方程数量与实际求解方程所需变量数的差,各控制点视为独立观测量权阵P取单位矩阵,迭代求出变换参数的最佳估值/>带回f形成变换方程f2。
将Irough带入变换方程f2得到Ifine,映射关系记为Tfine,此时已获得边坡形变监测雷达图像PI与Pmap3D间一一映射表TI,Pmap3D和Pmap为一一对应关系,Pmap与Itemp各点间的映射表Ttemp,Ishot与Irough粗匹配映射表Trough,Irough与Ifine精匹配映射表Tfine,通过常规重采样与插值方法即可得到Ishot光学照片与雷达图像PI间的映射关系Tfinal
查找Tfinal映射表,将边坡形变雷达的形变图像网格点形变值与Ishot光学照片红绿蓝(RGB)颜色通道通过图像融合方法进行融合。本实施例采用常用融合方法使雷达测量形变量替换光学照片红色(R)通道
式中,为经过变换后的图像,有红、绿、蓝三通道,红色通道使用了雷达图像PI形变值IR,绿色通道和蓝色通道使用Ishot光学照片的绿色通道IVG和蓝色通道IVB,获得融合图像Ifusion,完成匹配融合过程。倾斜摄影数据辅助的边坡形变监测雷达影像与光学照片匹配融合示意图,如图1所示。

Claims (5)

1.倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法,其特征在于,包括以下具体步骤:
步骤1,连续测量地基雷达一步一停移动过程中的每个停止位的天线中心坐标,得到点集Prail,对点集Prail进行直线拟合得到天线行迹矢量
步骤2,计算三维倾斜摄影数据点集Pmap中各点与雷达的相对斜距和相对方位角,形成二维点集Pmap3D
步骤3,计算Pmap3D中各点与雷达图像中各像素点的欧式距离,最小欧式距离对应的像素点构成获得最邻近像素点集PI,得到Pmap3D与PI间一一映射表TI
步骤4,从光学照片Ishot内读取光学照片拍摄点的地理坐标Pshot,将Pmap的观察点设置在Pshot处,使用投影变换法调整三维倾斜摄影数据的观察视角得到的瞬时图像Itemp,保存Pmap与Itemp各点间的映射表Ttemp
步骤5,目视解译Itemp与Ishot中显著地物目标的二维坐标,得到粗匹配公共点集Pco,其中,Pco由两个子点集构成,一个为Itemp内显著地物目标的坐标子点集,另一个为Ishot内与Itemp相同的显著地物目标的坐标子点集;
步骤6,将Pco输入图像仿射变换方程f,得到图像仿射变换方程的变换参数初值,其中变换参数包括旋转因子、平移因子以及缩放因子;
步骤7,将步骤6中的变换参数初值代回f形成变换方程f1,将Ishot中所有像素点代入f1,得到粗匹配图像Irough,形成Ishot与Irough各像素间的粗匹配映射表Trough,完成粗匹配;
步骤8,使用特征提取方法提取Itemp和Irough内的图像特征,得到若干Itemp和Irough中的相同特征点,形成精匹配公共点对集Pfine,Pfine中元素为Itemp和Irough中相同特征点的像元坐标;
步骤9,利用步骤8中的Pfine、步骤6中的变换参数初值,使用最小二乘迭代估计图像仿射变换方程f的最优变换参数,将最优变换参数代回f形成变换方程f2;
步骤10,将Irough代入变换方程f2得到Ifine,形成Irough与Ifine各像素间的精匹配映射表Tfine,通过重采样与插值方法即可得到Ishot与雷达图像PI间的映射关系Tfinal
步骤11,查找Tfinal映射表,通过图像融合方法将雷达图像中各像素点的形变值与Ishot中RGB颜色通道进行融合,获得融合图像Ifusion,完成匹配融合过程。
2.如权利要求1所述的倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法,其特征在于,步骤1中的方向由雷达运行起始点指向终止点。
3.如权利要求1所述的倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法,其特征在于,步骤2中利用距离-多普勒算法计算Pmap中各点与雷达的相对斜距和相对方位角。
4.如权利要求3所述的倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法,其特征在于,Pmap中第i个顶点Ai与雷达的相对斜距:
式中,N表示Pmap中的顶点数,(xi,yi,zi)为Ai的三维坐标,(xs,ys,zs)为雷达合成孔径中心Os的三维坐标;
Pmap中第i个顶点Ai与雷达的相对方位角为:
式中,为Ai在天线行迹矢量/>上的垂足,|·|代表向量的模,P2为雷达行进终止点。
5.如权利要求1所述的倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法,其特征在于,步骤6中图像仿射变换方程f为:
其中为目标坐标,/>为待匹配坐标,R为旋转因子,Tx、Ty为平移因子,ρ为缩放因子。
CN202110244381.8A 2021-03-05 2021-03-05 倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法 Active CN113516606B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110244381.8A CN113516606B (zh) 2021-03-05 2021-03-05 倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110244381.8A CN113516606B (zh) 2021-03-05 2021-03-05 倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法

Publications (2)

Publication Number Publication Date
CN113516606A CN113516606A (zh) 2021-10-19
CN113516606B true CN113516606B (zh) 2023-12-12

Family

ID=78061163

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110244381.8A Active CN113516606B (zh) 2021-03-05 2021-03-05 倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法

Country Status (1)

Country Link
CN (1) CN113516606B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127683A (zh) * 2016-06-08 2016-11-16 中国电子科技集团公司第三十八研究所 一种无人机载sar图像实时拼接方法
KR102028324B1 (ko) * 2019-02-26 2019-11-04 엘아이지넥스원 주식회사 영상 레이더의 영상 보정 방법 및 좌표 계산 방법
CN112001955A (zh) * 2020-08-24 2020-11-27 深圳市建设综合勘察设计院有限公司 一种基于二维投影平面匹配约束的点云配准方法及***
CN112102458A (zh) * 2020-08-31 2020-12-18 湖南盛鼎科技发展有限责任公司 基于激光雷达点云数据辅助的单镜头三维图像重构方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127683A (zh) * 2016-06-08 2016-11-16 中国电子科技集团公司第三十八研究所 一种无人机载sar图像实时拼接方法
KR102028324B1 (ko) * 2019-02-26 2019-11-04 엘아이지넥스원 주식회사 영상 레이더의 영상 보정 방법 및 좌표 계산 방법
CN112001955A (zh) * 2020-08-24 2020-11-27 深圳市建设综合勘察设计院有限公司 一种基于二维投影平面匹配约束的点云配准方法及***
CN112102458A (zh) * 2020-08-31 2020-12-18 湖南盛鼎科技发展有限责任公司 基于激光雷达点云数据辅助的单镜头三维图像重构方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
地基SAR 图像与地形数据的几何映射三维匹配方法;杨俊;乞耀龙;谭维贤;王彦平;洪文;中国科学院大学学报;第32卷(第3期);全文 *
基于Hough变换的激光SLAM几何特征地图提取方法;李万莉;王文佳;;机电一体化(第07期);全文 *
高分雷达与光学影像融合的滨海湿地变化检测;吴瑞娟;何秀凤;测绘科学(第011期);全文 *

Also Published As

Publication number Publication date
CN113516606A (zh) 2021-10-19

Similar Documents

Publication Publication Date Title
CN111473739B (zh) 一种基于视频监控的隧道塌方区围岩变形实时监测方法
EP1242966B1 (en) Spherical rectification of image pairs
EP2111530B1 (en) Automatic stereo measurement of a point of interest in a scene
EP1788349B1 (en) Method for geocoding a perspective image
US11508030B2 (en) Post capture imagery processing and deployment systems
CN106920276B (zh) 一种三维重建方法和***
CN103226838A (zh) 地理场景中移动监控目标的实时空间定位方法
Iwaszczuk et al. Camera pose refinement by matching uncertain 3D building models with thermal infrared image sequences for high quality texture extraction
CN106408601A (zh) 一种基于gps的双目融合定位方法及装置
CN114923477A (zh) 基于视觉与激光slam技术的多维度空地协同建图***和方法
CN116883604A (zh) 一种基于天、空、地影像的三维建模技术方法
Chellappa et al. On the positioning of multisensor imagery for exploitation and target recognition
Maurice et al. A photogrammetric approach for map updating using UAV in Rwanda
Choi et al. Precise geometric registration of aerial imagery and LIDAR data
CN113176544A (zh) 一种边坡雷达影像与地形点云的误匹配校正方法
CN112785686A (zh) 一种基于大数据的林区地图构建方法及可读存储介质
CN113516606B (zh) 倾斜摄影数据辅助边坡雷达影像与光学照片匹配融合方法
CN115328181A (zh) 一种无人机输电线路巡检中关键目标空间定位方法
Kusuno et al. A method localizing an omnidirectional image in pre-constructed 3D wireframe map
Aliakbarpour et al. Geometric exploration of virtual planes in a fusion-based 3D data registration framework
Bai et al. Application of unmanned aerial vehicle multi-vision image 3D modeling in geological disasters
Lee et al. Automatic building reconstruction with satellite images and digital maps
Fridhi et al. DATA ADJUSTMENT OF THE GEOGRAPHIC INFORMATION SYSTEM, GPS AND IMAGE TO CONSTRUCT A VIRTUAL REALITY.
Trusheim et al. Cooperative localisation using image sensors in a dynamic traffic scenario
Ye et al. Photogrammetric Accuracy and Modeling of Rolling Shutter Cameras

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant