CN112634133B - 基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法 - Google Patents

基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法 Download PDF

Info

Publication number
CN112634133B
CN112634133B CN202011439117.1A CN202011439117A CN112634133B CN 112634133 B CN112634133 B CN 112634133B CN 202011439117 A CN202011439117 A CN 202011439117A CN 112634133 B CN112634133 B CN 112634133B
Authority
CN
China
Prior art keywords
lens
image
area
calibration
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011439117.1A
Other languages
English (en)
Other versions
CN112634133A (zh
Inventor
段延松
赵新博
刘昆波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202011439117.1A priority Critical patent/CN112634133B/zh
Publication of CN112634133A publication Critical patent/CN112634133A/zh
Application granted granted Critical
Publication of CN112634133B publication Critical patent/CN112634133B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

本发明首先解决现有面阵相机的检校方法必须依赖大量外业控制点的问题,提出一种基于云控制的多镜头多面阵航空相机检校方法。本发明利用已检校相机在同一检校场地获取的影像,完成定向后可以替代地面控制点,可以在保证检校精度的同时极大地控制成本,提升作业效率。并通过待检校面阵影像与已定向影像的自动匹配,保证了控制点的数量。此外,本发明还解决现有虚拟拼接方法容易受到检校误差影响的问题,提出基于统计的虚拟影像拼接方法,有效检测投影误差较大的像元,降低较大误差的检校参数对投影的影响,提升拼接精度。

Description

基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接 方法
技术领域
本发明属于航空摄影测量领域,涉及一种基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法,其中基于云控制的多镜头多面阵航空相机检校参数求解以及基于统计的影像虚拟拼接是本方法的关键技术。
背景技术
影像具备高地面分辨率是大比例尺测绘应用对数字航测相机的基本要求。然而,在影像幅宽以及相机焦距等参数较为固定的情况下,影像的地面分辨率越高要求航拍高度越低,其地面覆盖范围越小,针对航测区域需要采集的影像数越多。因此,要求提高地面分辨率无疑会增加测区的内业工作量,降低工作效率。更大像幅的航空相机是受欢迎的补充措施,但受到遥感平台和制造工艺等因素的限制,像幅可扩大程度有限。为此,具有可扩展性的多镜头多面阵航空相机作为一种替代的解决方案得到快速发展。这类相机通过虚拟拼接将多面阵影像拼接成单幅中心投影的大影像,从而减少影像数量,并且增加基高比,提高垂直方向精度,因此受到广泛的关注与应用。从多面阵相机的制造到投入市场,一般要经过相机检校与虚拟影像拼接两个步骤:
多面阵相机检校是进行多面阵影像虚拟拼接的重要先决步骤,实质是精确解算各面阵影像的畸变参数以及相对外方位元素。为此,传统主流的方法是建立均匀布设有大量地面控制点的检校场,利用地面控制点进行单像空间后方交会解算检校参数。这种方法的解算精度很高,但是所需要的地面控制点的数量极大、作业要求高,需要有多年空三刺点经验的作业人员进行刺点。此外,检校场的建立和定期维护需要耗费大量人力与物力,导致这类方法的成本很高。为此,某些相机制造厂商也会选择对某一场地进行多次覆盖拍摄,然后进行无地面控制点的区域网平差解算检校参数。
检校完成后,多镜头多面阵相机的虚拟影像拼接是投入市场应用前的一个重要步骤。目前常规的做法是,选择多组检校参数中的一组或者将所有不同组的参数取加权平均作为最终的检校参数,再逐一对所有面阵的像元计算在虚拟平面上的位置(或偏移量),最终得到虚拟拼接影像。这类方法简单快捷,但是对检校的精度要求很高,微小的检校误差可能导致较大的像元偏移。
发明内容
本发明首先解决现有面阵相机的检校方法必须依赖大量外业控制点的问题,提出一种基于云控制的多镜头多面阵航空相机检校方法。本发明利用已检校相机在同一检校场地获取的影像,完成定向后可以替代地面控制点,可以在保证检校精度的同时极大地控制成本,提升作业效率。并通过待检校面阵影像与已定向影像的自动匹配,保证了控制点的数量。此外,本发明还解决现有虚拟拼接方法容易受到检校误差影响的问题,提出基于统计的虚拟影像拼接方法,有效检测投影误差较大的像元,降低较大误差的检校参数对投影的影响,提升拼接精度。
本发明的上述技术问题主要是通过下述技术方案得以解决:基于云控制的多镜头多面阵航空相机检校方法及影像虚拟拼接方法,包括以下步骤:
步骤1:选择已完成检校的相机,对检校场地进行数据采集;
步骤2:对步骤1采集的数据进行自动特征点提取与匹配;
步骤3:采用传统空三解算或者Structure From Motion方法,构建步骤1采集的影像的匹配点观测值误差方程,进行***或者GNSS辅助的区域网平差,解算所有影像的定向参数,此时“云检校场”构建完成;
步骤4:用待检校相机对同一检校场地采集影像;
步骤5:用Harris角点提取算法提取待检校影像的特征点,并且完成同名点描述;
步骤6:通过匹配算法将待检校影像的一个特征点pi匹配传递至“云检校场”中的某张已检校影像,以该匹配成功的已检校影像为基准,进行已检校影像之间的连接点匹配,只有在已检校影像上的连接点超过p个,才认为pi的匹配成功;如果连接点数不足p个,则剔除pi;使用已检校影像的定向参数和pi对应的多个像点观测进行前方交会获得连接点对应的三维物方坐标;
步骤7:以面阵影像为单位,利用在已检校影像上得到物方坐标和相应连接点观测值,构建后方交会误差方程,计算检校参数和外方位元素的初始值,检校参数分为镜头参数和面阵参数;
步骤8:以镜头为单位,对所有面阵影像进行分组,对同一个镜头对应的每个面阵,在步骤7中均已计算得到的一组镜头检校参数以及外方位元素初始值,取其平均值作为该镜头各参数的初始值;然后对该镜头的不同时刻拍摄所有面阵影像,利用连接点观测值和相应地面坐标,再次构建整体的后方交会误差方程,获得检校参数的精确值以及镜头在不同时刻t的外方位元素;
步骤9:每个镜头按照步骤5、6、7和8进行计算,此时,获得每个镜头唯一的检校参数和面阵的唯一的检校参数,以及该镜头在不同时刻t的外方位元素;
步骤10:设定虚拟影像平面,然后获得虚拟影像的镜头检校参数和面阵检校参数,以及对应时刻虚拟影像的外方位元素;
步骤11:在不同时刻t,逐面阵逐像元投影到相应时刻的虚拟影像上,获得该像元在时刻t的偏移量;
步骤12:计算某像元在所有时刻的偏移量的均值和均方差,并且逐时刻判断偏移量是否有效,若偏移量满足一定条件,则该时刻的偏移量有效;
步骤13:逐面阵逐像元进行步骤12的判断,并且将每个像元的不同时刻的有效偏移量的平均值作为该像元的最终偏移量,利用这些偏移量即可生成拼接后的影像。
进一步的,步骤7中后方交会误差方程的构建方式如下,
CCD面阵在安装时,可能存在相对于理想方位的及其微小的旋转角度误差βj,因此对于面阵上的一个像点的量测坐标(x,y)而言,首先需要进行旋转变换到无旋转的坐标(x′,y′):
Figure BDA0002821718200000031
一般镜头都会存在一定的畸变,所以通过式(2)计算得到其无畸变的像点坐标(xc,yc):
Figure BDA0002821718200000032
式中,r2=(xc)2+(yc)2
Figure BDA0002821718200000033
表示面阵j相对于镜头中心的主点偏移;
Figure BDA0002821718200000034
表示镜头i的畸变参数;
而(xc,yc)的计算公式为如下共线方程:
Figure BDA0002821718200000041
式中,fi
Figure BDA0002821718200000042
表示镜头i的焦距和摄影中心位置;
(X,Y,Z)为像点坐标(x,y)对应的物方坐标;
Figure BDA0002821718200000043
则是由镜头姿态参数
Figure BDA0002821718200000044
计算的旋转矩阵,计算公式即式(4):
Figure BDA0002821718200000045
将公式(1)、(2)、(3)和(4)联合,就得到单镜头多面阵相机的像方到物方的严格方程,将其线性化即可得到空间后方交会的误差方程。
进一步的,步骤7中镜头参数有焦距fi、畸变系数
Figure BDA0002821718200000046
面阵参数有相对于镜头中心的主点偏移
Figure BDA0002821718200000047
相对于理想安装方位的旋转角度βj≈0。
进一步的,步骤7中计算检校参数的初始值的实现方式如下,
先忽略镜头的畸变参数以及旋转角度βj,将公式(3)的(xc,yc)替换为
Figure BDA0002821718200000048
Figure BDA0002821718200000049
这里,公式(5)就是摄影测量中传统的无畸变共线方程,利用观测值(x,y)和对应的地面点坐标(X,Y,Z),求解内外参数:
Figure BDA0002821718200000051
fi
Figure BDA0002821718200000052
再利用公式(3)求解出(xc,yc);最后利用公式(1)和(2)建立误差方程,求解出
Figure BDA0002821718200000053
和βj;上述过程计算得到的参数值并不是最优解,因此需要将这些参数作为初值,进行迭代,直到收敛。
进一步的,步骤10中取M个镜头的焦距fi的平均值作为虚拟影像的焦距f,即
Figure BDA0002821718200000054
并设定虚拟影像的畸变参数(k1,k2,k3,p1,p2)=(0,0,0,0,0)、主点偏移(x0,y0)=(0,0);此外,按公式(6)取不同时刻各镜头的外方位元素的均值作为对应时刻虚拟影像的外方位元素值:
Figure BDA0002821718200000055
进一步的,步骤11中像元在时刻t的偏移量的计算方式如下,
首先将面阵影像上的像元的观测值
Figure BDA0002821718200000056
获得其无畸变的理想位置
Figure BDA0002821718200000057
再进行基于共线方程的平面投影转换公式(7),计算在虚拟平面上的位置
Figure BDA0002821718200000058
最后求得偏移量
Figure BDA0002821718200000059
公式(7)表示在时刻t的平面投影方程,
Figure BDA00028217182000000510
其中:
Figure BDA00028217182000000511
上标或者下标i表示第i个镜头的参数;
λi为虚拟相机的点投影系数。
进一步的,在步骤12中,计算某像元在所有时刻的偏移量的均值
Figure BDA00028217182000000512
和均方差
Figure BDA00028217182000000513
并且判断偏移量有效的公式为|dxt-dxmean|<3dxstd且|dyt-dymean|<3dystd
与现有技术相比,本发明的优点和有益效果:
针对现有面阵相机检校方法依赖地面控制点或连接弱的问题,本发明提出一种基于云控制的多镜头多面阵航空相机检校方法。本发明首先利用已检校相机对同区域进行数据采集并进行空三解算定向参数和地面点,以替代地面控制点,可以极大地控制成本,节省作业时间。并通过待检校面阵影像与已定向影像的自动匹配大量转点,保证了控制点的数量。此外,本发明还提出基于统计的虚拟影像拼接方法,可以有效地检测投影误差较大的像元,降低较大误差的检校参数对投影的影响,提升拼接精度。
现有多镜头多面阵航空相机检校及影像虚拟拼接尚未形成成熟技术,目前处于探索阶段,只有理论模型并无实际可操作技术,无法进行比较。
附图说明
图1单镜头多面阵相机组成示意图
图2为本发明实施例的总体流程图;
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施示例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
一、单镜头多面阵相机检校
如附图1所示,一个单镜头N面阵相机,其中面阵数量N=4。该相机是将N个重叠度极小的面阵安装在同一个平面上,并透过同一个镜头对地面进行摄像。
由于CCD面阵在安装时,可能存在相对于理想方位的及其微小的旋转角度误差βj,因此对于面阵上的一个像点的量测坐标(x,y)而言,首先需要进行旋转变换到无旋转的坐标(x′,y′):
Figure BDA0002821718200000061
一般镜头都会存在一定的畸变,所以需要通过式(2)计算得到其无畸变的像点坐标(xc,yc):
Figure BDA0002821718200000071
式中,r2=(xc)2+(yc)2
Figure BDA0002821718200000072
表示面阵j相对于镜头中心的主点偏移。
Figure BDA0002821718200000073
表示镜头i的畸变参数。
而(xc,yc)的计算公式为如下共线方程:
Figure BDA0002821718200000074
式中,fi
Figure BDA0002821718200000075
表示镜头i的焦距和摄影中心位置;
(X,Y,Z)为像点坐标(x,y)对应的物方坐标;
Figure BDA0002821718200000076
则是由镜头姿态参数
Figure BDA0002821718200000077
计算的旋转矩阵,计算公式即式(4):
Figure BDA0002821718200000078
将公式(1)、(2)、(3)和(4)联合,就得到单镜头多面阵相机的像方到物方的严格方程。将其线性化即可得到空间后方交会的误差方程。
对于单镜头多面阵而言,其检校参数分为镜头参数和面阵参数。其中镜头参数有焦距fi、畸变系数
Figure BDA0002821718200000079
面阵参数有相对于镜头中心的主点偏移
Figure BDA00028217182000000710
相对于理想安装方位的旋转角度βj≈0。图1所示单镜头N面阵相机共有6个镜头参数和3N个面阵参数。一般而言,多镜头多面阵相机可以视为由M 个如图1所示的单镜头N面阵相机经过严格的物理校准后组成的,各镜头的面阵数量未必相同(分别记为N1,…,NM个),因此会有6M个镜头参数和3(N1+…+ NM)个面阵参数。
此外,多镜头多面阵相机的各个镜头的位置和姿态参数也有一定差异,所以为了进行虚拟拼接,还需解M组位置姿态参数
Figure BDA0002821718200000081
共6*M个。
二、多镜头多面阵相机检校
本发明首先利用已检校相机在检校场地采集的数据进行空三定向,获取“云检校”控制数据。然后在该检校场用待检校面阵相机进行数据采集,并与“云检校”数据进行自动匹配,以镜头为单位,对该镜头不同时刻拍摄的所有面阵影像构建后方交会误差方程,用最小二乘法平差计算检校参数。本发明包含“云检校”数据获取、待检校数据与“云检校数据”自动匹配、后方交会这三个部分,其核心步骤如下:
步骤1:选择已完成检校的相机,对检校场地进行数据采集。一般而言,已检校相机的空间分辨率不能低于待检校相机。摄影平台的GNSS接收机不是必要的;但目前的无人机平台几乎都装载有高精度GNSS定位***,其提供的定位信息可以提高影像自动匹配效率。此外,航摄任务需要按照航向80%、旁向60%的重叠度进行规划。
步骤2:对步骤1采集的数据进行自动特征点提取与匹配。鉴于匹配结果将用于相机检校,需要较高的匹配精度,可以提取子像素级的Harris角点作为特征点完成同名点匹配。此外,在自动匹配完成后,可以利用人机交互进行检查与匹配错点剔除。
步骤3:采用传统空三解算或者Structure From Motion方法,构建步骤1采集的影像的匹配点观测值误差方程,进行***或者GNSS辅助的区域网平差,解算所有影像的定向参数,此时“云检校场”构建完成。
步骤4:用待检校相机对同一检校场地采集影像。
步骤5:用Harris角点提取算法提取待检校影像的特征点,并且完成同名点描述。
步骤6:通过匹配算法将待检校影像的一个特征点pi匹配传递至“云检校场”中的某张已检校影像。以该匹配成功的已检校影像为基准,进行已检校影像之间的连接点匹配,只有在已检校影像上的连接点超过2个,才认为pi的匹配成功;如果连接点数不足2个,则剔除pi。使用已检校影像的定向参数和pi对应的多个像点观测(2个以上)进行前方交会获得连接点对应的三维物方坐标。
对每个待检校影像上的特征点进行上述操作,最终每个特征点都在已检校影像上有对应连接点或者被剔除。
步骤7:以面阵影像为单位,利用在已检校影像上得到物方坐标和相应连接点观测值,通过公式(1)、(2)、(3)和(4)构建后方交会误差方程,计算检校参数的初始值。
公式(1)、(2)、(3)和(4)都是复杂的非线性方程,需要进行线性化,再利用最小二乘法迭代求解,具体求解过程是:先忽略镜头的畸变参数以及旋转角度βj,将公式(3)的(xc,yc)替换为
Figure BDA0002821718200000091
Figure BDA0002821718200000092
这里,公式(5)就是摄影测量中传统的无畸变共线方程。利用观测值(x,y)和对应的地面点坐标(X,Y,Z),求解内外参数:
Figure BDA0002821718200000093
fi
Figure BDA0002821718200000094
再利用公式(3)求解出(xc,yc);最后利用公式(1)和(2)建立误差方程,求解出
Figure BDA0002821718200000095
和βj。上述过程计算得到的参数值并不是最优解,因此需要将这些参数作为初值,进行迭代,直到收敛。此时便获得了较为准确的初始检校参数。
步骤8:以镜头为单位,对所有面阵影像进行分组。对同一个镜头对应的每个面阵,在步骤7中均已计算得到的一组镜头检校参数以及外方位元素初始值。取其平均值作为该镜头各参数的初始值。然后对该镜头的不同时刻拍摄所有面阵影像,利用连接点观测值和相应地面坐标,通过公式(1)、(2)、(3)和(4)再次构建整体的后方交会误差方程,获得检校参数的精确值以及镜头在不同时刻t的外方位元素
Figure BDA0002821718200000096
计算方法与步骤7类似。
步骤9:每个镜头按照步骤5、6、7和8进行计算。此时,可以获得每个镜头唯一的检校参数fi
Figure BDA0002821718200000097
和面阵的唯一的检校参数
Figure BDA0002821718200000098
βj,以及该镜头在不同时刻t的外方位元素
Figure BDA0002821718200000099
三、虚拟拼接
本发明首先设定虚拟影像平面,计算各面阵各像元向虚拟影像平面投影的坐标偏移量;然后以摄影时刻为计算单元,统计每个面阵的每个像元在不同时刻的偏移量的均值和均方差;最后通过每个像元偏移量的均值与均方差,剔除异常值,从而获取该像元的可靠、精确的偏移量,使用这些偏移量即可生成拼接后的影像。其核心步骤如下:
步骤10:取M个镜头的焦距fi的平均值作为虚拟影像的焦距f,即
Figure BDA0002821718200000101
并设定虚拟影像的畸变参数(k1,k2,k3,p1,p2)=(0,0,0,0,0)、主点偏移 (x0,y0)=(0,0)。此外,按公式(6)取不同时刻各镜头的外方位元素的均值作为对应时刻虚拟影像的外方位元素值:
Figure BDA0002821718200000102
步骤11:在不同时刻t,逐面阵逐像元投影到相应时刻的虚拟影像上,获得该像元在时刻t的偏移量
Figure BDA0002821718200000103
具体计算方法为:首先将面阵影像上的像元的观测值
Figure BDA0002821718200000104
按照公式(1)和(2),获得其无畸变的理想位置
Figure BDA0002821718200000105
再进行基于共线方程的平面投影转换公式(7),计算在虚拟平面上的位置
Figure BDA0002821718200000106
最后求得偏移量
Figure BDA0002821718200000107
公式(7)表示在时刻t的平面投影方程
Figure BDA0002821718200000108
其中
Figure BDA0002821718200000109
上标或者下标i表示第i个镜头的参数;
λi为虚拟相机的点投影系数。由于虚拟影像和各面阵近似重合,其值可以取 1。
步骤12:计算某像元在所有时刻的偏移量的均值
Figure BDA0002821718200000111
和均方差
Figure BDA0002821718200000112
并且逐时刻判断偏移量是否有效,若dxt和dyt同时满足|dxt-dxmean|<3dxstd且|dyt-dymean|<3dystd,则该时刻的偏移量有效。
步骤13:逐面阵逐像元进行步骤12的判断,并且将每个像元的不同时刻的有效偏移量的平均值作为该像元的最终偏移量。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (7)

1.基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法,其特征在于,包括以下步骤:
步骤1:选择已完成检校的相机,对检校场地进行数据采集;
步骤2:对步骤1采集的数据进行自动特征点提取与匹配;
步骤3:采用传统空三解算或者Structure From Motion方法,构建步骤1采集的影像的匹配点观测值误差方程,进行***或者GNSS辅助的区域网平差,解算所有影像的定向参数,此时“云检校场”构建完成;
步骤4:用待检校相机对同一检校场地采集影像;
步骤5:用Harris角点提取算法提取待检校影像的特征点,并且完成同名点描述;
步骤6:通过匹配算法将待检校影像的一个特征点pi匹配传递至“云检校场”中的某张已检校影像,以该匹配成功的已检校影像为基准,进行已检校影像之间的连接点匹配,只有在已检校影像上的连接点超过p个,才认为pi的匹配成功;如果连接点数不足p个,则剔除pi;使用已检校影像的定向参数和pi对应的多个像点观测进行前方交会获得连接点对应的三维物方坐标;
步骤7:以面阵影像为单位,利用在已检校影像上得到物方坐标和相应连接点观测值,构建后方交会误差方程,计算检校参数和外方位元素的初始值,检校参数分为镜头参数和面阵参数;
步骤8:以镜头为单位,对所有面阵影像进行分组,对同一个镜头对应的每个面阵,在步骤7中均已计算得到的一组镜头检校参数以及外方位元素初始值,取其平均值作为该镜头各参数的初始值;然后对该镜头的不同时刻拍摄所有面阵影像,利用连接点观测值和相应地面坐标,再次构建整体的后方交会误差方程,获得检校参数的精确值以及镜头在不同时刻t的外方位元素;
步骤9:每个镜头按照步骤5、6、7和8进行计算,此时,获得每个镜头唯一的检校参数和面阵的唯一的检校参数,以及该镜头在不同时刻t的外方位元素;
步骤10:设定虚拟影像平面,然后获得虚拟影像的镜头检校参数和面阵检校参数,以及对应时刻虚拟影像的外方位元素;
步骤11:在不同时刻t,逐面阵逐像元投影到相应时刻的虚拟影像上,获得该像元在时刻t的偏移量;
步骤12:计算某像元在所有时刻的偏移量的均值和均方差,并且逐时刻判断偏移量是否有效,若偏移量满足一定条件,则该时刻的偏移量有效;
步骤13:逐面阵逐像元进行步骤12的判断,并且将每个像元的不同时刻的有效偏移量的平均值作为该像元的最终偏移量,利用这些偏移量即可生成拼接后的影像。
2.如权利要求1所述的基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法,其特征在于:步骤7中后方交会误差方程的构建方式如下,
CCD面阵在安装时,可能存在相对于理想方位的及其微小的旋转角度误差βj,因此对于面阵上的一个像点的量测坐标(x,y)而言,首先需要进行旋转变换到无旋转的坐标(x′,y′):
Figure FDA0003536153240000021
镜头都会存在一定的畸变,所以通过式(2)计算得到其无畸变的像点坐标(xc,yc):
Figure FDA0003536153240000022
式中,r2=(xc)2+(yc)2
Figure FDA0003536153240000023
表示面阵j相对于镜头中心的主点偏移;
Figure FDA0003536153240000024
表示镜头i的畸变参数;
而(xc,yc)的计算公式为如下共线方程:
Figure FDA0003536153240000025
式中,fi
Figure FDA0003536153240000026
表示镜头i的焦距和摄影中心位置;
(X,Y,Z)为像点坐标(x,y)对应的物方坐标;
Figure FDA0003536153240000027
则是由镜头姿态参数
Figure FDA0003536153240000028
计算的旋转矩阵,计算公式即式(4):
Figure FDA0003536153240000031
将公式(1)、(2)、(3)和(4)联合,就得到单镜头多面阵相机的像方到物方的严格方程,将其线性化即可得到空间后方交会的误差方程。
3.如权利要求2所述的基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法,其特征在于:步骤7中镜头参数有焦距fi、畸变系数
Figure FDA0003536153240000032
面阵参数有相对于镜头中心的主点偏移
Figure FDA0003536153240000033
相对于理想安装方位的旋转角度βj≈0。
4.如权利要求2所述的基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法,其特征在于:步骤7中计算检校参数的初始值的实现方式如下,
先忽略镜头的畸变参数以及旋转角度βj,将公式(3)的(xc,yc)替换为
Figure FDA0003536153240000034
Figure FDA0003536153240000035
这里,公式(5)就是摄影测量中传统的无畸变共线方程,利用观测值(x,y)和对应的地面点坐标(X,Y,Z),求解内外参数:
Figure FDA0003536153240000036
再利用公式(3)求解出(xc,yc);最后利用公式(1)和(2)建立误差方程,求解出
Figure FDA0003536153240000037
和βj;上述过程计算得到的参数值并不是最优解,因此需要将这些参数作为初值,进行迭代,直到收敛。
5.如权利要求2所述的基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法,其特征在于:步骤10中取M个镜头的焦距fi的平均值作为虚拟影像的焦距f,即
Figure FDA0003536153240000038
并设定虚拟影像的畸变参数(k1,k2,k3,p1,p2)=(0,0,0,0,0)、主点偏移(x0,y0)=(0,0);此外,按公式(7)取不同时刻各镜头的外方位元素的均值作为对应时刻虚拟影像的外方位元素值:
Figure FDA0003536153240000039
6.如权利要求5所述的基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法,其特征在于:步骤11中像元在时刻t的偏移量的计算方式如下,
首先将面阵影像上的像元的观测值
Figure FDA0003536153240000041
获得其无畸变的理想位置
Figure FDA0003536153240000042
再进行基于共线方程的平面投影转换公式(7),计算在虚拟平面上的位置
Figure FDA0003536153240000043
最后求得偏移量
Figure FDA0003536153240000044
公式(7)表示在时刻t的平面投影方程,
Figure FDA0003536153240000045
其中:
Figure FDA0003536153240000046
上标或者下标i表示第i个镜头的参数;
λi为虚拟相机的点投影系数。
7.如权利要求6所述的基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法,其特征在于:在步骤12中,计算某像元在所有时刻的偏移量的均值
Figure FDA0003536153240000047
和均方差
Figure FDA0003536153240000048
并且判断偏移量有效的公式为|dxt-dxmean|<3dxstd且|dyt-dymean|<3dystd
CN202011439117.1A 2020-12-07 2020-12-07 基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法 Active CN112634133B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011439117.1A CN112634133B (zh) 2020-12-07 2020-12-07 基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011439117.1A CN112634133B (zh) 2020-12-07 2020-12-07 基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法

Publications (2)

Publication Number Publication Date
CN112634133A CN112634133A (zh) 2021-04-09
CN112634133B true CN112634133B (zh) 2022-04-29

Family

ID=75309191

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011439117.1A Active CN112634133B (zh) 2020-12-07 2020-12-07 基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法

Country Status (1)

Country Link
CN (1) CN112634133B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101750619A (zh) * 2010-01-18 2010-06-23 武汉大学 自检校pos直接对地目标定位方法
CN103364012A (zh) * 2013-07-18 2013-10-23 中测新图(北京)遥感技术有限责任公司 一种带约束条件的多面阵航摄仪平台检校方法
CN106289317A (zh) * 2016-07-21 2017-01-04 河南四维远见信息技术有限公司 一种单镜头数字航测相机的单机检校方法及装置
CN106643669A (zh) * 2016-11-22 2017-05-10 北京空间机电研究所 一种多镜头多探测器航空相机单中心投影转换方法
CN112017108A (zh) * 2020-08-07 2020-12-01 武汉大学 基于独立模型法区域网平差的卫星正射影像颜色相对校正方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10911745B2 (en) * 2016-12-28 2021-02-02 Texas Instruments Incorporated Calibration of a surround view camera system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101750619A (zh) * 2010-01-18 2010-06-23 武汉大学 自检校pos直接对地目标定位方法
CN103364012A (zh) * 2013-07-18 2013-10-23 中测新图(北京)遥感技术有限责任公司 一种带约束条件的多面阵航摄仪平台检校方法
CN106289317A (zh) * 2016-07-21 2017-01-04 河南四维远见信息技术有限公司 一种单镜头数字航测相机的单机检校方法及装置
CN106643669A (zh) * 2016-11-22 2017-05-10 北京空间机电研究所 一种多镜头多探测器航空相机单中心投影转换方法
CN112017108A (zh) * 2020-08-07 2020-12-01 武汉大学 基于独立模型法区域网平差的卫星正射影像颜色相对校正方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Analysis of the Factors Affecting Airborne Digital Sensor Image Quality;Yansong Duan,et al.;《IEEE Access》;20181218;第7卷;第8018-8027页 *
利用高精度DLG进行机载LiDAR点云精度评定研究;陶鹏杰等;《地球信息科学》;20190430;第21卷(第4期);第608-614页 *

Also Published As

Publication number Publication date
CN112634133A (zh) 2021-04-09

Similar Documents

Publication Publication Date Title
US8717361B2 (en) Method for generating orthophoto image
CN107492069B (zh) 基于多镜头传感器的图像融合方法
CN113340277B (zh) 一种基于无人机倾斜摄影的高精度定位方法
CN112113542A (zh) 一种无人机航摄建设用地土地专项数据验收的方法
CN109903227A (zh) 基于相机几何位置关系的全景影像拼接方法
CN103278138A (zh) 一种复杂结构薄部件三维位置及姿态的测量方法
CN112598740B (zh) 一种大范围多视倾斜影像连接点快速精确匹配方法
CN112254663B (zh) 一种基于影像识别的平面变形监测测量方法及其***
CN104240262A (zh) 一种用于摄影测量的相机外参数标定装置及标定方法
CN112270698B (zh) 基于最邻近曲面的非刚性几何配准方法
CN108663043B (zh) 基于单个相机辅助的分布式pos主子节点相对位姿测量方法
CN110736447B (zh) 一种集成式图像采集设备竖直方向水平位置检校方法
CN112258422B (zh) 立体影像有理多项式参数(rpc)自动精化方法
CN108447100B (zh) 一种机载三线阵ccd相机的偏心矢量和视轴偏心角标定方法
CN109724625A (zh) 一种光学复合大面阵测绘相机的像差改正方法
CN110992429B (zh) 一种单一场景大视场相机外参数标定方法
CN113947638A (zh) 鱼眼相机影像正射纠正方法
CN106504286A (zh) 卫星影像定位方法和装置
CN115526937A (zh) 一种大靶面ccd立靶快速标定***
CN108955642B (zh) 一种大幅面等效中心投影影像无缝拼接方法
CN110068313A (zh) 一种基于投影变换的数字天顶仪定向方法
CN112634133B (zh) 基于云控制的多镜头多面阵航空相机检校及影像虚拟拼接方法
KR101346206B1 (ko) 정사영상의 정밀 처리를 위한 gps 기반 항공측량시스템
CN102519484B (zh) 一种旋转摄影测量***多片整体平差标定方法
CN106403906A (zh) 一种提高多全景相机合成影像摄像测量精度的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant