CN103093460A - 基于平行视差的移动相机虚拟阵列标定方法 - Google Patents
基于平行视差的移动相机虚拟阵列标定方法 Download PDFInfo
- Publication number
- CN103093460A CN103093460A CN2013100037196A CN201310003719A CN103093460A CN 103093460 A CN103093460 A CN 103093460A CN 2013100037196 A CN2013100037196 A CN 2013100037196A CN 201310003719 A CN201310003719 A CN 201310003719A CN 103093460 A CN103093460 A CN 103093460A
- Authority
- CN
- China
- Prior art keywords
- camera
- plane
- parallax
- viewpoint
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于平行视差的移动相机虚拟阵列标定方法,用于解决现有的基于平行视差的固定相机阵列标定方法需要多台相机的技术问题。技术方案是利用直线导轨上平行移动的单个相机模拟一个虚拟的相机阵列***,对各视点所拍摄图像中的特征点进行跟踪并以此估计多视角相机姿态。利用得到的各视角姿态,首先定义一个与直线导轨向平行的参考平面,对由此平面诱导的各视角和某一参考视角的单应矩阵进行估计。而后此单应矩阵计算各视角与参考视角在参考平面的视差。各视点的相对位置由对视差矩阵的SVD分解计算所得。利用本发明方法对静态场景中的被遮挡目标进行透视成像,去遮挡效果良好。
Description
技术领域
本发明涉及一种移动相机虚拟阵列标定方法,特别是涉及一种基于平行视差的移动相机虚拟阵列标定方法。
背景技术
在众多多视点采集设备中,稠密相机阵列被广泛地应用于采集光场、自由视点成像以及合成孔径成像中。传统的相机阵列多由稠密排布若干个的固定相机构成,其标定方法主要有:完整的相机内部参数与外部参数标定和平行视差的标定方法。
文献“Using Plane+Parallax for Calibrating Dense Camera Arrays,IEEE CVPR2004,Vol.1Page.I-2-I-9”公开了一种稠密相机阵列的构造形式并给出了基于平行视差(Plane+Parallax)方法的固定相机阵列标定方法。该相机阵列***右共面排布的128个固定相机以及图像采集节点构成,可用于光场采集、基于图像的绘制渲染技术以及合成孔径成像等应用。然而,该相机阵列***仍存在如下劣势:首先,由于相机的位置是固定的,并不能够根据所拍摄场景的特点自适应地改变拍摄视角或增加新的视点,其次,由于相机数量较多,***构建、图像采集以及相机参数控制等方面均需花费较多的人力物力。文献利用阵列***中各相机光心共面的特点对相机阵列进行标定。文献中定义了与各相机所在平面的所平行的两个虚拟平面:参考平面与聚焦平面。标定过程首先利用各相机共同拍摄的合作标定标志物估计由各相机与某个指定的参考相机之间由参考平面诱导的单应(Homography)投影矩阵。进而对由参考平面向聚焦平面的投影矩阵(Homology)进行估计。文献中指出在相机平面、参考平面和聚焦平面互相平行时,此投影矩阵退化为纯平移,并可以由对各相机在参考平面的视差进行计算。
发明内容
为了克服现有基于平行视差的固定相机阵列标定方法需要多台相机的不足,本发明提供一种基于平行视差的移动相机虚拟阵列标定方法。该方法利用直线导轨上平行移动的单个相机模拟一个虚拟的相机阵列***,对各视点所拍摄图像中的特征点进行跟踪并以此估计多视角相机姿态。利用得到的各视角姿态,首先定义一个与直线导轨向平行的参考平面,对由此平面诱导的各视角和某一参考视角的单应矩阵进行估计。而后此单应矩阵计算各视角与参考视角在参考平面的视差。各视点的相对位置由对视差矩阵的SVD分解计算所得。利用本发明方法,可以对静态场景中的被遮挡目标进行透视成像,达到良好的去遮挡效果。
本发明解决其技术问题所采用的技术方案是:一种基于平行视差的移动相机虚拟阵列标定方法,其特点是包括以下步骤:
步骤一、首先对输入的图像序列进行SIFT特征点检测与匹配,使用RANSAC鲁棒估计方法对所检测到的特征点进行外点去除。而后利用各视角二维图像上的图像特征对应内点,恢复各视角的姿态、相机内参数以及场景中若干稀疏点的三维坐标;最后对所有帧的估计结果在捆集调整的框架下进行整体优化。该步骤结束后,建立空间三维点在各视角图像上的投影方程:
xi=PiX
其中X为世界坐标系下点的三维坐标,Pi为估计出的第i个视角的相机姿态以及内参数矩阵。
步骤二:设相机在直线导轨上的运动过程中,各视点光心所处平面为相机平面,与相机平面所平行的参考平面为∏R;设在相机运动过程中,共在k个不同视角采集了图像,即V1,...,VR,...,Vk,其中VR为一个用来度量视差的参考视角。设Hi表示由∏R诱导的从Vi到VR的单应矩阵。在参考平面上有j个控制点XR1,...,XRj,利用第一步所估计出的Pi矩阵,将XR1,...,XRj投影至各视角图像上,利用黄金标准算法对平面∏R诱导单应进行估计。
步骤三:设共有I个不同的平面与参考平面∏R平行,分别为∏1,...,∏I,在每个平面上,均有J个不同的控制点,第i个平面上的第j个控制点用Xij表示,利用各视点的姿态以及相机内参数,将Xij投影至视角Vk以及参考视角VR的图像上,设此投影点分别为xijk和xijR。则由三维点Xij诱导的视角Vk与VR之间的视差pijk在参考平面∏R上表示如下:
pijk=Hixijk-xijR
式中,Hi为估计出的诱导单应。将同一平面上的J个视差数据进行累加求均,得到在平面∏i上视角Vk与VR之间的平均视差pik
将I个平面上的K个不同视角的平均视差写成矩阵形式,得视差矩阵M,对矩阵M进行SVD分解,得
式中,s为标量系数,Δxk为视角Vk与参考视角VR的相对位置,di为平面∏i与参考平面∏R的相对距离:
式中,Δzi为∏i到∏R的距离,Z为∏i到相机平面的距离。
本发明的有益效果是:由于利用直线导轨上平行移动的单个相机模拟一个虚拟的相机阵列***,对各视点所拍摄图像中的特征点进行跟踪并以此估计多视角相机姿态。利用得到的各视角姿态,首先定义一个与直线导轨向平行的参考平面,对由此平面诱导的各视角和某一参考视角的单应矩阵进行估计。而后此单应矩阵计算各视角与参考视角在参考平面的视差。各视点的相对位置由对视差矩阵的SVD分解计算所得。利用本发明方法对静态场景中的被遮挡目标进行透视成像,去遮挡效果良好。
下面结合具体实施方式对本发明作详细说明。
具体实施方式
本发明基于平行视差的移动相机虚拟阵列标定方法具体步骤如下:
1、多视角姿态估计。
通过图像序列对相机姿态进行估计和对三维场景中的稀疏点进行重建为历来计算机视觉中的研究热点,并已有许多成熟的算法,这里仅简述其估计过程
首先,对输入的图像序列进行自动特征点检测,而后对帧间的特征点进行匹配分析。由于场景中可能存在运动物体,某些特征匹配并不是正确的,因此需要对分析出的匹配进行外点分析和去除。剩余的匹配点成为内点,可被利用进行相机姿态估计。最后所有帧的估计结果在捆集调整的框架下进行整体优化,得到全局最优解。
2、各相机相对位置估计。
设相机在直线导轨上的运动过程中,各视点光心所处平面为相机平面,设∏R为与相机平面所平行的参考平面,标定过程首先对由此参考平面诱导的单应进行估计。设在相机运动过程中,共在k个不同视角采集了图像,即V1,...,VR,...,Vk,其中VR为一个用来度量视差的参考视角。设Hi表示由∏R诱导的从Vi到VR的单应矩阵。假设在参考平面上有j个控制点,如XR1,...,XRj,由于各视点的姿态以及相机内参数已知,此j个控制点投影至视点Vi与VR图像上的像素坐标可按如下方程计算:
xRi=PXRi
其中P为第一步中估计出的相机姿态以及内参数矩阵。由计算机视觉知识可知,当j≥4时,可用两幅图像上的对应像素点对单应矩阵进行估计。
该单应矩阵可用于生成聚焦于于参考平面的合成孔径图像,当需要生成非参考平面上的合成图像时,需要根据不同的视角对图像进行不同视差量的平移后合成。该视差量可根据各视点间的相对位置进行计算。下面叙述对各视点间的相对位置的估计方法。
设共有I个不同的与参考平面∏R平行的平面,分别为∏1,...,∏I,在每个平面上,均有J个不同的控制点,第i个平面上的第j个控制点用Xij表示,利用各视点的姿态以及相机内参数,可将Xij投影至视角Vk以及参考视角VR的图像上,设此投影点分别为xijk和xijR。则由三维点Xij诱导的视角Vk与VR之间的视差pijk可在参考平面∏R上表示如下:
pijk=Hixijk-xijR
其中Hi为估计出的诱导单应。将同一平面上的J个视差数据进行累加求均,得到在平面∏i上视角Vk与VR之间的平均视差pik
将I个平面上的K个不同视角的平均视差写成矩阵形式,可得视差矩阵M。由于视差和相机相对位置之间存在相似三角形的比例关系,因此M的秩为1,对矩阵M进行SVD分解,可得
其中s为标量系数,Δxk为视角Vk与参考视角VR的相对位置,di为平面∏i与参考平面∏R的相对距离:
其中Δzi为∏i到∏R的距离,Z为∏i到相机平面的距离。因此当di均可被测量时,各视角间的相对位置可通过对视差矩阵M的SVD分解所得。
Claims (1)
1.一种基于平行视差的移动相机虚拟阵列标定方法,其特征在于包括以下步骤:
步骤一、首先对输入的图像序列进行SIFT特征点检测与匹配,使用RANSAC鲁棒估计方法对所检测到的特征点进行外点去除;而后利用各视角二维图像上的图像特征对应内点,恢复各视角的姿态、相机内参数以及场景中若干稀疏点的三维坐标;最后对所有帧的估计结果在捆集调整的框架下进行整体优化;该步骤结束后,建立空间三维点在各视角图像上的投影方程:
xi=PiX
其中X为世界坐标系下点的三维坐标,Pi为估计出的第i个视角的相机姿态以及内参数矩阵;
步骤二:设相机在直线导轨上的运动过程中,各视点光心所处平面为相机平面,与相机平面所平行的参考平面为∏R;设在相机运动过程中,共在k个不同视角采集了图像,即V1,...,VR...,Vk,其中VR为一个用来度量视差的参考视角;设Hi表示由∏R诱导的从Vi到VR的单应矩阵;在参考平面上有j个控制点XR1,..,XRj,利用第一步所估计出的Pi矩阵,将XR1,...,XRj投影至各视角图像上,利用黄金标准算法对平面∏R诱导单应进行估计;
步骤三:设共有I个不同的平面与参考平面∏R平行,分别为∏1,...,∏I,在每个平面上,均有J个不同的控制点,第i个平面上的第j个控制点用Xij表示,利用各视点的姿态以及相机内参数,将Xij投影至视角Vk以及参考视角VR的图像上,设此投影点分别为xijk和xijR;则由三维点Xij诱导的视角Vk与VR之间的视差pijk在参考平面∏R上表示如下:
pijk=Hixijk-xijR
式中,Hi为估计出的诱导单应;将同一平面上的J个视差数据进行累加求均,得到在平面∏i上视角Vk与VR之间的平均视差pik
将I个平面上的K个不同视角的平均视差写成矩阵形式,得视差矩阵M,对矩阵M进行SVD分解,得
式中,s为标量系数,Δxk为视角Vk与参考视角VR的相对位置,di为平面∏i与参考平面∏R的相对距离:
式中,Δzi为∏i到∏R的距离,Z为∏i到相机平面的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013100037196A CN103093460A (zh) | 2013-01-06 | 2013-01-06 | 基于平行视差的移动相机虚拟阵列标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013100037196A CN103093460A (zh) | 2013-01-06 | 2013-01-06 | 基于平行视差的移动相机虚拟阵列标定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103093460A true CN103093460A (zh) | 2013-05-08 |
Family
ID=48205991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2013100037196A Pending CN103093460A (zh) | 2013-01-06 | 2013-01-06 | 基于平行视差的移动相机虚拟阵列标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103093460A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413302A (zh) * | 2013-07-29 | 2013-11-27 | 西北工业大学 | 相机阵列动态焦平面估计方法 |
CN103413304A (zh) * | 2013-07-30 | 2013-11-27 | 西北工业大学 | 基于彩色深度融合的虚拟阵列合成孔径透视成像方法 |
CN103426170A (zh) * | 2013-07-29 | 2013-12-04 | 西北工业大学 | 基于非结构光场合成孔径成像的隐藏目标成像方法 |
CN104156972A (zh) * | 2014-08-25 | 2014-11-19 | 西北工业大学 | 基于激光扫描测距仪与多相机融合的透视成像方法 |
WO2016101892A1 (en) * | 2014-12-23 | 2016-06-30 | Huawei Technologies Co., Ltd. | Computational multi-camera adjustment for smooth view switching and zooming |
CN107403423A (zh) * | 2017-08-02 | 2017-11-28 | 清华大学深圳研究生院 | 一种光场相机的合成孔径去遮挡方法 |
CN107430782A (zh) * | 2015-04-23 | 2017-12-01 | 奥斯坦多科技公司 | 用于利用深度信息的全视差压缩光场合成的方法 |
CN111462317A (zh) * | 2020-04-27 | 2020-07-28 | 清华大学 | 一种基于多视角三维重建的空间网格结构监测的相机布置方法 |
CN111939563A (zh) * | 2020-08-13 | 2020-11-17 | 北京像素软件科技股份有限公司 | 目标锁定方法、装置、电子设备及计算机可读存储介质 |
-
2013
- 2013-01-06 CN CN2013100037196A patent/CN103093460A/zh active Pending
Non-Patent Citations (5)
Title |
---|
VAIBHAV VAISH等: "Using Plane + Parallax for Calibrating Dense Camera Arrays", 《PROCEEDINGS OF THE 2004 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR’04)》 * |
XIAOQIANG ZHANG等: "Calibrate a Moving Camera on a Linear Translating Stage Using Virtual Plane + Parallax", 《ISCIDE"12 PROCEEDINGS OF THE THIRD SINO-FOREIGN-INTERCHANGE CONFERENCE ON INTELLIGENT SCIENCE AND INTELLIGENT DATA ENGINEERING》 * |
XIUWEI ZHANG等: "A Convenient Multi-camera Self-calibration Method Based on Human Body Motion Analysis", 《FIFTH INTERNATIONAL CONFERENCE ON IMAGE AND GRAPHICS, 2009. ICIG "09》 * |
ZHAO PEI等: "A novel method for detecting occluded object by multiple camera arrays", 《2012 9TH INTERNATIONAL CONFERENCE ON FUZZY SYSTEMS AND KNOWLEDGE DISCOVERY (FSKD 2012)》 * |
杨涛等: "基于场景复杂度与不变特征的航拍视频实时配准算法", 《电子学报》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103413302B (zh) * | 2013-07-29 | 2016-01-13 | 西北工业大学 | 相机阵列动态焦平面估计方法 |
CN103426170A (zh) * | 2013-07-29 | 2013-12-04 | 西北工业大学 | 基于非结构光场合成孔径成像的隐藏目标成像方法 |
CN103413302A (zh) * | 2013-07-29 | 2013-11-27 | 西北工业大学 | 相机阵列动态焦平面估计方法 |
CN103413304A (zh) * | 2013-07-30 | 2013-11-27 | 西北工业大学 | 基于彩色深度融合的虚拟阵列合成孔径透视成像方法 |
CN104156972B (zh) * | 2014-08-25 | 2017-01-25 | 西北工业大学 | 基于激光扫描测距仪与多相机融合的透视成像方法 |
CN104156972A (zh) * | 2014-08-25 | 2014-11-19 | 西北工业大学 | 基于激光扫描测距仪与多相机融合的透视成像方法 |
WO2016101892A1 (en) * | 2014-12-23 | 2016-06-30 | Huawei Technologies Co., Ltd. | Computational multi-camera adjustment for smooth view switching and zooming |
CN107430782A (zh) * | 2015-04-23 | 2017-12-01 | 奥斯坦多科技公司 | 用于利用深度信息的全视差压缩光场合成的方法 |
CN107430782B (zh) * | 2015-04-23 | 2021-06-04 | 奥斯坦多科技公司 | 用于利用深度信息的全视差压缩光场合成的方法 |
CN107403423A (zh) * | 2017-08-02 | 2017-11-28 | 清华大学深圳研究生院 | 一种光场相机的合成孔径去遮挡方法 |
CN107403423B (zh) * | 2017-08-02 | 2019-12-03 | 清华大学深圳研究生院 | 一种光场相机的合成孔径去遮挡方法 |
CN111462317A (zh) * | 2020-04-27 | 2020-07-28 | 清华大学 | 一种基于多视角三维重建的空间网格结构监测的相机布置方法 |
CN111462317B (zh) * | 2020-04-27 | 2022-06-21 | 清华大学 | 一种基于多视角三维重建的空间网格结构监测的相机布置方法 |
CN111939563A (zh) * | 2020-08-13 | 2020-11-17 | 北京像素软件科技股份有限公司 | 目标锁定方法、装置、电子设备及计算机可读存储介质 |
CN111939563B (zh) * | 2020-08-13 | 2024-03-22 | 北京像素软件科技股份有限公司 | 目标锁定方法、装置、电子设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103093460A (zh) | 基于平行视差的移动相机虚拟阵列标定方法 | |
Zhou et al. | Semi-dense 3D reconstruction with a stereo event camera | |
CN103115613B (zh) | 一种空间三维定位方法 | |
CN110458897B (zh) | 多摄像头自动标定方法及***、监控方法及*** | |
CN103247075B (zh) | 基于变分机制的室内环境三维重建方法 | |
CN103292695B (zh) | 一种单目立体视觉测量方法 | |
Im et al. | High quality structure from small motion for rolling shutter cameras | |
CN107358633A (zh) | 一种基于三点标定物的多相机内外参标定方法 | |
CN101976455A (zh) | 一种基于立体匹配的彩色图像三维重建方法 | |
CN103903263B (zh) | 一种基于Ladybug全景相机图像的360度全方位测距方法 | |
CN104677330A (zh) | 一种小型双目立体视觉测距*** | |
CN102042807B (zh) | 一种目标空间坐标的柔性立体视觉测量装置 | |
US20220051425A1 (en) | Scale-aware monocular localization and mapping | |
CN106225676B (zh) | 三维测量方法、装置及*** | |
CN102997891A (zh) | 场景深度的测量装置和方法 | |
Rodríguez et al. | Obstacle avoidance system for assisting visually impaired people | |
Afzal et al. | Rgb-d multi-view system calibration for full 3d scene reconstruction | |
Grabner et al. | Gp2c: Geometric projection parameter consensus for joint 3d pose and focal length estimation in the wild | |
CN105809664A (zh) | 生成三维图像的方法和装置 | |
CN103247065A (zh) | 一种裸眼3d视频生成方法 | |
Sheng et al. | Mobile robot localization and map building based on laser ranging and PTAM | |
Chen et al. | Low cost and efficient 3D indoor mapping using multiple consumer RGB-D cameras | |
CN108090930A (zh) | 基于双目立体相机的障碍物视觉检测***及方法 | |
CN116205961A (zh) | 多镜头组合影像和激光雷达点云的自动配准方法及其*** | |
CN201945293U (zh) | 一种目标空间坐标的柔性立体视觉测量装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130508 |