CN109658366A - 基于改进ransac和动态融合的实时视频拼接方法 - Google Patents
基于改进ransac和动态融合的实时视频拼接方法 Download PDFInfo
- Publication number
- CN109658366A CN109658366A CN201811238125.2A CN201811238125A CN109658366A CN 109658366 A CN109658366 A CN 109658366A CN 201811238125 A CN201811238125 A CN 201811238125A CN 109658366 A CN109658366 A CN 109658366A
- Authority
- CN
- China
- Prior art keywords
- point
- matching
- points
- region
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 230000004927 fusion Effects 0.000 title claims abstract description 30
- 239000011159 matrix material Substances 0.000 claims abstract description 33
- 230000009466 transformation Effects 0.000 claims abstract description 17
- 239000000284 extract Substances 0.000 claims abstract description 5
- 238000012360 testing method Methods 0.000 claims abstract description 5
- 238000001514 detection method Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 5
- 238000007500 overflow downdraw method Methods 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 3
- 230000008030 elimination Effects 0.000 claims description 3
- 238000003379 elimination reaction Methods 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 3
- 230000002093 peripheral effect Effects 0.000 claims description 3
- 238000000746 purification Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 244000291564 Allium cepa Species 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000000155 melt Substances 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进RANSAC和动态融合的实时视频拼接方法,涉及视频拼接技术领域。本方法在粗匹配点对中顺序选取四对任意三点不共线匹配点,并分别计算其空间相似度,当相似度高于设定阈值时保留该匹配点对,反之,则舍弃,直至检测完所有匹配点对。随后从以上步骤筛选出的匹配点对中,随机选取四对,带入变换模型计算得出单应性矩阵H,随后用此步骤得到的模型去测试所有的其它数据,如果某个点适用于估计的模型,认为它也是局内点,并将其标记。将上段所述步骤重复N次,提取被标记次数最多的内点,并将其作为最终的匹配点集,用所选取点集中的匹配对重新计算单应性矩阵,从而得到最终的参数估计值及最优单应性矩阵。
Description
技术领域
本发明涉及视频拼接技术领域,具体是一种基于改进RANSAC和动态融合的实时视频拼接方法。
背景技术
全景图像是由多个图像组成,其视角远大于任一图像,被应用于视频监控、虚拟现实、环境监测等领域。随着数字监控***的发展,对全景动态图像的实时视频拼接技术提出了更高的要求。
构建全景图像的第一步是图像配准。目前的配准方法主要包括基于像素法、变换域法、基于特征法。基于像素的配准方法可以提供准确的配准结果,但由于其庞大的计算量,对于实时性要求较高的拼接***来说并不实用。基于特征的配准方法由于其鲁棒性高,适应性强,因此被广泛应用于拼接实现中。
基于特征的配准方法主要包括特征提取,特征匹配。目前主流的特征提取算法有SIFT算法和SURF算法等。研究结果表明,SURF至少比SIFT快3倍以上,综合性能要优于SIFT算法,因此在实时性要求较高的场合得到了广泛应用。在利用SURF算法提取匹配点对后,需要利用RANSAC算法进一步消除误匹配对,以改善拼接图质量。
全景图像生成以后,在重叠区域会有明显的拼接缝,模糊和鬼影。目前主要有两种方法用来解决上述问题。一种方法是融合整个重叠区域,主要包括单线性融合和泊松融合。另一种方法是寻找图像之间的最佳缝合线,如动态规划和图形分割方法。另外还有一些方法将上述两种方法结合起来,并取得了不错的结果。鬼影现象是全景图像拼接中另一个常见的问题,其很难解决。鬼影现象主要分为两类。一类是由运动目标穿过重叠区域造成,另一类是由于两个镜头之间的视差造成。有很多方法可以用来解决第一类鬼影,如多频带融合和梯度域方法等。现有视频拼接方法存在如下缺点:
问题1:图像配准阶段,基于像素和变换域的配准方法由于庞大的计算量,对于实时性要求较高的拼接***来说并不实用,需采用实时性更高的处理方法。
问题2:由于受到传感器本身物理性质和外界条件的影响以及摄像头视角的不同,获取的图像间易出现曝光差异,导致全景图拼接处存在明显的拼接缝,为消除拼接缝,需采用一定的方法来对图像进行平滑处理。
问题3:受到图像配准和几何变换误差影响,或相邻两幅图像间存在明显的物***移等其它情况,会使融合结果中出现鬼影现象,极大的降低了拼接图的视觉效果,为获取更好的拼接图,必须对现有融合算法进行改进。
发明内容
为了克服上述现有技术的缺点,本发明提一种基于改进RANSAC和动态融合的实时视频拼接方法。
本发明是以如下技术方案实现的:一种基于改进RANSAC和动态融合的实时视频拼接方法,具体步骤如下:
(1)提取关键帧SURF特征:首先设定双目摄像头位于同一水平面,且重叠区域约为30%,对首帧图像进行SURF特征检测和匹配,计算出比较稳定和准确的投影变换矩阵;然后将这个投影变换关系应用到后续的帧图像的拼接中,以一定的时间间隔再进行特征提取、匹配和求取投影变换矩阵,然后又应用到后续一段时间的帧图像拼接中,以此获得最终的准确性较高的实时动态拼接视频;
(2)利用改进RANSAC获取最优单应性矩阵:提取SURF特征点后,利用改进的RANSAC算法进行特征点提纯,并计算出最优单应性矩阵H,具体步骤如下:在粗匹配点对中顺序选取四对任意三点不共线匹配点,并分别计算其空间相似度,当相似度高于设定阈值时保留该匹配点对,反之,则舍弃,直至检测完所有匹配点对;随后从以上步骤筛选出的匹配点对中,随机选取四对,带入变换模型计算得出单应性矩阵H,随后用此步骤得到的模型去测试所有的其它数据,如果某个点适用于估计的模型,认为它也是局内点,并将其标记,将上段所述步骤重复N次,提取被标记次数最多的内点,并将其作为最终的匹配点集,用所选取点集中的匹配对重新计算单应性矩阵,从而得到最终的参数估计值及最优单应性矩阵H;
(3)图像动态融合:首先利用背景消除算法提取运动目标并记录其位置;其次,重叠区域的两幅图像中,某一图像的像素应当优于另一个,同时,在其左右边缘处设定一缓冲区,用来避免采用此方法所造成的明度突变,物体所在区域与其周围区域有着显著的不同,对物体所在区域采用动态融合方法进一步的融合。
优选的,空间相似度具体计算步骤如下:假设(P1,Q1)、(P2,Q2)、(P3,Q3)、(P4,Q4)为四对匹配点对,Pi和Qi(i=1,2,3,4)分别表示两帧图中的对应特征点,Pi,Qi任意三点不共线,d(P1,P2)、d(P1,P3)、d(P1,P4)分别表示P1与P2、P3、P4之间的距离,同理,d(Q1,Q2)、d(Q1,Q3)、d(Q1,Q4)分别表示Q1与Q2、Q3、Q4之间的距离,现引入空间相似度当λ<δ时,认为(P1,Q1)匹配度过低,将其判定为误匹配点剔除,反之,则认为(P1,Q1)为正确匹配点,其中δ为设定阈值;以此方法遍历两视频帧中各匹配点对。
优选的,动态融合方法步骤具体如下:
其中,I1(x,y)代表左图中各像素点信息,I2(x,y)代表右图中各像素点信息,f(x,y)代表融合后图像中各像素点信息,w为重叠区域左边缘至目标左边缘的宽度,i为重叠区域内当前像素点所在列,其值为0~w-1。
由于d1、d2区域的颜色分量不同于运动目标,完成上述步骤后,需对d1和d2区域进行进一步融合,融合公式如下所示:
j代表重叠区域当前像素所在行,当对d1区域融合时,其值为0~d1-1,当对d2区域融合时,其值为d2-1~0。
本发明的有益效果:1、针对配准阶段耗时较高问题,采用运算速度更快的SURF算法,同时引入时间间隔,对首帧图像进行SURF特征检测和匹配,计算出比较稳定和准确的投影变换矩阵后,以一定的时间间隔再进行上述操作,以此获得最终的准确性较高的实时动态拼接视频。
2、采用改进的RANSAC算法能够比原始RANSAC算法剔除更多的误匹配点,获取准确率更高的内点,这有利于获取更高精度的单应性矩阵。
3、采用动态融合的方法,可以极大的消除重叠区域运动目标产生的鬼影问题,改善拼接视频质量。
附图说明
图1是本发明流程框图;
图2是含运动目标情况拼接示意图;
具体实施方式
1、SURF算法原理
SURF算法是继SIFT算法后的又一图像不变特征检测算法,除了具有SIFT算法稳定高效的特点外,还极大的降低了SIFT算法复杂度,大大提高了特征检测和匹配的实时性,这也满足了视频拼接***实时性高的需求,为此本文采用SURF算法进行特征点的检测和匹配。
SURF算法主要包括五个步骤:
(1)构建积分图像。
积分图像是SURF算法的一大特色,其定义为:点x处的积分图像为该点与原点形成的对角点构成的矩形域方框内全部像素值灰度值总和,示意如下:
I(x,y)为图像内各像素点信息,IΣ为I的积分图像。
(2)建立图像金字塔。
SURF利用盒子滤波器与图像进行卷积来建立尺度空间,通过改变盒子滤波器的尺寸来获得不同尺度的图像,从而建立图像金字塔。
(3)Hessian矩阵检测极值点。
利用Hessian矩阵计算出重叠区域内所有点的特征值。随后在3×3立方体内将检测的特征点与自身尺度层中其余8个点和在其之上及之下的两个尺度层9个点,共26个点进行比较,将极值点保留下来,作为特征点。Hessian矩阵公式如下所示:
Det(Hs)=DxxDyy-(0.9×Dxy)2
Det(Hs)代表像素点的Hessian矩阵响应值Dxx、Dyy、Dxy分别代表沿x方向、y方向、xy方向的盒状滤波器与图像卷积的结果。
(4)确定特征点主方向。
从以特征点为中央的圆周内,按一定行进步长,每次计算60度的扇形范围里各点在x还有y方向上的Haar小波响应,Haar小波响应的尺寸为4s(s为该特征点所属空间尺度)。遍历整个圆形区域,选择最长矢量的方向为该特征点的主方向。
(5)生成特征描述子。
以主方向为指导旋转图像系,取特征点作正中央开设20s边长的正方形区域,并把此空间切割成4×4子块,再计算各个小块每点经重定义图像系后并据中央特征点发散的高斯加权的Haar小波响应,最后统计出每个子块的x、y方向上Haar小波响应和∑dx,∑dy,∑|dx|,∑|dy|,得到一个包含此四个数据的4维向量,dx、dy分别代表x和y方向的Haar小波响应,|dx|、|dy|代表其强度信息。依次对每一小块处理,最后获得一个64维的向量,把此向量作为特征点的唯一描述子。
2、RANSAC算法原理
RANSAC是“RANdom SAmple Consensus(随机抽样一致)”的缩写。它可以从一组包含“局外点”的观测数据集中,通过迭代方式估计数学模型的参数。它是一种不确定的算法——它有一定的概率得出一个合理的结果;为了提高概率必须提高迭代次数。该算法最早由Fischler和Bolles于1981年提出。
RANSAC的基本假设是:
(1)数据由“局内点”组成,例如:数据的分布可以用一些模型参数来解释;
(2)“局外点”是不能适应该模型的数据;
(3)除此之外的数据属于噪声。
局外点产生的原因有:噪声的极值;错误的测量方法;对数据的错误假设。
RANSAC也做了以下假设:给定一组(通常很小的)局内点,存在一个可以估计模型参数的过程;而该模型能够解释或者适用于局内点。
RANSAC算法的输入是一组观测数据,一个可以解释或者适应于观测数据的参数化模型,一些可信的参数。RANSAC通过反复选择数据中的一组随机子集来达成目标。被选取的子集被假设为局内点,并用下述方法进行验证:
(1)有一个模型适应于假设的局内点,即所有的未知参数都能从假设的局内点计算得出。
(2)用(1)中得到的模型去测试所有的其它数据,如果某个点适用于估计的模型,认为它也是局内点。
(3).如果有足够多的点被归类为假设的局内点,那么估计的模型就足够合理。
(4)然后,用所有假设的局内点去重新估计模型,因为它仅仅被初始的假设局内点估计过。
(5)最后,通过估计局内点与模型的错误率来评估模型。
这个过程被重复执行固定的次数,每次产生的模型要么因为局内点太少而被舍弃,要么因为比现有的模型更好而被选用。
如图1所示,一种基于改进RANSAC和动态融合的实时视频拼接方法,具体步骤如下:
(1)提取关键帧SURF特征
本文首先设定双目摄像头位于同一水平面,且重叠区域约为30%。但是,考虑到特征检测阶段的耗时对于视频帧而言仍较大,若对每帧都应用特征检测后再进行融合拼接,肯定不能实现实时性,因此引入时间间隔,即先对首帧图像进行SURF特征检测和匹配,计算出比较稳定和准确的投影变换矩阵,然后将这个投影变换关系应用到后续的帧图像的拼接中,同时为了克服拍摄过程中的不确定因素和首帧计算不精带来的累积误差,以一定的时间间隔再进行特征提取、匹配和求取投影变换矩阵,然后又应用到后续一段时间的帧图像拼接中,以此获得最终的准确性较高的实时动态拼接视频。
(2)利用改进RANSAC获取最优单应性矩阵
提取SURF特征点后,利用改进的RANSAC算法进行特征点提纯,并计算出最优单应性矩阵H。对于RANSAC算法,检测和剔除外点数据是提高其精度的关键。为此本文从检测和剔除外点方面对RANSAC算法进行改进。
改进的RANSAC算法在粗匹配点对中顺序选取匹配点对,并计算其空间相似度,当相似度高于设定阈值时保留该匹配点对,反之,则舍弃,直至检测完所有匹配点对。具体步骤如下。
根据相机的成像原理,相关的两幅图像中,任意正确匹配的匹配点对应存在相似的空间关系。由于在平面图形中,为确定某一点的唯一位置至少需要其他不共线的三个点。假设(P1,Q1)、(P2,Q2)、(P3,Q3)、(P4,Q4)为四对匹配点对,Pi和Qi(i=1,2,3,4)分别表示两帧图中的对应特征点。Pi,Qi任意三点不共线。d(P1,P2)、d(P1,P3)、d(P1,P4)分别表示P1与P2、P3、P4之间的距离,同理,d(Q1,Q2)、d(Q1,Q3)、d(Q1,Q4)分别表示Q1与Q2、Q3、Q4之间的距离。现引入空间相似度 当λ<δ时,认为(P1,Q1)匹配度过低,将其判定为误匹配点剔除,反之,则认为(P1,Q1)为正确匹配点,其中δ为设定阈值。以此方法遍历两视频帧中各匹配点对。
考虑到双目视频拼接,对于两幅图像之间的变换情况我们可以用如下矩阵来表示:
(x’,y’)和(x,y)分别代表两视频帧中的点。m0,m1,m3,m4代表尺度和旋转量,m2代表水平方向位移,m5代表垂直方向位移,m6和m7代表水平与垂直方向的变形量。由此看出,该单应性矩阵有8个自由度,因而要确定其参数至少需4对点,即要获取4对匹配点才可得到投影变换矩阵。
故从以上步骤筛选出的匹配点对中,随机选取四对,带入变换模型计算得出单应性矩阵H,随后用此步骤得到的模型去测试所有的其它数据,如果某个点适用于估计的模型,认为它也是局内点,并将其标记。
将上段所述步骤重复N次,提取被标记次数最多的内点,并将其作为最终的匹配点集,用所选取点集中的匹配对重新计算单应性矩阵,从而得到最终的参数估计值及最优单应性矩阵。
(3)图像动态融合
传统的图像融合算法中,在执行图像融合之前,通常会先进行寻找最佳缝合线的处理,以获得最优或局部最优缝合线。但是在本文工作中,该步骤会与接下来进行的融合过程冲突,因此本文略过了最佳缝合线寻找处理,直接进行图像融合。
常用的图像融合方法有最大值法、简单平均法、加权平均法、多分辨率法、渐入渐出法。本文选用的是运行速度较快且过渡效果平滑的渐入渐出法进行图像的融合处理。其公式如下:
其中I1(x,y)代表左图中各像素点信息,I2(x,y)代表右图中各像素点信息,f(x,y)代表融合后图像中各像素点信息,d代表当前像素点与重叠区域右边缘的距离与重叠区域的宽度的比值。该公式需在R、G、B三个通道中分别进行计算。实验结果表明,在一般情况下,利用该公式可以取得很好的融合效果,但当有运动目标穿过重叠区域时,仍会产生鬼影问题。
为解决重叠区域目标移动问题,本文提出了一种动态融合的算法。首先利用背景消除算法提取运动目标并记录其位置。其次,重叠区域的两幅图像中,某一图像的像素应当优于另一个,以此来减少鬼影的生成,同时,在其左右边缘处应设定一缓冲区,用来避免采用此方法所造成的明度突变。由于物体所在区域与其周围区域有着显著的不同,为此对物体所在区域采用动态融合的方法进一步的融合,极大的消除了重叠区域运动目标产生的鬼影问题。含运动目标的情况与改进后的融合算法如下所示:
其中,w为重叠区域左边缘至目标左边缘的宽度,i为重叠区域内当前像素点所在列,其值为0~w-1。
由于d1、d2区域的颜色分量不同于运动目标,完成上述步骤后,需对d1和d2区域进行进一步融合。融合公式如下所示:
j代表重叠区域当前像素所在行,当对d1区域融合时,其值为0~d1-1,当对d2区域融合时,其值为d2-1~0。
利用该方法可以有效且快速的消除鬼影现象。
Claims (3)
1.一种基于改进RANSAC和动态融合的实时视频拼接方法,其特征在于:具体步骤如下:
(1)提取关键帧SURF特征:首先设定双目摄像头位于同一水平面,且重叠区域约为30%,对首帧图像进行SURF特征检测和匹配,计算出比较稳定和准确的投影变换矩阵;然后将这个投影变换关系应用到后续的帧图像的拼接中,以一定的时间间隔再进行特征提取、匹配和求取投影变换矩阵,然后又应用到后续一段时间的帧图像拼接中,以此获得最终的准确性较高的实时动态拼接视频;
(2)利用改进RANSAC获取最优单应性矩阵:提取SURF特征点后,利用改进的RANSAC算法进行特征点提纯,并计算出最优单应性矩阵H,具体步骤如下:在粗匹配点对中顺序选取四对任意三点不共线匹配点,并分别计算其空间相似度,当相似度高于设定阈值时保留该匹配点对,反之,则舍弃,直至检测完所有匹配点对;随后从以上步骤筛选出的匹配点对中,随机选取四对,带入变换模型计算得出单应性矩阵H,随后用此步骤得到的模型去测试所有的其它数据,如果某个点适用于估计的模型,认为它也是局内点,并将其标记,将上段所述步骤重复N次,提取被标记次数最多的内点,并将其作为最终的匹配点集,用所选取点集中的匹配对重新计算单应性矩阵,从而得到最终的参数估计值及最优单应性矩阵H;
(3)图像动态融合:首先利用背景消除算法提取运动目标并记录其位置;其次,重叠区域的两幅图像中,某一图像的像素应当优于另一个,同时,在其左右边缘处设定一缓冲区,用来避免采用此方法所造成的明度突变,物体所在区域与其周围区域有着显著的不同,对物体所在区域采用动态融合方法进一步的融合。
2.根据权利要求1所述基于改进RANSAC和动态融合的实时视频拼接方法,其特征在于:空间相似度具体计算步骤如下:假设点(P1,Q1)、(P2,Q2)、(P3,Q3)、(P4,Q4)为四对匹配点对,Pi和Qi(i=1,2,3,4)分别表示两帧图中的对应特征点,Pi,Qi任意三点不共线,d(P1,P2)、d(P1,P3)、d(P1,P4)分别表示P1与P2、P3、P4之间的距离,同理,d(Q1,Q2)、d(Q1,Q3)、d(Q1,Q4)分别表示Q1与Q2、Q3、Q4之间的距离,现引入空间相似度当λ<δ时,认为(P1,Q1)匹配度过低,将其判定为误匹配点剔除,反之,则认为(P1,Q1)为正确匹配点,其中δ为设定阈值;以此方法遍历两视频帧中各匹配点对。
3.根据权利要求1所述基于改进RANSAC和动态融合的实时视频拼接方法,其特征在于:
动态融合方法步骤具体如下:
其中,I1(x,y)代表左图中各像素点信息,I2(x,y)代表右图中各像素点信息,f(x,y)代表融合后图像中各像素点信息,w为重叠区域左边缘至目标左边缘的宽度,i为重叠区域内当前像素点所在列,其值为0~w-1。
由于d1、d2区域的颜色分量不同于运动目标,完成上述步骤后,需对d1和d2区域进行进一步融合,融合公式如下所示:
j代表重叠区域当前像素所在行,当对d1区域融合时,其值为0~d1-1,当对d2区域融合时,其值为d2-1~0。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811238125.2A CN109658366A (zh) | 2018-10-23 | 2018-10-23 | 基于改进ransac和动态融合的实时视频拼接方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811238125.2A CN109658366A (zh) | 2018-10-23 | 2018-10-23 | 基于改进ransac和动态融合的实时视频拼接方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109658366A true CN109658366A (zh) | 2019-04-19 |
Family
ID=66110703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811238125.2A Pending CN109658366A (zh) | 2018-10-23 | 2018-10-23 | 基于改进ransac和动态融合的实时视频拼接方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109658366A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110120012A (zh) * | 2019-05-13 | 2019-08-13 | 广西师范大学 | 基于双目摄像头的同步关键帧提取的视频拼接方法 |
CN111382782A (zh) * | 2020-02-23 | 2020-07-07 | 华为技术有限公司 | 训练分类器的方法和装置 |
CN111461013A (zh) * | 2020-04-01 | 2020-07-28 | 深圳市科卫泰实业发展有限公司 | 一种基于无人机的实时火场态势感知方法 |
CN113327198A (zh) * | 2021-06-04 | 2021-08-31 | 武汉卓目科技有限公司 | 一种远距离双目视频拼接方法及*** |
CN116258769A (zh) * | 2023-05-06 | 2023-06-13 | 亿咖通(湖北)技术有限公司 | 一种定位校验方法、装置、电子设备和存储介质 |
-
2018
- 2018-10-23 CN CN201811238125.2A patent/CN109658366A/zh active Pending
Non-Patent Citations (1)
Title |
---|
程德强 等: "基于改进随机抽样一致算法的视频拼接算法", 《工矿自动化》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110120012A (zh) * | 2019-05-13 | 2019-08-13 | 广西师范大学 | 基于双目摄像头的同步关键帧提取的视频拼接方法 |
CN110120012B (zh) * | 2019-05-13 | 2022-07-08 | 广西师范大学 | 基于双目摄像头的同步关键帧提取的视频拼接方法 |
CN111382782A (zh) * | 2020-02-23 | 2020-07-07 | 华为技术有限公司 | 训练分类器的方法和装置 |
CN111382782B (zh) * | 2020-02-23 | 2024-04-26 | 华为技术有限公司 | 训练分类器的方法和装置 |
CN111461013A (zh) * | 2020-04-01 | 2020-07-28 | 深圳市科卫泰实业发展有限公司 | 一种基于无人机的实时火场态势感知方法 |
CN111461013B (zh) * | 2020-04-01 | 2023-11-03 | 深圳市科卫泰实业发展有限公司 | 一种基于无人机的实时火场态势感知方法 |
CN113327198A (zh) * | 2021-06-04 | 2021-08-31 | 武汉卓目科技有限公司 | 一种远距离双目视频拼接方法及*** |
CN116258769A (zh) * | 2023-05-06 | 2023-06-13 | 亿咖通(湖北)技术有限公司 | 一种定位校验方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
CN109658366A (zh) | 基于改进ransac和动态融合的实时视频拼接方法 | |
CN105245841B (zh) | 一种基于cuda的全景视频监控*** | |
CN107533763B (zh) | 图像处理装置、图像处理方法及程序 | |
CN105957007B (zh) | 基于特征点平面相似度的图像拼接方法 | |
JP3539788B2 (ja) | 画像間対応付け方法 | |
CN111738314B (zh) | 基于浅层融合的多模态图像能见度检测模型的深度学习方法 | |
CN104599258B (zh) | 一种基于各向异性特征描述符的图像拼接方法 | |
CN108876749A (zh) | 一种鲁棒的镜头畸变校正方法 | |
CN104685513B (zh) | 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计 | |
CN103679636B (zh) | 基于点、线双重特征的快速图像拼接方法 | |
CN104134200B (zh) | 一种基于改进加权融合的运动场景图像拼接方法 | |
CN107424181A (zh) | 一种改进的图像拼接关键帧快速提取方法 | |
CN110992263B (zh) | 一种图像拼接方法及*** | |
CN104933434A (zh) | 一种结合LBP特征提取和surf特征提取方法的图像匹配方法 | |
CN107274336A (zh) | 一种针对车载环境的全景图像拼接方法 | |
CN111445389A (zh) | 一种高分辨率图像的宽视角快速拼接方法 | |
CN107945111A (zh) | 一种基于surf特征提取结合cs‑lbp描述符的图像拼接方法 | |
CN109544635B (zh) | 一种基于枚举试探的相机自动标定方法 | |
CN103955888A (zh) | 一种基于sift的高清视频图像拼接方法及装置 | |
CN111768332A (zh) | 一种车载环视实时3d全景图像的拼接方法及图形采集装置 | |
CN109711321A (zh) | 一种结构自适应的宽基线影像视角不变直线特征匹配方法 | |
CN107133986A (zh) | 一种基于二维标定物的相机标定方法 | |
CN111783834B (zh) | 一种基于联合图频谱特征分析的异源图像匹配方法 | |
CN113887624A (zh) | 一种基于双目视觉的改进特征立体匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190419 |
|
WD01 | Invention patent application deemed withdrawn after publication |