CN101621634B - 动态前景分离的大幅面视频拼接方法 - Google Patents

动态前景分离的大幅面视频拼接方法 Download PDF

Info

Publication number
CN101621634B
CN101621634B CN2009100898413A CN200910089841A CN101621634B CN 101621634 B CN101621634 B CN 101621634B CN 2009100898413 A CN2009100898413 A CN 2009100898413A CN 200910089841 A CN200910089841 A CN 200910089841A CN 101621634 B CN101621634 B CN 101621634B
Authority
CN
China
Prior art keywords
video
image
prospect
sigma
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2009100898413A
Other languages
English (en)
Other versions
CN101621634A (zh
Inventor
贾克斌
张媛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN2009100898413A priority Critical patent/CN101621634B/zh
Publication of CN101621634A publication Critical patent/CN101621634A/zh
Application granted granted Critical
Publication of CN101621634B publication Critical patent/CN101621634B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)

Abstract

动态前景分离的大幅面视频拼接方法,涉及视频拼接、全景视频领域。该方法是采用多台位置和拍摄角相对固定且相同的摄像机拍摄获取视频数据,再由计算机***按顺序读入这些视频序列,并对这些视频序列依次进行几何校正、前景提取,然后分别对前景和背景视频序列进行匹配和变换,得到拼接后的前景和背景视频,最后将拼接后的前景和背景视频融合得到最终的视频拼接结果。在本发明中所使用的摄像机的摆放位置可根据拍摄环境而调整,摄像机的数目可为2个或2个以上。本发明所提供的方法通过分离前景并在重叠区域重新选择将要保留的单方数据,从而避免了鬼影的产生。实验证明该方法既保证了视频的质量同时也提高了拼接算法的速度。

Description

动态前景分离的大幅面视频拼接方法
技术领域
本发明涉及视频拼接、全景视频领域,设计和实现了一种基于多摄像机的前景分离的视频拼接方法。
背景技术
随着信息技术的不断发展,人们对摄像机所采集到的视频信息的要求也不断提高。全景视频拼接技术突破摄像机采集传感器的物理限制,通过拼接多摄像机同一时刻下拍摄的视频流,得到高分辨的全景视频,能够大大提高人们对事物和场景的动态感知、辨别与监控能力,为各个领域尤其是安保、军事、国防等领域降低风险,提高安全性做出贡献;全景视频拼接技术也应用于车载后视镜等工业领域;在视频后期编辑制作中,全景视频在体现视频感染力与真实感方面也发挥了重要作用。
目前,已公开的全景视频的获取主要有以下四种解决方案:一是常见于监控***的快球摄像头。通过快球的高速运动能够实现对360°空间的视频监控,但是该***在某一时刻下只能监控某一角度的画面,不可避免地会在监控时出现盲区;二是利用鱼眼镜头的宽广视角直接获取360°场景,经过变换得到全景视频,此方法所生成的全景视频分辨率较低,清晰度差;第三种方法,是借助二次凸面镜和一个摄像机组合,通过用摄像机拍摄凸面镜上的发射图像变换生成全景视频,此方法需要昂贵的专业视频采集设备,而且全景图是由一幅图像变换而得,不能达到高分辨率的要求;另外,有研究机构通过将摄像头以一定几何约束条件固定组成一摄像头群,达到了视频球型拼接***,但是此种***对摄像机的几何位置要求严格,制作工艺细致,不适用于普通应用,同时没有能够解决拼接中出现的鬼影现象。
发明内容
视频自身信息冗余庞大、实时捕捉场景中运动物体的特点给视频拼接技术的发展造成了很大障碍,主要体现于以下三点:(1)运动物体的存在将导致图像匹配产生致命性错误;(2)大量的待处理图像序列,需要更加高效的拼接算法;(3)复杂的运动物体的存在将导致拼接中鬼影的出现。
本发明的目的是提出一种基于多摄像机的动态前景分离视频拼接方法。使用这种方法效率较高,且能够得到理想的拼接效果。
本发明所提供的动态前景分离的大幅面视频拼接方法的技术方案参见1至图4,具体是采用多台相同且拍摄角度固定的摄像机获取视频数据,再由计算机***按顺序读入这些视频序列,并对这些视频序列依次进行几何校正、前景提取,然后分别对前景和背景视频序列进行匹配和变换,得到拼接后的前景和背景视频,最后将拼接后的前景和背景视频融合得到最终的视频拼接结果,其特征在于具体包括如下步骤:
(1)采用多台相同的摄像机拍摄获取视频数据,相邻摄像机的拍摄区域相互重叠,且相对位置和拍摄角度保持不变;
(2)计算机程序依自左到右的视场顺序从摄像机读入视频序列;
(3)当照相***的镜头或者照相装置没有正对着待拍摄的景物时候,拍摄到的景物图像会产生一定的变形。通常情况下,产生的畸变分为射线和切线两种方向。实际应用中,一般忽略切线方向上的畸变。如图6中(a)表示的是有畸变的网格图像,(b)是原始无畸变图像。依据摄像机的焦距对视频进行几何校正;假设没有畸变的图像由函数fu(xu,yu)表示,有畸变的图像由函数fd(xd,yd)表示;则两函数之间的关系可以由以下两式表示:
xd=xu(1+k1r2)
yd=yu(1+k2r2)
其中, r 2 = x u 2 + y u 2 , k1,k2为控制图像畸变程度的系数;图6中(c)是原始视频的帧图像,(d)为经校正后的结果图像。
(4)利用平均法建立视频的静态背景,其方法如下:
I ‾ B ( x , y ) = 1 N Σ i = 1 N I i ( x , y )
其中,IB(x,y)为最终求得的背景图像,Ii(x,y)为视频帧图像,N为视频帧数;
(5)利用背景减除法提取前景,依据背景帧的平均灰度值IB,设定两个自适应的阈值k1,k2
k1=k2/IB
k2=0.2*(IB-20)+10
对视频的每帧图像Ii(x,y)求其中的每个像素所对应的差值g1,g2值,
g 1 ( x , y ) = | I ‾ B I ‾ i I i ( x , y ) I B ( x , y ) - 1 |
g2(x,y)=|Ii(x,y)-IB(x,y)|
对于g1>k1或g2>k2者,在前景二值图像中标注为1,其他点为0,由此得到前景二值图像;
经图像形态学方法处理后,寻找连通区域并求取运动物体中心Centre:
Centre ( x , y ) = ( Σ i = 0 M x i M , Σ i = 0 M y i M )
其中,M是前景目标的像素个数,(xi,yi)是前景的坐标;
(6)对背景视频的配准处理,又具体包括以下三个步骤:
(a)使用Harris角点检测的方法提取图像中物体的角点作为特征点:首先把彩色图像转换为灰度图像,在高斯窗内计算图像x轴方向和y轴方向的一阶偏导数fx和fy,然后使用以下公式计算C矩阵:
C = G ( σ ) ⊗ f x 2 f x f y f x f y f y 2
其中,G(σ)为高斯窗函数;
然后利用“角”函数R来判定图像中物体的特征点:
R=Det(C)-αTr2(C)        0.04≤α≤0.06
其中,α为特征值修正系数,一般取0.04-0.06之间。当某像素点的R值大于设定的某一阈值T(T>0)时,该点就是检测出的特征点;
(b)NCC(Normalized Cross Correlation)相关点匹配:使用NCC相关性算法计算图像间特征点的相关性,得到成对的相关特征点;NCC相关性计算公式如下:
NCC ( I 1 , I 2 ) = Σ i = - N N Σ j = - N N ( I 1 ( x - i , y - j ) - I 1 ‾ ) ( I 2 ( x - i , y - j ) - I 2 ‾ ) Σ i = - N N Σ j = - N N ( I 1 ( x - i , y - j ) - I 1 ‾ ) 2 Σ i = - N N Σ j = - N N ( I 2 ( x - i , y - j ) - I 2 ‾ ) 2
其中:I1和I2为两幅同时刻视频帧的像素值; I 1 ‾ = 1 N Σ i = - N N Σ j = - N N I 1 ( x - i , y - j ) , I 2 ‾ = 1 N Σ i = - N N Σ j = - N N I 2 ( x - i , y - j ) 分别为图像I1和I2以(x,y)为中心的2N×2N图像窗内的像素均值,(x-i,y-j)为图像I1和I2中像素坐标,N∈(3,11);将NCC的相似度值归一化在[-1,1]范围内;
(c)RANSAC(RANdom SAmple Consensus)提纯处理:使用RANSAC方法采用抽样的方式提取四对相关的特征点计算图像变换矩阵,然后把图像I2的所有特征点坐标变换到图像I1的坐标系中,计算其与图像I1中对应相关点的坐标误差值,即两点间距离;如果小于门限值M,则认为这一对相关点是匹配的特征点,即线内点;按照如上方法继续抽样、计算线内点,直到线内点数量不再增加或者抽样计算达到N次则终止抽样;
(7)利用图像间成对的匹配特征点计算八变量投影变换矩阵,使图像按匹配位置拼合到同一图像空间中;变换公式如下:
X ^ = HX = h 00 h 01 h 02 h 10 h 11 h 12 h 20 h 21 1 X
其中,H是投影变换矩阵,它是自相关的,h00、h01、h02、h10、h11、h12、h20、h21为八个所求变量,X=[x,y,1]T为图像变换前原始输入图像的坐标, X ^ = [ x ^ , y ^ , 1 ] T 为经投影变换后图像坐标;变换结果的自相关坐标
Figure G2009100898413D00055
必须归一化以得到非相关的结果X′=[x′y′1]T
x ′ = h 00 x + h 01 y + h 02 h 20 x + h 21 y + 1 , y ′ = h 10 x + h 11 y + h 12 h 20 x + h 21 y + 1
其中,x,y为原始图像坐标,x′,y′为变换后图像坐标;由此得出四对特征点对依据下公式可以求出变换矩阵H,但是在实际操作中利用所有匹配的特征点,使用L-M算法迭代求得精确的变换矩阵;
(8)背景图像变换至同一平面,达到背景的拼接;并在重叠区域进行亮度融合,其融合函数如下:
C ( x ) = Σ k w ( d ( x ) ) I k ( x ) Σ k w ( d ( x ) )
其中,w是单调函数,一般取w(x)=x,d(x)为图像Ik(k=1,2,3…)中融合点(x,y)与融合范围边界在x轴上的距离,Ik(x)为融合点的像素值,C(x)为融合后的像素值;最终得到静态视频帧序列;
(9)利用步骤(7)中的投影变换矩阵H及步骤(5)的动态前景特征,匹配识别重叠区域内的动态前景,确定动态前景在相邻视频中的一致关系,将动态前景补回到静态背景视频中;
由前面所得到的变换矩阵确定重叠区域范围,进而根据前景的中心、左右极点判断前景是否在重叠区域内;若在重叠区域内,则要判断其与另一视频中相关帧的运动前景是否为同一物体,取一而避免因拍摄角度不同所产生的鬼影现象;判断依据如公式:利用两视频间的变换关系,将两运动前景变换至同一坐标下,判断其重叠面积大于较小目标面积大小的k倍;满足条件则确认为同一目标,保留面积较大者;判断规则如下:
Sc1∩Sc2>k*Smin
其中,Sc1与Sc2分别代表两视频中前景目标的面积,Smin是Sc1、Sc2中较小的一个;
(10)融合前景和背景视频,并输出视频拼接结果。
本发明所提供的动态前景分离的大幅面视频拼接方法中,所使用的摄像机的摆放位置可根据拍摄环境而调整,摄像机光心之间距离由拍摄景物远近调整,景物距摄像机越近则要求摄像机间距离越小;对于室内拍摄,摄像机的光心相距5-10cm;对于室外拍摄,摄像机的光心距离为5-100cm,相邻摄像机拍摄区域的重叠面积在20%-50%;摄像机的数目为2个或2个以上。
采用本发明具有以下有益效果,首先,本发明在研究静态图像拼接技术之上,提出了一套匹配准确快速可重复性强的静态图像拼接算法,为视频拼接提供了精确的变换模板。第二,为了避免运动目标在拼接后产生的鬼影,本发明首次在视频拼接研究领域中提出前后景分离的方法,通过分离前景并在重叠区域重新选择将要保留的单方数据,从而避免了鬼影的产生。实验证明该算法既保证了视频的质量同时也提高了拼接算法的速度。
以下结合说明书附图和具体实施方式对本发明作进一步的说明:
附图说明
图1拼接方法简要流程图;
图2背景拼接流程图;
图3前景匹配流程图;
图4拼接方法详细流程图。
图5视频采集设备的摆放模型;
图6畸变图像示图与校正前后对比图;
图7视频背景图像获得与拼接结果;
图8视频的前景提取结果;
图9背景帧的Harris角点提取图;
图10视频拼接结果样帧;
具体实施方式
本发明所提供的动态前景分离的大幅面视频拼接方法中,所使用的摄像机的数目可以为2个或2个以上。在本实施例中采用两台相同的摄像机。摄像机的摆放位置可根据拍摄环境而调整,摄像机光心之间距离由拍摄景物远近调整,景物距摄像机越近则要求摄像机间距离越小;对于室内拍摄,摄像机的光心相距5-10cm;对于室外拍摄,摄像机的光心距离为5-100cm,相邻摄像机拍摄区域的重叠面积在20%-50%。本实施例是在室内拍摄,摄像机光心相距5cm,两台摄像机拍摄视频重叠区域为25%左右。具体摆放位置如图5所示。在计算机中完成以下步骤:
第一步:依左右视场排列顺序读入视频序列。
第二步:依据摄像机的焦距对视频进行几何校正。没有畸变的图像由函数fu(xu,yu)表示,有畸变的图像由函数fd(xd,yd)表示。则两函数之间的关系可以由以下两式表示:
xd=xu(1+k1r2)
yd=yu(1+k2r2)
其中,r2=xu 2+yu 2,k1,k2为控制畸变程度的系数。它们是经多次试验获得的经验值,取值范围都在[-1,1]。此实例中,以图像的中心点作为坐标原点进行变换,且根据手持摄像机通常的焦距值通过大量试验得到对应的控制畸变系数k1,k2,如:当摄像机焦距f=35mm时,k1=0.02,k2=0.075。
第三步:利用平均法建立视频的静态背景。
第四步:根据静态背景,利用自适应双阈值分别提取各个视频流的动态前景。设背景帧的平均灰度值IB,设定两个自适应的阈值k1,k2
k1=k2/IB
k2=0.2*(IB-20)+10
当每帧图像Ii(x,y)入***中,求每个像素所对应的差值g1,g2值,
g 1 ( x , y ) = | I ‾ B I ‾ i I i ( x , y ) I B ( x , y ) - 1 |
g2(x,y)=|Ii(x,y)-IB(x,y)|
对于g1>k1或g2>k2者,在前景二值图像中标注为1,其他点为0,由此得到前景二值图像。
经图像的膨胀和腐蚀方法后,寻找连同区域并求取运动物体中心Centre:
Centre ( x , y ) = ( Σ i = 0 M x i M , Σ i = 0 M y i M )
其中,M是前景目标的像素个数,(xi,yi)是前景的坐标。
第五步:对静态背景进行图像配准,求相邻视频流间的变换矩阵,并将静态背景拼接为大幅面的静态全景视频。
1)对两视频的静态背景做Harris角点检测,提取图像中物体的角点作为特征点;其中,G(σ)设为5×5像素大小的高斯窗函数,角函数R的阈值取T=10000,系数α=0.06。
2)对特征点进行NCC相关性计算,得到相关的成对特征点。图像窗大小N取11。
3)使用RANSAC方法精确筛选出匹配的特征点,门限值M=0.1,重复抽样次数上线设为10000次。
4)使用匹配的特征点求出图像间的八变量投影变换矩阵,把图像按照匹配位置变换到新开辟的拼接结果图像空间。
5)背景图像变换至同一平面,达到背景的拼接,并在重叠区域进行亮度融合。
第六步:进行前景的补回。由第五步所得到的变换矩阵确定重叠区域范围,进而根据前景的中心、左右极点判断前景是否在重叠区域内。若在重叠区域内,则要判断其与另一视频中相关帧的运动前景是否为同一物体,取一而避免因拍摄角度不同所产生的鬼影现象。判断依据如公式:利用两视频间的变换关系,将两运动前景变换至同一坐标下,判断其重叠面积大于较小目标面积大小的k倍。满足条件则确认为同一目标,保留面积较大者。判断规则如下:
Sc1∩Sc2>k*Smin
其中,Sc1与Sc2分别代表两视频中前景目标的面积,Smin是Sc1、Sc2中较小的一个。
第十一步:显示拼接结果,如图10。
为验证本发明方法的实用性和实时效果,拍摄了4组室内室外视频做拼接试验。表1为四个样例视频的实验统计数据,对不同场景的试验最终统计平均处理帧率在15.93f/s,方法经进一步优化,基本能达到实时效果。
表1视频拼接的帧处理速度统计
  视频大小   帧处理速度(帧/秒)
  样例1   320*240   16.85
  样例2   320*240   17.29
  样例3   320*240   15.73
  样例4   480*270   13.86

Claims (2)

1.动态前景分离的大幅面视频拼接方法,是采用多台相同且拍摄角度固定的摄像机获取视频数据,再由计算机***按顺序读入这些视频序列,并对这些视频序列依次进行,几何校正、前景提取,然后分别对前景和背景视频序列进行匹配和变换,得到拼接后的前景和背景视频,最后将拼接后的前景和背景视频融合得到最终的视频拼接结果,其特征在于具体包括如下步骤:
(1)采用多台相同的摄像机拍摄获取视频数据,相邻摄像机的拍摄区域相互重叠,且相对位置和拍摄角度保持不变;
(2)计算机***依自左到右的视场顺序从摄像机读入视频序列;
(3)依据摄像机的焦距对视频进行几何校正;假设没有畸变的图像由函数fu(xu,yu)表示,有畸变的图像由函数fd(xd,yd)表示;则两函数之间的关系由以下两式表示:
xd=xu(1+m1r2)
yd=yu(1+m2r2)
其中,r2=xu 2+yu 2,m1,m2为控制图像畸变程度的系数;
(4)利用平均法建立视频的静态背景,其方法如下:
I ‾ B ( x , y ) = 1 N Σ i = 1 N I i ( x , y )
其中,
Figure FSB00000178467500012
为最终求得的背景图像,Ii(x,y)为视频帧图像,N为视频帧数;
(5)利用背景减除法提取前景,依据背景帧的平均灰度值
Figure FSB00000178467500013
设定两个自适应的阈值k1,k2
k 1 = k 2 / I ‾ B
k 2 = 0.2 * ( I ‾ B - 20 ) + 10
对视频的每帧图像Ii(x,y)求其中的每个像素所对应的差值g1,g2值,
g 1 ( x , y ) = | I ‾ B I ‾ i I i ( x , y ) I B ( x , y ) - 1 |
g2(x,y)=|Ii(x,y)-IB(x,y)|
其中代表当前帧图像的平均灰度值;对于g1>k1或g2>k2者,在前景二值图像中标注为1,其他点为0,由此得到前景二值图像;
经图像形态学方法处理后,寻找连通区域并求取运动物体中心Centre:
Centre ( x , y ) = ( Σ i = 0 M x i M , Σ i = 0 M y i M )
其中,M是前景目标的像素个数,(xi,yi)是前景的坐标;
(6)对背景视频的配准处理,又具体包括以下三个步骤:
(a)使用Harris角点检测的方法提取图像中物体的角点作为特征点:首先把彩色图像转换为灰度图像,在高斯窗内计算图像x轴方向和y轴方向的一阶偏导数fx和fy,然后使用以下公式计算C矩阵:
C = G ( σ ) ⊗ f x 2 f x f y f x f y f y 2
其中,G(σ)为高斯窗函数;
然后利用“角”函数R来判定图像中物体的特征点:
R=Det(C)-αTr2(C)0.04≤α≤0.06
其中,α为特征值修正系数,取0.04-0.06之间;当某像素点的R值大于设定的某一阈值T,满足T>0时,该点就是检测出的特征点;Det(C)是矩阵C的行列式,Tr(C)是矩阵C的迹;
(b)NCC相关点匹配:使用NCC相关性算法计算图像间特征点的相关性,得到成对的相关特征点;NCC相关性计算公式如下:
NCC ( I 1 , I 2 ) = Σ i = - N N Σ j = - N N ( I 1 ( x - i , y - j ) - I 1 ‾ ) ( I 2 ( x - i , y - j ) - I 2 ‾ ) Σ i = - N N Σ j = - N N ( I 1 ( x - i , y - j ) - I 1 ‾ ) 2 Σ i = - N N Σ j = - N N ( I 2 ( x - i , y - j ) - I 2 ‾ ) 2
其中:I1和I2为两幅同时刻视频帧的像素值;
Figure FSB00000178467500033
分别为图像I1和I2以(x,y)为中心的2N×2N图像窗内的像素均值,(x-i,y-j)为图像I1和I2中像素坐标,N∈(3,11);将NCC的相似度值归一化在[-1,1]范围内;
(c)RANSAC提纯处理:使用RANSAC方法采用抽样的方式提取四对相关的特征点计算图像变换矩阵,然后把图像I2的所有特征点坐标变换到图像I1的坐标系中,计算其与图像I1中对应相关点的坐标误差值,即两点间距离;如果小于门限值M,则认为这一对相关点是匹配的特征点,即线内点;按照如上方法继续抽样、计算线内点,直到线内点数量不再增加或者抽样计算达到N次则终止抽样;
(7)利用图像间成对的匹配特征点计算八变量投影变换矩阵,使图像按匹配位置拼合到同一图像空间中;变换公式如下:
X ^ = HX = h 00 h 01 h 02 h 10 h 11 h 12 h 20 h 21 1 X
其中,H是投影变换矩阵,它是自相关的,h00、h01、h02、h10、h11、h12、h20、h21为八个所求变量,X=[X,y,l]T为图像变换前原始输入图像的坐标,
Figure FSB00000178467500035
Figure FSB00000178467500041
为经投影变换后图像坐标;变换结果的自相关坐标
Figure FSB00000178467500042
必须归一化以得到非相关的结果X′=[x′y′1]T
x ′ = h 00 x + h 01 y + h 02 h 20 x + h 21 y + 1 , y ′ = h 10 x + h 11 y + h 12 h 20 x + h 21 y + 1
其中,x,y为原始图像坐标,x′,y′为变换后图像坐标;由此得出四对特征点对依据下公式求出变换矩阵H,但是在实际操作中利用所有匹配的特征点,使用L-M算法迭代求得精确的变换矩阵;
Figure FSB00000178467500045
(8)背景图像变换至同一平面,达到背景的拼接;并在重叠区域进行亮度融合,其融合函数如下:
C ( x ) = Σ k w ( d ( x ) ) I k ( x ) Σ k w ( d ( x ) )
其中,w是单调函数,取w(x)=x,d(x)为图像Ik中,k=1,2,3…,融合点(x,y)与融合范围边界在x轴上的距离,Ik(x)为融合点的像素值,k代表像素点的个数,C(x)为融合后的像素值;最终得到静态视频帧序列;
(9)利用步骤(7)中的投影变换矩阵H及步骤(5)的动态前景特征,匹配识别重叠区域内的动态前景,确定动态前景在相邻视频中的一致关系,将动态前景补回到静态背景视频中;
由前面所得到的变换矩阵确定重叠区域范围,进而根据前景的中心、左右极点判断前景是否在重叠区域内;若在重叠区域内,则要判断其与另一视频中相关帧的运动前景是否为同一物体,取一而避免因拍摄角度不同所产生的鬼影现象;判断依据如公式:利用两视频间的变换关系,将两运动前景变换至同一坐标下,判断其重叠面积大于较小目标面积大小的k倍;满足条件则确认为同一目标,保留面积较大者;判断规则如下:
Sc1∩Sc2>k*Smin
其中,Sc1与Sc2分别代表两视频中前景目标的面积,Smin是Sc1、Sc2中较小的一个;
(10)融合前景和背景视频,并输出视频拼接结果。
2.根据权利要求1所述的动态前景分离的大幅面视频拼接方法,其特征在于,所使用的摄像机的摆放位置根据拍摄环境而调整:对于室内拍摄,摄像机的光心相距5-10cm;对于室外拍摄,摄像机的光心距离为5-100cm,相邻摄像机拍摄区域的重叠面积在20%-50%;摄像机的数目为2个或2个以上。
CN2009100898413A 2009-07-24 2009-07-24 动态前景分离的大幅面视频拼接方法 Expired - Fee Related CN101621634B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009100898413A CN101621634B (zh) 2009-07-24 2009-07-24 动态前景分离的大幅面视频拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100898413A CN101621634B (zh) 2009-07-24 2009-07-24 动态前景分离的大幅面视频拼接方法

Publications (2)

Publication Number Publication Date
CN101621634A CN101621634A (zh) 2010-01-06
CN101621634B true CN101621634B (zh) 2010-12-01

Family

ID=41514636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100898413A Expired - Fee Related CN101621634B (zh) 2009-07-24 2009-07-24 动态前景分离的大幅面视频拼接方法

Country Status (1)

Country Link
CN (1) CN101621634B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102006425A (zh) * 2010-12-13 2011-04-06 交通运输部公路科学研究所 一种基于多摄像机的视频实时拼接方法

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102143305B (zh) * 2010-02-02 2013-11-06 华为终端有限公司 摄像方法及***
CN101853505B (zh) * 2010-05-13 2012-06-13 复旦大学 一种基于像素扩散的前景提取方法
CN101951487B (zh) * 2010-08-19 2012-06-27 深圳大学 一种全景图像融合方法、***及图像处理设备
CN102088569B (zh) * 2010-10-13 2013-06-19 首都师范大学 低空无人飞行器序列图像拼接方法和***
EP2623956A4 (en) * 2010-10-29 2014-10-08 Olympus Corp IMAGE ANALYSIS METHOD AND IMAGE ANALYSIS DEVICE
CN102446352B (zh) * 2011-09-13 2016-03-30 深圳万兴信息科技股份有限公司 视频图像处理方法及装置
CN102340633B (zh) * 2011-10-18 2013-07-03 深圳市远望淦拓科技有限公司 一种利用多台摄像机生成鱼眼效果图片的方法
CN102609919A (zh) * 2012-02-16 2012-07-25 清华大学 一种基于区域的压缩感知图像融合方法
CN102778980B (zh) * 2012-07-05 2015-07-08 中国电子科技集团公司第二十八研究所 一种超大幅面显示触点融合交互***
CN102799375B (zh) * 2012-07-05 2015-08-19 中国电子科技集团公司第二十八研究所 一种超大幅面显示触点融合交互***的图像处理方法
CN102868872B (zh) * 2012-09-29 2017-03-29 广东威创视讯科技股份有限公司 视频提取方法和装置
CN105096283B (zh) * 2014-04-29 2017-12-15 华为技术有限公司 全景图像的获取方法和装置
TWI554976B (zh) 2014-11-17 2016-10-21 財團法人工業技術研究院 監控系統及其影像處理方法
CN104392416B (zh) * 2014-11-21 2017-02-22 中国电子科技集团公司第二十八研究所 一种运动场景的视频拼接方法
CN104408701B (zh) * 2014-12-03 2018-10-09 中国矿业大学 一种大场景视频图像拼接方法
CN105812649B (zh) * 2014-12-31 2019-03-29 联想(北京)有限公司 一种摄像方法和装置
CN104639911B (zh) * 2015-02-09 2018-04-27 浙江宇视科技有限公司 一种全景视频拼接方法及装置
CN104683773B (zh) * 2015-03-25 2017-08-25 北京真德科技发展有限公司 无人机视频高速传输方法
CN104809720B (zh) * 2015-04-08 2017-07-14 西北工业大学 基于小交叉视场的两相机目标关联方法
EP3142066B1 (en) * 2015-09-10 2024-06-12 KNORR-BREMSE Systeme für Nutzfahrzeuge GmbH Image synthesizer for a surround monitoring system
CN106851045A (zh) * 2015-12-07 2017-06-13 北京航天长峰科技工业集团有限公司 一种图像拼接重叠区域运动目标处理方法
CN106023073A (zh) * 2016-05-06 2016-10-12 安徽伟合电子科技有限公司 一种图像拼接***
CN106023076B (zh) * 2016-05-11 2019-04-23 北京交通大学 全景图的拼接方法和检测高速铁路的防护栏的缺损状态的方法
CN105959549A (zh) * 2016-05-26 2016-09-21 努比亚技术有限公司 全景照片的拍摄装置及方法
CN107493441B (zh) * 2016-06-12 2020-03-06 杭州海康威视数字技术股份有限公司 一种摘要视频生成方法及装置
CN107333064B (zh) * 2017-07-24 2020-11-13 广东工业大学 一种球形全景视频的拼接方法及***
CN107360354B (zh) * 2017-07-31 2020-06-26 Oppo广东移动通信有限公司 拍照方法、装置、移动终端和计算机可读存储介质
CN107730452B (zh) * 2017-10-31 2021-06-04 北京小米移动软件有限公司 图像拼接方法及装置
CN108038825B (zh) * 2017-12-12 2020-08-04 维沃移动通信有限公司 一种图像处理方法及移动终端
CN108447022B (zh) * 2018-03-20 2019-10-18 北京天睿空间科技股份有限公司 基于单个固定摄像头图像序列的运动目标拼接方法
CN111754544B (zh) * 2019-03-29 2023-09-05 杭州海康威视数字技术股份有限公司 一种视频帧融合方法、装置、电子设备
CN110276722B (zh) * 2019-06-20 2021-03-30 深圳市洛丁光电有限公司 一种视频图像拼接方法
CN111105350B (zh) * 2019-11-25 2022-03-15 南京大学 大视差场景下基于自身单应性变换的实时视频拼接方法
CN112085659B (zh) * 2020-09-11 2023-01-06 中德(珠海)人工智能研究院有限公司 一种基于球幕相机的全景拼接融合方法、***及存储介质
CN114007014B (zh) * 2021-10-29 2023-06-16 北京环境特性研究所 一种生成全景图像的方法、装置、电子设备和存储介质
CN116437063A (zh) * 2023-06-15 2023-07-14 广州科伊斯数字技术有限公司 一种三维图像显示***及方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102006425A (zh) * 2010-12-13 2011-04-06 交通运输部公路科学研究所 一种基于多摄像机的视频实时拼接方法

Also Published As

Publication number Publication date
CN101621634A (zh) 2010-01-06

Similar Documents

Publication Publication Date Title
CN101621634B (zh) 动态前景分离的大幅面视频拼接方法
CN109003311B (zh) 一种鱼眼镜头的标定方法
Won et al. Omnimvs: End-to-end learning for omnidirectional stereo matching
CN109064404A (zh) 一种基于多相机标定的全景拼接方法、全景拼接***
CN103337094A (zh) 一种应用双目摄像机实现运动三维重建的方法
CN112085659B (zh) 一种基于球幕相机的全景拼接融合方法、***及存储介质
Tang et al. ESTHER: Joint camera self-calibration and automatic radial distortion correction from tracking of walking humans
Yang et al. Progressively complementary network for fisheye image rectification using appearance flow
CN110956661B (zh) 基于双向单应矩阵的可见光与红外相机动态位姿计算方法
CN110766024B (zh) 基于深度学习的视觉里程计特征点提取方法及视觉里程计
CN106780303A (zh) 一种基于局部配准的图像拼接方法
CN101626513A (zh) 全景视频生成方法及***
CN110969667A (zh) 基于边缘特征的多光谱相机外参自校正算法
Li et al. ULSD: Unified line segment detection across pinhole, fisheye, and spherical cameras
CN113221665A (zh) 一种基于动态最佳缝合线和改进渐入渐出法的视频融合算法
CN103955888A (zh) 一种基于sift的高清视频图像拼接方法及装置
CN105894443A (zh) 一种基于改进的surf算法的实时视频拼接方法
CN109141432B (zh) 一种基于影像空间和全景辅助的室内定位导航方法
CN113112403B (zh) 一种红外图像拼接方法、***、介质及电子设备
CN114898353B (zh) 一种基于视频序列图像特征与信息的车牌识别方法
Dai et al. Multi-spectral visual odometry without explicit stereo matching
CN103646397A (zh) 基于多源数据融合的实时合成孔径透视成像方法
CN113096016A (zh) 一种低空航拍图像拼接方法和***
CN110910457B (zh) 基于角点特征的多光谱立体相机外参计算方法
Zhang et al. Building a stereo and wide-view hybrid RGB/FIR imaging system for autonomous vehicle

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20101201

Termination date: 20120724