CN101616310B - 可变视角及分辨率的双目视觉***目标图像稳定化方法 - Google Patents

可变视角及分辨率的双目视觉***目标图像稳定化方法 Download PDF

Info

Publication number
CN101616310B
CN101616310B CN2009100889912A CN200910088991A CN101616310B CN 101616310 B CN101616310 B CN 101616310B CN 2009100889912 A CN2009100889912 A CN 2009100889912A CN 200910088991 A CN200910088991 A CN 200910088991A CN 101616310 B CN101616310 B CN 101616310B
Authority
CN
China
Prior art keywords
image
resolution
frame
target
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2009100889912A
Other languages
English (en)
Other versions
CN101616310A (zh
Inventor
周杰
万定锐
胡瀚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN2009100889912A priority Critical patent/CN101616310B/zh
Publication of CN101616310A publication Critical patent/CN101616310A/zh
Priority to US12/836,881 priority patent/US8368766B2/en
Application granted granted Critical
Publication of CN101616310B publication Critical patent/CN101616310B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

基于双目PTZ视觉***的高分辨率视频稳定化方法属于视觉监控领域,其特征在于:它同时利用由两路不同分辨率的视频,其中一路为低分辨率视角固定的全景图像,另一路为高分辨率变化视角的局部图像,包含感兴趣的运动目标。本发明建议采用两个PTZ摄像机以方便应用。高分辨率视频可以通过人工手动或者计算机自动控制摄像机运动得到。目标是得到一个完整、平稳的包含感兴趣运动目标的视频,并且尽可能采用高分辨率信息。本发明首先解决了不同分辨率视频之间的图像配准问题,其次提出四种顺序填充方式,充分利用了当前高分辨率信息以及历史高分辨率信息来填充目标视频。通过这样处理后的结果可以用于犯罪取证、监控记录保存、运动目标的行为分析等,实验结果表明本发明提出的方法很实用。

Description

可变视角及分辨率的双目视觉***目标图像稳定化方法
技术领域
本发明涉及计算机视觉视频处理技术领域,尤其涉及采用双目PTZ(一种可以改变视角和分辨率参数的主动镜头)镜头进行高分辨率视频稳定化的技术。
背景技术
随着计算机视觉技术的发展,以及全世界范围内安全防范意识的提高,智能视觉监控技术受到越来越多的重视。这种技术已经逐步广泛用于军用和民用。在早期的应用中,智能程度很低,因此安全防范功能主要还是依靠人对监控视频中的事件进行判断,可靠度和自动化程度都很低。它更主要的用途还是用于犯罪的事后取证。而现在的智能视觉监控***的发展趋势是更注重犯罪预警,以减少犯罪案件的发生。
本发明主要解决下面的问题:大范围场景的监控中,对高分辨率抓拍的感兴趣目标的图片序列进行稳定化处理。其意义在于:首先,提高视频的可视化效果。由于目标距离摄像机距离一般较远,而镜头的分辨率又很高,所以镜头的微小抖动可能导致图像中的物体运动非常剧烈,因此这样的视频可视化效果很差。而视频稳定化的目标就是尽可能使图像中目标的运动变得平稳,从而可以提高可视化效果。第二,从稳定化后的视频中可以更加容易地提取监控中所需要的特征进行目标识别,而且视频本身也可以作为整体特征进行保存以备以后查阅。第三,稳定化后的视频还可以用于计算机视觉研究,例如目标的行为分析、姿态识别、步态分析等。
硬件需求:为了实现对远距离目标的高分辨率抓拍,我们提出采用双目PTZ视觉***。其中一个镜头采用低分辨率监控全景,另一个镜头采用高分辨率抓拍运动目标。之所以选择这样的硬件组合,是因为:
1、传统单目静止镜头的监控已经不能满足现代监控的需求,具体表现在:1)其视角固定,当目标运动出可视范围后,监控人员将完全丢失目标的信息;2)由于图像分辨率和可见视场的大小之间存在矛盾关系,如果要求图像分辨率很高,则视场会相对比较小,特别是对于远距离监控。
2、如果采用单目主动镜头,以上两个问题都可以通过改变视角解决,但是它也存在新的问题。在对目标进行主动跟踪的过程中,由于镜头参数一直在变化,图像中的背景和目标有运动,因此很难准确预测目标的运动。另一方面,镜头控制也很难做到非常精确,而且由于镜头的运动时间很难准确估计,因此无论采用计算机自动跟踪或者手动跟踪,目标都有可能在图像中丢失,并且一旦丢失,单靠一个高分辨率镜头很难再将其重新捕捉。因此,采用单目主动镜头进行目标的高分辨率视频抓拍的鲁棒性很低。
综上所述,我们提出了采用双目主动镜头来解决这一问题。其中一个镜头作为低分辨率静止镜头使用,实时对目标进行跟踪;另一个利用高分辨率镜头获取的目标位置信息,对目标进行高分辨率主动跟踪。我们之所以采用一个主动镜头做静止镜头用,一方面是利用其灵活性,可以方便地改变监控场景,另一方面考虑到***对称性,如果两个镜头型号完全一致,***标定会更加方便,而且两个镜头的地位可以根据任务不同而互换。
在本***中,我们采用了两个PTZ主动镜头。选择PTZ镜头的原因有三点:1)它是一种最简单的主动镜头,它可以通过改变pan和tilt参数来改变视角,也可以通过改变zoom参数来改变图像分辨率;2)它的集成度很高,相比采用一个可变焦镜头和一个云台构成的主动镜头,不需要用户再对其进行过多标定和校正,而且鲁棒性和准确性都更有保障;3)它已经有比较成熟产品,并且已经越来越多的用到实际应用中。在本***中我们采用的是SONY EVI D70。
对于远距离高分辨率监控,视频稳定化是一个非常有意义的工作,因为直接得到的高分辨率视频一般都存在下列问题:1)图像模糊。这种模糊主要是由于镜头运动造成,为了保证主动镜头可以有效地跟上目标运动,一般要求镜头采用高速运动模式,因此容易在运动中出现图像模糊;2)目标在图像中不完整。在双目监控***中,虽然有低分辨率镜头保证目标不至于丢失,但是仍然很难保证高分辨率图像每帧都完整地包含运动目标。因为主动镜头每个动作都需要一定时间,而且时间很难精确估计,因此控制一般都会有超调;3)视频可能出现抖动,如果目标运动速度过大,镜头控制频率可能比较高,因此容易出现帧间的抖动。基于以上三个原因,我们提出了一个高分辨率视频稳定化的框架来解决这一问题。
发明内容
本发明的目的是解决远距离视觉监控中获取高分辨率平稳视频的问题,采用两个PTZ镜头,一个镜头采用低分辨率监控全景,另一个采用高分辨率抓拍感兴趣运动目标的图像,最后通过视频稳定化技术得到平稳的高分辨率视频。
本发明的特征在于,所述方法在PC机中依次按以下步骤实现:
步骤(1),使第一个可变视角,或分辨率的PTZ摄像机作为静止摄像机,用于监控全景,再使第二个可变视角,或分辨率的PTZ摄像机抓拍感兴趣的运动目标;
步骤(2),所述PC机从所述第一个PTZ摄像机中输入记录全景的图像,称为低分辨率图像IL t,并把每帧图像转换为灰度图像;所述PC机从所述第二个PTZ摄像机中输入记录运动目标的图像,称为高分辨率图像IH t,把每帧图像转换为灰度图像,并用所述的两个灰度图分别代替所述的IL t和IH t
步骤(3),不同分辨率视频图像之间的配准:选择第t帧低分辨率图像IL t中所述运动目标所在的矩形区域IL_tar t所对应的高分辨率图像作为***的输出图像Iout t,然后计算所述高分辨率图像IH t和所述低分辨率图像IL t之间的映射模型MLH t,具体如下:
步骤(3.1),所述矩形区域IL_tar t的选定,
步骤(3.1.1),对所述低分辨率图像IL t求取低分辨率背景模型ILB t,像素(x,y)处的更新公式为:
I LB t ( x , y ) = ( 1 - α ) I LB t - 1 ( x , y ) + α I L t ( x , y ) ,
其中更新系数α=0.05,初始低分辨率背景模型 I LB t = 0 ( x , y ) = I L t = 0 ( x , y ) , 如果 | I L t ( x , y ) - I LB t ( x , y ) | > T LB , T LB = 20 , 则IL t在(x,y)属于前景区域,否则,该像素属于背景区域,
步骤(3.1.2),利用Opencv提供的Mean-shift跟踪算法,通过给定原始灰度图像IL t以及步骤(3.1.1)得到的前景区域,即可求得感兴趣目标在IL t图像中的位置,并在设定帧数的帧邻域内对所跟踪的目标中心进行均值平滑,平滑后的中心即为所述目标的中心,也是所述矩形区域的中心,该矩形区域的长宽设为64×48像素,最终得到的高分辨率输出图像Iout t的尺寸为所述矩形区域的IL_tar t的ko倍,ko=5,
步骤(3.2),用基于特征点的配准方法求取所述低分辨率图像IL t和高分辨率图像IH t之间的初步映射模型MLH1 t
步骤(3.2.1),计算所述第t帧高分辨图像IH t和低分辨率图像IL t中目标区域IL_tar t的SIFT特征点,
步骤(3.2.2),对IH t中的每个特征点,分别计算它和所述低分辨率图像目标区域IL_tar t中的每个特征点之间的距离,即s12=||v1-v2||,其中v1和v2分别表示两个特征点对应的SIFT特征向量,然后考虑距离最小的两组结果smin 1和smin 2,如果
Figure G2009100889912D00034
Ts=0.7,则smin 1对应的特征点为匹配点,否则认为该点没有匹配特征点,如果两图之间的总匹配特征点对的个数少于10,则认为所述映射模型MLH t无效,转到步骤(4),否则转到步骤(3.3),
步骤(3.2.3),对所述的高分辨率图像IH t与所述低分辨率图像目标区域IL_tar t的SIFT匹配特征点对 { ( x i 1 , y i 1 ) ∈ I L t , ( x i 2 , y i 2 ) ∈ I H t } , i = 1,2 , . . . , n , 求取仿射变换矩阵 M LH 1 t = m 1 m 2 m 3 m 4 m 5 m 6 0 0 1 , 其中参数通过下式求取:
[m1,m2,m3,m4,m5,m6]T=(ATA)-1AX,
其中, A = x 1 1 y 1 1 1 0 0 0 0 0 0 x 1 1 y 1 1 1 x 2 1 y 2 1 1 0 0 0 0 0 0 x 2 1 y 2 1 1 . . . . . . . . . . . . . . . . . . x n 1 x n 1 1 0 0 0 0 0 0 x 1 1 x 1 1 1 , X = x 1 2 y 1 2 x 2 2 y 2 2 . . . x n 2 y n 2 ,
步骤(3.3),调整所述低分辨率图像IL t的灰度值,得到校正图像IL_adj t
步骤(3.3.1),选定计算灰度映射的区域:对步骤(3.2)中所述两幅图像IH t和IL_tar t中匹配上的特征点集分别用一个凸多边形表示,该凸多边形以特征点为顶点,所有特征点都在多边形内部或顶点处,该凸多边形内部即为灰度映射区域,
步骤(3.3.2),统计上述凸多边形内的灰度直方图hist(k),k=0,1,…,255,按下式得到累计直方图:
Accu ( K ) = Σ k = 1 K hist ( k ) Σ k = 1 32 hist ( k ) , K = 0,1 , · · · , 255
步骤(3.3.3),用Accu1和Accu2分别表示IL t和IH t的累积分布直方图,按下述方法划分三个灰度集合G1,G2,G3
G1={K:0≤Accu1(K)<0.05}
G2={K:0.05≤Accu1(K)<0.95}
G3={K:0.95≤Accu1(K)≤1}
选取映射模型为三段分片线性模型 K 2 = MI ( K 1 ) = a 1 K 1 + b 1 , K 1 ∈ G 1 a 2 K 1 + b 2 , K 1 ∈ G 2 a 3 K 1 + b 3 , K 1 ∈ G 3 , 其中K1和K2分别表示IL t和IH t的灰度值,利用下面的目标函数线性拟合K∈G2时所述图像IL t和IH t之间的灰度值映射函数K2=MI(K1)=a2K1+b2,K1∈G2
Figure G2009100889912D00052
用灰度集合G1、G3分别拟合模型K2=MI(K1)=a1K1+b1,K1∈G1和K2=MI(K1)=a3K1+b3,K1∈G3,使得MI(0)=0,MI(255)=255,
步骤(3.3.4),根据IL t和LH t之间的灰度值映射模型MI(k)调整IL t的灰度值,得到IL_adj t
步骤(3.4)基于像素的直接配准方法估计IL t和IH t之间更精确的仿射模型MLH2 t
步骤(3.4.1),用步骤(3.2)中所述的MLH1 t对所述的高分辨率图像IH t进行变换,得到图像IH_adj t,变换方法是:
所述图像IH_adj t在坐标点(xi,yi)的值 I H _ adj t ( x i , y i ) = I H t ( f ( x i , y i ( M LH 1 t ) - 1 ) ) , 其中f是同构坐标变换函数,计算方法是:
f(x,y,M)=(x′,y′),其中x和y′由[x′,y′,1]T=M[x,y,1]T得到,
步骤(3.4.2),用迭代的梯度下降的方法求解下面的优化问题,得到模型Mrefined t
M refined t = arg min M Σ i | | I H _ adj t ( x i , y i ) - I L _ adj t ( f ( x i , y i , M ) ) | |
其中(xi,yi)是所述图像IH_adj t的第i个像素点坐标,f见步骤(3.4.1),迭代初始值M0设为3×3的单位矩阵,
步骤(3.4.3),如果步骤(3.4.2)中所求得的Mrefined t满足下面两个条件中的任何一个,则认为Mrefined t和MLH2 t无效,不再对其进行计算,转到步骤(4),
a ) , | | R 2 &times; 2 M - I 2 &times; 2 | | &infin; < 0.3 ;
b ) , | | t 2 &times; 1 M | | &infin; < 4 ;
其中, M refined t = R M t M , [R2×2 M t2×1 M]是Mrefined t的前两行,
步骤(3.4.4),计算更精确的仿射模型 M LH 2 t = M LH 1 t M refined t ,
步骤(3.5)根据邻域2N+1帧图像对所述输出图像Iout t进行平滑处理,取N=5,
步骤(3.5.1),求取第j帧高分辨率图像到第i帧高分辨率图像的变换模型Mj i
由步骤(3.1.1)中所求得的IL t中的前景区域通过步骤(3.4.1)中的变换方法
由所述的更精确的仿射模型MLH2 t得到对应的IH t中的前景目标,进而得到IH t的背景区域,用步骤(3.2)中的方法,求取所述第j帧高分辨图像IH j和第i帧高分辨率图像IH i之间的变换模型Mj i
步骤(3.5.2)求取平滑模型MLH t
M LH t = &Sigma; t = t - N t + N &omega; i &delta; i M i t M LH 2 i &Sigma; i = t - N t + N &omega; i &delta; i
其中,ωi是高斯权重系数,N=5, &omega; i = 1 2 &pi; &sigma; e ( i - t ) 2 2 &sigma; 2 , &sigma; = 1.5 , δi取值为:
Figure G2009100889912D00066
步骤(3.5.3)计算当前帧的相对模糊度bt
b t = 1 &Sigma; p t [ dx 2 ( p t ) + dy 2 ( p t ) ]
其中,pt为所述第t帧高分辨率图像IH t中的像素点,dx(·)和dy(·)分别是图像沿着x和y方向上的梯度,
如果bt>1.3min{bt-1,bt+1},则认为当前帧为模糊图像,并设定MLH t无效;
步骤(4)图像补全:对所述输出图像中未被高分辨率图像完全覆盖的部分进行图像补全,具体步骤如下:
步骤(4.1)估计高分辨率背景图像IHB t
步骤(4.1.1)如果步骤(3)中所述的MLH t有效,通过步骤(3.4.1)中所述的变换方法由所述的变换模型MLH t变换得到与步骤(3.1.1)所述低分辨率图像IL t中的背景区域ILB t对应的IH t中的背景区域,
步骤(4.1.2)对第t帧,用第1,2,…,t+50帧中的高分辨率背景区域来更新当前高分辨率背景模型IHB t,对于下一帧的背景模型IHB t+1,如果MLH t有效,则将IH t+51的背景区域映射到IHB t上,然后对于重叠区域用0.5的衰减因子进行更新,即对背景区域的像素灰度值进行如下处理: I HB t + 1 = 0.5 I HB t + 0.5 I H t + 51 ; 否则, I HB t + 1 = I HB t ,
步骤(4.2)对Iout t进行填充:
步骤(4.2.1)利用所述的高分辨率图像IH t和变换模型MLH t填充图像,如果MLH t有效,则用步骤(3.4.1)中所述的变换方法由所述的变换模型MLH t将所述高分辨率图像IH t变换到所述输出图像Iout t上,所述输出图像Iout t中重叠的区域即可用IH t的灰度值进行填充,
步骤(4.2.2)对背景部分,如果所述输出图像Iout t的未填充部分包含背景像素,则直接利用IHB t中对应的有效像素进行填充,
步骤(4.2.3)对前景部分,如果第t帧满足下面三个条件之一时,转到步骤(4.2.3.1),否则转到到步骤(4.2.4)
a)所述的变换模型MLH t无效
b)所述的高分辨率图像IH t不包含完整的感兴趣目标
c)步骤(3.5.3)中判断所述的高分辨率图像IH t是模糊的图像
步骤(4.2.3.1)建立和更新参考样本队列
参考样本队列最大长度取为60,如果第t帧同时满足下面三个条件之一,则该帧将产生一个参考样本:
a)所述的变换模型MLH t有效;
b)所述的高分辨率图像IH t包含完整的感兴趣目标;
c)所述的高分辨率图像IH t不是模糊的图像;
参考样本由两个包含前景区域的图像块构成,分别由只保留前景区域的IL t和IH t,用 SP t = { SP L t , SP H t } 表示,其中SPL i表示第i帧只包含前景目标的低分辨率图像固定大小参考帧,大小为40×40,SPH i表示第i帧只包含前景目标的与SPL i相对应的高分辨率图像的参考帧,大小为200×200,采用先入先出的策略更新参考帧队列,步骤(4.2.3.2)在所述参考帧队列中查找与当前帧最匹配的参考帧
Figure G2009100889912D00082
对于第t帧,我们只考虑IL t中完全包含目标的矩形图像区域sub(IL t),用下面的步骤计算参考帧队列中所有的SPL i,i=1,2,...,60与sub(IL t)的相似度:
步骤(4.2.3.2.1)计算SPL i到sub(IL t)的平移变换模型(dx,dy)T
选取初始值为sub(IL t)中前景目标中心点坐标与SPL i中前景目标中心点的差,用基于迭代的梯度下降优化算法求得平移变换模型(dx,dy)T
步骤(4.2.3.2.2)用下面的公式计算相似度:
exp ( - 1 Num ( p ) &Sigma; p &Element; Foreg ( I L t ) , p - ( dx , dy ) T &Element; Foreg ( SP L t ) | ( sub ( I L t ) ) ( p ) - SP L i ( p - ( dx , dy ) T ) | )
其中,Foreg(SPL i)是SPL i的前景目标的像素集合,Foreg(IL t)是IL t前景目标的像素集合,p是SPL i经过平移变换后其前景目标像素集合与Foreg(IL t)的交集中的一个像素,Num(p)是交集中像素的个数,如果交集的像素个数小于Foreg(SPL i)像素个数的60%,或者小于Foreg(IL t)像素个数的60%,则令相似度为0,
如果当前帧t有效,则取本帧为相关参考帧,定义为
Figure G2009100889912D00084
即reft=t;否则,则取队列中与sub(IL t)相似度最大的参考帧为相关参考帧,若最大相似度小于ThMAD=exp(-20),则认为sub(IL t)没有相关参考帧,即
Figure G2009100889912D00085
无效,转到策略
(3);否则
Figure G2009100889912D00086
有效,
步骤(4.2.3.2.3)估计当前帧与其参考帧之间的高分辨率图像光流场VH,由邻近共三帧及其对应的参考帧
Figure G2009100889912D00087
i=t-1,t,t+1进行估计:
步骤(4.2.3.2.3.1)采用基于迭代的梯度下降优化算法求得从
Figure G2009100889912D00088
的平移变换模型,然后用此模型将
Figure G2009100889912D00092
变换到SPt-1 t,从而去除了两者之间的整体运动;同理,对
Figure G2009100889912D00093
进行同样操作,得到去除整体运动的SPt+1 t;对当前帧,即第t帧,令 SP t t = SP H ref t
步骤(4.2.3.2.3.2)利用调整后的SPt-1 t,SPt t,SPt+1 t来估计高分辨率的光流场VH
用Opencv提供的Lucas-Kanade光流算法分别估计从SPt t到SPt-1 t和SPt+1 t之间的光流场Vt,t-1 H和Vt,t+1 H,则
V H = 1 2 ( V t , t - 1 H + V t , t + 1 H )
步骤(4.2.3.2.4)估计帧内低分辨率图像光流场VL,同样采用Opencv提供的Lucas-Kanade光流算法估计
Figure G2009100889912D00096
与sub(IL t)之间的光流场FL t,将其放大5倍即可得到VL
步骤(4.2.3.2.5)如果
Figure G2009100889912D00097
有效,估计
Figure G2009100889912D00098
与Iout t之间的最终光流场FH t,FH t由下面的优化问题解得:
min E = &beta; &Sigma; ( x , y ) &Element; V &omega; 1 ( x , y ) [ ( u - u H ) 2 + ( v - v H ) 2 ]
+ &gamma; &Sigma; ( x , y ) &Element; V &omega; 2 ( x , y ) [ ( u - u L ) 2 + ( v - v L ) 2 ]
其中V是图像有效区域,(x,y)是V中的一个像素,u和v分别是u(x,y)和v(x,y)的简写,分别代表FH t在(x,y)点沿x方向和y方向的分量,(uH,vH)代表VH在(x,y)处的取值,ω1(x,y)是权重系数,取为ω1(x,y)=exp(-||[uH,vH]||/10),(uL,vL)代表VL在(x,y)处的取值,ω2(x,y)是权重系数,取为ω2(x,y)=1,如果VH有效,则取β=2,γ=1,否则,取β=0,γ=1,
步骤(4.2.3.2.6)填充输出图像,
Figure G2009100889912D000911
经过光流场FH t的变换后采用双线性插值填充输出图像的前景部分,
步骤(4.2.4)对还未填充的区域,用低分辨率的图像IL t放大并用双线性插值得到,步骤(4.3)灰度值调整
用步骤(3.3)中所述的方法调整输出图像中区域R1和R4,与R2灰度值保持一致,其中R1是所述输出图像Iout t中用步骤(4.2.1)填充的图像区域,R2是所述输出图像Iout t中用步骤(4.2.2)填充的图像区域,R3是所述输出图像Iout t中用步骤(4.2.3)填充的图像区域,R4是所述输出图像Iout t中用步骤(4.2.4)填充的图像区域,
调整R1时,只用R1与所述高分辨率背景模型IHB t重叠部分的像素计算灰度值映射模型,并只调整这些重叠部分的像素,调整R4时,亦只用R4与所述高分辨率背景模型IHB t重叠部分的像素计算灰度值映射模型,但对所有的像素值均进行调整,
步骤(4.4)输出图像空间连续性调整
对于步骤(4.3)中所述的输出图像区域R1,R2和R4作如下处理:先对边界部分用5×5的结构单元进行形态学膨胀,再对膨胀后的边界部分用3×3的均值滤波器进行平滑,步骤(4.3)中所述的输出图像区域R3部分保持不变。
本发明首先解决了不同分辨率视频之间的图像配准问题,其次提出四种顺序填充方式,充分利用了当前高分辨率信息以及历史高分辨率信息来填充目标视频。通过这样处理后的结果可以用于犯罪取证、监控记录保存、运动目标的行为分析等,实验结果表明本发明提出的方法很实用。目前,在所有可以查到的专利或发表文献中,尚没有发现类似的报道和专利。
附图说明:
图1.是双目PTZ视觉***高分辨率视频稳定化***的流程图;
图2.是灰度值调整示意图:
2(a)为分段线性模型的拟合结果;
2(b)为原始的低分辨率图像灰度直方图;
2(c)为高分辨率图像灰度直方图;
3(d)为调整后的低分辨率图像灰度直方图;
图3.是光流场计算流程图:
3(a)帧间高分辨率图像光流场计算流程图;
3(b)帧内低分辨率图像光流场计算流程图。
符号说明:
IL t:第t帧时低分辨率图像,
IH t:第t帧时高分辨率图像,
ILB t:第t帧时低分辨率的背景图像,
IHB t:第t帧时更新的对应ILB t的高分辨率的背景图像,
IL_tar t:第t帧时低分辨率图像中的矩形目标区域,
IL_adj t:对IL t的灰度进行调整后的图像,
IH_adj t:用MLH1 t对IH t进行变换后的图像,
Iout t:第t帧时输出图像,
ko:输出图像相对于低分辨率的目标区域的放大倍数,
MLH1 t:第t帧时IL t和IH t之间的初步配准模型,
MLH2 t:第t帧时IL t和IH t之间的精确配准模型,
MLH t:第t帧时IL t和IH t之间最终的配准模型,
Mj i:第j帧高分辨率图像到第i帧高分辨率图像的变换模型,
SPL i:第i帧只包含前景目标的低分辨率图像固定大小参考帧(40×40),
SPH i:第i帧只包含前景目标的与SPL i相对应的高分辨率图像的参考帧(200×200),
R1:输出图像中用步骤(4.2.1)填充的图像区域,
R2:输出图像中用步骤(4.2.2)填充的图像区域,
R3:输出图像中用步骤(4.2.3)填充的图像区域,
R4:输出图像中用步骤(4.2.4)填充的图像区域。
具体实施方式
本发明的核心思想是首先利用不同分辨率下的图像配准信息,确定输出视频的可见视场,然后通过当前帧的高分辨率信息和历史的高分辨率信息,对视场进行填充,填充原则是尽可能采用高分辨率信息。最后对于无法填充的区域,采用插值放大的低分辨率图像以保证视频的完整性。
本发明中主要包括以下三项技术:
第一,不同分辨率图像的配准。本发明结合了基于特征点和基于直接像素灰度的两种方法,设计了一种“三步配准方法”,可以有效解决该问题。
第二,填充高分辨率信息的策略。本发明首先利用当前帧的高分辨率信息对区域进行直接填充,对于无法填充的区域,利用历史高分辨率信息进行填充,其基本填充思路为:对需要填充的视场中的每一个像素进行前景和背景分类。背景层可以通过构造一个高分辨率背景模型来进行填充;前景层通过基于样本和相对运动场估计的方法进行填充。
第三,后处理。如果相邻像素采用了不同分辨率的填充信息,可能导致单帧图像中的不平滑,因此需要通过必要的后处理来提高可视化效果。
本发明应用于双目远距离视觉***,两个PTZ摄像机中,其中一个采用低分辨率作为静止摄像机使用,用于监控全景;另一个摄像机采用高分辨率,可以通过手动或者自动改变视角来跟踪感兴趣目标。本发明的目标是对两路不同分辨率的视频进行处理,得到一个高分辨率稳定的视频。本***用普通PC计算机进行计算,对操作***没有要求。***流程图如图1所示,具体如下:
(1)不同分辨率视频图像之间的配准
视频稳定化目前仍然缺乏一个精确地定义,一般来说它主要有两个目的:1)感兴趣的目标必须位于图像中心附近;2)运动要尽量连续和光滑。本发明综合考虑这两种目的,首先选择低分辨率图像中目标所在的矩形区域对应的高分辨率图像区域作为输出图像Iout t,然后计算采集的高分辨率图像IH t与输出图像Iout t的映射模型。
在计算IH t和Iout t的配准模型时,因为Iout t和目标区域IL_tar t之间只有尺度变换关系,且尺度因子ko为定值,因此只需要IH t和IL t的变换模型。又由于两个摄像机的距离很小,相对于监控场景的距离可以忽略不计,因此选择仿射模型作为IH t和IL t的变换模型。先采用特征点匹配的方法估计初步仿射模型,然后通过这个仿射模型对IL t的灰度值进行调整,最后用基于像素的直接方法估计精确的仿射模型。
本***对高分辨率和低分辨率图像之间的配准模型有两个要求:准确性和帧间的平滑性。模型的准确性可以保证低分辨率全景图像作为联系不同时刻高分辨率图像之间关系的桥梁,并且当高分辨率信息无效时,可以采用插值后的全景图像进行填充;模型的平滑性是为了使输出的图像序列更加稳定,避免相邻帧间的小范围抖动。
模型的准确性已经由上面的两步配准保证,它体现在,选定场景中的某个固定点后,每一时刻,该点从全景图像通过仿射模型变换到高分辨率图像中后,与该点的真实坐标相差尽可能小。而平滑性体现在,不同时刻仿射到高分辨率图像中的点的坐标相互差异应尽可能小。
前景目标跟踪:
首先利用Mean-shift跟踪算法(这是一种经典并且用途很广的跟踪算法)求得感兴趣目标的轨迹。考虑到平滑性要求,用邻域内(50帧)的目标所跟踪的中心进行均值平滑。用一个矩形框IL_tar t表示包含该目标的区域,其长宽分别为64和48像素,中心即为平滑后的目标中心。
因为本发明适用于远距离监控***,因此设定输出的视频图像Iout t的尺度为IL_tar t的ko倍,***中设定ko=5。为减小计算配准模型的计算量,首先把每帧的图像转换为灰度图像。
在跟踪目标的同时,利用滑动平均方法求取背景模型(更新系数为0.05),对低分辨率视频建立高斯背景模型,从而得到低分辨率图像IL t中的前景区域和以及背景图像ILB t
特征点匹配方法估计初步仿射模型:
因为IH t和IL t之间的放大倍数未知,选择具有尺度不变性的特征点算子。本***中采用的特征点算子是SIFT,这是目前用的最广的一种特征点之一。
为了降低计算量,只计算IL t目标区域IL_tar t中的特征点。在进行特征匹配时,采用最近邻法得到匹配特征点对。若匹配的特征点对的个数少于10,则认为MLH1 t无效,不再求取MLH t。否则,利用这些特征点对估计初步的仿射模型MLH1 t,估计方法如下:
设高分辨率图像IH t与低分辨率图像目标区域IL_tar t的SIFT匹配特征点对为 { ( x i 1 , y i 1 ) &Element; I L t , ( x i 2 , y i 2 ) &Element; I H t } , i = 1,2 , . . . , n , 令仿射变换矩阵 M LH 1 t = m 1 m 2 m 3 m 4 m 5 m 6 0 0 1 , 则有:
[m1,m2,m3,m4,m5,m6]T=(ATA)-1AX,
其中, A = x 1 1 y 1 1 1 0 0 0 0 0 0 x 1 1 y 1 1 1 x 2 1 y 2 1 1 0 0 0 0 0 0 x 2 1 y 2 1 1 . . . . . . . . . . . . . . . . . . x n 1 x n 1 1 0 0 0 0 0 0 x 1 1 x 1 1 1 , X = x 1 2 y 1 2 x 2 2 y 2 2 . . . x n 2 y n 2 ,
灰度值调整:
本发明采用的方法是对两幅图中匹配上的特征点集分别估计一个包含所有特征点的最小凸多边形,然后对多边形内的像素灰度值进行采样,采用类似直方图均衡的方法,找到灰度映射关系。关于映射模型可以有多种选择,采用的是分段线性拟合的方法。首先对灰度直方图进行累计,得到累计直方图:
Accu ( k ) = &Sigma; i = 1 k hist ( i ) , k = 1,2 , &CenterDot; &CenterDot; &CenterDot; , 32
Accu(k)是一个关于k的单调递增函数。选取映射模型为三段分片线性模型。令灰度集合
K1={k:0≤Accu(k)<0.05}
K2={k:0.05≤Accu(k)<0.95}
K3={k:0.95≤Accu(k)≤1}
利用下面的目标函数线性拟合k∈K2时IL t和IH t之间的灰度值映射函数MI(k):
min MI &Sigma; k &Element; K 2 | Accu 1 ( k ) - Accu 2 ( MI ( k ) ) | .
其中,Accu1和Accu2分别表示所述的两幅图像上的累积分布直方图。为了保证灰度的连续性以及有效性,用剩余两部分灰度集合K1,K2分别拟合一个线性模型,使得MI(0)=0,MI(255)=255。
最后根据映射模型MI(k)调整IL t的灰度值,得到IL_adj t。如图2,图(a)为分段线性模型的拟合结果,图(b)表示原始全景低分辨率图像的直方图,图(c)表示高分辨率图像的直方图,图(d)低分辨率图像经过灰度映射模型调整后的直方图。从图中可以看出调整后的直方图与高分辨率图像的直方图更加接近,从而为后续的直接基于像素方法的精配准做好了准备。
直接基于像素方法估计仿射模型:
通过基于特征点的粗配准可以得到两图之间的初步仿射模型MLH1 t,以及两图灰度之间的映射关系MI(k)。本***首先用MLH1 t对IH t进行变换,得到IH_adj t然后利用M0=I3×3作为初值,进行迭代估计更准确的映射模型。优化目标为下式的最小化:
M I = arg min M &Sigma; i | | I H _ adj t ( x i , y i ) - I L _ adj t ( f ( x i , y i , M ) ) | |
其中f(xi,M)是用同构坐标变换函数,优化问题用基于梯度的Hessian矩阵方法迭代求解。其中f是同构坐标变换函数,计算方法是:
(x′,y′,1)T=M(x,y,1),f(x,y,M)=(x′,y′)
如果MI满足下面两个条件中的任何一个,则认为MI无效,跳出MLH t的计算。
a ) , | | R 2 &times; 2 M - I 2 &times; 2 | | &infin; < 0.3 ;
b ) , | | t 2 &times; 1 M | | &infin; < 4 .
其中,MI=[RM tM],[R2×2 M t2×1 M]是MI的前两行。如果MI有效,且MLH1 t有效,则 M LH 2 t = M LH 1 t M refined t , 否则跳出下面的步骤,不再计算MLH t
模型平滑:
先求取两幅高分辨率图像之间的映射模型Mj i。由于直接求解高分辨率图像之间的映射模型会存在很多问题,首先利用全景图像序列得到的背景区域对高分辨率图像区域进行过滤,只保留其背景部分,这样可以去除由于前景运动引起的配准误差;然后利用在第一步粗匹配中已经提取的SIFT特征点,对处于背景区域的特征点进行匹配,并估计变换模型,同样若特征点对数目小于10则认为Mj i无效。
再根据下面的公式求取平滑模型MLH t
M LH t = &Sigma; i = t - N t + N &omega; i &delta; i M i t M LH 2 i &Sigma; i = t - N t + N &omega; i &delta; i
其中,ωi是高斯权重系数,N=5, &omega; i = 1 2 &pi; &sigma; e ( i - t ) 2 2 &sigma; 2 ( &sigma; = 1.5 ) , δi取值为:
Figure G2009100889912D00161
最后计算当前帧的相对模糊度bt
b t = 1 &Sigma; p t [ dx 2 ( p t ) + dy 2 ( p t ) ]
其中,dx(·)和dy(·)分别是图像沿着x和y方向上的梯度。
如果bt>1.3min{bt-1,bt+1},则认为当前帧为模糊图像,并设定MLH t无效。
(2)图像补全
由于高分辨率图像很可能不能完全覆盖需要输出的图像区域,因此为了使输出图像完整化,需要对高分辨率图像不可见的区域进行填充。本***依次采用了四种策略对输出图像进行填充,以使高分辨率信息尽可能多地被利用。最后对图像进行了后处理,以保证图像灰度值的连续性,以及空间连续性。具体步骤为:
估计高分辨率背景图像:
前面已经对低分辨率图像IL t进行了前景和背景分割,如果当前图像的MLH t有效,通过IL t中的背景区域ILB t可以得到当前高分辨率图像IH t中的背景区域。由第1,2,…,t+50帧中的高分辨率背景区域来更新背景模型IHB t,对于下一帧的背景模型IHB t+1,如果MLH t有效,则将IH t+51的背景区域映射到IHB t上,然后对于重叠区域用0.5的衰减因子进行更新,即对背景区域的像素灰度值进行如下处理: I HB t + 1 = 0.5 I HB t + 0.5 I H t + 51 ; 否则, I HB t + 1 = I HB t .
策略1利用高分图像填充:
如果MLH t有效,则可以通过MLH t将IH t变换到Iout t上,重叠的区域即可用IH t进行填充。
策略2用高分辨率背景进行填充:
如果输出图像的未填充部分包含背景像素,则可以利用IHB t填充。
策略3前景参考帧填充:
本策略基于最佳参考样本和相对运动场的算法进行填充,其关键在与以下几个方面:1)参考样本集合的构成与更新;2)对待填充的帧,如何选择最佳参考样本;3)如何计算高分辨率下的相对运动场,并且能够兼顾时间和空间连续性。
所谓待填充的帧指的是:以第t帧为例,如果它满足下面三个条件之一,则该帧需要采用这种策略填充前景目标:
a)MLH t无效;
b)IH t不包含完整的感兴趣目标;
c)IH t是模糊的图像(见上面相对模糊度bt的定义)。
1)建立和更新参考帧队列
参考样本由两个包含前景区域的图像块构成,分别由只保留前景区域的IL t和LH t,用 SP t = { SP L t , SP H t } 表示(见前定义)。采用先入先出的策略更新参考帧队列。队列最大长度取为60。如果当前第t帧满足下面三个条件,则该帧将产生一个参考样本:
a)MLH t有效
b)IH t包含完整的感兴趣目标
c)IH t不是模糊的图像
2)选择当前帧的相关参考帧
对于第t帧,只考虑IL t中完全包含目标的区域,定义为sub(IL t),计算参考帧队列中所有的SPL i(i=1,2,...,60)与sub(IL t)的相似度,相似度的计算方法如下:
先计算SPL i到sub(IL t)的平移变换模型(dx,dy)T。选取初始值为sub(IL t)中前景目标中心点坐标与SPL i中前景目标中心点的差,用基于Hessian矩阵的牛顿迭代算法求得平移变换模型(dx,dy)T
再用下面的公式计算相似度为:
exp ( - 1 Num ( p ) &Sigma; p &Element; Foreg ( I L t ) , p - ( dx , dy ) T &Element; Foreg ( SP L t ) | ( sub ( I L t ) ) ( p ) - SP L i ( p - ( dx , dy ) T ) | )
其中,Foreg(SPL i)是SPL i的前景目标的像素集合,Foreg(IL t)是IL t前景目标的像素集合,p是SPL i经过平移变换后其前景目标像素集合与Foreg(IL t)的交集中的一个像素,Num(p)是交集中像素的个数。如果交集的像素个数小于Foreg(SPL i)像素个数的60%,或者小于Foreg(IL t)像素个数的60%,则令相似度为0。
如果该帧有效,则取本帧为相关参考帧,定义为即reft=t;否则,取队列中与sub(IL t)相似度最小的参考帧为相关参考帧。若最大相似度小于ThMAD=exp(-20),则认为sub(IL t)没有相关参考帧,即
Figure G2009100889912D00181
无效;否则
Figure G2009100889912D00182
有效。
3)估计帧间高分辨率图像光流场VH
SP H ref i ( i = t - 1 , t , t + 1 ) 估计VH,步骤如下:
第一步,将
Figure G2009100889912D00184
调整为SPt-1 t,SPt t,SPt+1 t,使它们在一个统一的具有更高可比性的尺度。这一步的原因是refi,(i=t-1,t,t+1)是在不同时刻采集,它们可能存在尺度和平移的变化,如果可以预先对其进行调整,可以提高它们之间的可比性,减小后面进行光流估计时引入的误差。可以假设采用仿射变换(本***中只考虑尺度变换和平移变换)。因为第t帧是处理的目标,因此以IL t中目标中心和尺度作为参考。
第二步,利用调整后的SPt-1 t,SPt t,SPt+1 t来估计高分辨率的光流场VH
之所以采用光流场,是因为虽然这些参考帧之间已经经过调整,但是在图像内容上还是存在差异,这种差异用一般的模型(例如仿射、投影模型)不足以准确描述。分别用金字塔Lucas-Kanade方法估计SPt t到SPt-1 t和SPt+1 t的光流场Vt,t-1 H和Vt,t+1 H,按照帧间连续性假设,可以近似认为帧间光流满足线性模型,即理想状态下,SPt t中的(x,y)点处的光流 V t , t - 1 H ( x , y ) = - V t , t + 1 H ( x , y ) . 因此从SPt t到目标帧It H的光流场VH可以用
Figure G2009100889912D00186
来近似,即
V H = 1 2 ( V t , t - 1 H + V t , t + 1 H )
4)估计帧内低分辨率图像光流场VL
考虑利用Mref(t) ST调整后的
Figure G2009100889912D00188
(记为)到tar(IL t)的光流场。VH虽然已经包含了时间和空间连续性的假设,但是因为SPt t和目标帧It H之间在局部可能存在比较大的差异,此时 V t , t - 1 H ( x , y ) = - V t , t + 1 H ( x , y ) 的假设可能不满足而导致VH(x,y)无效,或者出现奇异;还有一种情况就是SPt-1和SPt+1无效,此时VH无效,因此需要建立直接从SPt t到目标帧It H之间的对应关系。由于It H为未知的目标图,只有通过与之对应的低分辨率图像和tar(IL t)来求取。由于
Figure G2009100889912D001812
和tar(IL t)之间在局部可以看作是平滑的,因此,虽然这个光流场是低尺度下求取的,将其放大到Ij H的尺度下后,仍然可以体现这种大致的局部差异。
本***中用金字塔Lucas-Kanade方法估计
Figure G2009100889912D00191
与tar(IL t)之间的光流场FL t,取 V L = 5 F L t .
计算VH和VL的流程如图3所示。
5)估计与Iout t之间的光流场FH t如果
Figure G2009100889912D00194
有效,则估计光流场FH t。从SPt t到目标帧Iout t的光流场主要由以下三部分构成:
a)基于高分辨率图像的光流场VH,利用调整后为SPt-1 t,SPt t,SPt+1 t。作用是体现时间连续性;
b)基于低分辨率的光流场VL,利用
Figure G2009100889912D00195
与tar(IL t)。作用是体现空间的位置准确性,特别是在VH无效的情况下(例如临近帧没有找到对应的SP);
c)光流场平滑,去除奇异的光流值(如果VH和VL在估计的时候已经考虑到了平滑,这一步可以省略);
FH t可以用下面的优化框架解得:
min E = &beta; &Sigma; ( x , y ) &Element; V &omega; 1 ( x , y ) [ ( u - u H ) 2 + ( v - v H ) 2 ]
+ &gamma; &Sigma; ( x , y ) &Element; V &omega; 2 ( x , y ) [ ( u - u L ) 2 + ( v - v L ) 2 ]
其中V是图像有效区域,(x,y)是V中的一个像素,u和v分别是u(x,y)和v(x,y)的简写,分别代表FH t在(x,y)点沿x方向和y方向的分量。(uH,vH)代表VH在(x,y)处的取值,ω1(x,y)是权重系数,取为ω1(x,y)=exp(-||(uH,vH)||/10)。(uL,vL)代表VL在(x,y)处的取值,ω2(x,y)是权重系数,取为ω2(x,y)=1。β和γ为比例因子,当邻接帧有效时,β取值较大,表明邻域信息权重更高,时间和空间连续性占主导地位;若邻接帧无效,则需要着重考虑空间准确性,此时γ取较大值。本***中,如果相邻的参考帧有效,则取β=2γ,否则,取β=0。
6)填充输出图像
Figure G2009100889912D00198
经过光流场FH t的变换后采用双线性插值填充输出图像的前景部分。
策略4低分辨率图像填充:
对还未填充的区域,用低分辨率的图像IL t双线性插值得到。
后处理:
1)灰度值调整
用第一阶段灰度值调整的方法调整R1和R4与R2灰度值保持一致。其中调整R1时,只用与IHB t重叠部分的像素计算灰度值映射模型,并只调整这些重叠部分的像素。调整R4时。亦只用与IHB t重叠部分的像素计算灰度值映射模型,但对所有的像素值均进行调整。
2)空间连续性调整
对输出图像区域R1,R2和R4作如下处理:先对边界部分用5×5的结构单元进行膨胀,再对膨胀后的边界部分用3×3的均值滤波器进行平滑。对输出图像区域R3部分保持不变。

Claims (1)

1.可变视角及分辨率的双目视觉***目标图像稳定化方法,其特征在于,所述方法在PC机中依次按以下步骤实现:
步骤(1),使第一个可变视角,或分辨率的PTZ摄像机作为静止摄像机,用于监控全景,再使第二个可变视角,或分辨率的PTZ摄像机抓拍感兴趣的运动目标;
步骤(2),所述PC机从第一个PTZ摄像机中输入记录全景的图像,称为低分辨率图像 
Figure RE-FSB00000303435500011
并把每帧图像转换为灰度图像;所述PC机从第二个PTZ摄像机中输入记录运动目标的图像,称为高分辨率图像 把每帧图像转换为灰度图像,并用两个灰度图分别代替所述的 
Figure RE-FSB00000303435500013
和 
Figure RE-FSB00000303435500014
步骤(3),不同分辨率视频图像之间的配准:选择第t帧低分辨率图像 
Figure RE-FSB00000303435500015
中所述运动目标所在的矩形区域 
Figure RE-FSB00000303435500016
所对应的高分辨率图像作为***的输出图像 
Figure RE-FSB00000303435500017
然后计算所述高分辨率图像 
Figure RE-FSB00000303435500018
和所述低分辨率图像 
Figure RE-FSB00000303435500019
之间的映射模型 
Figure RE-FSB000003034355000110
具体如下:
步骤(3.1),所述矩形区域 
Figure RE-FSB000003034355000111
的选定,
步骤(3.1.1),对所述低分辨率图像 
Figure RE-FSB000003034355000112
求取低分辨率背景模型 
Figure RE-FSB000003034355000113
像素(x,y)处的更新公式为:
Figure RE-FSB000003034355000114
其中更新系数α=0.05,初始低分辨率背景模型 
Figure RE-FSB000003034355000115
如果 
Figure RE-FSB000003034355000116
TLB=20,则 
Figure RE-FSB000003034355000117
在(x,y)属于前景区域,否则,该像素属于背景区域,
步骤(3.1.2),利用Opencv提供的Mean-shift跟踪算法,通过给定原始灰度图像 
Figure RE-FSB000003034355000118
以及步骤(3.1.1)得到的前景区域,即可求得感兴趣目标在 
Figure RE-FSB000003034355000119
图像中的位置,并在设定帧数的帧邻域内对所跟踪的目标中心进行均值平滑,平滑后的中心即为所述目标的中心,也是所述矩形区域的中心,该矩形区域的长宽设为64×48像素,最终得到的高分辨率输出图像 
Figure RE-FSB000003034355000120
的尺寸为所述矩形区域的 
Figure RE-FSB000003034355000121
的ko倍,ko=5,
步骤(3.2),用基于特征点的配准方法求取所述低分辨率图像 
Figure RE-FSB000003034355000122
和高分辨率图像 
Figure RE-FSB000003034355000123
之间的初步映射模型 
Figure RE-FSB000003034355000124
步骤(3.2.1),计算所述第t帧高分辨图像 
Figure RE-FSB00000303435500021
和低分辨率图像 
Figure RE-FSB00000303435500022
中目标区域 
Figure RE-FSB00000303435500023
的SIFT特征点,
步骤(3.2.2),对 
Figure RE-FSB00000303435500024
中的每个特征点,分别计算它和所述低分辨率图像目标区域 
Figure RE-FSB00000303435500025
中的每个特征点之间的距离,即s12=‖v1-v2‖,其中v1和v2分别表示两个特征点对应的SIFT特征向量,然后考虑距离最小的两组结果 
Figure RE-FSB00000303435500026
和 
Figure RE-FSB00000303435500027
如果 
Figure RE-FSB00000303435500028
Ts=0.7,则 
Figure RE-FSB00000303435500029
对应的特征点为匹配点,否则认为该点没有匹配特征点,如果两图之间的总匹配特征点对的个数少于10,则认为所述映射模型 
Figure RE-FSB000003034355000210
无效,转到步骤(4),否则转到步骤(3.3),
步骤(3.2.3),对所述的高分辨率图像 
Figure RE-FSB000003034355000211
与所述低分辨率图像目标区域 
Figure RE-FSB000003034355000212
的SIFT匹配特征点对 
Figure RE-FSB000003034355000213
i=1,2,...,n,求取仿射变换矩阵 
Figure RE-FSB000003034355000214
其中参数通过下式求取:
[m1,m2,m3,m4,m5,m6]T=(ATA)-1AX,
其中,
Figure RE-FSB000003034355000215
Figure RE-FSB000003034355000216
步骤(3.3),调整所述低分辨率图像 
Figure RE-FSB000003034355000217
的灰度值,得到校正图像 
Figure RE-FSB000003034355000218
步骤(3.3.1),选定计算灰度映射的区域:对步骤(3.2)中两幅图像 
Figure RE-FSB000003034355000219
和 
Figure RE-FSB000003034355000220
中匹配上的特征点集分别用一个凸多边形表示,该凸多边形以特征点为顶点,所有特征点都在多边形内部或顶点处,该凸多边形内部即为灰度映射区域,
步骤(3.3.2),统计上述凸多边形内的灰度直方图hist(k),k=0,1,…,255,按下式得到累计直方图: 
Figure RE-FSB00000303435500031
K=0,1,…,255
步骤(3.3.3),用Accu1和Accu2分别表示 
Figure RE-FSB00000303435500032
和 
Figure RE-FSB00000303435500033
的累积分布直方图,按下述方法划分三个灰度集合G1,G2,G3
G1={K:0≤Accu1(K)<0.05}
G2={K:0.05≤Accu1(K)<0.95}
G3={K:0.95≤Accu1(K)≤1}
选取映射模型为三段分片线性模型 
Figure RE-FSB00000303435500034
其中K1和K2分别表示 
Figure RE-FSB00000303435500035
和 
Figure RE-FSB00000303435500036
的灰度值,利用下面的目标函数线性拟合K∈G2时所述图像 
Figure RE-FSB00000303435500037
和 
Figure RE-FSB00000303435500038
之间的灰度值映射函数K2=MI(K1)=a2K1+b2,K1∈G2
Figure RE-FSB00000303435500039
用灰度集合G1、G3分别拟合模型K2=MI(K1)=a1K1+b1,K1∈G1和K2=MI(K1)=a3K1+b3,K1∈G3,使得MI(0)=0,MI(255)=255,
步骤(3.3.4),根据 
Figure RE-FSB000003034355000310
和 
Figure RE-FSB000003034355000311
之间的灰度值映射模型MI(k)调整 
Figure RE-FSB000003034355000312
的灰度值,得到 
Figure RE-FSB000003034355000313
步骤(3.4)基于像素的直接配准方法估计 和 
Figure RE-FSB000003034355000315
之间更精确的仿射模型 
Figure RE-FSB000003034355000316
步骤(3.4.1),用步骤(3.2)中所述的 
Figure RE-FSB000003034355000317
对所述的高分辨率图像 
Figure RE-FSB000003034355000318
进行变换,得到图像 
Figure RE-FSB000003034355000319
变换方法是:
所述图像 
Figure RE-FSB000003034355000320
在坐标点(xi,yi)的值 
Figure RE-FSB000003034355000321
其中f是同构坐标变换函数,计算方法是:
f(x,y,M)=(x′,y′),其中x′和y′由[x′,y′,1]T=M[x,y,1]T得到,
步骤(3.4.2),用迭代的梯度下降的方法求解下面的优化问题,得到模型 
Figure RE-FSB000003034355000322
其中(xi,yi)是所述图像 
Figure RE-FSB00000303435500042
的第i个像素点坐标,f见步骤(3.4.1),迭代初始值M0设为3×3的单位矩阵,
步骤(3.4.3),如果步骤(3.4.2)中所求得的 
Figure RE-FSB00000303435500043
满足下面两个条件中的任何一个,则认为 和 
Figure RE-FSB00000303435500045
无效,不再对其进行计算,转到步骤(4),
a)
Figure RE-FSB00000303435500046
b)
Figure RE-FSB00000303435500047
其中, 
Figure RE-FSB00000303435500048
Figure RE-FSB00000303435500049
是 
Figure RE-FSB000003034355000410
的前两行,
步骤(3.4.4),计算更精确的仿射模型
步骤(3.5)根据邻域2N+1帧图像对所述输出图像 
Figure RE-FSB000003034355000412
进行平滑处理,取N=5,
步骤(3.5.1),求取第j帧高分辨率图像到第i帧高分辨率图像的变换模型 
Figure RE-FSB000003034355000413
由步骤(3.1.1)中所求得的 
Figure RE-FSB000003034355000414
中的前景区域通过步骤(3.4.1)中的变换方法由所述的更精确的仿射模型 
Figure RE-FSB000003034355000415
得到对应的 
Figure RE-FSB000003034355000416
中的前景目标,进而得到 
Figure RE-FSB000003034355000417
的背景区域,用步骤(3.2)中的方法,求取所述第j帧高分辨图像 
Figure RE-FSB000003034355000418
和第i帧高分辨率图像 
Figure RE-FSB000003034355000419
之间的变换模型 
Figure RE-FSB000003034355000420
步骤(3.5.2)求取平滑模型 
Figure RE-FSB000003034355000421
Figure RE-FSB000003034355000422
其中,ωi是高斯权重系数,N=5, 
Figure RE-FSB000003034355000423
σ=1.5,δi取值为:
Figure RE-FSB000003034355000424
步骤(3.5.3)计算当前帧的相对模糊度bi
Figure RE-FSB00000303435500051
其中,pt为所述第t帧高分辨率图像 
Figure RE-FSB00000303435500052
中的像素点,dx(·)和dy(·)分别是图像沿着x和y方向上的梯度,
如果bt>1.3min{bt-1,bt+1},则认为当前帧为模糊图像,并设定 
Figure RE-FSB00000303435500053
无效;
步骤(4)图像补全:对所述输出图像中未被高分辨率图像完全覆盖的部分进行图像补全,具体步骤如下:
步骤(4.1)估计高分辨率背景图像 
Figure RE-FSB00000303435500054
步骤(4.1.1)如果步骤(3)中所述的 
Figure RE-FSB00000303435500055
有效,通过步骤(3.4.1)中所述的变换方法由所述的变换模型 
Figure RE-FSB00000303435500056
变换得到与步骤(3.1.1)所述低分辨率图像 
Figure RE-FSB00000303435500057
中的背景区域 对应的 
Figure RE-FSB00000303435500059
中的背景区域,
步骤(4.1.2)对第t帧,用第1,2,…,t+50帧中的高分辨率背景区域来更新当前高分辨率背景模型 
Figure RE-FSB000003034355000510
对于下一帧的背景模型 
Figure RE-FSB000003034355000511
如果 
Figure RE-FSB000003034355000512
有效,则将 
Figure RE-FSB000003034355000513
的背景区域映射到 
Figure RE-FSB000003034355000514
上,然后对于重叠区域用0.5的衰减因子进行更新,即对背景区域的像素灰度值进行如下处理: 
Figure RE-FSB000003034355000515
否则, 
Figure RE-FSB000003034355000516
步骤(4.2)对 
Figure RE-FSB000003034355000517
进行填充:
步骤(4.2.1)利用所述的高分辨率图像 
Figure RE-FSB000003034355000518
和变换模型 
Figure RE-FSB000003034355000519
填充图像,如果 
Figure RE-FSB000003034355000520
有效,则用步骤(3.4.1)中所述的变换方法由所述的变换模型 
Figure RE-FSB000003034355000521
将所述高分辨率图像 
Figure RE-FSB000003034355000522
变换到所述输出图像 
Figure RE-FSB000003034355000523
上,所述输出图像 中重叠的区域即可用 
Figure RE-FSB000003034355000525
的灰度值进行填充,
步骤(4.2.2)对背景部分,如果所述输出图像 的未填充部分包含背景像素,则直接利用 
Figure RE-FSB000003034355000527
中对应的有效像素进行填充,
步骤(4.2.3)对前景部分,如果第t帧满足下面三个条件之一时,转到步骤(4.2.3.1),否则转到到步骤(4.2.4)
a)所述的变换模型 
Figure RE-FSB000003034355000528
无效
b)所述的高分辨率图像 
Figure RE-FSB000003034355000529
不包含完整的感兴趣目标 
c)步骤(3.5.3)中判断所述的高分辨率图像 
Figure RE-FSB00000303435500061
是模糊的图像
步骤(4.2.3.1)建立和更新参考样本队列
参考样本队列最大长度取为60,如果第t帧同时满足下面三个条件之一,则该帧将产生一个参考样本:
a)所述的变换模型 
Figure RE-FSB00000303435500062
有效;
b)所述的高分辨率图像 
Figure RE-FSB00000303435500063
包含完整的感兴趣目标;
c)所述的高分辨率图像 
Figure RE-FSB00000303435500064
不是模糊的图像;
参考样本由两个包含前景区域的图像块构成,分别由只保留前景区域的 
Figure RE-FSB00000303435500065
和 
Figure RE-FSB00000303435500066
用 
Figure RE-FSB00000303435500067
表示,其中 
Figure RE-FSB00000303435500068
表示第i帧只包含前景目标的低分辨率图像固定大小参考帧,大小为40×40, 
Figure RE-FSB00000303435500069
表示第i帧只包含前景目标的与 
Figure RE-FSB000003034355000610
相对应的高分辨率图像的参考帧,大小为200×200,采用先入先出的策略更新参考帧队列,
步骤(4.2.3.2)在所述参考帧队列中查找与当前帧最匹配的参考帧 
Figure RE-FSB000003034355000611
对于第t帧,我们只考虑 
Figure RE-FSB000003034355000612
中完全包含目标的矩形图像区域 
Figure RE-FSB000003034355000613
用下面的步骤计算参考帧队列中所有的 
Figure RE-FSB000003034355000614
i=1,2,...,60与 
Figure RE-FSB000003034355000615
的相似度:
步骤(4.2.3.2.1)计算 
Figure RE-FSB000003034355000616
到 
Figure RE-FSB000003034355000617
的平移变换模型(dx,dy)T
选取初始值为 
Figure RE-FSB000003034355000618
中前景目标中心点坐标与 
Figure RE-FSB000003034355000619
中前景目标中心点的差,用基于迭代的梯度下降优化算法求得平移变换模型(dx,dy)T
步骤(4.2.3.2.2)用下面的公式计算相似度:
Figure RE-FSB000003034355000620
其中, 是 
Figure RE-FSB000003034355000622
的前景目标的像素集合, 
Figure RE-FSB000003034355000623
是 
Figure RE-FSB000003034355000624
前景目标的像素集合,p是 
Figure RE-FSB000003034355000625
经过平移变换后其前景目标像素集合与 的交集中的一个像素,Num(p)是交集中像素的个数,如果交集的像素个数小于 
Figure RE-FSB000003034355000627
像素个数的60%,或者小于 
Figure RE-FSB000003034355000628
像素个数的60%,则令相似度为0,
如果当前帧t有效,则取本帧为相关参考帧,定义为 即reft=t;否则, 则取队列中与 相似度最大的参考帧为相关参考帧,若最大相似度小于ThMAD=exp(-20),则认为 没有相关参考帧,即 
Figure RE-FSB00000303435500073
无效,转到步骤
(4.2.3.2.3);否则 有效,
步骤(4.2.3.2.3)估计当前帧与其参考帧之间的高分辨率图像光流场VH,由邻近共三帧及其对应的参考帧 
Figure RE-FSB00000303435500075
i=t-1,t,t+1进行估计:
步骤(4.2.3.2.3.1)采用基于迭代的梯度下降优化算法求得从 到 
Figure RE-FSB00000303435500077
的平移变换模型,然后用此模型将 变换到 
Figure RE-FSB00000303435500079
从而去除了两者之间的整体运动;同理,对 
Figure RE-FSB000003034355000710
进行同样操作,得到去除整体运动的 
Figure RE-FSB000003034355000711
对当前帧,即第t帧,令 
步骤(4.2.3.2.3.2)利用调整后的 
Figure RE-FSB000003034355000713
来估计高分辨率的光流场VH
用Opencv提供的Lucas-Kanade光流算法分别估计从 
Figure RE-FSB000003034355000714
到 
Figure RE-FSB000003034355000715
和 
Figure RE-FSB000003034355000716
之间的光流场 
Figure RE-FSB000003034355000717
和 
Figure RE-FSB000003034355000718
步骤(4.2.3.2.4)估计帧内低分辨率图像光流场VL,同样采用Opencv提供的Lucas-Kanade光流算法估计 
Figure RE-FSB000003034355000720
与 
Figure RE-FSB000003034355000721
之间的光流场 
Figure RE-FSB000003034355000722
将其放大5倍即可得到VL
步骤(4.2.3.2.5)如果 
Figure RE-FSB000003034355000723
有效,估计 
Figure RE-FSB000003034355000724
与 
Figure RE-FSB000003034355000725
之间的最终光流场 
Figure RE-FSB000003034355000726
Figure RE-FSB000003034355000727
由下面的优化问题解得:
Figure RE-FSB000003034355000728
其中V是图像有效区域,(x,y)是V中的一个像素,u和v分别是u(x,y)和v(x,y)的简写,分别代表 
Figure RE-FSB000003034355000730
在(x,y)点沿x方向和y方向的分量,(uH,vH)代表VH 在(x,y)处的取值,ω1(x,y)是权重系数,取为ω1(x,y)=exp(-‖[uH,vH]‖/10),(uL,vL)代表VL在(x,y)处的取值,ω2(x,y)是权重系数,取为ω2(x,y)=1,如果VH有效,则取β=2,γ=1,否则,取β=0,γ=1,
步骤(4.2.3.2.6)填充输出图像,
用 
Figure RE-FSB00000303435500081
经过光流场 
Figure RE-FSB00000303435500082
的变换后采用双线性插值填充输出图像的前景部分,步骤(4.2.4)对还未填充的区域,用低分辨率的图像 
Figure RE-FSB00000303435500083
放大并用双线性插值得到,步骤(4.3)灰度值调整
用步骤(3.3)中所述的方法调整输出图像中区域R1和R4,与R2灰度值保持一致,其中R1是所述输出图像 
Figure RE-FSB00000303435500084
中用步骤(4.2.1)填充的图像区域,R2是所述输出图像 
Figure RE-FSB00000303435500085
中用步骤(4.2.2)填充的图像区域,R3是所述输出图像 
Figure RE-FSB00000303435500086
中用步骤(4.2.3)填充的图像区域,R4是所述输出图像 
Figure RE-FSB00000303435500087
中用步骤(4.2.4)填充的图像区域,
调整R1,只用R1与所述高分辨率背景模型 
Figure RE-FSB00000303435500088
重叠部分的像素计算灰度值映射模型,并只调整这些重叠部分的像素,调整R4时,亦只用R4与所述高分辨率背景模型 
Figure RE-FSB00000303435500089
重叠部分的像素计算灰度值映射模型,但对所有的像素值均进行调整,
步骤(4.4)输出图像空间连续性调整
对于步骤(4.3)中所述的输出图像区域R1,R2和R4作如下处理:先对边界部分用5×5的结构单元进行形态学膨胀,再对膨胀后的边界部分用3×3的均值滤波器进行平滑,步骤(4.3)中所述的输出图像区域R3部分保持不变。 
CN2009100889912A 2009-07-17 2009-07-17 可变视角及分辨率的双目视觉***目标图像稳定化方法 Active CN101616310B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN2009100889912A CN101616310B (zh) 2009-07-17 2009-07-17 可变视角及分辨率的双目视觉***目标图像稳定化方法
US12/836,881 US8368766B2 (en) 2009-07-17 2010-07-15 Video stabilizing method and system using dual-camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100889912A CN101616310B (zh) 2009-07-17 2009-07-17 可变视角及分辨率的双目视觉***目标图像稳定化方法

Publications (2)

Publication Number Publication Date
CN101616310A CN101616310A (zh) 2009-12-30
CN101616310B true CN101616310B (zh) 2011-05-11

Family

ID=41495661

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100889912A Active CN101616310B (zh) 2009-07-17 2009-07-17 可变视角及分辨率的双目视觉***目标图像稳定化方法

Country Status (2)

Country Link
US (1) US8368766B2 (zh)
CN (1) CN101616310B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102231806A (zh) * 2011-06-13 2011-11-02 山东大学 基于视频的双参数管道内壁全景图像模型与生成方法

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102143315B (zh) * 2010-02-02 2017-08-04 鸿富锦精密工业(深圳)有限公司 摄影机控制***、方法及具有该控制***的调整装置
CN101820533A (zh) * 2010-03-26 2010-09-01 吴丽娟 一种视频监控方法及装置
CN101917601B (zh) * 2010-08-26 2012-07-25 四川大学 基于双摄像头的数字视频智能监控设备及数据处理方法
CN102148965B (zh) * 2011-05-09 2014-01-15 厦门博聪信息技术有限公司 多目标跟踪特写拍摄视频监控***
CN102323070B (zh) * 2011-06-10 2015-04-08 北京华兴致远科技发展有限公司 列车异常检测方法和***
JP6065195B2 (ja) * 2012-05-08 2017-01-25 パナソニックIpマネジメント株式会社 表示映像形成装置及び表示映像形成方法
CN102722886B (zh) * 2012-05-21 2015-12-09 浙江捷尚视觉科技股份有限公司 一种基于三维标定和特征点匹配的视频测速方法
CN102780847B (zh) * 2012-08-14 2015-10-21 北京汉邦高科数字技术股份有限公司 一种针对运动目标的摄像机自动对焦控制方法
CN103679764B (zh) * 2012-08-31 2016-12-21 西门子公司 一种图像生成方法及装置
CN103020914B (zh) * 2012-12-18 2016-01-20 华侨大学 基于空间连续性原理的快速图像去雾方法
CN103051903A (zh) * 2012-12-24 2013-04-17 四川九洲电器集团有限责任公司 一种空域自适应的h.264视频i帧差错掩盖方法
CN103136530A (zh) * 2013-02-04 2013-06-05 国核自仪***工程有限公司 在复杂工业环境下的视频图像中自动识别目标图像的方法
CN104284172A (zh) * 2013-07-04 2015-01-14 联咏科技股份有限公司 影像匹配方法及立体匹配***
CN104378582B (zh) * 2013-08-16 2017-08-22 北京博思廷科技有限公司 一种基于ptz摄像机巡航的智能视频分析***及方法
CN103440650A (zh) * 2013-08-26 2013-12-11 中国人民解放军国防科学技术大学 一种基于模糊测度的流场涡特征检测方法
US9042649B2 (en) * 2013-09-24 2015-05-26 Konica Minolta Laboratory U.S.A., Inc. Color document image segmentation and binarization using automatic inpainting
EP2899689A1 (en) * 2014-01-23 2015-07-29 Thomson Licensing Method for inpainting a target area in a target video
JP6362068B2 (ja) * 2014-02-17 2018-07-25 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法、およびプログラム
CN105472263B (zh) * 2014-09-12 2018-07-13 聚晶半导体股份有限公司 影像撷取方法及使用此方法的影像撷取设备
FR3028767B1 (fr) * 2014-11-26 2017-02-10 Parrot Systeme video pour le pilotage d'un drone en mode immersif
US9848210B2 (en) * 2014-12-18 2017-12-19 Konkuk University Industrial Cooperation Corp Error concealment method using spatial interpolation and exemplar-based image inpainting
CN104506776A (zh) * 2015-01-09 2015-04-08 成都新舟锐视科技有限公司 一种用于球机实时跟踪的自动聚焦***
CN106033550B (zh) * 2015-03-16 2019-09-06 北京大学 目标跟踪方法及装置
CN105141841B (zh) * 2015-08-25 2018-05-08 上海兆芯集成电路有限公司 摄像设备及其方法
CN105282400B (zh) * 2015-11-20 2018-07-13 北京理工大学 一种基于几何插值的高效视频稳定方法
CN105574874B (zh) * 2015-12-18 2018-09-25 中北大学 一种序列图像变化检测的伪变化目标去除方法
US9811946B1 (en) * 2016-05-30 2017-11-07 Hong Kong Applied Science and Technology Research Institute Company, Limited High resolution (HR) panorama generation without ghosting artifacts using multiple HR images mapped to a low resolution 360-degree image
CN106356757B (zh) * 2016-08-11 2018-03-20 河海大学常州校区 一种基于人眼视觉特性的电力线路无人机巡检方法
TWI632814B (zh) * 2016-11-11 2018-08-11 財團法人工業技術研究院 視訊畫幀產生方法及其系統
CN110035687B (zh) * 2016-11-30 2022-02-11 卡普索影像公司 对使用胶囊相机所撷取的图像进行图像拼接的方法及装置
US10621446B2 (en) * 2016-12-22 2020-04-14 Texas Instruments Incorporated Handling perspective magnification in optical flow processing
JP7017025B2 (ja) * 2017-03-08 2022-02-08 日本電気株式会社 自律移動ロボット、自律移動ロボットの制御方法および制御プログラム
CN106934820B (zh) * 2017-03-17 2019-07-12 南昌航空大学 基于引导滤波的图像序列金字塔分层光流计算方法
CN106940892A (zh) * 2017-03-21 2017-07-11 深圳智达机械技术有限公司 一种基于图像配准的智能车辆驾驶***
US11010630B2 (en) * 2017-04-27 2021-05-18 Washington University Systems and methods for detecting landmark pairs in images
CN107347139B (zh) * 2017-06-30 2019-01-29 维沃移动通信有限公司 一种图像数据的处理方法和移动终端
CN107622510A (zh) * 2017-08-25 2018-01-23 维沃移动通信有限公司 一种信息处理方法及装置
US10404916B2 (en) * 2017-08-30 2019-09-03 Qualcomm Incorporated Multi-source video stabilization
KR102385360B1 (ko) 2017-09-19 2022-04-12 삼성전자주식회사 이미지 보정을 수행하는 전자 장치 및 그 동작 방법
WO2019068745A1 (en) * 2017-10-02 2019-04-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. EFFECTIVE IMMERSIVE CONTINUOUS DIFFUSION
CN108024056B (zh) * 2017-11-30 2019-10-29 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置
CN110084233B (zh) * 2018-01-25 2021-02-09 华中科技大学 一种生产线视频序列中快速捕获目标的方法及***
CN108322662A (zh) * 2018-04-28 2018-07-24 上海与德科技有限公司 一种摄像头参数调节方法、装置、终端及存储介质
CN110493488B (zh) * 2018-05-15 2021-11-26 株式会社理光 视频稳像方法、视频稳像装置和计算机可读存储介质
CN108924385B (zh) * 2018-06-27 2020-11-03 华东理工大学 一种基于宽度学习的视频去抖动方法
CN112514373B (zh) * 2018-08-14 2023-09-15 华为技术有限公司 用于特征提取的图像处理装置和方法
CN109389031B (zh) * 2018-08-27 2021-12-03 浙江大丰实业股份有限公司 演出人员自动定位机构
US11223817B2 (en) * 2018-11-12 2022-01-11 Electronics And Telecommunications Research Institute Dual stereoscopic image display apparatus and method
CN110349110B (zh) * 2019-07-16 2023-04-18 天津师范大学 一种基于累帧过融合的模糊图像增强方法及应用
CN110458895B (zh) * 2019-07-31 2020-12-25 腾讯科技(深圳)有限公司 图像坐标系的转换方法、装置、设备及存储介质
CN110766735B (zh) 2019-10-21 2020-06-26 北京推想科技有限公司 一种图像的匹配方法、装置、设备及存储介质
CN110933425A (zh) * 2019-11-15 2020-03-27 西安万像电子科技有限公司 数据处理方法及装置
CN111145120A (zh) * 2019-12-26 2020-05-12 上海眼控科技股份有限公司 能见度检测方法、装置、计算机设备和存储介质
US11004212B1 (en) * 2020-01-02 2021-05-11 Hong Kong Applied Science and Technology Research Institute Company Limited Object tracking method and system using iterative template matching
CN111462006B (zh) * 2020-03-31 2023-06-20 华南理工大学 一种多目标的图像补全方法
CN111445703A (zh) * 2020-04-29 2020-07-24 云南电网有限责任公司电力科学研究院 一种基于图像识别的智能停车场***及方法
CN112367479B (zh) * 2020-10-14 2022-11-11 聚好看科技股份有限公司 一种全景视频图像显示方法及显示设备
CN112966612B (zh) * 2021-03-10 2022-06-03 广东海洋大学 基于牛顿积分神经动力学的北极海冰遥感图像提取方法
CN112927142B (zh) * 2021-04-02 2022-11-11 中国人民解放军国防科技大学 一种基于时域插值的高速高分辨率视频生成方法和装置
TWI759188B (zh) * 2021-04-27 2022-03-21 凌巨科技股份有限公司 影像處理裝置以及調整白平衡的方法
CN114387332B (zh) * 2022-01-17 2022-11-08 江苏省特种设备安全监督检验研究院 一种管道测厚方法及装置
CN115567658B (zh) * 2022-12-05 2023-02-28 泉州艾奇科技有限公司 一种保持图像不偏转方法、装置及可视耳勺
CN116188275B (zh) * 2023-04-28 2023-10-20 杭州未名信科科技有限公司 一种单塔机全景图像拼接方法和***
CN116503392B (zh) * 2023-06-26 2023-08-25 细胞生态海河实验室 一种用于卵巢组织分析的卵泡区域分割方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7440634B2 (en) * 2003-06-17 2008-10-21 The Trustees Of Columbia University In The City Of New York Method for de-blurring images of moving objects
WO2006137829A2 (en) * 2004-08-10 2006-12-28 Sarnoff Corporation Method and system for performing adaptive image acquisition
US20090041297A1 (en) * 2005-05-31 2009-02-12 Objectvideo, Inc. Human detection and tracking for security applications
WO2010057170A1 (en) * 2008-11-17 2010-05-20 Cernium Corporation Analytics-modulated coding of surveillance video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102231806A (zh) * 2011-06-13 2011-11-02 山东大学 基于视频的双参数管道内壁全景图像模型与生成方法

Also Published As

Publication number Publication date
CN101616310A (zh) 2009-12-30
US20110013028A1 (en) 2011-01-20
US8368766B2 (en) 2013-02-05

Similar Documents

Publication Publication Date Title
CN101616310B (zh) 可变视角及分辨率的双目视觉***目标图像稳定化方法
US7970170B2 (en) Continuous extended range image processing
CN102231792B (zh) 基于特征匹配的电子稳像方法
Shimizu et al. Super-resolution from image sequence under influence of hot-air optical turbulence
CN104144282B (zh) 一种适用于空间机器人视觉***的快速数字稳像方法
CN103024350A (zh) 一种双目ptz视觉***的主从跟踪方法及应用该方法的***
CN108769550B (zh) 一种基于dsp的图像显著分析***及方法
Gal et al. Progress in the restoration of image sequences degraded by atmospheric turbulence
CN104376544B (zh) 一种基于多区域尺度放缩补偿的非局部超分辨率重建方法
CN110580715B (zh) 一种基于照度约束和格网变形的图像对齐方法
Gao et al. Multi-source data-based 3D digital preservation of largescale ancient chinese architecture: A case report
CN109151334B (zh) 一种无人车相机***
JP2016110312A (ja) 画像処理方法、画像処理装置及びプログラム
AU2011331381B2 (en) Change detection in video data
Zhou et al. Video stabilization and completion using two cameras
CN112017122B (zh) 超分辨成像方法
CN104376316A (zh) 车牌图像采集方法及装置
Faramarzi et al. Space-time super-resolution from multiple-videos
CN103810692A (zh) 视频监控设备进行视频跟踪的方法及该视频监控设备
CN103118221B (zh) 基于场处理的实时视频电子稳像方法
EP2455915A1 (en) Change detection in image sequences
CN114972517B (zh) 一种基于raft的自监督深度估计方法
Chiao et al. Rolling shutter correction for video with large depth of field
CN111563912B (zh) 一种行人追踪***和方法
CN113327198A (zh) 一种远距离双目视频拼接方法及***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant