CN103002309A - 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法 - Google Patents

对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法 Download PDF

Info

Publication number
CN103002309A
CN103002309A CN2012103609760A CN201210360976A CN103002309A CN 103002309 A CN103002309 A CN 103002309A CN 2012103609760 A CN2012103609760 A CN 2012103609760A CN 201210360976 A CN201210360976 A CN 201210360976A CN 103002309 A CN103002309 A CN 103002309A
Authority
CN
China
Prior art keywords
depth
dynamic
pixel
consistency
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012103609760A
Other languages
English (en)
Other versions
CN103002309B (zh
Inventor
章国锋
鲍虎军
姜翰青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Shangtang Technology Development Co Ltd
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201210360976.0A priority Critical patent/CN103002309B/zh
Publication of CN103002309A publication Critical patent/CN103002309A/zh
Application granted granted Critical
Publication of CN103002309B publication Critical patent/CN103002309B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明公开了一种对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法。它利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图;对于多目视频的每一帧图像计算动态概率图,利用动态概率图对每帧图像进行动态像素点和静态像素点的划分,利用不同的优化方法进行时空一致性的深度优化,对于静态点,利用bundle optimization方法结合多个相邻时刻的颜色和几何一致性约束进行优化;对于动态点,统计多个相邻时刻的多目摄像机之间对应像素点的颜色和几何一致性约束信息,对每一时刻动态深度值进行时空一致性优化。本发明在3D立体影像、3D动画、增强现实和运动捕获等领域将会有很高的应用价值。

Description

对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法
技术领域
本发明涉及立体匹配和深度恢复方法,尤其涉及一种对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法。
背景技术
视频的稠密深度恢复技术是计算机中层视觉领域的基础技术之一,其在3D建模、3D影像、增强现实和运动捕获等众多领域中有及其重要的应用。这些应用通常要求深度恢复结果具有很高精度和时空一致性。
视频的稠密深度恢复技术的难点在于:对于场景中的静态和动态物体,所恢复的深度值具有很高的精度和时空一致性。虽然目前对于静态场景的深度恢复技术已能够恢复具有较高精度的深度信息,但是自然界处处充满了运动的物体,对于视频场景中包含的动态物体来说,现有的深度恢复方法都很难达到较高的精度及时空域上的一致性。这些方法通常要求较多个固定放置的同步摄像机对场景进行捕获,在每个时刻对同步的多目视频帧利用多视图几何的方法进行立体匹配,从而恢复每个时刻的深度信息。而这种拍摄方法更多是被应用于实验室内动态场景的拍摄工作,实际拍摄过程中这种拍摄模式会有很多限制。另外现有的方法在时序上优化深度的过程中,通常利用光流寻找到不同时刻视频帧上对应像素点,然后将对应点的深度值或3D点位置进行线性或曲线拟合,从而估计出当前帧像素点的深度信息。这种时域上3D光顺化的方法只能使得时序上对应像素点的深度更为一致,并不能优化出真正准确的深度值;同时由于光流估计不鲁棒性的普遍存在,使得动态点的深度优化问题变得更为复杂难解。
现有的视频深度恢复方法主要分为两大类:
1.对于单目静态场景视频的时域一致性深度恢复
此类方法较为典型的是Zhang于09年提出的方法:G.Zhang,J.Jia,T.-T.Wong,and H.Bao.Consistent depth maps recovery from a video sequence.IEEETransactions on Pattern Analysis and Machine Intelligence,31(6):974-988,2009.。此方法首先利用传统多视图几何的方法初始化每帧图像的深度,然后在时域上利用bundle optimization技术统计多个时刻的几何和颜色一致性来优化当前帧的深度。此方法对于静态场景能够恢复出高精度的深度图;对于包含动态物体的场景,此方法不能恢复动态物体的深度值。
2.对于多目动态场景视频的深度恢复
此类方法较为典型的是Zitnick的方法:C.L.Zitnick,S.B.Kang,M.Uyttendaele,S.Winder,and R.Szeliski.High-quality video view interpolation using a layeredrepresentation.ACM Transactions on Graphics,23:600-608,August 2004.、Larsen的方法:E.S.Larsen,P.Mordohai,M.Pollefeys,and H.Fuchs.Temporallyconsistent reconstruction from multiple video streams using enhanced beliefpropagation.In ICCV,pages 1-8,2007.以及Lei的方法:C.Lei,X.D.Chen,and Y.H.Yang.A new multi-view spacetime-consistent depth recovery framework for freeviewpoint video rendering.In ICCV,pages 1570-1577,2009.。这些方法都利用同一时刻的多目同步视频帧恢复深度图,要求利用较多数目的固定放置的同步摄像机拍摄动态场景,不适合用于户外实际拍摄。Larsen和Lei的方法分别利用时空域上能量优化和时域3D光顺化的方法来优化深度值,使得这些方法不够鲁棒,不能处理光流估计产生严重错误的情况。
对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法的步骤1)使用了Tola提出的DAISY特征描述符:E.Tola,V.Lepetit,and P.Fua.Daisy:An efficient dense descriptor applied to wide-baseline stereo.IEEE Transactions onPattern Analysis and Machine Intelligence,32(5):815-830,2010.
对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法的步骤1)和步骤2)使用了Comaniciu提出的Mean-shift技术:D.Comaniciu,P.Meer,and S.Member.Mean shift:A robust approach toward feature space analysis.IEEETransactions on Pattern Analysis and Machine Intelligence,24:603-619,2002.
对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法的步骤2)使用了Rother提出的Grabcut技术:C.Rother,V.Kolmogorov,and A.Blake.”grabcut”:interactive foreground extraction using iterated graph cuts.ACMTransactions on Graphics,23:309-314,August 2004.
对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法的步骤1)、步骤2)和步骤3)使用了Felzenszwalb提出的能量方程优化技术:P.F.Felzenszwalb and D.P.Huttenlocher.Efficient belief propagation for early vision.International Journal of Computer Vision,70(1):41-54,2006.
发明内容
本发明的目的在于针对现有技术的不足,提供一种对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法。
对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法的步骤如下:
1)利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图;
2)利用步骤1)得到的初始化深度图对于多目视频的每一帧图像计算动态概率图,并利用动态概率图对每帧图像进行动态像素点和静态像素点的划分;
3)对于步骤2)所划分的动态像素点和静态像素点,利用不同的优化方法进行时空一致性的深度优化,对于静态像素点,利用bundle optimization方法结合多个相邻时刻的颜色和几何一致性约束进行优化;对于动态像素点,统计多个相邻时刻的多目摄像机之间对应像素点的颜色和几何一致性约束信息,由此对每一时刻动态深度值进行时空一致性优化。
所述的步骤1)为:
(1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
E D ( D m t ; I ^ ( t ) ) = E d ( D m t ; I ^ ( t ) ) + E s ( D m t )
其中
Figure BDA00002190176700032
表示在t时刻的M个多目同步视频帧,表示第m个视频的t时刻的图像帧,
Figure BDA00002190176700034
表示第m个视频的t时刻的深度图;
Figure BDA00002190176700035
是数据项,表示
Figure BDA00002190176700036
中像素点与根据
Figure BDA00002190176700037
计算的
Figure BDA00002190176700038
中其余图像帧投影点之间的DAISY特征相似度,其计算公式如下:
E d ( D m t ; I ^ ( t ) ) = Σ x m t Σ m ′ ≠ m L d ( x m t , D m t ( x m t ) ; I m t , I m ′ t ) M - 1
其中是用来估计对应像素的DAISY特征相似度的惩罚函数,
Figure BDA000021901767000311
表示像素点
Figure BDA000021901767000312
的DAISY特征描述符,
Figure BDA000021901767000313
Figure BDA000021901767000314
利用
Figure BDA000021901767000315
投影至
Figure BDA000021901767000316
中的投影位置;
Figure BDA000021901767000317
是平滑项,表示相邻像素x、y之间的深度平滑程度,其计算公式如下:
E s ( D m t ) = λ Σ x Σ y ∈ N ( x ) min { | D m t ( x ) - D m t ( y ) | , η }
其中平滑权重λ为0.008,深度差的截断值η为3;
(2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的计算公式如下:
V m → m ′ t ( x m t ) = 1 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | ≤ δ d 0 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | > δ d
其中
Figure BDA00002190176700042
表示
Figure BDA00002190176700043
中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值,
Figure BDA00002190176700045
是通过利用
Figure BDA00002190176700046
Figure BDA00002190176700047
投影至上计算得到的;利用所得到的可视性图,对每个像素
Figure BDA00002190176700049
计算总体可视性如果
Figure BDA000021901767000411
在t时刻所有其余视频帧中均不可见,则
Figure BDA000021901767000412
为0,否则为1;
(3)结合所求得的可视性图重新初始化每帧图像的深度图,DAISY特征相似度仅在可见的像素格点进行比较估计;并且,当的像素点的初始化深度值出现错误的情况下,利用Mean-shift技术对每帧图像进行分割,对于每个分割区域,利用的像素点的深度来拟合参数为[a,b,c]的平面,利用拟合的平面重新定义
Figure BDA000021901767000416
的像素点的数据项:
E d ( x m t , D m t ) = Σ x m t σ d σ d + | ax + by + c - D m t ( x m t ) |
其中σd用来控制数据项对于深度值与拟合平面的距离差的敏感度,x和y是像素点的坐标值;利用重新定义的数据项进行能量优化,从而纠正被遮挡像素点的错误深度值;
所述的步骤2)为:
(1)对于每帧图像中的像素点,利用初始化深度
Figure BDA000021901767000419
将其投影至其余时刻帧,比较像素点在当前时刻帧与其余时刻帧上的对应位置的几何与颜色的一致性,统计深度值和颜色值具有一致性的其余时刻帧数目所占的比例值,作为像素点属于动态物体的概率值,从而得到每帧图像的动态概率图,其计算公式如下:
P d ( x m t ) = Σ ( m ′ , t ′ ) ∈ N ( m , t ) C m → m ′ t → t ′ ( x m t ) = dynamic | N ( m , t ) |
其中启发式函数用来判断
Figure BDA00002190176700053
在其余帧
Figure BDA00002190176700054
上几何和颜色是否一致;首先比较
Figure BDA00002190176700055
与对应位置
Figure BDA00002190176700056
的深度值差异,如果
Figure BDA00002190176700057
Figure BDA00002190176700058
上的深度值与
Figure BDA00002190176700059
的深度不相似,则认为几何不一致,如果
Figure BDA000021901767000510
Figure BDA000021901767000511
的深度值相似,则比较其颜色值,如果颜色相似,则认为
Figure BDA000021901767000513
的颜色值一致,否则认为颜色不一致;统计具有深度值和颜色值一致性的其余时刻帧数目所占的比例,作为像素点属于动态物体的概率值;
(2)将动态概率图利用大小为0.4的阈值ηp进行二值化得到每帧图像的初始动态/静态分割图;利用Mean-shift技术对每帧图像进行over-segmentation,即粒度小的图像分割,对于每个分割区域统计二值化后的动态像素点数目的比例值,如果比例值大于0.5,则将整个分割区域的像素点标记为动态,否则标记为静态,由此对二值化分割图进行边界调整和去噪;
(3)利用连续时刻图像之间对应像素点的坐标偏移量,将每帧图像的像素点跟踪至同一视频中的相邻时刻帧寻找对应像素点,统计对应像素点分割标记为动态的帧数目所占的比例,由此计算像素点的时域动态概率,其计算公式如下:
P d ′ ( x m t ) = Σ t ′ ∈ N ( t ) S m t ′ ( x m t + O m t → t ′ ( x m t ) ) = dynamic | N ( t ) |
其中
Figure BDA000021901767000515
表示
Figure BDA000021901767000516
从t至t′时刻的光流偏移量,
Figure BDA000021901767000517
表示
Figure BDA000021901767000518
在t′时刻对应像素点的动态/静态分割标记,N(t)表示t前后连续5个相邻时刻帧;利用时域动态概率,通过如下能量优化方程式优化每一时刻图像帧的动态/静态分割图:
E S ( S m t ; P d ′ , I m t ) = E d ( S m t ; P d ′ ) + E s ( S m t ; I m t )
其中
Figure BDA00002190176700061
表示视频m在第t帧的动态/静态分割图;数据项Ed的定义如下:
E d ( S m t ; P d ′ ) = Σ x m t e d ( S m t ( x m t ) )
e d ( S m t ( x m t ) ) = - log ( 1 - P d ′ ( x m t ) ) S m t ( x m t ) = static - log ( P d ′ ( x m t ) ) S m t ( x m t ) = dynamic
平滑项Es促使分割边界与图像边界尽可能一致,其定义如下:
E s ( S m t ; I m t ) = λ Σ x Σ y ∈ N ( x ) | S m t ( x ) - S m t ( y ) | 1 + | | I m t ( x ) - I m t ( y ) | | 2
对于经能量优化后的动态/静态分割图,利用Grabcut分割技术进行进一步优化,除去分割边界上的毛刺,得到最终时序上一致动态/静态划分;
所述的步骤3)为:
(1)对于静态像素点,利用bundle optimization方法统计当前时刻帧像素点和多目视频多个相邻时刻帧上对应像素点之间的颜色和几何一致性约束信息,由此对当前时刻静态深度值进行优化;
(2)对于动态像素点
Figure BDA00002190176700065
假设其候选深度为d,首先根据d将其投影至同一时刻t的视频m,得到对应像素点
Figure BDA00002190176700066
比较
Figure BDA00002190176700067
Figure BDA00002190176700068
的颜色与几何一致性,其计算公式如下:
L g ( x m t , x m ′ t ) = p c ( x m t , x m ′ t ) p g ( x m t , x m ′ t )
其中
Figure BDA000021901767000610
估计
Figure BDA000021901767000611
Figure BDA000021901767000612
的颜色一致性,其计算公式如下:
p c ( x m t , x m ′ t ) = σ c σ c + | | I m t ( x m t ) - I m ′ t ( x m ′ t ) | | 1
σc控制颜色差异的敏感度,
Figure BDA000021901767000614
估计
Figure BDA000021901767000616
的几何一致性,其计算公式如下:
p g ( x m t , x m ′ t ) = σ w σ g + d g ( x m t , x m ′ t ; D m t , D m ′ t )
σg控制深度差异的敏感度,对称投影误差计算函数dg
Figure BDA000021901767000618
投影至同一时刻t的视频m′的投影位置并计算其与的距离,同时计算投影至t时刻m视频的投影位置与
Figure BDA00002190176700071
的距离,然后计算两者的平均距离;
接下来,利用利用光流将
Figure BDA00002190176700072
Figure BDA00002190176700073
跟踪至相邻时刻t′得到对应像素点
Figure BDA00002190176700074
Figure BDA00002190176700075
比较
Figure BDA00002190176700076
Figure BDA00002190176700077
的颜色与几何一致性,其计算公式如下:
L g ( x ^ m t ′ , x ^ m ′ t ′ ) = p c ( x ^ m t ′ , x ^ m ′ t ′ ) p g ( x ^ m t ′ , x ^ m ′ t ′ )
累积多个相邻时刻的颜色与几何一致性估计值,由此重新定义对于动态像素点深度优化的能量方程数据项:
E d ′ ( D m t ; I ^ , D ^ ) = Σ x m t 1 - Σ t ′ ∈ N ( t ) Σ m ′ ≠ m L g ( x ^ m t ′ , x ^ m ′ t ′ ) ( M - 1 ) | N ( t ) |
利用重新定义的数据项进行能量优化方程式求解,从而在时空域上优化每帧图像中的动态像素点深度值。
本发明对于视频场景中包含的动态物体来说,现有的深度恢复方法都很难达到较高的精度及时空域上的一致性,这些方法通常要求较多个固定放置的同步摄像机对场景进行捕获,这种拍摄方法更多是被应用于实验室内动态场景的拍摄工作,实际拍摄过程中这种拍摄模式会有很多限制;本发明所提出的一种对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法能够对于多目视频中的动态和静态物体恢复每一时刻的准确深度图,亦能够保持深度图在多个时刻之间的高度一致性。此方法允许多目摄像机自由独立地运动,并允许较少数目(仅2个)的摄像机拍摄的动态场景,在实际拍摄过程中更为实用。
附图说明
图1是对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法流程图;
图2(a)是视频序列的一帧图像;
图2(b)是与图2(a)同步的一帧图像;
图2(c)是图2(a)的初始化深度图;
图2(d)是利用图2(a)和图2(b)估计出的可视性图;
图2(e)是利用图2(d)进行平面拟合纠正的初始化深度图;
图3(a)是图2(a)的动态概率图;
图3(b)是图3(a)经过二值化并利用Mean-shift分割进行边界调整及去噪后的动态/静态分割图;
图3(c)是经过时域上优化的分割图;
图3(d)是经过Grabcut技术优化的分割图;
图3(e)是图3(a-d)中方框区域的局部放大图;
图4(a)是视频序列的一帧图像;
图4(b)是图4(a)的动态/静态分割图;
图4(c)是图4(a)经时空一致性优化后的深度图;
图4(d)是图4(a)和图4(c)中方框区域的局部放大图;
图4(e)是视频序列的另一帧图像;
图4(f)是图4(e)经时空一致性优化的深度图结果;
图4(g)是利用图4(f)重建出的3D场景模型以及纹理映射后的结果;
图5是时空一致性深度优化的示意图。
具体实施方式
对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法的步骤如下:
1)利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图;
2)利用步骤1)得到的初始化深度图对于多目视频的每一帧图像计算动态概率图,并利用动态概率图对每帧图像进行动态像素点和静态像素点的划分;
3)对于步骤2)所划分的动态像素点和静态像素点,利用不同的优化方法进行时空一致性的深度优化,对于静态像素点,利用bundle optimization方法结合多个相邻时刻的颜色和几何一致性约束进行优化;对于动态像素点,统计多个相邻时刻的多目摄像机之间对应像素点的颜色和几何一致性约束信息,由此对每一时刻动态深度值进行时空一致性优化。
所述的步骤1)为:
(1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
E D ( D m t ; I ^ ( t ) ) = E d ( D m t ; I ^ ( t ) ) + E s ( D m t )
其中
Figure BDA00002190176700082
表示在t时刻的M个多目同步视频帧,
Figure BDA00002190176700083
表示第m个视频的t时刻的图像帧,表示第m个视频的t时刻的深度图;
Figure BDA00002190176700085
是数据项,表示
Figure BDA00002190176700086
中像素点与根据
Figure BDA00002190176700087
计算的
Figure BDA00002190176700088
中其余图像帧投影点之间的DAISY特征相似度,其计算公式如下:
E d ( D m t ; I ^ ( t ) ) = Σ x m t Σ m ′ ≠ m L d ( x m t , D m t ( x m t ) ; I m t , I m ′ t ) M - 1
其中
Figure BDA00002190176700092
是用来估计对应像素的DAISY特征相似度的惩罚函数,
Figure BDA00002190176700093
表示像素点的DAISY特征描述符,
Figure BDA00002190176700096
利用
Figure BDA00002190176700097
投影至
Figure BDA00002190176700098
中的投影位置;
Figure BDA00002190176700099
是平滑项,表示相邻像素x、y之间的深度平滑程度,其计算公式如下:
E s ( D m t ) = λ Σ x Σ y ∈ N ( x ) min { | D m t ( x ) - D m t ( y ) | , η }
其中平滑权重λ为0.008,深度差的截断值η为3;
(2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的计算公式如下:
V m → m ′ t ( x m t ) = 1 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | ≤ δ d 0 | D m → m ′ t ( x m t ) - D m ′ t ( x m ′ t ) | > δ d
其中
Figure BDA000021901767000912
表示
Figure BDA000021901767000914
中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值,
Figure BDA000021901767000915
是通过利用
Figure BDA000021901767000916
Figure BDA000021901767000917
投影至
Figure BDA000021901767000918
上计算得到的;利用所得到的可视性图,对每个像素
Figure BDA000021901767000919
计算总体可视性
Figure BDA000021901767000920
如果在t时刻所有其余视频帧中均不可见,则
Figure BDA000021901767000922
为0,否则为1;
(3)结合所求得的可视性图重新初始化每帧图像的深度图,DAISY特征相似度仅在可见的像素格点进行比较估计;并且,当
Figure BDA000021901767000924
的像素点的初始化深度值出现错误的情况下,利用Mean-shift技术对每帧图像进行分割,对于每个分割区域,利用
Figure BDA000021901767000925
的像素点的深度来拟合参数为[a,b,c]的平面,利用拟合的平面重新定义
Figure BDA000021901767000926
的像素点的数据项:
E d ( x m t , D m t ) = Σ x m t σ d σ d + | ax + by + c - D m t ( x m t ) |
其中σd用来控制数据项对于深度值与拟合平面的距离差的敏感度,x和y是像素点
Figure BDA00002190176700102
的坐标值;利用重新定义的数据项进行能量优化,从而纠正被遮挡像素点的错误深度值;
所述的步骤2)为:
(1)对于每帧图像中的像素点,利用初始化深度将其投影至其余时刻帧,比较像素点在当前时刻帧与其余时刻帧上的对应位置的几何与颜色的一致性,统计深度值和颜色值具有一致性的其余时刻帧数目所占的比例值,作为像素点属于动态物体的概率值,从而得到每帧图像的动态概率图,其计算公式如下:
P d ( x m t ) = Σ ( m ′ , t ′ ) ∈ N ( m , t ) C m → m ′ t → t ′ ( x m t ) = dynamic | N ( m , t ) |
其中启发式函数用来判断
Figure BDA00002190176700106
在其余帧
Figure BDA00002190176700107
上几何和颜色是否一致;首先比较与对应位置的深度值差异,如果上的深度值与
Figure BDA000021901767001012
的深度不相似,则认为几何不一致,如果
Figure BDA000021901767001013
Figure BDA000021901767001014
的深度值相似,则比较其颜色值,如果颜色相似,则认为
Figure BDA000021901767001016
的颜色值一致,否则认为颜色不一致;统计具有深度值和颜色值一致性的其余时刻帧数目所占的比例,作为像素点属于动态物体的概率值;
(2)将动态概率图利用大小为0.4的阈值ηp进行二值化得到每帧图像的初始动态/静态分割图;利用Mean-shift技术对每帧图像进行over-segmentation,即粒度小的图像分割,对于每个分割区域统计二值化后的动态像素点数目的比例值,如果比例值大于0.5,则将整个分割区域的像素点标记为动态,否则标记为静态,由此对二值化分割图进行边界调整和去噪;
(3)利用连续时刻图像之间对应像素点的坐标偏移量,将每帧图像的像素点跟踪至同一视频中的相邻时刻帧寻找对应像素点,统计对应像素点分割标记为动态的帧数目所占的比例,由此计算像素点的时域动态概率,其计算公式如下:
P d ′ ( x m t ) = Σ t ′ ∈ N ( t ) S m t ′ ( x m t + O m t → t ′ ( x m t ) ) = dynamic | N ( t ) |
其中
Figure BDA00002190176700112
表示
Figure BDA00002190176700113
从t至t′时刻的光流偏移量,表示
Figure BDA00002190176700115
在t′时刻对应像素点的动态/静态分割标记,N(t)表示t前后连续5个相邻时刻帧;利用时域动态概率,通过如下能量优化方程式优化每一时刻图像帧的动态/静态分割图:
E S ( S m t ; P d ′ , I m t ) = E d ( S m t ; P d ′ ) + E s ( S m t ; I m t )
其中
Figure BDA00002190176700117
表示视频m在第t帧的动态/静态分割图;数据项Ed的定义如下:
E d ( S m t ; P d ′ ) = Σ x m t e d ( S m t ( x m t ) )
e d ( S m t ( x m t ) ) = - log ( 1 - P d ′ ( x m t ) ) S m t ( x m t ) = static - log ( P d ′ ( x m t ) ) S m t ( x m t ) = dynamic
平滑项Es促使分割边界与图像边界尽可能一致,其定义如下:
E s ( S m t ; I m t ) = λ Σ x Σ y ∈ N ( x ) | S m t ( x ) - S m t ( y ) | 1 + | | I m t ( x ) - I m t ( y ) | | 2
对于经能量优化后的动态/静态分割图,利用Grabcut分割技术进行进一步优化,除去分割边界上的毛刺,得到最终时序上一致动态/静态划分;
所述的步骤3)为:
(1)对于静态像素点,利用bundle optimization方法统计当前时刻帧像素点和多目视频多个相邻时刻帧上对应像素点之间的颜色和几何一致性约束信息,由此对当前时刻静态深度值进行优化;
(2)对于动态像素点
Figure BDA000021901767001111
假设其候选深度为d,首先根据d将其投影至同一时刻t的视频m′,得到对应像素点
Figure BDA000021901767001112
比较
Figure BDA000021901767001113
Figure BDA000021901767001114
的颜色与几何一致性,其计算公式如下:
L g ( x m t , x m ′ t ) = p c ( x m t , x m ′ t ) p g ( x m t , x m ′ t )
其中
Figure BDA000021901767001116
估计
Figure BDA000021901767001117
Figure BDA000021901767001118
的颜色一致性,其计算公式如下:
p c ( x m t , x m ′ t ) = σ c σ c + | | I m t ( x m t ) - I m ′ t ( x m ′ t ) | | 1
σc控制颜色差异的敏感度,
Figure BDA00002190176700121
估计
Figure BDA00002190176700122
Figure BDA00002190176700123
的几何一致性,其计算公式如下:
p g ( x m t , x m ′ t ) = σ w σ g + d g ( x m t , x m ′ t ; D m t , D m ′ t )
σg控制深度差异的敏感度,对称投影误差计算函数dg
Figure BDA00002190176700125
投影至同一时刻t的视频m′的投影位置并计算其与
Figure BDA00002190176700126
的距离,同时计算
Figure BDA00002190176700127
投影至t时刻m视频的投影位置与
Figure BDA00002190176700128
的距离,然后计算两者的平均距离;
接下来,利用利用光流将
Figure BDA00002190176700129
Figure BDA000021901767001210
跟踪至相邻时刻t′得到对应像素点
Figure BDA000021901767001211
Figure BDA000021901767001212
比较
Figure BDA000021901767001213
Figure BDA000021901767001214
的颜色与几何一致性,其计算公式如下:
L g ( x ^ m t ′ , x ^ m ′ t ′ ) = p c ( x ^ m t ′ , x ^ m ′ t ′ ) p g ( x ^ m t ′ , x ^ m ′ t ′ )
累积多个相邻时刻的颜色与几何一致性估计值,由此重新定义对于动态像素点深度优化的能量方程数据项:
E d ′ ( D m t ; I ^ , D ^ ) = Σ x m t 1 - Σ t ′ ∈ N ( t ) Σ m ′ ≠ m L g ( x ^ m t ′ , x ^ m ′ t ′ ) ( M - 1 ) | N ( t ) |
利用重新定义的数据项进行能量优化方程式求解,从而在时空域上优化每帧图像中的动态像素点深度值。
实施例
如图1所示,对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法的步骤如下:
1)利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图;
2)利用步骤1)得到的初始化的深度图对于多目视频的每一帧图像计算动态概率图,并利用动态概率图对每帧图像的像素点进行动态/静态的分类;
3)对于步骤2)所划分的动态和静态像素点,利用不同的优化方法进行时空一致性的深度优化,对于静态点,利用bundle optimization方法结合多个相邻时刻的颜色和几何一致性约束进行优化;对于动态点,统计多个相邻时刻的多目摄像机之间对应像素点的颜色和几何一致性约束信息,由此对每一时刻动态深度值进行时空一致性优化。
所述的步骤1)为:
(1)利用多视图几何方法结合DAISY特征描述符,对于如图2(a)和图2(b)所示的同一时刻的双目视频帧进行立体匹配,通过能量优化方程式求解每一时刻图像帧的初始化深度图,如图2(c)所示;
(2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图,如图2(d)所示;
(3)结合所求得的可视性图重新初始化每帧图像的深度图,DAISY特征相似度仅在可见的像素格点进行比较估计;并且,当不可见像素点的初始化深度值出现错误的情况下,利用Mean-shift技术对每帧图像进行分割,对于每个分割区域,利用可见像素点的深度来拟合平面,利用拟合的平面填补纠正不可见像素点的深度值,如图2(e)所示;
所述的步骤2)为:
(1)对于每帧图像中的像素点,利用初始化深度将其投影至其余时刻帧,比较像素点在当前时刻帧与其余时刻帧上的对应位置的几何与颜色的一致性,统计深度值和颜色值具有一致性的其余时刻帧数目所占的比例值,作为像素点属于动态物体的概率值,从而得到每帧图像的动态概率图,如图3(a)所示;
(2)将动态概率图二值化得到每帧图像的初始动态/静态分割图;利用Mean-shift技术对每帧图像进行over-segmentation,即粒度小的图像分割,对于每个分割区域统计二值化后的动态像素点数目的比例值,如果比例值大于0.5,则将整个分割区域的像素点标记为动态,否则标记为静态,由此对二值化分割图进行边界调整和去噪,如图3(b)所示;
(3)利用连续时刻图像之间对应像素点的坐标偏移量,将每帧图像的像素点跟踪至同一视频中的相邻时刻帧寻找对应像素点,统计对应像素点分割标记为动态的帧数目所占的比例,由此计算像素点的时域动态概率,通过能量优化方程式优化每一时刻图像帧的动态/静态分割图,如图3(c)所示;对于图3(c),利用Grabcut分割技术进行进一步优化,除去分割边界上的毛刺,得到最终时序上一致动态/静态划分,如图3(d)所示;
所述的步骤3)为:
(1)对于静态点,利用bundle optimization方法统计当前时刻帧像素点和多目视频多个相邻时刻帧上对应像素点之间的颜色和几何一致性约束信息,由此对当前时刻静态深度值进行优化;
(2)对于动态点的时空一致性深度优化方法如图5所示,假设像素点的候选深度为d,首先根据d将其投影至同一时刻t的视频m′,得到对应像素点
Figure BDA00002190176700142
比较
Figure BDA00002190176700143
的颜色与几何一致性;接下来,利用利用光流将
Figure BDA00002190176700145
Figure BDA00002190176700146
跟踪至相邻时刻t′得到对应像素点比较
Figure BDA000021901767001410
的颜色与几何一致性;累积多个相邻时刻的颜色与几何一致性估计值,由此在时空域上利用能量优化方程式优化每帧图像中的动态像素点深度值,得到时空域上一致的深度图,如图4(c)和图4(f)所示。

Claims (4)

1.一种对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法,其特征在于它的步骤如下:
1)利用多视图几何方法结合DAISY特征向量,对于同一时刻的多目视频帧进行立体匹配,得到多目视频每一时刻的初始化深度图;
2)利用步骤1)得到的初始化深度图对于多目视频的每一帧图像计算动态概率图,并利用动态概率图对每帧图像进行动态像素点和静态像素点的划分;
3)对于步骤2)所划分的动态像素点和静态像素点,利用不同的优化方法进行时空一致性的深度优化,对于静态像素点,利用bundle optimization方法结合多个相邻时刻的颜色和几何一致性约束进行优化;对于动态像素点,统计多个相邻时刻的多目摄像机之间对应像素点的颜色和几何一致性约束信息,由此对每一时刻动态深度值进行时空一致性优化。
2.根据权利要求1中所述的一种对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法,其特征在于所述的步骤1)为:
(1)利用多视图几何方法结合DAISY特征描述符,对于同一时刻的多目视频帧进行立体匹配,通过如下能量优化方程式求解每一时刻图像帧的初始化深度图:
Figure FDA00002190176600011
其中 表示在t时刻的M个多目同步视频帧, 
Figure FDA00002190176600013
表示第m个视频的t时刻的图像帧, 表示第m个视频的t时刻的深度图; 
Figure FDA00002190176600015
是数据项,表示 
Figure FDA00002190176600016
中像素点与根据 计算的 
Figure FDA00002190176600018
中其余图像帧投影点之间的DAISY特征相似度,其计算公式如下:
Figure FDA00002190176600019
其中 是用来估计对应像素的DAISY特征相似度的惩罚函数, 
Figure FDA000021901766000111
表示像素点 
Figure FDA000021901766000112
的DAISY特征描述符, 
Figure FDA000021901766000113
是 
Figure FDA000021901766000114
利用 
Figure FDA000021901766000115
投影至 
Figure FDA000021901766000116
中的投影位置; 
Figure FDA000021901766000117
是平滑项,表示相邻像素x、y之间的深度平滑程度,其计算公式如下: 
其中平滑权重λ为0.008,深度差的截断值η为3;
(2)利用多目视频帧的初始化深度在3D空间中的一致性来判断每帧图像中的每个像素点在同一时刻其余摄像机中是否可见,从而得到同一时刻多个摄像机两两之间的可视性图;可视性图的计算公式如下:
Figure FDA00002190176600022
其中 
Figure FDA00002190176600023
表示 
Figure FDA00002190176600024
在 
Figure FDA00002190176600025
中是否可见,1表示可见,0表示不可见;δd是深度差异的阈值, 
Figure FDA00002190176600026
是通过利用 
Figure FDA00002190176600027
将 
Figure FDA00002190176600028
投影至 
Figure FDA00002190176600029
上计算得到的;利用所得到的可视性图,对每个像素 
Figure FDA000021901766000210
计算总体可视性 
Figure FDA000021901766000211
如果 
Figure FDA000021901766000212
在t时刻所有其余视频帧中均不可见,则 
Figure FDA000021901766000213
为0,否则 
Figure FDA000021901766000214
为1;
(3)结合所求得的可视性图重新初始化每帧图像的深度图,DAISY特征相似度仅在可见的像素格点进行比较估计;并且,当 
Figure FDA000021901766000215
的像素点的初始化深度值出现错误的情况下,利用Mean-shift技术对每帧图像进行分割,对于每个分割区域,利用 
Figure FDA000021901766000216
的像素点的深度来拟合参数为[a,b,c]的平面,利用拟合的平面重新定义 
Figure FDA000021901766000217
的像素点的数据项:
Figure FDA000021901766000218
其中σd用来控制数据项对于深度值与拟合平面的距离差的敏感度,x和y是像素点 的坐标值;利用重新定义的数据项进行能量优化,从而纠正被遮挡像素点的错误深度值。
3.根据权利要求1中所述的一种对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法,其特征在于所述的步骤2)为:
(1)对于每帧图像中的像素点,利用初始化深度 
Figure FDA000021901766000220
将其投影至其余时刻帧,比较像素点在当前时刻帧与其余时刻帧上的对应位置的几何与颜色的一致性,统计深度值和颜色值具有一致性的其余时刻帧数目所占的比例值,作为像 素点属于动态物体的概率值,从而得到每帧图像的动态概率图,其计算公式如下:
Figure FDA00002190176600031
其中启发式函数 
Figure FDA00002190176600032
用来判断 
Figure FDA00002190176600033
在其余帧 
Figure FDA00002190176600034
上几何和颜色是否一致;首先比较 
Figure FDA00002190176600035
与对应位置 
Figure FDA00002190176600036
的深度值差异,如果 
Figure FDA00002190176600037
在 
Figure FDA00002190176600038
上的深度值与 
Figure FDA00002190176600039
的深度不相似,则认为几何不一致,如果 
Figure FDA000021901766000310
与 
Figure FDA000021901766000311
的深度值相似,则比较其颜色值,如果颜色相似,则认为 
Figure FDA000021901766000312
与 的颜色值一致,否则认为颜色不一致;统计具有深度值和颜色值一致性的其余时刻帧数目所占的比例,作为像素点属于动态物体的概率值;
(2)将动态概率图利用大小为0.4的阈值ηp进行二值化得到每帧图像的初始动态/静态分割图;利用Mean-shift技术对每帧图像进行over-segmentation,即粒度小的图像分割,对于每个分割区域统计二值化后的动态像素点数目的比例值,如果比例值大于0.5,则将整个分割区域的像素点标记为动态,否则标记为静态,由此对二值化分割图进行边界调整和去噪;
(3)利用连续时刻图像之间对应像素点的坐标偏移量,将每帧图像的像素点跟踪至同一视频中的相邻时刻帧寻找对应像素点,统计对应像素点分割标记为动态的帧数目所占的比例,由此计算像素点的时域动态概率,其计算公式如下:
Figure FDA000021901766000314
其中 
Figure FDA000021901766000315
表示 从t至t′时刻的光流偏移量, 
Figure FDA000021901766000317
表示 
Figure FDA000021901766000318
在t′时刻对应像素点的动态/静态分割标记,N(t)表示t前后连续5个相邻时刻帧;利用时域动态概率,通过如下能量优化方程式优化每一时刻图像帧的动态/静态分割图:
Figure FDA000021901766000319
其中 
Figure FDA000021901766000320
表示视频m在第t帧的动态/静态分割图;数据项Ed的定义如下: 
Figure FDA00002190176600041
Figure FDA00002190176600042
平滑项Es促使分割边界与图像边界尽可能一致,其定义如下:
Figure FDA00002190176600043
对于经能量优化后的动态/静态分割图,利用Grabcut分割技术进行进一步优化,除去分割边界上的毛刺,得到最终时序上一致动态/静态划分。
4.根据权利要求1中所述的一种对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法,其特征在于所述的步骤3)为:
(1)对于静态像素点,利用bundle optimization方法统计当前时刻帧像素点和多目视频多个相邻时刻帧上对应像素点之间的颜色和几何一致性约束信息,由此对当前时刻静态深度值进行优化;
(2)对于动态像素点 
Figure FDA00002190176600044
假设其候选深度为d,首先根据d将其投影至同一时刻t的视频m′,得到对应像素点 
Figure FDA00002190176600045
比较 
Figure FDA00002190176600046
和 
Figure FDA00002190176600047
的颜色与几何一致性,其计算公式如下:
Figure FDA00002190176600048
其中 
Figure FDA00002190176600049
估计 
Figure FDA000021901766000410
和 
Figure FDA000021901766000411
的颜色一致性,其计算公式如下:
σc控制颜色差异的敏感度,
Figure FDA000021901766000413
估计 
Figure FDA000021901766000414
和 
Figure FDA000021901766000415
的几何一致性,其计算公式如下:
Figure FDA000021901766000416
σg控制深度差异的敏感度,对称投影误差计算函数dg将 
Figure FDA000021901766000417
投影至同一时刻t的视频m′的投影位置并计算其与 
Figure FDA000021901766000418
的距离,同时计算 
Figure FDA000021901766000419
投影至t时刻m视频的投影位置与 
Figure FDA000021901766000420
的距离,然后计算两者的平均距离; 
接下来,利用利用光流将 
Figure FDA00002190176600051
和 
Figure FDA00002190176600052
跟踪至相邻时刻t′得到对应像素点 
Figure FDA00002190176600053
和 
Figure FDA00002190176600054
比较 
Figure FDA00002190176600055
和 
Figure FDA00002190176600056
的颜色与几何一致性,其计算公式如下:
累积多个相邻时刻的颜色与几何一致性估计值,由此重新定义对于动态像素点深度优化的能量方程数据项:
Figure FDA00002190176600058
利用重新定义的数据项进行能量优化方程式求解,从而在时空域上优化每帧图像中的动态像素点深度值。 
CN201210360976.0A 2012-09-25 2012-09-25 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法 Active CN103002309B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210360976.0A CN103002309B (zh) 2012-09-25 2012-09-25 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210360976.0A CN103002309B (zh) 2012-09-25 2012-09-25 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法

Publications (2)

Publication Number Publication Date
CN103002309A true CN103002309A (zh) 2013-03-27
CN103002309B CN103002309B (zh) 2014-12-24

Family

ID=47930367

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210360976.0A Active CN103002309B (zh) 2012-09-25 2012-09-25 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法

Country Status (1)

Country Link
CN (1) CN103002309B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899855A (zh) * 2014-03-06 2015-09-09 株式会社日立制作所 三维障碍物检测方法和装置
CN105229706A (zh) * 2013-05-27 2016-01-06 索尼公司 图像处理装置、图像处理方法和程序
CN106296696A (zh) * 2016-08-12 2017-01-04 深圳市中识创新科技有限公司 图像颜色一致性的处理方法及图像采集设备
CN106887015A (zh) * 2017-01-19 2017-06-23 华中科技大学 一种基于时空一致性的无约束多相机画面匹配方法
CN107507236A (zh) * 2017-09-04 2017-12-22 北京建筑大学 层次递进时空约束对齐算法及装置
CN108322730A (zh) * 2018-03-09 2018-07-24 嘀拍信息科技南通有限公司 一种可采集360度场景结构的全景深度相机***
US10127671B2 (en) 2014-10-08 2018-11-13 Thomson Licensing Method and apparatus for generating superpixel clusters
CN109410145A (zh) * 2018-11-01 2019-03-01 北京达佳互联信息技术有限公司 时序平滑方法、装置及电子设备
CN110782490A (zh) * 2019-09-24 2020-02-11 武汉大学 一种具有时空一致性的视频深度图估计方法及装置
CN112738423A (zh) * 2021-01-19 2021-04-30 深圳市前海手绘科技文化有限公司 一种导出动画视频的方法与装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101945299A (zh) * 2010-07-09 2011-01-12 清华大学 一种基于拍摄设备阵列的动态场景深度恢复方法
CN102074020A (zh) * 2010-12-31 2011-05-25 浙江大学 对视频进行多体深度恢复和分割的方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101945299A (zh) * 2010-07-09 2011-01-12 清华大学 一种基于拍摄设备阵列的动态场景深度恢复方法
CN102074020A (zh) * 2010-12-31 2011-05-25 浙江大学 对视频进行多体深度恢复和分割的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GUOENG ZHANG ETA: "Consistent Depth Maps Recovery from a Video Sequence", 《IEEE TRANSACTIONS ON PATTERN ANALYSISI AND MACHINE INTELLIGENCE》 *
姜晓红等: "基于能量最小化扩展深度的实现方法", 《中国图象图形学报》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105229706A (zh) * 2013-05-27 2016-01-06 索尼公司 图像处理装置、图像处理方法和程序
CN105229706B (zh) * 2013-05-27 2018-04-24 索尼公司 图像处理装置、图像处理方法和程序
CN104899855A (zh) * 2014-03-06 2015-09-09 株式会社日立制作所 三维障碍物检测方法和装置
US10127671B2 (en) 2014-10-08 2018-11-13 Thomson Licensing Method and apparatus for generating superpixel clusters
CN106296696A (zh) * 2016-08-12 2017-01-04 深圳市中识创新科技有限公司 图像颜色一致性的处理方法及图像采集设备
CN106887015B (zh) * 2017-01-19 2019-06-11 华中科技大学 一种基于时空一致性的无约束多相机画面匹配方法
CN106887015A (zh) * 2017-01-19 2017-06-23 华中科技大学 一种基于时空一致性的无约束多相机画面匹配方法
CN107507236A (zh) * 2017-09-04 2017-12-22 北京建筑大学 层次递进时空约束对齐算法及装置
CN107507236B (zh) * 2017-09-04 2018-08-03 北京建筑大学 层次递进时空约束对齐方法及装置
CN108322730A (zh) * 2018-03-09 2018-07-24 嘀拍信息科技南通有限公司 一种可采集360度场景结构的全景深度相机***
CN109410145A (zh) * 2018-11-01 2019-03-01 北京达佳互联信息技术有限公司 时序平滑方法、装置及电子设备
CN109410145B (zh) * 2018-11-01 2020-12-18 北京达佳互联信息技术有限公司 时序平滑方法、装置及电子设备
CN110782490A (zh) * 2019-09-24 2020-02-11 武汉大学 一种具有时空一致性的视频深度图估计方法及装置
CN110782490B (zh) * 2019-09-24 2022-07-05 武汉大学 一种具有时空一致性的视频深度图估计方法及装置
CN112738423A (zh) * 2021-01-19 2021-04-30 深圳市前海手绘科技文化有限公司 一种导出动画视频的方法与装置

Also Published As

Publication number Publication date
CN103002309B (zh) 2014-12-24

Similar Documents

Publication Publication Date Title
CN103002309B (zh) 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法
CN102903096B (zh) 一种基于单目视频的对象深度提取方法
Russell et al. Video pop-up: Monocular 3d reconstruction of dynamic scenes
Zhang et al. Semantic segmentation of urban scenes using dense depth maps
Wang et al. Unsupervised learning of depth, optical flow and pose with occlusion from 3d geometry
CN102750711B (zh) 一种基于图像分割和运动估计的双目视频深度图求取方法
CN109242950B (zh) 多人紧密交互场景下的多视角人体动态三维重建方法
CN107833270A (zh) 基于深度相机的实时物体三维重建方法
CN110688905B (zh) 一种基于关键帧的三维物体检测与跟踪方法
CN102074020B (zh) 对视频进行多体深度恢复和分割的方法
Tung et al. Complete multi-view reconstruction of dynamic scenes from probabilistic fusion of narrow and wide baseline stereo
CN102156995A (zh) 一种运动相机下的视频运动前景分割方法
CN103049929A (zh) 基于联合优化的多摄像机动态场景3d重建方法
CN104616286A (zh) 快速的半自动多视图深度修复方法
CN103279961A (zh) 基于深度恢复和运动估计的视频分割方法
CN101765019B (zh) 一种用于运动模糊和光照变化图像的立体匹配方法
Zhang et al. Simultaneous multi-body stereo and segmentation
Yang et al. 3D multiview basketball players detection and localization based on probabilistic occupancy
US7602966B2 (en) Image processing method, image processing apparatus, program and recording medium
KR101125061B1 (ko) Ldi 기법 깊이맵을 참조한 2d 동영상의 3d 동영상 전환방법
Tran et al. View synthesis based on conditional random fields and graph cuts
CN102724530B (zh) 基于反馈控制的平面视频立体化方法
Liu et al. Disparity Estimation in Stereo Sequences using Scene Flow.
Nam et al. Improved depth estimation algorithm via superpixel segmentation and graph-cut
Abdein et al. Self-supervised learning of optical flow, depth, camera pose and rigidity segmentation with occlusion handling

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210707

Address after: Room 288-8, 857 Shixin North Road, ningwei street, Xiaoshan District, Hangzhou City, Zhejiang Province

Patentee after: ZHEJIANG SHANGTANG TECHNOLOGY DEVELOPMENT Co.,Ltd.

Address before: 310027 No. 38, Zhejiang Road, Hangzhou, Zhejiang, Xihu District

Patentee before: ZHEJIANG University