CN101873508B - 基于改进bp算法的中间视合成方法 - Google Patents

基于改进bp算法的中间视合成方法 Download PDF

Info

Publication number
CN101873508B
CN101873508B CN2010101826345A CN201010182634A CN101873508B CN 101873508 B CN101873508 B CN 101873508B CN 2010101826345 A CN2010101826345 A CN 2010101826345A CN 201010182634 A CN201010182634 A CN 201010182634A CN 101873508 B CN101873508 B CN 101873508B
Authority
CN
China
Prior art keywords
formula
disparity map
image
zone
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2010101826345A
Other languages
English (en)
Other versions
CN101873508A (zh
Inventor
王翀
邹采荣
赵力
王开
戴红霞
包永强
余华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Corp of China SGCC
State Grid Jiangsu Electric Power Co Ltd
Information and Telecommunication Branch of State Grid Jiangsu Electric Power Co Ltd
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN2010101826345A priority Critical patent/CN101873508B/zh
Publication of CN101873508A publication Critical patent/CN101873508A/zh
Application granted granted Critical
Publication of CN101873508B publication Critical patent/CN101873508B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

本发明公布了一种基于改进置信传播(Belief Propagation,BP)算法的中间视合成方法,包括如下步骤:步骤1),采用基于改进BP的迭代的方法,来获取每个像素的视差矢量信息;步骤2),检测出遮挡区域,并对遮挡区域的视差进行补偿,然后再进行中间视图的插值计算:首先利用一致性约束条件对图像进行区域的划分,把图像分为遮挡区域、一致区域和模糊区域,与此同时进行遮挡区域的补偿,然后根据各个区域本身的特点采取不同的插值来获取中间视图。本发明改进了BP算法,去除了过度平滑的不良效果,进一步提高了视差计算的准确性。设计了新的插值算法,更好地考虑到了立体图像各个部分的特点,提高了虚拟视图的视觉效果和质量。

Description

基于改进BP算法的中间视合成方法
技术领域
本发明涉及多媒体信号处理技术领域,尤其是在3D视频中进行虚拟视觉应用开发的领域。
背景技术
自上个世纪的八十年代,国外就开始有视图合成技术的报道,国内有关学者在近年来也对于图像合成做了一些工作。过去的十几年,视图合成这个方向受到了广泛的关注,由于它涉及了计算机视觉、计算机图形学和数字图像处理各个方向的技术,这使得它不仅难于解决,而且方法也趋于多样化。
虚拟视图的合成多年来一直是立体视频的难点之一。传统的合成图像的方式是基于三维几何模型的视图合成。对于传统的基于模型的方法由于生成复杂的几何模型需要付出巨大的工作量,且需要很多技巧;另外,为了绘制出较好的光照效果,往往需要很昂贵的硬件开销,计算量庞大,难以在普通计算平台上实时处理,而且图像的真实感没有保障。于是在这种状况下另一种基于图像的视图合成技术得到越来越多的关注。基于图像的视图合成技术是计算机视觉和图形学界合作的产物。早在1984年视觉工作者就提出了与图形学结合的设想,也有过几次合作的尝试,但是一直没有找到一个恰当的方向,特别对于终极目标而争议很大。后来1991年由R C Jain等引发的大讨论都曾经推动过两者的合作,比如提出了基于CAD的图像建模等。
Seitz和Dyer提出了一种图像变形的方法即视图变形,该方法所生成的新视点的图像可保持原始参考图像的外形轮廓特征,该方法解决了原有图像变形方法在对相同场景不同视点的两幅图像进行变形的过程中,中间图像难以保证原始图像中的内在形状特征的问题。Ott等人提出的虚拟中间视合成方法,第一个利用立体图像进行视图合成,他们考虑了在远程会议中参与者眼睛虚拟接触交流的问题。给定放置于远程会议显示器两端的两个摄像机,利用已知的两幅图像合成了虚拟的中间视图,但是文中没有考虑遮挡区域,忽略了视差图中由于遮挡造成的空洞,在合成视图的空洞部分使用了灰度插值。McMillan等人在假设给出视差图的情况下,得到了在头盔式显示***中实时合成新视点图像的方法,并给出了一种基于前向映射(Forwarding Mapping)解决遮挡问题的简单方法。Chen和Williams在解决计算机图形学中有效进行图像绘制的问题时,介绍了图像插值方法,指出只有在基线与图像平面平行的条件下,线性的图像插值方法才能合成正确的视图。Lawrence等人首先在隐马尔科夫(MRF)框架下利用置信传播算法(BP)、过分割技术,求出稠密的视差图,然后利用插值技术合成了中间视图。
相比较国外来说,国内对视图合成的研究较少,如张兆扬、安平、吕朝晖、骆艳等人在获得可靠密集视差图后,通过寻找中间视图中的像素点在左右图像中的对应位置来生成视差图;胡志萍等人提出一种基于摄像机横向和纵向移动采集的图像合成新视点的方法,该方法在合成图像中优先保证轮廓对应准确,从而使合成图像轮廓清晰;吴琼玉等人则提出了一种若标定条件下基于图像学习的图像序列的视图合成方法,该方法避开了匹配和三维重建,直接生成中间视图;Chai Deng-feng等人提出了一种二分的图割算法进行视差的估计,然后进行遮挡的检测,接着区分前景区和背景区,最后找出中间视图在输入图像中的匹配点得到中间视图像。
发明内容
本发明的目的是提供一种平行双目摄像机***下的基于视差估计的中间视合成技术,包括视差估计与视图插值两个方面的应用。
本发明为实现上述目的,采用如下技术方案:
本发明基于改进BP算法的中间视合成方法包括如下步骤:
步骤1),采用基于改进BP的迭代的方法,来获取每个像素的视差矢量信息;
步骤2),检测出遮挡区域,并对遮挡区域的视差进行补偿,然后再进行中间视图的插值计算:首先利用一致性约束条件对图像进行区域的划分,把图像分为遮挡区域、一致区域和模糊区域,与此同时进行遮挡区域的补偿,然后根据各个区域本身的特点采取不同的插值来获取中间视图。
优选地,步骤1)所述的基于改进BP的迭代的方法如下:
第一步,计算第0级时的初始匹配代价,然后对各个级别时的数据项进行初始化;计算各个级别时的节点与其四邻域节点的颜色距离,并对各个级别时的相邻节点之间的颜色距离值进行初始化;
第二步,共有L级,l=0,1,…,L,每一级的迭代次数为t=0,1,…,T,L和T都为大于1的自然数;
第三步,利用式
Figure GSA00000129445700031
对迭代次数为0时的消息进行初始化;然后根据式
Figure GSA00000129445700032
计算每个节点的消息ml,t(dq),并为每个节点选择最小的信息值minimum;
第四步,对计算所得的消息进行如下处理:
for dq from 1 tok-1:
ml,t(dq)←min(ml,t(dq),ml,t(dq-1)+c)
for dq from k-2to 0:
ml,t(dq)←min(ml,t(dq),ml,t(dq+1)+c)
把minimum加上
Figure GSA00000129445700033
式的ρ(I),并保存为MIN;
第五步,把消息向量中的值与MIN比较,如果小于MIN,则消息向量中对应位置的值用MIN替代,最后对消息向量进行归一化,得到最后的消息值;
第六步,迭代次数加1,重复第三到第五步,直到迭代次数为T;
第七步,级数减1,重复第三到第六步,知道级数变为0;
第八步,最后根据式
Figure GSA00000129445700034
获取每个节点即像素点的最优标签即视差。
优选地,步骤2)所述的利用一致性约束条件对图像进行区域的划分,把图像分为遮挡区域、一致区域和模糊区域是指:首先,对于左视差图dLR利用式dLR(xL,y)-dRL(xL-dLR(xL,y),y)>T检测出右半遮挡区域,然后对于右视差图dRL利用式dRL(xR,y)-dLR(xR+dRL(xR,y),y)>T检测出左半遮挡区域;并分别对左视差图中的右半遮挡区域和右视差图中的左半遮挡区域进行标记;另外,左图像的最左边部分像素和右图像的最右边部分像素点的视差值都赋0;接着,对左视差图中满足式dLR(xL,y)=dRL(xL-dLR(xL,y),y)的像素区域,标记为右一致区域,对于右视差图中满足式dRL(xR,y)=dLR(xR+dRL(xR,y),y)的像素区域,标记为左一致区域;最后,把左视差图中没有被标记的区域,标记为右模糊区域,把右视差图中没有被标记的区域标记为左模糊区域。
优选地,步骤2)所述的插值方法步骤如下:
首先,以左图像为参考,利用式:
Figure GSA00000129445700041
生成左过渡中间视(ILM),其中右半遮挡区域的像素值直接用左图像的对应位置的像素值代替,而右一致性区域和右模糊区域利用插值技术;
接着,以右图像为参考,利用式:
Figure GSA00000129445700042
来生成右过渡中间视图像(IRM);
最后,对左右过渡中间视图像利用式:
Figure GSA00000129445700043
再进行一次插值得到了中间视图。
优选地,得到合成的中间视图像IM中仍然存在没有被映射的区域,采取反向映射的方法,分别在左右图像中寻找其最接近的点,
分别选取满足式
Figure GSA00000129445700044
和式的左右图像中的最佳匹配点,其中两式的自变量的搜索范围分别为式xM≤xL≤xM+(1-a)·dmax和式xM-a·dmax≤xR≤xM;然后利用式a·ILM(xL′,y)+(1-a)·IRM(xR′,y)对没有被映射的区域进行插值,得到了最终的中间视图像。
本发明的优点和效果在于:
1.改进了BP算法,去除了过度平滑的不良效果,进一步提高了视差计算的准确性。
2.设计了新的插值算法,更好地考虑到了立体图像各个部分的特点,提高了虚拟视图的视觉效果和质量。
本发明的其他优点和效果将在下面继续描述。
附图说明
图1是虚拟视图合成流程图。
图2是双目立体平行摄影***获取固定场景图。
图3是线性模型的截断值取不同值时所获的视差图的性能比较。(a)非遮挡区域视差错误率的比较;(b)不连续区域视差错误率的比较;(c)所有区域视差错误率的比较。
图4是平滑项不同设置时获取的视差图:(a)用传统线性模型(截断值取5.0时)获取的视差图;(b)用本发明算法所获取的视差图;(c)对第二列视差图进行优化后的视差图。
图5是Venus图像序列上的合成图:(a-c)为真实图像;(d-f)为使用文献算法的合成图像;(g-i)为使用本发明算法的合成图像。
图6是Venus图像序列使用不同算法产生的残差图:(a-c)为使用文献算法的合成图像;(d-f)为使用本发明算法的合成图像。
具体实施方式
下面结合附图和实施例,对本发明所述的技术方案作进一步的阐述。
本发明基于改进BP算法的中间视合成方法,包括以下步骤:
从视差估计与视图插值两个大的方面对中间视图合成技术进行分析与研究。这里的视差估计目的也是获取稠密可靠的视差图,不过这里我们将采用一种基于改进BP的迭代的方法,来获取每个像素的视差矢量信息,鉴于以前的BP算法利用线性模型计算平滑项时都是单纯的根据相邻像素被赋予的视差标签之间的差值来设置平滑项的截断值,很可能会导致视差图的过度平滑。在这一部分我们提出了一种利用颜色距离来自适应设置平滑项的截断值的方法;在获取了视差图后,我们将进行视图插值,不过,由于遮挡区域的存在,有了稠密的视差图,并不一定能够获得很好的中间视图像,因为,遮挡区域本身根本就不存在匹配像素点。因此,在视图插值之前,需要检测出遮挡区域,并对遮挡区域的视差进行补偿,然后再进行中间视图的插值计算,这里考虑到图像的各区域可能具有不同的特征,我们提出了一种新的插值策略,首先利用一致性约束条件对图像进行区域的划分,把图像分为遮挡区域、一致区域和模糊区域,与此同时进行遮挡区域的补偿,然后根据各个区域本身的特点采取不同的插值来获取中间视图。
在所述的基于改进BP算法的中间视合成技术中,所述的基于改进BP算法的视差计算步骤如下:
第一步,计算第0级时的初始匹配代价,然后对各个级别时的数据项进行初始化;计算各个级别时的节点与其四邻域节点的颜色距离,并对各个级别时的相邻节点之间的颜色距离值进行初始化。
第二步,假设我们共有L级,l=0,1,…,L,每一级的迭代次数为t=0,1,…,T。
第三步,利用式
Figure GSA00000129445700061
对迭代次数为0时的消息进行初始化。然后根据式
Figure GSA00000129445700062
计算每个节点的消息ml,t(dq),并为每个节点选择最小的信息值minimum。
第四步,对计算所得的消息进行如下处理:
for dq from 1 to k-1:
ml,t(dq)←min(ml,t(dq),ml,t(dq-1)+c)
for dq fromk-2to 0:
ml,t(dq)←min(ml,t(dq),ml,t(dq+1)+c)
把minimum加上
Figure GSA00000129445700063
式的ρ(I),并保存为MIN。
第五步,把消息向量中的值与MIN比较,如果小于MIN,则消息向量中对应位置的值用MIN替代,最后对消息向量进行归一化,得到最后的消息值。
第六步,迭代次数加1,重复第三到第五步,直到迭代次数为T。
第七步,级数减1,重复第三到第六步,知道级数变为0;
第八步,最后根据式
Figure GSA00000129445700064
获取每个节点(像素点)的最优标签(视差)。
在所述的基于改进BP算法的中间视合成技术中,所述的利用一致性约束条件对图像进行区域的划分,把图像分为遮挡区域、一致区域和模糊区域是指首先,对于左视差图dLR利用式dLR(xL,y)-dRL(xL-dLR(xL,y),y)>T检测出右半遮挡区域,然后对于右视差图dRL利用式dRL(xR,y)-dLR(xR+dRL(xR,y),y)>T检测出左半遮挡区域。并分别对左视差图中的右半遮挡区域和右视差图中的左半遮挡区域进行标记。另外,左图像的最左边部分像素和右图像的最右边部分像素由于左右摄像机拍摄范围的限制,在视差估计的时候虽然也得到了视差值,但是,事实上其根本不存在对应的匹配像素点,因此根据遮挡区域的定义,也应当对其进行遮挡标记(为了补偿的方便标记的同时,这些像素点的视差值都赋0)。
接着,对左视差图中满足式dLR(xL,y)=dRL(xL-dLR(xL,y),y)的像素区域,我们标记为右一致区域,对于右视差图中满足式dRL(xR,y)=dLR(xR+dRL(xR,y),y)的像素区域,我们标记为左一致区域。最后,我们把左视差图中没有被标记的区域,标记为右模糊区域,把右视差图中没有被标记的区域标记为左模糊区域。这样左右图像分别被分成了半遮挡区域、一致区域和模糊区域三部分。
在所述的基于改进BP算法的中间视合成技术中,所述的插值策略步骤如下:
视图插值的过程分为三步,首先,我们以左图像为参考,利用式
Figure GSA00000129445700071
生成左过渡中间视(ILM),其中右半遮挡区域的像素值直接用左图像的对应位置的像素值代替,而右一致性区域和右模糊区域利用插值技术。接着,我们以右图像为参考,利用式
Figure GSA00000129445700072
来生成右过渡中间视图像(IRM),在生成右过渡中间视图像的时候,我们只处理了左模糊区域和左半遮挡区域,对左一致区域没有处理,这是因为左一致区域和右一致区域中的像素点是一一对应的,因此由其得到的中间视点图像的横坐标值也是相等的,所以在对右一致区域进行插值后,没有必要再对左一致区域进行插值。这样便得到了左右过渡中间视图像。最后,我们对左右过渡中间视图像利用式
Figure GSA00000129445700073
再进行一次插值。这样便得到了中间视图。
经过以上步骤合成的中间视图像IM中仍然存在没有被映射的区域,因此,需要对其进行进一步的处理。为了解决这个问题,采取反向映射的方法,分别在左右图像中寻找其最接近的点,
为此我们分别选取满足式
Figure GSA00000129445700074
和式
Figure GSA00000129445700075
的左右图像中的最佳匹配点,其中两式的自变量的搜索范围分别为式xM≤xL≤xM+(1-a)·dmax和式xM-a·dmax≤xR≤xM。然后利用式a·ILM(xL′,y)+(1-a)·IRM(xR′,y)对没有被映射的区域进行插值,得到了最终的中间视图像。
在三维视频显示***中,摄像机的数目是有限的,只能从特定的视角来描述三维场景。如果想获得自由视角的画面,实现“环视”的效果,解决的方法就是中间视图的合成。中间视图的合成就是根据已知的源图像,来合成位于源图像视点之间的虚拟视点的图像,最简单的情况是平行双目的摄像机***,此时,虚拟视合成即根据左右摄像机摄取的同一场景的图像,生成位于左右参考视点所决定的直线上的中间视图,如图1所示,它主要分为两步:首先,对左右两幅参考图像进行立体匹配,获取每个像素的视差矢量;然后根据左右参考图像中的匹配点对进行插值得到中间新视点的图像。
如图2所示,我们用双目平行摄影***获取包含A到F物体的场景,得到IL和IR左右立体图像对。从图中可以看出,右图像IR中只能看到A、B、C和F物体的投影,而左图像IL中只能看到A、C、E和F物体的投影。我们把像B物体投影区域这样的只能够在右图像看到,而在左图像看不到的像素区域称为左半遮挡区域;把像E物体投影区域这样只能在左图像看到而在右图像看不到的像素区域称为右半遮挡区域;而把像D这样在左右图像中均看不到的像素区域定义为全遮挡区域。
在中间视图的合成时,像D这样的全遮挡区域对于基线上的某个虚拟的视点来说,有可能是半遮挡区域,然而考虑到从左右图像对中得不到物体D的任何信息,同时也为了简化遮挡区域的检测与补偿的难度,我们不考虑像D这样的遮挡区域,而假设中间视点处摄像机所获取的图像上的任意物体,都至少能够在左右图像中的任一图像中看的到。
实验选用经典的立体图像对Tsukuba、Venus、Teddy、Cones进行测试。实验在CPU为Pentium43.4GHz的PC机上运行所得,操作***为WindowsXP SP2,编程工具为VC++6.0。在算法的实现时,我们设置了5级的BP算法,每个级别时的迭代次数分别为{10,10,5,5,5}。算法的参数取值如下表所示。
图3比较了平滑项采用线性模型计算,线性模型取不同截断值时所获取的视差图的性能,当平滑项利用式V(x)=min(c|x|,ρ(I))计算时,我们截断值分别取1.0、3.0、5.0、7.0、9.0,得到前五个点。采用本发明算法根据颜色距离自适应的设置截断值计算平滑项得到最后一个点。
从图中可以看到,根据颜色距离自适应的设置线性模型截断值的方法计算平滑项所获得的视差图,无论是整体误匹配率(all),还是在视差不连续区域(disc.)以及非遮挡区域(nocc.)的误匹配率,基本都处于最低的位置,尤其是对Venus、Teddy及Cones图像。由此可以看出,本发明提出的根据颜色距离自适应设置线性模型截断值的算法,可以为平滑代价的最大最小值设置一个动态的范围,不仅可以避免视差图的过度平滑,而且有利于立体匹配正确率的提高。
根据这种自适应设置线性模型截断值的方法计算平滑项所获得的视差图如图4所示。
我们在这里将本发明提出的算法(实验结果中用Proposed表示)和一种当前最新文献的由Changming Jin,Hong Jeong提出的虚拟视图合成算法(实验结果中用Other表示)进行比较。分别从主观观看、残差图及峰值信噪比三个方面来评价算法结果。
实验时,使用Venus、Teddy、Cones图像序列,左右参考图像分别为图像序列中的第二和第六帧图像,由于获取每帧图像的视点之间的距离相等,这里我们令a分别为0.25、0.5、0.75来合成第三、第四、第五帧图像。
我们首先采用改进BP算法视差估计方法来获取立体图像对的左右视差图。如图5所示,我们列出了Venus图像序列在a分别取值0.25、0.5、0.75时采用发明提出算法和文献中算法合成的虚拟视点的图像。
先简单的所获得虚拟合成视图来看,本发明所述的中间视合成算法可以得到具有照片感的虚拟视点图像,比文献中的算法更为接近于真实图像。
为了更清楚地看出不同算法性能的区别,图6列出了相对应的残差图像。残差图中的白色点线就是虚拟合成图像与真实图像的差异点。可以看出,文献中算法得出的结果白色点线更为清晰,也就是说错误率更高。另外,错误点大部分发生在物体的边缘区域,所以边缘的处理还是将来要进一步优化的一个问题。
本发明算法在非遮挡,不连续和全部区域的错误率三个方面的错误率都低于文献中的算法。对于背景较复杂的图像如Venus,错误率可以减到文献算法的30%;对于背景较复杂的图像如Teddy和Cones,错误率可以减到文献算法的80%。
最后,我们比较了不同虚拟视合成算法的峰值信噪比,我们可以得出,对于背景比较简单的图像(Venus),本发明算法比文献中算法提高了0.1到0.3dB,而对于比较复杂的图像(Teddy和Cones),本发明算法比文献中算法提高了0.4到1dB。

Claims (4)

1.一种基于改进BP算法的中间视图合成方法,其特征在于包括如下步骤:
步骤1),采用基于改进BP的迭代的方法,来获取每个像素的视差矢量信息;
其中,所述的基于改进BP的迭代的方法如下:
第一步,计算第0级时的初始匹配代价,然后对各个级别时的数据项进行初始化;计算各个级别时的节点与其四邻域节点的颜色距离,并对各个级别时的相邻节点之间的颜色距离值进行初始化;
第二步,共有L级,l=0,1,…,L,每一级的迭代次数为t=0,1,…,T,L和T都为大于1的自然数;
第三步,利用式
Figure FSB00000755321100011
其中m(d)表示消息,T代表在l-1级时的最大迭代次数,(x,y)为节点p在第l级时的位置,u为l-1级中包含第l级中节点p的节点,对迭代次数为0时的消息进行初始化;然后根据式 
Figure FSB00000755321100012
其中c是个常量值,|dp-dq|表示视差差值, 
Figure FSB00000755321100013
计算每个节点的消息ml,t(dq),并为每个节点选择最小的信息值minimum;
第四步,对计算所得的消息进行如下处理:
Figure FSB00000755321100014
把minimum加上
Figure FSB00000755321100015
式的ρ(I),其中,τ是颜色距离的截断值,T1和T2分别为邻域节点之间的标签之差大于1时的最小和最大平滑代价,I为颜色距离值,并保存为MIN;
第五步,把消息向量中的值与MIN比较,如果小于MIN,则消息向量中对应位置的值用MIN替代,最后对消息向量进行归一化,得到最后的消息值;
第六步,迭代次数加1,重复第三到第五步,直到迭代次数为T; 
第七步,级数减1,重复第三到第六步,直到级数变为0;
第八步,最后根据式
Figure FSB00000755321100021
其中Dq(dq)表示数据项,获取每个节点即像素点的最优标签即视差;
步骤2),检测出遮挡区域,并对遮挡区域的视差进行补偿,然后再进行中间视图的插值计算:首先利用一致性约束条件对图像进行区域的划分,把图像分为遮挡区域、一致区域和模糊区域,与此同时进行遮挡区域的补偿,然后根据遮挡区域、一致区域和模糊区域本身的特点采取不同的插值来获取中间视图。
2.根据权利要求1所述的基于改进BP算法的中间视图合成方法,其特征在于步骤2)所述的利用一致性约束条件对图像进行区域的划分,把图像分为遮挡区域、一致区域和模糊区域是指:首先,对于左视差图dLR利用式dLR(xL,y)-dRL(xL-dLR(xL,y),y)>T,其中T为阈值,检测出右半遮挡区域,然后对于右视差图dRL利用式dRL(xR,y)-dLR(xR+dRL(xR,y),y)>T检测出左半遮挡区域;并分别对左视差图中的右半遮挡区域和右视差图中的左半遮挡区域进行标记;另外,左视差图的最左边部分像素和右视差图的最右边部分像素点的视差值都赋0;接着,对左视差图中满足式dLR(xL,y)=dRL(xL-dLR(xL,y),y)的像素区域,标记为右一致区域,对于右视差图中满足式dRL(xR,y)=dLR(xR+dRL(xR,y),y)的像素区域,标记为左一致区域;最后,把左视差图中没有被标记的区域,标记为右模糊区域,把右视差图中没有被标记的区域标记为左模糊区域。
3.根据权利要求1所述的基于改进BP算法的中间视图合成方法,其特征在于步骤2)所述的插值方法步骤如下:
首先,以左视差图为参考,利用式:
Figure FSB00000755321100022
其中a为常量,IL、IR分别表示左右视差图,生成左过渡中间视图像ILM,其中右半遮挡区域的像素值直接用左视差图的对应位置的像素值代替,而右一致性区域和右模糊区域利用插值技术;
接着,以右视差图为参考,利用式: 
Figure FSB00000755321100031
来生成右过渡中间视图像IRM
最后,对左右过渡中间视图像利用式:
Figure FSB00000755321100032
再进行一次插值得到了中间视图。
4.根据权利要求3所述的基于改进BP算法的中间视图合成方法,其特征在于得到合成的中间视图IM中仍然存在没有被映射的区域,采取反向映射的方法,分别在左右视差图中寻找其最接近的点,
分别选取满足式
Figure FSB00000755321100033
和式 
Figure FSB00000755321100034
的左右视差图中的最佳匹配点,其中两式的自变量的搜索范围分别为式xM≤xL≤xM+(1-a)·dmax和式xM-a·dmax≤xR≤xM,arg表示后式取最小值时对应的x;然后利用式a·ILM(xL′,y)+(1-a)·IRM(xR′,y)对没有被映射的区域进行插值,得到了最终的中间视图像。 
CN2010101826345A 2010-05-25 2010-05-25 基于改进bp算法的中间视合成方法 Active CN101873508B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010101826345A CN101873508B (zh) 2010-05-25 2010-05-25 基于改进bp算法的中间视合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010101826345A CN101873508B (zh) 2010-05-25 2010-05-25 基于改进bp算法的中间视合成方法

Publications (2)

Publication Number Publication Date
CN101873508A CN101873508A (zh) 2010-10-27
CN101873508B true CN101873508B (zh) 2012-07-04

Family

ID=42998124

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010101826345A Active CN101873508B (zh) 2010-05-25 2010-05-25 基于改进bp算法的中间视合成方法

Country Status (1)

Country Link
CN (1) CN101873508B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102802004A (zh) * 2012-08-15 2012-11-28 上海易维视科技有限公司 裸眼3d模组

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102075779B (zh) * 2011-02-21 2013-05-08 北京航空航天大学 一种基于块匹配视差估计的中间视图合成方法
CN102254348B (zh) * 2011-07-25 2013-09-18 北京航空航天大学 一种基于自适应视差估计的虚拟视点绘制方法
CN102447934B (zh) * 2011-11-02 2013-09-04 吉林大学 稀疏镜头采集的组合立体图像***中立体元的合成方法
CN103593641B (zh) * 2012-08-16 2017-08-11 株式会社理光 基于立体摄像机的物体检测方法和装置
CN104766275B (zh) * 2014-01-02 2017-09-08 株式会社理光 稀疏视差图稠密化方法和装置
CN105007478A (zh) * 2015-07-08 2015-10-28 南京信息工程大学 一种基于mean shift立体匹配的视图合成方法
CN106530409B (zh) * 2016-11-03 2019-08-27 浙江大学 立体匹配中局部区域一致性对应方法
CN106648109A (zh) * 2016-12-30 2017-05-10 南京大学 一种基于三视角变换的真实场景实时虚拟漫游***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1687961A (zh) * 2005-04-19 2005-10-26 浙江大学 一种计算机辅助的国画真伪鉴别方法
CN101256625A (zh) * 2007-12-19 2008-09-03 重庆大学 多方法结合的人耳图像边缘提取方法
CN101312540A (zh) * 2008-07-03 2008-11-26 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
CN101605270A (zh) * 2009-07-16 2009-12-16 清华大学 生成深度图的方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7599547B2 (en) * 2005-11-30 2009-10-06 Microsoft Corporation Symmetric stereo model for handling occlusion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1687961A (zh) * 2005-04-19 2005-10-26 浙江大学 一种计算机辅助的国画真伪鉴别方法
CN101256625A (zh) * 2007-12-19 2008-09-03 重庆大学 多方法结合的人耳图像边缘提取方法
CN101312540A (zh) * 2008-07-03 2008-11-26 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
CN101605270A (zh) * 2009-07-16 2009-12-16 清华大学 生成深度图的方法和装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102802004A (zh) * 2012-08-15 2012-11-28 上海易维视科技有限公司 裸眼3d模组
CN102802004B (zh) * 2012-08-15 2016-06-01 上海易维视科技有限公司 裸眼3d模组

Also Published As

Publication number Publication date
CN101873508A (zh) 2010-10-27

Similar Documents

Publication Publication Date Title
CN101873508B (zh) 基于改进bp算法的中间视合成方法
Chang et al. Content-aware display adaptation and interactive editing for stereoscopic images
US8711204B2 (en) Stereoscopic editing for video production, post-production and display adaptation
US9445072B2 (en) Synthesizing views based on image domain warping
US9414048B2 (en) Automatic 2D-to-stereoscopic video conversion
Wang et al. Stereobrush: interactive 2d to 3d conversion using discontinuous warps
Feng et al. Object-based 2D-to-3D video conversion for effective stereoscopic content generation in 3D-TV applications
Wu et al. Repetition-based dense single-view reconstruction
US8666146B1 (en) Discontinuous warping for 2D-to-3D conversions
US20150022631A1 (en) Content-aware display adaptation methods and editing interfaces and methods for stereoscopic images
CN101287142A (zh) 基于双向跟踪和特征点修正的平面视频转立体视频的方法
JP2021535466A (ja) シーンの色及び深度の情報を再構成するための方法及びシステム
JP2014078095A (ja) 画像処理装置、画像処理方法、及びプログラム
CN103081476A (zh) 利用深度图信息转换三维图像的方法和设备
CN103929634A (zh) 3d动画效果产生方法和***
CN102075779A (zh) 一种基于块匹配视差估计的中间视图合成方法
CN113538667B (zh) 动态场景光场重建方法及装置
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
CN103581650A (zh) 双目3d视频转多目3d视频的方法
CN103826032A (zh) 深度图后期处理方法
CN105657401A (zh) 一种裸眼3d显示方法、***及裸眼3d显示装置
Hsu et al. Spatio-temporally consistent view synthesis from video-plus-depth data with global optimization
CN103634584B (zh) 一种多视点3d视频合成方法
Devernay et al. Adapting stereoscopic movies to the viewing conditions using depth-preserving and artifact-free novel view synthesis
Sharma Uncalibrated camera based content generation for 3D multi-view displays

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: STATE GRID CORPORATION OF CHINA JIANGSU ELECTRIC P

Effective date: 20140609

Owner name: INFORMATION COMMUNICATION BRANCH JIANGSU ELECTRIC

Free format text: FORMER OWNER: SOWTHEAST UNIV.

Effective date: 20140609

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 215123 SUZHOU, JIANGSU PROVINCE TO: 210024 NANJING, JIANGSU PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20140609

Address after: 210024 No. 20 West Beijing Road, Jiangsu, Nanjing

Patentee after: Information & Telecommunication Branch of State Grid Jiangsu Electric Power Company

Patentee after: State Grid Corporation of China

Patentee after: Jiangsu Electric Power Company

Address before: 215123 Jiangsu city of Suzhou province Dushu Lake Industrial Park High Linquan parish Street No. 399

Patentee before: Southeast University