CN101312540A - 基于深度和遮挡信息的虚拟视点合成方法 - Google Patents

基于深度和遮挡信息的虚拟视点合成方法 Download PDF

Info

Publication number
CN101312540A
CN101312540A CN 200810062811 CN200810062811A CN101312540A CN 101312540 A CN101312540 A CN 101312540A CN 200810062811 CN200810062811 CN 200810062811 CN 200810062811 A CN200810062811 A CN 200810062811A CN 101312540 A CN101312540 A CN 101312540A
Authority
CN
China
Prior art keywords
image
virtual
view
visual point
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN 200810062811
Other languages
English (en)
Other versions
CN100576934C (zh
Inventor
冯雅美
李东晓
张明
石冰
骆凯
谢贤海
何赛军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wan D Display Technology (shenzhen) Co Ltd
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN 200810062811 priority Critical patent/CN100576934C/zh
Publication of CN101312540A publication Critical patent/CN101312540A/zh
Application granted granted Critical
Publication of CN100576934C publication Critical patent/CN100576934C/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于深度和遮挡信息的虚拟视点合成方法。包括以下步骤:1)确定基于深度图像的绘制方法的3D绘制方程;2)根据参考视点与虚拟视点的空间位置,制定像素绘制顺序;3)利用基于深度图像的水平半像素绘制方法,参考主视点,绘制得到虚拟视点的图像;4)根据辅视点的遮挡信息,对虚拟视点图像进行遮挡补偿,得到高分辨率的虚拟视点图像;5)对高分辨率的图像进行变换,得到原始分辨率的图像;6)利用一种非对称的线性插值方法进行残余的空洞补偿;7)进行块效应平滑,得到高质量的虚拟视点合成图像。本发明适用于平行光轴相机阵列模型,待合成的虚拟视点在主视点和辅视点之间,可以高效的合成高质量的虚拟视点图像。

Description

基于深度和遮挡信息的虚拟视点合成方法
技术领域
本发明涉及图像处理领域,尤其涉及一种基于深度和遮挡信息的虚拟视点合成方法。
背景技术
随着视频相关技术的发展,人们对于下一代视频应用逐渐追求自由视点和立体视觉,这要求在显示端可以完整重建相应的三维场景。
在显示端要得到自由立体视觉,重建相应的三维场景,即需要得到该三维场景的多视点以至任意视点的视频图像。针对这一目的,现在主要有两种途径来实现:一种是基于模型的3D建模方法;另一种是基于图像的合成方法。基于模型的3D建模方法重建的视点图像质量更高,但同时运算复杂度也非常高,其复杂度随着场景内容而显著变化,且一般需要特殊的图像处理硬件才能实现;基于图像的合成方法相对来说复杂度比较低,更适合自然三维场景的视点重建。基于图像的的视点重建方法是通过一个或多个视点(参考视点)图像来重建其他视点(虚拟视点)的图像,一般参考视点越多,虚拟视点的图像也越好。参考视点个数的增多,对网络的传输带宽带来了巨大的挑战。因此,一方面为了节省网络带宽,另一方面为了得到真实的自由立体视觉体验,急切需要一种高效的虚拟视点合成方法。
基于图像的的虚拟视点合成方法,现在的实现途径主要有两种。一种是基于多视点视频编码(Multi-view Video Coding,MVC)的虚拟视点合成方法。MVC,它利用各个视点之间相关性来进行压缩,它编码主视点的完整二维视频信息图像,以及其余每一路视点的视差矢量与残差,其码率随着视点个数的增加线性增长,在解码端可以通过插值相邻视点的图像来生成虚拟视点图像。另一种方法是ATTEST采用的二维视频加其深度的虚拟视点合成方法。ATTEST***在编码端只编码一路参考视频及其深度信息,在解码端采用基于深度图像的绘制方法(depth image based rendering,DIBR),可以重建出任意视点的二维图像。与基于MVC的虚拟视点合成方法相比,这种二维视频加其深度的方法只需编码一路二维视频和一路深度图,网络传输负担比较小,而在解码端可以恢复出任一位置的虚拟视点图像;但是由于物体相互遮挡现象的存在,利用深度信息恢复得到的虚拟视点图像内部会出现明显的空洞,并且随着虚拟视点的位置逐渐偏离参考视点,空洞现象会更加严重,导致虚拟视点的质量逐渐下降。
为了控制码率,MVC编码方法对被编码的视点个数有比较大的限制,导致参考视点比较少,在解码端只能插值出有限位置的虚拟视点;并且由于物体在不同视点的成像位置受其景深的影响很大,且不同的物体一般其景深可能差别很大,因此很难提供一种高效的基于邻近二维图像的视点插值方法,以比较精确的恢复出虚拟视点。
ATTEST采用的二维视频加其深度的方法可以恢复出任意位置的虚拟视点图像,其关键技术是基于深度图像的绘制方法。基于深度图像的绘制方法是一种利用参考图像及其对应的深度信息来合成场景中虚拟视点的过程。基于深度图像的绘制方法主要可以分为以下两步:(1)利用深度信息,将参考图像上所有的像素点重投影到它们对应的3维空间中的位置;(2)这些3维空间点再被投影到虚拟视点的图像平面。这个从2维到3维的重投影以及从3维再到2维的投影称为3维图像变换,其核心是其绘制方程,可表示为: z ^ m ^ = z A ^ R A - 1 m + A ^ T ; 其中,m和
Figure A20081006281100072
分别是参考图像和被绘制图像中的像素坐标;z和
Figure A20081006281100073
分别是三维空间点在参考相机和被绘制相机坐标系下的深度值;矩阵A和
Figure A20081006281100074
分别是参考相机和被绘制相机的内参矩阵;R和T分别指被绘制相机相对于参考相机的旋转矩阵和平移矩阵。现有的基于深度图像的绘制方法,其主要的缺点是不能有效的解决遮挡问题,导致绘制得到的虚拟视点图像质量不高。
遮挡现象产生的机理如图4所示。其根本原因在于场景中深度不是一致连续的,在某些地方是存在突变的,一般出现的位置是物体的边界附近。遮挡问题可以分为两个类别:(1)重叠问题;(2)空洞问题;空洞问题再细分还可以分为局部空洞以及全局空洞。重叠问题和空洞问题都是相对而言的,视点选取发生变化时,原来的重叠问题会转变成空洞问题,而原来的空洞问题也有可能转变成重叠问题。重叠问题是指:在参考视点成像平面,成像在不同位置的两个或几个物体在新视点中成像在同一个位置,出现重叠,这时就得判断在新视点中哪个物体是可见的。空洞问题是指:在参考视点不可见的物体在新视点中变得可见,当根据参考视点预测新视点时,这些像素点不能通过参考视点的任一像素预测得到,在这些位置就出现所谓的空洞。现在解决重叠问题最基本的方法是Z-buffer算法。这种方法可以比较好的消除重叠效应,只是,这种算法虽然对任何的相机阵列通用,但实现的代价比较高。解决空洞问题,现在主要有两种方法:一种是利用背景、纹理、相邻像素等对空洞进行填充;另一种是对深度图进行预处理,主要对其进行平滑处理,平滑深度的不连续性,以减少图像绘制后产生的空洞。填充技术不能从本质上解决空洞问题,特别是对遮挡现象比较严重的视频序列效果不理想;而平滑预处理技术由于对物体进行了变形,得到的虚拟视点的视觉质量有比较明显的下降。
要恢复比较精确的虚拟视点,避免遮挡问题带来的图像质量的下降,弥补基于MVC、二维视频加其深度这两种虚拟视点合成方法带来的不足,现在还有的方法是采用多参考图像多深度图的虚拟视点合成方法,但是这样得传输更多的深度和辅助信息,码率显著增加,对传输网络的负担加重,不适合实际应用。
一方面要解决基于MVC、二维视频加其深度这两种虚拟视点合成方法带来的不足,另一方面要防止码率和复杂度的加剧。基于编码效率和虚拟视点质量的考虑,在虚拟视点的合成过程中,我们提出在二维参考视频加其深度的基础上,结合辅视点的遮挡信息,这样可以恢复出质量比较好的虚拟视点图像。参考视点、辅视点、虚拟视点的位置如图2所示,辅视点的遮挡信息包括根据参考视点预测辅视点得到的空洞的像素值及其对应的深度值,如图8所示,这部分遮挡信息可以在编码端通过辅助数据传输,虚拟视点合成的总体原理框图如图3所示(由于遮挡信息是与视点位置一一对应的,若对需要恢复的每一路虚拟视点都传一路遮挡信息,随着虚拟视点个数的增加,数据量也会线性增长。因此,在编码端一般只传一路或少数几路视点的遮挡信息,有遮挡信息的视点称为辅视点)。二维视频加其深度恢复虚拟视点的方法主要的缺点是空洞问题很难解决,而空洞问题的出现是由于某些物体区域在参考视点不可见,而在虚拟视点可见,这些区域就不能从参考视点预测得到,导致在虚拟视点相应位置出现空洞。考虑到这些区域能在虚拟视点可见,在参考视点不可见,那么可能在这两视点之外的某些视点又是可见的,这样就可以根据另外一个视点的遮挡信息来解决虚拟视点的空洞问题。如图2所示,当虚拟视点位置在参考视点和辅视点中间,参考视点和辅视点的基线距离在一定范围内的时候,那么几乎可以这么说:在虚拟视点可见的区域不是在参考视点可见,就是在辅视点可见,或者在两视点中都可见。这样,我们提出:根据参考视点的视频图像与其深度图,以及辅视点相对于参考视点的遮挡信息,就可以比较精确的恢复位置在参考视点和辅视点之间的任意位置的虚拟视点图像。
我们提出的这种基于深度和遮挡信息的虚拟视点合成方法,与基于MVC和二维视频加其深度这两种虚拟视点合成方法相比,一方面由于其解决了遮挡问题,因此可以合成质量更好的虚拟视点图像,另一方面它对传输网络的负担比较低,它只需要一路参考视频图像,一路与之对应的深度信息,以及一路辅视点相对于参考视点的遮挡信息,这个遮挡信息包括根据参考视点对辅视点进行预测后得到的空洞的像素值及其对应的深度值。由于一般空洞覆盖范围是比较小的,所以这路遮挡信息的数据量相比于深度图或视频图像是非常小的。同时,在平行光轴相机阵列模型下,在虚拟视点的合成过程中,我们提出了一种具有一定像素绘制顺序、基于深度图像的水平半像素绘制方法,以提高匹配的精度和基本解决重叠问题,从而可以更精确地合成虚拟视点图像。
发明内容
本发明的目的是克服现有技术的不足,提供一种基于深度和遮挡信息的虚拟视点合成方法。
包括以下步骤:
1)在平行光轴相机阵列模型下,确定基于深度图像的绘制方法的3D绘制方程;
2)根据参考视点与虚拟视点的空间位置,制定像素绘制顺序;
3)按照制定的绘制顺序,利用基于深度图像的水平半像素绘制方法,参考主视点,绘制得到虚拟视点的图像;
4)根据辅视点的遮挡信息,利用基于深度图像的水平半像素绘制方法,对虚拟视点图像进行遮挡补偿,得到高分辨率的虚拟视点图像;
5)对高分辨率的虚拟视点图像进行变换,得到原始分辨率的虚拟视点图像;
6)利用非对称的线性插值方法进行残余的空洞补偿;
7)进行块效应平滑,得到高质量的虚拟视点合成图像。
所述的根据参考视点与虚拟视点的空间位置,制定像素绘制顺序步骤:
a)在平行光轴相机阵列模型下,当重叠发生时,根据像素在参考视点的位置来判断它们在虚拟视点的遮挡关系;
虚拟视点在被绘制之前,所有像素值都为零;在参考视点x1位置的像素,经过绘制后在虚拟视点的x2位置,若此时x2位置的像素值不为零,则重叠发生。根据给定的平行相机模型,根据
x 2 = x 1 - f c z
f为相机焦距,c为虚拟视点相对于参考视点的水平位移,z为景深,规定物体a遮挡物体b应满足:
Figure A20081006281100101
x1(a),x1(b)为物体a,b成像在参考视点的水平坐标;
x2(a),x2(b)为物体a,b成像在被绘制视点的水平坐标
b)根据a)中得到的物体遮挡应满足的关系,结合参考视点与虚拟视点的空间位置,制定一种在给定相机模型下进行图像绘制时可以基本解决重叠问题的图像绘制顺序,若虚拟视点在参考视点右侧,则对于参考视点中的像素,按照逐行从左至右的参考顺序进行绘制;若虚拟视点在参考视点左侧,则对于参考视点中的像素,按照逐行从右至左的参考顺序进行绘制。
所述的按照制定的绘制顺序,利用基于深度图像的水平半像素绘制方法,参考主视点,绘制得到虚拟视点的图像步骤:
c)提高基于深度图像的绘制方法的匹配精度,得到一种基于深度图像的水平半像素绘制方法;
①按照第一步得到的深度图像绘制方程,计算物体在虚拟视点的精确坐标(x,y);
②把H*V分辨率的虚拟视点图像坐标转化为2H*V分辨率的图像坐标,水平坐标x的取值范围从[0,H]扩展为[0,2H];
③对坐标(x,y)进行水平半像素修正,转变为(x2,y),其中x2=2x,再对x2进行就近取整;
d)利用基于深度图像的水平半像素绘制方法,按照制定的绘制顺序,参考主视点,绘制得到虚拟视点的图像;
④按照制定的绘制顺序,对于主视点的任一像素(x1,y),利用基于深度图像的水平半像素绘制方法,计算其在虚拟视点中的坐标(x2,y),若没有检测到重叠,则将虚拟视点中坐标为(x2,y)的像素值与主视点中坐标为(x1,y)的像素值一致;
⑤若检测到重叠,当虚拟视点在主视点右侧时,直接覆盖坐标(x2,y)的像素值,当虚拟视点在参考视点左侧时,保留坐标(x2,y)原来的像素值;
⑥重复步骤④⑤,直至主视点图像中所有像素遍历完成,最后生成高分辨率的虚拟视点的图像。
所述的根据辅视点的遮挡信息,利用基于深度图像的水平半像素绘制方法,对虚拟视点图像进行遮挡补偿,得到高分辨率的虚拟视点图像步骤:
e)得到辅视点的遮挡信息,虚拟视点、辅视点的空间位置;
遮挡信息包括辅视点空洞的像素值和深度值;根据平行光轴相机阵列模型,虚拟视点和辅视点也只有水平位移;遮挡信息和虚拟视点、辅视点的空间位置可以在编码端编码这些信息,在解码端从编码数据流中的辅助数据部分解码得到;
f)按照步骤2)制定的绘制顺序,利用基于深度图像的水平半像素绘制方法方法,基于辅视点的遮挡信息,对虚拟视点图像进行遮挡信息的绘制,实现遮挡补偿;
所述的对高分辨率的虚拟视点图像进行变换,得到原始分辨率的虚拟视点图像步骤:
g)确定一种从高分辨率转变为低分辨率的变换方法;
⑦令(x,y)为图像的像素坐标;函数f(x,y),g(x,y)分别为H*V图像坐标为(x,y)以及2H*V图像坐标为(x,y)位置的像素值;函数h(x,y)表示:当g(x,y)不等于零时,h(x,y)=1;当g(x,y)等于零时,h(x,y)=0;
⑧函数f(x,y)与g(x,y)的映射关系是:
f ( x , y ) = g ( 2 x + 1 , y ) + g ( 2 x , y ) + g ( 2 x - 1 , y ) h ( 2 x + 1 , y ) + h ( 2 x , y ) + h ( 2 x - 1 , y ) ;
h)利用步骤⑧的映射关系,对高分辨率的虚拟视点图像进行变换,生成具有原始分辨率的虚拟视点图像。
所述的利用非对称的线性插值方法进行残余的空洞补偿步骤:
i)对残余的空洞,采用一种在垂直和水平方向非对称的线性插值方法进行空洞补偿;
⑨检测空洞位置,设为(x,y);函数f(x,y)表示坐标为(x,y)像素值;函数h(x,y)表示:当f(x,y)不等于零时,h(x,y)=1;当f(x,y)等于零时,h(x,y)=0;门限值t1,t2,其中t1>t2
⑩空洞(x,y)的补偿方程为:
Figure A20081006281100121
利用步骤⑩中的补偿方程对虚拟视点图像进行残余的空洞补偿,可以得到视觉质量更好的虚拟视点图像。
本发明适用于平行光轴相机阵列模型,待合成的虚拟视点在主视点和辅视点之间,可以高效的合成高质量的虚拟视点图像。相比于其他虚拟视点合成方法,本发明通过对现有的基于深度图像的绘制方法进行优化,提高了绘制的精度;在绘制过程中采用特定的像素绘制顺序,基本解决了绘制过程中的重叠问题;根据参考视点以及辅视点的遮挡信息进行双重绘制,解决了遮挡问题,大大提高合成的虚拟视点的图像质量。
附图说明
图1为平行光轴相机模型示意图;
图2为主视点、虚拟视点、辅视点位置示意图;
图3为合成虚拟视点的总体原理示意图;
图4为产生遮挡的原理示意图;
图5为基于一般深度图像的绘制方法的结果示意图;
图6为高分辨率虚拟视点图像示意图;
图7为原始分辨率虚拟视点图像示意图;
图8为遮挡信息内容示意图。
具体实施方式
基于深度和遮挡信息的虚拟视点合成方法包括以下步骤:
1)在平行光轴相机阵列模型下,确定基于深度图像的绘制方法的3D绘制方程;
参考视点与被绘制视点的相机符合平行光轴相机阵列模型,如图1所示,这样可以简化基于深度图像的绘制方法的绘制方程。
参照图1所示的平行光轴相机阵列模型,相机O1为参考视点,相机O2为被绘制视点,相机O1的坐标系与世界坐标系重合,相机焦距都为f,被绘制视点O2相对于参考视点O1只有水平方向位移c,没有旋转,同一物体相对于参考视点与被绘制视点的深度z是一样的,那么其成像在两个视点的坐标系中也只有水平方向的位移。在对于具有景深z的某物体A,其世界坐标为(x,y,z),则物体A成像在参考视点O1成像平面的水平坐标是:
x 1 = f x z
成像在被绘制视点O2成像平面的水平坐标是:
x 2 = f x - c z
已知物体在参考视点中的坐标(x1,y1),其绘制在被绘制视点中的坐标是(x2,y2),则基于深度图像的绘制方法的绘制方程可以化简为:
x 2 = x 1 - f c z - - - ( 1 )
即在平行光轴相机模型条件下,虚拟视点的基于深度图像的绘制方法为:
对于参考视点的任一像素(x1,y),利用式1,算出其在被绘制视点中的新坐标(x2,y),然后将被绘制视点中坐标为(x2,y)的像素值与参考视点中坐标为(x1,y)的像素的值一致,这样就可以完成图像绘制,得到新视点的图像。
2)根据参考视点与虚拟视点的空间位置,制定像素绘制顺序;
3)按照制定的绘制顺序,利用基于深度图像的水平半像素绘制方法,参考主视点,绘制得到虚拟视点的图像;
4)根据辅视点的遮挡信息,利用基于深度图像的水平半像素绘制方法,对虚拟视点图像进行遮挡补偿,得到高分辨率的虚拟视点图像;
5)对高分辨率的虚拟视点图像进行变换,得到原始分辨率的虚拟视点图像;
6)利用非对称的线性插值方法进行残余的空洞补偿;
7)进行块效应平滑,得到高质量的虚拟视点合成图像。
所述的根据参考视点与虚拟视点的空间位置,制定像素绘制顺序步骤:
a)在平行光轴相机阵列模型下,当重叠发生时,根据像素在参考视点的位置来判断它们在虚拟视点的遮挡关系;
虚拟视点在被绘制之前,所有像素值都为零;在参考视点x1位置的像素,经过绘制后在虚拟视点的x2位置,若此时x2位置的像素值不为零,则重叠发生。根据给定的平行相机模型,根据
x 2 = x 1 - f c z
f为相机焦距,c为虚拟视点相对于参考视点的水平位移,z为景深,规定物体a遮挡物体b应满足:
Figure A20081006281100142
x1(a),x1(b)为物体a,b成像在参考视点的水平坐标;
x2(a),x2(b)为物体a,b成像在被绘制视点的水平坐标
b)根据a)中得到的物体遮挡应满足的关系,结合参考视点与虚拟视点的空间位置,制定一种在给定相机模型下进行图像绘制时可以基本解决重叠问题的图像绘制顺序,若虚拟视点在参考视点右侧,则对于参考视点中的像素,按照逐行从左至右的参考顺序进行绘制;若虚拟视点在参考视点左侧,则对于参考视点中的像素,按照逐行从右至左的参考顺序进行绘制。
当重叠发生时,若虚拟视点在参考视点右侧,则一定是在参考视点中水平坐标比较大的物体遮挡水平坐标比较小的物体;反之,若虚拟视点在参考视点左侧,则一定是在参考视点中水平坐标比较小的物体遮挡水平坐标比较大的物体。参考视点(主视点),虚拟视点,辅视点的位置如图2所示时,则对于参考视点中的像素,按照逐行从左至右的参考顺序进行绘制;
所述的按照制定的绘制顺序,利用基于深度图像的水平半像素绘制方法,参考主视点,绘制得到虚拟视点的图像步骤:
根据式1表示的基于深度图像的绘制方法绘制方程对图像进行绘制得到的绘制图像如图5所示。可以看出用一般的基于深度图像的绘制方法得到的新像素的位置大部分会落在非整像素位置上,若直接把就近像素的值赋给最近的整像素点,在就近像素与该整像素点距离比较远时造成的误差比较大。一种简单而有效的方法是:对图像水平方向进行半像素的深度图像绘制。
c)提高基于深度图像的绘制方法的匹配精度,得到一种基于深度图像的水平半像素绘制方法;
①按照第一步得到的深度图像绘制方程,计算物体在虚拟视点的精确坐标(x,y);
②把H*V分辨率的虚拟视点图像坐标转化为2H*V分辨率的图像坐标,水平坐标x的取值范围从[0,H]扩展为[0,2H];
③对坐标(x,y)进行水平半像素修正,转变为(x2,y),其中x2=2x,再对x2进行就近取整;
d)利用基于深度图像的水平半像素绘制方法,按照制定的绘制顺序,参考主视点,绘制得到虚拟视点的图像;
④按照制定的绘制顺序,对于主视点的任一像素(x1,y),利用基于深度图像的水平半像素绘制方法,计算其在虚拟视点中的坐标(x2,y),若没有检测到重叠,则将虚拟视点中坐标为(x2,y)的像素值与主视点中坐标为(x1,y)的像素值一致;
⑤若检测到重叠,当虚拟视点在主视点右侧时,直接覆盖坐标(x2,y)的像素值,当虚拟视点在参考视点左侧时,保留坐标(x2,y)原来的像素值;
⑥重复步骤④⑤,直至主视点图像中所有像素遍历完成,最后生成高分辨率的虚拟视点的图像。
所述的根据辅视点的遮挡信息,利用基于深度图像的水平半像素绘制方法,对虚拟视点图像进行遮挡补偿,得到高分辨率的虚拟视点图像步骤:
e)得到辅视点的遮挡信息,虚拟视点、辅视点的空间位置;
遮挡信息包括辅视点空洞的像素值和深度值;根据平行光轴相机阵列模型,虚拟视点和辅视点也只有水平位移;遮挡信息和虚拟视点、辅视点的空间位置可以在编码端编码这些信息,在解码端从编码数据流中的辅助数据部分解码得到;
辅视点的遮挡信息图中有用的是图9所示中粗实线内的信息,粗实线外的像素值及其深度值都为零,在进行遮挡信息绘制时,若像素值为零,则直接跳过,不需要用基于深度图像的水平半像素绘制。
f)按照步骤2)制定的绘制顺序,利用基于深度图像的水平半像素绘制方法方法,基于辅视点的遮挡信息,对虚拟视点图像进行遮挡信息的绘制,实现遮挡补偿;
虚拟视点图像中的任一区域一般要么在主视点中可见,要么在辅视点中可见,即如图3所示:虚拟视点斜线表示部分可以由主视点绘制得到,而白色空洞部分基本上可以由辅视点提供的遮挡信息绘制得到;
若主视点、虚拟视点、辅视点的位置如图2所示,绘制方程为:
x 2 = x 1 + f c 1 z
重叠问题的解决方法应该是逐行从右至左绘制;这样,经过遮挡补偿后,可以得到空洞很少,甚至没有空洞的虚拟视点合成图像。
所述的对高分辨率的虚拟视点图像进行变换,得到原始分辨率的虚拟视点图像步骤:
现在要把分辨率为2H*V的图像重新映射到分辨率为H*V的图像,如图7所示;
g)确定一种从高分辨率转变为低分辨率的变换方法;
⑦令(x,y)为图像的像素坐标;函数f(x,y),g(x,y)分别为H*V图像坐标为(x,y)以及2H*V图像坐标为(x,y)位置的像素值;函数h(x,y)表示:当g(x,y)不等于零时,h(x,y)=1;当g(x,y)等于零时,h(x,y)=0;
⑧函数f(x,y)与g(x,y)的映射关系是:
f ( x , y ) = g ( 2 x + 1 , y ) + g ( 2 x , y ) + g ( 2 x - 1 , y ) h ( 2 x + 1 , y ) + h ( 2 x , y ) + h ( 2 x - 1 , y ) 式(2)
h)利用步骤⑧的映射关系,对高分辨率的虚拟视点图像进行变换,生成具有原始分辨率的虚拟视点图像。
对步骤f)得到的高分辨率的虚拟视点图像中水平相邻的三个像素点做线性插值,即利用式(2)得到图7(x,y)的像素值。
所述的利用非对称的线性插值方法进行残余的空洞补偿步骤:
一方面经过遮挡补偿后残留的空洞一般是局部遮挡问题,即可以根据临近像素插值得到;
另一方面,由空洞形成的原因是物体景深的不连续性,而对于平行相机阵列模型视点之间只有水平的位移,因此在这种特定的相机阵列中,图像绘制过程中空洞的产生主要是由于水平方向深度的不连续导致的;再则深度的不连续主要存在与物体的边界处,像素值的不连续也主要存在与物体的边界处。
从这两方面可以得出:局部遮挡的时候,空洞的像素值和周围像素的某些点比较相近,可以根据某几个相邻像素比较准确的恢复;但是在空洞附近,水平方向,很有可能是物体的边界,景深和亮度、色度像素值变化比较大;
因此,得出一种在垂直和水平方向非对称的线性插值方法,以补偿残余的空洞问题。
i)对残余的空洞,采用一种在垂直和水平方向非对称的线性插值方法进行空洞补偿;
⑨检测空洞位置,设为(x,y);函数f(x,y)表示坐标为(x,y)像素值;函数h(x,y)表示:当f(x,y)不等于零时,h(x,y)=1;当f(x,y)等于零时,h(x,y)=0;门限值t1,t2,其中t1>t2
⑩空洞(x,y)的补偿方程为:
Figure A20081006281100171
利用步骤⑩中的补偿方程对虚拟视点图像进行残余的空洞补偿,可以得到视觉质量更好的虚拟视点图像。

Claims (6)

1.一种基于深度和遮挡信息的虚拟视点合成方法,其特征在于包括以下步骤:
1)在平行光轴相机阵列模型下,确定基于深度图像的绘制方法的3D绘制方程;
2)根据参考视点与虚拟视点的空间位置,制定像素绘制顺序;
3)按照制定的绘制顺序,利用基于深度图像的水平半像素绘制方法,参考主视点,绘制得到虚拟视点的图像;
4)根据辅视点的遮挡信息,利用基于深度图像的水平半像素绘制方法,对虚拟视点图像进行遮挡补偿,得到高分辨率的虚拟视点图像;
5)对高分辨率的虚拟视点图像进行变换,得到原始分辨率的虚拟视点图像;
6)利用非对称的线性插值方法进行残余的空洞补偿;
7)进行块效应平滑,得到高质量的虚拟视点合成图像。
2.根据权利要求1所述的一种基于深度和遮挡信息的虚拟视点合成方法,其特征在于所述的根据参考视点与虚拟视点的空间位置,制定像素绘制顺序步骤:
a)在平行光轴相机阵列模型下,当重叠发生时,根据像素在参考视点的位置来判断它们在虚拟视点的遮挡关系;
虚拟视点在被绘制之前,所有像素值都为零;在参考视点x1位置的像素,经过绘制后在虚拟视点的x2位置,若此时x2位置的像素值不为零,则重叠发生。根据给定的平行相机模型,根据
x 2 = x 1 - f c z
f为相机焦距,c为虚拟视点相对于参考视点的水平位移,z为景深,规定物体a遮挡物体b应满足:
Figure A2008100628110002C2
x1(a),x1(b)为物体a,b成像在参考视点的水平坐标;
x2(a),x2(b)为物体a,b成像在被绘制视点的水平坐标
b)根据a)中得到的物体遮挡应满足的关系,结合参考视点与虚拟视点的空间位置,制定一种在给定相机模型下进行图像绘制时可以基本解决重叠问题的图像绘制顺序,若虚拟视点在参考视点右侧,则对于参考视点中的像素,按照逐行从左至右的参考顺序进行绘制;若虚拟视点在参考视点左侧,则对于参考视点中的像素,按照逐行从右至左的参考顺序进行绘制。
3.根据权利要求1所述的一种基于深度和遮挡信息的虚拟视点合成方法,其特征在于所述的按照制定的绘制顺序,利用基于深度图像的水平半像素绘制方法,参考主视点,绘制得到虚拟视点的图像步骤:
c)提高基于深度图像的绘制方法的匹配精度,得到一种基于深度图像的水平半像素绘制方法;
①按照第一步得到的深度图像绘制方程,计算物体在虚拟视点的精确坐标(x,y);
②把H*V分辨率的虚拟视点图像坐标转化为2H*V分辨率的图像坐标,水平坐标x的取值范围从[0,H]扩展为[0,2H];
③对坐标(x,y)进行水平半像素修正,转变为(x2,y),其中x2=2x,再对x2进行就近取整;
d)利用基于深度图像的水平半像素绘制方法,按照制定的绘制顺序,参考主视点,绘制得到虚拟视点的图像;
④按照制定的绘制顺序,对于主视点的任一像素(x1,y),利用基于深度图像的水平半像素绘制方法,计算其在虚拟视点中的坐标(x2,y),若没有检测到重叠,则将虚拟视点中坐标为(x2,y)的像素值与主视点中坐标为(x1,y)的像素值一致;
⑤若检测到重叠,当虚拟视点在主视点右侧时,直接覆盖坐标(x2,y)的像素值,当虚拟视点在参考视点左侧时,保留坐标(x2,y)原来的像素值;
⑥重复步骤④⑤,直至主视点图像中所有像素遍历完成,最后生成高分辨率的虚拟视点的图像。
4.根据权利要求1所述的一种基于深度和遮挡信息的虚拟视点合成方法,其特征在于所述的根据辅视点的遮挡信息,利用基于深度图像的水平半像素绘制方法,对虚拟视点图像进行遮挡补偿,得到高分辨率的虚拟视点图像步骤:
e)得到辅视点的遮挡信息,虚拟视点、辅视点的空间位置;
遮挡信息包括辅视点空洞的像素值和深度值;根据平行光轴相机阵列模型,虚拟视点和辅视点也只有水平位移;遮挡信息和虚拟视点、辅视点的空间位置可以在编码端编码这些信息,在解码端从编码数据流中的辅助数据部分解码得到;
f)按照步骤2)制定的绘制顺序,利用基于深度图像的水平半像素绘制方法方法,基于辅视点的遮挡信息,对虚拟视点图像进行遮挡信息的绘制,实现遮挡补偿。
5.根据权利要求1所述的一种基于深度和遮挡信息的虚拟视点合成方法,其特征在于所述的对高分辨率的虚拟视点图像进行变换,得到原始分辨率的虚拟视点图像步骤:
g)确定一种从高分辨率转变为低分辨率的变换方法;
⑦令(x,y)为图像的像素坐标;函数f(x,y),g(x,y)分别为H*V图像坐标为(x,y)以及2H*V图像坐标为(x,y)位置的像素值;函数h(x,y)表示:当g(x,y)不等于零时,h(x,y)=1;当g(x,y)等于零时,h(x,y)=0;
⑧函数f(x,y)与g(x,y)的映射关系是:
f ( x , y ) = g ( 2 x + 1 , y ) + g ( 2 x , y ) + g ( 2 x - 1 , y ) h ( 2 x + 1 , y ) + h ( 2 x , y ) + h ( 2 x - 1 , y ) ;
h)利用步骤⑧的映射关系,对高分辨率的虚拟视点图像进行变换,生成具有原始分辨率的虚拟视点图像。
6.根据权利要求1所述的一种基于深度和遮挡信息的虚拟视点合成方法,其特征在于所述的利用非对称的线性插值方法进行残余的空洞补偿步骤:
i)对残余的空洞,采用一种在垂直和水平方向非对称的线性插值方法进行空洞补偿;
⑨检测空洞位置,设为(x,y);函数f(x,y)表示坐标为(x,y)像素值;函数h(x,y)表示:当f(x,y)不等于零时,h(x,y)=1;当f(x,y)等于零时,h(x,y)=0;门限值t1,t2,其中t1>t2
⑩空洞(x,y)的补偿方程为:
Figure A2008100628110004C2
利用步骤⑩中的补偿方程对虚拟视点图像进行残余的空洞补偿,可以得到视觉质量更好的虚拟视点图像。
CN 200810062811 2008-07-03 2008-07-03 基于深度和遮挡信息的虚拟视点合成方法 Active CN100576934C (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200810062811 CN100576934C (zh) 2008-07-03 2008-07-03 基于深度和遮挡信息的虚拟视点合成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200810062811 CN100576934C (zh) 2008-07-03 2008-07-03 基于深度和遮挡信息的虚拟视点合成方法

Publications (2)

Publication Number Publication Date
CN101312540A true CN101312540A (zh) 2008-11-26
CN100576934C CN100576934C (zh) 2009-12-30

Family

ID=40100932

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200810062811 Active CN100576934C (zh) 2008-07-03 2008-07-03 基于深度和遮挡信息的虚拟视点合成方法

Country Status (1)

Country Link
CN (1) CN100576934C (zh)

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101808251A (zh) * 2010-04-06 2010-08-18 浙江大学 立体图像对中遮挡信息的提取方法
CN101873508A (zh) * 2010-05-25 2010-10-27 东南大学 基于改进bp算法的中间视合成方法
CN102074004A (zh) * 2010-01-07 2011-05-25 董福田 空间实体遮挡类型的判定方法及装置
CN102075779A (zh) * 2011-02-21 2011-05-25 北京航空航天大学 一种基于块匹配视差估计的中间视图合成方法
CN102325259A (zh) * 2011-09-09 2012-01-18 青岛海信数字多媒体技术国家重点实验室有限公司 多视点视频中虚拟视点合成方法及装置
CN102447925A (zh) * 2011-09-09 2012-05-09 青岛海信数字多媒体技术国家重点实验室有限公司 一种虚拟视点图像合成方法及装置
CN102497564A (zh) * 2011-11-03 2012-06-13 友达光电股份有限公司 多视角立体影像产生方法及其装置
CN102523454A (zh) * 2012-01-02 2012-06-27 西安电子科技大学 利用3d字典消除3d播放***中块效应的方法
CN102957936A (zh) * 2012-07-25 2013-03-06 中山大学 从视频单视点到多视点的虚拟视点生成方法
CN103370731A (zh) * 2011-02-18 2013-10-23 汤姆逊许可公司 估计虚拟环境中的遮挡的方法
CN103379352A (zh) * 2012-04-20 2013-10-30 Nlt科技股份有限公司 图像生成装置、图像显示装置及图像生成方法
CN103380624A (zh) * 2011-02-23 2013-10-30 皇家飞利浦有限公司 处理三维场景的深度数据
CN103404156A (zh) * 2011-02-24 2013-11-20 索尼公司 图像处理装置和图像处理方法
CN103458257A (zh) * 2012-05-31 2013-12-18 财团法人工业技术研究院 多视角视差图的补洞方法
CN103785174A (zh) * 2014-02-26 2014-05-14 北京智明星通科技有限公司 一种游戏同一屏幕显示万人的方法和***
CN104184938A (zh) * 2013-05-24 2014-12-03 索尼公司 图像处理装置、图像处理方法和程序
CN104378618A (zh) * 2014-11-11 2015-02-25 清华大学深圳研究生院 一种基于深度图的并行视点合成负载均衡方法
CN104618704A (zh) * 2013-11-05 2015-05-13 三星电子株式会社 用于图像处理的方法和设备
CN104662897A (zh) * 2012-09-25 2015-05-27 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、图像解码程序以及记录介质
US9076249B2 (en) 2012-05-31 2015-07-07 Industrial Technology Research Institute Hole filling method for multi-view disparity maps
CN105247860A (zh) * 2013-06-05 2016-01-13 索尼公司 图像处理设备及图像处理方法
CN105611373A (zh) * 2015-12-23 2016-05-25 小米科技有限责任公司 视频图像处理方法及装置
CN106210696A (zh) * 2016-07-22 2016-12-07 北京大学深圳研究生院 一种实时虚拟视点合成的方法及装置
CN107230236A (zh) * 2011-09-28 2017-10-03 Fotonation开曼有限公司 用于编码和解码光场图像文件的***及方法
CN107437268A (zh) * 2017-07-31 2017-12-05 广东欧珀移动通信有限公司 拍照方法、装置、移动终端和计算机存储介质
CN107509067A (zh) * 2016-12-28 2017-12-22 浙江工业大学 一种高速高质量的自由视点图像合成方法
CN109496325A (zh) * 2016-07-29 2019-03-19 索尼公司 图像处理装置和图像处理方法
CN110291564A (zh) * 2017-02-17 2019-09-27 索尼互动娱乐股份有限公司 图像生成设备和图像生成方法
CN111225217A (zh) * 2019-12-16 2020-06-02 杭州电子科技大学 一种基于虚拟视点绘制的3d-hevc错误隐藏方法
CN111383262A (zh) * 2018-12-28 2020-07-07 曜科智能科技(上海)有限公司 遮挡检测方法、***、电子终端以及存储介质
US10839485B2 (en) 2010-12-14 2020-11-17 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US10909707B2 (en) 2012-08-21 2021-02-02 Fotonation Limited System and methods for measuring depth using an array of independently controllable cameras
CN112673397A (zh) * 2018-07-19 2021-04-16 交互数字Ce专利控股公司 用于检测图像中的遮挡的方法,对应的设备和计算机程序产品
US11074679B2 (en) 2017-02-06 2021-07-27 Huawei Technologies Co., Ltd. Image correction and display method and device
US11272161B2 (en) 2013-03-10 2022-03-08 Fotonation Limited System and methods for calibration of an array camera
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11412158B2 (en) 2008-05-20 2022-08-09 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
CN115202174A (zh) * 2022-07-14 2022-10-18 浙江理工大学 基于光场图像的全息体视图获取方法、***和应用
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US12052409B2 (en) 2023-06-22 2024-07-30 Adela Imaging LLC Systems and methods for encoding image files containing depth maps stored as metadata

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2533212A1 (en) * 2011-06-10 2012-12-12 Samsung Electronics Co., Ltd. Reference layer for hole recovery within an output image.

Cited By (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11412158B2 (en) 2008-05-20 2022-08-09 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US12041360B2 (en) 2008-05-20 2024-07-16 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US12022207B2 (en) 2008-05-20 2024-06-25 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
CN102074004B (zh) * 2010-01-07 2013-09-25 董福田 空间实体遮挡类型的判定方法及装置
CN102074004A (zh) * 2010-01-07 2011-05-25 董福田 空间实体遮挡类型的判定方法及装置
CN101808251A (zh) * 2010-04-06 2010-08-18 浙江大学 立体图像对中遮挡信息的提取方法
CN101873508B (zh) * 2010-05-25 2012-07-04 东南大学 基于改进bp算法的中间视合成方法
CN101873508A (zh) * 2010-05-25 2010-10-27 东南大学 基于改进bp算法的中间视合成方法
US10839485B2 (en) 2010-12-14 2020-11-17 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11423513B2 (en) 2010-12-14 2022-08-23 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11875475B2 (en) 2010-12-14 2024-01-16 Adeia Imaging Llc Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US9406165B2 (en) 2011-02-18 2016-08-02 Thomson Licensing Method for estimation of occlusion in a virtual environment
CN103370731A (zh) * 2011-02-18 2013-10-23 汤姆逊许可公司 估计虚拟环境中的遮挡的方法
CN103370731B (zh) * 2011-02-18 2016-08-10 汤姆逊许可公司 估计虚拟环境中的遮挡的方法
CN102075779B (zh) * 2011-02-21 2013-05-08 北京航空航天大学 一种基于块匹配视差估计的中间视图合成方法
CN102075779A (zh) * 2011-02-21 2011-05-25 北京航空航天大学 一种基于块匹配视差估计的中间视图合成方法
CN103380624A (zh) * 2011-02-23 2013-10-30 皇家飞利浦有限公司 处理三维场景的深度数据
CN103404156A (zh) * 2011-02-24 2013-11-20 索尼公司 图像处理装置和图像处理方法
CN102447925A (zh) * 2011-09-09 2012-05-09 青岛海信数字多媒体技术国家重点实验室有限公司 一种虚拟视点图像合成方法及装置
CN102447925B (zh) * 2011-09-09 2014-09-10 海信集团有限公司 一种虚拟视点图像合成方法及装置
CN102325259A (zh) * 2011-09-09 2012-01-18 青岛海信数字多媒体技术国家重点实验室有限公司 多视点视频中虚拟视点合成方法及装置
CN107230236A (zh) * 2011-09-28 2017-10-03 Fotonation开曼有限公司 用于编码和解码光场图像文件的***及方法
US10984276B2 (en) 2011-09-28 2021-04-20 Fotonation Limited Systems and methods for encoding image files containing depth maps stored as metadata
CN107230236B (zh) * 2011-09-28 2020-12-08 快图有限公司 用于编码和解码光场图像文件的***及方法
US11729365B2 (en) 2011-09-28 2023-08-15 Adela Imaging LLC Systems and methods for encoding image files containing depth maps stored as metadata
CN102497564B (zh) * 2011-11-03 2013-11-06 友达光电股份有限公司 多视角立体影像产生方法及其装置
CN102497564A (zh) * 2011-11-03 2012-06-13 友达光电股份有限公司 多视角立体影像产生方法及其装置
CN102523454B (zh) * 2012-01-02 2014-06-04 西安电子科技大学 利用3d字典消除3d播放***中块效应的方法
CN102523454A (zh) * 2012-01-02 2012-06-27 西安电子科技大学 利用3d字典消除3d播放***中块效应的方法
CN103379352A (zh) * 2012-04-20 2013-10-30 Nlt科技股份有限公司 图像生成装置、图像显示装置及图像生成方法
CN103379352B (zh) * 2012-04-20 2016-08-10 Nlt科技股份有限公司 图像生成装置、图像显示装置及图像生成方法
CN103458257B (zh) * 2012-05-31 2015-05-27 财团法人工业技术研究院 多视角视差图的补洞方法
CN103458257A (zh) * 2012-05-31 2013-12-18 财团法人工业技术研究院 多视角视差图的补洞方法
US9076249B2 (en) 2012-05-31 2015-07-07 Industrial Technology Research Institute Hole filling method for multi-view disparity maps
CN102957936B (zh) * 2012-07-25 2015-07-08 中山大学 从视频单视点到多视点的虚拟视点生成方法
CN102957936A (zh) * 2012-07-25 2013-03-06 中山大学 从视频单视点到多视点的虚拟视点生成方法
US10909707B2 (en) 2012-08-21 2021-02-02 Fotonation Limited System and methods for measuring depth using an array of independently controllable cameras
US12002233B2 (en) 2012-08-21 2024-06-04 Adeia Imaging Llc Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
CN104662897A (zh) * 2012-09-25 2015-05-27 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、图像解码程序以及记录介质
US11272161B2 (en) 2013-03-10 2022-03-08 Fotonation Limited System and methods for calibration of an array camera
US11570423B2 (en) 2013-03-10 2023-01-31 Adeia Imaging Llc System and methods for calibration of an array camera
US11985293B2 (en) 2013-03-10 2024-05-14 Adeia Imaging Llc System and methods for calibration of an array camera
CN104184938A (zh) * 2013-05-24 2014-12-03 索尼公司 图像处理装置、图像处理方法和程序
CN104184938B (zh) * 2013-05-24 2018-09-21 索尼半导体解决方案公司 图像处理装置、图像处理方法和程序
CN105247860A (zh) * 2013-06-05 2016-01-13 索尼公司 图像处理设备及图像处理方法
CN104618704B (zh) * 2013-11-05 2019-03-26 三星电子株式会社 用于图像处理的方法和设备
CN104618704A (zh) * 2013-11-05 2015-05-13 三星电子株式会社 用于图像处理的方法和设备
CN103785174A (zh) * 2014-02-26 2014-05-14 北京智明星通科技有限公司 一种游戏同一屏幕显示万人的方法和***
CN103785174B (zh) * 2014-02-26 2016-08-17 北京智明星通科技有限公司 一种游戏同一屏幕显示万人的方法和***
CN104378618A (zh) * 2014-11-11 2015-02-25 清华大学深圳研究生院 一种基于深度图的并行视点合成负载均衡方法
CN105611373A (zh) * 2015-12-23 2016-05-25 小米科技有限责任公司 视频图像处理方法及装置
CN105611373B (zh) * 2015-12-23 2019-03-08 小米科技有限责任公司 视频图像处理方法及装置
CN106210696A (zh) * 2016-07-22 2016-12-07 北京大学深圳研究生院 一种实时虚拟视点合成的方法及装置
CN106210696B (zh) * 2016-07-22 2018-07-06 北京大学深圳研究生院 一种实时虚拟视点合成的方法及装置
CN109496325A (zh) * 2016-07-29 2019-03-19 索尼公司 图像处理装置和图像处理方法
CN107509067A (zh) * 2016-12-28 2017-12-22 浙江工业大学 一种高速高质量的自由视点图像合成方法
CN107509067B (zh) * 2016-12-28 2019-07-30 浙江工业大学 一种高速高质量的自由视点图像合成方法
US11074679B2 (en) 2017-02-06 2021-07-27 Huawei Technologies Co., Ltd. Image correction and display method and device
CN110291564B (zh) * 2017-02-17 2024-02-02 索尼互动娱乐股份有限公司 图像生成设备和图像生成方法
CN110291564A (zh) * 2017-02-17 2019-09-27 索尼互动娱乐股份有限公司 图像生成设备和图像生成方法
CN107437268A (zh) * 2017-07-31 2017-12-05 广东欧珀移动通信有限公司 拍照方法、装置、移动终端和计算机存储介质
CN112673397A (zh) * 2018-07-19 2021-04-16 交互数字Ce专利控股公司 用于检测图像中的遮挡的方法,对应的设备和计算机程序产品
US11995855B2 (en) 2018-07-19 2024-05-28 Interdigital Ce Patent Holdings, Sas Method for detecting occlusions in an image, corresponding device and computer program product
CN112673397B (zh) * 2018-07-19 2024-04-30 交互数字Ce专利控股公司 用于检测图像中的遮挡的方法,对应的设备和计算机程序产品
CN111383262B (zh) * 2018-12-28 2023-05-12 曜科智能科技(上海)有限公司 遮挡检测方法、***、电子终端以及存储介质
CN111383262A (zh) * 2018-12-28 2020-07-07 曜科智能科技(上海)有限公司 遮挡检测方法、***、电子终端以及存储介质
US11699273B2 (en) 2019-09-17 2023-07-11 Intrinsic Innovation Llc Systems and methods for surface modeling using polarization cues
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11982775B2 (en) 2019-10-07 2024-05-14 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11842495B2 (en) 2019-11-30 2023-12-12 Intrinsic Innovation Llc Systems and methods for transparent object segmentation using polarization cues
CN111225217A (zh) * 2019-12-16 2020-06-02 杭州电子科技大学 一种基于虚拟视点绘制的3d-hevc错误隐藏方法
CN111225217B (zh) * 2019-12-16 2022-05-10 功智域控科技(苏州)有限公司 一种基于虚拟视点绘制的3d-hevc错误隐藏方法
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11683594B2 (en) 2021-04-15 2023-06-20 Intrinsic Innovation Llc Systems and methods for camera exposure control
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
CN115202174B (zh) * 2022-07-14 2023-11-10 浙江理工大学 基于光场图像的全息体视图获取方法、***和应用
CN115202174A (zh) * 2022-07-14 2022-10-18 浙江理工大学 基于光场图像的全息体视图获取方法、***和应用
US12052409B2 (en) 2023-06-22 2024-07-30 Adela Imaging LLC Systems and methods for encoding image files containing depth maps stored as metadata

Also Published As

Publication number Publication date
CN100576934C (zh) 2009-12-30

Similar Documents

Publication Publication Date Title
CN100576934C (zh) 基于深度和遮挡信息的虚拟视点合成方法
CN101902657B (zh) 一种基于深度图分层的虚拟多视点图像的生成方法
EP2150065B1 (en) Method and system for video rendering, computer program product therefor
CN103945208B (zh) 一种针对多视点裸眼3d显示的并行同步缩放引擎及方法
CN101771893B (zh) 一种基于视频序列背景建模的虚拟视点绘制方法
CN102609974B (zh) 一种基于深度图分割渲染的虚拟视点图像的生成方法
CN103828359A (zh) 使用织锦编码的多视图图像的表现和代码化
CN103402097B (zh) 一种自由视点视频深度图编码方法及其失真预测方法
AU2017331736B2 (en) Base anchored models and inference for the compression and upsampling of video and multiview imagery
CN102438167B (zh) 一种基于深度图像绘制的立体视频编码方法
CN102572482A (zh) 基于fpga的立体视频到多视点视频的3d重构方法
CN112019828B (zh) 一种视频的2d到3d的转换方法
CN104754359A (zh) 一种二维自由视点视频的深度图编码失真预测方法
CN103581650A (zh) 双目3d视频转多目3d视频的方法
Jantet et al. Object-based layered depth images for improved virtual view synthesis in rate-constrained context
CN102790895B (zh) 一种基于最小二乘的多视点视频编码视点合成预测方法
CN103873867B (zh) 自由视点视频深度图失真预测方法和编码方法
CN101222647A (zh) 多视角视频图像的场景全局深度估计方法
CN104506871B (zh) 一种基于hevc的3d视频快速编码方法
KR20220011180A (ko) 체적 비디오 인코딩 및 디코딩을 위한 방법, 장치 및 컴퓨터 프로그램
CN108259917A (zh) 基于深度时域下采样的三维视频编解码方法及***
CN112634127B (zh) 一种无监督立体图像重定向方法
CN103379350A (zh) 虚拟视点图像后处理方法
CN107770511A (zh) 一种多视点视频的编解码方法、装置和相关设备
CN103813149B (zh) 一种编解码***的图像与视频重构方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160614

Address after: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee after: Meng Qi media (Shenzhen) Co. Ltd.

Address before: 310027 Hangzhou, Zhejiang Province, Zhejiang Road, No. 38

Patentee before: Zhejiang University

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20160831

Address after: 518000, 101, 2, Fengyun technology building, Fifth Industrial Zone, North Ring Road, Shenzhen, Guangdong, Nanshan District

Patentee after: World wide technology (Shenzhen) Limited

Address before: 518000 new energy building, Nanhai Road, Shenzhen, Guangdong, Nanshan District A838

Patentee before: Meng Qi media (Shenzhen) Co. Ltd.

TR01 Transfer of patent right

Effective date of registration: 20180903

Address after: 518000 B unit 101, Fengyun mansion 5, Xili street, Nanshan District, Shenzhen, Guangdong.

Patentee after: Wan D display technology (Shenzhen) Co., Ltd.

Address before: 518000 2 of Fengyun tower, Fifth Industrial Zone, Nanshan District North Ring Road, Shenzhen, Guangdong, 101

Patentee before: World wide technology (Shenzhen) Limited

TR01 Transfer of patent right