CN102325259A - 多视点视频中虚拟视点合成方法及装置 - Google Patents

多视点视频中虚拟视点合成方法及装置 Download PDF

Info

Publication number
CN102325259A
CN102325259A CN201110267778A CN201110267778A CN102325259A CN 102325259 A CN102325259 A CN 102325259A CN 201110267778 A CN201110267778 A CN 201110267778A CN 201110267778 A CN201110267778 A CN 201110267778A CN 102325259 A CN102325259 A CN 102325259A
Authority
CN
China
Prior art keywords
image
visual point
virtual visual
point image
cavity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201110267778A
Other languages
English (en)
Inventor
刘琚
王路
孙建德
刘微
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Group Co Ltd
Original Assignee
QINGDAO HISENSE DIGITAL MULTIMEDIA TECHNOLOGY STATE KEY LABORATORY OF INFORMATION SECURITY
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by QINGDAO HISENSE DIGITAL MULTIMEDIA TECHNOLOGY STATE KEY LABORATORY OF INFORMATION SECURITY filed Critical QINGDAO HISENSE DIGITAL MULTIMEDIA TECHNOLOGY STATE KEY LABORATORY OF INFORMATION SECURITY
Priority to CN201110267778A priority Critical patent/CN102325259A/zh
Publication of CN102325259A publication Critical patent/CN102325259A/zh
Priority to PCT/CN2012/081139 priority patent/WO2013034101A1/zh
Priority to US14/342,366 priority patent/US9183669B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本发明公开一种多视点视频中虚拟视点合成方法及装置,在保证不带来几何畸变的前提下,提高虚拟视点图像的质量,提高虚拟视点图像的显示效果;方法包括:以第一摄像机和第二摄像机提供的两幅视点图像作为参考视点图像,并分别对该两幅视点图像进行三维图像变换、小洞填充、图像互补和图像融合处理之后得到主虚拟视点图像;再分别对所述两幅视点图像分别进行深度图处理、三维图像变换、小洞填充、图像互补和图像融合处理之后得到副虚拟视点图像;再根据所述副虚拟视点图像对所述主虚拟视点图像进行剩余空洞填充之后,得到最终需要合成的虚拟视点图像。

Description

多视点视频中虚拟视点合成方法及装置
技术领域
本发明涉及三维视频、多媒体信号处理技术领域,尤其涉及一种多视点视频中虚拟视点合成方法及装置。
背景技术
随着电视技术和多媒体处理技术的发展,人们对于最真实视觉体验的需求日益增强,三维电视被看作是继彩色电视、高清电视之后的下一代产品;三维电视利用人的双眼观察物体的角度略有差异,因此能够辨别物体远近,产生立体的视觉这个原理,把左右眼所看到的影像分离,从而可以实现用户无需借助立体眼镜即可用裸眼体验立体感觉。其中多视点视频被认为拥有非常广阔的应用前景,实现多视点视频中虚拟视点的合成,虚拟视点合成是关键技术。
目前,基于深度图像的渲染是一种利用参考视点图像和相应的深度信息来合成虚拟视点的方法,该种方法由于具有良好的编码效率、二维/三维选择性、用户交互性,因此近年来得到越来越多的重视和应用;然而该种方法仍然存在以下缺陷:本应该在虚拟视点中可见的区域在原始视点中是遮挡的,即在虚拟视点图像中出现的物体或背景(后续称为该物体或背景所在的区域为暴露区域)在原始图像中的对应位置处不存在,在原始图像中没有包含暴露区域的信息,因此,暴露区域为空洞;空洞表现为深度图像当中存在灰度值突变的边界,因此若需要提高虚拟视点的图像质量则必须进行补洞。
目前,为提高虚拟视点的图像质量,使最终图像产生最佳的立体效果,解决空洞问题的主要方式为:在对原始图像进行三维图像变换之前,对该原始图像进行深度图预处理,以使原始图像的深度图中尖锐的灰度值突变变得平滑,进而减轻前景物体和背景之间的深度差异,从而减少虚拟视点图像中空洞的数量,提高视图质量;该种方式虽然在一定程度上提高了虚拟视点图像的质量,但是深度图预处理会给虚拟视点图像带来严重的不可恢复的几何畸变。
发明内容
针对现有技术存在的技术问题,本发明实施例提供一种多视点视频中虚拟视点合成方法及装置,以充分考虑到深度图的处理方式和最终所要合成的虚拟试点图像质量高低的关系,在保证不带来几何畸变的前提下,提高虚拟视点图像的质量,提高虚拟视点图像的显示效果。
一种多视点视频中虚拟视点合成方法,包括:
步骤1、根据第一摄像机得到的第一参考视点图像及其深度图像、第一摄像机参数,对所述第一参考视点图像进行三维图像变换,得到第一虚拟视点图像及其深度图像和空洞图;以及,根据第二摄像机得到的第二参考视点图像及其深度图像、第二摄像机参数,对所述第二参考视点图像进行三维图像变换,得到第二虚拟视点图像及其深度图像和空洞图;
步骤2、根据所述第一虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第一虚拟视点图像进行小洞填充,得到小洞填充后的第一虚拟视点图像;以及根据所述第二虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第二虚拟视点图像进行小洞填充,得到小洞填充后的第二虚拟视点图像;
步骤3、将小洞填充后的第一虚拟视点图像与第二虚拟视点图像作为彼此的参考图像,进行图像互补,分别得到图像互补后的第一虚拟视点图像和第二虚拟视点图像;
步骤4、将图像互补后的第一虚拟视点图像与第二虚拟视点图像进行融合,得到主虚拟视点图像;
步骤5、对所述第一参考视点图像与所述第二参考视点图像分别进行深度图处理,得到深度图处理后的第一参考视点图像和第二参考试点彩色图像;再按照上述步骤1~步骤4对深度图处理后的第一参考视点图像和第二参考试点彩色图像进行相应的处理,得到副虚拟视点图像;
步骤6、根据所述副虚拟视点图像对所述主虚拟视点图像进行空洞填补,生成虚拟视点图像。
一种多视点视频中虚拟视点合成装置,包括:
三维图像变换单元,用于根据第一摄像机得到的第一参考视点图像及其深度图像、第一摄像机参数,对所述第一参考视点图像进行三维图像变换,得到第一虚拟视点图像及其深度图像和空洞图;以及,根据第二摄像机得到的第二参考视点图像及其深度图像、第二摄像机参数,对所述第二参考视点图像进行三维图像变换,得到第二虚拟视点图像及其深度图像和空洞图;
空洞填充单元,用于根据所述第一虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第一虚拟视点图像进行小洞填充,得到小洞填充后的第一虚拟视点图像;以及根据所述第二虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第二虚拟视点图像进行小洞填充,得到小洞填充后的第二虚拟视点图像;
图像互补单元,用于将小洞填充后的第一虚拟视点图像与第二虚拟视点图像作为彼此的参考图像,进行图像互补,分别得到图像互补后的第一虚拟视点图像和第二虚拟视点图像;
图像融合单元,用于将图像互补后的第一虚拟视点图像与第二虚拟视点图像进行融合,得到主虚拟视点图像;
图像深度处理单元,用于对所述第一参考视点图像与所述第二参考视点图像分别进行深度图处理,得到深度图处理后的第一参考视点图像和第二参考试点彩色图像;并启动所述三维图像变换单元、空洞填充单元、图像互补单元、图像融合单元依次对所述深度图处理后的第一参考视点图像和第二参考试点彩色图像进行相应的处理,得到副虚拟视点图像;
虚拟视点图像生成单元,用于将所述副虚拟视点图像对所述主虚拟视点图像进行空洞填补,生成虚拟视点图像。
本发明实施例中,以第一摄像机和第二摄像机提供的两幅视点图像作为参考视点图像,并分别对该两幅视点图像进行三维图像变换、小洞填充、图像互补和图像融合处理之后得到主虚拟视点图像;再分别对所述两幅视点图像分别进行深度图处理、三维图像变换、小洞填充、图像互补和图像融合处理之后得到副虚拟视点图像;再根据所述副虚拟视点图像对所述主虚拟视点图像进行剩余空洞填充之后,得到最终需要合成的虚拟视点图像。采用本发明技术方案,对两幅参考视点图像进行相应的处理得到主虚拟视点图像时,没有进行深度图处理,因此不会带来较大的图像畸变;而在对两幅参考视点图像进行相应的处理得到副虚拟视点图像时,进行了深度图处理,因此可以减轻前景物体与背景之间的深度差异,可以改善虚拟视点图像质量;再根据副虚拟视点图像对所述主虚拟视点图像进行空洞填充时,可以合成不带来畸变的且质量较高的虚拟视点图像。
附图说明
图1A为本发明实施例中多视点视频中虚拟视点合成的方法流程图;
图1B为上述图1A所述流程的示意图;
图2为本发明实施例中图像坐标系与三维空间坐标系的映射关系图;
图3A为本发明实施例中第一参考视点图像;
图3B为本发明实施例中第一参考视点图像的深度图;
图3C为本发明实施例中的第二参考视点图像;
图3D为本发明实施例中第二参考视点图像的深度图;
图4A为本发明实施例中三维图像变换后的第一参考视点图像;
图4B为本发明实施例中第一虚拟视点图像的深度图;
图4C为本发明实施例中第一虚拟视点图像的空洞图;
图4D为本发明实施例中三维图像变换后的第二参考视点图像;
图4E为本发明实施例中第二虚拟视点图像的深度图;
图4F为本发明实施例中第二虚拟视点图像的空洞图;
图5A为本发明实施例中小洞填充后的第一虚拟视点图像;
图5B为本发明实施例中小洞填充后的第一虚拟视点图像的深度图;
图5C为本发明实施例中小洞填充后的第一虚拟视点图像的空洞图;
图5D为本发明实施例中小洞填充后的第二虚拟视点图像;
图5E为本发明实施例中小洞填充后的第二虚拟视点图像的深度图;
图5F为本发明实施例中小洞填充后的第二虚拟视点图像的空洞图;
图6A为本发明实施例中图像互补后的第一虚拟视点图像;
图6B为本发明实施例中图像互补后的深度图;
图6C为本发明实施例中图像互补后的第二虚拟视点图像;
图6D为本发明实施例中图像互补后的空洞图;
图7A为本发明实施例中对图像互补后的第一虚拟视点图像和第二虚拟视点图像进行融合处理之后得到的主虚拟视点图像;
图7B为本发明实施例中对图像互补后的第一虚拟视点图像的空洞图和第二虚拟视点图像的空洞图进行融合处理之后得到的主空洞图;
图8为本发明实施例中根据副虚拟视点图像对主虚拟视点图像进行空洞填补之后的虚拟视点图像;
图9为本发明实施例中多视点视频中虚拟视点合成装置的结构示意图。
具体实施方式
针对现有技术存在的技术问题,本发明实施例提供一种多视点视频中虚拟视点的合成方法及装置,以在保证不带来几何畸变的前提下,提高虚拟视点图像的质量和提高虚拟视点图像的显示效果。多视点视频中虚拟试点合成方法,包括:以第一摄像机和第二摄像机提供的两幅视点图像作为参考视点图像,并分别对该两幅视点图像进行三维图像变换、小洞填充、图像互补和图像融合处理之后得到主虚拟视点图像;再分别对所述两幅视点图像分别进行深度图处理、三维图像变换、小洞填充、图像互补和图像融合处理之后得到副虚拟视点图像;再根据所述副虚拟视点图像对所述主虚拟视点图像进行剩余空洞填充之后,得到最终需要合成的虚拟视点图像。采用本发明技术方案,对两幅参考视点图像进行相应的处理得到主虚拟视点图像时,没有进行深度图处理,因此不会带来较大的图像畸变;而在对两幅参考视点图像进行相应的处理得到副虚拟视点图像时,进行了深度图处理,因此可以减轻前景物体与背景之间的深度差异,可以改善虚拟视点图像质量;再根据副虚拟视点图像对所述主虚拟视点图像进行空洞填充时,可以合成不带来畸变的且质量较高的虚拟视点图像。
下面结合说明书附图对本发明技术方案进行详细的描述。
参见图1A,为本发明实施例中多视点视频中虚拟视点合成的方法流程图,方法还可通过图1B示意,方法包括:
步骤101、根据第一摄像机得到的第一参考视点图像及其深度图像、第一摄像机参数,对所述第一参考视点图像进行三维图像变换,得到第一虚拟视点图像及其深度图像和空洞图;以及,根据第二摄像机得到的第二参考视点图像及其深度图像、第二摄像机参数,对所述第二参考视点图像进行三维图像变换,得到第二虚拟视点图像及其深度图像和空洞图。
步骤102、根据所述第一虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第一虚拟视点图像进行小洞填充,得到小洞填充后的第一虚拟视点图像;以及根据所述第二虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第二虚拟视点图像进行小洞填充,得到小洞填充后的第二虚拟视点图像。
步骤103、将小洞填充后的第一虚拟视点图像与第二虚拟视点图像作为彼此的参考图像,进行图像互补,分别得到图像互补后的第一虚拟视点图像和第二虚拟视点图像。
步骤104、将图像互补后的第一虚拟视点图像与第二虚拟视点图像进行融合,得到主虚拟视点图像。
步骤105、对所述第一参考视点图像与所述第二参考视点图像分别进行深度图处理,得到深度图处理后的第一参考视点图像和第二参考试点彩色图像;再按照上述步骤101~步骤104对深度图处理后的第一参考视点图像和第二参考试点彩色图像进行相应的处理,得到副虚拟视点图像。
步骤106、根据所述副虚拟视点图像对所述主虚拟视点图像进行空洞填补,生成最终需要得到的虚拟视点图像。
上述流程的步骤101中,对所述第一参考视点图像进行三维图像变换,可包括以下步骤:
步骤a1、将所述第一参考视点图像中的像素点映射到三维空间中,可参见式(1);
步骤b1、将步骤a1中已经映射到三维空间之后的像素点重投影到第一虚拟视点图像上,可参见式(2);
步骤c1、采用Z-fuffer和取整方法对所述第一虚拟视点图像中的像素点的坐标值进行筛选;
对所述第二参考视点图像进行三维图像变换,包括:
步骤a2、将所述第二参考视点图像中的像素点映射到三维空间中,可参见式(3);
步骤b2、将步骤a2中已经映射到三维空间之后的像素点重投影到第二虚拟视点图像上,可参见式(4);
步骤c2、采用Z-fuffer和取整方法对所述第二虚拟视点图像中的像素点的坐标值进行筛选。
上述步骤a1、步骤b1和步骤c1中,第一参考视点图像中的像素点的坐标点所在的图像坐标系为:以第一参考视点图像的左上角为原点,沿水平方向为横坐标,沿竖直方向为纵坐标;在所述步骤a2、步骤b2和步骤c2中,第二参考视点图像中的像素点的坐标点所在的图像坐标系为:以第二参考视点图像的左上角为原点,沿水平方向为横坐标,沿竖直方向为纵坐标;
所述三维空间的空间坐标系为:以屏幕的左下角为原点,该空间坐标系的x轴沿屏幕平面的竖直方向,y轴沿屏幕平面的水平方向。上述图像坐标系与空间坐标系的映射关系可如图2所示。
将第一参考视点图像中的像素点映射到三维空间,可根据式(1)进行变换:
m ~ 1 ≅ A 1 P n M ~ 1 式(1);
式(1)中,
Figure BDA0000090237300000082
为齐次坐标系下第一参考视点图像中某一像素点在图像坐标系中的坐标,
Figure BDA0000090237300000083
为齐次坐标系下所述某一像素点变换到三维空间之后在三维空间坐标系中的坐标;A1为相应的2#摄像机的内部参数矩阵;Pn是归一化透视投影矩阵。
将映射到三维空间之后的第一视点彩色图像的像素点重投影到目标虚拟视点图像上,可通过式(2)变换得到:
m ~ 1 ′ ≅ A ′ P n D M ~ 1 式(2);
式(2)中,
Figure BDA0000090237300000085
与式(1)中的相同,
Figure BDA0000090237300000087
为齐次坐标系下所述
Figure BDA0000090237300000088
变换到目标虚拟视点图像中的坐标;A′为目标视点摄像机(即3#摄像机)的内部参数矩阵;D是目标视点摄像机的外部参数矩阵,包含旋转矩阵R和平移向量t。
将第二参考视点图像中的像素点映射到三维空间,可根据式(3)变换得到:
m ~ 2 ≅ A 2 P n M ~ 2 式(3);
式(3)中,
Figure BDA00000902373000000810
为齐次坐标系下第二参考视点图像中某一像素点在图像坐标系中的坐标,
Figure BDA00000902373000000811
为齐次坐标系下所述某一像素点变换到三维空间之后在三维空间坐标系中的坐标;A2为相应的3#摄像机的内部参数矩阵;Pn是归一化透视投影矩阵。
将映射到三维空间之后的第二视点彩色图像的像素点重投影到目标虚拟视点图像上,可通过式(4)变换得到:
m ~ 2 ′ ≅ A ′ P n D M ~ 2 式(4);
式(4)中,
Figure BDA0000090237300000092
与式(1)中的
Figure BDA0000090237300000093
相同,
Figure BDA0000090237300000094
为齐次坐标系下所述
Figure BDA0000090237300000095
变换到目标虚拟视点图像中的坐标;A′为目标视点摄像机(即3#摄像机)的内部参数矩阵;D是目标视点摄像机的外部参数矩阵,包含旋转矩阵R和平移向量t。
将参考视点图像中的像素点映射到目标虚拟视点图像的过程为多对一的过程,因此,可能会存在参考视点图像中位于不同位置的两个或多个像素点映射到目标虚拟视点图像中的同一位置,因此存在重叠现象。因此,上述步骤c1和步骤c2中,采用Z-fuffer方法避免重叠现象,即在目标虚拟视点图像绘制过程中,为目标虚拟视点图像中的每个像素点k提供一个对应的buffer,以保留映射到该像素点k的来自参考视点图像中的多个像素点的深度值,再将该多个像素点中深度值最大的像素点的深度值确定为该像素点k的深度值。
参考视点图像中的像素点经变换后投影到目标虚拟视点图像的平面上时,可能不是投影在整像素点上而是投影在分像素点,因此,需要提取该分像素点坐标的整数部分作为目标虚拟视点图像中相应点的坐标值。
上述流程的步骤102中,对所述第一虚拟视点图像进行小洞填充,包括:根据所述第一虚拟视点图像的空洞图中的像素值,确定出在所述第一虚拟试点彩色图像中相应位置是否为空洞;对所述空洞图中像素值为0的点m1,在所述第一虚拟视点图像的深度图中相应位置的水平、垂直和对角边界点中确定出深度值最大的点n1;将n1点在所述第一虚拟视点图像中的像素信息赋予m1点,得到如图;
对所述第二虚拟视点图像进行小洞填充,包括:根据所述第二虚拟视点图像的空洞图中的像素值,确定出在所述第二虚拟试点彩色图像中相应位置是否为空洞;对所述空洞图中像素值为0的点m2,在所述第二虚拟视点图像的深度图中相应位置的水平、垂直和对角边界点中确定出深度值最大的点n2;将n2点在所述第二虚拟视点图像中的像素信息赋予m2点。
上述流程的步骤103具体可包括:根据所述第一虚拟视点图像的空洞图,确定出所述第一虚拟视点图像中的空洞的位置;对所述第一虚拟视点图像的空洞图进行形态学扩张,以避免在所述第一虚拟视点图像中产生伪影;
根据所述第二虚拟视点图像的空洞图,确定出所述第二虚拟视点图像中的空洞的位置;对所述第二虚拟视点图像的空洞图进行形态学扩张,以避免在第二虚拟视点图像中产生伪影;
针对所述第一虚拟视点图像中的每个空洞位置的像素点,若像素点在所述第二虚拟视点图像中有值,则将该值赋予所述像素点;
针对所述第二虚拟视点图像中的每个空洞位置的像素点,若像素点在所述第一虚拟视点图像中有值,则将该值赋予所述像素点。
上述流程的步骤104,将第一虚拟视点图像与第二虚拟视点图像进行融合处理,可采用以下方式:将图像互补后的第一虚拟视点图像与第二虚拟视点图像进行基于距离的图像融合,得到所述主虚拟视点图像。对图像互补后的第一虚拟视点图像和第二虚拟视点图基于距离的图像融合,可根据式(5)得到:
Iv(u,v)=(1-α)IL(u,v)+αIR(u,v),其中 α = | t v - t L | | | t v - t L | | + | t v - t R | 式(5);
式(5)中,Iv(u,v)是虚拟视点图像中位于坐标(u,v)的像素值,IL为图像互补后的第一虚拟视点图像,IR为图像互补后的第二虚拟视点图像,tv为目标虚拟视点图像中位于坐标(u,v)的像素值的外参矩阵的平移向量,tL为第一虚拟视点图像中与目标虚拟视点图像中位于坐标(u,v)的像素值对应的像素值的外参矩阵的平移向量,tR为第二虚拟视点图像中与目标虚拟视点图像中位于坐标(u,v)的像素值对应的像素值的外参矩阵的平移向量。
上述方法流程的步骤105中,对所述第一参考视点图像与所述第二参考视点图像分别进行深度图处理,包括:分别对所述第一参考视点图像的深度图像和所述第二参考视点图像的深度图像进行双边滤波处理。
为便于本领域技术人员对本发明技术方案进行理解,本发明实施例可以以视频点为8的多视点视频为例,如视频序列包含8个两两水平相距约20cm的视点,摄像机的相关参数已知,该摄像机基于视点的深度图像的分辨率与彩色图像的分辨率相同,可均为1026×768;在视点变换中,以2#相机(即2号相机)和4#相机(即4号相机)为参考视点,以3#相机(即3号相机)为目标虚拟视点。2#相机可提供如图3A所示的第一参考视点图像,4#相机可提供如图3C所示的第二参考视点图像。
经过步骤101将上述对图3A所示的第一参考视点图像(第一参考视点图像的深度图如图3B所示)和图3C第二参考视点图像(第二参考视点图像的深度图如图3D所示)进行三维空间变换之后,可得到与第一参考视点图像对应的第一虚拟视点图像、深度图和空洞图(分别依次为图4A、图4B和4C),和第二参考视点图像对应的第二虚拟视点图像、深度图和空洞图(分别依次为图4D、图4E和图4F)。
采用上述步骤102,分别对图4A和图4D所示的第一虚拟视点图像和第二虚拟视点图像、图4B和图4E所示的深度图和图4C和图4F所示的空洞图进行小洞填充处理后,得到如图5A所示的小洞填充后的第一虚拟视点图像及其深度图(如图5B所示)和空洞图(如图5C所示),和如图5D第二虚拟视点图像及其深度图(如图5E所示)和空洞图(如图5F所示)。
采用上述步骤103所示的方法,对如图5A和图5D所示的第一虚拟视点图像和第二虚拟视点图像、图5B和图5E所示的深度图进行图像互补之后,得到如图6A所示的图像互补后的第一虚拟视点图像、如图6B所示的深度图、如图6C所示的第二虚拟视点图像和如图6D所示的空洞图。
采用步骤104所示的方式,对如图6A所示的图像互补后的第一虚拟视点图像和图6C第二虚拟视点图像、如图6B所示的图像互补后的深度图和图6D所示的空洞图进行融合处理后,分别得到如图7A所示的主虚拟视点图像和如图7B所示的主深度图。
采用上述步骤106所述的方式,根据副虚拟视点图像对主虚拟视点图像进行小洞填充值后,可得到如图8所示的虚拟视点图像。
基于上述方法流程相同的构思,本发明实施例还提供一种多视点视频中虚拟视点合成装置,该装置的结构如图9所示。
参见图9,为本发明实施例中多视频点视频中虚拟视点合成装置的结构示意图,该装置可包括:
三维图像变换单元91,用于根据第一摄像机得到的第一参考视点图像及其深度图像、第一摄像机参数,对所述第一参考视点图像进行三维图像变换,得到第一虚拟视点图像及其深度图像和空洞图;以及,根据第二摄像机得到的第二参考视点图像及其深度图像、第二摄像机参数,对所述第二参考视点图像进行三维图像变换,得到第二虚拟视点图像及其深度图像和空洞图;
空洞填充单元92,用于根据所述第一虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第一虚拟视点图像进行小洞填充,得到小洞填充后的第一虚拟视点图像;以及根据所述第二虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第二虚拟视点图像进行小洞填充,得到小洞填充后的第二虚拟视点图像;
图像互补单元93,用于将小洞填充后的第一虚拟视点图像与第二虚拟视点图像作为彼此的参考图像,进行图像互补,分别得到图像互补后的第一虚拟视点图像和第二虚拟视点图像;
图像融合单元94,用于将图像互补后的第一虚拟视点图像与第二虚拟视点图像进行融合,得到主虚拟视点图像;
图像深度处理单元95,用于对所述第一参考视点图像与所述第二参考视点图像分别进行深度图处理,得到深度图处理后的第一参考视点图像和第二参考试点彩色图像;并启动所述三维图像变换单元、空洞填充单元、图像互补单元、图像融合单元依次对所述深度图处理后的第一参考视点图像和第二参考试点彩色图像进行相应的处理,得到副虚拟视点图像;
虚拟视点图像生成单元96,用于将所述副虚拟视点图像对所述主虚拟视点图像进行空洞填补,生成虚拟视点图像。
所述空洞填充单元92,具体用于:
对所述第一虚拟视点图像进行小洞填充,包括:根据所述第一虚拟视点图像的空洞图中的像素值,确定出在所述第一虚拟试点彩色图像中相应位置是否为空洞;对所述空洞图中像素值为0的点m1,在所述第一虚拟视点图像的深度图中相应位置的水平、垂直和对角边界点中确定出深度值最大的点n1;将n1点在所述第一虚拟视点图像中的像素信息赋予m1点;
对所述第二虚拟视点图像进行小洞填充,包括:根据所述第二虚拟视点图像的空洞图中的像素值,确定出在所述第二虚拟试点彩色图像中相应位置是否为空洞;对所述空洞图中像素值为0的点m2,在所述第二虚拟视点图像的深度图中相应位置的水平、垂直和对角边界点中确定出深度值最大的点n2;将n2点在所述第二虚拟视点图像中的像素信息赋予m2点。
图像互补单元93,具体用于:根据所述第一虚拟视点图像的空洞图,确定出所述第一虚拟视点图像中的空洞的位置;对所述第一虚拟视点图像的空洞图进行形态学扩张,以避免在所述第一虚拟视点图像中产生伪影;
根据所述第二虚拟视点图像的空洞图,确定出所述第二虚拟视点图像中的空洞的位置;对所述第二虚拟视点图像的空洞图进行形态学扩张,以避免在第二虚拟视点图像中产生伪影;
针对所述第一虚拟视点图像中的每个空洞位置的像素点,若像素点在所述第二虚拟视点图像中有值,则将该值赋予所述像素点;
针对所述第二虚拟视点图像中的每个空洞位置的像素点,若像素点在所述第一虚拟视点图像中有值,则将该值赋予所述像素点。
本发明实施例中,以第一摄像机和第二摄像机提供的两幅视点图像作为参考视点图像,并分别对该两幅视点图像进行三维图像变换、小洞填充、图像互补和图像融合处理之后得到主虚拟视点图像;再分别对所述两幅视点图像分别进行深度图处理、三维图像变换、小洞填充、图像互补和图像融合处理之后得到副虚拟视点图像;再根据所述副虚拟视点图像对所述主虚拟视点图像进行剩余空洞填充之后,得到最终需要合成的虚拟视点图像。采用本发明技术方案,对两幅参考视点图像进行相应的处理得到主虚拟视点图像时,没有进行深度图处理,因此不会带来较大的图像畸变;而在对两幅参考视点图像进行相应的处理得到副虚拟视点图像时,进行了深度图处理,因此可以减轻前景物体与背景之间的深度差异,可以改善虚拟视点图像质量;再根据副虚拟视点图像对所述主虚拟视点图像进行空洞填充时,可以合成不带来畸变的且质量较高的虚拟视点图像。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种多视点视频中虚拟视点合成方法,其特征在于,包括:
步骤1、根据第一摄像机得到的第一参考视点图像及其深度图像、第一摄像机参数,对所述第一参考视点图像进行三维图像变换,得到第一虚拟视点图像及其深度图像和空洞图;以及,根据第二摄像机得到的第二参考视点图像及其深度图像、第二摄像机参数,对所述第二参考视点图像进行三维图像变换,得到第二虚拟视点图像及其深度图像和空洞图;
步骤2、根据所述第一虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第一虚拟视点图像进行小洞填充,得到小洞填充后的第一虚拟视点图像;以及根据所述第二虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第二虚拟视点图像进行小洞填充,得到小洞填充后的第二虚拟视点图像;
步骤3、将小洞填充后的第一虚拟视点图像与第二虚拟视点图像作为彼此的参考图像,进行图像互补,分别得到图像互补后的第一虚拟视点图像和第二虚拟视点图像;
步骤4、将图像互补后的第一虚拟视点图像与第二虚拟视点图像进行融合,得到主虚拟视点图像;
步骤5、对所述第一参考视点图像与所述第二参考视点图像分别进行深度图处理,得到深度图处理后的第一参考视点图像和第二参考试点彩色图像;再按照上述步骤1~步骤4对深度图处理后的第一参考视点图像和第二参考试点彩色图像进行相应的处理,得到副虚拟视点图像;
步骤6、根据所述副虚拟视点图像对所述主虚拟视点图像进行空洞填补,生成虚拟视点图像。
2.如权利要求1所述的方法,其特征在于,上述步骤1中,对所述第一参考视点图像进行三维图像变换,包括:
步骤a1、将所述第一参考视点图像中的像素点映射到三维空间中;
步骤b1、将步骤a1中已经映射到三维空间之后的像素点重投影到第一虚拟视点图像上;
步骤c1、采用Z-fuffer和取整方法对所述第一虚拟视点图像中的像素点的坐标值进行筛选;
对所述第二参考视点图像进行三维图像变换,包括:
步骤a2、将所述第二参考视点图像中的像素点映射到三维空间中;
步骤b2、将步骤a2中已经映射到三维空间之后的像素点重投影到第二虚拟视点图像上;
步骤c2、采用Z-fuffer和取整方法对所述第二虚拟视点图像中的像素点的坐标值进行筛选。
3.如权利要求2所述的方法,其特征在于:
在所述步骤a1、步骤b1和步骤c1中,第一参考视点图像中的像素点的坐标点所在的图像坐标系为:以第一参考视点图像的左上角为原点,沿水平方向为横坐标,沿竖直方向为纵坐标;在所述步骤a2、步骤b2和步骤c2中,第二参考视点图像中的像素点的坐标点所在的图像坐标系为:以第二参考视点图像的左上角为原点,沿水平方向为横坐标,沿竖直方向为纵坐标;
所述三维空间的空间坐标系为:以屏幕的左下角为原点,该空间坐标系的x轴沿屏幕平面的竖直方向,y轴沿屏幕平面的水平方向。
4.如权利要求1所述的方法,其特征在于,对所述第一虚拟视点图像进行小洞填充,包括:根据所述第一虚拟视点图像的空洞图中的像素值,确定出在所述第一虚拟试点彩色图像中相应位置是否为空洞;对所述空洞图中像素值为0的点m1,在所述第一虚拟视点图像的深度图中相应位置的水平、垂直和对角边界点中确定出深度值最大的点n1;将n1点在所述第一虚拟视点图像中的像素信息赋予m1点;
对所述第二虚拟视点图像进行小洞填充,包括:根据所述第二虚拟视点图像的空洞图中的像素值,确定出在所述第二虚拟试点彩色图像中相应位置是否为空洞;对所述空洞图中像素值为0的点m2,在所述第二虚拟视点图像的深度图中相应位置的水平、垂直和对角边界点中确定出深度值最大的点n2;将n2点在所述第二虚拟视点图像中的像素信息赋予m2点。
5.如权利要求1所述的方法,其特征在于,所述步骤3,具体包括:
根据所述第一虚拟视点图像的空洞图,确定出所述第一虚拟视点图像中的空洞的位置;对所述第一虚拟视点图像的空洞图进行形态学扩张,以避免在所述第一虚拟视点图像中产生伪影;
根据所述第二虚拟视点图像的空洞图,确定出所述第二虚拟视点图像中的空洞的位置;对所述第二虚拟视点图像的空洞图进行形态学扩张,以避免在第二虚拟视点图像中产生伪影;
针对所述第一虚拟视点图像中的每个空洞位置的像素点,若像素点在所述第二虚拟视点图像中有值,则将该值赋予所述像素点;
针对所述第二虚拟视点图像中的每个空洞位置的像素点,若像素点在所述第一虚拟视点图像中有值,则将该值赋予所述像素点。
6.如权利要求1所述的方法,其特征在于,所述步骤4,具体包括:
将图像互补后的第一虚拟视点图像与第二虚拟视点图像进行基于距离的图像融合,得到所述主虚拟视点图像。
7.如权利要求1所述的方法,其特征在于,所述步骤5中,对所述第一参考视点图像与所述第二参考视点图像分别进行深度图处理,包括:
分别对所述第一参考视点图像的深度图像和所述第二参考视点图像的深度图像进行双边滤波处理。
8.一种多视点视频中虚拟视点合成装置,其特征在于,包括:
三维图像变换单元,用于根据第一摄像机得到的第一参考视点图像及其深度图像、第一摄像机参数,对所述第一参考视点图像进行三维图像变换,得到第一虚拟视点图像及其深度图像和空洞图;以及,根据第二摄像机得到的第二参考视点图像及其深度图像、第二摄像机参数,对所述第二参考视点图像进行三维图像变换,得到第二虚拟视点图像及其深度图像和空洞图;
空洞填充单元,用于根据所述第一虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第一虚拟视点图像进行小洞填充,得到小洞填充后的第一虚拟视点图像;以及根据所述第二虚拟视点图像的空洞图,采用水平、垂直和对角外推法对所述第二虚拟视点图像进行小洞填充,得到小洞填充后的第二虚拟视点图像;
图像互补单元,用于将小洞填充后的第一虚拟视点图像与第二虚拟视点图像作为彼此的参考图像,进行图像互补,分别得到图像互补后的第一虚拟视点图像和第二虚拟视点图像;
图像融合单元,用于将图像互补后的第一虚拟视点图像与第二虚拟视点图像进行融合,得到主虚拟视点图像;
图像深度处理单元,用于对所述第一参考视点图像与所述第二参考视点图像分别进行深度图处理,得到深度图处理后的第一参考视点图像和第二参考试点彩色图像;并启动所述三维图像变换单元、空洞填充单元、图像互补单元、图像融合单元依次对所述深度图处理后的第一参考视点图像和第二参考试点彩色图像进行相应的处理,得到副虚拟视点图像;
虚拟视点图像生成单元,用于将所述副虚拟视点图像对所述主虚拟视点图像进行空洞填补,生成虚拟视点图像。
9.如权利要求8所述的装置,其特征在于,所述空洞填充单元,具体用于:
对所述第一虚拟视点图像进行小洞填充,包括:根据所述第一虚拟视点图像的空洞图中的像素值,确定出在所述第一虚拟试点彩色图像中相应位置是否为空洞;对所述空洞图中像素值为0的点m1,在所述第一虚拟视点图像的深度图中相应位置的水平、垂直和对角边界点中确定出深度值最大的点n1;将n1点在所述第一虚拟视点图像中的像素信息赋予m1点;
对所述第二虚拟视点图像进行小洞填充,包括:根据所述第二虚拟视点图像的空洞图中的像素值,确定出在所述第二虚拟试点彩色图像中相应位置是否为空洞;对所述空洞图中像素值为0的点m2,在所述第二虚拟视点图像的深度图中相应位置的水平、垂直和对角边界点中确定出深度值最大的点n2;将n2点在所述第二虚拟视点图像中的像素信息赋予m2点。
10.如权利要求8所述的装置,其特征在于,所述图像互补单元,具体用于:根据所述第一虚拟视点图像的空洞图,确定出所述第一虚拟视点图像中的空洞的位置;对所述第一虚拟视点图像的空洞图进行形态学扩张,以避免在所述第一虚拟视点图像中产生伪影;
根据所述第二虚拟视点图像的空洞图,确定出所述第二虚拟视点图像中的空洞的位置;对所述第二虚拟视点图像的空洞图进行形态学扩张,以避免在第二虚拟视点图像中产生伪影;
针对所述第一虚拟视点图像中的每个空洞位置的像素点,若像素点在所述第二虚拟视点图像中有值,则将该值赋予所述像素点;
针对所述第二虚拟视点图像中的每个空洞位置的像素点,若像素点在所述第一虚拟视点图像中有值,则将该值赋予所述像素点。
CN201110267778A 2011-09-09 2011-09-09 多视点视频中虚拟视点合成方法及装置 Pending CN102325259A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201110267778A CN102325259A (zh) 2011-09-09 2011-09-09 多视点视频中虚拟视点合成方法及装置
PCT/CN2012/081139 WO2013034101A1 (zh) 2011-09-09 2012-09-07 多视点视频中虚拟视点合成方法及装置
US14/342,366 US9183669B2 (en) 2011-09-09 2012-09-07 Method and apparatus for virtual viewpoint synthesis in multi-viewpoint video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110267778A CN102325259A (zh) 2011-09-09 2011-09-09 多视点视频中虚拟视点合成方法及装置

Publications (1)

Publication Number Publication Date
CN102325259A true CN102325259A (zh) 2012-01-18

Family

ID=45452921

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110267778A Pending CN102325259A (zh) 2011-09-09 2011-09-09 多视点视频中虚拟视点合成方法及装置

Country Status (3)

Country Link
US (1) US9183669B2 (zh)
CN (1) CN102325259A (zh)
WO (1) WO2013034101A1 (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102547350A (zh) * 2012-02-02 2012-07-04 北京大学 一种基于梯度光流算法合成虚拟视点方法及立体显示装置
CN102625127A (zh) * 2012-03-24 2012-08-01 山东大学 一种适于3d电视虚拟视点生成的优化方法
CN102724529A (zh) * 2012-05-28 2012-10-10 清华大学 虚拟视点视频序列的生成方法及生成装置
CN102957936A (zh) * 2012-07-25 2013-03-06 中山大学 从视频单视点到多视点的虚拟视点生成方法
WO2013034101A1 (zh) * 2011-09-09 2013-03-14 海信集团有限公司 多视点视频中虚拟视点合成方法及装置
CN103209334A (zh) * 2013-03-18 2013-07-17 中山大学 一种2.5d视频到多视点3d视频中虚拟视点综合和空洞的修补方法
CN103269438A (zh) * 2013-05-27 2013-08-28 中山大学 基于3d视频和自由视点电视的深度图像绘制的方法
CN103310445A (zh) * 2013-06-01 2013-09-18 吉林大学 用于虚拟视点绘制的虚拟视点摄像机参数估计方法
CN103379355A (zh) * 2012-04-25 2013-10-30 浙江大学 一种立体视频对产生方法及装置
CN103426163A (zh) * 2012-05-24 2013-12-04 索尼公司 用于渲染受影响的像素的***和方法
CN103729838A (zh) * 2012-10-11 2014-04-16 索尼公司 用于减少由视点相关的照明成分产生的假象的***和方法
CN104081768A (zh) * 2012-11-30 2014-10-01 松下电器产业株式会社 异视点图像生成装置以及异视点图像生成方法
CN104159093A (zh) * 2014-08-29 2014-11-19 杭州道玄影视科技有限公司 运动拍摄的静态场景视频的时域一致性空洞区域修补方法
CN104574311A (zh) * 2015-01-06 2015-04-29 华为技术有限公司 图像处理方法和装置
CN104756489A (zh) * 2013-07-29 2015-07-01 北京大学深圳研究生院 一种虚拟视点合成方法及***
CN106060512A (zh) * 2016-06-28 2016-10-26 华中科技大学 一种在虚拟视点合成中选取和填补合理映射点方法
CN107018401A (zh) * 2017-05-03 2017-08-04 曲阜师范大学 基于逆映射的虚拟视点空洞填补方法
CN107147894A (zh) * 2017-04-10 2017-09-08 四川大学 一种自由立体显示中的虚拟视点图像生成方法
CN108243629A (zh) * 2015-11-11 2018-07-03 索尼公司 图像处理设备和图像处理方法
CN108718373A (zh) * 2017-03-31 2018-10-30 钰立微电子股份有限公司 影像装置
CN109982064A (zh) * 2019-03-18 2019-07-05 深圳岚锋创视网络科技有限公司 一种裸眼3d的虚拟视点图像生成方法和便携式终端
CN111527749A (zh) * 2017-12-20 2020-08-11 镭亚股份有限公司 交叉渲染多视图摄影机、***、及方法
CN113450274A (zh) * 2021-06-23 2021-09-28 山东大学 一种基于深度学习的自适应视点融合方法及***

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103337081B (zh) * 2013-07-12 2016-03-16 南京大学 一种基于深度层的遮挡判断方法及装置
US20160012646A1 (en) * 2014-07-10 2016-01-14 Perfetch, Llc Systems and methods for constructing a three dimensional (3d) color representation of an object
US9948911B2 (en) * 2014-09-05 2018-04-17 Qualcomm Incorporated Method and apparatus for efficient depth image transformation
US9948913B2 (en) * 2014-12-24 2018-04-17 Samsung Electronics Co., Ltd. Image processing method and apparatus for processing an image pair
CN104837000B (zh) * 2015-04-17 2017-03-15 东南大学 一种利用轮廓感知的虚拟视点合成方法
US9911242B2 (en) 2015-05-14 2018-03-06 Qualcomm Incorporated Three-dimensional model generation
US10373366B2 (en) 2015-05-14 2019-08-06 Qualcomm Incorporated Three-dimensional model generation
US10304203B2 (en) * 2015-05-14 2019-05-28 Qualcomm Incorporated Three-dimensional model generation
US10140687B1 (en) 2016-01-27 2018-11-27 RAPC Systems, Inc. Real time wide angle video camera system with distortion correction
US10142544B1 (en) 2016-01-27 2018-11-27 RAPC Systems, Inc. Real time wide angle video camera system with distortion correction
US10341568B2 (en) 2016-10-10 2019-07-02 Qualcomm Incorporated User interface to assist three dimensional scanning of objects
CN106780432B (zh) * 2016-11-14 2019-05-28 浙江科技学院 一种基于稀疏特征相似度的立体图像质量客观评价方法
JP7033865B2 (ja) * 2017-08-10 2022-03-11 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
KR101986433B1 (ko) * 2017-11-28 2019-06-05 재단법인 다차원 스마트 아이티 융합시스템 연구단 시점 변환을 이용하는 영상 스티칭 방법 및 시스템
WO2020181119A1 (en) 2019-03-07 2020-09-10 Alibaba Group Holding Limited Video reconstruction method, system, device, and computer readable storage medium
CN111767726B (zh) * 2020-06-24 2024-02-06 北京奇艺世纪科技有限公司 数据处理方法及装置
CN112581389A (zh) * 2020-12-04 2021-03-30 北京大学深圳研究生院 虚拟视点深度图处理方法、设备、装置及存储介质
CN116723305B (zh) * 2023-04-24 2024-05-03 南通大学 一种基于生成式对抗网络的虚拟视点质量增强方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101312540A (zh) * 2008-07-03 2008-11-26 浙江大学 基于深度和遮挡信息的虚拟视点合成方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6750873B1 (en) * 2000-06-27 2004-06-15 International Business Machines Corporation High quality texture reconstruction from multiple scans
US8771188B2 (en) * 2007-06-20 2014-07-08 Perception Raisonnement Action En Medecine Ultrasonic bone motion tracking system
CN100563339C (zh) 2008-07-07 2009-11-25 浙江大学 一种利用深度信息的多通道视频流编码方法
CN100563340C (zh) 2008-07-07 2009-11-25 浙江大学 基于深度图像渲染的多通道视频流编码器和解码器
EP2321974A1 (en) * 2008-08-29 2011-05-18 Thomson Licensing View synthesis with heuristic view merging
US8423596B2 (en) * 2009-02-05 2013-04-16 Sean Gifford Methods of multivariate data cluster separation and visualization
US8629899B2 (en) * 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
US8878912B2 (en) * 2009-08-06 2014-11-04 Qualcomm Incorporated Encapsulating three-dimensional video data in accordance with transport protocols
CN102325259A (zh) * 2011-09-09 2012-01-18 青岛海信数字多媒体技术国家重点实验室有限公司 多视点视频中虚拟视点合成方法及装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101312540A (zh) * 2008-07-03 2008-11-26 浙江大学 基于深度和遮挡信息的虚拟视点合成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LU WANG,ETC: "Virtual View Synthesis without Preprocessing Depth Image for Depth Image Based Rendering", 《3DTV CONFERENCE:THE TRUE VISION-CAPTURE,TRANSMISSION AND DISPLAY OF 3D VIDEO》, 18 May 2011 (2011-05-18) *

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013034101A1 (zh) * 2011-09-09 2013-03-14 海信集团有限公司 多视点视频中虚拟视点合成方法及装置
US9183669B2 (en) 2011-09-09 2015-11-10 Hisense Co., Ltd. Method and apparatus for virtual viewpoint synthesis in multi-viewpoint video
CN102547350B (zh) * 2012-02-02 2014-04-16 北京大学 一种基于梯度光流算法合成虚拟视点方法及立体显示装置
CN102547350A (zh) * 2012-02-02 2012-07-04 北京大学 一种基于梯度光流算法合成虚拟视点方法及立体显示装置
CN102625127B (zh) * 2012-03-24 2014-07-23 山东大学 一种适于3d电视虚拟视点生成的优化方法
CN102625127A (zh) * 2012-03-24 2012-08-01 山东大学 一种适于3d电视虚拟视点生成的优化方法
CN103379355B (zh) * 2012-04-25 2015-10-28 浙江大学 一种立体视频对产生方法及装置
US9888222B2 (en) 2012-04-25 2018-02-06 Zhejiang University Method and device for generating stereoscopic video pair
CN103379355A (zh) * 2012-04-25 2013-10-30 浙江大学 一种立体视频对产生方法及装置
WO2013159568A1 (zh) * 2012-04-25 2013-10-31 浙江大学 一种立体视频对产生方法及装置
CN103426163A (zh) * 2012-05-24 2013-12-04 索尼公司 用于渲染受影响的像素的***和方法
US9621869B2 (en) 2012-05-24 2017-04-11 Sony Corporation System and method for rendering affected pixels
CN103426163B (zh) * 2012-05-24 2017-04-12 索尼公司 用于渲染受影响的像素的***和方法
CN102724529B (zh) * 2012-05-28 2014-08-06 清华大学 虚拟视点视频序列的生成方法及生成装置
CN102724529A (zh) * 2012-05-28 2012-10-10 清华大学 虚拟视点视频序列的生成方法及生成装置
CN102957936A (zh) * 2012-07-25 2013-03-06 中山大学 从视频单视点到多视点的虚拟视点生成方法
CN102957936B (zh) * 2012-07-25 2015-07-08 中山大学 从视频单视点到多视点的虚拟视点生成方法
CN103729838B (zh) * 2012-10-11 2017-01-11 索尼公司 用于减少由视点相关的照明成分产生的假象的***和方法
CN103729838A (zh) * 2012-10-11 2014-04-16 索尼公司 用于减少由视点相关的照明成分产生的假象的***和方法
CN104081768A (zh) * 2012-11-30 2014-10-01 松下电器产业株式会社 异视点图像生成装置以及异视点图像生成方法
US20150109409A1 (en) * 2012-11-30 2015-04-23 Panasonic Corporation Different-view image generating apparatus and different-view image generating method
US9596445B2 (en) 2012-11-30 2017-03-14 Panasonic Intellectual Property Management Co., Ltd. Different-view image generating apparatus and different-view image generating method
CN104081768B (zh) * 2012-11-30 2017-03-01 松下知识产权经营株式会社 异视点图像生成装置以及异视点图像生成方法
CN103209334A (zh) * 2013-03-18 2013-07-17 中山大学 一种2.5d视频到多视点3d视频中虚拟视点综合和空洞的修补方法
CN103269438A (zh) * 2013-05-27 2013-08-28 中山大学 基于3d视频和自由视点电视的深度图像绘制的方法
CN103310445A (zh) * 2013-06-01 2013-09-18 吉林大学 用于虚拟视点绘制的虚拟视点摄像机参数估计方法
CN104756489B (zh) * 2013-07-29 2018-01-23 北京大学深圳研究生院 一种虚拟视点合成方法及***
CN104756489A (zh) * 2013-07-29 2015-07-01 北京大学深圳研究生院 一种虚拟视点合成方法及***
CN104159093B (zh) * 2014-08-29 2016-06-15 杭州道玄影视科技有限公司 运动拍摄的静态场景视频的时域一致性空洞区域修补方法
CN104159093A (zh) * 2014-08-29 2014-11-19 杭州道玄影视科技有限公司 运动拍摄的静态场景视频的时域一致性空洞区域修补方法
WO2016110239A1 (zh) * 2015-01-06 2016-07-14 华为技术有限公司 图像处理方法和装置
US10382737B2 (en) 2015-01-06 2019-08-13 Huawei Technologies Co., Ltd. Image processing method and apparatus
CN104574311B (zh) * 2015-01-06 2017-08-11 华为技术有限公司 图像处理方法和装置
US10630956B2 (en) 2015-01-06 2020-04-21 Huawei Technologies Co., Ltd. Image processing method and apparatus
CN104574311A (zh) * 2015-01-06 2015-04-29 华为技术有限公司 图像处理方法和装置
CN108243629A (zh) * 2015-11-11 2018-07-03 索尼公司 图像处理设备和图像处理方法
CN108243629B (zh) * 2015-11-11 2020-09-08 索尼公司 图像处理设备和图像处理方法
CN106060512A (zh) * 2016-06-28 2016-10-26 华中科技大学 一种在虚拟视点合成中选取和填补合理映射点方法
CN108718373A (zh) * 2017-03-31 2018-10-30 钰立微电子股份有限公司 影像装置
CN108718373B (zh) * 2017-03-31 2022-11-15 钰立微电子股份有限公司 影像装置
CN107147894B (zh) * 2017-04-10 2019-07-30 四川大学 一种自由立体显示中的虚拟视点图像生成方法
CN107147894A (zh) * 2017-04-10 2017-09-08 四川大学 一种自由立体显示中的虚拟视点图像生成方法
CN107018401B (zh) * 2017-05-03 2019-01-22 曲阜师范大学 基于逆映射的虚拟视点空洞填补方法
CN107018401A (zh) * 2017-05-03 2017-08-04 曲阜师范大学 基于逆映射的虚拟视点空洞填补方法
CN111527749A (zh) * 2017-12-20 2020-08-11 镭亚股份有限公司 交叉渲染多视图摄影机、***、及方法
CN109982064B (zh) * 2019-03-18 2021-04-27 影石创新科技股份有限公司 一种裸眼3d的虚拟视点图像生成方法和便携式终端
CN109982064A (zh) * 2019-03-18 2019-07-05 深圳岚锋创视网络科技有限公司 一种裸眼3d的虚拟视点图像生成方法和便携式终端
CN113450274A (zh) * 2021-06-23 2021-09-28 山东大学 一种基于深度学习的自适应视点融合方法及***

Also Published As

Publication number Publication date
US9183669B2 (en) 2015-11-10
US20150221126A1 (en) 2015-08-06
WO2013034101A1 (zh) 2013-03-14

Similar Documents

Publication Publication Date Title
CN102325259A (zh) 多视点视频中虚拟视点合成方法及装置
CN101771893B (zh) 一种基于视频序列背景建模的虚拟视点绘制方法
US9401041B2 (en) Multi view synthesis method and display devices with spatial and inter-view consistency
US7876953B2 (en) Apparatus, method and medium displaying stereo image
CN102625127B (zh) 一种适于3d电视虚拟视点生成的优化方法
US9185432B2 (en) Method and system for encoding a 3D image signal, encoded 3D image signal, method and system for decoding a 3D image signal
CN105262958B (zh) 一种虚拟视点的全景特写拼接***及其方法
EP3350989B1 (en) 3d display apparatus and control method thereof
AU2018249563B2 (en) System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
TWI531212B (zh) 呈現立體影像之系統及方法
CN107147894B (zh) 一种自由立体显示中的虚拟视点图像生成方法
CN103581648A (zh) 绘制新视点中的空洞填补方法
US9196080B2 (en) Medial axis decomposition of 2D objects to synthesize binocular depth
CN102368826A (zh) 双视点视频到多视点视频的实时自适应生成方法
CN109345444A (zh) 深度感知增强的超分辨率立体图像构建方法
CN103945209A (zh) 一种基于分块投影的dibr方法
CN102780900B (zh) 一种多人多视角立体显示器影像显示方法
CN110149508A (zh) 一种基于一维集成成像***的阵列图生成及填补方法
Knorr et al. From 2D-to stereo-to multi-view video
KR20140113066A (ko) 차폐 영역 정보를 기반으로 하는 다시점 영상 생성 방법 및 장치
Guo et al. Efficient image warping in parallel for multiview three-dimensional displays
TWM529333U (zh) 立體嵌入式影像系統
US20150334364A1 (en) Method and device for generating stereoscopic video pair
CN104378617A (zh) 一种虚拟视点中像素点的获取方法
CN117061720B (zh) 基于单目图像及深度图像渲染的立体图像对生成方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: HISENSE GROUP CO., LTD.

Free format text: FORMER OWNER: QINGDAO HISENSE DIGITAL MULTIMEDIA TECHNOLOGY, THE STATE KEY LABORATORY OF INFORMATION SECURITY

Effective date: 20120815

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20120815

Address after: 266100 Zhuzhou Road, Laoshan District, Shandong, No. 151, No.

Applicant after: Hisense Group Co., Ltd.

Address before: 266100 Zhuzhou Road, Laoshan District, Shandong, No. 151, No.

Applicant before: Qingdao Hisense Digital Multimedia Technology, The State Key Laboratory Of Information Security

C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20120118