CN103248911A - 多视点视频中基于空时结合的虚拟视点绘制方法 - Google Patents

多视点视频中基于空时结合的虚拟视点绘制方法 Download PDF

Info

Publication number
CN103248911A
CN103248911A CN2013101888985A CN201310188898A CN103248911A CN 103248911 A CN103248911 A CN 103248911A CN 2013101888985 A CN2013101888985 A CN 2013101888985A CN 201310188898 A CN201310188898 A CN 201310188898A CN 103248911 A CN103248911 A CN 103248911A
Authority
CN
China
Prior art keywords
image
virtual view
cavity
depth
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2013101888985A
Other languages
English (en)
Other versions
CN103248911B (zh
Inventor
刘琚
成聪
杨晓辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201310188898.5A priority Critical patent/CN103248911B/zh
Publication of CN103248911A publication Critical patent/CN103248911A/zh
Application granted granted Critical
Publication of CN103248911B publication Critical patent/CN103248911B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

本发明提出一种新的基于深度图的视点合成方法。首先,通过3D图像变换获得虚拟视点彩色图像与深度图像,并去除小的空洞以及映射错误点;然后进行虚拟视点深度图像的空洞填充,同时对空洞处像素坐标进行记录;之后,进行反向的3D图像变换,在参考视点的目标帧中定位目标区域(导致空洞产生的区域),并利用前后帧对目标区域进行背景复原;最后,使用基于样本的图像修复算法对剩余空洞进行修复。本方法中,通过利用前后帧的图像信息,实现空时域相结合进行补洞,较单纯基于空域的补洞操作,能够使结果更加准确,提高虚拟视点图像的质量;另外,通过反向映射,定位目标区域,有针对性的进行背景复原,较大规模的背景复原,在结果相似的情况下实现更加高效地补洞。

Description

多视点视频中基于空时结合的虚拟视点绘制方法
技术领域
本发明涉及一种基于深度图像的虚拟视点合成方法,属于视频、多媒体信号处理技术领域。
背景技术
凭借良好的用户交互性以及生动逼真的视觉体验,三维立体电视成为新一代多媒体技术的领跑者。真实场景的深度信息的构建使立体电视给人一种景物伸展于荧屏之外伸手可触的感觉。其中,多视点视频被认为拥有极其广阔的应用前景。它的主要实现目标是,在播放端,针对同一场景,用户可以根据自己的需要选择不同的视点欣赏不同角度的场景,以获取强烈的临场感与真实感。然而,传输带宽以及传输速率的限制增加了多视点视频实现的难度。于是,虚拟视点合成技术应运而生。
虚拟视点合成的方法有很多种,其中,基于深度图像的视点合成是一种典型的方法。它可以利用一路视频的彩色图像与深度图像,合成其他任意视点的视频信息。在视点合成的过程中,原始视点中被遮挡的背景部分有可能在虚拟视点中暴露出来,这就是所谓的空洞问题。由于这部分暴露出来的区域在原始视点中是找不到参考信息的,所以空洞问题成为视点合成中最具挑战性的问题,如何高效高质地完成视点合成的问题便转换为如何准确地填补空洞的问题。
在传统的基于深度图像的视点合成方法中,主要分为三个基本步骤:参考视点深度图像的平滑处理、通过3D图像变换获得虚拟视点深度图像与彩色图像、空洞填充。这类方法得到的虚拟视点彩色图像中会出现一些小的裂纹和大片的空洞区域。尤其是对于后者,无论是通过邻域赋值、线性插值,还是使用复杂度较高的图像修复算法进行填充,都仅仅是在空域上利用空洞的周边信息进行推测的过程,难以具备较高的可信度,获得的虚拟视点图像也难以准确地反映真实的场景。
发明内容
为解决现有的基于深度图像的视点合成方法中,基于空域的图像后处理所导致的虚拟视点合成的欠准确性问题,本发明提出一种新的基于深度图的视点合成方法。鉴于在参考视点中,被遮挡的背景部分(即导致虚拟视点中空洞的部分)随着时间的推移会暴露出来,这也就意味着,我们可以从参考视点目标帧的前后帧中找到待修复的空洞部分的准确信息。利用这一点,本发明提出了空域和时域相结合进行虚拟视点合成的方法,其中一部分空洞可以通过时域的信息进行更为准确地填充,而对于另一部分无法使用时域信息进行填充的空洞,仍然使用空域补洞的方法进行填充。这样,由于其中一部分空洞可以说是用真实的背景信息进行填充的,较在单幅图像中的推测式的填充,整体性能更好。
本发明中,首先,通过3D图像变换获得虚拟视点彩色图像与深度图像,并去除小的裂纹以及映射错误的像素点;然后进行虚拟视点深度图像的空洞填充,获得完整的虚拟视点深度图像,同时对空洞处像素坐标进行记录;之后,进行反向的3D图像变换,在参考视点的目标帧中定位目标区域(导致空洞产生的遮挡区域),并且利用前后帧对目标帧中目标区域进行背景复原,用于虚拟视点彩色图像中部分空洞的填充;最后,利用基于样本的图像修复算法对剩余空洞进行修复。本方法中,通过利用参考视点的前后帧的图像信息,实现空时域相结合进行补洞,较单纯基于空域的补洞操作,能够使结果更加准确,提高虚拟视点图像的质量。另外,通过反向3D图像变换,定位目标区域,有针对性的进行背景复原,较大规模的背景复原,在性能相近的情况下实现更加高效地补洞。
本发明采用的技术方案为:
一种基于深度图的视点合成方法,其特征在于,采用空域和时域相结合的方式,利用参考视点中目标帧的前后帧的图像信息,基于对导致空洞产生的遮挡区域的定位结果,进行有针对性的背景复原,从而对虚拟视点图像中的部分空洞进行填充,具体步骤如下:
(1)3D图像变换:根据摄像机投影原理,通过3D图像变换,将参考视点的图像信息投影到虚拟视点上,获得虚拟视点彩色图像与深度图像,并且对其中的小的裂纹以及映射错误的像素点进行处理;
(2)虚拟视点深度图像中空洞的坐标记录及其填充:对深度图像中的空洞部分进行坐标记录,然后利用邻域赋值,对深度图像进行空洞填充;
(3)反向的3D图像变换,定位目标区域:从虚拟视点出发,根据摄像机投影原理,进行反向的3D图像变换,同时根据步骤(2)中的坐标记录结果进行参考视点目标帧中目标区域的定位;
(4)在时域上进行目标区域的背景复原:利用参考视点中目标帧的前后帧信息,进行目标区域的背景复原,用于虚拟视点彩色图像中部分空洞的填充;
(5)剩余空洞的修复:利用基于样本的图像修复技术对虚拟视点彩色图像中的剩余空洞进行填充。
所述步骤(1)的具体步骤为:
a.根据参考视点的深度信息,实现从参考视点平面到三维空间,再从三维空间到虚拟视点平面的坐标变换;
b.根据坐标变换的结果,将参考视点中的像素点投影到虚拟视点平面内,从而获得虚拟视点彩色图像与深度图像;
c.对虚拟视点彩色图像与深度图像中映射错误的点进行检测,并进行邻域赋值,同时,对于其中一些小的裂纹,也使用邻域赋值的方式进行填充。
所述步骤(2)的具体实现步骤如下:
a.对虚拟视点深度图像及彩色图像中的大的空洞像素进行坐标记录;
b.逐行地使用空洞区域邻近的背景像素进行虚拟视点深度图像的空洞填充,获取完整的虚拟视点深度图像。
所述步骤(3)的具体实现步骤如下:
a.根据步骤(2)中得到的虚拟视点深度图像,实现从虚拟视点平面到三维空间,再从三维空间到参考视点平面的坐标变换;
b.根据坐标变换结果以及步骤(2)中的坐标记录结果,在参考视点目标帧中定位目标区域。
所述步骤(4)的具体实现步骤如下:
a.在时域上,利用前后帧进行目标帧中目标区域的背景复原;
b.根据步骤(3)中的坐标变换结果,进行虚拟视点中彩色图像中部分空洞的填充。
所述步骤(5)的具体实现步骤如下:
a.检测空洞区域的边缘,计算边缘上各像素的优先级,决定修复顺序;
b.以边缘像素为中心,获取特定尺寸的样本块,以样本块为单位,根据其中的颜色信息,从源图像中搜索最佳匹配块;
c.找到最佳匹配块之后,将最佳匹配块中的像素信息复制到样本块中的空洞处,实现填充。
附图说明
图1:本发明的流程图。
图2:参考视点的彩色图像及深度图像。
图3:虚拟视点的彩色图像及深度图像。
图4:小的空洞以及错误映射点去除后的虚拟视点的彩色图像。
图5:空洞填充之后的虚拟视点深度图像。
图6:参考视点目标帧中的目标区域。
图7:后一帧图像的前、背景分类结果图。
图8:背景复原之后的目标帧的彩色图像。
图9:部分空洞修复之后的虚拟视点彩色图像。
图10:剩余空洞修复之后的虚拟视点彩色图像。
具体实施方式
该发明采用了“Mobile”视频序列进行实验。该视频序列采集了一个场景的9个视点的视频,并提供了相应的深度信息以及各摄像机的内、外部参数。实验中,我们选取4号视点作为参考视点,5号视点作为虚拟视点。
图1所示为本发明的流程图,根据流程图,我们对其具体实施方式进行介绍。
(1)3D图像变换。所谓的3D图像变换,就是根据摄像机投影原理,将参考视点中的像素点投影到虚拟视点平面内。这一过程主要分为两个部分,首先是将参考视点中的像素投影到三维空间中,然后再由三维空间投影到虚拟视点平面内。图2为参考视点的彩色图像与深度图像。假设摄像机i的内参矩阵为Ai,外参矩阵中的平移矩阵与旋转矩阵分别为Ri、ti,映射方程可以表示为:
sm=Ai[Ri|ti]M     (1)
其中s为一标量,m=[u,v,1]T为图像像素点在图像坐标系下的齐次坐标,M=[X,Y,Z,1]T为相应空间点在世界坐标系下的齐次坐标。
利用方程(1),可以实现参考视点到三维空间的映射以及三维空间到虚拟视点的映射。图3为虚拟视点彩色图像及深度图像。
从图3可以看出,在虚拟视点彩色图像与深度图像上,同时存在一些映射错误的像素点,这一类像素点主要分为两种:映射到背景部分的前景像素与映射到前景部分的背景像素。鉴于这一类错误像素通常只有一至两个宽度,所以我们利用它们与周围像素的深度关系将它们检测出来,然后通过邻域赋值进行修正。另外,从图3也可以看出,在虚拟视点彩色图像与深度图像上,存在一些小的裂纹,针对这些裂纹,我们也采用简单的邻域赋值的方式进行消除。图4为处理之后的虚拟视点彩色图像。
(2)虚拟视点深度图像的空洞填充及坐标记录。为了在参考视点目标帧中定位目标区域,我们将虚拟视点深度图像中的空洞区域进行坐标记录。之后,再利用深度图的平滑渐变性,逐行地使用空洞区域邻近的背景像素进行虚拟视点深度图像的空洞填充,获取完整的虚拟视点深度图像,如图5所示。
(3)反向的3D图像变换,定位目标区域。所谓反向的3D图像变换,就是传统的3D图像变换的逆过程。先将虚拟视点中的像素投影到三维空间中,再由三维空间映射到参考视点平面内,建立起虚拟视点与参考视点之间的对应关系。然后结合步骤(2)中的坐标记录结果,定位目标区域。图6为最终定位的目标区域。
(4)在时域上进行目标区域的背景复原。由于虚拟视点图像中暴露的出来的部分应该是背景信息,所以我们真正感兴趣的是目标区域中被前景所遮挡的背景部分。考虑到前景物体的运动会让背景部分随着时间的迁移不同程度地暴露出来,所以在目标区域的背景复原过程中,目标帧的前后帧的信息是尤其重要的。为了准确高效地利用前后帧信息进行背景复原,我们采用了K均值聚类算法对前后帧的深度图像进行前景、背景的划分,只有划分为背景部分的图像信息才可以作为备选信息用于目标帧的背景复原。所谓的聚类算法是将数据集合中在某些方面相似的数据成员进行分类组织的过程。而K均值聚类算法是在划分之前,人工或者自动按照某种原则确定K个聚类中心,然后根据定义的某种距离函数将数据集中的数据逐一归于K个聚类中心中。每当有一个数据归入一个类中,便通过计算该类中数据的均值来更新该聚类中心。然后根据更新后的聚类中心继续进行聚类,直至所有的数据都完成分类。该发明中,我们首先对待分类的深度图像进行直方图分析,确定整幅图像中前景、背景的灰度分布并以此作为依据确定两个(K=2)聚类中心,然后以灰度差异作为距离函数,按照上述步骤完成前景、背景的划分。图7为目标帧的后一帧图像的前、背景的划分结果图,其中黑色部分代表背景,白色部分代表前景。
确定备选信息后,考虑到光强等各种环境因素的影响随着帧间距的增大而增大,所以,我们从最邻近的帧开始,逐步进行目标帧的背景复原。图8为复原完成后的目标帧。目标区域中的背景信息即可用于虚拟视点彩色图像中部分空洞的填充。图9为部分空洞填充完成后的虚拟视点彩色图像。
(5)剩余空洞的修复。虚拟视点中产生的空洞,根据其位置,可以被分为两类:前景与背景交界处的空洞与场景边界的空洞。前者是由于遮挡导致的背景暴露,而后者则是由于场景转换导致的新场景的暴露。对于前者,我们可以通过上述步骤,利用复原出来的背景信息进行填充。但是对于后者,在参考视点的所有帧中都无法找到参考信息。为解决这部分空洞,我们使用基于样本的图像修复算法进行修复。具体步骤如下:
首先,我们对待修复图像进行空洞边缘的检测,检测出边缘上的所有像素点后,我们再进行优先级的计算,以决定修复顺序。优先级的计算公式如(2)所示。
P(p)=C(p)D(                (2)
其中,C(p)为置信度项,D(p)为数据项,定义如下:
C ( p ) = Σ q ∈ Ψ p ∩ Φ C ( q ) | Ψ p | , D ( p ) = | ▿ I p ⊥ · n p | α - - - ( 3 )
C(p)中的分子表示样本块中非空洞像素的数量,分母|Ψp|表示样本块中总的像素数量。D(p)中,
Figure BDA00003217513100063
np分别表示空洞边缘上p点处的等照度线的方向与法向量。α为归一化因子,值为255。通过C(p)与D(p),基于样本的图像修复技术可以在保持图像的线性结构的情况下进行纹理的填充。
待修复顺序确定之后,我们以优先级最高的块作为样本块,从源图像中搜索最佳匹配块。搜索匹配块的匹配原则如等式(4)、(5)所示。
SSD ( Ψ p ^ , Ψ q ) = Σ p ∈ Ψ p ∩ Φ ( ( R p ^ ( p ) - R q ( p ) ) 2 + ( G p ^ ( p ) - G q ( p ) ) 2 + ( B p ^ ( p ) - B q ( p ) ) 2 ) - - - ( 4 )
Ψ q _ best = arg min Ψ q ∈ Φ SSD ( Ψ p ^ , Ψ q ) - - - ( 5 )
等式(5)定义了误差平方和(SSD)的计算方法,对于两个像素块中的每一对像素点,先计算它们之间R、G、B分量差值的平方之和;再将所有像素点对的计算结果相加,即为两个像素块的误差平方和(SSD)。
在匹配过程中,以误差平方和(SSD)计算样本块中非空洞像素与匹配块中的相应位置的像素之间的彩色信息的差异,差异越小,则匹配度越高。通过查找所有SSD中的最小值来最终确定最佳匹配块Ψq_best
找到最佳匹配块之后,利用最佳匹配块中的像素对样本块中的空洞像素点进行填充。然后再进行置信度的更新,公式如下所示:
C ( p ) = C ( p ) ^ ∀ p ∈ Ψ p ^ ∩ Ω - - - ( 6 )
重复以上过程,直至修复完成。修复后的虚拟视点彩色图像如图10所示。

Claims (6)

1.一种基于深度图的视点合成方法,其特征在于,采用空域和时域相结合的方式,利用参考视点中目标帧的前后帧的图像信息,基于对导致空洞产生的遮挡区域的定位结果,进行有针对性的背景复原,从而对虚拟视点图像中的部分空洞进行填充,具体步骤如下:
(1)3D图像变换:根据摄像机投影原理,通过3D图像变换,将参考视点的图像信息投影到虚拟视点上,获得虚拟视点彩色图像与深度图像,并且对其中的小的裂纹以及映射错误的像素点进行处理;
(2)虚拟视点深度图像中空洞的坐标记录及其填充:对深度图像中的空洞部分进行坐标记录,然后利用邻域赋值,对深度图像进行空洞填充;
(3)反向的3D图像变换,定位目标区域:从虚拟视点出发,根据摄像机投影原理,进行反向的3D图像变换,同时根据步骤(2)中的坐标记录结果进行参考视点目标帧中目标区域的定位;
(4)在时域上进行目标区域的背景复原:利用参考视点中目标帧的前后帧信息,进行目标区域的背景复原,用于虚拟视点彩色图像中部分空洞的填充;
(5)剩余空洞的修复:利用基于样本的图像修复技术对虚拟视点彩色图像中的剩余空洞进行填充。
2.根据权利要求1所述的基于深度图的视点合成方法,其特征在于,所述步骤(1)的具体步骤为:
a.根据参考视点的深度信息,实现从参考视点平面到三维空间,再从三维空间到虚拟视点平面的坐标变换;
b.根据坐标变换的结果,将参考视点中的像素点投影到虚拟视点平面内,从而获得虚拟视点彩色图像与深度图像;
c.对虚拟视点彩色图像与深度图像中映射错误的点进行检测,并进行邻域赋值,同时,对于其中一些小的裂纹,也使用邻域赋值的方式进行填充。
3.根据权利要求1所述的基于深度图的视点合成方法,其特征在于,所述步骤(2)的具体实现步骤如下:
a.对虚拟视点深度图像及彩色图像中的大的空洞像素进行坐标记录;
b.逐行地使用空洞区域邻近的背景像素进行虚拟视点深度图像的空洞填充,获取完整的虚拟视点深度图像。
4.根据权利要求1所述的基于深度图的视点合成方法,其特征在于,所述步骤(3)的具体实现步骤如下:
a.根据步骤(2)中得到的虚拟视点深度图像,实现从虚拟视点平面到三维空间,再从三维空间到参考视点平面的坐标变换;
b.根据坐标变换结果以及步骤(2)中的坐标记录结果,在参考视点目标帧中定位目标区域。
5.根据权利要求1所述的基于深度图的视点合成方法,其特征在于,所述步骤(4)的具体实现步骤如下:
a.在时域上,利用前后帧进行目标帧中目标区域的背景复原;
b.根据步骤(3)中的坐标变换结果,进行虚拟视点中彩色图像中部分空洞的填充。
6.根据权利要求1所述的基于深度图的视点合成方法,其特征在于,所述步骤(5)的具体实现步骤如下:
a.检测空洞区域的边缘,计算边缘上各像素的优先级,决定修复顺序;
b.以边缘像素为中心,获取特定尺寸的样本块,以样本块为单位,根据其中的颜色信息,从源图像中搜索最佳匹配块;
c.找到最佳匹配块之后,将最佳匹配块中的像素信息复制到样本块中的空洞处,实现填充。
CN201310188898.5A 2013-05-20 2013-05-20 多视点视频中基于空时结合的虚拟视点绘制方法 Expired - Fee Related CN103248911B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310188898.5A CN103248911B (zh) 2013-05-20 2013-05-20 多视点视频中基于空时结合的虚拟视点绘制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310188898.5A CN103248911B (zh) 2013-05-20 2013-05-20 多视点视频中基于空时结合的虚拟视点绘制方法

Publications (2)

Publication Number Publication Date
CN103248911A true CN103248911A (zh) 2013-08-14
CN103248911B CN103248911B (zh) 2015-11-04

Family

ID=48928099

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310188898.5A Expired - Fee Related CN103248911B (zh) 2013-05-20 2013-05-20 多视点视频中基于空时结合的虚拟视点绘制方法

Country Status (1)

Country Link
CN (1) CN103248911B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581648A (zh) * 2013-10-18 2014-02-12 清华大学深圳研究生院 绘制新视点中的空洞填补方法
CN103747229A (zh) * 2014-01-27 2014-04-23 电子科技大学 三维视频虚拟视点合成中彩色混叠及阴影部分的处理方法
CN104038753A (zh) * 2014-06-17 2014-09-10 四川虹微技术有限公司 三维图像空洞填充方法
CN104092937A (zh) * 2014-06-16 2014-10-08 联想(北京)有限公司 一种生成图像的方法及装置
CN104159093A (zh) * 2014-08-29 2014-11-19 杭州道玄影视科技有限公司 运动拍摄的静态场景视频的时域一致性空洞区域修补方法
CN105069751A (zh) * 2015-07-17 2015-11-18 江西欧酷智能科技有限公司 一种深度图像缺失数据的插值方法
CN105374019A (zh) * 2015-09-30 2016-03-02 华为技术有限公司 一种多深度图融合方法及装置
CN107018401A (zh) * 2017-05-03 2017-08-04 曲阜师范大学 基于逆映射的虚拟视点空洞填补方法
CN108769662A (zh) * 2018-07-03 2018-11-06 京东方科技集团股份有限公司 一种多视点裸眼3d图像空洞填补方法、装置及电子设备
CN109712067A (zh) * 2018-12-03 2019-05-03 北京航空航天大学 一种基于深度图像的虚拟视点绘制方法
CN110660131A (zh) * 2019-09-24 2020-01-07 宁波大学 一种基于深度背景建模的虚拟视点空洞填补方法
CN113421315A (zh) * 2021-06-24 2021-09-21 河海大学 一种基于视图缩放的全景图像空洞填充方法
CN115439543A (zh) * 2022-09-02 2022-12-06 北京百度网讯科技有限公司 孔洞位置的确定方法和元宇宙中三维模型的生成方法
CN115908162A (zh) * 2022-10-28 2023-04-04 中山职业技术学院 一种基于背景纹理识别的虚拟视点生成方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7675540B2 (en) * 2003-08-19 2010-03-09 Kddi Corporation Concealed regions complementing system of free viewpoint video images
CN102307304A (zh) * 2011-09-16 2012-01-04 北京航空航天大学 基于图像分割的立体视频右图像整帧丢失的错误隐藏方法
CN103024421A (zh) * 2013-01-18 2013-04-03 山东大学 自由视点电视中的虚拟视点合成方法
JP2013070267A (ja) * 2011-09-22 2013-04-18 Toshiba Corp 立体画像変換装置、立体画像出力装置および立体画像変換方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7675540B2 (en) * 2003-08-19 2010-03-09 Kddi Corporation Concealed regions complementing system of free viewpoint video images
CN102307304A (zh) * 2011-09-16 2012-01-04 北京航空航天大学 基于图像分割的立体视频右图像整帧丢失的错误隐藏方法
JP2013070267A (ja) * 2011-09-22 2013-04-18 Toshiba Corp 立体画像変換装置、立体画像出力装置および立体画像変換方法
CN103024421A (zh) * 2013-01-18 2013-04-03 山东大学 自由视点电视中的虚拟视点合成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
魏于涛等: "AVS流媒体传输***的实现", 《计算机工程与应用》 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103581648B (zh) * 2013-10-18 2015-08-26 清华大学深圳研究生院 绘制新视点中的空洞填补方法
CN103581648A (zh) * 2013-10-18 2014-02-12 清华大学深圳研究生院 绘制新视点中的空洞填补方法
CN103747229A (zh) * 2014-01-27 2014-04-23 电子科技大学 三维视频虚拟视点合成中彩色混叠及阴影部分的处理方法
CN103747229B (zh) * 2014-01-27 2015-08-19 电子科技大学 三维视频虚拟视点合成中彩色混叠及阴影部分的处理方法
CN104092937A (zh) * 2014-06-16 2014-10-08 联想(北京)有限公司 一种生成图像的方法及装置
CN104038753A (zh) * 2014-06-17 2014-09-10 四川虹微技术有限公司 三维图像空洞填充方法
CN104159093B (zh) * 2014-08-29 2016-06-15 杭州道玄影视科技有限公司 运动拍摄的静态场景视频的时域一致性空洞区域修补方法
CN104159093A (zh) * 2014-08-29 2014-11-19 杭州道玄影视科技有限公司 运动拍摄的静态场景视频的时域一致性空洞区域修补方法
CN105069751B (zh) * 2015-07-17 2017-12-22 江西欧酷智能科技有限公司 一种深度图像缺失数据的插值方法
CN105069751A (zh) * 2015-07-17 2015-11-18 江西欧酷智能科技有限公司 一种深度图像缺失数据的插值方法
WO2017054589A1 (zh) * 2015-09-30 2017-04-06 华为技术有限公司 一种多深度图融合方法及装置
CN105374019B (zh) * 2015-09-30 2018-06-19 华为技术有限公司 一种多深度图融合方法及装置
CN105374019A (zh) * 2015-09-30 2016-03-02 华为技术有限公司 一种多深度图融合方法及装置
CN107018401B (zh) * 2017-05-03 2019-01-22 曲阜师范大学 基于逆映射的虚拟视点空洞填补方法
CN107018401A (zh) * 2017-05-03 2017-08-04 曲阜师范大学 基于逆映射的虚拟视点空洞填补方法
CN108769662B (zh) * 2018-07-03 2020-01-07 京东方科技集团股份有限公司 一种多视点裸眼3d图像空洞填补方法、装置及电子设备
CN108769662A (zh) * 2018-07-03 2018-11-06 京东方科技集团股份有限公司 一种多视点裸眼3d图像空洞填补方法、装置及电子设备
US11043152B2 (en) 2018-07-03 2021-06-22 Boe Technology Group Co., Ltd. Method and apparatus for filling holes in naked-eye 3D multi-viewpoint image, and electronic device for performing the method
CN109712067A (zh) * 2018-12-03 2019-05-03 北京航空航天大学 一种基于深度图像的虚拟视点绘制方法
CN110660131A (zh) * 2019-09-24 2020-01-07 宁波大学 一种基于深度背景建模的虚拟视点空洞填补方法
CN110660131B (zh) * 2019-09-24 2022-12-27 宁波大学 一种基于深度背景建模的虚拟视点空洞填补方法
CN113421315A (zh) * 2021-06-24 2021-09-21 河海大学 一种基于视图缩放的全景图像空洞填充方法
CN113421315B (zh) * 2021-06-24 2022-11-11 河海大学 一种基于视图缩放的全景图像空洞填充方法
CN115439543A (zh) * 2022-09-02 2022-12-06 北京百度网讯科技有限公司 孔洞位置的确定方法和元宇宙中三维模型的生成方法
CN115439543B (zh) * 2022-09-02 2023-11-10 北京百度网讯科技有限公司 孔洞位置的确定方法和元宇宙中三维模型的生成方法
CN115908162A (zh) * 2022-10-28 2023-04-04 中山职业技术学院 一种基于背景纹理识别的虚拟视点生成方法及***
CN115908162B (zh) * 2022-10-28 2023-07-04 中山职业技术学院 一种基于背景纹理识别的虚拟视点生成方法及***

Also Published As

Publication number Publication date
CN103248911B (zh) 2015-11-04

Similar Documents

Publication Publication Date Title
CN103248911B (zh) 多视点视频中基于空时结合的虚拟视点绘制方法
CN111968129B (zh) 具有语义感知的即时定位与地图构建***及方法
CN101400001B (zh) 一种视频帧深度图的生成方法及***
CN103400409B (zh) 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法
CN109003325B (zh) 一种三维重建的方法、介质、装置和计算设备
Concha et al. Using superpixels in monocular SLAM
Zhang et al. Semantic segmentation of urban scenes using dense depth maps
CN104616286B (zh) 快速的半自动多视图深度修复方法
CN103024421A (zh) 自由视点电视中的虚拟视点合成方法
EP3367334B1 (en) Depth estimation method and depth estimation apparatus of multi-view images
Schuster et al. SceneFlowFields: Dense interpolation of sparse scene flow correspondences
CN114359509B (zh) 一种基于深度学习的多视图自然场景重建方法
CN103236160A (zh) 基于视频图像处理技术的路网交通状态监测***
CN102609950B (zh) 一种二维视频深度图的生成方法
CN104850850A (zh) 一种结合形状和颜色的双目立体视觉图像特征提取方法
CN104240289A (zh) 一种基于单个相机的三维数字化重建方法及***
CN102263957B (zh) 一种基于搜索窗口自适应的视差估计方法
WO2021249401A1 (zh) 模型生成方法、图像透视图确定方法、装置、设备及介质
CN102903111B (zh) 基于图像分割的大面积低纹理区立体匹配算法
CN104182968A (zh) 宽基线多阵列光学探测***模糊动目标分割方法
CN104837000A (zh) 一种利用轮廓感知的虚拟视点合成方法
CN110245199A (zh) 一种大倾角视频与2d地图的融合方法
Liu et al. Deep learning based multi-view stereo matching and 3D scene reconstruction from oblique aerial images
CN106060509A (zh) 引入颜色校正的自由视点图像合成方法
CN117456136A (zh) 一种基于多模态视觉识别的数字孪生场景智能生成方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20151104

Termination date: 20180520

CF01 Termination of patent right due to non-payment of annual fee