CN102197415A - 用于提供场景的分层深度模型的方法和装置 - Google Patents

用于提供场景的分层深度模型的方法和装置 Download PDF

Info

Publication number
CN102197415A
CN102197415A CN2009801418676A CN200980141867A CN102197415A CN 102197415 A CN102197415 A CN 102197415A CN 2009801418676 A CN2009801418676 A CN 2009801418676A CN 200980141867 A CN200980141867 A CN 200980141867A CN 102197415 A CN102197415 A CN 102197415A
Authority
CN
China
Prior art keywords
depth
degree
information
model
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2009801418676A
Other languages
English (en)
Other versions
CN102197415B (zh
Inventor
C·贝尼恩
S·梅尔
M·赫尔宾
H·H·尤尔林斯
B·G·B·巴伦布鲁格
F·格雷姆泽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN102197415A publication Critical patent/CN102197415A/zh
Application granted granted Critical
Publication of CN102197415B publication Critical patent/CN102197415B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明涉及提供场景的分层深度模型的装置和方法,深度模型的层包括:主视图信息,用于从主观看方向看的场景的主视图;以及与主视图信息相关联的遮蔽信息,用于再现场景的其它视图,其中:主视图信息包括模型的层片段,其沿深度方向相对于主观看方向是最近的,以及遮蔽信息包括模型的另外的层片段,其中遮蔽信息包括与为之提供遮蔽信息的深度转变(J1、J2、J3、J4)相邻的安全区域(SR1、SR2、SR3、SR4),其中安全区域包括主视图信息的对应的片段,其中安全区域(SR1、SR2、SR3、SR4)位于相应的深度转变的那一侧,其沿深度方向相对于主观看方向是最远的。本发明还涉及包括如上所述的场景的分层深度模型的信号,以及执行根据本发明的方法的计算机程序产品。

Description

用于提供场景的分层深度模型的方法和装置
技术领域
本发明涉及用于提供三维场景的分层深度模型的方法和装置,以及包括场景的分层深度模型的信号。
背景技术
适合于显示三维图像的显示装置正在引起人们日益增长的研究兴趣。另外还进行了实质性的研究来确定如何向终端用户提供令人满意的、高质量的观看体验。
通过向观看者的双眼提供正看的场景的不同视图,三维(3D)显示器为观看体验增加了第三维。这可通过让用户配戴眼镜以将被显示的两个视图分开来实现。然而,由于眼镜可能被认为对用户不方便,在许多情况下优选使用自由立体显示器,自由立体显示器使用显示器处的装置(如双凸透镜或屏障)来分开视图,并且沿不同方向发送它们,使得它们可以单独到达用户的眼睛。对于立体显示器,需要两个视图,而自由立体显示器一般需要更多视图(如,例如九个视图)。
为了高效地支持3D呈现,重要的是使用所生成的3D内容的适当数据表示。例如,对于不同的立体显示器,两个视图不必是相同的,而最佳的观看体验一般需要针对屏幕尺寸和观看者距离的特定组合来适配内容数据。同样的考虑往往适用于自由立体显示器。
表示三维图像的普遍方法是使用一个或多个分层二维图像加上深度表示。例如,分别具有关联的深度信息的前景和背景图像可用于表示三维场景。在本申请的上下文中,术语深度信息用于表示:指示相应图像单元到视点的距离的信息,或者在两个相应视点之间相应图像单元的视差的信息。由于视差(即图像单元在左眼与右眼视图之间的视位移)与深度成反比,两种表示中的任何一种可以作为输入用于再现分层深度模型的视图。
使用图像和深度表示所具有的几个优点在于,允许以相对低的复杂度再现二维视图,以及与存储多个视图相比,提供了高效的数据表示,从而降低了例如对三维图像(和视频)信号的存储和通信资源要求。该方法还允许以与三维表示中所包括的二维图像不同的视点和视角来生成二维图像。此外,可以容易地将所述表示适配于不同的显示配置,并且支持不同的显示配置。
当从与分层图像所表示的视角不同的视角来呈现视图时,根据前景像素的深度来偏移前景像素。这导致对于原始视角被遮蔽的区域变得可见。然后利用背景层,或者当没有适当的背景层数据时通过例如重复前景图像的像素,来填充这些区域。然而这种像素的复制可导致可见的假象。背景信息一般仅在前景图像对象的边缘周围需要,因此对于大部分内容来说是高度可压缩的。
公知的是场景的分层深度模型可以从多层简化为两层,即顶层和遮蔽层。在该模型中,遮蔽层用于避免与像素重复或背景插值相关的视觉假象。在现有技术的***中,针对所设数目的视角,提供这样的层来用于所有可能的遮蔽区域中的一些遮蔽区域。
发明内容
问题在于,当按比例缩小这种分层深度模型时,这可导致再现期间的视觉假象。同样,对分层深度模型进行编码可导致类似的假象。在如下情形中尤其如此:例如由于在按比例缩小的分层深度模型中存在深度转变,由内容材料本身,而不是借助于(利用教科书按比例缩放技术不能适当地按比例缩小的)显式编码元数据来以隐含方式触发使用遮蔽信息。
本发明的一个目的是缓解由按比例缩小导致的这类假象。
该目的是通过一种提供场景的分层深度模型的方法来实现的,深度模型的层包括:主视图信息,用于从主观看方向看的场景的主视图;以及与主视图信息相关联的遮蔽信息,用于再现场景的其它视图,其中:主视图信息包括模型的层片段,其沿深度方向相对于主观看方向是最近的,遮蔽信息包括模型的另外的层片段,其中遮蔽信息包括与为之提供遮蔽信息的深度转变相邻的安全区域,其中安全区域包括主视图信息的对应的片段,其中安全区域位于相应的深度转变的一侧,其沿深度方向相对于主观看方向是最远的。
例如为了存储或传输的原因,对包括遮蔽数据的分层深度模型进行大小重设或压缩之后,将影响到分层深度模型、特别是遮蔽数据的表示。因此,再现装置可能不能适当地检测到深度变化。特别是当对这样的深度转变的检测被用于触发使用遮蔽信息时,这可导致明显可见的假象。
这些假象本身可以比使用诸如像素重复等常规技术更麻烦,因为由于其“闪烁”,它们通常并不是时间稳定的,因而是明显的。可替换地,大小重设可导致再现装置检测到深度变化,在按比例缩放之前没有这样的转变。然而由后一种误差导致的假象通常较不明显。
本发明有效地确定了:在安全区域,即在遮蔽信息可为之所用的深度外或邻近的区域,使该遮蔽信息与主视图信息的相同。因此,改善了在按比例缩小的信号中对深度转变的检测,这通常涉及主视图信息与遮蔽信息两者中所包括的深度值。因此,改善了触发使用有关视频内容本身的遮蔽数据的可靠性。
一般主视图信息和遮蔽信息两者均包括:
-图像信息,其提供用于再现解遮蔽区域的颜色/纹理数据,以及
-深度信息,其提供用于再现解遮蔽区域的深度信息。
通过利用遮蔽信息,可以基于视角和深度信息,利用相应遮蔽纹理的适当位移来再现从另一个视角变得可见的相应纹理。
在一个实施例中,将包括两个以上的层的分层深度模型折叠成两层模型。该模型本身同样是分层深度模型。在后一种分层深度模型中,顶层包括主视图信息,遮蔽层包括遮蔽信息。一个明显的优点在于,顶层事实上可以无需进一步处理而用于传统的二维显示装置上。在原始的分层深度模型还包括透明度的情况下,顶层可以是包括多个其它层的数据的复合层。
在一个实施例中,每当不存在相对于其深度最接近于顶层的模型层的另外的层片段时,遮蔽层包括顶层的片段。因此,遮蔽层表示另外的用于再现的全图像,并且不需要通过信号传达遮蔽层中遮蔽数据的存在,或者全遮蔽层的运行时间成分。
在一个实施例中,遮蔽层信息中的遮蔽信息的相应片段的大小是基于与主视图视角的最大偏差和场景中的深度信息。在另一个实施例中,相应片段的大小是基于顶层和复合层两者中的同时深度转变内侧的预定宽度。在又一个实施例中,相应片段的大小是基于遮蔽数据为之可用的深度转变内侧的预定宽度以及另外的外侧的预定宽度。这些实施例中的每个实施例所提供的优点在于,第一实施例使得能够对遮蔽层进行编码,从而允许在视角和深度限制内适当地再现。第二实施例使得能够以对存储更友好的方式实现。第三实施例使得能够在对遮蔽信息进行编码时防止诸如蚊噪声等压缩假象。
在又一个实施例中,安全区域的大小是基于预定最大按比例缩小因子。该特征允许内容提供商可以确定分辨率范围,其中遮蔽信息的按比例缩小应导致最小按比例缩放假象。例如,考虑以1920 x 1080像素的分辨率分配的内容,进一步考虑需要达640 x 480分辨率的按比例缩小弹性。在此情况下,为了以较低的分辨率保留2像素宽的安全区域,引入了7像素宽的安全区域。同样,安全区域的大小可基于用来对遮蔽信息进行编码的编码器的粒度。
由于使用本发明的按比例缩小保护可以不同地应用于x和y方向两者,可以基于期望的鲁棒性针对每个相应的方向不同地选择安全区域。
在一个优选实施例中,分层深度模型进一步包括至少用于主视图信息的透明度信息。根据该实施例,与深度转变相邻的安全区域中的透明度值基本上是透明的,而安全区域的另一端的安全区域中的透明度值基本上是不透明。严格来讲,对于该实施例,在安全区域中不需要透明度区域,因为对于该实施例,主视图信息和遮蔽信息是相同的。然而,为了使分层深度模型对按比例缩放更鲁棒,优选地应用平滑的转变,不管有或没有附加的安全区。在另一个更为优选的实施例中,可能除了从基本上透明(与连续透明像素相邻)到从深度转变移开的安全区域端的基本上不透明的梯度之外,安全区域还包括预定数目的与深度转变相邻的连续透明像素。通过这种对透明度值的特定选择,可以在按比例缩小中基本上保留顶层的任何不透明度/透明度/阿尔法值。类似地,在梯度之后可以在安全区域端使用预定数目的连续透明度值,以确保当按比例缩小时刚好在安全区域之外的值不被“拉小”。
可替换地,取代使用连续透明/不透明像素之间的梯度,也可以使用突然转变,假设将其置于编解码块边界。连续透明和/或连续不透明像素可用于将该转变适当地置于边界上。可以更有效地对所得到的对准的转变进行编码。这又可以有助于防止引入编码假象,从而导致鲁棒性的改善。
在另一个有利的实施例中,在主视图信息中,对于包括深度孔的区域提供深度孔保护区域;即向下深度转变之后是向上深度转变,最多是第一阈值数目的分开的像素。对于这样的深度孔,优选地将主视图深度信息设置为深度孔的高边缘深度值之一、高边缘深度值两者的平均值、高边缘深度值之间的梯度或者基于深度孔的高边缘深度值两者的插值的片段。另外,优选地将相邻深度跳跃之间的透明度值设置为基本上透明。因此,较好地保护了深度孔以免按比例缩小。
在又一个有利的实施例中,在主视图信息中,对于包括深度尖的区域提供深度尖保护区域;即向上深度转变之后是向下深度转变,最多是第二阈值数目的分开的像素。对于这样的深度尖,优选地将主视图深度信息设置为深度尖保护区域内的深度尖的顶部的深度值,而深度尖之外的深度尖保护区域内的透明度值设置为基本上透明。因此,较好地保护了深度尖以免按比例缩小。
通过接收场景的三维模型,根据本发明提供场景的分层深度模型,以及处理场景的三维模型,根据本发明的方法可以有利地应用于处理场景的三维模型的方法。
本发明进一步涉及一种包括场景的分层深度模型的信号,深度模型的层包括:编码的主视图信息,用于从主观看方向看的场景的主视图,主视图信息包括模型的层片段,其沿深度方向相对于主观看方向是最近的;以及与主视图信息相关联的编码的遮蔽信息,用于再现场景的其它视图,其中遮蔽信息包括模型的另外的层片段,其中遮蔽信息包括与为之提供遮蔽信息的深度转变相邻的安全区域,其中安全区域包括主视图信息的对应的片段,其中安全区域位于相应的深度转变的一侧,其沿深度方向相对于主观看方向是最远的。
本发明进一步涉及一种用于提供场景的分层深度模型的装置,深度模型的层包括:主视图信息,用于从主观看方向看的场景的主视图;以及与主视图信息相关联的遮蔽信息,用于再现场景的其它视图,该装置设置成提供:主视图信息,使得它包括模型的层片段,其相对于其深度最接近于主视图的视点;以及遮蔽信息,使得它包括模型的另外的层片段,其中遮蔽信息包括与为之提供遮蔽信息的深度转变相邻的安全区域,其中安全区域包括主视图信息的对应的片段,其中安全区域位于相应的深度转变的一侧,其沿深度方向相对于主观看方向是最远的。
从以下描述的实施例来看,本发明的这些和其它方面、特征和优点将变得明显,并且将参照这些实施例来描述。
附图说明
下面将仅通过举例、参照附图来描述本发明的实施例,在附图中,同样的数字指代具有同样功能的要素,并且:
图1A示出了三维场景的分层深度模型的水平横截面;
图1B示出了图1A的分层深度模型的顶层;
图1C示出了图1A的分层深度模型的现有技术遮蔽层;
图1D示例了根据本发明一个实施例的用于图1A的分层深度模型的遮蔽安全区域的概念;
图2A示例了将透明度添加到图1A的分层深度模型;
图2B示例了根据本发明一个实施例的针对安全区域的透明度添加;
图3示例了根据本发明一个优选实施例的针对与深度转变相邻的安全区域的透明度添加;
图4A示例了用于主视图信息的深度孔保护过程;
图4B示例了用于主视图信息的深度尖保护过程;
图5示例了根据本发明的方法;
图6A示例了根据本发明的处理装置和信号;
图6B示例了根据本发明的装置和信号;
图6C示例了根据本发明的另外的装置和信号;
图7A示例了根据现有技术的两层深度模型的纹理、深度、遮蔽纹理和遮蔽深度信息的相应的摘录;
图7B示例了根据本发明一个实施例的两层深度模型的纹理、深度、遮蔽纹理和遮蔽深度信息的相应的摘录;
图7C示例了基于图7A的输入数据的再现的视图;以及
图7D示例了基于图7B的输入数据的再现的视图。
具体实施方式
随着时间的过去,将分层深度表示用于基于分层深度表示来再现新视图已经吸引了许多研究者。在Shade等人在ACM SIGGRAPH 1998会议录发表的“Layered Depth Images”中,描述了基于多层深度图像的三维模型的存储以及基于此的内容再现。
在Zitnick等人在ACM SIGGRAPH 2004会议录发表的“High-quality video view interpolation using a layered representation”中,披露了场景的分层深度模型的生成,其中分层深度模型包括边界颜色、边界深度和边界阿尔法(不透明度)形式的遮蔽信息。另外,提出了根据分层深度模型来再现视图的方法。
本发明的发明人认识到,在实践中,当使用分层深度模式来分配内容时,可能需要对分层深度模型进行按比例缩小和/或压缩。然而当软件按比例缩放器或硬件按比例缩放器用于这样做(对于本发明所解决的问题不明确)时,这通常导致可见的假象。这种假象的一个例子在图7C中示出,其中区域745中的假象在区域740中被放大示出。
对于来自分层深度模型的深度信息用于触发使用遮蔽信息的情形,上述问题尤其成立。在此情形下,对分层深度模型的按比例缩小可影响到主视图信息和遮蔽信息,使得深度转变不再得到适当的识别,或者可替换地,在它们在按比例缩小之前不存在的情况下被识别。
以下提供了对于对遮蔽信息进行编码的可能的试探法。注意这仅仅是示例性的,还可以采用其它触发机制。然而从本说明书将清楚,对主视图和/或遮蔽信息两者中的深度信息的按比例缩小可能影响到对使用遮蔽信息的适当触发。
当如下情形时,应当为深度转变提供遮蔽信息:
主视图信息和遮蔽信息的低像素类似;例如可使用固定阈值;
转变的主视图信息中的高像素必须明显大于遮蔽信息的像素;例如可使用另外的固定阈值;以及
主视图信息的高像素必须明显大于主视图信息的低像素。(这避免了当主视图信息均匀而遮蔽信息突然“下降”时检测到转变。)本发明解决了该按比例缩小问题的原因在于,它提供了这样的解决方案,其允许以得到较少假象的方式在按比例缩小之后再现模型,如在图7D中所描绘的,其中区域755(比较745)示出了假象,而区域750提供了区域755的放大。
图1A示出了三维场景的分层深度模型的水平横截面。该特定模型包括五层,即层L1、包括片段L2,1和L2,2的层L2、层L3和L4以及背景层L5。尽管在该例子中,所有层都由水平线表示,即一直具有单深度值,但这并不是强制的,而仅仅是为了清楚而进行的简化。注意层内的深度一般会变化。在实践中,当使用基于对象的编码时,这样的层内深度变化通常与对象深度相关。
当针对从主观看方向PVD观察而再现图1A中所呈现的分层深度图像时,所得到的视图将包括相对于其深度最接近于主视图的视点的模型层的层片段。这些片段组合形成顶层TL。
为确定顶层,用于生成遮蔽层的相机模型是置于PVD所示的主观看方向的无限远处的相机。因此,分层深度图像中的顶层是这样的层,其在特定位置(x,y)处沿深度方向最接近于相机,在此情况下是最高层。
图1C示例了形成根据现有技术的遮蔽层的分层深度模型的片段。遮蔽层包括相对于其深度最接近于顶层的模型层的另外的层片段,如在图1C中由遮蔽层OL所示。因此,当沿深度方向在顶层之后存在另外的层时,该层提供遮蔽信息。注意在之后的图中,作为观看方向PVD对应于下面的结果。因为在该例子中,遮蔽层在顶层下面,遮蔽层一般改变层以及顶层中的不连续或跳跃,如使用跳跃J1、J2、J3和J4所示。
对于遮蔽层OL,注意尽管在图1C中L1下面的中心片段包括在遮蔽层中,但这不是强制的。事实上,由于所再现的视图需要再现遮蔽层的该片段仅仅具有很低的概率,可以将其从模型中完全删除,从而节省存储空间。由于不包括该信息,在再现期间,可能有必要后退到插值或像素重复,以便填充遮蔽层中的这样的孔。
以上清楚地示出了试探法在确定遮蔽层中包括什么以及不包括什么时起重要作用。
图1D示例了根据本发明的遮蔽信息,在此为遮蔽层OL2的形式。如图1D所示,与顶层TL和遮蔽层两者中的同时深度转变J1、J2、J3或J4相邻的安全区域SR1、SR2、SR3或SR4中的遮蔽层的片段替换为对应的顶层TL1、TL2、TL3或TL4的片段。安全区域设置在深度转变的外侧,对应于顶层中深度值相对于主观看方向PVD最低的深度转变的那一侧。
图1A-1D中所呈现的遮蔽层和深度层包括纹理信息(在此为黑/灰)以及深度信息(z-分量)。
技术人员将清楚,可以以各种方式对包括主视图信息和如图1D所示的遮蔽层信息OL2的分层深度模型进行编码。第一种方法是例如对如图1A所示的分层深度模型进行编码,另外对与安全区域TL1、TL2、TL3和TL4有关的信息(作为遮蔽信息)进行编码。另一种方法是对如图1B所示的顶层以及如图1D所示的遮蔽层OL2进行编码,并且结合使用两者作为简化的分层深度模型。然而,不管如何对分层深度模型进行编码,在安全区域中,遮蔽信息OL2对应于顶层信息TL,将根据本发明的分层深度模型分开就在于此。
图1C所示的遮蔽层OL对应于这样的遮蔽层,其中为每个像素分配亮度和深度值。因此,不需要遮蔽层的运行时间成分。
图2A示出了分层深度图像,包括顶层TL,其对应于图1A的顶层TL。另外,图2A示例了将透明度用于顶层TL的片段,以便在再现中获得平滑的对象边缘。这里透明度用于防止出现锯齿状边缘。注意,向着层的相应片段的端部,对应于不透明度的阿尔法值是减小的,从而导致分层深度模型的顶层中的透明边缘。
图2B示出了分层深度图像,包括如参照图1D所述的根据本发明一个实施例的遮蔽层。图2B中包括顶层TL的透明度信息,根据本发明一个实施例,其已经提供有针对安全区域的修正的透明度/不透明度值。尽管严格来讲,如上所示在安全区域中并不需要透明度区域,添加这样的信息可改善对分层深度模型的按比例缩小或压缩。
图3示出了根据本发明一个优选实施例的安全区域内的透明度值的进一步的改进。在该图中,预定数目的连续全透明像素设置成与深度转变相邻。同样,在所述转变的左侧,使用预定数目的连续全不透明像素。由于在安全区域中存在这些附加的透明/不透明像素,安全区域的透明度梯度对经缩放的顶层的透明度的影响保持最小。由于这些像素,主视图透明度信息将保持基本上不受安全区域中的透明度梯度的影响;即假设全透明像素的数目选择得大到足以补偿按比例缩小因子。
尽管已经描述了本发明用于提供沿水平方向,即沿x-轴方向的安全区域,本发明也可以有利地沿竖直方向应用。
例如,当按比例缩小以最大分辨率1920 x 1080提供的内容(其必须能够按比例缩小到640 x 480,即按比例缩小因子在水平方向上为3)时,优选地在水平方向上引入7像素宽的安全区域。优选地具有2像素安全区域以防止编码影响层边界。因此,理论上使用6像素安全区域是足够的。在实践中,由于例如非对称滤波核,7像素宽安全区域是优选的。由于对于许多目前的应用,竖直方向上的假象相关性较小,将3像素安全区域应用于竖直方向。
将安全区域用于保护遮蔽数据的比率在图7A-7D中示出。图7A提供了表示分层深度图像的顶层和遮蔽层的输入图像的摘录集。图像710提供颜色图像的摘录,其中椭圆形对象部分地遮蔽了矩形条状对象。图像712提供的摘录示出对应的深度图,其中较亮的色调较接近于“相机”,图像710和712一起形成顶层。同样,图像714、716提供遮蔽层,其分别包括遮蔽颜色图像和遮蔽深度图。
图7B提供了对应于相应图像710、712、714和716的输入图像720、722、724和726的摘录集,例外是遮蔽层是根据本发明的一个实施例生成的。具体而言,注意属于条状矩形对象的顶层的颜色信息和深度信息覆盖图7B中的遮蔽层的面积比图7A中大(即在条状矩形之后有较少的星形遮蔽信息)。这是在遮蔽层中“拷贝”顶层信息的结果。
图7C示出了基于在图7A中示出摘录的输入图像的再现的视图,即基于根据现有技术的遮蔽层(在编码/解码之后)再现的视图。图7C示出了如区域745中所示、并且再一次在区域740中放大的明显再现假象。
图7D示出了基于在图7A中示出摘录的输入图像的再现的视图,即基于根据本发明的遮蔽层(在编码/解码之后)再现的视图。图7D示出了如区域755中所示、并且再一次在区域750中放大的明显较少的假象。
如上所述的遮蔽层可以有利地用于存储或分配内容。因此,被提供有如此处理的遮蔽层的内容可以利用在优选权日一般可用的按比例缩小工具来按比例缩小。这样的内容对于编码/解码也较有弹性。而且,不需要调节这些按比例缩放算法来迎合所使用的实际遮蔽格式的特质,相反,遮蔽信息一般可以以类似于常规二维图像的方式来按比例缩小。可替换地,本文所述的方法可以刚好在按比例缩小之前应用(不必在内容创建侧)。或者,它可以在内容创建侧应用,同时具有大到足以保护不受编码的影响的安全余量,但不必足以保护不受大的按比例缩小因子的影响,然后再次具有针对即将到来的按比例缩小操作而定制的较大安全余量。
图4A示例了根据本发明另一个实施例的用于主视图信息的深度孔保护区域DHP的概念。图4A示出的深度轮廓包括两个孔。假设这些孔足够窄,即深度孔保护区域DHP的宽度低于第一阈值,例如当按比例缩小到三分之一时为3个像素,按比例缩放之后的深度孔可完全消失。图4A示例的深度孔保护方案是遮蔽信息安全区域的补充。
在图4A中,通过将区段D1和D2的深度值设置为表示深度孔的高边缘的线性插值的值,将主视图信息中的两个孔“补上”。另外,区段D1和D2的不透明度设置为0;即,使它们为透明。由于该方法,有效地将主视图信息中的两个深度孔替换为两个较不可能导致假象的透明“窗口”。
图4B示例了根据本发明一个实施例的用于主视图信息的深度尖保护区域DSP的概念。图4B示出的深度轮廓包括深度尖。假设该尖足够窄,即尖的宽度低于特定数目的像素,例如当按比例缩小到三分之一时为3个像素,按比例缩放之后的深度尖可完全消失。图4B示例的深度尖保护方案是遮蔽信息安全区域的补充。
在图4B中,通过将区段D3和D4的深度值设置为表示尖的高边缘的连续的值来扩展主视图信息中的尖。另外,区段D3和D4的不透明度设置为0;即,使它们为透明。由于该方法,使所述尖宽到足以挽救按比例缩放过程,但借助于透明度值使“侧瓣”透明。
图5示出了场景的分层深度模型的处理方法500的流程图。该方法包括如下步骤:获得505场景的三维模型,其可以是分层深度模型或线框模型,或者其它适合的三维场景模型。
该方法进一步包括提供510场景的分层深度模式,其中分层深度模型包括:主视图信息,用于从主观看方向看的场景的主视图;以及与主视图信息相关联的遮蔽信息,用于再现场景的其它视图。主视图信息又包括模型的层片段,其沿深度方向相对于主观看方向是最近的。遮蔽信息包括模型的另外的层片段。遮蔽信息包括与为之提供遮蔽信息的深度转变相邻的安全区域。安全区域又包括主视图信息的对应的片段,且安全区域位于相应的深度转变的那一侧,其沿深度方向相对于主观看方向是最远的。
可选地,图5中所述的方法可进一步包括如下步骤:诸如通过按比例缩小、编码、存储、传输和/或可替换地再现来处理515分层深度模型。
图6A示出了用于处理场景的三维模型的装置600。该装置包括接收部件670,其设置成接收场景的三维模型。接收部件可以是用于从无线网络接收信息的接收器,或者是可替换的输入单元,用于从例如数据载体获取场景的三维模型。
装置600进一步包括用于提供场景的分层深度模型605的装置610。所提供的深度模型605的层包括:主视图信息,用于从主观看方向看的场景的主视图;以及与主视图信息相关联的遮蔽信息,用于再现场景的其它视图。装置610设置成提供:主视图信息,使得它包括模型的层片段,所述层片段相对于其深度最接近于主视图的视点;以及遮蔽信息,使得它包括模型的另外的层片段。遮蔽信息包括与为之提供遮蔽信息的深度转变相邻的安全区域,其中安全区域包括主视图信息的对应的片段,其中安全区域位于相应的深度转变的那一侧,其沿深度方向相对于主观看方向是最远的。
可选地,所述装置进一步包括处理部件680,其可以是例如通用处理器、ASIC或其它处理平台,用于处理分层深度模型605。所述处理可包括例如按比例缩小、编码、存储、传输和/或可替换地再现。
如图6A所示的装置610也可以设置成将信号615单独输出到消费装置620,或者可替换地,如图6B所示,信号615可通过网络630分配,网络630可以是例如家庭内网络、另一种内部网或因特网。
尽管已经针对处理场景的三维模型描述了装置610,场景的三维模型也可以是分层深度模型,其在特别有利的情况下可以是包括也可称为复合层的顶层625以及遮蔽层635的两层模式,如图6C所示。
应理解,为了清楚起见,以上说明书参照不同功能单元和处理器描述了本发明的实施例。然而,显然在不减损本发明的情况下,可以使用不同功能单元或处理器之间的功能性的任何适合的分布。例如,示例为由分开的单元、处理器或控制器执行的功能性可以由同一个处理器或控制器执行。因此,提及特定的功能单元仅仅是要被看作提及用于提供所述功能性的适当装置,而不是要指示严格的逻辑或物理结构或组织。
可以以任何适当的形式实施本发明,包括硬件、软件、固件或其任何组合。可选地,本发明可以至少部分实施为在一个或更多个数据处理器和/或数字信号处理器上运行的计算机软件。本发明实施例的要素和成分可以以任何适合的方式以物理方式、以功能方式以及以逻辑方式实施。事实上,功能性可以在单个单元、多个单元或作为其它功能单元的一部分实现。因此,本发明可以在单个单元中实现,或者可以在不同单元和处理器之间以物理方式和以功能方式分布。
尽管已经结合一些实施例描述了本发明,但并不是想要局限于本文所阐述的特定形式。相反,本发明的范围仅由所附权利要求来限制。另外,尽管可能看起来结合特定的实施例描述了特征,本领域的技术人员将认识到,可以根据本发明来组合所述实施例的各种特征。在权利要求中,字眼包括并不排除其它要素或步骤的存在。
此外,尽管已分别列出,多个部件、要素或方法步骤也可以由例如单个单元或处理器实现。另外,尽管各个特征可以包括在不同的权利要求中,也可以有利地组合这些特征,而包括在不同的权利要求中并不意味着特征的组合不可行和/或不有利。而且,一类权利要求中包括一个特征并不意味着限制于该类,而是指示该特征可等同地适用于其它适合的权利要求类别。此外,特征在权利要求中的顺序并不意味着所述特征必须遵循的任何特定顺序,并且特别是各个步骤在方法权利要求中的顺序并不意味着必须按照该顺序执行这些步骤。相反,所述步骤可以按照任何适合的顺序执行。另外,提及单数并不排除多个。因此提及“一”、“一个”、“第一”、“第二”等并不排除多个,权利要求中的参考标号仅仅提供为澄清性例子,而不应以任何方式被理解为是对权利要求范围的限制。

Claims (16)

1. 一种提供(510)场景的分层深度模型(605)的方法,深度模型(605)的层包括:主视图信息,用于从主观看方向(PVD)看的场景的主视图;以及与主视图信息相关联的遮蔽信息,用于再现场景的其它视图,其中:
-主视图信息包括模型的层片段,其沿深度方向相对于主观看方向是最近的,以及
-遮蔽信息包括模型的另外的层片段,其中遮蔽信息包括与为之提供遮蔽信息的深度转变(J1、J2、J3、J4)相邻的安全区域(SR),其中安全区域包括主视图信息的对应的片段,其中安全区域(SR)位于相应的深度转变的那一侧,其沿深度方向相对于主观看方向是最远的。
2. 如权利要求1所述的方法,其中:
主视图信息和遮蔽信息各包括图像信息和深度信息两者。
3. 如权利要求1所述的方法,其中:
分层深度模型(605)是两层模型,包括:
-对主视图信息进行编码的顶层(TL);以及
-对遮蔽信息进行编码的遮蔽层(OL2)。
4. 如权利要求3所述的方法,其中:
每当没有其它信息可用时,遮蔽层(OL2)包括顶层(TL)的对应的片段。
5. 如权利要求1-4中的任一项所述的方法,其中:
遮蔽信息的大小是基于如下中的一种:
-基于与主视图视角的最大偏差和深度信息的宽度;
-深度转变一侧的预定宽度;以及
-深度转变一侧的预定宽度和另一侧的另一预定宽度。
6. 如权利要求1-4中的任一项所述的方法,其中:
安全区域(SR)的大小是基于如下中的一种:
-预定最大按比例缩小因子;以及
-遮蔽信息编解码的粒度。
7. 如上述权利要求中的任一项所述的方法,其中:
分层深度模型(605)进一步包括:
-用于主视图信息的透明度信息,其中与深度转变相邻的安全区域(SR)中的透明度值基本上是透明,而在安全区域的另一端的安全区域中的透明度值基本上是不透明的。
8. 如权利要求7所述的方法,其中:
安全区域(SR)中的透明度值包括如下中的一种:
-从与深度转变相邻的基本上透明到安全区域另一端的基本上不透明的梯度;
-预定数目的与深度转变相邻的连续的基本上透明的像素;
-预定数目的与深度转变相邻的连续的基本上透明的像素,以及另外的预定数目的在安全区域的另一端的连续的基本上不透明的像素;
-预定数目的与深度转变相邻的连续的基本上透明的像素,以及从与连续全透明像素相邻的基本上透明到基本上不透明的梯度;
-预定数目的与深度转变相邻的连续的基本上透明的像素,以及从与连续全透明像素相邻的基本上透明到基本上不透明的梯度,之后是另外的预定数目的连续的基本上不透明的像素;以及
-预定数目的与深度转变相邻的连续的基本上透明的像素,以及从与连续全透明像素相邻的基本上透明到基本上不透明的突然转变,该转变与视频编解码的块边界对准,该转变之后是另外的预定数目的连续的基本上不透明的像素。
9. 如权利要求7或8所述的方法,其中:
在主视图信息中,针对包括深度孔的区域提供深度孔保护区域(DHP),该深度孔具有低于第一阈值宽度的宽度,并且在深度孔保护区域中:
-主视图深度信息(D1、D2)基于深度孔的两个高边缘深度值;并且
-相邻深度跳跃之间的透明度值设置为基本上透明。
10. 如权利要求7-9中任一项所述的方法,其中:
在主视图信息中,针对包括深度尖的区域提供深度尖保护区域(DSP),该深度尖具有低于第二阈值宽度的宽度,并且在深度尖保护区域中:
-主视图深度信息设置为深度尖保护区域内深度尖的顶部的深度值;并且
-深度尖之外的深度尖保护区域内的透明度值设置为基本上透明。
11. 一种处理(500)场景的三维模型的方法,该方法包括:
-获得(505)场景的三维模型;
-根据权利要求1-10中的任一项提供(510)场景的分层深度模型;以及
-处理(515)场景的三维模型。
12. 一种包括场景的分层深度模型(605)的信号(615),深度模型(605)的层包括:
-编码的主视图信息,用于从主观看方向(PVD)看的场景的主视图,主视图信息包括模型的层片段,其沿深度方向相对于主观看方向是最近的;以及
-与主视图信息相关联的编码的遮蔽信息,用于再现场景的其它视图,其中遮蔽信息包括模型的另外的层片段,其中遮蔽信息包括与为之提供遮蔽信息的深度转变(J1、J2、J3、J4)相邻的安全区域(SR),其中安全区域包括主视图信息的对应的片段,其中安全区域(SR)位于相应的深度转变的那一侧,其沿深度方向相对于主观看方向是最远的。
13. 如权利要求12所述的信号,其中:
分层深度模型是两层模型,包括:
-对主视图信息进行编码的顶层(TL);以及
-对遮蔽信息进行编码的遮蔽层(OL2)。
14. 一种用于提供场景的分层深度模型(605)的装置(610),该深度模型(605)的层包括:主视图信息,用于从主观看方向(PVD)看的场景的主视图;以及与主视图信息相关联的遮蔽信息,用于再现场景的其它视图,所述装置(610)设置成提供:
-主视图信息,使得它包括模型的层片段,该层片段相对于其深度最接近于主视图的视点,以及
-遮蔽信息,使得它包括模型的另外的层片段,
其中遮蔽信息包括与为之提供遮蔽信息的深度转变(J1、J2、J3、J4)相邻的安全区域(SR),其中安全区域(SR)包括主视图信息的对应的片段,其中安全区域(SR)位于相应的深度转变的那一侧,其沿深度方向相对于主观看方向是最远的。
15. 一种用于处理场景的三维模型的装置(600),该装置包括:
-接收部件(670),设置成接收场景的三维模型;
-按照权利要求14所述的用于提供场景的分层深度模型(605)的装置(610),设置成基于场景的三维模型来提供分层深度模型;以及
-处理(680)部件,设置成处理分层深度模型。
16. 一种计算机程序产品,包括用于执行权利要求1-11中的任一项所述的方法的程序指令。
CN200980141867.6A 2008-10-21 2009-10-15 用于提供场景的分层深度模型的方法和装置 Expired - Fee Related CN102197415B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08167120.8 2008-10-21
EP08167120A EP2180449A1 (en) 2008-10-21 2008-10-21 Method and device for providing a layered depth model of a scene
PCT/IB2009/054543 WO2010046817A1 (en) 2008-10-21 2009-10-15 Method and device for providing a layered depth model of a scene

Publications (2)

Publication Number Publication Date
CN102197415A true CN102197415A (zh) 2011-09-21
CN102197415B CN102197415B (zh) 2014-11-26

Family

ID=40815516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200980141867.6A Expired - Fee Related CN102197415B (zh) 2008-10-21 2009-10-15 用于提供场景的分层深度模型的方法和装置

Country Status (9)

Country Link
US (1) US20110199379A1 (zh)
EP (2) EP2180449A1 (zh)
JP (1) JP5173028B2 (zh)
KR (1) KR101689343B1 (zh)
CN (1) CN102197415B (zh)
BR (1) BRPI0914498A2 (zh)
RU (1) RU2513894C2 (zh)
TW (1) TWI517663B (zh)
WO (1) WO2010046817A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509119A (zh) * 2011-09-30 2012-06-20 北京航空航天大学 一种基于分类器的图像场景分层与对象遮挡处理方法
CN104219516A (zh) * 2014-09-01 2014-12-17 北京邮电大学 一种数字分层的三维显示方法及装置
CN105323573A (zh) * 2014-07-16 2016-02-10 北京三星通信技术研究有限公司 三维图像显示装置和方法
CN106464853A (zh) * 2014-05-21 2017-02-22 索尼公司 图像处理设备和方法
CN106688231A (zh) * 2014-09-09 2017-05-17 诺基亚技术有限公司 立体图像记录和回放
CN111272144A (zh) * 2018-12-05 2020-06-12 快图有限公司 深度感测相机***

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011058492A1 (en) 2009-11-13 2011-05-19 Koninklijke Philips Electronics N.V. Efficient coding of depth transitions in 3d ((video))
KR20110135786A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
CN101902657B (zh) * 2010-07-16 2011-12-21 浙江大学 一种基于深度图分层的虚拟多视点图像的生成方法
EP2458877A1 (en) * 2010-11-26 2012-05-30 Thomson Licensing Occlusion layer extension
EP2533212A1 (en) * 2011-06-10 2012-12-12 Samsung Electronics Co., Ltd. Reference layer for hole recovery within an output image.
KR20130001869A (ko) * 2011-06-28 2013-01-07 삼성전자주식회사 영상처리장치 및 영상처리방법
EP2742695A4 (en) * 2011-08-10 2016-08-31 Ericsson Telefon Ab L M METHOD AND APPARATUS FOR CREATING A DISOCLEMENT CARD USED FOR 3D VIDEO CODING
US9613453B2 (en) * 2011-10-04 2017-04-04 Google Inc. Systems and method for performing a three pass rendering of images
KR20130074383A (ko) * 2011-12-26 2013-07-04 삼성전자주식회사 다중-레이어 표현을 사용하는 영상 처리 방법 및 장치
EP2917893A4 (en) * 2012-11-12 2015-11-25 Ericsson Telefon Ab L M PROCESSING DEPICTIONS
US20140267616A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation
US9426451B2 (en) 2013-03-15 2016-08-23 Digimarc Corporation Cooperative photography
CN104168482B (zh) * 2014-06-27 2018-12-21 中安消技术有限公司 一种视频编解码方法及装置
KR102059732B1 (ko) * 2014-12-03 2020-02-20 노키아 테크놀로지스 오와이 디지털 비디오 렌더링
EP3273686A1 (en) 2016-07-21 2018-01-24 Thomson Licensing A method for generating layered depth data of a scene
US10325403B2 (en) * 2016-08-24 2019-06-18 Google Llc Image based rendering techniques for virtual reality
EP3552183B1 (en) * 2016-12-06 2021-09-15 Koninklijke Philips N.V. Apparatus and method for generating a light intensity image
GB2565301A (en) * 2017-08-08 2019-02-13 Nokia Technologies Oy Three-dimensional video processing
WO2019077199A1 (en) * 2017-10-18 2019-04-25 Nokia Technologies Oy APPARATUS, METHOD, AND COMPUTER PROGRAM FOR VOLUMETRIC VIDEO
TWI815842B (zh) * 2018-01-16 2023-09-21 日商索尼股份有限公司 影像處理裝置及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040090523A1 (en) * 2001-06-27 2004-05-13 Tetsujiro Kondo Image processing apparatus and method and image pickup apparatus
CN1853200A (zh) * 2003-09-17 2006-10-25 皇家飞利浦电子股份有限公司 用于在3-d图像显示屏上显示3-d图像的***和方法
CN1989773A (zh) * 2004-05-26 2007-06-27 蒂博尔·包洛格 生成3d图像的方法与设备
WO2007148219A2 (en) * 2006-06-23 2007-12-27 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5706417A (en) * 1992-05-27 1998-01-06 Massachusetts Institute Of Technology Layered representation for image coding
US5703961A (en) * 1994-12-29 1997-12-30 Worldscape L.L.C. Image transformation and synthesis methods
JP3826236B2 (ja) * 1995-05-08 2006-09-27 松下電器産業株式会社 中間像生成方法、中間像生成装置、視差推定方法、及び画像伝送表示装置
US5687331A (en) * 1995-08-03 1997-11-11 Microsoft Corporation Method and system for displaying an animated focus item
JP3769850B2 (ja) * 1996-12-26 2006-04-26 松下電器産業株式会社 中間視点画像生成方法および視差推定方法および画像伝送方法
US6266068B1 (en) * 1998-03-13 2001-07-24 Compaq Computer Corporation Multi-layer image-based rendering for video synthesis
US6466207B1 (en) * 1998-03-18 2002-10-15 Microsoft Corporation Real-time image rendering with layered depth images
US6348918B1 (en) * 1998-03-20 2002-02-19 Microsoft Corporation Stereo reconstruction employing a layered approach
US6760021B1 (en) * 2000-07-13 2004-07-06 Orasee Corp. Multi-dimensional image system for digital image input and output
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
KR100561837B1 (ko) * 2001-07-09 2006-03-16 삼성전자주식회사 삼차원 환경에서 이미지 기반의 랜더링의 정보를 표현하기위한 방법
RU2237283C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Устройство и способ представления трехмерного объекта на основе изображений с глубиной
RU2237284C2 (ru) * 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Способ генерирования структуры узлов, предназначенных для представления трехмерных объектов с использованием изображений с глубиной
US6941024B2 (en) * 2002-01-14 2005-09-06 Hewlett-Packard Development Company, L.P. Coder matched layer separation and interpolation for compression of compound documents
US7081892B2 (en) * 2002-04-09 2006-07-25 Sony Computer Entertainment America Inc. Image with depth of field using z-buffer image data and alpha blending
JP3950376B2 (ja) * 2002-06-26 2007-08-01 日本電信電話株式会社 3次元点群からの形状モデル生成方法と装置、並びに、3次元点群からの形状モデル生成プログラムと該プログラムを記録した記録媒体
EP1437898A1 (en) * 2002-12-30 2004-07-14 Koninklijke Philips Electronics N.V. Video filtering for stereo images
DE10360789B4 (de) * 2003-12-23 2007-03-15 Leuze Lumiflex Gmbh + Co. Kg Vorrichtung zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
EP1587035A1 (en) * 2004-04-14 2005-10-19 Koninklijke Philips Electronics N.V. Ghost artifact reduction for rendering 2.5D graphics
US7015926B2 (en) * 2004-06-28 2006-03-21 Microsoft Corporation System and process for generating a two-layer, 3D representation of a scene
JP2006053694A (ja) * 2004-08-10 2006-02-23 Riyuukoku Univ 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体
CN101061519B (zh) * 2004-11-16 2011-05-18 皇家飞利浦电子股份有限公司 基于图像分割绘制图像
US8624964B2 (en) * 2005-12-02 2014-01-07 Koninklijke Philips N.V. Depth dependent filtering of image signal
US7623137B1 (en) * 2006-02-15 2009-11-24 Adobe Systems, Incorporated Successive-convolution-compositing technique for rendering translucent surfaces
US7589724B1 (en) * 2006-02-15 2009-09-15 Adobe Systems, Incorporated Successive-convolution-compositing technique for rendering soft shadows
US20080036763A1 (en) * 2006-08-09 2008-02-14 Mediatek Inc. Method and system for computer graphics with out-of-band (oob) background
US7969438B2 (en) * 2007-01-23 2011-06-28 Pacific Data Images Llc Soft shadows for cinematic lighting for computer graphics
WO2009001255A1 (en) * 2007-06-26 2008-12-31 Koninklijke Philips Electronics N.V. Method and system for encoding a 3d video signal, enclosed 3d video signal, method and system for decoder for a 3d video signal
CN102165495B (zh) * 2008-09-25 2014-11-26 皇家飞利浦电子股份有限公司 三维图像数据处理
JP5527856B2 (ja) * 2008-09-25 2014-06-25 コーニンクレッカ フィリップス エヌ ヴェ 三次元画像データ処理
JP5419044B2 (ja) 2008-12-20 2014-02-19 国立大学法人 東京大学 ボリュームデータの実時間レンダリング方法及び装置
KR20130074383A (ko) * 2011-12-26 2013-07-04 삼성전자주식회사 다중-레이어 표현을 사용하는 영상 처리 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040090523A1 (en) * 2001-06-27 2004-05-13 Tetsujiro Kondo Image processing apparatus and method and image pickup apparatus
CN1853200A (zh) * 2003-09-17 2006-10-25 皇家飞利浦电子股份有限公司 用于在3-d图像显示屏上显示3-d图像的***和方法
CN1989773A (zh) * 2004-05-26 2007-06-27 蒂博尔·包洛格 生成3d图像的方法与设备
WO2007148219A2 (en) * 2006-06-23 2007-12-27 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
C. LAWRENCE ZITNICK ET AL: "High-quality video view interpolation using a layered representation", 《ACM TRANSACTIONS ON GRAPHICS - PROCEEDINGS OF ACM SIGGRAPH 2004》 *
CHRISTOPH FEHN ET AL: "Depth-Image-Based Rendering (DIBR), Compression and Transmission for a New Approach on 3D-TV", 《PROC. SPIE 5291, STEREOSCOPIC DISPLAYS AND VIRTUAL REALITY SYSTEMS XI》 *
XIAOYU CHENG ET AL: "Generation of Layered Depth Images from Multi-View Video", 《ICIP 2007》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509119A (zh) * 2011-09-30 2012-06-20 北京航空航天大学 一种基于分类器的图像场景分层与对象遮挡处理方法
CN102509119B (zh) * 2011-09-30 2014-03-05 北京航空航天大学 一种基于分类器的图像场景分层与对象遮挡处理方法
CN106464853A (zh) * 2014-05-21 2017-02-22 索尼公司 图像处理设备和方法
CN106464853B (zh) * 2014-05-21 2019-07-16 索尼公司 图像处理设备和方法
US10547822B2 (en) 2014-05-21 2020-01-28 Sony Corporation Image processing apparatus and method to generate high-definition viewpoint interpolation image
CN105323573A (zh) * 2014-07-16 2016-02-10 北京三星通信技术研究有限公司 三维图像显示装置和方法
CN105323573B (zh) * 2014-07-16 2019-02-05 北京三星通信技术研究有限公司 三维图像显示装置和方法
CN104219516A (zh) * 2014-09-01 2014-12-17 北京邮电大学 一种数字分层的三维显示方法及装置
CN106688231A (zh) * 2014-09-09 2017-05-17 诺基亚技术有限公司 立体图像记录和回放
CN111272144A (zh) * 2018-12-05 2020-06-12 快图有限公司 深度感测相机***

Also Published As

Publication number Publication date
KR20110074775A (ko) 2011-07-01
KR101689343B1 (ko) 2016-12-23
WO2010046817A1 (en) 2010-04-29
US20110199379A1 (en) 2011-08-18
JP5173028B2 (ja) 2013-03-27
EP2340527B1 (en) 2013-09-25
RU2513894C2 (ru) 2014-04-20
TWI517663B (zh) 2016-01-11
BRPI0914498A2 (pt) 2015-10-27
EP2340527A1 (en) 2011-07-06
TW201021544A (en) 2010-06-01
CN102197415B (zh) 2014-11-26
RU2011120459A (ru) 2012-11-27
JP2012506573A (ja) 2012-03-15
EP2180449A1 (en) 2010-04-28

Similar Documents

Publication Publication Date Title
CN102197415B (zh) 用于提供场景的分层深度模型的方法和装置
CN102204264B (zh) 用于编码3d图像信号的方法和***、用于译码3d图像信号的方法和***
CN106664397B (zh) 用于生成三维图像的方法和装置
US8767046B2 (en) Image based 3D video format
CN102165495B (zh) 三维图像数据处理
CN1942902B (zh) 用于2.5维图像再现的重影虚像的削减
CN101822068A (zh) 用于处理深度图的方法和设备
US20110149037A1 (en) Method and system for encoding a 3D video signal, encoder for encoding a 3-D video signal, encoded 3D video signal, method and system for decoding a 3D video signal, decoder for decoding a 3D video signal.
CN102884799B (zh) 用于3维视频的舒适噪声和胶片颗粒处理
CN101103380A (zh) 深度感知
JP2011523743A (ja) 深さ情報を有するビデオ信号
CN104838648A (zh) 用于创建和重建视频流的装置和方法
JP7344988B2 (ja) ボリュメトリック映像の符号化および復号化のための方法、装置、およびコンピュータプログラム製品
Du et al. Improving visual quality of view transitions in automultiscopic displays
JP2008250477A (ja) 局所領域分割型自由視点映像生成方式におけるオクルージョン処理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141126

Termination date: 20201015