CN105453560A - 多视点图像处理设备及其图像处理方法 - Google Patents
多视点图像处理设备及其图像处理方法 Download PDFInfo
- Publication number
- CN105453560A CN105453560A CN201480042303.8A CN201480042303A CN105453560A CN 105453560 A CN105453560 A CN 105453560A CN 201480042303 A CN201480042303 A CN 201480042303A CN 105453560 A CN105453560 A CN 105453560A
- Authority
- CN
- China
- Prior art keywords
- depth
- osd
- region
- osd region
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
公开了一种多视点图像显示设备。多视点图像处理设备包括:深度提取器,被配置为提取三维(3D)输入图像的深度信息;深度校正器,被配置为基于提取出的深度信息和与3D输入图像中的在屏显示(OSD)区域相应的OSD掩膜信息来校正3D输入图像中的OSD区域的深度;渲染装置,被配置为使用3D输入图像和校正后的深度来对多视点图像进行渲染。
Description
技术领域
与示例性实施例一致的设备和方法涉及多视点图像处理设备及其图像处理方法。具体而言,示例性实施例涉及非眼镜型多视点图像处理设备及其图像处理方法。
背景技术
随着电子技术的发展,各种类型的电子装置已经被开发并配销。具体而言,诸如最常见的家用电子装置之一的电视机(TV)的显示设备近年来已经得到迅速的发展。
随着显示装置的性能已经提高,由显示装置显示的内容的类型已经多样化。特别是,在现有技术中,用于观看三维(3D)内容的立体显示***已经被开发并配销。
现有技术立体显示装置可被实现为各种类型的显示装置,诸如,各种监视器、蜂窝电话、个人数字助理(PDA)、个人计算机(PC)、机顶盒、平板PC、电子框、一体机等。现有技术立体显示装置也可被实现为家中的3DTV。此外,除了在家被使用外,3D显示技术还可在需要3D成像的各种领域(诸如,科学、医疗、设计、教育、广告、计算机游戏等)中被使用。
现有技术立体显示***可主要分为非眼镜型***和眼镜型***,其中,通过非眼镜型***可不用眼镜观看到图像,通过眼镜型***可用眼镜观看到图像。
虽然现有技术的眼镜型***提供了令人满意的立体效果,但是用户必须经历配戴眼镜的不便。在现有技术的非眼镜型***中,用户无需眼镜便可观看3D图像。因此,对非眼镜型***的开发已经增加。
现有技术非眼镜类型***向观看者显示多视点图像,例如,N-视点图像。因此,需要N个多视点图像。由相机获取N个多视图图像。然而,在N>2的情况下,在***实现中获得N个多视点图像是困难的。
因此,现有技术非眼镜型***提取深度信息,并随后当立体图像被输入时对多视点图像进行渲染。然而,当输入的立体图像包括在屏显示(OSD)信息时,难以在深度信息的提取期间从OSD区域得到准确的深度信息。因此,在OSD区域的深度信息中出现误差。因此,所显示的OSD图像失真。
发明内容
技术问题
示例性实施例可提供多视点图像处理设备及其图像处理方法,其中,所述图像处理方法校正三维(3D)图像中的在屏显示(OSD)区域的深度。因此,防止了图像失真。
解决问题的方案
示例性实施例可克服以上缺点以及以上未描述的其它缺点。并且,示例性实施例不需要克服上述缺点。此外,示例性实施例可不克服上述问题中的任何问题。
根据示例性实施例的一方面,多视点图像处理设备包括:深度提取器,被配置为提取三维(3D)输入图像的深度信息;深度校正器,被配置为基于提取出的深度信息和与3D输入图像中的在屏显示(OSD)区域相应的OSD掩膜信息来校正3D输入图像中的OSD区域的深度;渲染装置,被配置为使用3D输入图像和校正后的深度来对多视点图像进行渲染。
深度提取器还可被配置为基于提取出的深度信息产生深度图,深度校正器还可被配置为在深度图中校正OSD区域的深度值。
深度校正器还可被配置为在深度图中将OSD区域的深度值校正为第一深度值。
深度校正器还可被配置为在深度图中将除了OSD区域之外的其余区域的多个深度值校正为第二深度值。
深度校正器还可被配置为在深度图中将OSD区域的整个区域的深度值校正为0。
多视点图像处理设备还可包括:显示装置,被配置为显示包括多个OSD区域的3D输入图像;用户接口装置,被配置为接收用户命令;控制器,被配置为控制深度校正器将根据用户命令选择的至少一个OSD区域的深度与3D图像中的除了选择的所述至少一个OSD区域之外的其余OSD区域的多个深度不同地进行校正。
控制器还可被配置为:控制深度校正器将选择的所述至少一个OSD区域的深度校正为预设的第三深度值,并将除了选择的所述至少一个OSD区域之外的其余OSD区域的所述多个深度校正为0。
根据示例性实施例的另一方面,处理多视点图像的方法包括:提取三维(3D)输入图像的深度信息、基于提取出的深度信息和与3D输入图像中的在屏显示(OSD)区域相应的OSD掩膜信息来校正3D输入图像中的在屏显示(OSD)区域的深度,并使用3D输入图像和校正后的深度来对多视点图像进行渲染。
提取深度信息的步骤可包括基于提取出的深度信息产生深度图,校正深度的步骤可包括在深度图中校正OSD区域的深度值。
校正深度的步骤可包括:在深度图中将OSD区域的深度值校正为第一深度值。
校正深度的步骤可包括:在深度图中将除了OSD区域之外的其余区域的多个深度值校正为第二深度值。
校正深度的步骤可包括:在深度图中将OSD区域中的整个区域的深度值校正为0。
所述的方法还可包括:显示包括多个OSD区域的3D输入图像,接收用于选择多个OSD区域中的至少一个OSD区域的用户命令,并将根据用户命令选择的所述至少一个OSD区域的深度与除了选择的所述至少一个OSD区域之外的其余OSD区域的多个深度不同地进行校正。
校正深度的步骤可包括:将选择的所述至少一个OSD区域的深度校正为预设的第三深度值,并将除了选择的所述至少一个OSD区域之外的其余OSD区域的所述多个深度校正为0。
根据示例性实施例的另一方面,处理多视点图像的方法包括:显示包括至少一个内容区域的3D输入图像,将第一深度值应用于所述至少一个内容区域,并将第二深度值应用于除了所述至少一个内容区域之外的3D输入区域。第一个深度值与第二深度值不同。
如上所述,根据各种实施例,非眼镜型3D***可防止3D图像中OSD区域中的图像失真。
示例性实施例的附加的和/或其它方面和优点将在下面的描述中部分地被阐述,并且部分地将从描述中变得清楚,或者可通过示例性实施例的实践而得知。
发明的有益效果
此外,根据各种实施例,非眼镜型3D***可执行部分3D功能。
附图说明
通过参照附图描述特定的示例性实施例,示例性实施例的以上和/或其它方面将更加明显,其中:
图1是用于解释非眼镜三维(3D)显示设备的操作的示例的示图;
图2A是示出根据实施例的多视点图像处理设备的结构的框图;
图2B是示出根据实施例的多视点图像处理设备的结构的框图;
图3是用于解释根据实施例的示例性显示单元的示图;
图4A和图4B是用于解释根据实施例的在屏显示(OSD)掩膜信息的示图;
图5A至图5C是用于解释根据各种实施例的深度校正方法的示图;
图6是用于解释根据另一实施例的深度校正方法的示图;
图7A和图7B是用于解释根据另一实施例的深度校正方法的示图;
图8A至图8C是用于解释根据另一实施例的深度校正方法的示图;
图9是用于解释根据实施例的控制多视点图像处理设备的方法的流程图。
用于实施发明的最佳实施方式
具体实施方式
现在将参照附图对特定示例性实施例进行更加详细地描述。
图1是用于解释非眼镜三维(3D)显示设备的操作的示图。
图1是示出根据实施例的用于使用非眼镜方式显示多视点图像并提供立体图像的设备的操作。多视点图像包括通过在不同角度捕捉对象而获得的多个图像。换句话说,多视点图像是通过以不同角度折射在不同视点捕捉的多个图像并在预定距离(即,视点距离(例如,大约3米))聚焦多个图像而获得的。形成这些图像的位置被称为视区。因此,当用户的一只眼睛位于第一视区而用户的另一只眼睛位于第二视区时,用户可体验立体效果。
例如,图1是多视点图像(例如,总共具有6个视点)的显示操作的示图。参照图1,非眼镜3D显示设备允许与6个视点中的第一视点图像相应的光到达左眼并允许与6个视点中的第二视点图像相应的光到达右眼。因此,用户可使用左眼和右眼观看不同的视点图像以体验立体效果。
图2是示出根据实施例的多视点图像处理设备100的结构的框图。
参照图2A,多视点图像处理设备100包括深度提取器110、深度校正器120、渲染单元130和控制器140。
图像接收器(未示出)接收3D图像信号。3D图像可以是立体图像。立体图像包括通过在不同角度捕捉对象而获得的两个图像,即,左眼图像和右眼图像。立体图像可从各种源提供。例如,图像接收器(未示出)可通过有线或无线地从诸如广播频道的源接收立体图像。在这种情况下,图像接收器(未示出)可包括诸如调谐器、解调器、均衡器等的各种组件。此外,图像接收器(未示出)可接收通过用于再现诸如数字视频光盘(DVD)、蓝光光盘、存储卡等的各种介质的记录介质再现单元再现的立体图像,或者可直接接收通过相机捕捉的立体图像。在这种情况下,图像接收器(未示出)可包括诸如通用串口总线(USB)接口等的各种接口。图像接收器(未示出)可从诸如网络服务器的外部服务器接收立体图像。另外,3D图像可在2D-3D转换方案中基于2D图像产生,或者可以是具有3个或更多个视点的多视点图像。省略对其的详细描述。
深度提取器110基于左眼图像和右眼图像,提取关于存在于图像中的对象的深度信息。深度信息指示存在于图像中的对象的3D距离信息,并可被称为深度图或深度图像。例如,深度信息是指表示立体效果的信息,诸如,对象和相机之间的距离、对象和记录介质之间的距离等,其中,对象的图像在所述记录介质上被成像。换句话说,随着相应于左眼图像的点和相应于右眼图像的点之间的距离增大,立体效果得到提高。深度图可通过将深度的变化表示为一个图像来构造,并可按照根据在左眼图像和右眼图像中相互匹配的点之间的距离而不同的灰度级来表示。例如,深度图中的亮区表示相机和对象之间为短距离,深度图中的暗区表示相机和对象之间为长距离。
深度提取器110可表示图像的每个像素的从0到255的深度值,以指示存在于图像中的对象的3D距离信息。例如,基于黑/白,黑(低值)可指示离观看者的距离长,白(高值)可表示离观看者的距离短。
深度提取器110可执行在左眼图像和右眼图像中搜索匹配点的立体匹配操作以便产生深度图。在一些情况下,深度提取器110可应用自适应权重并执行立体匹配操作。
例如,左眼图像和右眼图像是通过在不同视点拍摄对象而获得的图像,从而由于视点差异而产生图像差异。例如,边缘部分和背景部分可在左眼图像中彼此重叠,并可在右眼图像中彼此稍微分隔开。因此,自适应权重可被应用以基于对象提高针对像素值在预定范围内的像素的权重,并且基于对象降低像素值在预定范围之外的像素的权重。因此,在自适应权重被分别应用于左眼图像和右眼图像之后,相互比较结果以确定点是否匹配。当应用自适应权重时,可防止合适的匹配点被确定为具有低相关性,从而提高匹配精度。
尽管未示出,多视点图像处理设备100还可包括尺寸缩小器(未示出),以降低产生深度图的计算负担。换句话说,尺寸缩小器(未示出)可缩小经由图像接收器(未示出)接收的图像的尺寸并将图像提供给深度提取器110,从而降低计算负担。
然而,当深度信息和图像一起被输入时,可省略由深度提取器110执行的功能。
深度校正器120基于与包含在3D图像中的在屏显示(OSD)区域相应的OSD掩膜信息和由深度提取器110提取出的深度信息来校正OSD区域的深度值。
深度校正器120可校正在由深度提取器110产生的深度图中的OSD区域的深度值。在这种情况下,OSD区域可经由OSD掩膜信息被识别。例如,OSD掩膜可针对相应于OSD区域的像素区域具有值“1”,并可针对其余的像素区域具有值“0”,但实施例不受限制。
深度校正器120可基于提取出的深度和OSD掩膜信息将OSD区域的深度值校正为第一深度值。换句话说,深度校正器120可应用统一的深度值以便防止包含在OSD区域中对象的透视被改变。
例如,深度校正器120可将以下值中的一个设置为第一深度值:由深度提取器110提取的OSD区域的深度值的最大值、最小值和中间值、OSD区域的中心或边界处的深度值、由用户输入的值和被确定为默认值(例如,0)的值,但实施例不受限制。例如,当第一深度值被设置为0时,OSD区域可位于焦平面上,其中,在焦平面上刚好实现透视。
作为另一示例,深度校正器120可设置第一深度值而不考虑周围区域的深度值。换句话说,深度校正器120可将类似于周围背景图像的深度值的值设置为深度值,以便防止OSD区域被表示为与周围背景图像不相关的和不连续的区域。换句话说,深度校正器120可将最类似于周围背景图像的深度值的值设置为在OSD区域的深度值之中的深度值。
此外,深度校正器120可基于提取出的深度和OSD掩膜信息在深度图中将除了OSD区域之外的其余区域的深度值校正为第二深度值。
例如,深度校正器120可设置以下值中的一个:由深度提取器110提取的除了OSD区域之外的其余区域的深度值的最大值、最小值和中间值、包含背景图像的对象的最大深度值或平均值、以及被确定为默认值(例如,0)的值,但实施例不受限制。
例如,深度校正器120可考虑OSD区域的深度值来设置第二深度值。例如,深度校正器120可将第二深度值设置为比为OSD区域设置的深度值更大的深度值。
此外,深度校正器120可在深度图中将包括OSD区域在内的整个区域的深度值校正为0。换句话说,当OSD区域存在于3D图像中时,深度校正器120可向OSD区域以及其余区域应用与2D图像的深度相同的深度以减少串扰。
此外,当一帧中包含多个OSD区域时,深度校正器120可针对多个OSD区域中的各个OSD区域设置不同的深度值或设置相同的深度值。
为了减少OSD区域(即,其中的深度被校正)上的闪烁,深度校正器120可执行深度时间平滑处理。换句话说,深度校正器120可对OSD区域(即,其中的深度被校正)中的非均匀深度值执行平滑处理以去除由于深度变化引起的文本闪烁,或者执行平滑处理以便去除由于在校正后的深度值和背景图像的深度值之间的差异而在OSD区域的边界引起的失真。
深度校正器120可通过诸如中值滤波器、加权平均滤波器、最大滤波器等的平滑滤波器对OSD区域(即,其中的深度被校正)执行平滑处理。
渲染单元130可使用2D图像或3D图像(或多视点图像)对多视点图像进行渲染,其中,通过深度校正器120校正所述3D图像的深度。渲染单元130可基于输入的3D图像或2D图像以及与图像分离地输入的深度信息来渲染多视点图像,或者基于输入的3D图像以及从相应的3D图像提取出的深度信息来渲染多视点图像。深度信息可以是由深度校正器120校正后的深度的信息。
例如,渲染单元130可选择3D图像(即,左眼图像和右眼图像中的一个)作为参考视图(或中心视图)来产生最左视图和最右视图作为多视点图像的参考。在这种情况下,渲染单元130可基于与左眼图像和右眼图像中的一个相应的校正后的深度信息来产生最左视图和最右视图,其中,左眼图像和右眼图像中的一个被选为参考视图。
当产生了最左视图和最右视图时,渲染单元130可在中心视图和最左视图之间产生多个内插视图并且在中心视图和最右视图之间产生多个内插视图,以对多视点图像进行渲染。然而,实施例不受限制。在另一实施例中,可使用外推方案来产生外推视图。当基于2D图像和深度信息对多视点图像进行渲染时,可选择2D图像作为中心视图。
在对多视点图像进行渲染之前,渲染单元130可执行对存在于最左视图和最右视图中的孔洞的孔洞填充处理,以补偿最左视图和最右视图。
此外,渲染单元130可复制与最左视图和最右视图中的一个相应的像素区域的值,并将所述值应用于基于中心视图、最左视图和最右视图产生的多视点图像中的每个图像的孔洞区域以修补所述孔洞区域。在这种情况下,孔洞填充处理可从靠近背景的部分执行。例如,当渲染总共35幅多视点图像时,与作为最右视图的第35视图相应的像素区域的值可被填充在存在于在作为中心视图的第17视图和作为最右视图的第35视点之间的第18视图到第34视图中的孔洞区域中。
然而,在一些实施例中,可基于输入图像对多视点图像中的每个图像执行孔洞填充处理。
根据上述实施例,虽然基于左眼图像和右眼图像校正OSD区域的深度,但是这是示例。根据另一实施例,在2D图像中检测到OSD区域后,可给OSD区域分配统一的深度值以产生左眼图像和右眼图像。
图2B是示出根据实施例的多视点图像显示设备200的结构的框图。
参照图2B,多视点图像显示设备200包括深度提取器110、深度校正器120、渲染单元130、显示单元140、用户接口单元150和控制器160。在图2B所示的组件之中,深度提取器110、深度校正器120和渲染单元130与图2A中的相同。因此,省略对它们的详细描述。
图2B的显示设备200可被实现为诸如电视机(TV)、监视器、个人计算机(PC)、一体机、平板PC、电子相框、一体机、蜂窝电话等的各种类型的显示装置。
显示单元140提供多视图(或多光学视图)。显示单元140包括用于提供多视图的显示面板141以及视场分离器142。
显示面板141包括多个像素,并且每个像素包括多个子像素。子像素可包括红色(R)子像素、绿色(G)子像素和蓝色(B)子像素。换句话说,包括R、G和B子像素的像素可布置在多个行和列中以构成显示面板141。在这种情况下,显示面板141可被实现为诸如液晶显示(LCD)面板、等离子体显示面板(PDP)、有机发光二极管(OLED)、真空荧光显示器(VFD)、场发射显示器(FED)、电致发光显示器(ELD)等的各种显示单元。
显示面板141显示图像帧。显示面板141可显示在其中顺序地且重复地布置有具有不同视点的多个图像的图像帧。
具体而言,显示面板141可显示包括多个OSD区域的图像帧。所述多个OSD区域可解释为具有多个OSD窗口。
虽然在图2B中未示出,但是当显示面板141被实现为LCD面板时,显示设备200还可包括用于向显示面板141提供背光的背光单元(未示出)和用于根据构成图像帧的像素的像素值来驱动显示面板141的像素的面板驱动器(未示出)。因此,当从背光单元(未示出)产生的光入射在显示面板141的每个像素上时,显示面板141可根据图像信号调整针对入射在每个像素上的光的透光率并显示图像帧。显示面板141包括液晶层和形成在液晶层的相对面上的两个电极。当将电压施加到两个电极时,电磁场被产生以在两个电极之间移动液晶层的分子,从而调整光的透射率。
视场分离器142可被布置在显示面板141的前表面,以根据视区提供不同的视图,即,多视图。在这种情况下,视场分离器142可被实现为柱状透镜和视差屏障。
例如,视场分离器142可被实现为包括多个透镜区域的柱状透镜。因此,柱状透镜可通过多个透镜区域折射显示在显示面板141上的图像。根据视点区域,每个透镜区域可被形成具有与至少一个像素相应的大小,并根据视区不同地分散通过每个像素发出的光。
作为另一示例,视场分离器142可被实现为视差屏障。视差屏障可被实现为包括多个屏障区域的透明狭缝阵列。因此,通过屏障区域之间的狭缝遮挡光,以便根据视区捕获具有不同视点的图像。
在操作期间,视场分离器142可按照预定角度倾斜以提高图像质量。控制器160可基于视场分离器142倾斜的角度对在多个视点捕获到的图像的图像帧进行划分,并组合分割后的图像以产生图像帧。因此,用户可观看相对于子像素按照预定倾斜的显示图像,而不是相对于显示面板141的子像素以垂直或水平方向显示的图像。
图3是用于解释根据实施例的示例性显示单元140的示图。
参照图3,显示单元140包括显示面板141、视场分离器142和背光单元143。
图3示出视场分离器142被实现为柱状透镜阵列的示例。
参照图3,显示面板141包括由多个列定义的多个像素。具有不同视点的图像被布置在各个列中。图3示出具有不同视点的多个图像1、2、3和4被顺序地且重复地布置的示例。换句话说,像素列被布置为由1、2、3和4索引的组。图形信号被以像素列1显示第一图像和像素列2显示第二图像的方式布置。
背光单元143将光提供给显示面板141。凭借从背光单元143提供的光,形成在显示面板141上的图像1、2、3和4通过视场分离器142被发送,并且视场分离器142分散图像1、2、3和4的光并将光发送到观看者。换句话说,视场分离器142在观看者位置(即,视距)处产生出射光瞳。如图3所示,当视场分离器142被实现为柱状透镜阵列时柱状透镜的厚度和直径以及当视场分离器142被实现为视差屏障时狭缝之间的间隔可被设计以便以小于65毫米的平均双眼中心距离来分离在各个列中产生的出射光瞳。分离出的图像光束形成各个视区。换句话说,如图3所示,当产生了第一视图至第四视图并且用户的左眼和右眼分别位于第二视点和第三视点时,用户可观看到3D图像。
用户接口单元150接收各种用户命令。
具体而言,用户接口单元150可接收用于在包含在显示的3D图像中的多个OSD区域之中选择至少一个OSD区域的用户命令。
用于在多个OSD区域之中选择至少一个OSD区域的图形用户界面(GUI)(诸如光标、突出显示等)可和多个OSD区域一起显示,并且可根据用于移动相应GUI的位置的用户命令在多个OSD区域之中选择至少一个OSD区域。
根据显示设备100的实施方式,用户接口单元150可实现为各种形式。当显示设备100实现为数字TV时,用户接口单元150可实现为用于从远程控制器200接受远程控制信号的远程控制接收器、用于检测用户运动的相机、用于接收用户语音的麦克风等。
控制器160控制显示设备200的整体操作。
在显示的图像中的多个内容之中,控制器160可允许聚焦的内容具有与其它内容不同的深度值。所述深度值可具有负(-)深度值以及正(+)深度值,其中,通过负(-)深度值使得所聚焦的内容看起来远,通过正(+)深度值使得所聚焦的内容看起来近。
例如,控制器160可控制深度校正器120在包含在3D图像中的多个OSD区域之中将根据用户命令选择的OSD区域的深度与其它OSD区域的深度不同地进行校正。
换句话说,控制器160可重置多个OSD区域之中的根据用户命令选择的OSD区域的深度值,以使得选择的OSD区域具有与其它OSD区域的深度不同的深度。在一些实施例中,可重置其它OSD区域的深度值。
控制器160可控制深度校正器120将选择的OSD区域的深度校正为第三预设值,并将其它OSD区域的深度校正为0。第三深度值可设置为除了0之外的值。设置第三深度值的方法与上述设置第一深度值的方法相同。因此,省略对其的详细描述。
可选地,控制器160可控制深度矫正器120将选择的OSD区域校正为第三深度值并将其它OSD区域的深度校正为第四深度值。第四深度值可小于第三深度值。
此外,控制器160可控制深度校正器120顺序地改变相应OSD区域的深度值,以便顺序地加强突出显示的效果。例如,当相应OSD区域的深度值从-4改变到0时,控制器160可分别以深度值-3、-2和-1应用突出显示以便从-4到0逐步地增强突出显示的效果。
因此,减小了OSD区域的失真,同时用户可仅针对选择的OSD区域体验立体效果。因此,提高了对选择的OSD区域的辨别。此外,可通过简单地调整相应内容中左眼图像和右眼图像之间的视差实现聚焦效应。因此,可在无需单独的图像处理过程(例如,突出显示、缩放、纹理、透视效果处理等)的情况下实现聚焦效应。
根据上述实施例,聚焦的内容的示例是OSD区域。然而,内容可以是诸如菜单图像、警告、字符或数字(诸如时间或频道号)、应用等的各种形式。例如,当显示分别指示多个应用的多个图标时,选择图标的至少一个深度值以看起来与其它图标相比远或近。
图4A和图4B是用于解释根据实施例的OSD掩膜信息的示图。
如图4A所示,当立体图像或多视点图像中包含OSD区域时,使用OSD掩膜(如图4B所示)来识别OSD区域。
OSD掩膜信息可与包含有OSD区域的左眼图像和右眼图像一起被输入。然而,当相应的信息不存在时,可基于OSD信息计算OSD掩膜信息。例如,可通过检测OSD区域并基于检测出的OSD区域扩展和过滤掩膜来产生相应于OSD区域的掩膜。
根据实施例,可针对OSD区域将OSD掩膜信息设置为1并针对其它区域将OSD掩膜信息设置为0(如图4B所示)。然而,实施例不受限制。换句话说,可使用用于识别OSD区域的任何信息。
图5A至图5C是用于解释根据各种实施例的深度校正方法的示例。
根据如5A所示的实施例,当OSD信息510在3D观看模式下被输入时,在维持3D观看模式的同时,提取出的深度信息可被忽略,视差0可被应用于所有的深度信息,并且可使用图像(即,其深度被校正)来对多视图进行渲染。因此,OSD区域的3D立体效果可被去除,从而防止OSD区域的图像失真。
根据图5B所示的另一实施例,当OSD信息510在3D观看模式下被输入时,在维持3D观看模式的同时,相同的深度值可被应用于基于OSD掩膜信息识别出的OSD区域520,也就是说,OSD区域可被设置为具有统一的深度,并且可使用图像(即,其深度被校正)对多视图进行渲染。这里,应用于OSD区域520的深度值可被设置为包括0的默认值、在针对文本区域计算出的深度值之中的最大值、比包含在背景图像中的对象的最大深度值或平均值大多达预定值的深度值、在OSD区域的中心或边界的深度值、由用户输入的值等等。然而,应用于OSD区域520的深度值不限于此。
因此,可控制针对OSD区域的3D立体效果以防止OSD区域的图像失真。
根据另一实施例,当OSD信息510在3D观看模式下被输入时,在维持3D观看模式的同时,相同的深度值可被应用于基于OSD掩膜信息识别出的OSD区域520,与应用于OSD区域520的深度值不同的深度值可被应用于其它区域530。然后,如图5C所示,可使用图像(即,其深度被校正)对多视图进行渲染。因此,防止了OSD区域的图像失真,并且同时可实现针对OSD区域的立体效果。
图6是用于解释根据另一实施例的深度校正方法的示图。
如图6所示,多视点图像可被渲染。然后,OSD区域可被重叠在渲染后的图像上,而不是在校正了OSD区域的深度之后对多视点图像进行渲染(如图5A至图5C)。如图6所示,相应于随机定义的视点差异的视差可被应用于每个多视点图像并且OSD区域可被重叠在多视点图像上。换句话说,如图6所示,相应于d的视差可被另外添加到在N个多视点图像上的OSD区域,并且OSD区域可被重叠在多视点图像上。这里,d可以是任意实数。例如,可基于包含在背景图像中的对象的最大值或平均值、在OSD区域的中心或边界的深度值、由用户输入的值等来将d设置为适当的值。
图7A和图7B是用于解释根据另一实施例的深度校正方法的示图。
如图7A和7B所示,当多个OSD区域711至714包含在3D图像中时,3D图像的深度可被校正以向由用户选择的OSD区域应用与不同OSD区域不同的深度值。
例如,如图7A所示,当多个OSD区域包含在3D图像中时,预设深度值(除了0)可被应用于OSD区域711至714之中的由用户选择的OSD区域712,并且深度值0可被应用于其余的OSD区域以及背景图像使得用户可不体验立体效果。
然后,如图7B所示,当用户选择另一OSD区域713时,预设深度值(除了0)可被应用于相应的OSD区域713,并且深度值0可被应用于其余的OSD区域以及背景图像使得用户可不体验立体效果。
然而,上述实施例是示例。根据另一实施例,特定深度值可被应用于选择的OSD区域,并且比应用于选择的OSD区域的深度值更小的深度值可被应用于其余的OSD区域以及背景图像,以便针对选择的OSD区域显示相对增强的立体效果。
根据另一实施例,特定深度值可被应用于选择的OSD区域,比应用于选择的OSD区域的深度值更小的深度值可被应用于其余的OSD区域,并且比应用于其余OSD区域的深度值更小的深度值可被应用于背景图像。
图8A至图8C是用于解释根据另一实施例的深度校正方法的示图。
如图8A至图8C所示,即使图像中的特定内容区域不是OSD区域,也可将统一的深度值应用于图像中的特定内容区域。图像中的特定内容区域可以是包含有图形元素(诸如,菜单图像、警告、时间、频道号、字符或数字(诸如,广播台名称)、应用、音量控制栏、控制再现栏等)的区域。换句话说,统一的深度值可被应用于包含有重叠并显示在图像上的特定内容的区域。
例如,如图8A所示,预设统一深度值可被应用于用于显示频道号的区域810。然而,图8A示出了图像以2D形式显示并且用于显示频道号的区域810以3D形式显示的情况。然而,示例性实施例不受限制。例如,当在3D图像上显示频道号时,统一深度值(例如,深度值0)可被应用于用于显示频道号的区域,以阻止在相应的区域中的失真。
作为另一示例,如图8B所示,预设统一深度值可被应用于用于显示音量控制栏的区域820。由于图8B具有与图8A相似的特征,因此在图8B中省略详细的描述。
作为另一示例,如图8C所示,当显示指示多个各自的应用的图标时,可使用预设深度值显示根据用户命令选择的图标830。例如,深度值0或预设值或更小的值可被应用于除了选择的图标830之外的背景图像和图标,并且预设值或更大的值可被应用于选择的图标830,以便将选择的图标830和其它图标进行区分。
图8A至图8C示出示例。因此,所述实施例可被应用于包含在屏幕上显示的图像中的任何内容,例如,重叠并显示在图像上的内容。
图9是用于解释根据实施例的控制多视点图像处理设备的方法的流程图。
根据图9中控制多视点图像处理设备的方法,提取输入的3D图像的深度信息(S910)。
然后,基于提取出的深度信息和与包含在3D图像中的OSD区域相应的OSD掩膜信息来校正OSD区域的深度(S920)。
然后,使用3D图像(即,其深度被校正)对多视点图像进行渲染(S930)。
在提取深度信息的操作S910中,可基于提取出的深度信息来产生深度图。在校正深度的操作S920中,可在深度图中校正OSD区域的深度值。
另外,在校正深度的操作S920中,可在深度图中将OSD的深度值校正为第一深度值。
在校正深度的操作S920中,可在深度图中将除了OSD区域之外的其余区域的深度值校正为第二深度值。
在校正深度的操作S920中,可在深度图中将包含OSD区域的整个区域的深度值校正为0。
控制多视点图像处理设备的方法可包括:显示包含多个OSD区域的3D图像,接收用于选择多个OSD区域中的至少一个OSD区域的用户命令,并将根据用户命令选择的OSD区域的深度与其余的OSD区域的深度不同地进行校正。
在这种情况下,在深度校正期间,可将选择的OSD区域的深度校正为第三深度值并将其余的OSD区域的深度校正为0。
根据上述实施例,可提供用于防止包含在3D图像中的OSD区域中的图像失真的非眼镜型3D***。此外,根据实施例,所述非眼镜型3D***可执行部分3D功能。
根据上述实施例的控制多视点图像处理设备的方法可被实现为程序并被提供给显示设备。
例如,可提供用于在其上记录根据实施例的程序的非暂时性计算机可读介质。所述程序执行提取输入的3D图像的深度信息,基于与OSD区域相应的OSD掩膜信息以及提取出的深度信息来校正包含在3D图像中的OSD区域的深度,并使用3D图像(即,其深度被校正)对多视点图像进行渲染。
非暂时性计算机可读介质是半永久性地存储数据并且装置可从其读取数据的介质,而不是用于短时间存储数据的介质,诸如,寄存器、高速缓存、内存等。上述各种应用或程序可存储在非暂时性计算机可读介质(例如,致密盘(CD)、数字通用盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)、存储卡、只读存储器(ROM)等)中并可被提供。
示例性实施例还可公开深度提取器110、深度校正器120、渲染单元130、显示单元140、用户接口单元150和控制器160中的至少一个可包括至少一个处理器、硬件模块或用于执行它们各自的功能的电路。
前述示例性实施例和优点仅是示例性的并且将不被理解为限制本发明。本教导可被容易地应用于其它类型的设备。此外,示例性实施例的描述意在说明而非限制权利要求的范围,许多可选方案、修改和变化对于本领域技术人员将是明显的。
工业应用
序列列表自由文本
Claims (14)
1.一种多视点图像处理设备包括:
深度提取器,被配置为提取三维(3D)输入图像的深度信息;
深度校正器,被配置为基于提取出的深度信息和与3D输入图像中的在屏显示(OSD)区域相应的OSD掩膜信息来校正3D输入图像中的OSD区域的深度;
渲染装置,被配置为使用3D输入图像和校正后的深度来对多视点图像进行渲染。
2.如权利要求1所述的多视点图像处理设备,其中:
深度提取器还被配置为基于提取出的深度信息来产生深度图;
深度校正器还被配置为在深度图中校正OSD区域的深度值。
3.如权利要求2所述的多视点图像处理设备,其中,深度校正器还被配置为在深度图中将OSD区域的深度值校正为第一深度值。
4.如权利要求3所述的多视点图像处理设备,其中,深度校正器还被配置为在深度图中将除了OSD区域之外的其余区域的多个深度值校正为第二深度值。
5.如权利要求2所述的多视点图像处理设备,其中,深度校正器还被配置为在深度图中将OSD区域的整个区域的深度值校正为0。
6.如权利要求1所述的多视点图像处理设备,还包括:
显示装置,被配置为显示包括多个OSD区域的3D输入图像;
用户接口装置,被配置为接收用户命令;
控制器,被配置为控制深度校正器将根据用户命令选择的至少一个OSD区域的深度与3D图像中除了选择的所述至少一个OSD区域之外的其余OSD区域的多个深度不同地进行校正。
7.如权利要求6所述的多视点图像处理设备,其中,控制器还被配置为:控制深度校正器将选择的所述至少一个OSD区域的深度校正为预设的第三深度值,并将除了选择的所述至少一个OSD区域之外的其余OSD区域的所述多个深度校正为0。
8.一种处理多视点图像的方法,所述方法包括:
提取三维(3D)输入图像的深度信息;
基于提取出的深度信息和与3D输入图像中的在屏显示(OSD)区域相应的OSD掩膜信息来校正3D输入图像中的OSD区域的深度;
使用3D输入图像和校正后的深度来对多视点图像进行渲染。
9.如权利要求8所述的方法,其中:
提取深度信息的步骤包括:基于提取出的深度信息来产生深度图;
校正深度的步骤包括:在深度图中校正OSD区域的深度值。
10.如权利要求9所述的方法,其中,校正深度的步骤包括:在深度图中将OSD区域的深度值校正为第一深度值。
11.如权利要求10所述的方法,其中,校正深度的步骤包括:在深度图中将除了OSD区域之外的其余区域的多个深度值校正为第二深度值。
12.如权利要求9所述的方法,其中,校正深度的步骤包括:在深度图中将OSD区域的整个区域的深度值校正为0。
13.如权利要求8所述的方法,还包括:
显示包括多个OSD区域的3D输入图像;
接收用于选择多个OSD区域中的至少一个OSD区域的用户命令;
将根据用户命令选择的所述至少一个OSD区域的深度与除了选择的所述至少一个OSD区域之外的其余OSD区域的多个深度不同地进行校正。
14.如权利要求13所述的方法,其中,校正深度的步骤包括:将选择的所述至少一个OSD区域的深度校正为预设的第三深度值,并将除了选择的所述至少一个OSD区域之外的其余OSD区域的所述多个深度校正为0。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361858810P | 2013-07-26 | 2013-07-26 | |
US61/858,810 | 2013-07-26 | ||
KR10-2013-0137519 | 2013-11-13 | ||
KR1020130137519A KR102143472B1 (ko) | 2013-07-26 | 2013-11-13 | 다시점 영상 처리 장치 및 그 영상 처리 방법 |
PCT/KR2014/006729 WO2015012606A1 (en) | 2013-07-26 | 2014-07-24 | Multi view image processing apparatus and image processing method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105453560A true CN105453560A (zh) | 2016-03-30 |
Family
ID=52488905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480042303.8A Pending CN105453560A (zh) | 2013-07-26 | 2014-07-24 | 多视点图像处理设备及其图像处理方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US9092904B2 (zh) |
EP (1) | EP3025497A4 (zh) |
JP (1) | JP6377155B2 (zh) |
KR (1) | KR102143472B1 (zh) |
CN (1) | CN105453560A (zh) |
BR (1) | BR112016001562B1 (zh) |
CA (1) | CA2919334C (zh) |
MX (1) | MX348438B (zh) |
WO (1) | WO2015012606A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9560103B2 (en) * | 2013-06-26 | 2017-01-31 | Echostar Technologies L.L.C. | Custom video content |
US9569812B1 (en) * | 2016-01-07 | 2017-02-14 | Microsoft Technology Licensing, Llc | View rendering from multiple server-side renderings |
KR20240020051A (ko) * | 2022-08-05 | 2024-02-14 | 숙명여자대학교산학협력단 | 자동차 내부 카메라를 이용한 hud 캘리브레이션 방법 및 장치 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102300114A (zh) * | 2010-06-24 | 2011-12-28 | 索尼公司 | 立体显示设备和立体显示设备的显示方法 |
US20120044242A1 (en) * | 2010-08-19 | 2012-02-23 | Samsung Electronics Co., Ltd. | Display apparatus and method for applying on-screen display (osd) thereto |
CN102474641A (zh) * | 2009-07-07 | 2012-05-23 | Lg电子株式会社 | 用于显示三维用户界面的方法 |
CN102640505A (zh) * | 2009-11-13 | 2012-08-15 | 三星电子株式会社 | 产生用于附加视频再现信息的3维再现的多媒体流的方法和设备,以及接收用于附加视频再现信息的3维再现的多媒体流的方法和设备 |
CN102845067A (zh) * | 2010-04-01 | 2012-12-26 | 汤姆森许可贸易公司 | 三维(3d)呈现中的字幕 |
CN102866504A (zh) * | 2011-07-06 | 2013-01-09 | 索尼公司 | 显示控制装置、显示控制方法和程序 |
US20130071013A1 (en) * | 2011-03-01 | 2013-03-21 | Shinsuke Ogata | Video processing device, video processing method, program |
WO2013039347A1 (ko) * | 2011-09-14 | 2013-03-21 | 삼성전자 주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
CN103024423A (zh) * | 2011-09-22 | 2013-04-03 | Lg电子株式会社 | 用于显示立体图像的方法及其图像显示装置 |
CN103024408A (zh) * | 2011-09-22 | 2013-04-03 | 株式会社东芝 | 立体图像转换装置和方法、立体图像输出装置 |
CN103135889A (zh) * | 2011-12-05 | 2013-06-05 | Lg电子株式会社 | 移动终端及其3d图像控制方法 |
CN103167302A (zh) * | 2011-12-19 | 2013-06-19 | Lg电子株式会社 | 显示立体图像的电子设备以及相应的方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11164328A (ja) * | 1997-11-27 | 1999-06-18 | Toshiba Corp | 立体映像表示装置 |
JP2001346226A (ja) * | 2000-06-02 | 2001-12-14 | Canon Inc | 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体 |
JPWO2004099965A1 (ja) * | 2003-05-07 | 2006-07-13 | 富田 誠次郎 | 画像表示方法及び装置 |
JP4440066B2 (ja) * | 2004-10-14 | 2010-03-24 | キヤノン株式会社 | 立体画像生成プログラム、立体画像生成システムおよび立体画像生成方法 |
JP4792250B2 (ja) * | 2005-07-11 | 2011-10-12 | 株式会社リコー | 動画像処理装置、及び動画像処理方法 |
JP5338549B2 (ja) * | 2009-08-05 | 2013-11-13 | ソニー株式会社 | 表示装置及び表示方法 |
US9681112B2 (en) * | 2009-11-05 | 2017-06-13 | Lg Electronics Inc. | Image display apparatus and method for controlling the image display apparatus |
KR101214536B1 (ko) * | 2010-01-12 | 2013-01-10 | 삼성전자주식회사 | 뎁스 정보를 이용한 아웃 포커스 수행 방법 및 이를 적용한 카메라 |
JP2011211551A (ja) * | 2010-03-30 | 2011-10-20 | Fujifilm Corp | 画像処理装置および画像処理方法 |
JP2011216937A (ja) | 2010-03-31 | 2011-10-27 | Hitachi Consumer Electronics Co Ltd | 立体画像表示装置 |
JP5143856B2 (ja) * | 2010-04-16 | 2013-02-13 | 株式会社ソニー・コンピュータエンタテインメント | 3次元画像表示装置、および3次元画像表示方法 |
KR101435594B1 (ko) | 2010-05-31 | 2014-08-29 | 삼성전자주식회사 | 디스플레이 장치 및 그 디스플레이 방법 |
JP2012004654A (ja) * | 2010-06-14 | 2012-01-05 | Sharp Corp | 映像表示装置及びその表示制御方法 |
JP2012023648A (ja) * | 2010-07-16 | 2012-02-02 | Sony Corp | 再生装置、再生方法、およびプログラム |
US20120044241A1 (en) | 2010-08-20 | 2012-02-23 | Himax Technologies Limited | Three-dimensional on-screen display imaging system and method |
US9083962B2 (en) * | 2010-10-20 | 2015-07-14 | Mitsubishi Electric Corporation | 3Dimension stereoscopic display device |
JP5678643B2 (ja) * | 2010-12-21 | 2015-03-04 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
-
2013
- 2013-11-13 KR KR1020130137519A patent/KR102143472B1/ko active IP Right Grant
-
2014
- 2014-05-05 US US14/269,365 patent/US9092904B2/en active Active
- 2014-07-24 BR BR112016001562-2A patent/BR112016001562B1/pt active IP Right Grant
- 2014-07-24 CA CA2919334A patent/CA2919334C/en active Active
- 2014-07-24 WO PCT/KR2014/006729 patent/WO2015012606A1/en active Application Filing
- 2014-07-24 CN CN201480042303.8A patent/CN105453560A/zh active Pending
- 2014-07-24 EP EP14829707.0A patent/EP3025497A4/en not_active Ceased
- 2014-07-24 JP JP2016529712A patent/JP6377155B2/ja not_active Expired - Fee Related
- 2014-07-24 MX MX2016001088A patent/MX348438B/es active IP Right Grant
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102474641A (zh) * | 2009-07-07 | 2012-05-23 | Lg电子株式会社 | 用于显示三维用户界面的方法 |
CN102640505A (zh) * | 2009-11-13 | 2012-08-15 | 三星电子株式会社 | 产生用于附加视频再现信息的3维再现的多媒体流的方法和设备,以及接收用于附加视频再现信息的3维再现的多媒体流的方法和设备 |
CN102845067A (zh) * | 2010-04-01 | 2012-12-26 | 汤姆森许可贸易公司 | 三维(3d)呈现中的字幕 |
CN102300114A (zh) * | 2010-06-24 | 2011-12-28 | 索尼公司 | 立体显示设备和立体显示设备的显示方法 |
US20120044242A1 (en) * | 2010-08-19 | 2012-02-23 | Samsung Electronics Co., Ltd. | Display apparatus and method for applying on-screen display (osd) thereto |
US20130071013A1 (en) * | 2011-03-01 | 2013-03-21 | Shinsuke Ogata | Video processing device, video processing method, program |
CN102866504A (zh) * | 2011-07-06 | 2013-01-09 | 索尼公司 | 显示控制装置、显示控制方法和程序 |
WO2013039347A1 (ko) * | 2011-09-14 | 2013-03-21 | 삼성전자 주식회사 | 영상 처리 장치 및 그 영상 처리 방법 |
CN103024423A (zh) * | 2011-09-22 | 2013-04-03 | Lg电子株式会社 | 用于显示立体图像的方法及其图像显示装置 |
CN103024408A (zh) * | 2011-09-22 | 2013-04-03 | 株式会社东芝 | 立体图像转换装置和方法、立体图像输出装置 |
CN103135889A (zh) * | 2011-12-05 | 2013-06-05 | Lg电子株式会社 | 移动终端及其3d图像控制方法 |
CN103167302A (zh) * | 2011-12-19 | 2013-06-19 | Lg电子株式会社 | 显示立体图像的电子设备以及相应的方法 |
Also Published As
Publication number | Publication date |
---|---|
CA2919334A1 (en) | 2015-01-29 |
BR112016001562B1 (pt) | 2023-01-17 |
EP3025497A1 (en) | 2016-06-01 |
US9092904B2 (en) | 2015-07-28 |
WO2015012606A1 (en) | 2015-01-29 |
CA2919334C (en) | 2020-11-03 |
KR102143472B1 (ko) | 2020-08-12 |
KR20150012976A (ko) | 2015-02-04 |
US20150029179A1 (en) | 2015-01-29 |
JP6377155B2 (ja) | 2018-08-22 |
MX348438B (es) | 2017-06-13 |
BR112016001562A2 (zh) | 2017-07-25 |
JP2016535516A (ja) | 2016-11-10 |
EP3025497A4 (en) | 2017-02-22 |
MX2016001088A (es) | 2016-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102970569B (zh) | 视域调整装置、视频处理装置以及视域调整方法 | |
KR102130123B1 (ko) | 다시점 영상 디스플레이 장치 및 그 제어 방법 | |
US20150085073A1 (en) | Quality metric for processing 3d video | |
US10694173B2 (en) | Multiview image display apparatus and control method thereof | |
CN102970572B (zh) | 影像处理装置及影像处理方法 | |
WO2006111893A1 (en) | Depth perception | |
CN106170084A (zh) | 多视点图像显示设备及其控制方法及多视点图像产生方法 | |
CN104836998A (zh) | 显示设备及其控制方法 | |
EP3182702B1 (en) | Multiview image display device and control method therefor | |
CN102970565A (zh) | 视频处理装置及视频处理方法 | |
CN103517056A (zh) | 检测器、检测方法和视频显示装置 | |
CN103716612A (zh) | 基于显示器的朝向执行图像渲染的图像处理设备和方法 | |
CN105453560A (zh) | 多视点图像处理设备及其图像处理方法 | |
CN102970568A (zh) | 视频处理装置以及视频处理方法 | |
US20140184759A1 (en) | Display method and display apparatus | |
US9185395B2 (en) | Method and system for automatically adjusting autostereoscopic 3D display device | |
WO2012120880A1 (ja) | 立体画像出力装置及び立体画像出力方法 | |
CN102646438B (zh) | 一种基于flash播放器的3D视频播放方法及装置 | |
CN105323577A (zh) | 多视图图像显示设备及其视差估计方法 | |
JP4951079B2 (ja) | 立体表示装置、映像処理装置 | |
KR101980275B1 (ko) | 다시점 영상 디스플레이 장치 및 디스플레이 방법 | |
KR101735997B1 (ko) | 깊이 정보 혼합을 위한 이미지 추출방법 | |
JP5417356B2 (ja) | 映像処理装置、映像処理方法および立体映像表示装置 | |
JP6131256B6 (ja) | 映像処理装置及びその映像処理方法 | |
JP6131256B2 (ja) | 映像処理装置及びその映像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160330 |
|
RJ01 | Rejection of invention patent application after publication |