CN104349157A - 3d显示装置及其方法 - Google Patents

3d显示装置及其方法 Download PDF

Info

Publication number
CN104349157A
CN104349157A CN201410160469.1A CN201410160469A CN104349157A CN 104349157 A CN104349157 A CN 104349157A CN 201410160469 A CN201410160469 A CN 201410160469A CN 104349157 A CN104349157 A CN 104349157A
Authority
CN
China
Prior art keywords
range information
information
dimensional image
view
interactive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410160469.1A
Other languages
English (en)
Inventor
张德浩
郑朝钟
张毓麟
蔡玉宝
陈颖睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of CN104349157A publication Critical patent/CN104349157A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种3D显示装置及其方法。该3D显示方法包括:从至少一个图像获取距离信息图;从用户输入设备接收控制信息;根据该控制信息修改该距离信息图以产生修改后的距离信息图;根据该修改后的距离信息图产生交互式三维图像;以及显示该交互式三维图像。本发明所提供的3D显示装置及其方法,可使用户与3D图像进行互动。

Description

3D显示装置及其方法
技术领域
本发明是有关于一种3D显示装置及其方法,特别是有关于一种可以使用户与3D(three-dimensional,以下简称3D)图像进行互动的3D显示装置及其方法。
背景技术
近年来,三维(three-dimensional,以下简称为3D)显示方法成为流行的技术。有许多方法可以产生3D图像。其中一种方法是将二维(two-dimensional,以下简称为2D)图像转换为3D图像。当2D图像转换为3D图像时,需要深度图。深度图是一种指示图像中的对象和参考面(reference plane)之间距离的灰度图像(grey scale image)。举例来说,相机在参考面上提供捕获图像。通过参考深度图,当2D图像转换为3D图像时,可以估计并仿真(simulat)人眼的视差(disparity),以使得可以相应产生3D图像。
然而,在现有技术中,3D图像仅能由用户观看,而不能与用户产生互动影响。
发明内容
有鉴于此,本发明提出一种3D显示装置及其方法。
根据本发明第一实施方式,提供一种3D显示方法,该3D显示方法包括:从至少一个图像获取距离信息图;从用户输入设备接收控制信息;根据该控制信息修改该距离信息图以产生修改后的距离信息图;根据该修改后的距离信息图产生交互式三维图像;以及显示该交互式三维图像。
根据本发明第二实施方式,提供一种三维显示装置。该三维显示装置包括:用户输入设备、距离信息图获取/修改模块、三维图像产生模块以及显示屏。用户输入设备,用于确定控制信息。距离信息图获取/修改模块,用于从至少一个图像获取距离信息图,从该用户输入设备接收该控制信息,以及根据该控制信息修改该距离信息图以产生修改后的距离信息图。三维图像产生模块,用于根据该修改后的距离信息图产生交互式三维图像。显示屏,用于显示该交互式三维图像。
本发明所提出的3D显示装置及其方法,可使用户与3D图像进行互动。
附图说明
图1为根据本发明实施方式的3D显示方法的流程图。
图2A为局部修改距离信息图的示意图。
图2B为全面修改距离信息图的示意图。
图3为更详细地说明图1中的3D显示方法的示意图。
图4为根据本发明一实施方式的局部修改距离信息图操作的示意图。
图5A和图5B为根据本发明一实施方式的局部修改距离信息图操作的示意图。
图6A和图6B为根据本发明一实施方式的全面修改距离信息图操作的示意图。
图7A和图7B为根据本发明一实施方式的全面修改距离信息图操作的示意图。
图8为根据本发明一实施方式的3D显示装置的方块图。
具体实施方式
图1为根据本发明实施方式的3D显示方法的流程图。在以下实施方式中,假定本发明3D显示方法应用于具有触摸屏的移动电话,但本发明并不限于此。除触摸屏之外的其他用户输入设备也可以应用于移动电话,例如通过眼睛/瞳孔跟踪(eye/pupil tracking)指示的屏幕上的位置或对象。此外,除利用任意用户输入设备的移动电话之外的其他设备也落入本发明的保护范围。
如图1所示,3D显示方法包括:
步骤101
从至少一个图像获取距离信息图。
举例来说,距离信息图包括上述的深度图。可选地,距离信息图包括其他类型的距离信息图,例如视差图。视差图可以由深度图转换而得到,因此视差图也可以指示距离信息。在以下实施方式中,用深度图来举例说明。
步骤103
从用户输入设备接收控制信息。
步骤105
根据控制信息修改距离信息图以产生修改后的距离信息图。
步骤107
根据修改后的距离信息图产生交互式(interactive)3D图像。
步骤109
显示交互式3D图像。
对于步骤101,可以从至少一个2D图像或至少一个3D图像获得距离信息图。以下将进一步详述。
对于步骤103,用户输入设备可以是从用户接收控制操作的任意设备。举例来说,触摸屏、鼠标、触摸笔、眼/面部/头部***(eye/face/head tracking device)、陀螺仪、G传感器(G sensor)、或生物信号产生装置可以作为用户输入设备。因此,控制信息可以相应地包括如下至少一个信息:触摸信息,跟踪信息,运动信息,倾斜信息,和生物信号信息。触摸信息指示由对象触摸触摸传感器(touchsensing device)(例如,手指或触摸笔触摸触摸屏)而产生的信息。触摸信息可包括对象的位置、或对象触摸触摸传感器的触摸时间(touch period)。跟踪信息指示对象执行触摸传感器的轨迹(track),或其他任意用户输入设备(例如,鼠标、跟踪球、眼/面部/头部***)执行的轨迹。运动信息指示移动电话的移动,运动信息可以由运动传感器(例如,陀螺仪)来产生。倾斜信息指示移动电话倾斜的角度,倾斜信息可以由倾斜传感器(例如,G传感器)来检测。生物信号信息由生物信号发生装置来确定,该生物信号发生装置连接至人体以检测人体信号(例如,脑电波)。
对于步骤105,距离信息图可以根据控制信息来局部(locally)修改或全面(globally)修改。图2A为局部修改距离信息图的示意图。图2B为全面修改距离信息图的示意图。在图2A和图2B中,标有斜线的区域指示修改该区域的距离信息图。如图2A所示,局部修改距离信息图表明仅修改触摸屏TP的一个点附近的小区域的距离信息图,其中该点为对象(例如,手指F)触摸的点或激活(activate)的点。相反地,如图2B所示,全面修改距离信息图表明不在对象触摸触摸屏TP的点或激活的点附近的距离信息图也可以被修改。此外,根据本发明的一个实施方式,步骤105可以进一步包括至少一个分割操作以修改距离信息图。该分割操作是一种基于图像中的对象而将图像分割为多个部分的技术,以使得可以更加精确地修改深度。
对于步骤107,对应于不同的获得距离信息图的方式,交互式3D图像的产生是不同的。这将在后面详述。
对于步骤109,交互式3D图像可以为多视图(multi-view)3D图像或立体3D图像。多视图3D图像为能够被多个人同时观看的3D图像。立体3D图像为能够被一个人(single person)观看的3D图像。
此外,根据本发明的一个实施方式,在步骤101、105、107中的距离信息图为多层距离信息图(multi layer distance information map)(例如,多层深度图或多层视差图)。
图3为更详细地说明图1中的3D显示方法的示意图。如图3所示,从至少一个2D图像获取距离信息图(即,产生距离信息图)。或,通过从至少一个原始的3D图像中提取距离信息图来获取距离信息图。在获得距离信息图之后,修改距离信息图。修改距离信息图之后,产生交互式3D图像。若距离信息图是从至少一个2D图像获得,则根据修改后的距离信息图产生新的3D图像以作为交互式3D图像。此外,若通过提取原始的3D图像获得距离信息图,则根据修改后的距离信息图处理原始的3D图像,以产生交互式3D图像。图3中的操作可通过多种现有的方法来实现。举例来说,深度线索(depth cue)、Z缓冲器、图层信息(graphic layer information)可以应用于从至少一个2D图像产生距离信息图。可以利用基于深度图像绘制(Depth-image Based Rendering,以下简称为DIBR)和图形处理器(Graphic Processing Unit,以下简称为GPU)渲染以从2D图像产生3D图像。此外,从3D图像提取距离信息图的操作可以通过从至少两个视图的立体匹配来实现,或可以从原始源(original source)提取距离信息图(例如,该原始源包括一个2D图像加上基于该2D图像的距离信息图)。处理3D图像深度的操作可以通过自动收敛(convergence),深度调整、DIBR或GPU渲染来实现。
图4为根据本发明一实施方式的局部修改距离信息图操作的示意图。请参考图4,移动电话M具有显示3D图像按钮B1、3D图像按钮B2的触摸屏TP。若没有触摸触摸屏TP,则3D图像按钮B1、3D图像按钮B2具有相同的深度。若用户利用手指F触摸触摸屏TP的提供3D图像按钮B1的位置,则3D图像按钮B1的深度被改变并且3D图像按钮B2的深度仍然保持不变。通过这种方式,如图1和图3所示,由于根据修改后的距离信息图进行处理,3D图像按钮B1的外观(presentation)被改变(即,产生交互式3D图像)。因此,能够仿真真实按钮被按压的情况,以使得用户能够与3D图像进行互动(interact)。图4为局部修改距离信息图的实施方式,其中仅改变手指F触摸的点附近的区域的3D图像。
请参考图5A和图5B,图5A和图5B为根据本发明一实施方式的局部修改距离信息图操作的示意图。图5A和图5B描述了局部修改距离信息图的另一个实施方式。在图5A和图5B所示的实施方式中,3D图像包括人3D图像H和狗3D图像D。如图5A所示,若用户没有触摸触摸屏TP,则仅在触摸屏TP前观察到人3D图像H奔跑。如图5B所示,若用户使用手指F触摸触摸屏TP,则人3D图像H远离触摸屏TP奔跑并且狗3D图像D在人3D图像H后奔跑(即,产生交互式3D图像)。通过这种方式,用户能够感觉狗在人后生动地奔跑,与用户的触摸进行互动。在图5A和图5B所示的局部修改距离信息图的实施方式中,仅改变手指F触摸的点附近的区域的3D图像。
图6A和图6B为根据本发明一实施方式的全面修改距离信息图操作的示意图。图7A和图7B为根据本发明一实施方式的全面修改距离信息图操作的示意图。如图6A所示,若用户没有触摸触摸屏TP或保持手指于固定位置,则触摸屏TP显示用户交互3D图像IW1(即,原始3D图像),该用户界面3D图像IW1具有距离信息图1。若用户在触摸屏TP上进行移动触摸操作以形成如图6B所示的轨迹(track),则触摸屏TP显示用户界面3D图像IW2(即,产生交互式3D图像),用户界面3D图像IW2具有诸如从左侧到右侧的梯度深度(gradientdepth)的距离信息图2。通过这种方式,看起来像用户界面与用户手指的移动进行互动(interact)。
图7A和图7B为利用G传感器的实施方式。在图7A中,移动电话M没有倾斜并且触摸屏TP显示用户界面3D图像IW1(即,原始3D图像),该用户界面3D图像IW1具有距离信息图1。在图7B中,倾斜移动电话M以使得在移动电话中的G传感器确定控制信息以修改距离信息图。通过这种方式,触摸屏TP显示用户界面3D图像IW2(即,产生交互式3D图像),用户界面3D图像IW2具有诸如从左侧到右侧的梯度深度(gradient depth)的距离信息图2。由于能够修改不在触摸或触发(activate)的点附近的区域的距离信息图,图6A、图6B、图7A、图7B的实施方式为全局修改距离信息图的实施方式。
请注意,本发明的保护范围并不限于图4~5、图6A~6B所述的实施方式。举例来说,上述的3D图像可以包括如下至少一个3D图像:相片3D图像、视频3D图像、游戏3D图像(即,由游戏程序产生的图像)以及用户界面3D图像。本发明能够根据来自任意电子装置的控制信息修改距离信息图,并根据修改后的距离信息图确定3D图像的任意类型。
图8为根据本发明一实施方式的3D显示装置的方块图。如图8所示,3D显示装置800包括距离信息图获取/修改模块801,3D图像产生模块803,用户输入设备和显示屏。请注意,在此实施方式中,用户输入设置确定控制信息CI,以及显示屏为触摸屏805。即,用户输入设备可以合并到显示屏中。然而,用户输入设备和显示屏为相互独立的设备,例如,在其他实施方式中的鼠标/显示屏、G传感器/显示屏。距离信息图获取/修改模块801从至少一个图像Img中获取距离信息图,从用户输入设备接收控制信息CI,以及根据控制信息CI修改距离信息图以产生修改后的距离信息图(modified distance information map,MDP)。图像Img可以来自外部源(outer source)(例如,网络),或来自连接至3D显示装置800的计算机,但是也可以来自内部源(inner source),例如在3D显示装置800中的存储装置。3D图像产生模块803根据修改后的距离信息图MDP产生交互式3D图像ITImg。显示屏显示交互式3D图像。
3D显示装置800的其他操作细节可以基于上述实施方式来获得,因此为求简洁在此省略其描述。
鉴于上述实施方式,3D图像可以对应于用户的控制命令而显示。通过这种方式,用户可以与3D图像进行互动,以使得3D图像的应用可以进一步扩展。
虽然本发明已以较佳实施方式揭露如上,然而必须了解其并非用以限定本发明。相反,任何本领域技术人员,在不脱离本发明的精神和范围内,当可做些许更动与润饰,因此本发明的保护范围应当以权利要求书所界定的保护范围为准。

Claims (21)

1.一种三维显示方法,其特征在于,包括:
从至少一个图像获取距离信息图;
从用户输入设备接收控制信息;
根据该控制信息修改该距离信息图以产生修改后的距离信息图;
根据该修改后的距离信息图产生交互式三维图像;以及
显示该交互式三维图像。
2.根据权利要求1所述的三维显示方法,其特征在于,其中
该从至少一个图像获得距离信息图的步骤包括:从至少一个二维图像获取该距离信息图;以及
该根据该修改后的距离信息图产生交互式三维图像的步骤包括:根据该修改后的距离信息图将该二维图像转换为交互式三维图像。
3.根据权利要求1所述的三维显示方法,其特征在于,
该从至少一个图像获得距离信息图的步骤包括:从至少一个原始的三维图像提取该距离信息图;以及
该根据该修改后的距离信息图产生交互式三维图像的步骤包括:根据该修改后的距离信息图处理该原始的三维图像以产生该交互式三维图像。
4.根据权利要求1所述的三维显示方法,其特征在于,该三维图像为多视图三维图像或立体三维图像。
5.根据权利要求1所述的三维显示方法,其特征在于,该根据该控制信息修改该距离信息图以产生修改后的距离信息图的步骤包括:根据该控制信息局部修改该距离信息图。
6.根据权利要求1所述的三维显示方法,其特征在于,该根据该控制信息修改该距离信息图以产生修改后的距离信息图的步骤包括:根据该控制信息全面修改该距离信息图。
7.根据权利要求1所述的三维显示方法,其特征在于,该控制信息包括如下至少一个信息:触摸信息,跟踪信息,运动信息,倾斜信息,和生物信号信息。
8.根据权利要求1所述的三维显示方法,其特征在于,该距离信息图为多层距离信息图。
9.根据权利要求1所述的三维显示方法,其特征在于,该根据该控制信息修改该距离信息图以产生修改后的距离信息图的步骤包括:执行分割操作以修改该距离信息图。
10.根据权利要求1所述的三维显示方法,其特征在于,该交互式三维图像包括如下至少一个图像:相片三维图像、视频三维图像、游戏三维图像以及用户界面三维图像。
11.一种三维显示装置,其特征在于,包括
用户输入设备,用于确定控制信息;
距离信息图获取/修改模块,用于从至少一个图像获取距离信息图,从该用户输入设备接收该控制信息;以及根据该控制信息修改该距离信息图以产生修改后的距离信息图;
三维图像产生模块,用于根据该修改后的距离信息图产生交互式三维图像;以及
显示屏,用于显示该交互式三维图像。
12.根据权利要求11所述的三维显示装置,其特征在于,该距离信息图获取/修改模块从至少一个二维图像获取该距离信息图;以及该三维图像产生模块根据该修改后的距离信息图将该二维图像转换为交互式三维图像。
13.根据权利要求11所述的三维显示装置,其特征在于,该距离信息图获取/修改模块从至少一个原始的三维图像提取该距离信息图;以及该三维图像产生模块根据该修改后的距离信息图处理该原始的三维图像以产生该交互式三维图像。
14.根据权利要求11所述的三维显示装置,其特征在于,该三维图像为多视图三维图像或立体三维图像。
15.根据权利要求11所述的三维显示装置,其特征在于,该距离信息图获取/修改模块根据该控制信息局部修改该距离信息图。
16.根据权利要求11所述的三维显示装置,其特征在于,该距离信息图获取/修改模块根据该控制信息全面修改该距离信息图。
17.根据权利要求11所述的三维显示装置,其特征在于,其中该控制信息包括如下至少一个信息:触摸信息,跟踪信息,运动信息,倾斜信息,和生物信号信息。
18.根据权利要求11所述的三维显示装置,其特征在于,该距离信息图为多层距离信息图。
19.根据权利要求11所述的三维显示装置,其特征在于,该距离信息图获取/修改模块执行分割操作以修改该距离信息图。
20.根据权利要求11所述的三维显示装置,其特征在于,该交互式三维图像包括如下至少一个图像:相片三维图像、视频三维图像、游戏三维图像以及用户界面三维图像。
21.根据权利要求11所述的三维显示装置,其特征在于,该用户输入设备合并到该显示屏中。
CN201410160469.1A 2013-07-25 2014-04-21 3d显示装置及其方法 Pending CN104349157A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361858587P 2013-07-25 2013-07-25
US61/858,587 2013-07-25
US14/177,198 US20150033157A1 (en) 2013-07-25 2014-02-10 3d displaying apparatus and the method thereof
US14/177,198 2014-02-10

Publications (1)

Publication Number Publication Date
CN104349157A true CN104349157A (zh) 2015-02-11

Family

ID=52390166

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201410160469.1A Pending CN104349157A (zh) 2013-07-25 2014-04-21 3d显示装置及其方法
CN201410298153.9A Pending CN104349049A (zh) 2013-07-25 2014-06-27 图像处理方法以及图像处理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201410298153.9A Pending CN104349049A (zh) 2013-07-25 2014-06-27 图像处理方法以及图像处理装置

Country Status (2)

Country Link
US (2) US20150033157A1 (zh)
CN (2) CN104349157A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193442A (zh) * 2017-06-14 2017-09-22 广州爱九游信息技术有限公司 图形显示方法、图形显示装置、电子设备和存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102115930B1 (ko) * 2013-09-16 2020-05-27 삼성전자주식회사 디스플레이 장치 및 영상 처리 방법
EP3286914B1 (en) * 2015-04-19 2019-12-25 FotoNation Limited Multi-baseline camera array system architectures for depth augmentation in vr/ar applications
US10237473B2 (en) * 2015-09-04 2019-03-19 Apple Inc. Depth map calculation in a stereo camera system
CN106385546A (zh) * 2016-09-27 2017-02-08 华南师范大学 通过图像处理改善移动电子设备摄像效果的方法和***
CN108886572B (zh) * 2016-11-29 2021-08-06 深圳市大疆创新科技有限公司 调整图像焦点的方法和***
US10389936B2 (en) * 2017-03-03 2019-08-20 Danylo Kozub Focus stacking of captured images

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110267439A1 (en) * 2010-04-30 2011-11-03 Chien-Chou Chen Display system for displaying multiple full-screen images and related method
CN102340678A (zh) * 2010-07-21 2012-02-01 深圳Tcl新技术有限公司 一种景深可调的立体显示装置及其景深调整方法
CN102438164A (zh) * 2010-09-29 2012-05-02 索尼公司 图像处理装置、图像处理方法以及计算机程序
CN103155572A (zh) * 2010-10-04 2013-06-12 高通股份有限公司 用于基于用户偏好调节3d视频渲染的3d视频控制***

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7583293B2 (en) * 2001-12-06 2009-09-01 Aptina Imaging Corporation Apparatus and method for generating multi-image scenes with a camera
US7653298B2 (en) * 2005-03-03 2010-01-26 Fujifilm Corporation Image capturing apparatus, image capturing method, image capturing program, image recording output system and image recording output method
US20080075323A1 (en) * 2006-09-25 2008-03-27 Nokia Corporation System and method for distance functionality
JP4582423B2 (ja) * 2007-04-20 2010-11-17 富士フイルム株式会社 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP5109803B2 (ja) * 2007-06-06 2012-12-26 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
EP2274920B1 (en) * 2008-05-12 2019-01-16 InterDigital Madison Patent Holdings System and method for measuring potential eyestrain of stereoscopic motion pictures
US8749660B2 (en) * 2010-03-24 2014-06-10 Fujifilm Corporation Image recording apparatus and image processing method
US20110304618A1 (en) * 2010-06-14 2011-12-15 Qualcomm Incorporated Calculating disparity for three-dimensional images
KR20120000663A (ko) * 2010-06-28 2012-01-04 주식회사 팬택 3d 객체 처리 장치
US8880341B2 (en) * 2010-08-30 2014-11-04 Alpine Electronics, Inc. Method and apparatus for displaying three-dimensional terrain and route guidance
TWI532009B (zh) * 2010-10-14 2016-05-01 華晶科技股份有限公司 產生淺景深影像的方法及裝置
KR101792641B1 (ko) * 2011-10-07 2017-11-02 엘지전자 주식회사 이동 단말기 및 그의 아웃 포커싱 이미지 생성방법
US9025859B2 (en) * 2012-07-30 2015-05-05 Qualcomm Incorporated Inertial sensor aided instant autofocus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110267439A1 (en) * 2010-04-30 2011-11-03 Chien-Chou Chen Display system for displaying multiple full-screen images and related method
CN102340678A (zh) * 2010-07-21 2012-02-01 深圳Tcl新技术有限公司 一种景深可调的立体显示装置及其景深调整方法
CN102438164A (zh) * 2010-09-29 2012-05-02 索尼公司 图像处理装置、图像处理方法以及计算机程序
CN103155572A (zh) * 2010-10-04 2013-06-12 高通股份有限公司 用于基于用户偏好调节3d视频渲染的3d视频控制***

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107193442A (zh) * 2017-06-14 2017-09-22 广州爱九游信息技术有限公司 图形显示方法、图形显示装置、电子设备和存储介质

Also Published As

Publication number Publication date
US20150033157A1 (en) 2015-01-29
CN104349049A (zh) 2015-02-11
US20150029311A1 (en) 2015-01-29

Similar Documents

Publication Publication Date Title
US20220277527A1 (en) Rerendering a position of a hand to decrease a size of a hand to create a realistic virtual/augmented reality environment
CN104349157A (zh) 3d显示装置及其方法
JP7079231B2 (ja) 情報処理装置及び情報処理システム及び制御方法、プログラム
CN103858074B (zh) 经由3d显示器与装置交互的***和方法
CN105637559B (zh) 使用深度传感器的结构建模
JP6478360B2 (ja) コンテンツ閲覧
CN102426486B (zh) 一种立体交互方法及***作设备
EP3106963B1 (en) Mediated reality
US20170150108A1 (en) Autostereoscopic Virtual Reality Platform
CN103793060A (zh) 一种用户交互***和方法
CN104050859A (zh) 可交互数字化立体沙盘***
CN103810353A (zh) 一种虚拟现实中的现实场景映射***和方法
CN102508562B (zh) 一种立体交互***
TWI530858B (zh) 一種立體交互系統和立體交互方法
KR20120068253A (ko) 사용자 인터페이스의 반응 제공 방법 및 장치
GB2481366A (en) 3D interactive display and pointer control
WO2022012194A1 (zh) 交互方法、装置、显示设备和存储介质
CN103744518A (zh) 立体交互方法及其显示装置和***
EP3591503B1 (en) Rendering of mediated reality content
CN111161396B (zh) 虚拟内容的控制方法、装置、终端设备及存储介质
CN115335894A (zh) 用于虚拟和增强现实的***和方法
KR20160096392A (ko) 직관적인 상호작용 장치 및 방법
CN114514493A (zh) 增强设备
CN205039917U (zh) 基于cave***的海底世界模拟***
CN115515487A (zh) 基于使用多视图图像的3d人体姿势估计的基于视觉的康复训练***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20150211