CN103108203A - 三维图像处理装置及其电力控制方法 - Google Patents

三维图像处理装置及其电力控制方法 Download PDF

Info

Publication number
CN103108203A
CN103108203A CN2012104440425A CN201210444042A CN103108203A CN 103108203 A CN103108203 A CN 103108203A CN 2012104440425 A CN2012104440425 A CN 2012104440425A CN 201210444042 A CN201210444042 A CN 201210444042A CN 103108203 A CN103108203 A CN 103108203A
Authority
CN
China
Prior art keywords
user
view
controller
processing apparatus
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012104440425A
Other languages
English (en)
Other versions
CN103108203B (zh
Inventor
车烘来
崔光烈
朴泰守
李宰光
郭又荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN103108203A publication Critical patent/CN103108203A/zh
Application granted granted Critical
Publication of CN103108203B publication Critical patent/CN103108203B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/18Diffraction gratings
    • G02B5/1814Diffraction gratings structurally combined with one or more further optical elements, e.g. lenses, mirrors, prisms or other diffraction gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

提供了一种三维图像处理装置及其电力控制方法。三维图像处理装置可以包括:显示器,布置为与显示器相距规定距离以调整显示的视图图像的光路的三维图像滤波器,配置为拍摄用户的图像的摄像机,环境光传感器,以及配置为控制视图图像、三维图像滤波器或摄像机的控制器。所述控制器可以基于拍摄的图像确定用户的位置,并且基于确定的用户的位置调整视图图像的感知的三维视图。而且,控制器可以基于确定的用户的位置或检测的环境光的量控制摄像机的操作状态和至少一个处理。

Description

三维图像处理装置及其电力控制方法
技术领域
本公开涉及三维图像处理装置及其电力控制方法。
背景技术
除了基于二维图像信号显示二维图像的内容以外,已经计划基于三维图像信号显示三维图像的内容并且制作为广播内容。显示三维图像的方法可以使用双目视差的原理,根据所述原理,观看者因双目视差而体验到三维效果。
这种方法可以被分类为快门眼镜方法、无眼镜方法或全三维方法。具体来说,在无眼镜方法中,用户能在没有图像翻转和串扰的情况下观看三维图像的区域受限。因此,有必要基于用户的位置控制三维图像的显示。如在此广泛描述和具体实施的,三维图像处理装置及其电力控制方法可以移动最佳点(sweet spot)区域以对应于用户的位置,由此最小化功耗。
发明内容
在一个实施方式中,一种三维图像处理装置,可以包括:显示器,配置为显示两个或更多个视图图像,三维图像滤波器,布置为与显示器相距规定距离,以调整显示的视图图像的光路,摄像机,配置为拍摄用户的图像,以及控制器,配置为控制视图图像的显示、三维图像滤波器或摄像机中的至少一个。控制器可以基于拍摄的图像确定用户的位置,并且执行通过三维图像滤波器调整显示器上的视图图像的位置或显示的视图图像的光路的至少一个处理。而且,控制器可以基于确定的用户的位置控制摄像机的操作状态和所述至少一个处理。控制器可以基于确定的用户的位置跟踪用户的移动,并且响应于跟踪的移动调整视图图像的感知的三维视图。
可以提供环境光传感器,配置为感测环境光的量。控制器可以基于感测的环境光的量控制摄像机的操作状态和用于控制视图图像的显示或三维图像滤波器的至少一个处理。当环境光的量小于或等于规定值时,控制器可以停止摄像机的操作,停止用于确定用户的位置的处理,并停止调整显示器上的视图图像的位置的处理或控制三维图像滤波器以改变显示的视图图像的光路的处理中的至少一个。
控制器可以停止向摄像机供电,以停止摄像机的操作。可以基于根据拍摄的图像提取用户的图片图像的方法或摄像机的拍摄元件的性能中的至少一个设置环境光的规定值。
当环境光的量大于规定值时,控制器可以操作摄像机以拍摄用户的图像,执行用于确定用户的位置的处理,以及执行调整显示器上的视图图像的位置的处理或控制三维图像滤波器以改变显示视图图像的光路的处理中的至少一个。
控制器可以控制操作状态为关闭状态,在关闭状态中,摄像机、用于确定用户的位置的处理、以及调整显示器上的视图图像的位置的处理或控制三维图像滤波器以改变显示的图像的光路的处理中的至少一个可操作。控制器可以控制操作状态为停止状态,在停止状态中,摄像机、用于确定用户的位置的处理、以及调整显示器上的视图图像的位置的处理或控制三维图像滤波器以改变显示的图像的光路的处理中的至少一个不可操作。
控制器可以控制操作状态为限制状态,在限制状态中,摄像机和用于确定用户的位置的处理可操作,调整显示器上的视图图像的位置的处理或控制三维图像滤波器以改变显示的图像的光路的处理中的至少一个不可操作。而且,控制器可以控制操作状态为正常状态,在正常状态中,摄像机、用于确定用户的位置的处理、以及调整显示器上的视图图像的位置的处理或控制三维图像滤波器以改变显示的图像的光路的处理中的至少一个可操作。
三维图像滤波器可以包括具有多个透镜的双凸透镜板,控制器控制透镜的移动,以通过三维图像滤波器调整光路。三维图像滤波器可以包括具有交替地形成的透射区和非透射区的视差屏障,控制器可以配置为控制非透射区的移动,以通过三维图像滤波器调整光路。
在此实施方式中,控制器可以配置为改变显示在显示器上的视图图像的位置。控制器可以配置为基于检测的用户动作改变摄像机的操作状态和所述至少一个处理。而且,控制器可以配置为利用拍摄的图像确定用户是否位于观看区内,并且基于确定结果调整摄像机的操作状态和所述至少一个处理。
在一个实施方式中,一种三维图像处理装置,可以包括:显示器,配置为显示两个或更多个视图图像,三维图像滤波器,布置为与显示器相距规定距离,以调整显示的视图图像的光路,摄像机,配置为拍摄用户的图像,以确定用户的位置,环境光传感器,用于感测环境光的亮度,以及控制器,配置为通过基于确定的用户的位置调整视图图像的显示或三维图像滤波器控制视图图像的感知的三维视图。控制器可以基于感测的环境光的亮度控制摄像机的操作状态和用于控制视图图像的显示的至少一个处理或用于控制三维图像滤波器的处理。
当环境光的亮度小于或等于规定值时,控制器可以停止摄像机的操作、用于确定用户的位置的处理、以及用于控制显示器上的视图图像的显示的处理或用于控制三维图像滤波器以改变显示的视图图像的光路的处理中的至少一个。
当环境光的亮度大于规定值时,控制器可以操作摄像机、用于确定用户的位置的处理、以及控制显示器上的视图图像的显示的处理或控制三维图像滤波器以改变显示的视图图像的光路的处理中的至少一个。
控制器可以确定用户是否位于关于显示器的规定范围内,并且基于确定的用户的位置控制摄像机的操作状态和所述至少一个处理。当确定用户位于规定范围之外时,控制器可以将摄像机断电,并且防止执行基于用户的位置调整感知的三维视图的至少一个处理。而且,规定范围可以是用于观看显示器上的视图图像的感知的三维视图的观看区。
在一个实施方式中,一种三维图像处理装置,可以包括:显示装置,配置为显示两个或更多个视图图像,三维图像滤波器,布置在显示装置的前面,以调整显示的视图图像的光路,摄像机,配置为拍摄用户的图像,环境光传感器,配置为感测环境光的亮度,控制器,配置为执行跟踪功能,并基于感测的环境光的亮度调整跟踪功能的模式,跟踪功能用于利用拍摄的图像设置与用户的位置有关的用户位置信息,并用于基于设置的用户位置信息生成用于控制显示视图图像的控制信号。
跟踪功能的模式可以包括从不执行跟踪功能的关闭模式、停止执行跟踪功能的停止模式、有限地执行跟踪功能的限制模式以及正常地执行跟踪功能的正常模式中选择的至少一个。在跟踪功能的模式是停止执行跟踪功能的停止模式的情况下,可以不向摄像机供电。
在环境光的亮度等于或小于预定值的情况下,控制器可以将跟踪功能的模式调整为停止执行跟踪功能的停止模式。这里,可以基于从基于拍摄的图像提取用户的图片图像的方法和摄像机的拍摄元件的性能中选择的至少一个设置规定值。当环境光的亮度大于预定值时,控制器可以将跟踪功能的模式调整为正常执行跟踪功能的正常模式。
三维图像滤波器可以包括具有多个透镜的双凸透镜板或具有交替地形成的透射区和非透射区的视差屏障,控制信号可以包括用于控制透镜移动的控制信号或用于控制非透射区移动的控制信号。
控制信号可以包括用于控制要在显示装置上显示视图图像的位置的控制信号。控制器可以基于检测到的用户动作调整跟踪功能的模式。而且,控制器可以利用拍摄的图像确定用户是否处于使得用户能够观看显示的视图图像的观看区中,并基于确定结果调整跟踪功能的模式。
在一个实施方式中,一种三维图像处理装置,可以包括:显示装置,配置为显示包括两个或更多个视图图像的三维图像,三维图像滤波器,布置在显示装置的前面,以调整显示的视图图像的光路,摄像机,配置为拍摄三维图像处理装置的观看区,控制器,配置为执行跟踪功能,以利用拍摄的图像确定用户是否处于观看区中,并且基于确定结果调整跟踪功能的模式,跟踪功能用于利用拍摄的图像设置与用户的位置有关的用户位置信息,并用于基于设置的用户位置信息生成用于控制显示视图图像的控制信号。
在一个实施方式中,一种三维图像处理装置的电力控制方法,可以包括:检查跟踪功能的模式,当跟踪功能的模式为正常模式时拍摄用户的图像,利用拍摄的图像设置与用户的位置有关的用户位置信息,基于设置的用户位置信息生成用于控制显示两个或更多个视图图像的控制信号,感测环境光的亮度,基于环境光的亮度调整跟踪功能的模式。
在一个实施方式中,一种三维图像处理装置的电力控制方法,可以包括:检查跟踪功能的模式,当跟踪功能的模式为正常模式时拍摄三维图像处理装置的观看区,利用拍摄的图像设置与用户的位置有关的用户位置信息,基于设置的用户位置信息生成用于控制显示两个或更多个视图图像的控制信号,利用拍摄的图像确定用户是否处于观看区中,基于确定结果调整跟踪功能的模式。
附图说明
将参照下列附图对实施方式进行详细描述,其中,相同附图标记指相同部件,其中:
图1是根据本公开一实施方式的三维图像处理装置的框图;
图2是根据本公开一实施方式的三维图像处理装置的正立体图;
图3是示出根据本公开一实施方式的三维图像滤波器的布置的图;
图4是示出根据本公开一实施方式的三维图像滤波器的布置的立体图;
图5是例示液晶双凸透镜滤波器的原理的图;
图6A至6D是例示根据本公开一实施方式的控制器的操作模式的框图;
图7是例示根据用户位置的改变计算三维图像变化的图;
图8是例示根据三维图像滤波器的位置改变移动最佳点的图;
图9是例示摄像机拍摄图像帧的时间间隔的图;
图10A至10D是例示根据本公开另一实施方式的控制器的操作模式的框图;
图11是例示根据视图图像的显示位置改变移动最佳点的图;
图12A至12D是例示根据本公开另一实施方式的控制器的操作模式的框图;
图13至16是示出摄像机拍摄的用户的图像帧的视图;
图17A至17D是例示根据本公开又一实施方式的控制器的操作模式的框图;
图18是根据本公开一实施方式的控制三维图像处理装置的方法的流程图;
图19A和19B是允许用户输入用于在跟踪功能模式之间切换的请求的图形用户接口(GUI)的视图;
图20是根据本公开另一实施方式的控制三维图像处理装置的方法的流程图;
图21是根据本公开又一实施方式的控制三维图像处理装置的方法的流程图。
具体实施方式
下面,对本公开的实施方式进行详细说明,附图中例示了其示例。在尽可能的情况下,贯穿全部图使用相同附图标记来指相同或相似部件。
下面,参照附图对本公开的示例性实施方式进行描述。附图中示出并且参照附图描述的本公开的构造和动作将被描述为至少一个实施方式;然而,本公开的技术思想和核心构造以及动作不限于此。
尽管在本公开中使用的术语在考虑本公开的功能的情况下从通常已知且广泛使用的术语中选择,但在此使用的术语可以根据本领域中操作员的意图或习惯、不断出现的新技术等改变。而且,本公开的描述中提到的某些术语已经由本申请人按他或她的判断进行了选择,其详细含义在这里的描述的相关部分中进行描述。因此,在本公开中使用的术语应当不基于术语的名称定义,而是基于术语的含义和本公开的详细描述定义。
在本说明书中描述的三维图像处理装置可以包括移动终端,如移动电话、智能电话、膝上型计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航设备等。尽管在本说明书中描述的本公开的实施方式被应用至这种移动终端,但本领域技术人员应当明白,本公开的实施方式可以被应用至固定终端,如数字TV或台式计算机。
图1是根据本公开一实施方式的三维图像处理装置的框图。三维图像处理装置100可以包括:无线通信装置110、音频/视频(A/V)输入装置120、用户输入装置130、感测装置140、输出装置150、存储器160、接口装置170、控制器180、三维图像滤波器驱动装置183、三维图像滤波器185以及电源装置190。图1所示组件不是不可缺少的。因此,三维图像处理装置可以包括比上面列举的更多或更少的组件。
下面,逐个地对上述组件进行描述。
无线通信装置110可以包括一个或多个模块,其使能实现三维图像处理装置100与无线通信***之间或者三维图像处理装置100与所述三维图像处理装置100位于的网络之间的无线通信。例如,无线通信装置110可以包括:广播接收模块111、移动通信模块112、无线因特网模块113、短距离通信模块114以及位置信息模块115。
广播接收模块111通过广播频道从外部广播管理服务器接收广播信号和/或广播相关信号。广播频道可以包括卫星频道和/或地面频道。广播管理服务器可以是用于生成广播信号和/或广播相关信息并且发送生成的广播信号和/或广播相关信息的服务器,或者用于接收预先生成的广播信号和/或广播相关信息并且向终端发送接收的广播信号和/或广播相关信息的服务器。广播信号可以包括:TV广播信号、无线电广播信号以及数据广播信号。另外,广播信号可以包括通过组合数据广播信号与TV广播信号或无线电广播信号而形成的广播信号。而且,TV广播信号可以包括二维图像广播信号和三维图像广播信号。
广播相关信息可以是与广播频道、广播节目、广播服务提供方有关的信息,或者是另一合适类型的信息。可以通过移动网络提供广播相关信息。在这种情况下,可以通过移动通信模块112接收广播相关信息。
可以按各种形式提供广播相关信息。例如,可以按数字多媒体广播(DMB)的电子节目指南(EPG)或者手持数字视频广播(DVB-H)的电子服务指南(ESG)的形式提供广播相关信息。
广播接收模块111可以利用数字广播***(如地面数字多媒体广播(DMB-T)、卫星数字多媒体广播(DMB-S)、仅介质前向链路(MediaFLO)、手持数字视频广播(DBV-H)以及地面综合业务数字广播(ISDB-H))接收数字广播信号。当然,广播接收模块111可以配置为适于上述数字广播***和其它不同的广播***。
通过广播接收模块111接收到的广播信号和/或广播相关信息可以存储在存储器160中。
移动通信模块112可以经由移动通信网络向从基站、外部终端以及服务器中选择的至少一个发送无线信号并且从其接收无线信号。无线信号可以包括:语音呼叫信号、视频通信呼叫信号或基于文本/多媒体消息的发送和接收的各种形式的数据。
无线因特网模块113是用于无线因特网连接的模块。无线因特网模块113可以安装在三维图像处理装置100的内部或外部。无线LAN(WLAN)、无线保真(Wi-Fi)、无线宽带(WiBro)、微波接入全球互通(WiMax)、高速下行链路分组接入(HSDPA)等可以被用作无线因特网技术。
短距离通信模块114是用于短距离通信的模块。蓝牙、射频识别(RFID)、红外数据关联(IrDA)、超宽带(UWB),ZigBee等可以被用作短距离通信技术。
位置信息模块115是用于获取三维图像处理装置的位置的模块。位置信息模块115的代表性模型是全球定位***(GPS)模块。
提供A/V输入装置120以输入音频信号或视频信号。A/V输入装置120可以包括摄像机121和麦克风122。摄像机121可以处理在视频通信模式或拍照模式下通过图像传感器获取的、诸如静止图像或运动图像的图像帧。处理的图像帧可以显示在显示装置151上。
由摄像机121拍摄的图像帧可以通过控制器180处理,存储在存储器160中,或者经由无线通信装置110发送至外部装置。根据多种情况,可以提供两个或更多个摄像机121。
麦克风122在通信模式或录制模式和语音识别模式下接收外部声信号并将接收的声信号处理成电语音数据。在通信模式下,处理的语音数据可以按可通过移动通信模块112向移动通信基站发送的形式转换和输出。用于去除在将外部声信号输入到麦克风122期间产生的噪声的各种噪声去除算法可以被并入麦克风122。
用户输入装置130允许用户输入命令来控制终端的操作。用户输入装置130可以包括:小键盘、薄膜开关、触摸板(静压/静电式)、拨轮、拨动开关或另一合适接口。
感测装置140感测三维图像处理装置100的当前状态,如三维图像处理装置100的打开和闭合状态、三维图像处理装置100的位置、是否已经发生用户接触、三维图像处理装置100的方向、三维图像处理装置100的加速度/减速度等,以生成用于控制三维图像处理装置100的操作的感测信号。例如,对于三维图像处理装置100为滑盖手机的情况来说,感测装置140可以感测所述滑盖电话是打开还是闭合。而且,感测装置140可以感测是否从电源装置190供电和接口装置170是否已经耦接至外部装置。同时,感测装置140可以包括接近传感器141和环境光传感器143。
输出装置150可以生成与视觉、听觉或触觉有关的输出。输出装置150可以包括:显示装置151、声输出模块152、警报装置153、触觉模块154、投影仪模块155或者另一合适类型的输出接口。
显示装置151可以显示(输出)通过三维图像处理装置100处理的信息。例如,当三维图像处理装置100处于通信模式时,显示装置151可以显示与通信有关的用户接口(UI)或图形用户接口(GUI)。当三维图像处理装置100处于视频通信模式或图像拍摄模式时,显示装置151可以显示拍摄和/或接收的图像、UI或GUI。当三维图像处理装置100处于广播信号显示模式或图像显示模式时,显示装置151可以显示广播信号或存储的图像数据。
显示装置151可以包括从液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器以及三维显示器(3D显示器)中选择的至少一种显示器,或另一合适类型的显示器。
这些显示器中的一些可以配置为可以透过其看到外侧的透明型或透光型显示器。这些显示器可以被称为透明显示器。透明显示器的代表例为透明OLED(TOLED)。显示装置151的后部结构也可以配置为透光型结构。在这个结构中,用户可以通过终端主体的被显示装置151占用的区域来观看位于终端主体后面的物体。
根据怎样实现三维图像处理装置100,可以提供两个或更多个显示装置151。例如,三维图像处理装置100可以配置为使得多个显示装置按显示装置彼此隔开或者处于一个装置主体中的状态布置在单一平面上,或者配置为使得这些显示装置布置在不同平面上。
对于显示装置151和用于感测触摸操作的传感器(下面,称为“触摸传感器”)构成分层结构(下面,称为“触摸屏”)的情况来说,显示装置151可以用作输入装置和输出装置。例如,触摸传感器可以采用触摸膜、触摸片、触摸板等的形式构成。
触摸传感器可以配置为将施加至显示装置151的特定区域的压力的变化或在显示装置151的特定区域中产生的电容的变化转换成电输入信号。触摸传感器可以配置为感测触摸压力以及触摸位置和范围。
当针对触摸传感器执行了触摸输入时,将对应信号发送至触摸控制器。触摸控制器处理所述信号并将与处理的信号相对应的数据发送至控制器180。因此,控制器180可以确定触摸了显示装置151的哪一个区域。
接近传感器141可以布置在三维图像处理装置100的内部区域处,并且被触摸屏包围或者处于触摸屏附近。接近传感器可以在不需要机械接触的情况下,利用电磁力或红外线感测物体是否已经接近预定感测表面,或者存在于预定感测表面附近。与接触型传感器相比,接近传感器可以具有更长寿命和更高适用性。
接近传感器141的示例可以包括透射型光电传感器、直接反射型光电传感器、镜反射型光电传感器、高频振荡型接近传感器、电容型接近传感器、磁型接近传感器、红外接近传感器等。对于触摸屏为静电型的情况来说,触摸屏配置为基于指示器的接近造成的电场的变化感测指示器的接近。在这种情况下,触摸屏(触摸传感器)可以被分类为接近传感器。
在下面的描述中,为便于描述,将指示器在不接触的情况下接近触摸屏并且识别成指示器位于触摸屏上的动作称为“接近触摸”,而将指示器直接接触触摸屏的动作称为“接触触摸”。在触摸屏上执行指示器的接近式触摸的位置是在执行指示器的接近式触摸时指示器与触摸屏大致垂直地对应的位置。
接近传感器141感测接近触摸操作和接近触摸模式(例如,接近触摸距离、接近触摸方向、接近触摸速度、接近触摸时间、接近触摸位置、接近触摸移动等)。与感测的接近触摸操作和接近触摸模式相对应的信息可以输出在触摸屏上。
声输出模块152可以按呼叫信号接收模式、通信模式、录制模式、语音识别模式、广播接收模式等,输出从无线通信装置110接收到的或者存储在存储器160中的音频数据。声输出模块152可以输出与三维图像处理装置100执行的功能有关的声信号(例如,呼叫信号接收声音、消息接收声音等)。声输出模块152可以包括:接收器、扬声器、蜂鸣器或另一或合适声装置。
警报装置153可以输出信号来通知已经在三维图像处理装置100中发生了事件。在三维图像处理装置100中发生的事件的示例可以包括:呼叫信号接收、消息接收、键信号输入、触摸输入等。除了视频信号和音频信号以外,警报装置153还可以输出其它不同信号(例如,振动信号),来通知事件发生。视频信号和音频信号还可以通过显示装置151或语音输出模块152输出。因此,显示装置151或语音输出模块152可以分类为报警装置153的部件。
触觉模块154可以生成用户可以感受的各种触觉效果。通过触觉模块154生成的触觉效果的代表例是振动。可以控制由触觉模块154生成的振动的强度和模式。例如,不同种类的振动可以按合成状态输出或者可以顺序地输出。
除了振动以外,触觉模块154还可以生成各种触觉效果,如可垂直于针接触的皮肤而移动的针的布置造成的刺激效果、空气通过注入口或吸入口的注入力和吸取力、针对皮肤的摩擦、与电极接触、静电力等,以及通过利用吸热型或放热型部件来再现冷热感觉的效果。
触觉模块154可以配置为通过直接接触来传送触觉效果,另外,使用户通过诸如手指或臂部的肌肉感觉来感受触觉效果。根据怎样配置三维图像处理装置100,可以提供两个或更多个触觉模块154。
投影仪模块155是用于利用三维图像处理装置100执行图像投影功能的组件。投影仪模块155可以根据控制器180的控制信号,在外部屏幕或墙壁上显示与显示在显示装置151上的图像相同或部分不同的图像。
具体来说,投影仪模块155可以包括:用于生成向外部输出图像必需的光(例如,激光)的光源,用于生成要利用由光源生成的光向外部输出的图像的图像生成装置,以及用于按放大状态从预定焦距向外部输出图像的透镜。而且,投影仪模块155可以包括用于以机械方式移动模块的全部透镜来控制图像投影方向的装置。
根据显示装置的种类,投影仪模块155可以被分类为:阴极射线管(CRT)模块、液晶显示(LCD)模块、数字光处理(DLP)模块等。具体来说,DLP模块配置为使得从光源生成的光被数字微镜装置(DMD)芯片反射,以按放大状态投影生成的图像。因此,DLP模块在缩减投影仪模块151的尺寸方面可能有利。
投影仪模块155可以按纵向设置在三维图像处理装置100的侧面、前面或后面。当然,投影仪模块155在需要时可以设置在三维图像处理装置100的任何位置处。
存储器160可以存储控制器180执行处理和控制必需的程序,另外,临时存储输入/输出数据(例如,电话薄、消息、音频,静止图像,运动图像等)。存储器160还可以存储数据的使用频率(例如,每一个电话号码、每一个消息以及每一条多媒体内容的使用频率)。而且,存储器160可以存储与在触摸屏上执行触摸输入时而输出的振动和声音的各种模式有关的数据。
存储器160可以包括从闪速存储器型存储器、硬盘型存储器、多媒体卡微型存储器、卡型存储器(例如,SD或XD存储器等)、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘或另一合适类型的存储装置中选择的至少一种。三维图像处理装置100可以结合在因特网上执行存储器160的存储功能的web存储装置来操作。
接口装置170用作到连接至三维图像处理装置100的外部装置的路径。通过接口装置170,可以由三维图像处理装置100接收来自外部装置的数据,向三维图像处理装置100的组件供电,或者从三维图像处理装置100向外部装置传送数据。例如,有线/无线头戴式耳机端口、外部充电器端口、有线/无线数据端口、存储器卡端口、用于连接具有识别模块的装置的端口、音频输入输出(I/O)端口、视频I/O终端、耳机端口等可以包括在接口装置170中。
识别模块是存储认证三维图像处理装置100的用户必需的各种信息的芯片。识别模块可以包括:用户识别模块(UIM)、订户识别模块(SIM)以及通用订户识别模块(USIM)。具有这种识别模块的装置(下面,称为“识别装置”)可以按智能卡的形式制造。因此,识别装置可以通过端口连接至三维图像处理装置100。
接口装置170可以是当三维图像处理装置100连接至外部托架时向三维图像处理装置100提供来自托架的电力的路径,或者是用户通过托架输入的各种命令信号可以发送至移动终端的路径。从托架输入的各种命令信号或电力可以操作为用于识别已经将移动终端正确地安装在托架中的信号。
控制器180可以控制三维图像处理装置100的总体操作。例如,控制器180可以执行与语音通信、数据通信、视频通信等有关的控制和处理。控制器180可以包括用于再现多媒体的多媒体模块181。多媒体模块181可以并入控制器180中,或者可以与控制器180分离地设置。
控制器180可以执行用于将在触摸屏上执行的手写输入或绘图输入识别为文本和图像的模式识别处理。而且,控制器180可以检测用户动作,并且控制与执行检测的用户动作相对应的命令或操作。用户动作可以包括:选择三维图像处理装置100的物理按钮、或遥控、执行触摸屏上的预定姿势、或选择触摸屏上的软按钮、执行根据由摄像机121拍摄的图像识别出的预定姿势、执行根据语音识别识别出的预定语音等。
控制器180可以接收从摄像机121拍摄了用户图像的图像帧,并且利用接收的图像帧检测用户的位置。在一些实施方式中,控制器180可以基于检测的用户的位置计算三维图像滤波器的位置。这里,三维图像滤波器的位置可以是屏障的位置或透镜的位置。
在一些实施方式中,控制器180可以基于检测的用户的位置计算三维图像的变化。而且,控制器180可以基于计算的三维图像的变化,设置将显示包含在三维图像中的视图图像的位置。例如,如图11所示,控制器180可以根据检测的用户的位置控制左视图图像和右视图图像的显示位置。
而且,控制器180可以计算计算的三维图像滤波器的位置与三维图像滤波器的当前位置之间的差值,以计算三维图像滤波器的移动量。这里,三维图像滤波器的移动量可以是屏障的移动量或透镜的移动量。
控制器180可以利用从当前检测的用户的位置和先前检测的用户的位置中选择的至少一个,计算用户的移动速度。而且,控制器180可以利用检测的用户的位置和计算的用户的移动速度估计在经过了预定时间时用户的位置,并且基于估计的用户的位置计算三维图像滤波器的位置和三维图像滤波器4的移动量。
控制器180可以基于计算的三维图像滤波器的位置和计算的三维图像滤波器的移动量生成请求移动三维图像滤波器的控制信号,并且可以向三维图像滤波器驱动装置183输出生成的控制信号。
三维图像滤波器驱动装置183可以基于由控制器180计算出的三维图像滤波器的位置控制移动三维图像滤波器185的屏障或透镜。三维图像滤波器驱动装置183可以计算由控制器180计算出的三维图像滤波器的位置与三维图像滤波器的当前位置之间的差值,以计算三维图像滤波器的移动量,并且可以基于计算的三维图像滤波器的移动量控制移动屏障或透镜。
在一些实施方式中,三维图像滤波器驱动装置183可以基于由控制器180计算出的非透射区的位置控制移动三维图像滤波器185的透射区和非透射区。在一些实施方式中,三维图像滤波器驱动装置183可以基于由控制器180计算出的透镜的位置控制移动三维图像滤波器185的透镜。这里,透射区是三维图像滤波器的透射光的区域,而非透射区是三维图像滤波器的不透射光的区域。而且,非透射区可以是被屏障占用的区域。
三维图像滤波器185是使得用户能够将显示在显示装置151上的两个或更多个视图图像看作三维图像的滤波器。即,三维图像滤波器185控制由显示装置151显示的视图图像的光路。控制视图图像的光路可以意指,中断这些视图图像中的一些的光路或者折射视图图像。这里,三维图像滤波器185可以是液晶视差屏障或液晶双凸透镜滤波器。
在一些实施方式中,三维图像滤波器185可以包括按预定间隔设置的透射区和非透射区。从显示装置151发射的光穿过透射区并到达用户的右眼或左眼。对于三维图像滤波器185是液晶视差屏障的情况来说,非透射区可以由屏障构成。一对透射区和非透射区可以称为节距。三维图像滤波器185的透射区和非透射区可以在三维图像滤波器驱动装置183的控制下移动。这时,三维图像滤波器185可以固定至三维图像处理装置100。
在一些实施方式中,对于三维图像滤波器185是液晶双凸透镜滤波器的情况来说,透射区和非透射区可以根据透镜彼此划分。一个透镜可以称为节距。三维图像滤波器185的透镜可以在三维图像滤波器驱动装置183的控制下移动。这时,三维图像滤波器185可以固定至三维图像处理装置100。
电源装置190在控制器180的控制下向三维图像处理装置的各个组件提供外部电力或内部电力。
环境光传感器143可以感测三维图像处理装置100的外部环境光的亮度,并将感测的环境光的亮度输出至控制器180。三维图像处理装置100还可以包括模拟/数字(A/D)转换器,以将通过环境光传感器143感测到的环境光的亮度转换成数字值,并将转换的数字值输出至控制器180。
控制器180可以基于由环境光传感器143感测到的环境光的亮度调整跟踪功能的模式。跟踪功能是利用摄像机121拍摄的图像设置与用户的位置有关的用户位置信息并且基于设置的用户位置信息生成用于控制感知的三维图像的显示的控制信号的功能。这里,控制信号可以包括从用于控制移动双凸透镜板的透镜的控制信号、用于控制移动视差屏障的非透射区的控制信号、以及用于控制要在显示装置151上显示的视图图像的位置的控制信号中选择的至少一个。而且,跟踪功能的模式可以包括从不执行跟踪功能的关闭模式和执行跟踪功能的开启模式中选择的至少一个。开启模式可以包括从停止执行跟踪功能的停止模式、有限地执行跟踪功能的限制模式以及正常地执行跟踪功能的正常模式中选择的至少一个。
在此描述的各种实施方式可以在记录介质中实现,记录介质可以例如利用软件、硬件或其组合从计算机或与其类似的装置读取。
在硬件型实现中,在此描述的实施方式可以利用从专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器或另一合适类型的装置中选择的至少一个来实现。在此描述的实施方式可以利用控制器180来实现。
在软件型实现中,在此描述的诸如过程和功能的实施方式可以利用附加软件模块来实现。软件模块可以执行在此描述的一个或多个功能和操作。软件代码可以利用以合适编程语言编写的软件应用来实现。软件代码可以存储在存储器160中,并且可以通过控制器180来执行。
图2是根据本公开一实施方式的三维图像处理装置的正立体图。三维图像处理装置100被示出具有条型终端主体。然而,本公开的实施方式并不限于此。本公开的实施方式可以应用至各种结构,如滑盖型结构、折叠型结构、摆动型结构、旋转型结构等,其中,两个或更多个主体彼此耦接,以使这些主体可以彼此相对移动。
主体包括形成其外观的壳体(外壳、罩壳、盖子等)。在这个实施方式中,壳体可以划分成前壳101和后壳102。在前壳101与后壳102之间限定的空间中安装各种电子部件。还可以在前壳101与后壳102之间设置至少一个中间壳。这些壳体可以通过合成树脂的注射成型来形成,或者可以由诸如不锈钢(STS)或钛(Ti)的金属材料形成。
显示装置151、声输出装置152、摄像机121、用户输入装置130(131和132)、麦克风122以及接口装置170可以布置在终端主体处,具体在前壳101处。显示装置151可以占据前壳101的主表面的主要部分。声输出装置152和摄像机121可以布置在前壳101的与显示装置151的一个端部相邻的区域处。三维图像滤波器185可以布置在显示装置151的一个端部处。三维图像滤波器185可以粘合至显示装置151的一个端部处。用户输入装置131和麦克风122可以布置在前壳101的与显示装置151的另一端部相邻的区域处。用户输入装置131和接口装置170可以布置在前壳101和后壳102的侧面处。
用户输入装置130可以允许用户输入命令来控制三维图像处理装置100的操作。用户输入装置130可以包括多个操纵装置131和132。操纵装置131和132可以通称为操纵部。可以采用任何类型的操纵装置131和132,只要用户可以在具有触觉的同时操纵操纵装置131和132即可。
可以不同地设置经由第一操纵装置131或第二操纵装置132输入的内容。例如,第一操纵装置131可以允许用户输入诸如开始、结束以及滚动的命令,而第二操纵装置132可以允许用户输入命令以调整从声输出装置152输出的声音的音量,或者切换至显示装置151的触摸识别模式。
图3是示出根据本公开一实施方式的三维图像滤波器的布置的图。三维图像板300可以包括:用于显示由左视图图像L和右视图图像R的混合而构成的三维图像的显示板310、以及和具有按预定间隔设置的非透射区321和透射区322的三维图像滤波器320。这里,三维图像滤波器320可以是液晶视差屏障。同时,图1的显示装置151可以是显示板310,而图1的三维图像滤波器185可以是三维图像滤波器320。
三维图像滤波器320可以布置在显示板310的前面,以使三维图像滤波器320按预定距离与显示板310隔开。非透射区321和透射区322可以沿与显示板310平行的方向交替地设置。
显示板310显示与左眼L和右眼R相对应的视图图像,并且可以透过三维图像滤波器320来观看显示的左视图图像L和右视图图像R。用户的左眼和右眼可以独立地观看设置在显示板310上的相应左视图图像L和右视图图像R。结果,用户可以体验三维效果。
用户可以满意地观看三维图像的点称作最佳点。即,最佳点可以是左视图图像L和右视图图像R不交叠(例如,不出现串扰)并且左视图图像L和右视图图像R不翻转(例如,不出现图像翻转)的点。满意地看到左视图图像L的最佳点可以是点332和334,而满意地看到右视图图像R的最佳点可以是点331和333。对于用户的右眼位于点332或334处而用户的左眼位于点331或333处的情况来说,可能出现图像翻转(例如,感知的3D效果(如感知的深度)可能颠倒)。
图4是示出根据本公开另一实施方式的三维图像滤波器的布置的立体图。三维图像板400可以包括:用于显示由左视图图像L和右视图图像R的混合而构成的三维图像的显示板410、以及具有多个透镜的三维图像滤波器420。图1的显示装置151可以是显示板410,而图1的三维图像滤波器185可以是三维图像滤波器420。
三维图像滤波器420可以布置在显示板410的前面。在这种情况下,三维图像滤波器420可以按预定距离l与显示板410隔开,以使将图像放置在透镜的焦平面上。三维图像滤波器420可以是双凸透镜滤波器。在这种情况下,三维图像滤波器420的透镜421、透镜422、透镜423、透镜424以及透镜425可以是液晶透镜。
图5是例示液晶双凸透镜滤波器的原理的图。液晶双凸透镜滤波器520可以包括透明电极(ITO)521和522,以及布置在透明电极之间的液晶LC。液晶双凸透镜滤波器520可以调整从显示板510发射的光透过液晶LC的折射,以使视图图像放置在合适的最佳点处。即,液晶LC构成用于折射光的透镜。液晶双凸透镜滤波器520可以调整施加至透明电极(ITO)的电压,来调整液晶LC的位置、方向以及布置。根据液晶LC的位置、方向以及布置,可以改变透镜的位置,并由此可以改变最佳点。
图6A至6D是例示根据本公开一实施方式的控制器的操作模式(状态)的框图。控制器180可以包括:位置检测装置610、移动量计算装置620以及通信控制器630。
位置检测装置610可以接收从摄像机121拍摄用户图像的图像帧,并且利用接收的图像帧来检测用户的位置。位置检测装置610可以识别面部区以检测用户的位置。这里,位置检测装置610可以利用基于面部的对称性的算法、基于头发颜色和面部颜色的算法以及基于面部轮廓的算法识别面部区。而且,位置检测装置610可以根据图像帧计算肤色信息,以识别面部区。
移动量计算装置620可以基于检测的用户的位置计算三维图像滤波器的位置和三维图像滤波器的移动量,并输出计算的三维图像滤波器的位置或计算的三维图像滤波器的移动量。而且,移动量计算装置620可以根据三维图像滤波器的当前位置和计算的三维图像滤波器的移动量生成用于控制移动三维图像滤波器的非透射区的控制信号,并且可以将生成的控制信号输出至通信控制器630。生成的控制信号可以是使得三维图像滤波器的非透射区能够位于远离当前点达计算的三维图像滤波器的移动量的点处的信号。
在一些实施方式中,移动量计算装置620可以寻找三维图像滤波器的透射区和非透射区的、具有与检测的用户的位置相对应的最佳点的位置,并且可以计算找到的三维图像滤波器的透射区和非透射区的位置与当前位置之差,以获得三维图像滤波器的移动量。
在一些实施方式中,移动量计算装置620可以基于检测的用户的位置计算透镜的位置和透镜的移动量,并可以输出计算的透镜的位置和计算的透镜的移动量。计算的透镜的位置和计算的透镜的移动量可以输出至三维图像滤波器驱动装置183。
移动量计算装置620可以根据透镜的当前位置和计算的透镜的移动量生成用于控制透镜移动的控制信号,并可以将生成的控制信号输出至通信控制器630。生成的控制信号可以是使得透镜能够位于远离当前点达计算的透镜的移动量的点处的信号。
通信控制器630可以向三维图像滤波器驱动装置183发送由移动量计算装置620生成的控制信号。通信控制器630可以按I2C通信方式向三维图像滤波器驱动装置183输出控制信号。
参照图6A,对于跟踪功能的模式为正常模式的情况来说,向摄像机121、环境光传感器143、位置检测装置610、移动量计算装置620以及通信控制器630供电。
参照图6B,对于跟踪功能的模式为限制模式的情况来说,向摄像机121、环境光传感器143、位置检测装置610以及通信控制器630供电。然而,未向移动量计算装置620供电。
参照图6C,对于跟踪功能的模式为停止模式的情况来说,向环境光传感器143和通信控制器630供电。然而,未向摄像机121、位置检测装置610以及移动量计算装置620供电。
参照图6D,对于跟踪功能的模式为关闭模式的情况来说,向通信控制器630供电。然而,未向摄像机121、环境光传感器143、位置检测装置610以及移动量计算装置620供电。
在一些实施方式中,对于跟踪功能的模式不是正常模式的情况来说,可以不向通信控制器630供电。
不向位置检测装置610、移动量计算装置620以及通信控制器630供电可能意味着,位置检测装置610、移动量计算装置620以及通信控制器630未操作,并且降低了控制器180的关联负荷。
图7是例示用于根据用户位置的改变计算三维图像变化的处理的图。当用户从位置730移动至位置740时,可以利用下面的数学表达式1计算显示板710上的对应移动量或距离h:
h=H*d/D    (1)
其中,H指示用户的头部移动量,D指示从三维图像滤波器720至用户眼睛的距离,例如观看距离,而d指示显示板710与三维图像滤波器720之间的间隙。
当用户从位置730移动至位置740时,可以利用下面的数学表达式2计算三维图像的变化的示例(例如,像素移动量P):
P=Mod(h,Q)    (2)
其中,Q指示三维图像像素周期。
移动量计算装置620可以利用数学表达式1和数学表达式2计算三维图像的变化,并且可以基于计算的三维图像的变化计算三维图像滤波器的移动量。
图8是例示根据三维图像滤波器的位置改变移动最佳点的图。包括非透射区811和透射区812的三维图像滤波器810具有最佳点815,其中交替地设置使得用户能够观看显示在显示板801上的左视图图像L的最佳点817和使得用户能够观看显示在显示板801上的右视图图像R的最佳点816。
包括非透射区821和透射区822的三维图像滤波器820可以具有与用户的位置相对应的最佳点825。最佳点825可以包括与显示在显示板801上的左视图图像L相对应的最佳点827和与显示在显示板801上的右视图图像R相对应的最佳点826,左眼最佳点827和右眼最佳点826可以交替地设置。
包括非透射区831和透射区832的三维图像滤波器830可以具有相应的最佳点835,其中交替地设置使得用户能够观看显示在显示板801上的左视图图像L的最佳点837和使得用户能够观看显示在显示板801上的右视图图像R的最佳点836。
包括非透射区841和透射区842的三维图像滤波器840可以对应于最佳点845,其中交替地设置使得用户能够观看显示在显示板801上的左视图图像L的最佳点847和使得用户能够观看显示在显示板801上的右视图图像R的最佳点846。
包括非透射区851和透射区852的三维图像滤波器850可以对应于最佳点855,其中交替地设置使得用户能够观看显示在显示板801上的左视图图像L的最佳点857和使得用户能够观看显示在显示板801上的右视图图像R的最佳点856。
包括非透射区861和透射区862的三维图像滤波器860可以具有最佳点865,其中交替地设置使得用户能够观看显示在显示板801上的左视图图像L的最佳点867和使得用户能够观看显示在显示板801上的右视图图像R的最佳点866。
包括非透射区871和透射区872的三维图像滤波器870可以具有最佳点875,其中交替地设置使得用户能够观看显示在显示板801上的左视图图像L的最佳点877和使得用户能够观看显示在显示板801上的右视图图像R的最佳点876。
移动量计算装置620可以决定应当根据三维图像滤波器810至860的排列模式之一来设置三维图像滤波器185的屏障或透镜,以基于用户位于的点移动最佳点。例如,对于用户的左眼位于点817处而用户的右眼位于点818处的情况来说,移动量计算装置620决定根据三维图像滤波器810的排列模式设置屏障,以提供最佳点815。对于用户的左眼从点817移动至点837的情况来说,控制器180可以计算用于将屏障的设置从三维图像滤波器810的排列模式改变为三维图像滤波器830的排列模式的控制信号,以使提供最佳点835,并且可以将计算的控制信号输出至通信控制器630。
图9是例示由摄像机拍摄图像帧的时间间隔的图。摄像机121可以与环境光的亮度无关地按固定帧速率来驱动,或者可以按比预定帧速率大的帧速率来驱动。控制器180可以与环境光的亮度无关地控制按固定帧速率驱动摄像机121,或者可以控制按比预定帧速率大的帧速率驱动摄像机121。
当摄像机的帧速率为每秒N帧(fps)时,摄像机121可以每秒拍摄N个图像帧910至990。可以在各个图像帧之间设置时间间隔925。
在图像帧910至990之间,用户位置将改变的概率在所有时间轴上相同。因此,可以如下面的数学表达式3所表示地定义因摄像机121而造成的延迟时间TC:
TC<1/FR    (3)
其中,FR指示摄像机121的帧速率。延迟TC可以被指定为摄像机拍摄延迟。
可以如下面的数学表达式4所表示地定义在用户的位置改变之后直到根据用户的位置变化控制三维图像滤波器为止所用的延迟的最大值Tm
Tm<1/FR+Tt    (4)
其中,Tt是直到控制器180接收到已拍摄了用户的位置变化的图像帧、利用接收的图像帧生成控制信号以及将生成的控制信号输入至三维图像滤波器驱动装置183为止所用的延迟。
在本公开中,可以低于三维图像滤波器在用户退出最佳点之前可以移动的延迟量并且至少按保持延迟的最大值Tm的最小帧速率驱动摄像机121。而且,控制器180可以控制按大于或等于最小帧速率的帧速率驱动摄像机121。
常规摄像机按根据外部亮度调整曝光度的方式来驱动,以使在用户观看画面时提供明亮且清晰的图像。然而,根据本公开的摄像机和三维图像处理装置可以配置为与外部亮度无关地保持摄像机的帧速率。因此,即使在用户的移动期间,用户也可以总是观看到清晰的三维图像,而不会体验到串扰和图像翻转。
摄像机121的图像帧之间的时间间隔925可以设置成大于直到利用摄像机121拍摄的图像帧生成控制信号并将生成的控制信号输入至三维图像滤波器185为止所用的时间延迟Tt。即,可以根据下面的数学表达式5设置时间间隔925:
1/FR>Tt    (5)
可以按满足数学表达式5的帧速率驱动摄像机121,并且控制器180可以控制按满足数学表达式5的帧速率驱动摄像机121。而且,可以与环境光的亮度改变无关地按满足数学表达式5的固定帧速率驱动摄像机121,并且控制器180可以控制按满足数学表达式5的固定帧速率驱动摄像机121。
在一些实施方式中,可以如下面的数学表达式6所表示地定义时间延迟Tt
Tt=α+β+γ+δ    (6)
其中,α指示直到摄像机121拍摄的图像帧输入至控制器180为止所用的延迟,β指示直到利用从位置检测装置610和移动量计算装置620输入的图像帧生成控制信号为止所用的延迟,γ指示直到通信控制器630开始向三维图像滤波器驱动装置183发送生成的控制信号为止所用的延迟,δ指示直到生成的控制信号从通信控制器630传递至三维图像滤波器驱动装置183为止所用的延迟。延迟α和延迟β的和可以称为检测处理延迟。
可以根据数学表达式5和数学表达式6导出数学表达式7。
1/FR>α+β+γ+δ    (7)
可以按满足数学表达式7的帧速率驱动摄像机121,并且控制器180可以控制按满足数学表达式7的帧速率驱动摄像机121。而且,可以与环境光的亮度改变无关地按满足数学表达式7的固定帧速率驱动摄像机121,并且控制器180可以控制按满足数学表达式7的固定帧速率驱动摄像机121。
在一些实施方式中,Tt可以定义为从α、β、γ以及δ中选择的至少一个的和。
图10至10D是例示根据本公开另一实施方式的控制器的操作模式的框图。控制器180可以包括:位置检测装置1010、移动量计算装置1020以及图形处理装置1030。
位置检测装置1010可以接收从摄像机121拍摄了用户图像的图像帧,并且利用接收的图像帧检测用户的位置。位置检测装置1010可以识别面部区以检测用户的位置。这里,位置检测装置1010可以利用基于面部的对称性的算法、基于头发颜色和面部颜色的算法以及基于面部轮廓的算法识别面部区。而且,位置检测装置1010可以根据图像帧计算肤色信息,以识别特定面部区。
移动量计算装置1020可以基于检测的用户的位置计算三维图像的移动量,并输出计算的三维图像的移动量。而且,移动量计算装置1020可以利用数学表达式1和数学表达式2计算三维图像的移动量。移动量计算装置1020可以将计算的三维图像的移动量输出至图形处理装置1030。这里,计算的三维图像的移动量指将显示三维图像的像素值或子像素值以使可以与由位置检测装置1010检测到的用户的位置相对应地恰当显示三维图像的位置的移动量。而且,三维图像的移动量可以是像素的移动量或子像素的移动量。
图形处理装置1030可以设置显示三维图像的每个像素值的位置。在一些实施方式中,图形处理装置1030可以根据预定规则设置在显示装置151上显示包括在三维图像中的多个视图图像的每个像素值的位置,例如,显示位置。
图形处理装置1030可以基于从位置检测装置1010输出的三维图像的移动量改变设置的显示位置,以设置最终显示位置。在一些实施方式中,图像处理装置1030可以利用预定规则和从位置检测装置1010输出的三维图像的移动量来设置在显示装置151上显示包括在三维图像中的多个视图图像的每个像素值的位置,例如,显示位置。
而且,图形处理装置1030可以生成包括根据设置的显示位置或设置的最终显示位置而设置的像素值或子像素值的图像数据,并且可以将生成的图像数据输出至显示装置151。
在图10的实施方式中,可以如下面的数学表达式8所表示地定义时间延迟Tt
Tt=α+β+ε+ζ    (8)
其中,α是直到摄像机121拍摄的图像帧输入至控制器180为止所用的延迟,β是直到利用从位置检测装置610和移动量计算装置620输入的图像帧计算三维图像的移动量为止所用的延迟,ε是直到图形处理装置1030基于计算的三维图像的移动量生成图像数据为止所用的延迟,ζ是直到将生成的图像数据输入至显示装置151为止所用的延迟。延迟ε和延迟ζ的和可以被指定为图像驱动帧速率延迟。
可以根据数学表达式5和数学表达式8导出数学表达式9。
1/FR>α+β+ε+ζ    (9)
可以按满足数学表达式9的帧速率驱动摄像机121,并且控制器180可以控制按满足数学表达式9的帧速率驱动摄像机121。而且,可以与环境光的亮度改变无关地按满足数学表达式9的固定帧速率驱动摄像机121,并且控制器180可以控制按满足数学表达式9的固定帧速率驱动摄像机121。
在一些实施方式中,Tt可以定义为从α、β、ε以及ζ中选择的至少一个的和。
参照图10A,对于跟踪功能的模式为正常模式的情况来说,向摄像机121、环境光传感器143、位置检测装置1010、移动量计算装置1020以及图形处理装置1030供电。
参照图10B,对于跟踪功能的模式为限制模式的情况来说,向摄像机121、环境光传感器143、位置检测装置1010以及图形处理装置1030供电。然而,未向移动量计算装置1020供电。
参照图10C,对于跟踪功能的模式为停止模式的情况来说,向环境光传感器143和图形处理装置1030供电。然而,未向摄像机121、位置检测装置1010以及移动量计算装置1020供电。
参照图10D,对于跟踪功能的模式为关闭模式的情况来说,向图形处理装置1030供电。然而,未向摄像机121、环境光传感器143、位置检测装置1010以及移动量计算装置1020供电。
不向位置检测装置1010和移动量计算装置1020供电可能意味着位置检测装置1010和移动量计算装置1020未操作,并且可降低控制器180上的相应负荷。
图11是例示根据视图图像的显示位置改变移动最佳点的图。对于显示装置1110在三维图像滤波器1101固定的状态下在点1111处显示左视图图像而在点1112处显示右视图图像的情况来说,设置了最佳点1115,最佳点1115配置为使得交替地设置使得用户能够观看显示在显示装置1110上的左视图图像L的最佳点1117和使得用户能够观看显示在显示装置1110上的右视图图像R的最佳点1116。
对于显示装置1120在三维图像滤波器1101固定的状态下在点1121处显示左视图图像而在点1122处显示右视图图像的情况来说,设置了最佳点1125,最佳点1115配置为使得交替地设置使得用户能够观看显示在显示装置1120上的左视图图像L的最佳点1127和使得用户能够观看显示在显示装置1120上的右视图图像R的最佳点1126。
对于显示装置1130在三维图像滤波器1101固定的状态下利用左视图图像1131和右视图图像1132显示三维图像的情况来说,设置了最佳点1135,最佳点1135配置为使得交替地设置使得用户能够观看显示在显示装置1130上的左视图图像L的最佳点1137和使得用户能够观看显示在显示装置1130上的右视图图像R的最佳点1136。
对于显示装置1140在三维图像滤波器1101固定的状态下利用左视图图像1141和右视图图像1142显示三维图像的情况来说,设置了最佳点1145,最佳点1145配置为使得交替地设置使得用户能够观看显示在显示装置1140上的左视图图像L的最佳点1147和使得用户能够观看显示在显示装置1140上的右视图图像R的最佳点1146。
对于显示装置1150在三维图像滤波器1101固定的状态下利用左视图图像1151和右视图图像1152显示三维图像的情况来说,设置了最佳点1155,最佳点1155配置为使得交替地设置使得用户能够观看显示在显示装置1150上的左视图图像L的最佳点1157和使得用户能够观看显示在显示装置1150上的右视图图像R的最佳点1156。
对于显示装置1160在三维图像滤波器1101固定的状态下利用左视图图像1161和右视图图像1162显示三维图像的情况来说,设置了最佳点1165,最佳点1165配置为使得交替地设置使得用户能够观看显示在显示装置1160上的左视图图像L的最佳点1167和使得用户能够观看显示在显示装置1160上的右视图图像R的最佳点1166。
对于显示装置1170在三维图像滤波器1101固定的状态下利用左视图图像1171和右视图图像1172显示三维图像的情况来说,设置了最佳点1175,最佳点1175配置为使得交替地设置使得用户能够观看显示在显示装置1170上的左视图图像L的最佳点1177和使得用户能够观看显示在显示装置1170上的右视图图像R的最佳点1176。
移动量计算装置1020可以决定应当根据视图图像1110至1160的排列模式之一设置左视图图像和右视图图像的显示位置,以基于用户位于的点移动最佳点。即,移动量计算装置1020可以计算三维图像的移动量,以使根据设置的视图图像的排列模式排列当前视图图像。例如,对于用户的左眼位于点1117处而用户的右眼位于点1118处的情况来说,移动量计算装置1020决定应当根据视图图像1110的排列模式排列视图图像,使得提供最佳点1115。对于用户的左眼从点1117移动至点1137的情况来说,移动量计算装置1020可以决定根据视图图像1110的排列模式排列的视图图像应当改变成根据视图图像1130的排列模式排列的视图图像,使得提供最佳点1135。即,移动量计算装置1020可以基于从视图图像1110的排列模式至视图图像1130的排列模式的视图图像的移动量计算三维图像的移动量。
图12A至12D是例示根据本公开另一实施方式的控制器的操作模式的框图。控制器180可以包括:位置检测装置1210、速度计算装置1220,位置估计装置1230、移动量计算装置1240以及通信控制器1250。
位置检测装置1210可以接收从摄像机121拍摄了用户图像的图像帧,并且利用接收的图像帧检测用户的位置。位置检测装置1210可以识别面部区以检测用户的位置。这里,位置检测装置1210可以利用基于面部的对称性的算法、基于头发颜色和面部颜色的算法以及基于面部轮廓的算法识别面部区。而且,位置检测装置1210可以根据图像帧计算肤色信息,以识别特定面部区。
速度计算装置1220可以利用从当前检测的用户的位置和先前检测的用户的位置中选择的至少一个计算用户的移动速度。位置估计装置1230可以利用检测的用户的位置和计算的用户的移动速度估计在经过了预定时间时用户的位置。
移动量计算装置1240可以基于检测的用户的位置或估计的用户的位置计算三维图像滤波器的位置和三维图像滤波器的移动量,并输出计算的三维图像滤波器的移动量。可以针对检测的用户的每个位置或估计的用户的每个位置计算并且输出三维图像滤波器的移动量。
而且,移动量计算装置1240可以根据三维图像滤波器的当前位置和计算的三维图像滤波器的移动量生成用于控制移动三维图像滤波器的非透射区的控制信号,并且可以将生成的控制信号输出至通信控制器1250。可以针对检测的用户的每个位置或估计的用户的每个位置计算并且输出控制信号。生成的控制信号可以是使得三维图像滤波器的非透射区能够位于远离当前位置达计算的三维图像滤波器的移动量的点处的信号。另选地,生成的控制信号可以是使得三维图像滤波器的非透射区能够位于基于计算的三维图像滤波器的移动量而远离与先前控制信号相对应的针对非透射区的点的点处的信号。
在一些实施方式中,移动量计算装置1240可以寻找三维图像滤波器的透射区和非透射区的、具有与检测的用户的位置或估计的用户的位置相对应的最佳点的位置,并且可以计算找到的三维图像滤波器的透射区和非透射区的位置与三维图像滤波器的透射区和非透射区的当前位置或由先前控制信号指示的三维图像滤波器的透射区和非透射区的位置之差,以获得三维图像滤波器的移动量。
在一些实施方式中,移动量计算装置1240可以基于检测的用户的位置或估计的用户的位置计算透镜的位置和透镜的移动量,并可以输出计算的透镜的位置和计算的透镜的移动量。计算的透镜的位置和计算的透镜的移动量可以输出至三维图像滤波器驱动装置183。
移动量计算装置1240可以根据透镜的当前位置或由先前控制信号指示的透镜的位置和计算的透镜的移动量生成用于控制透镜移动的控制信号,并可以将生成的控制信号输出至通信控制器1250。生成的控制信号可以是使得透镜能够位于远离当前位置达计算的透镜的移动量的点处的信号,或者可以是使得透镜能够位于远离先前控制信号指示的透镜的点达计算的透镜的移动量的点处的信号。
通信控制器1250可以向三维图像滤波器驱动装置183发送由移动量计算装置1240生成的控制信号。这里,发送的控制信号可以包括基于检测的用户的位置生成的控制信号和基于估计的用户的位置生成的控制信号。控制信号可以按生成的次序来发送。通信控制器1250可以按I2C通信方式向三维图像滤波器驱动装置183输出控制信号。
图13至16是示出摄像机拍摄的用户的图像帧的视图。位置检测装置1210可以利用图像帧1300检测用户的位置1311。位置检测装置1210可以识别图像帧1400中的面部区以检测用户的位置1321。
速度计算装置1220可以利用当前检测的用户的位置1321和先前检测的用户的位置1311根据下面的数学表达式10计算用户的移动速度V。
V=H/T    (10)
其中,H是当前检测的用户的位置1321和先前检测的用户的位置1311之间的距离,T是图像帧1300与图像帧1400之间的时间间隔。
速度计算装置1220可以利用检测的用户的位置1321和移动速度V根据下面的算法计算在经过了预定时间量之后用户的位置。
for(k=1,k<N+1,k++)    A(1)
{在延迟时间+kt处用户的位置}
其中,延迟时间+kt可以是预定时段,而延迟时间可以是从摄像机拍摄延迟、检测处理延迟或图像驱动器帧速率延迟中选择的至少一个所延迟的时间。
这里,t可以如下面的数学表达式11所表示地设置:
t=(1/M)/N    (11)
其中,M是摄像机的最大帧速率,N可以如下面的数学表达式12所表示地设置:
N>(v*t)/T    (12)
其中,T是出现图像改变时头部位置改变的阈值。
在延迟时间+kt处用户的位置可以如下面的数学表达式13所表示地计算:
P=P0+VT    (13)
其中,P0是用户的检测位置,T是延迟时间+kt。
根据算法1,在摄像机按M Hz的帧速率拍摄图像的情况下,位置估计装置1230可以在拍摄图像帧期间按时间间隔t估计用户的N个位置。因此,可以实现和利用按M*N Hz的帧速率执行拍摄的摄像机时相同的效果。
当已经拍摄了图像帧1500时,位置检测装置1210可以检测用户的位置1331,并且速度计算装置1220可以利用先前检测的用户的位置1311和1321中的至少一个计算用户的移动速度V。
而且,当已经拍摄了图像帧1600时,位置检测装置1210可以检测用户的位置1341,并且速度计算装置1220可以利用先前检测的用户的位置1311、1321以及1331中的至少一个计算用户的移动速度V。
在图12的实施方式中,可以如下面的数学表达式14所表示地设置摄像机121的帧速率FR:
1/FR>α+β+γ+δ–Nη+Nδ    (14)
其中,α是直到摄像机121拍摄的图像帧输入至控制器180为止所用的时间延迟,β是直到利用从位置检测装置1210和移动量计算装置1240输入的图像帧计算控制信号为止所用的时间延迟,γ是直到通信控制器1250开始向三维图像滤波器驱动装置183发送生成的控制信号为止所用的时间延迟,δ是直到生成的控制信号从通信控制器1250传递至三维图像滤波器驱动装置183为止所用的时间延迟,N是估计用户的位置的次数。这里,η可以如下面的数学表达式15所表示地计算:
η=[1/(N+1)]x[1/FR]    (15)
可以按满足数学表达式14的帧速率驱动摄像机121,并且控制器180可以控制按满足数学表达式14的帧速率驱动摄像机121。而且,可以与环境光的亮度改变无关地按满足数学表达式14的固定帧速率驱动摄像机121,并且控制器180可以控制按满足数学表达式14的固定帧速率驱动摄像机121。
参照图12A,对于跟踪功能的模式为正常模式的情况来说,可以向摄像机121、环境光传感器143、位置检测装置1210、速度计算装置1220、位置估计装置1230、移动量计算装置1240以及通信控制器1250供电。
参照图12B,对于跟踪功能的模式为限制模式的情况来说,可以向摄像机121、环境光传感器143、位置检测装置1210以及通信控制器1250供电;然而,未向速度计算装置1220、位置估计装置1230以及移动量计算装置1240供电。
参照图12C,对于跟踪功能的模式为停止模式的情况来说,可以向环境光传感器143和通信控制器1250供电;然而,未向摄像机121、速度计算装置1220、位置估计装置1230以及移动量计算装置1240供电。
参照图12D,对于跟踪功能的模式为关闭模式的情况来说,可以向通信控制器1250供电。然而,未向摄像机121、环境光传感器143、速度计算装置1220、位置估计装置1230以及移动量计算装置1240供电。因此,降低或消除了与这些终端处理相关联的、控制器180的负荷和消耗的电力。
在一些实施方式中,对于跟踪功能的模式不是正常模式的情况来说,可以不向通信控制器1250供电。未向位置检测装置1210、速度计算装置1220、位置估计装置1230、移动量计算装置1240以及通信控制器1250供电可能意指位置检测装置1210、速度计算装置1220、位置估计装置1230、移动量计算装置1240以及通信控制器1250未操作,从而降低控制器1800的负荷和关联功耗。
图17A至17D是例示根据本公开又一实施方式的控制器的操作模式的框图。控制器180可以包括:位置检测装置1710、速度计算装置1720,位置估计装置1730、移动量计算装置1740以及图形处理装置1750。位置检测装置1710、速度计算装置1720以及位置估计装置1730对应于图12的位置检测装置1210、速度计算装置1220以及位置估计装置1230,因此将省略其详细描述。而且,图形处理装置1750对应于图10的图形处理装置1030。
移动量计算装置1740可以基于在特定定时处估计的用户位置,利用数学表达式1和数学表达式2计算特定定时处的像素移动量。参照图11,当用户的左眼位于点1116处而用户的右眼位于点1117处时,根据视图图像1110的排列模式排列视图图像。位置估计装置1730估计用户左眼的位置1136和用户右眼的位置1137,并基于估计的移动位置1136和1137计算像素移动量A。当用户从位置1116和1117移动至位置1136和1137时,图形处理装置1750执行处理,以使基于根据移动定时计算出的像素移动量A移动三维图像。因此,视图图像根据视图图像1130的排列模式来显示。
在图17的实施方式中,可以如下面的数学表达式16所表示地设置摄像机121的帧速率FR:
1/FR>α+β+ε+ζ–Nη+Nζ    (16)
其中,α是直到摄像机121拍摄的图像帧输入至控制器180为止的时间延迟,β是直到利用从位置检测装置1710和移动量计算装置1740输入的图像帧计算控制信号为止所用的延迟,ε是直到图形处理装置1750基于计算的三维图像的移动量生成图像数据为止所用的延迟,ζ是直到生成的图像数据输入至显示装置151为止所用的延迟,N是估计用户位置的次数。这里,η可以如上面的数学表达式15所表示地计算。
可以按满足数学表达式16的帧速率驱动摄像机121,并且控制器180可以控制按满足数学表达式16的帧速率驱动摄像机121。而且,可以与环境光的亮度改变无关地按满足数学表达式16的固定帧速率驱动摄像机121,并且控制器180可以控制按满足数学表达式16的固定帧速率驱动摄像机121。
参照图17A,对于跟踪功能的模式为正常模式的情况来说,向摄像机121、环境光传感器143、位置检测装置1710、速度计算装置1720、位置估计装置1730、移动量计算装置1740以及图形处理装置1750供电。
参照图17B,对于跟踪功能的模式为限制模式的情况来说,向摄像机121、环境光传感器143、位置检测装置1710以及图形处理装置1750供电。然而,未向速度计算装置1720、位置估计装置1730以及移动量计算装置1740供电。
参照图17C,对于跟踪功能的模式为停止模式的情况来说,向环境光传感器143和图形处理装置1750供电。然而,未向摄像机121、速度计算装置1720、位置估计装置1730以及移动量计算装置1740供电。
参照图17D,对于跟踪功能的模式为关闭模式的情况来说,向图形处理装置1750供电。然而,未向摄像机121、环境光传感器143、速度计算装置1720、位置估计装置1730以及移动量计算装置1740供电。
未向位置检测装置1710、速度计算装置1720、位置估计装置1730以及移动量计算装置1740供电可能意指位置检测装置1710、速度计算装置1720、位置估计装置1730以及移动量计算装置1740未***作,从而可以降低与这些处理相关联的控制器180的负荷。
图18是根据本公开一实施方式的三维图像处理装置的电力控制方法的流程图。在步骤S100中,控制器180可以检查跟踪功能的模式。
对于跟踪功能的模式为正常模式的情况来说,在步骤S102中,环境光传感器143感测环境光的亮度。这里,根据本公开的三维图像处理装置100可以处于图6A、10A、12A以及17A所示正常模式下的电力施加状态中的一种状态。而且,控制器180可以控制从电源装置190供电,以使三维图像处理装置100处于图6A、10A、12A以及17A所示正常模式下的电力施加状态中的一种状态。
在步骤S104中,控制器180可以检查由环境光传感器143感测到的环境光的亮度。这里,控制器180可以确定环境光的亮度是否等于或小于预定值。而且,可以由控制器180基于从基于摄像机121拍摄的图像提取用户的图片图像的方法、以及摄像机121的拍摄元件的性能中选择的至少一个设置预定值。
当确定环境光的亮度大于预定值时,在步骤S106中,摄像机121可以拍摄用户图像。在步骤S108中,控制器180可以利用摄像机121拍摄的图像设置与用户的位置有关的用户位置信息。这里,步骤S108可以由图6所示位置检测装置610、图10所示位置检测装置1010、图12所示位置检测装置1210或图17所示位置检测装置1710执行。
在步骤S110中,控制器180可以基于设置的用户位置信息生成用于控制显示视图图像的控制信号。这里,步骤S110可以由图6所示移动量计算装置620、图10所示移动量计算装置1020、图12所示移动量计算装置1240或图17所示移动量计算装置1740执行。而且,控制信号可以包括从用于控制双凸透镜板的透镜移动的控制信号、用于控制视差屏障的非透射区移动的控制信号、以及用于控制要在显示装置151上显示视图图像的位置的控制信号中选择的至少一个。而且,跟踪功能的模式可以包括从不执行跟踪功能的关闭模式和执行跟踪功能的开启模式中选择的至少一个。开启模式可以包括从停止执行跟踪功能的停止模式、限制执行跟踪功能的限制模式以及正常地执行跟踪功能的正常模式中选择的至少一个。在步骤S112中,显示装置151可以显示视图图像。
在步骤S114中,控制器180可以确定是否已经检测到用于请求在跟踪功能模式之间切换的用户动作。可以通过图19所示图形用户接口GUI执行用于请求在跟踪功能模式之间切换的用户动作。
图19A至19D是允许用户输入用于在跟踪功能模式之间切换的请求的图形用户接口(GUI)的视图。图19A的GUI 1910可以包括用于设置跟踪功能的菜单项1911。菜单项1911可以指示“跟踪功能关闭”。“跟踪功能关闭”意指将跟踪功能的模式设置成关闭模式。
用户可以将指针1901或指示符1905放置在菜单项1911上并点击遥控上的按钮(例如,OK按钮),来执行用于请求在跟踪功能模式之间切换的用户动作。而且,用户可以利用手指1903触摸菜单项1911,以执行用于请求在跟踪功能模式之间切换的用户动作。
对于在显示GUI 1910的状态下检测到用于请求在跟踪功能模式之间切换的用户动作的情况来说,控制器180可以控制响应于检测的用户动作显示图19B的GUI1920。
GUI 1920可以包括用于设置跟踪功能的菜单项1921。菜单项1921可以指示“跟踪功能开启”。“跟踪功能开启”意指将跟踪功能的模式设置成开启模式。根据用于请求在跟踪功能模式之间切换的用户动作,在消息1911和消息1921之间相互切换。
而且,在感测到请求显示用于设置跟踪功能的GUI的用户动作的情况下,可以选择性地显示GUI 1910或GUI 1920。在当前跟踪功能被设置成关闭模式的情况下,可以响应于用户动作显示GUI 1910。在当前跟踪功能被设置成开启模式的情况下,可以响应于用户动作显示GUI 1920。
在一些实施方式中,消息1911和消息1921可以相同。在这种情况下,可以利用不同颜色、厚度、大小以及高亮显示消息1911和消息1921。例如,消息1921可以显示为比消息1911更厚或更大。
在一些实施方式中,GUI 1920还可以包括条件区1930。条件区1930可以包括从用于设置跟踪功能的细节的菜单项1931和菜单项1933中选择的至少一个。条件区1930可以在将消息1911切换至消息1921时显示。
可以提供菜单项1931,以设置环境光感测功能。环境光感测功能是用于基于由环境光传感器143感测到的环境光的亮度调整跟踪功能的模式的功能。当用户执行用于选择菜单项1931的用户动作时,在菜单项1931上显示选中标记1932,并且设置环境光感测功能。当选中标记1932显示在菜单项1931上时,控制器180执行环境光感测功能。
可以提供菜单项1933,以设置观看感测功能。观看感测功能是用于根据用户是否处于观看区来调整跟踪功能的模式的功能。当用户执行用于选择菜单项1933的用户动作时,在菜单项1931上显示选中标记,并且设置观看感测功能。当在菜单项1933上显示选中标记时,控制器180可以执行观看感测功能。用户可以分别地设置和释放环境光感测功能和观看感测功能。
当检测到用户动作时,在步骤S116中,控制器180可以基于检测到的用户动作调整跟踪功能的模式。当检测到的用户动作请求切换至关闭模式时,控制器180可以将跟踪功能的模式调整为关闭模式。而且,当检测到的用户动作请求切换至开启模式时,控制器180可以将跟踪功能的模式调整为开启模式。开启模式可以是正常模式。
在一些实施方式中,当在显示了三维图像之后显示二维图像时,控制器180可以将跟踪功能的模式调整为关闭模式。在一些实施方式中,当在显示了二维图像之后显示三维图像时,控制器180可以自动地将跟踪功能的模式调整为正常模式。在一些实施方式中,当在显示了二维图像之后显示三维图像时,控制器180可以将跟踪功能的模式调整为预定模式。这里,预定模式可以是基于检测用户动作调整的跟踪功能的模式。
当感测的环境光的亮度等于或小于预定值时,在步骤S118中,控制器180可以将跟踪功能的模式改变为停止模式。
对于跟踪功能的模式为停止模式的情况来说,在步骤S120中,环境光传感器143可以感测环境光的亮度。这里,根据本公开的三维图像处理装置100可以处于图6C、10C、12C以及17C所示停止模式下的电力施加状态中的一种状态。而且,控制器180可以控制从电源装置190供电,以使三维图像处理装置100处于图6C、10C、12C以及17C所示停止模式下的电力施加状态中的一种状态。
在步骤S122中,控制器180可以检查由环境光传感器143检测到的环境光的亮度。这里,控制器180可以确定环境光的亮度是否大于预定值。
当确定环境光的亮度大于预定值时,在步骤S124中,控制器180可以将跟踪功能的模式改变为正常模式。
在跟踪功能的模式为关闭模式的情况下,可以执行步骤S114。这里,根据本公开的三维图像处理装置100可以处于图6D、10D、12D以及17D所示关闭模式下的电力施加状态中的一种状态。而且,控制器180可以控制从电源装置190供电,以使三维图像处理装置100处于图6D、10D、12D以及17D所示关闭模式下的电力施加状态中的一种状态。
图20是根据本公开另一实施方式的控制三维图像处理装置的方法的流程图。在步骤S200中,控制器180可以检查跟踪功能的模式。
对于跟踪功能的模式为正常模式的情况来说,在步骤S202中,摄像机121可以拍摄观看区内的图像,以使用户能够观看通过三维图像处理装置100显示的三维图像。这里,根据本公开的三维图像处理装置100可以处于图6A、10A、12A以及17A所示正常模式下的电力施加状态中的一种状态。而且,控制器180可以控制从电源装置190供电,以使三维图像处理装置100处于图6A、10A、12A以及17A所示正常模式下的电力施加状态中的一种状态。
在步骤S204中,控制器180可以通过摄像机121确定用户是否处于观看区中。这里,步骤S204可以由图6所示位置检测装置610、图10所示位置检测装置1010、图12所示位置检测装置1210以及图17所示位置检测装置1710执行。
当确定用户处于观看区中时,在步骤S206中,控制器180可以利用摄像机121拍摄的图像设置与用户的位置有关的用户位置信息。这里,步骤S206可以由图6所示位置检测装置610、图10所示位置检测装置1010、图12所示位置检测装置1210以及图17所示位置检测装置1710执行。
在步骤S208中,控制器180可以基于设置的用户位置信息生成用于控制视图图像显示的控制信号。这里,步骤S208可以由图6所示移动量计算装置620、图10所示移动量计算装置1020、图12所示移动量计算装置1240以及图17所示移动量计算装置1740执行。
而且,控制信号可以包括从用于控制双凸透镜板的透镜移动的控制信号、用于控制视差屏障的非透射区移动的控制信号、以及用于控制要在显示装置151上显示视图图像的位置的控制信号中选择的至少一个。而且,跟踪功能的模式可以包括从不执行跟踪功能的关闭模式和执行跟踪功能的开启模式中选择的至少一个。开启模式可以包括从停止执行跟踪功能的停止模式、有限地执行跟踪功能的限制模式、以及正常地执行跟踪功能的正常模式中选择的至少一个。而且,在步骤S210中,显示装置151显示视图图像。
在步骤S212中,控制器180可以确定是否已经检测到用于在跟踪功能模式之间切换的请求(例如,用户动作)。用于在跟踪功能模式之间切换的请求可以是通过图19所示图形用户接口GUI执行的用户动作。
当检测到用户动作时,在步骤S214中,控制器180可以基于检测到的用户动作调整跟踪功能的模式。当检测到的用户动作请求切换至关闭模式时,控制器180将跟踪功能的模式调整为关闭模式。而且,当检测到的用户动作请求切换至开启模式时,控制器180将跟踪功能的模式调整为开启模式。开启模式可以是正常模式。
在一些实施方式中,当在显示了三维图像之后显示二维图像时,控制器180可以将跟踪功能的模式调整为关闭模式。在一些实施方式中,当在显示了二维图像之后显示三维图像时,控制器180可以自动地将跟踪功能的模式调整为正常模式。在一些实施方式中,当在显示了二维图像之后显示三维图像时,控制器180可以将跟踪功能的模式调整为预定模式。这里,预定模式可以是基于检测到的用户动作调整的跟踪功能的模式。
在步骤S240中,当确定用户未处于观看区中时,在步骤S216中,控制器180可以将跟踪功能的模式改变为限制模式。
在步骤S200中,对于跟踪功能的模式被确定为限制模式的情况来说,在步骤S218中,摄像机121可以拍摄观看区中的图像,以使用户能够观看三维图像处理装置100显示的三维图像。这里,根据本公开的三维图像处理装置100可以处于图6B、10B、12B以及17B所示限制模式下的电力施加状态中的一种状态。而且,控制器180可以控制从电源装置190供电,以使三维图像处理装置100处于图6B、10B、12B以及17B所示限制模式下的电力施加状态中的一种状态。
在步骤S220中,控制器180可以利用摄像机121拍摄的图像确定用户是否处于观看区中。这里,步骤S220可以由图6所示位置检测装置610、图10所示位置检测装置1010、图12所示位置检测装置1210以及图17所示位置检测装置1710执行。
在步骤S220中,当确定用户处于观看区中时,在步骤S222中,控制器180可以将跟踪功能的模式改变为正常模式。步骤206可以在执行了步骤S222之后执行。在一些实施方式中,步骤212可以在执行了步骤S222之后执行。在步骤S220中,当确定用户未处于观看区中时,可以执行步骤S212,以确定何时检测到输入(例如,用户动作)。
当跟踪功能的模式为关闭模式时,可以执行步骤S212。这里,根据本公开的三维图像处理装置100可以处于图6D、10D、12D以及17D所示关闭模式下的电力施加状态中的一种状态。而且,控制器180可以控制从电源装置190供电,以使三维图像处理装置100处于图6D、10D、12D以及17D所示关闭模式下的电力施加状态中的一种状态。
图21是根据本公开另一实施方式的控制三维图像处理装置的方法的流程图。在步骤S300中,控制器180可以检查跟踪功能的模式。
对于跟踪功能的模式为正常模式的情况来说,在步骤S302中,环境光传感器143可以感测环境光的亮度。这里,三维图像处理装置100可以处于图6A、10A、12A以及17A所示正常模式下的电力施加状态中的一种状态。而且,控制器180可以控制从电源装置190供电,以使三维图像处理装置100处于图6A、10A、12A以及17A所示正常模式下的电力施加状态中的一种状态。
在步骤S304中,控制器180可以检查由环境光传感器143感测到的环境光的亮度。这里,控制器180可以确定环境光的亮度是否等于或小于预定值。而且,可以由控制器180基于从基于摄像机121拍摄的图像提取用户的图片图像的方法、或通过摄像机121的拍摄元件(例如,传感器)的操作中选择的至少一个设置预定值。
当确定环境光的亮度大于预定值时,在步骤S306中,摄像机121可以拍摄用户图像。在步骤S308中,控制器180可以利用由摄像机121拍摄的图像确定用户是否处于观看区中,以使用户能够观看三维图像处理装置100显示的三维图像。这里,步骤S308可以由图6所示位置检测装置610、图10所示位置检测装置1010、图12所示位置检测装置1210以及图17所示位置检测装置1710执行。
当确定用户处于观看区中时,在步骤S310中,控制器180可以利用摄像机121拍摄的图像设置与用户的位置有关的用户位置信息。这里,步骤S310可以由图6所示位置检测装置610、图10所示位置检测装置1010、图12所示位置检测装置1210以及图17所示位置检测装置1710执行。
在步骤S312中,控制器180可以基于设置的用户位置信息生成用于控制视图图像显示的控制信号。这里,步骤S312可以由图6所示移动量计算装置620、图10所示移动量计算装置1020、图12所示移动量计算装置1240以及图17所示移动量计算装置1740执行。而且,控制信号可以包括从用于控制双凸透镜板的透镜移动的控制信号、用于控制视差屏障的非透射区移动的控制信号、以及用于控制要在显示装置151上显示视图图像的位置的控制信号中选择的至少一个。而且,跟踪功能的模式可以包括从不执行跟踪功能的关闭模式和执行跟踪功能的开启模式中选择的至少一个。开启模式可以包括从停止执行跟踪功能的停止模式、有限地执行跟踪功能的限制模式以及正常地执行跟踪功能的正常模式中选择的至少一个。在步骤S314中,显示装置151显示视图图像。
在步骤S316中,控制器180可以确定是否已经检测到用于在跟踪功能模式之间切换的请求(例如,用户输入)。可以通过图19所示图形用户接口GUI执行用于在跟踪功能模式之间切换的请求。
当检测到用户动作时,在步骤S318中,控制器180可以基于检测到的用户动作,调整跟踪功能的模式。当检测到的用户动作请求切换至关闭模式时,控制器180可以将跟踪功能的模式调整为关闭模式。而且,当检测到的用户动作请求切换至开启模式时,控制器180将跟踪功能的模式调整为开启模式。开启模式可以是正常模式。
在一些实施方式中,当在显示了三维图像之后显示二维图像时,控制器180可以将跟踪功能的模式调整为关闭模式。在一些实施方式中,当在显示了二维图像之后显示三维图像时,控制器180可以自动地将跟踪功能的模式调整为正常模式。在一些实施方式中,当在显示了二维图像之后显示三维图像时,控制器180可以将跟踪功能的模式调整为预定模式。这里,预定模式可以是基于检测到的用户动作调整的跟踪功能的模式。
在步骤S308中,当确定用户未处于观看区中时,在步骤S320中,控制器180可以将跟踪功能的模式改变为限制模式。
在步骤S304中,当确定在步骤S302中感测到的环境光等于或小于预定值时,在步骤S322中,控制器180可以将跟踪功能的模式改变为停止模式。换句话说,如果确定存在不足量的光,则控制器180将操作模式改变为停止模式,以暂停各种操作,由此降低控制器180的负荷。
对于跟踪功能的模式为限制模式的情况来说,在步骤S330中,环境光传感器143可以感测环境光的亮度。这里,三维图像处理装置100可以处于图6B、10B、12B以及17B所示限制模式下的电力施加状态中的一种状态。而且,控制器180可以控制从电源装置190供电,以使三维图像处理装置100处于图6B、10B、12B以及17B所示限制模式下的电力施加状态中的一种状态。
在步骤S332中,控制器180可以检查由环境光传感器143感测到的环境光的亮度。这里,控制器180可以确定环境光的亮度是否等于或小于预定值。
当确定环境光的亮度大于预定值时,在步骤S334中,可以控制摄像机121拍摄用户图像。在步骤S336中,控制器180可以利用由摄像机121拍摄的图像确定用户是否处于用于观看三维图像处理装置100显示的三维图像的观看区中。这里,步骤S336可以由图6所示位置检测装置610、图10所示位置检测装置1010、图12所示位置检测装置1210以及图17所示位置检测装置1710执行。
当确定用户处于观看区中时,在步骤S338中,控制器180将跟踪功能的模式改变为正常模式。这里,可以在执行了步骤S338之后执行步骤310。在一些实施方式中,可以在执行了步骤S338之后执行步骤316。
当用户未处于观看区中时,可以执行步骤S316。
对于跟踪功能的模式为停止模式的情况来说,在步骤S350中,环境光传感器143可以检测环境光的亮度。这里,三维图像处理装置100可以处于图6C、10C、12C以及17C所示停止模式下的电力施加状态中的一种状态。而且,控制器180可以控制从电源装置190供电,以使三维图像处理装置100处于图6C、10C、12C以及17C所示停止模式下的电力施加状态中的一种状态。
在步骤S352中,控制器180可以检查由环境光传感器143感测到的环境光的亮度。这里,控制器180可以确定环境光的亮度是否大于预定值。
当确定环境光的亮度大于预定值时,在步骤S354中,控制器180可以将跟踪功能的模式改变为正常模式。
对于跟踪功能的模式为关闭模式的情况来说,可以执行步骤S315。这里,三维图像处理装置100可以处于图6D、10D、12D以及17D所示关闭模式下的电力施加状态中的一种状态。而且,控制器180可以控制从电源装置190供电,以使三维图像处理装置100处于图6D、10D、12D以及17D所示关闭模式下的电力施加状态中的一种状态。
而且,本公开可以作为可通过计算机读取的代码在可通过计算机读取的记录介质中实现。可通过计算机读取的记录介质包括用于存储可通过计算机读取的数据的所有种类的记录装置。可通过计算机读取的记录介质的示例包括:ROM、RAM、CD-ROM、磁带、软盘以及光学数据存储装置。而且,本公开可以采用载波的形式实现(例如,通过因特网发送)。而且,可通过计算机读取的记录介质可以作为可通过计算机读取的代码按分布式方式存储在经由网络连接的计算机中,以使计算机可以执行代码。
如在此广泛描述和具体实施的,三维图像处理装置及其电力控制方法可以通过跟踪功能快速地检测用户的位置,并且移动最佳点区域以对应于感测的用户的位置。因此,用户可以体验三维效果,而不会感到疲劳或不自然。而且,对于不需要检测用户的位置的情况来说,根据本公开的三维图像处理装置及其电力控制方法停止跟踪功能,以防止因执行跟踪功能而造成的功耗,因此可以最小化三维图像处理装置的功耗。
本说明书中针对“一个实施方式”、“一实施方式”、“示例实施方式”等的任何引用意指结合实施方式描述的特定特征、结构或特性包括在本公开的至少一个实施方式中。本说明书中不同地方出现的这种短语不必全部指同一实施方式。而且,当结合任何实施方式描述特定特征、结构或特性时,应当明白,这处于本领域技术人员的范围内,以结合这些实施方式中的其它实施方式实现这种特征、结构或特性。
尽管参照本发明的许多例示性实施方式对这些实施方式进行了描述,但应当明白,本领域技术人员可以想出落入本公开原理的精神和范围内的许多其它修改例和实施方式。更具体地说,在本公开、附图以及所附权利要求书的范围内,在主体组合排布结构的组件部分和/或排布结构中的各种变型和修改都是可以的。除了在组件部分和/或排布结构中的变型例和修改例以外,本领域技术人员还将清楚另选用途。
本申请要求基于2011年11月11日在韩国提交的韩国申请No.10-2011-0117642的优先权,其全部公开通过引用并入于此。

Claims (14)

1.一种三维图像处理装置,所述三维图像处理装置包括:
显示器,所述显示器配置为显示两个或更多个视图图像;
三维图像滤波器,所述三维图像滤波器布置为与所述显示器相距规定距离,以调整显示的视图图像的光路;
摄像机,所述摄像机配置为拍摄用户的图像;
控制器,所述控制器配置为控制视图图像的显示、所述三维图像滤波器或所述摄像机中的至少一个,
其中,所述控制器基于拍摄的图像确定用户的位置,并且执行通过所述三维图像滤波器调整所述显示器上的视图图像的位置或显示的视图图像的光路的至少一个处理,并且
其中,所述控制器基于确定的用户的位置控制所述摄像机的操作状态和所述至少一个处理。
2.根据权利要求1所述的三维图像处理装置,其中,所述控制器基于确定的用户的位置跟踪用户的移动,并且响应于跟踪的移动调整视图图像的感知的三维视图。
3.根据权利要求1所述的三维图像处理装置,所述三维图像处理装置还包括环境光传感器,所述环境光传感器配置为感测环境光的量。
4.根据权利要求3所述的三维图像处理装置,其中,所述控制器基于感测的环境光的量来控制所述摄像机的操作状态和用于控制视图图像的显示或所述三维图像滤波器的至少一个处理。
5.根据权利要求4所述的三维图像处理装置,其中,当环境光的量小于或等于规定值时,所述控制器停止所述摄像机的操作,停止用于确定用户的位置的处理,并停止调整所述显示器上的视图图像的位置的处理或控制所述三维图像滤波器以改变显示的视图图像的光路的处理中的至少一个。
6.根据权利要求5所述的三维图像处理装置,其中,所述控制器停止向所述摄像机供电,以停止所述摄像机的操作。
7.根据权利要求5所述的三维图像处理装置,其中,基于根据拍摄的图像提取用户的图片图像的方法或所述摄像机的拍摄元件的性能中的至少一个设置环境光的规定值。
8.根据权利要求4所述的三维图像处理装置,其中,当环境光的量大于规定值时,所述控制器操作所述摄像机以拍摄用户的图像,执行用于确定用户的位置的处理,并执行调整所述显示器上的视图图像的位置的处理或控制所述三维图像滤波器以改变显示的视图图像的光路的处理中的至少一个。
9.根据权利要求1所述的三维图像处理装置,其中,所述控制器控制所述操作状态为以下状态中的一种:
停止状态,在所述停止状态中,所述摄像机、用于确定用户的位置的处理、以及调整所述显示器上的视图图像的位置的处理或控制所述三维图像滤波器以改变显示的图像的光路的处理中的至少一个不可操作,
限制状态,在所述限制状态中,所述摄像机和用于确定用户的位置的处理可操作,调整所述显示器上的视图图像的位置的处理或控制所述三维图像滤波器以改变显示的图像的光路的处理中的至少一个不可操作,或者
正常状态,在所述正常状态中,所述摄像机、用于确定用户的位置的处理、以及调整所述显示器上的视图图像的位置的处理或控制所述三维图像滤波器以改变显示的图像的光路的处理中的至少一个可操作。
10.根据权利要求1所述的三维图像处理装置,其中,所述三维图像滤波器包括具有多个透镜的双凸透镜板,所述控制器控制所述透镜的移动,以通过所述三维图像滤波器调整光路。
11.根据权利要求1所述的三维图像处理装置,其中,所述三维图像滤波器包括具有交替地形成的透射区和非透射区的视差屏障,所述控制器配置为控制所述非透射区的移动,以通过所述三维图像滤波器调整光路。
12.根据权利要求1所述的三维图像处理装置,其中,所述控制器配置为改变显示在所述显示器上的视图图像的位置。
13.根据权利要求1所述的三维图像处理装置,其中,所述控制器配置为基于检测到的用户动作改变所述摄像机的操作状态和所述至少一个处理。
14.根据权利要求1所述的三维图像处理装置,其中,所述控制器配置为利用拍摄的图像确定用户是否位于观看区内,并且基于确定的结果调整所述摄像机的操作状态和所述至少一个处理。
CN201210444042.5A 2011-11-11 2012-11-08 三维图像处理装置及其电力控制方法 Expired - Fee Related CN103108203B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0117642 2011-11-11
KR1020110117642A KR101887058B1 (ko) 2011-11-11 2011-11-11 입체영상 처리 장치 및 입체영상 처리 장치의 전력 제어 방법

Publications (2)

Publication Number Publication Date
CN103108203A true CN103108203A (zh) 2013-05-15
CN103108203B CN103108203B (zh) 2015-06-24

Family

ID=47428458

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210444042.5A Expired - Fee Related CN103108203B (zh) 2011-11-11 2012-11-08 三维图像处理装置及其电力控制方法

Country Status (4)

Country Link
US (1) US10560677B2 (zh)
EP (1) EP2592840B1 (zh)
KR (1) KR101887058B1 (zh)
CN (1) CN103108203B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107637069A (zh) * 2015-07-24 2018-01-26 三星电子株式会社 显示装置和用于控制显示装置的屏幕的方法
CN109564382A (zh) * 2016-08-29 2019-04-02 株式会社日立制作所 拍摄装置以及拍摄方法
CN112367516A (zh) * 2020-11-09 2021-02-12 四川长虹电器股份有限公司 一种基于空间定位的三维显示***
JP7511307B1 (ja) 2022-11-01 2024-07-05 株式会社バーチャルウインドウ ディスプレイ装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9591295B2 (en) * 2013-09-24 2017-03-07 Amazon Technologies, Inc. Approaches for simulating three-dimensional views
US9591426B2 (en) * 2013-11-22 2017-03-07 Voyetra Turtle Beach, Inc. Method and apparatus for an ultrasonic emitter system floor audio unit
CN103913847B (zh) * 2014-03-19 2015-12-02 京东方科技集团股份有限公司 一种三维显示***
CN105093544B (zh) * 2015-08-12 2017-06-30 京东方科技集团股份有限公司 显示装置
AU2017275482A1 (en) * 2016-06-03 2018-11-15 Covidien Lp Systems, methods, and computer-readable storage media for controlling aspects of a robotic surgical device and viewer adaptive stereoscopic display
KR101919907B1 (ko) 2017-02-28 2018-11-20 연세대학교 원주산학협력단 다중 신경생리신호 기반 사용자 간 상호작용 모니터링 장치 및 방법
JP6895837B2 (ja) * 2017-07-25 2021-06-30 三菱電機株式会社 表示装置
WO2019178666A1 (en) * 2018-03-19 2019-09-26 Vanderlande Apc Inc. System, apparatus and method for performing security screening at a checkpoint using x-ray and ct scanning devices and gui configured for use in connection with same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5959664A (en) * 1994-12-29 1999-09-28 Sharp Kabushiki Kaisha Observer tracking autostereoscopic display and method of tracking an observer
EP1383343A2 (en) * 2002-07-17 2004-01-21 Sharp Kabushiki Kaisha Autostereoscopic display
CN101210846A (zh) * 2006-12-27 2008-07-02 汉阳大学校产学协力团 环境光传感器电路和具有该电路的平板显示设备
US20090181719A1 (en) * 2008-01-14 2009-07-16 Sung Yeob Cho Mobile telecommunication terminal having camera and controlling method for the same
WO2011001372A1 (en) * 2009-06-30 2011-01-06 Koninklijke Philips Electronics N.V. Directional display system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5424553A (en) * 1994-05-16 1995-06-13 Eastman Kodak Company Method for aligning a lenticular material for printing
GB2317291A (en) * 1996-09-12 1998-03-18 Sharp Kk Observer tracking directional display
JPH10232626A (ja) * 1997-02-20 1998-09-02 Canon Inc 立体画像表示装置
GB2324428A (en) * 1997-04-17 1998-10-21 Sharp Kk Image tracking; observer tracking stereoscopic display
JP3994672B2 (ja) * 2000-03-31 2007-10-24 セイコーエプソン株式会社 画像処理を用いた指示位置の検出
WO2003061460A2 (en) * 2002-01-18 2003-07-31 Universiy Of Iowa Research Foundation Device and method for optical imaging of retinal function
JP4819353B2 (ja) * 2004-12-20 2011-11-24 Necディスプレイソリューションズ株式会社 表示装置
US20060139447A1 (en) * 2004-12-23 2006-06-29 Unkrich Mark A Eye detection system and method for control of a three-dimensional display
US7736006B2 (en) * 2005-11-21 2010-06-15 Microvision, Inc. Substrate-guided display with improved image quality
KR100892792B1 (ko) * 2007-08-10 2009-04-10 한양대학교 산학협력단 평판 표시 장치용 주변광 감지 회로
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
US8179449B2 (en) * 2009-05-20 2012-05-15 Sony Ericsson Mobile Communications Ab Portable electronic apparatus including a display and method for controlling display content based on movement of the display and user position
KR101688655B1 (ko) * 2009-12-03 2016-12-21 엘지전자 주식회사 사용자의 프레전스 검출에 의한 제스쳐 인식 장치의 전력 제어 방법
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
US8830329B2 (en) * 2010-10-07 2014-09-09 Sony Computer Entertainment Inc. 3-D glasses with camera based head tracking
CN101984670B (zh) * 2010-11-16 2013-01-23 深圳超多维光电子有限公司 一种立体显示方法、跟踪式立体显示器及图像处理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5959664A (en) * 1994-12-29 1999-09-28 Sharp Kabushiki Kaisha Observer tracking autostereoscopic display and method of tracking an observer
EP1383343A2 (en) * 2002-07-17 2004-01-21 Sharp Kabushiki Kaisha Autostereoscopic display
CN101210846A (zh) * 2006-12-27 2008-07-02 汉阳大学校产学协力团 环境光传感器电路和具有该电路的平板显示设备
US20090181719A1 (en) * 2008-01-14 2009-07-16 Sung Yeob Cho Mobile telecommunication terminal having camera and controlling method for the same
WO2011001372A1 (en) * 2009-06-30 2011-01-06 Koninklijke Philips Electronics N.V. Directional display system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107637069A (zh) * 2015-07-24 2018-01-26 三星电子株式会社 显示装置和用于控制显示装置的屏幕的方法
CN107637069B (zh) * 2015-07-24 2021-04-09 三星电子株式会社 显示装置和用于控制显示装置的屏幕的方法
CN109564382A (zh) * 2016-08-29 2019-04-02 株式会社日立制作所 拍摄装置以及拍摄方法
CN109564382B (zh) * 2016-08-29 2021-03-23 株式会社日立制作所 拍摄装置以及拍摄方法
CN112367516A (zh) * 2020-11-09 2021-02-12 四川长虹电器股份有限公司 一种基于空间定位的三维显示***
CN112367516B (zh) * 2020-11-09 2021-10-01 四川长虹电器股份有限公司 一种基于空间定位的三维显示***
JP7511307B1 (ja) 2022-11-01 2024-07-05 株式会社バーチャルウインドウ ディスプレイ装置

Also Published As

Publication number Publication date
CN103108203B (zh) 2015-06-24
KR101887058B1 (ko) 2018-08-09
US10560677B2 (en) 2020-02-11
KR20130052280A (ko) 2013-05-22
EP2592840A2 (en) 2013-05-15
EP2592840B1 (en) 2016-07-27
EP2592840A3 (en) 2013-10-09
US20130120535A1 (en) 2013-05-16

Similar Documents

Publication Publication Date Title
CN103108203B (zh) 三维图像处理装置及其电力控制方法
KR102014775B1 (ko) 휴대 단말기 및 그 제어 방법
KR101912408B1 (ko) 이동 단말기 및 이동 단말기의 제어 방법
US9240068B2 (en) Three-dimensional image processing apparatus and calibration method of the same
KR101666919B1 (ko) 전자 기기 및 전자 기기의 제어 방법
KR20130031499A (ko) 전자 기기 및 전자 기기의 컨텐츠 생성 방법
KR101731343B1 (ko) 이동 단말기 및 그 제어방법
KR101872864B1 (ko) 전자 기기 및 전자 기기의 제어 방법
KR101737840B1 (ko) 이동 단말기 및 그 제어방법
KR101633336B1 (ko) 이동 단말기 및 그 제어방법
KR20130065074A (ko) 전자 기기 및 전자 기기의 제어 방법
KR101622220B1 (ko) 휴대용 단말기
KR101853663B1 (ko) 이동 단말기
KR101673409B1 (ko) 전자 기기 및 전자 기기의 제어 방법
KR20120130394A (ko) 휴대 단말기 및 그 제어방법
KR101615234B1 (ko) 이동 단말기 및 그 제어방법
KR101871708B1 (ko) 휴대 단말기 및 그 제어 방법
KR20130017178A (ko) 휴대 단말기 및 그 제어 방법
KR101850824B1 (ko) 전자 기기 및 전자 기기의 제어 방법
KR101844225B1 (ko) 휴대 단말기 및 그 제어 방법
KR101830655B1 (ko) 스테레오 스코픽 카메라에서 라이브 뷰 영상 표시 방법
KR101924406B1 (ko) 이동 단말기 및 이동 단말기의 제어 방법
KR20130058203A (ko) 이동 단말기 및 그 제어방법
KR20130066194A (ko) 휴대 단말기 및 그 제어 방법
KR20130087098A (ko) 이동 단말기 및 그 제어방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150624

Termination date: 20211108

CF01 Termination of patent right due to non-payment of annual fee