CN104798370A - 用于产生3-d全光视频图像的***和方法 - Google Patents
用于产生3-d全光视频图像的***和方法 Download PDFInfo
- Publication number
- CN104798370A CN104798370A CN201380060783.6A CN201380060783A CN104798370A CN 104798370 A CN104798370 A CN 104798370A CN 201380060783 A CN201380060783 A CN 201380060783A CN 104798370 A CN104798370 A CN 104798370A
- Authority
- CN
- China
- Prior art keywords
- full light
- light image
- user
- image
- depth plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/232—Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
本文描述一种用于利用眼跟踪能力向用户显示立体全光图像或视频的***和方法。显示装置在屏幕上显示全光图像或视频,且将所述全光图像或视频聚焦于对应于所述用户的凝视的眼坐标的深度平面处。所述所显示的全光帧中的所述所聚焦深度平面随着所述帧在视频流中前进而更新,借此依据所述用户的凝视的位置恒定地再聚焦所述当前所显示的全光帧的所述深度平面。
Description
技术领域
本发明大体涉及用于产生立体全光视频图像的***和方法,且更明确地说涉及用于通过跟踪观察者的眼坐标产生和显示立体全光视频图像的***和方法。
背景技术
3-D立体视频具有设定的焦点,意味着当观察者尝试聚焦于设定的深度平面外部的图像时深度的错觉被打破。此效应可致使3-D内容的一些观察者的眼疲劳,因为眼睛尝试(且未能)如原始拍摄那样聚焦于场景的设定的深度平面外部的内容。全光(也称为“光场”)相机技术允许俘获可在图像被俘获之后聚焦的图像。在传统应用环境中,此允许将全光图像中的任何对象带到锐聚焦,而不管对象包含于什么焦平面中。
在传统摄影中,图像的焦点区域在拍摄图片之前配置。在已拍摄图片之后,设定焦点的区域且离焦的区域无法对焦。相反,光场或全光相机使用特殊透镜和传感器来俘获场景的范围内的整个光场。因此,全光相机能够俘获空间中的每个点中在每一方向上行进的所有光。利用全光相机,因为俘获所有光的颜色、方向和强度,所以在已拍摄图片之后使用软件执行聚焦。已拍摄图片之后聚焦允许用户在任何时间修改对焦的图像区域。
发明内容
在一个实施例中,本发明提供一种用于产生全光图像的***。所述***包括能够产生至少一个全光图像的全光图像源。所述***进一步包括深度映射模块,其经配置以将所述至少一个全光图像中的对象指派到深度平面。所述***进一步包括用于显示所述至少一个全光图像的显示器。所述***进一步包括眼跟踪***,其经配置以跟踪用户在显示器上凝视的位置,且将所显示图像的焦平面设定为由用户观看的深度平面。
在另一实施例中,本发明提供一种用于设定由用户观看的图像的焦平面的方法。所述方法包括产生至少一个全光图像。所述方法进一步包括将所述至少一个全光图像中的对象映射到深度平面。所述方法进一步包括显示所述至少一个全光图像。所述方法进一步包括跟踪显示器上用户的凝视的位置,以及将所显示图像的焦平面设定为由用户观看的深度平面。
在另一实施例中,本发明提供一种用于设定全光图像的焦平面的***。所述***包括用于产生至少一个全光图像的装置。所述***进一步包括用于将所述至少一个全光图像中的对象映射到深度平面的装置。所述***进一步包括用于显示所述至少一个全光图像的装置。所述***进一步包括用于跟踪用户在显示器上凝视的位置的装置。所述***进一步包括用于将所显示图像的焦平面设定为由用户观看的深度平面的装置。
附图说明
图1为用户观看屏幕上的3-D全光图像的说明,其中用户眼睛经由眼镜(B)或经由红外(A)跟踪。
图2为全光图像帧的说明,其中3个深度平面根据用户的眼坐标聚焦。
图3为根据本发明的一个实施例的***级概观的框图。
图4为展示用于产生3-D全光视频的过程的概观的流程图。
图5为展示用于俘获用户的眼位置的过程的概观的流程图。
图6为展示用于将用户的眼坐标映射到全光图像深度平面的过程的概观的流程图。
图7为展示用于将用户的眼坐标映射到全光图像深度平面的过程的概观的流程图。
具体实施方式
本发明的实施例涉及用于向用户显示立体全光图像的***和方法。全光图像含有足够信息以从单一全光图像立体地显示所述图像。因为全光相机记录深度信息(允许在可变深度聚焦),所以可在软件中由单一全光图像俘获构建立体图像。全光相机使用微透镜阵列俘获“四维”光场信息。所述微透镜阵列可将微透镜上的入射光线的一部分分离为束,所述束来源于相同位置但处于不同角方向。因此,所俘获全光图像含有足够信息以再造(凭经验)覆盖焦点距离范围的大块图像。通过使不同焦点距离和深度处的图像对匹配,可针对3-D应用向用户立体地显示全光图像。
实施例大体涉及使用全光图像产生静态图像或视频的***和方法,其中图像或视频的不同深度部分可由用户通过使用眼跟踪来聚焦。因此,在一些实施例中,个别全光图像流组合为帧序列以便产生含有多个深度平面信息的2-D或3-D电影序列。全光数据的每一帧可以(例如)每秒30帧的标准速率组合以供向用户显示。当向用户显示特定视频帧时,***将计算将图像的某些特征的2-D屏幕坐标链接到其恰当深度平面的每帧坐标映射图。举例来说,场景的前景中的树将被指派到前深度平面,且背景中的山将被指派到第二深度平面。不同数目的深度平面可用于电影的每一场景。仅具有几个要素的简单场景可具有2-5个深度平面,而具有许多要素的较复杂场景可具有6-10个深度平面。
一旦图像的每一特征的2-D坐标指派到深度平面,就可将帧显示到标准或立体显示器(例如3-D电视机)上。为了将用户的眼睛恰当地焦点到正确深度平面上,***将包含眼跟踪组件,所述眼跟踪组件将检测用户在显示器上聚焦的位置且接着将渲染的全光图像再聚焦到对应于含有观察者的凝视的屏幕坐标的深度平面处。用于此实施例中的眼跟踪装置的实例是众所周知的,例如Tobii技术公司(弗吉尼亚州,福尔彻奇)的IS-1或IS-2眼***。这些特定装置使用红外光反射离开用户的角膜以便跟踪用户的眼睛的位置和凝视。其它***可将相机、红外激光器或传感器集成在抬头显示器或用户佩戴的眼镜中以计算由用户在任何时间点聚焦的图像中的点。
元件的此组合产生一种***,其通过将所显示图像的焦平面修改为当前由用户观看的深度平面而显示响应于用户正凝视的位置的变化的反应性图像或电影。此***因此允许用户具有在2-D或立体视图(3-D)中在任何所感知深度处所显示场景的任一部分的清晰聚焦。
图1为用于向用户显示全光图像和视频的全光视频***100的一个实施例的说明。显示装置110(例如(但不限于)电视机屏幕)向用户显示全光视频信息120。屏幕110可显示(例如)单一全光图像、2-D全光图像或3-D全光视频。在图1中展示的实施例中,全光图像120包含在所显示图像的前景中的第一人125A和第二人125B。另外,存在在所显示图像的背景中展示为场景的一部分的山128。具有人125A、B的图像的前景可表示一个深度平面,而山128的背景场景可表示第二深度平面。全光帧中可存在任何数目的深度平面,其中每一深度平面表示所显示的场景的不同部分。
显示装置110可连接到硬件装置140,硬件装置140将全光数据发送到显示装置110。硬件装置140可包括(例如)蓝光光盘播放器或存储全光视频或图像数据的存储装置。在一个实施例中(表示为“A”),一对观察者的眼睛160正凝视显示装置110上的全光图像或视频120,且经由眼跟踪装置130沿着线C2和C2跟踪。眼跟踪装置130可包括红外***以跟踪观察者的眼睛在全光图像或视频120上的位置和观察角度。通过跟踪观察者的眼睛的位置和观察角度,***可确定显示器110上在预定义时间周期期间观察者正观看的地方。举例来说,***可在观察者在显示装置110上到处观看时每隔一秒、半秒、四分之一秒或十分之一秒跟踪观察者的眼睛。眼跟踪装置130还可允许额外用户观察全光图像或视频120且单独跟踪房间中每一观察者的位置和凝视。
一旦***已计算用户在任何时间点观看的位置,***就可确定观察者在显示器上的凝视的2-D坐标。举例来说,***可将显示器划分为二维网格且确定用户正观看显示器120的预定义网格内的位置X=100,Y=200。一旦确定用户在显示器上凝视的坐标位置,***随后就将确定正观看哪一深度平面。***随后将为观察者将所显示图像聚焦于观察者正凝视的位置和深度平面处。因此,所显示的全光图像帧120将变为聚焦于对应于观察者的凝视位置的深度平面。
举例来说,如果观察者正凝视前景中的人125A,那么眼跟踪装置130可跟踪观察者的眼凝视作为当前帧120上的坐标位置且将全光帧聚焦于归于人125A的对应深度平面处。所述***随着帧变化更新对焦的深度平面。因此,随着当观察者观看帧120上的不同地点而观察者的凝视位置变化,聚焦的深度平面随着帧在2-D视频流中前进而变化。此外,全光帧120可为3-D视频流的帧。
因此,随着用户改变其在显示屏110上凝视的位置,当在立体视频流中显示帧时***将把不同深度平面带到对焦状态。结果是在外观上类似于在用户前方播放的“现实”场景,而非在显示装置110上显示。在另一实施例中(表示为“B”),经由一对眼跟踪眼镜150跟踪观察者的眼睛。在此实施例中,显示屏110包括内部或外部接收器,其经配置以将数据发射到眼跟踪眼镜150和从眼跟踪眼镜150接收数据。眼跟踪眼镜150主动地跟踪用户在显示屏上凝视的位置,且将用户的凝视信息发射到显示屏110。显示屏110可随后将包含观察者的眼坐标的任何2-D坐标的凝视信息转换为屏幕的坐标确定***。举例来说,如果眼镜150内部观察者的眼睛正凝视全光帧120的在2-D坐标位置(x1,y1)处的位置,那么显示屏110可使用定向余弦矩阵或数学变换将2-D坐标位置变换为显示屏110上坐标(x1',y1')处的等效位置。一旦屏幕110上观察者的凝视位置已知,全光帧120就可随后聚焦于对应深度平面使得用户在其在屏幕上观看的位置处看到清晰、聚焦的图像。如上文相对于实施例“A”所描述,全光视频帧120可为2-D或3-D视频流的帧。
图2展示聚焦于三个不同深度平面的相同所俘获全光图像的不同实例。在第一图像201中,包含海豹202的前景深度平面设定成图像的焦平面。因此,前方海豹202展示为对焦,而中间海豹203和山场景204展示为离焦。在第二图像205中,焦平面设定成与中间深度平面重合使得场景中心的中间海豹203被带到对焦,而前方海豹202和山场景204是模糊的。第三图像207展示一实例,其中焦平面设定成与背景深度平面重合使得山场景204对焦,而前方海豹202和中间海豹203离焦。
如图2所示,立体电视机220可显示电影的每一全光帧。当显示帧时,计算观察者的眼睛的凝视且随后预测用户在任何特定时间正观看的电视机220上的位置。在一个实施例中,实时跟踪观察者的眼移动使得基于在特定时间用户正观看的图像内的位置,呈现到电视机220上的图像不断地进入和离开不同焦点。因此,***可监视用户的凝视并预测(如十字准线225所示)在特定时间用户正观看的电视机上的位置的二维坐标。依据这些坐标,***可预测将哪一深度平面带到对焦。举例来说,当观察者正观看中间海豹203时,与所述海豹相关联的深度平面将被带到对焦使得用户将具有中间海豹的清晰图片。***随后经配置以改变全光图像的焦点,且持续更新所显示的焦平面以与由用户具体观看的特征的深度平面协调。此允许***持续向用户呈现聚焦的立体信息。
图3为可类似于图1的***100的***300的框图。展示一组***模块310,其在所述内一起作用以提供眼跟踪和深度平面聚焦***的许多功能。眼跟踪模块304负责跟踪当凝视所显示的全光视频或图像时观察者的眼睛的坐标。观察者的眼睛可(例如)经由眼跟踪眼镜或红外***来跟踪。坐标映射模块306经配置以将观察者的眼睛的坐标平面变换为显示装置的相应坐标平面。
显示装置上观察者的凝视的2-D坐标位置可确定当前所显示的全光帧上可聚焦哪一深度平面。深度平面聚焦模块308经配置以将当前所显示的全光帧聚焦于对应于观察者在帧上凝视的位置的深度模块处。举例来说,如果当前所显示的全光帧包括10个不同深度平面,那么深度平面聚焦模块308可计算所述10个深度平面中的哪一者对应于观察者的2-D坐标位置(如模块306所计算),且相应地聚焦当前所显示的全光帧的10个深度平面中的一者。
全光图像存储装置322经配置以存储待由***300显示的全光图像。全光2-D图像产生器模块320可从全光图像存储装置322检索排队以供显示的全光图像。全光视频产生器模块318可经配置以从全光图像存储装置322检索全光图像序列且将其转换为视频流。处理器302也可在***300内,所述处理器302经配置以将用于眼跟踪和深度平面聚焦的所述组模块310与全光视频或图像源模块318和320的任一者组合。视频产生模块312可经配置以将从全光视频模块318输出的2-D视频流转换为3-D全光视频流。此外,***300可经配置以允许2-D视频信号穿通模块312以便显示2-D视频流。显示器输出314可经配置以在显示装置(例如,监视器或电视机)上显示3-D视频。产生图像输出模块316可以某一格式转换单一全光图像或帧以供在显示器输出314上显示。
图4为展示如本文中所论述用于产生3-D全光视频的过程400的一个实施例的流程图。过程400开始于框410处用于俘获全光图像。全光图像可经由例如“Red Hot”模型(美国加利福尼亚州,芒廷维尤,lytro.com)等全光相机或经配置以俘获全光图像的视频流的全光视频录入装置来俘获。在框410处,过程400还可俘获全光图像流且将序列中的所俘获的图像“缝合在一起”以产生视频流。过程400随后移动到框420,其中界定全光图像中的深度平面。
举例来说,在具有人在前景中且树在背景中的简单全光帧中,过程框420可界定仅两个深度平面。相反,在包括多个深度区域的较复杂全光帧中,过程400在框420处可界定图像中的更多深度平面,其中每一深度平面代表全光图像内的不同深度区域。过程400随后继续到过程框430以俘获观察者的眼位置。俘获观察者的眼位置的此过程430将在下文中相对于图5更详细地描述。
一旦俘获观察者的眼坐标,过程400就继续到框440以读取眼坐标信息。眼坐标信息是由观察者观察的显示装置上观察者在所述特定时间正在观看的所确定的坐标位置。过程400随后移动到过程框450以将用户的眼坐标映射到所显示的全光帧的坐标平面和对应深度平面。过程450将在下文中相对于图6更详细地描述。
接下来,过程400移动到过程框460,其中将全光帧或图像聚焦于对应于观察者的凝视的位置的深度平面处。此过程将在下文中相对于图7更详细地描述。最后,过程400移动到框470并显示已聚焦在对应于观察者的当前凝视位置的深度平面处的全光帧。
过程400随后针对视频流中的全光帧序列中的每一全光帧重复。因此,视频序列中的每一全光帧重新界定观察者的2-D凝视坐标、深度平面和聚焦区域。所得3-D视频具有“现实”外观,其中全光视频流中每一全光帧的聚焦区基于观察者的凝视位置恒定地更新。
图5进一步详细说明用于俘获用户的眼位置的过程框430中进行的过程。过程430开始于起始框510且随后移动到决策框520,其中确定***是否检测到观察者正使用眼跟踪眼镜。如果发现观察者具有激活的眼跟踪眼镜,那么过程移动到框530以起始观察者的眼睛的跟踪。接下来,过程移动到框540以开始在眼镜内部跟踪观察者的眼睛的观看坐标,其对应于用户正凝视的所显示全光图像的区域的2-D坐标位置。过程随后移动到框580,其将用户的眼睛的坐标映射到显示屏上所显示的全光图像的对应坐标。此变换将取决于所显示的全光图像的大小和屏幕大小而变化。过程随后移动到框590以将观察者的当前眼坐标信息存储在***内。
移动回到决策框520,如果确定观察者尚未激活眼跟踪眼镜,那么过程移动到决策框550以确定红外***是否可用于跟踪观察者的眼睛。如果存在可用的红外眼跟踪***,那么过程移动到框560以跟踪观察者的眼睛的坐标,所述坐标对应于用户正凝视的所显示的全光图像的区域的2-D坐标位置。过程随后移动到框580以将用户的眼睛的眼坐标映射到用户正在显示屏上观看的位置。过程430随后移动到框590以将坐标映射和存储在***中。
如果在决策框550处确定红外眼跟踪***不可用于眼跟踪,那么过程移动到框570以起始用于跟踪观察者的眼坐标的其它跟踪***。过程随后移动到框580和590(如上文所论述)以映射和存储用户正凝视的显示器的坐标(如上文所论述)。
图6进一步详细回顾用于将用户的2-D眼坐标映射到全光图像深度平面的过程450。过程开始于框610,其中确定存在于当前所显示的全光帧中的深度平面的数目。接下来,一旦确定当前所显示的全光帧中深度平面的数目,过程就移动到框620以确定当前所显示图像内的深度平面的哪一者对应于观察者凝视的位置。举例来说,如果仅存在两个深度平面且用户正凝视全光图像的在第二深度平面的区域中的区,那么过程将确定第二深度平面为对应于观察者的眼睛的当前坐标的深度平面。为实现用户当前凝视位置与正观察的正确深度平面的此对准,***将用户的当前视线与那些视线同显示器相交的位置匹配。
因此,在一个实施例中,***确定用户朝向显示器凝视的视线。此可通过确定每一眼位置和随后将来自用户眼睛的视线投射到显示器而计算。显示器通常处于相对于用户的固定位置中,且因此***可经训练以知道相对于用户的眼位置的显示器位置。举例来说,如果眼位置由附接到显示器的红外检测器检测到,那么检测器将始终具有相对于显示器的相同位置。因此,通过确定显示器的前方三维空间中用户的每一瞳孔的位置和方向,可确定指示用户的凝视的初始位置和方向的向量。依据此向量,***可确定显示器上向量将显示器一分为二的点。显示器上用户的凝视正观看的位置可随后用于确定哪一深度平面对应于用户的当前凝视。在一些实施例中,显示器划分成二维坐标系且所述***检测用户的凝视在显示器上指向的位置处的X/Y坐标。
除知道用户的凝视接触显示器的坐标之外,***还经配置以已经确定所显示帧上的等效位置。因此,当每一帧显示到显示器上时,***可将坐标系指派到所显示图像帧,其将图像的坐标与显示装置的坐标对准。此允许***确定当用户正凝视显示装置的特定坐标位置时正观察图像的哪一坐标位置。
最后,过程移动到框630以存储对应于观察者的眼坐标的深度平面信息。
图7进一步详细回顾将全光图像聚焦于对应于观察者的凝视的深度平面处的过程460。过程以框710开始以从来自上文所论述的框630的所存储深度平面读取深度平面信息。接下来,过程移动到框720以将当前所显示的全光帧聚焦于对应于全光帧上观察者的2-D眼坐标的深度平面处。过程还包含如框730所示的立体3-D的能力,使得全光帧的所聚焦深度平面具有对其的3-D效应,呈现为与人们观看现实世界中的场景的方式类似。如上文所论述,待对焦的深度平面可在全光视频流中各全光帧之间变化。最后,过程将当前聚焦的全光帧存储在存储器中,如框740所示。
所述技术使用众多其它通用或专用计算***环境或配置而操作。可适合与本发明一起使用的众所周知的计算***、环境及/或配置的实例包含(但不限于)个人计算机、服务器计算机、手持式或膝上型计算机装置、多处理器***、基于处理器的***、可编程消费型电子装置、网络PC、微型计算机、大型主机计算机,包含以上***或装置中的任一者的分布式计算环境及类似者。
如本文中所使用,指令涉及用于处理***中的信息的计算机实施的步骤。指令可在软件、固件或硬件中实施且包含由***的组件进行的任何类型的所安排步骤。
处理器可为任何常规通用单一或多芯片处理器,例如处理器、Pro处理器、8051处理器、处理器、Power处理器或处理器。另外,处理器可为任何常规专用处理器,例如数字信号处理器或图形处理器。处理器通常具有常规地址线、常规数据线和一或多个常规控制线。
所述***由如详细论述的各种模块组成。如所属领域的一般技术人员可了解,所述模块中的每一者包括各种子例程、程序、限定语句和宏。所述模块中的每一者通常被单独地编译和链接到单个可执行程序中。因此,出于便利起见而使用所述模块中的每一者的描述来描述优选***的功能性。因此,所述模块中的每一者所经历的过程可任意地重新分配给其它模块中的一者、一起组合在单个模块中,或使得可用于(例如)可共享的动态链接库中。
所述***可结合例如或Microsoft等各种操作***使用。
可用任何常规编程语言编写所述***,例如C、C++、BASIC、Pascal或Java,且在常规操作***下运行所述***。C、C++、BASIC、Pascal、Java和FORTRAN是业界标准的编程语言,许多商用编译器可使用其来创建可执行代码。还可使用例如Perl、Python或Ruby等解译语言来编写***。
另外,技术人员将进一步了解,结合本文所揭示的实施例而描述的各种说明性逻辑块、模块、电路和算法步骤可实施为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件与软件的此可互换性,上文已大体上关于其功能性而描述了各种说明性组件、块、模块、电路和步骤。此类功能性是实施为硬件还是软件取决于特定应用和强加于整个***的设计约束。熟练的技术人员可针对每一特定应用以不同方式实施所描述的功能性,但此类实施决策不应被解释为引起偏离本发明的范围。
可使用经设计以执行本文所描述的功能的通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑装置、离散门或晶体管逻辑、离散硬件组件或其任何组合来实施或执行结合本文中所揭示的实施例而描述的各种说明性逻辑块、模块和电路。通用处理器可为微处理器,但在替代方案中,处理器可为任何常规处理器、控制器、微控制器或状态机。处理器还可实施为计算装置的组合,例如,DSP与微处理器的组合、多个微处理器的组合、一或多个微处理器结合DSP核心或任何其它此类配置。
在一或多个实例实施例中,所描述的功能和方法可以硬件、软件、或在处理器上执行的固件或其任何组合来实施。如果在软件中实施,那么可将所述功能作为一或多个指令或代码而存储在计算机可读媒体上或经由计算机可读媒体发射。计算机可读媒体包含计算机存储媒体与通信媒体两者,通信媒体包含促进将计算机程序从一处传送到另一处的任何媒体。存储媒体可为可由计算机存取的任何可用媒体。借助于实例而非限制,此类计算机可读媒体可包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储装置、磁盘存储装置或其它磁性存储装置,或可用于运载或存储呈指令或数据结构的形式的所要程序代码且可由计算机存取的任何其它媒体。同样,可恰当地将任何连接称作计算机可读媒体。举例来说,如果使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)或无线技术(例如红外线、无线电和微波)从网站、服务器或其它远程源发射软件,那么所述同轴电缆、光纤电缆、双绞线、DSL或无线技术(例如红外线、无线电和微波)包含在媒体的定义中。如本文所使用,磁盘和光盘包含压缩光盘(CD)、激光光盘、光学光盘、数字多功能光盘(DVD)、软性磁盘和蓝光光盘,其中磁盘通常以磁性方式再现数据,而光盘用激光以光学方式再现数据。上述各项的组合也应包含在计算机可读媒体的范围内。
前文描述详述了本文中揭示的***、装置和方法的某些实施例。然而,应了解,不管前述内容在文本中如何详细地显现,皆可以多种方式实践所述***、装置和方法。同样如上文所陈述,应注意,在描述本发明的特定特征或方面时使用特定术语不应理解为暗示所述术语在本文中被重新界定以限于包含所述术语所关联的技术的特征或方面的任何特定特性。
所属领域的技术人员将了解,在不脱离所描述的技术的范围的情况下可作出各种修改和改变。此些修改和改变希望落在实施例的范围内。所属领域的技术人员还将理解,在一个实施例中包含的部分可与其它实施例交换;来自所描绘的实施例的一或多个部分可与其它所描绘的实施例以任何组合包含在一起。举例来说,可将本文中描述和/或图中所描绘的各种组件中的任一者进行组合、互换或从其它实施例排除。
关于实质上任何复数和/或单数术语在本文中的使用,所属领域的技术人员可根据上下文和/或应用适当地从复数转换成单数和/或从单数转换成复数。为清晰起见,本文中可明确地阐述各种单数/复数排列。
所属领域的技术人员将理解,一般来说,本文所用的术语大体上希望为“开放”术语(例如,术语“包含”应解释为“包含但不限于”,术语“具有”应解释为“至少具有”等)。所属领域的技术人员将进一步理解,如果希望特定数目的所引入权利要求叙述,那么此意图将明确叙述于所述权利要求中,且在不存在此叙述的情况下,不存在此意图。举例来说,为了辅助理解,所附权利要求书可含有介绍性短语“至少一个”和“一或多个”的使用,以便介绍权利要求叙述。然而,这类短语的使用不应解释为暗示通过不定冠词“一”引入权利要求叙述将含有如此引入的权利要求叙述的任一特定权利要求限于仅含有一个这类叙述的实施例,即使当同一个权利要求包含介绍性短语“一或多个”或“至少一个”和例如“一”等不定冠词时也如此(例如,“一”通常应解释为表示“至少一个”或“一或多个”);这同样适用于使用定冠词来引入权利要求叙述的情况。另外,即使明确叙述特定数目的所引入权利要求叙述,所属领域的技术人员也将认识到,此类叙述通常应解释为表示至少所叙述的数目(例如,不具有其它修饰语的无修饰叙述“两个叙述”通常表示至少两个叙述或者两个或两个以上叙述)。此外,在使用类似于“A、B和C等中的至少一者”的惯例的那些情形中,一般来说在所属领域的技术人员将理解所述惯例的意义上既定此种结构(例如,“具有A、B和C中的至少一者的***”将包含但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C,和/或具有A、B和C等的***)。在使用类似于“A、B或C等中的至少一者”的惯例的那些情形中,一般来说在所属领域的技术人员将理解所述惯例的意义上既定此种结构(例如,“具有A、B或C中的至少一者的***”将包含但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C,和/或具有A、B和C等的***)。所属领域的技术人员将进一步理解,无论在描述内容、权利要求书还是图式中,实际上任何呈现两种或两种以上替代性术语的分离性词语和/或短语应理解为涵盖包含所述术语中的一者、所述术语中的任一者或两种术语的可能性。举例来说,短语“A或B”将理解为包含“A”或“B”或“A和B”的可能性。
虽然本文中已揭示各个方面和实施例,但所属领域的技术人员将明白其它方面和实施例。本文中揭示的各个方面和实施例是出于说明的目的且并不希望为限制性的。
Claims (20)
1.一种用于产生全光图像的***,所述***包括:
全光图像源,其能够产生至少一个全光图像;
深度映射模块,其经配置以将所述至少一个全光图像中的对象指派到深度平面;
显示器,其用于显示所述至少一个全光图像;以及
眼跟踪***,其经配置以跟踪用户在所述显示器上凝视的位置,以及将所述所显示图像的焦平面设定为正由所述用户观察的深度平面。
2.根据权利要求1所述的***,其中所述至少一个全光图像为全光图像的视频。
3.根据权利要求1所述的***,其中所述至少一个全光图像为立体图像。
4.根据权利要求1所述的***,其中所述至少一个全光图像为二维图像。
5.根据权利要求1所述的***,其中所述眼跟踪***包括由所述用户佩戴以跟踪所述用户的眼睛的移动和坐标的眼镜。
6.根据权利要求1所述的***,其中所述眼跟踪***包括经配置以跟踪所述用户的眼睛的所述移动和坐标的红外***。
7.根据权利要求1所述的***,其中所述全光图像源能够显示包括全光图像帧的视频。
8.一种设定用户观察的图像的焦平面的方法,其包括:
产生至少一个全光图像;
将所述至少一个全光图像中的对象映射到深度平面;
显示所述至少一个全光图像;
跟踪用户在所述显示器上凝视的位置;以及
将所述所显示图像的所述焦平面设定为正由所述用户观察的深度平面。
9.根据权利要求8所述的方法,其中所述至少一个全光图像为全光图像的视频。
10.根据权利要求8所述的方法,其中所述至少一个全光图像为二维图像。
11.根据权利要求8所述的方法,其中所述跟踪用户的凝视的所述位置包括由所述用户佩戴以跟踪所述用户的眼睛的移动和坐标的眼镜。
12.根据权利要求8所述的方法,其中所述跟踪用户的凝视的所述位置包括经配置以跟踪所述用户的眼睛的所述移动和坐标的红外***。
13.一种设定全光图像的焦平面的***,其包括:
用于产生至少一个全光图像的装置;
用于将所述至少一个全光图像中的对象映射到深度平面的装置;
用于显示所述至少一个全光图像的装置;
用于跟踪用户在所述显示器上凝视的位置的装置;以及
用于将所述所显示图像的所述焦平面设定为正由所述用户观察的深度平面的装置。
14.根据权利要求13所述的***,其中所述用于产生至少一个全光图像的装置包括全光相机。
15.根据权利要求13所述的***,其中所述用于将所述至少一个全光图像中的对象映射到深度平面的装置包括坐标映射模块。
16.根据权利要求13所述的***,其中所述用于显示所述至少一个全光图像的装置包括显示装置。
17.根据权利要求13所述的***,其中所述用于跟踪用户在所述显示器上凝视的位置的装置包括眼跟踪眼镜。
18.根据权利要求13所述的***,其中所述用于跟踪用户在所述显示器上凝视的所述位置的装置包括红外眼跟踪***。
19.根据权利要求13所述的***,其中所述用于将所述所显示图像的所述焦平面设定为正由所述用户观察的深度平面的装置包括深度平面聚焦模块。
20.一种非暂时性计算机可读媒体,其包括指令,所述指令在由处理器执行时致使所述处理器执行设定全光图像的焦平面的方法,其中所述方法包括:
产生至少一个全光图像;
将所述至少一个全光图像中的对象映射到深度平面;
显示所述至少一个全光图像;
跟踪用户在所述显示器上凝视的位置;以及
将所述所显示图像的所述焦平面设定为正由所述用户观察的深度平面。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/686,456 US9137524B2 (en) | 2012-11-27 | 2012-11-27 | System and method for generating 3-D plenoptic video images |
US13/686,456 | 2012-11-27 | ||
PCT/US2013/069875 WO2014085092A1 (en) | 2012-11-27 | 2013-11-13 | System and method for generating 3-d plenoptic video images |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104798370A true CN104798370A (zh) | 2015-07-22 |
CN104798370B CN104798370B (zh) | 2017-05-03 |
Family
ID=49641897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380060783.6A Active CN104798370B (zh) | 2012-11-27 | 2013-11-13 | 用于产生3‑d全光视频图像的***和方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9137524B2 (zh) |
EP (1) | EP2926554A1 (zh) |
JP (2) | JP2016504825A (zh) |
KR (1) | KR102164723B1 (zh) |
CN (1) | CN104798370B (zh) |
WO (1) | WO2014085092A1 (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI589150B (zh) * | 2016-03-04 | 2017-06-21 | 液態三維系統有限公司 | 3d自動對焦顯示方法及其系統 |
CN107810633A (zh) * | 2015-09-10 | 2018-03-16 | 谷歌有限责任公司 | 立体渲染*** |
CN108632600A (zh) * | 2017-03-24 | 2018-10-09 | 韩国电子通信研究院 | 反映用户交互信息来播放立体图像的方法及装置 |
CN109644261A (zh) * | 2016-08-04 | 2019-04-16 | 杜比实验室特许公司 | 单一深度追踪调节-聚散解决方案 |
CN109716244A (zh) * | 2016-09-16 | 2019-05-03 | 微软技术许可有限责任公司 | 全息宽视场显示器 |
CN110892706A (zh) * | 2017-06-12 | 2020-03-17 | 交互数字Ce专利控股公司 | 用于在2d显示设备上显示从光场数据导出的内容的方法 |
CN110933396A (zh) * | 2019-12-12 | 2020-03-27 | 中国科学技术大学 | 集成成像显示***及其显示方法 |
CN111031250A (zh) * | 2019-12-26 | 2020-04-17 | 福州瑞芯微电子股份有限公司 | 一种基于眼球追踪的重对焦的方法和装置 |
CN114175628A (zh) * | 2019-09-19 | 2022-03-11 | 脸谱科技有限责任公司 | 近眼显示器中的图像帧同步 |
US11589034B2 (en) | 2017-06-12 | 2023-02-21 | Interdigital Madison Patent Holdings, Sas | Method and apparatus for providing information to a user observing a multi view content |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201426018A (zh) * | 2012-12-19 | 2014-07-01 | Ind Tech Res Inst | 影像處理裝置及影像再對焦方法 |
US9699433B2 (en) * | 2013-01-24 | 2017-07-04 | Yuchen Zhou | Method and apparatus to produce re-focusable vision with detecting re-focusing event from human eye |
US20140327771A1 (en) * | 2013-05-01 | 2014-11-06 | Nvidia Corporation | System, method, and computer program product for displaying a scene as a light field |
US9319665B2 (en) * | 2013-06-19 | 2016-04-19 | TrackThings LLC | Method and apparatus for a self-focusing camera and eyeglass system |
US20140375772A1 (en) * | 2013-06-19 | 2014-12-25 | Thaddeus Gabara | Method and Apparatus for an SR and LR 3-D Visual Images and Sharing |
US10652525B2 (en) | 2013-10-31 | 2020-05-12 | 3Di Llc | Quad view display system |
US11343487B2 (en) | 2013-10-31 | 2022-05-24 | David Woods | Trackable glasses system for perspective views of a display |
US9986228B2 (en) * | 2016-03-24 | 2018-05-29 | 3Di Llc | Trackable glasses system that provides multiple views of a shared display |
US10091411B2 (en) * | 2014-06-17 | 2018-10-02 | Lg Electronics Inc. | Mobile terminal and controlling method thereof for continuously tracking object included in video |
CN105323573B (zh) * | 2014-07-16 | 2019-02-05 | 北京三星通信技术研究有限公司 | 三维图像显示装置和方法 |
CN104539924A (zh) * | 2014-12-03 | 2015-04-22 | 深圳市亿思达科技集团有限公司 | 基于人眼追踪的全息显示方法及全息显示装置 |
US9541998B2 (en) * | 2015-01-29 | 2017-01-10 | Samsung Electronics Co., Ltd. | Electronic system with gaze alignment mechanism and method of operation thereof |
DE102015006528A1 (de) * | 2015-05-27 | 2016-12-01 | Roland Harras | Verfahren zur Bild- und Filmwiedergabe mit automatischer Fokusierung der Blickbereiche der Betrachter |
EP3099078A1 (en) * | 2015-05-29 | 2016-11-30 | Thomson Licensing | Method for collecting information on users of 4d light field data, corresponding apparatuses and computer programs |
EP3185550A1 (en) | 2015-12-23 | 2017-06-28 | Thomson Licensing | Tridimensional rendering with adjustable disparity direction |
US10218968B2 (en) | 2016-03-05 | 2019-02-26 | Maximilian Ralph Peter von und zu Liechtenstein | Gaze-contingent display technique |
EP3264741A1 (en) * | 2016-06-30 | 2018-01-03 | Thomson Licensing | Plenoptic sub aperture view shuffling with improved resolution |
SE543121C2 (en) | 2019-02-04 | 2020-10-13 | Tobii Ab | Method and system for determining a current gaze direction |
CN111752383A (zh) * | 2019-03-29 | 2020-10-09 | 托比股份公司 | 更新角膜模型 |
KR102149732B1 (ko) * | 2019-04-17 | 2020-08-31 | 라쿠텐 인코포레이티드 | 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080131019A1 (en) * | 2006-12-01 | 2008-06-05 | Yi-Ren Ng | Interactive Refocusing of Electronic Images |
CN102164293A (zh) * | 2010-02-16 | 2011-08-24 | 索尼公司 | 图像处理装置、图像处理方法、图像处理程序和成像装置 |
US20110273369A1 (en) * | 2010-05-10 | 2011-11-10 | Canon Kabushiki Kaisha | Adjustment of imaging property in view-dependent rendering |
EP2403234A1 (en) * | 2010-06-29 | 2012-01-04 | Koninklijke Philips Electronics N.V. | Method and system for constructing a compound image from data obtained by an array of image capturing devices |
CN102314683A (zh) * | 2011-07-15 | 2012-01-11 | 清华大学 | 一种非平面图像传感器的计算成像方法和成像装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5467104A (en) | 1992-10-22 | 1995-11-14 | Board Of Regents Of The University Of Washington | Virtual retinal display |
US7239293B2 (en) | 1998-01-21 | 2007-07-03 | New York University | Autostereoscopic display |
US6466250B1 (en) | 1999-08-09 | 2002-10-15 | Hughes Electronics Corporation | System for electronically-mediated collaboration including eye-contact collaboratory |
US8786675B2 (en) * | 2008-01-23 | 2014-07-22 | Michael F. Deering | Systems using eye mounted displays |
US20110228051A1 (en) | 2010-03-17 | 2011-09-22 | Goksel Dedeoglu | Stereoscopic Viewing Comfort Through Gaze Estimation |
US20120019703A1 (en) * | 2010-07-22 | 2012-01-26 | Thorn Karl Ola | Camera system and method of displaying photos |
US8724000B2 (en) * | 2010-08-27 | 2014-05-13 | Adobe Systems Incorporated | Methods and apparatus for super-resolution in integral photography |
KR101670927B1 (ko) * | 2010-11-05 | 2016-11-01 | 삼성전자주식회사 | 디스플레이 장치 및 방법 |
CN109799900B (zh) * | 2012-11-01 | 2023-02-28 | 艾卡姆有限公司 | 手腕可安装计算通信和控制设备及其执行的方法 |
-
2012
- 2012-11-27 US US13/686,456 patent/US9137524B2/en active Active
-
2013
- 2013-11-13 CN CN201380060783.6A patent/CN104798370B/zh active Active
- 2013-11-13 EP EP13795676.9A patent/EP2926554A1/en not_active Ceased
- 2013-11-13 KR KR1020157016975A patent/KR102164723B1/ko active IP Right Grant
- 2013-11-13 WO PCT/US2013/069875 patent/WO2014085092A1/en active Application Filing
- 2013-11-13 JP JP2015544084A patent/JP2016504825A/ja active Pending
-
2019
- 2019-01-11 JP JP2019003491A patent/JP6759371B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080131019A1 (en) * | 2006-12-01 | 2008-06-05 | Yi-Ren Ng | Interactive Refocusing of Electronic Images |
CN102164293A (zh) * | 2010-02-16 | 2011-08-24 | 索尼公司 | 图像处理装置、图像处理方法、图像处理程序和成像装置 |
US20110273369A1 (en) * | 2010-05-10 | 2011-11-10 | Canon Kabushiki Kaisha | Adjustment of imaging property in view-dependent rendering |
EP2403234A1 (en) * | 2010-06-29 | 2012-01-04 | Koninklijke Philips Electronics N.V. | Method and system for constructing a compound image from data obtained by an array of image capturing devices |
CN102314683A (zh) * | 2011-07-15 | 2012-01-11 | 清华大学 | 一种非平面图像传感器的计算成像方法和成像装置 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10757399B2 (en) | 2015-09-10 | 2020-08-25 | Google Llc | Stereo rendering system |
CN107810633A (zh) * | 2015-09-10 | 2018-03-16 | 谷歌有限责任公司 | 立体渲染*** |
CN107155102A (zh) * | 2016-03-04 | 2017-09-12 | 铜陵巨城科技有限责任公司 | 3d自动对焦显示方法及其*** |
TWI589150B (zh) * | 2016-03-04 | 2017-06-21 | 液態三維系統有限公司 | 3d自動對焦顯示方法及其系統 |
US11694353B2 (en) | 2016-08-04 | 2023-07-04 | Dolby Laboratories Licensing Corporation | Single depth tracked accommodation-vergence solutions |
CN109644261A (zh) * | 2016-08-04 | 2019-04-16 | 杜比实验室特许公司 | 单一深度追踪调节-聚散解决方案 |
US20210264631A1 (en) | 2016-08-04 | 2021-08-26 | Dolby Laboratories Licensing Corporation | Single depth tracked accommodation-vergence solutions |
CN109644261B (zh) * | 2016-08-04 | 2021-06-01 | 杜比实验室特许公司 | 单一深度追踪调节-聚散解决方案 |
US10943359B2 (en) | 2016-08-04 | 2021-03-09 | Dolby Laboratories Licensing Corporation | Single depth tracked accommodation-vergence solutions |
CN109716244B (zh) * | 2016-09-16 | 2021-07-02 | 微软技术许可有限责任公司 | 全息宽视场显示器 |
CN109716244A (zh) * | 2016-09-16 | 2019-05-03 | 微软技术许可有限责任公司 | 全息宽视场显示器 |
CN108632600A (zh) * | 2017-03-24 | 2018-10-09 | 韩国电子通信研究院 | 反映用户交互信息来播放立体图像的方法及装置 |
CN110892706A (zh) * | 2017-06-12 | 2020-03-17 | 交互数字Ce专利控股公司 | 用于在2d显示设备上显示从光场数据导出的内容的方法 |
US11202052B2 (en) | 2017-06-12 | 2021-12-14 | Interdigital Ce Patent Holdings, Sas | Method for displaying, on a 2D display device, a content derived from light field data |
US11589034B2 (en) | 2017-06-12 | 2023-02-21 | Interdigital Madison Patent Holdings, Sas | Method and apparatus for providing information to a user observing a multi view content |
CN114175628A (zh) * | 2019-09-19 | 2022-03-11 | 脸谱科技有限责任公司 | 近眼显示器中的图像帧同步 |
CN110933396A (zh) * | 2019-12-12 | 2020-03-27 | 中国科学技术大学 | 集成成像显示***及其显示方法 |
CN111031250A (zh) * | 2019-12-26 | 2020-04-17 | 福州瑞芯微电子股份有限公司 | 一种基于眼球追踪的重对焦的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20150090183A (ko) | 2015-08-05 |
JP6759371B2 (ja) | 2020-09-23 |
CN104798370B (zh) | 2017-05-03 |
US20140146148A1 (en) | 2014-05-29 |
JP2019092170A (ja) | 2019-06-13 |
US9137524B2 (en) | 2015-09-15 |
WO2014085092A1 (en) | 2014-06-05 |
JP2016504825A (ja) | 2016-02-12 |
KR102164723B1 (ko) | 2020-10-13 |
EP2926554A1 (en) | 2015-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104798370B (zh) | 用于产生3‑d全光视频图像的***和方法 | |
Schmalstieg et al. | Augmented reality: principles and practice | |
CN102540464B (zh) | 提供环绕视频的头戴式显示设备 | |
CN102591016B (zh) | 用于扩展现实显示的优化聚焦区 | |
CN103472909B (zh) | 用于头戴式、增强现实显示器的逼真遮挡 | |
US9734633B2 (en) | Virtual environment generating system | |
US20090237492A1 (en) | Enhanced stereoscopic immersive video recording and viewing | |
EP3008548B1 (en) | Head-mountable apparatus and systems | |
CN106464854A (zh) | 图像编码和显示 | |
CN108803870A (zh) | 用于实现沉浸式洞穴状自动虚拟环境的***和方法 | |
CN102591449A (zh) | 虚拟内容和现实内容的低等待时间的融合 | |
CN102981616A (zh) | 增强现实中对象的识别方法及***和计算机 | |
CN203746012U (zh) | 一种三维虚拟场景人机交互立体显示*** | |
CN105959666A (zh) | 一种虚拟现实***中分享3d影像的方法和装置 | |
WO2017042070A1 (en) | A gazed virtual object identification module, a system for implementing gaze translucency, and a related method | |
US11539933B2 (en) | 3D display system and 3D display method | |
CN111699460A (zh) | 多视图虚拟现实用户界面 | |
Soares et al. | Designing a highly immersive interactive environment: The virtual mine | |
JP7426413B2 (ja) | ブレンドモード3次元ディスプレイシステムおよび方法 | |
Pan et al. | 3D displays: their evolution, inherent challenges and future perspectives | |
Guindy et al. | Realistic physical camera motion for light field visualization | |
Han et al. | [Retracted] Visualization Practice and Communication Effect of Digital Chinese Films Based on Virtual Reality under Background of the Belt and Road Initiative | |
TWI839578B (zh) | 3d顯示系統與3d顯示方法 | |
US20220232201A1 (en) | Image generation system and method | |
Hamadouche | Augmented reality X-ray vision on optical see-through head mounted displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |