CN107155102A - 3d自动对焦显示方法及其*** - Google Patents
3d自动对焦显示方法及其*** Download PDFInfo
- Publication number
- CN107155102A CN107155102A CN201610463908.5A CN201610463908A CN107155102A CN 107155102 A CN107155102 A CN 107155102A CN 201610463908 A CN201610463908 A CN 201610463908A CN 107155102 A CN107155102 A CN 107155102A
- Authority
- CN
- China
- Prior art keywords
- image
- display
- auto
- stereopsis
- focusings
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims description 35
- 238000010586 diagram Methods 0.000 claims description 10
- 238000013213 extrapolation Methods 0.000 claims description 4
- 210000001747 pupil Anatomy 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 239000007787 solid Substances 0.000 claims 1
- 238000013507 mapping Methods 0.000 abstract description 11
- 210000001508 eye Anatomy 0.000 description 19
- 208000003464 asthenopia Diseases 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000004308 accommodation Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/002—Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
本发明涉及一种3D自动对焦显示方法,包含下列步骤:提供3D影像、对此3D影像执行眼球追踪步骤以得到3D影像的观看者的焦点坐标(x1,y1)、将观看者的焦点坐标(x1,y1)映射至显示器坐标位置以得到相对于此3D影像的深度图且显示器坐标位置为(x2,y2)、利用显示器坐标(x2,y2)做为输入参数及利用影像的深度图以确认影像所在的区域、根据影像所在的区域判断影像是否为3D立体影像,并利用景深映射步骤通过影像及在此区域的多个深度数据修正3D影像,以体现该显示器坐标(x2,y2)成为聚焦影像以及将修正后的聚焦影像输出至显示器,使得在显示器上显示出3D立体影像。
Description
技术领域
本发明涉及一种自动对焦方法,特别的是有关于一种3D自动对焦显示方法及其自动对焦***。
背景技术
立体显示器的基本技术是在于呈现偏移影像,此种偏移影像分别在左眼和右眼中显示。接着将这两个二维偏移影像在大脑中合并以得到的3D深度的感知。有许多显示技术的方法来实现立体3D影像,例如用于裸视3D影像的偏光和快门镜片,双凸透镜和屏障镜片,如同双显示器的使用例如用于虚拟实境的头戴式产品。
许多人观看立体视频时遇到眼睛疲劳和不适,这是众所周知的,此种不适有多种因素。这样的例子中,大家所知道的是例如3D眼镜造成的身体不适,从头戴式产品由于视频影像相对于使用者头部移动时的等待时间所造成的头晕现象,以及由串扰(cross-talk)所造成的影像模糊。以上所述的实施例均是涉及在硬件显示技术的不足而造成的问题。
值得注意的是,3D立体内容的质量也是观看3D立体显示器时造成眼睛疲劳和眼睛疲劳的主要原因。一般来说,有三种方法来形成立体3D影像,此立体3D影像是自然选取使用立体照相机***,从2D影像转换,这意味着由原始的2D影像的两个视图,是从计算机程序的模式中产生的。计算引起观看者不适的3D立体内容的相关特性不是那么重要。但这是确实存在可靠的指标来量化3D立体内容,例如垂直视差以及在眼中所看到的立体影像的色彩,对比度和亮度的差异。
3D立体内容质量的一个关键特性在于调节-收敛冲突(accommodation-convergenceconflict.)。调节(accommodation)定义为眼睛的聚焦平面,及收敛(convergence)是指眼睛的聚焦点。在自然中,调节和收敛是同时透过观看者的眼球到影像之间的距离来确定。自然观看造成同步进行收敛及调节。在3D立体显示器上观看影像的情况下,调节指的是实体显示的距离,而收敛指的是感知到屏幕上的虚拟影像之间的距离,它具有一个虚拟双眼深度和将前面或感知距离背后的显示屏幕。在观看3D的显示,其收敛和调节会分开且不是相等的。因此,眼睛疲劳问题实质上是由于3D立体内容在显示器上观看而引起非自然的观看,其中人的眼睛是非自然的观看习惯,此种非自然的观看的程度,在一个可容忍的范围内,是可以通过3D立体内容影像本身来判断。
在3D立体内容的收敛和调整的分离程度是由3D立体内容的水平视差特性来决定。值得注意的是,有一个区域或是收敛调节分离的范围通常是人的眼睛可以接受的范围且在此区域或是此范围内最小的眼睛疲劳和应变可能会存在。3D立体内容的水平视差的理想是在这个区域或范围内,以避免不良观看症状。
发明内容
根据现有技术的缺点,本发明提供一种在3D显示器上观看影像时实现自动对焦功能的方法以及***,此自动对焦的方法及***采用眼球轨迹技术、深度图摄像***来达成。
本发明所涉及的3D自动对焦显示方法及其***的另一目的在于,建立一个3D***可以模拟自然观看(natural viewing)。因此,本发明所涉及的3D自动对焦显示方法及其***不须要眼镜或其他辅助用具来观看,以增加方便性以及扩大应用性以最佳化模拟自然观看的环境。
自然观看的模拟进一步是通过眼球追踪技术***(eye tracking technology system)来实现。对于观看者的眼睛来说,一个3D显示***的调节是指观看者的眼睛其距离显示器以及可以假设至观看者或是3D影像在彼此之间没有相对的移动之下所表示的固定距离。观看者的眼睛的收敛点(或称聚焦点)是根据在任何情况下来呈现的物体及3D内容的场景,因此不是固定的。因此,为了确定在关于观看者的眼睛的焦点到显示的坐标将提出一个自动对焦显示***,以便更好地表示自然的观看的能力。
根据以上所述显示及眼球追踪***,本发明提供一种3D自动对焦显示方法,其包含两种***的整合。其方法包括先显示3D立体内容影像,其中观看者的眼球聚焦在实体空间的特定点上。接着执行眼球追踪步骤,其中可以得到观看者的焦点坐标(x1,y1),并利用眼球追踪***来判断观看者的焦点坐标(x1,y1)。然后再将此观看者的焦点坐标(x1,y1)映射至显示器坐标(x2,y2),其表示为显示器的像素坐标(pixel coordinate)。对影像执行景深映射步骤以得到相对应影像的深度图。此深度图可以利用硬件元件或是透过利用景深结构运算来处理3D立体影像来得到。相对于影像的显示器坐标(x2,y2)做为3D立体显示器***影像处理模块的输入参数。其影像处理模块利用输入显示器坐标(x2,y2)以及利用影像深度图来确认影像在座标上那个区域。影像深度图是影像的区域的识别的因素,即影像深度图是由不同区域的区段的结合,其中每一区段定义为影像的一组像素,其具有相同的深度值或是在同一个深度值的范围内。影像处理模块利用影像与深度数据的结合来修正3D立体影像,其体现了显示器坐标(x2,y2)将成为焦点。接着影像处理模块通过形成子像素图案(RGB图案)来输出修正后的聚焦影像以及将其输出至显示器以形成子像素图案以及输出至显示器以便于观看。
根据上述3D自动对焦显示方法,本发明还涉及一种3D自动对焦***,其不需要眼镜就可以显示立体内容以及3D立体自动对焦影像特征。3D自动对焦显示***包含3D自动立体显示模块(3D auto-stereoscopic display module)、前视影像选取感测模块(front viewer imagecapturing sensor module)(眼球追踪相机),用以直接执行眼球追踪功能以得到影像的第一焦点坐标(x1,y1)、后视影像选取感测模块(rear viewer image capturing sensor module)(立体深度相机),用以选取立体影像及/或随着影像深度图选取2D影像。此***也包含多个影像处理模块。影像处理模块用于形成、增益以及输出以显示3D立体影像。3D立体影像是利用2D影像以及相对于2D影像的深度图讯息来形成。3D立体影像的增益是通过在3D立体影像上执行数个影像分析以及过滤运算以及利用影像数据以及深度图数据来修正3D立体影像。另一个影像处理模块是利用外插法(extrapolating)来外插第一焦点坐标(x1,y1)来执行自动对焦以及将观看者的焦点坐标(x1,y1)转译成相对于显示模块的显示器焦点坐标(x2,y2)(第二坐标),接着对影像的区段进行确认以体现显示器坐标(x2,y2)以及形成合适的立体增益影像以确认所显示的立体影像是在焦点上。最后的影像处理模块具有输入以及增益立体影像以及接着执行RGB次像素运算以输出立体影像至显示模块上。
附图说明
图1为本发明的3D自动对焦显示方法的各步骤流程示意图。
图2为本发明的3D自动对焦显示***方块图。
图3为后视影像选取感测模块为立体摄像装置时,于显示模块上得到3D立体图的示意图。
图4为后视影像选取感测模块为时间测距摄像装置时,于显示模块上得到3D立体图的示意图。
图5至图7为本发明的3D影对焦的各步骤示意图。
附图标号说明
2 3D自动对焦显示***
21 前视影像选取感测模块
23 后视影像选取感测模块
25 影像处理模块
27 显示模块
30 第一聚焦焦点
302 第二聚焦焦点
304 第三聚焦焦点
具体实施方式
首先请参考图1,图1表示本发明所涉及3D自动对焦显示方法的各步骤流程示意图。在图1中,步骤11,提供3D立体影像。接着于步骤111,对影像执行眼球追踪(eye-tracking)步骤,其中启动或是使用前视影像选取感测模块。眼球追踪步骤会得到观看者的眼球的焦点坐标(focal point coordination)(x1,y1)。步骤113,将焦点坐标(x1,y1)映射至显示器的坐标位置以得到相对于在显示器上的影像的所在位置的焦点坐标为(x2,y2)。另外于步骤121,于执行步骤111时,也同时对影像执行景深映射(depth map)步骤以得到原始影像的影像档案组(image file set)以及其相对应的深度图。接着,于步骤123,判断影像档案组是否为3D立体影像,若否,则执行步骤125,将影像档案组利用深度图转换成3D立体影像,若是,则执行步骤127,利用景深映射步骤修正或是增强影像档案组,藉此以得到此影像的3D立体影像及影像的深度图。
接着于步骤13,利用3D影像自动对焦步骤将相对于影像的焦点坐标的显示器坐标(x2,y2)、3D立体影像以及影像深度映射来执行影像处理,相对于焦点坐标(x2,y2)而形成新的具有对焦校正的3D立体影像。步骤15,执行子像素映射(sub pixel mapping)步骤,在3D立体影像中已经经过对焦校正。最后于步骤17,输出3D立体影像对焦校正影像其可以在显示器上体现焦点坐标(x2,y2)。
更明确来说,根据本发明所涉及的3D自动对焦显示方法是将两个***整合。其方法包括3D立体内容的显示影像,如步骤11,其观看者的眼睛聚焦在实体空间的特定点上。接着,执行眼球追踪步骤,如步骤111,该步骤用以得到观看者的焦点坐标(x1,y1),并利用眼球追踪***来判断观看者的焦点坐标(x1,y1)。接下来,将观看者的焦点坐标(x1,y1)映射至显示器的坐标(x2,y2),如步骤113,其显示器的坐标(x2,y2)由显示器的像素坐标来表示。在影像上执行深度映射步骤是为了得到相对应影像的深度图,如步骤121。深度图可以利用硬件得到或利用深度影像处理运算来处理3D立体影像来得到。显示器的坐标(x2,y2)相对应于影像是用来作为本发明所涉及的3D自动对焦显示***2的影像处理模块25的输入参数。影像处理模块25判断该影像的区域坐标是利用所输入的显示器的坐标(x2,y2)的位置以及利用影像深度映射。影像深度映射是影像的区域的却识别因素。就其他方面来说,深度映射是不同区域的区段的结合。每一个区段定义为影像的像素的集合,该集合具有相同的深度值或是在相同的深度值的范围内。影像处理模块25体现显示器的坐标(x2,y2)且在校正后会聚焦。影像处理模块接着25输出校正聚焦影像,这个校正影像是由次像素图案(RGB图案)所形成并对观看者来输出次像素图案。
接着,请参考图2,图2表示本发明所涉及的3D自动对焦显示***方块图。在图2中,3D自动对焦显示***2包括前视影像选取感测模块(front viewer image capturing sensormodule)21、后视影像选取感测模块(rear viewer image capturing sensor module)23、影像处理模块(image processing module)25及显示模块(display module)27,其中影像处理模块25分别与前视影像选取感测模块21、后视影像选取感测模块23及显示模块27彼此电性连接。其中前视影像选取感测模块21用以对影像执行眼球追踪功能,以得到影像所在位置的焦点坐标(x1,y1),于本发明的实施例中,前视影像选取感测模块21可以是具有红外线传感器的摄像模块(camera module),其与影像瞳孔检测处理(image pupil detection processing)相结合而能够将观看者的眼球中的焦点予以定位。
后视影像选取感测模块23,用以对影像进行影像选取,且为本发明中立体影像的来源。在本发明的较佳实施例中,后视影像选取感测模块23可以是具有时间测距的传感器(time-of-flight sensor)的立体摄像模块(stereo camera module)。此种影像模块可以以本机来选取立体影像,以及使用飞行传感器来选取相对于深度图的影像。对于另一种的后视影像选取感测模块其包括不具有时间测距的传感器的立体摄像装置以及2D影像传感器,但并不限于此。这些模块可以经过利用立体或是2D影像的影像处理方式来建立体及深度图并且将其输出。
影像处理模块25,用以执行影像处理步骤。此影像处理步骤包括立体影像及相对应的深度图的识别和建立影像数据组(image data set),一个立体影像的和其相应的深度图。影像处理模块25处理观看者的眼球的焦点坐标(x1,y1)并将其映射(mapping)至另一个相对于显示模块27的显示器的焦点坐标(x2,y2)以及执行自动对焦增益及校正步骤,使得显示器的焦点坐标(x2,y2)可以体现在显示模块27中。
当经过影像处理模块25处理之后,校正后的3D立体影像可以体现显示器的焦点坐标(x2,y2),且传送至可以显示3D立体影像的显示模块27,使得对于与影像区段具有特定焦聚的观看者来显示3D立体影像。
根据上述,请接着参考图3,图3表示后视影像选取感测模块为立体摄像装置时,于显示模块上得到3D立体影像的示意图。在图3中,立体影像可以包含三个影像(例如心型、星星及笑脸)。在此立体影像的中心为虚线,此虚线是用来表示图3的影像是具有深度的影像,并且同时具有左侧影像及右侧影像,但这些都是由相同的影像如心型、星星及笑脸通过不同的观看者的聚焦位置选取到的影像所产生的。影像处理模块25最后执行3D子像素映射步骤。此子像素映射步骤是将左侧和右侧的影像合并形成RGB影像,并可以输出至显示模块27让观看者可以看到一个正确3D对焦立体影像。
请参考图4,图4表示由具有其相对应的深度图的显示模块得到的影像的示意图。于相对应的深度图可以由几种方式得到其包括,但不限于此,时间测距传感器、深度图计算集成电路(depth map calculating integrated circuit)以及软件影像处理运算(soft image processingalgorithms)由2D或3D立体影像来建构深度图。一般的深度图具有一组深度值其分配至其对应的影像的每一个像素。在本发明中,影像处理模块25处理这些深度值并且利用影像处理运算来定义区段或根据深度值的范围来定义深度值的区域。本发明的自动对焦影像处理利用深度图来确定影像的区段,并通过其相对应的深度图来定义,以体现了第二焦点坐标(x2,y2)及根据影像的区段或是部份的影像来建立校正后的对焦立体影像,以体现在此区段中的影像。
图5至图7表示3D影对焦的各步骤示意图。当显示器提供观看者(或者使用者)观看3D立体影像时,感知3D影像会同时在观看者的左眼及右眼中产生深度(depth)和视差差距(parallax disparity)两种视觉影像。但左眼和右眼在观看3D立体影像时,会先产生第一聚焦焦点30。摄像***面对观看者且具有追踪观看者的眼球以及经由影像感测和软件影像处理的结合来得到观看者的焦点,即当观看者看着图6中的星星时,在观看者的眼中会产生视差差距,在所观察的星星上则会有另一第二聚焦焦点302。因为星星是3D立体影像,在显示器上不同的位置与观看者的眼球的距离及深浅(或指距离荧幕的远近)有所不同,因此在观看一个3D立体影像(星星)时会产生视差差距。
接着请继续参考图7。摄像***中的后视摄像选取感测模块是沿着影像的深度图来得到观看影像的深度映射讯息。在图7中,在心型图案上具有观察者在观看时的另一聚焦焦点304,观看者在观看图面左边的心型时,通过此第三聚焦焦点304利用后视摄像选取感测模块来取得心型的深度映射讯息,最后再利用影像传感器及软件影像处理的结结构来得到该心型影像的深度图讯息。最后根据上述重新计算观看者的眼球至显示器之间的距离以及根据眼球追踪***将眼球所看到的每一个深浅不一的影像(或可以称为像素)结合,而得到3D立体影像。
在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。
Claims (10)
1.一种3D自动对焦显示方法,其特征在于,所述的方法包括:
提供一影像;
对所述的影像执行一眼球追踪步骤以得到所述的影像的一第一焦点坐标(x1,y1);
将所述的第一焦点坐标(x1,y1)映射至一显示器坐标位置以得到相对于所述的影像的深度图且该显示器坐标位置为一第二焦点坐标为(x2,y2);
利用所述的第二焦点坐标为(x2,y2)做为一输入参数及利用所述的影像的所述的深度图以确认所述的影像所在的一区域;
根据所述的影像所在的所述的区域判断该影像是否为一3D立体影像,并利用一景深映射步骤通过所述的影像及在所述的区域的多个深度数据修正所述的3D影像,以体现所述的第二焦点坐标(x2,y2)成为一聚焦影像;以及
将修正后的所述的聚焦影像输出至一显示器于所述的显示器上显示所述的3D立体影像。
2.根据权利要求1所述的3D自动对焦显示方法,其特征在于,所述的影像可以是风景、人像或是实体物品。
3.根据权利要求1所述的3D自动对焦显示方法,其特征在于,在所述的影像景深度图是由不同区域的多个区段的结合。
4.根据权利要求3所述的3D自动对焦显示方法,其特征在于,每一所述的区段为所述的影像的一组像素,且所述的影像具有相同的深度值或是在同一个深度值的范围。
5.一种3D自动对焦显示***,其特征在于,所述的方法包括:
一前视影像选取感测模块,用以对一影像执行一眼球追踪功能以得到所述的影像的一第一焦点坐标(x1,y1);
一后视影像选取感测模块,用以选取所述的影像;
一影像处理模块,用以处理所述的影像并得到相对于所述的影像的一第二焦点坐标(x2,y2)并将所述的影像显示为一3D立体影像;以及
一显示模块,用以显示所述的3D立体影像。
6.根据权利要求5所述的3D自动对焦显示***,其特征在于,所述的前视影像选取感测模块为具有传感器的摄像装置或是具有瞳孔侦测的网络摄像装置。
7.根据权利要求5所述的3D自动对焦显示***,其特征在于,所述的后视影像选取感测模块为时间测距摄像装置、立体摄像装置或是具有景深产生影像的网络摄像装置。
8.根据权利要求5所述的3D自动对焦显示***,其特征在于,所述的影像处理模块还包括利用一2D影像以及相对于所述的2D影像的一深度图讯息来形成所述的3D立体影像。
9.根据权利要求5所述的3D自动对焦显示***,其特征在于,所述的影像处理模块还包括通过在该3D立体影像上执行数个影像分析以及过滤运算以及利用一影像数据以及一深度图数据来修正所述的3D立体影像。
10.根据权利要求5所述的3D自动对焦显示***,其特征在于,所述的影像处理模块还包括利用一外插法来外插所述的第一焦点坐标(x1,y1)来执行自动对焦以及将所述的第一焦点坐标(x1,y1)转译成相对于所述的显示模块的所述的第二焦点坐标(x2,y2),再对所述的影像的一区段进行确认以体现所述的第二焦点坐标(x2,y2)以及形成合适的一立体增益影像并确认所显示的所述的3D立体影像是在所述的显示器的一焦点上。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW105106632A TWI589150B (zh) | 2016-03-04 | 2016-03-04 | 3d自動對焦顯示方法及其系統 |
TW105106632 | 2016-03-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107155102A true CN107155102A (zh) | 2017-09-12 |
Family
ID=59688302
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610463908.5A Pending CN107155102A (zh) | 2016-03-04 | 2016-06-23 | 3d自动对焦显示方法及其*** |
Country Status (3)
Country | Link |
---|---|
US (1) | US20170257614A1 (zh) |
CN (1) | CN107155102A (zh) |
TW (1) | TWI589150B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111031250A (zh) * | 2019-12-26 | 2020-04-17 | 福州瑞芯微电子股份有限公司 | 一种基于眼球追踪的重对焦的方法和装置 |
CN115641635A (zh) * | 2022-11-08 | 2023-01-24 | 北京万里红科技有限公司 | 确定虹膜图像采集模块对焦参数的方法及虹膜对焦设备 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10192147B2 (en) * | 2016-08-30 | 2019-01-29 | Microsoft Technology Licensing, Llc | Foreign substance detection in a depth sensing system |
CN116597500B (zh) * | 2023-07-14 | 2023-10-20 | 腾讯科技(深圳)有限公司 | 虹膜识别方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110228051A1 (en) * | 2010-03-17 | 2011-09-22 | Goksel Dedeoglu | Stereoscopic Viewing Comfort Through Gaze Estimation |
CN102957931A (zh) * | 2012-11-02 | 2013-03-06 | 京东方科技集团股份有限公司 | 一种3d显示的控制方法和装置、及视频眼镜 |
US20130109478A1 (en) * | 2011-11-01 | 2013-05-02 | Konami Digital Entertainment Co., Ltd. | Game device, method of controlling a game device, and non-transitory information storage medium |
WO2014130584A1 (en) * | 2013-02-19 | 2014-08-28 | Reald Inc. | Binocular fixation imaging method and apparatus |
CN104281397A (zh) * | 2013-07-10 | 2015-01-14 | 华为技术有限公司 | 多深度区间的重聚焦方法、装置及电子设备 |
CN104798370A (zh) * | 2012-11-27 | 2015-07-22 | 高通股份有限公司 | 用于产生3-d全光视频图像的***和方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6618054B2 (en) * | 2000-05-16 | 2003-09-09 | Sun Microsystems, Inc. | Dynamic depth-of-field emulation based on eye-tracking |
EP2709060B1 (en) * | 2012-09-17 | 2020-02-26 | Apple Inc. | Method and an apparatus for determining a gaze point on a three-dimensional object |
TWI531214B (zh) * | 2014-02-19 | 2016-04-21 | Liquid3D Solutions Ltd | Automatic detection and switching 2D / 3D display mode display system |
-
2016
- 2016-03-04 TW TW105106632A patent/TWI589150B/zh not_active IP Right Cessation
- 2016-04-30 US US15/143,570 patent/US20170257614A1/en not_active Abandoned
- 2016-06-23 CN CN201610463908.5A patent/CN107155102A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110228051A1 (en) * | 2010-03-17 | 2011-09-22 | Goksel Dedeoglu | Stereoscopic Viewing Comfort Through Gaze Estimation |
US20130109478A1 (en) * | 2011-11-01 | 2013-05-02 | Konami Digital Entertainment Co., Ltd. | Game device, method of controlling a game device, and non-transitory information storage medium |
CN102957931A (zh) * | 2012-11-02 | 2013-03-06 | 京东方科技集团股份有限公司 | 一种3d显示的控制方法和装置、及视频眼镜 |
CN104798370A (zh) * | 2012-11-27 | 2015-07-22 | 高通股份有限公司 | 用于产生3-d全光视频图像的***和方法 |
WO2014130584A1 (en) * | 2013-02-19 | 2014-08-28 | Reald Inc. | Binocular fixation imaging method and apparatus |
CN104281397A (zh) * | 2013-07-10 | 2015-01-14 | 华为技术有限公司 | 多深度区间的重聚焦方法、装置及电子设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111031250A (zh) * | 2019-12-26 | 2020-04-17 | 福州瑞芯微电子股份有限公司 | 一种基于眼球追踪的重对焦的方法和装置 |
CN115641635A (zh) * | 2022-11-08 | 2023-01-24 | 北京万里红科技有限公司 | 确定虹膜图像采集模块对焦参数的方法及虹膜对焦设备 |
Also Published As
Publication number | Publication date |
---|---|
US20170257614A1 (en) | 2017-09-07 |
TW201733351A (zh) | 2017-09-16 |
TWI589150B (zh) | 2017-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101761751B1 (ko) | 직접적인 기하학적 모델링이 행해지는 hmd 보정 | |
JP6308513B2 (ja) | 立体画像表示装置、画像処理装置及び立体画像処理方法 | |
KR101249988B1 (ko) | 사용자의 위치에 따른 영상을 디스플레이하는 장치 및 방법 | |
US10382699B2 (en) | Imaging system and method of producing images for display apparatus | |
KR20120016408A (ko) | 3차원 컨텐츠를 출력하는 디스플레이 기기의 영상 출력 방법 및 그 방법을 채용한 디스플레이 기기 | |
KR20110124473A (ko) | 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법 | |
CN102939764A (zh) | 图像处理器、图像显示装置和图像拍摄装置 | |
KR20140073584A (ko) | 화상 처리 장치, 입체 화상 표시 장치, 화상 처리 방법 및 화상 처리 프로그램 | |
US9571824B2 (en) | Stereoscopic image display device and displaying method thereof | |
CN107155102A (zh) | 3d自动对焦显示方法及其*** | |
JP6585938B2 (ja) | 立体像奥行き変換装置およびそのプログラム | |
CN107209949B (zh) | 用于产生放大3d图像的方法和*** | |
JP5840022B2 (ja) | 立体画像処理装置、立体画像撮像装置、立体画像表示装置 | |
CN112929636A (zh) | 3d显示设备、3d图像显示方法 | |
TWI462569B (zh) | 三維影像攝相機及其相關控制方法 | |
KR101690256B1 (ko) | 영상 처리 방법 및 장치 | |
KR101634225B1 (ko) | 다시점 입체 영상 보정 장치 및 방법 | |
KR101192121B1 (ko) | 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치 | |
CN110087059B (zh) | 一种针对真实三维场景的交互式自由立体显示方法 | |
US20140362197A1 (en) | Image processing device, image processing method, and stereoscopic image display device | |
JP2017098596A (ja) | 画像生成方法及び画像生成装置 | |
KR20110025083A (ko) | 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법 | |
JP5741353B2 (ja) | 画像処理システム、画像処理方法および画像処理プログラム | |
KR101741227B1 (ko) | 입체 영상 표시 장치 | |
US20160065941A1 (en) | Three-dimensional image capturing apparatus and storage medium storing three-dimensional image capturing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20170912 |
|
WD01 | Invention patent application deemed withdrawn after publication |