CN104508538A - 图像显示装置及图像显示方法 - Google Patents
图像显示装置及图像显示方法 Download PDFInfo
- Publication number
- CN104508538A CN104508538A CN201380037860.6A CN201380037860A CN104508538A CN 104508538 A CN104508538 A CN 104508538A CN 201380037860 A CN201380037860 A CN 201380037860A CN 104508538 A CN104508538 A CN 104508538A
- Authority
- CN
- China
- Prior art keywords
- optical system
- observer
- position relationship
- display
- eyes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 19
- 210000001508 eye Anatomy 0.000 claims abstract description 370
- 230000003287 optical effect Effects 0.000 claims abstract description 268
- 210000005252 bulbus oculi Anatomy 0.000 claims description 131
- 238000001514 detection method Methods 0.000 claims description 12
- 238000003702 image correction Methods 0.000 description 17
- 210000004087 cornea Anatomy 0.000 description 15
- 238000002310 reflectometry Methods 0.000 description 9
- 210000003786 sclera Anatomy 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 240000006829 Ficus sundaica Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G3/00—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
- G09G3/001—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
- G09G3/003—Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/38—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/378—Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0025—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
- G02B27/0068—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration having means for controlling the degree of correction, e.g. using phase modulators, movable elements
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
Abstract
本发明使得可以对光学***和观看者眼睛之间的位置间距适当地进行校正。基于观看者眼睛的位置,对观看者眼睛与光学***之间的位置关系,即观察者眼睛与光学***之间的位置间距进行检测,该光学***将显示元件上显示的图像引导至观看者的眼睛。基于如此检测的位置关系,对光学***与观看者眼睛之间的位置关系进行校正。例如,显示元件上显示的图像的位置经受移位控制,以使得位置间距被电子地校正。可替代地,例如,包括显示元件的光学***经受移位控制,以使得位置间距被机械地校正。
Description
技术领域
本技术涉及图像显示装置及用于显示图像的方法,例如,特别地涉及被配置为通过放大光学***将在显示元件上显示的图像引导至观察者的眼睛的图像显示装置,如头戴式显示器。
背景技术
最近,安装至用户头部的头戴式显示器(HMD)已为人们所知。理论上,头戴式显示器包括用放大光学***来放大在小型显示元件上显示的图像并且将该图像引导至观察者的眼睛的配置。也就是说,头戴式显示器被配置为光学地放大在显示元件上显示的图像并且使用户将该图像作为放大的虚拟图像来观察。
例如,如图14(a)所示,在这样的头戴式显示器中,当在光学***的中心和观察者的眼睛位置之间产生间距时,视频图像影响舒适的图像观看。例如,在该情况下,根据间距量,引起颜色移位,对比度下降或引起图像失真。注意在图14(b)中,示出了在光学***的中心和观察者眼睛的位置之间没有间距的情况。
例如,在专利文献1中,提出了下述头戴式显示器,在该头戴式显示器中用可移动的方式配置光学***,并且观察者的眼睛和光学***之间的位置间距可以由观察者通过对光学***的手动移动调整来进行校正。
引用列表
专利文献
专利文献1:JP 2009-116196 A
发明内容
本发明要解决的问题
在专利文献1所描述的校正技术中,观察者无法获知观察者的眼睛与光学***之间的位置间距的量,并且难以执行将光学***移动调整到最优位置。
本技术的目的是使得可以对光学***与观察者的眼睛之间的位置间距适当地进行校正。
问题的解决方案
本技术的概念是一种图像显示装置,包括:位置关系检测单元,该位置关系检测单元被配置为基于观察者眼睛的眼球位置来检测光学***与观察者眼睛之间的位置关系,该光学***将显示元件上显示的图像引导至观察者的眼睛;以及位置关系校正单元,该位置关系校正单元被配置为基于由位置关系检测单元检测的位置关系来校正光学***与观察者的眼睛之间的位置关系。
在本技术中,通过位置关系检测单元,来检测光学***与观察者眼睛之间的位置关系,该光学***将显示元件上显示的图像引导至观察者的眼睛。显示元件上显示的图像通过光学***被引导至观察者的眼睛。因此,显示元件上显示的图像被光学地放大,并且作为放大的虚拟图像被观察者观察到。例如,作为光学***,可以存在着将显示元件上显示的左眼图像引导至观察者的左眼的第一光学***以及将显示元件上显示的右眼图像引导至观察者的右眼的第二光学***。例如,还可以包括将显示元件上显示的图像引导至观察者的眼睛的光学***。
例如,还可以包括对观察者眼睛的眼球位置进行估计的眼球位置估计单元,并且位置关系检测单元可以基于由眼球位置估计单元估计的眼球位置来检测光学***与观察者眼睛之间的位置关系。例如,可以通过应用巩膜反射法、眼电图(electro-oculogram)(EOG)法、面部识别技术等来进行眼球位置的估计。由位置关系检测单元基于所估计的眼球位置来检测光学***与观察者眼睛之间的位置关系。
由位置关系校正单元基于由位置关系检测单元检测的位置关系来校正光学***与观察者眼睛之间的位置关系。例如,基于由位置关系检测单元检测的位置关系,位置关系校正单元可以将显示元件上显示的图像的显示位置移位。并且,例如,位置关系校正单元可以基于由位置关系检测单元检测的位置关系来移动光学***。
此外,例如,位置关系校正单元可以包括:位置关系呈现单元,该位置关系呈现单元将由位置关系检测单元检测的位置关系呈现给观察者;以及控制单元,该控制单元根据观察者的操作来控制光学***与观察者眼睛之间的位置关系。
例如,在该情况下,根据观察者的操作,控制单元可以对显示元件上显示的图像的显示位置进行移位控制。并且,例如,在该情况下,控制单元可以根据观察者的操作对光学***进行移动控制。
此外,例如,在该情况下,位置关系呈现单元可以在显示元件上显示由位置关系检测单元检测的位置关系。在该情况下,例如,光学***与观察者眼睛之间的间距可以被显示为标度(gauge)、字符等。此外,在该情况下,例如,可以显示用于减少间距的远程控制装置的操作方法。注意,可以在与上面描述的显示元件不同的显示元件上显示位置关系的显示。此外,可以通过声音、振动、或增大/降低发光强度来进行位置关系的呈现。
用这样的方式,在本技术中,基于光学***与观察者眼睛之间的位置关系的检测结果,对光学***与观察者眼睛之间的位置间距进行校正。因此,可以对光学***与观察者眼睛之间的位置间距适当地进行校正。
注意在本技术中,例如,还包括倾角估计单元,该倾角估计单元对光学***的倾角进行估计,并且位置关系检测单元可以基于所估计的眼球位置和所估计的倾角来检测光学***与观察者眼睛之间的位置关系。在该情况下,即使在光学***是倾斜的情况下,也可以准确地检测光学***与观察者眼睛之间的位置关系,并且对光学***与观察者眼睛之间的位置间距适当地进行校正。
发明的效果
根据本技术,可以对光学***与观察者眼睛之间的位置间距适当地进行校正。
附图说明
图1是示出作为第一实施方式的光传输头戴式显示器(双目)的示意性配置示例的视图。
图2是示出光学***与眼球之间的位置关系的示例的视图。
图3是示出光学***与眼球之间的位置关系的不同示例的视图。
图4是示意性地示出左眼图像和右眼图像中的每个图像的显示位置的移位控制的视图。
图5是示出作为第二实施方式的光传输头戴式显示器(双目)的示意性配置示例的视图。
图6是示出作为第三实施方式的光传输头戴式显示器(双目)的示意性配置示例的视图。
图7(a)至图7(f)是示出了OSD显示的示例的视图。
图8是示出作为第四实施方式的光传输头戴式显示器(双目)的示意性配置示例的视图。
图9是示出作为第五实施方式的光传输头戴式显示器(单目)的示意性配置示例的视图。
图10是示出作为第六实施方式的光传输头戴式显示器(单目)的示意性配置示例的视图。
图11是示出作为第七实施方式的光传输头戴式显示器(单目)的示意性配置示例的视图。
图12是示出作为第八实施方式的光传输头戴式显示器(单目)的示意性配置示例的视图。
图13(a)至图13(c)是示出红外传感器的附接示例的视图。
图14(a)和图14(b)是用于描述现有的头戴式显示器的视图。
具体实施方式
在下面,将描述用于实施本发明的方式(在下文中称为“实施方式”)。注意,将以如下顺序进行描述。
1.第一实施方式
2.第二实施方式
3.第三实施方式
4.第四实施方式
5.第五实施方式
6.第六实施方式
7.第七实施方式
8.第八实施方式
9.修改
<1.第一实施方式>
[头戴式显示器(双目)的配置示例]
图1是示出作为第一实施方式的光传输头戴式显示器(HMD)100的示意性配置示例的视图。该配置示例是双目HMD。HMD 100包括左侧眼镜片单元101L和右侧眼镜片单元101R。眼镜片单元101L和眼镜片单元101R通过连接构件102整体地连接。
在眼镜片单元101L和眼镜片单元101R中的每个眼镜片单元中,眼镜片和全息光学元件(HOE)片彼此集成。HOE片包括例如合成外部光并且显示光的半透明反射镜(half mirror)的功能,并且还包括放大显示图像的凹面或自由曲面的功能。
红外传感器103L和红外传感器103R分别附接到眼镜片单元101L和眼镜片单元101R。在该情况下,红外传感器103L附接到眼镜片单元101L在水平方向上的中心位置(左眼光学***在水平方向上的中心位置)。同样,红外传感器103R附接到眼镜片单元101R在水平方向上的中心位置(右眼光学***在水平方向上的中心位置)。此外,对包括眼镜片单元101L和眼镜片单元101R的光学***的倾角进行检测的陀螺仪传感器104附接到眼镜片单元101L。
来自红外传感器103L和红外传感器103R中的每个的传感器输出用于通过巩膜反射法来估计眼球位置。巩膜反射法是使用角膜(眼睛的黑色部分)的反射性和巩膜(眼睛的白色部分)的反射性之间的差异的方法。在该情况下,红外传感器用发射向观察者眼睛侧的弱的红外线来在水平方向上进行扫描,并且检测观察者眼睛的反射光。由于来自角膜(眼睛的黑色部分)的反射光的强度和来自巩膜(眼睛的白色部分)的反射光的强度之间存在很大的差异,因此可以根据传感器输出来对观察者的眼球位置进行估计。
此外,HMD 100包括图像校正单元111、显示器驱动器112L和显示器驱动器112R、显示器113L和显示器113R、眼球位置估计单元114、倾角估计单元115,以及显示控制单元116。
显示器113L被包括在显示元件中,并且显示左眼图像。例如,显示器113L包括液晶显示器(LCD),并且通过显示器驱动器112L驱动来显示三维图像中包含的左眼图像。同样,显示器113R被包括在显示元件中,并且显示右眼图像。例如,显示器113R包括液晶显示器(LCD),并且通过显示器驱动器112R驱动来显示三维图像中包含的右眼图像。
眼球位置估计单元114基于来自红外传感器103L和红外传感器103R的传感器输出来对观察者左眼的眼球位置和右眼的眼球位置进行估计。在该情况下,基于来自红外传感器103L的传感器输出的等级,眼球位置估计单元114将进行角膜(眼睛的黑色部分)的扫描时的角度ωL设置为左眼眼球位置的估计结果。同样,在该情况下,基于来自红外传感器103R的传感器输出的等级,眼球位置估计单元114将进行角膜(眼睛的黑色部分)的扫描时的角度ωR设置为右眼眼球位置的估计结果。
基于来自陀螺仪传感器104的传感器输出,倾角估计单元115对包括眼镜片单元101L和眼镜片单元101R的光学***在水平方向上的倾角θ进行估计。基于左眼眼球位置和右眼眼球位置的估计结果以及光学***倾角的估计结果,显示控制单元116检测左眼光学***与左眼之间的位置关系,并且检测右眼光学***与右眼之间的位置关系。
也就是说,显示控制单元116基于角度ωL(其是左眼眼球位置的估计结果)来计算左眼光学***相对于观察者左眼的位置间距dL,并且基于角度ωR(其是右眼眼球位置的估计结果)来计算右眼光学***相对于观察者右眼的位置间距dR。然后,显示控制单元116基于用这样的方式计算的位置间距dL和位置间距dR以及红外传感器103L和红外传感器103R的传感器之间已知距离ds来计算双眼之间的距离de。
图2是示出光学***与眼球之间的位置关系的示例的视图。在该示例的情况下,双眼之间的距离ds用下面的公式(1)来表示。
de=ds-dL-dR ...(1)
注意,在图2的示例中,示出了光学***的倾角θ为零的情况。然而,可能会有光学***的倾角θ不为零的情况。在这样的情况下,显示控制单元116基于用这样的方式计算的位置间距dL和位置间距dR、红外传感器103L和红外传感器103R的传感器之间已知距离ds以及倾角θ来计算双眼之间的距离de。
图3是示出在这样的情况下光学***与眼球之间的位置关系的示例的视图。在该示例的情况下,双眼之间的距离de用下面的公式(2)表示。以该方式,通过将倾角θ纳入考虑,可以准确地获得双眼之间的距离de。
de=ds/cosθ-dL/cosθ+dR/cosθ
=(ds-dL+dR)/cosθ ...(2)
显示控制单元116基于双眼之间的距离de在水平方向上对在彼此相对方向上的左眼图像和右眼图像的显示位置进行移位控制。也就是说,显示控制单元116通过操作图像和电子地移动光学***来对光学***与观察者眼球位置之间的位置间距自动地进行校正。
显示控制单元116根据双眼之间距离de和传感器之间距离ds·cosθ之间的差值s(de-ds·cosθ)来移位左眼图像和右眼图像的显示位置,其中倾角θ被纳入考虑。图4是示意性地示出左眼图像和右眼图像的显示位置的移位控制的视图。在S=0的情况下,如图4(a)所示,左眼图像和右眼图像中的每个图像在水平方向上的移位量为零。
此外,在S>0的情况下,如图4(b)所示,左眼图像和右眼图像中的每个图像在水平方向上的移位量为s/2,并且使左眼图像和右眼图像的显示位置彼此远离。此外,在S<0的情况下,如图4(c)所示,左眼图像和右眼图像中的每个图像在水平方向上的移位量为|s|/2,并且使左眼图像和右眼图像的显示位置彼此靠近。
返回到图1,在显示控制单元116的控制下,图像校正单元111对用于显示三维(3D)图像的左眼图像数据和右眼图像数据进行图像校正处理,以使显示位置移位。图像校正单元111向显示器驱动器112L提供校正的左眼图像数据,并且向显示器驱动器112R提供校正的右眼图像数据。
[在校正位置间距期间的操作]
将描述在图1所示的HMD 100中对光学***与观察者眼睛之间的位置间距进行校正期间的操作。例如,在位置间距的校正期间,使用用于测试的左眼图像数据和右眼图像数据。
左眼图像数据被通过图像校正单元111提供给显示器驱动器112L。通过显示器驱动器112L,显示器113L被驱动,并且在显示器113L上显示左眼图像。类似地,右眼图像数据被通过图像校正单元111提供给显示器驱动器112R。通过显示器驱动器112R,显示器113R被驱动,并且在显示器113R上显示右眼图像。
来自显示器113L上显示的左眼图像的光被眼镜片单元101L反射并且到达观察者的左眼。因此,在显示器113L上显示的左眼图像被眼镜片单元101L光学地放大,并且作为放大的虚拟图像被观察者的左眼观察到。类似地,来自显示器113R上显示的右眼图像的光被眼镜片单元101R反射并且到达观察者的右眼。因此,在显示器113R上显示的右眼图像被眼镜片单元101R光学地放大,并且作为放大的虚拟图像被观察者的右眼观察到。用这样的方式,左眼图像和右眼图像分别由观察者的左眼和右眼观察,因此,观察者可以感知到放大的三维(3D)图像。
在这样的图像显示状态下,弱的红外线被从附接到眼镜片单元101L在水平方向上的中心位置(左眼光学***在水平方向上的中心位置)的红外传感器103L发射到观察者的眼睛侧,并且进行在水平方向上的扫描。同样,在这样的图像显示状态下,弱的红外线被从附接到眼镜片单元101R在水平方向上的中心位置(右眼光学***在水平方向上的中心位置)的红外传感器103R发射到观察者的眼睛侧,并且进行在水平方向上的扫描。
来自红外传感器103L和红外传感器103R中的每个的传感器输出被提供给眼球位置估计单元114。在眼球位置估计单元114中,基于来自红外传感器103L和红外传感器103R的传感器输出来估计观察者的左眼眼球位置和右眼眼球位置。进行角膜(眼睛的黑色部分)的扫描时的角度ωL和ωR被从眼球位置估计单元114输出,分别作为左眼眼球位置和右眼眼球位置的估计结果(参见图2和图3)。
此外,来自附接到眼镜片单元101L的陀螺仪传感器104的传感器输出被提供给倾角估计单元115。在倾角估计单元115中,基于来自陀螺仪传感器104的传感器输出来估计包括眼镜片单元101L和眼镜片单元101R的光学***在水平方向上的倾角θ(参见图3)。
作为眼球位置估计单元114的估计结果的角度ωL和ωR被提供给显示控制单元116。此外,作为倾角估计单元115的估计结果的倾角θ被提供给显示控制单元116。在显示控制单元116中,基于左眼眼球位置的估计结果和右眼眼球位置的估计结果以及光学***的倾角的估计结果,来计算左眼光学***相对于观察者左眼的位置间距dL以及右眼光学***相对于观察者右眼的位置间距dR(参见图2和图3)。
在显示控制单元116中,基于位置间距dL和位置间距dR、红外传感器103L和红外传感器103R的传感器之间已知距离ds以及倾角θ来计算双眼之间的距离de(参见公式(2))。在该情况下,由于将倾角θ纳入考虑,因此以高精度来计算双眼之间的距离de。
然后,通过显示控制单元116,图像校正单元111被控制,并且对分别显示在显示器113L、113R上的左眼图像和右眼图像的显示位置进行移位控制。在该情况下,根据双眼之间距离de和传感器之间距离ds·cosθ之间的差值s(de-ds·cosθ),其中将倾角θ纳入考虑,以使得该差值s变为零的方式来进行控制。因此,使得左眼图像在水平方向上的中心与观察者的左眼一致,并且使得右眼图像在水平方向上的中心与观察者的右眼一致,由此光学***与观察者的眼睛之间的位置间距被校正。
如上所述,在图1中所示的HMD 100中,基于光学***与观察者的眼睛之间的位置关系的检测结果,对左眼图像的显示位置和右眼图像的显示位置进行移位控制,并且对光学***与观察者的眼睛之间的位置间距电子地进行校正。因此,可以对光学***与观察者的眼睛之间的位置间距适当地进行校正。
<2.第二实施方式>
[头戴式显示器(双目)的配置示例]
图5是示出作为第二实施方式的光传输头戴式显示器(HMD)100A的示意性配置示例的视图。该配置示例是双目HMD。在图5中,相同的标记被分配给对应于图1的部件,并且将会任意地省略对所述部件的详细描述。
HMD 100A包括左侧眼镜片单元101L和右侧眼镜片单元101R。眼镜片单元101L和眼镜片单元101R通过光学***调整机构122彼此连接。光学***调整机构122对右光学***与左光学***之间的距离进行扩大和缩小,右光学***与左光学***之间的距离即包括在左眼光学***中的眼镜片单元101L与包括在右眼光学***中的眼镜片单元101R之间的距离。
红外传感器103L和红外传感器103R分别附接到眼镜片单元101L和眼镜片单元101R。此外,对包括眼镜片单元101L和眼镜片单元101R的光学***的倾角进行检测的陀螺仪传感器104附接到眼镜片单元101L。来自红外传感器103L和红外传感器103R中的每个的传感器输出用于通过巩膜反射法来估计眼球位置。
此外,HMD 100A包括显示器驱动器112L和显示器驱动器112R、显示器113L和显示器113R、眼球位置估计单元114、倾角估计单元115、显示控制单元116,以及用于校正光学***的位置的单元117。显示器113L由显示器驱动器112L驱动,并且显示三维图像中包含的左眼图像。同样,显示器113R由显示器驱动器112R驱动,并且显示三维图像中包含的右眼图像。
基于来自红外传感器103L和红外传感器103R的传感器输出,眼球位置估计单元114对观察者的左眼眼球位置和右眼眼球位置进行估计,并且将进行角膜(眼睛的黑色部分)扫描时的角度ωL和ωR作为眼球位置的估计结果而输出(参见图2和图3)。基于来自陀螺仪传感器104的传感器输出,倾角估计单元115将包括眼镜片单元101L和眼镜片单元101R的光学***在水平方向上的倾角θ作为估计结果而输出(参见图3)。
显示控制单元116A基于角度ωL来计算左眼光学***相对于观察者左眼的位置间距dL,并且基于角度ωR来计算右眼光学***相对于观察者右眼的位置间距dR。显示控制单元116A基于位置间距dL和位置间距dR、红外传感器103L和红外传感器103R的传感器之间已知距离ds以及倾角θ来计算双眼之间的距离de(参见公式(2))。
然后,根据双眼之间距离de和传感器之间距离ds·cosθ之间的差值s(de-ds·cosθ),其中倾角θ被纳入考虑,显示控制单元116A在水平方向上对在彼此相对方向上的左眼光学***和右眼光学***的位置进行移位控制。也就是说,显示控制单元116通过机械地移动光学***来对光学***与观察者眼球位置之间的位置间距自动地进行校正。该移位控制与上面描述的左眼图像和右眼图像的显示位置的移位控制相似(参见图4)。
用于校正光学***的位置的单元117在显示控制单元116A的控制下对光学***的位置进行校正。也就是说,用于校正光学***的位置的单元117调整光学***调整机构122的扩大和缩小,并且调整眼镜片单元101L和眼镜片单元101R中的每个在水平方向上的位置。此外,伴随该调整,用于校正光学***的位置的单元117也对显示器113L的位置和显示器113R的位置进行调整。
[在校正位置间距期间的操作]
将描述图5所示的在HMD 100A中对光学***与观察者眼睛之间的位置间距进行校正期间的操作。例如,在位置间距的校正期间,使用用于测试的左眼图像数据和右眼图像数据。
左眼图像数据被提供给显示器驱动器112L。通过显示器驱动器112L,显示器113L被驱动,并且在显示器113L上显示左眼图像。类似地,右眼图像数据被提供给显示器驱动器112R。通过显示器驱动器112R,显示器113R被驱动,并且在显示器113R上显示右眼图像。
来自显示器113L上显示的左眼图像的光被眼镜片单元101L反射并且到达观察者的左眼。因此,在显示器113L上显示的左眼图像被眼镜片单元101L光学地放大,并且作为放大的虚拟图像被观察者的左眼观察到。类似地,来自显示器113R上显示的右眼图像的光被眼镜片单元101R反射并且到达观察者的右眼。因此,在显示器113R上显示的右眼图像被眼镜片单元101R光学地放大,并且作为放大的虚拟图像被观察者的右眼观察到。用这样的方式,左眼图像和右眼图像分别被观察者的左眼和右眼观察,因此,观察者可以感知放大的三维(3D)图像。
在这样的图像显示状态下,弱的红外线被从附接到眼镜片单元101L在水平方向上的中心位置(左眼光学***在水平方向上的中心位置)的红外传感器103L发射到观察者的眼睛侧,并且进行水平方向上的扫描。同样,在这样的图像显示状态下,弱的红外线被从附接到眼镜片单元101R在水平方向上的中心位置(右眼光学***在水平方向上的中心位置)的红外传感器103R发射到观察者的眼睛侧,并且进行水平方向上的扫描。
来自红外传感器103L和红外传感器103R中的每个的传感器输出被提供给眼球位置估计单元114。在眼球位置估计单元114中,基于来自红外传感器103L和红外传感器103R的传感器输出来估计观察者的左眼眼球位置和右眼眼球位置。进行角膜(眼睛的黑色部分)扫描时的角度ωL和ωR被从眼球位置估计单元114输出,分别作为左眼眼球位置和右眼眼球位置的估计结果(参见图2和图3)。
此外,来自附接到眼镜片单元101L的陀螺仪传感器104的传感器输出被提供给倾角估计单元115。在倾角估计单元115中,基于来自陀螺仪传感器104的传感器输出来估计包括眼镜片单元101L和眼镜片单元101R的光学***在水平方向上的倾角θ(参见图3)。
作为眼球位置估计单元114的估计结果的角度ωL和角度ωR被提供给显示控制单元116A。此外,作为倾角估计单元115的估计结果的倾角θ被提供给显示控制单元116A。在显示控制单元116A中,基于左眼眼球位置和右眼眼球位置的估计结果以及光学***的倾角的估计结果,来计算左眼光学***相对于观察者左眼的位置间距dL以及右眼光学***相对于观察者右眼的位置间距dR(参见图2和图3)。
在显示控制单元116A中,基于位置间距dL和位置间距dR、红外传感器103L和红外传感器103R的传感器之间已知距离ds以及倾角θ来计算双眼之间的距离de(参见公式(2))。在该情况下,由于将倾角θ纳入考虑,因此以高精度计算双眼之间的距离de。
然后,通过显示控制单元116A,用于校正光学***的位置的单元117被控制,并且对左眼光学***和右眼光学***的位置(即眼镜片单元101L和眼镜片单元101R的位置以及显示器113L和显示器113R的位置)进行移位控制。在该情况下,根据双眼之间距离de和传感器之间距离ds·cosθ之间的差值s(de-ds·cosθ),其中倾角θ被纳入考虑,以使得该差值s变为零的方式来进行控制。因此,使得左眼光学***在水平方向上的中心与观察者的左眼一致,并且使得右眼光学***在水平方向上的中心与观察者的右眼一致,由此光学***与观察者眼睛之间的位置间距被校正。
如上所述,在图5中所示的HMD 100A中,基于光学***与观察者眼睛之间的位置关系的检测结果,对左眼光学***的位置和右眼光学***的位置进行移位控制,并且对光学***与观察者眼睛之间的位置间距机械地进行校正。因此,可以对光学***与观察者眼睛之间的位置间距适当地进行校正。
<3.第三实施方式>
[头戴式显示器(双目)的配置示例]
图6是示出作为第三实施方式的光传输头戴式显示器(HMD)100B的示意性配置示例的视图。该配置示例是双目HMD。在图6中,相同的标记分配到对应于图1的部件,并且将会任意地省略对所述部件的详细描述。HMD 100B包括左侧眼镜片单元101L和右侧眼镜片单元101R。眼镜片单元101L和眼镜片单元101R通过连接构件102整体地连接。
红外传感器103L和红外传感器103R分别附接到眼镜片单元101L和眼镜片单元101R。此外,对包括眼镜片单元101L和眼镜片单元101R的光学***的倾角进行检测的陀螺仪传感器104被附接到眼镜片单元101L。来自红外传感器103L和红外传感器103R中的每个的传感器输出用于通过巩膜反射法来估计眼球位置。
此外,HMD 100B包括显示器驱动器112L和显示器驱动器112R、显示器113L和显示器113R、眼球位置估计单元114、倾角估计单元115、显示控制单元116B、图像校正单元111以及OSD叠加单元118。显示器113L由显示器驱动器112L驱动,并且显示三维图像中包含的左眼图像。同样,显示器113R由显示器驱动器112R驱动,并且显示三维图像中包含的右眼图像。
基于来自红外传感器103L和红外传感器103R的传感器输出,眼球位置估计单元114对观察者的左眼眼球位置和右眼眼球位置进行估计,并且将进行角膜(眼睛的黑色部分)扫描时的角度ωL和ωR作为眼球位置的估计结果来输出(参见图2和图3)。基于来自陀螺仪传感器104的传感器输出,倾角估计单元115将包括眼镜片单元101L和眼镜片单元101R的光学***在水平方向上的倾角θ作为估计结果来输出(参照图3)。
显示控制单元116B基于角度ωL来计算左眼光学***相对于观察者左眼的位置间距dL,并且基于角度ωR来计算右眼光学***相对于观察者右眼的位置间距dR。显示控制单元116B基于位置间距dL和位置间距dR、红外传感器103L和红外传感器103R的传感器之间已知距离ds以及倾角θ来计算双眼之间的距离de(参见公式(2))。
然后,根据双眼之间距离de和传感器之间距离ds·cosθ之间的差值s(de-ds·cosθ),其中倾角θ被纳入考虑,显示控制单元116B进行差值s的OSD显示或用于提示用户进行校正差值s的操作的OSD显示。图7(a)至图7(f)是示出OSD显示的示例的视图。图7(a)是显示用于指示差值s(位置间距的量)的标度的示例,并且该标度被显示在屏幕的左侧端。
图7(b)也是显示用于指示差值s(位置间距的量)的标度的示例,并且该标度被显示在屏幕的上侧端。图7(c)也是显示用于指示差值s(位置间距的量)的标度的示例,并且该标度被显示在屏幕的中央。通过在屏幕中央显示标度,观察者着眼于标度本身,并且可以防止视线的偏差。图7(d)和图7(e)是显示用于指示差值s(位置间距的量)的字符的示例。此外,图7(f)是示出用于提示用户进行校正差值s的操作的OSD显示的示例的视图。如箭头P所示,示出了待用户操作的远程控制装置的操作按钮(待操作位置)。注意,还可以考虑将标度的显示、字符的显示、远程控制装置的操作按钮的显示任意地结合并显示。
此外,基于在用户操作获取单元119中所获取的用户操作,显示控制单元116使左眼图像的显示位置和右眼图像的显示位置移位。注意,在该情况下,如上所述,用户基于差值s的OSD显示或基于用于提示用户进行校正差值s的操作的OSD显示,以使得差值s变为零的方式来进行校正操作。
在显示控制单元116B的控制下,图像校正单元111对用于显示三维(3D)图像的左眼图像数据和右眼图像数据进行图像校正处理,以使显示位置移位。通过OSD叠加单元118,图像校正单元111向显示器驱动器112L提供校正的左眼图像数据,并且向显示器驱动器112R提供校正的右眼图像数据。OSD叠加单元118将用于OSD显示的显示信号叠加到左眼图像数据和右眼图像数据,该信号从显示控制单元116B输出。
[在校正位置间距期间的操作]
将描述图6所示的在HMD 100B中对光学***与观察者眼睛之间的位置间距进行校正期间的操作。例如,在位置间距的校正期间,使用用于测试的左眼图像数据和右眼图像数据。
左眼图像数据被通过图像校正单元111提供给显示器驱动器112L。通过显示器驱动器112L,显示器113L被驱动,并且在显示器113L上显示左眼图像。类似地,右眼图像数据被通过图像校正单元111提供给显示器驱动器112R。通过显示器驱动器112R,显示器113R被驱动,并且在显示器113R上显示右眼图像。
来自显示器113L上显示的左眼图像的光被眼镜片单元101L反射并且到达观察者的左眼。因此,在显示器113L上显示的左眼图像被眼镜片单元101L光学地放大,并且作为放大的虚拟图像被观察者的左眼观察到。类似地,来自显示器113R上显示的右眼图像的光被眼镜片单元101R反射并且到达观察者的右眼。因此,在显示器113R上显示的右眼图像被眼镜片单元101R光学地放大,并且作为放大的虚拟图像被观察者的右眼观察到。用这样的方式,左眼图像和右眼图像分别被观察者的左眼和右眼观察,因此,观察者可以感知放大的三维(3D)图像。
在这样的图像显示状态下,弱的红外线被从附接到眼镜片单元101L在水平方向上的中心位置(左眼光学***在水平方向上的中心位置)的红外传感器103L发射到观察者的眼睛侧,并且进行水平方向上的扫描。同样,在这样的图像显示状态下,弱的红外线被从附接到眼镜片单元101R在水平方向上的中心位置(右眼光学***在水平方向上的中心位置)的红外传感器103R发射到观察者的眼睛侧,并且进行水平方向上的扫描。
来自红外传感器103L和红外传感器103R中的每个的传感器输出被提供给眼球位置估计单元114。在眼球位置估计单元114中,基于来自红外传感器103L和红外传感器103R的传感器输出来估计观察者的左眼眼球位置和右眼眼球位置。进行角膜(眼睛的黑色部分)扫描时的角度ωL和ωR分别作为左眼眼球位置和右眼眼球位置的估计结果而从眼球位置估计单元114输出(参见图2和图3)。
此外,来自附接到眼镜片单元101L的陀螺仪传感器104的传感器输出被提供给倾角估计单元115。在倾角估计单元115中,基于来自陀螺仪传感器104的传感器输出来估计包括眼镜片单元101L和眼镜片单元101R的光学***在水平方向上的倾角θ(参见图3)。
作为眼球位置估计单元114的估计结果的角度ωL和ωR被提供给显示控制单元116B。此外,作为倾角估计单元115的估计结果的倾角θ被提供给显示控制单元116B。在显示控制单元116B中,基于左眼眼球位置和右眼眼球位置的估计结果以及光学***的倾角的估计结果,来计算左眼光学***相对于观察者左眼的位置间距dL以及右眼光学***相对于观察者右眼的位置间距dR(参见图2和图3)。
在显示控制单元116B中,基于位置间距dL和位置间距dR、红外传感器103L和红外传感器103R的传感器之间已知距离ds以及倾角θ来计算双眼之间的距离de(参见公式(2))。在该情况下,由于将倾角θ纳入考虑,因此,以高精度计算双眼之间的距离de。
然后,在显示控制单元116B中计算双眼之间距离de和传感器之间距离ds·cosθ之间的差值s(de-ds·cosθ),其中倾角θ被纳入考虑。用于差值s的OSD显示的显示信号或用于提示用户进行校正差值s的操作的OSD显示的显示信号被从显示控制单元116B输出。显示信号被提供给OSD叠加单元118,并且被叠加到左眼图像数据和右眼图像数据上。因此,在显示器113L和显示器113R上进行OSD显示。
由观察者基于OSD显示来进行使差值s变为零的校正操作。用户操作获取单元119获取用户操作,并且向显示控制单元116B传送所获取的用户操作。显示控制单元116B基于校正操作来控制图像校正单元111,并且对在显示器113L上显示的左眼图像的显示位置和在显示器113R上显示的右眼图像的显示位置进行移位控制。因此,使得左眼图像在水平方向上的中心与观察者的左眼一致,并且使得右眼图像在水平方向上的中心与观察者的右眼一致,由此光学***与观察者的眼睛之间的间距被校正。
如上所述,在图6所示的HMD 100B中,基于光学***与观察者眼睛之间的位置关系的检测结果,进行光学***与观察者眼睛之间的位置间距的OSD显示。由用户基于OSD显示来进行校正操作,以消除位置间距。然后,根据校正操作,对左眼图像的显示位置和右眼图像的显示位置进行移位控制,并且对光学***与观察者眼睛之间的位置间距电子地进行校正。因此,可以对光学***与观察者眼睛之间的位置间距适当地进行校正。
<4.第四实施方式>
[头戴式显示器(双目)的配置示例]
图8是示出作为第四实施方式的光传输头戴式显示器(HMD)100C的示意性配置示例的视图。该配置示例是双目HMD。在图8中,相同的标记分配到对应于图2的部件或对应于图6的部件,并且将会任意地省略对所述部件的详细描述。HMD 100C包括左侧眼镜片单元101L和右侧眼镜片单元101R。眼镜片单元101L和眼镜片单元101R通过光学***调整机构122彼此连接。
红外传感器103L和红外传感器103R分别附接到眼镜片单元101L和眼镜片单元101R。此外,对包括眼镜片单元101L和眼镜片单元101R的光学***的倾角进行检测的陀螺仪传感器104被附接到眼镜片单元101L。来自红外传感器103L和红外传感器103R中的每个的传感器输出用于通过巩膜反射法来估计眼球位置。
此外,HMD 100C包括显示器驱动器112L和显示器驱动器112R、显示器113L和显示器113R、眼球位置估计单元114、倾角估计单元115、显示控制单元116C、用于校正光学***的位置的单元117、OSD叠加单元118,以及用户操作获取单元119。显示器113L由显示器驱动器112L驱动,并且显示三维图像中包含的左眼图像。同样,显示器113R由显示器驱动器112R驱动,并且显示三维图像中包含的右眼图像。
基于来自红外传感器103L和红外传感器103R的传感器输出,眼球位置估计单元114对观察者的左眼眼球位置和右眼眼球位置进行估计,并且将进行角膜(眼睛的黑色部分)扫描时的角度ωL和ωR作为眼球位置的估计结果而输出(参见图2和图3)。基于来自陀螺仪传感器104的传感器输出,倾角估计单元115将包括眼镜片单元101L和眼镜片单元101R的光学***在水平方向上的倾角θ作为估计结果而输出(参见图3)。
显示控制单元116C基于角度ωL来计算左眼光学***相对于观察者左眼的位置间距dL,并且基于角度ωR来计算右眼光学***相对于观察者右眼的位置间距dR。显示控制单元116C基于位置间距dL和位置间距dR、红外传感器103L和红外传感器103R的传感器之间已知距离ds以及倾角θ来计算双眼之间的距离de(参见公式(2))。
根据双眼之间距离de和传感器之间距离ds·cosθ之间的差值s(de-ds·cosθ),其中倾角θ被纳入考虑,显示控制单元116C进行差值s的OSD显示或用于提示用户进行校正差值s的操作的OSD显示。
此外,显示控制单元116C基于在用户操作获取单元119中获取的用户操作来移位左眼光学***的位置和右眼光学***的位置。注意,在该情况下,如上所述,用户基于差值s的OSD显示或基于用于提示用户进行校正差值s的操作的OSD显示,以使得差值s变为零的方式来进行校正操作。
用于校正光学***的位置的单元117在显示控制单元116C的控制下对光学***的位置进行校正。也就是说,用于校正光学***的位置的单元117调整光学***调整机构122的扩大和缩小,并且调整眼镜片单元101L和眼镜片单元101R中的每个在水平方向上的位置。此外,伴随该调整,用于校正光学***的位置的单元117也调整显示器113L的位置和显示器113R的位置。OSD叠加单元118将用于OSD显示的显示信号叠加到左眼图像数据和右眼图像数据上,该信号被从显示控制单元116C输出。
[在校正位置间距期间的操作]
将描述图8所示的在HMD 100C中对光学***与观察者眼睛之间的位置间距进行校正期间的操作。例如,在位置间距的校正期间,使用用于测试的左眼图像数据和右眼图像数据。
左眼图像数据被提供给显示器驱动器112L。通过显示器驱动器112L,显示器113L被驱动,并且在显示器113L上显示左眼图像。类似地,右眼图像数据被提供给显示器驱动器112R。通过显示器驱动器112R,显示器113R被驱动,并且在显示器113R上显示右眼图像。
来自显示器113L上显示的左眼图像的光被眼镜片单元101L反射并且到达观察者的左眼。因此,在显示器113L上显示的左眼图像被眼镜片单元101L光学地放大,并且作为放大的虚拟图像被观察者的左眼观察到。类似地,来自显示器113R上显示的右眼图像的光被眼镜片单元101R反射并且到达观察者的右眼。因此,在显示器113L上显示的右眼图像被眼镜片单元101R光学地放大,并且作为放大的虚拟图像被观察者的右眼观察到。用这样的方式,左眼图像和右眼图像分别被观察者的左眼和右眼观察,因此,观察者可以感知放大的三维(3D)图像。
在这样的图像显示状态下,弱的红外线被从附接到眼镜片单元101L在水平方向上的中心位置(左眼光学***在水平方向上的中心位置)的红外传感器103L发射到观察者的眼睛侧,并且进行水平方向上的扫描。同样,在这样的图像显示状态下,弱的红外线被从附接到眼镜片单元101R在水平方向上的中心位置(右眼光学***的在水平方向上的中心位置)的红外传感器103R发射到观察者的眼睛侧,并且进行水平方向上的扫描。
来自红外传感器103L和红外传感器103R中的每个的传感器输出被提供给眼球位置估计单元114。在眼球位置估计单元114中,基于来自红外传感器103L和红外传感器103R的传感器输出来估计观察者的左眼眼球位置和右眼眼球位置。进行角膜(眼睛的黑色部分)扫描时的角度ωL和ωR分别作为左眼眼球位置和右眼眼球位置的估计结果而从眼球位置估计单元114输出(参见图2和图3)。
此外,来自附接到眼镜片单元101L的陀螺仪传感器104的传感器输出被提供给倾角估计单元115。在倾角估计单元115中,基于来自陀螺仪传感器104的传感器输出来估计包括眼镜片单元101L和眼镜片单元101R的光学***在水平方向上的倾角θ(参见图3)。
作为眼球位置估计单元114的估计结果的角度ωL和角度ωR被提供给显示控制单元116C。此外,作为倾角估计单元115的估计结果的倾角θ被提供给显示控制单元116C。在显示控制单元116C中,基于左眼眼球位置和右眼眼球位置的估计结果以及光学***的倾角的估计结果,来计算左眼光学***相对于观察者左眼的位置间距dL和右眼光学***相对于观察者右眼的位置间距dR(参见图2和图3)。
在显示控制单元116C中,基于位置间距dL和位置间距dR、红外传感器103L和红外传感器103R的传感器之间已知距离ds以及倾角θ来计算双眼之间的距离de(参见公式(2))。在该情况下,由于将倾角θ纳入考虑,因此以高精度计算双眼之间的距离de。
然后,在显示控制单元116C中计算双眼之间距离de和传感器之间距离ds·cosθ之间的差值s(de-ds·cosθ),其中倾角θ被纳入考虑。用于差值s的OSD显示的显示信号或用于提示用户进行校正差值s的操作的OSD显示的显示信号被从显示控制单元116C输出。该显示信号被提供给OSD叠加单元118,并且被叠加到左眼图像数据和右眼图像数据上。因此,在显示器113L和显示器113R上进行OSD显示。
由观察者基于OSD显示来进行使差值s变为零的校正操作。用户操作获取单元119获取用户操作,并且向显示控制单元116C传送所获取的用户操作。显示控制单元116C基于校正操作来控制用于校正光学***的位置的单元117,并且对左眼光学***的位置和右眼光学***的位置(即眼镜片单元101L和眼镜片单元101R的位置以及显示器101L和显示器101R的位置)进行移位控制。因此,使得左眼光学***在水平方向上的中心与观察者的左眼一致,并且使得右眼光学***在水平方向上的中心与观察者的右眼一致,由此光学***与观察者的眼睛之间的间距被校正。
如上所述,在图8所示的HMD 100C中,基于光学***与观察者眼睛之间的位置关系的检测结果,进行光学***与观察者眼睛之间的位置间距的OSD显示。由用户基于OSD显示来进行校正操作,以消除位置间距。然后,根据校正操作,对左眼光学***和右眼光学***进行移位控制,并且对光学***与观察者眼睛之间的位置间距机械地进行校正。因此,可以对光学***与观察者眼睛之间的位置间距适当地进行校正。
<5.第五实施方式>
[头戴式显示器(单目)的配置示例]
图9是示出作为第五实施方式的光传输头戴式显示器(HMD)100D的示意性配置示例的视图。该配置示例是单目HMD。在图9中,相同的标记分配到对应于图1的部件,并且将会任意地省略对所述部件的详细描述。
由于HMD 100D是单目HMD,因此HMD 100D包括一个眼镜片单元101,而在图1中所示的HMD 100包括眼镜片单元101L和眼镜片单元101R这两个眼镜片单元。红外传感器103附接到眼镜片单元101。红外传感器103起着与图1所示的HMD 100中的红外传感器103L和红外传感器103R类似的功能,并且将来自其的传感器输出传送给眼球位置估计单元114。此外,对包括眼镜片单元101的光学***的倾角进行检测的陀螺仪传感器104被附接到眼镜片单元101。陀螺仪传感器104将来自其的传感器输出传送给倾角估计单元115。
此外,由于HMD 100D是单目HMD,因此HMD 100D包括一个***的显示器驱动器112和显示器113。显示器113由显示器驱动器112驱动并且显示图像。来自显示器113上显示的图像的光被眼镜片单元101反射并且到达观察者的眼睛(左眼或右眼)。因此,在显示器113上显示的图像被眼镜片单元101光学地放大,并且作为放大的虚拟图像被观察者的眼睛观察到。
与图1的HMD 100中的眼球位置估计单元114类似,眼球位置估计单元114基于来自红外传感器103的传感器输出来对观察者眼睛的眼球位置进行估计,并且将进行角膜(眼睛的黑色部分)扫描时的角度ω作为眼球位置的估计结果来输出(参见图2和图3)。此外,与图1的HMD 100中的倾角估计单元115类似,倾角估计单元115基于来自陀螺仪传感器104的传感器输出来估计包括眼镜片单元101的光学***在水平方向上的倾角θ(参见图3)。
显示控制单元116D基于眼球位置的估计结果和光学***的倾角的估计结果来计算光学***相对于观察者眼睛的位置间距d。参照图3,位置间距d对应于dL/cosθ或dR/cosθ。基于位置间距d,显示控制单元116D以使得位置间距d的值变为零的方式来控制图像校正单元111,并且在水平方向上对显示器113上显示的图像的显示位置进行移位控制。因此,使得图像在水平方向上的中心与观察者的眼睛一致,并且光学***与观察者眼睛之间的位置间距被校正。
省略了对图9中所示的HMD 100D的其他部件的详细描述。然而,其他部件类似于图1中所示的HMD 100的相应部件来配置和操作。如上所述,在图9所示的HMD 100D中,基于光学***与观察者眼睛之间的位置关系的检测结果,对图像的显示位置进行移位控制,并且对光学***与观察者眼睛之间的位置间距电子地进行校正。因此,可以对光学***与观察者眼睛之间的位置间距适当地进行校正。
<6.第六实施方式>
[头戴式显示器(单目)的配置示例]
图10是示出作为第六实施方式的光传输头戴式显示器(HMD)100E的示意性配置示例的视图。该配置示例是单目HMD。在图10中,相同的标记分配到对应于图5的部件或对应于图9的部件,并且将会任意地省略对该部分的详细描述。
由于HMD 100E是单目HMD,因此HMD 100E包括一个眼镜片单元101,而图5中所示的HMD 100A包括眼镜片单元101L和眼镜片单元101R这两个眼镜片单元。红外传感器103附接到眼镜片单元101。红外传感器103起着与图5所示的HMD 100A中的红外传感器103L和红外传感器103R类似的功能,并且将来自其的传感器输出传送给眼球位置估计单元114。此外,对包括眼镜片单元101的光学***的倾角进行检测的陀螺仪传感器104被附接到眼镜片单元101。陀螺仪传感器104将来自其的传感器输出传送给倾角估计单元105。
此外,由于HMD 100E是单目HMD,因此HMD 100E包括一个***的显示器驱动器112和显示器113。显示器113由显示器驱动器112驱动并且显示图像。来自显示器113上显示的图像的光被眼镜片单元101反射并且到达观察者的眼睛(左眼或右眼)。因此,显示器113上显示的图像被眼镜片单元101光学地放大,并且作为放大的虚拟图像被观察者的眼睛观察到。
与图5中的HMD 100A中的眼球位置估计单元114类似,眼球位置估计单元114基于来自红外传感器103的传感器输出来估计观察者的眼睛的眼球位置,并且将进行角膜(眼睛的黑色部分)扫描时的角度ω作为眼球位置的估计结果来输出(参见图2和图3)。此外,与图5的HMD 100A中的倾角估计单元115类似,倾角估计单元115基于来自陀螺仪传感器104的传感器输出来估计包括眼镜片单元101的光学***在水平方向上的倾角θ(参见图3)。
显示控制单元116E基于眼球位置的估计结果和光学***的倾角的估计结果来计算光学***相对于观察者眼睛的位置间距d。参照图3,位置间距d对应于dL/cosθ或dR/cosθ。基于位置间距d,显示控制单元116E以使得位置间距d的值变为零的方式来控制用于校正光学***的位置的单元117,并且在水平方向上对眼镜片单元101的位置(即光学***的位置)进行移位控制。此外,显示控制单元116E还连同眼镜片单元101的移位控制一起来控制显示器113的位置。因此,使得图像在水平方向上的中心与观察者的眼睛一致,并且光学***与观察者眼睛之间的位置间距被校正。
省略了对图10中所示的HMD 100E的其他部分的详细描述。然而,其他部分类似于图5中所示的HMD 100A的相应部分来配置和操作。如所描述的,在图10所示的HMD 100E中,基于光学***与观察者眼睛之间的位置关系的检测结果,对光学***进行移位控制并且对光学***与观察者眼睛之间的位置间距机械地进行校正。因此,可以对光学***与观察者眼睛之间的位置间距适当地进行校正。
<7.第七实施方式>
[头戴式显示器(单目)的配置示例]
图11是示出作为第七实施方式的光传输头戴式显示器(HMD)100F的示意性配置示例的视图。该配置示例是单目HMD。在图11中,相同的标记分配到对应于图6的部件或对应于图9的部件,并且将会任意地省略对所述部件的详细描述。
由于HMD 100F是单目HMD,因此HMD 100F包括一个眼镜片单元101,而图6中所示的HMD 100B包括眼镜片单元101L和眼镜片单元101R这两个眼镜片单元。红外传感器103附接到眼镜片单元101。红外传感器103起着与图6中所示的HMD 100B中的红外传感器103L和红外传感器103R类似的功能,并且将来自其的传感器输出传送给眼球位置估计单元114。此外,对包括眼镜片单元101的光学***的倾角进行检测的陀螺仪传感器104被附接到眼镜片单元101。陀螺仪传感器104将来自其的传感器输出传送给倾角估计单元115。
同样,由于HMD 100F是单目HMD,因此HMD 100F包括一个***的显示器驱动器112和显示器113。显示器113由显示器驱动器112驱动并且显示图像。来自显示器113上显示的图像的光被眼镜片单元101反射并且到达观察者的眼睛(左眼或右眼)。因此,显示器113上显示的图像被眼镜片单元101光学地放大,并且作为放大的虚拟图像被观察者的眼睛观察到。
与图6中的HMD 100B中的眼球位置估计单元114类似,眼球位置估计单元114基于来自红外传感器103的传感器输出来对观察者眼睛的眼球位置进行估计,并且将进行角膜(眼睛的黑色部分)扫描时的角度ω作为眼球位置的估计结果来输出(参见图2和图3)。此外,与图6的HMD100B中的倾角估计单元115类似,倾角估计单元115基于来自陀螺仪传感器104的传感器输出来估计包括眼镜片单元101的光学***在水平方向上的倾角θ(参见图3)。
显示控制单元116F基于眼球位置的估计结果和光学***的倾角的估计结果来计算光学***相对于观察者眼睛的位置间距d。参照图3,位置间距d对应于dL/cosθ或dR/cosθ。显示控制单元116F输出用于位置间距d的OSD显示的显示信号或输出用于提示用户进行校正位置间距d的操作的OSD显示的显示信号,并且将显示信号提供给OSD叠加单元118。因此,在显示器113上进行OSD显示。
由观察者基于OSD显示来进行使位置间距d变为零的校正操作。用户操作获取单元119获取用户操作,并且向显示控制单元116F传送所获取的用户操作。显示控制单元116F基于校正操作来对显示器113上显示的图像的显示位置进行移位控制。因此,使得图像在水平方向上的中心与观察者的眼睛一致,并且光学***与观察者眼睛之间的位置间距被校正。
如上所述,在图11中所示的HMD 100F中,基于光学***与观察者眼睛之间的位置关系的检测结果,来进行光学***与观察者眼睛之间的位置间距的OSD显示。由用户基于OSD显示来进行校正操作,以消除位置间距。然后,根据校正操作,对图像的显示位置进行移位控制,并且对光学***与观察者眼睛之间的位置间距电子地进行校正。因此,可以对光学***与观察者眼睛之间的位置间距适当地进行校正。
<8.第八实施方式>
[头戴式显示器(单目)的配置示例]
图12是示出作为第八实施方式的光传输头戴式显示器(HMD)100G的示意性配置示例的视图。该配置示例是单目HMD。在图12中,相同的标记分配到对应于图8的部件或对应于图9的部件,并且将会任意地省略对所述部件的详细描述。
由于HMD 100G是单目HMD,因此HMD 100G包括一个眼镜片单元101,而在图8中所示的HMD 100C包括眼镜片单元101L和眼镜片单元101R这两个眼镜片单元。红外传感器103附接到眼镜片单元101上。红外传感器103起着与图8中所示的HMD 100C中的红外传感器103L和红外传感器103R类似的功能,并且将来自其的传感器输出传送给眼球位置估计单元114。此外,对包括眼镜片单元101的光学***的倾角进行检测的陀螺仪传感器104被附接到眼镜片单元101。陀螺仪传感器104将来自其的传感器输出传送给倾角估计单元115。
同样,由于HMD 100G是单目HMD,因此HMD 100G包括一个***的显示器驱动器112和显示器113。显示器113由显示器驱动器112驱动并且显示图像。来自显示器113上显示的图像的光被眼镜片单元101反射并且到达观察者的眼睛(左眼或右眼)。因此,显示器113上显示的图像被眼镜片单元101光学地放大,并且作为放大的虚拟图像被观察者的眼睛观察到。
与图8中的HMD 100C中的眼球位置估计单元114类似,眼球位置估计单元114基于来自红外传感器103的传感器输出来对观察者眼睛的眼球位置进行估计,并且将进行角膜(眼睛的黑色部分)扫描时的角度ω作为眼球位置的估计结果来输出(参见图2和图3)。此外,与图8的HMD100C中的倾角估计单元115类似,倾角估计单元115基于来自陀螺仪传感器104的传感器输出来估计包括眼镜片单元101的光学***在水平方向上的倾角θ(参见图3)。
显示控制单元116G基于眼球位置的估计结果和光学***的倾角的估计结果来计算光学***相对于观察者眼睛的位置间距d。参照图3,位置间距d对应于dL/cosθ或dR/cosθ。显示控制单元116G输出用于位置间距d的OSD显示的显示信号或输出用于提示用户进行校正位置间距d的操作的OSD显示的显示信号,并且将显示信号提供给OSD叠加单元118。因此,在显示器113上进行OSD显示。
由观察者基于OSD显示来进行使位置间距d变为零的校正操作。用户操作获取单元119获取用户操作,并且向显示控制单元116G传送所获取的用户操作。显示控制单元116G基于校正操作来控制用于校正光学***的位置的单元117,并且对光学***的位置(即眼镜片单元101的位置以及显示器103的位置)进行移位控制。因此,使得光学***在水平方向上的中心与观察者的眼睛一致,并且光学***与观察者眼睛之间的位置间距被校正。
如上所述,在图12中所示的HMD 100G中,基于光学***与观察者眼睛之间的位置关系的检测结果,进行光学***与观察者眼睛之间的位置间距的OSD显示。由用户基于OSD显示来进行校正操作,以消除位置间距。然后,根据校正操作,对光学***进行移位控制,并且对光学***与观察者眼睛之间的位置间距机械地进行校正。因此,可以对光学***与观察者眼睛之间的位置间距适当地进行校正。
<9.修改>
注意在上面描述的实施方式中,通过将光学***的倾角θ纳入考虑,提高了校正精度。然而,也可以考虑没有将光学***的倾角θ纳入考虑的简化配置。在该情况下,例如陀螺仪传感器104和倾角估计单元115的部件不是必需的。
此外,在上面所描述的实施方式中,已经描述了下述示例:陀螺仪传感器104基于来自附接到眼镜片单元101L的陀螺仪传感器104的传感器输出来估计整个光学***的倾角θ。然而,也可以考虑对左眼侧和右眼侧中的每侧上的光学***的倾角进行检测的配置。在这样的情况下,陀螺仪传感器不仅附接到眼镜片单元101L而且附接到眼镜片单元101R。
此外,在上面描述的实施方式中,描述了下述示例:通过在水平方向上对显示器113L上显示的左眼图像和显示器113R上显示的右眼图像进行移位控制,来校正光学***与观察者眼睛之间的水平方向上的位置间距。尽管省略了详细的描述,但是也可以考虑用类似的方式在垂直方向上对光学***与观察者眼睛之间的位置间距进行校正。
此外,在上面描述的实施方式中,描述了下述示例:一个红外传感器被附接到每个眼镜片单元,并且用发射到观察者侧的弱的红外线来进行扫描操作。然而,例如,如图13(a)中所示,也可以考虑下述配置:将多个红外传感器IRS附接到眼镜片单元GL,并且基于来自所述多个红外传感器IRS中的每个的传感器输出来综合地确定观察者眼睛的位置。在这样的情况下,当存在许多个红外传感器IRS时,不需要利用从多个红外传感器IRS中的每个发射到观察者侧的弱的红外线来进行扫描操作。
此外,在上面所述的实施方式中,已经描述了红外传感器被附接到每个眼镜片单元的示例。然而,如在图13(b)中所示,通过使用反射片RS,也可以将红外传感器IRS安装到在一定程度上远离眼镜片单元GL的位置。注意,即使在该情况下,如在图13(c)中所示,也可以考虑下述配置:多个红外传感器IRS被布置,并且基于来自所述多个红外传感器IRS中的每个的传感器输出来综合地确定观察者眼睛的位置。
此外,在上面所述的实施方式中,已描述了下述示例:在图像校正单元111中使图像的显示位置在水平方向上移位。确切地说,还可以考虑通过在垂直方向上移位、旋转、放大、缩小等来进行位置的校正。
此外,在上面所述的实施方式中,通过应用巩膜反射法来进行眼球位置的估计。然而,也可以考虑应用不同的技术,例如眼电图(EOG)方法或面部识别技术。
此外,在上面描述的实施方式中,已描述了下述示例:在用于显示图像的显示器上显示由位置关系检测单元检测到的位置关系(例如差值s或位置间距d)的OSD显示。然而,可以在与显示图像的显示器不同的显示元件上显示位置关系。此外,除了上述显示器或显示元件之外,或者替代于上述显示器或显示元件,可以通过声音、振动或者增加/降低发光强度来呈现位置关系。
例如,在使用振动的情况下,振动器被安装,并且振动随着位置间距量变得更大而变得更强。此外,例如,在使用声音的情况下,间距量或操作方法被再现,或者音量随着间距量变得更大而变得更大。
此外,在上面所述的实施方式中,已描述了本技术应用到HMD的示例。然而,本技术不限于以上所述,并且可以被广泛地应用到不同的图像显示装置,例如相机的取景器或电子双目镜。
此外,本技术可以包括下面的配置。
(1)一种图像显示装置,包括:位置关系检测单元,被配置为基于观察者的眼睛的眼球位置来检测光学***与所述观察者的眼睛之间的位置关系,所述光学***被配置为将显示元件上显示的图像引导至所述观察者的眼睛;以及
位置关系校正单元,被配置为基于由所述位置关系检测单元检测的所述位置关系来校正所述光学***与所述观察者的眼睛之间的所述位置关系。
(2)根据(1)所述的图像显示装置,其中,所述位置关系校正单元基于由所述位置关系检测单元检测的所述位置关系来对所述显示元件上显示的所述图像的显示位置进行移位。
(3)根据(1)所述的图像显示装置,其中,所述位置关系校正单元基于由所述位置关系检测单元检测的所述位置关系来移动所述光学***。
(4)根据(1)所述的图像显示装置,其中,所述位置关系校正单元包括:位置关系呈现单元,所述位置关系呈现单元被配置为将由所述位置关系检测单元检测的所述位置关系呈现给所述观察者,以及控制单元,所述控制单元被配置为根据所述观察者的操作来控制所述光学***与所述观察者的眼睛之间的所述位置关系。
(5)根据(4)所述的图像显示装置,其中,所述控制单元根据所述观察者的所述操作来进行所述显示元件上显示的所述图像的显示位置的移位控制。
(6)根据(4)所述的图像显示装置,其中,所述控制单元根据所述观察者的所述操作来进行所述光学***的移动控制。
(7)根据(4)至(6)中任一项所述的图像显示装置,其中,所述位置关系呈现单元在所述显示元件上显示由所述位置关系检测单元检测的所述位置关系。
(8)根据(1)至(7)中任一项所述的图像显示装置,还包括:倾角估计单元,所述倾角估计单元被配置为估计所述光学***的倾角,其中,所述位置关系检测单元基于所估计的眼球位置和所估计的倾角来检测所述光学***与所述观察者的眼睛之间的所述位置关系。
(9)根据(1)至(8)中任一项所述的图像显示装置,还包括:光学***,所述光学***被配置为将所述显示元件上显示的所述图像引导至所述观察者的眼睛。
(10)根据(9)所述的图像显示装置,其中,作为所述光学***,存在被配置为将所述显示元件上显示的左眼图像引导至所述观察者的左眼的第一光学***以及被配置为将所述显示元件上显示的右眼图像引导至所述观察者的右眼的第二光学***。
(11)根据(9)或(10)所述的图像显示装置,还包括:眼球位置估计单元,所述眼球位置估计单元被配置为估计所述观察者的眼睛的眼球位置,其中,所述位置关系检测单元基于由所述眼球位置估计单元估计的所述眼球位置来检测所述光学***与所述观察者的眼睛之间的所述位置关系。
(12)一种用于显示图像的方法,包括:位置关系检测步骤,其检测将显示元件上显示的图像引导至观察者的眼睛的光学***与所述观察者的眼睛之间的位置关系,以及位置关系校正步骤,其基于检测的位置关系来校正所述光学***与所述观察者的眼睛之间的所述位置关系。
附图标记列表
100,100A至100G 头戴式显示器
101,101L,101R 眼镜片单元
102 连接构件
103,103L,103R 红外传感器
104 陀螺仪传感器
111 图像校正单元
112,112L,112R 显示器驱动器
113,113L,113R 显示器
114 眼球位置估计单元
115 倾角估计单元
116,116A至116G 显示控制单元
117 用于校正光学***的位置的单元
118 OSD叠加单元
119 用户操作获取单元
122 光学***调整机构
权利要求书(按照条约第19条的修改)
1.一种图像显示装置,包括:
位置关系检测单元,被配置为基于观察者的眼睛的眼球位置来检测光学***与所述观察者的眼睛之间的位置关系,所述光学***被配置为将显示元件上显示的图像引导至所述观察者的眼睛;以及
位置关系校正单元,被配置为基于由所述位置关系检测单元检测的所述位置关系来校正所述光学***与所述观察者的眼睛之间的所述位置关系。
2.根据权利要求1所述的图像显示装置,其中,所述位置关系校正单元基于由所述位置关系检测单元检测的所述位置关系来对所述显示元件上显示的所述图像的显示位置进行移位。
3.根据权利要求1所述的图像显示装置,其中,所述位置关系校正单元基于由所述位置关系检测单元检测的所述位置关系来移动所述光学***。
4.根据权利要求1所述的图像显示装置,其中,所述位置关系校正单元包括:
位置关系呈现单元,被配置为将由所述位置关系检测单元检测的所述位置关系呈现给所述观察者,以及
控制单元,被配置为根据所述观察者的操作来控制所述光学***与所述观察者的眼睛之间的所述位置关系。
5.根据权利要求4所述的图像显示装置,其中,所述控制单元根据所述观察者的所述操作来进行所述显示元件上显示的所述图像的显示位置的移位控制。
6.根据权利要求4所述的图像显示装置,其中,所述控制单元根据所述观察者的所述操作来进行所述光学***的移动控制。
7.根据权利要求4所述的图像显示装置,其中,所述位置关系呈现单元使所述显示元件显示由所述位置关系检测单元检测的所述位置关系。
8.根据权利要求1所述的图像显示装置,还包括:倾角估计单元,所述倾角估计单元被配置为估计所述光学***的倾角,
其中,所述位置关系检测单元基于由所述倾角估计单元估计的所述倾角来检测所述光学***与所述观察者的眼睛之间的所述位置关系。
9.根据权利要求1所述的图像显示装置,还包括:光学***,所述光学***被配置为将所述显示元件上显示的所述图像引导至所述观察者的眼睛。
10.根据权利要求9所述的图像显示装置,其中,作为所述光学***,存在被配置为将所述显示元件上显示的左眼图像引导至所述观察者的左眼的第一光学***以及被配置为将所述显示元件上显示的右眼图像引导至所述观察者的右眼的第二光学***。
11.根据权利要求9所述的图像显示装置,还包括:眼球位置估计单元,所述眼球位置估计单元被配置为估计所述观察者的眼睛的眼球位置,
其中,所述位置关系检测单元基于由所述眼球位置估计单元估计的所述眼球位置来检测所述光学***与所述观察者的眼睛之间的所述位置关系。
12.一种用于显示图像的方法,包括:
位置关系检测步骤,其检测将显示元件上显示的图像引导至观察者的眼睛的光学***与所述观察者的眼睛之间的位置关系,以及
位置关系校正步骤,其基于检测的位置关系来校正所述光学***与所述观察者的眼睛之间的所述位置关系。
Claims (12)
1.一种图像显示装置,包括:
位置关系检测单元,被配置为基于观察者的眼睛的眼球位置<!—没有元素不被包括在主权利要求中>来检测光学***与所述观察者的眼睛之间的位置关系,所述光学***被配置为将显示元件上显示的图像引导至所述观察者的眼睛;以及
位置关系校正单元,被配置为基于由所述位置关系检测单元检测的所述位置关系来校正所述光学***与所述观察者的眼睛之间的所述位置关系。
2.根据权利要求1所述的图像显示装置,其中,所述位置关系校正单元基于由所述位置关系检测单元检测的所述位置关系来对所述显示元件上显示的所述图像的显示位置进行移位。
3.根据权利要求1所述的图像显示装置,其中,所述位置关系校正单元基于由所述位置关系检测单元检测的所述位置关系来移动所述光学***。
4.根据权利要求1所述的图像显示装置,其中,所述位置关系校正单元包括:
位置关系呈现单元,被配置为将由所述位置关系检测单元检测的所述位置关系呈现给所述观察者,以及
控制单元,被配置为根据所述观察者的操作来控制所述光学***与所述观察者的眼睛之间的所述位置关系。
5.根据权利要求4所述的图像显示装置,其中,所述控制单元根据所述观察者的所述操作来进行所述显示元件上显示的所述图像的显示位置的移位控制。
6.根据权利要求4所述的图像显示装置,其中,所述控制单元根据所述观察者的所述操作来进行所述光学***的移动控制。
7.根据权利要求4所述的图像显示装置,其中,所述位置关系呈现单元在所述显示元件上显示由所述位置关系检测单元检测的所述位置关系。
8.根据权利要求1所述的图像显示装置,还包括:倾角估计单元,所述倾角估计单元被配置为估计所述光学***的倾角,
其中,所述位置关系检测单元基于所估计的眼球位置和所估计的倾角来检测所述光学***与所述观察者的眼睛之间的所述位置关系。
9.根据权利要求1所述的图像显示装置,还包括:光学***,所述光学***被配置为将所述显示元件上显示的所述图像引导至所述观察者的眼睛。
10.根据权利要求9所述的图像显示装置,其中,作为所述光学***,存在被配置为将所述显示元件上显示的左眼图像引导至所述观察者的左眼的第一光学***以及被配置为将所述显示元件上显示的右眼图像引导至所述观察者的右眼的第二光学***。
11.根据权利要求9所述的图像显示装置,还包括:眼球位置估计单元,所述眼球位置估计单元被配置为估计所述观察者的眼睛的眼球位置,
其中,所述位置关系检测单元基于由所述眼球位置估计单元估计的所述眼球位置来检测所述光学***与所述观察者的眼睛之间的所述位置关系。
12.一种用于显示图像的方法,包括:
位置关系检测步骤,其检测将显示元件上显示的图像引导至观察者的眼睛的光学***与所述观察者的眼睛之间的位置关系,以及
位置关系校正步骤,其基于检测的位置关系来校正所述光学***与所述观察者的眼睛之间的所述位置关系。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-163324 | 2012-07-24 | ||
JP2012163324 | 2012-07-24 | ||
PCT/JP2013/069378 WO2014017348A1 (ja) | 2012-07-24 | 2013-07-17 | 画像表示装置および画像表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104508538A true CN104508538A (zh) | 2015-04-08 |
CN104508538B CN104508538B (zh) | 2018-06-22 |
Family
ID=49997162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380037860.6A Active CN104508538B (zh) | 2012-07-24 | 2013-07-17 | 图像显示装置及图像显示方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9835864B2 (zh) |
JP (1) | JP6248931B2 (zh) |
CN (1) | CN104508538B (zh) |
WO (1) | WO2014017348A1 (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105391997A (zh) * | 2015-11-05 | 2016-03-09 | 广东未来科技有限公司 | 立体显示装置的三维视点校正方法 |
CN105898275A (zh) * | 2016-04-28 | 2016-08-24 | 乐视控股(北京)有限公司 | 虚拟现实图像校准方法及装置 |
CN108139803A (zh) * | 2015-10-08 | 2018-06-08 | Pcms控股公司 | 用于动态显示器配置的自动校准的方法及*** |
CN108153417A (zh) * | 2017-12-25 | 2018-06-12 | 北京凌宇智控科技有限公司 | 画面补偿方法及采用该方法的头戴式显示装置 |
CN112255800A (zh) * | 2020-11-09 | 2021-01-22 | Oppo广东移动通信有限公司 | 图像显示的控制方法及增强现实设备、装置、计算机可读存储介质 |
TWI730573B (zh) * | 2019-01-15 | 2021-06-11 | 日商藍光科技股份有限公司 | 可穿戴式影像顯示裝置 |
CN113260427A (zh) * | 2019-01-11 | 2021-08-13 | 环球城市电影有限责任公司 | 掉落检测***和方法 |
US11210858B2 (en) | 2015-08-24 | 2021-12-28 | Pcms Holdings, Inc. | Systems and methods for enhancing augmented reality experience with dynamic output mapping |
US11741673B2 (en) | 2018-11-30 | 2023-08-29 | Interdigital Madison Patent Holdings, Sas | Method for mirroring 3D objects to light field displays |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6026836B2 (ja) * | 2012-09-28 | 2016-11-16 | パイオニア株式会社 | 画像表示装置、制御方法、プログラム及び記憶媒体 |
US10345903B2 (en) * | 2013-07-30 | 2019-07-09 | Microsoft Technology Licensing, Llc | Feedback for optic positioning in display devices |
JP6492531B2 (ja) * | 2014-10-27 | 2019-04-03 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
CN104581126A (zh) * | 2014-12-16 | 2015-04-29 | 青岛歌尔声学科技有限公司 | 一种头戴显示设备的画面显示处理方法和处理装置 |
US11252399B2 (en) | 2015-05-28 | 2022-02-15 | Microsoft Technology Licensing, Llc | Determining inter-pupillary distance |
US9746675B2 (en) * | 2015-05-28 | 2017-08-29 | Microsoft Technology Licensing, Llc | Alignment based view matrix tuning |
JP2017026943A (ja) * | 2015-07-27 | 2017-02-02 | 株式会社東芝 | 画像表示装置及び画像処理装置 |
US20170115489A1 (en) * | 2015-10-26 | 2017-04-27 | Xinda Hu | Head mounted display device with multiple segment display and optics |
WO2017079333A1 (en) * | 2015-11-04 | 2017-05-11 | Magic Leap, Inc. | Light field display metrology |
JP2020098944A (ja) * | 2017-04-05 | 2020-06-25 | シャープ株式会社 | 映像生成装置、映像生成方法および映像生成プログラム |
GB201714349D0 (en) * | 2017-09-06 | 2017-10-18 | Xyz Reality Ltd | A method and equipment for setting out a construction site |
WO2020023672A1 (en) * | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes |
CN111103971A (zh) | 2018-10-29 | 2020-05-05 | 托比股份公司 | 头戴式装置在用户上的位置的确定 |
US11786694B2 (en) | 2019-05-24 | 2023-10-17 | NeuroLight, Inc. | Device, method, and app for facilitating sleep |
JP7409497B2 (ja) * | 2020-05-15 | 2024-01-09 | 日本電信電話株式会社 | 位置合わせ支援装置、位置合わせ支援方法およびプログラム |
JPWO2021261100A1 (zh) * | 2020-06-22 | 2021-12-30 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07311361A (ja) * | 1994-05-16 | 1995-11-28 | Olympus Optical Co Ltd | 眼球投影型映像表示装置 |
JP2002328330A (ja) * | 2001-04-27 | 2002-11-15 | Sony Corp | 映像表示装置 |
JP2003279882A (ja) * | 2002-03-22 | 2003-10-02 | Victor Co Of Japan Ltd | ヘッドマウントディスプレイ装置 |
JP2005311754A (ja) * | 2004-04-22 | 2005-11-04 | Canon Inc | 撮像カメラと瞳位置検知機能を備えた頭部装着型映像表示装置 |
CN101589329A (zh) * | 2007-11-21 | 2009-11-25 | 松下电器产业株式会社 | 显示装置 |
CN102375235A (zh) * | 2010-08-18 | 2012-03-14 | 索尼公司 | 显示设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5714967A (en) | 1994-05-16 | 1998-02-03 | Olympus Optical Co., Ltd. | Head-mounted or face-mounted image display apparatus with an increased exit pupil |
JPH09304728A (ja) * | 1996-05-15 | 1997-11-28 | Sony Corp | 光学視覚装置 |
JPH09322199A (ja) * | 1996-05-29 | 1997-12-12 | Olympus Optical Co Ltd | 立体映像ディスプレイ装置 |
JP2009116196A (ja) | 2007-11-08 | 2009-05-28 | Canon Inc | 画像表示装置 |
US8941559B2 (en) * | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
-
2013
- 2013-07-17 US US14/415,316 patent/US9835864B2/en active Active
- 2013-07-17 CN CN201380037860.6A patent/CN104508538B/zh active Active
- 2013-07-17 WO PCT/JP2013/069378 patent/WO2014017348A1/ja active Application Filing
- 2013-07-17 JP JP2014526871A patent/JP6248931B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07311361A (ja) * | 1994-05-16 | 1995-11-28 | Olympus Optical Co Ltd | 眼球投影型映像表示装置 |
JP2002328330A (ja) * | 2001-04-27 | 2002-11-15 | Sony Corp | 映像表示装置 |
JP2003279882A (ja) * | 2002-03-22 | 2003-10-02 | Victor Co Of Japan Ltd | ヘッドマウントディスプレイ装置 |
JP2005311754A (ja) * | 2004-04-22 | 2005-11-04 | Canon Inc | 撮像カメラと瞳位置検知機能を備えた頭部装着型映像表示装置 |
CN101589329A (zh) * | 2007-11-21 | 2009-11-25 | 松下电器产业株式会社 | 显示装置 |
CN102375235A (zh) * | 2010-08-18 | 2012-03-14 | 索尼公司 | 显示设备 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11210858B2 (en) | 2015-08-24 | 2021-12-28 | Pcms Holdings, Inc. | Systems and methods for enhancing augmented reality experience with dynamic output mapping |
US11544031B2 (en) | 2015-10-08 | 2023-01-03 | Pcms Holdings, Inc. | Methods and systems of automatic calibration for dynamic display configurations |
CN108139803A (zh) * | 2015-10-08 | 2018-06-08 | Pcms控股公司 | 用于动态显示器配置的自动校准的方法及*** |
US11868675B2 (en) | 2015-10-08 | 2024-01-09 | Interdigital Vc Holdings, Inc. | Methods and systems of automatic calibration for dynamic display configurations |
CN105391997B (zh) * | 2015-11-05 | 2017-12-29 | 广东未来科技有限公司 | 立体显示装置的三维视点校正方法 |
CN105391997A (zh) * | 2015-11-05 | 2016-03-09 | 广东未来科技有限公司 | 立体显示装置的三维视点校正方法 |
CN105898275A (zh) * | 2016-04-28 | 2016-08-24 | 乐视控股(北京)有限公司 | 虚拟现实图像校准方法及装置 |
CN108153417A (zh) * | 2017-12-25 | 2018-06-12 | 北京凌宇智控科技有限公司 | 画面补偿方法及采用该方法的头戴式显示装置 |
US11741673B2 (en) | 2018-11-30 | 2023-08-29 | Interdigital Madison Patent Holdings, Sas | Method for mirroring 3D objects to light field displays |
CN113260427A (zh) * | 2019-01-11 | 2021-08-13 | 环球城市电影有限责任公司 | 掉落检测***和方法 |
TWI730573B (zh) * | 2019-01-15 | 2021-06-11 | 日商藍光科技股份有限公司 | 可穿戴式影像顯示裝置 |
US11675196B2 (en) | 2019-01-15 | 2023-06-13 | Blue Optech Co., Ltd. | Wearable device with image display module |
CN112255800A (zh) * | 2020-11-09 | 2021-01-22 | Oppo广东移动通信有限公司 | 图像显示的控制方法及增强现实设备、装置、计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2014017348A1 (ja) | 2014-01-30 |
JP6248931B2 (ja) | 2017-12-20 |
US20150198808A1 (en) | 2015-07-16 |
US9835864B2 (en) | 2017-12-05 |
CN104508538B (zh) | 2018-06-22 |
JPWO2014017348A1 (ja) | 2016-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104508538A (zh) | 图像显示装置及图像显示方法 | |
US10670880B2 (en) | Image display apparatus and image display method | |
US20220150466A1 (en) | Virtual image display device and head mounted display using same | |
JP4686586B2 (ja) | 車載用表示装置及び表示方法 | |
US11200646B2 (en) | Compensation for deformation in head mounted display systems | |
US8130261B2 (en) | System and method for dynamically correcting parallax in head borne video systems | |
CN102791509B (zh) | 图像位置调节装置 | |
JP6516234B2 (ja) | 立体画像表示装置 | |
US10304253B2 (en) | Computer program, object tracking method, and display device | |
JP6492531B2 (ja) | 表示装置、及び、表示装置の制御方法 | |
WO2013145147A1 (ja) | ヘッドマウントディスプレイ及び表示方法 | |
JP2001211403A (ja) | 頭部装着型表示装置及び頭部装着型表示システム | |
EP2736256A1 (en) | Method of displaying three-dimensional image and three-dimensional image display apparatus performing the same | |
JP2018170554A (ja) | ヘッドマウントディスプレイ | |
JP2018182570A (ja) | 視線情報共有方法および視線情報共有システム | |
US20160131914A1 (en) | Head-mounted display system including an eye-tracker system and means for adaptation of the images emitted | |
WO2012176683A1 (ja) | 画像表示装置および画像表示システム | |
JP2009006968A (ja) | 車両用表示装置 | |
JP6314339B2 (ja) | 眼鏡型表示装置 | |
JP6347067B2 (ja) | 眼鏡型表示装置 | |
CN117294823A (zh) | 显示方法、设备、存储介质及交通工具 | |
KR101451859B1 (ko) | 이미지 처리 장치 및 그 방법 | |
CN115509007A (zh) | 增强现实显示设备与方法 | |
KR20170123980A (ko) | 복시를 해소한 헤드업 디스플레이 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |