WO2017026371A1 - ヘッドマウントディスプレイ - Google Patents

ヘッドマウントディスプレイ Download PDF

Info

Publication number
WO2017026371A1
WO2017026371A1 PCT/JP2016/072967 JP2016072967W WO2017026371A1 WO 2017026371 A1 WO2017026371 A1 WO 2017026371A1 JP 2016072967 W JP2016072967 W JP 2016072967W WO 2017026371 A1 WO2017026371 A1 WO 2017026371A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
unit
eye
display unit
hmd
Prior art date
Application number
PCT/JP2016/072967
Other languages
English (en)
French (fr)
Inventor
学 石岡
正太郎 只
俊宏 楠
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to JP2017534399A priority Critical patent/JP6474900B2/ja
Priority to CN201680045546.6A priority patent/CN107852474B/zh
Priority to US15/747,269 priority patent/US10635901B2/en
Priority to EP16835068.4A priority patent/EP3337164B1/en
Priority to KR1020187003038A priority patent/KR102091055B1/ko
Publication of WO2017026371A1 publication Critical patent/WO2017026371A1/ja
Priority to US16/821,096 priority patent/US11126840B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Definitions

  • the present invention relates to a head mounted display.
  • the user's eye position and line-of-sight direction can be obtained from the user's eye image captured by the camera.
  • Techniques for detecting are known.
  • JP-T-2015-508182 JP 2002-301030 A Japanese Patent Laid-Open No. 9-12759 Special table 2012-515579 gazette
  • the user When photographing the eyes of the user wearing the head-mounted display, the user places the display unit in a space between the optical system arranged between the display unit and the user's eye and the user's eye. Cameras are installed at positions that do not interfere with viewing (for example, at the top or bottom of the optical system).
  • the distance between the user's eye wearing the head-mounted display and the optical system is close.
  • the size of the optical system is large in order to widen the visual field of the user. Then, the shooting angle of the camera with respect to the user's eyes becomes shallow, and there arises a problem that it is difficult to shoot the user's eyes because the eyelids, eyelashes and the like are obstructive.
  • the present invention has been made in view of the above problems, and one of its purposes is to provide a head-mounted display that can easily photograph the eyes of a user wearing the head-mounted display.
  • a head-mounted display worn by a user includes a display unit disposed in front of the user's eyes, and an optical unit disposed between the display unit and the user's eyes. And an imaging unit that is disposed between the display unit and the optical system and captures the display unit on which an image of the user's eye is reflected.
  • the head mounted display further includes a light irradiating unit that irradiates light to the user's eyes, and the imaging unit receives light emitted from the light irradiating unit.
  • An image of the user's eyes reflected on the display unit may be captured by reflection with the eyes.
  • the light irradiation unit may be disposed between the optical system and the user's eye, and may directly irradiate light to the user's eye.
  • the light irradiation unit may be disposed between the display unit and the optical system, and may irradiate the eyes of the user with reflected light reflected by the light irradiated on the display unit.
  • the light irradiation unit may be an infrared camera that irradiates infrared light
  • the imaging unit is capable of imaging the infrared light.
  • it may further include a line-of-sight detection unit that detects a line-of-sight direction of the user based on an image including an image of the user's eye captured by the imaging unit.
  • FIG. 1 shows an example of the hardware constitutions of the head mounted display which concerns on one Embodiment of this invention. It is the schematic which shows the 1st example of a structure of HMD which concerns on this embodiment. It is the schematic which shows the structure of HMD which concerns on contrast. It is the schematic which shows the 2nd example of a structure of HMD which concerns on this embodiment. It is the schematic which shows the 1st modification of a structure of HMD which concerns on this embodiment. It is the schematic which shows the 2nd modification of a structure of HMD which concerns on this embodiment.
  • FIG. 1 is a diagram illustrating an example of a hardware configuration of a head mounted display (HMD) 10 according to an embodiment of the present invention.
  • FIG. 2 is a schematic diagram illustrating a first example of the configuration of the HMD 10 according to the present embodiment.
  • HMD head mounted display
  • the HMD 10 includes, for example, a control unit 11, a storage unit 12, an input / output unit 13, a display unit 14, a light irradiation unit 15, and an imaging unit 16.
  • the control unit 11 includes a program control device such as a CPU, and executes various types of information processing according to programs stored in the storage unit 12.
  • the storage unit 12 includes a memory element such as a RAM or a ROM, and stores a program executed by the control unit 11.
  • the storage unit 12 also functions as a work memory for the control unit 11.
  • the input / output unit 13 is an input / output interface such as an HDMI (registered trademark) port or a USB port.
  • the display unit 14 is a display such as a liquid crystal display or an organic EL display.
  • the display unit 14 according to the present embodiment includes, for example, a video represented by a video signal received from an entertainment device such as a home game machine, a DVD player, or a Blue-ray (registered trademark) player connected via the input / output unit 13. Is displayed.
  • an entertainment device such as a home game machine, a DVD player, or a Blue-ray (registered trademark) player connected via the input / output unit 13. Is displayed.
  • the display unit 14 according to the present embodiment may be capable of displaying a three-dimensional image.
  • the light irradiation unit 15 is an optical element such as an LED.
  • the light irradiation part 15 which concerns on this embodiment irradiates light of wavelength bands other than visible light bands, such as infrared light, it is not limited to this example, It is good also as irradiating light of visible light bands. .
  • the imaging unit 16 is a camera such as a digital camera that generates an image obtained by imaging a subject.
  • the imaging unit 16 according to the present embodiment is an infrared camera capable of imaging infrared light, but is not limited to this example and may be a camera capable of imaging visible light.
  • the imaging unit 16 according to the present embodiment is arranged so that the display unit 14 can be imaged, and an image 40 of the user's eye obtained by infrared light reflected by the user's eye 30 is obtained.
  • the display unit 14 is imaged.
  • the imaging unit 16 may capture the display unit 14 in which an image 40 of the user's eyes obtained by visible light reflected by the user's eyes 30 is reflected.
  • control unit 11 detects the position of the user's eyes and the user's line-of-sight direction from the image including the user's eye image 40 captured by the imaging unit 16.
  • the control unit 11 detects the position and line-of-sight direction of the user's eyes using a known line-of-sight detection technique. For example, the control unit 11 detects the position of the user's eyes and the user's line-of-sight direction based on the positional relationship between the base point obtained by reflecting infrared light on the user's cornea and the user's pupil.
  • the control part 11 may detect a user's eye position and a user's gaze direction based on the position of an iris or a pupil.
  • the imaging unit 16 may have a function of detecting the position of the user's eyes and the user's line-of-sight direction.
  • the position of the user's eye and the user's line-of-sight direction detected from the image including the user's eye image 40 captured by the imaging unit 16 can be applied to the calibration of the HMD 10 and the user's line-of-sight tracking function.
  • the calibration of the HMD 10 is to adjust the display position of the video on the display unit 14 when the HMD 10 is started or when the application is started.
  • the user in the display unit 14 uses the detected eye position of the user.
  • the image can be adjusted to be displayed at the eye position.
  • gaze tracking function of the HMD 10 for example, gaze tracking can be performed using the detected gaze direction of the user.
  • an image including the user's eye image 40 captured by the imaging unit 16 may be transmitted to an external information processing apparatus via the input / output unit 13.
  • the position of the user's eyes and the user's line-of-sight direction may be detected using an image including the user's eye image 40 received by the external information processing apparatus.
  • a state in which the user is wearing the HMD 10 is illustrated.
  • a display unit 14 and an optical system 17 including at least one optical member such as a mirror, a lens, and a prism are disposed in front of the user's eyes. That is, the optical system 17 is disposed in front of the user's eyes, and the display unit 14 is disposed in front of the user's eyes 30 via the optical system 17. Further, if the distance from the display unit 14 to the optical system 17 is X and the distance from the optical system 17 to the user's eye 30 is Y, the distance Y is shorter than the distance X.
  • the distance Y tends to be short in the HMD 10 worn by the user.
  • the video light output from the display unit 14 passes through the optical system 17 and enters the user's eyes 30, so that the user views the video displayed on the display unit 14. be able to.
  • the light irradiation unit 15 is disposed between the optical system 17 and the user's eye 30 and irradiates the user's eye 30 with infrared light.
  • the imaging unit 16 is a camera capable of imaging infrared light, and is disposed between the display unit 14 and the optical system 17 and facing the display unit 14.
  • the vertical distance between the imaging unit 16 and the straight line incident on the display unit 14 from the user's eye 30 is H1
  • the vertical distance between the display unit 14 and the imaging unit 16 is L1.
  • the infrared light irradiated by the light irradiation unit 15 on the user's eye 30 is reflected by the user's eye 30, and the reflected light passes through the optical system 17 and is displayed.
  • the imaging part 16 images the display part 14 in which the image 40 of a user's eye by infrared light is reflected.
  • the user's eye image 40 by infrared light only needs to indicate a base point obtained by reflection of infrared light by the user's cornea and the user's pupil, and the imaging unit 16 may A part of the display unit 14 on which the image 40 of the user's eye is reflected may be arranged so as to be imaged.
  • the shooting angle with respect to the user's eye image 40 displayed on the display unit 14 by the imaging unit 16 is ⁇ 1 .
  • the photographing angle ⁇ 1 with respect to the center of the user's eye image 40 shown on the display unit 14 is shown as an example.
  • FIG. 3 is a schematic diagram showing the configuration of the HMD 110 according to the comparison.
  • a display unit 114 and an optical system 117 including at least one optical member such as a mirror, a lens, and a prism are arranged in front of the user's eyes. That is, the optical system 117 is disposed in front of the user's eyes, and the display unit 114 is disposed in front of the user's eyes 130 via the optical system 117.
  • the light irradiation unit 115 is disposed between the optical system 117 and the user's eye 130 and irradiates the user's eye 130 with infrared light.
  • the imaging unit 116 is a camera capable of imaging infrared light, and is disposed between the optical system 117 and the user's eye 130 toward the user's eye 130.
  • the display unit 114, the light irradiation unit 115, the imaging unit 116, and the optical system 117 of the HMD 110 according to the comparative example illustrated in FIG. 3 are respectively the display unit 14 and the light irradiation of the HMD 10 according to the present embodiment illustrated in FIG.
  • the infrared light irradiated by the light irradiation unit 115 on the user's eye 130 is reflected by the user's eye 130, and the reflected light enters the imaging unit 116.
  • the imaging unit 116 of the HMD 110 that is proportional to each other can capture the base point obtained by reflecting the infrared light irradiated by the light irradiation unit 115 from the cornea of the user and the user's pupil.
  • the imaging angle relative to the eye 130 of the user by the imaging unit 116 becomes theta 2.
  • the photographing angle ⁇ 2 with respect to the center of the user's eye 130 is shown as an example.
  • the HMD 10 according to the present embodiment shown in FIG. 2 is compared with the HMD 110 according to the comparison shown in FIG.
  • the imaging unit 16 is arranged at a position where it is easy to capture the user's eye image 40 displayed on the display unit 14 and does not hinder viewing of the video displayed on the display unit 14 by the user. It is preferable.
  • the imaging unit 16 is disposed at a position close to the optical system 17 and at the end of the optical system 17. That is, the vertical distance L1 between the display unit 14 and the imaging unit 16 in the HMD 10 according to the present embodiment is a value close to the distance X.
  • the vertical distance H1 between the straight line incident on the display unit 14 from the user's eye 30 and the imaging unit 16 is a value corresponding to the size of the optical system 17 and the position of the user's eye. It will be about half of that.
  • the imaging unit 116 is preferably arranged at a position where it is easy to capture the user's eye 130 and does not hinder viewing of the video displayed on the display unit 114 by the user.
  • the imaging unit 16 is disposed at a position close to the optical system 117 and at the end of the optical system 117. That is, the vertical distance L2 between the user's eye 30 and the imaging unit 116 in the proportional HMD 110 is a value close to the distance Y.
  • the vertical distance H2 between the straight line incident on the display unit 114 from the user's eye 130 and the imaging unit 116 is a value corresponding to the size of the optical system 117 and the position of the user's eye, for example, the height of the optical system 117. It will be about half of that. Note that, in the HMD 110 according to the comparison shown in FIG. 3, as the distance Y becomes shorter and the size of the optical system 117 becomes larger, the imaging angle ⁇ 2 with respect to the user's eye 130 by the imaging unit 116 becomes shallower. Becomes an obstacle to imaging.
  • the vertical distance H1 in the HMD 10 according to the present embodiment is substantially the same as the vertical distance H2 in the HMD 110 according to the comparative example. Further, the vertical distance L1 in the HMD 10 according to the present embodiment is longer than the vertical distance L2 in the HMD 110 according to the comparative example. Therefore, the shooting angle ⁇ 1 of the user's eye image 40 displayed on the display unit 14 by the imaging unit 16 according to the present embodiment is larger than the shooting angle ⁇ 2 of the proportional imaging unit 116 with respect to the user's eye 130. As described above, the imaging unit 16 according to the present embodiment captures the display unit 14 on which the user's eye image 40 is reflected, so that the imaging angle of the imaging unit 16 with respect to the user's eye image 40 can be increased. This makes it easier to capture the eye image 40.
  • the vertical distance H1 in the HMD 10 according to this embodiment is substantially the same as the vertical distance H2 in the HMD 110 according to the proportionality
  • the vertical distance L1 in the HMD 10 according to the present embodiment is the HMD110 according to the proportionality.
  • the present invention is not limited to this example.
  • the vertical distance H1 in the HMD 10 according to the present embodiment may be greater than half the height of the optical system 17.
  • the vertical distance L1 in the HMD 10 according to the present embodiment may be shorter than the distance X or shorter than the distance Y.
  • the imaging unit 16 captures the display unit 14 on which the image 40 of the user's eyes is reflected, so that the user's eyelashes and eyelids such as the HMD 110 according to the comparison can be obtained. Since there is no obstacle to imaging, it becomes easier to capture the user's eye image 40.
  • the imaging unit 16 captures the display unit 14 in which the image 40 of the user's eye is reflected by infrared light, so that the image of the user's eye can be displayed even during the period when the video received from the entertainment device is displayed on the display unit 14.
  • 40 can be imaged. That is, by irradiating the user's eyes with infrared light, the user's eye image 40 can be displayed on the display unit 14 without interfering with the image displayed on the display unit 14.
  • the control unit 11 can detect the position of the user's eyes and the user's gaze direction, and can perform calibration and gaze tracking.
  • a line-of-sight input operation as a user input operation that is received while an image received from the entertainment apparatus is displayed on the display unit 14, and the entertainment apparatus uses the user's eye position and the user's line-of-sight direction. It is possible to execute processing related to the input operation according to
  • the imaging unit 16 may be a camera capable of imaging visible light.
  • the imaging unit 16 extracts an image 40 of the user's eye using infrared light by performing image processing such as filtering processing on the image obtained by imaging the display unit 14.
  • the imaging unit 16 may be a camera capable of imaging visible light and the light irradiation unit 15 may not be arranged. Even when the light irradiation unit 15 is not disposed, the reflected light obtained by reflecting the visible light by the user's eyes 30 passes through the optical system 17 and enters the display unit 14, thereby allowing the user to receive visible light. Is displayed on the display unit 14. And it is good also as imaging part 16 picturizing display part 14 in which user's eye image 40 by visible light is reflected.
  • the imaging unit 16 captures the display unit 14 in which the image 40 of the user's eyes by visible light is reflected, it is preferably performed during a period in which the video received from the entertainment device is not displayed on the display unit 14.
  • FIG. 4 is a schematic diagram illustrating a second example of the configuration of the HMD 10 according to the present embodiment.
  • the HMD 10 according to the present embodiment illustrated in FIG. 4 is different in the position of the light irradiation unit 15 of the HMD 10 according to the present embodiment illustrated in FIG.
  • the light irradiation unit 15 of the HMD 10 according to the present embodiment illustrated in FIG. 4 is disposed between the display unit 14 and the optical system 17 and irradiates the display unit 14 with infrared light such as an infrared laser. Since the other configuration is the same as that of the HMD 10 according to the present embodiment shown in FIG. 2, the overlapping description is omitted here.
  • the infrared light irradiated by the light irradiation unit 15 on the display unit 14 is reflected by the display unit 14, and the reflected light passes through the optical system 17 to the user's eyes.
  • 30 is irradiated.
  • the infrared light irradiated with respect to the user's eyes 30 is reflected by the user's eyes 30, and the reflected light again passes through the optical system 17 and enters the display unit 14, whereby the user's eyes due to the infrared light.
  • An eye image 40 is displayed on the display unit 14. Then, the imaging unit 16 captures the display unit 14 on which the user's eye image 40 is reflected.
  • the reflected light obtained by reflecting the infrared light applied to the display unit 14 is applied to the user's eye 30 so that the user's eye 30 is irradiated with infrared light from the front. Will be incident. Accordingly, since the user's eye image 40 is easily reflected on the display unit 14, the imaging unit 16 can easily capture the display unit 14 on which the user's eye image 40 is reflected. Then, the accuracy of detection of the position of the user's eyes and the user's line-of-sight direction by the control unit 11 is improved.
  • the configuration of the HMD 10 shown in FIGS. 2 and 4 is merely an example, and is not limited to this example.
  • an example in which the light irradiation unit 15 and the imaging unit 16 are disposed above the HMD 10 in FIGS. 2 and 4 is illustrated.
  • the light irradiation unit 15 and the imaging unit 16 may be disposed below the HMD 10. It may be arranged on the side. These arrangements may be appropriately set according to the characteristics of the display unit 14 and the optical system 17, the distance X from the display unit 14 to the optical system 17, the distance X2 from the optical system 17 to the user's eye 30, and the like.
  • FIG. 5 is a schematic diagram illustrating a first modification of the configuration of the HMD 10 according to the present embodiment.
  • FIG. 5 shows a state where the user is wearing the HMD 10.
  • the optical system 17 is disposed in front of the user's eyes, and the imaging unit 16 is disposed in front of the user's eyes 30 via the optical system 17.
  • the optical system 17 includes a mirror 27 that reflects visible light and transmits infrared light, and is disposed between the imaging unit 16 and the user's eye 30.
  • the display unit 14 is arranged so that the image light output from the display unit 14 is reflected by the mirror 27 and enters the user's eye 30.
  • the light irradiation unit 15 is disposed between the optical system 17 and the user's eye 30 and irradiates the user's eye 30 with infrared light.
  • the imaging unit 16 is an infrared camera capable of imaging infrared light.
  • the infrared light irradiated to the user's eye 30 by the light irradiation unit 15 is reflected by the user's eye 30, and the reflected light passes through the mirror 27 and is captured by the imaging unit 16. Is incident on. Thereby, the imaging unit 16 can image the user's eye 30 from the front with respect to the user's eye 30.
  • FIG. 6 is a schematic diagram illustrating a second modification of the configuration of the HMD 10 according to the present embodiment.
  • the HMD 10 according to the modification shown in FIG. 6 is different in the position of the light irradiation unit 15 of the HMD 10 according to the modification shown in FIG.
  • the light irradiation unit 15 of the HMD 10 according to the modification shown in FIG. 6 is disposed in front of the user's eyes via the optical system 17. Since the other configuration is the same as that of the HMD 10 according to the modification shown in FIG. 5, the overlapping description is omitted here.
  • the infrared light irradiated by the light irradiation unit 15 passes through the mirror 27 and is irradiated to the user's eye 30. Then, the infrared light applied to the user's eye 30 is reflected by the user's eye 30, and the reflected light passes through the mirror 27 and enters the imaging unit 16. Thereby, the light irradiation unit 15 can irradiate the user's eye 30 with infrared light from the front, and the imaging unit 16 can image the user's eye 30 from the front. .

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

ヘッドマウントディスプレイを装着するユーザの眼を撮影しやすいヘッドマウントディスプレイを提供する。ユーザに装着されるHMD(10)は、ユーザの眼前に配置される表示部(14)と、表示部(14)とユーザの眼(30)との間に配置される光学系(17)と、表示部(14)と光学系(17)との間に配置され、ユーザの眼の像(40)が映る表示部(14)を撮像する撮像部(16)と、を含む。

Description

ヘッドマウントディスプレイ
 本発明は、ヘッドマウントディスプレイに関する。
 特許文献1~4に記載されているようなユーザの頭部に装着して映像等を視聴するヘッドマウントディスプレイ等において、カメラで撮影したユーザの眼の画像から、ユーザの眼の位置や視線方向を検出する技術が知られている。
特表2015-508182号公報 特開2002-301030号公報 特開平9-127459号公報 特表2012-515579号公報
 ヘッドマウントディスプレイを装着するユーザの眼を撮影する際は、表示部とユーザの眼との間に配置される光学系と、当該ユーザの眼と、の間の空間であってユーザが表示部を見るのに邪魔にならない位置(例えば光学系の上部や下部)にカメラが設置される。
 ここで、頭部に装着するヘッドマウントディスプレイにおいては、ヘッドマウントディスプレイを装着するユーザの眼と光学系との距離は近くなる。また、ユーザの視野を広くするために光学系のサイズは大きい方が好ましいという実情もある。そうするとユーザの眼に対するカメラの撮影角度が浅くなり、まぶたやまつげ等が邪魔となってユーザの眼を撮影しにくいという問題が生じる。
 本発明は、上記課題に鑑みて為されたものであり、その目的の一つは、ヘッドマウントディスプレイを装着するユーザの眼を撮影しやすいヘッドマウントディスプレイを提供することにある。
 上記課題を解決するために、本発明に係るユーザに装着されるヘッドマウントディスプレイは、前記ユーザの眼前に配置される表示部と、前記表示部と前記ユーザの眼との間に配置される光学系と、前記表示部と前記光学系との間に配置され、前記ユーザの眼の像が映る前記表示部を撮像する撮像部と、を含む。
 本発明の一態様では、上記ヘッドマウントディスプレイは、前記ユーザの眼に対して光を照射する光照射部、をさらに含み、前記撮像部は、前記光照射部により照射された光が前記ユーザの眼で反射することで前記表示部に映る前記ユーザの眼の像を撮像する、こととしてもよい。
 この態様において、前記光照射部は、前記光学系と前記ユーザの眼との間に配置され、前記ユーザの眼に対して直接光を照射する、こととしてもよい。
 また、前記光照射部は、前記表示部と前記光学系との間に配置され、前記表示部に照射した光が反射する反射光を前記ユーザの眼に対して照射する、こととしてもよい。
 また、前記光照射部は赤外光を照射し、前記撮像部は前記赤外光を撮像可能な赤外線カメラである、こととしてもよい。
 また本発明の一態様では、前記撮像部により撮像された前記ユーザの眼の像を含む画像に基づいて当該ユーザの視線方向を検出する視線検出部、をさらに含む、こととしてもよい。
本発明の一実施形態に係るヘッドマウントディスプレイのハードウェア構成の一例を示す図である。 本実施形態に係るHMDの構成の第1の例を示す概略図である。 対比例に係るHMDの構成を示す概略図である。 本実施形態に係るHMDの構成の第2の例を示す概略図である。 本実施形態に係るHMDの構成の第1の変形例を示す概略図である。 本実施形態に係るHMDの構成の第2の変形例を示す概略図である。
 以下、本発明の一実施形態について、図面を参照しながら説明する。
 図1は、本発明の一実施形態に係るヘッドマウントディスプレイ(HMD)10のハードウェア構成の一例を示す図である。図2は、本実施形態に係るHMD10の構成の第1の例を示す概略図である。
 図1に示すように、本実施形態に係るHMD10は、例えば、制御部11、記憶部12、入出力部13、表示部14、光照射部15、及び撮像部16を含んで構成される。
 制御部11は、CPU等のプログラム制御デバイスを含み、記憶部12に記憶されたプログラムに従って各種の情報処理を実行する。
 記憶部12は、RAMやROM等のメモリ素子を含み、制御部11が実行するプログラム等を記憶する。また、記憶部12は制御部11のワークメモリとしても機能する。
 入出力部13は、例えばHDMI(登録商標)ポート、USBポート等の入出力インタフェースである。
 表示部14は、例えば液晶ディスプレイや有機ELディスプレイ等のディスプレイである。本実施形態に係る表示部14は、例えば入出力部13を介して接続される家庭用ゲーム機、DVDプレイヤ、Blue-ray(登録商標)プレイヤ等のエンタテインメント装置から受信する映像信号が表す映像などを表示させる。なお、本実施形態に係る表示部14は3次元映像を表示可能であってもよい。
 光照射部15は、例えばLED等の光学素子である。本実施形態に係る光照射部15は、赤外光といった可視光帯域以外の波長帯域の光を照射することとするが、この例に限定されず可視光帯域の光を照射することとしてもよい。
 撮像部16は、例えば被写体を撮像した画像を生成するデジタルカメラ等のカメラである。本実施形態に係る撮像部16は、赤外光を撮像可能な赤外線カメラとするが、この例に限定されず可視光を撮像可能なカメラであってもよい。また、図2に示すように本実施形態に係る撮像部16は、表示部14を撮像可能に配置されており、ユーザの眼30で反射する赤外光により得られるユーザの眼の像40が映る表示部14を撮像する。なお、撮像部16は、ユーザの眼30で反射する可視光により得られるユーザの眼の像40が映る表示部14を撮像することとしてもよい。
 また、制御部11は、撮像部16が撮像したユーザの眼の像40を含む画像からユーザの眼の位置やユーザの視線方向を検出する。制御部11は、公知の視線検出技術を用いてユーザの眼の位置や視線方向を検出することとする。例えば、制御部11は、赤外光がユーザの角膜に反射することで得られる基点とユーザの瞳孔との位置関係に基づいてユーザの眼の位置やユーザの視線方向を検出する。また、制御部11は、虹彩や瞳孔の位置に基づいてユーザの眼の位置やユーザの視線方向を検出してもよい。なお、撮像部16がユーザの眼の位置やユーザの視線方向を検出する機能を備えていてもよい。
 このように撮像部16が撮像したユーザの眼の像40を含む画像から検出されたユーザの眼の位置やユーザの視線方向は、HMD10のキャリブレーションやユーザの視線追跡機能に適用することができる。HMD10のキャリブレーションは、HMD10の起動時やアプリケーションの起動時などに、表示部14における映像の表示位置を調整するものであり、例えば検出されたユーザの眼の位置を用いて表示部14におけるユーザの眼の位置に映像が表示されるよう調整することができる。HMD10の視線追跡機能では、例えば検出されたユーザの視線方向を用いて視線追跡を行うことができる。
 なお、撮像部16が撮像したユーザの眼の像40を含む画像が、入出力部13を介して外部の情報処理装置へ送信されることとしてもよい。この場合、外部の情報処理装置が受信したユーザの眼の像40を含む画像を用いてユーザの眼の位置やユーザの視線方向を検出することとしてもよい。
 図2に示す本実施形態に係るHMD10の構成の第1の例では、ユーザがHMD10を装着している状態を示している。図2に示すように、本実施形態に係るHMD10では、ユーザの眼前に表示部14と、ミラー、レンズ、プリズム等の少なくとも1つの光学部材を含む光学系17とが配置される。つまり光学系17がユーザの眼前に配置され、表示部14が光学系17を介してユーザの眼30の正面に配置される。また、表示部14から光学系17までの距離をX、光学系17からユーザの眼30までの距離をYとすると、距離Yは距離Xより短くなる。特にユーザに装着されるHMD10では距離Yが短くなる傾向にある。このような本実施形態に係るHMD10では、表示部14から出力される映像光が光学系17を通過してユーザの眼30に入射することで、ユーザは表示部14に表示される映像を見ることができる。そして、光照射部15は、光学系17とユーザの眼30との間に配置され、ユーザの眼30に対して赤外光を照射する。撮像部16は、赤外光を撮像可能なカメラであり、表示部14と光学系17との間であって表示部14に向けて配置される。ここで、ユーザの眼30から表示部14に対し垂直に入射する直線と撮像部16との垂直距離をH1、表示部14と撮像部16との垂直距離をL1とする。
 図2に示す本実施形態に係るHMD10では、光照射部15がユーザの眼30に対して照射した赤外光がユーザの眼30で反射し、その反射光が光学系17を通過して表示部14に入射することで赤外光によるユーザの眼の像40が表示部14に映る。そして撮像部16が、赤外光によるユーザの眼の像40が映る表示部14を撮像する。なお、赤外光によるユーザの眼の像40は、赤外光がユーザの角膜で反射することで得られる基点と、ユーザの瞳孔と、を示すものであればよく、撮像部16はこのようなユーザの眼の像40が映る表示部14の一部を撮像可能に配置されていてもよい。このようにして図2に示す本実施形態に係るHMD10では、撮像部16による表示部14に映るユーザの眼の像40に対する撮影角度はθとなる。なお、図2においては例として表示部14に映るユーザの眼の像40の中心に対する撮影角度θを示している。
 次に、図2に示す本実施形態に係るHMD10との対比例について説明する。図3は、対比例に係るHMD110の構成を示す概略図である。図3に示す対比例に係るHMD110では、ユーザの眼前に表示部114と、ミラー、レンズ、プリズム等の少なくとも1つの光学部材を含む光学系117とが配置される。つまり光学系117がユーザの眼前に配置され、表示部114が光学系117を介してユーザの眼130の正面に配置される。そして、光照射部115は、光学系117とユーザの眼130との間に配置され、ユーザの眼130に対して赤外光を照射する。撮像部116は、赤外光を撮像可能なカメラであり、光学系117とユーザの眼130との間であってユーザの眼130に向けて配置される。なお、図3に示す対比例に係るHMD110の表示部114、光照射部115、撮像部116、及び光学系117はそれぞれ、図2に示した本実施形態に係るHMD10の表示部14、光照射部15、撮像部16、及び光学系17と同一のものとする。したがって表示部114から光学系117までの距離X、及び光学系117からユーザの眼130までの距離Yについても、図2に示した本実施形態に係るHMD10と同一とする。
 図3に示す対比例に係るHMD110では、光照射部115がユーザの眼130に対して照射した赤外光がユーザの眼130で反射し、その反射光が撮像部116に入射する。このようにして対比例に係るHMD110の撮像部116は、光照射部115が照射した赤外光がユーザの角膜で反射することで得られる基点と、ユーザの瞳孔と、を撮像することができる。そして図3に示す対比例に係るHMD110では、撮像部116によるユーザの眼130に対する撮影角度はθとなる。なお、図3においては例としてユーザの眼130の中心に対する撮影角度θを示している。
 ここで、図2に示す本実施形態に係るHMD10と、図3に示す対比例に係るHMD110とを比較する。
 まず本実施形態に係るHMD10において撮像部16は、表示部14に映るユーザの眼の像40を撮像しやすく、かつユーザによる表示部14に表示される映像の視聴の妨げにならない位置に配置されることが好ましい。例えば、図2に示すように本実施形態に係るHMD10において撮像部16は、光学系17に近い位置であって光学系17の端部に配置される。つまり本実施形態に係るHMD10における表示部14と撮像部16との垂直距離L1は距離Xに近い値となる。そしてユーザの眼30から表示部14に対し垂直に入射する直線と撮像部16との垂直距離H1は、光学系17のサイズとユーザの眼の位置とに応じた値となり例えば光学系17の高さの約半分となる。
 次に対比例に係るHMD110において撮像部116は、ユーザの眼130を撮像しやすく、かつユーザによる表示部114に表示される映像の視聴の妨げにならない位置に配置されることが好ましい。例えば、図3に示すように対比例に係るHMD110において撮像部16は、光学系117に近い位置であって光学系117の端部に配置される。つまり対比例に係るHMD110におけるユーザの眼30と撮像部116との垂直距離L2は距離Yに近い値となる。そしてユーザの眼130から表示部114に対し垂直に入射する直線と撮像部116との垂直距離H2は、光学系117のサイズとユーザの眼の位置とに応じた値となり例えば光学系117の高さの約半分となる。なお、図3に示す対比例に係るHMD110においては距離Yが短くなるほど、光学系117のサイズが大きくなるほど、撮像部116によるユーザの眼130に対する撮影角度θが浅くなりユーザのまつげやまぶた等が撮像の障害となる。
 このように図2及び図3において、本実施形態に係るHMD10における垂直距離H1は、対比例に係るHMD110における垂直距離H2とほぼ同一となる。また本実施形態に係るHMD10における垂直距離L1は、対比例に係るHMD110における垂直距離L2より長くなる。したがって、本実施形態に係る撮像部16による表示部14に映るユーザの眼の像40に対する撮影角度θは、対比例に係る撮像部116によるユーザの眼130に対する撮影角度θより大きくなる。このように、本実施形態に係る撮像部16がユーザの眼の像40が映る表示部14を撮像することで、ユーザの眼の像40に対する撮像部16の撮影角度を深くすることができユーザの眼の像40を撮影しやすくなる。
 また、上述の例では本実施形態に係るHMD10における垂直距離H1は、対比例に係るHMD110における垂直距離H2とほぼ同一であり、本実施形態に係るHMD10における垂直距離L1は、対比例に係るHMD110における垂直距離L2より長い例を示したが、この例に限定されるものではない。例えば、本実施形態に係るHMD10における垂直距離H1が光学系17の高さの半分より大きくてもよい。また本実施形態に係るHMD10における垂直距離L1が距離Xより短くてもよいし距離Yより短くてもよい。このような場合であっても、本実施形態に係る撮像部16がユーザの眼の像40が映る表示部14を撮像することで、対比例に係るHMD110のようなユーザのまつげやまぶた等の撮像の障害になるものがないのでユーザの眼の像40を撮像しやすくなる。
 さらに撮像部16が赤外光によるユーザの眼の像40が映る表示部14を撮像することで、表示部14にエンタテインメント装置から受信する映像等が表示されている期間にもユーザの眼の像40を撮像することが可能となる。つまりユーザの眼に赤外光を照射することで表示部14に表示される映像の邪魔にならずにユーザの眼の像40を表示部14に映すことが可能となる。これによりユーザがエンタテインメント装置から受信する映像等を視聴している間にも、制御部11はユーザの眼の位置やユーザの視線方向を検出可能となりキャリブレーションや視線追跡を行うことができる。そして、例えばエンタテインメント装置から受信する映像等を表示部14に表示している間に受け付けるユーザ入力操作として視線入力操作を利用することも可能となり、エンタテインメント装置がユーザの眼の位置やユーザの視線方向に応じた入力操作に関する処理を実行することができる。
 また、図2に示す本実施形態に係るHMD10において、撮像部16は可視光を撮像可能なカメラとしてもよい。この場合、撮像部16は表示部14を撮像して得られる画像に対してフィルタリング処理等の画像処理を行うことで赤外光によるユーザの眼の像40を抽出することとする。
 また、図2に示す本実施形態に係るHMD10において、撮像部16は可視光を撮像可能なカメラとしたうえで光照射部15を配置しないこととしてもよい。光照射部15を配置しない場合であっても、可視光がユーザの眼30で反射することで得られる反射光が、光学系17を通過して表示部14に入射することで可視光によるユーザの眼の像40が表示部14に映る。そして、撮像部16が可視光によるユーザの眼の像40が映る表示部14を撮像することとしてもよい。ここで、撮像部16が可視光によるユーザの眼の像40が映る表示部14を撮像する場合は、表示部14にエンタテインメント装置から受信する映像等が表示されていない期間に行うことが好ましい。
 図4は、本実施形態に係るHMD10の構成の第2の例を示す概略図である。図4に示す本実施形態に係るHMD10は、図2に示す本実施形態に係るHMD10の光照射部15の位置を異ならせたものである。図4に示す本実施形態に係るHMD10の光照射部15は、表示部14と光学系17との間に配置され、表示部14に対して赤外レーザといった赤外光を照射する。その他の構成は図2に示す本実施形態に係るHMD10と同様であるため、重複する説明はここでは省略する。
 図4に示す本実施形態に係るHMD10では、光照射部15が表示部14に対して照射した赤外光が表示部14で反射し、その反射光が光学系17を通過してユーザの眼30に対して照射される。そして、ユーザの眼30に対して照射された赤外光がユーザの眼30で反射し、その反射光が再び光学系17を通過して表示部14に入射することで赤外光によるユーザの眼の像40が表示部14に映る。そして、撮像部16がユーザの眼の像40が映る表示部14を撮像する。このように表示部14に対して照射された赤外光が反射することで得られる反射光がユーザの眼30に対して照射されることで、ユーザの眼30に対して正面から赤外光が入射されることとなる。したがってユーザの眼の像40が表示部14に映りやすくなるので、撮像部16はユーザの眼の像40が映る表示部14を撮像しやすくなる。そして制御部11によるユーザの眼の位置やユーザの視線方向の検出の精度が向上することとなる。
 なお、図2及び図4に示したHMD10の構成はあくまで一例であり、この例に限定されるものではない。上述の例では、図2及び図4においてHMD10の上方に光照射部15や撮像部16が配置されている例を示しているが、例えばHMD10の下方に配置されてもよいし、HMD10の側面側に配置されてもよい。これらの配置は、表示部14や光学系17の特性、表示部14から光学系17までの距離X、光学系17からユーザの眼30までの距離X2等に応じて適宜設定されてもよい。
[変形例]
 図5は、本実施形態に係るHMD10の構成の第1の変形例を示す概略図である。図5はユーザがHMD10を装着している状態を示している。図5に示す変形例に係るHMD10では、光学系17がユーザの眼前に配置され、撮像部16が光学系17を介してユーザの眼30の正面に配置される。光学系17は、可視光を反射し赤外光を透過するミラー27を含み、撮像部16とユーザの眼30との間に配置される。表示部14は、表示部14から出力される映像光がミラー27に反射してユーザの眼30に入射するように配置される。光照射部15は、光学系17とユーザの眼30との間に配置され、ユーザの眼30に対して赤外光を照射する。撮像部16は赤外光を撮像可能な赤外線カメラとする。
 図5に示す変形例に係るHMD10では、光照射部15がユーザの眼30に対して照射した赤外光がユーザの眼30で反射し、その反射光がミラー27を透過して撮像部16に入射する。これにより、撮像部16はユーザの眼30に対して正面からユーザの眼30を撮像することができる。
 図6は、本実施形態に係るHMD10の構成の第2の変形例を示す概略図である。図6に示す変形例に係るHMD10は、図5に示す変形例に係るHMD10の光照射部15の位置を異ならせたものである。図6に示す変形例に係るHMD10の光照射部15は光学系17を介してユーザの眼前に配置される。その他の構成は図5に示す変形例に係るHMD10と同様であるため、重複する説明はここでは省略する。
 図6に示す変形例に係るHMD10では、光照射部15が照射した赤外光がミラー27を透過してユーザの眼30に照射される。そして、ユーザの眼30に対して照射された赤外光がユーザの眼30で反射し、その反射光がミラー27を透過して撮像部16に入射する。これにより、光照射部15はユーザの眼30に対して正面から赤外光を照射することができ、撮像部16はユーザの眼30に対して正面からユーザの眼30を撮像することができる。
 

Claims (6)

  1.  ユーザに装着されるヘッドマウントディスプレイであって、
     前記ユーザの眼前に配置される表示部と、
     前記表示部と前記ユーザの眼との間に配置される光学系と、
     前記表示部と前記光学系との間に配置され、前記ユーザの眼の像が映る前記表示部を撮像する撮像部と、
     を含むことを特徴とするヘッドマウントディスプレイ。
  2.  前記ユーザの眼に対して光を照射する光照射部、をさらに含み、
     前記撮像部は、前記光照射部により照射された光が前記ユーザの眼で反射することで前記表示部に映る前記ユーザの眼の像を撮像する、
     ことを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3.  前記光照射部は、前記光学系と前記ユーザの眼との間に配置され、前記ユーザの眼に対して直接光を照射する、
     ことを特徴とする請求項2に記載のヘッドマウントディスプレイ。
  4.  前記光照射部は、前記表示部と前記光学系との間に配置され、前記表示部に照射した光が反射する反射光を前記ユーザの眼に対して照射する、
     ことを特徴とする請求項2に記載のヘッドマウントディスプレイ。
  5.  前記光照射部は赤外光を照射し、
     前記撮像部は前記赤外光を撮像可能な赤外線カメラである、
     ことを特徴とする請求項2から4のいずれか一項に記載のヘッドマウントディスプレイ。
  6.  前記撮像部により撮像された前記ユーザの眼の像を含む画像に基づいて当該ユーザの視線方向を検出する視線検出部、をさらに含む、
     ことを特徴とする請求項1から5のいずれか一項に記載のヘッドマウントディスプレイ。
PCT/JP2016/072967 2015-08-11 2016-08-04 ヘッドマウントディスプレイ WO2017026371A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017534399A JP6474900B2 (ja) 2015-08-11 2016-08-04 ヘッドマウントディスプレイ
CN201680045546.6A CN107852474B (zh) 2015-08-11 2016-08-04 头戴式显示器
US15/747,269 US10635901B2 (en) 2015-08-11 2016-08-04 Head-mounted display
EP16835068.4A EP3337164B1 (en) 2015-08-11 2016-08-04 Head-mounted display
KR1020187003038A KR102091055B1 (ko) 2015-08-11 2016-08-04 헤드 마운트 디스플레이
US16/821,096 US11126840B2 (en) 2015-08-11 2020-03-17 Head-mounted display

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015158976 2015-08-11
JP2015-158976 2015-08-11

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/747,269 A-371-Of-International US10635901B2 (en) 2015-08-11 2016-08-04 Head-mounted display
US16/821,096 Continuation US11126840B2 (en) 2015-08-11 2020-03-17 Head-mounted display

Publications (1)

Publication Number Publication Date
WO2017026371A1 true WO2017026371A1 (ja) 2017-02-16

Family

ID=57984508

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/072967 WO2017026371A1 (ja) 2015-08-11 2016-08-04 ヘッドマウントディスプレイ

Country Status (6)

Country Link
US (2) US10635901B2 (ja)
EP (1) EP3337164B1 (ja)
JP (2) JP6474900B2 (ja)
KR (1) KR102091055B1 (ja)
CN (1) CN107852474B (ja)
WO (1) WO2017026371A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018153370A1 (zh) * 2017-02-27 2018-08-30 阿里巴巴集团控股有限公司 虚拟现实头戴设备
WO2018153367A1 (zh) * 2017-02-27 2018-08-30 阿里巴巴集团控股有限公司 虚拟现实头戴设备
EP3561573A4 (en) * 2017-02-27 2019-12-25 Alibaba Group Holding Limited HEAD-MOUNTED DEVICE FOR VIRTUAL REALITY
WO2022113564A1 (ja) * 2020-11-26 2022-06-02 ソニーグループ株式会社 画像表示装置及び表示装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10545347B2 (en) * 2017-02-23 2020-01-28 Google Llc Compact eye tracking using folded display optics
CN112703441B (zh) * 2018-09-20 2023-06-13 索尼互动娱乐股份有限公司 显示***,程序,显示方法和头戴式设备
CN109031672A (zh) * 2018-10-19 2018-12-18 山东济大象外创新科技有限公司 一种具有视线追踪功能的近眼显示器
US10816810B1 (en) * 2019-04-08 2020-10-27 Htc Corporation Head mounted display apparatus
JPWO2020213509A1 (ja) 2019-04-19 2020-10-22
KR20220044767A (ko) 2019-08-09 2022-04-11 가부시키가이샤 한도오따이 에네루기 켄큐쇼 표시 장치의 동작 방법
JPWO2021084367A1 (ja) 2019-11-01 2021-05-06
FI130771B1 (fi) * 2020-07-03 2024-03-07 Seetrue Tech Oy Katseen seuranta
TWI792033B (zh) * 2020-08-10 2023-02-11 見臻科技股份有限公司 穿戴式眼動追蹤系統
JPWO2022038452A1 (ja) 2020-08-21 2022-02-24

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089205A (ja) * 1994-06-17 1996-01-12 Canon Inc 画像モニタ装置
JP2002328330A (ja) * 2001-04-27 2002-11-15 Sony Corp 映像表示装置
JP2008241822A (ja) * 2007-03-26 2008-10-09 Mitsubishi Electric Corp 画像表示装置
JP5824697B1 (ja) * 2014-12-27 2015-11-25 株式会社Fove ヘッドマウントディスプレイ
WO2015198477A1 (ja) * 2014-06-27 2015-12-30 株式会社Fove 視線検知装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09127459A (ja) 1995-11-02 1997-05-16 Canon Inc 視線検出系を有した表示装置
JP3717653B2 (ja) 1998-01-20 2005-11-16 株式会社リコー 頭部搭載型画像表示装置
GB9823977D0 (en) 1998-11-02 1998-12-30 Scient Generics Ltd Eye tracking method and apparatus
JP3460643B2 (ja) * 1999-09-29 2003-10-27 ミノルタ株式会社 デジタルカメラ
JP2002301030A (ja) 2001-04-09 2002-10-15 Canon Inc 視線検出機能付き機器
US6529331B2 (en) * 2001-04-20 2003-03-04 Johns Hopkins University Head mounted display with full field of view and high resolution
US7907150B2 (en) * 2003-08-09 2011-03-15 Doubleshot, Inc. Method of fusion or merging imagery data for improved visual perception using monoscopic and stereographic fusion and retinal decay techniques
US7432917B2 (en) * 2004-06-16 2008-10-07 Microsoft Corporation Calibration of an interactive display system
JP2006053321A (ja) 2004-08-11 2006-02-23 Olympus Corp 投影観察装置
WO2010083853A1 (en) * 2009-01-26 2010-07-29 Tobii Technology Ab Detection of gaze point assisted by optical reference signals
CA3043204C (en) * 2009-11-19 2021-08-31 Esight Corp. Apparatus and method for a dynamic "region of interest" in a display system
TWI490753B (zh) * 2010-04-06 2015-07-01 Hon Hai Prec Ind Co Ltd 觸控裝置
US20120176474A1 (en) * 2011-01-10 2012-07-12 John Norvold Border Rotational adjustment for stereo viewing
US9025252B2 (en) 2011-08-30 2015-05-05 Microsoft Technology Licensing, Llc Adjustment of a mixed reality display for inter-pupillary distance alignment
US9311883B2 (en) * 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
NZ719204A (en) * 2012-01-24 2017-11-24 Univ Arizona Compact eye-tracked head-mounted display
AU2013268518B2 (en) * 2012-06-01 2017-06-15 Dic Corporation Medical product that emits near-infrared fluorescence and medical-product usage-status ascertainment device
EP2903675B1 (en) 2012-10-02 2018-08-01 Koninklijke Philips N.V. Customizable cushion utilizing fitted plug inserts
JP6066676B2 (ja) 2012-11-06 2017-01-25 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイおよび映像提示システム
US9335547B2 (en) * 2013-03-25 2016-05-10 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
US10228561B2 (en) * 2013-06-25 2019-03-12 Microsoft Technology Licensing, Llc Eye-tracking system using a freeform prism and gaze-detection light
US9625723B2 (en) * 2013-06-25 2017-04-18 Microsoft Technology Licensing, Llc Eye-tracking system using a freeform prism
CN105637512B (zh) * 2013-08-22 2018-04-20 贝斯普客公司 用于创造定制产品的方法和***
TWI531817B (zh) 2014-01-16 2016-05-01 中強光電股份有限公司 虛像顯示模組與光學鏡頭
US10191279B2 (en) * 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9740280B2 (en) * 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US20160239985A1 (en) * 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH089205A (ja) * 1994-06-17 1996-01-12 Canon Inc 画像モニタ装置
JP2002328330A (ja) * 2001-04-27 2002-11-15 Sony Corp 映像表示装置
JP2008241822A (ja) * 2007-03-26 2008-10-09 Mitsubishi Electric Corp 画像表示装置
WO2015198477A1 (ja) * 2014-06-27 2015-12-30 株式会社Fove 視線検知装置
JP5824697B1 (ja) * 2014-12-27 2015-11-25 株式会社Fove ヘッドマウントディスプレイ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3337164A4 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018153370A1 (zh) * 2017-02-27 2018-08-30 阿里巴巴集团控股有限公司 虚拟现实头戴设备
WO2018153367A1 (zh) * 2017-02-27 2018-08-30 阿里巴巴集团控股有限公司 虚拟现实头戴设备
TWI661228B (zh) * 2017-02-27 2019-06-01 香港商阿里巴巴集團服務有限公司 Virtual reality headset
EP3567413A4 (en) * 2017-02-27 2019-12-18 Alibaba Group Holding Limited HEAD-CARRIED VIRTUAL REALITY APPARATUS
EP3561573A4 (en) * 2017-02-27 2019-12-25 Alibaba Group Holding Limited HEAD-MOUNTED DEVICE FOR VIRTUAL REALITY
JP2020518842A (ja) * 2017-02-27 2020-06-25 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited バーチャルリアリティーヘッドマウント装置
US11016293B2 (en) 2017-02-27 2021-05-25 Advanced New Technologies Co., Ltd. Virtual reality head-mounted apparatus
JP2022022421A (ja) * 2017-02-27 2022-02-03 アドバンスド ニュー テクノロジーズ カンパニー リミテッド バーチャル・リアリティー・ヘッドマウント装置
JP7071384B2 (ja) 2017-02-27 2022-05-18 アドバンスド ニュー テクノロジーズ カンパニー リミテッド バーチャルリアリティーヘッドマウント装置
US11523039B2 (en) 2017-02-27 2022-12-06 Advanced New Technologies Co., Ltd. Virtual reality head-mounted apparatus
JP7369173B2 (ja) 2017-02-27 2023-10-25 アドバンスド ニュー テクノロジーズ カンパニー リミテッド バーチャル・リアリティー・ヘッドマウント装置
WO2022113564A1 (ja) * 2020-11-26 2022-06-02 ソニーグループ株式会社 画像表示装置及び表示装置

Also Published As

Publication number Publication date
EP3337164A1 (en) 2018-06-20
JP6474900B2 (ja) 2019-02-27
KR102091055B1 (ko) 2020-03-20
JPWO2017026371A1 (ja) 2018-03-15
CN107852474B (zh) 2021-01-08
US20200218891A1 (en) 2020-07-09
US20180218211A1 (en) 2018-08-02
EP3337164B1 (en) 2021-10-27
CN107852474A (zh) 2018-03-27
US10635901B2 (en) 2020-04-28
JP2019080354A (ja) 2019-05-23
US11126840B2 (en) 2021-09-21
KR20180023983A (ko) 2018-03-07
EP3337164A4 (en) 2019-04-10

Similar Documents

Publication Publication Date Title
JP6474900B2 (ja) ヘッドマウントディスプレイ
US10817721B2 (en) Gaze detection device
TWI569040B (zh) 自動調焦頭戴式顯示裝置
JP4829221B2 (ja) ユーザの鏡像を表示することによってユーザを位置決めする装置、その位置決め方法、および画像捕捉装置
KR20180033222A (ko) 프리즘-기반 눈 추적
US10061384B2 (en) Information processing apparatus, information processing method, and program
JP2015013031A5 (ja)
JP2016036390A (ja) 情報処理装置、焦点検出方法、および焦点検出プログラム
US11650660B2 (en) Electronic device, control method, and non-transitory computer readable medium
US20230013134A1 (en) Electronic device
JP2016105555A (ja) ヘッドマウントディスプレイ装置、撮影制御方法、及びプログラム
JP6717330B2 (ja) 視線検出装置、該視線検出装置の制御方法、角膜反射像位置の検出方法、及びコンピュータプログラム
JP6780161B2 (ja) 視線検出装置及び視線検出方法
WO2021044763A1 (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
US20230094627A1 (en) Line-of-sight detection apparatus and image capturing apparatus
US11829530B2 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
JP2010249907A (ja) 撮影装置および撮像方法
WO2015049950A1 (ja) 表示装置および映像表示方法
KR20230065893A (ko) 전자기기, 그 제어 방법, 및 기억매체
JP2022113973A (ja) 表示方法、表示装置、及び、プログラム
CN116437180A (zh) 显示设备、取景器设备和摄像设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16835068

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017534399

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15747269

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20187003038

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE