WO2006057227A1 - 映像表示装置 - Google Patents

映像表示装置 Download PDF

Info

Publication number
WO2006057227A1
WO2006057227A1 PCT/JP2005/021408 JP2005021408W WO2006057227A1 WO 2006057227 A1 WO2006057227 A1 WO 2006057227A1 JP 2005021408 W JP2005021408 W JP 2005021408W WO 2006057227 A1 WO2006057227 A1 WO 2006057227A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
user
display device
imaging distance
image
Prior art date
Application number
PCT/JP2005/021408
Other languages
English (en)
French (fr)
Inventor
Haruhiko Yoshimeki
Hideaki Haraga
Tomoichi Toyoizumi
Takashi Igarashi
Tomoaki Tamura
Original Assignee
Konica Minolta Photo Imaging, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging, Inc. filed Critical Konica Minolta Photo Imaging, Inc.
Publication of WO2006057227A1 publication Critical patent/WO2006057227A1/ja

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7475Constructional details of television projection apparatus
    • H04N5/7491Constructional details of television projection apparatus of head mounted projectors

Definitions

  • the present invention relates to a video display device, and more specifically, a head mounted display (HMD), a head-up display (HMD) for projecting and displaying an optical image onto a viewer's eye using a hologram element.
  • the present invention relates to a video display device such as HUD (Head Up Display).
  • a head-mounted image display device such as an HMD or HUD includes an image projection means for projecting an optical image and an eyepiece optical means for guiding the optical image to a user's eye.
  • the projected optical image is guided to the user's eye through the eyepiece optical means, so that the user can observe the virtual image of the optical image.
  • the position of the virtual image displayed by such a video display device is set to be displayed at a predetermined position from the user's eyes. Therefore, the user needs to focus on the position where the virtual image is displayed when trying to observe the virtual image, and when the video display device is used for a long time, the headache may occur due to an increase in the load on the eyes. There was a medicinal problem, such as to do, and it was not always good to use and use!
  • an image display device capable of adjusting the position of a virtual image
  • an image display means for displaying an image an optical means for optically generating a virtual image of an image displayed on the image display means, and a virtual image
  • An image display comprising adjusting means for adjusting the position, position display means for displaying the position of the virtual image, and control means for automatically controlling the position of the power source or the virtual image in accordance with the position of the virtual image and its display time
  • Patent Document 1 Japanese Patent No. 3322283
  • the user himself / herself rotates the virtual image position adjusting knob to adjust the position of the virtual image to be displayed. If the distance to the object in the outside world and the position of the virtual image are different, there is a problem that it is difficult to view the object in the outside world and the virtual image at the same time.
  • the left and right eyes of a human cannot focus on a plurality of objects at different distances at the same time, it is difficult to visually recognize the objects with individual focal points at the same time. For this reason, it is impossible to visually recognize either a virtual image or a target object at a predetermined position (imaging distance). Accordingly, a virtual image (for example, a road guide image such as a map) cannot be visually recognized while visually recognizing an object (for example, a car or the like) while walking, which is not easy to use. Disclosure of the invention
  • the present invention provides a video display device provided with video projection means for projecting an optical image and eyepiece optical means for guiding the optical image projected from the video projection means to the eye, when the video display device is mounted.
  • An imaging distance detection means for obtaining an estimated value obtained by calculation based on an actual measurement value of an object distance, which is a distance to an external object recognized by a user, an intrinsic visual condition, or an extrinsic external condition;
  • a target imaging distance setting means for setting a target imaging distance corresponding to the object distance detected by the imaging distance detection means, and a target imaging distance set by the target imaging distance setting means.
  • an imaging distance control means for controlling the imaging distance of the optical image projected onto the eyepiece optical means.
  • FIG. 1 is an external view of a video display device 1 in the present embodiment.
  • FIG. 2 is a cross-sectional view of a prism 20R including a display unit 10.
  • FIG. 3 is an external view of another example of the video display device 1 in the present embodiment.
  • FIG. 4 is a control block diagram of video display device 1 in the present embodiment.
  • FIG. 5 is an example of a projection view inside a vehicle on which a user wearing the video display device 1 of the present embodiment is riding.
  • FIG. 6 is a conversion graph of the position of the display panel 13 with respect to the target imaging distance.
  • FIG. 7 is a conversion graph of viewing angle with respect to speed.
  • FIG. 8 is an operation flow for setting a target imaging distance in the present embodiment.
  • FIG. 9 is an operational flow of a process for calculating an object distance based on gaze detection that is a visual condition.
  • FIG. 10 An operation flow of the object distance calculation processing by the cornea and the lens measurement which is a visual condition.
  • Fig. 11 This is an operation flow of the object distance calculation process based on retinal image measurement, which is the visual condition.
  • FIG. 12 This is an operational flow of a calculation process of an object distance according to a relative speed change amount and a moving direction between a user and an external object, which are external conditions.
  • FIG. 1 shows an external view of a video display device 1 according to the present embodiment.
  • the video display device 1 includes a display unit 10, an image processing unit 40, and a data input unit 5.
  • control unit 60 pair of left and right prisms 20R, 20L, nose pad unit 31, pair of left and right temples 3
  • the display unit 10 is attached to a prism 20R positioned in front of the user's right eye.
  • FIG. 2 shows a cross-sectional view of the prism 20R including the display unit 10. As shown in FIG.
  • the display unit 10 is a video projection unit that projects an optical image, and includes a light source 11, a condenser lens 12, a display panel 13, a housing 14, and the like.
  • the light source 11 includes a light emitting diode (LED) and emits irradiation light to the display panel 13.
  • the condenser lens 12 condenses the light from the light source 11 and uniformly guides it to the entire display panel 13.
  • the display panel 13 also has a transmissive liquid crystal display (LCD) force, displays an image for display to the user, and is inclined with respect to the surface 21a of the first prism 21. Yes.
  • the housing 14 covers and holds the light source 11, the condenser lens 12, and the display panel 13.
  • the display panel 13 is supported by a drive mechanism (not shown) that is movable in the direction of the optical axis from the light source 11, and the LCD drive of the control unit 60 is performed. Driven based on the instruction signal, the relative distance to the condenser lens 12 is changed.
  • a drive mechanism for moving the display panel 13 in the optical axis direction a mechanism that can be miniaturized and driven with high precision is preferred. For example, a zoom impact drive mechanism (SIDM) can be used.
  • SIDM zoom impact drive mechanism
  • the prism 20L has a flat plate shape and is formed of a single member, whereas the prism 20R has a flat plate-like force like the prism 20L.
  • the first prism 21 does not have a single member.
  • the eyepiece optical means is composed of a second prism 22 and a hologram element 23 and guides an optical image projected from the display unit 10 to the eyes of the user.
  • the first prism 21 and the second prism 22 constituting the prism 20R have complementary shapes, and are joined so that there is no gap and the surface is continuous.
  • the prism 20L, the first prism 21, and the second prism 22 are made of the same material, and there is no difference in refractive index between these three.
  • the prisms 20R and 20L have a target shape like a general spectacle lens, except that the first prism 21 has an end portion that is not joined to the second prism 22.
  • the first prism 21 is made of transparent glass or resin.
  • the portion of the first prism 21 on the side irradiated with light from the display panel 13 has a wedge shape whose edge is thicker than the inner side, and the casing 14 sandwiches the upper end of the wedge shape. In this manner, the first prism 21 is attached.
  • the part shape of the first prism 21 joined to the second prism 22 is made so that the front surface (the surface where the eye E force is further away) approaches the rear surface (the surface close to the eye E) as the directional force is in the center of the prism 20R. It is wedge-shaped.
  • the front surface of this wedge-shaped part (the joint surface with the second prism 22) is a plane, and on this plane, the hologram element 23 is formed so as to be positioned immediately in front of the user's eye E when the image display device 1 is mounted. ing.
  • the first prism 21 guides the image light from the display panel 13 to the user's eye E and displays a virtual image of the image displayed on the display panel 13.
  • the first prism 21 guides the image light from the display panel 13 to the inside of the first prism 21 from the surface 21a, and guides it to the hologram element 23 while being totally reflected on the front surface and the rear surface a plurality of times.
  • the hologram element 23 diffracts the guided light into a light beam close to parallel light and makes it incident on the eye E. As a result, a virtual image of the image displayed on the display panel 23 is displayed on the user's eye E.
  • the hologram element 23 hardly acts on light from the outside world, and the virtual image is the center of the outside world image. It is an optical element that is observed while overlapping the part.
  • the user can see the outside through the first and second prisms 21 and 22 and the hologram element 23 when image observation is not performed.
  • first prism 21, the second prism 22, and the hologram element 23 constitute an eyepiece optical means having translucency.
  • Such an eyepiece optical means has a good see-through property, so the field of view is not disturbed. Even in the virtual image display part provided with the hologram element 23, the outside world can be seen beyond it. It is suitable for displaying car status, traffic information, etc. for actions that require judgment.
  • the line of sight is diverted to see a screen on which information such as the current position and direction of travel of the traveling car is displayed.
  • this eyepiece optical means reduces the possibility of being inadvertent forward.
  • the image processing unit 40 and the control unit 60 are replaced with the display unit 10 and the data input unit.
  • the force shown as a configuration provided with 50 The image processing unit 40 and the control unit 60 may be provided separately.
  • the video display device 1 of the present embodiment is configured to display an image on the right eye, but may be configured to display an image on the left eye. As shown, it is configured to display video on both eyes.
  • FIG. 3 shows an external view of another example of video display device 1 according to the present embodiment.
  • the video display device 1 shown in FIG. 3 includes a pair of display units 10, an image processing unit 40, and a data input unit 5
  • a control unit 60, and prisms 20R and 20L are provided to display an image on both the left and right eyes, and the configuration of each of the left and right units is the same as that of the image display device 1 shown in FIG.
  • FIG. 4 shows a control block diagram of video display device 1 in the present embodiment.
  • the video table device 1 is configured as shown in FIGS. 1 to 3, and includes a display unit 10, an image processing unit 40, a data input unit 50, a microphone 71, an earphone 72,
  • the communication unit 73 is connected to the control unit 60 so that they can communicate with each other.
  • the display unit 10 displays the processed image information !, emits image light as an optical image to the prism 20R, guides it to the user's eye E, and displays a virtual image of the image to the user
  • the display unit 10 functions as an LCD drive unit 13a as a drive mechanism that moves the display panel 13 in the optical axis direction based on an LCD drive instruction signal from the control unit 60. Is provided.
  • the image processing unit 40 includes a CPU (Central Processing Unit) that controls the entire image processing, a ROM (Read Only Memory) that stores a processing program, a RAM (Random Access Memory) that temporarily stores data, and the like.
  • Image processing such as gradation conversion, color conversion, sharpness processing, and image extraction! ⁇ Image processing is performed so that image information can be displayed as video.
  • the data input unit 50 includes a selection switch 51, a line-of-sight detection unit 52a, a distance measurement unit 52b, a cornea measurement unit 53a, a crystalline lens measurement unit 53b, a retinal image detection unit 54, a positioning unit 55, a seat position detection unit 56, It has an inter-vehicle distance detection unit 57, an engine drive detection unit 58, a power switch, a mounting detection sensor (not shown), and the like.
  • the data input unit 50 uses any one of the line-of-sight detection unit 52a and the distance measurement unit 52b, the cornea measurement unit 53a and the lens measurement unit 53b, the retinal image detection unit 54, and the positioning unit 55, and the video display device 1
  • the selection switch 51 selects whether or not to dynamically adjust the imaging distance of the virtual image displayed on the distance to the external object (hereinafter referred to as an object) focused by the user. It is a means. When the selection switch 51 is in the ON state, the imaging distance of the virtual image is dynamically set. When the selection switch 51 is in the OFF state, the virtual image is displayed at the preset imaging distance.
  • the line-of-sight detection unit 52a is line-of-sight detection means for detecting the eye movement of the user and detecting the direction of the line of sight.
  • an infrared light emitting unit, an infrared light receiving unit, an optical system, a calculation unit, etc. are provided.
  • the infrared light emitting unit emits infrared light to the user's eyeball, and the reflected light is received by the infrared light receiving unit. Based on the reflected image obtained from the light receiving unit, the center of the pupil can be extracted to detect the user's line of sight.
  • the distance measuring unit 52b is a distance measuring unit that measures the distance to an object existing in the line-of-sight direction detected by the line-of-sight detection unit 52a.
  • the distance to the object can be measured using the optical triangulation principle in the optical measurement method.
  • a light projecting unit, a light receiving unit, an optical system, a calculation unit, etc. are provided, and the ray is detected in the line-of-sight direction detected from the light projecting unit.
  • the light is reflected by the light receiving unit, and the distance to the object can be measured based on the principle of triangulation.
  • the distance measuring unit 52 is not limited to this as long as it can measure the distance to the target existing in the line-of-sight direction, and may use an ultrasonic measurement means.
  • the cornea measurement unit 53a is a cornea measurement unit that measures the curvature state (corneal curvature radius, curvature, etc.) of the user and detects the refractive power D1 of the cornea.
  • it has a light emitting unit, a light receiving unit, an optical system, a calculation unit, etc., and a light emitting unit force is applied to the user's cornea, and the light receiving unit receives the reflected light from the cornea.
  • the refractive power D1 of the cornea can be detected by a cornea meter that detects the curved state of the cornea based on the reflected image.
  • the crystalline lens measuring unit 53b is a crystalline lens measuring unit that measures the refractive index of the crystalline lens of the user and detects the refractive power D2 of the crystalline lens. For example, it has a light emitting part, a light receiving part, an optical system, a calculation part, etc., and a light emitting part force projects light toward the user's eyeball, and the projected light receives reflected light from the front and back surfaces of the crystalline lens. Can detect the refractive power D2 of the crystal based on the reflected image obtained from the light receiving portion.
  • the retinal image detection unit 54 is a retinal image detection unit that detects a retinal image of the user and detects the refractive power D3 of the entire eye of the user.
  • it has a light projecting unit, a light receiving unit, an optical system, a calculation unit, etc., projecting index light from the light projecting unit to the fundus of the user, and receiving the reflected image (retinal image) reflected from the fundus
  • the refractive power D3 of the entire eye of the user can be detected based on the reflected image (retinal image) obtained from the light receiving unit.
  • the positioning unit 55 measures the current position of the user based on the longitude / latitude! /, And direction detection means for detecting the moving direction of the user relative to the external object and the user and the external object. It has a function of a speed detecting means for detecting the relative moving speed of.
  • GPS receiver that detects the reception time of GPS signals transmitted from multiple GPS (G1 obal Positioning System) satellites 101, three nearby mobile phones, and mobile wireless phones such as PHS (Personal Handyphone System)
  • GPS receiver that detects the reception time of GPS signals transmitted from multiple GPS (G1 obal Positioning System) satellites 101, three nearby mobile phones, and mobile wireless phones such as PHS (Personal Handyphone System)
  • a communication terminal that can communicate with the wireless base station 102 can be used, and the current position of the user is measured based on a known three-point surveying method. To detect.
  • the seat position detection unit 56 determines which seat of the automobile 200 the user is sitting on. It is for. For example, it detects radio waves generated by radio remote control keys (electronic keys) 201 that can be remotely operated to unlock the doors of automobiles, Z locks, engine start, etc., and infrared sensors 202 provided in the car 202 Based on the signal from the vehicle control unit 210 that can transmit the above signal to the seat position detection unit 56, it is determined whether or not the user is a driver.
  • radio remote control keys electronic keys
  • the inter-vehicle distance detection unit 57 is a vehicle control unit 210 capable of transmitting signals from the front inter-vehicle distance sensor 203 and the rear inter-vehicle distance sensor 204 provided in the automobile 200 on which the user gets to the inter-vehicle distance detection unit 57.
  • the distance from the vehicle ahead in the traveling direction or the distance from the vehicle behind in the traveling direction is detected based on the signal from the vehicle.
  • the engine drive detection unit 58 is based on a signal from the vehicle control unit 210 that can transmit a signal from the engine rotation sensor 205 provided in the automobile 200 on which the user gets on to the engine drive detection unit 58.
  • the engine 200 driving state is detected.
  • the engine rotation sensor 205 a tachometer that detects the number of revolutions of the engine can be used.
  • the wearing detection sensor is a sensor that determines whether or not the video display device 1 is worn on the user's head.
  • the microphone 71 and the earphone 72 are used when inputting an instruction to the video display device 1 by voice.
  • the communication unit 73 receives information on the antenna information for traffic information, television broadcasting, and radio broadcasting, and transmits / receives information on radio base stations.
  • An automobile 200 shown in FIG. 4 includes an infrared sensor 202, a front inter-vehicle distance sensor 203, a rear inter-vehicle distance sensor 204, and an engine rotation sensor 205, and is communicably connected to the vehicle control unit 210.
  • the automobile 200 may be configured to have a car navigation system including a GPS antenna and map information.
  • FIG. 5 shows an example of a projection view inside the vehicle on which the user wearing the video display device 1 according to the present embodiment gets on.
  • an electronic key 201 and a plurality of infrared sensors 202 are provided in the vehicle, and a front inter-vehicle distance sensor (not shown) for detecting the inter-vehicle distance from the vehicle ahead in the traveling direction, The distance between the rear vehicles that detects the distance between the vehicle behind the direction A distance sensor (not shown) is provided.
  • the front inter-vehicle distance sensor and the rear inter-vehicle distance sensor an optical or electromagnetic distance detection sensor using a CCD or a laser radar, or a configuration similar to the distance measuring unit 52b can be used.
  • the positioning unit 55 receives the signal of the GPS antenna power provided in the vehicle, and receives the signal from the vehicle control unit 210. Based on the received signal, the current position of the user is based on the longitude / latitude! Even a configuration that can measure the position.
  • the control unit 60 includes a central processing unit (CPU) that controls the entire apparatus, a read only memory (ROM) that stores the control program, a random access memory (RAM) that temporarily stores data, a power supply Part.
  • CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • the power source unit is a power source in the video display device 1 such as the display unit 10, the image processing unit 40, the data input unit 50, the control unit 60, and the like.
  • the power supply unit may be configured to supply power to each unit separately by a power cable or the like.
  • the control unit 60 determines the imaging distance (target imaging distance) of the virtual image (optical image) to be displayed according to the state of the user (whether or not he is a driver). ) Is calculated and determined each time, and is an imaging distance control means for controlling the virtual image displayed at the determined target imaging distance to be displayed. It has necessary data, a conversion graph of the position of the display panel 13 with respect to the determined target imaging distance, a conversion graph of viewing angle with respect to speed, map information, and the like.
  • FIG. 6 shows a conversion graph of the position of the display panel 13 with respect to the target imaging distance.
  • FIG. 7 shows a conversion graph of viewing angle with respect to speed.
  • the control unit 60 uses the object distance obtained based on the intrinsic visual condition of the user according to various data input from the data input unit 50, This is an imaging distance detecting means for obtaining an object distance obtained based on an external extrinsic external condition, and a target image distance setting means for setting a target imaging distance corresponding to the object distance.
  • the distance to the visually recognized external object is obtained by actual measurement or estimation.
  • the refractive power D is calculated by detecting the user's line-of-sight direction and measuring the measured value of the distance to the external object, and measuring the state of the cornea and lens of the user's eye or the state of the retinal image.
  • the target distance 1 is calculated from the focal length F calculated as the reciprocal of the refractive power D and the distance d between the lens and the retina obtained from the size of the eyeball using Equation (1). is there.
  • Measures to determine the object distance based on the external conditions are determined according to the relative speed change amount between the user and the external object, the moving direction, and the map information.
  • the control unit 60 drives the gaze detection unit 52a to detect the gaze direction of the user, and drives the distance measurement unit 52b to detect the gaze direction detected. To measure the distance to the object present.
  • the control unit 60 drives the cornea measurement unit 53a to measure the curved state of the cornea of the user's eye, and the refractive power of the cornea D1 is detected, and the lens measurement unit 53b is driven to detect the refractive power D2 of the user's lens. Then, the control unit 60 calculates the refractive power D of the entire eye of the user from the sum of the detected refractive power D1 of the cornea and the refractive power D2 of the crystalline lens.
  • the reciprocal of the refractive power D is the focal length F of the optical system composed of the cornea and the crystalline lens, and the distance 1 between the crystalline lens and the retina is usually constant, so the object distance is obtained using equation (1).
  • the control unit 60 uses the retinal image.
  • the detection unit 54 is driven to measure the retinal image of the user's eye, and the refractive power D of the entire user's eye is detected.
  • the reciprocal of refractive power D is the focal length F of the optical system consisting of the cornea and the lens, and the distance 1 between the lens and the retina is usually constant, so the object distance is calculated using equation (1).
  • the control unit 60 includes the positioning unit. Drive 55 to detect the user's current position (latitude and longitude coordinates), and calculate the movement speed and direction.
  • the control unit 60 calculates the viewing angle according to the calculated moving speed and reads the map information according to the detected current position.
  • the external object building, sign, etc.
  • the external object that occupies the maximum area included in the visual field range assumed from the viewing angle and map information is identified as the target object, and the distance to the specified target object is determined. Let the estimated value be the object distance. Note that when the object that occupies almost the entire area of the viewing field within the viewing angle is a space (for example, sky), the object distance is set to infinity.
  • the control unit 60 determines the shortest object distance as the target imaging distance from the object distance determined in this way, and determines the position of the display panel 13 with respect to the determined target imaging distance.
  • the target imaging position Z is set based on the conversion graph of the display panel position.
  • the control unit 60 outputs an LCD drive instruction signal based on the set position of the display panel 13 to the LCD drive unit 13a.
  • the LCD drive unit 13a moves the position of the display panel 13 in the optical axis direction based on the LCD drive instruction signal, so that a virtual image is displayed at the target imaging distance.
  • the control unit 60 uses the position of the display panel 13 corresponding to the set target imaging distance as a reference.
  • the position is set closer to the condenser lens 12 than the position (0 [ ⁇ m]), and an LCD drive instruction signal is output to the LCD drive unit 13a so that the display panel 13 is placed at the set position.
  • the control unit 60 uses the position of the display panel 13 corresponding to the set target imaging distance as a reference. Set it to a position that is further away from the condenser lens 12 than the position (0 [ ⁇ m]), and the display panel 13 The LCD drive instruction signal is output to the LCD drive unit 13a so as to be arranged.
  • FIG. 8 shows an operation flow for setting the target imaging distance in the present embodiment.
  • control unit 60 After the power switch of video display device 1 is turned on, control unit 60 (after step S1)
  • step S2 It is determined whether or not the mounting detection sensor is in the ON state, and it is determined whether or not the video display device 1 is mounted on the user's head (step S2).
  • control unit 60 determines that the mounting detection sensor is not in the ON state, the control unit 60 determines that the video display device 1 is not mounted on the user's head (step S2; No) and is mounted. (Return to step S2).
  • control unit 60 determines that the mounting detection sensor is in the ON state, the control unit 60 determines that the video display device 1 is mounted on the user's head (step S2; Yes), and the selection switch is turned on. To determine whether or not to adjust the imaging distance (step S3)
  • control unit 60 determines that the imaging distance is not adjusted (step S3; No), and sets the target imaging distance to a predetermined reference. Set to the target image distance (step S4).
  • the control unit 60 determines to adjust the imaging distance (Step S3; Yes), and determines whether the user is a driver (Step S3). S5).
  • control unit 60 When determining whether or not the user is a driver, the control unit 60 makes a determination based on the signal from the seat position detection unit 56 that receives signals from the electronic key 201 and the infrared sensor 202.
  • Step S5 determines that the user is not a driver
  • the object distance according to the user's visual conditions gaze detection, cornea and lens measurement, retinal image measurement
  • Step S6 the object distance according to the user's visual conditions (gaze detection, cornea and lens measurement, retinal image measurement)
  • the shortest object distance is detected from the calculated object distances
  • Step S8 the imaging distance of the virtual image.
  • control unit 60 determines that the user is a driver (step S5; Yes)
  • the virtual image conjugation distance is shorter than a predetermined set imaging distance. Nana! Set restrictions.
  • the target imaging distance is limited to the nearest distance by setting a limit on the target imaging distance. By limiting so as not to approach too much, safety during driving can be ensured.
  • control unit 60 determines whether or not the engine is driven based on a signal from the engine drive detection unit (after step S9). Step S10).
  • step S10 When the control unit 60 determines that the engine is not driven (step S10; No), the object distance is calculated based on the user's visual conditions (gaze detection, cornea and lens measurement, retinal image measurement). Each process is performed (step S6), and the shortest object distance is detected among the calculated object distances (step S7), and the shortest object distance detected is determined as the imaging distance of the virtual image (target (Imaging distance) is determined (step S8).
  • control unit 60 checks the detection means used to perform the target imaging distance (step S11).
  • the control unit 60 includes each detection means (line-of-sight detection unit 52a, distance measurement unit 52b, cornea measurement unit 53a, lens measurement unit 53b, retinal image detection unit 54, positioning unit 55, seat position detection unit 56, inter-vehicle distance. The operation of the detection unit 57) is confirmed, and the detection means that transmits the normal value is set as the object distance detection means.
  • the control unit 60 performs the object distance calculation process (step S12), detects the shortest object distance among the calculated object distances (step S13), and detects the shortest detected object distance.
  • the short object distance is determined as the imaging distance (target imaging distance) of the virtual image (step S14). However, when the detected shortest object distance is shorter than the set imaging distance, the set imaging distance is determined as the target imaging distance.
  • the control unit 60 sets the position of the display panel 13 with respect to the target imaging distance determined with reference to the conversion graph of the position of the display panel 13 with respect to the target imaging distance, and displays the display panel at the set position.
  • the LCD drive instruction signal in which 13 is arranged is calculated (step S15), and the calculated LCD drive instruction signal is output to the LCD drive unit 13a.
  • the LCD drive unit 13a displays the display parameters in accordance with the LCD drive instruction signal input from the control unit 60.
  • the panel 13 is driven and the display panel 13 is arranged at the set position (step S16).
  • FIG. 9 shows an operation flow of the object distance calculation processing based on the visual line detection that is the visual condition.
  • the control unit 60 drives the line-of-sight detection unit 52a to perform the user's line-of-sight detection processing (step S21).
  • the control unit 60 sets the line-of-sight direction detected from the line-of-sight detection unit 52a (step S22), and drives the distance detection unit 53 to perform distance measurement processing to an object existing in the set line-of-sight direction. Perform (step S23), and set the measured actual value as the object distance (step S24).
  • FIG. 10 shows an operation flow of the object distance calculation processing based on the cornea and lens measurement as visual conditions.
  • the control unit 60 drives the cornea measurement unit 53a to perform the measurement of the corneal curvature of the user, and detects the refractive power D1 of the cornea (step S31).
  • the control unit 60 drives the lens measurement unit 53b to perform the refractive power measurement process of the user's lens, and detects the refractive power D2 of the lens (step S32).
  • the control unit 60 calculates the sum of the detected refractive power D1 of the cornea and refractive power D2 of the crystalline lens as the refractive power D of the entire eye of the user (step S33).
  • control unit 60 calculates the reciprocal of the calculated refractive power D to obtain the focal length F (step
  • the control unit 60 calculates and sets the object distance 1 from the focal length F and the distance d between the lens and the retina (step S35).
  • the lens refractive power D2 is detected after detecting the refractive power D1 of the cornea.
  • the refractive power D1 of the cornea is detected.
  • a cornea measurement unit 53a and a crystal measurement unit 53b are provided separately, and the refractive power D1 of the cornea and the refractive power D2 of the crystalline lens are individually provided.
  • the detection unit includes the cornea measurement unit 53a and the lens measurement unit 53b, the refractive power D1 of the cornea and the refractive power D2 of the lens may be detected simultaneously.
  • Figure 11 shows the operation flow of the object distance calculation process based on visual condition retinal image measurement. Indicates.
  • the control unit 60 drives the retinal image detection unit 54 to perform detection processing of the user's retinal image, and detects the refractive power D of the entire user's eye (step S41).
  • the control unit 60 calculates the reciprocal of the detected refractive power D and obtains the focal length F (step S42).
  • the control unit 60 calculates and sets the object distance 1 from the focal length F and the distance d between the lens and the retina (step S43).
  • FIG. 12 shows an operation flow of the object distance calculation process according to the relative speed change amount and the moving direction between the user and the external object, which are external conditions.
  • the control unit 60 drives the positioning unit 55 to perform detection processing of the current position (latitude / longitude coordinates) of the user (step S51).
  • control unit 60 calculates the moving direction and moving speed of the user (speed change relative to the outside world) (step S52).
  • the control unit 60 drives the inter-vehicle distance detection unit 57 to detect the inter-vehicle distance from the preceding vehicle, and determines whether the detected inter-vehicle distance is greater than or equal to a preset reference inter-vehicle distance. Judgment is made (step S53).
  • control unit 60 determines that the detected inter-vehicle distance is not greater than or equal to the reference inter-vehicle distance (step a)
  • the detected inter-vehicle distance is set as the object distance (step S54).
  • control unit 60 determines that the detected inter-vehicle distance is greater than or equal to the reference inter-vehicle distance (step 1)
  • step S53 it is determined whether or not the moving speed is greater than or equal to the reference speed (step S55).
  • control unit 60 determines that the moving speed is not equal to or higher than the reference speed (step S55; No)
  • the reference target imaging distance is set as the object distance (step S56).
  • control unit 60 determines that the moving speed is equal to or higher than the reference speed (step S55; Yes)
  • step S57 Referring to the conversion graph of viewing angle with respect to speed, set the viewing angle with respect to moving speed (step S57).
  • the control unit 60 reads map information based on the detected current position (step S58), and determines an object from the read map information and the set viewing angle (step S59).
  • the control unit 60 calculates the distance to the object determined from the current position and the map information, and calculates the distance.
  • the distance to the extracted object is set as the object distance (step S60).
  • the imaging distance of the virtual image can be dynamically adjusted to a position preferable for the user, the fatigue of the user can be reduced, and the user's usability is improved with safety.
  • the video display device 1 can be realized.
  • the imaging distance at which the virtual image is displayed can be set, and the external object and the virtual image focused by the user can be set simultaneously.
  • An image display device 1 that can be visually recognized can be realized.
  • the imaging distance can be set based on the user's external conditions (moving direction and moving speed), a virtual image can be displayed at the viewing position according to the external conditions, The video display device 1 that can ensure safety can be realized.
  • the present invention is effective not only for automobiles but also for operation of construction machines such as cranes.
  • the display can show the status of the construction machine or the video of the work taken from a position other than the operator.
  • the object of the present invention described above is to realize a video display device that can dynamically adjust the imaging distance of a virtual image to a focus that is favorable for the user and improve the usability of the user. .
  • the present invention is not limited to the contents of the above-described embodiment, and can be appropriately changed within the scope without departing from the gist of the present invention.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)

Abstract

 光学像を投射する表示部及び表示部から投射された光学像を眼に導くプリズムが設けられた映像表示装置において、映像表示装置の装着時における対象物距離の実測値又は推測値を求める結像距離検出手段と、結像距離検出手段により検出された対象物距離に対応する目標結像距離を設定する目標結像距離設定手段と、目標結像距離設定手段により設定された目標結像距離に基づいてプリズムに投射する映像の結像距離を制御する結像距離制御手段と、を備えたことを特徴とする映像表示装置。

Description

明 細 書
映像表示装置
技術分野
[0001] 本発明は、映像表示装置に関するものであり、詳しくは光学像をホログラム素子を 用いて観察者眼にシースルーで投影表示するヘッドマウンドディスプレイ (HMD; He ad Mounted Display)、ヘッドアップディスプレイ(HUD ; Head Up Display)等の映像 表示装置に関する。
背景技術
[0002] 頭部装着型の HMD、 HUD等の映像表示装置は、光学像を投射するための映像 投射手段と、光学像を使用者の眼に導く接眼光学手段とを備え、映像投射手段から 投射される光学像が接眼光学手段に介され使用者の眼に導かれることによって、使 用者が光学像の虚像を観察することができるようになって 、る。
[0003] このような映像表示装置によって表示される虚像の位置は、使用者の眼から予め定 められた位置に表示されるよう設定されている。したがって、使用者は、虚像を観察し ようとする場合、虚像が表示されている位置に焦点を合わせる必要があり、映像表示 装置を長時間使用した場合、眼に対する負荷の増大等により、頭痛がする等のメデ ィカル上の問題があり、必ずしも使 、勝手のよ!、ものではな力つた。
[0004] そこで、虚像の位置を調整可能である画像表示装置として、画像を表示する画像 表示手段と、画像表示手段に表示されている画像の虚像を光学的に生成する光学 手段と、虚像の位置を調整する調整手段と、虚像の位置を表示する位置表示手段と 、虚像の位置とその表示時間に対応して、電源または虚像の位置を自動的に制御す る制御手段とを備える画像表示装置が開示されている。
特許文献 1 :特許第 3322283号 し力しながら、特許文献 1は、表示される虚像の位 置を使用者自らが虚像位置調節つまみを回転調整させることにより、予め定められた 複数の中の一つの虚像位置に調節するものであって、外界の対象物までの距離と虚 像の位置が異なる場合は、外界の対象物と虚像とを同時に視認することは困難であ るという問題がある。 [0005] 人間の左右の眼は、距離の異なる複数の対象物に同時にピントを合わせることがで きないため、同時に個別の焦点の対象物を視認することは困難である。そのため、予 め定められた位置 (結像距離)の虚像又は対象物のいずれか一方し力ゝ視認すること ができない。したがって、歩行中に対象物 (例えば、車等)を視認しつつ、虚像 (例え ば、地図等の道案内映像)を視認することはできず、使い勝手のよいものではない。 発明の開示
[0006] 本発明は、光学像を投射する映像投射手段及び前記映像投射手段から投射され た光学像を眼に導く接眼光学手段が設けられた映像表示装置において、当該映像 表示装置の装着時における使用者が認識している外界物との距離である対象物距 離の実測値又は内因性の視覚条件又は外因性の外界条件に基づいて演算により 求めた推測値を得る結像距離検出手段と、前記結像距離検出手段により検出された 対象物距離に対応する目標結像距離を設定する目標結像距離設定手段と、前記目 標結像距離設定手段により設定された目標結像距離に基づいて前記接眼光学手段 に投射する光学象の結像距離を制御する結像距離制御手段と、を備えたことを特徴 とする映像表示装置であること、を特徴としている。
図面の簡単な説明
[0007] [図 1]本実施の形態における映像表示装置 1の外観図である。
[図 2]表示部 10を含むプリズム 20Rの断面図である。
[図 3]本実施の形態における映像表示装置 1の他の一例の外観図である。
[図 4]本実施の形態における映像表示装置 1の制御ブロック図である。
[図 5]本実施の形態の映像表示装置 1を装着した使用者が乗車した車内の投影図の 一例である。
[図 6]目標結像距離に対する表示パネル 13の位置の変換グラフである。
[図 7]速度に対する視野角の変換グラフである。
[図 8]本実施の形態における目標結像距離の設定動作フローである。
[図 9]視覚条件である視線検知による対象物距離の算出処理の動作フローである。
[図 10]視覚条件である角膜及び水晶体測定による対象物距離の算出処理の動作フ ローである。 [図 11]視覚条件である網膜像測定による対象物距離の算出処理の動作フローである
[図 12]外界条件である使用者と外界物との相対的な速度変化量及び移動方向によ る対象物距離の算出処理の動作フローである。
発明を実施するための最良の形態
[0008] 以下、図を参照して本発明の
実施の形態を詳細に説明する。
[0009] 図 1に、本実施の形態における映像表示装置 1の外観図を示す。
[0010] 図 1に示すように、映像表示装置 1は、表示部 10、画像処理部 40、データ入力部 5
0、制御部 60、左右一対のプリズム 20R、 20L、鼻当て部 31、左右一対のテンプル 3
2R、 32L力も構成されており、プリズム 20R、 20Lが使用者の左右の眼前に位置す るように頭部に装着される。
[0011] 表示部 10は、使用者の右の眼前に位置するプリズム 20Rに取り付けられている。
[0012] 図 2に、表示部 10を含むプリズム 20Rの断面図を示す。
[0013] 図 2に示すように、表示部 10は、光学像を投射する映像投射手段であり、光源 11、 集光レンズ 12、表示パネル 13、筐体 14等から構成される。
[0014] 光源 11は、発光ダイオード(LED ; Light Emitting Diode)等から成り、表示パネル 1 3への照射光を出射する。集光レンズ 12は、光源 11からの光を集光して表示パネル 13全面に均一に導く。表示パネル 13は、透過型の液晶表示器(LCD ; Liquid Cryst al Display)力も成り、使用者に表示するための映像を表示し、第 1プリズム 21の表面 21aに対して傾斜して配されている。筐体 14は、光源 11、集光レンズ 12、表示パネ ル 13を覆い保持している。
[0015] 本実施の形態を実現させるために、表示パネル 13は、光源 11からの光軸方向に おいて、移動可能な駆動機構 (不図示)に支持されており、制御部 60の LCD駆動指 示信号に基づいて駆動され、集光レンズ 12との相対的な距離が変更される。表示パ ネル 13を光軸方向に移動させる駆動機構としては、小型化及び高精度駆動が可能 な機構が好ましぐ例えば、ズームインパクト駆動機構(SIDM : Smooth Impact Drive Mechanism)を用いることができる。 [0016] 光源 11の発光や表示パネル 13の映像の表示は、制御部 60によって制御されてお り、画像処理部 40により画像情報が画像処理され、電力や映像信号が提供されてい る。
[0017] プリズム 20Lは、平板状であり、単一の部材で構成されているのに対し、プリズム 20 Rは、プリズム 20Lと同様に平板状である力 単一の部材ではなぐ第 1プリズム 21、 第 2プリズム 22、ホログラム素子 23から構成され、表示部 10から投射された光学像を 使用者の眼に導く接眼光学手段である。プリズム 20Rを成す第 1プリズム 21と第 2プ リズム 22は、相補的な形状を有し、隙間なぐかつ表面が連続するように接合されて いる。プリズム 20L、第 1プリズム 21、第 2プリズム 22は、同じ材料で作製されており、 これら 3者に屈折率の差はな 、。
[0018] なお、第 1プリズム 21が第 2プリズム 22と接合しない端部を有することを除いて、プリ ズム 20R、 20Lは、一般的な眼鏡レンズ同様、対象形であることが好ましい。
[0019] 第 1プリズム 21は、透明なガラス又は樹脂で作製されている。
[0020] 表示パネル 13から光が照射される側の第 1プリズム 21の部位形状は、縁の方が内 部側よりも厚い楔状とされており、筐体 14がこの楔状の上端部を挟むようにして、第 1 プリズム 21に取り付けられている。また、第 2プリズム 22と接合される第 1プリズム 21 の部位形状は、プリズム 20Rの中央に向力 ほど前面(眼 E力も遠い面)が後面(眼 E に近い面)に近づくように作製されており、楔状である。この楔状の部位の前面 (第 2 プリズム 22との接合面)は平面であり、この平面にはホログラム素子 23が映像表示装 置 1の装着時に使用者の眼 Eの直前に位置するよう形成されている。
[0021] 第 1プリズム 21は、表示パネル 13からの映像光を使用者の眼 Eに導いて、表示パ ネル 13に表示された映像の虚像を表示する。
[0022] 第 1プリズム 21は、表示パネル 13からの映像光を、第 1プリズム 21の表面 21aより 内部に導き入れ、前面と後面で複数回全反射させながら、ホログラム素子 23に導く。 ホログラム素子 23は、導かれた光を回折させて、平行光に近い光束としながら、眼 E に入射させる。これにより、使用者の眼 Eには、表示パネル 23に表示された映像の虚 像が表示される。
[0023] ホログラム素子 23は、外界からの光にほとんど作用せず、虚像は外界の像の中央 部に重なって観察される光学素子である。ホログラム素子 23を用いることにより、映像 観察が行われていない場合、使用者は第 1、 2プリズム 21、 22、ホログラム素子 23を 通して外界を見ることができる。
[0024] このように、第 1プリズム 21、第 2プリズム 22、ホログラム素子 23により透光性を有す る接眼光学手段が構成される。
[0025] このような接眼光学手段はシースルー性が良いため、視界をじゃますることがなぐ ホログラム素子 23が設けられた虚像表示部位においてもその向こうの外界が見え、 自動車運転と 、う瞬間的な判断を必要とする行為にぉ 、て、自動車の状況の表示、 交通案内情報などを表示するのに適している。
[0026] 従来のカーナビゲーシヨンシステムでは、走行中の自動車の現在位置や進行方向 などの情報が表示された画面を見るために視線がそれるため、前方不注意になるな どの危険があつたが、この接眼光学手段では前方不注意になる可能性が減少する。
[0027] なお、本実施の形態では、画像処理部 40、制御部 60を表示部 10、データ入力部
50と共に設けられた構成として示した力 画像処理部 40、制御部 60をまとめて別途 設けられた構成であってもよ ヽ。
[0028] また、本実施の形態の映像表示装置 1は、右眼に映像を表示するように構成されて いるが、左眼に映像を表示するように構成されていてもよぐ図 3に示すように両眼に 映像を表示するように構成されて 、てもよ 、。
[0029] 図 3に、本実施の形態における映像表示装置 1の他の一例の外観図を示す。
[0030] 図 3に示す映像表示装置 1は、一対の表示部 10、画像処理部 40、データ入力部 5
0、制御部 60、プリズム 20R、 20Lを備えて左右両眼に映像を表示するものであり、 左右の各部の構成は、図 1に示す映像表示装置 1と同様の構成である。
[0031] 図 4に、本実施の形態における映像表示装置 1の制御ブロック図を示す。
[0032] 図 4に示すように、映像表装置 1は、図 1〜図 3に示すように構成されており、表示 部 10、画像処理部 40、データ入力部 50、マイク 71、イヤホン 72、通信部 73が制御 部 60と相互に通信可能に接続されている。
[0033] 表示部 10は、処理済みの画像情報の表示を行!、、光学像としての映像光をプリズ ム 20Rに出射し、使用者の眼 Eに導いて使用者へ映像の虚像を表示させる。 [0034] また、本実施の形態を実現させるために、表示部 10は、制御部 60からの LCD駆動 指示信号に基づいて表示パネル 13を光軸方向に移動させる駆動機構として LCD駆 動部 13aを備える。
[0035] 画像処理部 40は、画像処理全体を司る CPU (Central Processing Unit)、処理プロ グラムを記憶した ROM (Read Only Memory)、データを一時的に記憶する RAM (Ra ndom Access Memory)等を有し、階調変換、色変換、鮮鋭性処理、画像抽出等の画 像処理を行!ヽ、画像情報を映像として表示可能に画像処理する。
[0036] データ入力部 50は、選択スィッチ 51、視線検出部 52a、距離測定部 52b、角膜測 定部 53a、水晶体測定部 53b、網膜像検出部 54、測位部 55、座席位置検出部 56、 車間距離検出部 57、エンジン駆動検出部 58、その他、電源スィッチ、装着検出セン サ (不図示)等を有している。また、データ入力部 50は、視線検出部 52a及び距離測 定部 52b、角膜測定部 53a及び水晶体測定部 53b、網膜像検出部 54、測位部 55の いずれかを用いて、当該映像表示装置 1の装着時における対象物距離の実測値又 は推測値を求める結像距離検出手段である。
[0037] 選択スィッチ 51は、使用者が焦点を合わせている外界物(以下、対象物という。)ま での距離に表示される虚像の結像距離を動的に合わせるか否かを選択する手段で ある。選択スィッチ 51が ON状態である場合、虚像の結像距離が動的に設定され、 選択スィッチ 51が OFF状態である場合、予め設定された結像距離に虚像が表示さ れる。
[0038] 視線検出部 52aは、使用者の眼球運動を検知し、視線方向を検出する視線検出 手段である。例えば、赤外線発光部、赤外線受光部、光学系、演算部等を備え、赤 外線発光部から使用者の眼球に赤外光を照射し、その反射光を赤外線受光部が受 光して、赤外線受光部から得られた反射像に基づ 、て瞳孔の中心を抽出して使用 者の視線を検出することができる。
[0039] 距離測定部 52bは、視線検出部 52aによって検出された視線方向に存在する対象 物までの距離を測定する距離測定手段である。例えば、光学的測定方法における光 学的三角測定原理を用いて対象物までの距離を測定することができる。この場合、 投光部、受光部、光学系、演算部等を備え、投光部から検出された視線方向にレー ザ光を照射し、照射されたレーザ光の反射光を受光部が受光して、三角測定原理に 基づいて対象物までの距離を測定することができる。なお、距離測定部 52は、視線 方向に存在する対象物までの距離を測定することができるものであればこれに限ら ず、超音波式等の測定手段を用いてもよい。
[0040] 角膜測定部 53aは、使用者の角膜の湾曲状態 (角膜湾曲半径、湾曲度等)を測定 して、角膜の屈折力 D1を検出する角膜測定手段である。例えば、発光部、受光部、 光学系、演算部等を有し、発光部力 使用者の角膜に光を照射し、角膜からの反射 光を受光部が受光して、受光部力 得られた反射像に基づいて角膜の湾曲状態を 検出する角膜計により角膜の屈折力 D1を検出することができる。
[0041] 水晶体測定部 53bは、使用者の水晶体の屈折率測定を行い水晶体の屈折力 D2 を検出する水晶体測定手段である。例えば、発光部、受光部、光学系、演算部等を 有し、発光部力 使用者の眼球に向けて光を投射し、投射された光が水晶体の表面 、裏面等から反射光を受光部が受光して、受光部から得られた反射像に基づいて水 晶体の屈折力 D2を検出することができる。
[0042] 網膜像検出部 54は、使用者の網膜像を検出して、使用者の眼全体の屈折力 D3を 検出する網膜像検出手段である。例えば、投光部、受光部、光学系、演算部等を有 し、投光部から使用者の眼底に指標光を投影し、眼底から反射された反射像 (網膜 像)を受光部が受光して、受光部から得られた反射像 (網膜像)に基づいて使用者の 眼全体の屈折力 D3を検出することができる。
[0043] 測位部 55は、使用者の現在位置を経度緯度に基づ!/、て測位するものであり、外界 物に対する使用者の移動方向を検出する方向検出手段及び使用者と外界物との相 対的な移動速度を検出する速度検出手段の機能を有する。例えば、複数の GPS (G1 obal Positioning System)衛星 101から送信される GPS電波の受信時刻を検知する G PSレシーバや、近隣の 3つの携帯電話や PHS (Personal Handyphone System)等の 携帯無線電話などの無線基地局 102と通信可能な通信端末を用いることができ、公 知の 3点測量の手法に基づ ヽて使用者の現在位置を測位し、測位された現在位置 力 移動方向及び移動速度を検出する。
[0044] 座席位置検出部 56は、使用者が自動車 200のどの座席に座っているかを判断す るためのものである。例えば、自動車のドアの開錠 Z施錠、エンジンスタートなどを遠 隔操作できる電波式遠隔操作キー (電子式キー) 201が発生している電波を検知し たり、車内に複数設けられた赤外線センサ 202の信号を座席位置検出部 56に送信 可能な車両制御部 210からの信号に基づいて、使用者は運転者であるか否かを判 断する。
[0045] 車間距離検出部 57は、使用者が乗車した自動車 200に設けられた前方車間距離 センサ 203及び後方車間距離センサ 204からの信号を車間距離検出部 57に送信可 能な車両制御部 210からの信号に基づいて、進行方向前方の車両との距離又は進 行方向後方の車両との距離を検出するものである。
[0046] エンジン駆動検出部 58は、使用者が乗車した自動車 200に設けられたエンジン回 転センサ 205からの信号をエンジン駆動検出部 58に送信可能な車両制御部 210か らの信号に基づいて、自動車 200のエンジンの駆動状態を検出するものである。
[0047] なお、エンジン回転センサ 205としては、エンジンの回転数を検出する回転速度計 を用いることができる。
[0048] 装着検出センサは、映像表示装置 1が使用者の頭部に装着されているか否かを判 断するセンサである。
[0049] マイク 71及びイヤホン 72は、映像表示装置 1に対する指示を音声で入力する場合 に用いられる。
[0050] 通信部 73は、交通情報やテレビ放送、ラジオ放送用のアンテナ力も情報を受信し たり、無線基地局力もの情報を送受信したりするものである。
[0051] 図 4に示す自動車 200は、赤外線センサ 202、前方車間距離センサ 203、後方車 間距離センサ 204、エンジン回転センサ 205を備え、車両制御部 210と相互に通信 可能に接続されている。なお、自動車 200は、 GPSアンテナ、地図情報を備えるカー ナビゲーシヨンシステムを有する構成であってもよい。
[0052] 図 5に、本実施の形態の映像表示装置 1を装着した使用者が乗車した車内の投影 図の一例を示す。図 5に示す車内には、電子式キー 201、複数の赤外線センサ 202 が車内に備えられており、また、進行方向前方の車両との車間距離を検出する前方 車間距離センサ (不図示)、進行方向後方の車両との車間距離を検出する後方車間 距離センサ (不図示)を備えている。前方車間距離センサ及び後方車間距離センサ としては、 CCDやレーザレーダを用いた光学式又は電磁式の距離検出センサや、距 離測定部 52bと同様の構成を用いることができる。
[0053] このように、運転者は、前方の風景、前方車両、バックミラー内の写った後方車両、 車内に設けられて!/ヽる複数の計器等を見て運転することとなる。
[0054] なお、測位部 55は、車両に備えられた GPSアンテナ力もの信号を車両制御部 210 力 受信し、受信した信号に基づ!、て使用者の現在位置を経度緯度に基づ!、て測 位可能な構成であってもよ 、。
[0055] 制御部 60は、装置全体の制御を司る CPU (Central Processing Unit)、制御プログ ラムを記憶した ROM (Read Only Memory)、データを一時的に記憶する RAM (Rand om Access Memory)、電源部等を有する。
[0056] 電源部は、表示部 10、画像処理部 40、データ入力部 50、制御部 60等の映像表 示装置 1内の電源である。なお、電源部は、別体として電源ケーブル等により各部に 電力を供給するように構成してもよ ヽ。
[0057] 制御部 60は、本実施の形態を実現するために、使用者の状態 (運転者か否力)に 応じて、表示される虚像 (光学像)の結像距離 (目標結像距離)をその都度算出して 決定し、決定された目標結像距離に表示される虚像が表示されるよう制御する結像 距離制御手段であり、この結像距離設定処理に必要とされるプログラム及び必要な データ、決定された目標結像距離に対する表示パネル 13の位置の変換グラフ、速 度に対する視野角の変換グラフ、地図情報等を有している。
[0058] 図 6に、目標結像距離に対する表示パネル 13の位置の変換グラフを示す。
[0059] 図 6に示す表示パネル 13の位置は、光軸方向において表示パネル 13を集光レン ズ 12に近づける方向を「一」表記し、遠ざ力る方向を「 +」表記とする。
[0060] 例えば、図 6に示すように、表示パネル 13の基準位置 (0[ m])に対する目標結像 距離 (基準目標結像距離)が 3[m]である変換グラフである場合、制御部 60は、決定 された目標結像距離が 3[m]である場合には表示パネル 13の位置を基準位置 (0[ μ m])に設定し、基準位置に表示パネル 13が配置されるように LCD駆動指示信号を L
CD駆動部 13aに出力する。 [0061] 図 7に、速度に対する視野角の変換グラフを示す。
[0062] 図 7に示すように、使用者と外界との相対的な速度が速い程、使用者の視野角が 狭くなる関係を有し、速度に応じて使用者の視認できる外界物が限定される。
[0063] 制御部 60は、目標結像距離の設定方策として、データ入力部 50から入力される各 種データに応じて、使用者の内因性の視覚条件に基づいて求められる対象物距離、 使用者の外因性の外界条件に基づいて求められる対象物距離を求める結像距離検 出手段であり、対象物距離に対応する目標結像距離を設定する目標結象距離設定 手段である。
[0064] 視覚条件に基づいて対象物距離を求める方策は、視認している外界物までの距離 を実測又は推測して求める。例えば、使用者の視線方向を検出して外界物までの距 離の実測値を測定する方策、使用者の眼の角膜及び水晶体の状態又は網膜像の 状態を測定することにより屈折力 Dを算出し、屈折力 Dの逆数として算出される焦点 距離 Fと、眼球の大きさから求められる水晶体と網膜との距離 dとから対象物距離 1を 式(1)を用いて推測値を得る方策である。
[0065] (l/l) + (l/d) = (l/F) · ' · · (1)
外界条件に基づいて対象物距離を求める方策は、使用者と外界物との相対的な速 度変化量及び移動方向と地図情報に応じて求められる。
[0066] 視線検知による対象物距離を求める場合、制御部 60は、視線検出部 52aを駆動さ せて使用者の視線方向を検出し、距離測定部 52bを駆動させて検出された視線方 向に存在する対象物までの距離を測定させる。
[0067] 使用者の眼の角膜及び水晶体の測定による対象物距離を求める場合、制御部 60 は、角膜測定部 53aを駆動させて使用者の眼の角膜の湾曲状態を測定させ角膜の 屈折力 D1を検出し、また、水晶体測定部 53bを駆動させて使用者の水晶体の屈折 力 D2を検出させる。そして、制御部 60は、検出された角膜の屈折力 D1と水晶体の 屈折力 D2の和から使用者の眼全体の屈折力 Dを算出する。
[0068] 屈折力 Dの逆数は、角膜と水晶体による光学系の焦点距離 Fであり、水晶体と網膜 の距離 1は、通常一定であるため、式(1)を用いて対象物距離を求める。
[0069] 使用者の眼の網膜像の測定による焦点距離を求める場合、制御部 60は、網膜像 検出部 54を駆動させて使用者の眼の網膜像を測定させ、使用者の眼全体の屈折力 Dを検出する。屈折力 Dの逆数は、角膜と水晶体による光学系の焦点距離 Fであり、 水晶体と網膜の距離 1は、通常一定であるため、式(1)を用いて対象物距離を求める
[0070] 使用者の外因性の外界条件、例えば使用者と外界物との相対的な速度変化量及 び移動方向と地図情報に応じて対象物距離を求める場合、制御部 60は、測位部 55 を駆動させて使用者の現在位置 (緯度及び経度の座標)を検出し、移動速度と移動 方向を算出する。制御部 60は、算出された移動速度が予め設定されている基準速 度よりも早い場合、算出された移動速度に応じた視野角を算出すると共に、検出した 現在位置に応じた地図情報を読出し、視野角と地図情報とから視野角内に想定され た視野範囲に含まれる最大の面積を占める外界物 (建造物、標識等)を対象物と特 定し、特定した対象物までの距離の推定値を対象物距離とする。なお、視野角内の 視野範囲の略全体の面積を占めるものが空間 (例えば、空)である場合、対象物距 離を無限遠とする。
[0071] 制御部 60は、このようにして決定された対象物距離から、最も短 ヽ対象物距離を目 標結像距離として決定し、決定された目標結像距離に対する表示パネル 13の位置 を、目標結像位置 Z表示パネル位置の変換グラフに基づいて設定する。そして、制 御部 60は、設定された表示パネル 13の位置に基づ!/ヽた LCD駆動指示信号を LCD 駆動部 13aに出力する。 LCD駆動部 13aが LCD駆動指示信号に基づ 、て表示パ ネル 13の位置を光軸方向に移動させることにより、目標結像距離に虚像が表示され ることとなる。
[0072] 制御部 60は、設定された目標結像距離が基準目標結像距離 (3[ml)よりも短 、場 合、設定された目標結像距離に対応する表示パネル 13の位置を基準位置 (0[ μ m]) よりも集光レンズ 12に近づける位置に設定し、設定された位置に表示パネル 13が配 置されるように LCD駆動指示信号を LCD駆動部 13aに出力する。
[0073] 制御部 60は、設定された目標結像距離が基準目標結像距離 (3[ml)よりも長 、場 合、設定された目標結像距離に対応する表示パネル 13の位置を基準位置 (0[ μ m]) よりも集光レンズ 12から遠ざ力る位置に設定し、設定された位置に表示パネル 13が 配置されるように LCD駆動指示信号を LCD駆動部 13aに出力する。
[0074] 次に、本実施の形態における動作を説明する。
[0075] 図 8に、本実施の形態における目標結像距離の設定動作フローを示す。
[0076] 制御部 60は、映像表示装置 1の電源スィッチが ON状態となった後 (ステップ S1後
)、装着検出センサが ON状態である力否かを判断し、映像表示装置 1が使用者の頭 部に装着されて ヽるか否かを判断する (ステップ S 2)。
[0077] 制御部 60は、装着検出センサが ON状態でな 、と判断した場合、映像表示装置 1 が使用者の頭部に装着されていないと判断し (ステップ S2 ;No)、装着されるまで待 機する (ステップ S 2に戻る)。
[0078] 制御部 60は、装着検出センサが ON状態であると判断した場合、映像表示装置 1 が使用者の頭部に装着されていると判断し (ステップ S2 ; Yes)、選択スィッチが ON 状態であるか否かを判断し、結像距離の調整を行うか否かを判断する (ステップ S3)
[0079] 制御部 60は、選択スィッチが ON状態でな 、と判断した場合、結像距離の調整を 行わな 、と判断し (ステップ S3 ;No)、目標結像距離を予め定められた基準目標結 像距離に設定する (ステップ S4)。
[0080] 制御部 60は、選択スィッチが ON状態であると判断した場合、結像距離の調整を行 うと判断し (ステップ S3; Yes)、使用者は運転者か否かを判断する (ステップ S5)。
[0081] 制御部 60は、使用者が運転者か否かを判断する場合、電子式キー 201や赤外線 センサ 202からの信号を受信する座席位置検出部 56から信号に基づいて判断を行
[0082] 制御部 60は、使用者が運転者でな!、と判断した場合 (ステップ S5 ;No)、使用者の 視覚条件 (視線検知、角膜及び水晶体測定、網膜像測定)による対象物距離の算出 処理を夫々行い (ステップ S6)、算出された複数の対象物距離のうち、最も短い対象 物距離を検出し (ステップ S 7)、検出された最も短い対象物距離を虚像の結像距離( 目標結像距離)として決定する (ステップ S8)。
[0083] 制御部 60は、使用者が運転者であると判断した場合 (ステップ S5 ; Yes)、予め定 められた設定結像距離よりも虚像の結象距離 (目標結像距離)が短くならな!ヽように 制限を設ける。
[0084] 運転中の運転者の焦点は、低速又は停止している場合以外では、前方の遠くであ るため、目標結像距離に制限を設けることにより目標結像距離が手元等の至近距離 に近づきすぎないよう制限することで、運転中の安全を確保することができる。
[0085] 制御部 60は、目標結像距離の制限の設定を行った後 (ステップ S9後)エンジン駆 動検出部からの信号に基づいて、エンジンが駆動している力否かを判断する (ステツ プ S10)。
[0086] 制御部 60は、エンジンが駆動していないと判断した場合 (ステップ S 10 ; No)、使用 者の視覚条件 (視線検知、角膜及び水晶体測定、網膜像測定)による対象物距離の 算出処理を夫々行い (ステップ S6)、算出された複数の対象物距離のうち、最も短い 対象物距離を検出し (ステップ S 7)、検出された最も短い対象物距離を虚像の結像 距離 (目標結像距離)として決定する (ステップ S8)。
[0087] 制御部 60は、エンジンが駆動して 、ると判断した場合 (ステップ S10; Yes)、目標 結像距離を行うために用いる検出手段の確認を行う(ステップ S11)。
[0088] 制御部 60は、各検出手段 (視線検出部 52a、距離測定部 52b、角膜測定部 53a、 水晶体測定部 53b、網膜像検出部 54、測位部 55、座席位置検出部 56、車間距離 検出部 57)の動作確認を行い、正常値を送信してくる検出手段を対象物距離の検出 手段として設定する。
[0089] 制御部 60は、対象物距離の算出処理を夫々行い (ステップ S12)、算出された複数 の対象物距離のうち、最も短い対象物距離を検出し (ステップ S13)、検出された最も 短!ヽ対象物距離を虚像の結像距離 (目標結像距離)として決定する (ステップ S 14)。 但し、検出された最も短い対象物距離が設定結像距離よりも短い場合には、設定結 像距離を目標結像距離として決定される。
[0090] 制御部 60は、目標結像距離に対する表示パネル 13の位置の変換グラフを参照し て決定された目標結像距離に対する表示パネル 13の位置を設定し、設定された位 置に表示パネル 13が配置される LCD駆動指示信号を算出し (ステップ S15)、算出 された LCD駆動指示信号を LCD駆動部 13aに出力する。
[0091] LCD駆動部 13aは、制御部 60から入力された LCD駆動指示信号に応じて表示パ ネル 13を駆動させ、表示パネル 13を設定された位置に配置させる (ステップ S16)。
[0092] 図 9に、視覚条件である視線検知による対象物距離の算出処理の動作フローを示 す。
[0093] 制御部 60は、視線検出部 52aを駆動させて使用者の視線検出処理を行わせる (ス テツプ S21)。
[0094] 制御部 60は、視線検出部 52aから検出された視線方向を設定し (ステップ S22)、 距離検出部 53を駆動させて設定された視線方向に存在する対象物までの距離測定 処理を行わせ (ステップ S23)、測定された実測値を対象物距離として設定する (ステ ップ S24)。
[0095] 図 10に、視覚条件である角膜及び水晶体測定による対象物距離の算出処理の動 作フローを示す。
[0096] 制御部 60は、角膜測定部 53aを駆動させて使用者の角膜の湾曲測定処理を行わ せ、角膜の屈折力 D1を検出させる (ステップ S31)。
[0097] 制御部 60は、水晶体測定部 53bを駆動させて使用者の水晶体の屈折力測定処理 を行わせ、水晶体の屈折力 D2を検出させる (ステップ S32)。
[0098] 制御部 60は、検出された角膜の屈折力 D1と水晶体の屈折力 D2との和を使用者 の眼全体の屈折力 Dとして算出する (ステップ S33)。
[0099] 制御部 60は、算出された屈折力 Dの逆数を算出し、焦点距離 Fを求める (ステップ
S34)。
[0100] 制御部 60は、焦点距離 Fと水晶体と網膜の距離 dから対象物距離 1を算出し、設定 する(ステップ S35)。
[0101] なお、本実施の形態では、角膜の屈折力 D1を検出した後に水晶体の屈折力 D2を 検出する動作としたが、水晶体の屈折力 D2を検出した後に角膜の屈折力 D1を検出 してもよく、また、使用者の眼全体の屈折力 Dを算出するために角膜測定部 53aと水 晶体測定部 53bとを個別に設け、個別に角膜の屈折力 D1と水晶体の屈折力 D2とを 検出する装置構成としたが、角膜測定部 53aと水晶体測定部 53bとを有する検出部 とした場合、角膜の屈折力 D1と水晶体の屈折力 D2を同時に検出してもよい。
[0102] 図 11に、視覚条件である網膜像測定による対象物距離の算出処理の動作フロー を示す。
[0103] 制御部 60は、網膜像検出部 54を駆動させて使用者の網膜像の検出処理を行わ せ、使用者の眼全体の屈折力 Dを検出させる (ステップ S41)。
[0104] 制御部 60は、検出された屈折力 Dの逆数を算出し、焦点距離 Fを求める (ステップ S42)。
制御部 60は、焦点距離 Fと水晶体と網膜の距離 dから対象物距離 1を算出し、設定す る(ステップ S43)。
[0105] 図 12に、外界条件である使用者と外界物との相対的な速度変化量及び移動方向 による対象物距離の算出処理の動作フローを示す。
[0106] 制御部 60は、測位部 55を駆動させて使用者の現在位置 (緯度経度の座標)の検 出処理を行わせる (ステップ S51)。
[0107] 制御部 60は、検出された現在位置の情報に基づいて、使用者の移動方向及び移 動速度 (外界との相対的な速度変化量)を算出する (ステップ S52)。
[0108] 制御部 60は、車間距離検出部 57を駆動させ、先行車との車間距離を検出させ、 検出された検出車間距離が、予め設定されている基準車間距離以上である力否かを 判断する (ステップ S53)。
[0109] 制御部 60は、検出車間距離が基準車間距離以上でないと判断した場合 (ステップ
S53 ;No)、検出車間距離を対象物距離に設定する (ステップ S54)。
[0110] 制御部 60は、検出車間距離が基準車間距離以上であると判断した場合 (ステップ
S53 ;Yes)、移動速度は、基準速度以上である力否かを判断する (ステップ S55)。
[0111] 制御部 60は、移動速度が基準速度以上でないと判断した場合 (ステップ S55 ;No)
、対象物距離として基準目標結像距離を設定する (ステップ S56)。
[0112] 制御部 60は、移動速度が基準速度以上であると判断した場合 (ステップ S55 ; Yes
)、速度に対する視野角の変換グラフを参照して、移動速度に対する視野角を設定 する(ステップ S 57)。
[0113] 制御部 60は、検出された現在位置に基づいて地図情報を読出し (ステップ S58)、 読み出した地図情報と設定した視野角とから対象物を決定する (ステップ S59)。
[0114] 制御部 60は、現在位置と地図情報とから決定した対象物までの距離を算出し、算 出した対象物までの距離を対象物距離として設定する (ステップ S60)。
[0115] このように、使用者に対して好ましい位置に虚像の結像距離を動的に合わせること ができ、使用者の疲労を軽減することができると共に、安全で使用者の使い勝手が 向上された映像表示装置 1を実現することができる。
[0116] また、使用者の視線検知、角膜及び水晶体の測定、網膜像の測定を行うことにより
、使用者が視認して ヽる対象物までの距離に基づ!ヽて虚像が表示される結像距離を 設定することができ、使用者が焦点を合わせている外界物と虚像とを同時に視認す ることができる映像表示装置 1を実現することができる。
[0117] 更に、使用者の外界条件 (移動方向及び移動速度)に基づいて結像距離を設定す ることができるため、外界条件に応じて視認しゃすい位置に虚像を表示させることが でき、安全性を確保できる映像表示装置 1を実現することができる。
[0118] このように、シースルー性の良い接眼光学手段を用いれば、視線をそらすことなく 運転に必要な情報を運転者は得ることができ、本発明により長時間の運転でも本人 の意識的な操作なしに虚像の結像位置が調整され、疲労が少なくなるため、運転中 の着用に特に効果的である。
[0119] また、自動車に限らず、クレーンなどの建設機械の操作などでも効果的である。そ の場合、表示は建設機械の状況や、操作者以外の位置から撮影した作業の映像な どを表示することができる。
[0120] 以上に述べた本発明の課題は、使用者に対して好ましい焦点に虚像の結像距離 を動的に合わせ、使用者の使い勝手を向上し得る映像表示装置を実現することであ る。
[0121] また、本発明は、上記実施の形態の内容に限定されるものではなぐ本発明の主旨 を逸脱しな 、範囲で適宜変更可能である。

Claims

請求の範囲
[1] 光学像を投射する映像投射手段及び前記映像投射手段から投射された光学像を 眼に導く接眼光学手段が設けられた映像表示装置において、
当該映像表示装置の装着時における使用者と使用者が認識している外界物との 距離である対象物距離の実測値又は内因性の視覚条件又は推測値を求める結像 距離検出手段と、
前記結像距離検出手段により対象物距離を検出するステップを経て目標結像距離 を設定する目標結像距離設定手段と、
前記目標結像距離設定手段により設定された目標結像距離に基づ!/ヽて前記接眼 光学手段に投射する光学象の結像距離を制御する結像距離制御手段と、
を備えたことを特徴とする映像表示装置。
[2] 前記対象物距離は、使用者の内因性の視覚条件に基づいて求められることを特徴 とする請求の範囲第 1項に記載の映像表示装置。
[3] 前記対象物距離は、使用者の外因性の外界条件に基づいて求められることを特徴 とする請求の範囲第 1項に記載の映像表示装置。
[4] 前記結像距離検出手段は、
前記使用者の視線方向を検出する視線検出手段と、
前記視線検出手段力 検出された視線方向に基づいて対象物までの距離を測定 する距離測定手段と、を備えることを特徴とする請求の範囲第 2項に記載の映像表 示装置。
[5] 前記結像距離検出手段は、
前記使用者の角膜の湾曲測定を行い角膜の屈折力を検出する角膜測定手段と、 前記使用者の水晶体の屈折率測定を行い水晶体の屈折力を検出する水晶体測 定手段と、
を備え、
当該検出された前記角膜の屈折力及び水晶体の屈折力から焦点距離を算出し、 当該焦点距離に基づいて前記対象物距離の推測値を求めることを特徴とする請求 の範囲第 2項に記載の映像表示装置。
[6] 前記結像距離検出手段は、
前記使用者の網膜像を検出し使用者の眼全体の屈折力を検出する網膜像検出手 段を備え、
当該検出された前記使用者の眼全体の屈折力から焦点距離を算出し、当該焦点 距離に基づいて前記対象物距離の推測値を求めることを特徴とする請求の範囲第 2 項に記載の映像表示装置。
[7] 前記結像距離検出手段は、
前記使用者に対して外界物の移動方向を検出する方向検出手段と、
前記使用者と外界物との相対的な移動速度を検出する速度検出手段と、 を備え、
当該検出された前記移動方向と前記移動速度と地図情報とに基づいて前記対象 物距離の推測値を求めることを特徴とする請求の範囲第 3項に記載の映像表示装置
[8] 頭部装着型であって、片眼に前記映像投射手段及び前記接眼光学手段が設けら れていることを特徴とする請求の範囲第 1項力 第 7項のいずれか一項に記載の映 像表示装置。
[9] 頭部装着型であって、両眼に前記映像投射手段及び前記接眼光学手段が設けら れていることを特徴とする請求の範囲第 1項力 第 7項のいずれか一項に記載の映 像表示装置。
PCT/JP2005/021408 2004-11-26 2005-11-22 映像表示装置 WO2006057227A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004341951 2004-11-26
JP2004-341951 2004-11-26

Publications (1)

Publication Number Publication Date
WO2006057227A1 true WO2006057227A1 (ja) 2006-06-01

Family

ID=36497964

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/021408 WO2006057227A1 (ja) 2004-11-26 2005-11-22 映像表示装置

Country Status (1)

Country Link
WO (1) WO2006057227A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006056875A1 (de) * 2006-12-01 2008-06-12 Siemens Ag Permanentmagnetrotor mit mittels einer Klebefolie verschlossenen Aufnahmetaschen für die Permanentmagnete
JP2012037761A (ja) * 2010-08-09 2012-02-23 Sony Corp 表示装置組立体
CN105468881A (zh) * 2016-02-17 2016-04-06 成都康烨科技有限公司 基于航拍图像的实景距离计算方法及装置
WO2016080708A1 (en) 2014-11-18 2016-05-26 Samsung Electronics Co., Ltd. Wearable device and method for outputting virtual image
CN107449589A (zh) * 2017-09-07 2017-12-08 望新(上海)科技有限公司 一种hud成像位置检测装置及方法
WO2018061402A1 (ja) * 2016-09-29 2018-04-05 ブラザー工業株式会社 ヘッドマウントディスプレイ

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07257228A (ja) * 1994-03-18 1995-10-09 Nissan Motor Co Ltd 車両用表示装置
JPH08166559A (ja) * 1994-12-13 1996-06-25 Nippon Telegr & Teleph Corp <Ntt> ヘッドマウントディスプレィ装置
JPH0928727A (ja) * 1995-07-21 1997-02-04 Matsushita Electric Ind Co Ltd 視力補正装置
JPH09274144A (ja) * 1996-04-02 1997-10-21 Canon Inc 画像表示装置
JPH11276437A (ja) * 1998-03-31 1999-10-12 Nidek Co Ltd 眼科装置
JP2000131643A (ja) * 1998-10-28 2000-05-12 Sony Corp 映像表示装置
JP2001188193A (ja) * 1999-12-28 2001-07-10 Rohm Co Ltd ヘッドマウントディスプレー
JP2001305476A (ja) * 2000-04-27 2001-10-31 Minolta Co Ltd 映像表示装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07257228A (ja) * 1994-03-18 1995-10-09 Nissan Motor Co Ltd 車両用表示装置
JPH08166559A (ja) * 1994-12-13 1996-06-25 Nippon Telegr & Teleph Corp <Ntt> ヘッドマウントディスプレィ装置
JPH0928727A (ja) * 1995-07-21 1997-02-04 Matsushita Electric Ind Co Ltd 視力補正装置
JPH09274144A (ja) * 1996-04-02 1997-10-21 Canon Inc 画像表示装置
JPH11276437A (ja) * 1998-03-31 1999-10-12 Nidek Co Ltd 眼科装置
JP2000131643A (ja) * 1998-10-28 2000-05-12 Sony Corp 映像表示装置
JP2001188193A (ja) * 1999-12-28 2001-07-10 Rohm Co Ltd ヘッドマウントディスプレー
JP2001305476A (ja) * 2000-04-27 2001-10-31 Minolta Co Ltd 映像表示装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006056875A1 (de) * 2006-12-01 2008-06-12 Siemens Ag Permanentmagnetrotor mit mittels einer Klebefolie verschlossenen Aufnahmetaschen für die Permanentmagnete
US9488757B2 (en) 2010-08-09 2016-11-08 Sony Corporation Display apparatus assembly
JP2012037761A (ja) * 2010-08-09 2012-02-23 Sony Corp 表示装置組立体
US9741175B2 (en) 2010-08-09 2017-08-22 Sony Corporation Display apparatus assembly
WO2016080708A1 (en) 2014-11-18 2016-05-26 Samsung Electronics Co., Ltd. Wearable device and method for outputting virtual image
CN106999034A (zh) * 2014-11-18 2017-08-01 三星电子株式会社 用于输出虚拟图像的可穿戴设备和方法
EP3222037A4 (en) * 2014-11-18 2017-11-29 Samsung Electronics Co., Ltd. Wearable device and method for outputting virtual image
US10175485B2 (en) 2014-11-18 2019-01-08 Samsung Electronics Co., Ltd. Wearable device and method for outputting virtual image
US10802283B2 (en) 2014-11-18 2020-10-13 Samsung Electronics Co., Ltd. Wearable device and method for outputting virtual image
CN105468881A (zh) * 2016-02-17 2016-04-06 成都康烨科技有限公司 基于航拍图像的实景距离计算方法及装置
WO2018061402A1 (ja) * 2016-09-29 2018-04-05 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2018056826A (ja) * 2016-09-29 2018-04-05 ブラザー工業株式会社 ヘッドマウントディスプレイ
CN107449589A (zh) * 2017-09-07 2017-12-08 望新(上海)科技有限公司 一种hud成像位置检测装置及方法
CN107449589B (zh) * 2017-09-07 2023-12-15 望新(上海)科技有限公司 一种hud成像位置检测装置及方法

Similar Documents

Publication Publication Date Title
CN112130329B (zh) 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
KR20210003131A (ko) 헤드업 디스플레이에서의 향상된 증강 현실 경험
US10838205B2 (en) Head mounted display, control method thereof, and computer program
EP3015905B1 (en) Head-up display device
US6675075B1 (en) Device for representing information in a motor vehicle
US10250860B2 (en) Electronic apparatus and image display method
US20150085333A1 (en) Retinal display projection device
JP2006205930A (ja) 映像表示装置
US20190317328A1 (en) System and method for providing augmented-reality assistance for vehicular navigation
JP2009008722A (ja) 3次元ヘッドアップディスプレイ装置
KR20160088717A (ko) 차량에서 웨어러블 기기를 이용한 기능 실행 방법 및 이를 수행하는 차량
WO2006057227A1 (ja) 映像表示装置
JP2014010418A (ja) 立体表示装置及び立体表示方法
JPH08197981A (ja) 車輌用表示装置
JP6707809B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
KR20160050852A (ko) Hud 시스템에서 전방 주시 가능한 제어장치
EP3556339B1 (en) Vision training device for enhancing fusional vergence
KR20090017212A (ko) 차량용 hud 시스템의 이미지 보정 장치
JP2018182570A (ja) 視線情報共有方法および視線情報共有システム
KR20180037909A (ko) 스마트 안경
JP4370997B2 (ja) 頭部装着型表示装置
JPH0784519A (ja) ナビゲーションシステム
US20040239583A1 (en) Display unit for a vehicle
JP2005107038A (ja) 網膜走査表示装置
CN113196377A (zh) 显示光射出装置、平视显示装置、图像显示***及头盔

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 05809676

Country of ref document: EP

Kind code of ref document: A1