WO2013088486A1 - 表示装置、表示方法及び表示プログラム - Google Patents

表示装置、表示方法及び表示プログラム Download PDF

Info

Publication number
WO2013088486A1
WO2013088486A1 PCT/JP2011/078653 JP2011078653W WO2013088486A1 WO 2013088486 A1 WO2013088486 A1 WO 2013088486A1 JP 2011078653 W JP2011078653 W JP 2011078653W WO 2013088486 A1 WO2013088486 A1 WO 2013088486A1
Authority
WO
WIPO (PCT)
Prior art keywords
image information
information light
image
retina
display device
Prior art date
Application number
PCT/JP2011/078653
Other languages
English (en)
French (fr)
Inventor
隆一郎 松本
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2011/078653 priority Critical patent/WO2013088486A1/ja
Priority to JP2013548964A priority patent/JP5663102B2/ja
Publication of WO2013088486A1 publication Critical patent/WO2013088486A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • B60K35/285Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver for improving awareness by directing driver's gaze direction or eye points
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/191Highlight information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/785Instrument locations other than the dashboard on or in relation to the windshield or windows
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the present invention relates to a display device that visually recognizes an image by projecting light onto a user's retina.
  • Patent Document 1 a warning display for alerting the driver to a position that does not interfere with the driver's line of sight during driving is performed, and the driver's line of sight is displayed from the position where the warning display is performed.
  • a technique for performing guidance display for guiding to a position of a guidance target has been proposed.
  • Patent Document 1 In the technique described in Patent Document 1 described above, the driver's gaze guidance is basically performed after alerting in the peripheral vision region of the field of view during forward gaze.
  • Patent Document 1 does not describe that information is appropriately displayed outside the peripheral vision by performing line-of-sight guidance to the outer region of the peripheral vision during driving.
  • Examples of the problem to be solved by the present invention include the above. It is an object of the present invention to provide a display device, a display method, and a display program that can appropriately present information over a wide range that is greater than peripheral vision.
  • an emitting means for emitting image information light and an optical element on which the image information light is incident, and the user's retina is irradiated with the image information light via the optical element.
  • the image information light includes first image information light and second image information light, and the first image information light and the second image information light are Depending on the movement of the user's eyeball, either one is condensed at different positions so that one is irradiated on the retina, and the first image information light is irradiated on the retina.
  • control means for performing control for notifying guidance information for prompting the user to move the eyeball so that the second image information light is irradiated on the retina.
  • the image processing apparatus includes an emission unit that emits image information light and an optical element that receives the image information light, and irradiates the user's retina with the image information light via the optical element.
  • the image information light includes a first image information light and a second image information light, and the first image information light and the first image information light are displayed.
  • the two-image information light is condensed at different positions so that either one is irradiated on the retina according to the movement of the user's eyeball, and the first image information light is applied to the retina.
  • the image processing apparatus includes an emission unit that emits image information light, an optical element that receives the image information light, and a computer, and uses the image information light via the optical element as a user's retina.
  • the image information light includes first image information light and second image information light, and the first image information light
  • the second image information light is condensed at different positions so that either one is irradiated on the retina according to the movement of the user's eyeball
  • the first image information light is Control for notifying the user of guidance information for prompting the user to move the eyeball so that the second image information light is irradiated on the retina from the state irradiated on the retina Means, as said co The functioning of the computer.
  • an emitting means for emitting image information light and an optical element to which the image information light is incident, and the user's retina is irradiated with the image information light via the optical element.
  • the image information light includes first image information light and second image information light, and the first image information light and the second image information light are In accordance with the movement of the user's eyeball, either one is condensed at different positions so that the main region of the retina is irradiated, and the first image information light is irradiated onto the retina.
  • Control means for performing control for notifying the user of guidance information for prompting the user to move the eyeball so that the second image information light is irradiated on the retina.
  • an emitting means for emitting image information light and an optical element on which the image information light is incident, and the user's retina is irradiated with the image information light via the optical element.
  • the image information light includes first image information light and second image information light, and the first image information light and the second image information light are The second image information light is applied to the retina from the state where the first image information light is applied to the retina according to the movement of the user's eyeball.
  • Control means for performing control for notifying the user of guidance information for prompting the user to move the eyeball so that the eyeball moves.
  • the image processing apparatus includes an emitting unit that emits image information light, and an optical element that receives the image information light, and irradiates a user's retina with the image information light via the optical element.
  • the image information light includes a first image information light and a second image information light, and the first image information light and the second image information light are: Depending on the movement of the user's eyeball, either one is focused on the retina, and the light is condensed at different positions, and the first image information light is irradiated on the retina.
  • the display device includes an emitting unit and an optical element (for example, a hologram element), and causes the image information light via the optical element to be projected onto the retina so as to visually recognize the image.
  • the image information light includes first image information light and second image information light.
  • the first image information light and the second image information light are condensed at different positions by the function of the optical element so that either one is irradiated on the retina according to the movement of the user's eyeball.
  • the control means provides guidance information for prompting the user to move the eyeball so that the second image information light is irradiated on the retina from the state where the first image information light is irradiated on the retina. Control to notify is performed.
  • an optical element for example, a hologram element
  • the control unit performs control for displaying a guide image as control for informing the guide information
  • the guide image is obtained by projecting the first image information light onto the retina. It is an image corresponding to a second image included in one image and projected by the second image information light onto the retina.
  • control unit is a position away from a central region in the first image, and a position corresponding to a direction of an arrangement position of the second image with respect to the first image. Then, the guidance image is displayed. Thereby, a user's eyes
  • control unit displays an image included in the second image as the guide image.
  • control means can perform control to generate sound according to information to be displayed by the second image information light as control for informing the guidance information.
  • control means may perform control to vibrate a vehicle handle in accordance with information to be displayed by the second image information light, as control for informing the guidance information. it can.
  • the control unit performs control to notify the guidance information when predetermined information is to be displayed by the second image information light.
  • the predetermined information is information relating to an emergency vehicle.
  • the predetermined information is information related to an object that is likely to cause a traffic accident.
  • the predetermined information is information regarding a predetermined point on the map that is not directly related to driving or navigation of the vehicle.
  • the optical element includes a first region and a second region, and the first image information light is light that has passed through the first region, and the second image information The light is light that has passed through the second region.
  • the first area is formed in the optical element such that the first image information light is projected onto the retina when the user's eyeball faces the front
  • the second area is The second image information light is formed on the optical element so that the second image information light is projected onto the retina when the user's eyeball faces a predetermined direction other than the front.
  • the second image information light is projected onto the retina when the user turns his / her eyeball toward a room mirror or a door mirror while the vehicle is driving. Formed on the optical element.
  • a room mirror or a door mirror can be used as a target when moving the line of sight, it is possible to instantaneously move the line of sight and view information.
  • by associating limited specific objects in the vehicle such as the room mirror and the door mirror with the position to move the line of sight it is possible to easily determine the position to move the line of sight when displaying the guidance image.
  • the second area is formed when the user turns his eyeball in a direction corresponding to a direction in which a target of information to be displayed by the second image information light is present.
  • Two image information lights are formed on the optical element so as to be projected onto the retina. Accordingly, the information target can be easily determined by associating the direction in which the line of sight is moved with the direction in which the information target exists.
  • the image processing apparatus includes an emitting unit that emits image information light and an optical element that receives the image information light, and irradiates the user's retina with the image information light via the optical element.
  • the image information light includes first image information light and second image information light, and the first image information light and the second image information light are displayed.
  • the image information light is condensed at different positions so that either one is irradiated on the retina according to the movement of the user's eyeball, and the first image information light is irradiated on the retina.
  • the image processing apparatus includes: an emitting unit that emits image information light; an optical element that receives the image information light; and a computer.
  • the image information light includes first image information light and second image information light, and the first image information light
  • the second image information light is condensed at different positions so that either one is irradiated on the retina according to the movement of the user's eyeball, and the first image information light is Control for notifying the user of guidance information for prompting the user to move the eyeball so that the second image information light is irradiated on the retina from the state irradiated on the retina Means, as said con To work Yuta.
  • the above display program can be suitably handled in a state of being recorded on a recording medium.
  • the image processing apparatus includes an emitting unit that emits image information light and an optical element that receives the image information light, and irradiates the user's retina with the image information light via the optical element.
  • the image information light includes first image information light and second image information light, and the first image information light and the second image information light are In accordance with the movement of the user's eyeball, either one is condensed at different positions so that the main region of the retina is irradiated, and the first image information light is irradiated onto the retina.
  • Control means for performing control for notifying the user of guidance information for prompting the user to move the eyeball so that the second image information light is irradiated on the retina.
  • the image processing apparatus includes an emitting unit that emits image information light and an optical element that receives the image information light, and irradiates the user's retina with the image information light via the optical element.
  • the image information light includes first image information light and second image information light, and the first image information light and the second image information light are The second image information light is applied to the retina from the state where the first image information light is applied to the retina according to the movement of the user's eyeball.
  • Control means for performing control for notifying guidance information for prompting the user to move the eyeball so that the eyeball moves.
  • FIG. 1 is a diagram schematically illustrating a configuration of a display device 100 according to the first embodiment.
  • the display device 100 mainly includes a light source unit 1, a scanning mechanism 2, a hologram element 3, and a beam splitter 4.
  • the display device 100 is a device that visually recognizes an image by projecting image information light including image information onto a user's retina.
  • the display device 100 is used as a head mounted display (HMD).
  • HMD head mounted display
  • the light source unit 1 includes a red LD (laser diode), a green LD, a blue LD, and the like, and emits red, green, and blue laser beams (hereinafter also simply referred to as “light”).
  • the light source unit 1 has control circuits such as a video ASIC (Application Specific Integrated Circuit) and a laser driver ASIC.
  • the light source unit 1 performs intensity modulation on the laser light according to the image, and emits the laser light after intensity modulation.
  • the light source unit 1 corresponds to an example of “emission means” and “control means” in the present invention.
  • the laser light emitted from the light source unit 1 enters the scan mechanism 2.
  • the scanning mechanism 2 includes a mirror, an actuator, and the like, and deflects the laser light from the light source unit 1 toward the hologram element 3.
  • the scanning mechanism 2 performs a scanning operation for changing the position on the retina where the laser beam is irradiated in order to draw an image to be displayed on the retina.
  • the hologram element 3 is configured as a transmission type, and condenses the laser beam from the scanning mechanism 2 and emits it toward the beam splitter 4.
  • the hologram element 3 corresponds to an example of an “optical element” in the present invention.
  • the beam splitter 4 is a half mirror in one example, and reflects the laser beam from the hologram element 3 toward the user's eyeball.
  • the laser light is condensed near the user's pupil (including the pupil, and so on), and the laser light is projected onto the user's retina.
  • the image formed by the display device 100 is visually recognized by the user.
  • the display device 100 uses the principle of Maxwell's view in that the laser light is once condensed near the pupil.
  • Maxwell's vision is a method in which light corresponding to an image is once converged at the center of the pupil and then projected onto the retina. According to this method, an image can be observed without being affected by the lens's adjustment function. it can.
  • FIG. 1B is a diagram in which the hologram element 3 is observed from the direction indicated by the arrow X1 in FIG.
  • the hologram element 3 has four hologram regions 3a to 3d.
  • the hologram regions 3a to 3d have substantially the same size and are formed at positions that do not overlap each other.
  • Each of the hologram regions 3a to 3d has a function of collecting incident light and a function of deflecting incident light.
  • the hologram areas 3a to 3d respectively deflect light in different directions and form focal points at different positions.
  • the hologram area 3a generates a focal point at the point P1a
  • the hologram area 3b generates a focal point at the point P1b
  • the hologram area 3c generates a focal point at the point P1c.
  • Region 3d generates a focal point at point P1d.
  • the hologram areas 3a to 3d generate focal points P1a to P1d at positions that are separated to some extent so that light through each of the hologram areas 3a to 3d is not simultaneously irradiated onto the pupil. For this reason, image information from different hologram areas 3a to 3d is not visually recognized at the same time.
  • the hologram area 3a corresponds to an example of the “first hologram area” in the present invention
  • the hologram areas 3b to 3d correspond to an example of the “second hologram area” in the present invention.
  • the light passing through the hologram area 3a corresponds to “first image information light”
  • the light passing through the hologram areas 3b to 3d corresponds to “second image information light”.
  • the focal point P1a by the hologram region 3a is generated at a position corresponding to the pupil position when the user's eyeball is facing the front, and the focal points P1b to P1d by the hologram regions 3b to 3d are other than the front of the user's eyeball. Is generated at a position corresponding to the pupil position when facing the predetermined direction.
  • the focal points P1b to P1d by the hologram regions 3b to 3d are other than the front of the user's eyeball. Is generated at a position corresponding to the pupil position when facing the predetermined direction.
  • FIG. 2 shows spots SPa to SPd on which images are displayed by hologram areas 3a to 3d superimposed on the scenery in the passenger compartment.
  • the spot SPa corresponds to a region in which an image is displayed when the user is turning his / her head and line of sight in the front direction (that is, when the user's eyeball is facing the front).
  • an image corresponding to the light passing through the hologram area 3a is displayed.
  • the spot SPb corresponds to a region where an image is displayed when the user turns his / her line of sight toward the rearview mirror 50 (in other words, the rearview mirror) with the head facing the front.
  • an image corresponding to the light passing through the hologram area 3b is displayed.
  • the spot SPc corresponds to a region where an image is displayed when the user turns his gaze in the direction of the left door mirror 51 with the head facing the front.
  • the spot SPc an image corresponding to the light passing through the hologram area 3c is displayed.
  • the spot SPd corresponds to a region where an image is displayed when the user turns his gaze in the direction of the right door mirror 52 with the head facing the front.
  • an image corresponding to the light passing through the hologram area 3d is displayed.
  • the direction depends on the direction.
  • the optical design of the hologram element 3 is performed so that an image of a predetermined hologram area (any one of the hologram areas 3a to 3d) is appropriately displayed. For example, in consideration of the vehicle type, the driver's seat position, etc., the arrangement positions, deflection directions, and condensing positions of the hologram regions 3a to 3d in the hologram element 3 are designed.
  • the light source unit 1 mainly includes a display control unit 10 and a database 14.
  • the display control unit 10 corresponds to a video ASIC, a laser driver ASIC, or the like, a process for generating an image to be displayed, a process for controlling a red LD, a green LD, and a blue LD (not shown) so that the image is displayed. I do.
  • the display control unit 10 includes a driving assistance image generation unit 11, an image presentation spot determination unit 12, and a guidance image generation unit 13.
  • the driving assistance image generation unit 11 generates a driving assistance image for assisting driving. Basically, the driving assistance image is displayed in a direction other than the front direction (any one of the direction of the rearview mirror 50, the direction of the left door mirror 51, and the direction of the right door mirror 52) during driving.
  • the driving assistance image generation unit 11 generates a driving assistance image based on information acquired from the in-vehicle sensor 21, the navigation device 22, the web (not shown), or the like. In this case, the driving assistance image generation unit 11 refers to the database 14 in which various driving assistance images created in advance are stored, and generates driving assistance images to be displayed.
  • the in-vehicle sensor 21 is, for example, a camera that captures the surroundings of the vehicle (front, rear, or side), a distance sensor that detects the distance between the host vehicle and the following vehicle (inter-vehicle distance), It has a microphone that collects sound.
  • the image presentation spot determination unit 12 determines a spot for displaying the driving assistance image generated by the driving assistance image generation unit 11. Specifically, the image presentation spot determination unit 12 determines a spot for displaying the driving assistance image from the spots SPb to SPd. That is, the image presentation spot determination unit 12 determines whether to display the driving assistance image in any one of the direction of the rearview mirror 50, the direction of the left door mirror 51, and the direction of the right door mirror 52. In this case, the image presentation spot determination unit 12 determines the spots SPb to SPd, the vehicle interior positions (specifically, the rearview mirror 50, the left door mirror 51, and the right door mirror 52) based on the content of information displayed by the driving assistance image. The spot for displaying the driving assistance image is determined with reference to the database 14 in which the data indicating the correspondence between the two is stored.
  • the guidance image generation unit 13 changes the user's line of sight from the front direction to a direction other than the front direction (the direction of the rearview mirror 50, the direction of the left door mirror 51, and the right side).
  • a guide image for prompting the user to move the eyeball is generated.
  • the guidance image is displayed on the spot SPa used when the user has the head and the line of sight directed in the front direction.
  • the guide image generation unit 13 generates a guide image for urging the user's line of sight from the spot SPa to the spot (any one of the spots SPb to SPd) determined by the image presentation spot determination unit 12. Generate.
  • the guide image generation unit 13 generates a guide image according to the direction of the spot arrangement position determined by the image presentation spot determination unit 12 with respect to the spot SPa.
  • the display control unit 10 performs control to display the guide image generated by the guide image generation unit 13 on the spot SPa, and also determines the spots (spots SPb to SPd determined by the image presentation spot determination unit 12). To control the display of the driving assistance image generated by the driving assistance image generator 11.
  • the display control unit 10 displays information in a wide visual field range using a plurality of spots SPa to SPd.
  • images of the spots SPa to SPd cannot be seen simultaneously. That is, unless the pupil is moved and the light of the adjacent spot is projected onto the retina, information other than the spot being watched cannot be viewed. Therefore, the display control unit 10 displays a guide image for prompting the user to move the line of sight. More specifically, the display control unit 10 displays the driving assistance image generated by the driving assistance image generation unit 11 on the spot determined by the image presentation spot determination unit 12 (any one of the spots SPb to SPd).
  • the guide image generated by the guide image generation unit 13 (that is, an image for guiding the user's line of sight from the front direction in a direction corresponding to the spot determined by the image presentation spot determination unit 12) Is displayed on the spot SPa. Thereby, the user can see the driving assistance images presented at various positions by moving the line of sight.
  • FIG. 4 is a diagram for explaining an example of the display method according to the first embodiment.
  • the display control unit 10 always displays the speed of the following vehicle and the distance between the own vehicle and the following vehicle as a driving assistance image on the spot SPb including the rearview mirror 50, as indicated by an arrow A1 in FIG. .
  • the user usually drives with the viewpoint fixed in the area including the spot SPa, but when the user consciously moves his / her line of sight toward the rearview mirror 50, the speed and distance between the following vehicles Distance information can be confirmed.
  • the speed and the inter-vehicle distance of the succeeding vehicle are obtained based on the detection value of the distance sensor that the in-vehicle sensor 21 has.
  • the display control unit 10 moves to the arrow in FIG. 4 in a situation that may lead to an accident such as a case where the following vehicle is rapidly approaching the host vehicle and may collide.
  • a guide image for prompting the movement of the line of sight from the spot SPa to the spot SPb is displayed on the spot SPa. That is, a guidance image for guiding the user's line of sight from the front direction toward the rearview mirror 50 is displayed.
  • the display control unit 10 displays the guidance image at a position in the spot SPa that is away from the central region and according to the direction of the arrangement position of the spot SPb with respect to the spot SPa.
  • the display controller 10 causes the upper right end of the spot SPa to blink.
  • the display control unit 10 quickly approaches the own vehicle.
  • the guidance image as described above is displayed.
  • the display control unit 10 displays not only the speed and inter-vehicle distance of the following vehicle but also characters such as “possible rear-end collision” on the spot SPb as the driving assistance image.
  • the size of the following vehicle varies depending on the type of vehicle, it is difficult to instantly determine the speed of the following vehicle, the distance between vehicles, the possibility of a rear-end collision, etc. just by looking at the vehicle reflected in the mirror.
  • the user can appropriately grasp the speed of the subsequent vehicle, the inter-vehicle distance, the possibility of a rear-end collision, and the like.
  • the system cannot recognize the vehicle type such as whether the rear vehicle is an emergency vehicle or a truck, if data indicating that the inter-vehicle distance is rapidly shortened is obtained, the line of sight is viewed as if the rearview mirror 50 is viewed. By guiding the user, the user can determine the vehicle type.
  • a guide image is displayed at the upper right end of the spot SPa in order to guide the line of sight to the spot SPb including the rearview mirror 50, the spot SPc including the left door mirror 51 is displayed.
  • a guide image may be displayed at a position far from the center area in the spot SPa and at the lower left end of the spot SPa.
  • a guidance image may be displayed at a position far from the center region in the spot SPa and at the lower right end of the spot SPa.
  • the display control unit 10 can display a guidance image so as to guide the line of sight even when the host vehicle may come into contact with a pedestrian or a bicycle.
  • the display control unit 10 determines whether or not the own vehicle may come into contact with a pedestrian or a bicycle from a captured image of a camera included in the in-vehicle sensor 21, and the own vehicle is a pedestrian or a bicycle.
  • a guidance image as described above is displayed in order to guide the line of sight to a spot (any one of the spots SPb to SPd) according to the direction in which the pedestrian or bicycle exists.
  • the display control unit 10 displays characters such as “possibility of contact with pedestrians” and “possibility of contact with bicycles” as driving assistance images.
  • the display control unit 10 can display a guidance image so as to guide the line of sight even when an emergency vehicle is approaching from behind.
  • FIG. 5 is a flowchart showing a display method performed when an emergency vehicle is approaching from behind. This flow is repeatedly executed by the display control unit 10.
  • step S101 the display control unit 10 analyzes the sound around the host vehicle collected by the microphone of the in-vehicle sensor 21. Then, the process proceeds to step S102.
  • step S102 the display control unit 10 determines whether or not the siren of the emergency vehicle has been collected based on the analysis result of step S101. If the emergency vehicle siren is collected (step S102: Yes), the process proceeds to step S103. If the emergency vehicle siren is not collected (step S102: No), the process returns to step S101.
  • step S103 the display control unit 10 analyzes the direction in which the emergency vehicle exists based on an image photographed by the camera included in the in-vehicle sensor 21. Then, the process proceeds to step S104.
  • step S104 the display control unit 10 determines whether or not an emergency vehicle exists behind, based on the analysis result of step S103. When the emergency vehicle exists behind (step S104: Yes), the process proceeds to step S105. On the other hand, when the emergency vehicle does not exist behind (step S104: No), that is, when the emergency vehicle exists ahead, the process returns to step S101.
  • step S105 the display control unit 10 determines whether or not the emergency vehicle is traveling in the lane on the left side of the lane in which the host vehicle is traveling based on the image captured by the camera. If the emergency vehicle is traveling in the left lane of the host vehicle (step S105: Yes), the process proceeds to step S106. In this case, the display control unit 10 displays characters such as “emergency vehicle” as the driving assistance image on the spot SPc including the left door mirror 51 (step S106), and displays the guidance image on the lower left in the front spot SPa. Is displayed blinking (step S107). Then, the process proceeds to step S114.
  • step S108 the display control unit 10 determines whether or not the emergency vehicle is traveling in the same lane as the lane in which the host vehicle is traveling, based on the image captured by the camera. If the emergency vehicle is traveling in the same lane as the host vehicle (step S108: Yes), the process proceeds to step S109. In this case, the display control unit 10 displays characters such as “emergency vehicle” as the driving assistance image on the spot SPb including the rearview mirror 50 (step S109), and displays the guidance image in the upper right corner of the front spot SPa. Is displayed blinking (step S110). Then, the process proceeds to step S114.
  • step S111 the display control unit 10 determines whether or not the emergency vehicle is traveling in the lane on the right side of the lane in which the host vehicle is traveling based on the image captured by the camera. If the emergency vehicle is traveling in the right lane of the host vehicle (step S111: Yes), the process proceeds to step S112. In this case, the display control unit 10 displays characters such as “emergency vehicle” as the driving assistance image on the spot SPd including the right door mirror 52 (step S112), and displays the guidance image as the lower right corner of the front spot SPa. Is displayed blinking (step S113). Then, the process proceeds to step S114. If the emergency vehicle is not traveling in the right lane of the host vehicle (step S111: No), the process returns to step S101.
  • the driving assistance image described above is generated by the driving assistance image generation unit 11, the spot to be displayed is determined by the image presentation spot determination unit 12, and the above-described guidance image is generated by the guidance image generation unit 13. Is done.
  • step S114 the display control unit 10 determines whether or not the emergency vehicle has passed based on, for example, an image taken by a camera.
  • the process proceeds to step S115.
  • the display control unit 10 erases the display in each spot (step S115). That is, the display of the driving assistance image and the guidance image is deleted. Then, the process ends.
  • the process returns to step S103. In this case, the display control unit 10 performs the processes after step S103 described above again.
  • the display control unit 10 In the exact relative direction of the spot for which the line of sight is to be guided with respect to the spot SPa (specifically, any one of the upper right, lower left and lower right directions of the spot SPa), although the example which displays a guidance image was shown, it is not limited to this. In another example, instead of such an accurate relative direction, the display control unit 10 generates a guidance image in a pseudo direction (that is, an approximate direction) of the spot where the line of sight is to be guided with respect to the spot SPa. Can be displayed.
  • a pseudo direction that is, an approximate direction
  • FIG. 6 is a diagram for explaining another example of the display method according to the first embodiment.
  • the display control unit 10 when guiding the line of sight to the spot SPb including the rearview mirror 50, the display control unit 10 is located at a position away from the central region in the spot SPa and the spot SPa. A guide image is displayed on the upper edge of the screen. Further, when the display control unit 10 guides the line of sight to the spot SPc including the left door mirror 51, the display control unit 10 displays a guide image at the left end of the spot SPa at a position away from the center region in the spot SPa.
  • the guidance image is displayed at a position away from the central area in the spot SPa and at the right end of the spot SPa. In this way, it is possible to simplify the display position for guiding the line of sight.
  • the display control unit 10 causes the end portion of the spot SPa to be lit and displayed as the guidance image.
  • the display control unit 10 displays an icon such as a vehicle or a store at the end of the spot SPa as a guide image display.
  • the display control unit 10 displays the icons of the rearview mirror 50, the left door mirror 51, and the right door mirror 52 at the end of the spot SPa as a guide image display.
  • the display control unit 10 displays a gradation at the end of the spot SPa as a guide image display.
  • the display control unit 10 displays an animation such that the image moves from the central region of the spot SPa toward the end as the guide image display. In yet another example, the display control unit 10 displays an image such that the circle gradually decreases toward the end of the spot SPa as the guidance image.
  • an image is displayed using a plurality of spots, and the spot to be watched is changed by prompting the movement of the line of sight by the guidance image.
  • the line of sight information can be appropriately displayed outside the peripheral vision during driving.
  • the information is displayed when the line of sight is moved to the front where the user is gazing during driving and the positions (back mirror 50, left door mirror 51, and right door mirror 52) that are occasionally gazing during driving.
  • Hologram regions 3a to 3d are formed in the hologram element 3 so as to be displayed. Accordingly, since the rearview mirror 50, the left door mirror 51, and the right door mirror 52 can be used as targets when moving the line of sight, it is possible to instantaneously move the line of sight and view information. That is, in the first embodiment, the spots SPb to SPd for moving the line of sight are associated with limited specific ones in the vehicle such as the rearview mirror 50, the left door mirror 51, and the right door mirror 52. The position where the line of sight should be moved during display can be easily determined.
  • information that is not so important during driving is not visible in the area that is being watched during normal driving, and is only visible when the user consciously moves the line of sight. Therefore, it is possible to appropriately ensure driving safety.
  • an image relating to a predetermined point on the map that is not directly related to driving or navigation of the vehicle is displayed as a driving assistance image, and an image included in such a driving assistance image is displayed as a guidance image.
  • the display control unit 10 displays navigation information such as a route to the destination in a spot included in an area to be watched during driving, and outside the peripheral vision during driving.
  • Information on stores on the left and right sides of the road (restaurants, etc.), information on toilet facilities, and the like are displayed at the spot located at.
  • FIG. 7 shows an example of spots where images are displayed in the second embodiment.
  • images are displayed on the spots SPa, SPe, and SPf.
  • the spot SPa is the same as that of the first embodiment, and corresponds to a region where an image is displayed when the user is turning his / her head and line of sight in the front direction.
  • the spot SPe corresponds to an area in which an image is displayed when the user turns his / her line of sight toward the left with the head directed toward the front.
  • the spot SPf corresponds to an area in which an image is displayed when the user turns his gaze rightward with the head facing the front.
  • information existing on the left front side of the vehicle is displayed in the spot SPe
  • information existing on the right front side of the vehicle is displayed in the spot SPf.
  • the spot SPe displays information related to facilities existing on the left side of the road in the field of view of the host vehicle
  • the spot SPf displays information related to facilities existing on the right side of the road in the field of view of the host vehicle.
  • the optical design of the hologram element 3 is performed.
  • the second embodiment and the first embodiment are basically different in the configuration of the hologram region in the hologram element 3 because the number and positions of the spots to be used are different.
  • FIG. 8 is a diagram for explaining an example of the display method according to the second embodiment.
  • the display control unit 10 displays an arrow indicating route guidance to the destination at a spot SPa included in an area to be watched during driving.
  • the display control unit 10 displays an arrow indicating route guidance based on the route obtained by the navigation device 22.
  • the display control unit 10 performs control so that an arrow indicating route guidance is displayed so as to be superimposed on an actual road corresponding to the arrow. That is, the display control unit 10 performs AR display (AR: Augmented Reality).
  • AR Augmented Reality
  • the display control unit 10 realizes such AR display by analyzing an image captured by a camera included in the in-vehicle sensor 21 and extracting a road corresponding to a route to the destination.
  • the display control unit 10 causes the spot SPe located on the left side of the spot SPa to display information on the toilet facility existing on the left side of the vehicle as a driving assistance image. Specifically, the display control unit 10 displays an icon (WC) indicating a toilet facility on the spot SPe (see arrow B2 in FIG. 8) and an arrow indicating a route to the toilet facility (FIG. 8). (See arrow B3 in FIG. 8). The display control unit 10 performs such display based on map information stored in a database in the navigation device 22. In addition, the display control unit 10 also displays an arrow indicating the route to the toilet facility in the AR manner, similarly to the arrow indicating the route guidance to the destination (see arrow B1).
  • the display control unit 10 causes an arrow indicating a route to the toilet facility to be superimposed and displayed on a road that should actually bend to go to the toilet facility.
  • the display control unit 10 displays the toilet facility icon superimposed on the building facility itself.
  • the display control unit 10 displays an icon (WC) indicating a toilet facility on a spot SPa included in an area to be watched during driving as a guidance image (see arrow B4 in FIG. 8). Specifically, the display control unit 10 displays an icon indicating a toilet facility at a position away from the center area in the spot SPa and according to the direction of the arrangement position of the spot SPe with respect to the spot SPa. Specifically, the display control unit 10 displays an icon indicating a toilet facility at the left end of the spot SPa.
  • WC icon indicating a toilet facility on a spot SPa included in an area to be watched during driving as a guidance image
  • the second embodiment only the navigation information is displayed on the spot SPa to be watched during driving, and the information on the stop-off point is not displayed. Therefore, the information displayed on the spot SPa to be watched during driving is excessive. Therefore, it is possible to ensure driving safety.
  • Modification 1 when the user turns his / her line of sight in a predetermined direction, the optical design of the hologram element 3 is performed so that an image through a predetermined hologram area corresponding to the direction is appropriately displayed. (See FIG. 1 and FIG. 2). That is, in the above-described embodiment, a plurality of hologram regions are formed in the hologram element 3 in accordance with the positions of a plurality of spots for displaying images. In another example, a plurality of hologram regions that can appropriately display images at various spots are formed on the hologram element, and a hologram region to be used is selected from the plurality of hologram regions according to the spots used for displaying images. You can choose.
  • FIG. 9 is a diagram illustrating a schematic configuration of the hologram element 3x according to the first modification.
  • FIG. 9 shows a view of the hologram element 3x observed from a direction along the light traveling direction.
  • a plurality of hologram areas 3xa are regularly arranged in the hologram element 3x according to the first modification.
  • the hologram element 3x is formed with a number of hologram regions 3xa that is at least larger than the number of spots used for image display in an arbitrary situation.
  • a hologram area 3xa to be used is selected according to a spot for displaying an image, and control is performed so that an image by light through the selected hologram area 3xa is displayed. It can be performed.
  • FIG. 2 For example, as in the first embodiment, in the case where an area to be watched during driving, an area including each of the rearview mirror 50, the left door mirror 51, and the right door mirror 52 is used as a spot (see FIG. 2), FIG.
  • the hatched hologram area 3xa can be selected.
  • the hologram area 3xa to be used can be changed when the orientation of the user's head changes. For example, when the head orientation changes, a new hologram region 3xa obtained by shifting the hologram region 3xa used before the head orientation changes in a direction corresponding to the head orientation can be used. By doing so, even when the head direction changes, an image corresponding to the gaze direction can be appropriately displayed as in the case where the line-of-sight direction changes.
  • the change in head orientation can be detected by, for example, an acceleration sensor.
  • Modification 2 In the above-described embodiment, an example of performing control for displaying a guidance image to guide the user's line of sight has been shown, but in another example, control for generating sound to guide the user's line of sight instead. It can be performed. Specifically, in this example, it is possible to perform control to generate sound from the direction of the spot where the line of sight should be moved.
  • control the vehicle handle to vibrate in order to guide the user's line of sight.
  • control it is possible to perform control to vibrate the position of the handle in accordance with the direction of the spot where the line of sight is to be moved.
  • the hologram element 3 is configured as a transmission type (see FIG. 1A), but the hologram element may be configured as a reflection type.
  • the hologram element 3 and the beam splitter 4 are configured separately (see FIG. 1A), but the hologram element 3 and the beam splitter 4 may be configured integrally. . Specifically, one hologram element that has the basic functions of both the hologram element 3 and the beam splitter 4 can be used.
  • the display device 100 is configured as a scanning display (see FIG. 1A), but the display device may be configured as a projection display.
  • the display device is configured as a projection display, a point light source or a predetermined transmission object (for example, LCD) may be used instead of the light source unit 1 and the scanning mechanism 2.
  • Modification 4 Although the example which applies this invention to a head mounted display (HMD) was shown above, application of this invention is not limited to this.
  • the present invention can be applied to various display devices other than the HMD. For example, it can be applied to a visually impaired person auxiliary display and a driving assistance device.
  • the present invention can be used for a display device such as a head-mounted display.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)

Abstract

 表示装置は、画像情報光を出射する出射手段と、画像情報光が入射される光学素子と、を備え、光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる。画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、第1画像情報光と第2画像情報光とは、利用者の眼球の動きに応じて、いずれか一方が網膜に照射されるように、各々異なった位置に集光される。制御手段は、第1画像情報光が網膜に照射されている状態から、第2画像情報光が網膜に照射されている状態になるように、眼球の動きを利用者に促すための誘導情報を報知させる制御を行う。

Description

表示装置、表示方法及び表示プログラム
 本発明は、ユーザの網膜上に光を投影することで画像を視認させる表示装置に関する。
 従来から、ヘッドアップディスプレイなどを用いて、車両の運転に関する情報を表示する技術が知られている。例えば、特許文献1には、運転者の運転中の視線を妨げない位置に運転者に対する注意を喚起するための注意喚起表示を行い、注意喚起表示を行った位置などから、運転者の視線を誘導対象の位置へ誘導させるための誘導表示を行う技術が提案されている。
特開2003-291688号公報
 上記した特許文献1に記載された技術では、基本的には、前方注視中における視界の周辺視領域で注意喚起を行ってから運転者の視線誘導を行っていた。しかしながら、特許文献1には、運転中の周辺視の外側領域への視線誘導を行うことで、周辺視の外側に情報を適切に表示させることについては記載されていない。
 本発明が解決しようとする課題は上記のようなものが例として挙げられる。本発明は、周辺視以上の広い範囲に情報を適切に提示することが可能な表示装置、表示方法及び表示プログラムを提供することを課題とする。
 請求項1に記載の発明では、画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置であって、前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜に照射されるように、各々異なった位置に集光され、前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段を備える。
 請求項15に記載の発明では、画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置によって実行される表示方法であって、前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜に照射されるように、各々異なった位置に集光され、前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御工程を備える。
 請求項16に記載の発明では、画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、コンピュータとを備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置によって実行される表示プログラムであって、前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜に照射されるように、各々異なった位置に集光され、前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段、として前記コンピュータを機能させる。
 請求項18に記載の発明では、画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置であって、前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜の主領域に照射されるように、各々異なった位置に集光され、前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段を備える。
 請求項19に記載の発明では、画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置であって、前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、各々異なった位置に集光され、前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段を備える。
第1実施例に係る表示装置の構成を概略的に示した図である。 第1実施例において画像が表示されるスポットの具体例を示す図である。 第1実施例に係る光源ユニットの概略構成を示す図である。 第1実施例に係る表示方法の一例を説明するための図を示す。 第1実施例に係る表示方法を示すフローチャートである。 第1実施例に係る表示方法の他の例を説明するための図を示す。 第2実施例において画像が表示されるスポットの具体例を示す図である。 第2実施例に係る表示方法の一例を説明するための図を示す。 変形例1に係るホログラム素子の概略構成を示す図である。
 本発明の1つの観点では、画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置であって、前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜に照射されるように、各々異なった位置に集光され、前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段を備える。
 上記の表示装置は、出射手段及び光学素子(例えばホログラム素子)を備え、光学素子を介した画像情報光を網膜に投影させることで画像を視認させる。画像情報光は、第1画像情報光及び第2画像情報光を含んでいる。第1画像情報光と第2画像情報光とは、光学素子の機能によって、利用者の眼球の動きに応じて、いずれか一方が網膜に照射されるように、各々異なった位置に集光される。制御手段は、第1画像情報光が網膜に照射されている状態から、第2画像情報光が網膜に照射されている状態になるように、眼球の動きを利用者に促すための誘導情報を報知させる制御を行う。これにより、利用者に視線を移動させるように誘導することで、注視している領域の外側の領域にも適切に情報を提示することができる。よって、周辺視以上の広い範囲に、適切に情報を提示することが可能となる。
 上記の表示装置の一態様では、前記制御手段は、前記誘導情報を報知させる制御として、誘導画像を表示させる制御を行い、前記誘導画像は、前記第1画像情報光が前記網膜に投影する第1画像に含まれ、前記第2画像情報光が前記網膜に投影する第2画像に応じた画像である。このような誘導画像を用いることで、第1画像が表示される領域から第2画像が表示される領域へ、利用者の視線の移動を適切に促すことができる。
 上記の表示装置の他の一態様では、前記制御手段は、前記第1画像内において中心領域から離れた位置であって、前記第1画像に対する前記第2画像の配置位置の方向に応じた位置に、前記誘導画像を表示させる。これにより、利用者の視線を効果的に誘導することができる。
 上記の表示装置の他の一態様では、前記制御手段は、前記第2画像に含まれる画像を、前記誘導画像として表示させる。これにより、第1画像が表示される領域に視線を向けている状態において、第2画像が表示されていることや、第2画像の概要を把握することができる。
 上記の表示装置の他の一態様では、前記制御手段は、前記誘導情報を報知させる制御として、前記第2画像情報光によって表示すべき情報に応じて音を発生させる制御を行うことができる。
 上記の表示装置の他の一態様では、前記制御手段は、前記誘導情報を報知させる制御として、前記第2画像情報光によって表示すべき情報に応じて車両のハンドルを振動させる制御を行うことができる。
 上記の表示装置の他の一態様では、前記制御手段は、前記第2画像情報光によって所定の情報を表示すべき場合に、前記誘導情報を報知させる制御を行う。好適な例では、前記所定の情報は、緊急車両に関する情報である。他の好適な例では、前記所定の情報は、交通事故を起こしそうな対象に関する情報である。他の好適な例では、前記所定の情報は、車両の運転又はナビゲーションに直接関係しない、地図上の所定のポイントに関する情報である。
 上記の表示装置の他の一態様では、前記光学素子は、第1領域及び第2領域を備え、前記第1画像情報光は、前記第1領域を介した光であり、前記第2画像情報光は、前記第2領域を介した光である。好適には、前記第1領域は、前記利用者の眼球が正面を向いたときに、前記第1画像情報光が前記網膜に投影されるように前記光学素子に形成され、前記第2領域は、前記利用者の眼球が正面以外の所定の方向を向いたときに、前記第2画像情報光が前記網膜に投影されるように前記光学素子に形成されている。
 上記の表示装置において好適には、前記第2領域は、前記利用者が車両の運転中においてルームミラー又はドアミラーの方向に眼球を向けたときに、前記第2画像情報光が前記網膜に投影されるように前記光学素子に形成されている。これにより、視線を移動させる際の目標物として、ルームミラーやドアミラーを利用することができるので、瞬時に視線を移動させて、情報を見ることが可能になる。つまり、ルームミラーやドアミラーといった車内の限られた具体的なものと、視線を移動させる位置とを対応させることで、誘導画像の表示時に視線を移動すべき位置を容易に判断することができる。
 上記の表示装置において好適には、前記第2領域は、前記第2画像情報光によって表示すべき情報の対象が存在する方向に対応する方向に前記利用者が眼球を向けたときに、前記第2画像情報光が前記網膜に投影されるように前記光学素子に形成されている。これにより、視線を移動させる方向と、情報の対象が存在する方向とを対応させることで、情報の対象を容易に判断することができる。
 本発明の他の観点では、画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置によって実行される表示方法であって、前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜に照射されるように、各々異なった位置に集光され、前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御工程を備える。
 本発明の更に他の観点では、画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、コンピュータとを備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置によって実行される表示プログラムであって、前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜に照射されるように、各々異なった位置に集光され、前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段、として前記コンピュータを機能させる。
 上記の表示プログラムは、記録媒体に記録した状態で好適に取り扱うことができる。
 本発明の更に他の観点では、画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置であって、前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜の主領域に照射されるように、各々異なった位置に集光され、前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段を備える。
 本発明の更に他の観点では、画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置であって、前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、各々異なった位置に集光され、前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段を備える。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [第1実施例]
 まず、第1実施例について説明する。
 (全体構成)
 図1は、第1実施例に係る表示装置100の構成を概略的に示した図である。図1(a)に示すように、表示装置100は、主に、光源ユニット1と、スキャン機構2と、ホログラム素子3と、ビームスプリッタ4とを備える。表示装置100は、画像情報を含む画像情報光を、ユーザの網膜上に投影することで画像を視認させる装置である。例えば、表示装置100は、ヘッドマウントディスプレイ(HMD)として利用される。
 光源ユニット1は、赤色LD(レーザダイオード)、緑色LD及び青色LDなどを有し、赤色、緑色及び青色のレーザ光(以下では、単に「光」とも表記する。)を出射する。この他にも、光源ユニット1は、ビデオASIC(Application Specific Integrated Circuit)やレーザドライバASICなどの制御回路を有する。例えば、光源ユニット1は、画像に応じてレーザ光に対して強度変調を行い、強度変調後のレーザ光を出射する。光源ユニット1は、本発明における「出射手段」及び「制御手段」の一例に相当する。
 光源ユニット1から出射されたレーザ光は、スキャン機構2に入射する。スキャン機構2は、ミラーやアクチュエータなどを具備して構成され、光源ユニット1からのレーザ光をホログラム素子3に向けて偏向する。スキャン機構2は、表示すべき画像を網膜上に描画するべく、レーザ光を照射する網膜上の位置を変更するためのスキャン動作を行う。
 ホログラム素子3は、透過型に構成されており、スキャン機構2からのレーザ光を集光して、ビームスプリッタ4に向けて出射する。ホログラム素子3は、本発明における「光学素子」の一例に相当する。ビームスプリッタ4は、1つの例ではハーフミラーであり、ホログラム素子3からのレーザ光を、ユーザの眼球に向けて反射する。これにより、レーザ光がユーザの瞳孔近傍(瞳孔上も含むものとする。以下同様とする。)に集光され、レーザ光がユーザの網膜上に投影されることとなる。その結果、表示装置100によって形成された画像が、ユーザに視認されることとなる。
 なお、表示装置100は、レーザ光を瞳孔近傍に一旦集光させるといった点に関し、マックスウェル視の原理を利用している。マックスウェル視は、画像に対応する光を一旦瞳孔の中心で収束させてから網膜上に投影する方法であり、この方法によれば、水晶体の調節機能に影響されずに画像を観察することができる。
 図1(b)を参照して、第1実施例に係るホログラム素子3について具体的に説明する。図1(b)は、図1(a)中の矢印X1で示す方向からホログラム素子3を観察した図である。
 図1(b)に示すように、ホログラム素子3は、4つのホログラム領域3a~3dが形成されている。ホログラム領域3a~3dは、概ね同一のサイズを有しており、互いに重ならない位置に形成されている。ホログラム領域3a~3dは、それぞれ、入射された光を集光する機能及び入射された光を偏向する機能を有している。具体的には、ホログラム領域3a~3dは、それぞれで異なる方向に光を偏向させ、それぞれで異なる位置に焦点を形成させる。
 これにより、図1(a)に示すように、ホログラム領域3aは点P1aに焦点を生成し、ホログラム領域3bは点P1bに焦点を生成し、ホログラム領域3cは点P1cに焦点を生成し、ホログラム領域3dは点P1dに焦点を生成する。この場合、ホログラム領域3a~3dは、ホログラム領域3a~3dのそれぞれを介した光が同時に瞳孔に照射されないように、ある程度離れた位置に焦点P1a~P1dを生成する。そのため、異なるホログラム領域3a~3dによる画像情報が同時に視認されることはない。
 なお、ホログラム領域3aは本発明における「第1ホログラム領域」の一例に相当し、ホログラム領域3b~3dは本発明における「第2ホログラム領域」の一例に相当する。また、ホログラム領域3aを介した光は「第1画像情報光」に相当し、ホログラム領域3b~3dを介した光は「第2画像情報光」に相当する。
 ここで、ホログラム領域3aによる焦点P1aは、ユーザの眼球が正面を向いているときの瞳孔位置に対応する位置に生成され、ホログラム領域3b~3dによる焦点P1b~P1dは、ユーザの眼球が正面以外の所定の方向を向いているときの瞳孔位置に対応する位置に生成される。ユーザの眼球が正面を向いているときには、ホログラム領域3aを介した光のみが瞳孔近傍に集光されることで、ホログラム領域3aを介した光に対応する画像のみが網膜上に投影され、ホログラム領域3b~3dを介した光に対応する画像は網膜上に投影されない。よって、この場合には、ユーザは、ホログラム領域3aを介した光に対応する画像(本発明における「第1画像」に相当する)のみを視認することとなる。
 他方で、ユーザの眼球が正面以外の所定の方向を向いているときには、ホログラム領域3b~3dにおける一の領域を介した光のみが瞳孔近傍に集光されることで、当該一の領域を介した光に対応する画像のみが網膜上に投影され、ホログラム領域3a及びホログラム領域3b~3dにおける他の領域を介した光に対応する画像は網膜上に投影されない。よって、この場合には、ユーザは、ホログラム領域3b~3dにおける一の領域を介した光に対応する画像(本発明における「第2画像」に相当する)のみを視認することとなる。
 次に、図2を参照して、ユーザ(車両の運転者に相当する。以下同様とする。)の視線方向と、ホログラム領域3a~3dによって表示される画像との関係について、具体的に説明する。図2は、車室内の風景に重畳して、ホログラム領域3a~3dによって画像が表示されるスポットSPa~SPdを示している。
 スポットSPaは、ユーザが正面方向に頭及び視線を向けているときに(つまりユーザの眼球が正面を向いているときに)、画像が表示される領域に相当する。スポットSPaにおいては、ホログラム領域3aを介した光に対応する画像が表示される。スポットSPbは、ユーザが正面方向に頭を向けた状態でバックミラー50(言い換えるとルームミラー)の方向に視線を向けたときに、画像が表示される領域に相当する。スポットSPbにおいては、ホログラム領域3bを介した光に対応する画像が表示される。スポットSPcは、ユーザが正面方向に頭を向けた状態で左ドアミラー51の方向に視線を向けたときに、画像が表示される領域に相当する。スポットSPcにおいては、ホログラム領域3cを介した光に対応する画像が表示される。スポットSPdは、ユーザが正面方向に頭を向けた状態で右ドアミラー52の方向に視線を向けたときに、画像が表示される領域に相当する。スポットSPdにおいては、ホログラム領域3dを介した光に対応する画像が表示される。
 なお、上記のようにユーザが所定の方向(正面方向、バックミラー50の方向、左ドアミラー51の方向及び右ドアミラー52の方向のいずれかの方向)に視線を向けたときに、その方向に応じた所定のホログラム領域(ホログラム領域3a~3dのいずれかの領域)による画像が適切に表示されるように、ホログラム素子3についての光学設計が行われる。例えば、車種や運転者のシートポジションなどを考慮に入れて、ホログラム素子3におけるホログラム領域3a~3dの配置位置や偏向方向や集光位置などの設計が行われる。
 (光源ユニットの構成)
 次に、図3を参照して、第1実施例に係る光源ユニット1の概略構成について説明する。ここでは、光源ユニット1が行う制御の概要について説明する。
 図3に示すように、光源ユニット1は、主に、表示制御部10及びデータベース14を有する。表示制御部10は、ビデオASICやレーザドライバASICなどに相当し、表示すべき画像を生成する処理や、当該画像が表示されるように図示しない赤色LD、緑色LD及び青色LDを制御する処理などを行う。具体的には、表示制御部10は、運転補助画像生成部11と、画像提示スポット決定部12と、誘導画像生成部13とを有する。
 運転補助画像生成部11は、運転を補助するための運転補助画像を生成する。基本的には、運転補助画像は、運転中において正面方向以外の方向(バックミラー50の方向、左ドアミラー51の方向及び右ドアミラー52の方向のいずれかの方向)に表示されるものである。運転補助画像生成部11は、車載センサ21やナビゲーション装置22やウェブ(不図示)などから取得される情報に基づいて、運転補助画像を生成する。この場合、運転補助画像生成部11は、予め作成された種々の運転補助画像が記憶されたデータベース14を参照して、表示すべき運転補助画像を生成する。なお、車載センサ21は、例えば、車両の周囲(前方や後方や側方)を撮影するカメラや、自車両と後続車両との距離(車間距離)を検出する距離センサや、自車両の周辺の音声を集音するマイクなどを有する。
 画像提示スポット決定部12は、運転補助画像生成部11によって生成された運転補助画像を表示するスポットを決定する。具体的には、画像提示スポット決定部12は、上記したスポットSPb~SPdの中から、運転補助画像を表示するスポットを決定する。つまり、画像提示スポット決定部12は、バックミラー50の方向、左ドアミラー51の方向及び右ドアミラー52の方向のうちの、いずれかの方向に運転補助画像を表示するかを決定する。この場合、画像提示スポット決定部12は、運転補助画像によって表示する情報の内容などに基づいて、スポットSPb~SPdと車内位置(具体的にはバックミラー50、左ドアミラー51及び右ドアミラー52)との対応を示すデータが記憶されたデータベース14を参照して、運転補助画像を表示するスポットを決定する。
 誘導画像生成部13は、運転中においてユーザに運転補助画像を視認させるべき状況において、ユーザの視線を、正面方向から、正面方向以外の方向(バックミラー50の方向、左ドアミラー51の方向及び右ドアミラー52の方向のいずれかの方向)に誘導するために、眼球の動きをユーザに促すための誘導画像を生成する。基本的には、誘導画像は、ユーザが正面方向に頭及び視線を向けている場合に用いられるスポットSPaに表示されるものである。具体的には、誘導画像生成部13は、スポットSPaから、画像提示スポット決定部12によって決定されたスポット(スポットSPb~SPdのいずれか)へ、ユーザの視線の移動を促すための誘導画像を生成する。この場合、誘導画像生成部13は、スポットSPaに対する、画像提示スポット決定部12によって決定されたスポットの配置位置の方向に応じた誘導画像を生成する。
 このように、表示制御部10は、誘導画像生成部13によって生成された誘導画像をスポットSPaに表示させる制御を行うと共に、画像提示スポット決定部12によって決定されたスポット(スポットSPb~SPdのいずれか)に、運転補助画像生成部11によって生成された運転補助画像を表示させる制御を行う。
 (表示方法)
 次に、光源ユニット1内の表示制御部10が行う、第1実施例に係る表示方法について具体的に説明する。
 本実施例では、表示制御部10は、複数のスポットSPa~SPdを用いて、広い視野範囲に情報を表示させる。ここで、前述したようなホログラム領域3a~3dの構成により、同時にスポットSPa~SPdの画像を見ることはできない。つまり、瞳孔を動かして隣接スポットの光を網膜に投影しないと、注視しているスポット以外の情報を視認することができない。そのため、表示制御部10は、ユーザに視線を移動させることを促すための誘導画像を表示させる。より具体的には、表示制御部10は、画像提示スポット決定部12によって決定されたスポット(スポットSPb~SPdのいずれか)に、運転補助画像生成部11によって生成された運転補助画像を表示させる制御を行うと共に、誘導画像生成部13によって生成された誘導画像(つまり、ユーザの視線を、正面方向から、画像提示スポット決定部12によって決定されたスポットに対応する方向に誘導するための画像)をスポットSPaに表示させる制御を行う。これにより、ユーザは、視線を移動させることで、様々な位置に提示された運転補助画像を見ることができる。
 以下では、第1実施例に係る表示方法の具体例について説明する。
 図4は、第1実施例に係る表示方法の一例を説明するための図である。表示制御部10は、図4中の矢印A1で示すように、バックミラー50が含まれるスポットSPbに、運転補助画像として、後続車両の速度及び自車両と後続車両との車間距離を常に表示させる。ユーザ(運転者)は、通常、スポットSPaが含まれる領域に視点を固定して運転をしているが、意識的にバックミラー50の方向に視線を移動させたときには、後続車両の速度及び車間距離の情報を確認することができる。なお、後続車両の速度及び車間距離は、車載センサ21が有する距離センサの検出値に基づいて求められる。
 ここで、後続車両の速度及び車間距離をスポットSPaに表示することも考えられるが、運転に支障がない場合にこうした些細な情報をユーザに常に見せると、その表示を気にしてしまって、かえって運転に支障が生じてしまう可能性がある。反対に、後続車両が急速に自車両に接近していて追突される可能性がある場合などの事故につながる可能性がある状況においては、そのような後続車両の情報を積極的に提示することが望ましいと言える。しかしながら、基本的には、ユーザは、バックミラー50を見ることがないと後続車両の接近には気づかない。
 そこで、本実施例では、表示制御部10は、後続車両が急速に自車両に接近していて追突される可能性がある場合などの事故につながる可能性がある状況において、図4中の矢印A2で示すように、スポットSPaからスポットSPbへ視線の移動を促すための誘導画像を、スポットSPaに表示させる。つまり、ユーザの視線を、正面方向から、バックミラー50の方向に誘導するための誘導画像を表示させる。具体的には、表示制御部10は、スポットSPa内において中心領域から離れた位置であって、スポットSPaに対するスポットSPbの配置位置の方向に応じた位置に、誘導画像を表示させる。詳しくは、表示制御部10は、スポットSPaの右上方の端部を点滅表示させる。
 表示制御部10は、例えば、後続車両の速度が所定速度以上で、且つ自車両と後続車両との車間距離が所定距離以下である場合に、後続車両が急速に自車両に接近していて追突される可能性があると判断し、上記のような誘導画像を表示させる。また、この場合、表示制御部10は、運転補助画像として、後続車両の速度及び車間距離だけでなく、「追突可能性あり」といった文字もスポットSPbに表示させる。
 後続車両のサイズが車種などによって異なるため、ミラーに映る車両を見ただけで瞬時に後続車両の速度や車間距離や追突可能性などを判断することは困難であるが、上記したような運転補助画像や誘導画像を表示させることで、ユーザは、後続車両の速度や車間距離や追突可能性などを適切に把握することが可能となる。また、後方車両が緊急自動車なのかトラックなのかといった車種をシステムが認識できない場合でも、車間距離が急激に短くなっていることを示すデータなどが取得されれば、バックミラー50を見るように視線を誘導することにより、ユーザが車種を判断することができる。
 なお、図4では、バックミラー50が含まれるスポットSPbに視線を誘導するべく、スポットSPaの右上方の端部に誘導画像を表示させる例を示したが、左ドアミラー51が含まれるスポットSPcに視線を誘導する場合には、スポットSPa内において中心領域から離れた位置であって、スポットSPaの左下方の端部に誘導画像を表示させれば良い。また、右ドアミラー52が含まれるスポットSPdに視線を誘導する場合には、スポットSPa内において中心領域から離れた位置であって、スポットSPaの右下方の端部に誘導画像を表示させれば良い。
 また、上記では、後続車両が急速に自車両に接近していて追突される可能性がある場合などの事故につながる可能性がある状況において、誘導画像を表示させる例を示したが、他の例では、表示制御部10は、自車両が歩行者や自転車などと接触する可能性がある場合にも、視線を誘導するように誘導画像を表示させることができる。この例では、表示制御部10は、車載センサ21が有するカメラの撮影画像などより、自車両が歩行者や自転車と接触する可能性があるか否かを判断し、自車両が歩行者や自転車と接触する可能性があると判断される場合に、歩行者や自転車が存在する方向に応じたスポット(スポットSPb~SPdのいずれか)に視線を誘導するべく、上記したような誘導画像を表示させる。また、この場合、表示制御部10は、運転補助画像として、「歩行者との接触の可能性あり」や「自転車との接触の可能性あり」といった文字を表示させる。
 更に他の例では、表示制御部10は、後方から緊急車両が接近している場合にも、視線を誘導するように誘導画像を表示させることができる。
 図5は、後方から緊急車両が接近している場合に行われる表示方法を示すフローチャートである。このフローは、表示制御部10によって繰り返し実行される。
 まず、ステップS101では、表示制御部10は、車載センサ21が有するマイクによって集音された、自車両の周辺の音声を解析する。そして、処理はステップS102に進む。ステップS102では、表示制御部10は、ステップS101の解析結果に基づいて、緊急車両のサイレンが集音されたか否かを判定する。緊急車両のサイレンが集音された場合(ステップS102:Yes)、処理はステップS103に進み、緊急車両のサイレンが集音されなかった場合(ステップS102:No)、処理はステップS101に戻る。
 ステップS103では、表示制御部10は、緊急車両が存在する方向を、車載センサ21が有するカメラによって撮影された画像に基づいて解析する。そして、処理はステップS104に進む。ステップS104では、表示制御部10は、ステップS103の解析結果に基づいて、緊急車両が後方に存在するか否かを判定する。緊急車両が後方に存在する場合(ステップS104:Yes)、処理はステップS105に進む。これに対して、緊急車両が後方に存在しない場合(ステップS104:No)、つまり緊急車両が前方に存在する場合、処理はステップS101に戻る。
 ステップS105では、表示制御部10は、カメラによって撮影された画像に基づいて、自車両が走行している車線の左側の車線を緊急車両が走行しているか否かを判定する。緊急車両が自車両の左車線を走行している場合(ステップS105:Yes)、処理はステップS106に進む。この場合、表示制御部10は、左ドアミラー51が含まれるスポットSPcに、運転補助画像として「緊急車両」といった文字を表示させ(ステップS106)、誘導画像の表示として、正面のスポットSPaにおける左下方の端部を点滅表示させる(ステップS107)。そして、処理はステップS114に進む。
 他方で、緊急車両が自車両の左車線を走行していない場合(ステップS105:No)、処理はステップS108に進む。ステップS108では、表示制御部10は、カメラによって撮影された画像に基づいて、自車両が走行している車線と同じ車線を緊急車両が走行しているか否かを判定する。緊急車両が自車両と同じ車線を走行している場合(ステップS108:Yes)、処理はステップS109に進む。この場合、表示制御部10は、バックミラー50が含まれるスポットSPbに、運転補助画像として「緊急車両」といった文字を表示させ(ステップS109)、誘導画像の表示として、正面のスポットSPaにおける右上方の端部を点滅表示させる(ステップS110)。そして、処理はステップS114に進む。
 他方で、緊急車両が自車両と同じ車線を走行していない場合(ステップS108:No)、処理はステップS111に進む。ステップS111では、表示制御部10は、カメラによって撮影された画像に基づいて、自車両が走行している車線の右側の車線を緊急車両が走行しているか否かを判定する。緊急車両が自車両の右車線を走行している場合(ステップS111:Yes)、処理はステップS112に進む。この場合、表示制御部10は、右ドアミラー52が含まれるスポットSPdに、運転補助画像として「緊急車両」といった文字を表示させ(ステップS112)、誘導画像の表示として、正面のスポットSPaにおける右下方の端部を点滅表示させる(ステップS113)。そして、処理はステップS114に進む。なお、緊急車両が自車両の右車線を走行していない場合(ステップS111:No)、処理はステップS101に戻る。
 なお、上記した運転補助画像は、運転補助画像生成部11によって生成されると共に、画像提示スポット決定部12によって表示するスポットが決定され、また、上記した誘導画像は、誘導画像生成部13によって生成される。
 ステップS114では、表示制御部10は、例えばカメラによって撮影された画像などに基づいて、緊急車両が通過したか否かを判定する。緊急車両が通過した場合(ステップS114:Yes)、処理はステップS115に進む。この場合には、表示制御部10は、各スポット内の表示を消去する(ステップS115)。つまり、上記した運転補助画像及び誘導画像の表示を消去する。そして、処理は終了する。これに対して、緊急車両が通過していない場合(ステップS114:No)、処理はステップS103に戻る。この場合には、表示制御部10は、上記したステップS103以降の処理を再度行う。
 なお、図4及び図5では、スポットSPaに対する、視線を誘導させたいスポットの正確な相対的な方向(具体的にはスポットSPaの右上方、左下方及び右下方のいずれかの方向)に、誘導画像を表示させる例を示したが、これに限定はされない。他の例では、表示制御部10は、このような正確な相対的な方向の代わりに、スポットSPaに対する、視線を誘導させたいスポットの擬似的な方向(つまり近似的な方向)に、誘導画像を表示させることができる。
 図6は、第1実施例に係る表示方法の他の例を説明するための図である。図6中の矢印A3で示すように、表示制御部10は、バックミラー50が含まれるスポットSPbに視線を誘導する場合には、スポットSPa内において中心領域から離れた位置であって、スポットSPaの上の端部に誘導画像を表示させる。また、表示制御部10は、左ドアミラー51が含まれるスポットSPcに視線を誘導する場合には、スポットSPa内において中心領域から離れた位置であって、スポットSPaの左の端部に誘導画像を表示させ、右ドアミラー52が含まれるスポットSPdに視線を誘導する場合には、スポットSPa内において中心領域から離れた位置であって、スポットSPaの右の端部に誘導画像を表示させる。このようにすることで、視線を誘導するための表示位置を単純化することが可能となる。
 更に、図4及び図5では、誘導画像の表示として、スポットSPaの端部を点滅表示させる例を示したが、これに限定はされない。他の例では、表示制御部10は、誘導画像の表示として、スポットSPaの端部を点灯表示させる。更に他の例では、表示制御部10は、誘導画像の表示として、スポットSPaの端部に、車両や店舗などのアイコンを表示させる。更に他の例では、表示制御部10は、誘導画像の表示として、スポットSPaの端部に、バックミラー50や左ドアミラー51や右ドアミラー52のアイコンを表示させる。更に他の例では、表示制御部10は、誘導画像の表示として、スポットSPaの端部に、グラデーションを表示させる。更に他の例では、表示制御部10は、誘導画像の表示として、スポットSPaの中央領域から端部に向かって画像が移動するようなアニメーションを表示させる。更に他の例では、表示制御部10は、誘導画像の表示として、スポットSPaの端部に向かって徐々に円が小さくなるような画像を表示させる。
 (第1実施例による作用・効果)
 以上説明したように、第1実施例では、複数のスポットを用いて画像を表示させると共に、誘導画像によって視線の移動を促すことで、注視させるスポットを変更させる。これにより、視線を移動させることによって、運転中の周辺視の外側にも適切に情報を表示させることができる。つまり、運転中の周辺視の外側領域への視線移動誘導を行うことで、周辺視以上の広い範囲に、適切に情報を提示することが可能になる。
 また、第1実施例では、ユーザが運転中に注視している正面、及び運転中に時折注視する位置(バックミラー50、左ドアミラー51及び右ドアミラー52)に視線を移動させたときに情報が表示されるように、ホログラム素子3にホログラム領域3a~3dを形成している。これにより、視線を移動させる際の目標物として、バックミラー50、左ドアミラー51及び右ドアミラー52を利用することができるので、瞬時に視線を移動させて、情報を見ることが可能になる。つまり、第1実施例では、視線を移動させるスポットSPb~SPdと、バックミラー50、左ドアミラー51及び右ドアミラー52といった車内の限られた具体的なものとを対応させているので、誘導画像の表示時に視線を移動すべき位置を容易に判断することができる。
 更に、第1実施例によれば、運転中にそれほど重要でない情報を、通常運転中に注視している領域では見えないようにし、ユーザが意識的に視線を移動させた場合にのみ見えるようにしているため、運転上の安全性を適切に確保することができる。
 [第2実施例]
 次に、第2実施例について説明する。第2実施例では、運転補助画像として、車両の運転又はナビゲーションに直接関係しない、地図上の所定のポイントに関する画像を表示させると共に、誘導画像として、そのような運転補助画像に含まれる画像を表示させる点で、第1実施例と異なる。具体的には、第2実施例では、表示制御部10は、運転中に注視する領域に含まれるスポットに、目的地までのルートなどのナビゲーション情報を表示させると共に、運転中の周辺視の外側に位置するスポットに、道路左右の周辺店舗(レストランなど)の情報やトイレ施設の情報などを表示させる。
 なお、以下では、第1実施例と同様の構成や処理や制御については、適宜説明を省略する。また、ここで特に説明しない構成や処理や制御については、第1実施例と同様であるものとする。
 図7は、第2実施例において画像が表示されるスポットの一例を示している。図7に示すように、第2実施例では、スポットSPa、SPe、SPfに画像を表示させる。スポットSPaは、第1実施例と同様のものであり、ユーザが正面方向に頭及び視線を向けているときに画像が表示される領域に相当する。スポットSPeは、ユーザが正面方向に頭を向けた状態で左方向に視線を向けたときに画像が表示される領域に相当する。スポットSPfは、ユーザが正面方向に頭を向けた状態で右方向に視線を向けたときに画像が表示される領域に相当する。基本的には、スポットSPeには、車両の前方左側に存在する情報が表示され、スポットSPfには、車両の前方右側に存在する情報が表示される。例えば、スポットSPeには、自車両の視界範囲の道路左側に存在する施設に関する情報が表示され、スポットSPfには、自車両の視界範囲の道路右側に存在する施設に関する情報が表示される。
 なお、上記のようにユーザが所定の方向(正面方向、左方向及び右方向のいずれかの方向)に視線を向けたときに、その方向に応じた所定のホログラム領域による画像が適切に表示されるように、ホログラム素子3についての光学設計が行われるものとする。第2実施例と第1実施例とでは、使用するスポットの数や位置などが異なるため、ホログラム素子3におけるホログラム領域の構成は基本的には異なる。
 図8は、第2実施例に係る表示方法の一例を説明するための図である。表示制御部10は、図8中の矢印B1で示すように、運転中に注視する領域に含まれるスポットSPaに、目的地へのルート案内を示す矢印を表示させる。表示制御部10は、ナビゲーション装置22が求めたルートに基づいて、ルート案内を示す矢印を表示させる。また、表示制御部10は、ルート案内を示す矢印が、当該矢印に対応する実際の道路上に重畳して表示されるように制御を行う。つまり、表示制御部10は、AR表示(AR:Augmented Reality)を行う。例えば、表示制御部10は、車載センサ21が有するカメラによって撮影された画像を解析して、目的地までのルートに対応する道路を抽出することで、このようなAR表示を実現する。
 更に、表示制御部10は、運転補助画像として、スポットSPaの左側に位置するスポットSPeに、車両の前方左側に存在するトイレ施設に関する情報を表示させる。具体的には、表示制御部10は、スポットSPeに、トイレ施設を示すアイコン(WC)を表示させると共に(図8中の矢印B2参照)、トイレ施設へのルートを示す矢印を表示させる(図8中の矢印B3参照)。表示制御部10は、ナビゲーション装置22内のデータベースに記憶された地図情報などに基づいて、このような表示を行う。また、表示制御部10は、上記した目的地へのルート案内を示す矢印と同様に(矢印B1参照)、トイレ施設へのルートを示す矢印もAR表示させる。具体的には、表示制御部10は、トイレ施設へのルートを示す矢印を、トイレ施設に行くために実際に曲がるべき道路上に重畳して表示させる。なお、表示制御部10は、トイレ施設が道路に面している場合には、その建物施設自身にトイレ施設のアイコンを重畳して表示させる。
 加えて、表示制御部10は、誘導画像として、運転中に注視する領域に含まれるスポットSPaに、トイレ施設を示すアイコン(WC)を表示させる(図8中の矢印B4参照)。具体的には、表示制御部10は、スポットSPa内において中心領域から離れた位置であって、スポットSPaに対するスポットSPeの配置位置の方向に応じた位置に、トイレ施設を示すアイコンを表示させる。詳しくは、表示制御部10は、スポットSPaの左の端部に、トイレ施設を示すアイコンを表示させる。
 ここで、ガソリンスタンドなどの車で行ける大きな施設は、道路脇に大きな看板が出ていて、場所を特定することが容易であるが、トイレやレストランなどの施設は大きな看板が出ていない傾向にあり、どこにあるのか分かりにくい場合がある。他方で、途中で急にレストランやトイレなどに行きたくなった場合に、わざわざ立ち寄り地点を検索して、ルート変更設定などを行うのは面倒である。そのため、第2実施例では、前述したように、運転中の周辺視の外側に位置するスポットSPe、SPfに、レストランやトイレ施設などのちょっとした立ち寄り地点に関する情報を、運転補助画像として表示させる。これにより、走行中の道路周辺の分かりにくい立ち寄り地点に関する情報を適切に提示し、案内を行うことができる。また、第2実施例では、運転中に注視するスポットSPaには、ナビゲーション情報のみを表示させ、立ち寄り地点に関する情報などを表示させないため、運転中に注視するスポットSPaに表示される情報が過剰となってしまうことを抑制でき、運転上の安全性を確保することが可能となる。
 [変形例]
 以下では、上記の実施例に好適な変形例について説明する。なお、下記の変形例は、任意に組み合わせて上述の実施例に適用することができる。
 (変形例1)
 上記した実施例では、ユーザが所定の方向に視線を向けたときに、その方向に応じた所定のホログラム領域を介した画像が適切に表示されるように、ホログラム素子3の光学設計を行う例を示した(図1及び図2など参照)。つまり、上記した実施例では、画像を表示する複数のスポットの位置などに応じて、ホログラム素子3に複数のホログラム領域を形成していた。他の例では、種々のスポットに画像を適切に表示できるような複数のホログラム領域をホログラム素子に形成し、画像の表示に用いるスポットに応じて、複数のホログラム領域の中から使用するホログラム領域を選択することができる。
 図9は、変形例1に係るホログラム素子3xの概略構成を示す図である。図9は、光の進行方向に沿った方向からホログラム素子3xを観察した図を示している。
 図9に示すように、変形例1に係るホログラム素子3xには、複数のホログラム領域3xaが規則正しく配列されている。具体的には、ホログラム素子3xには、任意の状況において画像の表示に用いるスポットの数よりも少なくとも多い数のホログラム領域3xaが形成されている。このようなホログラム素子3xを用いた場合には、画像を表示するスポットに応じて、使用するホログラム領域3xaを選択し、選択されたホログラム領域3xaを介した光による画像が表示されるように制御を行うことができる。例えば、第1実施例のように、運転中に注視する領域、バックミラー50、左ドアミラー51及び右ドアミラー52のそれぞれが含まれる領域をスポットとして使用する場合には(図2参照)、図9においてハッチングされたホログラム領域3xaを選択することができる。
 また、変形例1では、ユーザの頭の向きが変化した場合に、使用するホログラム領域3xaを変更することができる。例えば、頭の向きが変化した場合に、頭の向きが変化する前に使用していたホログラム領域3xaを、頭の向きに応じた方向にシフトさせた新たなホログラム領域3xaを用いることができる。こうすることで、頭の向きが変化した場合にも、視線の向きが変化した場合と同様に、注視している方向に応じた画像を適切に表示させることができる。なお、頭の向きの変化は、例えば加速度センサなどによって検出することができる。
 (変形例2)
 上記した実施例では、ユーザの視線を誘導するために誘導画像を表示させる制御を行う例を示したが、他の例では、この代わりに、ユーザの視線を誘導するために音を発生させる制御を行うことができる。具体的には、この例では、視線を移動すべきスポットの方向から音を発生させる制御を行うことができる。
 更に他の例では、ユーザの視線を誘導するために、車両のハンドルを振動させる制御を行うことができる。具体的には、この例では、視線を移動すべきスポットの方向に応じたハンドルの箇所を振動させる制御を行うことができる。
 (変形例3)
 上記した実施例では、ホログラム素子3が透過型に構成されていたが(図1(a)参照)、ホログラム素子を反射型に構成しても良い。
 また、上記した実施例では、ホログラム素子3とビームスプリッタ4とが別体に構成されていたが(図1(a)参照)、ホログラム素子3とビームスプリッタ4とを一体に構成しても良い。具体的には、ホログラム素子3及びビームスプリッタ4の両方の基本機能を具備するような1つのホログラム素子を用いることができる。
 また、上記した実施例では、表示装置100が走査型ディスプレイとして構成されていたが(図1(a)参照)、表示装置を投影型ディスプレイとして構成しても良い。表示装置を投影型ディスプレイとして構成する場合には、光源ユニット1やスキャン機構2の代わりに、点光源や所定の透過物体(例えばLCD)などを用いれば良い。
 (変形例4)
 上記では本発明をヘッドマウントディスプレイ(HMD)に適用する例を示したが、本発明の適用はこれに限定されない。本発明は、HMD以外にも、種々の表示装置に適用することができる。例えば、視力障害者補助ディスプレイや運転支援装置に適用することができる。
 以上に述べたように、実施例は、上述した実施例に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨あるいは思想に反しない範囲で適宜変更可能である。
 本発明は、ヘッドマウントディスプレイなどの表示装置に利用することができる。
 1 レーザ光源
 2 スキャン機構
 3 ホログラム素子
 3a~3d ホログラム領域
 4 ビームスプリッタ
 10 表示制御部
 11 運転補助画像生成部
 12 画像提示スポット決定部
 13 誘導画像生成部
 14 データベース
 50 バックミラー
 51 左ドアミラー
 52 右ドアミラー
 100 表示装置

Claims (19)

  1.  画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置であって、
     前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、
     前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜に照射されるように、各々異なった位置に集光され、
     前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段を備えることを特徴とする表示装置。
  2.  前記制御手段は、前記誘導情報を報知させる制御として、誘導画像を表示させる制御を行い、
     前記誘導画像は、前記第1画像情報光が前記網膜に投影する第1画像に含まれ、前記第2画像情報光が前記網膜に投影する第2画像に応じた画像であることを特徴とする請求項1に記載の表示装置。
  3.  前記制御手段は、前記第1画像内において中心領域から離れた位置であって、前記第1画像に対する前記第2画像の配置位置の方向に応じた位置に、前記誘導画像を表示させることを特徴とする請求項2に記載の表示装置。
  4.  前記制御手段は、前記第2画像に含まれる画像を、前記誘導画像として表示させることを特徴とする請求項2又は3に記載の表示装置。
  5.  前記制御手段は、前記誘導情報を報知させる制御として、前記第2画像情報光によって表示すべき情報に応じて音を発生させる制御を行うことを特徴とする請求項1に記載の表示装置。
  6.  前記制御手段は、前記誘導情報を報知させる制御として、前記第2画像情報光によって表示すべき情報に応じて車両のハンドルを振動させる制御を行うことを特徴とする請求項1に記載の表示装置。
  7.  前記制御手段は、前記第2画像情報光によって所定の情報を表示すべき場合に、前記誘導情報を報知させる制御を行うことを特徴とする請求項1乃至6のいずれか一項に記載の表示装置。
  8.  前記所定の情報は、緊急車両に関する情報であることを特徴とする請求項7に記載の表示装置。
  9.  前記所定の情報は、交通事故を起こしそうな対象に関する情報であることを特徴とする請求項7に記載の表示装置。
  10.  前記所定の情報は、車両の運転又はナビゲーションに直接関係しない、地図上の所定のポイントに関する情報であることを特徴とする請求項7に記載の表示装置。
  11.  前記光学素子は、第1領域及び第2領域を備え、
     前記第1画像情報光は、前記第1領域を介した光であり、前記第2画像情報光は、前記第2領域を介した光であることを特徴とする請求項1乃至10のいずれか一項に記載の表示装置。
  12.  前記第1領域は、前記利用者の眼球が正面を向いたときに、前記第1画像情報光が前記網膜に投影されるように前記光学素子に形成され、
     前記第2領域は、前記利用者の眼球が正面以外の所定の方向を向いたときに、前記第2画像情報光が前記網膜に投影されるように前記光学素子に形成されていることを特徴とする請求項11に記載の表示装置。
  13.  前記第2領域は、前記利用者が車両の運転中においてルームミラー又はドアミラーの方向に眼球を向けたときに、前記第2画像情報光が前記網膜に投影されるように前記光学素子に形成されていることを特徴とする請求項12に記載の表示装置。
  14.  前記第2領域は、前記第2画像情報光によって表示すべき情報の対象が存在する方向に対応する方向に前記利用者が眼球を向けたときに、前記第2画像情報光が前記網膜に投影されるように前記光学素子に形成されていることを特徴とする請求項12に記載の表示装置。
  15.  画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置によって実行される表示方法であって、
     前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、
     前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜に照射されるように、各々異なった位置に集光され、
     前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御工程を備えることを特徴とする表示方法。
  16.  画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、コンピュータとを備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置によって実行される表示プログラムであって、
     前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、
     前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜に照射されるように、各々異なった位置に集光され、
     前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段、として前記コンピュータを機能させることを特徴とする表示プログラム。
  17.  請求項16に記載の表示プログラムを記録したことを特徴とする記録媒体。
  18.  画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置であって、
     前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、
     前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、いずれか一方が前記網膜の主領域に照射されるように、各々異なった位置に集光され、
     前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段を備えることを特徴とする表示装置。
  19.  画像情報光を出射する出射手段と、前記画像情報光が入射される光学素子と、を備え、前記光学素子を介した画像情報光を利用者の網膜に照射させることで画像を視認させる表示装置であって、
     前記画像情報光は、第1画像情報光及び第2画像情報光を含んでおり、
     前記第1画像情報光と前記第2画像情報光とは、前記利用者の眼球の動きに応じて、各々異なった位置に集光され、
     前記第1画像情報光が前記網膜に照射されている状態から、前記第2画像情報光が前記網膜に照射されている状態になるように、前記眼球の動きを前記利用者に促すための誘導情報を報知させる制御を行う制御手段を備えることを特徴とする表示装置。
PCT/JP2011/078653 2011-12-12 2011-12-12 表示装置、表示方法及び表示プログラム WO2013088486A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2011/078653 WO2013088486A1 (ja) 2011-12-12 2011-12-12 表示装置、表示方法及び表示プログラム
JP2013548964A JP5663102B2 (ja) 2011-12-12 2011-12-12 表示装置、表示方法及び表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/078653 WO2013088486A1 (ja) 2011-12-12 2011-12-12 表示装置、表示方法及び表示プログラム

Publications (1)

Publication Number Publication Date
WO2013088486A1 true WO2013088486A1 (ja) 2013-06-20

Family

ID=48611977

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/078653 WO2013088486A1 (ja) 2011-12-12 2011-12-12 表示装置、表示方法及び表示プログラム

Country Status (2)

Country Link
JP (1) JP5663102B2 (ja)
WO (1) WO2013088486A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224086A (ja) * 2015-05-27 2016-12-28 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
KR101831070B1 (ko) * 2016-11-11 2018-02-22 가톨릭대학교 산학협력단 사이버 멀미 경감을 위한 가상현실 영상 생성 장치 및 방법
JP2018032241A (ja) * 2016-08-25 2018-03-01 株式会社Subaru 車両の表示装置
JP2020501263A (ja) * 2016-12-09 2020-01-16 株式会社ソニー・インタラクティブエンタテインメント ユーザ頭部回転ガイド付きヘッドマウントディスプレイ

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003029198A (ja) * 2001-07-16 2003-01-29 Denso Corp スキャン型ディスプレイ装置
JP2003291688A (ja) * 2002-04-03 2003-10-15 Denso Corp 表示方法、運転支援装置、プログラム
WO2009066475A1 (ja) * 2007-11-21 2009-05-28 Panasonic Corporation 表示装置
JP2010117542A (ja) * 2008-11-13 2010-05-27 Panasonic Corp ビーム走査型表示装置
JP2010145436A (ja) * 2008-12-16 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003029198A (ja) * 2001-07-16 2003-01-29 Denso Corp スキャン型ディスプレイ装置
JP2003291688A (ja) * 2002-04-03 2003-10-15 Denso Corp 表示方法、運転支援装置、プログラム
WO2009066475A1 (ja) * 2007-11-21 2009-05-28 Panasonic Corporation 表示装置
JP2010117542A (ja) * 2008-11-13 2010-05-27 Panasonic Corp ビーム走査型表示装置
JP2010145436A (ja) * 2008-12-16 2010-07-01 Brother Ind Ltd ヘッドマウントディスプレイ

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224086A (ja) * 2015-05-27 2016-12-28 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
JP2018032241A (ja) * 2016-08-25 2018-03-01 株式会社Subaru 車両の表示装置
KR101831070B1 (ko) * 2016-11-11 2018-02-22 가톨릭대학교 산학협력단 사이버 멀미 경감을 위한 가상현실 영상 생성 장치 및 방법
JP2020501263A (ja) * 2016-12-09 2020-01-16 株式会社ソニー・インタラクティブエンタテインメント ユーザ頭部回転ガイド付きヘッドマウントディスプレイ

Also Published As

Publication number Publication date
JPWO2013088486A1 (ja) 2015-04-27
JP5663102B2 (ja) 2015-02-04

Similar Documents

Publication Publication Date Title
JP6699675B2 (ja) 情報提供装置
US10629106B2 (en) Projection display device, projection display method, and projection display program
US7843362B2 (en) Method of controlling a driving maneuver
JP4715325B2 (ja) 情報表示装置
US20170336629A1 (en) Information processing system and information display apparatus
JP6658859B2 (ja) 情報提供装置
JP4825868B2 (ja) 車両用警報装置
US20100157430A1 (en) Automotive display system and display method
WO2017082067A1 (ja) 自動車用画像表示システム
JP2014213763A (ja) 車両情報投影システム
JP6504431B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
WO2019097762A1 (ja) 重畳画像表示装置及びコンピュータプログラム
JP6446595B2 (ja) 投写型表示装置、投写表示方法、及び、投写表示プログラム
WO2019003929A1 (ja) 表示システム、情報提示システム、表示システムの制御方法、プログラムと記録媒体、及び移動体装置
JP2020024578A (ja) 表示装置、表示制御方法、およびプログラム
JP7367680B2 (ja) 表示装置
JP6876277B2 (ja) 制御装置、表示装置、表示方法及びプログラム
JP5663102B2 (ja) 表示装置、表示方法及び表示プログラム
CN116323320A (zh) 虚像显示装置以及显示***
JP2019174459A (ja) 制御装置、表示装置、移動体、制御方法、及びプログラム
CN105313780A (zh) 车辆中的驾驶员信息***
JP6805974B2 (ja) 走行支援装置及びコンピュータプログラム
JP7318431B2 (ja) 表示制御装置及び表示制御プログラム
JP6814416B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP2023017641A (ja) 車両用表示制御装置、車両用表示装置、車両用表示制御方法及び車両用表示制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11877552

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013548964

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11877552

Country of ref document: EP

Kind code of ref document: A1