WO2021065700A1 - 表示制御装置、ヘッドアップディスプレイ装置、及び方法 - Google Patents

表示制御装置、ヘッドアップディスプレイ装置、及び方法 Download PDF

Info

Publication number
WO2021065700A1
WO2021065700A1 PCT/JP2020/036187 JP2020036187W WO2021065700A1 WO 2021065700 A1 WO2021065700 A1 WO 2021065700A1 JP 2020036187 W JP2020036187 W JP 2020036187W WO 2021065700 A1 WO2021065700 A1 WO 2021065700A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
image
visual
directed
area
Prior art date
Application number
PCT/JP2020/036187
Other languages
English (en)
French (fr)
Inventor
幸夫 小笠原
Original Assignee
日本精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本精機株式会社 filed Critical 日本精機株式会社
Publication of WO2021065700A1 publication Critical patent/WO2021065700A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Definitions

  • the present disclosure relates to a head-up display device, a display control device, and a control method used for a moving body such as a vehicle.
  • pre-distortion processing is executed for each of the left-eye image and the right-eye image having parallax in the first pattern and the second pattern determined based on the coordinates of the left eye and the coordinates of the right eye of the viewer.
  • a head-up display device that allows a stereoscopic image with less distortion to be perceived is described.
  • the parallax image data and the parameter for correcting the distortion of the parallax image are automatically changed according to the position of the eyes. That is, it is assumed that the image is frequently switched according to the change in the position of the eyes.
  • the outline of the present disclosure relates to providing a display control device, a head-up display device, and a control method that reduce image switching.
  • the display control device of the embodiment described in the present specification is a 3D display capable of emitting the image light of the image for the left eye and the image light of the image for the right eye having different parallaxs in a plurality of viewing areas, and a 3D display.
  • a head-up display including a relay optical system that arranges a plurality of viewing areas by projecting the image light emitted by the device onto the projected portion and generates a virtual image of the image for the left eye and a virtual image of the image for the right eye.
  • a display control device that controls a device one or more I / O interfaces capable of acquiring information, one or more processors, a memory, and stored in the memory and executed by one or more processors.
  • the one or more processors include one or more computer programs configured such as the information indicating that the eye position of the viewer straddles the visual range, or the eye position of the viewer.
  • the first display mode is switched to the second display mode. In the second display mode, the number of viewing areas to which the image light of the left eye image is directed and / or the number of viewing areas to which the image light of the left eye image is directed is smaller than that of the first display mode.
  • the display quality can be improved. More specifically, crosstalk can be reduced.
  • FIG. 6 is a timing chart showing the relationship between the image displayed by the liquid crystal panel and the driving state of each light source in the arrangement of the eyes of the viewer shown in FIG. 6A. 6 is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel and the driving state of each light source in the arrangement of the eyes of the viewer shown in FIG.
  • 6A. 6 is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel and the driving state of each light source in the arrangement of the eyes of the viewer shown in FIG. 6A. 6 is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel and the driving state of each light source in the arrangement of the eyes of the viewer shown in FIG. 6A. It is a flowchart which shows the process when the HUD apparatus displays a stereoscopic image which concerns on some Embodiments. It is a figure which shows the mode in which the image for a left eye and / or the image for a right eye in a 1st display mode is displayed in a plurality of view areas.
  • the left-eye image and / or the right-eye image in the first display mode and the second display mode are displayed in a plurality of view areas. It is a figure which shows the aspect.
  • the left-eye image and / or the right-eye image in the first display mode and the second display mode are displayed in a plurality of view areas. It is a figure which shows another aspect.
  • FIGS. 1 and 4 provide an explanation of the virtual position of the perceived stereoscopic image.
  • 2 and 3 provide a description of a stereoscopic image visually recognized by a viewer.
  • 5 and 8 provide a description of the configuration of an exemplary vehicle display system and head-up display device.
  • 6A and 6B provide a description of the optical path from the light source group to the view area.
  • 10A to 10D, and FIG. 11 provide a description of processing of the display control unit of the present embodiment.
  • 12A-12D, 13A-13E, 14A, and 14B provide a description of the arrangement of the view areas to which the images are directed.
  • the present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be made to the following embodiments. Further, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be omitted as appropriate.
  • the vehicle display system 10 includes a HUD device 20, a display control device 30 that controls the HUD device 20, and a viewpoint detection camera 40 (eye position detection unit 511).
  • the left-right direction when the viewer 4 (driver) seated in the driver's seat of the vehicle 1 faces the front of the vehicle 1 is the X-axis (the left direction is the X-axis positive direction), and the top and bottom.
  • the direction is the Y-axis (the upward direction is the Y-axis positive direction), and the front-rear direction is the Z-axis (the front direction is the Z-axis positive direction).
  • the HUD device 20 in the vehicle display system 10 is a head-up display (HUD: Head-Up Display) device provided in the dashboard 5 of the vehicle 1.
  • the HUD device 20 emits the image light 50 toward the front windshield 2 (an example of the projected portion), and the image light 50 reflected by the front windshield 2 emits the image light 50 into a plurality of viewing areas (also referred to as viewpoints) described later. (Called) E is generated.
  • the viewer 4 can visually recognize the image displayed by the HUD device 20 as a stereoscopic image.
  • the viewing area E is defined as a region where the image can be visually recognized as a stereoscopic image, but the region is not limited to this, and the entire image displayed by the HUD device 20 can be visually recognized.
  • This is an area where the image displayed by the HUD device 20 is visually recognized in a desired state, such as an area where the distortion of the image displayed by the HUD device 20 visually recognized by a person is within a predetermined threshold value.
  • the HUD device 20 visually recognizes a stereoscopic image (virtual image) on the front side (Z-axis positive direction) of the front windshield 2 (an example of the projected portion).
  • the virtual image display area 100 is a plane, a curved surface, or a partially curved surface area, and is also called an image plane.
  • the virtual image display area 100 is a position where a virtual image of the display surface of the 3D display 21 described later (the exit surface of the liquid crystal panel 22 described later) of the HUD device 20 is formed. That is, the virtual image display area 100 is the HUD device.
  • the virtual image visually recognized in the virtual image display area 100 is a HUD device. It can be said that it corresponds to the image displayed on the display surface described later in 20.
  • the 3D display 21 can realize a stereoscopic display with a sense of depth with respect to the display surface by displaying a parallax image having a parallax corresponding to the left and right eyes. That is, the HUD device 20 causes the viewer 4 to perceive the stereoscopic image 200 based on the virtual image display area 100 by displaying the parallax image corresponding to the eye points (left and right eyes) arranged in the view area E. be able to. As a result, the viewer 4 perceives the stereoscopic image 200 having a sense of depth in the Z-axis direction that overlaps the foreground 300, which is the real space that is visually recognized through the front windshield 2.
  • the virtual image display area 100 is tilted from an angle perpendicular to the road surface 310 (an example of a real object in the foreground 300) about the left-right direction (X-axis direction). Is placed.
  • a first tilt angle ⁇ t1 (0 ⁇ ⁇ t1 ⁇ 90 [degree]) is provided between the road surface 310 about the left-right direction (X-axis direction) and the virtual image display area 100.
  • the first tilt angle ⁇ t1 is, for example, 65 [degree], but is not limited thereto.
  • the vehicle display system 10 may display a stereoscopic image 200 to be perceived by the viewer 4 along the road surface 310.
  • the stereoscopic image 200 is located at a position overlapping the upper area 101 of the virtual image display area 100 when viewed from the viewer 4, and at a position away from the viewer with reference to the upper area 101 of the virtual image display area 100.
  • the perceived distant stereoscopic image 201 is located at a position overlapping the lower region 102 below the upper region 101 (in the negative direction of the Y axis) when viewed from the viewer 4, and is closer to the viewer than the virtual image display region 100. It is an integral or intermittent stereo image including a near stereo image 202 perceived by the user.
  • the stereoscopic image 200 has a first tilt angle ⁇ t1 between the stereoscopic image 200 and the road surface 310 (an example of the foreground 300) about the left-right direction (X-axis direction).
  • a smaller second tilt angle ⁇ t2 (0 ⁇ ⁇ t2 ⁇ t1 ⁇ 90 [image]) is provided.
  • the second tilt angle ⁇ t2 is, for example, 7 [degree], but is not limited to this.
  • the stereoscopic image 200 of FIG. 2 is an intermittent stereoscopic image, which is composed of six (plural) arrow-shaped images (also referred to as route images) showing a guide route, and overlaps the road surface 310 in the foreground 300 of the vehicle 1.
  • the reference numerals 211, 212, 213, 214, 215, and 216 are arranged in this order from the side of the guide path closest to the vehicle 1.
  • the guide route indicates a right turn at the intersection after going straight, that is, the stereoscopic images 211, 212, and 213 showing the guide route to the intersection overlap the road surface 310 of the traveling lane of the vehicle 1 as seen from the viewer 4.
  • the stereoscopic images 214, 215, and 216 which indicate the straight-ahead direction (Z-axis positive direction) toward the front intersection and show the guidance path ahead of the intersection, are the road surface 310 of the branch road in the right turn direction when viewed from the viewer 4. It is arranged so as to rise from, and indicates the right direction (X-axis negative direction).
  • the stereoscopic images 211 to 216 are arranged so as to be visually recognized along the road surface 310, that is, the parallax image generation module 616 described later forms the virtual object shown by the stereoscopic images 211 to 216 with the road surface 310.
  • the arrangement (angle) is set so that the angle becomes 7 [image] (in other words, it is substantially parallel to the road surface 310).
  • the stereoscopic image 200 of FIG. 3 is an integral stereoscopic image, which is composed of one (singular) arrow-shaped image (also referred to as a route image) showing a guide route, and overlaps the road surface 310 in the foreground 300 of the vehicle 1.
  • one path image extending from the vicinity to the distance is arranged.
  • the guidance route shows a right turn at an intersection after going straight, that is, a part of the stereoscopic image 217 showing the guidance route to the intersection overlaps the road surface 310 of the traveling lane of the vehicle 1 as seen from the viewer 4, and is ahead.
  • a part of the stereoscopic image 217 that indicates the straight direction (Z-axis positive direction) toward the intersection and shows the guidance path beyond the intersection is along the road surface 310 of the branch road in the right turn direction when viewed from the viewer 4. It is arranged so as to indicate the right direction (X-axis negative direction).
  • the stereoscopic image 216 is arranged so as to be visually recognized along the road surface 310, that is, the parallax image generation module 616 described later has an angle of 7 [] with the virtual object shown by the stereoscopic image 217 with the road surface 310.
  • the arrangement (angle) is set so as to be [image] (in other words, substantially parallel to the road surface 310).
  • the stereoscopic image 200 is not arranged along the road surface 310, but may be one that rises up and is perceived with respect to the road surface 310.
  • the stereoscopic image 220 of FIG. 3 is perceived by getting up with respect to the road surface 310, and shows the speed “40 km / h” of the vehicle 1.
  • FIG. 4 is a diagram schematically showing the position where the stereoscopic image 220 of FIG. 3 is perceived, and the stereoscopic image 220 of FIG. 3 is a road surface 310 (foreground 300 of the foreground 300) centered in the left-right direction (X-axis direction).
  • the third tilt angle ⁇ t3 is, for example, 90 [degree], but is not limited thereto. That is, the vehicle display system 10 (HUD device 20) of the present embodiment perceives along the road surface 310 (feels the depth in the Z-axis direction) stereoscopic images 211, 212, 213, 214, 215, 216, and It is possible to display a perspective image 210 such as 217 and a non-perspective image 220 that is perceived as rising from the road surface 310 (it is difficult to feel the depth in the Z-axis direction).
  • FIG. 5 is a diagram showing the configuration of the HUD device 20 of the present embodiment.
  • the HUD device 20 includes a 3D display 21 having a display surface for displaying an image, and a relay optical system 25.
  • the 3D display 21 of FIG. 5 is composed of a liquid crystal panel (display surface) 22 and a backlight module 24.
  • the display surface is from an angle perpendicular to the optical axis 50p of the image light 50 from the display surface toward the viewing area E (center of the viewing area E) via the relay optical system 25 described later and the projected portion. It is tilted so that the virtual image display area 100 can be tilted with respect to the road surface 310. Further description of the 3D display 21 will be described later.
  • the 3D display 21 may be attached with an actuator (not shown) such as a motor controlled by the display control device 30, and may be movable and / or rotatable on the display surface.
  • the relay optical system 25 is an image light 50 from the 3D display 21 between the 3D display 21 and the front windshield 2 (an example of the projected portion) (light from the 3D display 21 toward the view area E). It is composed of one or more optical members arranged on the optical path of the above and projecting the image light 50 from the 3D display 21 onto the front windshield 2 outside the HUD device 20.
  • the relay optical system 25 of FIG. 5 includes one concave first mirror 26 and one flat second mirror 28.
  • the first mirror 26 has, for example, a free curved surface shape having positive optical power.
  • the first mirror 26 may have a curved surface shape in which the optical power differs for each region, that is, the optical power applied to the image light 50 according to the region (optical path) through which the image light 50 passes. different.
  • the first image light 51, the second image light 52, and the third image light 53 (see FIG. 5) heading from each region of the display surface to the viewing area E are added by the relay optical system 25.
  • the optical power may be different.
  • the second mirror 28 may be a curved surface having optical power instead of a flat surface. That is, the relay optical system 25 is added according to the region (optical path) through which the image light 50 passes by synthesizing a plurality of mirrors (for example, the first mirror 26 and the second mirror 28 of the present embodiment).
  • the optical power may be different.
  • the relay optical system 25 includes two mirrors, but the present invention is not limited to this, and one or more refractive optics such as a lens may be added or substituted to these. It may include a member, a diffractive optical member such as a hologram, a catoptric member, or a combination thereof.
  • the relay optical system 25 of the present embodiment has a function of setting the distance to the virtual image display area 100 by the curved surface shape (an example of optical power), and a virtual image obtained by enlarging the image displayed on the display surface. It has a function of generating (stereoscopic image 200), but in addition to this, it may have a function of suppressing (correcting) distortion of a virtual image that may occur due to the curved shape of the front windshield 2.
  • relay optical system 25 may be movable and / or rotatable to which an actuator (not shown) such as a motor controlled by the display control device 30 is attached.
  • the liquid crystal panel 22 receives illumination light from the backlight module 24, and emits the image light 50 obtained by spatially light-modulating the illumination light toward the relay optical system 25 (second mirror 28).
  • the liquid crystal panel 22 has a short side along the first direction ⁇ in which pixels corresponding to the vertical direction (Y-axis direction) of the stereoscopic image 200 viewed from the viewer 4 are arranged, and a first direction orthogonal to the first direction ⁇ . It is a rectangular shape having a long side along the two directions ⁇ .
  • the viewer 4 visually recognizes the transmitted light of the liquid crystal panel 22 via the virtual image optical system 90.
  • the virtual image optical system 90 is a combination of the relay optical system 25 shown in FIG. 5 and the front windshield 2.
  • the condensing optical system 95 is a combination of the relay optical system 25 and the illumination optical system 70 shown in FIG.
  • FIG. 6A shows the optical path when viewed from the short side side (second direction ⁇ ) of the liquid crystal panel 22, and
  • FIG. 6B shows the optical path when viewed from the long side side (first direction ⁇ ) of the liquid crystal panel 22. Shown.
  • the backlight module 24 includes a light source group 60 and an illumination optical system 70.
  • the light source group 60 is, for example, a plurality of chip-type LEDs, and emits illumination light to the liquid crystal panel 22.
  • the light source group 60 is composed of, for example, four light sources 61, 62, 63, 64, and is arranged in a row along the second direction ⁇ .
  • the brightness of the light source group 60 is selectively adjusted according to the position of the eyes of the viewer 4 under the control of the display control device 30. In short, it is estimated that the viewer 4 has no eyes by reducing the output intensity of the light source that emits the illumination light toward the position where the viewer 4 is estimated to have no eyes (including turning off the lights). The light intensity of the image light 50 toward the position is reduced. This will be described later.
  • the illumination optical system 70 has a first lens 71 arranged in the emission direction of the illumination light of the light source group 60, a second lens 73 arranged in the emission direction of the first lens 71, and an emission direction of the second lens 73. It is composed of an arranged diffuser plate 75.
  • the illumination optical system 70 refracts the illumination light from the light source group 60, passes through the liquid crystal panel 22, passes through the virtual image optical system 90, and has a parallax image (left eye image and right eye image) in the visual range E described later. ) Is imaged.
  • the illumination optical system 70 refracts the illumination light from the first light source 61, passes through the liquid crystal panel 22, passes through the virtual image optical system 90, and has a viewing range E1. An image for the left eye is formed on the image.
  • the illumination optical system 70 refracts the illumination light from the third light source 63, passes through the liquid crystal panel 22, passes through the virtual image optical system 90, and forms an image for the right eye in the visual range E3.
  • the first lens 71 has a convex shape so that at least one of the incident surface (light source group 60 side) and / or the exit surface (second lens 73 side) has a positive optical power.
  • the first lens 71 of the present embodiment has a convex toroidal shape in which the curvature centered on the first direction ⁇ and the curvature centered on the second direction ⁇ are different only on the incident surface, but the present invention is limited to this.
  • the entrance surface and / or the exit surface may be a toroidal shape, a cylindrical shape, a spherical shape, a free curved surface shape, or a combination thereof.
  • the first lens 71 deflects the emitted light from each light source group 60 so that the illumination lights from the plurality of light source groups 60 are superimposed at the position of the diffuser plate 75. That is, the refractive power of the first lens 71 is set so that each of the plurality of light source groups 60 illuminates the entire surface of the liquid crystal panel 22 (the entire area where an image can be displayed) when viewed from the first direction ⁇ . Has been done. For example, as shown in FIG. 6A, both the illumination light from the first light source 61 and the illumination light from the third light source 63 illuminate the entire area of the liquid crystal panel 22. The same applies to the other light sources 62 and 64.
  • the image of the entire liquid crystal panel 22 can be visually recognized from each of the plurality of viewing areas E1, E2, E3, and E4, and the brightness of the stereoscopic image 200 that can be visually recognized in each of the respective viewing areas E1, E2, E3, and E4 is high. It is preferable to adjust the optical design of the illumination optical system 70, the arrangement of the light source group 60, the electrical control of the light source group 60, or a combination thereof so as to be uniform.
  • the second lens 73 has a function of deflecting the emitted light of the first lens 71 in a desired direction. Only the incident surface of the second lens 73 of the present embodiment has a convex shape centered only on the first direction ⁇ .
  • the second lens 73 of the present embodiment is not limited to this, and the incident surface and / or the exit surface is a toroidal shape, a cylindrical shape, a spherical shape, a free curved surface shape, or a combination thereof. May be good.
  • the second lens 73 is not always necessary and may be omitted.
  • the refractive force (optical power) of the first lens 71 and the second lens 73 is the light distribution angle (first direction ⁇ ) of the illumination light in the short side direction (first direction ⁇ ) of the image light emitted from the exit surface of the liquid crystal panel 22. (See FIG. 6B) is set to be narrower than the light distribution angle (see FIG. 6A) of the illumination light in the long side direction (second direction ⁇ ).
  • the diffuser plate 75 diffuses the light deflected by the first lens 71 and the second lens 73 and emits it to the liquid crystal panel 22. As a result, it is possible to reduce the luminance unevenness in the image light 50 generated by the plurality of light source groups 60 visually recognized in the viewing range E.
  • the diffuser plate 75 may be an optical member having a function of diffusing light.
  • the surface thereof is composed of a bead member, a fine uneven structure, or a rough surface. Further, a dot sheet or a transparent milky white sheet may be used.
  • the diffusion plate 75 may have diffusion anisotropy.
  • Diffusion anisotropy means that the angle (diffusion angle) at which the passing (transmitted) illumination light is diffused differs depending on the direction. That is, when the circular incident light flux passes through the diffusion plate 75 having diffusion anisotropy, an elliptical light flux is emitted.
  • the diffusion plate 75 having diffusion anisotropy is, for example, formed by arranging a plurality of minute protrusions having different aspect ratios in parallel on the surface along a certain direction, and forming a mold or forming a plurality of minute protrusions. It is produced by stretching the provided transparent plate in a certain direction.
  • the configuration and manufacturing method of the diffusion plate 75 having diffusion anisotropy are not limited to these.
  • FIG. 7 is a diagram for explaining the difference in the diffusion angle of the diffusion plate 75 having diffusion anisotropy, and the left figure shows the diffusion angle by the diffusion plate 75 in the long side direction (second direction ⁇ ) of the liquid crystal panel 22. The figure on the right shows the diffusion angle by the diffusion plate 75 in the short side direction (first direction ⁇ ) of the liquid crystal panel 22.
  • the diffusion characteristics of the diffusion plate 75 of some embodiments are set so that the diffusion angle of the second direction ⁇ is smaller (narrower) than the diffusion angle of the first direction ⁇ .
  • the diffusion angle of the diffuser plate 75 is set narrow in the direction in which the light distribution angle of the refractive power (optical power) of the first lens 71 and the second lens 73 is wide (second direction ⁇ ), and the first lens 71 In the direction in which the light distribution angle of the refractive power (optical power) of the second lens 73 is narrow (first direction ⁇ ), the diffusion angle of the diffuser plate 75 is set wide.
  • the illumination light from each of the light sources 61, 62, 63, 64 has a wide light distribution angle set by the first lens 71 and the second lens 73, so that the entire liquid crystal panel 22 is covered.
  • the diffusion angle is set narrow by the diffuser plate 75 that can illuminate and has diffusion anisotropy, the diffusion angle of the image light emitted from each pixel of the liquid crystal panel 22 is also narrowed. Therefore, it is possible to suppress crosstalk generated by the image light from each pixel of the liquid crystal panel 22 heading toward a wide region (viewing area E).
  • the illumination optical system 70 may include a lenticular lens in place of or in addition to the first lens 71 and the second lens 73.
  • the lenticular lens has a plurality of cylindrical lenses extending in each of the first directions ⁇ .
  • the plurality of cylindrical lenses are arranged side by side from one end to the other end along the second direction ⁇ of the illumination optical system 70.
  • the direction in which the cylindrical lens extends is the vertical direction (Y-axis direction) when the viewer 4 faces forward (Z-axis positive direction).
  • a plurality of cylindrical lenses extending in the vertical direction in this way are arranged side by side periodically.
  • the illumination optical system 70 may condense the image light of the image for the right eye and the image for the left eye into different viewing areas.
  • the pitch of the plurality of wrench curry lenses is preferably larger than the pitch of the light source group 60.
  • the direction in which the cylindrical lens extends is not parallel to the first direction ⁇ , but may be arranged at an angle (however, it is not parallel to the second direction ⁇ ).
  • FIG. 8 is a block diagram of the vehicle display system 10 according to some embodiments.
  • the vehicle display system 10 includes a HUD device 20 and a display control device 30 that controls the HUD device 20.
  • the display control device 30 includes one or more I / O interfaces 31, one or more processors 33, one or more memories 37, and one or more image processing circuits 35.
  • the various functional blocks shown in FIG. 8 may consist of hardware, software, or a combination of both.
  • FIG. 8 is only one embodiment of the embodiment, and the illustrated components may be combined with a smaller number of components, or there may be additional components.
  • the image processing circuit 35 eg, graphic processing unit
  • the image processing circuit 35 may be included in one or more processors 33.
  • the processor 33 and the image processing circuit 35 are operably connected to the memory 37. More specifically, the processor 33 and the image processing circuit 35 operate the vehicle display system 10 by executing a program stored in the memory 37, for example, generating and / or transmitting image data. be able to.
  • the processor 33 and / and the image processing circuit 35 are at least one general purpose microprocessor (eg, central processing unit (CPU)), at least one application specific integrated circuit (ASIC), and at least one field programmable gate array (FPGA). , Or any combination thereof.
  • the memory 37 includes any type of magnetic medium such as a hard disk, any type of optical medium such as a CD and DVD, any type of semiconductor memory such as a volatile memory, and a non-volatile memory. Volatile memory may include DRAM and SRAM, and non-volatile memory may include ROM and NVROM.
  • the processor 33 is operably connected to the I / O interface 31.
  • the I / O interface 31 uses the vehicle display system 10 as a personal area network (PAN) such as a Bluetooth (registered trademark) network, or a local area network (LAN) such as an 802.1x Wi-Fi (registered trademark) network.
  • PAN personal area network
  • LAN local area network
  • Wi-Fi registered trademark
  • LTE®, 4G, or 5G cellular networks can include wireless communication interfaces that connect to a wide area network (WAN).
  • the I / O interface 31 can also include a wired communication interface such as, for example, a USB port, a serial port, a parallel port, an OBDII, and / or any other suitable wired communication port.
  • the processor 33 is interoperably connected to the I / O interface 31 to provide information with various other electronic devices and the like connected to the vehicle display system 10 (I / O interface 31). Can be exchanged.
  • the I / O interface 31 includes, for example, a vehicle ECU 501 provided in the vehicle 1, a road information database 503, a vehicle position detection unit 505, an external sensor 507, a line-of-sight direction detection unit 509, an eye position detection unit 511, and a mobile information terminal.
  • the 513, the external communication connection device 520, and the like are operably connected.
  • the HUD device 20 is operably connected to the processor 33 and the image processing circuit 35.
  • the image displayed by the HUD device 20 may be based on the image data received from the processor 33 and / and the image processing circuit 35.
  • the processor 33 and the image processing circuit 35 control the image displayed by the HUD device 20 based on the information obtained from the I / O interface 31.
  • the I / O interface 31 may include a function of processing (converting, calculating, analyzing) information received from another electronic device or the like connected to the vehicle display system 10.
  • the vehicle 1 is described in various states (for example, mileage, vehicle speed, accelerator pedal opening, engine throttle opening, injector fuel injection amount, engine speed, motor speed, steering angle, shift position, drive mode, etc.). It includes a vehicle ECU 501 that detects (warning state) and the like.
  • the vehicle ECU 501 controls each part of the vehicle 1, and can, for example, transmit vehicle speed information indicating the current vehicle speed of the vehicle 1 to the processor 33.
  • the vehicle ECU 501 can transmit the determination result and / or the analysis result of the data detected by the sensor to the processor 33. For example, information indicating whether the vehicle 1 is traveling at a low speed or stopped may be transmitted to the processor 33.
  • the vehicle ECU 501 may transmit an instruction signal instructing the stereoscopic image 200 displayed by the vehicle display system 10 to the I / O interface 31, and at this time, it is necessary to notify the coordinates of the stereoscopic image 200 and the stereoscopic image 200.
  • the degree and / and the necessity-related information that is the basis for determining the notification necessity may be added to the instruction signal and transmitted.
  • Vehicle 1 may include a road information database 503 including a navigation system or the like.
  • the road information database 503 is based on the position of the vehicle 1 acquired from the own vehicle position detection unit 505, which will be described later, and is based on the road information (lane, white line, stop line, pedestrian crossing) on which the vehicle 1 which is an example of the actual object-related information travels. , Road width, number of lanes, intersections, curves, pedestrian crossings, traffic regulations, etc.), feature information (buildings, bridges, rivers, etc.), presence / absence, position (including distance to vehicle 1), direction (vehicle 1) The direction), shape, type, detailed information, etc. may be read out and transmitted to the processor 33. Further, the road information database 503 may calculate an appropriate route from the departure point to the destination and transmit it to the processor 33 as navigation information.
  • Vehicle 1 may include a vehicle position detection unit 505 made of GNSS (Global Navigation Satellite System) or the like.
  • the road information database 503, the mobile information terminal 513 described later, and / and the vehicle external communication connection device 520 acquire the position information of the vehicle 1 from the own vehicle position detection unit 505 continuously, intermittently, or at a predetermined event.
  • the information around the vehicle 1 can be selected and / and generated and transmitted to the processor 33.
  • the vehicle 1 may include one or more external sensors 507 that detect real objects existing around the vehicle 1 (front, side, and rear).
  • the actual object detected by the vehicle exterior sensor 507 may include, for example, a pedestrian, a bicycle, a motorcycle, another vehicle, a road surface 310, a lane marking, a roadside object, or / and a feature (building, etc.).
  • Examples of the vehicle exterior sensor include a radar sensor such as a millimeter wave radar, an ultrasonic radar, and a laser radar, and a camera sensor composed of a camera and an image processing device, which may be composed of a combination of both a radar sensor and a camera sensor. It may be composed of only one of them. Conventional well-known methods are applied to object detection by these radar sensors and camera sensors.
  • the position of the real object (relative distance from the vehicle 1 and the traveling direction of the vehicle 1 in the front-rear direction).
  • size horizontal direction (horizontal direction), height direction (vertical direction), etc.
  • movement direction horizontal direction (horizontal direction), depth) Direction (front-back direction)
  • movement speed horizontal direction (left-right direction), depth direction (front-back direction)
  • / and type may be detected.
  • One or more external sensors 507 detect a real object in front of the vehicle 1 for each detection cycle of each sensor, and the real object-related information (presence / absence of a real object, real object) which is an example of the real object-related information. If an object exists, information such as the position, size, or / and type of each real object) can be transmitted to the processor 33. Note that these real object-related information may be transmitted to the processor 33 via another device (for example, vehicle ECU 501). Further, when using a camera as a sensor, an infrared camera or a near-infrared camera is desirable so that a real object can be detected even when the surroundings are dark such as at night. When using a camera as a sensor, a stereo camera that can acquire a distance or the like by parallax is desirable.
  • the vehicle 1 may include a line-of-sight direction detection unit 509 including an infrared camera or the like that captures the face of the viewer 4 and detects the gaze direction of the viewer 4 (hereinafter, also referred to as “line-of-sight direction”).
  • the processor 33 acquires an image captured by the infrared camera (an example of information capable of estimating the line-of-sight direction), and analyzes the captured image to identify the line-of-sight direction of the viewer 4.
  • the processor 33 may acquire the line-of-sight direction of the viewer 4 specified by the line-of-sight direction detection unit 509 (or another analysis unit) from the image captured by the infrared camera from the I / O interface 31.
  • the method of acquiring information capable of estimating the line-of-sight direction of the viewer 4 of the vehicle 1 or the line-of-sight direction of the viewer 4 is not limited to these, and is not limited to these, and is an EOG (Electro-occlera) method or a corneal reflex method.
  • EOG Electro-occlera
  • the scleral reflex method, the Purkinje image detection method, the search coil method, the infrared fundus camera method, and other known line-of-sight detection (estimation) techniques may be used.
  • the vehicle 1 may include an eye position detection unit 511 including an infrared camera or the like that detects the eye position of the viewer 4.
  • the processor 33 acquires an image (an example of information capable of estimating the eye position) captured by the infrared camera, and can identify the eye position of the viewer 4 by analyzing the captured image.
  • the processor 33 may acquire information on the eye position of the viewer 4 identified from the image captured by the infrared camera from the I / O interface 31.
  • the method of acquiring information capable of estimating the eye position of the viewer 4 of the vehicle 1 or the eye position of the viewer 4 is not limited to these, and is a known eye position detection (estimation) technique. May be obtained using.
  • the processor 33 adjusts at least the position of the stereoscopic image 200 based on the position of the eyes of the viewer 4, so that the stereoscopic image 200 superimposed on the desired position of the foreground 300 is superimposed on the desired position of the foreground 300. It may be visually recognized in 4).
  • the mobile information terminal 513 is a smartphone, a laptop computer, a smart watch, or other information device that can be carried by the viewer 4 (or another occupant of the vehicle 1).
  • the I / O interface 31 can communicate with the mobile information terminal 513 and acquires the data recorded in the mobile information terminal 513 (or the server through the mobile information terminal).
  • the mobile information terminal 513 has, for example, the same functions as the road information database 503 and the vehicle position detection unit 505 described above, acquires the road information (an example of information related to a real object), and transmits the road information to the processor 33. May be good. Further, the mobile information terminal 513 may acquire commercial information (an example of information related to a real object) related to a commercial facility in the vicinity of the vehicle 1 and transmit it to the processor 33.
  • the mobile information terminal 513 transmits the schedule information of the owner (for example, the viewer 4) of the mobile information terminal 513, the incoming information on the mobile information terminal 513, the received information of the mail, etc. to the processor 33, and the processor 33 and The image processor 35 may generate and / or transmit image data relating to these.
  • the out-of-vehicle communication connection device 520 is a communication device that exchanges information with the vehicle 1.
  • V2P Vehicle To
  • V2V Vehicle To Vehicle
  • V2X Includes everything connected by Vehicle To Everything).
  • the out-of-vehicle communication connection device 520 acquires, for example, the positions of pedestrians, bicycles, motorcycles, other vehicles (preceding vehicles, etc.), road surfaces, lane markings, roadside objects, and / and features (buildings, etc.), and the processor 33. May be sent to.
  • the vehicle external communication connection device 520 has the same function as the own vehicle position detection unit 505 described above, and may acquire the position information of the vehicle 1 and transmit it to the processor 33, and further, the road information database 503 described above.
  • the road information (an example of information related to a real object) may be acquired and transmitted to the processor 33.
  • the information acquired from the external communication connection device 520 is not limited to the above.
  • the software components stored in the memory 37 are the real object-related information detection module 602, the real object position setting module 604, the eye position detection module 606, the notification necessity determination module 608, the image position determination module 610, and the image size determination module 612. , Graphic module 614, parallax image generation module 616, display control module 622, and light source control module 624.
  • the real object-related information detection module 602 acquires information including at least the position of the real object existing in front of the vehicle 1 (also referred to as real object-related information).
  • the real object-related information detection module 602 for example, visually recognizes the position of the real object existing in the foreground 300 of the vehicle 1 (the viewing direction (forward) of the vehicle 1 from the viewer 4 in the driver's seat of the vehicle 1) from the vehicle exterior sensor 507. It is the position in the height direction (vertical direction), the horizontal direction (horizontal direction), and the position in the depth direction (front direction) may be added to these positions), and the size of the actual object (height direction). , Lateral size), relative speed to vehicle 1 (including relative moving direction), and information (an example of real object-related information) may be acquired.
  • the real object-related information detection module 602 uses the external communication connection device 520 to control the position, relative speed, type of the real object (other vehicle), the lighting state of the direction indicator of the real object (other vehicle), and the steering angle operation.
  • Information (an example of real object-related information) indicating the state of, and / and the planned progress route and progress schedule by the driving support system may be acquired.
  • the real object-related information detection module 602 is located at the position of the lane marking 311 (see FIGS. 2 and 3) on the left side of the traveling lane 310 (see FIGS.
  • the position of the lane marking 312 may be acquired, and the region (traveling lane 310) between the left and right lane markings 311, 312 may be recognized.
  • the real object position setting module 604 acquires an observation position indicating the current position of the real object from the road information database 503, the vehicle exterior sensor 507, the mobile information terminal 513, or the vehicle exterior communication connection device 520 via the I / O interface 31. Or, the observation position of the real object obtained by fusing these two or more observation positions is acquired, and the position of the real object (also referred to as a specific position) is set based on the acquired observation position.
  • the image position determination module 610 which will be described later, determines the position of the stereoscopic image 200 based on the specific position of the real object set by the real object position setting module 604.
  • the real object position setting module 604 sets a specific position of the real object based on the observed position of the real object acquired immediately before, and at least one or more acquired in the past including the observed position of the real object acquired immediately before. It is possible to set a specific position of the real object based on the predicted position of the real object at a predetermined time predicted based on the observed position of the real object of. That is, by executing the real object position setting module 604 and the image position determination module 610 described later, the processor 33 determines the specific position of the stereoscopic image (AR image) 200 based on the observation position of the real object acquired immediately before.
  • AR image stereoscopic image
  • a stereoscopic image (AR image) 200 predicted based on the first position setting process to be set and the observation position of one or more real objects acquired in the past including the observation position of the real object acquired at least immediately before. It is possible to execute the second position setting process for setting the position of the stereoscopic image (AR image) 200 based on the predicted position of the real object in the display update cycle.
  • the real object position setting module 604 sets the specific position of the real object, which is the reference of the display position, in the first position setting process and the second position setting process. And are calculated by using them properly in chronological order, and in the second stereoscopic image (AR image) 200, even if the specific position of the real object that is the reference of the display position is calculated by the second position setting process. Good.
  • the real object positioning module 604 uses a prediction algorithm such as the least squares method, a Kalman filter, an ⁇ - ⁇ filter, or a particle filter, and uses one or more observation positions in the past to obtain the next value. May be predicted.
  • the eye position detection module 606 detects the positions of the left and right eyes of the viewer 4 of the vehicle 1.
  • the eye position detection module 606 detects (1) the position of the viewer 4 in the left-right direction (X-axis direction) and / and the position in the depth direction (Z-axis direction), and (2) the position of the viewer 4.
  • Various operations related to detecting the position of the eyes positions in the X, Y, Z-axis directions), and (3) determining where in the plurality of visual ranges E the position of the eyes of the viewer 4 is located. Includes various software components to run.
  • the eye position detection module 606 acquires, for example, the eye position of the viewer 4 from the eye position detection unit 511, and / or determines in which view range E the eye position of the viewer 4 is located. That is, the eye position detection module 606 may include table data, an arithmetic expression, and the like for determining the viewing area E where the eye position of the viewer 4 is located from the eye position.
  • the eye position detection module 606 may receive information capable of estimating the eye position of the viewer 4 and estimate the positions of the left and right eyes of the viewer 4.
  • the eye position detection module 606 is a captured image acquired from the eye position detection unit 511, one of the left and right eye positions, and the driver's seat of the vehicle 1 from an electronic device (for example, vehicle ECU 501) connected to the I / O interface 31. Position, the position of the face of the viewer 4, or the height of the sitting height, the physique of the viewer 4 acquired from the mobile information terminal 513 owned by the viewer 4, the height of the sitting height, the preference of the driver's seat of the vehicle 1.
  • the eye position detection module 606 may include table data, an arithmetic expression, and the like for estimating the eye position of the viewer 4 from the information capable of estimating the eye position.
  • the notification necessity determination module 608 determines whether each stereoscopic image 200 displayed by the vehicle display system 10 is the content to be notified to the viewer 4.
  • the notification necessity determination module 608 may acquire information from various other electronic devices connected to the I / O interface 31 and calculate the notification necessity. Further, the electronic device connected to the I / O interface 31 in FIG. 8 transmits information to the vehicle ECU 501, and the notification necessity determination module 608 detects (acquires) the notification necessity determined by the vehicle ECU 501 based on the received information. ) May.
  • the "notification necessity” is, for example, the degree of danger derived from the degree of seriousness that can occur, the degree of urgency derived from the length of the reaction time required to take a reaction action, the vehicle 1 or the viewer 4 (or the viewer 4). It can be determined by the effectiveness derived from the situation of the other occupants of the vehicle 1), or a combination thereof (the index of the necessity of notification is not limited to these). That is, the notification necessity determination module 608 may determine whether to notify the viewer 4 and may select not to display a part or all of the stereoscopic image 200.
  • the vehicle display system 10 does not have to have a function of estimating (calculating) the necessity of notification, and a part or all of the function of estimating the necessity of notification is a display of the vehicle display system 10. It may be provided separately from the control device 30.
  • the image position determination module 610 sets the stereoscopic image 200 at the determination position (observation position or predicted position) of the real object set by the real object position setting module 604 so that the stereoscopic image 200 is visually recognized in a specific positional relationship with the real object. Based on this, the coordinates of the stereoscopic image 200 (including at least the left-right direction (X-axis direction) and the up-down direction (Y-axis direction) when the viewer 4 looks forward from the driver's seat of the vehicle 1) are determined. In addition to this, the image position determination module 610 is based on the determination position of the real object set by the real object position setting module 604, before and after the viewer 4 sees the direction of the virtual image display area 100 from the driver's seat of the vehicle 1.
  • the direction may be determined.
  • the image position determination module 610 adjusts the position of the stereoscopic image 200 based on the eye position of the viewer 4 detected by the eye position detection unit 511. For example, the image position determination module 610 determines the positions of the stereoscopic image 200 in the horizontal direction and the vertical direction so that the center of the stereoscopic image 200 is visually recognized so as to overlap the center of the real object.
  • the "specific positional relationship" can be adjusted depending on the situation of the real object or the vehicle 1, the type of the real object, the type of the displayed image, and the like.
  • the image size determination module 612 may change the size of the stereoscopic image (AR image) 200 according to the position and / and size of the corresponding real object. For example, the image size determination module 612 can reduce the size of the stereoscopic image (AR image) 200 if the position of the corresponding real object is far away. Further, the image size determination module 612 can increase the size of the stereoscopic image (AR image) 200 if the size of the associated real object is large.
  • the image size determination module 612 was detected by the type, number, or / and notification necessity determination module 608 of the real object that displays the stereoscopic image 200 detected by the real object-related information detection module 602 in association with each other.
  • the size of the stereoscopic image 200 can be determined based on the magnitude of the (estimated) notification need.
  • the image size determination module 612 has a function of predicting and calculating the size of the stereoscopic image (AR image) 200 to be displayed in the current display update cycle based on the size of the actual object a predetermined number of times in the past. Good.
  • the image sizing module 612 tracks the pixels of a real object between two past images captured by a camera (an example of an external sensor 507), for example using the Lucas-Kanade method. Then, the size of the real object in the current display update cycle may be predicted, and the size of the AR image may be determined according to the predicted size of the real object.
  • the rate of change in the size of the real object is obtained based on the change in the size of the real object between the two captured images in the past, and the size of the AR image is determined according to the rate of change in the size of the real object.
  • the method of estimating the size change of the real object from the viewpoint that changes in time series is not limited to the above, and is known to include, for example, an optical flow estimation algorithm such as the Horn-Schunkk method, the Boxon-Buxton, and the Black-Jepson method. You may use the method of.
  • the graphic module 614 describes the visual effects (eg, brightness, transparency, saturation, contrast, or other visual characteristics), size, display position, and distance (viewer 4 to stereoscopic image 200) of the stereoscopic image 200 to be displayed. Includes various known software components for changing the distance).
  • the graphic module 614 has coordinates set by the image position determination module 610 (horizontal direction (X-axis direction) and vertical direction (Y-axis) when the viewer 4 sees the direction of the virtual image display area 100 from the driver's seat of the vehicle 1).
  • the image data (original image data) that is the source of the stereoscopic image 200 is generated and stored in the memory 37 so that the viewer 4 can see the image size set by the image size determination module 612 (including at least the direction). ..
  • the graphic module 614 has an AR image on the HUD device 20 that changes the display position according to the position of the real object existing in the foreground 300, and / or a non-AR image that does not change the display position according to the position of the real object. Images containing, can be displayed.
  • a part or all of the functions of the graphic module 614 may be provided separately from the display control device 30 of the vehicle display system 10. That is, the processor 33 may acquire the image data (original image data) that is the source of the stereoscopic image 200 from the outside (for example, the vehicle ECU 501).
  • the parallax image generation module 616 is information indicating the original image data generated by the graphic module 614 from the memory 37 and the position of the left eye 4L of the viewer 4 (the viewing area E where the left eye 4L is located) acquired by the eye position detection module 606. ) And the position of the right eye 4R (information indicating the viewing area E where the right eye 4R is located) are read out, and based on these, the image data for the right eye and the image data for the left eye are generated. Specifically, the parallax image generation module 616 uses the parallax between the right eye and the left eye so that the stereoscopic image 200 is visually recognized at the display position included in the read image data when viewed from the eye position of the viewer 4.
  • the image data for the right eye and the image data for the left eye for controlling the liquid crystal panel 22 are generated.
  • a part or all of the functions of the parallax image generation module 616 may be provided separately from the display control device 30 of the vehicle display system 10. That is, the processor 33 may acquire the image data for the right eye and the image data for the left eye from the outside (for example, the vehicle ECU 501).
  • the image pre-distortion module 618 performs image pre-distortion processing (Pre-distortion) in which the display image M displayed on the display surface 21a is pre-distorted and displayed. This process is also called “warping”.
  • the image pre-distortion module 618 can correct the optical quality (display quality), particularly with respect to the distortion and aberration caused by the virtual image optical system 90.
  • the image pre-distortion module 618 reads out the warping parameters used for the image pre-distortion processing stored in the memory 37, and generates a pre-distortion image (warping image) from the reference image data that has not been pre-distorted.
  • the warping parameter is information indicating the coordinate position of an image for generating the warping image from the reference image data.
  • the image position of the reference image and the coordinate position of the warping image are associated with each other, including correction information that reduces (cancels) the image.
  • the warping parameter may be a distortion correction parameter for correcting distortion and an aberration correction parameter for correcting aberration.
  • the image pre-distortion module 618 of the present embodiment changes the warping parameter according to the eye position of the viewer 4, that is, executes a dynamic image pre-distortion process.
  • the image pre-distortion module 618 is a left-eye warping parameter that corrects distortion of the left-eye image based on (1) the position of the left eye 4L of the viewer 4 (the visual range E where the eyes are located) acquired by the eye position detection module 606.
  • To generate a warping parameter for the right eye that corrects the distortion of the image for the right eye based on the position of the right eye 4R (the field of view E where the eye is located).
  • the image pre-distortion module 618 may include table data, an arithmetic expression, and the like for generating a left eye warping parameter and a right eye warping parameter from the position of either the left eye 4L or the right eye 4R of the viewer 4. ..
  • the image pre-distortion module 618 of the present embodiment switches the warping parameter at the change point of the view area E where the eyes of the viewer 4 are located.
  • the image pre-distortion module 618 of the present embodiment sets the boundary for switching the warping parameter so as to coincide with the boundary for switching the view area E.
  • 9A to 9D show an example of the positional relationship between the viewing areas E1, E2, ... And the warping parameter setting areas W1, W2, ....
  • the view area E is 12 view areas E1 to E12 arranged in the X-axis direction (the number of view areas is not limited to this).
  • the image pre-distortion module 618 is provided with the same number (12) of warping parameter setting areas W1 to W12 as the viewing area E, and the viewing areas E1 to E12 in the left-right direction (X-axis direction) of the vehicle 1. And the boundary between the warping parameter setting areas W1 to W12 are matched. As a result, the position of the eyes of the viewer 4 moves so as to straddle the view area E, and the image for the left eye viewed by the left eye of the viewer 4 and the image for the right eye viewed by the right eye can be changed (visualization).
  • the image for the left eye and / or the image for the right eye may not be changed even if the area E is straddled.)
  • the warping parameter for the left eye and the warping parameter for the right eye are also changed. That is, when the left eye image and / or the right eye image is changed, the warping parameter is also changed at the same time, so that the left eye image and / or the right eye image can be changed (the boundary of the viewing area E).
  • the boundary where the warping parameter is changed (the boundary of the warping parameter setting area W) is provided separately, the number of switching points of the display image M is reduced, and the discomfort caused by the switching of the display image M is reduced (discomfort). You can reduce the chances of remembering).
  • the image pre-distortion module 618 of some embodiments is provided with a number (6) warping parameter setting areas W1 to W6 that are smaller than the view area E, and is provided in the left-right direction (X-axis direction) of the vehicle 1. ) May coincide with the boundary between the viewing areas E1 to E12 and the boundary between the warping parameter setting areas W1 to W6.
  • the number of switching points of the display image M is reduced, and the discomfort caused by the switching of the display image M can be reduced (the chance of feeling the discomfort can be reduced).
  • the warping data can be suppressed to a small amount.
  • the image pre-distortion module 618 of some embodiments is provided with a number (7) warping parameter setting areas W1 to W7 that are smaller than the view area E, and is provided in the left-right direction (X) of the vehicle 1.
  • the boundary between the viewing areas E1 to E12 in the axial direction) and the boundary between the warping parameter setting areas W1 to W7 are matched, and the warping parameter setting area W near the center in the left-right direction of the viewing area E is widened to widen the viewing area E. It may be set so as to gradually narrow toward the end in the left-right direction.
  • the change points of the display image M due to the change of the warping parameter are reduced, and the change of the display image M causes a sense of discomfort. It can be alleviated (the chance of feeling uncomfortable is reduced). Moreover, the warping data can be suppressed to a small amount.
  • the image pre-distortion module 618 of some embodiments has a boundary between the viewing areas E1 to E12 in the left-right direction (X-axis direction) of the vehicle 1 and the warping parameter setting areas W11 to W36.
  • the boundaries of the warping parameter setting regions W11 to W36 may be provided in the height direction (Y-axis) while matching the boundaries.
  • the image for the left eye and / or the image for the right eye may not be changed even if the area E is straddled.)
  • the warping parameter for the left eye and the warping parameter for the right eye are also changed. Further, even when the position of the eyes of the viewer 4 changes in the height direction, the distortion and aberration of the virtual image V can be dynamically corrected.
  • the eye movement determination module 620 determines whether the eye position of the viewer 4 straddles or is likely to straddle the view area E.
  • the eye movement determination module 620 may include the position of the left eye 4L of the viewer 4 (information indicating the viewing area E where the left eye 4L is located) and the position of the right eye 4R (the vision where the right eye 4R is located) acquired by the eye position detection module 606. (Information indicating the area E) and (information indicating the area E) are read out, and based on these, (1) the latest eye position and the previous eye position are compared to determine whether or not the area E is crossed, or (2) the latest eye position.
  • the eye movement speed is calculated from the amount of change between the position and the previous eye position, and it is determined whether the speed is faster than the predetermined threshold speed stored in the memory 37 in advance (in the case of Yes, it is determined that the situation is likely to straddle). (.) Or (3) Determine whether the eye position is in a predetermined area (near the boundary in the viewing area E) (in the case of Yes, it is determined that the situation is likely to straddle), or (4). ) Calculate the standard deviation or dispersion of the eye position from the latest eye position and one or more eye positions in the past, and judge whether it is higher than a predetermined threshold (in the case of Yes, it is a situation that is likely to straddle).
  • the eye movement determination module 620 makes a prediction based on a plurality of eye positions acquired by the eye position detection module 606 (for example, the latest eye position and one or a plurality of past eye positions). There are no particular restrictions on the calculation method of, and any method may be used.
  • the eye movement determination module 620 uses a prediction algorithm such as the least squares method, a Kalman filter, an ⁇ - ⁇ filter, or a particle filter, and uses one or more eye positions in the past to perform the next eye position. May be predicted.
  • the display control module 622 attaches the image pre-distortion module 618 to the liquid crystal panel 22 based on the image data for the right eye corrected by the warping parameter for the right eye and the image data for the left eye corrected by the warping parameter for the left eye.
  • the image for the right eye and the image for the left eye are sequentially switched and displayed.
  • the display control module 622 switches between a right-eye image and a left-eye image at a frequency of, for example, 120 Hz or higher. As a result, both the right-eye image and the left-eye image are visually recognized at a frequency of 60 Hz or higher, which reduces discomfort with respect to the image.
  • the display control module 622 determines by the eye movement determination module 620 that the eye position of the viewer 4 straddles or is likely to straddle the view area E, the left eye image or the right eye image. At least one of the above is hidden for the period ⁇ (second display mode). Assuming that the time (1 field) for displaying the image for the left eye or the image for the right eye in one frame is 8.3 msec, the period ⁇ is, for example, about half of 4 msec or less, but longer (the entire one field). It does not exclude setting to 8.3 msec).
  • the period ⁇ is preferably set to 8 msec or less, which is about half, assuming that the time for displaying the left-eye image (and the right-eye image) in one frame is 16.7 msec, for example.
  • the period ⁇ may be set long when the processing load applied to the display control device 30 is large, and may be set short when the processing load is small (may be variable).
  • the drive mode before it is determined that the eye position of the viewer 4 straddles or is likely to straddle the viewing area E is defined as the first display mode. That is, when the display control module 622 determines by the eye movement determination module 620 that the eye position of the viewer 4 straddles or is likely to straddle the viewing area E, the display control module 622 displays the drive mode in the first display. The mode shifts to the second display mode, and after a predetermined frame (or subframe), the second display mode returns to the first display mode.
  • the display control module 622 is displayed immediately after the determination. Either the left-eye image or the right-eye image may be hidden for the period ⁇ (second display mode).
  • the display control module 622 hides the image corresponding to the eye determined by the eye movement determination module 620 that the eye position of the viewer 4 straddles or is likely to straddle the view area E. May be good. That is, for example, when the eye movement determination module 620 determines that the left eye 4L is in a situation where the eye position of the viewer 4 straddles or is likely to straddle the view area E, the image for the left eye is displayed for the period ⁇ only. It may be hidden (second display mode).
  • the light source control module 624 is based on the position of the left eye 4L and the position of the right eye 4R of the viewer 4 acquired by the eye position detection module 606, and the light source for the left eye toward the viewing range E where the position of the left eye 4L exists, and the light source for the right eye 4R.
  • a light source for the right eye toward the viewing area E where the position exists is selected from the light source group 60, and the display control module 622 turns on the light source for the left eye as the image for the left eye is displayed on the liquid crystal panel 22.
  • the right eye light source is turned on in accordance with displaying the right eye image on the liquid crystal panel 22.
  • the light source control module 624 directs the image light 50 (illumination light) to the viewing area E1 in which the left eye 4L is arranged in accordance with displaying the image for the left eye on the liquid crystal panel 22.
  • the light source 61 is made to emit light, all the lights other than the first light source 61 are turned off (including reducing the brightness to the extent that the image is difficult to see in the corresponding viewing area E), and then the image for the right eye is displayed on the liquid crystal panel 22.
  • the third light source 63 that directs the image light 50 (illumination light) to the viewing area E3 where the right eye 4R is arranged is turned off in accordance with the switching and display, and the lights other than the third light source 63 are turned off (corresponding viewing area E). It also includes reducing the brightness to the extent that the image is difficult to see.)
  • the positions of the left and right eyes of the viewer 4 (or the viewing area E where the left and right eyes of the viewer 4 are arranged) and the image light 50 (or the position of the eyes of the viewer 4) are stored in the memory 37.
  • Table data associated with each of the light sources 61 to 64 of the light source group 60 to which the illumination light is directed is stored in advance, and by reading this table data, the positions of the left and right eyes of the viewer 4 (or the viewer 4).
  • Light sources 61 to 64 corresponding to the field of view E) in which the left and right eyes of the above are arranged are set.
  • the positions of the left and right eyes of the viewer 4 for setting the light sources 61 to 64 include at least the coordinates in the left-right direction (X-axis direction), and preferably include the coordinates in the depth direction (Z-axis direction) (height). It may include the coordinates of the direction (Y-axis direction).
  • FIG. 10A is a timing chart showing the relationship between the image displayed by the liquid crystal panel 22 and the driving state of each of the light sources 61 to 64 in the arrangement of the eyes of the viewer shown in FIG. 6A.
  • the left eye 4L of the viewer 4 is in the viewing area E1
  • the first light source 61 corresponds (the first light source 61 is the light source for the left eye)
  • the right eye 4R is in the viewing area E3.
  • the third light source 63 corresponds (the third light source 63 is the light source for the right eye).
  • the liquid crystal panel 22 displays an image for the left eye, and only the first light source 61, which is the light source for the left eye, has high brightness in the light source group 60. Light is emitted, and the other light sources 62, 63, and 64 are set to low brightness (including turning off). As a result, in the viewing areas E2, E3, and E4 corresponding to the light sources 62, 63, and 64, the image (image for the left eye) displayed on the liquid crystal panel 22 becomes difficult to see (not visible).
  • the liquid crystal panel 22 displays the image for the right eye, and only the third light source 63, which is the light source for the right eye, is displayed in the light source group 60. Light is emitted with high brightness, and the other light sources 61, 62, 64 are set to low brightness (including turning off).
  • the image (image for the right eye) displayed on the liquid crystal panel 22 becomes difficult to see (not visible). Therefore, the image light of the image for the right eye is less likely to be incident (not incident) on the left eye 4L of the viewer 4 arranged in the view area E1, so that crosstalk is caused in which the image light of the image for the right eye is incident on the left eye 4L. It can be made less likely to occur.
  • FIG. 10B is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel 22 and the driving state of each of the light sources 61 to 64 in the arrangement of the eyes of the viewer shown in FIG. 6A.
  • the period T DISP between the time t21 and the time t22 (the same applies to the period T DISP between the time t23 and the time t24), the liquid crystal panel 22 displays the image for the left eye, and is the light source for the left eye in the light source group 60.
  • the left-eye image only the first light source 61 is displayed light is emitted at a high luminance, and sets the light source 62, 63, 64 otherwise a low luminance (including off) ..
  • the period T DISP between the time t22 and the time t23 (the same applies to the period T DISP between the time t14 and the time t15), the liquid crystal panel 22 displays the image for the right eye, and the light source group 60 for the right eye.
  • the third light source 63 which is a light source, is made to emit light with high brightness only during a period T LITE shorter than the period T DISP , and the other light sources 61, 62, 64 are set to low brightness (including turning off). Therefore, all the light sources are turned off (that is, black is displayed) before and after the time t22, t23, and t24 when the liquid crystal panel 22 switches between the left-eye image and the right-eye image.
  • the display timing of the liquid crystal panel 22 and the lighting timing of the light sources 61, 62, 63, 64 deviate from each other, it is possible to prevent the light of the unintended image from heading to the unintended view range E. In the end, crosstalk can be made less likely to occur.
  • FIG. 10C is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel 22 and the driving state of each of the light sources 61 to 64 in the arrangement of the eyes of the viewer shown in FIG. 6A.
  • the black image that does not display the left eye image or the right eye image while the liquid crystal panel 22 switches between the left eye image and the right eye image time t31 to t32, time t33 to t34, time t35 to t36.
  • the left-eye light source and the right-eye light source are switched on and off (that is, the display is black).
  • FIG. 10D is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel 22 and the driving state of each of the light sources 61 to 64 in the arrangement of the eyes of the viewer shown in FIG. 6A.
  • black that does not display the left-eye image or the right-eye image while the liquid crystal panel 22 switches between the left-eye image and the right-eye image (time t41 to t42, time t43 to t44, time t45 to t46).
  • the display is displayed, and during this black display, all the light sources are turned off (that is, the black display is displayed).
  • the light source control module 624 determines by the eye movement determination module 620 that the eye position of the viewer 4 straddles or is likely to straddle the viewing area E, the light source for the left eye or the light source for the right eye. At least one of the above is turned off for the period ⁇ (second display mode). Assuming that the time (1 field) in which the light source 60L for the left eye or the light source 60R for the right eye is lit in one frame is 8.3 msec, the period ⁇ is, for example, about half of 4 msec or less, but longer (the entire field). It does not exclude setting to (including 8.3 msec).
  • this is an example of displaying the left-eye image and the right-eye image in a time-division manner, and is a 3D display of another embodiment described later in which the left-eye image and the right-eye image are displayed at the same time.
  • the period ⁇ is preferably about half, 8 msec or less.
  • the drive mode before it is determined that the eye position of the viewer 4 straddles or is likely to straddle the viewing area E is defined as the first display mode. That is, when the light source control module 624 determines by the eye movement determination module 620 that the eye position of the viewer 4 straddles or is likely to straddle the viewing area E, the drive mode is first displayed. The mode shifts to the second display mode, and after a predetermined frame (or subframe), the second display mode returns to the first display mode.
  • the light source control module 624 is turned on immediately after the determination. Either the left eye light source 60L or the right eye light source 60R may be turned off for a period of ⁇ (including a decrease in light intensity) (second display mode).
  • the light source control module 624 may turn off the light source corresponding to the eyes determined by the eye movement determination module 620 that the eye position of the viewer 4 straddles or is likely to straddle the visual range E. Good. That is, for example, when the eye movement determination module 620 determines that the left eye 4L is in a situation where the eye position of the viewer 4 straddles or is likely to straddle the viewing area E, the left eye light source 60L is used for a period of ⁇ . It may be turned off (including a decrease in light intensity) (second display mode).
  • FIG. 11 is a flowchart showing a process when the HUD device 20 displays a stereoscopic image.
  • the processor 33 detects (or estimates) the position of the left eye 4L and the position of the right eye 4R of the viewer 4 by executing the eye position detection module 606.
  • step S12 the processor 33 executes the eye movement determination module 620 to determine whether the eye position of the viewer 4 straddles or is likely to straddle the view area E.
  • step S13 the processor 33 executes the parallax image generation module 616 based on the image data generated by the graphic module 614 and the positions of the left eye 4L and the right eye 4R of the viewer 4 acquired in step S11. , The image data for the left eye and the image data for the right eye are generated.
  • step S14 the processor 33 executes the image pre-distortion module 618, and based on the position of the left eye 4L and the position of the right eye 4R of the viewer 4 acquired in step S11, the left eye warping parameter, the right eye warping parameter, and the right eye warping parameter To generate.
  • step S15 the processor 33 executes the light source control module 624 to set the light source for the left eye and the light source for the right eye based on the positions of the left eye 4L and the right eye 4R of the viewer 4 acquired in step S11. To do.
  • the order of steps S13 and S14 may be reversed, or they may be executed at the same time.
  • step S16 the processor 33 and the image processing circuit 35 alternately display the left-eye image to which the left-eye warping parameter is applied and the right-eye image to which the right-eye warping parameter is applied on the liquid crystal panel 22, and synchronize with the left-eye image.
  • the light source for the left eye and the light source for the right eye are turned on and off alternately.
  • the processor 33 executes the display control module 622 to perform ( 11) Hide the image for the left eye and / or the image for the right eye for the period ⁇ (shift from the first display mode to the second display mode), or execute the light source control module 624 (12). ) Turn off the light source 60L for the left eye and / or the light source 60R for the right eye for the period ⁇ (shift from the first display mode to the second display mode).
  • the operation of the above-mentioned processing process can be performed by executing one or more functional modules of an information processing device such as a general-purpose processor or a chip for a specific purpose. All of these modules, combinations of these modules, and / and combinations with known hardware that can replace their functionality are within the scope of the protection of the present invention.
  • the functional blocks of the vehicle display system 10 are optionally executed by hardware, software, or a combination of hardware and software in order to execute the principles of the various embodiments described.
  • the functional blocks described in FIG. 8 may be optionally combined or one functional block separated into two or more subblocks in order to implement the principles of the embodiments described. It will be understood by those skilled in the art. Accordingly, the description herein optionally supports any possible combination or division of functional blocks described herein.
  • the 3D display 21 described above has formed a plurality of view areas E by the backlight module 24 which is a directional backlight unit (Directional BLU), but the present invention is not limited to this. Even if the 3D display 21 of another embodiment is an autostereoscopic three-dimensional display (Autostereoscopic 3 dimension display) using an optical path dividing member such as a parallax barrier or a lenticular lens. Good. In these cases, the display 21 can display a composite image obtained by synthesizing the image data for the right eye corrected by the warping parameter for the right eye and the image data for the left eye corrected by the warping parameter for the left eye.
  • Autostereoscopic three-dimensional display Autostereoscopic three dimension display
  • the display 21 can display a composite image obtained by synthesizing the image data for the right eye corrected by the warping parameter for the right eye and the image data for the left eye corrected by the warping parameter for the left eye.
  • the functions of the modules 602 to 624 are provided separately from the display control device 30 of the vehicle display system 10 (for example, the vehicle ECU 501). May be good.
  • one is the left visual area EL on which the image for the left eye is displayed, and one is the right visual area ER on which the image for the right eye is displayed.
  • the image for the left eye and / or the image for the right eye may be displayed in a plurality of view areas E.
  • the left eye image and / or the right eye image is displayed in a plurality of view areas E, the image is also displayed in one or more view areas E adjacent to the left view area EL (or ER) in which the eyes are present. Is preferably displayed.
  • FIGS. 12A to 12D are diagrams showing a mode in which the image for the left eye and / or the image for the right eye in the first display mode is displayed in a plurality of viewing areas E.
  • the reference numeral EL indicates the viewing area E in which the left eye 4L is located
  • the reference numeral ER indicates the viewing area E in which the right eye 4R is located.
  • the left-eye image and the right-eye image are shown to be displayed at the same time in FIGS. 12A to 12D, the left-eye image shown in FIGS. 12A to 12D and the left-eye image and FIGS. 12A to 12D show.
  • the described right-eye image may be displayed in a time-division manner.
  • one frame may include one or more fields for displaying the left eye image and one or more fields for displaying the right eye image.
  • the reference numerals ELI1 and ERI1 are the viewing areas where the images are displayed between the left eye 4L and the right eye 4R.
  • ELO1, ELO2, ELO3, ... The numbers in the code are in ascending order from the side closest to the left visual area EL
  • the codes ERO1, ERO2, ERO3, ... The numbers in the code are right-viewing. (In ascending order from the side closer to the area ER) indicates the view area in which the image is displayed, which is not between the left eye 4L and the right eye 4R.
  • the display control device 30 has an image for the left eye (image for the right eye) in the left visual area EL (ER) in which the eyes are present, the left visual areas ELI1 and ELO1 (ERI1, ERO1) on both sides thereof, and an image for the left eye (right eye image). ) May be displayed. That is, the display control device 30 has a viewing area E5 (EL) in which the left eye 4L exists, a viewing area E6 (ELI1) inside the viewing area E5 (EL) in which the left eye 4L exists (right eye 4R side), and a left eye 4L.
  • the left eye image is displayed in the view area E4 (ELO1) outside the view area E5 (EL) where the right eye 4R exists (the side opposite to the right eye 4R), and the view area E8 (ER) in which the right eye 4R exists.
  • the image for the right eye is displayed in the area E9 (ERO1).
  • the display control device 30 may display a left-eye image or a right-eye image in all view areas E. Specifically, the image for the left eye is displayed in the viewing areas E1 to E6 on the left eye 4L side, and the image for the right eye is displayed in the viewing areas E7 to E12 on the right eye 4R side with the boundary between the left eye 4L and the right eye 4R. It may be displayed.
  • the display control device 30 displays the left-viewed area ELO1 (E4) on which the left-eye area image based on the left-viewed area EL (E5) where the left-eye 4L is located is displayed. ), The arrangement of ELO2 (E3) and the arrangement of the left visual area ELI1 (E7) and ELO1 (E9) on which the right eye image based on the left visual area EL (E8) where the right eye 4R is located are different. You may let me.
  • the display control device 30 determines the number (2) of the left visual area EL (E5) and ELO1 (E4) on which the left eye image is displayed, and the right eye image.
  • the number (3) of the right visual area ER (E8), ERI1 (E7), and ERO1 (E8) in which is displayed may be different.
  • FIGS. 13A to 13E are diagrams showing a mode in which the left-eye image and / or the right-eye image in the first display mode and the second display mode are displayed in a plurality of viewing areas E.
  • the reference numeral EL indicates the viewing area E in which the left eye 4L is located
  • the reference numeral ER indicates the viewing area E in which the right eye 4R is located.
  • the left-eye image and the right-eye image are shown to be displayed at the same time in FIGS. 13A to 13E, the left-eye image shown in FIGS. 13A to 13E and the left-eye image and FIGS. 13A to 13E show.
  • the described right-eye image may be displayed in a time-division manner. That is, one frame may include one or more fields for displaying the left eye image and one or more fields for displaying the right eye image.
  • the display control device 30 hides the left eye image and the right eye image in all view areas E and / or the left eye light source 60L and the right eye light source 60R in the second mode. And may be turned off. See FIG. 13A.
  • the view area E5 (EL) in which the left eye 4L exists the view area E6 (ELI1) inside the view area E5 (EL) in which the left eye 4L exists (right eye 4R side), and the left eye.
  • the left eye image is displayed in the view area E4 (ELO1) outside the view area E5 (EL) in which the 4L exists (the side opposite to the right eye 4R), and the view area E8 (ER) in which the right eye 4R exists.
  • the image for the right eye is displayed in the view area E9 (ERO1).
  • the display control device 30 shifts the drive mode from the first display mode to the second display mode, and for the period ⁇ , the image for the left eye is displayed in all the viewing areas E. Hide the image for the right eye and / or turn off the light source 60L for the left eye and the light source 60R for the right eye.
  • the display control device 30 shifts the drive mode from the second display mode to the first display mode, and the left eye 4L of the viewer 4
  • the left-eye image is displayed in a plurality of view areas E8, E9, and E10 based on the arrangement
  • the right-eye image is displayed in a plurality of view areas E4, E5, and E6 based on the arrangement of the right eye 4R of the viewer 4.
  • the image for the left eye is used only for a predetermined period in which crosstalk is likely to occur. Since the image for the right eye cannot be visually recognized in any of the viewing areas E (a state in which it is difficult to see), it is possible to make it difficult to see the crosstalk.
  • the display control device 30 may reduce the number of viewing areas E in which the image is displayed in the first display mode to be smaller than that in the first mode in the second mode. Specifically, the display control device 30 sets the number of view areas E (for example, three) for displaying the image for the left eye based on the arrangement of the left eye 4L of the viewer 4 in the first display mode. Reduce in 2 display modes (for example, make one).
  • FIG. 13B In the first frame F21 in FIG. 13B, (1) the view area E5 (EL) in which the left eye 4L exists and the view area E6 (ELI1) inside the view area E5 (EL) in which the left eye 4L exists (right eye 4R side).
  • the image for the left eye is displayed in the three view areas E outside the view area E5 (EL) where the left eye 4L exists (the side opposite to the right eye 4R) and (2).
  • the display control device 30 shifts the drive mode from the first display mode to the second display mode, and determines the number of viewing areas E in which the image is displayed for the period ⁇ . Reduce. Specifically, the display control device 30 displays the image for the left eye only in one view area E of the view area E5 (EL) in which the left eye 4L exists, and (4) the right eye 4R exists. The image for the right eye is displayed only in one view area E of the view area E8 (ER). That is, the image is displayed only in the viewing areas EL and ER where the eye position is assumed to exist.
  • the viewing area E where the image is displayed is reduced as compared with the first display mode, and in the second display mode, the display control device 30 assumes that the eye position exists.
  • the image may be displayed in one or more view ranges E including the view areas EL and ER.
  • the display control device 30 shifts the drive mode from the second display mode to the first display mode, and the left eye 4L of the viewer 4
  • the left-eye image is displayed in a plurality of view areas E8, E9, and E10 based on the arrangement
  • the right-eye image is displayed in a plurality of view areas E4, E5, and E6 based on the arrangement of the right eye 4R of the viewer 4.
  • the view area in which the image is displayed is reduced (in other words, one). By hiding the part), the number of boundaries (viewpoint boundaries) in which the two types of images are displayed is reduced, so that the possibility that the eye position is placed at the boundary can be reduced. As a result, the probability of crosstalk can be reduced.
  • the display control device 30 reduces the number of viewing areas E in which images are displayed in the first display mode in the second mode as compared with the first mode, and aims to reduce the number of viewing areas E. It may be different depending on the moving direction of the position.
  • the display control device 30 determines the number of view areas E (eg, 3) that were displaying the image for the left eye based on the arrangement of the left eye 4L of the viewer 4 in the first display mode.
  • the number is reduced (for example, the number is set to two), and the image display in the viewing range E on the side opposite to the moving direction of the eye position is stopped based on the eye position. See FIG. 13C.
  • the first frame F31 in FIG. 13C (1) the view area E5 (EL) in which the left eye 4L exists and the view area E6 (ELI1) inside the view area E5 (EL) in which the left eye 4L exists (right eye 4R side).
  • the image for the left eye is displayed in the three view areas E outside the view area E5 (EL) where the left eye 4L exists (the side opposite to the right eye 4R) and (2).
  • the view area E8 (ER) where the right eye 4R exists the view area E7 (ERI1) inside (the left eye 4L side) from the view area E8 (ER) where the right eye 4R exists, and the view area E8 where the right eye 4R exists (ER)
  • Images for the right eye are displayed in three view areas E, which are the view areas E9 (ERO1) outside the ER) (the side opposite to the left eye 4L).
  • the display control device 30 shifts the drive mode from the first display mode to the second display mode, and determines the number of viewing areas E in which the image is displayed for the period ⁇ . Reduce. Specifically, the display control device 30 is next to (3) the view area E6 (EL) where the left eye 4L exists and the view area E6 (EL) where the left eye 4L exists in the same direction as the moving direction of the eye position. The image for the left eye is displayed in the two view areas E of the view area E7 (ELI1), and (4) the view area E9 (ER) in which the right eye 4R exists and the right eye in the same direction as the moving direction of the eye position.
  • ELI1 view area
  • ER view area E9
  • the image for the right eye is displayed in two view areas E of the view area E10 (ERO1) adjacent to the view area E9 (ER) in which the 4R exists. That is, the image display in the viewing range E in the direction in which the eye position existed is stopped with reference to the position where the eye position is presumed to exist.
  • the display control device 30 shifts the drive mode from the second display mode to the first display mode, and the left eye 4L of the viewer 4
  • the left-eye image is displayed in a plurality of view areas E8, E9, and E10 based on the arrangement
  • the right-eye image is displayed in a plurality of view areas E4, E5, and E6 based on the arrangement of the right eye 4R of the viewer 4.
  • the view area in which the image is displayed is reduced (in other words, one).
  • the number of boundaries (viewpoint boundaries) in which the two types of images are displayed is reduced, so that the possibility that the eye position is placed at the boundary can be reduced.
  • the probability of crosstalk can be reduced.
  • the display control device 30 displays the image for the left eye based on the arrangement of the left eye 4L of the viewer 4 in the first display mode (for example, three). ) Is reduced in the second display mode (for example, the number is set to two), and the image display in the viewing range E in the same direction as the moving direction of the eye position is stopped based on the eye position. See FIG. 13D.
  • the first frame F31 in FIG. 13D (1) the view area E5 (EL) in which the left eye 4L exists and the view area E6 (ELI1) inside the view area E5 (EL) in which the left eye 4L exists (right eye 4R side).
  • the image for the left eye is displayed in the three view areas E outside the view area E5 (EL) where the left eye 4L exists (the side opposite to the right eye 4R) and (2).
  • the view area E8 (ER) where the right eye 4R exists the view area E7 (ERI1) inside (the left eye 4L side) from the view area E8 (ER) where the right eye 4R exists, and the view area E8 where the right eye 4R exists (ER)
  • Images for the right eye are displayed in three view areas E, which are the view areas E9 (ERO1) outside the ER) (the side opposite to the left eye 4L).
  • the display control device 30 shifts the drive mode from the first display mode to the second display mode, and determines the number of viewing areas E in which the image is displayed for the period ⁇ . Reduce. Specifically, the display control device 30 is next to (3) the view area E6 (EL) where the left eye 4L exists and the view area E6 (EL) where the left eye 4L exists in the direction opposite to the moving direction of the eye position. The image for the left eye is displayed in the two view areas E of the view area E5 (ELO1), and (4) the view area E9 (ER) in which the right eye 4R exists, and the right eye in the direction opposite to the moving direction of the eye position.
  • the image for the right eye is displayed in two view areas E of the view area E8 (ERI1) adjacent to the view area E9 (ER) in which the 4R exists. That is, the image display in the viewing range E in the same direction as the direction in which the eye position moves is stopped with reference to the position where the eye position is presumed to exist.
  • the display control device 30 shifts the drive mode from the second display mode to the first display mode, and the left eye 4L of the viewer 4
  • the left-eye image is displayed in a plurality of view areas E8, E9, and E10 based on the arrangement
  • the right-eye image is displayed in a plurality of view areas E4, E5, and E6 based on the arrangement of the right eye 4R of the viewer 4.
  • the view area in which the image is displayed is reduced (in other words, one).
  • the number of boundaries (viewpoint boundaries) in which the two types of images are displayed is reduced, so that the possibility that the eye position is placed at the boundary can be reduced. As a result, the probability of crosstalk can be reduced.
  • the eye position becomes faster. Crosstalk when moving can be efficiently suppressed.
  • the display control device 30 reduces the number of viewing areas E in which images are displayed in the first display mode in the second mode as compared with the first mode, and aims to reduce the number of viewing areas E.
  • the left and right sides may be different depending on the moving direction of the position.
  • the display control device 30 displays the number of viewing areas E (for example, three) displaying the image for the left eye based on the arrangement of the left eye 4L of the viewer 4 in the second display.
  • the number of eyes is reduced (for example, two), and the eye arranged on the same direction as the moving direction of the eye position among the left and right eyes and the other eye display an image in the view area E.
  • the display control device 30 reduces the number of viewing areas E (for example, three) displaying the image for the left eye based on the arrangement of the left eye 4L of the viewer 4 in the first display mode in the second display mode.
  • the visual range E in the direction opposite to the moving direction of the eye position with respect to the eye position.
  • the image display to is stopped, and for the other eye (the eye placed in the direction opposite to the moving direction of the eye position among the left and right eyes), the visual range in the same direction as the moving direction of the eye position with respect to the eye position. Stop displaying the image on E. See FIG. 13E. In the first frame F51 in FIG.
  • the display control device 30 shifts the drive mode from the first display mode to the second display mode, and displays an image for the period ⁇ based on the moving direction of the eye position. Reduce the number of viewing areas E to be done.
  • the moving direction of the eye position is from left to right. That is, the "eye arranged in the same direction as the moving direction of the eye position" is the right eye 4R, and the "eye arranged in the direction opposite to the moving direction of the eye position among the left and right eyes" is The left eye is 4L.
  • the display control device 30 is next to (3) the view area E6 (EL) in which the left eye 4L exists and the view area E6 (EL) in which the left eye 4L exists in the direction opposite to the moving direction of the eye position.
  • the image for the left eye is displayed in the two view areas E of the view area E5 (ELO1), and (4) the view area E9 (ER) in which the right eye 4R exists and the right eye in the same direction as the moving direction of the eye position.
  • the image for the right eye is displayed in two view areas E of the view area E10 (ERO1) adjacent to the view area E9 (ER) in which the 4R exists.
  • the display control device 30 shifts the drive mode from the second display mode to the first display mode, and the left eye 4L of the viewer 4
  • the left-eye image is displayed in a plurality of view areas E8, E9, and E10 based on the arrangement
  • the right-eye image is displayed in a plurality of view areas E4, E5, and E6 based on the arrangement of the right eye 4R of the viewer 4.
  • 14A and 14B are examples in which the left-eye image and the right-eye image are displayed in a time-division manner, and the left-eye image and / or the right-eye image in the first display mode and the second display mode are It is a figure which shows the mode which is displayed in a plurality of view areas E.
  • the display control device 30 determines, in the second mode, the number of view areas E in which the image for the left eye is displayed in the first display mode, and the view in which the image for the right eye is displayed.
  • the number of regions E may be smaller than in the first mode.
  • the display control device 30 determines the number of view areas E (eg, 3) that were displaying the image for the left eye based on the arrangement of the left eye 4L of the viewer 4 in the first display mode.
  • the second display mode is applied to both the field for displaying the image for the left eye and the field for displaying the image for the right eye. See FIG. 14A.
  • the first field F101 in FIG. 14A (1) the view area E5 (EL) in which the left eye 4L exists and the view area E6 (ELI1) inside the view area E5 (EL) in which the left eye 4L exists (right eye 4R side).
  • the image for the left eye is displayed in the three viewing areas E outside the viewing area E5 (EL) where the left eye 4L exists (the side opposite to the right eye 4R) and the second field.
  • F102 (2) the view area E8 (ER) in which the right eye 4R exists, the view area E7 (ERI1) inside the view area E8 (ER) in which the right eye 4R exists (left eye 4L side), and the right eye 4R exist.
  • the image for the right eye is displayed in the three view areas E 9 (ERO1) outside the view area E8 (ER) (the side opposite to the left eye 4L).
  • the display control device 30 shifts the drive mode from the first display mode to the second display mode, and the image is displayed only for the period ⁇ .
  • Reduce the number of regions E Specifically, in the third field F103 immediately after the display control device 30 shifts to the second display mode, (3) the left eye is limited to only one view area E of the view area E5 (EL) in which the left eye 4L exists.
  • the fourth field F104 which is a field for displaying the image for the right eye and then displaying the image for the other right eye, (4) for the right eye only in one view area E of the view area E9 (ER) in which the right eye 4R exists. Display the image. That is, the driving of the second display mode is executed in at least one field for displaying the image for the left eye and at least one field for displaying the image for the right eye.
  • the display control device 30 After executing the second display mode for a predetermined period of time ⁇ (third field F103, fourth field F104), in the fifth field F105 and the sixth field F106, the display control device 30 sets the drive mode to the second display mode. To shift to the first display mode. Specifically, the display control device 30 displays an image for the left eye in a plurality of viewing areas E8, E9, and E10 based on the arrangement of the left eye 4L of the viewer 4 in the fifth field F105, and displays an image for the left eye in the sixth field F106. The image for the right eye is displayed in a plurality of viewing areas E4, E5, and E6 based on the arrangement of the right eye 4R of the viewer 4.
  • the display control device 30 determines the number of view areas E in which the image for the left eye is displayed and the view area E in which the image for the right eye is displayed in the first display mode. Only one of the numbers may be less than in the first mode.
  • the display control device 30 determines the number of view areas E (eg, 3) that were displaying the image for the left eye based on the arrangement of the left eye 4L of the viewer 4 in the first display mode.
  • the second display mode is applied to both the field for displaying the image for the left eye and the field for displaying the image for the right eye. See FIG. 14B.
  • the first field F201 in FIG. 14B (1) the view area E5 (EL) in which the left eye 4L exists and the view area E6 (ELI1) inside the view area E5 (EL) in which the left eye 4L exists (right eye 4R side).
  • the image for the left eye is displayed in the three viewing areas E outside the viewing area E5 (EL) where the left eye 4L exists (the side opposite to the right eye 4R) and the second field.
  • F202 (2) the view range E8 (ER) in which the right eye 4R exists, the view range E7 (ERI1) inside the view area E8 (ER) in which the right eye 4R exists (left eye 4L side), and the right eye 4R exist.
  • the image for the right eye is displayed in the three view areas E 9 (ERO1) outside the view area E8 (ER) (the side opposite to the left eye 4L).
  • the display control device 30 shifts the drive mode from the first display mode to the second display mode, and determines the number of viewing areas E in which the image is displayed for the period ⁇ . Reduce. Specifically, in the third field F203 immediately after the display control device 30 shifts to the second display mode, (3) the left eye is limited to only one viewing area E of the viewing area E5 (EL) in which the left eye 4L exists.
  • the fourth field F204 which is a field for displaying the image for the right eye and then displaying the image for the other right eye, (4) the view area E9 (ER) in which the right eye 4R exists and the view area E9 in which the right eye 4R exists (4) Viewshed E8 (ERI1) inside (left eye 4L side) from ER) and viewshed E10 (ERO1) outside (opposite side to left eye 4L) from view area E9 (ER) where right eye 4R exists.
  • the image for the right eye is displayed in each view area E. That is, the driving of the second display mode is executed only in the field for displaying the image for the left eye and the field for displaying the image for the right eye immediately after the transition to the second display mode.
  • the display control device 30 After executing the second display mode for a predetermined period of time ⁇ (third field F203), in the fourth field F204 and the fifth field F205, the display control device 30 sets the drive mode from the second display mode to the first display mode. Move to. Specifically, the display control device 30 displays images for the right eye in a plurality of viewing areas E8, E9, and E10 based on the arrangement of the right eye 4R of the viewer 4 in the fourth field F204, and displays images for the right eye in the fifth field F205. The image for the left eye is displayed in a plurality of viewing areas E5, E6, and E7 based on the arrangement of the left eye 4L of the viewer 4.
  • Vehicle ECU 503 ... Road information database, 505 ... Own vehicle position detector, 507 ... Vehicle outside sensor, 509 ... Line-of-sight direction detection unit, 511 ... Eye position detection unit, 513 ... Mobile information terminal, 520 ... External communication connection device, 602 ... Real object-related information detection module, 604 ... Real object position setting module, 606 ... Eye position detection module, 608 ... Notification necessity determination module, 610 ... Image position determination module, 612 ... Image size determination module, 614 ... Graphic module, 616 ... Disparity image generation module, 618 ... Image pre-distortion module, 620 ... Eye movement determination module, 622 ... Display control module, 624 ... Light source control module, E ...

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

クロストークを低減する。 1つ又は複数のプロセッサは、視認者の目位置が視域Eを跨いだことを示す情報、又は視認者の目位置が視域Eを跨ぎそうな状況を示す情報を取得し、視認者の目位置が視域Eを跨いだ、又は跨ぎそうな状況であると判定した場合、第1表示モードから第2表示モードに切り替え、第2表示モードは、左目用画像の画像光が向けられる視域Eの数、及び/又は左目用画像の画像光が向けられる視域Eの数が、第1表示モードより少ない。

Description

表示制御装置、ヘッドアップディスプレイ装置、及び方法
 本開示は、車両などの移動体に用いられるヘッドアップディスプレイ装置、表示制御装置、及び制御方法に関する。
 特許文献1には、視認者の左目の座標と右目の座標とに基づいて決定される第1パターンと第2パターンとで、視差のある左目用画像及び右目用画像それぞれに事前歪み処理を実行することで、歪みの少ない立体画像を知覚させるヘッドアップディスプレイ装置が記載されている。
特開2015-215509号公報
 特許文献1のようなヘッドアップディスプレイ装置では、目の位置に応じて、視差画像データと、この視差画像の歪みを補正するパラメータと、を自動的に変更する。すなわち、目の位置の変化に応じて、画像が頻繁に切り替わることが想定される。
 例えば、視認者の目の位置が複数の視域を跨ぐ位置に配置される場合、異なる画像の画像光が目に入射するクロストークが発生することが想定され、この点で、改善の余地があった。
 本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。
 本開示の概要は、画像の切り替わりを低減した表示制御装置、ヘッドアップディスプレイ装置、制御方法を提供することに関する。
 したがって、本明細書に記載される実施形態の表示制御装置は、複数の視域に視差の異なる左目用画像の画像光と右目用画像の画像光とを出射可能な3D表示器と、3D表示器が出射した画像光を被投影部に投影することで、複数の視域を配置し、左目用画像の虚像と、右目用画像の虚像とを生成するリレー光学系と、を備えるヘッドアップディスプレイ装置を制御する表示制御装置において、情報を取得可能な1つ又は複数のI/Oインタフェースと、1つ又は複数のプロセッサと、メモリと、メモリに格納され、1つ又は複数のプロセッサによって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、1つ又は複数のプロセッサは、視認者の目位置が視域を跨いだことを示す情報、又は視認者の目位置が視域を跨ぎそうな状況を示す情報を取得し、視認者の目位置が視域を跨いだ、又は跨ぎそうな状況であると判定した場合、第1表示モードから第2表示モードに切り替え、第2表示モードは、左目用画像の画像光が向けられる視域の数、及び/又は左目用画像の画像光が向けられる視域の数が、第1表示モードより少ない。
 本開示の構成によれば、表示品位を向上させることができる。より具体的には、クロストークを低減することができる。
いくつかの実施形態に係る、ヘッドアップディスプレイ装置の車両への適用例を示す図であり、立体画像が知覚される仮想的な位置を示す図である。 いくつかの実施形態に係る、ヘッドアップディスプレイ装置が表示する画像の例を示す図である。 いくつかの実施形態に係る、ヘッドアップディスプレイ装置が表示する画像の例を示す図である。 いくつかの実施形態に係る、ヘッドアップディスプレイ装置の車両への適用例を示す図であり、立体画像が知覚される仮想的な位置を示す図である。 いくつかの実施形態に係る、ヘッドアップディスプレイ装置の構成を示す図である。 いくつかの実施形態に係る、光源群から視域までの第2方向から見た光路を示す図である。 いくつかの実施形態に係る、光源群から視域までの第2方向と直行する第1方向から見た光路を示す図である。 拡散異方性を有する拡散板の拡散角の違いを説明する図であり、左図が液晶パネルの長辺方向での拡散板による拡散角を示す図であり、右図が液晶パネルの短辺方向での拡散板による拡散角を示す図である。 いくつかの実施形態に係る、車両用表示システムのブロック図である。 視域とワーピングパラメータ設定領域との位置関係の例を示す。 視域とワーピングパラメータ設定領域との位置関係の例を示す。 視域とワーピングパラメータ設定領域との位置関係の例を示す。 視域とワーピングパラメータ設定領域との位置関係の例を示す。 図6Aに示す視認者の目の配置において、液晶パネルが表示する画像と、各光源の駆動状態との関係を示すタイミングチャートである。 図6Aに示す視認者の目の配置において、液晶パネルが表示する画像と、各光源の駆動状態との関係の変形例を示すタイミングチャートである。 図6Aに示す視認者の目の配置において、液晶パネルが表示する画像と、各光源の駆動状態との関係の変形例を示すタイミングチャートである。 図6Aに示す視認者の目の配置において、液晶パネルが表示する画像と、各光源の駆動状態との関係の変形例を示すタイミングチャートである。 いくつかの実施形態に係る、HUD装置が立体画像を表示する際の処理を示すフローチャートである。 第1表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される態様を示す図である。 第1表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。 第1表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。 第1表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。 第1表示モード、第2表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される態様を示す図である。 第1表示モード、第2表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。 第1表示モード、第2表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。 第1表示モード、第2表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。 第1表示モード、第2表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。 左目用画像と右目用画像とを時分割で表示する場合の例であり、第1表示モード、第2表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される態様を示す図である。 左目用画像と右目用画像とを時分割で表示する場合の例であり、第1表示モード、第2表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。
 以下、図1、図4では、知覚される立体画像の仮想的な位置の説明を提供する。図2,及び図3では、視認者が視認する立体画像の説明を提供する。図5及び図8では、例示的な車両用表示システム、及びヘッドアップディスプレイ装置の構成の説明を提供する。図6A、図6Bでは、光源群から視域までの光路の説明を提供する。図10A乃至図10D、及び図11では、本実施形態の表示制御部の処理の説明を提供する。図12A乃至図12D、図13A乃至図13E、図14A、及び図14Bでは、画像が向けられる視域の配置の態様の説明を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。
 図1を参照する。車両用表示システム10は、HUD装置20と、HUD装置20を制御する表示制御装置30と、視点検出カメラ40(目位置検出部511)と、で構成される。なお、本実施形態の説明では、車両1の運転席に着座する視認者4(運転者)が車両1の前方を向いた際の左右方向をX軸(左方向がX軸正方向)、上下方向をY軸(上方向がY軸正方向)、前後方向をZ軸(前方向がZ軸正方向)とする。
 車両用表示システム10におけるHUD装置20は、車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head-Up Display)装置である。HUD装置20は、画像光50をフロントウインドシールド2(被投影部の一例である)に向けて出射し、フロントウインドシールド2で反射された画像光50により後述する複数の視域(ビューポイントとも呼ばれる)Eを生成する。視認者4は、目位置(左右の目)を複数の視域Eのいずれかに配置することで、HUD装置20が表示する画像を立体画像として視認することができる。なお、ここでは、視域Eを、画像を立体画像として視認できる領域と定義するが、これに限定されるものではなく、HUD装置20が表示する画像の全体を視認することができる領域、視認者が視認するHUD装置20の表示する画像の歪みが所定閾値内に収まる領域など、HUD装置20が表示する画像が所望の状態で視認される領域である。HUD装置20は、フロントウインドシールド2(被投影部の一例である)よりも前方側(Z軸正方向)で立体画像(虚像)を視認させる。
 虚像表示領域100は、平面、曲面、又は一部曲面の領域であり、結像面とも呼ばれる。虚像表示領域100は、HUD装置20の後述する3D表示器21の表示面(後述する液晶パネル22の出射面)の虚像が結像される位置であり、すなわち、虚像表示領域100は、HUD装置20の後述する表示面に対応し(言い換えると、虚像表示領域100は、後述する3D表示器21の表示面と、共役関係となる。)、虚像表示領域100で視認される虚像は、HUD装置20の後述する表示面に表示される画像に対応している、と言える。虚像表示領域100自体は、実際に視認者4に視認されない、又は視認されにくい程度に視認性が低いことが好ましい。3D表示器21は、左右の目に対応した視差をもつ視差画像を表示することで表示面を基準に奥行き感のある立体表示を実現できる。すなわち、HUD装置20は、視域Eに配置された前記アイポイント(左右の目)に対応した視差画像を表示することで、虚像表示領域100を基準に立体画像200を視認者4に知覚させることができる。これにより、視認者4は、フロントウインドシールド2を介して視認される現実空間である前景300に重なったZ軸方向に奥行き感のある立体画像200を知覚する。
 本実施形態の車両用表示システム10(HUD装置20)において、虚像表示領域100は、左右方向(X軸方向)を軸とした路面310(前景300における実オブジェクトの一例)と垂直な角度から傾いて配置される。言い換えると、左右方向(X軸方向)を軸とした路面310と虚像表示領域100との間に第1チルト角θt1(0≦θt1<90[degree])を設ける。第1チルト角θt1は、例えば、65[degree]であるが、これに限定されない。
 また、本実施形態の車両用表示システム10(HUD装置20)は、路面310に沿うように視認者4に知覚させる立体画像200を表示してもよい。具体的には、立体画像200は、視認者4から見て虚像表示領域100の上領域101に重なる位置に、虚像表示領域100の上領域101を基準に視認者から離れた位置にあるように知覚される遠方立体画像201と、視認者4から見て上領域101より下側(Y軸負方向)の下領域102に重なる位置に、虚像表示領域100よりも視認者に近い位置にあるように知覚される近傍立体画像202と、を含む一体的、又は断続的な立体画像である。
 本実施形態の車両用表示システム10(HUD装置20)において、立体画像200は、左右方向(X軸方向)を軸とした路面310(前景300の一例)との間に、第1チルト角θt1より小さい第2チルト角θt2(0≦θt2<θt1<90[degree])を設ける。第2チルト角θt2は、例えば、7[degree]であるが、これに限定されない。
 図2、図3は、HUD装置20が表示する立体画像200の表示例を示す図である。図2の立体画像200は、断続的な立体画像であり、案内経路を示す6つ(複数)の矢印状の画像(経路画像とも呼ぶ。)からなり、車両1の前景300における路面310に重なる位置に、案内経路のうち車両1に近い方から符号211、212、213、214、215、216の順に配置される。案内経路は、直進した後に交差点で右折を示しており、すなわち、交差点までの案内経路を示す立体画像211、212、213は、視認者4から見て車両1の走行レーンの路面310に重なり、前方の交差点に向かうように直進方向(Z軸正方向)を指示し、交差点から先の案内経路を示す立体画像214、215、216は、視認者4から見て右折方向の分岐路の路面310から起き上がっているように配置され、右方向(X軸負方向)を指示する。立体画像211~216は、路面310に沿うように視認されるように配置されており、すなわち、後述する視差画像生成モジュール616は、立体画像211~216が示す仮想オブジェクトを、路面310とのなす角度が7[degree]になる(換言すると、路面310に概ね平行になる)ように配置(角度)を設定する。
 図3の立体画像200は、一体的な立体画像であり、案内経路を示す1つ(単数)の矢印状の画像(経路画像とも呼ぶ。)からなり、車両1の前景300における路面310に重なる位置に、近傍から遠方に向かって延びた1つの経路画像が配置される。案内経路は、直進した後に交差点で右折を示しており、すなわち、交差点までの案内経路を示す立体画像217の一部は、視認者4から見て車両1の走行レーンの路面310に重なり、前方の交差点に向かうように直進方向(Z軸正方向)を指示し、交差点から先の案内経路を示す立体画像217の一部は、視認者4から見て右折方向の分岐路の路面310に沿っているように配置され、右方向(X軸負方向)を指示する。立体画像216は、路面310に沿うように視認されるように配置されており、すなわち、後述する視差画像生成モジュール616は、立体画像217が示す仮想オブジェクトを、路面310とのなす角度が7[degree]になる(換言すると、路面310と概ね平行になる)ように配置(角度)を設定する。
 なお、立体画像200は、路面310に沿って配置されるものではなく、路面310に対して起き上がって知覚されるものであってもよい。図3の立体画像220は、路面310に対して起き上がって知覚されるものであり、車両1の速度「40km/h」を示す。図4は、図3の立体画像220が知覚される位置を模式的に示した図であり、図3の立体画像220は、左右方向(X軸方向)を軸とした路面310(前景300の一例)との間に、第2チルト角θt2より大きい第3チルト角θt3(0≦θt2<θ3≦90[degree])を有するように配置されてもよい。第3チルト角θt3は、例えば、90[degree]であるが、これに限定されない。すなわち、本実施形態の車両用表示システム10(HUD装置20)は、路面310に沿うように知覚する(Z軸方向に奥行きを感じる)立体画像211、212、213、214、215、216、及び217などであるパースペクティブ画像210と、路面310から起き上がっているように知覚する(Z軸方向に奥行きを感じにくい)非パースペクティブ画像220と、を表示し得る。
 図5は、本実施形態のHUD装置20の構成を示す図である。HUD装置20は、画像を表示する表示面を有する3D表示器21と、リレー光学系25と、を含む。
 図5の3D表示器21は、液晶パネル(表示面)22と、バックライトモジュール24と、から構成される。前記表示面は、前記表示面から、後述のリレー光学系25及び前記被投影部を介して視域E(視域Eの中央)へ向かう画像光50の光軸50pに対し垂直になる角度から傾いて配置され、これにより、虚像表示領域100を路面310に対して傾けて配置することができる。3D表示器21のさらなる説明は、後述する。なお、3D表示器21は、表示制御装置30により制御されるモータなどのアクチュエータ(不図示)が取り付けられ、表示面を移動、及び/又は回転可能であってもよい。
 リレー光学系25は、3D表示器21とフロントウインドシールド2(被投影部の一例。)との間の3D表示器21からの画像光50(3D表示器21から視域Eへ向かう光。)の光路上に配置され、3D表示器21からの画像光50をHUD装置20の外側のフロントウインドシールド2に投影する1つ又はそれ以上の光学部材で構成される。図5のリレー光学系25は、1つの凹状の第1ミラー26と、1つの平面の第2ミラー28と、を含む。
 第1ミラー26は、例えば、正の光学的パワーを有する自由曲面形状である。換言すると、第1ミラー26は、領域毎に光学的パワーが異なる曲面形状であってもよく、すなわち、画像光50が通る領域(光路)に応じて画像光50に付加される光学的パワーが異なる。具体的には、前記表示面の各領域から視域Eへ向かう第1画像光51、第2画像光52、第3画像光53(図5参照)とで、リレー光学系25によって付加される光学的パワーが異なってもよい。
 なお、第2ミラー28は、平面ではなく、光学的パワーを有する曲面であってもよい。すなわち、リレー光学系25は、複数のミラー(例えば、本実施形態の第1ミラー26、第2ミラー28。)を合成することで、画像光50が通る領域(光路)に応じて付加される光学的パワーを異ならせてもよい。
 なお、本実施形態では、リレー光学系25は、2つのミラーを含んでいたが、これに限定されるものではなく、これらに追加又は代替で、1つ又はそれ以上の、レンズなどの屈折光学部材、ホログラムなどの回折光学部材、反射光学部材、又はこれらの組み合わせを含んでいてもよい。
 また、本実施形態のリレー光学系25は、この曲面形状(光学的パワーの一例。)により、虚像表示領域100までの距離を設定する機能、及び前記表示面に表示された画像を拡大した虚像(立体画像200)を生成する機能、を有するが、これに加えて、フロントウインドシールド2の湾曲形状により生じ得る虚像の歪みを抑制する(補正する)機能、を有していてもよい。
 また、リレー光学系25は、表示制御装置30により制御されるモータなどのアクチュエータ(不図示)が取り付けられ、移動、及び/又は回転可能であってもよい。
 液晶パネル22は、バックライトモジュール24から照明光を入射し、前記照明光を空間光変調した画像光50をリレー光学系25(第2ミラー28)へ向けて出射する。液晶パネル22は、視認者4から見た立体画像200の上下方向(Y軸方向)に対応する画素が配列される第1方向αに沿った短辺と、この第1方向αと直行する第2方向βに沿った長辺と、を有する矩形状である。視認者4は、液晶パネル22の透過光を、虚像光学系90を介して視認する。虚像光学系90は、図5で示すリレー光学系25とフロントウインドシールド2とを合わせたものである。また、集光光学系95は、図5で示すリレー光学系25と照明光学系70とを合わせたものである。図6Aは、液晶パネル22の短辺側(第2方向β)から見たときの光路を示し、図6Bは、液晶パネル22の長辺側(第1方向α)から見たときの光路を示している。
 図6Aを参照する。バックライトモジュール24は、光源群60と、照明光学系70と、によって構成される。
 光源群60は、例えば、複数のチップ型のLEDであり、液晶パネル22へ照明光を出射する。光源群60は、例えば、4つの光源61、62、63、64で構成されており、第2方向βに沿って一列に配置される。光源群60は、表示制御装置30からの制御のもと、視認者4の目の位置に応じて、選択的に輝度が調整される。端的に言えば、視認者4の目がないと推定される位置に向かう照明光を出射する光源の出力強度を低下させる(消灯も含む。)ことで、視認者4の目がないと推定される位置に向かう画像光50の光強度を低下させる。これについては、後で説明する。
 照明光学系70は、光源群60の照明光の出射方向に配置された第1レンズ71と、第1レンズ71の出射方向に配置された第2レンズ73と、第2レンズ73の出射方向に配置された拡散板75と、によって構成される。
 照明光学系70は、光源群60からの照明光を屈折させて、液晶パネル22を透過し、虚像光学系90を通過して、後述する視域Eに視差画像(左目用画像と右目用画像)を結像する。具体的には、図6Aに示すように、照明光学系70は、第1光源61からの照明光を屈折させて、液晶パネル22を透過し、虚像光学系90を通過して、視域E1に左目用画像を結像する。また、照明光学系70は、第3光源63からの照明光を屈折させて、液晶パネル22を透過し、虚像光学系90を通過して、視域E3に右目用画像を結像する。光源群60に含まれる光源の数を変更することで、光源からの照明光(液晶パネル22からの画像光)が結像する視域Eの数を変更することができる。
 第1レンズ71は、入射面(光源群60側)及び/又は出射面(第2レンズ73側)の少なくともいずれかが、正の光学的パワーを有するように凸形状を有している。なお、本実施形態の第1レンズ71は、入射面のみ第1方向αを軸とした曲率と第2方向βを軸とした曲率とが異なる凸形状のトロイダル形状であるが、これに限定されるものではなく、入射面及び/又は出射面が、トロイダル形状、シリンドリカル形状、球面形状、自由曲面形状、又はこれらの組み合わせであってもよい。
 第1レンズ71は、複数の光源群60からの照明光のそれぞれが拡散板75の位置で重畳するように、各光源群60からの出射光を偏向する。すなわち、第1レンズ71は、第1方向αから見たとき、複数の光源群60のそれぞれが液晶パネル22の全面(画像を表示し得る全領域)を照明するように、その屈折力が設定されている。例えば、図6Aに示すように、第1光源61からの照明光と、第3光源63からの照明光とは、双方とも、液晶パネル22全体の領域を照明する。他の光源62、64も同様である。複数の視域E1、E2、E3、E4のそれぞれからは、液晶パネル22全体の画像が視認可能であり、各視域E1、E2、E3、E4内のそれぞれで視認できる立体画像200の輝度が均一になるように、照明光学系70の光学的設計、光源群60の配置、光源群60の電気的制御、又は、これらの組み合わせで調整されることが好ましい。
 第2レンズ73は、第1レンズ71の出射光を所望の方向に偏向する機能を有している。本実施形態の第2レンズ73の入射面のみが、第1方向αのみを軸とした凸形状を有している。なお、本実施形態の第2レンズ73は、これに限定されるものではなく、入射面及び/又は出射面が、トロイダル形状、シリンドリカル形状、球面形状、自由曲面形状、又はこれらの組み合わせであってもよい。なお、第2レンズ73は、必ずしも必要ではなく、省略されてもよい。
 図6Bを参照する。第1レンズ71及び第2レンズ73の屈折力(光学的パワー)は、液晶パネル22の出射面から出射される画像光の短辺方向(第1方向α)での照明光の配光角(図6B参照)が、長辺方向(第2方向β)での照明光の配光角(図6A参照)より狭くなるように設定される。
 拡散板75は、第1レンズ71及び第2レンズ73で偏向した光を拡散させて液晶パネル22に出射する。これにより、視域Eで視認される複数の光源群60により生成される画像光50における輝度ムラを低減できる。拡散板75は、光を拡散させる機能がある光学部材であれば良く、例えばその表面がビーズ部材や微細な凹凸構造、粗面で構成される。また、ドットシートや透過性の乳白色のシートでも良い。
 また、いくつかの実施形態において、拡散板75は、拡散異方性を有していてもよい。拡散異方性とは、通過(透過)した照明光が拡散する角度(拡散角)が方向によって異なることを示す。すなわち、円形の入射光束が、拡散異方性を有する拡散板75を通過すると、楕円形状の光束が出射する。拡散異方性を有する拡散板75は、例えば、アスペクト比が異なる微小の複数の突起を表面に一定の方向に沿って並列に配置されたものであり、金型成形や複数の微小な突起を設けた透明の板を一定方向に延伸することによって作製される。但し、拡散異方性を有する拡散板75の構成や製造方法は、これらに限定されない。
 図7は、拡散異方性を有する拡散板75の拡散角の違いを説明する図であり、左図が液晶パネル22の長辺方向(第2方向β)での拡散板75による拡散角を示す図であり、右図が液晶パネル22の短辺方向(第1方向α)での拡散板75による拡散角を示す図である。いくつかの実施形態の拡散板75の拡散特性は、第2方向βの拡散角が、第1方向αの拡散角より小さくなる(狭くなる)ように設定される。言い換えると、第1レンズ71及び第2レンズ73の屈折力(光学的パワー)の配光角が広い方向(第2方向β)において、拡散板75の拡散角が狭く設定され、第1レンズ71及び第2レンズ73の屈折力(光学的パワー)の配光角が狭い方向(第1方向α)において、拡散板75の拡散角が広く設定される。これにより、第2方向βにおいて、各光源61,62,63,64からの照明光は、第1レンズ71及び第2レンズ73により配光角が広く設定されるため、液晶パネル22の全体を照明でき、拡散異方性を有する拡散板75により拡散角が狭く設定されるため、液晶パネル22の各画素から出射される画像光の拡散角も狭くなる。したがって、液晶パネル22の各画素からの画像光が広い領域(視域E)に向かうことにより発生するクロストークを抑制することができる。
 なお、照明光学系70は、第1レンズ71、第2レンズ73の代わりに、又はこれらに加えて、レンチキュラレンズを含んでいてもよい。レンチキュラレンズは、一例として、第1方向αにそれぞれ延伸する複数のシリンドリカルレンズを有する。複数のシリンドリカルレンズは、照明光学系70の第2方向βに沿った一端から他端まで並べて配列される。言い換えると、前記シリンドリカルレンズが延びている方向は、視認者4が前方(Z軸正方向)を向いた際の上下方向(Y軸方向)である。このように上下方向に延びている複数のシリンドリカルレンズが、それぞれ横に周期的に並んで配置されている。これにより照明光学系70は、右眼用画像、及びおよび左眼用画像の画像光を、それぞれ異なる視域にそれぞれ集光させてもよい。なお、複数のレンチキュレレンズのピッチは、光源群60のピッチより大きいことが好ましい。なお、シリンドリカルレンズが延びている方向は、第1方向αに平行ではなく、傾いて配置されてよい(但し、第2方向βとは非平行)。
 図8は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。車両用表示システム10は、HUD装置20と、HUD装置20を制御する表示制御装置30と、で構成される。表示制御装置30は、1つ又はそれ以上のI/Oインタフェース31、1つ又はそれ以上のプロセッサ33、1つ又はそれ以上のメモリ37、及び1つ又はそれ以上の画像処理回路35を備える。図8に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図8は、実施態様の一実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路35(例えば、グラフィック処理ユニット)が、1つ又はそれ以上のプロセッサ33に含まれてもよい。
 図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成又は/及び送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ33又は/及び画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。
 図示するように、プロセッサ33は、I/Oインタフェース31と動作可能に連結されている。例えば、I/Oインタフェース31は、車両用表示システム10を、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi-Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)、LTE(登録商標)、4G、又は5Gセルラーネットワークなどの広域ネットワーク(WAN)に接続する無線通信インタフェースを含むことができる。また、I/Oインタフェース31は、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信インタフェースを含むことができる。
 図示するように、プロセッサ33は、I/Oインタフェース31と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース31)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース31には、例えば、車両1に設けられた車両ECU501、道路情報データベース503、自車位置検出部505、車外センサ507、視線方向検出部509、目位置検出部511、携帯情報端末513、及び車外通信接続機器520などが動作可能に連結される。HUD装置20は、プロセッサ33及び画像処理回路35に動作可能に連結される。したがって、HUD装置20によって表示される画像は、プロセッサ33又は/及び画像処理回路35から受信された画像データに基づいてもよい。プロセッサ33及び画像処理回路35は、I/Oインタフェース31から得られる情報に基づき、HUD装置20が表示する画像を制御する。なお、I/Oインタフェース31は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。
 車両1は、車両1の状態(例えば、走行距離、車速、アクセルペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態)などを検出する車両ECU501を含んでいる。車両ECU501は、車両1の各部を制御するものであり、例えば、車両1の現在の車速を示す車速情報をプロセッサ33へ送信することができる。なお、車両ECU501は、単にセンサで検出したデータをプロセッサ33へ送信することに加え、又は代わりに、センサで検出したデータの判定結果、若しくは/及び解析結果をプロセッサ33へ送信することができる。例えば、車両1が低速走行しているか、又は停止しているかを示す情報をプロセッサ33へ送信してもよい。
 また、車両ECU501は、車両用表示システム10が表示する立体画像200を指示する指示信号をI/Oインタフェース31に送信してもよく、この際、立体画像200の座標、立体画像200の報知必要度、又は/及び報知必要度を判定する元となる必要度関連情報を、指示信号に付加して送信してもよい。
 車両1は、ナビゲーションシステム等からなる道路情報データベース503を含んでいてもよい。道路情報データベース503は、後述する自車位置検出部505から取得される車両1の位置に基づき、実オブジェクト関連情報の一例である車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(車両1までの距離を含む)、方向(車両1を基準とした方向)、形状、種類、詳細情報などを読み出し、プロセッサ33に送信してもよい。また、道路情報データベース503は、出発地から目的地までの適切な経路を算出し、ナビゲーション情報としてプロセッサ33に送信してもよい。
 車両1は、GNSS(全地球航法衛星システム)等からなる自車位置検出部505を含んでいてもよい。道路情報データベース503、後述する携帯情報端末513、又は/及び車外通信接続機器520は、自車位置検出部505から車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、車両1の周辺の情報を選択、又は/及び生成して、プロセッサ33に送信することができる。
 車両1は、車両1の周辺(前方、側方、及び後方)に存在する実オブジェクトを検出する1つ又はそれ以上の車外センサ507を含んでいてもよい。車外センサ507が検知する実オブジェクトは、例えば、歩行者、自転車、自動二輪車、他車両、路面310、区画線、路側物、又は/及び地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラと画像処理装置からなるカメラセンサがあり、レーダセンサ、カメラセンサの両方の組み合わせで構成されてもよく、どちらか一方だけで構成されてもよい。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(車両1からの相対的な距離、車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、又は/及び種類等を検出してもよい。1つ又はそれ以上の車外センサ507は、各センサの検知周期毎に、車両1の前方の実オブジェクトを検知して、実オブジェクト関連情報の一例である実オブジェクト関連情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、又は/及び種類等の情報)をプロセッサ33に送信することができる。なお、これら実オブジェクト関連情報は、他の機器(例えば、車両ECU501)を経由してプロセッサ33に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。
 車両1は、視認者4の注視方向(以下では「視線方向」ともいう)を検出する、視認者4の顔を撮像する赤外線カメラ等からなる視線方向検出部509を含んでいてもよい。プロセッサ33は、赤外線カメラが撮像した画像(視線方向を推定可能な情報の一例)を取得し、この撮像画像を解析することで視認者4の視線方向を特定することができる。なお、プロセッサ33は、赤外線カメラの撮像画像から視線方向検出部509(又は他の解析部)が特定した視認者4の視線方向をI/Oインタフェース31から取得するものであってもよい。また、車両1の視認者4の視線方向、又は視認者4の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro-oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。
 車両1は、視認者4の目の位置を検出する赤外線カメラ等からなる目位置検出部511を含んでいてもよい。プロセッサ33は、赤外線カメラが撮像した画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで視認者4の目の位置を特定することができる。なお、プロセッサ33は、赤外線カメラの撮像画像から特定された視認者4の目の位置の情報をI/Oインタフェース31から取得するものであってもよい。なお、車両1の視認者4の目の位置、又は視認者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ33は、視認者4の目の位置に基づき、立体画像200の位置を少なくとも調整することで、前景300の所望の位置に重畳した立体画像200を、目位置を検出した視認者(視認者4)に視認させてもよい。
 携帯情報端末513は、スマートフォン、ノートパソコン、スマートウォッチ、又は視認者4(又は車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース31は、携帯情報端末513と通信を行うことが可能であり、携帯情報端末513(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末513は、例えば、上述の道路情報データベース503及び自車位置検出部505と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。また、携帯情報端末513は、車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。なお、携帯情報端末513は、携帯情報端末513の所持者(例えば、視認者4)のスケジュール情報、携帯情報端末513での着信情報、メールの受信情報などをプロセッサ33に送信し、プロセッサ33及び画像処理回路35は、これらに関する画像データを生成又は/及び送信してもよい。
 車外通信接続機器520は、車両1と情報のやりとりをする通信機器であり、例えば、車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。車外通信接続機器520は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、又は/及び地物(建物など)の位置を取得し、プロセッサ33に送信してもよい。また、車外通信接続機器520は、上述の自車位置検出部505と同様の機能を有し、車両1の位置情報を取得し、プロセッサ33に送信してもよく、さらに上述の道路情報データベース503の機能も有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ33に送信してもよい。なお、車外通信接続機器520から取得される情報は、上述のものに限定されない。
 メモリ37に記憶されたソフトウェア構成要素は、実オブジェクト関連情報検出モジュール602、実オブジェクト位置設定モジュール604、目位置検出モジュール606、報知必要度判定モジュール608、画像位置決定モジュール610、画像サイズ決定モジュール612、グラフィックモジュール614、視差画像生成モジュール616、表示制御モジュール622、及び光源制御モジュール624を含む。
 実オブジェクト関連情報検出モジュール602は、車両1の前方に存在する実オブジェクトの少なくとも位置を含む情報(実オブジェクト関連情報とも呼ぶ)を取得する。実オブジェクト関連情報検出モジュール602は、例えば、車外センサ507から、車両1の前景300に存在する実オブジェクトの位置(車両1の運転席にいる視認者4から車両1の進行方向(前方)を視認した際の高さ方向(上下方向)、横方向(左右方向)の位置であり、これらに、奥行き方向(前方向)の位置が追加されてもよい)、及び実オブジェクトのサイズ(高さ方向、横方向のサイズ)、車両1に対する相対速度(相対的な移動方向も含む)、を含む情報(実オブジェクト関連情報の一例)を取得してもよい。また、実オブジェクト関連情報検出モジュール602は、車外通信接続機器520を介して実オブジェクト(他車両)の位置、相対速度、種類、実オブジェクト(他車両)の方向指示器の点灯状態、舵角操作の状態、又は/及び運転支援システムによる進行予定経路、進行スケジュール、を示す情報(実オブジェクト関連情報の一例)を取得してもよい。
 また、実オブジェクト関連情報検出モジュール602は、車外センサ507から、車両1の走行レーン310(図2、図3参照)の左側の区画線311(図2、図3参照)の位置と、右側の区画線312(図3、図3参照)の位置とを取得し、それら左右の区画線311,312の間の領域(走行レーン310)を認識してもよい。
 実オブジェクト位置設定モジュール604は、I/Oインタフェース31を介して道路情報データベース503、車外センサ507、携帯情報端末513、若しくは車外通信接続機器520から実オブジェクトの現在の位置を示す観測位置を取得し、又はこれら2以上の観測位置をフュージョンした実オブジェクトの観測位置を取得し、取得した観測位置に基づいて実オブジェクトの位置(特定位置とも呼ぶ)を設定する。後述する画像位置決定モジュール610は、この実オブジェクト位置設定モジュール604が設定した実オブジェクトの特定位置を基準に立体画像200の位置を決定する。
 実オブジェクト位置設定モジュール604は、直前に取得した実オブジェクトの観測位置に基づいて実オブジェクトの特定位置を設定と、少なくとも直前に取得した実オブジェクトの観測位置を含む過去に取得した1つ又はそれ以上の実オブジェクトの観測位置を元に予測される所定の時刻における実オブジェクトの予測位置に基づいて実オブジェクトの特定位置を設定と、を実行可能である。すなわち、実オブジェクト位置設定モジュール604と後述する画像位置決定モジュール610とを実行することで、プロセッサ33は、直前に取得した実オブジェクトの観測位置に基づいて立体画像(AR画像)200の特定位置を設定する第1位置設定処理と、少なくとも直前に取得した実オブジェクトの観測位置を含む過去に取得した1つ又はそれ以上の実オブジェクトの観測位置を元に予測される立体画像(AR画像)200の表示更新周期における実オブジェクトの予測位置に基づいて立体画像(AR画像)200の位置を設定する第2位置設定処理と、を実行可能である。
 実オブジェクト位置設定モジュール604は、例えば、第1の立体画像(AR画像)200においては、表示する位置の基準となる実オブジェクトの特定位置を、前記第1位置設定処理と前記第2位置設定処理とを時系列的に使い分けることにより算出し、第2の立体画像(AR画像)200においては、表示する位置の基準となる実オブジェクトの特定位置を、前記第2位置設定処理により算出してもよい。実オブジェクト位置設定モジュール604は、例えば、最小二乗法や、カルマンフィルタ、α-βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又はそれ以上の観測位置を用いて、次回の値を予測するようにしてもよい。
 目位置検出モジュール606は、車両1の視認者4の左右の目の位置を検出する。目位置検出モジュール606は、(1)視認者4の目の左右方向(X軸方向)の位置、又は/及び奥行き方向(Z軸方向)の位置を検出すること、(2)視認者4の目の位置(X,Y,Z軸方向の位置)を検出すること、(3)複数の視域Eのどこに視認者4の目の位置があるか判定すること、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール606は、例えば、目位置検出部511から視認者4の目の位置を取得する、及び/又は視認者4の目の位置がどの視域Eに位置するかを判定する。すなわち、目位置検出モジュール606は、目の位置から視認者4の目位置が位置する視域Eを判定するためのテーブルデータ、演算式、などを含み得る。
 また、目位置検出モジュール606は、視認者4の目の位置を推定可能な情報を受信し、視認者4の左右の目の位置を推定してもよい。目位置検出モジュール606は、目位置検出部511から取得した撮像画像、左右いずれか一方の目の位置、I/Oインタフェース31に接続された電子機器(例えば、車両ECU501)から車両1の運転席の位置、視認者4の顔の位置、又は座高の高さ、視認者4が所有する携帯情報端末513などから取得した視認者4の体格、座高の高さ、車両1の運転席の好みの位置、などから視認者4の目位置(左右の目のいずれか一方、又は両方の位置)を推定することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、目位置検出モジュール606は、目の位置を推定可能な情報から視認者4の目位置を推定するためのテーブルデータ、演算式、などを含み得る。
 報知必要度判定モジュール608は、車両用表示システム10が表示する各立体画像200が視認者4に報知するべき内容であるかを判定する。報知必要度判定モジュール608は、I/Oインタフェース31に接続される種々の他の電子機器から情報を取得し、報知必要度を算出してもよい。また、図8でI/Oインタフェース31に接続された電子機器が車両ECU501に情報を送信し、受信した情報に基づき車両ECU501が決定した報知必要度を、報知必要度判定モジュール608が検出(取得)してもよい。『報知必要度』は、例えば、起こり得る自体の重大さの程度から導き出される危険度、反応行動を起こすまでに要求される反応時間の長短から導き出される緊急度、車両1や視認者4(又は車両1の他の乗員)の状況から導き出される有効度、又はこれらの組み合わせなどで決定され得る(報知必要度の指標はこれらに限定されない)。すなわち、報知必要度判定モジュール608は、視認者4に報知すべきかを判定し、一部、又は全部の立体画像200を表示しないことも選択し得る。なお、車両用表示システム10は、報知必要度を推定する(算出する)機能を有していなくてもよく、報知必要度を推定する機能の一部又は全部は、車両用表示システム10の表示制御装置30とは別に設けられてもよい。
 画像位置決定モジュール610は、立体画像200が、実オブジェクトと特定の位置関係になって視認されるように、実オブジェクト位置設定モジュール604が設定した実オブジェクトの決定位置(観測位置又は予測位置)に基づき、立体画像200の座標(視認者4が車両1の運転席から前方を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)を決定する。これに加え、画像位置決定モジュール610は、実オブジェクト位置設定モジュール604が設定した実オブジェクトの決定位置に基づき、視認者4が車両1の運転席から虚像表示領域100の方向を見た際の前後方向(Z軸方向)を決定してもよい。なお、画像位置決定モジュール610は、目位置検出部511が検出した視認者4の眼の位置に基づいて、立体画像200の位置を調整する。例えば、画像位置決定モジュール610は、立体画像200の中心が実オブジェクトの中心と重なって視認されるように、立体画像200の左右方向、及び上下方向の位置を決定する。なお、『特定の位置関係』は、実オブジェクト又は車両1の状況、実オブジェクトの種類、表示される画像の種類などにより調整され得る。
 画像サイズ決定モジュール612は、対応付ける実オブジェクトの位置、又は/及びサイズに合わせて、立体画像(AR画像)200のサイズを変更してもよい。例えば、画像サイズ決定モジュール612は、対応付ける実オブジェクトの位置が遠方であれば、立体画像(AR画像)200のサイズを小さくし得る。また、画像サイズ決定モジュール612は、対応付ける実オブジェクトのサイズが大きければ、立体画像(AR画像)200のサイズを大きくし得る。
 また、画像サイズ決定モジュール612は、実オブジェクト関連情報検出モジュール602により検出された立体画像200を対応付けて表示する実オブジェクトの種類、数、又は/及び、報知必要度判定モジュール608で検出された(推定された)報知必要度の大きさに基づいて、立体画像200のサイズを決定し得る。
 画像サイズ決定モジュール612は、過去の所定の回数の実オブジェクトのサイズに基づいて、今回の表示更新周期で表示する立体画像(AR画像)200を表示するサイズを予測算出する機能を有してもよい。第1の手法として、画像サイズ決定モジュール612は、カメラ(車外センサ507の一例)による過去の2つの撮像画像間で、例えば、Lucas-Kanade法を使用して、実オブジェクトの画素を追跡することで、今回の表示更新周期における実オブジェクトのサイズを予測し、予測した実オブジェクトのサイズに合わせてAR画像のサイズを決定してもよい。第2手法として、過去の2つの撮像画像間での実オブジェクトのサイズの変化に基づき、実オブジェクトのサイズの変化率を求めて、実オブジェクトのサイズの変化率に応じてAR画像のサイズを決定してもよい。なお、時系列で変化する視点からの実オブジェクトのサイズ変化を推定する方法は、上記に限られず、例えば、Horn-Schunck法、Buxton-Buxton、Black-Jepson法などのオプティカルフロー推定アルゴリズムを含む公知の手法を用いてもよい。
 グラフィックモジュール614は、表示される立体画像200の、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、サイズ、表示位置、距離(視認者4から立体画像200までの距離)を変更するための様々な既知のソフトウェア構成要素を含む。グラフィックモジュール614は、画像位置決定モジュール610が設定した座標(視認者4が車両1の運転席から虚像表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)、画像サイズ決定モジュール612が設定した画像サイズで視認者4に視認されるように立体画像200の元となる画像データ(元画像データ)を生成し、メモリ37に記憶する。なお、グラフィックモジュール614は、HUD装置20に、前景300に存在する実オブジェクトの位置に応じて表示位置を変化させるAR画像、及び/又は実オブジェクトの位置に応じて表示位置を変化させない非AR画像、を含む画像を表示させることができる。なお、グラフィックモジュール614の機能の一部又は全部は、車両用表示システム10の表示制御装置30とは別に設けられてもよい。すなわち、プロセッサ33は、外部(例えば、車両ECU501)から立体画像200の元となる画像データ(元画像データ)を取得してもよい。
 視差画像生成モジュール616は、メモリ37から、グラフィックモジュール614が生成した元画像データと、目位置検出モジュール606が取得した視認者4の左目4Lの位置(左目4Lが位置する視域Eを示す情報)及び右目4Rの位置(右目4Rが位置する視域Eを示す情報)と、を読み出し、これらに基づいて、右目用画像データと、左目用画像データとを生成する。具体的には、視差画像生成モジュール616は、視認者4の目位置から見て、読み出した画像データに含まれる表示位置に立体画像200が視認されるように、右目と左目との視差を利用して、液晶パネル22を制御するための右目用画像データ及び左目用画像データを生成する。なお、視差画像生成モジュール616の機能の一部又は全部は、車両用表示システム10の表示制御装置30とは別に設けられてもよい。すなわち、プロセッサ33は、外部(例えば、車両ECU501)から右目用画像データ及び左目用画像データを取得してもよい。
 画像事前歪みモジュール618は、表示器21が表示面21aに表示する表示画像Mを予め歪めて表示する画像事前歪み処理(Pre-distortion)をするものである。なお、この処理は、「ワーピング」とも呼ばれる。画像事前歪みモジュール618は、特に、虚像光学系90によって生じる歪み、収差に関して、光学的な品質(表示品位)を補正することが可能である。画像事前歪みモジュール618は、メモリ37に記憶された、画像事前歪み処理に用いるワーピングパラメータを読み出し、事前歪みを施していない基準画像データから、事前歪み画像(ワーピング画像)を生成する。前記ワーピングパラメータは、前記基準画像データから前記ワーピング画像を生成するための画像の座標位置を示す情報であり、例えば、虚像光学系90(主にフロントウインドシールド2)により生じる虚像Vの歪み、収差を軽減(相殺)するような補正情報を含み、基準画像の画像位置とワーピング画像の座標位置とが対応付けられている。なお、前記ワーピングパラメータは、歪みを補正する歪み補正パラメータと、収差を補正する収差補正パラメータとが別々であってもよい。
 本実施形態の画像事前歪みモジュール618は、視認者4の目位置に応じて、前記ワーピングパラメータを変更する、すなわち、動的な画像事前歪み処理を実行する。画像事前歪みモジュール618は、(1)目位置検出モジュール606が取得した視認者4の左目4Lの位置(目が位置する視域E)に基づき、左目用画像の歪みを補正する左目用ワーピングパラメータを生成し、右目4Rの位置(目が位置する視域E)に基づき、右目用画像の歪みを補正する右目用ワーピングパラメータを生成すること、(2)視認者4の左目4L又は右目4Rのいずれか一方の位置(目が位置する視域E)に基づき、左目用ワーピングパラメータ及び右目用ワーピングパラメータを生成すること、などに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。なお、上記(2)視認者4の左目4L又は右目4Rのいずれか一方の位置(目が位置する視域E)に基づき、左目用ワーピングパラメータ及び右目用ワーピングパラメータを生成することは、例えば、片方の目の位置と、平均的な瞳孔間距離とから他方の目の位置を推定し、取得した目の位置と推定した目の位置とに基づき、左目用ワーピングパラメータ及び右目用ワーピングパラメータを生成してもよい。すなわち、画像事前歪みモジュール618は、視認者4の左目4L又は右目4Rのいずれか一方の位置から、左目用ワーピングパラメータ及び右目用ワーピングパラメータを生成するためのテーブルデータ、演算式、などを含み得る。
 本実施形態の画像事前歪みモジュール618は、視認者4の目が位置する視域Eの変化点で、ワーピングパラメータを切り替える。言い換えると、本実施形態の画像事前歪みモジュール618は、ワーピングパラメータを切り替える境界を、視域Eが切り替わる境界に一致するように設定する。
 図9A乃至図9Dは、視域E1,E2,・・・とワーピングパラメータ設定領域W1,W2,・・・との位置関係の例を示す。図9A乃至図9Dでは、視域Eは、X軸方向に配列された12個の視域E1~E12である(視域の数はこれに限定されない。)。
 図9Aの例では、画像事前歪みモジュール618は、視域Eと同じ数(12個)のワーピングパラメータ設定領域W1~W12を設け、車両1の左右方向(X軸方向)の視域E1~E12の境界とワーピングパラメータ設定領域W1~W12との境界とを一致させる。これにより、視認者4の目の位置が、視域Eを跨ぐように移動し、視認者4の左目で視認される左目用画像と、右目で視認される右目用画像が変更され得る(視域Eを跨いでも左目用画像、及び/又は右目用画像が変更されないこともあり得る)際に、左目用ワーピングパラメータ及び右目用ワーピングパラメータも変更する。すなわち、左目用画像、及び/又は右目用画像が変更される際に、同時にワーピングパラメータも変更されるため、左目用画像、及び/又は右目用画像が変更され得る境界(視域Eの境界)とワーピングパラメータが変更される境界(ワーピングパラメータ設定領域Wの境界)とを別々に設けた場合と比べて、表示画像Mの切り替わり点が少なくなり、表示画像Mの切り替わりによる違和感を軽減(違和感を覚える機会を低減)することができる。
 図9Bに示すように、いくつかの実施形態の画像事前歪みモジュール618は、視域Eより少ない数(6個)のワーピングパラメータ設定領域W1~W6を設け、車両1の左右方向(X軸方向)の視域E1~E12の境界とワーピングパラメータ設定領域W1~W6との境界とを一致させてもよい。これにより、表示画像Mの切り替わり点が少なくなり、表示画像Mの切り替わりによる違和感を軽減(違和感を覚える機会を低減)することができる。また、ワーピングデータを少なく抑えることができる。
 図9Cの例に示すように、いくつかの実施形態の画像事前歪みモジュール618は、視域Eより少ない数(7個)のワーピングパラメータ設定領域W1~W7を設け、車両1の左右方向(X軸方向)の視域E1~E12の境界とワーピングパラメータ設定領域W1~W7との境界とを一致させ、視域Eの左右方向の中央付近でのワーピングパラメータ設定領域Wを広く、視域Eの左右方向の端部へ行くほど徐々に狭くするように設定してもよい。これにより、視認者4の目が位置する可能性が高い視域Eの左右方向での中央領域で、ワーピングパラメータの変更による表示画像Mの変化点が少なくなり、表示画像Mの切り替わりによる違和感を軽減(違和感を覚える機会を低減)することができる。また、ワーピングデータを少なく抑えることができる。
 図9Dの例に示すように、いくつかの実施形態の画像事前歪みモジュール618は、車両1の左右方向(X軸方向)の視域E1~E12の境界とワーピングパラメータ設定領域W11~W36との境界とを一致させつつ、高さ方向(Y軸)方向でもワーピングパラメータ設定領域W11~W36の境界を設けてもよい。これにより、視認者4の目の位置が、視域Eを跨ぐように移動し、視認者4の左目で視認される左目用画像と、右目で視認される右目用画像が変更され得る(視域Eを跨いでも左目用画像、及び/又は右目用画像が変更されないこともあり得る)際に、左目用ワーピングパラメータ及び右目用ワーピングパラメータも変更する。さらに、視認者4の目の位置が高さ方向に変化した場合でも虚像Vの歪みや収差を動的に補正することができる。
 目移動判定モジュール620は、視認者4の目位置が視域Eを跨いだか、又は跨ぎそうな状況であるかを判定する。例えば、目移動判定モジュール620は、目位置検出モジュール606が取得した視認者4の左目4Lの位置(左目4Lが位置する視域Eを示す情報)及び右目4Rの位置(右目4Rが位置する視域Eを示す情報)と、を読み出し、これらに基づき、(1)最新の目位置と前回の目位置とを比較し、視域Eを跨いだかを判定すること、又は(2)最新の目位置と前回の目位置との変化量から、目の移動速度を算出し、メモリ37に予め記憶された所定の閾速度より速いか判定する(Yesの場合、跨ぎそうな状況であると判定する。)こと、又は(3)目位置が所定の領域(視域E内の境界付近)であるかを判定する(Yesの場合、跨ぎそうな状況であると判定する。)こと、又は(4)最新の目位置と、過去の1つ又は複数の目位置とから目位置の標準偏差もしくは分散を算出し、所定の閾値より高いかを判定する(Yesの場合、跨ぎそうな状況であると判定する。)こと、又は(5)最新の目位置と、過去の1つ又は複数の目位置とから、次の目位置の予測位置を算出し、予測位置が視域Eを跨ぐかを判定する(Yesの場合、跨ぎそうな状況であると判定する。)こと、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。なお、目移動判定モジュール620は、目位置検出モジュール606が取得した複数の目位置(例えば、最新の目位置と、過去の1つ又は複数の目位置)に基づいて予測を行う限り、予測位置の算出方法に特段の制約はなく、如何なる手法を用いてもよい。目移動判定モジュール620は、例えば、最小二乗法や、カルマンフィルタ、α-βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又はそれ以上の目位置を用いて、次回の目位置を予測するようにしてもよい。
 表示制御モジュール622は、画像事前歪みモジュール618が画像事前歪み処理を施し、右目用ワーピングパラメータで補正した右目用画像データ、及び左目用ワーピングパラメータで補正した左目用画像データに基づき、液晶パネル22に右目用画像と左目用画像とを順次切り替えて表示する。表示制御モジュール622は、例えば、120Hz以上の周波数で右目用画像と左目用画像とを切り替える。これにより、画像に対する違和感が低減する60Hz以上の周波数で右目用画像と左目用画像との双方が視認される。
 なお、表示制御モジュール622は、目移動判定モジュール620により、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合、左目用画像又は右目用画像の少なくともいずれか一方を、期間γだけ非表示とする(第2表示モード)。期間γは、例えば、1フレームにおける左目用画像、又は右目用画像が表示される時間(1フィールド)が8.3msecだとすると、例えば、約半分の4msec以下であるが、これ以上(1フィールド全体の8.3msecも含む)に設定することを排除するものではない。なお、これについては、左目用画像と右目用画像とを時分割で表示する場合の例であり、左目用画像と右目用画像とを同時に表示するような後述の他の実施形態の3D表示器21では、期間γは、例えば、1フレームにおける左目用画像(及び右目用画像)が表示される時間が16.7msecだとすると、約半分の8msec以下とすることが好ましい。なお、この期間γは、表示制御装置30にかかる処理負荷が大きい時に長く設定され、処理負荷が小さい時に短く設定されてもよい(可変であってもよい)。なお、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定される前の駆動モードを、第1表示モードとする。すなわち、表示制御モジュール622は、目移動判定モジュール620により、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合、駆動モードを、第1表示モードから第2表示モードへと移行し、所定のフレーム(又はサブフレーム)の後、第2表示モードから第1表示モードへ戻す。
 また、表示制御モジュール622は、目移動判定モジュール620により、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合、判定された直後に表示される左目用画像又は右目用画像のいずれか一方を、期間γだけ非表示としてもよい(第2表示モード)。
 また、表示制御モジュール622は、目移動判定モジュール620により、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された目に対応する画像を非表示としてもよい。すなわち、例えば、目移動判定モジュール620により、左目4Lが視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合、左目用画像を、期間γだけ非表示としてもよい(第2表示モード)。
 光源制御モジュール624は、目位置検出モジュール606が取得した視認者4の左目4Lの位置及び右目4Rの位置に基づき、左目4Lの位置が存在する視域Eに向かう左目用光源と、右目4Rの位置が存在する視域Eに向かう右目用光源と、を光源群60の中から選択し、表示制御モジュール622が、液晶パネル22に左目用画像を表示するのに合わせて左目用光源を点灯させ、液晶パネル22に右目用画像を表示するのに合わせて右目用光源を点灯させる。これを図6Aで説明すると、光源制御モジュール624は、液晶パネル22に左目用画像を表示するのに合わせて、左目4Lが配置される視域E1に画像光50(照明光)を向ける第1光源61を発光させ、この第1光源61以外を消灯させ(対応する視域Eで画像が視認しづらい程度に輝度を低下させることも含む。)、次に、液晶パネル22に右目用画像を切り替えて表示するのに合わせて、右目4Rが配置される視域E3に画像光50(照明光)を向ける第3光源63を発光させるこの第3光源63以外を消灯させる(対応する視域Eで画像が視認しづらい程度に輝度を低下させることも含む。)。
 光源制御モジュール624は、メモリ37に、視認者4の左右の目の位置(又は視認者4の左右の目が配置される視域E)と、視認者4の目の位置に画像光50(照明光)を向ける光源群60の各光源61~64とを対応付けたテーブルデータを予め格納しておき、このテーブルデータを読み出すことで、視認者4の左右の目の位置(又は視認者4の左右の目が配置される視域E)に対応した光源61~64を設定する。光源61~64を設定するための視認者4の左右の目の位置は、左右方向(X軸方向)の座標を少なくとも含み、好ましくは、奥行方向(Z軸方向)の座標を含む(高さ方向(Y軸方向)の座標を含んでいてもよい。)。
 図10Aは、図6Aに示す視認者の目の配置において、液晶パネル22が表示する画像と、各光源61~64の駆動状態との関係を示すタイミングチャートである。図6Aに示す状態では、視認者4の左目4Lは、視域E1内であり、第1光源61が対応し(第1光源61が左目用光源。)、右目4Rは、視域E3内であり、第3光源63が対応する(第3光源63が右目用光源。)。時間t11から時間t12の間(時間t13から時間t14の間も同様。)、液晶パネル22は、左目用画像を表示し、光源群60のうち左目用光源である第1光源61のみ高輝度で発光させ、それ以外の光源62,63,64を低輝度に設定する(消灯も含む)。これにより、光源62,63,64に対応する視域E2,E3,E4では、液晶パネル22で表示される画像(左目用画像)が視認されにくくなる(視認されない)。したがって、視域E3に配置された視認者4の右目4Rには、左目用画像の画像光が入射されにくくなる(入射されない)ため、右目4Rに左目用画像の画像光が入射するクロストークを発生しにくくすることができる。次に、時間t12から時間t13の間(時間t14から時間t15の間も同様。)、液晶パネル22は、右目用画像を表示し、光源群60のうち右目用光源である第3光源63のみ高輝度で発光させ、それ以外の光源61,62,64を低輝度に設定する(消灯も含む)。これにより、光源61,62,64に対応する視域E1,E2,E4では、液晶パネル22で表示される画像(右目用画像)が視認されにくくなる(視認されない)。したがって、視域E1に配置された視認者4の左目4Lには、右目用画像の画像光が入射されにくくなる(入射されない)ため、左目4Lに右目用画像の画像光が入射するクロストークを発生しにくくすることができる。
 図10Bは、図6Aに示す視認者の目の配置において、液晶パネル22が表示する画像と、各光源61~64の駆動状態との関係の変形例を示すタイミングチャートである。時間t21から時間t22の間の期間TDISP(時間t23から時間t24の間の期間TDISPも同様。)、液晶パネル22は、左目用画像を表示し、光源群60のうち左目用光源である第1光源61のみ左目用画像が表示される期間TDISPより短い期間TLITEの間だけ、高輝度で発光させ、それ以外の光源62,63,64を低輝度に設定する(消灯も含む)。続けて、時間t22から時間t23の間の期間TDISP(時間t14から時間t15の間の期間TDISPも同様。)、液晶パネル22は、右目用画像を表示し、光源群60のうち右目用光源である第3光源63を、期間TDISPより短い期間TLITEの間だけ、高輝度で発光させ、それ以外の光源61,62,64を低輝度に設定する(消灯も含む)。したがって、液晶パネル22が左目用画像と右目用画像とが切り替わる時間t22,t23,t24の前後で、全ての光源が消灯となる(すなわち、黒表示となる)。これにより、液晶パネル22の表示タイミングと各光源61,62,63,64の点灯タイミングにずれが生じた際に、意図しない画像の光が意図しない視域Eに向かうことを防止することができ、延いては、クロストークを発生しにくくすることができる。
 図10Cは、図6Aに示す視認者の目の配置において、液晶パネル22が表示する画像と、各光源61~64の駆動状態との関係の変形例を示すタイミングチャートである。図10Cの例では、液晶パネル22が左目用画像と右目用画像とを切り替える間(時間t31~t32、時間t33~t34、時間t35~t36)に、左目用画像又は右目用画像を表示しない黒表示とし、この黒表示の間に、左目用光源と右目用光源との点消灯を切り替える(すなわち、黒表示となる)。これによっても、液晶パネル22の表示タイミングと各光源61,62,63,64の点灯タイミングにずれが生じた際に、意図しない画像の光が意図しない視域Eに向かうことを防止することができ、延いては、クロストークを発生しにくくすることができる。
 図10Dは、図6Aに示す視認者の目の配置において、液晶パネル22が表示する画像と、各光源61~64の駆動状態との関係の変形例を示すタイミングチャートである。図10Dの例では、液晶パネル22が左目用画像と右目用画像とを切り替える間(時間t41~t42、時間t43~t44、時間t45~t46)に、左目用画像又は右目用画像を表示しない黒表示とし、さらに、この黒表示の間に、全ての光源が消灯となる(すなわち、黒表示となる)。これによっても、液晶パネル22の表示タイミングと各光源61,62,63,64の点灯タイミングにずれが生じた際に、意図しない画像の光が意図しない視域Eに向かうことを防止することができ、延いては、クロストークを発生しにくくすることができる。
 なお、光源制御モジュール624は、目移動判定モジュール620により、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合、左目用光源又は右目用光源の少なくともいずれか一方を、期間γだけ消灯する(第2表示モード)。期間γは、例えば、1フレームにおける左目用光源60L、又は右目用光源60Rが点灯する時間(1フィールド)が8.3msecだとすると、例えば、約半分の4msec以下であるが、これ以上(1フィールド全体の8.3msecも含む)に設定することを排除するものではない。なお、これについては、左目用画像と右目用画像とを時分割で表示する場合の例であり、左目用画像と右目用画像とを同時に表示するような後述の他の実施形態の3D表示器21では、期間γは、例えば、1フレームが16.7msecだとすると、約半分の8msec以下とすることが好ましい。なお、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定される前の駆動モードを、第1表示モードとする。すなわち、光源制御モジュール624は、目移動判定モジュール620により、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合、駆動モードを、第1表示モードから第2表示モードへと移行し、所定のフレーム(又はサブフレーム)の後、第2表示モードから第1表示モードへ戻す。
 また、光源制御モジュール624は、目移動判定モジュール620により、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合、判定された直後に点灯される左目用光源60L又は右目用光源60Rのいずれか一方を、期間γだけ消灯(光強度の低下も含む。)としてもよい(第2表示モード)。
 また、光源制御モジュール624は、目移動判定モジュール620により、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された目に対応する光源を消灯としてもよい。すなわち、例えば、目移動判定モジュール620により、左目4Lが視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合、左目用光源60Lを、期間γだけ消灯(光強度の低下も含む。)としてもよい(第2表示モード)。
 図11は、HUD装置20が立体画像を表示する際の処理を示すフローチャートである。プロセッサ33は、ステップS11において、目位置検出モジュール606を実行することで、視認者4の左目4Lの位置と、右目4Rの位置と、を検出し(又は推定し)する。
 ステップS12において、プロセッサ33は、目移動判定モジュール620を実行することで、視認者4の目位置が視域Eを跨いだか、又は跨ぎそうな状況であるかを判定する。
 ステップS13において、プロセッサ33は、視差画像生成モジュール616を実行することで、グラフィックモジュール614が生成した画像データと、ステップS11で取得した視認者4の左目4Lの位置及び右目4Rの位置とに基づき、左目用画像データと、右目用画像データと、を生成する。
 ステップS14において、プロセッサ33は、画像事前歪みモジュール618を実行し、ステップS11で取得した視認者4の左目4Lの位置及び右目4Rの位置に基づき、左目用ワーピングパラメータと、右目用ワーピングパラメータと、を生成する。
 ステップS15において、プロセッサ33は、光源制御モジュール624を実行することで、ステップS11で取得した視認者4の左目4Lの位置及び右目4Rの位置に基づき、左目用光源と、右目用光源とを設定する。なお、ステップS13、ステップS14の順番は逆であってもよく、同時に実行されてもよい。
 ステップS16において、プロセッサ33及び画像処理回路35は、左目用ワーピングパラメータを適用した左目用画像及び右目用ワーピングパラメータを適用した右目用画像を液晶パネル22に交互表示しつつ、これと同期して、左目用光源、及び右目用光源を交互に点消灯する。なお、ステップS11で、視認者4の目位置が視域Eを跨いだこと、又は跨ぎそうな状況であること、が判定された場合、プロセッサ33は、表示制御モジュール622を実行して、(11)左目用画像、及び/もしくは右目用画像を、期間γだけ非表示にする(第1表示モードから第2表示モードへ移行する)、又は、光源制御モジュール624を実行して、(12))左目用光源60L、及び/又は右目用光源60Rを、期間γだけ消灯する(第1表示モードから第2表示モードへ移行する)。
 上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、又は/及びそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。
 車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図8で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。
 なお、以上に説明した3D表示器21は、指向性のあるバックライトユニット(Directional BLU)であるバックライトモジュール24により、複数の視域Eを形成するものであったが、これに限定されない。他の実施形態の3D表示器21は、パララックスバリア(Parallax barrier)やレンチキュラレンズ(Lenticular lens)等の光路分割部材を使用したオートステレオスコピック3次元ディスプレイ(Autostereoscopic 3 dimention display)であってもよい。なお、これらの場合、表示器21は、右目用ワーピングパラメータで補正した右目用画像データ、及び左目用ワーピングパラメータで補正した左目用画像データを合成した合成画像を表示し得る。
 なお、本実施形態の車両用表示システム10は、上記モジュール602~624の一部又は全部の機能が、車両用表示システム10の表示制御装置30とは別(例えば、車両ECU501)に設けられてもよい。
 上記実施形態では、複数の視域Eのうち、左目用画像が表示される左目視域ELが1つであり、右目用画像が表示される右目視域ERが1つであったが、これに限定されるものではなく、左目用画像、及び/又は右目用画像が、複数の視域Eに表示されていてもよい。左目用画像、及び/又は右目用画像が、複数の視域Eに表示される場合、目が存在する左目視域EL(又はER)に隣り合った1つ又は複数の視域Eにも画像を表示しておくことが好ましい。このように、目が存在する左目視域EL(又はER)に隣り合った1つ又は複数の視域Eにも画像を表示しておくことで、視認者4の目の位置が移動し、視域Eを跨いだ場合であっても、既にその視域Eに所望の画像が表示されているため、遅延なく、視認者4に所望の画像を視認させることができるという利点がある。
 図12A乃至図12Dは、第1表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域Eに表示される態様を示す図である。これらの図において、符号ELは、左目4Lが位置する視域Eを示し、符号ERは、右目4Rが位置する視域Eを示す。なお、図12A乃至図12Dでは、左目用画像、及び右目用画像を同時に表示しているように示してあるが、図12A乃至図12Dに記載された左目用画像と、図12A乃至図12Dに記載された右目用画像とは、時分割に表示されるものであってもよい。すなわち、1フレームが、左目用画像を表示する1つ又は複数のフィールドと、右目用画像を表示する1つ又は複数のフィールドと、を含んでいてもよい。図12A乃至図12D(後述の図13A乃至図13E、図14A、及び図14Bも同様。)では、符号ELI1、ERI1は、左目4Lと右目4Rとの間の、画像が表示されている視域を示し、符号ELO1、ELO2、ELO3、・・・(符号の数字は左目視域ELに近い方から昇順である。)、及び符号ERO1、ERO2、ERO3、・・・(符号の数字は右目視域ERに近い方から昇順である。)は、左目4Lと右目4Rとの間ではない、画像が表示されている視域を示す。
 図12Aを参照する。いくつかの実施形態では、表示制御装置30は、目が存在する左目視域EL(ER)と、その両隣の左目視域ELI1、ELO1(ERI1、ERO1)と、に左目用画像(右目用画像)を表示してもよい。すなわち、表示制御装置30は、左目4Lが存在する視域E5(EL)と、左目4Lが存在する視域E5(EL)より内側(右目4R側)の視域E6(ELI1)と、左目4Lが存在する視域E5(EL)より外側(右目4Rとは反対側)の視域E4(ELO1)と、に左目用画像を表示し、かつ右目4Rが存在する視域E8(ER)と、右目4Rが存在する視域E8(ER)より内側(左目4L側)の視域E7(ERI1)と、右目4Rが存在する視域E8(ER)より外側(左目4Lとは反対側)の視域E9(ERO1)と、に右目用画像を表示する。
 次に、図12Bを参照する。いくつかの実施形態では、表示制御装置30は、全ての視域Eに、左目用画像又は右目用画像を表示するようにしてもよい。具体的には、左目4Lと右目4Rとの間を境界にして、左目4L側の視域E1~E6に左目用画像を表示し、かつ右目4R側の視域E7~E12に右目用画像を表示してもよい。
 また、図12Cに示すように、いくつかの実施形態では、表示制御装置30は、左目4Lが位置する左目視域EL(E5)を基準とする左目画像が表示される左目視域ELO1(E4),ELO2(E3)の配置と、右目4Rが位置する左目視域EL(E8)を基準とする右目画像が表示される左目視域ELI1(E7),ELO1(E9)の配置と、を異ならせてもよい。
 また、図12Dに示すように、いくつかの実施形態では、表示制御装置30は、左目画像が表示される左目視域EL(E5)、ELO1(E4)の数(2つ)と、右目画像が表示される右目視域ER(E8)、ERI1(E7)、ERO1(E8)の数(3つ)と、を異ならせてもよい。
 図13A乃至図13Eは、第1表示モード、第2表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域Eに表示される態様を示す図である。これらの図において、符号ELは、左目4Lが位置する視域Eを示し、符号ERは、右目4Rが位置する視域Eを示す。なお、図13A乃至図13Eでは、左目用画像、及び右目用画像を同時に表示しているように示してあるが、図13A乃至図13Eに記載された左目用画像と、図13A乃至図13Eに記載された右目用画像とは、時分割に表示されるものであってもよい。すなわち、1フレームが、左目用画像を表示する1つ又は複数のフィールドと、右目用画像を表示する1つ又は複数のフィールドと、を含んでいてもよい。
 いくつかの実施形態では、表示制御装置30は、第2モードにおいて、全ての視域Eで左目用画像と右目用画像とを非表示にする、及び/又は左目用光源60Lと右目用光源60Rとを消灯してもよい。図13Aを参照する。図13Aにおける第1フレームF11では、左目4Lが存在する視域E5(EL)と、左目4Lが存在する視域E5(EL)より内側(右目4R側)の視域E6(ELI1)と、左目4Lが存在する視域E5(EL)より外側(右目4Rとは反対側)の視域E4(ELO1)と、に左目用画像を表示し、かつ右目4Rが存在する視域E8(ER)と、右目4Rが存在する視域E8(ER)より内側(左目4L側)の視域E7(ERI1)と、右目4Rが存在する視域E8(ER)より外側(左目4Lとは反対側)の視域E9(ERO1)と、に右目用画像を表示する。
次に、図13Aにおける第2フレームF12では、表示制御装置30は、駆動モードを、第1表示モードから第2表示モードに移行し、期間γだけ、全ての視域Eにおいて、左目用画像と右目用画像とを非表示にする、及び/又は左目用光源60Lと右目用光源60Rとを消灯する。
 第2表示モードを所定の期間γだけ実行した後、第3フレームF13では、表示制御装置30は、駆動モードを、第2表示モードから第1表示モードに移行し、視認者4の左目4Lの配置に基づく複数の視域E8,E9,E10に左目用画像を表示し、視認者4の右目4Rの配置に基づく複数の視域E4,E5,E6に右目用画像を表示する。この態様によれば、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合に、クロストークが発生しやすい所定の期間だけ、左目用画像と右目用画像とがいずれの視域Eでも視認できない状態(視認しづらい状態)となるため、クロストークが視認されづらくすることができる。
 また、いくつかの実施形態では、表示制御装置30は、第2モードにおいて、第1表示モードで画像が表示される視域Eの数を第1モードよりも少なくしてもよい。具体的には、表示制御装置30は、第1表示モードにおいて、視認者4の左目4Lの配置に基づいて左目用画像を表示していた視域Eの数(例えば、3個)を、第2表示モードでは削減する(例えば、1個にする)。
 図13Bを参照する。図13Bにおける第1フレームF21では、(1)左目4Lが存在する視域E5(EL)と、左目4Lが存在する視域E5(EL)より内側(右目4R側)の視域E6(ELI1)と、左目4Lが存在する視域E5(EL)より外側(右目4Rとは反対側)の視域E4(ELO1)と、の3個の視域Eに左目用画像を表示し、かつ(2)右目4Rが存在する視域E8(ER)と、右目4Rが存在する視域E8(ER)より内側(左目4L側)の視域E7(ERI1)と、右目4Rが存在する視域E8(ER)より外側(左目4Lとは反対側)の視域E9(ERO1)と、の3個の視域Eに右目用画像を表示する。
 次に、図13Bにおける第2フレームF22では、表示制御装置30は、駆動モードを、第1表示モードから第2表示モードに移行し、期間γだけ、画像が表示される視域Eの数を削減する。具体的には、表示制御装置30は、(3)左目4Lが存在する視域E5(EL)の1個の視域Eのみに左目用画像を表示し、かつ(4)右目4Rが存在する視域E8(ER)の1個の視域Eのみに右目用画像を表示する。すなわち、目位置が存在すると想定される視域EL,ERのみに画像を表示するようにする。但し、第2表示モードでは、第1表示モードと比較して画像が表示される視域Eが削減されていればよく、第2表示モードにおいて、表示制御装置30は、目位置が存在すると想定される視域EL,ERを含む1つ又は複数の視域Eで画像を表示してもよい。
 第2表示モードを所定の期間γだけ実行した後、第3フレームF23では、表示制御装置30は、駆動モードを、第2表示モードから第1表示モードに移行し、視認者4の左目4Lの配置に基づく複数の視域E8,E9,E10に左目用画像を表示し、視認者4の右目4Rの配置に基づく複数の視域E4,E5,E6に右目用画像を表示する。この態様によれば、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合に、画像が表示される視域を削減する(言い換えれば、一部を非表示とする)ことで、2種の画像が表示される境界(視域の境界)の数が減少することで、目位置が境界に配置される可能性が低下させることができる、延いてはクロストークが発生する確率を低下させることができる。
 また、いくつかの実施形態では、表示制御装置30は、第2モードにおいて、第1表示モードで画像が表示される視域Eの数を第1モードよりも少なくし、かつ削減の態様を目位置の移動方向によって異ならせてもよい。
 いくつかの実施形態では、表示制御装置30は、第1表示モードにおいて、視認者4の左目4Lの配置に基づいて左目用画像を表示していた視域Eの数(例えば、3個)を、第2表示モードでは削減し(例えば、2個にする)、かつ目位置を基準に目位置の移動方向と反対側の視域Eへの画像表示を停止する。図13Cを参照する。図13Cにおける第1フレームF31では、(1)左目4Lが存在する視域E5(EL)と、左目4Lが存在する視域E5(EL)より内側(右目4R側)の視域E6(ELI1)と、左目4Lが存在する視域E5(EL)より外側(右目4Rとは反対側)の視域E4(ELO1)と、の3個の視域Eに左目用画像を表示し、かつ(2)右目4Rが存在する視域E8(ER)と、右目4Rが存在する視域E8(ER)より内側(左目4L側)の視域E7(ERI1)と、右目4Rが存在する視域E8(ER)より外側(左目4Lとは反対側)の視域E9(ERO1)と、の3個の視域Eに右目用画像を表示する。
 次に、図13Cにおける第2フレームF32では、表示制御装置30は、駆動モードを、第1表示モードから第2表示モードに移行し、期間γだけ、画像が表示される視域Eの数を削減する。具体的には、表示制御装置30は、(3)左目4Lが存在する視域E6(EL)と、目位置の移動方向と同じ方向の、左目4Lが存在する視域E6(EL)の隣の視域E7(ELI1)の2個の視域Eに左目用画像を表示し、かつ(4)右目4Rが存在する視域E9(ER)と、目位置の移動方向と同じ方向の、右目4Rが存在する視域E9(ER)の隣の視域E10(ERO1)の2個の視域Eに右目用画像を表示する。すなわち、目位置が存在していると推定される位置を基準として、目位置が存在していた方向の視域Eへの画像表示を停止する。
 第2表示モードを所定の期間γだけ実行した後、第3フレームF33では、表示制御装置30は、駆動モードを、第2表示モードから第1表示モードに移行し、視認者4の左目4Lの配置に基づく複数の視域E8,E9,E10に左目用画像を表示し、視認者4の右目4Rの配置に基づく複数の視域E4,E5,E6に右目用画像を表示する。この態様によれば、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合に、画像が表示される視域を削減する(言い換えれば、一部を非表示とする)ことで、2種の画像が表示される境界(視域の境界)の数が減少することで、目位置が境界に配置される可能性が低下させることができる、延いてはクロストークが発生する確率を低下させることができる。なお、最新の目位置を基準として、目位置の移動方向の多くの視域に画像を表示し、目位置の移動方向と逆の視域への画像表示を停止することで、目位置がゆっくり移動した際のクロストークを効率よく抑制することができる。
 また、いくつかの実施形態では、表示制御装置30は、第1表示モードにおいて、視認者4の左目4Lの配置に基づいて左目用画像を表示していた視域Eの数(例えば、3個)を、第2表示モードでは削減し(例えば、2個にする)、かつ目位置を基準に目位置の移動方向と同じ方向の視域Eへの画像表示を停止する。図13Dを参照する。図13Dにおける第1フレームF31では、(1)左目4Lが存在する視域E5(EL)と、左目4Lが存在する視域E5(EL)より内側(右目4R側)の視域E6(ELI1)と、左目4Lが存在する視域E5(EL)より外側(右目4Rとは反対側)の視域E4(ELO1)と、の3個の視域Eに左目用画像を表示し、かつ(2)右目4Rが存在する視域E8(ER)と、右目4Rが存在する視域E8(ER)より内側(左目4L側)の視域E7(ERI1)と、右目4Rが存在する視域E8(ER)より外側(左目4Lとは反対側)の視域E9(ERO1)と、の3個の視域Eに右目用画像を表示する。
 次に、図13Dにおける第2フレームF42では、表示制御装置30は、駆動モードを、第1表示モードから第2表示モードに移行し、期間γだけ、画像が表示される視域Eの数を削減する。具体的には、表示制御装置30は、(3)左目4Lが存在する視域E6(EL)と、目位置の移動方向と反対方向の、左目4Lが存在する視域E6(EL)の隣の視域E5(ELO1)の2個の視域Eに左目用画像を表示し、かつ(4)右目4Rが存在する視域E9(ER)と、目位置の移動方向と反対方向の、右目4Rが存在する視域E9(ER)の隣の視域E8(ERI1)の2個の視域Eに右目用画像を表示する。すなわち、目位置が存在していると推定される位置を基準として、目位置が移動する方向と同じ方向の視域Eへの画像表示を停止する。
 第2表示モードを所定の期間γだけ実行した後、第3フレームF43では、表示制御装置30は、駆動モードを、第2表示モードから第1表示モードに移行し、視認者4の左目4Lの配置に基づく複数の視域E8,E9,E10に左目用画像を表示し、視認者4の右目4Rの配置に基づく複数の視域E4,E5,E6に右目用画像を表示する。この態様によれば、視認者4の目位置が視域Eを跨いだ、又は跨ぎそうな状況である、と判定された場合に、画像が表示される視域を削減する(言い換えれば、一部を非表示とする)ことで、2種の画像が表示される境界(視域の境界)の数が減少することで、目位置が境界に配置される可能性が低下させることができる、延いてはクロストークが発生する確率を低下させることができる。なお、最新の目位置を基準として、目位置の移動方向の視域への画像表示を停止し、目位置の移動方向と逆の多くの視域へ画像を表示することで、目位置が速く移動した際のクロストークを効率よく抑制することができる。
 また、いくつかの実施形態では、表示制御装置30は、第2モードにおいて、第1表示モードで画像が表示される視域Eの数を第1モードよりも少なくし、かつ削減の態様を目位置の移動方向によって左右別々で異ならせてもよい。言い換えると、表示制御装置30は、第1表示モードにおいて、視認者4の左目4Lの配置に基づいて左目用画像を表示していた視域Eの数(例えば、3個)を、第2表示モードでは削減し(例えば、2個にする)、かつ左右の目のうち目位置の移動方向と同じ方向側に配置される目と、他方の目とで、視域Eへの画像表示の態様を変更する。
 表示制御装置30は、第1表示モードにおいて、視認者4の左目4Lの配置に基づいて左目用画像を表示していた視域Eの数(例えば、3個)を、第2表示モードでは削減し(例えば、2個にする)、かつ左右の目のうち目位置の移動方向と同じ方向側に配置される目では、目位置を基準に目位置の移動方向と逆の方向の視域Eへの画像表示を停止し、他方の目(左右の目のうち目位置の移動方向と逆方向側に配置される目)では、目位置を基準に目位置の移動方向と同じ方向の視域Eへの画像表示を停止する。図13Eを参照する。図13Eにおける第1フレームF51では、(1)左目4Lが存在する視域E5(EL)と、左目4Lが存在する視域E5(EL)より内側(右目4R側)の視域E6(ELI1)と、左目4Lが存在する視域E5(EL)より外側(右目4Rとは反対側)の視域E4(ELO1)と、の3個の視域Eに左目用画像を表示し、かつ(2)右目4Rが存在する視域E8(ER)と、右目4Rが存在する視域E8(ER)より内側(左目4L側)の視域E7(ERI1)と、右目4Rが存在する視域E8(ER)より外側(左目4Lとは反対側)の視域E9(ERO1)と、の3個の視域Eに右目用画像を表示する。
 次に、図13Eにおける第2フレームF52では、表示制御装置30は、駆動モードを、第1表示モードから第2表示モードに移行し、期間γだけ、目位置の移動方向に基づき、画像が表示される視域Eの数を削減する。ここでは、目位置の移動方向は、左から右である。すなわち、「目位置の移動方向と同じ方向側に配置される目」とは、右目4Rであり、「左右の目のうち目位置の移動方向と逆方向側に配置される目」とは、左目4Lである。具体的には、表示制御装置30は、(3)左目4Lが存在する視域E6(EL)と、目位置の移動方向と逆方向の、左目4Lが存在する視域E6(EL)の隣の視域E5(ELO1)の2個の視域Eに左目用画像を表示し、かつ(4)右目4Rが存在する視域E9(ER)と、目位置の移動方向と同じ方向の、右目4Rが存在する視域E9(ER)の隣の視域E10(ERO1)の2個の視域Eに右目用画像を表示する。
 第2表示モードを所定の期間γだけ実行した後、第3フレームF53では、表示制御装置30は、駆動モードを、第2表示モードから第1表示モードに移行し、視認者4の左目4Lの配置に基づく複数の視域E8,E9,E10に左目用画像を表示し、視認者4の右目4Rの配置に基づく複数の視域E4,E5,E6に右目用画像を表示する。
 図14A及び図14Bは、左目用画像と右目用画像とを時分割で表示する場合の例であり、第1表示モード、第2表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域Eに表示される態様を示す図である。
 いくつかの実施形態では、表示制御装置30は、第2モードにおいて、第1表示モードで画像が表示される左目用画像が表示される視域Eの数、及び右目用画像が表示される視域Eの数を第1モードよりも少なくしてもよい。
 いくつかの実施形態では、表示制御装置30は、第1表示モードにおいて、視認者4の左目4Lの配置に基づいて左目用画像を表示していた視域Eの数(例えば、3個)を、左目用画像を表示するフィールド、及び右目用画像を表示するフィールドの双方で第2表示モードを適用する。図14Aを参照する。図14Aにおける第1フィールドF101では、(1)左目4Lが存在する視域E5(EL)と、左目4Lが存在する視域E5(EL)より内側(右目4R側)の視域E6(ELI1)と、左目4Lが存在する視域E5(EL)より外側(右目4Rとは反対側)の視域E4(ELO1)と、の3個の視域Eに左目用画像を表示し、第2フィールドF102では、(2)右目4Rが存在する視域E8(ER)と、右目4Rが存在する視域E8(ER)より内側(左目4L側)の視域E7(ERI1)と、右目4Rが存在する視域E8(ER)より外側(左目4Lとは反対側)の視域E9(ERO1)と、の3個の視域Eに右目用画像を表示する。
 次に、図14Aにおける第3フィールドF103、第4フィールドF104では、表示制御装置30は、駆動モードを、第1表示モードから第2表示モードに移行し、期間γだけ、画像が表示される視域Eの数を削減する。具体的には、表示制御装置30は、第2表示モードに移行した直後の第3フィールドF103では、(3)左目4Lが存在する視域E5(EL)の1個の視域Eのみに左目用画像を表示し、つづくもう一方の右目用画像を表示するフィールドである第4フィールドF104では、(4)右目4Rが存在する視域E9(ER)の1個の視域Eのみに右目用画像を表示する。すなわち、左目用画像を表示する少なくとも1つのフィールド、及び右目用画像を表示する少なくとも1つのフィールドとで第2表示モードの駆動を実行する。
 第2表示モードを所定の期間γ(第3フィールドF103、第4フィールドF104)だけ実行した後、第5フィールドF105、第6フィールドF106では、表示制御装置30は、駆動モードを、第2表示モードから第1表示モードに移行する。具体的には、表示制御装置30は、第5フィールドF105では、視認者4の左目4Lの配置に基づく複数の視域E8,E9,E10に左目用画像を表示し、第6フィールドF106では、視認者4の右目4Rの配置に基づく複数の視域E4,E5,E6に右目用画像を表示する。
 また、いくつかの実施形態では、表示制御装置30は、第1表示モードで画像が表示される左目用画像が表示される視域Eの数、及び右目用画像が表示される視域Eの数のいずれか一方のみを第1モードよりも少なくしてもよい。
 いくつかの実施形態では、表示制御装置30は、第1表示モードにおいて、視認者4の左目4Lの配置に基づいて左目用画像を表示していた視域Eの数(例えば、3個)を、左目用画像を表示するフィールド、及び右目用画像を表示するフィールドの双方で第2表示モードを適用する。図14Bを参照する。図14Bにおける第1フィールドF201では、(1)左目4Lが存在する視域E5(EL)と、左目4Lが存在する視域E5(EL)より内側(右目4R側)の視域E6(ELI1)と、左目4Lが存在する視域E5(EL)より外側(右目4Rとは反対側)の視域E4(ELO1)と、の3個の視域Eに左目用画像を表示し、第2フィールドF202では、(2)右目4Rが存在する視域E8(ER)と、右目4Rが存在する視域E8(ER)より内側(左目4L側)の視域E7(ERI1)と、右目4Rが存在する視域E8(ER)より外側(左目4Lとは反対側)の視域E9(ERO1)と、の3個の視域Eに右目用画像を表示する。
 次に、図14Bにおける第3フィールドF203では、表示制御装置30は、駆動モードを、第1表示モードから第2表示モードに移行し、期間γだけ、画像が表示される視域Eの数を削減する。具体的には、表示制御装置30は、第2表示モードに移行した直後の第3フィールドF203では、(3)左目4Lが存在する視域E5(EL)の1個の視域Eのみに左目用画像を表示し、つづくもう一方の右目用画像を表示するフィールドである第4フィールドF204では、(4)右目4Rが存在する視域E9(ER)と、右目4Rが存在する視域E9(ER)より内側(左目4L側)の視域E8(ERI1)と、右目4Rが存在する視域E9(ER)より外側(左目4Lとは反対側)の視域E10(ERO1)と、の3個の視域Eに右目用画像を表示する。すなわち、左目用画像を表示するフィールド、及び右目用画像を表示するフィールドのうち、第2表示モードに移行した直後のフィールドでのみ第2表示モードの駆動を実行する。
 第2表示モードを所定の期間γ(第3フィールドF203)だけ実行した後、第4フィールドF204、第5フィールドF205では、表示制御装置30は、駆動モードを、第2表示モードから第1表示モードに移行する。具体的には、表示制御装置30は、第4フィールドF204では、視認者4の右目4Rの配置に基づく複数の視域E8,E9,E10に右目用画像を表示し、第5フィールドF205では、視認者4の左目4Lの配置に基づく複数の視域E5,E6,E7に左目用画像を表示する。
 
1…車両、2…フロントウインドシールド、4…視認者、4L…左目、4R…右目、5…ダッシュボード、10…車両用表示システム、20…HUD装置、21…3D表示器、21a…表示面、22…液晶パネル、24…バックライトモジュール、25…リレー光学系、26…第1ミラー、28…第2ミラー、30…表示制御装置、31…I/Oインタフェース、33…プロセッサ、35…画像処理回路、37…メモリ、40…視点検出カメラ、50…画像光、50p…光軸、51…第1画像光、52…第2画像光、53…第3画像光、60…光源群、60L…左目用光源、60R…右目用光源、61…第1光源、63…第3光源、70…照明光学系、71…第1レンズ、73…第2レンズ、75…拡散板、90…虚像光学系、95…集光光学系、100…虚像表示領域、101…上領域、102…下領域、200…立体画像、201…遠方立体画像、202…近傍立体画像、210…パースペクティブ画像、220…非パースペクティブ画像、300…前景、310…路面(走行レーン)、311…区画線、312…区画線、501…車両ECU、503…道路情報データベース、505…自車位置検出部、507…車外センサ、509…視線方向検出部、511…目位置検出部、513…携帯情報端末、520…車外通信接続機器、602…実オブジェクト関連情報検出モジュール、604…実オブジェクト位置設定モジュール、606…目位置検出モジュール、608…報知必要度判定モジュール、610…画像位置決定モジュール、612…画像サイズ決定モジュール、614…グラフィックモジュール、616…視差画像生成モジュール、618…画像事前歪みモジュール、620…目移動判定モジュール、622…表示制御モジュール、624…光源制御モジュール、E…視域、EL…左目視域、ER…右目視域、M…表示画像、V…虚像、W…ワーピングパラメータ設定領域、θt1…第1チルト角、θt2…第2チルト角、θt3…第3チルト角、

Claims (23)

  1.  複数の視域(E)に視差の異なる左目用画像の画像光と右目用画像の画像光とを出射可能な3D表示器(21)と、
     前記3D表示器(21)が出射した前記画像光を被投影部に投影することで、前記複数の視域(E)を配置し、前記左目用画像の虚像と、前記右目用画像の虚像とを生成するリレー光学系(25)と、を備えるヘッドアップディスプレイ装置(20)を制御する表示制御装置(30)において、
     情報を取得可能な1つ又は複数のI/Oインタフェース(31)と、
     1つ又は複数のプロセッサ(33)と、
     メモリ(37)と、
     前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
     前記1つ又は複数のプロセッサ(33)は、
      視認者の目位置が視域(E)を跨いだことを示す情報、又は前記視認者の目位置が前記視域(E)を跨ぎそうな状況を示す情報を取得し、
      前記視認者の目位置が前記視域(E)を跨いだ、又は跨ぎそうな状況であると判定した場合、
       第1表示モードから第2表示モードに切り替え、
        前記第2表示モードは、前記左目用画像の前記画像光が向けられる前記視域(E)の数、及び/又は前記左目用画像の前記画像光が向けられる前記視域(E)の数が、前記第1表示モードより少ない、
    表示制御装置。
  2.  前記1つ又は複数のプロッサ(33)は、
     前記第2表示モードで所定の期間だけ維持された後、前記第1表示モードに切り替える、
    請求項1に記載の表示制御装置。
  3.  前記1つ又は複数のプロッサ(33)は、
     前記第2表示モードにおいて、前記左目用画像の前記画像光が向けられる前記視域(E)の数、及び/又は前記左目用画像の前記画像光が向けられる前記視域(E)の数を、2つ又はそれ以上とする、
    請求項1に記載の表示制御装置。
  4.  前記1つ又は複数のプロッサ(33)は、
     前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得し、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)に隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くし、
      前記視認者の右目が位置する右目視域(ER)に隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱くする、
    請求項3に記載の表示制御装置。
  5.  前記1つ又は複数のプロッサ(33)は、
     前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得し、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)を基準として、前記視認者の目の移動方向と逆方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くし、
      前記視認者の右目が位置する右目視域(ER)を基準として、前記視認者の目の移動方向と逆方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱くする、
    請求項3に記載の表示制御装置。
  6.  前記1つ又は複数のプロッサ(33)は、
     前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得し、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くし、
      前記視認者の右目が位置する右目視域(ER)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱くする、
    請求項3に記載の表示制御装置。
  7.  前記1つ又は複数のプロッサ(33)は、
     前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得し、
     前記第2表示モードにおいて、
      前記左右の目のうち前記目位置の移動方向と同じ方向側に配置される第1の目と、他方の第2の目とを判定し、
      前記視認者の前記第1の目が位置する視域(EL,ER)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記画像光を、前記第1の目が位置する視域(EL,ER)へ向けた前記画像光より弱くし、
      前記視認者の前記第2の目が位置する視域(EL,ER)を基準として、前記視認者の目の移動方向と逆の方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記画像光を、前記第2の目が位置する視域(EL,ER)へ向けた前記画像光より弱くする、
    請求項3に記載の表示制御装置。
  8.  複数の視域(E)に視差の異なる左目用画像の画像光と右目用画像の画像光とを出射可能な3D表示器(21)と、
     前記3D表示器(21)が出射した前記画像光を被投影部に投影することで、前記複数の視域(E)を配置し、前記左目用画像の虚像と、前記右目用画像の虚像とを生成するリレー光学系(25)と、
     情報を取得可能な1つ又は複数のI/Oインタフェース(31)と、
     1つ又は複数のプロセッサ(33)と、
     メモリ(37)と、
     前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
     前記1つ又は複数のプロセッサ(33)は、
      視認者の目位置が視域(E)を跨いだことを示す情報、又は前記視認者の目位置が前記視域(E)を跨ぎそうな状況を示す情報を取得し、
      前記視認者の目位置が前記視域(E)を跨いだ、又は跨ぎそうな状況であると判定した場合、
       第1表示モードから第2表示モードに切り替え、
        前記第2表示モードは、前記左目用画像の前記画像光が向けられる前記視域(E)の数、及び/又は前記左目用画像の前記画像光が向けられる前記視域(E)の数が、前記第1表示モードより少ない、
    ヘッドアップディスプレイ装置。
  9.  前記1つ又は複数のプロッサ(33)は、
     前記第2表示モードで所定の期間だけ維持された後、前記第1表示モードに切り替える、
    請求項8に記載のヘッドアップディスプレイ装置。
  10.  前記1つ又は複数のプロッサ(33)は、
     前記第2表示モードにおいて、前記左目用画像の前記画像光が向けられる前記視域(E)の数、及び/又は前記左目用画像の前記画像光が向けられる前記視域(E)の数を、2つ又はそれ以上とする、
    請求項8に記載のヘッドアップディスプレイ装置。
  11.  前記1つ又は複数のプロッサ(33)は、
     前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得し、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)に隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くし、
      前記視認者の右目が位置する右目視域(ER)に隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱くする、
    請求項10に記載のヘッドアップディスプレイ装置。
  12.  前記1つ又は複数のプロッサ(33)は、
     前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得し、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)を基準として、前記視認者の目の移動方向と逆方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くし、
      前記視認者の右目が位置する右目視域(ER)を基準として、前記視認者の目の移動方向と逆方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱くする、
    請求項10に記載のヘッドアップディスプレイ装置。
  13.  前記1つ又は複数のプロッサ(33)は、
     前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得し、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くし、
      前記視認者の右目が位置する右目視域(ER)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱くする、
    請求項10に記載のヘッドアップディスプレイ装置。
  14.  前記1つ又は複数のプロッサ(33)は、
     前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得し、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くし、
      前記視認者の右目が位置する右目視域(ER)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱くする、
    請求項10に記載のヘッドアップディスプレイ装置。
  15.  前記1つ又は複数のプロッサ(33)は、
     前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得し、
     前記第2表示モードにおいて、
      前記左右の目のうち前記目位置の移動方向と同じ方向側に配置される第1の目と、他方の第2の目とを判定し、
      前記視認者の前記第1の目が位置する視域(EL,ER)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記画像光を、前記第1の目が位置する視域(EL,ER)へ向けた前記画像光より弱くし、
      前記視認者の前記第2の目が位置する視域(EL,ER)を基準として、前記視認者の目の移動方向と逆の方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記画像光を、前記第2の目が位置する視域(EL,ER)へ向けた前記画像光より弱くする、
    請求項10に記載のヘッドアップディスプレイ装置。
  16.  複数の視域(E)に視差の異なる左目用画像の画像光と右目用画像の画像光とを出射可能な3D表示器(21)と、
     前記3D表示器(21)が出射した前記画像光を被投影部に投影することで、前記複数の視域(E)を配置し、前記左目用画像の虚像と、前記右目用画像の虚像とを生成するリレー光学系(25)と、を備えるヘッドアップディスプレイ装置を制御する方法であって、
      視認者の目位置が視域(E)を跨いだことを示す情報、又は前記視認者の目位置が前記視域(E)を跨ぎそうな状況を示す情報を取得することと、
      前記視認者の目位置が前記視域(E)を跨いだ、又は跨ぎそうな状況であると判定することと、
      前記視認者の目位置が前記視域(E)を跨いだ、又は跨ぎそうな状況であると判定した場合、
       第1表示モードから第2表示モードに切り替えることと、を含み、
        前記第2表示モードは、前記左目用画像の前記画像光が向けられる前記視域(E)の数、及び/又は前記左目用画像の前記画像光が向けられる前記視域(E)の数が、前記第1表示モードより少ない、
    方法。
  17.  前記第2表示モードで所定の期間だけ維持された後、前記第1表示モードに切り替えること、を含む、
    請求項16に記載の方法。
  18.  前記第2表示モードにおいて、前記左目用画像の前記画像光が向けられる前記視域(E)の数、及び/又は前記左目用画像の前記画像光が向けられる前記視域(E)の数を、2つ又はそれ以上とすること、を含む
    請求項16に記載の方法。
  19.  前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得すること、をさらに含み、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)に隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くすることと、
      前記視認者の右目が位置する右目視域(ER)に隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱くすることと、を含む、
    請求項18に記載の方法。
  20.  前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得すること、をさらに含み、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)を基準として、前記視認者の目の移動方向と逆方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くすることと、
      前記視認者の右目が位置する右目視域(ER)を基準として、前記視認者の目の移動方向と逆方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱することと、を含む、
    請求項18に記載の方法。
  21.  前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得すること、をさらに含み、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くすることと、
      前記視認者の右目が位置する右目視域(ER)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱くすることと、を含む、
    請求項18に記載の方法。
  22.  前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得すること、をさらに含み、
     前記第2表示モードにおいて、
      前記視認者の左目が位置する左目視域(EL)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記左目用画像の前記画像光を、前記左目視域(EL)へ向けた前記左目用画像の前記画像光より弱くすることと、
      前記視認者の右目が位置する右目視域(ER)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記右目用画像の前記画像光を、前記右目視域(ER)へ向けた前記右目用画像の前記画像光より弱くすることと、を含む、
    請求項18に記載の方法。
  23.  前記表示画像の視認者の目位置、又は前記目位置を推定可能な情報を取得することと、
     前記左右の目のうち前記目位置の移動方向と同じ方向側に配置される第1の目と、他方の第2の目とを判定することと、をさらに含み、
     前記第2表示モードにおいて、
      前記視認者の前記第1の目が位置する視域(EL,ER)を基準として、前記視認者の目の移動方向と同じ方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記画像光を、前記第1の目が位置する視域(EL,ER)へ向けた前記画像光より弱くすることと、
      前記視認者の前記第2の目が位置する視域(EL,ER)を基準として、前記視認者の目の移動方向と逆の方向に配置された、隣り合う少なくとも1つの前記視域(E)へ向けた前記画像光を、前記第2の目が位置する視域(EL,ER)へ向けた前記画像光より弱くすることと、を含む、
    請求項18に記載の方法。
     
     
PCT/JP2020/036187 2019-09-30 2020-09-25 表示制御装置、ヘッドアップディスプレイ装置、及び方法 WO2021065700A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019178886 2019-09-30
JP2019-178886 2019-09-30

Publications (1)

Publication Number Publication Date
WO2021065700A1 true WO2021065700A1 (ja) 2021-04-08

Family

ID=75338061

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/036187 WO2021065700A1 (ja) 2019-09-30 2020-09-25 表示制御装置、ヘッドアップディスプレイ装置、及び方法

Country Status (1)

Country Link
WO (1) WO2021065700A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012169858A (ja) * 2011-02-14 2012-09-06 Sony Corp 表示装置及び表示方法
JP2014050062A (ja) * 2012-09-04 2014-03-17 Nippon Seiki Co Ltd 立体表示装置及びその表示方法
WO2014136144A1 (ja) * 2013-03-07 2014-09-12 パナソニック株式会社 映像表示装置および映像表示方法
JP2014228852A (ja) * 2013-05-27 2014-12-08 株式会社ジャパンディスプレイ 表示装置
JP2015089104A (ja) * 2013-09-26 2015-05-07 Nltテクノロジー株式会社 立体画像表示装置、端末装置、立体画像表示方法、及びそのプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012169858A (ja) * 2011-02-14 2012-09-06 Sony Corp 表示装置及び表示方法
JP2014050062A (ja) * 2012-09-04 2014-03-17 Nippon Seiki Co Ltd 立体表示装置及びその表示方法
WO2014136144A1 (ja) * 2013-03-07 2014-09-12 パナソニック株式会社 映像表示装置および映像表示方法
JP2014228852A (ja) * 2013-05-27 2014-12-08 株式会社ジャパンディスプレイ 表示装置
JP2015089104A (ja) * 2013-09-26 2015-05-07 Nltテクノロジー株式会社 立体画像表示装置、端末装置、立体画像表示方法、及びそのプログラム

Similar Documents

Publication Publication Date Title
US10551619B2 (en) Information processing system and information display apparatus
JP6699675B2 (ja) 情報提供装置
JP2016107945A (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
WO2020110580A1 (ja) ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法
JP7300112B2 (ja) 制御装置、画像表示方法及びプログラム
JP2016109645A (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP2016107947A (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP7459883B2 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び方法
JP2023077857A (ja) ヘッドアップディスプレイ装置
WO2021065700A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び方法
WO2022230995A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP2021056358A (ja) ヘッドアップディスプレイ装置
WO2021200914A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び方法
JP6814416B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JPWO2018030320A1 (ja) 車両用表示装置
JP2022083609A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び画像の表示制御方法
JP2022072954A (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP6726412B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
JP2020121607A (ja) 表示制御装置、方法、及びコンピュータ・プログラム
WO2021200913A1 (ja) 表示制御装置、画像表示装置、及び方法
WO2023145852A1 (ja) 表示制御装置、表示システム、及び表示制御方法
WO2023003045A1 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法
JP7385834B2 (ja) 画像表示方法及び画像表示装置
JP7434894B2 (ja) 車両用表示装置
JP2021160409A (ja) 表示制御装置、画像表示装置、及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20871414

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20871414

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP