WO2011033549A1 - 表示装置およびその制御方法 - Google Patents

表示装置およびその制御方法 Download PDF

Info

Publication number
WO2011033549A1
WO2011033549A1 PCT/JP2009/004585 JP2009004585W WO2011033549A1 WO 2011033549 A1 WO2011033549 A1 WO 2011033549A1 JP 2009004585 W JP2009004585 W JP 2009004585W WO 2011033549 A1 WO2011033549 A1 WO 2011033549A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance sensor
viewer
head
distance
display device
Prior art date
Application number
PCT/JP2009/004585
Other languages
English (en)
French (fr)
Inventor
森屋彰久
中村博昭
佐々木隆
堀田あいら
奥村治彦
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to PCT/JP2009/004585 priority Critical patent/WO2011033549A1/ja
Priority to JP2011531629A priority patent/JP5204309B2/ja
Publication of WO2011033549A1 publication Critical patent/WO2011033549A1/ja
Priority to US13/420,147 priority patent/US8576142B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/16Advertising or display means not otherwise provided for using special optical effects involving the use of mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F21/00Mobile visual advertising
    • G09F21/04Mobile visual advertising by land vehicles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F21/00Mobile visual advertising
    • G09F21/04Mobile visual advertising by land vehicles
    • G09F21/049Mobile visual advertising by land vehicles giving information to passengers inside the vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/785Instrument locations other than the dashboard on or in relation to the windshield or windows
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F27/00Combined visual and audible advertising or displaying, e.g. for public address
    • G09F2027/001Comprising a presence or proximity detector
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F21/00Mobile visual advertising
    • G09F21/04Mobile visual advertising by land vehicles
    • G09F21/045Mobile visual advertising by land vehicles supported by the wheels

Definitions

  • the present invention relates to a display device and a control method thereof.
  • HUD head-up display
  • the position of the eye of the viewer is derived from an image obtained by imaging the head of the viewer.
  • the angle and position of the flat mirror are automatically controlled based on the derived results.
  • the video is presented to one eye of the viewer.
  • An object of the present invention is to provide a display device capable of robustly presenting an image to one eye of a viewer without being affected by external light and the like, and a control method thereof.
  • the display device of the present invention reflects a light flux generation unit that generates a light flux including image information, and the light flux generated by the light flux generation unit toward one eye of a viewer
  • the direction or position of the reflector is controlled based on the output from the head detection unit that detects the viewer's head using the reflection plate and at least two pairs of distance sensors, and the head detection unit.
  • a drive unit for driving the reflection plate based on an output from the control unit.
  • a luminous flux including an image is generated, the generated luminous flux is reflected toward one eye of the viewer, and the viewing is performed using at least two pairs of distance sensors.
  • the head of the viewer is detected, and the direction of the reflection is controlled based on the result of the detection.
  • a display device capable of robustly presenting an image to one eye of a viewer without being affected by external light and the like, and a control method thereof are provided.
  • FIG. 1 is a schematic view illustrating the configuration of a display device according to the first embodiment of the invention.
  • the viewer 100 driving the vehicle can visually recognize operation information such as the speed of the vehicle and navigation information.
  • the display device 10 includes a light flux generation unit 115, a reflection plate 163, a head detection unit 612, a control unit 620, and a drive unit 164.
  • the luminous flux generation unit 115 generates a luminous flux 112 including image information of the operation information.
  • the reflection plate 163 reflects the light beam 112 generated by the light beam generation unit 115 toward the transparent plate 310 (front glass, windshield, etc.).
  • the transparent plate 310 reflects the light beam 112 toward the one eye 105 of the viewer 100.
  • the light flux generation unit 115 includes a light source 374, a restriction unit 375, a diffusion unit 376, an imaging device 377, a first lens 371, an opening 373, and a second lens 372. Assuming that the focal length of the first lens 371 is f 1 and the focal length of the second lens 372 is f 2 , the aperture 373 is at a distance of f 1 from the first lens 371 and from the second lens 372 It is installed at a distance of f 2.
  • the light beam 112 emitted from the light source 374 is restricted by the restricting portion 375 so as to be directed to the reflecting plate 163, and enters the image device 377 provided with the diffusing portion 376.
  • the diffuser 376 allows the light flux 112 to be uniformly incident on the imaging device 377.
  • a light flux 112 containing image information through the imaging device 377 passes through the first lens 371, the opening 373 and the second lens 372.
  • the luminous flux 112 is incident on the reflecting plate 163 in a state where the divergence angle (angle at which the luminous flux 112 spreads) is controlled.
  • the transmittance of the light beam 112 passing through the imaging device 377 is higher than when the opening 373 is closer to the light source 374 than the imaging device 377.
  • a light emitting diode As the light source 374, a light emitting diode, a high pressure mercury lamp, a halogen lamp, a laser or the like is used.
  • a taper light guide, a diffusion filter or a diffusion plate for the diffusion unit 376, and a liquid crystal display or a digital mirror device for the image device 377 are used.
  • the display device 10 projects the light flux 112 in a projection range 113 in which the one eye 105 of the viewer 100 is included.
  • the controller 620 controls the orientation or position of the reflecting plate 163 so that the light beam 112 is projected into the projection range 113, and adjusts the projection position of the light beam 112.
  • the viewer 100 can visually recognize the light flux 112 with one eye 105.
  • the display device 10 can be used as a HUD.
  • the head detection unit 612 detects a relative distance between each distance sensor of the head 101 of the viewer 100 and the head 101 of the viewer 100 using two pairs of distance sensors 613.
  • the control unit 620 controls the reflecting plate 163 based on the output signal from the distance sensor pair 613 provided in the head detection unit 612, as described later, to adjust the projection position of the light beam 112.
  • the head detection unit 612 will be described in detail with reference to FIG.
  • the head detection unit 612 in the display device 10 includes a first distance sensor pair 614 having a distance sensor 613 a and a distance sensor 613 b, and a distance sensor A second distance sensor pair 615 having a distance sensor 613c and a distance sensor 613d is provided.
  • Each distance sensor has a light emitting element and a light receiving element.
  • the light emitting element emits light, and the light reflected by the head 105 of the viewer 100 is received by the light receiving element.
  • the distance sensor includes a PSD sensor, a laser displacement meter, an ultrasonic distance sensor, and the like that can measure the distance to the object without contact.
  • a middle point of a line connecting the distance sensor 613a and the distance sensor 613b is taken as a first middle point 514, and a middle point of a line connecting the distance sensor 613c and the distance sensor 613d is taken as a second middle point 515.
  • a line segment connecting the distance sensor 613a and the distance sensor 613b is defined as a line segment connecting the light receiving element of the distance sensor 613a and the light receiving element of the distance sensor 613b.
  • a line segment connecting the distance sensor 613c and the distance sensor 613d is defined as a line segment connecting the light receiving element of the distance sensor 613c and the light receiving element of the distance sensor 613d.
  • the vertical bisector of the line connecting the distance sensor 613a and the distance sensor 613b is taken as a first straight line 514a
  • the vertical bisector of the line connecting the distance sensor 613c and the distance sensor 613d is taken as a second straight line 515a .
  • the distance sensor 613a and the distance sensor 613b are arranged such that the light emitted from the distance sensor 613a and the light emitted from the distance sensor 613b intersect on the first straight line 514a.
  • the distance sensor 613a and the distance sensor 613b be disposed to emit light toward the barycentric position when the geometrical center of gravity of the head 105 of the viewer 100 is on the first straight line 514a. .
  • the distance sensor 613c and the distance sensor 613d are arranged such that the light emitted from the distance sensor 613c and the light emitted from the distance sensor 613d intersect on the first straight line 515a.
  • the distance sensor 613c and the distance sensor 613d be arranged to emit light toward the barycentric position when the geometrical center of gravity of the head 105 of the viewer 100 is on the second straight line 515a. .
  • the distance sensor pair 614, 615 is disposed on the ceiling.
  • the first distance sensor pair 614 and the second distance sensor pair 615 are arranged such that the distance between the first midpoint 514 and the second midpoint 515 is ⁇ x 1 apart.
  • the first distance sensor pair 614 and the second distance sensor pair 615 are arranged in the same straight line.
  • the first distance sensor pair 614 second distance sensor pair 615 it may be any arrangement.
  • the second distance sensor pair 615 may be arranged at a position farther from the viewer 100 than the first distance sensor pair 614.
  • the output voltage values V a to d are values corresponding to the relative distance from the distance sensors 613 a to d to the head 101 of the viewer 100.
  • the output voltage values V ad correspond to d ad in FIG.
  • Each of d a to d is a relative distance from the light receiving element of each distance sensor to the scalp of the head 101 of the viewer 100.
  • posAB is a value according to the difference between the relative distance from the distance sensor 613a to the head 101 of the viewer 100 and the relative distance from the distance sensor 613b to the head 101 of the viewer 100.
  • posCD is a value corresponding to the difference between the relative distance from the distance sensor 613c to the head 101 of the viewer 100 and the relative distance from the distance sensor 613d to the head 101 of the viewer 100.
  • FIGS. 2A and 2B are diagrams showing a state where posAB is calculated using the distance sensor 613a and the distance sensor 613b, and posCD is calculated using the distance sensor 613c and the distance sensor 613d.
  • FIG. 2A shows the position of the head 101 of the viewer 100 at a certain time.
  • FIG.2 (b) has shown the position of the head 101 of the viewer 100 in the time different from FIG. 2 (a).
  • the control unit 620 calculates the value (posAB1) of posAB when the value of posCD becomes equal to 0 according to equation 1, and determines the first coefficient G1 according to equation 3.
  • First coefficient G 1 is a coefficient used when obtaining the relative position Est 1 of the head 101 of the viewer 100 to be described later.
  • the value equal to 0 includes an error range due to noise in the output signal from the distance sensor, the shape of the head 101 of the viewer 100, and the like. That is, a numerical value falling within a specific error range is defined as a value equal to 0, not a strictly 0.
  • the control unit 620 calculates Est 1 according to Equation 4.
  • Est 1 is an estimated value corresponding to the relative distance between the geometric center of gravity of the head 101 of the viewer 100 and the first straight line 514a.
  • the position of the reflecting plate 163 includes the position by translational movement and the angular position by rotational movement.
  • the control unit 620 calculates the Est 1.
  • the control unit 620 moves the projection range 113 of the light flux 112 along the line connecting the first midpoint 514 and the second midpoint 515 by the distance of Est 1 from the reference position.
  • a command is given to the drive unit 164 (a signal is output).
  • the drive unit 164 drives the reflection plate 163 in response to the command.
  • the control unit 620 moves the projection range 113 of the light beam 112 by 5 cm from the reference position in the direction from the second midpoint 515 toward the first midpoint 514 Command the drive unit 164 to adjust the position of the reflector.
  • the drive unit 164 drives the reflection plate 163 in response to the command.
  • the display device 10 can provide a display device capable of following the position of one eye of the viewer without requiring high image processing capability.
  • FIG. 3 is a flowchart illustrating a control method of the display device according to the first embodiment of the present invention.
  • the control method shown in FIG. 3 starts from the state in which the control unit 620 is given G 1 of the initial value in advance at the manufacturing stage of the display device 10.
  • the control unit 620 is given G 1 of the initial value in advance at the manufacturing stage of the display device 10.
  • the control method of the display device 10 calculates posAB by Equation 1 using the output voltage value of the distance sensor 613 a and the output voltage value of the distance sensor 613 b. (Step S201). Using the output voltage value of the distance sensor 613c and the output voltage value of the distance sensor 613d, posCD is calculated by Equation 2 (step S202). Steps S201 and S202 are repeated for each sampling time. Steps S201 and S202 are in random order.
  • step S203 it is determined whether the value of posCD is equal to 0 (step S203). If the value of posCD is determined to be equal to 0, calculating a first coefficient G 1 by the equation 3 (step S204). Then, Est 1 is calculated by Equation 4 (step S205). If the value of posCD is determined not to be equal to 0, without going through step S204, it performs the step S205 by using the G 1 and G 1 have previously calculated initial values.
  • the reflection direction of the light beam 112 is controlled based on the result of step S205.
  • FIG. 4 is a schematic view illustrating the configuration of a part of the display device according to the second embodiment of the invention.
  • the display device 20 is a display device in which the head detection unit 612 in the display device 10 illustrated in FIG.
  • the head detection unit 712 further includes a third distance sensor pair 616 having a distance sensor 613 e and a distance sensor 613 f relative to the head detection unit 612.
  • the distance sensor 613e and the distance sensor 613f each have a light emitting element and a light receiving element.
  • a middle point of a line connecting the distance sensor 613 e and the distance sensor 613 f is taken as a third middle point 516.
  • the third midpoint 516 is opposite to the second midpoint 515 with respect to the first midpoint 514.
  • a line segment connecting the distance sensor 613e and the distance sensor 613f is defined as a line segment connecting the light receiving element of the distance sensor 613e and the light receiving element of the distance sensor 613f.
  • a perpendicular bisector of a line connecting the distance sensor 613e and the distance sensor 613f is taken as a third straight line 516a.
  • the distance sensor 613e and the distance sensor 613f are arranged such that the light emitted from the distance sensor 613e and the light emitted from the distance sensor 613f intersect on the third straight line 516a.
  • the distance sensor 613e and the distance sensor 613f be arranged to emit light toward the barycentric position when the geometrical center of gravity of the head 105 of the viewer 100 is on the third straight line 516a. .
  • the first distance sensor pair 614 and the third distance sensor pair 616 are arranged such that the distance between the first midpoint 514 and the third midpoint 516 is ⁇ x 2 apart.
  • the first distance sensor pair 614 and the third distance sensor pair 616 do not have to be arranged in the same straight line. As in the first embodiment, any arrangement may be used as long as a second coefficient G2 described later can be obtained.
  • Head detection unit 712 an output voltage value V a of the distance sensors 613a, the output voltage value V b of the distance sensor 613b, and the output voltage value V c of the distance sensor 613c
  • an output voltage value V d of the distance sensor 613d outputs the output voltage value V e of the distance sensor 613 e, an output voltage value V f of the distance sensor 613f to the control unit 620.
  • the output voltage values V a to f are values corresponding to the relative distance from the distance sensors 613 a to f to the head 101 of the viewer 100.
  • Controller 620 in addition to posAB and PosCD, from the distance sensor 613e of the output voltage value V e and the distance sensor 613f of the output voltage value V f, to calculate the posEF using Equation 5.
  • PosEF is a value corresponding to the difference between the relative distance from the distance sensor 613e to the head 101 of the viewer 100 and the relative distance from the distance sensor 613f to the head 101 of the viewer 100.
  • the output voltage values V e and V f correspond to d e and d d in FIG.
  • Each of d e and d d is a relative distance from the light receiving element of each distance sensor to the scalp of the head 101 of the viewer 100.
  • FIGS. 4A and 4B posAB is calculated using the distance sensor 613a and the distance sensor 613b, posCD is calculated using the distance sensor 613c and the distance sensor 613d, and the distance sensor 613e and the distance sensor 613f It is a figure showing the state which is calculating posEF using.
  • FIG. 4A shows the position of the head 101 of the viewer 100 at a certain time.
  • FIG.4 (b) has shown the position of the head 101 of the viewer 100 in the time different from FIG. 4 (a).
  • Controller 620 in addition to the first coefficient G 1, the value of posAB (posAB2) when the value of posEF becomes equal to 0 is calculated by Equation 1, the second coefficient G 2 by Equation 6 decide.
  • Second coefficient G 2 is a coefficient used when obtaining the relative position Est 2 of the head 101 of the viewer 100 to be described later.
  • the head 101 of the viewer 100 is on the right side (the side from the first midpoint 514 to the second midpoint 515) of the first midpoint 514 in FIG. 4 to calculate Est 1 and control the reflection plate 163 (same as the first embodiment).
  • the control unit 620 moves the projection range 113 of the light flux 112 along the line connecting the first midpoint 514 and the second midpoint 515 by the distance of Est 1 from the reference position.
  • a command is given to the drive unit 164.
  • the drive unit 164 drives the reflection plate 163 in response to the command.
  • Est 2 is an estimated value corresponding to the relative distance between the geometric center of gravity of the head 101 of the viewer 100 and the first straight line 514a.
  • the control unit 620 moves the projection range 113 of the light flux 112 along the line connecting the first midpoint 514 and the third midpoint 516 by the distance of Est 2 from the reference position.
  • a command is given to the drive unit 164.
  • the drive unit 164 drives the reflection plate 163 in response to the command.
  • the control unit 620 sets the projection range 113 of the light beam 112 in the direction from the third midpoint 516 to the first midpoint 514, 10 cm from the reference position.
  • a command is given to the drive unit 164 to adjust the orientation of the reflector.
  • the drive unit 164 drives the reflection plate 163 in response to the command.
  • the display device 20 can provide a display device capable of following the position of one eye of the viewer without requiring high image processing capability.
  • the head detection unit 712 further includes a third distance sensor pair 616 having a distance sensor 613 e and a distance sensor 613 f relative to the head detection unit 612, as compared to the head detection unit 612, Furthermore, the position measurement of the head 101 of the viewer 100 can be performed with high accuracy.
  • FIG. 5 is a flowchart illustrating the control method of the display device according to the second embodiment of the present invention.
  • the control unit 620 sets G 1 as the initial value and G 2 as the initial value. Start from the state where you calculate.
  • posAB is calculated by Expression 1 using the output voltage value of the distance sensor 613a and the output voltage value of the distance sensor 613b (Ste S301).
  • posCD is calculated by Equation 2 (step S302).
  • posEF is calculated according to Equation 3 (step S303). Steps S301, 302 and S303 are repeatedly performed at every sampling time. Steps S301, 302 and S303 are in random order.
  • step S304 it is determined whether the value of posCD is equal to 0 (step S304). If the value of posCD is determined to be equal to 0, calculating a first coefficient G 1 by the equation 3 (step S305). If the value of posCD is determined not to be equal to 0, step S305 is not performed, maintains the value of G 1. For example, either using a G 1 was initially set value and the previous calculation is used instead of the value of G 2.
  • step S306 It is determined whether the value of posEF is equal to 0 (step S306). If the value of posEF is determined to be equal to 0, calculating a second factor G 2 by the equation 6 (step S307). If the value of posEF is determined not to be equal to 0, step S307 is not performed, maintains the value of G 2. For example, use the default value or previously calculated G 2 or use the value of G 1 instead.
  • step S308 it is determined whether or not posAB is 0 or more (step S308). If it is determined that posAB is equal to or greater than 0, then Est 2 is calculated using Equation 7 (step S309 (B)). If it is determined that posAB is not 0 or more, Est 1 is calculated by Equation 4 (step S 309 (A)).
  • the first distance sensor pair 614 is used to measure the position of the head 101 of the viewer 100.
  • the second distance sensor pair 615 or the third distance sensor may be used as needed. It is also possible to measure the position of the head 101 of the viewer 100 using the pair 616.
  • the head 101 of the viewer 100 is in the case in the [Delta] x 1 or more distance on the right side than the first midpoint 514, by Equation 8, the Est 3 in viewer 100 head Determine the position of 101.
  • Est 3 is an estimated value corresponding to the relative distance between the geometrical center of gravity of the head 101 of the viewer 100 and the second straight line 515 a.
  • Est 4 is set to the head of the viewer 100 according to Eq. Determine the position of 101.
  • Est 4 is an estimated value corresponding to the relative distance between the geometrical center of gravity of the head 101 of the viewer 100 and the third straight line 514a.
  • the head detection unit 612 described above as the embodiment of the present invention measures the position of the head 101 of the viewer 100 using two and three pairs of distance sensors. It is also possible to increase the number to four pairs or five pairs. Thereby, the measurable range can be expanded.
  • Equation 4 the measurement of the position of the head 101 of the viewer 100 was calculated using Equation 4 or Equation 7 in order to normalize the difference in output voltage value of the distance sensor pair.
  • Equation 7 the same effect as that of the present invention can be obtained by using the difference between the output voltage values of the distance sensor pair as shown in, for example, equation 10. .
  • the present invention can be similarly implemented by appropriately selecting from known ranges by those skilled in the art as long as similar effects can be obtained. , Included in the scope of the present invention.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • Accounting & Taxation (AREA)
  • Business, Economics & Management (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 外光等の影響を受けず、ロバストに観視者の片眼に映像呈示を行うことが可能な表示装置およびその制御方法を提供する。 光束生成部115によって画像情報を含んだ光束112を生成し、反射板163によって光束を観視者100の片眼105に向かって反射させる。そして、少なくとも二対の距離センサ613a、613b、613c、613dを用いた頭部検出部612によって観視者の頭部を検出する。制御部620は、頭部検出部612からの出力を受けて観視者100の頭部101の位置を判断し、反射板163の向きや位置を制御する。駆動部164は制御部620からの出力を受けて反射板163を駆動する。

Description

表示装置およびその制御方法
 本発明は、表示装置およびその制御方法に関する。
 車載用の表示装置として、車両速度や進行方向等の運行情報を視認可能とする単眼式のヘッドアップディスプレイ(HUD)がある(例えば、特許文献1参照)。
 このようなHUDでは、観視者の頭部を撮像した画像から観視者の眼の位置を導出する。導出結果に基づいて、平板ミラーの角度や位置を自動的に制御する。観視者の頭部の動きに追従して観視者の片眼に映像を呈示させる。
特開2009―128565号公報
 上述した従来の表示装置では、外光等の影響により、撮像した画像から観視者の眼の位置を導出することが困難な場合もあり、ロバストに観視者の片眼への映像呈示を行うことができないという課題がある。
 本発明は、外光等の影響を受けず、ロバストに観視者の片眼に映像呈示を行うことが可能な表示装置およびその制御方法を提供することを目的とする。
 上記課題を解決するために、本発明の表示装置は、画像情報を含む光束を生成する光束生成部と、前記光束生成部により生成された前記光束を観視者の片眼に向かって反射させる反射板と、少なくとも二対の距離センサを用いて前記観視者の頭部を検出する頭部検出部と、前記頭部検出部からの出力に基づいて、前記反射板の向き又は位置を制御する制御部と、前記制御部からの出力に基づいて、前記反射板を駆動させる駆動部とを備えることを特徴とする。また、本発明の表示装置の制御方法は、画像を含む光束を生成し、生成された前記光束を前記観視者の片眼に向かって反射させ、少なくとも二対の距離センサを用いて前記観視者の頭部を検出し、前記検出の結果に基づいて、前記反射の方向を制御することを特徴とする。
 本発明によれば、外光等の影響を受けず、ロバストに観視者の片眼に映像呈示を行うことが可能な表示装置およびその制御方法が提供される。
第1の実施の形態に係る表示装置の構成を示す図である。 図1に係る表示装置の一部の構成を示す図である。 図1に係る表示装置の制御方法を示すフローチャートである。 第2の実施の形態に係る表示装置の一部の構成を示す図である。 図4に係る表示装置の制御方法を示すフローチャートである。
 以下、本発明の実施の形態について図面を参照して詳細に説明する。
 本願明細書と各図において、既出の図に関して前述したものと同様の要素には同一の符号を付して詳細な説明は適宜省略する。
 (第1の実施の形態)
 図1は、本発明の第1の実施の形態に係る表示装置の構成を例示する模式図である。例えば、車両を運転する観視者100が車両の速度やナビゲーション情報等の運行情報を視認できるようにしたものである。
 表示装置10は、光束生成部115と、反射板163と、頭部検出部612と、制御部620と、駆動部164とを備える。
 光束生成部115は、運行情報の画像情報を含む光束112を生成する。反射板163は、光束生成部115により生成された光束112を透明板310(フロントガラス、ウインドシールド等)に向かって反射する。透明板310は、光束112を観視者100の片眼105に向かって反射する。
 光束生成部115は、光源374、制限部375、拡散部376、画像装置377、第1のレンズ371、開口部373、および第2のレンズ372を含む。第1のレンズ371の焦点距離をf、第2のレンズ372の焦点距離をfとすると、開口部373は、第1のレンズ371からfの距離で、かつ第2のレンズ372からfの距離の位置に設置されている。
 制限部375によって、光源374から出射した光束112は、反射板163に向かうように進行方向が制限された状態で、拡散部376を備えた画像装置377へと入射する。拡散部376により、光束112は一様に画像装置377へと入射することができる。
 画像装置377を通って画像情報を含んだ光束112は、第1のレンズ371と開口部373および第2のレンズ372を通過する。光束112は発散角(光束112が拡がっていく角度)が制御された状態で反射板163へと入射する。
 画像装置377が開口部373よりも光源374側にあることにより、開口部373が画像装置377よりも光源374側にある場合に比べて、画像装置377を通る光束112の透過率を高くすることができる。
 光源374には発光ダイオードや高圧水銀ランプ、ハロゲンランプ、レーザー等が用いられる。制限部375にはテーパライトガイド、拡散部376には拡散フィルターや拡散板、画像装置377には液晶ディスプレイやデジタルミラーデバイス等が用いられる。
 表示装置10は、観視者100の片眼105を含むような投影範囲113で、光束112を投影する。制御部620は、光束112が投影範囲113内に投影されるように反射板163の向き又は位置を制御し、光束112の投影位置を調整する。観視者100は片眼105で光束112を視認することができる。表示装置10は、HUDとして使用することができる。
 頭部検出部612は、二対の距離センサ613を用いて観視者100の頭部101の各距離センサと観視者100の頭部101との相対距離を検出する。
 制御部620は、後述するように、頭部検出部612に設けられた距離センサ対613からの出力信号に基づいて、反射板163を制御し、光束112の投影位置を調整する。
 図2を用いて、頭部検出部612を詳細に説明する。
 図2に表したように、本発明の第1の実施の形態に係る表示装置10における頭部検出部612は、距離センサ613aと距離センサ613bを持つ第1の距離センサ対614と、距離センサ613cと距離センサ613dを持つ第2の距離センサ対615とを備えている。
 各距離センサは、それぞれ発光素子と受光素子とを有する。発光素子は光を出射し、観視者100の頭部105にて反射して戻ってきた光を受光素子で受光する。
 距離センサには、PSDセンサの他、レーザ変位計、超音波距離センサ等の、非接触で対象物との距離を測定することができるものが含まれる。
 距離センサ613aと距離センサ613bとを結ぶ線分の中点を第1の中点514とし、距離センサ613cと距離センサ613dとを結ぶ線分の中点を第2の中点515とする。
 距離センサ613aと距離センサ613bとを結ぶ線分は、距離センサ613aの受光素子と距離センサ613bの受光素子とを結ぶ線分と定義する。
 距離センサ613cと距離センサ613dとを結ぶ線分は、距離センサ613cの受光素子と距離センサ613dの受光素子とを結ぶ線分と定義する。
 距離センサ613aと距離センサ613bを結ぶ線分の垂直二等分線を第1の直線514aとし、距離センサ613cと距離センサ613dを結ぶ線分の垂直二等分線を第2の直線515aとする。
 距離センサ613aと距離センサ613bは、距離センサ613aから出射した光と距離センサ613bから出射した光とが第1の直線514a上で交わるように配置される。
 距離センサ613aと距離センサ613bは、第1の直線514a上に観視者100の頭部105の幾何学的重心がある場合の重心位置に向かって光を出射するように配置されるのが望ましい。
 距離センサ613cと距離センサ613dは、距離センサ613cから出射した光と距離センサ613dから出射した光とが第1の直線515a上で交わるように配置される。
 距離センサ613cと距離センサ613dは、第2の直線515a上に観視者100の頭部105の幾何学的重心がある場合の重心位置に向かって光を出射するように配置されるのが望ましい。
 例えば、車載用の表示装置であれば、距離センサ対614、615は天井に配置される。
 第1の距離センサ対614と第2の距離センサ対615は、第1の中点514と第2の中点515との距離がΔx離れた位置に配置される。
 第1の距離センサ対614と第2の距離センサ対615は、同一直線状に配置されることが望ましい。しかし、後述する第1の係数Gを求めることができれば、第1の距離センサ対614と第2の距離センサ対615は、いかなる配置でも構わない。例えば、第2の距離センサ対615が第1の距離センサ対614よりも、観視者100から遠い位置に配置されても構わない。
 頭部検出部612は、距離センサ613aの出力電圧値Vと、距離センサ613bの出力電圧値Vと、距離センサ613cの出力電圧値Vと、距離センサ613dの出力電圧値Vを制御部620に出力する。出力電圧値Va~dとは、距離センサ613a~dから観視者100の頭部101までの相対距離に応じた値である。出力電圧値Va~dは、図2におけるda~dに対応している。da~dは、それぞれ、各距離センサの受光素子から観視者100の頭部101の頭皮までの相対距離である。
 制御部620は、距離センサ613aの出力電圧値Vと距離センサ613bの出力電圧値Vから、式1を用いてposABを計算する。posABは、距離センサ613aから観視者100の頭部101までの相対距離と距離センサ613bから観視者100の頭部101までの相対距離との差に応じた値である。
 制御部620は、距離センサ613cの出力電圧値Vと距離センサ613dの出力電圧値Vから、式2を用いてposCDを計算する。posCDは、距離センサ613cから観視者100の頭部101までの相対距離と距離センサ613dから観視者100の頭部101までの相対距離との差に応じた値である。
Figure JPOXMLDOC01-appb-M000001
 図2(a)(b)は、距離センサ613aと距離センサ613bとを用いてposABを計算し、距離センサ613cと距離センサ613dとを用いてposCDを計算している状態を表す図である。
図2(a)は、ある時刻における観視者100の頭部101の位置を示している。図2(b)は、図2(a)と異なる時刻における観視者100の頭部101の位置を示している。図2(b)において、観視者100の頭部101はposCD=0となる位置にある。
 制御部620は、posCDの値が0に等しい値となったときのposABの値(posAB1)を式1により算出し、式3により第1の係数Gを決定する。
Figure JPOXMLDOC01-appb-M000002
 第1の係数Gは、後述する観視者100の頭部101の相対位置Estを求める際に用いられる係数である。
 0に等しい値とは、距離センサからの出力信号におけるノイズや観視者100の頭部101の形状等による誤差範囲を含むものとする。すなわち、厳密な0ではなく、特定の誤差範囲に収まる数値を0に等しい値と定義する。
 制御部620は、式4によりEstを計算する。Estは観視者100の頭部101の幾何学的重心と第1の直線514aとの相対距離に相当する推定値である。
Figure JPOXMLDOC01-appb-M000003
 観視者100はposAB=0となる位置に頭部101がある状態で、表示装置10の初期設定を行う(図2(a)の状態)。この時、光束112の投影範囲113が観視者100の片眼105を含むように、観視者100は反射板163の位置を調節する。この状態における、観視者100の片眼105の位置を基準位置とする。
 反射板163の位置とは、並進運動による位置と、回転運動による角度位置とを含む。
 表示装置10の使用中、制御部620はEstを計算する。制御部620は、光束112の投影範囲113が、基準位置からEstの距離だけ、第1の中点514と第2の中点515を結ぶ線分に沿った方向上を移動するように、駆動部164に指令を与える(信号を出力する)。駆動部164は、その指令を受け、反射板163を駆動させる。
 例えば、計算結果がEst=+5となった場合、制御部620は、光束112の投影範囲113を、第2の中点515から第1の中点514に向かう方向へ、基準位置から5cm移動するように、駆動部164に指令を与え、反射板の位置を調節する。駆動部164は、その指令を受け、反射板163を駆動させる。
 これにより、本実施の形態に係る表示装置10は、高度な画像処理能力を要さずとも観視者の片眼の位置の追従を行うことが可能な表示装置を提供することができる。また、外光等の影響を受けず、ロバストに観視者の片眼に映像呈示を行うことが可能な表示装置を提供することができる。
 図3は本発明の第1の実施の形態に係る表示装置の制御方法を例示するフローチャートである。図3に示す制御方法は、表示装置10の製造段階で、あらかじめ制御部620に初期値のGを持たせてある状態から開始する。または、観視者100が表示装置10の使用開始時に、まず、posCD=0となる位置に頭部101を移動させ、制御部620に初期値のGを計算させた状態から開始する。
 図3に表したように、第1の実施の形態に係る表示装置10の制御方法は、距離センサ613aの出力電圧値と距離センサ613bの出力電圧値を用いて、式1によりposABを計算する(ステップS201)。距離センサ613cの出力電圧値と距離センサ613dの出力電圧値を用いて、式2によりposCDを計算する(ステップS202)。ステップS201とステップS202はサンプリング時間ごとに繰り返し行われる。ステップS201とステップS202は順不同である。
 次に、posCDの値が0に等しい値か否かを判定する(ステップS203)。posCDの値が0に等しい値であると判定された場合は、式3により第1の係数Gを計算する(ステップS204)。そして、式4によりEstを計算する(ステップS205)。posCDの値が0に等しい値でないと判定された場合は、ステップS204を経ずに、初期値のGや以前計算したGを用いてステップS205を行う。
 続けて、ステップS205の結果に基づいて、光束112の反射方向を制御する。
 この方法により、出力電圧値から観視者100の頭部101までの距離への換算処理工程を省略することが可能となり、処理コストを低減することができる。また、(式4)により観視者100の頭部101の位置を決定するため、温度や個体差等による補正を行わずに測定することができ、ロバスト性が向上する。
 (第2の実施の形態)
 図4は、本発明の第2の実施の形態に係る表示装置の一部の構成を例示する模式図である。
 表示装置20は、図2に例示した表示装置10における頭部検出部612を頭部検出部712で置換した表示装置である。
 頭部検出部712は、頭部検出部612に対し、距離センサ613eと距離センサ613fを持つ第3の距離センサ対616をさらに備えている。
 第1の実施の形態と同様に、距離センサ613eと距離センサ613fは、それぞれ発光素子と受光素子とを有する。
 距離センサ613eと距離センサ613fとを結ぶ線分の中点を第3の中点516とする。第3の中点516は、第1の中点514を挟んで、第2の中点515と反対側の位置にある。
 距離センサ613eと距離センサ613fとを結ぶ線分は、距離センサ613eの受光素子と距離センサ613fの受光素子とを結ぶ線分と定義する。
 距離センサ613eと距離センサ613fとを結ぶ線分の垂直二等分線を第3の直線516aとする。
 距離センサ613eと距離センサ613fは、距離センサ613eから出射した光と距離センサ613fから出射した光とが第3の直線516a上で交わるように配置される。
 距離センサ613eと距離センサ613fは、第3の直線516a上に観視者100の頭部105の幾何学的重心がある場合の重心位置に向かって光を出射するように配置されるのが望ましい。
 第1の距離センサ対614と第3の距離センサ対616は、第1の中点514と第3の中点516との距離がΔx離れた位置に配置される。
 第1の距離センサ対614と第3の距離センサ対616は、同一直線状に配置される必要はない。第1の実施の形態と同様、後述する第2の係数Gを求めることができれば、いかなる配置でも構わない。
 頭部検出部712は、距離センサ613aの出力電圧値Vと、距離センサ613bの出力電圧値Vと、距離センサ613cの出力電圧値Vと、距離センサ613dの出力電圧値Vと、距離センサ613eの出力電圧値Vと、距離センサ613fの出力電圧値Vとを制御部620に出力する。出力電圧値Va~fとは、距離センサ613a~fから観視者100の頭部101までの相対距離に応じた値である。
 制御部620は、posABとposCDに加え、距離センサ613eの出力電圧値Vと距離センサ613fの出力電圧値Vから、式5を用いてposEFを計算する。
Figure JPOXMLDOC01-appb-M000004
 posEFは、距離センサ613eから観視者100の頭部101までの相対距離と距離センサ613fから観視者100の頭部101までの相対距離との差に応じた値である。
 出力電圧値V、Vは、図2におけるd、dに対応している。d、dは、それぞれ各距離センサの受光素子から観視者100の頭部101の頭皮までの相対距離である。
 図4(a)(b)は、距離センサ613aと距離センサ613bとを用いてposABを計算し、距離センサ613cと距離センサ613dとを用いてposCDを計算し、距離センサ613eと距離センサ613fとを用いてposEFを計算している状態を表す図である。図4(a)は、ある時刻における観視者100の頭部101の位置を示している。図4(b)は、図4(a)と異なる時刻における観視者100の頭部101の位置を示している。図4(b)において、観視者100の頭部101はposEF=0となる位置にある。
 制御部620は、第1の係数Gに加え、posEFの値が0に等しい値となったときのposABの値(posAB2)を式1により算出し、式6により第2の係数Gを決定する。
Figure JPOXMLDOC01-appb-M000005
 第2の係数Gは、後述する観視者100の頭部101の相対位置Estを求める際に用いられる係数である。
 観視者100はposAB=0となる位置に頭部101がある状態で、表示装置10の初期設定を行う(図4(a)の状態)。この時、光束112の投影範囲113が観視者100の片眼105を含むように、観視者100は反射板163の向き又は位置を調節する(第1の実施の形態と同様)。この状態における、観視者100の片眼105の位置を基準位置とする。
 制御部620は、観視者100の頭部101が図4における第1の中点514よりも右側(第1の中点514から第2の中点515に向かう側)にある場合において、式4により、Estを計算し、反射板163を制御する(第1の実施の形態と同様)。
 制御部620は、光束112の投影範囲113が、基準位置からEstの距離だけ、第1の中点514と第2の中点515を結ぶ線分に沿った方向上を移動するように、駆動部164に指令を与える。駆動部164は、その指令を受け、反射板163を駆動させる。
 制御部620は、観視者100の頭部101が図4における第1の中点514よりも左側(第1の中点514から第3の中点516に向かう側)にある場合において、式7により、Estを計算する。Estは観視者100の頭部101の幾何学的重心と第1の直線514aとの相対距離に相当する推定値である。
 制御部620は、光束112の投影範囲113が、基準位置からEstの距離だけ、第1の中点514と第3の中点516を結ぶ線分に沿った方向上を移動するように、駆動部164に指令を与える。駆動部164は、その指令を受け、反射板163を駆動させる。
Figure JPOXMLDOC01-appb-M000006
 例えば、計算結果がEst=-10となった場合、制御部620は、光束112の投影範囲113を、第3の中点516から第1の中点514に向かう方向へ、基準位置から10cm移動するように、駆動部164に指令を与え、反射板の向きを調節する。駆動部164は、その指令を受け、反射板163を駆動させる。
 これにより、本実施の形態に係る表示装置20は、高度な画像処理能力を要さずとも観視者の片眼の位置の追従を行うことが可能な表示装置を提供することができる。また、外光等の影響を受けず、ロバストに観視者の片眼に映像呈示を行うことが可能な表示装置を提供することができる。
 そして、頭部検出部712は、頭部検出部612に対し、距離センサ613eと距離センサ613fを持つ第3の距離センサ対616をさらに備えたことにより、頭部検出部612と比較して、さらに精度良く観視者100の頭部101の位置測定が可能となる。
 図5は本発明の第2の実施の形態に係る表示装置の制御方法を例示するフローチャート図である。図5に示す制御方法は、表示装置10の製造段階で、あらかじめ制御部620に初期値のGおよび初期値のGを持たせてある状態から開始する。または、観視者100が表示装置10の使用開始時に、まず、posCD=0、posEF=0となる位置に頭部101を移動させ、制御部620に初期値のGおよび初期値のGを計算させた状態から開始する。
 図5に表したように、第2の実施の形態に係る表示装置の制御方法は、距離センサ613aの出力電圧値と距離センサ613bの出力電圧値を用いて、式1によりposABを計算する(ステップS301)。距離センサ613cの出力電圧値と距離センサ613dの出力電圧値を用いて、式2によりposCDを計算する(ステップS302)。距離センサ613eの出力電圧値と距離センサ613fの出力電圧値を用いて、式3によりposEFを計算する(ステップS303)。ステップS301とステップ302とステップS303はサンプリング時間ごとに繰り返し行われる。ステップS301とステップ302とステップS303は順不同である。
 次に、posCDの値が0に等しい値か否かを判定する(ステップS304)。posCDの値が0に等しい値であると判定された場合は、式3により第1の係数Gを計算する(ステップS305)。posCDの値が0に等しい値でないと判定された場合は、ステップS305は行わず、Gの値を維持する。例えば、初期設定値や以前計算したGを用いるか、Gの値を代わりに用いる。
 posEFの値が0に等しい値か否かを判定する(ステップS306)。posEFの値が0に等しい値であると判定された場合は、式6により第2の係数Gを計算する(ステップS307)。posEFの値が0に等しい値でないと判定された場合は、ステップS307は行わず、Gの値を維持する。例えば、初期設定値や以前計算したGを用いるか、Gの値を代わりに用いる。
 そして、posABが0以上であるか否かを判定する(ステップS308)。posABが0以上であると判定された場合は、式7によりEstを計算する(ステップS309(B))。posABが0以上でないと判定された場合は、式4によりEstを計算する(ステップS309(A))。
 続けて、ステップS309(A)又はステップS309(B)の結果に基づいて、光束112の反射方向を制御する。
 この方法により、出力電圧値から観視者100の頭部101の距離への換算処理工程を省略することが可能となり、処理コストを低減することができる。また、(式4)と(式7)により観視者100の頭部101の位置を決定するため、温度や個体差等による補正を行わずに測定することができ、ロバスト性が向上する。
 さらに、(式4)と(式7)を用いることにより、図3に示した制御方法に比べ、さらに精度良く、観視者100の頭部101の位置測定が可能となる。
 なお、本実施の形態では、観視者100の頭部101の位置の測定に第1の距離センサ対614を用いたが、必要に応じて第2の距離センサ対615や第3の距離センサ対616を用いて、観視者100の頭部101の位置の測定を行うことも可能である。
 例えば、図4において、観視者100の頭部101が第1の中点514よりも右側にΔx以上の距離にある場合においては、式8によって、Estを観視者100の頭部101の位置と決定する。Estは観視者100の頭部101の幾何学的重心と第2の直線515aとの相対距離に相当する推定値である。
Figure JPOXMLDOC01-appb-M000007
 また、図4において、観視者100の頭部101が第1の中点514よりも左側にΔx以上の距離にある場合においては、式9によって、Estを観視者100の頭部101の位置と決定する。Estは観視者100の頭部101の幾何学的重心と第3の直線514aとの相対距離に相当する推定値である。
Figure JPOXMLDOC01-appb-M000008
 これにより、観視者100の頭部101が大きく動いたときにもその位置の測定を精度良く行うことが可能となる。
 以上、具体例を参照しつつ、本発明の実施の形態について説明した。しかし、本発明は、これらに限定されるものではない。例えば、本発明の実施の形態として上述した頭部検出部612は、2対および3対の距離センサを用いて観視者100の頭部101の位置を測定しているが、距離センサ対の数を4対、5対と増やすことも可能である。これにより、測定可能範囲を拡大させることができる。
 また、観視者100の頭部101の位置の測定は、距離センサ対の出力電圧値の差を正規化するために、式4や式7を用いて計算した。しかし、この計算方法以外にも、例えば式10に示すように、距離センサ対の出力電圧値の差を用いることにより、本発明と同様の効果を得ることができれば、本発明の範囲に含まれる。
Figure JPOXMLDOC01-appb-M000009
 その他、表示装置およびその制御方法を構成する各要素の具体的な構成に関しては、当業者が公知の範囲から適宜選択することにより本発明を同様に実施し、同様の効果を得ることができる限り、本発明の範囲に含まれる。
 その他、本発明の実施の形態として上述した表示装置およびその制御方法を基にして、当業者が適宜設計変更して実施し得る全ての表示装置およびその制御方法も、本発明の要旨を包含する限り、本発明の範囲に属する。
 その他、本発明の思想の範疇において、当業者であれば、各種の変更例および修正例に想到し得るものであり、それら変更例および修正例についても本発明の範囲に属するものと了解される。
10、20 表示装置
100 観視者
101 頭部
105 片眼
112 光束
113 投影範囲
115 光束生成部
163 反射板
164 駆動部
310 透明板
371 第1のレンズ
372 第2のレンズ
373 開口部
374 光源
375 制限部
376 拡散部
377 画像装置
514 第1の中点
514a 第1の直線
515 第2の中点
515a 第2の直線
516 第3の中点
516a 第3の直線
612、712 頭部検出部
613a、613b、613c、613d、613e、613f 距離センサ
614 第1の距離センサ
615 第2の距離センサ
616 第3の距離センサ
620 制御部

Claims (5)

  1. 画像情報を含む光束を生成する光束生成部と、
    前記光束生成部により生成された前記光束を観視者の片眼に向かって反射させる反射板と、
    少なくとも二対の距離センサを用いて前記観視者の頭部を検出する頭部検出部と、
    前記頭部検出部からの出力に基づいて、前記反射板の位置を制御する制御部と、
    前記制御部からの出力に基づいて、前記反射板を駆動させる駆動部
    とを備えることを特徴とする表示装置。
  2. 前記頭部検出部は、
    前記観視者の頭部位置を測定するための第1の距離センサ対と、
    前記第1の距離センサ対による測定に用いる係数を決定するための第2の距離センサ対
    とを備えることを特徴とする、請求項1記載の表示装置。
  3. 前記制御部は、
    前記第1の距離センサ対の出力電圧差を計算し、
    前記第1の距離センサ対の中点と前記第2の距離センサ対の中点との距離と、前記第2の距離センサ対の出力電圧差とを用いて、前記係数を計算し、
    前記第1の距離センサ対の出力電圧差と前記係数とに基づいて、前記反射板の向き又は位置を制御する
    ことを特徴とする、請求項2記載の表示装置。
  4. 前記光束生成部は、
    光源と、
    前記光源からの光束の進行方向を制限する制限部と、
    前記光束を拡散させる拡散部と、
    前記拡散部により拡散された前記光束に画像情報を含ませる画像装置と、
    前記画像装置を通過した前記光束を集光する第1のレンズと、
    前記第1のレンズを通過した前記光束の発散角を制御する開口部と、
    前記開口部を通過した前記光束を集光させる第2のレンズ
    とを備えることを特徴とする、請求項3記載の表示装置。
  5. 画像を含む光束を生成し、
    生成された前記光束を観視者の片眼に向かって反射させ、
    少なくとも二対の距離センサを用いて前記観視者の頭部を検出し、
    前記検出の結果に基づいて、前記反射の方向を制御する
    ことを特徴とする表示装置の制御方法。
PCT/JP2009/004585 2009-09-15 2009-09-15 表示装置およびその制御方法 WO2011033549A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2009/004585 WO2011033549A1 (ja) 2009-09-15 2009-09-15 表示装置およびその制御方法
JP2011531629A JP5204309B2 (ja) 2009-09-15 2009-09-15 表示装置およびその制御方法
US13/420,147 US8576142B2 (en) 2009-09-15 2012-03-14 Display device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/004585 WO2011033549A1 (ja) 2009-09-15 2009-09-15 表示装置およびその制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/004584 Continuation WO2010070790A1 (ja) 2008-12-15 2009-09-15 スクロール圧縮機

Publications (1)

Publication Number Publication Date
WO2011033549A1 true WO2011033549A1 (ja) 2011-03-24

Family

ID=43758179

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/004585 WO2011033549A1 (ja) 2009-09-15 2009-09-15 表示装置およびその制御方法

Country Status (3)

Country Link
US (1) US8576142B2 (ja)
JP (1) JP5204309B2 (ja)
WO (1) WO2011033549A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5275963B2 (ja) 2009-12-08 2013-08-28 株式会社東芝 表示装置、表示方法及び移動体
JP5734888B2 (ja) 2012-01-31 2015-06-17 株式会社東芝 表示装置、移動体、及び、表示装置の設置方法
DE102012210808B4 (de) * 2012-06-26 2018-05-17 Sypro Optics Gmbh Head-up Display und Projektionsoptik für ein Head-up Display
FR3030064B1 (fr) * 2014-12-10 2018-03-30 Valeo Comfort And Driving Assistance Afficheur tete haute pour vehicule automobile
KR101849371B1 (ko) * 2015-09-04 2018-04-16 한국전자통신연구원 착용형 디스플레이 장치에서의 자동 초점 조절 장치 및 방법
JP2017207607A (ja) * 2016-05-18 2017-11-24 アルパイン株式会社 多層画像表示装置
CN107817604A (zh) * 2016-09-14 2018-03-20 上海蔚兰动力科技有限公司 抬头显示设备的可调式反射器及包含其的抬头显示设备
CN107870419A (zh) * 2016-09-27 2018-04-03 上海蔚兰动力科技有限公司 抬头显示装置的可调式反射器及包含其的抬头显示装置
CN107870413A (zh) * 2016-09-27 2018-04-03 上海蔚兰动力科技有限公司 抬头显示装置的可调式反射器及包含其的抬头显示装置
CN107870422A (zh) * 2016-09-27 2018-04-03 上海蔚兰动力科技有限公司 抬头显示装置的可调式反射器及包含其的抬头显示装置
JP6883244B2 (ja) * 2017-12-06 2021-06-09 株式会社Jvcケンウッド 投影制御装置、ヘッドアップディスプレイ装置、投影制御方法およびプログラム
JPWO2021171699A1 (ja) * 2020-02-27 2021-09-02

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61133436U (ja) * 1985-02-08 1986-08-20
JPH10122850A (ja) * 1996-08-29 1998-05-15 Hamamatsu Photonics Kk 三次元形状計測装置
JP2001116841A (ja) * 1991-04-15 2001-04-27 Mitsubishi Electric Corp 乗員検知装置
JP2003341383A (ja) * 2002-05-29 2003-12-03 Denso Corp 車両用表示装置
JP2009163084A (ja) * 2008-01-09 2009-07-23 Toshiba Corp 表示装置及び移動体

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61133436A (ja) 1984-12-03 1986-06-20 Nec Corp デ−タ処理装置
US8686922B2 (en) * 1999-12-15 2014-04-01 American Vehicular Sciences Llc Eye-location dependent vehicular heads-up display system
US6580562B2 (en) * 2000-07-24 2003-06-17 Yazaki Corporation On-vehicle display unit
US6867753B2 (en) * 2002-10-28 2005-03-15 University Of Washington Virtual image registration in augmented display field
EP1834204A1 (de) * 2005-01-05 2007-09-19 Siemens VDO Automotive AG Head-up display mit verformbarem spiegel
JP2009128565A (ja) 2007-11-22 2009-06-11 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ
JP5075595B2 (ja) 2007-11-26 2012-11-21 株式会社東芝 表示装置及びそれを用いた移動体
JP5101257B2 (ja) 2007-11-26 2012-12-19 株式会社東芝 ヘッドアップディスプレイ用光学フィルム、ヘッドアップディスプレイ及び移動体
JP2009229752A (ja) 2008-03-21 2009-10-08 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ
JP5462443B2 (ja) 2008-03-27 2014-04-02 株式会社東芝 反射スクリーン、表示装置及び移動体
JP2009246505A (ja) 2008-03-28 2009-10-22 Toshiba Corp 画像表示装置及び画像表示装置
JP4852062B2 (ja) 2008-03-28 2012-01-11 株式会社東芝 単眼用画像表示装置及び単眼用画像表示方法
JP4686586B2 (ja) 2008-09-19 2011-05-25 株式会社東芝 車載用表示装置及び表示方法
JP4886751B2 (ja) 2008-09-25 2012-02-29 株式会社東芝 車載用表示システム及び表示方法
JP4776669B2 (ja) 2008-09-25 2011-09-21 株式会社東芝 表示装置および移動体
JP5058111B2 (ja) 2008-09-26 2012-10-24 株式会社東芝 磁気ディスク装置及び情報再生方法
JP2010143520A (ja) 2008-12-22 2010-07-01 Toshiba Corp 車載用表示システム及び表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61133436U (ja) * 1985-02-08 1986-08-20
JP2001116841A (ja) * 1991-04-15 2001-04-27 Mitsubishi Electric Corp 乗員検知装置
JPH10122850A (ja) * 1996-08-29 1998-05-15 Hamamatsu Photonics Kk 三次元形状計測装置
JP2003341383A (ja) * 2002-05-29 2003-12-03 Denso Corp 車両用表示装置
JP2009163084A (ja) * 2008-01-09 2009-07-23 Toshiba Corp 表示装置及び移動体

Also Published As

Publication number Publication date
JP5204309B2 (ja) 2013-06-05
JPWO2011033549A1 (ja) 2013-02-07
US8576142B2 (en) 2013-11-05
US20120169591A1 (en) 2012-07-05

Similar Documents

Publication Publication Date Title
WO2011033549A1 (ja) 表示装置およびその制御方法
EP3100002B1 (en) Camera calibration method
JP2007315761A (ja) 反射特性測定装置
JP2014010409A (ja) 投射型ディスプレイ装置
JP5039185B2 (ja) 表示装置
JP5697405B2 (ja) 表示装置及び表示方法
JP6455802B2 (ja) 画像表示装置、物体装置、透過スクリーン及びスクリーン
JP2004334175A5 (ja)
WO2017149994A1 (ja) 投写型表示装置、投写制御方法、及び、投写制御プログラム
CN109613696B (zh) 光纤扫描投影装置及电子设备
JP2020194117A (ja) 虚像表示装置
CN217586257U (zh) 一种平行光的发散角检测装置
JP2011122867A (ja) 光学式位置検出装置および位置検出機能付き表示装置
CN108469233B (zh) 一种扩散角度测量装置及测量方法
WO2013140594A1 (ja) プロジェクタシステムおよびフォーカス調整方法
JP2011188218A (ja) 表示装置
JP6896064B2 (ja) 虚像表示装置
JP5360929B2 (ja) レンズ駆動装置、投射型表示装置、及びレンズ駆動方法
JP4967250B2 (ja) 距離測定装置及びその距離測定方法、及び距離測定装置を備えたプロジェクタ又はカメラ
JP3709405B2 (ja) 傾斜角度測定装置を有するプロジェクタ
JP5813533B2 (ja) 入力装置および入力システム
JP2019142297A (ja) ドライバの視点検出方法とその装置およびそれを用いたヘッドアップディスプレイ装置
WO2023021960A1 (ja) 方向推定装置
JP2012212565A (ja) 導光体
JP2015194413A (ja) 光検出装置及び光源装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09849410

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011531629

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09849410

Country of ref document: EP

Kind code of ref document: A1