WO2012164704A1 - ヘッドアップディスプレイ、ヘッドアップディスプレイの画像表示方法及び画像表示プログラム - Google Patents

ヘッドアップディスプレイ、ヘッドアップディスプレイの画像表示方法及び画像表示プログラム Download PDF

Info

Publication number
WO2012164704A1
WO2012164704A1 PCT/JP2011/062612 JP2011062612W WO2012164704A1 WO 2012164704 A1 WO2012164704 A1 WO 2012164704A1 JP 2011062612 W JP2011062612 W JP 2011062612W WO 2012164704 A1 WO2012164704 A1 WO 2012164704A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
image
area
virtual image
head
Prior art date
Application number
PCT/JP2011/062612
Other languages
English (en)
French (fr)
Inventor
義弘 橋塚
和茂 川名
英昭 鶴見
智陽 丹野
峻行 豊田
敬介 栃原
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2011/062612 priority Critical patent/WO2012164704A1/ja
Publication of WO2012164704A1 publication Critical patent/WO2012164704A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Definitions

  • the present invention relates to an image display device such as a head-up display.
  • HUD head-up display
  • Examples of the problem to be solved by the present invention include the above. It is an object of the present invention to provide a head-up display, an image display method for the head-up display, and an image display program capable of improving the visibility of an image while ensuring the user's field of view from the viewpoint of safety. And
  • the head-up display has a light source that projects light onto the display unit to display a virtual image, and a safety aspect when observing from a predetermined position through the display unit.
  • a recognizing unit for recognizing a predetermined area on the display unit for determining a display position and / or a size of the virtual image so that the visibility and the visibility of the virtual image are ensured, and the recognizing unit recognizes Control means for performing control to change the display position and / or size of the virtual image based on the predetermined area.
  • an image display method executed by a head-up display having a light source that projects light onto a display unit to display a virtual image when observing from a predetermined position via the display unit.
  • a recognition step of recognizing a predetermined area on the display means for determining a display position and / or a size of the virtual image so as to realize a safety field of view and a virtual image visibility.
  • a control step of performing control to change the display position and / or size of the virtual image based on the predetermined area recognized by the recognition step.
  • an image display program executed by a head-up display that includes a computer and has a light source that projects light onto a display unit to display a virtual image.
  • a head-up display that includes a computer and has a light source that projects light onto a display unit to display a virtual image.
  • the display means for determining the display position and / or size of the virtual image so as to ensure the field of view in terms of safety and the visibility of the virtual image when observing via the display means
  • Recognition means for recognizing the predetermined area, and control means for performing control to change the display position and / or size of the virtual image based on the predetermined area recognized by the recognition means.
  • the head-up display includes the light source that projects light onto the display means to display a virtual image, and the predetermined position corresponding to the viewpoint of the driver of the moving body through the display means.
  • Recognizing means for recognizing an area on the display means where the driver's field of view is blocked by a part of the moving body as a blind spot area when observing the outside of the moving body;
  • Control means for performing control to change the display position or the size of the virtual image so that the virtual image is recognized when the outside of the moving body is observed through.
  • the image display method of the head-up display includes a projecting step of projecting light from the light source to the display means to display a virtual image, and a predetermined position corresponding to the viewpoint of the driver of the moving body. Then, when observing the outside of the moving body through the display means, a recognition step of recognizing the area on the display means where the driver's field of view is blocked by a part of the moving body as a blind spot area; A control step of performing control to change the display position or size of the virtual image so that the virtual image is recognized when the driver observes the outside of the moving body through the blind spot region.
  • the image display device has a light source that projects light onto the display unit in order to display a virtual image, and a safety aspect when observing from a predetermined position through the display unit.
  • a recognizing unit for recognizing a predetermined area on the display unit for determining a display position and / or a size of the virtual image so that the visibility and the visibility of the virtual image are ensured, and the recognizing unit recognizes Control means for performing control to change the display position and / or size of the virtual image based on the predetermined area.
  • FIG. 1 shows an overall configuration of a head-up display (HUD) according to the present embodiment.
  • the figure for demonstrating the basic concept of the control method which concerns on a present Example is shown.
  • An example of a blind spot area extracted by the blind spot area extraction unit is shown.
  • regulates a safe visual field area is shown.
  • region which the safe visual field area extraction part extracted is shown.
  • region is shown.
  • the figure for demonstrating the image display area determination method concretely is shown.
  • the processing flow concerning a present Example is shown.
  • the head-up display includes a light source that projects light onto the display unit to display a virtual image, and a field of view in terms of safety when observing from a predetermined position through the display unit.
  • Recognizing means for recognizing a predetermined area on the display means for determining the display position and / or size of the virtual image such that securing and visibility of the virtual image are realized, and the recognizing means recognized by the recognizing means
  • Control means for performing control to change the display position and / or size of the virtual image based on a predetermined area.
  • the above-described head-up display is applied to a head-up display having a light source that projects light onto a display means in order to display a virtual image.
  • the recognizing unit determines the display position and / or the size of the virtual image that can ensure the field of view and the visibility of the virtual image in terms of safety when observing from the predetermined position through the display unit.
  • a predetermined area on the display means is recognized.
  • the control means performs control to change the display position and / or size of the virtual image based on the predetermined area recognized by the recognition means. By doing so, it is possible to improve the visibility of the image while appropriately ensuring the user's field of view from the viewpoint of safety.
  • the recognizing unit displays a blind spot region, which is a region on the display unit, in which a blind spot is formed when observing from the predetermined position through the display unit. Recognize as an area. This is because when the image is displayed in the blind spot area, the field of view from the viewpoint of safety can be appropriately secured.
  • the control means displays the display position and / or the size so that the virtual image is displayed at a position that can be observed from the predetermined position through the blind spot area. Can be changed.
  • the virtual image is displayed so as to be within the blind spot area.
  • the apparatus has an attaching means for mounting on the moving body, and the blind spot area is one of the moving bodies when the outside of the moving body is observed from the predetermined position via the display means. It is an area on the display means where the observation is blocked by the part.
  • the recognizing unit recognizes the blind spot region when the opposite side of the observation position with respect to the display unit is observed in the projection direction of the light projected from the light source.
  • the recognition unit is a region on the display unit that should ensure a field of view from the viewpoint of safety when observing from the predetermined position through the display unit.
  • the safe view area is recognized as the predetermined area, and the control unit changes the display position and / or the size so that the virtual image does not straddle both the upper end and the lower end of the safe view area.
  • the recognition unit obtains, from the camera, a photographed image obtained by photographing the outside of the moving body from the position of the driver's line of sight of the moving body on which the head-up display is mounted.
  • the predetermined area is recognized based on the captured image.
  • the recognizing unit is configured to display the blind spot by a part of the moving body when the outside of the moving body is observed through the display unit from the position of the driver's eyes.
  • the upper area is recognized as the predetermined area.
  • the recognition means recognizes the predetermined area based on information indicating characteristics of the moving body and the captured image.
  • the exterior color, interior color, overall length, overall width, overall height, etc. of the mobile object can be used as information indicating the characteristics of the mobile object.
  • control unit further includes a display control unit that displays a predetermined virtual image when the control unit performs the control, and the recognition unit detects a portion of the predetermined region and the predetermined virtual image from the captured image.
  • the control means changes the display position and / or the size based on a relative positional relationship between the predetermined area portion and the predetermined virtual image portion extracted by the recognition means. To control. Thereby, it is possible to determine the optimal display position and / or size appropriately using the above-described predetermined area.
  • the display control means can display the predetermined virtual image by a color and / or luminance corresponding to an exterior color and an interior color of the moving body. Thereby, a predetermined virtual image can be extracted with high accuracy.
  • the blind spot area is an area where the outside observation is hindered when observing the outside of the moving body on which the head-up display is mounted from the predetermined position.
  • the blind spot area is an area where the external observation is hindered by a part of the body of the moving body.
  • an image display method executed by a head-up display having a light source that projects light onto a display unit in order to display a virtual image is used when observing from a predetermined position through the display unit.
  • an image display program executed by a head-up display having a computer and a light source that projects light onto a display unit to display a virtual image.
  • On the display means for determining the display position and / or size of the virtual image so as to ensure the field of view in terms of safety and the visibility of the virtual image when observing via the display means
  • Recognition means for recognizing the predetermined area, and control means for performing control to change the display position and / or size of the virtual image based on the predetermined area recognized by the recognition means.
  • the above-described image display method and image display program of the head-up display can also improve the visibility of the image while ensuring the user's field of view from the viewpoint of safety.
  • the image display program can be suitably handled in a state of being recorded on a recording medium.
  • the head-up display includes a light source that projects light onto the display unit to display a virtual image, and a predetermined position corresponding to the viewpoint of the driver of the moving body through the display unit.
  • Recognizing means for recognizing an area on the display means where the driver's field of view is blocked by a part of the moving body as a blind spot area when observing the outside of the moving body;
  • Control means for performing control to change the display position or the size of the virtual image so that the virtual image is recognized when the outside of the moving body is observed through.
  • an image display method for a head-up display includes a projection step of projecting light from a light source to a display unit to display a virtual image, and a predetermined position corresponding to the viewpoint of a driver of a moving object. Then, when observing the outside of the moving body through the display means, a recognition step of recognizing the area on the display means where the driver's field of view is blocked by a part of the moving body as a blind spot area; A control step of performing control to change the display position or size of the virtual image so that the virtual image is recognized when the driver observes the outside of the moving body through the blind spot region.
  • the image display device includes a light source that projects light onto the display unit to display a virtual image, and a safety aspect when observing from a predetermined position through the display unit.
  • a recognizing unit for recognizing a predetermined area on the display unit for determining a display position and / or a size of the virtual image so that the visibility and the visibility of the virtual image are ensured, and the recognizing unit recognizes Control means for performing control to change the display position and / or size of the virtual image based on the predetermined area.
  • FIG. 1 is a block diagram illustrating a schematic configuration of a head-up display (HUD) 1 according to the present embodiment.
  • HUD head-up display
  • the HUD 1 mainly includes a camera 11, an image region extraction unit 12, a blind spot region extraction unit 13, a safe visual field region extraction unit 14, an image display region determination unit 15, a light source control unit 16, and an image control unit 17. And a light source drive driver 18, a light source 19, and drive motors 20 and 21.
  • the HUD 1 is mounted on a moving body such as a vehicle by attachment means (not shown), and projects light from the light source 19 toward the windshield, thereby visually recognizing an image as a virtual image from the user's eye position (eye point). It is.
  • image is used for an image formed as a virtual image.
  • the camera 11 is provided at a location corresponding to the position of the driver's eyes, and images the outside of the vehicle from the position of the driver's eyes.
  • the camera 11 supplies an image signal S11 corresponding to the photographed image to the image region extraction unit 12, the blind spot region extraction unit 13, and the safe visual field region extraction unit 14.
  • the image region extraction unit 12 Based on the image signal S11 supplied from the camera 11, the image region extraction unit 12 extracts a portion (hereinafter referred to as “image region”) corresponding to a predetermined image displayed by the HUD 1 in the captured image.
  • This predetermined image is an image used for adjusting the display position and size of the image displayed by the HUD 1 and is hereinafter referred to as an “adjustment image”.
  • the adjustment image is displayed in a predetermined color (for example, a bonnet color or a complementary color of the dashboard color), and the image area extraction unit 12 is displayed in the predetermined color in the captured image. An area is extracted as an image area. Then, the image area extraction unit 12 supplies a signal S12 indicating the extracted image area to the image display area determination unit 15.
  • the blind spot region extraction unit 13 A portion corresponding to a region where a blind spot is formed by a part of the vehicle mounted (that is, a blind spot region) is extracted.
  • the term “blind spot area” is used for both the area that becomes a blind spot when the driver observes the outside of the vehicle and the part corresponding to the area in the captured image.
  • the blind spot area corresponds to an area where external observation is hindered when the driver observes the outside of the vehicle through the windshield.
  • the blind spot area is an area on the windshield where external observation is hindered by a part of the vehicle body.
  • the blind spot area extraction unit 13 acquires information indicating the characteristics of the vehicle (for example, the exterior color or interior color of the vehicle) and extracts a blind spot area in the captured image based on the information. Then, the blind spot area extraction unit 13 supplies the image display area determination unit 15 with a signal S13 indicating the extracted blind spot area.
  • the safe visual field region extraction unit 14 When the driver observes the outside of the vehicle in a region where the image can be displayed by the HUD 1 in the captured image based on the image signal S11 supplied from the camera 11, the safe visual field region extraction unit 14. From a safety aspect, a portion corresponding to a region where a view should be secured (that is, a safe view region) is extracted.
  • the term “safety field of view” is used for both a region where the driver should secure the field of view from the viewpoint of safety when observing the outside of the vehicle and a part corresponding to the region in the captured image.
  • the safety view area corresponds to an area on the windshield where the driver should ensure visibility from the viewpoint of safety when the driver observes the outside of the vehicle through the windshield. Such a safe visual field is determined by the provisions of the Road Traffic Law.
  • the safety view area extraction unit 14 acquires information indicating the characteristics of the vehicle (for example, full length, full width, total height, etc.) and information indicating the set position of the camera 11, and based on these information, the safe view area in the captured image Extract regions. Then, the safety view area extraction unit 14 supplies the image display area determination unit 15 with a signal S14 indicating the extracted safety view area.
  • the image display area determination unit 15 determines an area in which an image is displayed by the HUD 1 based on the signals S12, S13, and S14 supplied from the image area extraction unit 12, the blind spot area extraction unit 13, and the safe view area extraction unit 14. .
  • the image display region determination unit 15 includes the image region extracted by the image region extraction unit 12, and the blind spot region and the safe view region extracted by the blind spot region extraction unit 13 and the safe view region extraction unit 14, respectively. Based on the relative relationship, the display position and size of the image displayed by the HUD 1 are determined. More specifically, the image display area determination unit 15 determines an optimal image display position and size using the blind spot area and the safe view area to the maximum while observing the restrictions defined by the safe view area. . Then, the image display area determination unit 15 supplies a signal S15 indicating the display position and size of the determined image to the light source control unit 16.
  • the light source control unit 16 supplies control signals S16a and S16b for controlling the image control unit 17 and the light source drive driver 18 based on the signal S15 supplied from the image display region determination unit 15, respectively.
  • the light source control unit 16 controls the drive motors 20 and 21 by the light source drive driver 18 so that the display position and size of the image determined by the image display region determination unit 15 are realized. Is supplied to the light source driver 18.
  • the image control unit 17 supplies an image signal S17 corresponding to RGB, luminance, and the like to the light source 19 based on an image signal supplied from the outside (TV, Internet, navigation device, DVD player, or the like).
  • the image control unit 17 supplies the light source 19 with an image signal S17 for the adjustment image in order to display the adjustment image based on the control signal S16a supplied from the light source control unit 16.
  • the light source 19 has a red, green, and blue laser light source, a scanning mechanism that scans the laser light emitted from the laser light source, and the like, and is directed toward the windshield (hereinafter simply referred to as “laser light”). (Also referred to as “light”). In this case, the light source 19 projects light toward the windshield so that an image (virtual image) corresponding to the image signal S17 supplied from the image control unit 17 is displayed.
  • the light source 19 is not limited to using a device that projects laser light.
  • the light source driving driver 18 Based on the control signal S16b supplied from the light source control unit 16, the light source driving driver 18 directs the light source 19 in the direction indicated by the arrow A1 (corresponding to the front-rear direction of the driver) and in the direction indicated by the arrow A2 (right and left of the driver).
  • the control signals S18a and S18b are supplied to the drive motors 20 and 21 in order to move them in the direction corresponding to the direction.
  • the light source drive driver 18 controls the drive motors 20 and 21 so that the display position and size of the image determined by the image display area determination unit 15 are realized.
  • the drive motors 20 and 21 move the light source 19 in the direction indicated by the arrow A1 and the direction indicated by the arrow A2 based on the control signals S18a and S18b supplied from the light source drive driver 18, respectively.
  • the drive motor 20 moves the light source 19 in the front-rear direction of the driver, thereby enlarging or reducing the size of the image to be displayed.
  • the drive motor 21 moves the display position of the image to the left or right by moving the light source 19 in the left-right direction of the driver.
  • the image area extraction unit 12, the blind spot area extraction unit 13, and the safe view area extraction unit 14 correspond to an example of “recognition means” in the present invention
  • the image display area determination unit 15 and the light source control unit 16 correspond to the present invention.
  • control means correspond to an example of “control means”.
  • FIG. 2 schematically shows the HUD 1 mounted on the vehicle (only the light source 19 is shown).
  • an example of an image that is displayed when the light source 19 is moved in the front-rear direction as indicated by an arrow B4 will be described.
  • the arrow B1 shows an example of an image located in the blind spot area (in this example, the blind spot area is not used to the maximum extent).
  • the image since the image is located in the blind spot area, it can be said that there is no problem in terms of safety.
  • the size of the image is relatively small, it can be said that the visibility of the image is not so good.
  • the arrow B2 shows an example of an image extending in the vertical direction so as to straddle both the upper end and the lower end of the above-described safety view area. In this case, since the size of the image is relatively large, it can be said that the visibility of the image is good. However, it can be said that there is a problem in terms of safety because the safe visual field is largely blocked by the image.
  • the HUD 1 determines the optimal image display position and size using the blind spot area and the safety view area to the maximum while complying with the restrictions defined by the safety view area.
  • the display position and size of the image are automatically adjusted. For example, the maximum size that can display an image in the blind spot area and the safe view area that satisfies the condition that the image does not straddle both the upper end and the lower end of the safe view area is determined. Thereby, for example, an image as indicated by an arrow B3 is displayed. In this case, the image is displayed with a display position and a size that do not prevent the driver from observing the front end of the vehicle.
  • the control method according to the present embodiment will be specifically described.
  • the flow of the control method according to the present embodiment will be briefly described.
  • the camera 11 captures an image
  • the blind spot area extraction unit 13 extracts a blind spot area in the captured image
  • the safe view area extraction unit 14 extracts a safe view area in the captured image.
  • the image control unit 17 and the light source 19 display the adjustment image
  • the image region extraction unit 12 extracts an image region in the captured image.
  • the image display area determining unit 15 compares the image area extracted by the image area extracting unit 12 with the blind spot area and the safe view area extracted by the blind spot area extracting unit 13 and the safe view area extracting unit 14, respectively.
  • the display position and size of the image displayed by the HUD 1 are determined based on the positional relationship.
  • blind spot area extraction method the safe view area extraction method, and the image display area determination method will be described in detail.
  • FIG. 3 shows an example of a blind spot area extracted by the blind spot area extraction unit 13.
  • FIG. 3 is a diagram corresponding to an image captured by the camera 11.
  • the blind spot area C ⁇ b> 1 is an area in which external observation is hindered when the driver observes the outside of the vehicle, and corresponds to a dashboard, an A pillar, a bonnet, a ceiling, and the like. is there.
  • the blind spot area extraction unit 13 acquires information indicating the characteristics of the vehicle, and extracts a blind spot area C1 in the captured image based on the information. For example, the blind spot area extraction unit 13 acquires information on the exterior color and the interior color of the vehicle, and extracts a portion having the exterior color and the interior color in the captured image as the blind spot area C1.
  • first safe visual field and second safe visual field
  • safety field of view the standard of the road traffic law that defines the safe field of view.
  • FIG. 4 (a) shows a diagram for explaining the criteria for defining the first safety field of view.
  • the first safety view area is defined based on a standard that the driver can directly see the pole (height 1 m, diameter 0.3 m) disposed in the hatching area D1 covering the front and left sides of the vehicle.
  • the hatching area D1a is a part corresponding to the A pillar, and this area is excluded from the application of the standard.
  • FIG. 4B is a diagram for explaining a criterion for defining the second safety view area.
  • the second safety view area is defined by a standard such that the driver can directly view a pole (height 1 m, diameter 0.3 m) disposed in a hatching area D2 located 2 m ahead of the vehicle.
  • FIG. 5 shows an example of the first and second safe view areas extracted by the safe view area extracting unit 14. Specifically, FIG. 5 (a) shows an example of the first safety field of view E1, and FIG. 5 (b) shows an example of the second safety field of view E2.
  • FIG. 5 is a diagram corresponding to an image captured by the camera 11.
  • the safety view area extraction unit 14 acquires information indicating the characteristics of the vehicle and information indicating the set position of the camera 11, and based on these information, the first and second safety view areas E1 and E2 in the captured image. To extract. Specifically, the safety view area extraction unit 14 performs a predetermined calculation based on the above-described road traffic law standard (see FIG. 4), information indicating the characteristics of the vehicle, and information indicating the set position of the camera 11. To obtain the first and second safe visual field areas E1 and E2 in the captured image. For example, the safety view area extraction unit 14 obtains the first and second safety view areas E1 and E2 by using the total length, the total width, and the total height of the vehicle as information indicating the characteristics of the vehicle.
  • the above-mentioned standards of the Road Traffic Law prohibit the display of images extending in the vertical direction so as to straddle both the upper and lower ends of the first and second safety view areas E1, E2. Displaying an image in the first and second safety view areas E1 and E2 is not prohibited. In other words, even if the image is located in the first and second safety view areas E1 and E2, if the image does not straddle both the upper end and the lower end of the first and second safety view areas E1 and E2, It is permissible to display such an image.
  • the first safety view area E1 will be described as a representative, but the contents thereof are similarly applied to the second safety view area E2.
  • FIG. 6A it is prohibited to display the image F so as to straddle both the upper end and the lower end of the first safety field of view E1.
  • FIG. 6B even if the image F is located in the first safe view area E1, the image F must straddle both the upper end and the lower end of the first safe view area E1. For example, displaying such an image F is allowed.
  • FIGS. 6C and 6D it is allowed to display an image F that straddles only one of the upper end and the lower end of the first safety view area E1.
  • FIG. 7 shows a diagram corresponding to an image captured by the camera 11.
  • FIG. 7A shows the blind spot area C1 extracted by the blind spot area extraction unit 13.
  • the blind spot area C1 is the same as that shown in FIG.
  • FIG. 7B shows a diagram in which the first safe visual field area E1 extracted by the safe visual field area extraction unit 14 is superimposed on the blind spot area C1.
  • the first safety view area E1 is the same as that shown in FIG.
  • FIG. 7C shows a diagram in which the second safe visual field area E2 extracted by the safe visual field area extraction unit 14 is superimposed on the blind spot area C1 and the first safe visual field area E1.
  • the second safety view area E2 is the same as that shown in FIG.
  • the image control unit 17 and the light source 19 display the adjustment image, and the camera 11 performs imaging again.
  • the image area extraction unit 12 extracts an image area corresponding to the adjustment image in the captured image. Specifically, the adjustment image is displayed in a predetermined color (for example, a bonnet color or a complementary color of the dashboard color), and the image area extracting unit 12 in the captured image An area displayed in color is extracted as an image area.
  • FIG. 7D shows a diagram in which the image area G1 extracted by the image area extraction unit 12 is superimposed on the blind spot area C1, the first and second safety view areas E1, E2.
  • the image display area determination unit 15 determines the display position and size of the image to be displayed by the HUD 1 based on the image area G1, the blind spot area C1, the first and second safety view areas E1, E2 thus extracted. decide. Specifically, the image display area determination unit 15 determines the first and second safety based on the relative positional relationship between the image area G1, the blind spot area C1, and the first and second safety view areas E1 and E2. The maximum image size that can display an image in the blind spot area C1 and in the first and second safe view areas E1 and E2, which satisfies the condition that the image does not extend over both the upper and lower ends of the view areas E1 and E2. To decide.
  • the adjustment image is gradually enlarged and the image area G1 is sequentially extracted from the captured image.
  • the image display area determination unit 15 performs the HUD1 based on the image area G1 thus extracted. Determine the size of the image to be displayed. In this example, by enlarging the adjustment image, the enlargement of the adjustment image is stopped when the image region G1 straddles both the upper end and the lower end of the first safe view region E1 or the second safe view region E2.
  • the image display area determination unit 15 determines the size of the adjustment image set before the image area G1 straddles both the upper end and the lower end of the first safe view area E1 or the second safe view area E2 by the HUD1. It is determined as the size of the image to be displayed.
  • the blind spot area and the safety view area are used to the maximum while properly complying with the restrictions (in other words, the standards of the Road Traffic Act) defined by the safety view area.
  • the optimal image display position and size can be determined. Therefore, by displaying the image determined in this manner, it is possible to improve the visibility of the image while appropriately securing the driver's field of view from the viewpoint of safety.
  • step S ⁇ b> 101 the image region extraction unit 12, the blind spot region extraction unit 13, and the safe visual field region extraction unit 14 obtain a photographed image generated by photographing with the camera 11. Then, the process proceeds to step S102.
  • step S102 the blind spot area extraction unit 13 extracts a blind spot area C1 in the captured image.
  • the blind spot area extraction unit 13 acquires information on the exterior color and the interior color of the vehicle, and extracts a portion having the exterior color and the interior color in the captured image as the blind spot area C1. Then, the process proceeds to step S103.
  • step S103 the safe view area extraction unit 14 extracts the first safe view area E1 in the captured image.
  • the safety view area extraction unit 14 is based on the road traffic law standard (see FIG. 4A), information indicating the characteristics of the vehicle, and information indicating the set position of the camera 11. By performing a predetermined calculation, a first safe field of view area E1 in the captured image is obtained. Then, the process proceeds to step S104.
  • step S104 the safe view area extraction unit 14 extracts a second safe view area E2 in the captured image.
  • the safety view area extraction unit 14 is based on the road traffic standard (see FIG. 4B), information indicating the characteristics of the vehicle, and information indicating the set position of the camera 11.
  • a second safe visual field region E2 in the captured image is obtained. Then, the process proceeds to step S105.
  • step S105 the image control unit 17 and the light source 19 display an adjustment image based on an instruction from the light source control unit 16.
  • the image control unit 17 and the light source 19 display the adjustment image in a predetermined color (for example, a bonnet color or a complementary color of the dashboard color). Then, the process proceeds to step S106.
  • step S106 the image region extraction unit 12 extracts an image region G1 in the captured image.
  • the image region extraction unit 12 extracts a portion having a predetermined color in the captured image as the image region G1. Then, the process proceeds to step S107.
  • step S107 the image display area determination unit 15 performs the first safety visual field area E1 or the first safety visual field area E1 based on the image area G1, the blind spot area C1, the first and second safety visual field areas E1, E2 extracted as described above. 2. It is determined whether or not the image area G1 straddles both the upper end and the lower end of the safety view area E2.
  • step S107 the process proceeds to step S108.
  • step S108 the light source control unit 16 performs control so that the size of the image is enlarged. Specifically, the light source control unit 16 supplies a control signal S16b to the light source drive driver 18 in order to move the light source 19 by the drive motor 20 so that the size of the image is enlarged. Then, the process returns to step S106.
  • the image region extraction unit 12 extracts the image region G1 again (step S106), and the image display region determination unit 15 determines that the image region G1 is the upper end of the first safe view region E1 or the second safe view region E2. It is determined again whether it straddles both lower ends (step S107).
  • the size of the image is enlarged until the image area G1 straddles both the upper end and the lower end of the first safe view area E1 or the second safe view area E2. It will be.
  • step S109 the light source control unit 16 performs control so that the size of the image is reduced. Specifically, the light source controller 16 returns the image area G1 to the size of the image set before straddling both the upper end and the lower end of the first safe view area E1 or the second safe view area E2. Take control. In this case, the light source control unit 16 supplies a control signal S16b to the light source drive driver 18 in order to move the light source 19 by the drive motor 20 so that the size of the image is reduced. Then, the process ends.
  • the size can be determined.
  • Modification 1 In the first modification, when it is difficult to extract an image region corresponding to the adjustment image from the photographed image, the color and luminance of the adjustment image are changed. Specifically, in Modification 1, when the image region extraction unit 12 cannot accurately extract the image region, the light source control unit 16 changes the image control unit so that the color and brightness of the adjustment image are changed. 17 is controlled. Thereby, the precision which extracts an image area
  • Modification 2 In the above example, the display position and the size of the image are changed by moving the position of the light source 19. However, in the second modification, the position of the light source 19 is fixed and predetermined image processing (image processing is performed). The display position and size of the image are changed by a process for adjusting the elevation angle. According to the second modification, it is not necessary to use the light source drive driver 18 and the drive motors 20 and 21 that move the light source 19.
  • Modification 3 In the above, the embodiment in which the display position and the size of the image are changed is shown. However, in the third modification, only one of the display position and the size of the image is changed. Specifically, in the third modification, as in the above-described embodiment, either one of the display position and the size of the image is changed based on the extracted image area, blind spot area, and safety view area.
  • Modification 4 In the above, the embodiment in which the display position and the size of the image are changed based on both the blind spot area and the safe view area has been shown. However, in the fourth modification, the image is based on only one of the blind spot area and the safe view area. The display position and size of are changed. For example, when only the blind spot area is used, the size of the image can be set to match the vertical length of the blind spot area. That is, an image can be displayed over the entire blind spot area.
  • Modification 5 In the fifth modification, the present invention is applied to a configuration in which the windshield itself functions as a display. As described above, when the windshield itself functions as a display screen, the position of the blind spot area and the safety view area on the windshield can be easily specified only by the position information of the camera 11. Further, according to the fifth modification, it is not necessary to use the light source driver 18 and the drive motors 20 and 21 that move the light source 19.
  • Modification 6 In the sixth modification, the present invention is applied to a portable terminal device (such as a smartphone) having a call function.
  • a portable terminal device such as a smartphone
  • the components camera 11, image region extraction unit 12, blind spot region extraction unit 13, safety view region extraction unit 14, image display region determination unit 15 and light source control unit 16
  • the portable terminal device By providing the portable terminal device with the same function, it is possible to realize the same control as in the above-described embodiment.
  • the HUD 1 is installed on the dashboard of the vehicle.
  • the HUD 1 can be installed at various positions in the vehicle other than the dashboard.
  • the present invention can be used for an image display device such as a head-up display.
  • HUD Head-up display
  • SYMBOLS 11
  • Camera Image area extraction part 13
  • Blind spot area extraction part 14
  • Safety visual field area extraction part 15
  • Image display area determination part 16
  • Light source control part 17
  • Image control part 18
  • Light source drive driver 19
  • Light source 20 21 Drive motor

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)

Abstract

 ヘッドアップディスプレイは、虚像を表示させるために表示手段に光を投射する光源と、所定の位置から表示手段を介して観察する際に安全性の面での視界確保及び虚像の視認性確保が実現されるような虚像の表示位置及び/又は大きさを決定するための表示手段上の所定領域を認識する認識手段と、認識手段が認識した所定領域に基づいて、虚像の表示位置及び/又は大きさを変化させる制御を行う制御手段と、を備える。これにより、安全性の面からのユーザの視界を適切に確保しつつ、画像の視認性を向上させることが可能となる。

Description

ヘッドアップディスプレイ、ヘッドアップディスプレイの画像表示方法及び画像表示プログラム
 本発明は、ヘッドアップディスプレイなどの画像表示装置に関する。
 近年、車両などに搭載され、ユーザの目の位置(アイポイント)から虚像として画像を視認させるヘッドアップディスプレイが提案されている(例えば特許文献1参照)。
特開平10-133571号公報
 ところで、ヘッドアップディスプレイ(以下、適宜「HUD」と表記する。)の視認性向上といった観点より、ユーザの好みの大きさや位置により画像を表示させることが望ましい。一方で、安全性の観点より、運転者の視界を確保するように(例えば道路交通法の規定で定められた視界を妨げないように)、HUDによって画像を表示させる必要があると言える。
 本発明が解決しようとする課題は上記のようなものが例として挙げられる。本発明は、安全性の面からのユーザの視界を確保しつつ、画像の視認性を向上させることが可能なヘッドアップディスプレイ、ヘッドアップディスプレイの画像表示方法及び画像表示プログラムを提供することを課題とする。
 請求項1に記載の発明では、ヘッドアップディスプレイは、虚像を表示させるために表示手段に光を投射する光源と、所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識手段と、前記認識手段が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御手段と、を備える。
 請求項14に記載の発明では、虚像を表示させるために表示手段に光を投射する光源を有するヘッドアップディスプレイにより実行される画像表示方法は、所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識工程と、前記認識工程が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御工程と、を備える。
 請求項15に記載の発明では、コンピュータを有すると共に、虚像を表示させるために表示手段に光を投射する光源を有するヘッドアップディスプレイにより実行される画像表示プログラムは、前記コンピュータを、所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識手段、前記認識手段が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御手段、として機能させる。
 請求項17に記載の発明では、ヘッドアップディスプレイは、虚像を表示させるために表示手段に光を投射する光源と、移動体の運転者の視点に相当する所定の位置から、前記表示手段を通して前記移動体の外部を観察した際に、前記移動体の一部によって前記運転者の視界が遮られている前記表示手段上の領域を死角領域として認識する認識手段と、前記運転者が前記死角領域を通して前記移動体の外部を観察した際に、前記虚像が認識されるように、前記虚像の表示位置又は大きさを変化させる制御を行う制御手段と、を備える。
 請求項18に記載の発明では、ヘッドアップディスプレイの画像表示方法は、虚像を表示させるために光源から表示手段に光を投射する投射工程と、移動体の運転者の視点に相当する所定の位置から、前記表示手段を通して前記移動体の外部を観察した際に、前記移動体の一部によって前記運転者の視界が遮られている前記表示手段上の領域を死角領域として認識する認識工程と、前記運転者が前記死角領域を通して前記移動体の外部を観察した際に、前記虚像が認識されるように、前記虚像の表示位置又は大きさを変化させる制御を行う制御工程と、を備える。
 請求項19に記載の発明では、画像表示装置は、虚像を表示させるために表示手段に光を投射する光源と、所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識手段と、前記認識手段が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御手段と、を備える。
本実施例に係るヘッドアップディスプレイ(HUD)の全体構成を示す。 本実施例に係る制御方法の基本概念を説明するための図を示す。 死角領域抽出部が抽出した死角領域の一例を示す。 安全視界領域を規定する道路交通法の基準を説明するための図を示す。 安全視界領域抽出部が抽出した第1及び第2安全視界領域の一例を示す。 安全視界領域によって規定される制限を説明するための図を示す。 画像表示領域決定方法を具体的に説明するための図を示す。 本実施例に係る処理フローを示す。
 本発明の1つの観点では、ヘッドアップディスプレイは、虚像を表示させるために表示手段に光を投射する光源と、所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識手段と、前記認識手段が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御手段と、を備える。
 上記のヘッドアップディスプレイは、虚像を表示させるために表示手段に光を投射する光源を有するヘッドアップディスプレイなどに適用される。認識手段は、所定の位置から表示手段を介して観察する際に安全性の面での視界確保及び虚像の視認性確保が実現されるような虚像の表示位置及び/又は大きさを決定するための表示手段上の所定領域を認識する。制御手段は、認識手段が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う。こうすることで、安全性の面からのユーザの視界を適切に確保しつつ、画像の視認性を向上させることが可能となる。
 上記のヘッドアップディスプレイの一態様では、前記認識手段は、前記所定の位置から前記表示手段を介して観察する際に死角が形成されている前記表示手段上の領域である死角領域を、前記所定領域として認識する。こうしているのは、死角領域に画像を表示した場合、安全性の面からの視界を適切に確保することができるからである。
 上記のヘッドアップディスプレイにおいて好適には、前記制御手段は、前記虚像が前記所定の位置から前記死角領域内を介して観察可能な位置に表示されるように、前記表示位置及び/又は前記大きさを変化させることができる。好ましくは、前記死角領域内に収まるように、前記虚像を表示させる。
 また好適には、移動体に搭載するための取り付け手段を有し、前記死角領域は、前記所定の位置から前記表示手段を介して前記移動体の外部を観察する際に、前記移動体の一部によって前記観察が遮られる前記表示手段上の領域である。
 また好適には、前記認識手段は、前記表示手段に対する観察位置の反対側を、前記光源から投射される光の投射方向に向かって観察した場合の前記死角領域を認識する。
 上記のヘッドアップディスプレイの他の一態様では、前記認識手段は、前記所定の位置から前記表示手段を介して観察する際に安全性の面から視界を確保すべき前記表示手段上の領域である安全視界領域を、前記所定領域として認識し、前記制御手段は、前記虚像が前記安全視界領域の上端及び下端の両方に跨らないように、前記表示位置及び/又は前記大きさを変化させる。
 このような安全視界領域を認識して画像を表示させることで、安全性の面からの視界を適切に確保することができる。また、安全視界領域によって規定される制限を満たすような範囲で、画像の表示位置及び/又は大きさを変えることができるので(例えば画像をある程度大きく表示させることができる)、画像の視認性を向上させることが可能となる。
 また上記のヘッドアップディスプレイにおいて好適には、前記認識手段は、前記ヘッドアップディスプレイが搭載された移動体の運転者の目線の位置から前記移動体の外部を撮影した場合の撮影画像をカメラより取得し、前記撮影画像に基づいて前記所定領域を認識する。
 好適には、前記認識手段は、前記運転者の目線の位置から前記表示手段を介して前記移動体の外部を観察した際に、前記移動体の一部によって前記死角が形成される前記表示手段上の領域を、前記所定領域と認識する。
 好適には、前記認識手段は、前記移動体の特性を示す情報及び前記撮影画像に基づいて、前記所定領域を認識する。例えば、移動体の外装色や内装色や全長や全幅や全高などを、移動体の特性を示す情報として用いることができる。
 また好適には、前記制御手段が前記制御を行う際に、所定の虚像を表示させる表示制御手段を更に備え、前記認識手段は、前記撮影画像から、前記所定領域の部分及び前記所定の虚像の部分を抽出し、前記制御手段は、前記認識手段が抽出した前記所定領域の部分と前記所定の虚像の部分との相対的な位置関係に基づいて、前記表示位置及び/又は前記大きさを変化させる制御を行う。これにより、上記した所定領域を適切に利用した最適な表示位置及び/又は大きさを決定することができる。
 また好適には、前記表示制御手段は、前記移動体の外装色及び内装色に応じた色及び/又は輝度によって、前記所定の虚像を表示させることができる。これにより、所定の虚像を精度良く抽出することができる。
 好適な例では、前記死角領域は、前記所定の位置から前記ヘッドアップディスプレイが搭載された移動体の外部を観察する際に、前記外部の観察が妨げられている領域である。また、前記死角領域は、前記移動体のボディの一部によって、前記外部の観察が妨げられている領域である。
 本発明の他の観点では、虚像を表示させるために表示手段に光を投射する光源を有するヘッドアップディスプレイにより実行される画像表示方法は、所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識工程と、前記認識工程が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御工程と、を備える。
 本発明の更に他の観点では、コンピュータを有すると共に、虚像を表示させるために表示手段に光を投射する光源を有するヘッドアップディスプレイにより実行される画像表示プログラムは、前記コンピュータを、所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識手段、前記認識手段が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御手段、として機能させる。
 上記のヘッドアップディスプレイの画像表示方法及び画像表示プログラムによっても、安全性の面からのユーザの視界を適切に確保しつつ、画像の視認性を向上させることが可能となる。
 なお、上記画像表示プログラムは、記録媒体に記録した状態で好適に取り扱うことができる。
 本発明の更に他の観点では、ヘッドアップディスプレイは、虚像を表示させるために表示手段に光を投射する光源と、移動体の運転者の視点に相当する所定の位置から、前記表示手段を通して前記移動体の外部を観察した際に、前記移動体の一部によって前記運転者の視界が遮られている前記表示手段上の領域を死角領域として認識する認識手段と、前記運転者が前記死角領域を通して前記移動体の外部を観察した際に、前記虚像が認識されるように、前記虚像の表示位置又は大きさを変化させる制御を行う制御手段と、を備える。
 本発明の更に他の観点では、ヘッドアップディスプレイの画像表示方法は、虚像を表示させるために光源から表示手段に光を投射する投射工程と、移動体の運転者の視点に相当する所定の位置から、前記表示手段を通して前記移動体の外部を観察した際に、前記移動体の一部によって前記運転者の視界が遮られている前記表示手段上の領域を死角領域として認識する認識工程と、前記運転者が前記死角領域を通して前記移動体の外部を観察した際に、前記虚像が認識されるように、前記虚像の表示位置又は大きさを変化させる制御を行う制御工程と、を備える。
 本発明の更に他の観点では、画像表示装置は、虚像を表示させるために表示手段に光を投射する光源と、所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識手段と、前記認識手段が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御手段と、を備える。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [装置構成]
 図1は、本実施例に係るヘッドアップディスプレイ(HUD)1の概略構成を示すブロック図である。
 HUD1は、主に、カメラ11と、画像領域抽出部12と、死角領域抽出部13と、安全視界領域抽出部14と、画像表示領域決定部15と、光源制御部16と、画像制御部17と、光源駆動ドライバ18と、光源19と、駆動モータ20、21と、を有する。
 HUD1は、車両などの移動体に、図示しない取り付け手段によって搭載され、フロントガラスに向かって光源19から光を投射することで、ユーザの目の位置(アイポイント)から虚像として画像を視認させる装置である。なお、本明細書では、虚像として形成する画像について、「画像」の文言を用いるものとする。
 カメラ11は、運転者の目の位置に対応する場所に設けられ、運転者の目線の位置から車両の外部を撮影する。カメラ11は、撮影画像に対応する画像信号S11を、画像領域抽出部12、死角領域抽出部13及び安全視界領域抽出部14に供給する。
 画像領域抽出部12は、カメラ11から供給された画像信号S11に基づいて、撮影画像において、HUD1によって表示された所定の画像に対応する部分(以下、「画像領域」と呼ぶ。)を抽出する。この所定の画像は、HUD1によって表示させる画像の表示位置及び大きさを調整するために用いられる画像であり、以下では「調整用画像」と呼ぶ。調整用画像は予め定められた所定の色(例えばボンネットの色やダッシュボードの色の補色など)で表示され、画像領域抽出部12は、撮影画像において、そのような所定の色で表示された領域を画像領域として抽出する。そして、画像領域抽出部12は、抽出した画像領域を指し示す信号S12を、画像表示領域決定部15に供給する。
 死角領域抽出部13は、カメラ11から供給された画像信号S11に基づいて、撮影画像において、HUD1によって画像を表示させることが可能な領域の中で運転者が車両の外部を観察する際に、搭載される車両の一部によって死角が形成されている領域(つまり死角領域)に対応する部分を抽出する。以下では、運転者が車両の外部を観察する際に死角となる領域、及び撮影画像中の当該領域に対応する部分の両方について、「死角領域」の文言を用いるものとする。死角領域は、運転者がフロントガラスを通して車両の外部を観察する際に、外部の観察が妨げられている領域に対応する。例えば、死角領域は、車体の一部によって、外部の観察が妨げられているフロントガラス上の領域である。
 死角領域抽出部13は、車両の特性を示す情報(例えば、車両の外装色や内装色など)を取得し、当該情報に基づいて、撮影画像の中の死角領域を抽出する。そして、死角領域抽出部13は、抽出した死角領域を指し示す信号S13を、画像表示領域決定部15に供給する。
 安全視界領域抽出部14は、カメラ11から供給された画像信号S11に基づいて、撮影画像において、HUD1によって画像を表示させることが可能な領域の中で運転者が車両の外部を観察する際に安全性の面から視界を確保すべき領域(つまり安全視界領域)に対応する部分を抽出する。以下では、運転者が車両の外部を観察する際に安全性の面から視界を確保すべき領域、及び撮影画像中の当該領域に対応する部分の両方について、「安全視界領域」の文言を用いるものとする。安全視界領域は、運転者がフロントガラスを通して車両の外部を観察する際に、安全性の面から視界を確保すべきフロントガラス上の領域に対応する。このような安全視界領域は、道路交通法の規定により定められる。
 安全視界領域抽出部14は、車両の特性を示す情報(例えば全長や全幅や全高など)及びカメラ11の設定位置を示す情報を取得し、これらの情報に基づいて、撮影画像の中の安全視界領域を抽出する。そして、安全視界領域抽出部14は、抽出した安全視界領域を指し示す信号S14を、画像表示領域決定部15に供給する。
 画像表示領域決定部15は、画像領域抽出部12、死角領域抽出部13及び安全視界領域抽出部14から供給された信号S12、S13、S14に基づいて、HUD1によって画像を表示させる領域を決定する。具体的には、画像表示領域決定部15は、画像領域抽出部12が抽出した画像領域と、死角領域抽出部13及び安全視界領域抽出部14のそれぞれが抽出した死角領域及び安全視界領域との相対的な関係に基づいて、HUD1によって表示させる画像の表示位置及び大きさを決定する。より詳しくは、画像表示領域決定部15は、安全視界領域によって規定される制限を遵守しつつ、死角領域及び安全視界領域を最大限に利用した、最適な画像の表示位置及び大きさを決定する。そして、画像表示領域決定部15は、決定した画像の表示位置及び大きさを指し示す信号S15を、光源制御部16に供給する。
 光源制御部16は、画像表示領域決定部15から供給された信号S15に基づいて、画像制御部17及び光源駆動ドライバ18をそれぞれ制御するための制御信号S16a、S16bを供給する。この場合、光源制御部16は、光源駆動ドライバ18が駆動モータ20、21を制御することで、画像表示領域決定部15が決定した画像の表示位置及び大きさが実現されるような制御信号S16bを、光源駆動ドライバ18に供給する。
 画像制御部17は、外部(テレビやインターネットやナビゲーション装置やDVDプレーヤなど)から供給された画像信号に基づいて、RGBや輝度などに対応する画像信号S17を光源19に供給する。また、画像制御部17は、光源制御部16から供給された制御信号S16aに基づいて、上記した調整用画像を表示させるべく、調整用画像に対する画像信号S17を光源19に供給する。
 光源19は、赤色、緑色、青色のレーザ光源や、レーザ光源から出射されたレーザ光を走査する走査機構などを有し、フロントガラスに向かってレーザ光(以下では、レーザ光のことを単に「光」とも表記する)を投射する。この場合、光源19は、画像制御部17から供給された画像信号S17に対応する画像(虚像)が表示されるように、フロントガラスに向かって光を投射する。なお、光源19として、レーザ光を投射する装置を用いることに限定はされない。
 光源駆動ドライバ18は、光源制御部16から供給された制御信号S16bに基づいて、光源19を矢印A1で示す方向(運転者の前後方向に対応する)及び矢印A2で示す方向(運転者の左右方向に対応する)に移動させるべく、駆動モータ20、21に対して制御信号S18a、S18bを供給する。この場合、光源駆動ドライバ18は、画像表示領域決定部15が決定した画像の表示位置及び大きさが実現されるように、駆動モータ20、21を制御する。
 駆動モータ20、21は、それぞれ、光源駆動ドライバ18から供給された制御信号S18a、S18bに基づいて、矢印A1で示す方向及び矢印A2で示す方向に光源19を移動させる。駆動モータ20は、運転者の前後方向に光源19を移動させることで、表示させる画像の大きさを拡大又は縮小させる。駆動モータ21は、運転者の左右方向に光源19を移動させることで、画像の表示位置を左又は右に移動させる。
 なお、画像領域抽出部12、死角領域抽出部13及び安全視界領域抽出部14は、本発明における「認識手段」の一例に相当し、画像表示領域決定部15及び光源制御部16は、本発明における「制御手段」の一例に相当する。
 [本実施例の基本概念]
 次に、図2を参照して、本実施例に係る制御方法の基本概念について説明する。図2は、車両に搭載されたHUD1を概略的に示している(光源19のみを図示している)。ここでは、光源19を矢印B4で示すように前後方向に移動させた場合に表示される画像を例に挙げる。
 矢印B1は、死角領域内に位置するような画像の一例を示している(当該例では、死角領域を最大限には利用していないものとする)。この場合、死角領域内に画像が位置しているので、安全性の面では問題はないと言える。しかしながら、画像の大きさが比較的小さいため、画像の視認性があまり良くないと言える。一方で、矢印B2は、上記した安全視界領域の上端及び下端の両方を跨ぐように上下方向に延在する画像の一例を示している。この場合には、画像の大きさが比較的大きいため、画像の視認性は良いと言える。しかしながら、安全視界領域が画像によって大きく塞がれているため、安全性の面で問題があると言える。
 以上のことから、本実施例では、HUD1は、安全視界領域によって規定される制限を遵守しつつ、死角領域及び安全視界領域を最大限に利用した最適な画像の表示位置及び大きさを決定して、画像の表示位置及び大きさの調整を自動で行う。例えば、安全視界領域の上端及び下端の両方を画像が跨がないといった条件を満たす、死角領域内及び安全視界領域内において画像を表示できる最大限の大きさを決定する。これにより、例えば矢印B3で示すような画像が表示される。この場合、運転者による車両の先端部の観察を妨げないような表示位置及び大きさにより画像が表示されている。
 [制御方法]
 次に、本実施例に係る制御方法について具体的に説明する。ここで、本実施例に係る制御方法の流れについて簡単に説明する。まず、カメラ11が撮影を行い、死角領域抽出部13が撮影画像の中の死角領域を抽出すると共に、安全視界領域抽出部14が撮影画像の中の安全視界領域を抽出する。そして、画像制御部17及び光源19が調整用画像を表示し、画像領域抽出部12が撮影画像中の画像領域を抽出する。この後、画像表示領域決定部15が、画像領域抽出部12が抽出した画像領域と、死角領域抽出部13及び安全視界領域抽出部14のそれぞれが抽出した死角領域及び安全視界領域との相対的な位置関係に基づいて、HUD1によって表示させる画像の表示位置及び大きさを決定する。
 以下で、死角領域抽出方法、安全視界領域抽出方法及び画像表示領域決定方法について具体的に説明する。
 (死角領域抽出方法)
 図3を参照して、本実施例に係る死角領域抽出方法について具体的に説明する。図3は、死角領域抽出部13が抽出した死角領域の一例を示している。なお、図3は、カメラ11による撮影画像に対応する図である。
 図3に示すように、死角領域C1は、運転者が車両の外部を観察する際に外部の観察が妨げられている領域であり、ダッシュボードやAピラーやボンネットや天井などに対応する領域である。死角領域抽出部13は、車両の特性を示す情報を取得し、当該情報に基づいて、撮影画像の中の死角領域C1を抽出する。例えば、死角領域抽出部13は、車両の外装色及び内装色の情報を取得して、撮影画像の中で外装色及び内装色を有する部分を、死角領域C1として抽出する。
 (安全視界領域抽出方法)
 次に、本実施例に係る安全視界領域抽出方法について具体的に説明する。
 まず、図4を参照して、安全視界領域を規定する道路交通法の基準について説明する。本実施例では、安全視界領域として2つの領域を用いる。以下では、安全視界領域として用いる2つの領域を、それぞれ「第1安全視界領域」及び「第2安全視界領域」と表記する。また、これらを区別しない場合には単に「安全視界領域」と表記する。
 図4(a)は、第1安全視界領域を規定する基準を説明するための図を示す。第1安全視界領域は、車両の前方及び左側を覆うようなハッチング領域D1に配置されたポール(高さ1m、直径0.3m)を運転者が直接視認できること、といった基準により規定される。なお、ハッチング領域D1aは、Aピラーに対応する部分であり、この領域は上記基準の適用から除外される。図4(b)は、第2安全視界領域を規定する基準を説明するための図を示す。第2安全視界領域は、車両の2m前方に位置するハッチング領域D2に配置されたポール(高さ1m、直径0.3m)を運転者が直接視認できること、といった基準により規定される。
 図5は、安全視界領域抽出部14が抽出した第1及び第2安全視界領域の一例を示している。具体的には、図5(a)は第1安全視界領域E1の一例を示し、図5(b)は第2安全視界領域E2の一例を示している。なお、図5は、カメラ11による撮影画像に対応する図である。
 安全視界領域抽出部14は、車両の特性を示す情報及びカメラ11の設定位置を示す情報を取得し、これらの情報に基づいて、撮影画像の中の第1及び第2安全視界領域E1、E2を抽出する。具体的には、安全視界領域抽出部14は、上記した道路交通法の基準(図4参照)と、車両の特性を示す情報及びカメラ11の設定位置を示す情報とに基づいて、所定の演算を行うことで、撮影画像中の第1及び第2安全視界領域E1、E2を求める。例えば、安全視界領域抽出部14は、車両の全長や全幅や全高などを車両の特性を示す情報として用いて、第1及び第2安全視界領域E1、E2を求める。
 なお、上記した道路交通法の基準では、第1及び第2安全視界領域E1、E2の上端及び下端の両方に跨るように上下方向に延在する画像を表示することを禁止しており、第1及び第2安全視界領域E1、E2の中に画像を表示すること自体を禁止しているわけではない。つまり、第1及び第2安全視界領域E1、E2の中に画像が位置していても、第1及び第2安全視界領域E1、E2の上端及び下端の両方に画像が跨らなければ、そのような画像を表示することは許容される。
 図6を参照して具体的に説明する。ここでは、第1安全視界領域E1を代表して説明するが、その内容は第2安全視界領域E2にも同様に適用されるものとする。図6(a)に示すように、第1安全視界領域E1の上端及び下端の両方に跨るように画像Fを表示することは禁止される。一方で、図6(b)に示すように、第1安全視界領域E1の中に画像Fが位置していても、画像Fが第1安全視界領域E1の上端及び下端の両方に跨らなければ、そのような画像Fを表示することは許容される。また、図6(c)及び図6(d)に示すように、第1安全視界領域E1の上端及び下端の一方にのみ跨るような画像Fを表示することも許容される。
 (画像表示領域決定方法)
 次に、図7を参照して、本実施例に係る画像表示領域決定方法について具体的に説明する。なお、図7は、カメラ11による撮影画像に対応する図を示している。
 図7(a)は、死角領域抽出部13が抽出した死角領域C1を示している。死角領域C1は、図3に示したものと同様である。図7(b)は、死角領域C1に対して、安全視界領域抽出部14が抽出した第1安全視界領域E1を重ね合わせた図を示している。第1安全視界領域E1は、図5(a)に示したものと同様である。図7(c)は、死角領域C1及び第1安全視界領域E1に対して、安全視界領域抽出部14が抽出した第2安全視界領域E2を重ね合わせた図を示している。第2安全視界領域E2は、図5(b)に示したものと同様である。
 このようにして死角領域C1、第1及び第2安全視界領域E1、E2が抽出された後、画像制御部17及び光源19が調整用画像を表示し、カメラ11が撮影を再度行う。そして、画像領域抽出部12が、撮影画像の中の調整用画像に対応する画像領域を抽出する。具体的には、調整用画像は予め定められた所定の色(例えばボンネットの色やダッシュボードの色の補色など)で表示され、画像領域抽出部12は、撮影画像において、そのような所定の色で表示された領域を画像領域として抽出する。図7(d)は、死角領域C1、第1及び第2安全視界領域E1、E2に対して、画像領域抽出部12が抽出した画像領域G1を重ね合わせた図を示している。
 画像表示領域決定部15は、このようにして抽出された画像領域G1、死角領域C1、第1及び第2安全視界領域E1、E2に基づいて、HUD1によって表示させる画像の表示位置及び大きさを決定する。具体的には、画像表示領域決定部15は、画像領域G1と、死角領域C1、第1及び第2安全視界領域E1、E2との相対的な位置関係に基づいて、第1及び第2安全視界領域E1、E2の上端及び下端の両方に画像が跨らないといった条件を満たす、死角領域C1内、第1及び第2安全視界領域E1、E2内において画像を表示できる最大限の画像の大きさを決定する。
 1つの例では、調整用画像を徐々に拡大すると共に、撮影画像から画像領域G1を順次抽出して、画像表示領域決定部15は、そのように抽出された画像領域G1に基づいて、HUD1によって表示させる画像の大きさを決定する。この例では、調整用画像を拡大することで、画像領域G1が第1安全視界領域E1又は第2安全視界領域E2の上端及び下端の両方を跨いだ際に、調整用画像の拡大を中止し、画像表示領域決定部15は、画像領域G1が第1安全視界領域E1又は第2安全視界領域E2の上端及び下端の両方を跨ぐ前に設定していた調整用画像の大きさを、HUD1によって表示させる画像の大きさとして決定する。
 (本実施例による作用効果)
 以上説明した本実施例に係る制御方法によれば、安全視界領域によって規定される制限(言い換えると道路交通法の基準)を適切に遵守しつつ、死角領域及び安全視界領域を最大限に利用した、最適な画像の表示位置及び大きさを決定することができる。よって、このように決定された画像を表示することにより、安全性の面からの運転者の視界を適切に確保しつつ、画像の視認性を向上させることが可能となる。
 [処理フロー]
 次に、図8を参照して、本実施例に係る処理フローについて説明する。
 まず、ステップS101では、画像領域抽出部12、死角領域抽出部13及び安全視界領域抽出部14が、カメラ11による撮影によって生成された撮影画像を取得する。そして、処理はステップS102に進む。
 ステップS102では、死角領域抽出部13が、撮影画像の中の死角領域C1を抽出する。例えば、死角領域抽出部13は、車両の外装色及び内装色の情報を取得して、撮影画像の中で外装色及び内装色を有する部分を、死角領域C1として抽出する。そして、処理はステップS103に進む。
 ステップS103では、安全視界領域抽出部14が、撮影画像の中の第1安全視界領域E1を抽出する。具体的には、安全視界領域抽出部14は、上記した道路交通法の基準(図4(a)参照)と、車両の特性を示す情報及びカメラ11の設定位置を示す情報とに基づいて、所定の演算を行うことで、撮影画像中の第1安全視界領域E1を求める。そして、処理はステップS104に進む。
 ステップS104では、安全視界領域抽出部14が、撮影画像の中の第2安全視界領域E2を抽出する。具体的には、安全視界領域抽出部14は、上記した道路交通法の基準(図4(b)参照)と、車両の特性を示す情報及びカメラ11の設定位置を示す情報とに基づいて、所定の演算を行うことで、撮影画像中の第2安全視界領域E2を求める。そして、処理はステップS105に進む。
 ステップS105では、画像制御部17及び光源19が、光源制御部16からの指示の元、調整用画像を表示する。例えば、画像制御部17及び光源19は、予め定められた所定の色(例えばボンネットの色やダッシュボードの色の補色など)にて調整用画像を表示する。そして、処理はステップS106に進む。
 ステップS106では、画像領域抽出部12が、撮影画像の中の画像領域G1を抽出する。例えば、画像領域抽出部12は、撮影画像の中で所定の色を有する部分を、画像領域G1として抽出する。そして、処理はステップS107に進む。
 ステップS107では、画像表示領域決定部15が、上記のように抽出された画像領域G1、死角領域C1、第1及び第2安全視界領域E1、E2に基づいて、第1安全視界領域E1又は第2安全視界領域E2の上端及び下端の両方を画像領域G1が跨いでいるか否かを判定する。
 第1安全視界領域E1及び第2安全視界領域E2の上端及び下端の両方を画像領域G1が跨いでいない場合(ステップS107;No)、処理はステップS108に進む。ステップS108では、光源制御部16が、画像の大きさが拡大されるように制御を行う。具体的には、光源制御部16は、画像の大きさが拡大されるように駆動モータ20によって光源19を移動させるべく、光源駆動ドライバ18に対して制御信号S16bを供給する。そして、処理はステップS106に戻る。
 この後、画像領域抽出部12が画像領域G1を再度抽出し(ステップS106)、画像表示領域決定部15が、当該画像領域G1が第1安全視界領域E1又は第2安全視界領域E2の上端及び下端の両方を跨いでいるか否かを再度判定する(ステップS107)。このようなステップS106~S108の処理を繰り返し行うことで、画像領域G1が第1安全視界領域E1又は第2安全視界領域E2の上端及び下端の両方を跨ぐまで、画像の大きさが拡大されることとなる。
 一方、第1安全視界領域E1又は第2安全視界領域E2の上端及び下端の両方を画像領域G1が跨いでいる場合(ステップS107;Yes)、処理はステップS109に進む。ステップS109では、光源制御部16が、画像の大きさが縮小されるように制御を行う。具体的には、光源制御部16は、画像領域G1が第1安全視界領域E1又は第2安全視界領域E2の上端及び下端の両方を跨ぐ前に設定されていた画像の大きさに戻るように制御を行う。この場合、光源制御部16は、画像の大きさが縮小されるように駆動モータ20によって光源19を移動させるべく、光源駆動ドライバ18に対して制御信号S16bを供給する。そして、処理は終了する。
 以上説明した処理フローによれば、安全視界領域によって規定される制限(言い換えると道路交通法の基準)を適切に遵守しつつ、死角領域及び安全視界領域を最大限に利用した、最適な画像の大きさを決定することができる。
 [変形例]
 次に、上記した実施例の変形例について説明する。なお、以下で示す変形例は適宜組み合わせて実施することができる。
 (変形例1)
 変形例1は、撮影画像から調整用画像に対応する画像領域を抽出することが困難である場合に、調整用画像の色や輝度を変化させるものである。具体的には、変形例1では、画像領域抽出部12が画像領域を精度良く抽出できなかった場合に、光源制御部16が、調整用画像の色や輝度が変化されるように画像制御部17に対して制御を行う。これにより、画像領域を抽出する精度を向上させることができる。
 (変形例2)
 上記では、光源19の位置を移動させることで画像の表示位置及び大きさを変化させる実施例を示したが、変形例2では、光源19の位置を固定して、所定の画像処理(画像の仰角を調整する処理など)によって、画像の表示位置及び大きさを変化させる。変形例2によれば、光源19を移動させる光源駆動ドライバ18及び駆動モータ20、21を用いる必要がなくなる。
 (変形例3)
 上記では、画像の表示位置及び大きさを変化させる実施例を示したが、変形例3では、画像の表示位置及び大きさのいずれか一方のみを変化させる。具体的には、変形例3では、上記した実施例と同様に、抽出された画像領域、死角領域及び安全視界領域に基づいて、画像の表示位置及び大きさのいずれか一方を変化させる。
 (変形例4)
 上記では、死角領域及び安全視界領域の両方に基づいて画像の表示位置及び大きさを変化させる実施例を示したが、変形例4では、死角領域及び安全視界領域の一方のみに基づいて、画像の表示位置及び大きさを変化させる。例えば、死角領域のみを用いる場合には、死角領域の上下方向の長さに一致するように画像の大きさを設定することができる。つまり、死角領域いっぱいに画像を表示させることができる。
 (変形例5)
 変形例5は、本発明を、フロントガラス自体がディスプレイとして機能する構成に適用するものである。このようにフロントガラス自体が表示画面として機能する場合、カメラ11の位置情報だけで、フロントガラス上における死角領域及び安全視界領域の位置を容易に特定することができる。また、変形例5によれば、光源19を移動させる光源駆動ドライバ18及び駆動モータ20、21を用いる必要がなくなる。
 (変形例6)
 変形例6は、本発明を、通話機能を有する携帯型端末装置(スマートフォンなど)に適用するものである。この場合、図1中の破線領域50に示す構成要素(カメラ11、画像領域抽出部12、死角領域抽出部13、安全視界領域抽出部14、画像表示領域決定部15及び光源制御部16)と同様の機能を携帯型端末装置に具備させることで、上記した実施例と同様の制御を実現することができる。
 (変形例7)
 上記では、車両のダッシュボード上にHUD1を設置する実施例を示したが、ダッシュボード以外にも車両内の種々の位置にHUD1を設置することができる。
 (変形例8)
 上記では、フロントガラスに向かって光を直接投射することで虚像を表示させる構成を示したが、本発明は、コンバイナなどに光を投射することで虚像を表示させる構成にも適用することができる。
 以上に述べたように、実施例は、上述した実施例に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨あるいは思想に反しない範囲で適宜変更可能である。
 本発明は、ヘッドアップディスプレイなどの画像表示装置に利用することができる。
 1 ヘッドアップディスプレイ(HUD)
 11 カメラ
 12 画像領域抽出部
 13 死角領域抽出部
 14 安全視界領域抽出部
 15 画像表示領域決定部
 16 光源制御部
 17 画像制御部
 18 光源駆動ドライバ
 19 光源
 20、21 駆動モータ

Claims (19)

  1.  虚像を表示させるために表示手段に光を投射する光源と、
     所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識手段と、
     前記認識手段が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御手段と、を備えることを特徴とするヘッドアップディスプレイ。
  2.  前記認識手段は、前記所定の位置から前記表示手段を介して観察する際に死角が形成されている前記表示手段上の領域である死角領域を、前記所定領域として認識することを特徴とする請求項1に記載のヘッドアップディスプレイ。
  3.  前記制御手段は、前記虚像が前記所定の位置から前記死角領域内を介して観察可能な位置に表示されるように、前記表示位置及び/又は前記大きさを変化させることを特徴とする請求項2に記載のヘッドアップディスプレイ。
  4.  前記死角領域内に収まるように、前記虚像を表示させることを特徴とする請求項3に記載のヘッドアップディスプレイ。
  5.  移動体に搭載するための取り付け手段を有し、
     前記死角領域は、前記所定の位置から前記表示手段を介して前記移動体の外部を観察する際に、前記移動体の一部によって前記観察が遮られる前記表示手段上の領域であることを特徴とする請求項2乃至4のいずれか一項に記載のヘッドアップディスプレイ。
  6.  前記認識手段は、前記表示手段に対する観察位置の反対側を、前記光源から投射される光の投射方向に向かって観察した場合の前記死角領域を認識することを特徴とする請求項5に記載のヘッドアップディスプレイ。
  7.  前記認識手段は、前記所定の位置から前記表示手段を介して観察する際に安全性の面から視界を確保すべき前記表示手段上の領域である安全視界領域を、前記所定領域として認識し、
     前記制御手段は、前記虚像が前記安全視界領域の上端及び下端の両方に跨らないように、前記表示位置及び/又は前記大きさを変化させることを特徴とする請求項1乃至6のいずれか一項に記載のヘッドアップディスプレイ。
  8.  前記認識手段は、前記ヘッドアップディスプレイが搭載された移動体の運転者の目線の位置から前記移動体の外部を撮影した場合の撮影画像をカメラより取得し、前記撮影画像に基づいて前記所定領域を認識することを特徴とする請求項1乃至7のいずれか一項に記載のヘッドアップディスプレイ。
  9.  前記認識手段は、前記運転者の目線の位置から前記表示手段を介して前記移動体の外部を観察した際に、前記移動体の一部によって前記死角が形成される前記表示手段上の領域を、前記所定領域と認識することを特徴とする請求項8に記載のヘッドアップディスプレイ。
  10.  前記認識手段は、前記移動体の特性を示す情報及び前記撮影画像に基づいて、前記所定領域を認識することを特徴とする請求項8又は9に記載のヘッドアップディスプレイ。
  11.  前記制御手段が前記制御を行う際に、所定の虚像を表示させる表示制御手段を更に備え、
     前記認識手段は、前記撮影画像から、前記所定領域の部分及び前記所定の虚像の部分を抽出し、
     前記制御手段は、前記認識手段が抽出した前記所定領域の部分と前記所定の虚像の部分との相対的な位置関係に基づいて、前記表示位置及び/又は前記大きさを変化させる制御を行うことを特徴とする請求項8乃至10のいずれか一項に記載のヘッドアップディスプレイ。
  12.  前記表示制御手段は、前記移動体の外装色及び内装色に応じた色及び/又は輝度によって、前記所定の虚像を表示させることを特徴とする請求項11に記載のヘッドアップディスプレイ。
  13.  前記死角領域は、前記所定の位置から前記ヘッドアップディスプレイが搭載された移動体の外部を観察する際に、前記外部の観察が妨げられている領域であることを特徴とする請求項2に記載のヘッドアップディスプレイ。
  14.  虚像を表示させるために表示手段に光を投射する光源を有するヘッドアップディスプレイにより実行される画像表示方法であって、
     所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識工程と、
     前記認識工程が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御工程と、を備えることを特徴とするヘッドアップディスプレイの画像表示方法。
  15.  コンピュータを有すると共に、虚像を表示させるために表示手段に光を投射する光源を有するヘッドアップディスプレイにより実行される画像表示プログラムであって、
     前記コンピュータを、
     所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識手段、
     前記認識手段が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御手段、として機能させることを特徴とするヘッドアップディスプレイの画像表示プログラム。
  16.  請求項15に記載の画像表示プログラムを記録したことを特徴とする記録媒体。
  17.  虚像を表示させるために表示手段に光を投射する光源と、
     移動体の運転者の視点に相当する所定の位置から、前記表示手段を通して前記移動体の外部を観察した際に、前記移動体の一部によって前記運転者の視界が遮られている前記表示手段上の領域を死角領域として認識する認識手段と、
     前記運転者が前記死角領域を通して前記移動体の外部を観察した際に、前記虚像が認識されるように、前記虚像の表示位置又は大きさを変化させる制御を行う制御手段と、
     を備えることを特徴とするヘッドアップディスプレイ。
  18.  虚像を表示させるために光源から表示手段に光を投射する投射工程と、
     移動体の運転者の視点に相当する所定の位置から、前記表示手段を通して前記移動体の外部を観察した際に、前記移動体の一部によって前記運転者の視界が遮られている前記表示手段上の領域を死角領域として認識する認識工程と、
     前記運転者が前記死角領域を通して前記移動体の外部を観察した際に、前記虚像が認識されるように、前記虚像の表示位置又は大きさを変化させる制御を行う制御工程と、
     を備えることを特徴とするヘッドアップディスプレイの画像表示方法。
  19.  虚像を表示させるために表示手段に光を投射する光源と、
     所定の位置から前記表示手段を介して観察する際に安全性の面での視界確保及び前記虚像の視認性確保が実現されるような前記虚像の表示位置及び/又は大きさを決定するための前記表示手段上の所定領域を認識する認識手段と、
     前記認識手段が認識した前記所定領域に基づいて、前記虚像の表示位置及び/又は大きさを変化させる制御を行う制御手段と、を備えることを特徴とする画像表示装置。
PCT/JP2011/062612 2011-06-01 2011-06-01 ヘッドアップディスプレイ、ヘッドアップディスプレイの画像表示方法及び画像表示プログラム WO2012164704A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/062612 WO2012164704A1 (ja) 2011-06-01 2011-06-01 ヘッドアップディスプレイ、ヘッドアップディスプレイの画像表示方法及び画像表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/062612 WO2012164704A1 (ja) 2011-06-01 2011-06-01 ヘッドアップディスプレイ、ヘッドアップディスプレイの画像表示方法及び画像表示プログラム

Publications (1)

Publication Number Publication Date
WO2012164704A1 true WO2012164704A1 (ja) 2012-12-06

Family

ID=47258589

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/062612 WO2012164704A1 (ja) 2011-06-01 2011-06-01 ヘッドアップディスプレイ、ヘッドアップディスプレイの画像表示方法及び画像表示プログラム

Country Status (1)

Country Link
WO (1) WO2012164704A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015027852A (ja) * 2013-07-30 2015-02-12 トヨタ自動車株式会社 運転支援装置
WO2015137361A1 (ja) * 2014-03-10 2015-09-17 矢崎総業株式会社 車両用発光表示装置及び車両用表示システム
JPWO2017043107A1 (ja) * 2015-09-10 2017-12-14 富士フイルム株式会社 投写型表示装置及び投写制御方法
JPWO2017043108A1 (ja) * 2015-09-10 2018-02-08 富士フイルム株式会社 投写型表示装置及び投写制御方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003291688A (ja) * 2002-04-03 2003-10-15 Denso Corp 表示方法、運転支援装置、プログラム
JP2005059660A (ja) * 2003-08-08 2005-03-10 Nissan Motor Co Ltd 車両用表示装置
JP2008280026A (ja) * 2007-04-11 2008-11-20 Denso Corp 運転支援装置
JP2009184554A (ja) * 2008-02-07 2009-08-20 Denso Corp 安全走行支援システム
JP2010188811A (ja) * 2009-02-17 2010-09-02 Honda Motor Co Ltd 車両用情報提示装置
JP2011002660A (ja) * 2009-06-18 2011-01-06 Honda Motor Co Ltd 車両用画像表示装置
JP2011081547A (ja) * 2009-10-06 2011-04-21 Toyota Motor Corp 車両用注意喚起装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003291688A (ja) * 2002-04-03 2003-10-15 Denso Corp 表示方法、運転支援装置、プログラム
JP2005059660A (ja) * 2003-08-08 2005-03-10 Nissan Motor Co Ltd 車両用表示装置
JP2008280026A (ja) * 2007-04-11 2008-11-20 Denso Corp 運転支援装置
JP2009184554A (ja) * 2008-02-07 2009-08-20 Denso Corp 安全走行支援システム
JP2010188811A (ja) * 2009-02-17 2010-09-02 Honda Motor Co Ltd 車両用情報提示装置
JP2011002660A (ja) * 2009-06-18 2011-01-06 Honda Motor Co Ltd 車両用画像表示装置
JP2011081547A (ja) * 2009-10-06 2011-04-21 Toyota Motor Corp 車両用注意喚起装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015027852A (ja) * 2013-07-30 2015-02-12 トヨタ自動車株式会社 運転支援装置
CN105209299A (zh) * 2013-07-30 2015-12-30 丰田自动车株式会社 驾驶辅助装置
WO2015137361A1 (ja) * 2014-03-10 2015-09-17 矢崎総業株式会社 車両用発光表示装置及び車両用表示システム
US9892643B2 (en) 2014-03-10 2018-02-13 Yazaki Corporation Vehicle light emitting display device and vehicle display system
JPWO2017043107A1 (ja) * 2015-09-10 2017-12-14 富士フイルム株式会社 投写型表示装置及び投写制御方法
JPWO2017043108A1 (ja) * 2015-09-10 2018-02-08 富士フイルム株式会社 投写型表示装置及び投写制御方法
US10450728B2 (en) 2015-09-10 2019-10-22 Fujifilm Corporation Projection type display device and projection control method

Similar Documents

Publication Publication Date Title
US10754154B2 (en) Display device and moving body having display device
KR101544524B1 (ko) 차량용 증강현실 디스플레이 시스템 및 차량용 증강현실 디스플레이 방법
CN111169382B (zh) 驾驶辅助装置、驾驶辅助***、驾驶辅助方法以及程序
JP6413207B2 (ja) 車両用表示装置
JP6877842B2 (ja) 車載表示システム
JP2009269551A (ja) 車両用表示装置
US20160125631A1 (en) Apparatus for dynamically controlling hud (head-up display) information display position
JP2009150947A (ja) 車両用ヘッドアップディスプレイ装置
JP2011213186A (ja) 電子サイドミラー装置
JP2010058742A (ja) 車両用運転支援装置
JP2008044603A (ja) 車両用防眩装置
JP6804805B2 (ja) ヘッドアップディスプレイ装置
JP2006248374A (ja) 車両安全確認装置及びヘッドアップディスプレイ
JP2003104145A (ja) 運転支援表示装置
WO2012164704A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイの画像表示方法及び画像表示プログラム
JP2010143411A (ja) ヘッドアップディスプレイ装置
WO2019058492A1 (ja) 表示システム及び表示方法
JP2016101771A (ja) 車両用ヘッドアップディスプレイ装置
JPWO2018221039A1 (ja) ぶれ補正装置及び撮像装置
JP2018121287A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6213300B2 (ja) 車両用表示装置
JPWO2019026747A1 (ja) 車両用拡張現実画像表示装置
KR20140130802A (ko) 헤드 업 디스플레이 시스템
JP2022084266A (ja) 表示制御装置、表示装置、及び画像の表示制御方法
JP6653184B2 (ja) 車両用表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11866527

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11866527

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP