WO2020241134A1 - 表示システム - Google Patents

表示システム Download PDF

Info

Publication number
WO2020241134A1
WO2020241134A1 PCT/JP2020/017558 JP2020017558W WO2020241134A1 WO 2020241134 A1 WO2020241134 A1 WO 2020241134A1 JP 2020017558 W JP2020017558 W JP 2020017558W WO 2020241134 A1 WO2020241134 A1 WO 2020241134A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
amount
change
vehicle
posture
Prior art date
Application number
PCT/JP2020/017558
Other languages
English (en)
French (fr)
Inventor
智司 松井
範一 勝山
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2021522714A priority Critical patent/JP7450230B2/ja
Priority to EP20814675.3A priority patent/EP3978316A4/en
Publication of WO2020241134A1 publication Critical patent/WO2020241134A1/ja
Priority to US17/529,696 priority patent/US11945309B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/11Passenger cars; Automobiles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/301Sensors for position or displacement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/92Driver displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present disclosure relates to a display system that controls the display position of an image according to the movement of a moving body.
  • Patent Document 1 discloses a vehicle information projection system that performs augmented reality (AR) display using a head-up display (HUD) device.
  • the HUD device projects a light representing a virtual image onto the windshield of the vehicle so that a viewer who is a occupant of the vehicle can see the virtual image together with the actual view of the outside world of the vehicle.
  • a virtual image representing a vehicle guidance route is displayed in association with a display target (for example, a road) in the actual scene.
  • a display target for example, a road
  • the vehicle information projection system of Patent Document 1 includes a vehicle speed sensor and corrects a virtual image display position according to acceleration. As a result, it is possible to prevent the virtual image from being displaced during sudden deceleration and sudden acceleration of the vehicle.
  • the present disclosure provides a display system that reduces discomfort or discomfort given to the viewer when correcting the display position of an image.
  • the display system of the present disclosure includes a display processing device that controls the display of an image, a posture detection device that detects the amount of change in posture of a moving body, and a correction that sets a correction amount of a display position of an image based on the amount of change in posture.
  • the display processing device includes a processing device and a display determination unit that determines whether or not to display an image, and the display processing device controls the display of the image based on the determination result and the correction amount of the display determination unit.
  • the display system of the present disclosure it is possible to reduce discomfort or discomfort given to the viewer when correcting the display position of the image.
  • a diagram for explaining a head-up display Block diagram showing the internal configuration of the display system according to the first embodiment
  • AR augmented reality
  • the figure which shows the display example of the virtual image after correction The figure which shows the example which the misalignment of a corrected virtual image occurs.
  • FIG. 1 Flowchart showing display processing and correction processing in the first embodiment Circular circuit on which the vehicle runs The figure which shows the relationship between the posture change amount, the fluctuation amount of the posture change amount per unit time, and the display judgment result.
  • Block diagram showing the internal configuration of the display system according to the second embodiment A flowchart showing a correction process and a display process in the second embodiment.
  • the correction range that can be supported by vibration correction is limited by hardware restrictions such as the display angle of view, or the detection range of the sensor.
  • a virtual image is displayed at an unintended position, which causes a problem that the viewer feels uncomfortable or uncomfortable.
  • the moving body is in a curve and the virtual image superimposing destination cannot be visually recognized, the viewer may also feel uncomfortable or uncomfortable.
  • the display system of the present disclosure includes a display processing device, a posture detection device, a correction processing device, and a display determination unit for determining whether or not to display a virtual image, and the display processing device is based on the display determination result of the display determination unit. Controls the display of virtual images. With such a configuration, it is possible to reduce the discomfort or discomfort given to the viewer when correcting the display position of the virtual image.
  • the moving body is a vehicle such as an automobile and the display system is a head-up display (HUD) system that displays a virtual image as an image in front of the windshield of the vehicle will be described as an example.
  • HUD head-up display
  • FIG. 1 is a diagram for explaining a HUD system.
  • the roll axis of the vehicle 200 is the X axis
  • the pitch axis of the vehicle 200 is the Y axis
  • the yaw axis of the vehicle 200 is the Z axis. That is, the X-axis is an axis orthogonal to the Y-axis and the Z-axis and along the line-of-sight direction of the occupant D who visually recognizes the virtual image Iv.
  • the Y-axis is an axis along the left-right direction when viewed from the occupant D who visually recognizes the virtual image Iv.
  • the Z-axis is an axis along the height direction of the vehicle 200.
  • the display system 100 of the present embodiment is a HUD system that performs so-called augmented reality (AR) display by superimposing a virtual image Iv on the actual view in front of the windshield 210 of the vehicle 200.
  • the virtual image Iv indicates predetermined information.
  • the virtual image Iv is a figure and a character indicating a route for guiding to a destination, an estimated time of arrival at the destination, a traveling direction, a speed, various warnings, and the like.
  • the display system 100 is installed in the vehicle 200 and projects the display light Lc representing the virtual image Iv into the display area 220 of the windshield 210 of the vehicle 200.
  • the display area 220 is a part of the windshield 210.
  • the display area 220 may be the entire area of the windshield 210.
  • the indicator light Lc is reflected in the vehicle interior direction by the windshield 210. As a result, the occupant (viewer) D in the vehicle 200 visually recognizes the reflected display light Lc as a virtual image Iv in front of the vehicle
  • the display system 100 includes a projection device 10, an information acquisition device 20, a display processing device 30, a posture detection device 40, and a correction processing device 50.
  • the projection device 10 projects the display light Lc representing the virtual image Iv into the display area 220.
  • the projection device 10 includes, for example, a liquid crystal display element for displaying an image of a virtual image Iv, a light source such as an LED for illuminating the liquid crystal display element, a mirror and a lens for reflecting the display light Lc of the image displayed by the liquid crystal display element on the display area 220. And so on.
  • the projection device 10 is installed, for example, in the dashboard of the vehicle 200.
  • the information acquisition device 20 acquires information on the position of the vehicle 200 and the outside of the vehicle. Specifically, the information acquisition device 20 measures the position of the vehicle 200 and generates position information indicating the position. The information acquisition device 20 further acquires information outside the vehicle indicating the object and the distance to the object. Objects are people, signs, roads, and so on. The information acquisition device 20 outputs vehicle-related information including at least one of the position information and the outside information of the vehicle 200.
  • the information acquisition device 20 is not an essential configuration and may not be included in the display system 100.
  • the display processing device 30 controls the display of the virtual image Iv based on the vehicle-related information obtained from the information acquisition device 20, and outputs the image data of the virtual image Iv to the projection device 10.
  • the display processing device 30 may control the display of the virtual image Iv based on the display timing (display time) of the virtual image Iv or the combination of the vehicle-related information and the display timing.
  • the display timing is, for example, repeating display for 10 seconds and non-display for 1 second.
  • the posture detection device 40 detects the posture change of the vehicle 200.
  • the attitude detection device 40 includes, for example, a gyro sensor 41 that detects an angular velocity.
  • the gyro sensor 41 outputs the detected angular velocity to the correction processing device 50 as posture change information of the vehicle 200.
  • the gyro sensor 41 may detect the pitch angle or yaw angle of the vehicle 200 instead of the angular velocity.
  • the correction processing device 50 calculates the correction amount of the display position of the virtual image Iv based on the posture change information of the vehicle 200 output from the posture detection device 40.
  • FIG. 2 is a block diagram showing the internal configuration of the display system 100.
  • the information acquisition device 20 includes a GPS (Global Positioning System) module 21 that detects a position indicating the current location of the vehicle 200 in the geographic coordinate system. Specifically, the GPS module 21 receives radio waves from GPS satellites and positions the latitude and longitude of the received points. The GPS module 21 generates position information indicating the measured latitude and longitude.
  • the information acquisition device 20 may further include a camera that captures an outside scene and generates imaging data. The information acquisition device 20 identifies an object from the captured data by image processing, for example, and measures the distance to the object. The information acquisition device 20 generates information indicating the object and the distance to the object as outside information. The information acquisition device 20 outputs vehicle-related information including position information and outside vehicle information to the display processing device 30. The imaging data generated by the camera may be output to the display processing device 30.
  • GPS Global Positioning System
  • the display processing device 30 includes a communication unit 31, a display control unit 32, and a storage unit 33.
  • the communication unit 31 is a predetermined communication standard (for example, LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), USB, HDMI (registered trademark), CAN (controller area network), SPI (Serial Peripheral Interface)). Includes a circuit that communicates with external devices in accordance with.
  • LAN local area network
  • Wi-Fi registered trademark
  • Bluetooth registered trademark
  • USB USB
  • HDMI registered trademark
  • CAN controller area network
  • SPI Serial Peripheral Interface
  • the display control unit 32 can be realized by a semiconductor element or the like.
  • the display control unit 32 can be composed of, for example, a microcomputer, a CPU, an MPU, a GPU, a DSP, an FPGA, and an ASIC.
  • the function of the display control unit 32 may be configured only by hardware, or may be realized by combining hardware and software.
  • the display control unit 32 realizes a predetermined function by reading data or a program stored in the storage unit 33 and performing various arithmetic processes.
  • the storage unit 33 is a storage medium that stores programs and data necessary for realizing the functions of the display processing device 30.
  • the storage unit 33 can be realized by, for example, a hard disk (HDD), SSD, RAM, DRAM, ferroelectric memory, flash memory, magnetic disk, or a combination thereof.
  • a plurality of image data 33i representing a virtual image Iv are stored in the storage unit 33.
  • the display control unit 32 determines the virtual image Iv to be displayed based on the vehicle-related information obtained from the information acquisition device 20.
  • the display control unit 32 reads the image data 33i of the determined virtual image Iv from the storage unit 33 and outputs it to the projection device 10. Further, the display control unit 32 sets the display position of the virtual image Iv.
  • the correction processing device 50 includes a communication unit 51, a correction control unit 52, and a storage unit 53.
  • the communication unit 51 conforms to a predetermined communication standard (for example, LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), USB, HDMI (registered trademark), CAN (controller area network), SPI (Serial Peripheral Interface)). Includes circuits that comply with and communicate with external devices.
  • a predetermined communication standard for example, LAN, Wi-Fi (registered trademark), Bluetooth (registered trademark), USB, HDMI (registered trademark), CAN (controller area network), SPI (Serial Peripheral Interface)). Includes circuits that comply with and communicate with external devices.
  • the correction control unit 52 is an arithmetic unit that can be realized by a semiconductor element or the like.
  • the correction control unit 52 can be composed of, for example, a microcomputer, a CPU, an MPU, a GPU, a DSP, an FPGA, and an ASIC.
  • the function of the display control unit 32 may be configured only by hardware, or may be realized by combining hardware and software.
  • the correction control unit 52 realizes a predetermined function by reading data and a program stored in the storage unit 53 in the correction processing device 50 and performing various arithmetic processes.
  • the correction control unit 52 includes a deviation amount calculation unit 52a, a correction amount calculation unit 52b, and a display determination unit 52c as functional configurations.
  • the deviation amount calculation unit 52a calculates the attitude (angle deviation amount) of the vehicle 200 based on the attitude change information output by the attitude detection device 40. For example, the deviation amount calculation unit 52a calculates the angle (pitch angle) around the pitch axis of the vehicle 200 by integrating the angular velocity detected by the gyro sensor 41. Thereby, the deviation amount (angle) of the vehicle 200 in the rotation direction about the Y axis (pitch axis) shown in FIG. 1 can be calculated. In this embodiment, the pitch angle and the yaw angle are calculated, but the roll angle may be calculated. Further, for example, all the angles around the X-axis, the Y-axis, and the Z-axis may be calculated. When the attitude detection device 40 outputs the angle information, the deviation amount calculation unit 52a may use the angle information output from the attitude detection device 40 as the angle deviation amount.
  • the correction amount calculation unit 52b calculates the correction amount of the display position of the virtual image Iv according to the posture (angle deviation amount) of the vehicle 200. Specifically, the correction amount calculation unit 52b converts the deviation amount of the angle (pitch angle) calculated by the deviation amount calculation unit 52a into the number of pixels, and the number of pixels for the deviation (hereinafter, “the number of deviation pixels”). ”) Is determined so as to restore the original amount. For example, the deviation amount calculation unit 52a determines a correction amount that restores the deviation amount of the yaw angle. The correction amount calculation unit 52b outputs the calculated correction amount to the display processing device 30.
  • the correction amount around the pitch axis is calculated, but the correction amount around the yaw axis and the roll axis may be further calculated.
  • the correction amount is determined so as to restore the deviation amount of the roll angle while keeping the angle.
  • the display determination unit 52c compares the magnitude relationship between the absolute value of the output of the posture detection device 40 or the output of the posture detection device 40 (hereinafter referred to as the fluctuation amount X) and the threshold value a, and a virtual image. Determine whether to display Iv.
  • the calculation processing of the output of the posture detection device 40 may be performed by the deviation amount calculation unit 52a or the display determination unit 52c of the posture detection device 40 or the correction processing device 50, or another configuration.
  • the fluctuation amount X is, for example, the fluctuation amount of the angle obtained by integrating the angular velocity detected by the gyro sensor 41 over a certain period of time.
  • the angle (yaw angle) around the yaw axis of the vehicle 200 is calculated by integrating the angular velocity detected by the gyro sensor 41.
  • the yaw angle of the vehicle 200 is the amount of change in posture. Based on the amount of change in posture, the amount of fluctuation X of the vehicle 200 in the rotation direction about the Z axis (yaw axis) shown in FIG. 1 can be calculated.
  • the fluctuation amount of the yaw angle in a predetermined unit time is calculated as the fluctuation amount X.
  • the fluctuation amount X is not limited to the fluctuation amount of the yaw angle in a predetermined unit time.
  • the amount of change in posture of the vehicle 200 may be used as the amount of change X as it is.
  • the fluctuation amount X the posture change amount which is the yaw angle of the vehicle 200 may be used as it is.
  • the display determination unit 52c outputs, for example, Boolean type binarized data as the display determination result.
  • the display determination unit 52c outputs TRUE when the absolute value of the fluctuation amount X is less than the threshold value a, and outputs FALSE when the absolute value of the fluctuation amount X is equal to or more than the threshold value a. That is, the display determination unit 52c determines that the display is ON if the absolute value of the fluctuation amount X is less than the threshold value a, determines that the display is OFF if the absolute value of the fluctuation amount X is greater than or equal to the threshold value a, and outputs the result. To do.
  • the display determination unit 52c does not limit the data to the Boolean type, but may be an integer type. Moreover, you may output with other data types.
  • the storage unit 53 is a storage medium that stores programs and data necessary for realizing the functions of the correction control unit 52. Therefore, for example, a program and data necessary for making an arithmetic unit such as a processor function as a display determination unit 52c are also stored in the storage unit 53.
  • the storage unit 53 can be realized by, for example, a hard disk (HDD), SSD, RAM, DRAM, ferroelectric memory, flash memory, magnetic disk, or a combination thereof.
  • the correction processing device 50 outputs the correction amount and the display determination result to the display processing device 30.
  • FIG. 3A shows an example when the vehicle 200 is not tilted.
  • FIG. 3B shows an example of an actual view seen from the windshield 210 of the vehicle 200 shown in FIG. 3A.
  • FIG. 3C shows an example of the virtual image Iv seen from the display area 220.
  • FIG. 3D shows an example in which the virtual image Iv shown in FIG. 3C is superposed on the actual scene shown in FIG. 3B.
  • the display system 100 superimposes the virtual image Iv shown in FIG. 3C on the actual scene shown in FIG. 3B.
  • the reference position (initial position) P0 of the virtual image Iv is a position determined based on the type of the virtual image Iv, the state (position and posture) of the vehicle 200, the map data, and the like, and the reference position P0 is determined by an external device. It is determined. For example, when the display target 230 is a traveling lane and the virtual image Iv is an arrow indicating the traveling direction, the reference position P0 is the display position on the liquid crystal when the tip of the arrow points to the center of the traveling lane.
  • the reference position P0 is set, for example, in FIG. 3C at the position of the pixel on the liquid crystal display corresponding to the values of the Y coordinate and the Z coordinate in the display area 220.
  • the reference position P0 is acquired from an external device.
  • the external device can be composed of, for example, a microcomputer, a CPU, an MPU, a GPU, a DSP, an FPGA, or an ASIC, and a GPS module 21.
  • the function of the external device may be configured only by hardware, or may be realized by combining hardware and software. Since the reference position P0 output from the external device may change based on the number of occupants, the fluctuation of the load, and the fluctuation of the posture due to the decrease of gasoline, for example, the reference position (initial position) acquired first May be different.
  • the display processing device 30 may change the reference position P0 acquired from the external device based on the change in posture due to the number of occupants, the change in load, the decrease in gasoline, and the like.
  • the display processing device 30 may set the reference position P0 based on vehicle-related information, map data, and the like.
  • the display processing device 30 may set the size of the virtual image Iv based on the vehicle-related information.
  • FIG. 4A shows an example of a state in which the vehicle 200 is in a backward leaning posture.
  • FIG. 4B illustrates a case where the display position of the virtual image Iv deviates from the display target 230 according to the posture change of the vehicle 200.
  • FIG. 4C shows the display position of the corrected virtual image Iv.
  • the vehicle 200 may tilt due to unevenness of the road surface, sudden acceleration or deceleration of the vehicle 200, or the like. For example, when the vehicle 200 rides on the convex portion 303 of the road surface 301, the vehicle 200 is in a backward leaning posture as shown in FIG. 4A. In this case, as shown in FIG. 4B, the position of the display target 230 seen from the windshield 210 changes according to the inclination ⁇ 1 of the vehicle 200 with respect to the runway. Therefore, when the virtual image Iv is displayed at the reference position P0, the virtual image Iv deviates from the display target 230.
  • the display system 100 adjusts the display position of the virtual image Iv in the direction of returning the deviation according to the posture of the vehicle 200.
  • the correction amount C is calculated so that the correction processing device 50 is at the position P1 where the display position does not shift due to the angle of the vehicle 200. That is, the display processing device 30 sets the display position of the virtual image Iv to "reference position P0 + correction amount C". As a result, the projection device 10 can display the virtual image Iv at the position P1 corresponding to the display target 230. In this way, even when the vehicle 200 is tilted, by changing the display position of the virtual image Iv from the reference position P0 based on the correction amount C, the virtual image Iv is moved to the position P1 corresponding to the display target 230 in the actual scene. Can be displayed.
  • FIG. 5 is a diagram illustrating a case where the display position of the virtual image Iv is corrected according to the posture change of the vehicle 200 and the display target 230 deviates from the display target 230.
  • the display position of the virtual image Iv is set to "reference position P0 + correction amount C".
  • the virtual image Iv cannot be corrected to the correct position by the "reference position P0 + correction amount C" calculated from the posture change of the vehicle 200.
  • the virtual image Iv is generated by unnecessary correction processing. It will be displayed at the position P1 shifted downward from the display target 230.
  • the superposition destination cannot be visually recognized, and therefore, displaying the virtual image Iv gives the viewer a sense of discomfort or discomfort.
  • the display determination unit 52c determines whether or not to display the virtual image Iv based on the fluctuation amount X of the posture change amount of the vehicle 200, and the display determination unit 52c.
  • the display processing device 30 controls the display of the virtual image Iv based on the determination result of. Specifically, the display determination unit 52c determines that the virtual image Iv is not displayed, that is, the display is OFF when the absolute value of the fluctuation amount X is equal to or greater than the threshold value a. Further, the display determination unit 52c displays the virtual image Iv when the absolute value of the fluctuation amount X is less than the threshold value a, that is, determines that the display is ON. As a result, when the virtual image Iv is displayed at an unintended position, for example, when climbing a slope or when making a curve, the virtual image Iv is not displayed.
  • FIG. 6 shows the display processing performed by the display control unit 32 of the display processing device 30 and the correction processing performed by the correction control unit 52 of the correction processing device 50.
  • the display process shown in FIG. 6 is started, for example, when the engine of the vehicle 200 is started, or when a button for instructing the display start of the virtual image Iv is operated.
  • the display control unit 32 acquires vehicle-related information from the information acquisition device 20 (S101).
  • the display control unit 32 determines the virtual image Iv to be displayed based on the vehicle-related information (S102).
  • the display control unit 32 acquires the reference position P0 of the virtual image Iv from an external device (S103).
  • the display control unit 32 acquires the correction amount C of the display position output from the correction processing device 50 and the display determination result (S104).
  • the display control unit 32 determines whether or not to display the virtual image Iv based on the display determination result (S105).
  • the display determination result is display ON, that is, when the virtual image Iv is displayed (YES in S105)
  • the display control unit 32 causes the projection device 10 to display the virtual image Iv based on the reference position P0 and the correction amount C (S106).
  • the display control unit 32 reads the image data 33i of the virtual image Iv corresponding to the display target from the storage unit 33, sets the display position of the virtual image Iv to "reference position P0 + correction amount C", and outputs the image data to the projection device 10. To do.
  • the display determination result is OFF, that is, when the virtual image Iv is not displayed (NO in S105)
  • the display control unit 32 hides the virtual image Iv (S107).
  • the display control unit 32 determines whether or not to continue the display process (S108). For example, when the engine of the vehicle 200 is stopped, or when the button for instructing the end of the display of the virtual image Iv is operated, the display control unit 32 ends the display process. If the display process is to be continued, the process returns to step S101.
  • the correction processing shown in FIG. 6 is started, for example, when the engine of the vehicle 200 is started, or when a button for instructing the start of displaying the virtual image Iv is operated.
  • the correction process is started together with the display process, for example.
  • the correction process may be started when the button for instructing the start of the position correction of the virtual image Iv is operated.
  • the deviation amount calculation unit 52a acquires attitude change information indicating the angular velocity output from the gyro sensor 41 (S201).
  • the deviation amount calculation unit 52a calculates the fluctuation amount X in the unit time of the deviation amount, which is the angle in the pitch direction of the vehicle 200, and the attitude change amount in the yaw direction, based on the acquired attitude change information (S202). Specifically, the deviation amount calculation unit 52a calculates the fluctuation amount of the yaw angle of the vehicle 200 in a predetermined unit time and the pitch angle by integrating the angular velocity.
  • the correction amount calculation unit 52b calculates the correction amount C of the display position of the virtual image Iv based on the deviation amount with respect to the pitch direction (S203). Specifically, the correction amount calculation unit 52b converts the deviation amount of the vehicle 200 in the pitch direction into the number of pixels, and determines the correction amount C that cancels the deviation amount indicated by the number of pixels.
  • the display determination unit 52c acquires the fluctuation amount X (S204).
  • the fluctuation amount X is a change amount of the deviation amount in the yaw direction in a predetermined time.
  • the posture change amount (deviation amount in the yaw direction) may be acquired as the fluctuation amount X.
  • the fluctuation amount X means the posture change amount or the fluctuation amount of the posture change amount in a predetermined unit time. Then, the display determination unit 52c compares the absolute value of the fluctuation amount X with the threshold value a (S205).
  • the display determination unit 52c sets the display determination result to display OFF (S206).
  • the display determination unit 52c sets the display determination result to display ON (S207).
  • the display determination unit 52c outputs the correction amount C and the display determination result to the display processing device 30 (S208).
  • the correction control unit 52 determines whether or not to continue the correction process (S209). For example, when the engine of the vehicle 200 is stopped, or when the button for instructing the end of the display of the virtual image Iv is operated, the correction control unit 52 ends the correction process. If the correction process is to be continued, the process returns to step S201.
  • FIG. 7A is a diagram showing a peripheral circuit in which the vehicle 200 of the present embodiment travels.
  • FIG. 7B is a diagram showing the relationship between the amount of change in posture while the vehicle 200 is traveling on the circuit of FIG. 7A, the amount of change in the amount of change in posture for each unit time, and the display determination result. is there.
  • FIG. 7B (a) is a graph showing the change in yaw angle (posture change amount) detected by the gyro sensor 41.
  • FIG. 7B (b) is a graph showing the amount of change in the yaw angle every 2 seconds.
  • FIG. 7B (c) is a diagram showing a display determination result.
  • the posture change amount indicates the yaw angle of the vehicle 200
  • the posture change amount fluctuation amount represents the fluctuation amount of the yaw angle in a predetermined unit time.
  • the predetermined unit time is set to 2 seconds.
  • the display determination result is turned off and the virtual image Iv is not displayed.
  • the absolute value of the yaw angle fluctuation amount becomes the threshold value a or more, and the display determination result is turned off.
  • the yaw angle of the vehicle 200 is almost constant as shown in FIG. 7B (a), and 2 seconds as shown in FIG. 7B (b).
  • the absolute value of the yaw angle fluctuation amount for each is less than the threshold value a. Therefore, as shown in FIG. 7B (c), the display determination result is turned on and the virtual image Iv is displayed.
  • the magnitude of the yaw angle during traveling is detected by the gyro sensor 41.
  • the traveling direction of the vehicle 200 changes and the yaw angle changes significantly.
  • the fluctuation amount X of the yaw angle is calculated for each predetermined unit time T1.
  • the display determination unit 52c determines that the virtual image Iv is not displayed, and sets the display determination result to display OFF. As shown in FIG. 7B, after about 33 seconds have passed since the vehicle started traveling, the absolute value of the yaw angle fluctuation amount X becomes equal to or greater than the threshold value a because the vehicle 200 has entered the curve CR1, and the display determination result is set to OFF. .. Based on this display determination result, the display control unit 32 controls not to display the virtual image Iv.
  • the vehicle 200 passes through the curve CR1 and starts to go straight, so that the absolute value of the yaw angle fluctuation amount X becomes less than the threshold value a, and the display determination result is set to ON. Based on this display determination result, the display control unit 32 controls to display the virtual image Iv. The same applies to the other curves CR2 to CR4.
  • the display system 100 of the present disclosure includes a display processing device 30 that controls the display of the virtual image Iv, a posture detection device 40 that detects the fluctuation amount of the posture change amount of the vehicle 200, and the virtual image Iv based on the fluctuation amount.
  • the correction processing device 50 for setting the correction amount of the display position of the above, and the display determination unit 52c for determining whether or not to display the virtual image Iv are provided.
  • the display processing device 30 controls the display of the virtual image Iv based on the determination result of the display determination unit 52c and the correction amount C.
  • the display determination unit 52c By determining whether or not the display determination unit 52c displays the virtual image Iv based on the fluctuation amount X of the posture change amount in a unit time, for example, the virtual image Iv is not displayed while the curve is being turned. Can be controlled. When the virtual image Iv is displayed at an unintended position, it is possible to reduce the discomfort or discomfort given to the viewer by controlling the virtual image Iv not to be displayed.
  • the display system 100 of the present embodiment further includes a projection device 10 that projects light representing a virtual image Iv.
  • the moving body is a vehicle
  • the image is a virtual image displayed in front of the windshield of the vehicle. According to the present embodiment, it is possible to prevent the virtual image from being displayed at an unintended position due to a change in the posture of the vehicle.
  • the posture change direction is either the pitch direction or the roll direction of the vehicle. There may be. Alternatively, a plurality of these directions may be combined.
  • the display determination unit determines whether or not to display the virtual image Iv based on the fluctuation amount X of the posture change detected by the gyro sensor. Specifically, the display determination unit determines that the virtual image Iv is not displayed when the absolute value of the fluctuation amount X is equal to or greater than the threshold value a, and when the absolute value of the fluctuation amount X is less than the threshold value a, the virtual image It is determined that Iv is displayed.
  • the gradient change detection unit is provided, and it is determined whether or not to display the virtual image Iv based on the detection of the gradient change by the gradient change detection unit.
  • FIG. 8 is a block diagram showing an internal configuration of the display system 100A according to the second embodiment.
  • the display system 100A in the second embodiment has a configuration in which a gradient change detection unit 52d is added to the correction control unit 52 of the correction processing device 50 in the first embodiment.
  • FIG. 9 shows the display process and the correction process in the second embodiment.
  • the display process of the second embodiment is the same as the display process of the first embodiment.
  • steps S301 to S303 and steps S308 to S309 of the correction process are the same as steps S201 to S203 and steps S208 to S209 of the correction process of the first embodiment.
  • FIG. 10 shows an inclined track on which the vehicle 200 of the present embodiment travels, a change in the pitch angle (posture change amount) of the vehicle 200, a predetermined amount of change in the pitch angle for each time, and a flag during the gradient change. It is a figure which shows the relationship with the gradient change completion flag.
  • FIG. 10A shows an example of a slope on which the vehicle 200 climbs a slope.
  • FIG. 10B is a graph showing the change in the pitch angle detected by the gyro sensor 41.
  • FIG. 10C is a graph showing the amount of fluctuation of the pitch angle every 0.5 seconds.
  • FIG. 10D is a diagram showing ON / OFF of the gradient changing flag and ON / OFF of the gradient change completion flag.
  • the deviation amount calculation unit 52a acquires attitude change information indicating the angular velocity output from the gyro sensor 41 (S301).
  • the deviation amount calculation unit 52a calculates the deviation amount, which is the angle in the pitch direction of the vehicle 200, and the fluctuation amount X in the attitude change amount unit time, based on the acquired attitude change information (S302).
  • the correction amount calculation unit 52b calculates the correction amount C of the display position of the virtual image Iv based on the deviation amount with respect to the pitch direction (S303).
  • the gradient change detection unit 52d determines whether or not the gradient of the track on which the vehicle 200 travels has changed based on the output of the attitude detection device 40.
  • the gradient change detection unit 52d detects a change in the slope of the runway based on the amount of rotational movement centered on the left and right axes with respect to the traveling direction of the vehicle 200, that is, the amount of change in posture in the pitch direction.
  • the detection result of the gradient change detection unit 52d for example, when the vehicle 200 starts climbing a slope, the gradient changing flag ON is set. Further, when the approach of the vehicle 200 to the slope is completed and the posture of the vehicle 200 becomes parallel to the slope of the runway, the gradient change completion flag is set to ON, and the gradient changing flag is set to OFF.
  • the gradient change detection unit 52d sets the gradient changing flag to ON as shown in FIG. 10D. That is, the correction control unit 52 determines that the vehicle 200 has started the posture change due to the change in the slope of the track.
  • the gradient change detection unit 52d compares the absolute value of the fluctuation amount X with the second threshold value b. When the fluctuation amount X is smaller than the second threshold value b, the gradient change detection unit 52d turns on the gradient change completion flag. When the gradient change completion flag is turned ON, the gradient changing graph is turned OFF.
  • the display determination unit 52c acquires these flags as the gradient detection result from the gradient change detection unit 52d (S304). The display determination unit 52c determines whether or not the attitude change due to the gradient change of the vehicle 200 is completed based on the acquired gradient detection result (S305). When the gradient detection result is the gradient changing flag ON, that is, the gradient is changing (YES in S305), the display determination unit 52c sets the display determination result to display OFF (S306). When the gradient detection result is the gradient change completion flag ON, that is, the gradient is not changing (NO in S305), the display determination unit 52c sets the display determination result to display ON (S307).
  • the display determination unit 52c outputs the correction amount C and the display determination result to the display processing device 30 (S308).
  • the correction control unit 52 determines whether or not to continue the correction process (S309). For example, when the engine of the vehicle 200 is stopped, or when the button for instructing the end of the display of the virtual image Iv is operated, the correction control unit 52 ends the correction process. When continuing the correction process, the process returns to step S201.
  • the fluctuation amount X is shown in the graph of FIG. 10 (b). In this case, since it is not possible to determine whether or not the gradient change has been completed, it is advisable to separately provide a fluctuation amount X'of the posture change amount in a unit time.
  • the display determination unit 52c determines whether or not the display determination unit 52c displays the virtual image Iv based on the yaw angle fluctuation amount of the vehicle 200, but in the present embodiment, it is based on the change in the inclination of the vehicle 200 in the pitch direction. , Whether or not to display the virtual image Iv can be determined.
  • the display determination unit 52c displays the virtual image Iv based on the gradient detection result of the gradient change detection unit 52d, for example, the posture of the vehicle 200 when entering or exiting a slope. It can be controlled not to display the virtual image Iv when the change is large. As a result, the virtual image Iv is not displayed in a situation where the gradient difference between the road surface at the vehicle position and the road surface at the superposition destination changes at any time while approaching a slope, or when the superimposition destination cannot be visually recognized, that is, in a situation where the superimposition is lowered. Therefore, it is possible to reduce the discomfort or discomfort given to the viewer and improve the safety.
  • the gyro sensor tilts more accurately with high-speed sampling than the combination of GPS and route information. Changes can be detected. Therefore, by using the gyro sensor as in the present embodiment, it is possible to perform the determination during the approach to the slope at high speed and with high accuracy.
  • the change in slope during approaching a slope is larger than the change in vehicle attitude due to the unevenness of the road surface, so a slight judgment error may result in a large display deviation. Therefore, when high-speed and high-precision determination is performed by the gyro sensor, it is possible to reduce discomfort or discomfort given to the viewer and improve safety.
  • the case where the projection device 10, the information acquisition device 20, the display processing device 30, the posture detection device 40, and the correction processing device 50 are separate devices is illustrated.
  • a plurality of devices may be integrally formed as one device.
  • the display processing device 30 and the correction processing device 50 may be integrally formed as one device.
  • the information acquisition device 20 and the display processing device 30 may be integrally formed as one device.
  • the posture detection device 40 and the correction processing device 50 may be integrally formed as one device.
  • the separately formed devices are communicatively connected to each other by wire or wirelessly.
  • the projection device 10, the information acquisition device 20, the display processing device 30, the posture detection device 40, and the correction processing device 50 may all be formed as one device. In this case, the communication units 31 and 51 may not be provided.
  • the information acquisition device 20 may include a distance sensor that measures the distance and direction from the vehicle 200 to the surrounding object, and may output distance information indicating the measured distance and direction to the display processing device 30. ..
  • the information acquisition device 20 may include a vehicle speed sensor that detects the speed of the vehicle 200, or may include a navigation system.
  • the information acquisition device 20 may include one or more of the GPS module 21, the distance sensor, the camera, and the like. In this case, the GPS module 21, the distance sensor, the camera, and the like having a function as the information acquisition device 20 may be built in one device, or may be individually attached to the vehicle 200.
  • the posture detection device 40 may include an acceleration sensor that detects the acceleration of the vehicle 200, and may output the detected acceleration as posture change information.
  • the posture detection device 40 may include a vehicle height sensor that detects the height from the road surface, and may output the detected height as posture change information.
  • the attitude detection device 40 may include other known sensors.
  • the attitude detection device 40 may include one or more of a gyro sensor 41, an acceleration sensor, a vehicle speed sensor, and the like. In this case, the gyro sensor 41, the acceleration sensor, the vehicle height sensor, and the like having a function as the attitude detection device 40 may be built in one device or may be individually attached to the vehicle 200.
  • the correction processing device 50 has the display determination unit 52c, but the display processing device 30 may have the display determination unit. Further, in the above embodiment, the display determination unit 52c signals the output of the gyro sensor 41 to determine whether or not to display the virtual image Iv. For example, the calculation result of the deviation amount calculation unit 52a is obtained. It may be used to determine whether or not to display the virtual image Iv.
  • the display determination unit 52c determines whether or not to display the virtual image Iv based on the fluctuation amount X of the attitude change amount or the gradient detection result. For example, the angular velocity, the angle, the acceleration, and the steering are determined. The determination may be made using at least one or more pieces of information from the corners. Further, the display determination unit 52c may determine whether or not to display the virtual image Iv by using the image acquired by LiDAR, a camera or the like, altitude information, map data, position information by GPS21, or the like.
  • the display determination unit 52c determines whether or not to display the virtual image Iv using one threshold value, but for example, it differs depending on whether the display is set to ON or the display is OFF.
  • a threshold may be used.
  • the moving body is a vehicle 200 such as an automobile.
  • the moving body is not limited to the vehicle 200.
  • the moving body may be a vehicle traveling on the ground, for example, a train or a motorcycle.
  • the moving body may be an unmanned aerial vehicle capable of traveling by automatic driving.
  • the position where the image is displayed is not limited to the front.
  • the image may be displayed in the lateral direction or behind the moving body.
  • the display systems 100 and 100A may include a liquid crystal display or an organic EL display instead of the projection device 10.
  • Display systems 100, 100A may include a screen and a projector.
  • the display system of the present disclosure has a display processing device that controls the display of an image, a posture detection device that detects a change in posture of a moving body, and a correction amount of a display position of an image based on the change in posture.
  • a correction processing device to be set and a display determination unit for determining whether or not to display an image are provided, and the display processing device controls the display of the image based on the determination result and the correction amount of the display determination unit. ..
  • the virtual image can be displayed without causing discomfort or discomfort to the viewer.
  • the correction processing device may have a display determination unit.
  • the display determination unit has the posture change amount or the absolute value of the fluctuation amount of the posture change amount in a predetermined unit time equal to or more than a predetermined threshold value. At that time, it may be determined that the image is not displayed.
  • the absolute value of the posture change amount or the fluctuation amount of the posture change amount in a predetermined unit time is less than a predetermined threshold value. At that time, it may be determined that the image is displayed.
  • the amount of fluctuation is the yaw direction, pitch direction, roll direction, direction parallel to the roll axis, direction parallel to the pitch axis, or parallel to the yaw axis of the moving body. Any one or more of the above directions may be included.
  • the display determination unit must display an image when the absolute value of the posture change amount or fluctuation amount in at least one of the yaw direction and the pitch direction is equal to or greater than the threshold value. You may judge.
  • the display determination unit determines that an image is displayed when the absolute value of the attitude change amount or fluctuation amount in at least one of the yaw direction and the pitch direction is less than the threshold value. You may.
  • the display determination unit further includes a gradient change detection unit that detects a change in the slope of the track based on the amount of attitude change or fluctuation in the pitch direction. , Whether or not to display the image may be determined based on the detection of the change in the gradient.
  • the attitude detection device may calculate the attitude change amount using at least one or more information of angular velocity, angle, acceleration, or steering angle. ..
  • the slope change detection unit causes the slope change of the runway to cause the moving body.
  • the display determination unit has an image between the time when the attitude change detection unit detects the start of the attitude change and the time when the completion of the attitude change is detected. May be determined not to be displayed.
  • the slope change detection unit causes the slope change of the runway to cause the moving body.
  • the display determination unit detects that the attitude change of the moving body has been completed due to the slope of the runway, and the display determination unit is other than the period from the detection of the start of the attitude change by the gradient change detection unit to the detection of the completion of the attitude change. It may be determined that the image is sometimes displayed.
  • a projection device that projects light representing an image may be further included.
  • the moving body is a vehicle, and the image may be a virtual image displayed in front of the windshield of the vehicle.
  • the display system described in the present disclosure is realized by cooperation with hardware resources such as a processor, a memory, and a program.
  • the present disclosure is applicable to a display system that displays a virtual image in front of the windshield.
  • Projection device 20 Information acquisition device 21 GPS module 30 Display processing device 31 Communication unit 32 Display control unit 33 Storage unit 40 Attitude detection device 41 Gyro sensor 50 Correction processing device 51 Communication unit 52 Correction control unit 52a Misalignment amount calculation unit 52b Correction amount Calculation unit 52c Display judgment unit 52d Gradient change detection unit 100 Display system 200 Vehicle 210 Windshield 220 Display area

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Instrument Panels (AREA)

Abstract

像を表示するか否かを判定する表示判定部を有する表示システムを提供する。表示システムは、像の表示を制御する表示処理装置と、移動体の姿勢変化量を検出する姿勢検出装置と、姿勢変化量に基づいて、像の表示位置の補正量を設定する補正処理装置と、像を表示するか否かを判定する表示判定部と、を備え、表示処理装置は、表示判定部の判定結果と補正量とに基づいて、像の表示を制御する。

Description

表示システム
 本開示は、像の表示位置を移動体の動きに応じて制御する表示システムに関する。
 特許文献1は、ヘッドアップディスプレイ(HUD)装置を用いて、拡張現実(AR)表示を行う車両情報投影システムを開示している。HUD装置は、車両のフロントガラスに虚像を表す光を投影することで、車両の乗員である視認者に、車両の外界の実景とともに虚像を視認させている。例えば、車両の案内経路を表す虚像を実景内の表示対象(例えば、道路)に対応付けて表示する。これにより、乗員は、実景を視認しながら案内経路を確認することができる。特許文献1の車両情報投影システムは、車速センサを備え、加速度に応じて虚像の表示位置を補正している。これにより、車両の急減速および急加速時に虚像の位置ずれが生じることを抑制している。
特開2015-101311号公報
 本開示は、像の表示位置を補正する際に、視認者に与える違和感または不快感を低減する表示システムを提供する。
 本開示の表示システムは、像の表示を制御する表示処理装置と、移動体の姿勢変化量を検出する姿勢検出装置と、姿勢変化量に基づいて、像の表示位置の補正量を設定する補正処理装置と、像を表示するか否かを判定する表示判定部と、を備え、表示処理装置は、表示判定部の判定結果と補正量とに基づいて、像の表示を制御する。
 これらの概括的かつ特定の態様は、システム、方法、およびコンピュータプログラム、ならびに、それらの組み合わせにより実現されてもよい。
 本開示の表示システムによれば、像の表示位置を補正する際に、視認者に与える違和感または不快感を低減することができる。
ヘッドアップディスプレイ(HUD)を説明するための図 第1実施形態における表示システムの内部構成を示すブロック図 車両が傾いていないときの例を示す図 フロントガラスから見える実景の例を示す図 虚像が基準位置に表示される例を示す図 拡張現実(AR)表示の一例を示す図 車両の後傾姿勢を示す図 車両が後傾姿勢のときに虚像の位置ずれが生じる例を説明するための図 補正後の虚像の表示例を示す図 補正された虚像の位置ずれが生じる例を示す図 第1実施形態における表示処理および補正処理を示すフローチャート 車両が走行する周回路 姿勢変化量、単位時間あたりの姿勢変化量の変動量、および表示判定結果の関係を示す図 第2実施形態における表示システムの内部構成を示すブロック図 第2実施形態における補正処理および表示処理を示すフローチャート 傾斜する走路と、ピッチ方向の姿勢変化量と、予め定められた時間ごとのピッチ角の変動量と、勾配変化フラグとの関係を示す図
(本開示の基礎となった知見)
 路面の凹凸や加減速に起因した移動体の姿勢変化によるヘッドアップディスプレイ(HUD)装置の表示ずれを抑制する技術として、ジャイロセンサ等を用いて移動体の姿勢変化の変動量を検出し、変動量に基づいて表示ずれを補正する振動補正が知られている。
 振動補正が対応できる補正範囲は、表示画角等のハードウェア制約、またはセンサの検出範囲等により制限される。移動体の姿勢変化が、振動補正の補正範囲を超える場合には、意図しない位置に虚像が表示され、視認者に違和感、不快感を与えるという問題がある。また、移動体がカーブ中であり、虚像の重畳先が視認できない場合にも、同様に視認者に違和感または不快感を与えることがある。
 また、平坦な道から坂道に繋がるような路面の勾配が変化している区間を移動体が走行中の場合、すなわち、坂道への進入中の場合、移動体の自車位置の路面の勾配と重畳先の路面の勾配との差が変化するため、意図した位置に虚像を表示することができない。このため、視認者に不快感を与え、安全性が低下してしまう。
 本開示の表示システムは、表示処理装置、姿勢検出装置、補正処理装置、および虚像を表示するか否かを判定する表示判定部を有し、表示処理装置は表示判定部の表示判定結果に基づいて虚像の表示を制御する。このような構成により、虚像の表示位置を補正する際に、視認者に与える違和感または不快感を低減することができる。
(第1実施形態)
 以下、第1実施形態について、図面を参照しながら説明する。第1実施形態では、移動体が自動車などの車両であり、表示システムが車両のフロントガラスの前方に像として虚像を表示するヘッドアップディスプレイ(HUD)システムである場合を例にして説明する。
1. 表示システムの構成
 図1は、HUDシステムを説明するための図である。図1において、車両200のロール軸をX軸とし、車両200のピッチ軸をY軸とし、車両200のヨー軸をZ軸としている。すなわち、X軸は、Y軸およびZ軸と直交し、虚像Ivを視認する乗員Dの視線方向に沿った軸である。Y軸は、虚像Ivを視認する乗員Dから見て左右方向に沿った軸である。Z軸は、車両200の高さ方向に沿った軸である。
 本実施形態の表示システム100は、車両200のフロントガラス210の前方の実景に虚像Ivを重畳する、いわゆる、拡張現実(AR)表示を行うHUDシステムである。虚像Ivは、所定の情報を示す。例えば、虚像Ivは、目的地へ案内するための経路、目的地への到達予想時刻、進行方向、速度、種々の警告などを示す図形および文字である。表示システム100は、車両200に設置され、虚像Ivを表す表示光Lcを車両200のフロントガラス210の表示領域220内に投影する。本実施形態において、表示領域220は、フロントガラス210の一部の領域である。なお、表示領域220は、フロントガラス210の全領域であってもよい。表示光Lcは、フロントガラス210によって、車内の方向に反射される。これにより、車両200内の乗員(視認者)Dは、反射された表示光Lcを、車両200の前方にある虚像Ivとして視認する。
 表示システム100は、投影装置10、情報取得装置20、表示処理装置30、姿勢検出装置40、および補正処理装置50を含む。
 投影装置10は、虚像Ivを表す表示光Lcを表示領域220内に投影する。投影装置10は、例えば、虚像Ivの画像を表示する液晶表示素子、液晶表示素子を照明するLEDなどの光源、液晶表示素子が表示する画像の表示光Lcを表示領域220に反射するミラーおよびレンズなどを含む。投影装置10は、例えば、車両200のダッシュボード内に設置される。
 情報取得装置20は、車両200の位置および車外の情報を取得する。具体的には、情報取得装置20は、車両200の位置を測定して位置を示す位置情報を生成する。情報取得装置20は、さらに、対象物、および対象物までの距離などを示す車外情報を取得する。対象物は、人、標識、道路などである。情報取得装置20は、車両200の位置情報および車外情報のうちの少なくとも1つを含む車両関連情報を出力する。なお、情報取得装置20は必須の構成ではなく、表示システム100に含まれていなくてもよい。
 表示処理装置30は、情報取得装置20から得られる車両関連情報などに基づいて、虚像Ivの表示を制御し、虚像Ivの画像データを投影装置10に出力する。表示処理装置30は、虚像Ivの表示タイミング(表示時間)、または車両関連情報と表示タイミングの組み合わせに基づいて、虚像Ivの表示を制御してもよい。表示タイミングは、例えば、10秒間の表示と1秒間の非表示とを繰り返すことである。
 姿勢検出装置40は、車両200の姿勢変化を検出する。本実施形態において、姿勢検出装置40は、例えば、角速度を検出するジャイロセンサ41を含む。ジャイロセンサ41は、検出した角速度を車両200の姿勢変化情報として補正処理装置50に出力する。ジャイロセンサ41は、角速度ではなく、車両200のピッチ角またはヨー角を検出してもよい。
 補正処理装置50は、姿勢検出装置40から出力される車両200の姿勢変化情報に基づいて、虚像Ivの表示位置の補正量を算出する。
 図2は、表示システム100の内部構成を示すブロック図である。
 本実施形態において、情報取得装置20は、地理座標系における車両200の現在地を示す位置を検出するGPS(Global Positioning System)モジュール21を含む。具体的には、GPSモジュール21は、GPS衛星からの電波を受信して、受信した地点の緯度および経度を測位する。GPSモジュール21は、測位した緯度および経度を示す位置情報を生成する。情報取得装置20は、さらに、外景を撮像して撮像データを生成するカメラを含んでもよい。情報取得装置20は、例えば、画像処理により撮像データから対象物を特定し、対象物までの距離を測定する。情報取得装置20は、対象物および対象物までの距離を示す情報を車外情報として生成する。情報取得装置20は、位置情報および車外情報を含む車両関連情報を表示処理装置30に出力する。なお、カメラによって生成された撮像データが表示処理装置30に出力されてもよい。
 表示処理装置30は、通信部31、表示制御部32、および記憶部33を含む。
 通信部31は、所定の通信規格(例えば、LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)、USB、HDMI(登録商標)、CAN(controller area network)、SPI(Serial Peripheral Interface))に準拠して外部機器との通信を行う回路を含む。
 表示制御部32は、半導体素子などで実現可能である。表示制御部32は、例えば、マイコン、CPU、MPU、GPU、DSP、FPGA、ASICで構成することができる。表示制御部32の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。表示制御部32は、記憶部33に格納されたデータやプログラムを読み出して種々の演算処理を行うことで、予め定められた機能を実現する。
 記憶部33は、表示処理装置30の機能を実現するために必要なプログラムおよびデータを記憶する記憶媒体である。記憶部33は、例えば、ハードディスク(HDD)、SSD、RAM、DRAM、強誘電体メモリ、フラッシュメモリ、磁気ディスク、またはこれらの組み合わせによって実現できる。
 記憶部33には、虚像Ivを表す複数の画像データ33iが格納されている。表示制御部32は、情報取得装置20から得られる車両関連情報に基づいて、表示する虚像Ivを決定する。表示制御部32は、決定した虚像Ivの画像データ33iを記憶部33から読み出して、投影装置10に出力する。さらに、表示制御部32は、虚像Ivの表示位置を設定する。
 補正処理装置50は、通信部51と補正制御部52と記憶部53とを含む。
 通信部51は、所定の通信規格(例えばLAN、Wi-Fi(登録商標)、Bluetooth(登録商標)、USB、HDMI(登録商標)、CAN(controller area network)、SPI(Serial Peripheral Interface))に準拠して外部機器との通信を行う回路を含む。
 補正制御部52は、半導体素子などで実現可能な演算装置である。補正制御部52は、例えば、マイコン、CPU、MPU、GPU、DSP、FPGA、ASICで構成することができる。表示制御部32の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。補正制御部52は、補正処理装置50内の記憶部53に格納されたデータやプログラムを読み出して種々の演算処理を行うことで、予め定められた機能を実現する。
 補正制御部52は、機能的構成として、ずれ量算出部52a、補正量算出部52bおよび表示判定部52cを含む。
 ずれ量算出部52aは、姿勢検出装置40が出力する姿勢変化情報に基づいて、車両200の姿勢(角度のずれ量)を算出する。例えば、ずれ量算出部52aは、ジャイロセンサ41が検出した角速度を積分演算することによって、車両200のピッチ軸周りの角度(ピッチ角)を算出する。これにより、図1に示すY軸(ピッチ軸)を中心とした回転方向における車両200のずれ量(角度)を算出することができる。なお、本実施形態では、ピッチ角とヨー角を算出するが、ロール角を算出してもよい。また、例えば、X軸、Y軸およびZ軸周りの角度を全て算出してもよい。なお、ずれ量算出部52aは、姿勢検出装置40が角度情報を出力する場合、姿勢検出装置40から出力された角度情報を角度のずれ量として使用してもよい。
 補正量算出部52bは、車両200の姿勢(角度のずれ量)に応じて、虚像Ivの表示位置の補正量を算出する。具体的には、補正量算出部52bは、ずれ量算出部52aが算出した角度(ピッチ角)のずれ量を画素数に換算して、ずれている分の画素数(以下、「ずれ画素数」ともいう)を元に戻すような補正量を決定する。例えば、ずれ量算出部52aは、ヨー角のずれ量を元に戻すような補正量を決定する。補正量算出部52bは、算出した補正量を表示処理装置30に出力する。なお、本実施形態では、ピッチ軸まわりの補正量を算出するが、さらに、ヨー軸まわりおよびロール軸まわりの補正量を算出してもよい。ロール角については、角度のまま、ロール角のずれ量を元に戻すような補正量を決定する。
 表示判定部52cは、姿勢検出装置40の出力、または姿勢検出装置40の出力を演算処理した結果(以後、変動量Xとする)の絶対値と閾値aとの大小関係を比較して、虚像Ivを表示するか否かを判定する。姿勢検出装置40の出力の演算処理は、姿勢検出装置40または補正処理装置50のずれ量算出部52aや表示判定部52c、または、他の構成で行われてもよい。
 変動量Xは、例えばジャイロセンサ41により検出される角速度を積分した角度の一定時間における変動量である。本実施形態では、ジャイロセンサ41が検出した角速度を積分演算することによって、車両200のヨー軸周りの角度(ヨー角)を算出する。車両200のヨー角が姿勢変化量である。姿勢変化量に基づいて、図1に示すZ軸(ヨー軸)を中心とした回転方向における車両200の変動量Xを算出することができる。すなわち、本実施形態では、変動量Xとして、予め定められた単位時間におけるヨー角の変動量を算出する。なお、変動量Xは予め定められた単位時間におけるヨー角の変動量に限定されない。車両200の姿勢変化量をそのまま変動量Xとしてもよい。例えば、変動量Xとして、車両200のヨー角である姿勢変化量をそのまま用いてもよい。
 表示判定部52cは、表示判定結果として、例えばブーリアン型の2値化データを出力する。表示判定部52cは、変動量Xの絶対値が閾値a未満であればTRUE、変動量Xの絶対値が閾値a以上であるときはFALSEを出力する。すなわち、表示判定部52cは、変動量Xの絶対値が閾値a未満であれば表示ONと判定し、変動量Xの絶対値が閾値a以上であれば表示OFFと判定し、その結果を出力する。表示判定部52cは、データをブーリアン型に限定せず、整数型でもよい。また、それ以外のデータ型で出力してもよい。
 記憶部53は、補正制御部52の機能を実現するために必要なプログラムおよびデータを記憶する記憶媒体である。したがって、例えば、プロセッサ等の演算装置を表示判定部52cとして機能させるために必要なプログラムおよびデータも記憶部53に格納されている。記憶部53は、例えば、ハードディスク(HDD)、SSD、RAM、DRAM、強誘電体メモリ、フラッシュメモリ、磁気ディスク、またはこれらの組み合わせによって実現できる。
 補正処理装置50は、表示処理装置30に補正量、および表示判定結果を出力する。
 図3A~図3Dを参照して、AR表示について説明する。図3Aは、車両200が傾いていないときの例を示している。図3Bは、図3Aに示す車両200のフロントガラス210から見える実景の例を示している。図3Cは、表示領域220から見える虚像Ivの一例を示している。図3Dは、図3Bに示す実景に図3Cに示す虚像Ivが重なって表示される例を示している。表示システム100は、図3Bに示す実景に図3Cに示す虚像Ivを重畳させる。虚像Ivの基準位置(初期位置)P0は、虚像Ivの種類、車両200の状態(位置及び姿勢)、および地図データなどに基づいて決定された位置であり、当該基準位置P0は、外部装置により決定される。例えば、表示対象230が走行車線であって、虚像Ivが進行方向を示す矢印の場合、基準位置P0は走行車線の中央を矢印の先端が指し示すときの液晶上の表示位置である。基準位置P0は、例えば、図3Cにおいて、表示領域220内におけるY座標とZ座標の値に対応する液晶表示上の画素の位置で設定される。基準位置P0は、外部装置から取得される。外部装置は、例えば、マイコン、CPU、MPU、GPU、DSP、FPGA、または、ASICと、GPSモジュール21とで構成することができる。外部装置の機能は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。外部装置から出力される基準位置P0は、乗員数、荷重の変動、およびガソリンの減少などによる姿勢の変動に基づいて変化する場合があるため、例えば、最初に取得した基準位置(初期位置)と異なる場合がある。それ故、表示処理装置30は、外部装置から取得される基準位置P0を、乗員数、荷重の変動、およびガソリンの減少などによる姿勢の変動に基づいて変更してもよい。なお、表示処理装置30が、車両関連情報および地図データなどに基づいて、基準位置P0を設定してもよい。表示処理装置30は、車両関連情報に基づいて、虚像Ivの大きさを設定してもよい。
 図4Aは、車両200が後傾姿勢になった状態の例を示している。図4Bは、車両200の姿勢変化に応じて、虚像Ivの表示位置が表示対象230からずれた場合を例示している。図4Cは、補正後の虚像Ivの表示位置を示している。
 路面の凹凸、車両200の急加速または急減速などにより、車両200が傾く場合がある。例えば、車両200が路面301の凸部303に乗り上げると、図4Aに示すように車両200は後傾姿勢になる。この場合、図4Bに示すように、フロントガラス210から見える表示対象230の位置が車両200の走路に対する傾きθ1に応じて変動する。そのため、虚像Ivを基準位置P0に表示した場合、虚像Ivが表示対象230からずれる。
 例えば、図4Bに示すように、車両200が路面301の凸部303により後傾姿勢になると、表示対象230の位置が通常走行時よりも下方に変動する。したがって、基準位置P0に表示される虚像Ivの矢印の先が車線外にずれてしまう。よって、表示システム100は、車両200の姿勢に応じてずれを戻す方向に虚像Ivの表示位置を調整する。
 具体的には、図4Cに示すように、補正処理装置50が、車両200の角度に起因した表示位置のずれがない位置P1となるように補正量Cを算出する。すなわち、表示処理装置30は、虚像Ivの表示位置を「基準位置P0+補正量C」に設定する。これにより、投影装置10は、虚像Ivを表示対象230に対応する位置P1に表示することができる。このように、車両200が傾いた場合であっても、虚像Ivの表示位置を補正量Cに基づいて基準位置P0から変更することで、実景内の表示対象230に対応する位置P1に虚像Ivを表示することができる。
 しかしながら、車両200の姿勢変化に応じて虚像Ivの表示位置を補正すると、例えば、車両200が斜面を走行する際に問題が生じる。図5は、車両200の姿勢変化に応じて、虚像Ivの表示位置を補正した結果、表示対象230からずれた場合を例示する図である。
 車両200が、例えば坂道を登坂する場合、坂道の影響により登坂前後で車両姿勢が変化する。したがって、虚像Ivの表示位置が「基準位置P0+補正量C」に設定される。しかし、車両200が坂道を登坂する場合、車両200の勾配変化による姿勢変化に加え、車両200の位置と重畳先の路面の勾配との差も変化する。このため、車両200の姿勢変化から算出した「基準位置P0+補正量C」では、虚像Ivを正しい位置に補正することができない。また、車両200は、坂道の斜面に沿って平行に走行するので、虚像Ivの表示位置を補正する必要がない場合があるが、図5に示すように、必要のない補正処理により虚像Ivが表示対象230から下方にずれた位置P1に表示されてしまう。
 また、車両200が、例えばカーブを曲がっている場合、重畳先が視認できないため、虚像Ivを表示してしまうと、視認者に違和感または不快感を与えてしまう。
 本実施形態の表示システム100では、後述するように、表示判定部52cが、車両200の姿勢変化量の変動量Xに基づいて、虚像Ivを表示するか否かを判定し、表示判定部52cの判定結果に基づいて、表示処理装置30が虚像Ivの表示を制御する。具体的には、表示判定部52cは、変動量Xの絶対値が閾値a以上であるときに、虚像Ivを表示しない、すなわち表示OFFと判定する。また、表示判定部52cは、変動量Xの絶対値が閾値a未満であるときに、虚像Ivを表示する、すなわち表示ONと判定する。これにより、例えば坂道登坂時またはカーブ時等、意図しない位置に虚像Ivが表示されてしまう場合に、虚像Ivを表示しないようにしている。
2. 表示処理装置の動作
 図6は、表示処理装置30の表示制御部32が行う表示処理、および補正処理装置50の補正制御部52が行う補正処理を示している。図6に示す表示処理は、例えば、車両200のエンジンが始動したとき、または虚像Ivの表示開始を指示するためのボタンが操作されたときなどに開始される。
 表示制御部32は、情報取得装置20から車両関連情報を取得する(S101)。表示制御部32は、車両関連情報に基づいて、表示する虚像Ivを決定する(S102)。表示制御部32は、虚像Ivの基準位置P0を外部装置から取得する(S103)。表示制御部32は、補正処理装置50から出力される表示位置の補正量Cおよび表示判定結果を取得する(S104)。
 表示制御部32は、表示判定結果に基づき、虚像Ivを表示するか否かを決定する(S105)。表示判定結果が表示ON、すなわち、虚像Ivを表示する場合(S105でYES)、表示制御部32は、基準位置P0と補正量Cとに基づいて、投影装置10に虚像Ivを表示させる(S106)。例えば、表示制御部32は、表示対象に対応する虚像Ivの画像データ33iを記憶部33から読み出し、虚像Ivの表示位置を「基準位置P0+補正量C」に設定して、投影装置10に出力する。表示判定結果が表示OFF、すなわち、虚像Ivを表示しない場合(S105でNO)、表示制御部32は、虚像Ivを非表示にする(S107)。
 表示制御部32は、表示処理を継続するか否かを判断する(S108)。例えば、車両200のエンジンが停止したとき、または虚像Ivの表示の終了を指示するためのボタンが操作されたときなどに、表示制御部32は表示処理を終了する。表示処理を継続する場合は、ステップS101に戻る。
3. 補正処理装置の動作
 図6に示す補正処理は、例えば、車両200のエンジンが始動したとき、または虚像Ivの表示開始を指示するためのボタンが操作されたときなどに開始される。補正処理は、例えば、表示処理とともに開始される。なお、補正処理は、虚像Ivの位置補正の開始を指示するためのボタンが操作されたときに開始されてもよい。
 ずれ量算出部52aは、ジャイロセンサ41から出力される角速度を示す姿勢変化情報を取得する(S201)。ずれ量算出部52aは、取得した姿勢変化情報に基づいて、車両200のピッチ方向の角度であるずれ量とヨー方向の姿勢変化量の単位時間における変動量Xを算出する(S202)。具体的には、ずれ量算出部52aは、角速度を積分演算することによって、車両200のヨー角の予め定められた単位時間における変動量と、ピッチ角とを算出する。補正量算出部52bは、ピッチ方向に対するずれ量に基づいて、虚像Ivの表示位置の補正量Cを算出する(S203)。具体的には、補正量算出部52bは、ピッチ方向における車両200のずれ量を画素数に換算して、画素数で示されるずれ量を相殺するような補正量Cを決定する。
 表示判定部52cは、変動量Xを取得する(S204)。変動量Xは、予め定められた時間におけるヨー方向のずれ量の変化量である。または、姿勢変化量(ヨー方向のずれ量)を変動量Xとして取得してもよい。以後の説明において、変動量Xとは、姿勢変化量または姿勢変化量の予め定められた単位時間における変動量のことをいう。そして、表示判定部52cは、変動量Xの絶対値と閾値aとを比較する(S205)。
 変動量Xの絶対値が閾値a以上であれば(S205でYES)、表示判定部52cは、表示判定結果を表示OFFに設定する(S206)。変動量Xの絶対値が閾値a未満である場合は(S205でNO)、表示判定部52cは表示判定結果を表示ONに設定する(S207)。表示判定部52cは、補正量Cおよび表示判定結果を表示処理装置30に出力する(S208)。補正制御部52は、補正処理を継続するか否かを判断する(S209)。例えば、車両200のエンジンが停止したとき、または虚像Ivの表示の終了を指示するためのボタンが操作されたときなどに、補正制御部52は補正処理を終了する。補正処理を継続する場合は、ステップS201に戻る。
 図7Aは、本実施形態の車両200が走行する周回路を示す図である。図7Bは、車両200が図7Aの周回路を走行している間の姿勢変化量と、姿勢変化量の予め定められた単位時間ごとの変動量と、表示判定結果との関係を示す図である。図7B(a)は、ジャイロセンサ41によって検出されたヨー角(姿勢変化量)の変化を示すグラフである。図7B(b)は、2秒ごとのヨー角の変動量を示すグラフである。図7B(c)は、表示判定結果を示す図である。なお、本実施形態において、姿勢変化量は車両200のヨー角を示し、姿勢変化量の変動量はヨー角の予め定められた単位時間における変動量を表す。また、本実施形態において、予め定められた単位時間は2秒に設定されている。
 車両200が、図7Aに示す周回路60を、スタート地点Sからスタートして反時計回りに走行した場合、カーブCR1を曲がり始めたところで、図7B(b)に示すように、2秒ごとのヨー角変動量の絶対値が閾値a以上となる。このとき、図7B(c)に示すように、表示判定部52cにより、表示判定結果が表示OFFに設定される。この後、カーブCR1の終了地点において、図7B(b)に示すようにヨー角変動量の絶対値が閾値a未満となり、図7B(c)に示すように、表示判定結果が表示ONに設定される。このように、車両200がカーブCR1を曲がっている間に、ヨー角変動量の絶対値が閾値a以上となるため、表示判定結果が表示OFFとなり、虚像Ivが表示されない。同様に、車両200がカーブCR2、CR3、およびCR4を曲がっている間は、ヨー角変動量の絶対値が閾値a以上となり、表示判定結果が表示OFFとなる。一方、車両200がカーブCR1~CR4以外を走行している場合、図7B(a)に示すように、車両200のヨー角はほぼ一定であり、図7B(b)に示すように、2秒ごとのヨー角変動量の絶対値は閾値a未満となる。このため、図7B(c)に示すように、表示判定結果は表示ONとなり、虚像Ivが表示される。
 走行中のヨー角の大きさは、ジャイロセンサ41により検出される。車両200がカーブに進入すると、車両200の進行方向が変化してヨー角が大きく変化する。予め定められた単位時間T1ごとにヨー角の変動量Xを算出する。なお、図7Bにおいて、単位時間T1は2秒に設定されている。変動量Xの算出は、例えば、(時間,ヨー角)=(t,y1)、(t+T1,y2)とすると、
 X=(y2-y1)/(t+T1-t)=(y2-y1)/T1
により算出する。変動量Xの絶対値が閾値a以上である(|X|≧a)と、表示判定部52cは、虚像Ivを表示しないと判定し、表示判定結果を表示OFFに設定する。図7Bに示すように、走行し始めて約33秒経過後に、車両200がカーブCR1へ進入したためにヨー角の変動量Xの絶対値が、閾値a以上となり表示判定結果が表示OFFに設定される。この表示判定結果に基づいて、表示制御部32が虚像Ivを表示しないよう制御する。また、走行し始めて約40秒経過後に、車両200がカーブCR1を抜けて直進し始めたため、ヨー角の変動量Xの絶対値が閾値a未満となり、表示判定結果が表示ONに設定される。この表示判定結果に基づいて、表示制御部32が虚像Ivを表示するよう制御する。その他のカーブCR2~CR4においても同様である。
4. 効果および補足等
 本開示の表示システム100は、虚像Ivの表示を制御する表示処理装置30と、車両200の姿勢変化量の変動量を検出する姿勢検出装置40と、変動量に基づいて虚像Ivの表示位置の補正量を設定する補正処理装置50と、虚像Ivを表示するか否かを判定する表示判定部52cと、を備える。表示処理装置30は、表示判定部52cの判定結果と補正量Cとに基づいて、虚像Ivの表示を制御する。
 これにより、視認者に与える違和感または不快感を低減することができる。
 表示判定部52cが、単位時間における姿勢変化量の変動量Xに基づいて虚像Ivを表示するか否かを判定することにより、例えば、カーブを曲がっている間には、虚像Ivを表示させない等の制御ができる。意図しない位置に虚像Ivが表示されてしまう場合、虚像Ivを表示しないよう制御することにより、視認者に与える違和感または不快感を低減することができる。
 また、本実施形態の表示システム100は、虚像Ivを表す光を投影する投影装置10をさらに含む。本実施形態において、移動体は車両であり、像は車両のフロントガラスの前方に表示される虚像である。本実施形態によれば、車両の姿勢変化により、虚像が意図しない位置に表示されることを抑制することができる。
 なお、本実施形態では、姿勢変化の方向として車両のヨー方向を用いて虚像Ivを表示するか否かを判定するが、姿勢変化の方向は、車両のピッチ方向、またはロール方向のいずれかであってもよい。または、これらの方向を複数組み合わせてもよい。
(第2実施形態)
 第1実施形態では、ジャイロセンサにより検出された姿勢変化の変動量Xにより、表示判定部が、虚像Ivを表示するか否かを判定した。具体的には、表示判定部は、変動量Xの絶対値が閾値a以上であるときに、虚像Ivを表示しないと判定し、変動量Xの絶対値が閾値a未満であるときに、虚像Ivを表示すると判定する。本実施形態では、勾配変化検出部を備え、勾配変化検出部による勾配の変化の検出に基づいて、虚像Ivを表示するか否かを判定する。
 図8は、第2実施形態における表示システム100Aの内部構成を示すブロック図である。第2実施形態における表示システム100Aは、第1実施形態における補正処理装置50の補正制御部52に、勾配変化検出部52dを加えた構成である。図9は、第2実施形態における表示処理および補正処理を示している。第2実施形態の表示処理は第1実施形態の表示処理と同一である。また、補正処理のステップS301~S303およびステップS308~S309は、第1実施形態の補正処理のステップS201~S203およびステップS208~S209と同一である。図10は、本実施形態の車両200が走行する傾斜した走路と、車両200のピッチ角(姿勢変化量)の変化と、予め定められた時間ごとのピッチ角の変動量と、勾配変化中フラグおよび勾配変化完了フラグとの関係を示す図である。図10(a)は、車両200が登坂する坂道の一例を示す。図10(b)は、ジャイロセンサ41によって検出されたピッチ角の変化を示すグラフである。図10(c)は、0.5秒ごとのピッチ角の変動量を示すグラフである。図10(d)は、勾配変化中フラグのON、OFFおよび勾配変化完了フラグのON、OFFを示す図である。
 ずれ量算出部52aは、ジャイロセンサ41から出力される角速度を示す姿勢変化情報を取得する(S301)。ずれ量算出部52aは、取得した姿勢変化情報に基づいて、車両200のピッチ方向の角度であるずれ量と、姿勢変化量単位時間における変動量Xを算出する(S302)。補正量算出部52bは、ピッチ方向に対するずれ量に基づいて、虚像Ivの表示位置の補正量Cを算出する(S303)。
 勾配変化検出部52dは、姿勢検出装置40の出力に基づいて、車両200が走行する走路の勾配が変化しているか否かを判定する。勾配変化検出部52dは、車両200の進行方向に対して左右の軸を中心にした回転移動量、すなわちピッチ方向の姿勢変化量に基づいて、走路の勾配の変化を検出する。勾配変化検出部52dの検出結果は、例えば、車両200が坂道を登坂し始めると、勾配変化中フラグONが設定される。また、車両200の坂道への進入が完了し、車両200の姿勢が走路の勾配と平行になったとき、勾配変化完了フラグONが設定され、勾配変化中フラグがOFFに設定される。
 例えば、車両200が図10(a)に示す坂道を登坂する場合、車両200が坂道に進入し始めたときに、図10(b)、(c)に示すように、時間が8秒を超えたところでピッチ角の変動量Xが第1閾値aを超える。このとき、勾配変化検出部52dは、図10(d)に示すように、勾配変化中フラグをONに設定する。すなわち、補正制御部52は、車両200が走路の勾配の変化により姿勢変動が開始されたと判断する。勾配変化検出部52dは、勾配変化中フラグがONの場合、変動量Xの絶対値と第2閾値bとを比較する。変動量Xが第2閾値bよりも小さい場合、勾配変化検出部52dは、勾配変化完了フラグをONにする。勾配変化完了フラグがONにされると、勾配変化中グラフはOFFになる。
 同様に、車両200が坂道から平地に退出し始めたときに、勾配変化中フラグONが設定され、車両200が平地に完全に退出したときに、勾配変化完了フラグONが設定される。表示判定部52cは、勾配変化検出部52dから、勾配検出結果としてこれらのフラグを取得する(S304)。表示判定部52cは、取得した勾配検出結果に基づいて、車両200の勾配変化による姿勢変化が完了しているかどうかを判定する(S305)。勾配検出結果が勾配変化中フラグONである、すなわち勾配変化中である場合(S305でYES)、表示判定部52cは、表示判定結果を表示OFFに設定する(S306)。勾配検出結果が勾配変化完了フラグONである、すなわち勾配変化中でない場合(S305でNO)、表示判定部52cは、表示判定結果を表示ONに設定する(S307)。
 表示判定部52cは、補正量Cおよび表示判定結果を表示処理装置30に出力する(S308)。補正制御部52は、補正処理を継続するか否かを判断する(S309)。例えば、車両200のエンジンが停止したとき、または虚像Ivの表示の終了を指示するためのボタンが操作されたときなどに、補正制御部52は補正処理を終了する。補正処理を継続する場合は、ステップS201に戻る。
 なお、姿勢変化量(ピッチ方向の角度)を変動量Xとする場合、変動量Xは図10(b)のグラフで示される。この場合、勾配変化が完了しているかどうかの判定をすることはできないため、単位時間における姿勢変化量の変動量X’を別途設けるとよい。
 第1実施形態では、車両200のヨー角変動量により、表示判定部52cが虚像Ivを表示するか否かを判定したが、本実施形態では、車両200のピッチ方向の傾きの変化に基づいて、虚像Ivを表示するか否かを判定することができる。
 このように、勾配変化検出部52dの勾配検出結果に基づいて、表示判定部52cが虚像Ivを表示するか否かを判定することにより、例えば、坂道への進入時または退出時に車両200の姿勢変化が大きいときに、虚像Ivを表示しないように制御することができる。これにより、坂道進入中に自車位置の路面と重畳先の路面の勾配差が随時変化する状況や重畳先が視認できない状況、すなわち重畳性が低下する状況では、虚像Ivが表示されない。このため、視認者に与える違和感または不快感を低減し、安全性を向上させることができる。
 GPSと経路情報(高度情報を含む)とからもある程度は坂道への進入を判定することができるが、GPSと経路情報との組み合わせよりも、ジャイロセンサの方が高速サンプリングで高精度に傾きの変化を検出することができる。したがって、本実施形態のように、ジャイロセンサを用いることで、坂道への進入中の判定を高速かつ高精度に実施することができる。
 多くの場合、坂道進入中の勾配の変化は路面の凹凸による車両の姿勢変化よりも大きくなるため、わずかな判定誤差が大きな表示ずれとなる可能性がある。このため、ジャイロセンサによる高速かつ高精度な判定が行われると、視認者に与える違和感または不快感を低減して安全性を向上させることができる。
(他の実施形態)
 以上のように、本出願において開示する技術の例示として、上記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。そこで、以下、他の実施形態を例示する。
 上記実施形態では、投影装置10、情報取得装置20、表示処理装置30、姿勢検出装置40、および補正処理装置50がそれぞれ別個の装置である場合を例示した。しかし、複数の装置が1つの装置として一体的に形成されてもよい。例えば、表示処理装置30と補正処理装置50が一つの装置として一体的に形成されてもよい。情報取得装置20と表示処理装置30とが一つの装置として一体的に形成されてもよい。姿勢検出装置40と補正処理装置50が一つの装置として一体的に形成されてもよい。別個に形成された装置は、有線または無線により互いに通信可能に接続される。なお、投影装置10、情報取得装置20、表示処理装置30、姿勢検出装置40、および補正処理装置50の全てが一つの装置として形成されてもよい。この場合、通信部31,51はなくてもよい。
 上記実施形態では、情報取得装置20がGPSモジュール21を含む例について説明した。しかし、情報取得装置20は、車両200から周囲の対象物までの距離と方向を計測する距離センサを含んでもよく、計測した距離と方向を示す距離情報を表示処理装置30に出力してもよい。情報取得装置20は、車両200の速度を検出する車速センサを含んでもよいし、ナビゲーションシステムを含んでもよい。情報取得装置20は、GPSモジュール21、距離センサ、およびカメラなどのうち、1つ以上を含んでもよい。この場合、情報取得装置20としての機能を有するGPSモジュール21、距離センサ、およびカメラなどは、1つの装置に内蔵されてもよいし、個別に車両200に取り付けられてもよい。
 上記実施形態では、姿勢検出装置40がジャイロセンサ41を含む例について説明した。しかし、姿勢検出装置40は、車両200の加速度を検出する加速度センサを含んでもよく、検出した加速度を姿勢変化情報として出力してもよい。姿勢検出装置40は、路面からの高さを検出する車高センサを含んでもよく、検出した高さを姿勢変化情報として出力してもよい。姿勢検出装置40は、他の公知のセンサを含んでもよい。姿勢検出装置40は、ジャイロセンサ41、加速度センサ、および車速センサなどのうちの1つ以上を含んでもよい。この場合、姿勢検出装置40としての機能を有するジャイロセンサ41、加速度センサ、および車高センサなどは、一つの装置に内蔵されてもよいし、個別に車両200に取り付けられてもよい。
 上記実施形態では、補正処理装置50が表示判定部52cを有しているが、表示処理装置30が表示判定部を有していてもよい。また、上記実施形態では、表示判定部52cは、ジャイロセンサ41の出力を信号処理して、虚像Ivを表示するか否かを判定しているが、例えば、ずれ量算出部52aの算出結果を使用して虚像Ivを表示するか否かの判定をしてもよい。
 上記実施形態では、表示判定部52cは、姿勢変化量の変動量Xまたは勾配検出結果に基づいて虚像Ivを表示するか否かを判定しているが、例えば、角速度、角度、加速度、および操舵角のうち少なくとも1つ以上の情報を用いて判定してもよい。また、表示判定部52cは、LiDAR、カメラ等により取得された画像、高度情報、地図データまたはGPS21による位置情報等を用いて、虚像Ivを表示するか否かを判定してもよい。
 上記実施形態では、表示判定部52cは1つの閾値を用いて虚像Ivを表示するか否かの判定を行っているが、例えば、表示ONに設定する場合と表示OFFに設定する場合とで異なる閾値を用いてもよい。
 上記実施形態では、移動体が、自動車などの車両200である場合について説明した。しかし、移動体は車両200に限らない。移動体は、地上を走行する乗り物であってもよく、例えば、列車またはオートバイであってもよい。移動体は、自動運転で走行することができる無人機であってもよい。
 上記実施形態では、移動体の前方に像を表示する場合について説明した。しかし、像を表示する位置は、前方に限らない。例えば、像は、移動体の側面方向や後方に表示されてもよい。
 上記実施形態では、表示システム100、100AがHUDシステムである例について説明した。しかし、表示システム100、100AはHUDシステムでなくてもよい。表示システム100、100Aは、投影装置10に代えて、液晶ディスプレイまたは有機ELディスプレイを備えてもよい。表示システム100、100Aは、スクリーンおよびプロジェクタを含んでもよい。
(実施形態の概要)
 (1)本開示の表示システムは、像の表示を制御する表示処理装置と、移動体の姿勢変化量を検出する姿勢検出装置と、姿勢変化量に基づいて、像の表示位置の補正量を設定する補正処理装置と、像を表示するか否かを判定する表示判定部と、を備え、表示処理装置は、表示判定部の判定結果と補正量とに基づいて、像の表示を制御する。これにより、視認者に違和感または不快感を与えることなく、虚像を表示することができる。
 (2)(1)の表示システムにおいて、補正処理装置は、表示判定部を有していてもよい。
 (3)(1)または(2)の表示システムにおいて、表示判定部は、姿勢変化量または姿勢変化量の予め定められた単位時間における変動量の絶対値が、予め定められた閾値以上であるとき、像を表示しないと判定してもよい。
 (4)(1)ないし(3)の表示システムにおいて、表示判定部は、姿勢変化量または姿勢変化量の予め定められた単位時間における変動量の絶対値が、予め定められた閾値未満であるとき、像を表示すると判定してもよい。
 (5)(3)または(4)の表示システムにおいて、変動量は、移動体のヨー方向、ピッチ方向、ロール方向、ロール軸に平行な方向、ピッチ軸に平行な方向、またはヨー軸に平行な方向のうち、いずれか1つ以上の方向を含んでもよい。
 (6)(3)の表示システムにおいて、表示判定部は、ヨー方向またはピッチ方向のうち少なくとも1つの方向の姿勢変化量または変動量の絶対値が、閾値以上であるとき、像を表示しないと判定してもよい。
 (7)(4)の表示システムにおいて、表示判定部は、ヨー方向またはピッチ方向のうち少なくとも1つの方向の姿勢変化量または変動量の絶対値が、閾値未満であるとき、像を表示すると判定してもよい。
 (8)(5)ないし(7)の表示システムにおいて、さらに、ピッチ方向の姿勢変化量または変動量に基づいて、走路の勾配の変化を検出する勾配変化検出部、を備え、表示判定部は、勾配の変化の検出に基づいて、像を表示するか否かを判定してもよい。
 (9)(5)ないし(7)の表示システムにおいて、姿勢検出装置は、姿勢変化量を、角速度、角度、加速度、または操舵角のうち少なくとも1つ以上の情報を用いて算出してもよい。
 (10)(8)の表示システムにおいて、勾配変化検出部は、ピッチ方向の姿勢変化量または変動量の絶対値が、予め定められた第1閾値より大きくなると、走路の勾配変化により移動体の姿勢変化が開始されたことを検出し、走路の勾配変化による移動体の姿勢変化の開始後に、ピッチ方向の姿勢変化量または変動量の絶対値が、予め定められた第2閾値より小さくなると、走路の勾配により移動体の姿勢変化が完了したことを検出し、表示判定部は、勾配変化検出部により姿勢変化の開始が検出されてから姿勢変化の完了が検出されるまでの間に、像を表示しないと判定してもよい。
 (11)(8)の表示システムにおいて、勾配変化検出部は、ピッチ方向の姿勢変化量または変動量の絶対値が、予め定められた第1閾値より大きくなると、走路の勾配変化により移動体の姿勢変化が開始されたことを検出し、走路の勾配変化による移動体の姿勢変化の開始後に、ピッチ方向の姿勢変化量または変動量の絶対値が、予め定められた第2閾値より小さくなると、走路の勾配により移動体の姿勢変化が完了したことを検出し、表示判定部は、前記勾配変化検出部により姿勢変化の開始が検出されてから姿勢変化の完了が検出されるまでの間以外のときに像を表示すると判定してもよい。
 (12)(1)ないし(11)の表示システムにおいて、像を表す光を投影する投影装置をさらに含めてもよい。
 (13)(1)から(12)の表示システムにおいて、移動体は、車両であり、像は、車両のフロントガラスの前方に表示される虚像でもよい。
 本開示に記載の表示システムは、ハードウェア資源、例えば、プロセッサ、メモリ、およびプログラムとの協働などによって、実現される。
 本開示は、虚像をフロントガラスの前方に表示する表示システムに適用可能である。
  10   投影装置
  20   情報取得装置
  21   GPSモジュール
  30   表示処理装置
  31   通信部
  32   表示制御部
  33   記憶部
  40   姿勢検出装置
  41   ジャイロセンサ
  50   補正処理装置
  51   通信部
  52   補正制御部
  52a  ずれ量算出部
  52b  補正量算出部
  52c  表示判定部
  52d  勾配変化検出部
  100  表示システム
  200  車両
  210  フロントガラス
  220  表示領域

Claims (13)

  1.  像の表示を制御する表示処理装置と、
     移動体の姿勢変化量を検出する姿勢検出装置と、
     前記姿勢変化量に基づいて、前記像の表示位置の補正量を設定する補正処理装置と、
     前記像を表示するか否かを判定する表示判定部と、
    を備え、
     前記表示処理装置は、前記表示判定部の判定結果と前記補正量とに基づいて、前記像の表示を制御する、
     表示システム。
  2.  前記補正処理装置は、前記表示判定部を有する、
     請求項1に記載の表示システム。
  3.  前記表示判定部は、前記姿勢変化量または前記姿勢変化量の予め定められた単位時間における変動量の絶対値が、予め定められた閾値以上であるとき、前記像を表示しないと判定する、
     請求項1または2に記載の表示システム。
  4.  前記表示判定部は、前記姿勢変化量または前記姿勢変化量の予め定められた単位時間における変動量の絶対値が、予め定められた閾値未満であるとき、前記像を表示すると判定する、
     請求項1ないし3のいずれか1項に記載の表示システム。
  5.  前記変動量は、前記移動体のヨー方向、ピッチ方向、ロール方向、ロール軸に平行な方向、ピッチ軸に平行な方向、またはヨー軸に平行な方向のうち、いずれか1つ以上の方向を含む、
     請求項3または4に記載の表示システム。
  6.  前記表示判定部は、ヨー方向またはピッチ方向のうち少なくとも1つの方向の前記姿勢変化量または前記変動量の絶対値が、前記閾値以上であるとき、前記像を表示しないと判定する、
     請求項3に記載の表示システム。
  7.  前記表示判定部は、ヨー方向またはピッチ方向のうち少なくとも1つの方向の前記姿勢変化量または前記変動量の絶対値が、前記閾値未満であるとき、前記像を表示すると判定する、
     請求項4に記載の表示システム。
  8.  さらに、
     ピッチ方向の前記姿勢変化量または前記変動量に基づいて、走路の勾配の変化を検出する勾配変化検出部、
    を備え、
     前記表示判定部は、前記勾配の変化の検出に基づいて、前記像を表示するか否かを判定する、
     請求項5ないし7のいずれか1項に記載の表示システム。
  9.  前記姿勢検出装置は、前記姿勢変化量を、角速度、角度、加速度、または操舵角のうち少なくとも1つ以上の情報を用いて算出する、
     請求項5ないし7のいずれか1項に記載の表示システム。
  10.  前記勾配変化検出部は、
      前記ピッチ方向の前記姿勢変化量または前記変動量の絶対値が、予め定められた第1閾値より大きくなると、走路の勾配変化により前記移動体の姿勢変化が開始されたことを検出し、
      前記走路の勾配変化による前記移動体の姿勢変化の開始後に、前記ピッチ方向の前記姿勢変化量または前記変動量の絶対値が、予め定められた第2閾値より小さくなると、前記走路の勾配により前記移動体の姿勢変化が完了したことを検出し、
     前記表示判定部は、前記勾配変化検出部により前記姿勢変化の開始が検出されてから前記姿勢変化の完了が検出されるまでの間に、前記像を表示しないと判定する、
     請求項8に記載の表示システム。
  11.  前記勾配変化検出部は、
      前記ピッチ方向の前記姿勢変化量または前記変動量の絶対値が、予め定められた第1閾値より大きくなると、走路の勾配変化により前記移動体の姿勢変化が開始されたことを検出し、
      前記走路の勾配変化による前記移動体の姿勢変化の開始後に、前記ピッチ方向の前記姿勢変化量または前記変動量の絶対値が、予め定められた第2閾値より小さくなると、前記走路の勾配により前記移動体の姿勢変化が完了したことを検出し、
     前記表示判定部は、前記勾配変化検出部により前記姿勢変化の開始が検出されてから前記姿勢変化の完了が検出されるまでの間以外のときに、前記像を表示すると判定する、
     請求項8に記載の表示システム。
  12.  前記像を表す光を投影する投影装置をさらに含む、
     請求項1ないし11のいずれか1項に記載の表示システム。
  13.  前記移動体は、車両であり、
     前記像は、車両のフロントガラスの前方に表示される虚像である、
     請求項1ないし12のいずれか1項に記載の表示システム。
PCT/JP2020/017558 2019-05-29 2020-04-23 表示システム WO2020241134A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021522714A JP7450230B2 (ja) 2019-05-29 2020-04-23 表示システム
EP20814675.3A EP3978316A4 (en) 2019-05-29 2020-04-23 DISPLAY SYSTEM
US17/529,696 US11945309B2 (en) 2019-05-29 2021-11-18 Display system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-100455 2019-05-29
JP2019100455 2019-05-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/529,696 Continuation US11945309B2 (en) 2019-05-29 2021-11-18 Display system

Publications (1)

Publication Number Publication Date
WO2020241134A1 true WO2020241134A1 (ja) 2020-12-03

Family

ID=73554042

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/017558 WO2020241134A1 (ja) 2019-05-29 2020-04-23 表示システム

Country Status (4)

Country Link
US (1) US11945309B2 (ja)
EP (1) EP3978316A4 (ja)
JP (1) JP7450230B2 (ja)
WO (1) WO2020241134A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3978290A4 (en) * 2019-05-31 2022-08-03 Panasonic Intellectual Property Management Co., Ltd. DISPLAY SYSTEM
KR20210062144A (ko) * 2019-11-20 2021-05-31 현대자동차주식회사 군집 주행 시 가상 차선 표시 장치 및 그 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015101311A (ja) 2013-11-28 2015-06-04 日本精機株式会社 車両情報投影システム
WO2015159500A1 (ja) * 2014-04-16 2015-10-22 株式会社デンソー ヘッドアップディスプレイ装置
US20170169612A1 (en) * 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
WO2017134866A1 (ja) * 2016-02-05 2017-08-10 日立マクセル株式会社 ヘッドアップディスプレイ装置
JP2019073272A (ja) * 2017-10-13 2019-05-16 株式会社リコー 表示装置、プログラム、映像処理方法、表示システム、移動体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105682973B (zh) * 2013-10-22 2018-06-19 日本精机株式会社 车辆信息投影***和投影装置
JP6717856B2 (ja) 2016-02-05 2020-07-08 マクセル株式会社 ヘッドアップディスプレイ装置
CN118124379A (zh) 2016-08-29 2024-06-04 麦克赛尔株式会社 平视显示装置
JP2018076027A (ja) 2016-11-11 2018-05-17 本田技研工業株式会社 車両制御システム、車両制御方法、および車両制御プログラム
WO2019074114A1 (en) * 2017-10-13 2019-04-18 Ricoh Company, Ltd. DISPLAY DEVICE, PROGRAM, IMAGE PROCESSING METHOD, DISPLAY SYSTEM, AND MOBILE BODY
JP6756327B2 (ja) 2017-11-10 2020-09-16 株式会社Soken 姿勢検出装置、及び姿勢検出プログラム
JP6724885B2 (ja) * 2017-11-28 2020-07-15 株式会社デンソー 虚像表示装置
WO2020084954A1 (ja) * 2018-10-23 2020-04-30 マクセル株式会社 ヘッドアップディスプレイシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015101311A (ja) 2013-11-28 2015-06-04 日本精機株式会社 車両情報投影システム
WO2015159500A1 (ja) * 2014-04-16 2015-10-22 株式会社デンソー ヘッドアップディスプレイ装置
US20170169612A1 (en) * 2015-12-15 2017-06-15 N.S. International, LTD Augmented reality alignment system and method
WO2017134866A1 (ja) * 2016-02-05 2017-08-10 日立マクセル株式会社 ヘッドアップディスプレイ装置
JP2019073272A (ja) * 2017-10-13 2019-05-16 株式会社リコー 表示装置、プログラム、映像処理方法、表示システム、移動体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3978316A4

Also Published As

Publication number Publication date
JP7450230B2 (ja) 2024-03-15
US20220072959A1 (en) 2022-03-10
EP3978316A1 (en) 2022-04-06
EP3978316A4 (en) 2022-07-27
US11945309B2 (en) 2024-04-02
JPWO2020241134A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
US8558758B2 (en) Information display apparatus
EP3694740A1 (en) Display device, program, image processing method, display system, and moving body
US11305692B2 (en) Display system
US11945309B2 (en) Display system
US20210109357A1 (en) Display system, display device and display control method
US20220028307A1 (en) Gradient change detection system, display system using same, and storage medium that stores program for moving body
US11875760B2 (en) Display system
WO2019168157A1 (ja) 表示システム
WO2020208883A1 (ja) 表示システム
US20210109358A1 (en) Display system
US20210011299A1 (en) Position adjustment apparatus and projection system including the same
WO2020241094A1 (ja) 表示システム
US11982817B2 (en) Display system
JP2020179745A (ja) 表示システム
JPWO2020080405A1 (ja) 表示システム、表示装置、及び表示制御方法
WO2019074114A1 (en) DISPLAY DEVICE, PROGRAM, IMAGE PROCESSING METHOD, DISPLAY SYSTEM, AND MOBILE BODY
US12039898B2 (en) Image display system
WO2021251117A1 (ja) 表示システム、及び、振動検出システム
US20230096047A1 (en) Display system
US20230162634A1 (en) Image display system
JP2021072455A (ja) 投影システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20814675

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021522714

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020814675

Country of ref document: EP

Effective date: 20220103