WO2020246113A1 - 表示制御装置および表示制御プログラム - Google Patents

表示制御装置および表示制御プログラム Download PDF

Info

Publication number
WO2020246113A1
WO2020246113A1 PCT/JP2020/012382 JP2020012382W WO2020246113A1 WO 2020246113 A1 WO2020246113 A1 WO 2020246113A1 JP 2020012382 W JP2020012382 W JP 2020012382W WO 2020246113 A1 WO2020246113 A1 WO 2020246113A1
Authority
WO
WIPO (PCT)
Prior art keywords
visible
display
display control
vehicle
overlapping portion
Prior art date
Application number
PCT/JP2020/012382
Other languages
English (en)
French (fr)
Inventor
神谷 玲朗
大祐 竹森
一輝 小島
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2020246113A1 publication Critical patent/WO2020246113A1/ja
Priority to US17/540,857 priority Critical patent/US11710429B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits

Definitions

  • the present disclosure relates to a display control device and a display control program that control the display of a virtual image.
  • Patent Document 1 proposes a display device for vehicles that superimposes and displays contents by a head-up display. This vehicle display device superimposes and displays the content indicating the route from the traveling position of the own vehicle to the guidance point in the front view of the driver.
  • Patent Document 1 It is considered that the technique of Patent Document 1 is premised on superimposing the content on the area visible to the occupant in the foreground. However, depending on the surrounding conditions such as the road structure, the content may be superimposed over the area visible to the occupant and the area invisible in the foreground within the angle of view of the head-up display. It is not proposed in Patent Document 1 to display the contents in an easy-to-understand manner even in such a situation.
  • An object of the present disclosure is to provide a display control device and a display control program capable of displaying in an easy-to-understand manner for occupants.
  • the display control device is used in a vehicle and controls the superimposed display of contents by a head-up display.
  • the display control device is included in the field surface in the foreground within the angle of view of the head-up display and visible to the occupants of the vehicle, and outside the visible area included in the angle of view and invisible to the occupants. It includes an estimation unit that estimates the area and a display control unit that superimposes and displays the route content that presents the planned travel route of the vehicle on the road surface, and the display control unit superimposes the route content on the visually visible area.
  • a non-overlapping portion (CTvn) within the visible portion that is out of the overlapping portion by discriminating between the inner visible portion, the outer visible portion that overlaps the outer visible area, and the overlapping portion that overlaps the inner visible portion and the outer visible portion.
  • the overlapping portion is displayed in a manner different from that of the non-visible non-overlapping portion which is different from the overlapping portion among the non-visible portions.
  • the display control program is used in the vehicle and controls the superimposed display of the content by the head-up display.
  • the display control program is included in at least one processing unit in the visible area within the angle of view of the head-up display and visible to the occupants of the vehicle, and within the angle of view and occupants of the road surface in the foreground.
  • the invisible non-visible area is estimated from the above, and the in-visible area that overlaps with the in-visible area and the non-visible area are superimposed on the road surface.
  • the non-visual part is discriminated from the overlapping part where the inner part and the outer part are overlapped with each other, and the non-overlapping part within the visible part and the non-overlapping part outside the visible part are deviated from the overlapping part.
  • a process including displaying the overlapping portion is executed in a manner different from that of the overlapping portion.
  • the overlapping portion of the route content is displayed in a manner different from the non-overlapping portion within the visible view and the non-overlapping portion outside the visible view. Therefore, the occupant can recognize the overlapping portion separately from the non-overlapping portion within the visible view and the non-overlapping portion outside the visible view. Therefore, it is easy to understand that the visually visible portion and the visually unrecognizable portion of the route content overlap.
  • the display control device is used in a vehicle and controls the superimposed display of the content by the head-up display.
  • the display control device is included in the field surface in the foreground within the angle of view of the head-up display and visible to the occupants of the vehicle, and outside the visible area included in the angle of view and invisible to the occupants. It includes an estimation unit that estimates the area and a display control unit that superimposes and displays the route content that presents the planned travel route of the vehicle on the road surface, and the display control unit superimposes the route content on the visually visible area.
  • the display is displayed in a mode different from that of the portion, and the overlapping portion is displayed in the same display mode as the visually visible portion.
  • the display control program is used in the vehicle and controls the superimposed display of the content by the head-up display.
  • the display control program is included in at least one processing unit in the visible area within the angle of view of the head-up display and visible to the occupants of the vehicle, and within the angle of view and occupants of the road surface in the foreground.
  • the invisible non-visible area is estimated from the above, and the in-visible area that overlaps with the in-visible area and the non-visible area are superimposed on the road surface.
  • the process including displaying in the same display mode as that of the visually visible part is executed.
  • the non-visible non-overlapping portion of the route content is displayed in a mode different from that of the visible internal portion, and the overlapping portion is displayed in the same display mode as the visible internal portion. Therefore, the occupant can recognize that a part of the visible outside portion is hidden by the visible inside portion. Therefore, it is easy to understand that the visually visible portion and the visually unrecognizable portion of the route content overlap. Therefore, it is possible to provide a display control device and a display control program capable of displaying in an easy-to-understand manner for the occupant.
  • FIG. 1 is a diagram showing an overall image of an in-vehicle network including an HCU according to the first embodiment of the present disclosure.
  • FIG. 2 is a diagram showing an example of a head-up display mounted on a vehicle.
  • FIG. 3 is a diagram showing an example of a schematic configuration of the HCU.
  • FIG. 4 is a diagram that visualizes and shows an example of a display layout simulation performed by the display generation unit.
  • FIG. 5 is a diagram showing an example of a guidance display.
  • FIG. 6 is a diagram showing an example of a guidance display.
  • FIG. 7 is a diagram showing an example of a guidance display.
  • FIG. 1 is a diagram showing an overall image of an in-vehicle network including an HCU according to the first embodiment of the present disclosure.
  • FIG. 2 is a diagram showing an example of a head-up display mounted on a vehicle.
  • FIG. 3 is a diagram showing an example of a schematic configuration of the HCU.
  • FIG. 4 is
  • FIG. 8 is a flowchart showing the display control method of the first embodiment.
  • FIG. 9 is a diagram showing an example of the guidance display of the second embodiment.
  • FIG. 10 is a diagram showing an example of a guidance display according to the third embodiment.
  • FIG. 11 is a diagram that visualizes and shows an example of a display layout simulation performed by the display generation unit of the fourth embodiment.
  • FIG. 12 is a diagram showing an example of POI display.
  • FIG. 13 is a diagram showing simultaneous display of POI display and guidance display.
  • FIG. 14 is a flowchart showing the display control method of the fourth embodiment.
  • FIG. 15 is a diagram showing simultaneous display of the POI display and the guidance display according to the fifth embodiment.
  • FIG. 16 is a diagram showing an example of a guidance display of another embodiment.
  • the function of the display control device according to the first embodiment of the present disclosure is realized by the HCU (Human Machine Interface Control Unit) 100 shown in FIGS. 1 and 2.
  • the HCU 100 comprises an HMI (Human Machine Interface) system 10 used in the vehicle A together with a head-up display (hereinafter, “HUD”) 20 and the like.
  • the HMI system 10 further includes an operation device 26, a DSM (Drive Status Monitor) 27, and the like.
  • the HMI system 10 has an input interface function for accepting user operations by an occupant (for example, a driver) of the vehicle A, and an output interface function for presenting information to the driver.
  • the HMI system 10 is communicably connected to the communication bus 99 of the vehicle-mounted network 1 mounted on the vehicle A.
  • the HMI system 10 is one of a plurality of nodes provided in the vehicle-mounted network 1.
  • a peripheral monitoring sensor 30, a locator 40, a DCM49, a driving support ECU (Electronic Control Unit) 50, a navigation device 60, and the like are connected to the communication bus 99 of the vehicle-mounted network 1 as nodes. These nodes connected to the communication bus 99 can communicate with each other.
  • the peripheral monitoring sensor 30 is an autonomous sensor that monitors the surrounding environment of the vehicle A. From the detection range around the own vehicle, the peripheral monitoring sensor 30 includes moving objects such as pedestrians, cyclists, non-human animals, and other vehicles, as well as falling objects, guardrails, curbs, road markings, traveling lane markings, and the like. It is possible to detect road markings and stationary objects such as roadside structures.
  • the peripheral monitoring sensor 30 provides the detection information of detecting an object around the vehicle A to the driving support ECU 50 and the like through the communication bus 99.
  • the peripheral monitoring sensor 30 has a front camera 31 and a millimeter wave radar 32 as a detection configuration for object detection.
  • the front camera 31 outputs at least one of the imaging data obtained by photographing the front range of the vehicle A and the analysis result of the imaging data as detection information.
  • a plurality of millimeter-wave radars 32 are arranged, for example, on the front and rear bumpers of the vehicle A at intervals from each other.
  • the millimeter wave radar 32 irradiates the millimeter wave or the quasi-millimeter wave toward the front range, the front side range, the rear range, the rear side range, and the like of the vehicle A.
  • the millimeter wave radar 32 generates detection information by a process of receiving reflected waves reflected by a moving object, a stationary object, or the like.
  • the peripheral monitoring sensor 30 may include detection configurations such as a rider and sonar.
  • the locator 40 generates highly accurate position information of vehicle A and the like by compound positioning that combines a plurality of acquired information.
  • the locator 40 can specify, for example, the lane in which the vehicle A travels among a plurality of lanes.
  • the locator 40 includes a GNSS (Global Navigation Satellite System) receiver 41, an inertial sensor 42, a high-precision map database (hereinafter, “high-precision map DB”) 43, and a locator ECU 44.
  • GNSS Global Navigation Satellite System
  • the GNSS receiver 41 receives positioning signals transmitted from a plurality of artificial satellites (positioning satellites).
  • the GNSS receiver 41 can receive a positioning signal from each positioning satellite of at least one satellite positioning system among satellite positioning systems such as GPS, GLONASS, Galileo, IRNSS, QZSS, and Beidou.
  • the inertial sensor 42 has, for example, a gyro sensor and an acceleration sensor.
  • the high-precision map DB 43 is mainly composed of a non-volatile memory, and stores map data with higher accuracy than that used for normal navigation (hereinafter, “high-precision map data”).
  • the high-precision map data holds detailed information at least for information in the height (z) direction.
  • High-precision map data includes information that can be used for advanced driving support and autonomous driving, such as three-dimensional shape information of roads (road structure information), number of lanes, and information indicating the direction of travel allowed for each lane. ing.
  • the locator ECU 44 has a configuration mainly including a microcomputer provided with a processor, a RAM, a storage unit, an input / output interface, a bus connecting these, and the like.
  • the locator ECU 44 combines the positioning signal received by the GNSS receiver 41, the measurement result of the inertial sensor 42, the vehicle speed information output to the communication bus 99, and the like, and sequentially positions the own vehicle position and the traveling direction of the vehicle A.
  • the locator ECU 44 provides the position information and the direction information of the vehicle A based on the positioning result to the HCU 100, the driving support ECU 50, and the like through the communication bus 99.
  • the vehicle speed information is information indicating the current traveling speed of the vehicle A, and is generated based on the detection signal of the wheel speed sensor provided in the hub portion of each wheel of the vehicle A.
  • the node (ECU) that generates vehicle speed information and outputs it to the communication bus 99 may be appropriately changed.
  • a brake control ECU that controls the distribution of braking force for each wheel, or an in-vehicle ECU such as the HCU100, is electrically connected to the wheel speed sensor of each wheel to generate vehicle speed information and output to the communication bus 99.
  • the locator ECU 44 determines whether or not the required high-precision map data is in the high-precision map DB 43 in response to a request from the HCU 100, the driving support ECU 50, and the like. When the requested high-precision map data is in the high-precision map DB 43, the locator ECU 44 reads the corresponding high-precision map data from the high-precision map DB 43 and provides it to the request source ECU.
  • the DCM (Data Communication Module) 49 is a communication module mounted on the vehicle A.
  • the DCM49 transmits and receives radio waves to and from base stations around the vehicle A by wireless communication in accordance with communication standards such as LTE (Long Term Evolution) and 5G.
  • LTE Long Term Evolution
  • the operation support ECU 50 has a configuration mainly including a computer including a processor, a RAM, a storage unit, an input / output interface, and a bus connecting these.
  • the driving support ECU 50 has a driving support function that supports the driving operation of the driver. As an example, at the automatic driving level specified by the American Society of Automotive Engineers of Japan, the driving support ECU 50 enables partially automatic driving control (advanced driving support) of level 2 or lower.
  • the driving support ECU 50 recognizes the driving environment around the vehicle A based on the detection information acquired from the peripheral monitoring sensor 30.
  • the driving support ECU 50 provides the HCU 100 with the analysis result of the detection information carried out for recognizing the driving environment as the analyzed detection information.
  • the driving support ECU 50 can provide the HCU 100 with the relative positions of the left and right lane markings or road edges of the lane in which the vehicle A is currently traveling (hereinafter, "own lane Lns", see FIG. 4).
  • the left-right direction is a direction that coincides with the width direction of the vehicle A stationary on the horizontal plane, and is set with reference to the traveling direction of the vehicle A.
  • the driving support ECU 50 can exert a plurality of functions for realizing advanced driving support by executing the program stored in the storage unit by the processor.
  • the driving support ECU 50 has an ACC (Adaptive Cruise Control) control unit and an LTC control unit.
  • the ACC control unit is a functional unit that realizes the functions of the ACC.
  • the ACC control unit causes the vehicle A to travel at a constant speed at the target vehicle speed, or causes the vehicle A to follow the vehicle A while maintaining the inter-vehicle distance from the vehicle in front.
  • the LTC control unit is a functional unit that realizes the function of the LTC (Lane Trace Control).
  • the LTC control unit causes the vehicle A to travel in the own lane in cooperation with the ACC control unit according to the planned traveling line generated along the running own lane Lns.
  • the navigation device 60 searches for a route to the set destination and guides the traveling along the searched route.
  • the navigation device 60 includes a navigation map database (hereinafter, navigation map DB) 61 and a navigation ECU 62.
  • the navigation ECU 62 is mainly composed of a microcomputer provided with a processor, RAM, a storage unit, an input / output interface, a bus connecting these, and the like.
  • the navigation ECU 62 acquires the position information and the direction information of the vehicle A (own vehicle) from the locator ECU 44 through the communication bus 99.
  • the navigation ECU 62 acquires the operation information input to the operation device 26 through the communication bus 99 and the HCU 100, and sets the destination based on the driver operation.
  • the navigation ECU 62 searches for a plurality of routes to the destination so as to satisfy conditions such as time priority and distance priority. When one of the plurality of searched routes is selected, the navigation ECU 62 provides the route information based on the set route to the HCU 100 through the communication bus 99 together with the related navigation map data.
  • the navigation ECU 62 sequentially outputs a guidance implementation request toward the HCU 100.
  • the guide point GP is set near the center of each of the intersection section and the branchable section as an example.
  • the guide point GP may be set on the front side or the back side of each of the intersection section and the branchable section.
  • the guidance implementation request is guidance information used for route guidance to the driver, and specifically includes information on the position of the guidance point GP and information indicating the direction in which the vehicle A should proceed at the guidance point GP. ..
  • the guidance implementation request is output when the remaining distance Lr (see FIG. 4) from the vehicle A to the guidance point GP becomes less than the first threshold value (for example, about 300 m).
  • the HCU 100 presents information related to route guidance based on the acquisition of the guidance implementation request from the navigation ECU 62.
  • the operation device 26 is an input unit that accepts user operations by a driver or the like.
  • a user operation for switching between starting and stopping is input to the operation device 26, for example, for a driving support function and an automatic driving function.
  • the operation device 26 includes a steering switch provided on the spoke portion of the steering wheel, an operation lever provided on the steering column portion 8, a voice input device for detecting the driver's utterance, and the like.
  • the DSM27 has a configuration including a near-infrared light source, a near-infrared camera, and a control unit for controlling them.
  • the DSM 27 is installed in a posture in which the near-infrared camera is directed toward the headrest portion of the driver's seat, for example, on the upper surface of the steering column portion 8 or the upper surface of the instrument panel 9.
  • the DSM27 uses a near-infrared camera to photograph the head of the driver irradiated with near-infrared light by a near-infrared light source.
  • the image captured by the near-infrared camera is image-analyzed by the control unit.
  • the control unit extracts information such as the position of the eye point EP and the line-of-sight direction from the captured image, and sequentially outputs the extracted state information to the HCU 100.
  • the HUD 20 is mounted on the vehicle A as one of a plurality of in-vehicle display devices together with a meter display, a center information display, and the like.
  • the HUD 20 is electrically connected to the HCU 100 and sequentially acquires video data generated by the HCU 100. Based on the video data, the HUD 20 presents various information related to the vehicle A, such as route information, sign information, and control information of each vehicle-mounted function, to the driver using the virtual image Vi.
  • the HUD 20 is housed in the storage space inside the instrument panel 9 below the windshield WS.
  • the HUD 20 projects the light formed as a virtual image Vi toward the projection range PA of the windshield WS.
  • the light projected on the windshield WS is reflected toward the driver's seat side in the projection range PA and is perceived by the driver.
  • the driver visually recognizes the display in which the virtual image Vi is superimposed on the foreground seen through the projection range PA.
  • the HUD 20 includes a projector 21 and a magnifying optical system 22.
  • the projector 21 has an LCD (Liquid Crystal Display) panel and a backlight.
  • the projector 21 is fixed to the housing of the HUD 20 with the display surface of the LCD panel facing the magnifying optical system 22.
  • the projector 21 displays each frame image of video data on the display surface of the LCD panel, and transmits and illuminates the display surface with a backlight to emit light formed as a virtual image Vi toward the magnifying optical system 22.
  • the magnifying optical system 22 is configured to include at least one concave mirror in which a metal such as aluminum is vapor-deposited on the surface of a base material made of synthetic resin or glass.
  • the magnifying optical system 22 projects the light emitted from the projector 21 onto the upper projection range PA while spreading it by reflection.
  • the angle of view VA is set for the above HUD20. Assuming that the virtual range in the space where the virtual image Vi can be imaged by the HUD 20 is the image plane IS, the angle of view VA is defined based on the virtual line connecting the driver's eye point EP and the outer edge of the image plane IS. The viewing angle.
  • the angle of view VA is an angle range in which the driver can visually recognize the virtual image Vi when viewed from the eye point EP. In HUD20, the horizontal angle of view in the horizontal direction is larger than the vertical angle of view in the vertical direction. When viewed from the eye point EP, the front range that overlaps with the image plane IS is the range within the angle of view VA.
  • the HUD 20 displays superimposed content CTs (see FIG. 6 and the like) and non-superimposed content as virtual image Vi.
  • Superimposed content CTs are AR display objects used for augmented reality (hereinafter referred to as “AR”) display.
  • the display position of the superimposed content CTs is associated with a specific superimposed object existing in the foreground, such as a specific position on the road surface, a vehicle in front, a pedestrian, and a road sign.
  • the superimposed content CTs are superimposed and displayed on a specific superimposed object in the foreground, and can be moved in the appearance of the driver following the superimposed object so as to be relatively fixed to the superimposed object.
  • the shape of the superimposed content CTs may be continuously updated at a predetermined cycle according to the relative position and shape of the superimposed object.
  • the superimposed content CTs are displayed in a posture closer to horizontal than the non-superimposed content, and have a display shape extending in the depth direction (traveling direction) as seen from the driver, for example.
  • the non-superimposed content is a non-AR display object excluding the superimposed content CTs among the display objects superimposed and displayed in the foreground. Unlike the superimposed content CTs, the non-superimposed content is displayed superimposed on the foreground without specifying the superimposed target.
  • the non-superimposed content is displayed at a fixed position in the projection range PA, so that it is displayed as if it is relatively fixed to the vehicle configuration such as the windshield WS.
  • the HCU 100 is an electronic control device that integrally controls the display by a plurality of in-vehicle display devices including the HUD 20 in the HMI system 10.
  • the HCU 100 mainly includes a computer including a processing unit 11, a RAM 12, a storage unit 13, an input / output interface 14, and a bus connecting them.
  • the processing unit 11 is hardware for arithmetic processing combined with the RAM 12.
  • the processing unit 11 has a configuration including at least one arithmetic core such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit).
  • the processing unit 11 may be configured to further include an FPGA (Field-Programmable Gate Array) and an IP core having other dedicated functions.
  • the RAM 12 may be configured to include a video RAM for video generation.
  • the processing unit 11 executes various processes for realizing the functions of the functional units described later.
  • the storage unit 13 is configured to include a non-volatile storage medium.
  • Various programs (display control programs, etc.) executed by the processing unit 11 are stored in the storage unit 13.
  • the HCU 100 shown in FIGS. 1 to 3 has a plurality of functional units for controlling the superimposed display of the content by the HUD 20 by executing the display control program stored in the storage unit 13 by the processing unit 11.
  • the HCU 100 is constructed with functional units such as a viewpoint position specifying unit 71, a locator information acquisition unit 72, a guidance information acquisition unit 73, a virtual layout unit 75, and a display generation unit 76.
  • the viewpoint position specifying unit 71 identifies the position of the eye point EP of the driver seated in the driver's seat based on the state information acquired from the DSM 27.
  • the viewpoint position specifying unit 71 generates three-dimensional coordinates (hereinafter, “eye point coordinates”) indicating the position of the eye point EP, and sequentially provides the generated eye point coordinates to the virtual layout unit 75.
  • the locator information acquisition unit 72 acquires the latest position information and direction information about the vehicle A from the locator ECU 44 as own vehicle position information. In addition, the locator information acquisition unit 72 acquires high-precision map data of the peripheral range of the vehicle A from the locator ECU 44. The locator information acquisition unit 72 sequentially provides the acquired vehicle position information and high-precision map data to the virtual layout unit 75.
  • the external world information acquisition unit 74 acquires detection information about the peripheral range of the vehicle A, particularly the front range, from the driving support ECU 50. Specifically, the outside world information acquisition unit 74 acquires detection information indicating the relative positions of the left and right lane markings or road edges of the own lane Lns. The external world information acquisition unit 74 sequentially provides the acquired detection information to the virtual layout unit 75. The external world information acquisition unit 74 may acquire the imaging data of the front camera 31 as the detection information instead of the detection information as the analysis result acquired from the driving support ECU 50.
  • the virtual layout unit 75 has a function of selecting contents to be used for information presentation based on various acquired information and a function of simulating the display layout of superimposed contents CTs (see FIG. 6 and the like).
  • the virtual layout unit 75 selects the content to be used for route guidance at the guidance point GP when the guidance implementation request is acquired from the navigation device 60. Specifically, content that guides a right or left turn at a branch point such as an intersection, content that guides a straight ahead of a predetermined distance, content that guides a lane change, and the like are appropriately selected.
  • the virtual layout unit 75 executes a virtual layout function that simulates the display layout of the superimposed content CTs based on various provided information.
  • the virtual layout unit 75 reproduces the current traveling environment of the vehicle A in the virtual space based on the own vehicle position information, high-precision map data, detection information, and the like.
  • the display generation unit 76 sets the own vehicle object AO at the reference position in the virtual three-dimensional space.
  • the display generation unit 76 maps the road model of the shape indicated by the high-precision map data to the three-dimensional space in association with the own vehicle object AO based on the own vehicle position information.
  • the display generation unit 76 sets a planned travel route based on the guidance information on the road model.
  • the display generation unit 76 sets the virtual camera position CP and the superimposition range SA in association with the own vehicle object AO.
  • the virtual camera position CP is a virtual position corresponding to the driver's eye point EP.
  • the display generation unit 76 sequentially corrects the virtual camera position CP with respect to the own vehicle object AO based on the latest eye point coordinates acquired by the viewpoint position specifying unit 71.
  • the superimposition range SA is a range in which the virtual image Vi can be superposed and displayed. When the display generation unit 76 looks forward from the virtual camera position CP based on the virtual camera position CP and the outer edge position (coordinates) information of the projection range PA stored in advance in the storage unit 13 (see FIG. 1) or the like.
  • the front range inside the projection range PA is set as the superimposition range SA.
  • the superimposition range SA corresponds to the angle of view VA of HUD20.
  • the virtual layout unit 75 arranges the virtual object V1 so as to overlap the planned traveling route arranged on the road surface of the road model in the three-dimensional space.
  • the virtual object V1 is set in the virtual space when the path content CTr described later is displayed as a virtual image.
  • the virtual object V1 is a strip-shaped object arranged so as to cover the virtual road surface of the planned travel route in a plane.
  • the virtual object V1 has a curved shape connecting the approach lane and the exit lane as shown in FIG. 4 in the right / left turn scene at the intersection.
  • the virtual object V1 defines the position and shape of the route content CTr. That is, the shape of the virtual object V1 seen from the virtual camera position CP becomes the virtual image shape of the path content CTr visually recognized from the eye point EP.
  • the virtual layout unit 75 is included in the angle of view VA of the HUD 20 in the road surface in the foreground, and the visible in-visible area Av that is visible to the driver and the non-visible invisible area Ai that is invisible to the driver are combined into a virtual space. Estimate based on the virtual camera position CP and road structure model set inside. For example, as shown in FIG. 4, the virtual layout unit 75 sets a virtual road surface that intersects a straight line extended from the virtual camera position CP in the superimposition range SA as a visible area Av, and even if it is included in the superimposition range SA, the straight line The virtual road surface that does not intersect with is defined as the non-visual area Ai.
  • the virtual layout unit 75 estimates the visible area Av and the non-visible area Ai with respect to at least the range in which the virtual object V1 is arranged on the virtual road surface.
  • the virtual layout unit 75 indirectly determines each area Av and Ai by estimating a visible object portion and an invisible object portion from the virtual camera position CP from the virtual objects V1 arranged on the virtual road surface. It may be a configuration that estimates the object.
  • the virtual layout unit 75 estimates that the virtual road surface of the uphill road is the visible area Av and the virtual road surface of the flat road is the non-visual area Ai.
  • the virtual road surface ahead of the uphill road in front can be visually recognized. It can be the outer area Ai.
  • the virtual layout unit 75 is an example of an estimation unit.
  • the display generation unit 76 controls the presentation of information to the driver by the HUD 20 by a process of generating video data that is sequentially output to the HUD 20.
  • the display generation unit 76 is an example of a display control unit.
  • the display generation unit 76 has a function of drawing the content and a function of controlling the display period of the content based on various acquired information.
  • the display generation unit 76 determines the original image to be drawn in each frame image constituting the video data based on the selection result of the content acquired from the virtual layout unit 75.
  • the display generation unit 76 draws the drawing position and drawing shape of the original image in the frame image according to the eye point EP and each position of the overlay target. To correct.
  • the superimposed content CTs are displayed at the position and shape correctly superimposed on the superimposed object when viewed from the eye point EP.
  • the display generation unit 76 selects the content to be drawn on the video data based on the content selection result of the virtual layout unit 75 and the layout information as the simulation result using the virtual space. As an example, the display generation unit 76 draws the route content CTr (see FIGS. 5 to 7), which is the content related to the route guidance processing, and presents it to the driver.
  • the route content CTr see FIGS. 5 to 7
  • Route content CTr is content used to display the planned travel route of vehicle A.
  • the route content CTr are superimposed content CTs that target the road surface of the planned travel route to be superimposed, and the drawing shape is determined based on the virtual object V1 arranged in the display simulation.
  • the route content CTr is drawn in a shape along the planned travel route, and indicates the lane in which vehicle A should travel, the point where right / left turn and lane change are required, and the like.
  • the route content CTr is a drawing shape that imitates the shape of the lane of the planned travel route, and is a seat shape that extends in a strip shape along the traveling direction of the vehicle A.
  • the route content CTr has a linear shape
  • the route content CTr has a mode that connects the approach lane and the exit lane on the planned travel route within the intersection.
  • the route content CTr updates the drawing shape at a predetermined update cycle so as to match the road surface shape seen from the eye point EP according to the traveling of the vehicle A.
  • the display generation unit 76 When drawing the above-mentioned route content CTr, the display generation unit 76 includes the visible inner portion CTv superimposed on the visible inner area Av of the road surface and the non-visible visible portion CTv superimposed on the visible outer area Ai of the road surface in the route content CTr. Distinguish from partial CTi (see FIG. 6). Based on the result of the display simulation, the display generation unit 76 determines the content portion of the virtual object V1 corresponding to the object portion arranged in the visible area Av as the visible internal portion CTv. The display generation unit 76 determines the content portion corresponding to the object portion arranged in the non-visually visible area Ai as the non-visually visible portion CTi.
  • the display generation unit 76 uses the result of the display simulation to discriminate between the overlapping portion CTo where the visible inner portion CTv and the visible outer portion CTi overlap and the non-overlapping portion.
  • the display generation unit 76 provides a content portion corresponding to a range in which the object portion arranged in the visible area Av and the object portion arranged in the non-visible area Ai overlap when looking forward from the virtual camera position CP. It is determined to be an overlapping part CTo.
  • the display generation unit 76 determines that the portion of the visible inner portion CTv that does not overlap with the non-visual portion CTi is determined to be the non-visually overlapping portion CTvn, and the portion of the non-visually visible portion CTi that does not overlap with the visible inner portion CTv is determined. It is determined to be a non-visible non-overlapping portion CTin.
  • the display generation unit 76 changes the display mode of the route content CTr according to the above-mentioned determination result and the remaining distance Lr to the guide point GP. This change in display mode will be described below with reference to FIGS. 4 to 6.
  • the display generation unit 76 sets only the visible inner portion CTv of the route content CTr to the non-visualized portion CTi. Display in advance (see FIG. 5). The display generation unit 76 hides the non-visible portion CTi even when the road surface corresponding to the non-visible area Ai is included in the angle of view VA. As a result, the display generation unit 76 presents only the planned travel route on the road surface visible to the driver to the driver at the stage relatively far from the guide point GP.
  • the display generation unit 76 displays both the visible inner portion CTv and the non-visible portion CTi (see FIG. 6). As a result, the display generation unit 76 presents the driver, including the planned travel route on the road surface, which cannot be seen by the driver, to the driver when the guide point GP is relatively close to the guide point GP. In the example of FIG. 6, it is indicated by the non-visual part CTi that it is necessary to turn left beyond the visible area Av. Further, when displaying the non-visible portion CTi, the display generation unit 76 makes an animation display so that the non-visual portion CTi follows the planned travel direction and extends in the traveling direction. In the example of FIG.
  • the animation is displayed so that the non-visual portion CTi extends from the upper edge portion of the visible inner portion CTv toward the vicinity of the left edge of the angle of view VA.
  • the display generation unit 76 may display the entire non-visible portion CTi including the overlapping portion CTo and the non-visible non-overlapping portion CTin, and the overlapping portion CTo is not visible. It may be displayed prior to the non-overlapping portion CTin. In this case, the non-visible non-overlapping portion CTin may be configured to be displayed when the remaining distance Lr becomes smaller.
  • the display generation unit 76 displays the non-overlapping portion CTvn in the visible area, the non-overlapping part CTin outside the visible area, and the overlapping part CTo in different modes.
  • the display generation unit 76 makes it possible to distinguish and visually recognize the overlapping portions of the route content CTr.
  • the display generation unit 76 sets the brightness of the overlapping portion CTo to be the lowest among the three partial CTvn, CTin, and CTo.
  • the display generation unit 76 sets the brightness of the non-visible non-overlapping portion CTin to be higher than the overlapping portion CTo and lower than the visible non-overlapping portion CTvn.
  • the overlapping portion CTo is visually recognized as the darkest among the three portions constituting the route content CTr.
  • the non-overlapping non-overlapping portion CTin is visually recognized darker than the non-overlapping portion CTvn within the visible area.
  • the display generation unit 76 when the non-visual area Ai on the road surface becomes the in-visible area Av as the vehicle A travels, the display generation unit 76 also visually recognizes the corresponding portion of the route content CTr from the display mode as the non-visible part CTi.
  • the display mode is changed to the inner portion CTv (see FIG. 7). For example, when the vehicle A moves from an uphill road to a flat road, the non-visual area Ai gradually becomes the visible in-area Av from the front side. In accordance with this change, the display generation unit 76 gradually changes the portion displayed in the display mode of the non-visual portion CTi to the display mode of the visible inner portion CTv.
  • the display control process shown in FIG. 8 is started by the HCU 100 that has completed the start-up process or the like, for example, by switching the vehicle power supply to the on state.
  • the HCU 100 determines in S10 whether or not the destination is set based on the information from the navigation ECU 62. If it is determined that the destination has not been set, the determination in S10 is repeated until the destination is set. If it is determined that the destination has been set, the process proceeds to S20.
  • S20 it is determined whether or not there is a guidance implementation request from the navigation ECU 62. In other words, it is determined whether or not the remaining distance Lr from the vehicle A to the guide point GP is less than the first threshold value. If it is determined that there is no guidance implementation request, the determination in S20 is repeated until the guidance implementation request is obtained. On the other hand, if it is determined that there is a guidance implementation request, the process proceeds to S30.
  • the display layout is simulated to estimate the visible area Av and the non-visible area Ai of the road surface.
  • the process proceeds to S40, and only the visible inner portion CTv of the route content CTr is superimposed and displayed on the road surface, and the non-visible portion CTi is hidden. That is, the route content CTr is superimposed and displayed only in the visible area Av.
  • the process proceeds to S50.
  • S50 it is determined whether or not the remaining distance Lr from the vehicle A to the guide point GP is less than the second threshold value based on the own vehicle position information from the locator ECU 44 and the position information of the guide point GP from the navigation ECU 62. While it is determined that the remaining distance Lr is equal to or higher than the second threshold value, the processes of S30 and S40 are repeated, and the drawing shape of the visible inner portion CTv is updated according to the change of each area Av and Ai due to traveling. I will go. On the other hand, if it is determined that the remaining distance Lr is less than the second threshold value, the process proceeds to S60.
  • S60 the estimation of each area Av and Ai is performed again, and the process proceeds to S70.
  • S70 after discriminating the visible inner portion CTv, the non-visible portion CTi, and the overlapping portion CTo of the route content CTr based on the respective areas Av and Ai estimated in S60, the process proceeds to S80.
  • each part of the non-overlapping part CTvn in the visible area, the non-overlapping part CTin outside the visible area, and the overlapping part CTo is displayed with different set luminances based on the discrimination result.
  • S90 it is determined whether or not the end condition of the superimposed display of the route content CTr is satisfied. It is determined that the end condition is satisfied based on, for example, the passage of the guide point GP or the passage of the guide end point set ahead of the guide point GP in the traveling direction. While it is determined that the end condition is not satisfied, the processes from S60 to S80 are repeated to update the drawing shape and display mode of the route content CTr. On the other hand, if it is determined that the end condition is satisfied, the process proceeds to S100, the entire route content CTr is hidden, and a series of processes is ended.
  • the display generation unit 76 of the HCU 100 includes a visible inner portion CTv that overlaps with the visible inner area Av of the road surface, a visible outer portion CTi that overlaps with the visible outer area Ai of the road surface, and a visible inner portion CTv. It is discriminated from the overlapping portion CTo where the non-visible portion CTi overlaps.
  • the display generation unit 76 displays the overlapping portion CTo in a manner different from that of the non-visually overlapping portion CTvn in the visible inner portion CTv and the non-visible non-overlapping portion CTin in the non-visible portion CTi.
  • the overlapping portion CTo of the route content CTr is displayed in a mode different from that of the non-overlapping portion CTvn within the visible view and the non-overlapping portion CTin outside the visible view. Therefore, the driver, who is an occupant, can recognize the overlapping portion CTo separately from the non-overlapping portion CTvn within the visible range and the non-overlapping portion CTin outside the visible view. Therefore, it is easy to see that the visible inner portion CTv and the non-visible portion CTi of the route content CTr overlap. As described above, the HCU 100 can be displayed in an easy-to-understand manner for the driver.
  • the display generation unit 76 displays the non-overlapping portion CTvn in the visible state and the non-overlapping portion CTin in the non-visually visible in different modes. According to this, the driver can distinguish and recognize the non-overlapping portion CTvn within the visible range and the non-overlapping portion CTin outside the visible view. Therefore, each part CTvi, CTvn, and CTo of the route content CTr is displayed in a more understandable and distinct manner.
  • the display generation unit 76 displays the brightness of the overlapping portion CTo lower than the brightness of the non-visible non-overlapping portion CTin, and displays the brightness of the non-visible non-overlapping portion CTin lower than the brightness of the visible non-overlapping portion CTvn.
  • the overlapping portion CTo is visually recognized as darkest among the three portions constituting the route content CTr, and the non-visible non-overlapping portion CTin is visually recognized as darker than the visible non-overlapping portion CTvn.
  • the driver makes it as if the non-visual portion CTi is blocked by the road surface and becomes dark, and the overlapping portion CTo becomes even darker due to the overlap between the non-visual portion CTi and the visible inner portion CTv. It can be recognized as if it were.
  • the display generation unit 76 can display the route content CTr in an easy-to-understand manner.
  • the display generation unit 76 causes the visible inner portion CTv to be subsequently displayed prior to the visible outer portion CTi. According to this, the display generation unit 76 can display the non-visible portion CTi, which tends to be displayed on the side farther from the vehicle A, behind the visible inner portion CTv. Therefore, it is possible to prevent the non-visible portion CTi from being displayed small at a stage relatively far from the non-visible area Ai. As a result, the display generation unit 76 can present the route content CTr to the driver in a more understandable manner.
  • the display generation unit 76 changes the display from the non-visible part CTi corresponding to the area of the non-visible area Ai that can be seen by the driver to the display having the same mode as the visible inner part CTv. According to this, even when the non-visual area Ai changes to the visible area Av as the vehicle A travels, the display of each part of the route content CTr can be updated according to the change.
  • the display generation unit 76 has different display modes only for the overlapping portion CTo among the three partial CTvn, CTin, and CTo constituting the route content CTr, and the non-visible non-overlapping portion CTin and the visible non-overlapping portion CTin.
  • the partial CTvn has an equivalent display mode.
  • the brightness of the non-visually overlapping non-overlapping portion CTin is set to be substantially the same as that of the visually invisible non-overlapping portion CTvn. This allows the driver to perceive the overlapping portion CTo as if it were darkened by the overlap of the non-visual portion CTi and the visible inner portion CTv. Therefore, the HCU 100 can display the route content CTr to the driver in an easy-to-understand manner even when only the overlapping portion CTo has a different display mode.
  • the display generation unit 76 has the same display mode for the overlapping portion CTo and the non-overlapping portion CTvn within the visible view, and the non-visible non-overlapping portion CTin has a display mode different from that for the visible inner portion CTv.
  • the overlapping portion CTo and the non-overlapping portion CTvn within the visible range have the same display mode so that they can be visually recognized without being distinguished from the driver.
  • the overlapping portion CTo and the non-overlapping portion CTvn in the visible state are displayed with the same brightness.
  • the non-visible non-overlapping portion CTin is displayed with a lower brightness than the overlapping portion CTo and the in-visible non-overlapping portion CTvn. According to such a display mode, a part of the non-visually visible portion CTi can be visually recognized as if it is partially blocked by the visible inner portion CTv, and the unobstructed portion can be visually recognized separately from the visible inner portion CTv. ..
  • the overlapping portion CTo is displayed in the same manner as the visible non-overlapping portion CTvn, and the non-visible non-overlapping portion CTin is different from the visible non-overlapping portion CTvn. Displayed in mode. Therefore, the driver can recognize that a part of the non-visual portion CTi is blocked by the visible inner portion CTv and the other portion is deviated from the visible inner portion CTv. Therefore, the HCU 100 of the third embodiment can be displayed in an easy-to-understand manner for the occupant.
  • the overlapping portion CTo and the non-overlapping portion CTvn in the visible state may have the same display mode such as transmittance, display color, and pattern. Further, the non-visible non-overlapping portion CTin and the visible inner portion CTv may also have different display modes due to differences in transmittance, display color, pattern, and the like.
  • the POI is a specific point, for example, a point that serves as a mark for reaching the destination.
  • the POI includes the facility of the destination, the entrance to the site of the destination, the guide point GP immediately before the destination, and the like. It should be noted that the POI may include points that the driver should pay attention to, other than the marks for reaching the destination.
  • the POI display implementation request requesting the display of the POI is provided to the HCU 100 by the navigation ECU 62 and the locator ECU 44.
  • the POI display implementation request is provided when the remaining distance Lr from the vehicle A to the POI falls below a predetermined threshold value (display threshold value).
  • the POI display implementation request includes at least the location information of the POI.
  • the guidance information acquisition unit 73 functions as an acquisition unit that acquires the POI display implementation request in addition to the guidance implementation request.
  • the guidance information acquisition unit 73 functions as an acquisition unit that acquires the POI display implementation request in addition to the guidance implementation request.
  • the virtual layout unit 75 In order to display the virtual image of the POI content CTp, the virtual layout unit 75 first sets the position of the guide point GP (POI) in the virtual space, and arranges the virtual object V2 at that position.
  • the virtual object V2 is an object that defines the position and shape of the POI content CTp.
  • the virtual object V2 has a shape that tapers toward the position of the set guide point GP.
  • the virtual object V2 is arranged at a position where the tapered tip is directed downward and the tip is aligned with the guide point GP on the virtual road surface.
  • the virtual layout unit 75 estimates a virtual visible portion V2v that can be seen from the virtual camera position CP and a virtual invisible portion V2i that cannot be seen, among the virtual objects V2 included in the superposition range SA.
  • the virtual layout unit 75 is concerned when there is no virtual structure such as a virtual road surface or a virtual building between the virtual camera position CP and the straight line connecting the virtual object V2.
  • the part is estimated as a virtual visible part V2v.
  • the virtual layout unit 75 estimates that portion as the virtual invisible portion V2i.
  • the virtual layout unit 75 provides the display generation unit 76 with a simulation result including information regarding the range of the virtual visible portion V2v and the virtual invisible portion V2i in the virtual object V2.
  • the display generation unit 76 draws the POI content CTp based on the simulation result of the display layout.
  • the drawing shape of the POI content CTp is determined based on the virtual object V2.
  • the POI content CTp is drawn in a shape indicating the position of the guide point GP in the foreground, and presents the existence of the guide point GP and its position to the driver.
  • the POI content CTp has, for example, a so-called map pin icon-like drawing shape that tapers downward.
  • the POI content CTp is an example of specific point content.
  • the display generation unit 76 includes a visible portion CTpv superimposed on a region visible to the driver in the foreground included in the angle of view VA and an invisible portion CTp superimposed on the invisible region. To determine. The display generation unit 76 discriminates each portion CTpv and CTpi based on the estimation information of the virtual visible portion V2v and the virtual invisible portion V2i of the virtual object V2.
  • the display generation unit 76 displays the visible portion CTpv and the invisible portion CTpi in different display modes.
  • the invisible portion CTpi has a lower brightness than the visible portion CTpv. Therefore, the driver can visually recognize a part of the POI content CTp as if it is blocked by the road surface and becomes dark. From the above, it becomes easy to understand that the POI content CTp points to the position of the POI at the end of the uphill road.
  • the display generation unit 76 may reverse the brightness of the invisible portion CTpi and the visible portion CTpv. Further, the display generation unit 76 may display the invisible portion CTpi and the visible portion CTpv in different display modes by changing the transmittance, the display color, the pattern, and the like.
  • the invisible portion CTpi of the POI content CTp overlaps with the overlapping portion CTo of the route content CTr.
  • the invisible portion CTpi is set to have a lower brightness than the case where it does not overlap the overlapping portion CTo.
  • the invisible portion CT is set to have a lower brightness than the overlapping portion CTo.
  • the visible portion CTpv of the POI content CTp is displayed with a higher brightness than the overlapping portion CTo and the non-visible non-overlapping portion CTin.
  • the display control process shown in FIG. 8 is started by the HCU 100 that has completed the start-up process or the like, for example, by switching the vehicle power supply to the on state.
  • S410 it is determined whether or not the POI display start condition is satisfied. It is determined that the start condition is satisfied when, for example, the POI display execution request is acquired from the navigation ECU 62. If it is determined that the start condition is not satisfied, the determination of S410 is repeated until the start condition is satisfied. If it is determined that the start condition is satisfied, the process proceeds to S415 to acquire the POI position information. When the POI display execution request includes the position information, S415 is executed at the same time as S410. When the POI position information is acquired, the process proceeds to S420.
  • S420 whether or not the remaining distance Lr from the vehicle A to the guide point GP is equal to or less than the display threshold value based on the own vehicle position information acquired from the locator ECU 44 and the position information of the guide point GP acquired from the navigation ECU 62. judge. When it is determined that the remaining distance Lr exceeds the display threshold value, the determination of S420 is repeated until it becomes equal to or less than the display threshold value. On the other hand, if it is determined that the remaining distance Lr is equal to or less than the display threshold value, the process proceeds to S430.
  • the virtual visible portion V2v and the virtual invisible portion V2i of the virtual object V2 are estimated based on the eye point information acquired from the DSM 27, the high-precision map data acquired from the locator ECU 44, and the vehicle position information. Estimating each virtual part proceeds to S440.
  • the POI content CTp is divided into a visible portion CTpv and an invisible portion CTpi based on the estimation result, and the POI content CTp is superimposed and displayed at the set brightness corresponding to each partial CTpv and CTpi.
  • the process proceeds to S450.
  • S450 it is determined whether or not the POI display end condition is satisfied. It is determined that the end condition of the POI display is satisfied, for example, when the vehicle A passes the POI point. While it is determined that the end condition is not satisfied, the processing of S430 and S440 is repeated, and each part CTpv and CTpi of the POI content CTp is classified according to the change of the virtual visible part V2v and the virtual invisible part V2i due to running. Will be updated. On the other hand, if it is determined that the end condition is satisfied, the process proceeds to S460, the POI content CTp is hidden, and a series of processes is ended.
  • the display generation unit 76 of the fourth embodiment discriminates between the visible portion CTpv and the invisible portion CTp of the POI content CTp indicating the POI, and superimposes and displays each portion CTpv and CTpi in different modes. According to this, the driver can distinguish between the visible portion CTpv and the invisible portion CTpi also with respect to the POI content CTp. Therefore, the display generation unit 76 can display the driver in an easy-to-understand manner.
  • the display generation unit 76 sets the overlapping portion CTo to the same display mode as the non-visible non-overlapping portion CTin.
  • the overlapping portion CTo is set to the same brightness as the non-visible non-overlapping portion CTin.
  • the invisible portion CTpi of the POI content CTp is set to a lower brightness than the non-visible non-overlapping portion CTin and the overlapping portion CTo.
  • the visible portion CTpv is set to a higher brightness than the non-visible non-overlapping portion CTin.
  • the display mode of the overlapping portion CTo is set to the same display mode as the non-visible non-overlapping portion CTin. Therefore, the parts having different display modes are reduced from the entire displayed two contents CTp and CTr. Therefore, the content display becomes simpler and the visibility is improved.
  • the HCU 100 superimposes and displays the route content CTr that presents the route to the destination set by the navigation device 60.
  • the route content CTr that presents the planned travel route of the vehicle A by LTC, LCA, or the like may be displayed.
  • the display generation unit 76 displays the brightness of the non-overlapping portion CTvn in the visible area, the non-overlapping portion CTin outside the visible area, and the overlapping portion CTo in this order, but the luminance is high or low.
  • the relationship is not limited to this.
  • the display generation unit 76 is determined to have different display modes by differentizing the brightness of each portion CTvn, CTin, and CTo, but instead of this, different display modes are obtained by changing the transmittance, display color, or pattern. It may be configured as.
  • the display generation unit 76 may hide the visible inner portion CTv and display only the non-visible portion CTi in the route content CTr as shown in FIG.
  • the display generation unit 76 can perform such a display mode when displaying the visible inner portion CTv complicates the angle of view VA, such as when there is another display object superimposed on the visible inner area Av. It may be configured.
  • the processing unit and processor of the above-described embodiment include one or more CPUs (Central Processing Units).
  • a processing unit and a processor may be a processing unit including a GPU (Graphics Processing Unit), a DFP (Data Flow Processor), and the like in addition to the CPU.
  • the processing unit and the processor may be a processing unit including an FPGA (Field-Programmable Gate Array) and an IP core specialized in specific processing such as learning and inference of AI.
  • Each arithmetic circuit unit of such a processor may be individually mounted on a printed circuit board, or may be mounted on an ASIC (Application Specific Integrated Circuit), an FPGA, or the like.
  • ASIC Application Specific Integrated Circuit
  • non-transitional substantive storage media such as a flash memory and a hard disk
  • the form of such a storage medium may also be changed as appropriate.
  • the storage medium may be in the form of a memory card or the like, and may be inserted into a slot portion provided in an in-vehicle ECU and electrically connected to a control circuit.
  • control unit and its method described in the present disclosure may be realized by a dedicated computer constituting a processor programmed to execute one or a plurality of functions embodied by a computer program.
  • the apparatus and method thereof described in the present disclosure may be realized by a dedicated hardware logic circuit.
  • the apparatus and method thereof described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor that executes a computer program and one or more hardware logic circuits.
  • the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.
  • the display control device is used in a vehicle and controls the superimposed display of contents by a head-up display.
  • the display control device includes an acquisition unit that acquires position information of a specific point and a display control unit that superimposes and displays specific point content pointing to a specific point.
  • the display control unit is a head-up display of the specific point content.
  • the visible part that is included in the angle of view and overlaps with the space range that can be seen by the occupant is discriminated from the invisible part that is included in the angle of view and overlaps with the space range that is invisible to the occupant.
  • the part is superimposed and displayed in a different manner.
  • the display control program is used in a vehicle and controls the superimposed display of contents by a head-up display.
  • the display control program acquires the position information of a specific point in at least one processing unit, and is included in the angle of view of the head-up display and is visible to the occupant in the specific point content indicating the specific point.
  • Processing including discriminating between the visible part that overlaps with and the invisible part that overlaps with the spatial range that is included in the angle of view and is invisible to the occupant, and the visible part and the invisible part are superimposed and displayed in different modes. To execute.
  • the visible portion of the specific point content that overlaps with the spatial range visible to the occupant and the invisible portion that overlaps with the spatial range invisible to the occupant are superimposed and displayed in different aspects. .. Therefore, the occupant can distinguish between the visible part and the invisible part. Therefore, it is possible to provide a display control device and a display control program capable of displaying an easy-to-understand display for the occupant.
  • each section is expressed as, for example, S10. Further, each section can be divided into a plurality of subsections, while a plurality of sections can be combined into one section.
  • each section thus constructed can be referred to as a device, module, or means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Optics & Photonics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

車両(A)において用いられ、ヘッドアップディスプレイ(20)によるコンテンツの重畳表示を制御する表示制御装置又は表示制御プログラムにより、前景中の路面のうち、ヘッドアップディスプレイの画角(VA)内に含まれ且つ車両の視認可能な視認内エリア(Av)と、画角内に含まれ且つ視認不可能な視認外エリア(Ai)とが推定され、路面に重畳表示されて車両の進行予定経路を提示する経路コンテンツ(CTr)のうちで、視認内エリアと重畳する視認内部分(CTv)と、視認外エリアと重畳する視認外部分(CTi)と、視認内部分および視認外部分が重なる重複部分(CTo)とが判別され、視認外部分のうちで重複部分から外れる視認外非重複部分(CTin)が表示される。

Description

表示制御装置および表示制御プログラム 関連出願の相互参照
 本出願は、2019年6月5日に出願された日本国特許出願2019-105594号に基づくものであり、ここにその記載内容を参照により援用する。
 本開示は、虚像の表示を制御する表示制御装置および表示制御プログラムに関する。
 特許文献1には、ヘッドアップディスプレイによってコンテンツを重畳表示する車両用表示装置が提案されている。この車両用表示装置は、ドライバの前方視界に自車の走行位置から誘導地点までの経路を示すコンテンツを重畳表示させる。
WO 2015/118859 A1
 特許文献1の技術では、前景中の乗員から見える領域にコンテンツを重畳表示させることが前提であると考えられる。しかし、道路構造等の周囲状況によっては、ヘッドアップディスプレイの画角内の前景中のうちで乗員から視認可能な領域および視認不可能な領域に跨ってコンテンツを重畳する場合が起こり得る。このような状況においてもコンテンツを分かり易く表示することは、特許文献1には提案されていない。
 本開示の目的は、乗員に対して分かり易い表示が可能な表示制御装置および表示制御プログラムを提供することである。
 本開示の一態様によると、表示制御装置は、車両において用いられ、ヘッドアップディスプレイによるコンテンツの重畳表示を制御する。表示制御装置は、前景中の路面のうち、ヘッドアップディスプレイの画角内に含まれ且つ車両の乗員から視認可能な視認内エリアと、画角内に含まれ且つ乗員から視認不可能な視認外エリアとを推定する推定部と、車両の進行予定経路を提示する経路コンテンツを路面に重畳表示させる表示制御部と、を備え、表示制御部は、経路コンテンツのうちで、視認内エリアと重畳する視認内部分と、視認外エリアと重畳する視認外部分と、視認内部分および視認外部分が重なる重複部分とを判別し、視認内部分のうちで重複部分から外れる視認内非重複部分(CTvn)および視認外部分のうちで重複部分から外れる視認外非重複部分と異なる態様で、重複部分を表示させる。
 本開示の他の一態様によると、表示制御プログラムは、車両において用いられ、ヘッドアップディスプレイによるコンテンツの重畳表示を制御する。表示制御プログラムは、少なくとも1つの処理部に、前景中の路面のうち、ヘッドアップディスプレイの画角内に含まれ且つ車両の乗員から視認可能な視認内エリアと、画角内に含まれ且つ乗員から視認不可能な視認外エリアとを推定し、路面に重畳表示されて車両の進行予定経路を提示する経路コンテンツのうちで、視認内エリアと重畳する視認内部分と、視認外エリアと重畳する視認外部分と、視認内部分および視認外部分が重なる重複部分とを判別し、視認内部分のうちで重複部分から外れる視認内非重複部分および視認外部分のうちで重複部分から外れる視認外非重複部分と異なる態様で、重複部分を表示させる、ことを含む処理を実行させる。
 本開示によれば、経路コンテンツのうちの重複部分が、視認内非重複部分および視認外非重複部分と異なる態様で表示される。このため、乗員は、重複部分を、視認内非重複部分および視認外非重複部分と区別して認識することができる。故に、経路コンテンツの視認内部分と視認外部分とが重なっていることが分かり易い。以上により、乗員に対して分かり易い表示が可能な表示制御装置および表示制御プログラムを提供できる。
 更に、本開示の他の一態様によると、表示制御装置は、車両において用いられ、ヘッドアップディスプレイによるコンテンツの重畳表示を制御する。表示制御装置は、前景中の路面のうち、ヘッドアップディスプレイの画角内に含まれ且つ車両の乗員から視認可能な視認内エリアと、画角内に含まれ且つ乗員から視認不可能な視認外エリアとを推定する推定部と、車両の進行予定経路を提示する経路コンテンツを路面に重畳表示させる表示制御部と、を備え、表示制御部は、経路コンテンツのうちで、視認内エリアと重畳する視認内部分と、視認外エリアと重畳する視認外部分と、視認内部分および視認外部分が重なる重複部分とを判別し、視認外部分のうち重複部分から外れる視認外非重複部分を、視認内部分と異なる態様で表示させ、重複部分を、視認内部分と同様の表示態様で表示させる。
 更に、本開示の他の一態様によると、表示制御プログラムは、車両において用いられ、ヘッドアップディスプレイによるコンテンツの重畳表示を制御する。表示制御プログラムは、少なくとも1つの処理部に、前景中の路面のうち、ヘッドアップディスプレイの画角内に含まれ且つ車両の乗員から視認可能な視認内エリアと、画角内に含まれ且つ乗員から視認不可能な視認外エリアとを推定し、路面に重畳表示されて車両の進行予定経路を提示する経路コンテンツのうちで、視認内エリアと重畳する視認内部分と、視認外エリアと重畳する視認外部分と、視認内部分および視認外部分が重なる重複部分とを判別し、視認外部分のうち重複部分から外れる視認外非重複部分を、視認内部分と異なる態様で表示させ、重複部分を、視認内部分と同様の表示態様で表示させる、ことを含む処理を実行させる。
 本開示によれば、経路コンテンツのうちで、視認外非重複部分が、視認内部分と異なる態様で表示され、重複部分は、視認内部分と同様の表示態様で表示される。このため、乗員は、視認外部分の一部が視認内部分によって隠されていることを認識し得る。故に、経路コンテンツの視認内部分と視認外部分とが重なっていることが分かり易い。したがって、乗員に対して分かり易い表示が可能な表示制御装置および表示制御プログラムを提供できる。
 本開示についての上記および他の目的、特徴や利点は、添付図面を参照した下記詳細な説明から、より明確になる。添付図面において、
図1は、本開示の第1実施形態によるHCUを含む車載ネットワークの全体像を示す図である。 図2は、車両に搭載されるヘッドアップディスプレイの一例を示す図である。 図3は、HCUの概略的な構成の一例を示す図である。 図4は、表示生成部にて実施される表示レイアウトのシミュレーションの一例を、可視化して示す図である。 図5は、案内表示の一例を示す図である。 図6は、案内表示の一例を示す図である。 図7は、案内表示の一例を示す図である。 図8は、第1実施形態の表示制御方法を示すフローチャートである。 図9は、第2実施形態の案内表示の一例を示す図である。 図10は、第3実施形態の案内表示の一例を示す図である。 図11は、第4実施形態の表示生成部にて実施される表示レイアウトのシミュレーションの一例を、可視化して示す図である。 図12は、POI表示の一例を示す図である。 図13は、POI表示と案内表示の同時表示を示す図である。 図14は、第4実施形態の表示制御方法を示すフローチャートである。 図15は、第5実施形態のPOI表示と案内表示の同時表示を示す図である。 図16は、他の実施形態の案内表示の一例を示す図である。
 (第1実施形態)
 本開示の第1実施形態による表示制御装置の機能は、図1および図2に示すHCU(Human Machine Interface Control Unit)100によって実現されている。HCU100は、車両Aにおいて用いられるHMI(Human Machine Interface)システム10を、ヘッドアップディスプレイ(以下、「HUD」)20等と共に構成している。HMIシステム10には、操作デバイス26およびDSM(Driver Status Monitor)27等がさらに含まれている。HMIシステム10は、車両Aの乗員(例えばドライバ等)によるユーザ操作を受け付ける入力インターフェース機能と、ドライバへ向けて情報を提示する出力インターフェース機能とを備えている。
 HMIシステム10は、車両Aに搭載された車載ネットワーク1の通信バス99に通信可能に接続されている。HMIシステム10は、車載ネットワーク1に設けられた複数のノードのうちの1つである。車載ネットワーク1の通信バス99には、例えば周辺監視センサ30、ロケータ40、DCM49、運転支援ECU(Electronic Control Unit)50、およびナビゲーション装置60等がそれぞれノードとして接続されている。通信バス99に接続されたこれらのノードは、相互に通信可能である。
 周辺監視センサ30は、車両Aの周辺環境を監視する自律センサである。周辺監視センサ30は、自車周囲の検出範囲から、歩行者、サイクリスト、人間以外の動物、および他車両等の移動物体、さらに路上の落下物、ガードレール、縁石、道路標識、走行区画線等の路面表示、および道路脇の構造物等の静止物体、を検出可能である。周辺監視センサ30は、車両Aの周囲の物体を検出した検出情報を、通信バス99を通じて、運転支援ECU50等に提供する。
 周辺監視センサ30は、物体検出のための検出構成として、フロントカメラ31およびミリ波レーダ32を有している。フロントカメラ31は、車両Aの前方範囲を撮影した撮像データ、および撮像データの解析結果の少なくとも一方を、検出情報として出力する。ミリ波レーダ32は、例えば車両Aの前後の各バンパーに互いに間隔を開けて複数配置されている。ミリ波レーダ32は、ミリ波または準ミリ波を、車両Aの前方範囲、前側方範囲、後方範囲および後側方範囲等へ向けて照射する。ミリ波レーダ32は、移動物体および静止物体等で反射された反射波を受信する処理により、検出情報を生成する。なお、ライダおよびソナー等の検出構成が、周辺監視センサ30に含まれていてもよい。
 ロケータ40は、複数の取得情報を組み合わせる複合測位により、車両Aの高精度な位置情報等を生成する。ロケータ40は、例えば複数車線のうちで、車両Aが走行する車線を特定可能である。ロケータ40は、GNSS(Global Navigation Satellite System)受信器41、慣性センサ42、高精度地図データベース(以下、「高精度地図DB」)43、およびロケータECU44を含む構成である。
 GNSS受信器41は、複数の人工衛星(測位衛星)から送信された測位信号を受信する。GNSS受信器41は、GPS、GLONASS、Galileo、IRNSS、QZSS、Beidou等の衛星測位システムのうちで、少なくとも1つの衛星測位システムの各測位衛星から、測位信号を受信可能である。
 慣性センサ42は、例えばジャイロセンサおよび加速度センサを有している。高精度地図DB43は、不揮発性メモリを主体に構成されており、通常のナビゲーションに用いられるよりも高精度な地図データ(以下、「高精度地図データ」)を記憶している。高精度地図データは、少なくとも高さ(z)方向の情報について、詳細な情報を保持している。高精度地図データには、道路の三次元形状情報(道路構造情報)、レーン数情報、各レーンに許容された進行方向を示す情報等、高度運転支援および自動運転に利用可能な情報が含まれている。
 ロケータECU44は、プロセッサ、RAM、記憶部、入出力インターフェース、およびこれらを接続するバス等を備えたマイクロコンピュータを主体として含む構成である。ロケータECU44は、GNSS受信器41で受信する測位信号、慣性センサ42の計測結果、および通信バス99に出力された車速情報等を組み合わせ、車両Aの自車位置および進行方向等を逐次測位する。ロケータECU44は、測位結果に基づく車両Aの位置情報および方角情報を、通信バス99を通じて、HCU100、および運転支援ECU50等に提供する。
 なお、車速情報は、車両Aの現在の走行速度を示す情報であり、車両Aの各輪のハブ部分に設けられた車輪速センサの検出信号に基づいて生成される。車速情報を生成し、通信バス99に出力するノード(ECU)は、適宜変更されてよい。例えば、各輪の制動力配分を制御するブレーキ制御ECU、またはHCU100等の車載ECUが、各輪の車輪速センサと電気的に接続されており、車速情報の生成および通信バス99への出力を継続的に実施する。
 ロケータECU44は、HCU100、および運転支援ECU50等からの要求に応じて、必要とされた高精度地図データが高精度地図DB43にあるか否かを判定する。要求された高精度地図データが高精度地図DB43にある場合、ロケータECU44は、該当する高精度地図データを高精度地図DB43から読み出し、要求元となるECUに提供する。
 DCM(Data Communication Module)49は、車両Aに搭載される通信モジュールである。DCM49は、LTE(Long Term Evolution)および5G等の通信規格に沿った無線通信により、車両Aの周囲の基地局との間で電波を送受信する。DCM49の搭載により、車両Aは、インターネットに接続可能なコネクテッドカーとなる。DCM49は、クラウド上に設けられたプローブサーバから、最新の高精度地図データを取得可能である。DCM49は、ロケータECU44と連携して、高精度地図DB43に格納された高精度地図データを、最新の情報に更新する。
 運転支援ECU50は、プロセッサ、RAM、記憶部、入出力インターフェース、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。運転支援ECU50は、ドライバの運転操作を支援する運転支援機能を備えている。一例として、米国自動車技術会の規定する自動運転レベルにおいて、運転支援ECU50は、レベル2以下の部分的な自動走行制御(高度運転支援)を可能にする。
 運転支援ECU50は、周辺監視センサ30から取得する検出情報に基づき、車両Aの周囲の走行環境を認識する。運転支援ECU50は、走行環境認識のために実施した検出情報の解析結果を、解析済みの検出情報として、HCU100に提供する。一例として、運転支援ECU50は、車両Aが現在走行する車線(以下、「自車車線Lns」 図4参照)の左右の区画線または道路端の相対位置を、HCU100に提供可能である。なお、左右の方向は、水平面上に静止した車両Aの幅方向と一致する方向であり、車両Aの進行方向を基準として設定される。
 運転支援ECU50は、記憶部に記憶されたプログラムをプロセッサによって実行することにより、高度運転支援を実現する複数の機能を発揮可能である。例えば、運転支援ECU50は、ACC(Adaptive Cruise Control)制御部およびLTC制御部を有する。ACC制御部は、ACCの機能を実現する機能部である。ACC制御部は、目標車速で車両Aを定速走行させるか、または前走車との車間距離を維持しつつ車両Aを追従走行させる。LTC制御部は、LTC(Lane Trace Control)の機能を実現する機能部である。LTC制御部は、走行中の自車車線Lnsに沿って生成した予定走行ラインに従い、ACC制御部と連携して車両Aを自車車線内で走行させる。
 ナビゲーション装置60は、設定される目的地までの経路を探索し、探索した経路に沿った走行を案内する。ナビゲーション装置60は、ナビ地図データベース(以下、ナビ地図DB)61、およびナビECU62を備える。
 ナビECU62は、プロセッサ、RAM、記憶部、入出力インターフェース、およびこれらを接続するバス等を備えたマイクロコンピュータを主体に構成されている。ナビECU62は、車両A(自車)の位置情報および方角情報を、通信バス99を通じてロケータECU44より取得する。ナビECU62は、通信バス99およびHCU100を通じて、操作デバイス26に入力された操作情報を取得し、ドライバ操作に基づく目的地を設定する。ナビECU62は、目的地までの複数経路を、例えば時間優先および距離優先等の条件を満たすように探索する。探索された複数経路のうちの1つが選択されると、ナビECU62は、当該設定経路に基づく経路情報を、関連するナビ地図データと共に、通信バス99を通じて、HCU100に提供する。
 加えてナビECU62は、設定経路に含まれた右左折を行う交差点および分岐ポイント等の案内地点GPに車両Aが接近すると、案内実施要求を、HCU100へ向けて順次出力する。案内地点GPは、一例として交差点区間および分岐可能区間の各中央付近に設定される。なお、案内地点GPは、交差点区間および分岐可能区間の各手前側または各奥側に設定されてもよい。
 案内実施要求は、ドライバへの経路案内に用いられる案内情報であり、具体的には、案内地点GPの位置情報と、案内地点GPにて車両Aが進むべき方向を示す情報とを含んでいる。案内実施要求は、車両Aから案内地点GPまでの残距離Lr(図4参照)が第1閾値(例えば300m程度)未満となったタイミングで出力される。HCU100は、ナビECU62からの案内実施要求の取得に基づき、経路案内に関連した情報提示を実施する。
 次に、HMIシステム10に含まれる操作デバイス26、DSM27、HUD20およびHCU100の各詳細を、図1および図2に基づき順に説明する。
 操作デバイス26は、ドライバ等によるユーザ操作を受け付ける入力部である。操作デバイス26には、例えば運転支援機能および自動運転機能等について、起動および停止の切り替えを行うユーザ操作が入力される。具体的には、ステアリングホイールのスポーク部に設けられたステアスイッチ、ステアリングコラム部8に設けられた操作レバー、およびドライバの発話を検出する音声入力装置等が、操作デバイス26に含まれる。
 DSM27は、近赤外光源および近赤外カメラと、これらを制御する制御ユニットとを含む構成である。DSM27は、運転席のヘッドレスト部に近赤外カメラを向けた姿勢にて、例えばステアリングコラム部8の上面またはインスツルメントパネル9の上面等に設置されている。DSM27は、近赤外光源によって近赤外光を照射されたドライバの頭部を、近赤外カメラによって撮影する。近赤外カメラによる撮像画像は、制御ユニットによって画像解析される。制御ユニットは、アイポイントEPの位置および視線方向等の情報を撮像画像から抽出し、抽出した状態情報をHCU100へ向けて逐次出力する。
 HUD20は、メータディスプレイおよびセンターインフォメーションディスプレイ等と共に、複数の車載表示デバイスの1つとして、車両Aに搭載されている。HUD20は、HCU100と電気的に接続されており、HCU100によって生成された映像データを逐次取得する。HUD20は、映像データに基づき、例えばルート情報、標識情報、および各車載機能の制御情報等、車両Aに関連する種々の情報を、虚像Viを用いてドライバに提示する。
 HUD20は、ウィンドシールドWSの下方にて、インスツルメントパネル9内の収容空間に収容されている。HUD20は、虚像Viとして結像される光を、ウィンドシールドWSの投影範囲PAへ向けて投影する。ウィンドシールドWSに投影された光は、投影範囲PAにおいて運転席側へ反射され、ドライバによって知覚される。ドライバは、投影範囲PAを通して見える前景に、虚像Viが重畳された表示を視認する。
 HUD20は、プロジェクタ21および拡大光学系22を備えている。プロジェクタ21は、LCD(Liquid Crystal Display)パネルおよびバックライトを有している。プロジェクタ21は、LCDパネルの表示面を拡大光学系22へ向けた姿勢にて、HUD20の筐体に固定されている。プロジェクタ21は、映像データの各フレーム画像をLCDパネルの表示面に表示し、当該表示面をバックライトによって透過照明することで、虚像Viとして結像される光を拡大光学系22へ向けて射出する。拡大光学系22は、合成樹脂またはガラス等からなる基材の表面にアルミニウム等の金属を蒸着させた凹面鏡を、少なくとも1つ含む構成である。拡大光学系22は、プロジェクタ21から射出された光を反射によって広げつつ、上方の投影範囲PAに投影する。
 以上のHUD20には、画角VAが設定される。HUD20にて虚像Viを結像可能な空間中の仮想範囲を結像面ISとすると、画角VAは、運転者のアイポイントEPと結像面ISの外縁とを結ぶ仮想線に基づき規定される視野角である。画角VAは、アイポイントEPから見て、運転者が虚像Viを視認できる角度範囲となる。HUD20では、垂直方向における垂直画角よりも、水平方向における水平画角の方が大きくされている。アイポイントEPから見たとき、結像面ISと重なる前方範囲が画角VA内の範囲となる。
 HUD20は、重畳コンテンツCTs(図6等参照)および非重畳コンテンツを、虚像Viとして表示する。重畳コンテンツCTsは、拡張現実(Augmented Reality,以下「AR」)表示に用いられるAR表示物である。重畳コンテンツCTsの表示位置は、例えば路面の特定位置、前方車両、歩行者および道路標識等、前景に存在する特定の重畳対象に関連付けられている。重畳コンテンツCTsは、前景中にある特定の重畳対象に重畳表示され、当該重畳対象に相対固定されているように、重畳対象を追って、ドライバの見た目上で移動可能である。即ち、ドライバのアイポイントEPと、前景中の重畳対象と、重畳コンテンツCTsとの相対的な位置関係は、継続的に維持される。そのため、重畳コンテンツCTsの形状は、重畳対象の相対位置および形状に合わせて、所定の周期で継続的に更新されてよい。重畳コンテンツCTsは、非重畳コンテンツよりも水平に近い姿勢で表示され、例えばドライバから見た奥行方向(進行方向)に延伸した表示形状とされる。
 非重畳コンテンツは、前景に重畳表示される表示物のうちで、重畳コンテンツCTsを除いた非AR表示物である。非重畳コンテンツは、重畳コンテンツCTsとは異なり、重畳対象を特定されないで、前景に重畳表示される。非重畳コンテンツは、投影範囲PA内の決まった位置に表示されることで、ウィンドシールドWS等の車両構成に相対固定されているように表示される。
 HCU100は、HMIシステム10において、HUD20を含む複数の車載表示デバイスによる表示を統合的に制御する電子制御装置である。HCU100は、処理部11、RAM12、記憶部13、入出力インターフェース14、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。処理部11は、RAM12と結合された演算処理のためのハードウェアである。処理部11は、CPU(Central Processing Unit)およびGPU(Graphics Processing Unit)等の演算コアを少なくとも1つ含む構成である。処理部11は、FPGA(Field-Programmable Gate Array)および他の専用機能を備えたIPコア等をさらに含む構成であってよい。RAM12は、映像生成のためのビデオRAMを含む構成であってよい。処理部11は、RAM12へのアクセスにより、後述する各機能部の機能を実現するための種々の処理を実行する。記憶部13は、不揮発性の記憶媒体を含む構成である。記憶部13には、処理部11によって実行される種々のプログラム(表示制御プログラム等)が格納されている。
 図1~図3に示すHCU100は、記憶部13に記憶された表示制御プログラムを処理部11によって実行することで、HUD20によるコンテンツの重畳表示を制御するための複数の機能部を有する。具体的に、HCU100には、視点位置特定部71、ロケータ情報取得部72、案内情報取得部73、仮想レイアウト部75、および表示生成部76等の機能部が構築される。
 視点位置特定部71は、DSM27から取得する状態情報に基づき、運転席に着座しているドライバのアイポイントEPの位置を特定する。視点位置特定部71は、アイポイントEPの位置を示す三次元の座標(以下、「アイポイント座標」)を生成し、生成したアイポイント座標を、仮想レイアウト部75に逐次提供する。
 ロケータ情報取得部72は、車両Aについての最新の位置情報および方角情報を、自車位置情報としてロケータECU44から取得する。加えてロケータ情報取得部72は、車両Aの周辺範囲の高精度地図データを、ロケータECU44から取得する。ロケータ情報取得部72は、取得した自車位置情報および高精度地図データを、仮想レイアウト部75に逐次提供する。
 外界情報取得部74は、運転支援ECU50から、車両Aの周辺範囲、特に、前方範囲についての検出情報を取得する。具体的に、外界情報取得部74は、自車車線Lnsの左右の区画線または道路端の相対位置を示す検出情報を取得する。外界情報取得部74は、取得した検出情報を仮想レイアウト部75に逐次提供する。なお、外界情報取得部74は、運転支援ECU50から取得する解析結果としての検出情報に替えて、フロントカメラ31の撮像データを、検出情報として取得してもよい。
 仮想レイアウト部75は、取得した種々の情報に基づき、情報提示に用いるコンテンツを選定する機能と、重畳コンテンツCTs(図6等参照)の表示レイアウトをシミュレートする機能とを備えている。
 仮想レイアウト部75は、ナビゲーション装置60から案内実施要求を取得した場合に、案内地点GPにおける経路案内に用いるコンテンツを選定する。具体的には、交差点等の分岐ポイントにおける右左折を案内するコンテンツ、所定距離の直進を案内するコンテンツ、および車線変更を案内するコンテンツ等が、適宜選定される。
 仮想レイアウト部75は、提供される種々の情報に基づき、重畳コンテンツCTsの表示レイアウトをシミュレーションする仮想レイアウト機能を実行する。仮想レイアウト部75は、ナビゲーション装置60から案内実施要求を取得した場合に、自車位置情報、高精度地図データおよび検出情報等に基づき、車両Aの現在の走行環境を仮想空間中に再現する。
 詳記すると、図2~図4に示すように、表示生成部76は、仮想の三次元空間の基準位置に自車オブジェクトAOを設定する。表示生成部76は、高精度地図データの示す形状の道路モデルを、自車位置情報に基づき、自車オブジェクトAOに関連付けて、三次元空間にマッピングする。表示生成部76は、案内情報に基づく予定走行経路を道路モデル上に設定する。表示生成部76は、自車オブジェクトAOに関連付けて、仮想カメラ位置CPおよび重畳範囲SAを設定する。
 仮想カメラ位置CPは、運転者のアイポイントEPに対応する仮想位置である。表示生成部76は、視点位置特定部71にて取得される最新のアイポイント座標に基づき、自車オブジェクトAOに対する仮想カメラ位置CPを逐次補正する。重畳範囲SAは、虚像Viの重畳表示が可能となる範囲である。表示生成部76は、仮想カメラ位置CPと、記憶部13(図1参照)等に予め記憶された投影範囲PAの外縁位置(座標)情報とに基づき、仮想カメラ位置CPから前方を見たときに投影範囲PAの内側となる前方範囲を、重畳範囲SAとして設定する。重畳範囲SAは、HUD20の画角VAに対応している。
 仮想レイアウト部75は、三次元空間の道路モデルの路面上に配置された予定走行経路に重なるように、仮想オブジェクトV1を配置する。仮想オブジェクトV1は、後述する経路コンテンツCTrを虚像表示させる場合に、仮想空間中に設定される。仮想オブジェクトV1は、走行予定経路の仮想路面を平面的に覆うように配置される帯状のオブジェクトとされる。仮想オブジェクトV1は、交差点の右左折シーンでは、図4に示すように進入車線と退出車線とを繋ぐ湾曲形状となる。仮想オブジェクトV1は、経路コンテンツCTrの位置および形状を規定する。すなわち、仮想カメラ位置CPから見た仮想オブジェクトV1の形状が、アイポイントEPから視認される経路コンテンツCTrの虚像形状となる。
 仮想レイアウト部75は、前景中の路面のうちでHUD20の画角VA内に含まれ、且つドライバから視認可能な視認内エリアAvと、ドライバから視認不可能な視認外エリアAiとを、仮想空間中に設定した仮想カメラ位置CPおよび道路構造モデルに基づき推定する。例えば仮想レイアウト部75は、図4に示すように、重畳範囲SA内において仮想カメラ位置CPから延ばした直線と交わる仮想路面を視認内エリアAvとし、重畳範囲SA内に含まれていても当該直線と交わらない仮想路面を、視認外エリアAiとする。仮想レイアウト部75は、仮想路面のうちで少なくとも仮想オブジェクトV1を配置する範囲に関して、視認内エリアAvおよび視認外エリアAiの推定を行う。なお、仮想レイアウト部75は、仮想路面上に配置した仮想オブジェクトV1のうちから仮想カメラ位置CPから視認可能なオブジェクト部分および視認不可能なオブジェクト部分を推定することで、各エリアAv,Aiを間接的に推定する構成であってもよい。
 図4の例では、上り勾配路の先に平坦路が連なる構造の道路における視認内エリアAvおよび視認外エリアAiを示している。このような構造の道路の場合では、上り勾配路を走行中に、平坦路が上り勾配路に遮られて視認不可能となる。したがって、仮想レイアウト部75は、上り勾配路の仮想路面を視認内エリアAvとし、平坦路の仮想路面を視認外エリアAiと推定することになる。なお、上り勾配路の先に、平坦路ではなく、下り勾配路または勾配率がより小さい上り勾配路等が連なる構造の道路の場合にも、手前の上り勾配路よりも先の仮想路面が視認外エリアAiとなり得る。仮想レイアウト部75は、推定部の一例である。
 表示生成部76は、HUD20に逐次出力される映像データを生成する処理により、HUD20によるドライバへの情報提示を制御する。表示生成部76は、表示制御部の一例である。表示生成部76は、取得した種々の情報に基づき、コンテンツを描画する機能およびコンテンツの表示期間を制御する機能を有している。表示生成部76は、仮想レイアウト部75より取得するコンテンツの選定結果に基づき、映像データを構成する各フレーム画像に描画する元画像を決定する。表示生成部76は、重畳コンテンツCTs(図6等参照)の元画像をフレーム画像に描画する場合、アイポイントEPおよび重畳対象の各位置に応じて、フレーム画像における元画像の描画位置および描画形状を補正する。以上により、重畳コンテンツCTsは、アイポイントEPから見たとき、重畳対象に正しく重畳される位置および形状で表示されるようになる。
 表示生成部76は、仮想レイアウト部75のコンテンツの選定結果と、仮想空間を用いたシミュレート結果としてのレイアウト情報等とに基づき、映像データに描画するコンテンツを選択する。一例として、表示生成部76は、経路案内処理に関連するコンテンツである経路コンテンツCTr(図5~図7参照)を描画し、ドライバに提示する。
 経路コンテンツCTrは、車両Aの走行予定経路の表示に用いられるコンテンツである。経路コンテンツCTrは、走行予定経路の路面を重畳対象とする重畳コンテンツCTsであり、表示シミュレーションにて配置される仮想オブジェクトV1に基づいて描画形状を決定される。
 経路コンテンツCTrは、走行予定経路に沿った形状に描画され、車両Aの走行すべき車線や、右左折および車線変更の必要な地点等を示す。経路コンテンツCTrは、走行予定経路の車線の形状を象る描画形状であり、車両Aの進行方向に沿って帯状に延伸するシート形状である。経路コンテンツCTrは、車線が直線状の場合には直線状の態様となり、カーブ状の場合にはカーブに沿って湾曲した態様となる。また、経路コンテンツCTrは、交差点内においては、走行予定経路上の進入車線と退出車線とを繋ぐ態様となる。経路コンテンツCTrは、車両Aの走行に合わせて、アイポイントEPから見える路面形状に適合するように、所定の更新周期で描画形状を更新される。
 上記の経路コンテンツCTrの描画に際し、表示生成部76は、経路コンテンツCTrのうちで、路面の視認内エリアAvに重畳される視認内部分CTvと、路面の視認外エリアAiに重畳される視認外部分CTi(図6参照)とを判別する。表示生成部76は、表示シミュレーションの結果に基づき、仮想オブジェクトV1のうち視認内エリアAvに配置されるオブジェクト部分に対応するコンテンツ部分を、視認内部分CTvと判別する。表示生成部76は、視認外エリアAiに配置されるオブジェクト部分に対応するコンテンツ部分を、視認外部分CTiと判別する。
 加えて、表示生成部76は、表示シミュレーションの結果を用いて、視認内部分CTvと視認外部分CTiとが重なる重複部分CToと、重ならない部分とを判別する。表示生成部76は、仮想カメラ位置CPから前方を見たときに、視認内エリアAvに配置されたオブジェクト部分と視認外エリアAiに配置されたオブジェクト部分とが重なる範囲に対応するコンテンツ部分を、重複部分CToと判別する。表示生成部76は、視認内部分CTvのうちで視認外部分CTiと重ならない部分を、視認内非重複部分CTvnと判別し、視認外部分CTiのうちで視認内部分CTvと重ならない部分を、視認外非重複部分CTinと判別する。
 表示生成部76は、上述した判別結果および案内地点GPまでの残距離Lrに応じて、経路コンテンツCTrの表示態様を変化させる。この表示態様の変化について、図4~図6を参照しながら以下説明する。
 表示生成部76は、案内地点GPまでの残距離Lrが第1閾値未満且つ第2閾値(例えば100m程度)以上の走行区間では、経路コンテンツCTrのうち視認内部分CTvのみを視認外部分CTiに先立って表示させる(図5参照)。表示生成部76は、画角VA内に視認外エリアAiに対応する路面が含まれている場合であっても、視認外部分CTiを非表示とする。これにより表示生成部76は、案内地点GPから比較的離れている段階では、ドライバから視認可能な路面上の走行予定経路のみをドライバに提示する。
 表示生成部76は、案内地点GPまでの残距離Lrが第2閾値未満となった場合、視認内部分CTvと視認外部分CTiの両方を表示させる(図6参照)。これにより表示生成部76は、案内地点GPに比較的接近した段階では、ドライバから視認不可能な路面上の走行予定経路も含めてドライバに提示する。図6の例では、視認内エリアAvを超えた先にて左折が必要である旨が、視認外部分CTiによって提示されている。また、視認外部分CTiの表示の際に、表示生成部76は、視認外部分CTiが進行予定経路を進行方向に辿って延びていくようにアニメーション表示させる。図6の例では、視認内部分CTvの上縁部から画角VAの左縁近傍へと向かって視認外部分CTiが延びていくようにアニメーション表示される。なお、視認外部分CTiを表示させる際に、表示生成部76は、重複部分CToおよび視認外非重複部分CTinを合わせた視認外部分CTiの全体を表示させてもよく、重複部分CToを視認外非重複部分CTinに先立って表示させてもよい。この場合、視認外非重複部分CTinは、残距離Lrがさらに小さくなった段階で表示される構成とすればよい。
 加えて表示生成部76は、視認内非重複部分CTvn、視認外非重複部分CTin、および重複部分CToについて、それぞれ異なる態様で表示させる。これにより表示生成部76は、経路コンテンツCTrのうち重なり合っている部分を区別して視認可能とする。具体的には、表示生成部76は、3つの部分CTvn,CTin,CToのうち重複部分CToの輝度を最も低く設定する。加えて表示生成部76は、視認外非重複部分CTinの輝度を、重複部分CToよりも高く且つ視認内非重複部分CTvnよりも低く設定する。以上により、経路コンテンツCTrを構成する3つの部分のうちで重複部分CToが最も暗く視認される。加えて、視認外非重複部分CTinが、視認内非重複部分CTvnよりも暗く視認される。
 また、表示生成部76は、車両Aの走行に伴って路面の視認外エリアAiが視認内エリアAvとなった場合、経路コンテンツCTrの対応する部分も、視認外部分CTiとしての表示態様から視認内部分CTvとしての表示態様へと変化させる(図7参照)。例えば、車両Aが上り勾配路から平坦路へと移る際、視認外エリアAiは手前側から漸次視認内エリアAvとなる。表示生成部76は、この変化に合わせて、視認外部分CTiの表示態様で表示していた部分を、視認内部分CTvの表示態様へと漸次変化させていく。
 次に、表示制御プログラムに基づき、経路案内処理に関連した各表示を切り替える表示制御方法の詳細を、図8に示すフローチャートに基づき、図3および図5~図7を参照しつつ、以下説明する。図8に示す表示制御処理は、例えば車両電源のオン状態への切り替えにより、起動処理等を終えたHCU100により、開始される。
 まずHCU100は、S10にて、ナビECU62からの情報に基づいて目的地が設定されているか否かを判定する。目的地が設定されていないと判定された場合には、目的地が設定されるまでS10の判定を繰り返す。目的地が設定されていると判定された場合には、S20へと進む。
 S20では、ナビECU62からの案内実施要求が有るか否かを判定する。換言すれば、車両Aから案内地点GPまでの残距離Lrが第1閾値未満となったか否かを判定する。案内実施要求が無いと判定されると、案内実施要求を取得するまでS20の判定を繰り返す。一方で案内実施要求有と判定した場合には、S30へと進む。
 S30では、表示レイアウトのシミュレーションを実行し、路面の視認内エリアAvおよび視認外エリアAiの推定を行う。各エリアAv、Aiを推定すると、S40へと進み、経路コンテンツCTrのうち視認内部分CTvのみを路面に重畳表示し、視認外部分CTiを非表示とする。すなわち、視認内エリアAvにのみ経路コンテンツCTrを重畳表示する。重畳表示を実行すると、S50へと進む。
 S50では、ロケータECU44からの自車位置情報およびナビECU62からの案内地点GPの位置情報に基づき、車両Aから案内地点GPまでの残距離Lrが第2閾値未満となったか否かを判定する。残距離Lrが第2閾値以上であると判定している間は、S30、S40の処理を繰り返し、走行に伴う各エリアAv,Aiの変化に合わせて視認内部分CTvの描画形状を更新していく。一方で残距離Lrが第2閾値未満であると判定した場合には、S60へと進む。
 S60では、各エリアAv,Aiの推定を再度実施してS70へと進む。S70では、S60にて推定した各エリアAv,Aiに基づき、経路コンテンツCTrの視認内部分CTv、視認外部分CTi、および重複部分CToを判別した後S80へと進む。
 S80では、判別結果に基づいて、視認内非重複部分CTvn、視認外非重複部分CTin、および重複部分CToの各部分を異なる設定輝度にて表示する。次に、S90にて、経路コンテンツCTrの重畳表示の終了条件が成立したか否かを判定する。終了条件は、例えば案内地点GPの通過や、案内地点GPよりも進行方向前方に設定された案内終了地点の通過等に基づき成立したと判定される。終了条件が成立していないと判定している間は、S60~S80までの処理を繰り返して、経路コンテンツCTrの描画形状および表示態様を更新していく。一方で、終了条件が成立したと判定した場合には、S100へと進み、経路コンテンツCTr全体を非表示として、一連の処理を終了する。
 次に第1実施形態のHCU100の構成および作用効果について説明する。
 HCU100の表示生成部76は、経路コンテンツCTrのうちで、路面の視認内エリアAvと重畳する視認内部分CTvと、路面の視認外エリアAiと重畳する視認外部分CTiと、視認内部分CTvおよび視認外部分CTiが重なる重複部分CToとを判別する。表示生成部76は、重複部分CToを、視認内部分CTvにおける視認内非重複部分CTvnおよび視認外部分CTiにおける視認外非重複部分CTinと異なる態様で表示させる。
 これによれば、経路コンテンツCTrのうちの重複部分CToが、視認内非重複部分CTvnおよび視認外非重複部分CTinと異なる態様で表示される。このため、乗員であるドライバは、重複部分CToを、視認内非重複部分CTvnおよび視認外非重複部分CTinと区別して認識することができる。故に、経路コンテンツCTrの視認内部分CTvと視認外部分CTiとが重なっていることが分かり易い。以上により、HCU100は、ドライバに対して分かり易い表示が可能である。
 また、表示生成部76は、視認内非重複部分CTvnと視認外非重複部分CTinとを異なる態様で表示させる。これによれば、ドライバは、視認内非重複部分CTvnと視認外非重複部分CTinとを区別して認識することができる。したがって、経路コンテンツCTrの各部分CTvi,CTvn,CToが一層分かり易く区別されて表示される。
 表示生成部76は、重複部分CToの輝度を視認外非重複部分CTinの輝度よりも低く表示させ、視認外非重複部分CTinの輝度を視認内非重複部分CTvnの輝度よりも低く表示させる。これによれば、経路コンテンツCTrを構成する3つの部分のうちで重複部分CToが最も暗く視認され、視認外非重複部分CTinが、視認内非重複部分CTvnよりも暗く視認される。ドライバは、これらの表示態様を総合的に視認することにより、あたかも視認外部分CTiが路面に遮られて暗くなり、且つ重複部分CToが視認外部分CTiと視認内部分CTvとの重なり合いによりさらに暗くなっているかのように認識し得る。以上により、表示生成部76は、経路コンテンツCTrをより分かり易く表示することが可能となる。
 表示生成部76は、視認外部分CTiに先立って視認内部分CTvを後続して表示させる。これによれば、表示生成部76はより車両Aから遠い側の表示となり易い視認外部分CTiについて、視認内部分CTvに遅れて表示させることができる。故に、視認外エリアAiから比較的遠い段階で視認外部分CTiが小さく表示されてしまうことを回避できる。これにより、表示生成部76は、経路コンテンツCTrをドライバに対して一層分かり易く提示することができる。
 表示生成部76は、視認外エリアAiのうちドライバから視認可能になったエリアに対応する視認外部分CTiから、視認内部分CTvと同じ態様の表示に変化させていく。これによれば、視認外エリアAiが車両Aの走行に伴って視認内エリアAvに変化した場合でも、当該変化に合わせて経路コンテンツCTrの各部分の表示を更新していくことができる。
 (第2実施形態)
 第2実施形態では、第1実施形態におけるHCU100の変形例について説明する。図9において第1実施形態の図面中と同一符号を付した構成要素は、同様の構成要素であり、同様の作用効果を奏するものである。第2実施形態のHCU100は、経路コンテンツCTrの表示態様が第1実施形態と相違する。
 第2実施形態において、表示生成部76は、経路コンテンツCTrを構成する3つの部分CTvn,CTin,CToのうち、重複部分CToのみを異なる表示態様とし、視認外非重複部分CTinおよび視認内非重複部分CTvnを同等の表示態様とする。
 図9に示す例では、視認外非重複部分CTinの輝度が、視認内非重複部分CTvnと実質同じに設定されている。これによりドライバは、重複部分CToが視認外部分CTiと視認内部分CTvとの重なり合いにより暗くなっているかのように知覚し得る。したがって、重複部分CToのみが異なる表示態様とされる場合であっても、HCU100は、経路コンテンツCTrをドライバに対して分かり易く表示し得る。
 (第3実施形態)
 第3実施形態では、第1実施形態におけるHCU100の変形例について説明する。図10において第1実施形態の図面中と同一符号を付した構成要素は、同様の構成要素であり、同様の作用効果を奏するものである。第3実施形態のHCU100は、経路コンテンツCTrの表示態様が第1実施形態と相違する。
 第3実施形態において、表示生成部76は、重複部分CToと視認内非重複部分CTvnとを同様の表示態様とし、且つ視認外非重複部分CTinを視認内部分CTvと異なる表示態様とする。重複部分CToと視認内非重複部分CTvnは、ドライバから区別されることなく視認される程度に、同様の表示態様とされる。図10に示す例では、重複部分CToと視認内非重複部分CTvnとが同等の輝度で表示されている。視認外非重複部分CTinは、重複部分CToおよび視認内非重複部分CTvnよりも低い輝度で表示されている。このような表示態様により、視認外部分CTiに関して、一部が視認内部分CTvに遮られているように視認され得、且つ遮られていない部分が視認内部分CTvとは区別されて視認され得る。
 以上に説明した第3実施形態によれば、経路コンテンツCTrに関して、重複部分CToが視認内非重複部分CTvnと同様の態様で表示され、視認外非重複部分CTinが視認内非重複部分CTvnと異なる態様で表示される。故に、ドライバは、視認外部分CTiの一部が視認内部分CTvによって遮られ、他部が視認内部分CTvから外れていることを認識し得る。したがって、第3実施形態のHCU100は、乗員に対して分かり易い表示が可能である。
 なお、重複部分CToと視認内非重複部分CTvnは、透過率や表示色、模様等を同様の表示態様とされてもよい。また、視認外非重複部分CTinと視認内部分CTvに関しても、透過率や表示色、模様等が異なることで、異なる表示態様とされてもよい。
 (第4実施形態)
 第4実施形態では、第1実施形態におけるHCU100の変形例について説明する。図11~図14において第1実施形態の図面中と同一符号を付した構成要素は、同様の構成要素であり、同様の作用効果を奏するものである。第4実施形態のHCU100は、POI(Point Of Interest)を指し示すPOIコンテンツCTp(後述)を重畳表示する点
が第1実施形態と相違する。
 POIは、特定地点であり、例えば目的地への到達のための目印となる地点である。POIは、目的地の施設、目的地の敷地への入口、目的地直前の案内地点GP等を含む。なお、POIには、目的地への到達のための目印以外の、ドライバが注目すべき地点を含んでいてもよい。POIの表示を要求するPOI表示実施要求は、ナビECU62やロケータECU44によってHCU100へと提供される。POI表示実施要求は、車両AからPOIまでの残距離Lrが所定の閾値(表示閾値)を下回った場合に提供される。POI表示実施要求には、少なくともPOIの位置情報が含まれている。ナビECU62からPOI表示実施要求が提供される場合、案内情報取得部73が、案内実施要求に加えてPOI表示実施要求を取得する取得部として機能する。なお、以下では、目的地直前の案内地点GPをPOIとして表示する例について説明する。
 POIコンテンツCTpの虚像表示のために、仮想レイアウト部75は、まず案内地点GP(POI)の位置を仮想空間中に設定し、その位置に仮想オブジェクトV2を配置する。仮想オブジェクトV2は、POIコンテンツCTpの位置および形状を規定するオブジェクトである。仮想オブジェクトV2は、設定された案内地点GPの位置に向かって先細りとなる形状とされる。仮想オブジェクトV2は、先細り形状の尖端を下方に向け、当該尖端を仮想路面上の案内地点GPに合わせた位置で配置される。
 仮想レイアウト部75は、重畳範囲SAに含まれる仮想オブジェクトV2のうちで、仮想カメラ位置CPから視認可能な仮想可視部分V2vと、視認不可能な仮想不可視部分V2iとを推定する。例えば仮想レイアウト部75は、図11に示すように、仮想カメラ位置CPと仮想オブジェクトV2の任意の部分とを結ぶ直線との間に仮想路面や仮想建物等の仮想構造物が存在しない場合、当該部分を仮想可視部分V2vと推定する。仮想レイアウト部75は、仮想カメラ位置CPと仮想オブジェクトV2の任意の部分とを結ぶ直線との間に仮想構造物が存在する場合、当該部分を仮想不可視部分V2iと推定する。仮想レイアウト部75は、仮想オブジェクトV2における仮想可視部分V2vおよび仮想不可視部分V2iの範囲に関する情報を含んだシミュレーション結果を、表示生成部76へと提供する。
 表示生成部76は、表示レイアウトのシミュレーション結果に基づき、POIコンテンツCTpを描画する。POIコンテンツCTpは、仮想オブジェクトV2に基づいて描画形状を決定される。POIコンテンツCTpは、前景中の案内地点GPの位置を指し示す形状に描画され、ドライバに対して案内地点GPの存在およびその位置を提示する。POIコンテンツCTpは、例えば下方に向かって先細りとなる、所謂マップピンアイコン状の描画形状とされる。POIコンテンツCTpは、特定地点コンテンツの一例である。
 表示生成部76は、POIコンテンツCTpについて、画角VA内に含まれる前景のうちでドライバから視認可能な領域に重畳される可視部分CTpvと、視認不可能な領域に重畳される不可視部分CTpiとを判別する。表示生成部76は、仮想オブジェクトV2の仮想可視部分V2vおよび仮想不可視部分V2iの推定情報に基づいて、各部分CTpv,CTpiの判別を行う。
 表示生成部76は、可視部分CTpvおよび不可視部分CTpiをそれぞれ異なる表示態様で表示する。図12および図13に示す例では、不可視部分CTpiが、可視部分CTpvよりも輝度の低い表示態様とされる。このため、ドライバは、POIコンテンツCTpの一部が路面によって遮られて暗くなっているかのように視認し得る。以上により、POIコンテンツCTpが、上り勾配路の先にあるPOIの位置を指し示していることが分かり易くなる。なお、表示生成部76は、不可視部分CTpiと可視部分CTpvとの輝度の高低を反対にしてもよい。また、表示生成部76は、不可視部分CTpiと可視部分CTpvとを、透過率や表示色、模様等を異ならせることで異なる表示態様としてもよい。
 また、POIコンテンツCTpは、他の重畳コンテンツCTsと重なる場合には、当該部分がより暗く表示される。図13に示す例では、POIコンテンツCTpの不可視部分CTpiが、経路コンテンツCTrの重複部分CToと重なっている。この場合、不可視部分CTpiは、重複部分CToに重ならない場合よりも輝度を低く設定される。また、不可視部分CTは、重複部分CToよりもさらに輝度を低く設定される。以上のように、POIコンテンツCTpは、他の重畳コンテンツCTsと重なるほど暗く表示され、他の重畳コンテンツCTsとの配置関係をより明確に提示する。また、POIコンテンツCTpの可視部分CTpvは、重複部分CToおよび視認外非重複部分CTinよりも高い輝度で表示される。
 次に、表示制御プログラムに基づき、POIコンテンツCTpの表示を切り替える表示制御方法の詳細を、図14に示すフローチャートに基づき、図12を参照しつつ、以下説明する。図8に示す表示制御処理は、例えば車両電源のオン状態への切り替えにより、起動処理等を終えたHCU100により、開始される。
 S410にて、POI表示の開始条件が成立したか否かを判定する。開始条件は、例えばナビECU62からPOI表示実施要求を取得した場合に、成立したと判定される。開始条件が不成立であると判定された場合には、開始条件の成立までS410の判定を繰り返す。開始条件が成立したと判定された場合には、S415へと進み、POIの位置情報を取得する。POI表示実施要求に位置情報が含まれる場合には、S415はS410と同時に実行されることとなる。POIの位置情報を取得すると、S420へと進む。
 S420では、ロケータECU44から取得される自車位置情報およびナビECU62から取得される案内地点GPの位置情報に基づき、車両Aから案内地点GPまでの残距離Lrが表示閾値以下であるか否かを判定する。残距離Lrが表示閾値を上回ると判定した場合、表示閾値以下となるまでS420の判定を繰り返す。一方で残距離Lrが表示閾値以下であると判定した場合には、S430へと進む。
 S430では、DSM27から取得されるアイポイント情報と、ロケータECU44から取得される高精度地図データおよび自車位置情報とに基づき、仮想オブジェクトV2の仮想可視部分V2vおよび仮想不可視部分V2iの推定を行う。各仮想部分を推定すると、S440へと進む。
 S440では、推定結果に基づき、POIコンテンツCTpを可視部分CTpvおよび不可視部分CTpiに区分し、各部分CTpv,CTpiに対応した設定輝度で、POIコンテンツCTpを重畳表示する。重畳表示を実行すると、S450へと進む。
 S450では、POI表示の終了条件が成立したか否かを判定する。POI表示の終了条件は、例えば車両AがPOI地点を通過した場合に成立したと判定される。終了条件が不成立であると判定している間は、S430、S440の処理を繰り返し、走行に伴う仮想可視部分V2v、仮想不可視部分V2iの変化に合わせてPOIコンテンツCTpの各部分CTpv,CTpiの区分を更新していく。一方で終了条件が成立したと判定した場合には、S460へと進み、POIコンテンツCTpを非表示として一連の処理を終了する。
 第4実施形態の表示生成部76は、POIを指し示すPOIコンテンツCTpのうち可視部分CTpvと不可視部分CTpiとを判別し、各部分CTpv,CTpiをそれぞれ異なる態様で重畳表示させる。これによれば、ドライバは、POIコンテンツCTpに関しても可視部分CTpvと不可視部分CTpiとを区別して認識することができる。したがって、表示生成部76は、ドライバに対してより分かり易い表示が可能となる。
 (第5実施形態)
 第5実施形態では、第1実施形態におけるHCU100の変形例について説明する。図15において第1実施形態の図面中と同一符号を付した構成要素は、同様の構成要素であり、同様の作用効果を奏するものである。
 表示生成部76は、POIコンテンツCTpの不可視部分CTpiが、経路コンテンツCTrの重複部分CToと重なる場合、重複部分CToを視認外非重複部分CTinと同じ表示態様とする。図15に示す例では、重複部分CToは、視認外非重複部分CTinと同等の輝度に設定される。この場合、POIコンテンツCTpの不可視部分CTpiは、視認外非重複部分CTinおよび重複部分CToよりも低い輝度に設定される。また、可視部分CTpvは、視認外非重複部分CTinよりも高い輝度に設定される。
 第5実施形態では、POIコンテンツCTpの不可視部分CTpiと経路コンテンツCTrの重複部分CToとが重なる場合、重複部分CToの表示態様が視認外非重複部分CTinと同等の表示態様とされる。故に、表示される2つのコンテンツCTp、CTr全体から、表示態様の異なる部分が少なくなる。したがって、コンテンツ表示がより簡素なものとなり、見易さが改善される。
 (他の実施形態)
 上述の実施形態において、HCU100は、ナビゲーション装置60にて設定された目的地への経路を提示する経路コンテンツCTrを重畳表示させるとした。これに代えて、LTCやLCA等による車両Aの走行予定経路を提示する経路コンテンツCTrを表示する構成としてもよい。
 上述の実施形態において、表示生成部76は、視認内非重複部分CTvn、視認外非重複部分CTin、および重複部分CToの輝度を、この順番で低くなるように表示するとしたが、輝度の高低の関係は、これに限らない。また、表示生成部76は、各部分CTvn,CTin,CToの輝度を異ならせることで異なる表示態様とするとしたが、これに代えて、透過率、表示色または模様を異ならせることで異なる表示態様とする構成であってもよい。
 上述の実施形態に加えて、表示生成部76は、図16に示すように経路コンテンツCTrのうちで視認内部分CTvを非表示とし、視認外部分CTiのみを表示可能であってもよい。例えば、表示生成部76は、視認内エリアAvに重畳される他の表示物が有る等、視認内部分CTvを表示すると画角VA内が煩雑になる場合に、このような表示態様が可能な構成とすればよい。
 上述の実施形態の処理部およびプロセッサは、1つまたは複数のCPU(Central Processing Unit)を含む。こうした処理部およびプロセッサは、CPUに加えて、GPU(Graphics Processing Unit)およびDFP(Data Flow Processor)等を含む処理部であってよい。さらに処理部およびプロセッサは、FPGA(Field-Programmable Gate Array)、並びにAIの学習および推論等の特定処理に特化したIPコア等を含む処理部であってもよい。こうしたプロセッサの各演算回路部は、プリント基板に個別に実装された構成であってもよく、またはASIC(Application Specific Integrated Circuit)およびFPGA等に実装された構成であってもよい。
 制御プログラムを記憶するメモリ装置には、フラッシュメモリおよびハードディスク等の種々の非遷移的実体的記憶媒体(non-transitory tangible storage medium)が採用可能である。こうした記憶媒体の形態も、適宜変更されてよい。例えば記憶媒体は、メモリカード等の形態であり、車載ECUに設けられたスロット部に挿入されて、制御回路に電気的に接続される構成であってよい。
 本開示に記載の制御部およびその手法は、コンピュータプログラムにより具体化された1つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置およびその手法は、専用ハードウェア論理回路により、実現されてもよい。もしくは、本開示に記載の装置およびその手法は、コンピュータプログラムを実行するプロセッサと1つ以上のハードウェア論理回路との組み合わせにより構成された1つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
 次に、上述の第4実施形態および第5実施形態から把握できる技術的思想を以下に追記する。
 (付記1)
 表示制御装置は、車両において用いられ、ヘッドアップディスプレイによるコンテンツの重畳表示を制御する。表示制御装置は、特定地点の位置情報を取得する取得部と、特定地点を指し示す特定地点コンテンツを重畳表示させる表示制御部と、を備え、表示制御部は、特定地点コンテンツのうちヘッドアップディスプレイの画角内に含まれ且つ乗員から視認可能な空間範囲と重畳する可視部分と、画角内に含まれ且つ乗員から視認不可能な空間範囲と重畳する不可視部分とを判別し、可視部分と不可視部分とを異なる態様で重畳表示させる。
 (付記2)
 表示制御プログラムは、車両において用いられ、ヘッドアップディスプレイによるコンテンツの重畳表示を制御する。表示制御プログラムは、少なくとも1つの処理部に、特定地点の位置情報を取得し、特定地点を指し示す特定地点コンテンツのうちで、ヘッドアップディスプレイの画角内に含まれ且つ乗員から視認可能な空間範囲と重畳する可視部分と、画角内に含まれ且つ乗員から視認不可能な空間範囲と重畳する不可視部分とを判別し、可視部分と不可視部分とを異なる態様で重畳表示させる、ことを含む処理を実行させる。
 これらの態様によれば、特定地点コンテンツのうち、乗員から視認可能な空間範囲と重畳する可視部分と、乗員から視認不可能な空間範囲と重畳する不可視部分とが、異なる態様で重畳表示される。このため、乗員は、可視部分と不可視部分とを区別して認識することができる。故に、乗員に対して分かり易い表示が可能な表示制御装置および表示制御プログラムを提供できる。
 ここで、この出願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のセクション(あるいはステップと言及される)から構成され、各セクションは、たとえば、S10と表現される。さらに、各セクションは、複数のサブセクションに分割されることができる、一方、複数のセクションが合わさって一つのセクションにすることも可能である。さらに、このように構成される各セクションは、デバイス、モジュール、ミーンズとして言及されることができる。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (9)

  1.  車両(A)において用いられ、ヘッドアップディスプレイ(20)によるコンテンツの重畳表示を制御する表示制御装置であって、
     前景中の路面のうち、前記ヘッドアップディスプレイの画角(VA)内に含まれ且つ前記車両の乗員から視認可能な視認内エリア(Av)と、前記画角内に含まれ且つ前記乗員から視認不可能な視認外エリア(Ai)とを推定する推定部(75)と、
     前記車両の進行予定経路を提示する経路コンテンツ(CTr)を前記路面に重畳表示させる表示制御部(76)と、
     を備え、
     前記表示制御部は、
     前記経路コンテンツのうちで、前記視認内エリアと重畳する視認内部分(CTv)と、前記視認外エリアと重畳する視認外部分(CTi)と、前記視認内部分および前記視認外部分が重なる重複部分(CTo)とを判別し、
     前記視認内部分のうちで前記重複部分から外れる視認内非重複部分(CTvn)および前記視認外部分のうちで前記重複部分から外れる視認外非重複部分(CTin)と異なる態様で、前記重複部分を表示させる表示制御装置。
  2.  前記表示制御部は、前記視認内非重複部分と前記視認外非重複部分とを異なる態様で表示させる請求項1に記載の表示制御装置。
  3.  前記表示制御部は、前記重複部分の輝度を前記視認外非重複部分の輝度よりも低く表示させ、前記視認外非重複部分の輝度を前記視認内非重複部分の輝度よりも低く表示させる請求項2に記載の表示制御装置。
  4.  前記表示制御部は、前記視認内部分を、前記視認外部分に先立って表示させる請求項1から請求項3のいずれか1項に記載の表示制御装置。
  5.  前記表示制御部は、前記視認外エリアのうち前記乗員から視認可能になったエリアに対応する前記視認外部分から、前記視認内部分と同じ態様の表示に変化させていく請求項1から請求項4のいずれか1項に記載の表示制御装置。
  6.  前記表示制御部は、
     特定地点を指し示す特定地点コンテンツ(CTp)を重畳表示可能であり、
     前記特定地点コンテンツのうち前記画角内に含まれ且つ前記乗員から視認可能な空間範囲と重畳する可視部分(CTpv)と、前記画角内に含まれ且つ前記乗員から視認不可能な空間範囲と重畳する不可視部分(CTpi)とを判別し、
     前記可視部分と前記不可視部分とを異なる態様で表示させる請求項1から請求項5のいずれか1項に記載の表示制御装置。
  7.  車両(A)において用いられ、ヘッドアップディスプレイ(20)によるコンテンツの重畳表示を制御する表示制御プログラムであって、
     少なくとも1つの処理部(11)に、
     前景中の路面のうち、前記ヘッドアップディスプレイの画角(VA)内に含まれ且つ前記車両の乗員から視認可能な視認内エリア(Av)と、前記画角内に含まれ且つ前記乗員から視認不可能な視認外エリア(Ai)とを推定し(S60)、
     前記路面に重畳表示されて前記車両の進行予定経路を提示する経路コンテンツ(CTr)のうちで、前記視認内エリアと重畳する視認内部分(CTv)と、前記視認外エリアと重畳する視認外部分(CTi)と、前記視認内部分および前記視認外部分が重なる重複部分(CTo)とを判別し(S70)、
     前記視認内部分のうちで前記重複部分から外れる視認内非重複部分(CTvn)および前記視認外部分のうちで前記重複部分から外れる視認外非重複部分(CTin)と異なる態様で、前記重複部分を表示させる(S80)、
     ことを含む処理を実行させる表示制御プログラム。
  8.  車両(A)において用いられ、ヘッドアップディスプレイ(20)によるコンテンツの重畳表示を制御する表示制御装置であって、
     前景中の路面のうち、前記ヘッドアップディスプレイの画角(VA)内に含まれ且つ前記車両の乗員から視認可能な視認内エリア(Av)と、前記画角内に含まれ且つ前記乗員から視認不可能な視認外エリア(Ai)とを推定する推定部(75)と、
     前記車両の進行予定経路を提示する経路コンテンツ(CTr)を前記路面に重畳表示させる表示制御部(76)と、
     を備え、
     前記表示制御部は、
     前記経路コンテンツのうちで、前記視認内エリアと重畳する視認内部分(CTv)と、前記視認外エリアと重畳する視認外部分(CTi)と、前記視認内部分および前記視認外部分が重なる重複部分(CTo)とを判別し、
     前記視認外部分のうち前記重複部分から外れる視認外非重複部分(CTin)を、前記視認内部分と異なる態様で表示させ、前記重複部分を、前記視認内部分と同様の表示態様で表示させる表示制御装置。
  9.  車両(A)において用いられ、ヘッドアップディスプレイ(20)によるコンテンツの重畳表示を制御する表示制御プログラムであって、
     少なくとも1つの処理部(11)に、
     前景中の路面のうち、前記ヘッドアップディスプレイの画角(VA)内に含まれ且つ前記車両の乗員から視認可能な視認内エリア(Av)と、前記画角内に含まれ且つ前記乗員から視認不可能な視認外エリア(Ai)とを推定し(S60)、
     前記路面に重畳表示されて前記車両の進行予定経路を提示する経路コンテンツ(CTr)のうちで、前記視認内エリアと重畳する視認内部分(CTv)と、前記視認外エリアと重畳する視認外部分(CTi)と、前記視認内部分および前記視認外部分が重なる重複部分(CTo)とを判別し(S70)、
     前記視認外部分のうち前記重複部分から外れる視認外非重複部分(CTin)を、前記視認内部分と異なる態様で表示させ、前記重複部分を、前記視認内部分と同様の表示態様で表示させる(S80)、
     ことを含む処理を実行させる表示制御プログラム。

     
PCT/JP2020/012382 2019-06-05 2020-03-19 表示制御装置および表示制御プログラム WO2020246113A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/540,857 US11710429B2 (en) 2019-06-05 2021-12-02 Display control device and non-transitory computer readable storage medium for display control by head-up display

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-105594 2019-06-05
JP2019105594A JP7014205B2 (ja) 2019-06-05 2019-06-05 表示制御装置および表示制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/540,857 Continuation US11710429B2 (en) 2019-06-05 2021-12-02 Display control device and non-transitory computer readable storage medium for display control by head-up display

Publications (1)

Publication Number Publication Date
WO2020246113A1 true WO2020246113A1 (ja) 2020-12-10

Family

ID=73649555

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/012382 WO2020246113A1 (ja) 2019-06-05 2020-03-19 表示制御装置および表示制御プログラム

Country Status (3)

Country Link
US (1) US11710429B2 (ja)
JP (1) JP7014205B2 (ja)
WO (1) WO2020246113A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021006060A1 (ja) * 2019-07-08 2021-01-14 株式会社デンソー 表示制御装置および表示制御プログラム
US20220366661A1 (en) * 2019-12-10 2022-11-17 Sony Group Corporation Information processing system, information processing method, and program
KR20220077002A (ko) * 2020-12-01 2022-06-08 현대자동차주식회사 차량 제어 장치 및 방법
US11529968B1 (en) * 2022-06-07 2022-12-20 Robert A. Schaeffer Method and system for assisting drivers in locating objects that may move into their vehicle path

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156608A (ja) * 2008-12-26 2010-07-15 Toshiba Corp 車載用表示システム及び表示方法
JP2015128956A (ja) * 2014-01-08 2015-07-16 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
WO2018051912A1 (ja) * 2016-09-14 2018-03-22 パナソニックIpマネジメント株式会社 表示装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6524417B2 (ja) 2014-02-05 2019-06-05 パナソニックIpマネジメント株式会社 車両用表示装置および車両用表示装置の表示方法
WO2018147066A1 (ja) 2017-02-08 2018-08-16 株式会社デンソー 車両用表示制御装置
JP6699646B2 (ja) 2017-02-08 2020-05-27 株式会社デンソー 車両用表示制御装置
JP7113259B2 (ja) 2017-06-30 2022-08-05 パナソニックIpマネジメント株式会社 表示システム、表示システムを備える情報提示システム、表示システムの制御方法、プログラム、及び表示システムを備える移動体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010156608A (ja) * 2008-12-26 2010-07-15 Toshiba Corp 車載用表示システム及び表示方法
JP2015128956A (ja) * 2014-01-08 2015-07-16 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
WO2018051912A1 (ja) * 2016-09-14 2018-03-22 パナソニックIpマネジメント株式会社 表示装置

Also Published As

Publication number Publication date
JP2020196416A (ja) 2020-12-10
US11710429B2 (en) 2023-07-25
US20220093020A1 (en) 2022-03-24
JP7014205B2 (ja) 2022-02-01

Similar Documents

Publication Publication Date Title
JP7052786B2 (ja) 表示制御装置および表示制御プログラム
WO2021006060A1 (ja) 表示制御装置および表示制御プログラム
WO2020246113A1 (ja) 表示制御装置および表示制御プログラム
WO2020261781A1 (ja) 表示制御装置、表示制御プログラム、および持続的有形コンピュータ読み取り媒体
WO2021002081A1 (ja) 表示制御装置及び表示制御プログラム
US20220058998A1 (en) Display control device and non-transitory computer-readable storage medium for display control on head-up display
WO2020208989A1 (ja) 表示制御装置及び表示制御プログラム
US11850940B2 (en) Display control device and non-transitory computer-readable storage medium for display control on head-up display
US20220016980A1 (en) Display control device and non-transitory computer-readable storage medium for display control on head-up display
CN110462699B (zh) 车辆用显示控制装置以及车辆用显示单元
JP7283448B2 (ja) 表示制御装置および表示制御プログラム
JP7243660B2 (ja) 表示制御装置及び表示制御プログラム
JP7416114B2 (ja) 表示制御装置および表示制御プログラム
JP2020185830A (ja) 表示制御装置及び表示制御プログラム
JP7255429B2 (ja) 表示制御装置および表示制御プログラム
JP7111137B2 (ja) 表示制御装置、および表示制御プログラム
WO2021065735A1 (ja) 表示制御装置、および表示制御プログラム
JP2021094965A (ja) 表示制御装置、および表示制御プログラム
WO2020246114A1 (ja) 表示制御装置および表示制御プログラム
JP2021037895A (ja) 表示制御システム、表示制御装置、および表示制御プログラム
JP2021009133A (ja) 表示制御装置及び表示制御プログラム
JP2020172251A (ja) 表示制御装置及び表示制御プログラム
JP2021060808A (ja) 表示制御システム及び表示制御プログラム
JP7088152B2 (ja) 表示制御装置、および表示制御プログラム
JP7255443B2 (ja) 表示制御装置及び表示制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20817841

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20817841

Country of ref document: EP

Kind code of ref document: A1