WO2020245977A1 - 表示制御装置および表示制御方法 - Google Patents

表示制御装置および表示制御方法 Download PDF

Info

Publication number
WO2020245977A1
WO2020245977A1 PCT/JP2019/022526 JP2019022526W WO2020245977A1 WO 2020245977 A1 WO2020245977 A1 WO 2020245977A1 JP 2019022526 W JP2019022526 W JP 2019022526W WO 2020245977 A1 WO2020245977 A1 WO 2020245977A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
display control
vehicle
information
control device
Prior art date
Application number
PCT/JP2019/022526
Other languages
English (en)
French (fr)
Inventor
下谷 光生
直志 宮原
義典 上野
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2021524597A priority Critical patent/JP7217804B2/ja
Priority to PCT/JP2019/022526 priority patent/WO2020245977A1/ja
Publication of WO2020245977A1 publication Critical patent/WO2020245977A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers

Definitions

  • the present invention relates to a display control device and a display control method for controlling the display of information pointed out by a user other than the driver on an in-vehicle display device that can be visually recognized by the driver.
  • a technology for displaying position-related information displayed on a mobile information terminal represented by a smartphone existing in a vehicle on an in-vehicle display device has been put into practical use.
  • this technology it is possible to display the position-related information displayed on the mobile information terminal on the in-vehicle display device and operate the mobile information terminal using the operation device provided in the vehicle.
  • the mobile information terminal executes an application having a navigation function to provide the position-related information to the vehicle-mounted display device, or the mobile information terminal.
  • an application having a POI (Point of Interest) search function is executed to provide position-related information to an in-vehicle display device.
  • Patent Document 1 a technique of receiving an image with position information from a mobile information terminal and displaying a point indicated by the position information included in the image with position information on an in-vehicle display device has been disclosed (see, for example, Patent Document 1). Further, there is disclosed a technique of acquiring position information from other vehicles traveling in a group and displaying an icon indicating the position of each vehicle constituting the group on a map (see, for example, Patent Document 2).
  • Patent Documents 1 and 2 for example, when a display object indicating a specific point is displayed on a map, the driver can recognize the specific point on the map, but the specific point corresponds to any position in the actual landscape. Cannot be easily recognized.
  • the present invention has been made to solve such a problem, and is a display control capable of making the driver easily recognize which position in the actual landscape the position information acquired from the outside corresponds to. It is an object of the present invention to provide an apparatus and a display control method.
  • the display control device acquires pointing information including the pointing position which is the position of the pointing target pointed by the user in the image displayed on the screen of the information display device.
  • the own vehicle information acquisition unit that acquires the own vehicle information including the current position of the own vehicle and the direction of the own vehicle, the map information acquisition unit that acquires the map information, and the indication information acquisition unit. Based on the acquired indication information, the own vehicle information acquired by the own vehicle information acquisition unit, and the map information acquired by the map information acquisition unit, the position corresponding to the indication position in the landscape visually recognized by the driver of the own vehicle is set.
  • the display control device determines the pointed position in the landscape visually recognized by the driver of the own vehicle based on the own vehicle information acquired by the own vehicle information acquisition unit and the map information acquired by the map information acquisition unit. Since the control is performed so that the pointed object indicating that the user has pointed out the pointed target is superimposed and displayed at the corresponding position, it is easy for the driver to know which position in the actual landscape the position information acquired from the outside corresponds to. Can be recognized by.
  • Embodiment 1 of this invention It is a figure which shows an example of the pointed-out object according to Embodiment 1 of this invention. It is a figure which shows an example of the display of the mobile information terminal by Embodiment 1 of this invention. It is a figure which shows an example of the display of the head-up display by Embodiment 1 of this invention. It is a figure which shows an example of the display of the mobile information terminal by Embodiment 1 of this invention. It is a figure which shows an example of the display of the head-up display by Embodiment 1 of this invention. It is a figure for demonstrating the display of the three-dimensional pointed-out object by Embodiment 1 of this invention.
  • Embodiment 1 of this invention It is a figure for demonstrating the display of the three-dimensional pointed-out object by Embodiment 1 of this invention. It is a figure for demonstrating the display of the three-dimensional pointed-out object by Embodiment 1 of this invention. It is a figure for demonstrating the display of the three-dimensional pointed-out object by Embodiment 1 of this invention. It is a figure for demonstrating the display of the three-dimensional pointed-out object by Embodiment 1 of this invention. It is a figure for demonstrating the display of the three-dimensional pointed-out object by Embodiment 1 of this invention. It is a block diagram which shows an example of the structure of the display control device by Embodiment 2 of this invention. It is a figure which shows an example of the display of the rear seat display device by Embodiment 2 of this invention.
  • FIG. 1 is a block diagram showing an example of the configuration of the display control device 1 according to the first embodiment. Note that FIG. 1 shows the minimum necessary configuration for configuring the display control device according to the first embodiment. Further, it is assumed that the display control device 1 is mounted on the own vehicle.
  • the display control device 1 includes an indication information acquisition unit 2, an own vehicle information acquisition unit 3, a map information acquisition unit 4, and a display control unit 5. Further, the indication information acquisition unit 2 is communicably connected to the information display device 6.
  • the indication information acquisition unit 2 acquires indication information including the indication position which is the position of the indication target pointed by the user in the image displayed on the screen of the information display device 6.
  • the own vehicle information acquisition unit 3 acquires own vehicle information including the current position of the own vehicle, the position of the own vehicle, and the direction of the own vehicle.
  • the map information acquisition unit 4 acquires map information.
  • the display control unit 5 of the own vehicle is based on the indication information acquired by the indication information acquisition unit 2, the own vehicle information acquired by the own vehicle information acquisition unit 3, and the map information acquired by the map information acquisition unit 4. Control is performed to superimpose and display an indication object indicating that the user has pointed out the indication target at a position corresponding to the indication position in the landscape visually recognized by the driver.
  • FIG. 2 is a block diagram showing an example of the configuration of the display control device 7 according to another configuration.
  • the display control device 7 includes an indication information acquisition unit 2, an own vehicle information acquisition unit 3, a map information acquisition unit 4, and a display control unit 5. Further, the indication information acquisition unit 2 is communicably connected to the mobile information terminal 8, and the display control unit 5 is communicably connected to the head-up display 9. In the following, it is assumed that the display control device 7 and the head-up display 9 are mounted on the own vehicle, and the mobile information terminal 8 is owned by an occupant other than the driver who is in the own vehicle.
  • the indication information acquisition unit 2 acquires indication information including the indication position pointed out by the user in the image displayed on the screen of the mobile information terminal 8 from the mobile information terminal 8.
  • the mobile information terminal 8 is, for example, a smartphone, and holds an application for displaying information using location information. Examples of the application for displaying information using location information include an application for displaying a map, an application for providing route guidance to a destination, and an application for performing a POI search.
  • the mobile information terminal 8 is an aspect of the information display device 6 shown in FIG. Further, it is assumed that the mobile information terminal 8 has a touch panel, and the user can perform a touch operation on the display screen.
  • the own vehicle information acquisition unit 3 acquires the own vehicle information including the position of the own vehicle and the direction of the own vehicle based on the position information acquired from the GNSS (Global Navigation Satellite System) satellite (not shown).
  • the speed, moving distance, steering direction, and the like of the own vehicle may be further added to the position information acquired from the GNSS satellite to obtain a more accurate current position and orientation of the own vehicle.
  • Each information such as the speed, moving distance, and steering direction of the own vehicle is acquired from various sensors provided in the own vehicle.
  • the map information acquisition unit 4 acquires map information including at least location information.
  • the map information acquisition unit 4 may hold the map information in advance, or may acquire the map information from the outside as needed.
  • the display control unit 5 of the own vehicle is based on the indication information acquired by the indication information acquisition unit 2, the own vehicle information acquired by the own vehicle information acquisition unit 3, and the map information acquired by the map information acquisition unit 4.
  • the head-up display 9 is controlled so that the indicated object is superimposed and displayed at a position corresponding to the indicated position in the landscape visually recognized by the driver.
  • the head-up display 9 has a display area including a landscape visually recognized by the driver of the own vehicle.
  • the head-up display 9 is also referred to as a HUD.
  • FIG. 3 is a flowchart showing an example of the operation of the mobile information terminal 8.
  • step S11 when the mobile information terminal 8 executes an application for displaying a map according to a user's operation, it displays a map as shown in FIG. 4, for example.
  • FIG. 4 shows that the own vehicle 10 is traveling on the road where the buildings 11 to 14 exist.
  • the position of the own vehicle 10 corresponds to the position information acquired by the mobile information terminal 8 from the GNSS satellite.
  • the mobile information terminal 8 may hold map information in advance, or may acquire map information around the mobile information terminal 8 from the outside as needed.
  • FIG. 4 shows a road with one lane on each side, and shows a case where the own vehicle 10 is traveling on the left side of the road, but the present invention is not limited to this. For example, in a country where it is obligatory to drive on the right side of the road, the own vehicle 10 will drive on the right side of the road. In this case, the mobile information terminal 8 displays the own vehicle 10 on the right side of the road.
  • the mobile information terminal 8 determines that the mobile information terminal 8 exists in the own vehicle when the mobile information terminal 8 is moving at a speed equal to or higher than a predetermined speed.
  • the display mode of the object indicating the position of the mobile information terminal 8 may be changed depending on whether or not the vehicle is moving. For example, when the mobile information terminal 8 is moving at a speed higher than a predetermined speed, an object of the own vehicle 10 as shown in FIG. 4 is displayed, and the mobile information terminal 8 is slower than the predetermined speed. If you are moving with, you may display an object that shows a person or the like.
  • step S12 the mobile information terminal 8 determines whether or not the user has touched the display screen of the mobile information terminal 8.
  • the case where the user 15 touches the building 12 is shown. That is, the building 12 is the object to be pointed out by the user 15. If the user touches the operation, the process proceeds to step S13. On the other hand, if the user does not perform the touch operation, the process returns to step S11.
  • step S13 the mobile information terminal 8 calculates the pointing position corresponding to the touch position, which is the position touched by the user.
  • the mobile information terminal 8 calculates the absolute position of the building 12 as the indicated position based on the touch position of the user 15 and the map information.
  • step S14 the mobile information terminal 8 transmits the indication information including the indication position to the display control device 7.
  • the mobile information terminal 8 transmits the indication information including the indication position which is the absolute position of the building 12 to the display control device 7.
  • FIG. 5 is a flowchart showing an example of the operation of the display control device 7.
  • step S21 the indication information acquisition unit 2 determines whether or not the indication information has been acquired from the mobile information terminal 8. The process of step S21 is repeated until the indication information is acquired, and when the indication information is acquired, the process proceeds to step S22.
  • step S22 the display control unit 5 calculates the relative position of the pointed out target with respect to the own vehicle. Specifically, the display control unit 5 specifies the indication position on the map based on the indication position included in the indication information acquired by the indication information acquisition unit 2 and the map information acquired by the map information acquisition unit 4. ..
  • the pointing position specified here corresponds to the absolute position of the pointing target pointed out by the user touching the display screen of the mobile information terminal 8.
  • the display control unit 5 calculates the relative position of the pointed-out target with respect to the own vehicle based on the pointed-out position of the specified pointed-out target and the own vehicle position included in the own vehicle information acquired by the own vehicle information acquisition unit 3. To do.
  • the display control unit 5 may calculate the relative direction of the pointed out target with respect to the own vehicle by further considering the direction of the own vehicle included in the own vehicle information.
  • step S23 the display control unit 5 generates an indication object to be displayed on the head-up display 9.
  • step S24 the display control unit 5 controls the head-up display 9 so as to display the pointed out object. Specifically, the display control unit 5 controls the head-up display 9 so that the pointed-out object is superimposed and displayed on the relative position of the pointed-out object calculated in step S22 in the actual landscape.
  • FIG. 6 is a diagram showing an example of the display of the head-up display 9. Note that FIG. 6 shows a case where the pointed object 16 is displayed on the head-up display 9 when the user 15 of the mobile information terminal 8 touches the building 12 as shown in FIG.
  • the pointed-out object 16 indicates that the user of the mobile information terminal 8 has pointed out the building 12, and is displayed so as to be superimposed on the building 12 in the actual landscape.
  • the pointed object 16 is an object indicating a pointing object, but the object is not limited to this, and may be another figure, a character, or a combination thereof.
  • the display control unit 5 may bring the virtual image distance of the pointed object closer to the pointed object, and the farther the distance from the own vehicle to the pointed object is, the closer the pointed object 16 is. The virtual image distance may be increased. Further, when the virtual image distance of the head-up display 9 is fixed, the display control unit 5 may display the pointed object in the direction of the pointed object.
  • step S25 the display control unit 5 determines whether or not the deletion condition of the indicated object is satisfied. The process of step S25 is repeated until the deletion condition of the pointed object is satisfied, and when the deletion condition of the pointed object is satisfied, the process proceeds to step S26.
  • the deletion condition of the indicated object may be any condition, for example, the display object is automatically deleted after being displayed for a certain period of time, deleted by the operation of the driver, or an arbitrary trigger signal acquired from the own vehicle is acquired. Then, it may be deleted, it may be deleted according to the instruction of the mobile information terminal 8, or it may be deleted when the own vehicle passes the indicated object.
  • step S26 the display control unit 5 controls the head-up display 9 so as to erase the indicated object.
  • the mobile information terminal 8 transmits the indication information including only the indication position to the display control device 7
  • the present invention is not limited to this.
  • the mobile information terminal 8 may transmit to the display control device 7 the indication information including the feature attribute indicating the attribute of the feature to be pointed out in addition to the indication position.
  • the feature attributes include the name of the feature to be pointed out, the type of the feature, the color of the feature, and the like.
  • the display control unit 5 generates an additional indication object according to the feature attribute included in the indication information acquired by the indication information acquisition unit 2. Specifically, the display control unit 5 generates an additional pointing object together with the pointing object in step S23 of FIG.
  • the display control unit 5 controls the head-up display 9 so as to display the additional pointed object 17 together with the pointed object 16, as shown in FIG. 7, for example.
  • the additional pointing object 17 is an object indicating "ABCD building" which is the name of the building 12.
  • the additional pointing object 17 may be a character, a figure, an image, a voice, a sound effect, or a combination thereof.
  • the feature attribute to be included in the indication information may be selected by the user in the application executed by the mobile information terminal 8.
  • the feature attribute used by the display control unit 5 to generate the additional pointing object may be selected from a plurality of feature attributes included in the pointing information acquired by the pointing information acquisition unit 2.
  • step S13 of FIG. 3 the mobile information terminal 8 is relative to the pointed target with respect to the mobile information terminal 8 based on the position information of the mobile information terminal 8, the map information, and the touch position of the user. Calculate the position as the indicated position.
  • step S24 of FIG. 4 the display control unit 5 controls the head-up display 9 so as to display the pointed-out object based on the relative position of the pointed-out object.
  • the mobile information terminal 8 calculates the pointing direction, which is the relative direction of the pointing target to the mobile information terminal 8, and transmits the pointing information including the pointing direction to the display control device 7. May be good.
  • the pointing direction can be calculated based on the position information of the mobile information terminal 8, the map information, and the touch position of the user.
  • the display control unit 5 controls the head-up display 9 so as to display the indicated object based on the indicated direction.
  • the display control unit 5 controls the head-up display 9 so as to display the pointing object 16 and the additional pointing object 17 indicating that the pointing object exists behind the own vehicle. You may.
  • the display control unit 5 may change the display mode of the indicated object depending on whether or not the indicated position is within the display area of the head-up display 9. For example, the display control unit 5 may change the size, shape, color, blink, or the like of the indicated object.
  • the display control unit 5 may control the head-up display 9 so as to display the pointed-out object based on the operation when the user of the mobile information terminal 8 points out the pointed-out object.
  • the mobile information terminal 8 transmits the indication information including the operation attribute indicating the operation attribute when the user points out the indication target to the display control device 7.
  • the display control unit 5 controls the head-up display 9 so as to display the indicated object based on the operation attribute.
  • Operational attributes include at least touch and gesture operations.
  • the mobile information terminal 8 when the user of the mobile information terminal 8 performs the gesture operation 18 to draw a circle at the position of the building 12 to be pointed out, the mobile information terminal 8 has an operation attribute indicating the attribute of the gesture operation 18.
  • the indication information including the above is transmitted to the display control device 7.
  • the display control unit 5 controls the head-up display 9 so that the circular pointed-out object 16 is superimposed and displayed on the building 12 in the actual landscape, as shown in FIG.
  • the display control unit 5 controls the head-up display 9 so as to display the pointed out object 16 as shown in FIG. 6, for example.
  • the present invention is not limited to this.
  • the user may select the shape of the pointed object from the menu screen displayed on the mobile information terminal 8.
  • the indication information including the attribute of the shape selected by the user is transmitted to the display control device 7.
  • the display control unit 5 may control the head-up display 9 so as to display the pointed-out object 16 whose display mode changes with the passage of time.
  • the display of the dynamic pointing object 16 shown in FIGS. 13 and 14 may be performed once or may be repeated a plurality of times.
  • the mobile information terminal 8 may transmit an operation attribute including displaying a dynamic indication object to the display control device 7, and the display control unit 5 generates a dynamic indication object based on the operation attribute. You may.
  • the mobile information terminal 8 when the user touch-operates the road displayed on the mobile information terminal 8, the mobile information terminal 8 includes the indication position which is the absolute position of the road corresponding to the touch position. Is transmitted to the display control device 7.
  • the display control unit 5 controls the head-up display 9 so as to display the indicated object 16 at a position corresponding to the indicated position in the actual landscape.
  • the mobile information terminal 8 is a set of absolute positions of the road traced by the gesture operation.
  • the indication information including the indication position is transmitted to the display control device 7.
  • the display control unit 5 controls the head-up display 9 so as to display the pointing object 16 corresponding to the gesture operation at a position corresponding to the pointing position in the actual landscape.
  • the mobile information terminal 8 displays the route guide.
  • Pointed information including the pointed position which is a set of absolute positions of the road according to the line, may be transmitted to the display control device 7.
  • the display control unit 5 controls the head-up display 9 so as to display the indicated object at a position corresponding to the indicated position in the actual landscape.
  • the object to be pointed out by the user of the mobile information terminal 8 is not limited to the feature, but may be a virtual feature related to the feature.
  • the mobile information terminal 8 transmits the indication information including the virtual feature attribute indicating the attribute of the virtual feature to be indicated to the display control device 7.
  • the display control unit 5 controls the head-up display 9 so as to display the pointed-out object according to the virtual feature attribute.
  • the display control unit 5 may continuously or discontinuously change the display mode of the indicated object according to the positional relationship between the indicated position of the indicated object and the position of the own vehicle. For example, when turning right or left at an intersection in the middle of a route to a destination, the display control unit 5 may change the display mode of the indicated object according to the positional relationship between the intersection and the position of the own vehicle. Further, the display control unit 5 may change the display mode of the indicated object according to the distance between the indicated position of the indicated object and the position of the own vehicle of less than 50 m, 50 m or more and less than 200 m, and 200 m or more.
  • the display control unit 5 controls the head-up display 9 so as to display a pointing object indicating the direction in which the specific vehicle exists in the actual landscape.
  • the pointed-out object at this time may be a shape indicating a vehicle, or an image or a symbol identifying a member of the group.
  • the mobile information terminal 8 may transmit the indication information to the display control device 7 at an arbitrary timing even if the indication is not given by the user. For example, when the mobile information terminal 8 is executing an application for providing tourist information, the mobile information terminal 8 transmits, for example, pointing information including the position of the tourist attraction as a pointing position to the display control device 7 when approaching the tourist attraction. To do. In this case, the display control unit 5 controls the head-up display 9 so as to display the indicated object at a position corresponding to a tourist attraction in the actual landscape.
  • the information display device 6 shown in FIG. 1 may be, for example, a navigation device mounted on the own vehicle and searching for a route from at least the position of the own vehicle to a preset destination.
  • the user's indication to the display screen of the navigation device is not limited to the touch operation, but may be a remote controller, a touch pad, or a remote control switch provided in the own vehicle.
  • the navigation device may be configured to include the display control device 7, and in this case, the navigation device controls the display of the head-up display 9.
  • the information display device 6 shown in FIG. 1 may be an in-vehicle display device provided in the passenger seat or the rear seat of the own vehicle.
  • the passenger seat or the rear seat occupant can point out any pointed object from the map displayed on the in-vehicle display device.
  • the indication information transmitted from the navigation device or the in-vehicle display device to the display control device 7 may include message information consisting of text characters to be displayed as an additional indication object.
  • the message information may be arbitrarily input by the user, or may be selected by the user from a plurality of fixed phrases prepared in advance.
  • the mobile information terminal 8 uses the position information acquired from the GNSS satellite by the mobile information terminal 8 , but the present invention is not limited to this.
  • the mobile information terminal 8 may acquire the own vehicle information acquired by the own vehicle information acquisition unit 3 from the display control device 7 and use it.
  • the display control unit 5 displays the pointed object 16 at a position where the building 19 exists on the extension line of the straight line connecting Cs and Ce which are both ends of the straight line-shaped three-dimensional pointed object 16. In addition, it controls the 3D head-up display.
  • the Y-axis direction indicates the traveling direction of the own vehicle
  • the X-axis direction indicates the direction perpendicular to the traveling direction of the own vehicle.
  • a method of superimposing and displaying the pointed object in the direction of the pointed target a method of estimating the position of the driver's eyes and aligning the pointed object, and a method of detecting the position of the driver's eyes are detected.
  • the former has an advantage that it can be realized at low cost, although an error occurs when estimating the position of the driver's eyes.
  • the latter requires a device for detecting the position of the driver's eyes and is costly, but has an advantage that the position of the indicated object can be accurately aligned because the detection error of the position of the driver's eyes is small.
  • the pointed object is an extension of the line connecting the driver's eyes and the pointed object 16. It can be seen that the building 19 exists.
  • the driver himself needs to adjust the position of the eyes, but a device for detecting the position of the eyes is not required, and the pointing object can be accurately aligned. There is an advantage.
  • the head-up display 9 does not necessarily have to be a 3D head-up display, and may have a function of displaying two objects having different virtual image distances.
  • the display control unit 5 displays the pointed-out object pointed out by the user of the mobile information terminal 8 as a pointed-out object at a position corresponding to the pointed-out position in the landscape visually recognized by the driver of the own vehicle.
  • the head-up display 9 is controlled in this way. As a result, the driver can easily recognize which position in the actual landscape the pointed out object pointed out by the user of the mobile information terminal 8 corresponds to.
  • FIG. 24 is a block diagram showing an example of the configuration of the display control device 20 according to the second embodiment.
  • the indication information acquisition unit 2 of the display control device 20 is communicably connected to the rear seat display device 21 and acquires the indication information from the rear seat display device 21. Since other configurations and operations are the same as those of the display control device 7 shown in FIG. 2 described in the first embodiment, detailed description thereof will be omitted here.
  • the rear seat display device 21 is an in-vehicle display device provided in the rear seat of the own vehicle, and can display an image captured by the photographing device 22.
  • the photographing device 22 is provided in the own vehicle and has a forward photographing camera for photographing the front of the own vehicle.
  • the photographing device 22 is not limited to the front photographing camera, and may further include a rear photographing camera for photographing the rear side of the own vehicle, a rear side photographing camera for photographing the rear side of the own vehicle, and the like.
  • rear seat display device 21 The operation of the rear seat display device 21 is the same as the operation of the mobile information terminal 8 described in the first embodiment except for step S11 in FIG.
  • the rear seat display device 21 executes an application for displaying the image captured by the photographing device 22 according to the operation of the user. As a result, the rear seat display device 21 displays, for example, an image of the front of the own vehicle as shown in FIG. 25.
  • the rear seat display device 21 displays the pointing information including the pointing direction which is the relative direction of the building 23 with respect to the own vehicle. Send to. Specifically, the rear seat display device 21 calculates the pointing direction, which is the relative direction of the pointing target to the own vehicle, based on the display range of the image and the pointing position of the user on the display screen. Then, the rear seat display device 21 transmits the indication information including the indication direction to the display control device 20.
  • the display control unit 5 controls the head-up display 9 so as to display the indication object based on the indication direction included in the indication information acquired by the indication information acquisition unit 2. Specifically, as shown in FIG. 26, for example, the display control unit 5 controls the head-up display 9 so that the pointing object 16 indicating the direction in which the building 23 exists in the actual landscape is superimposed and displayed.
  • the rear seat display device 21 may transmit the indication information including the indication position of the indication target pointed by the user to the display control device 20.
  • the display control unit 5 controls the head-up display 9 so that the pointed-out object is superimposed and displayed at the position corresponding to the pointed-out position in the actual landscape.
  • the display control unit 5 displays the pointed-up object 16 indicating that the pointed-out object exists behind, as shown in FIG. 9, for example. 9 may be controlled.
  • the display control unit 5 determines that the feature existing in the indication direction is the indication target based on the indication direction included in the indication information acquired by the indication information acquisition unit 2 and the map information acquired by the map information acquisition unit 4. You may. For example, in FIG. 26, the display control unit 5 determines that the building 23 existing in the pointing direction is the pointing target. Then, the display control unit 5 controls the head-up display 9 so as to superimpose the pointed object 16 on the building 23. At this time, the display control unit 5 may control the head-up display 9 so as to acquire information about the building 23 from the map information acquisition unit 4 and display the information as an additional pointed object.
  • the display control unit 5 determines that the feature existing in the pointing direction is the pointing target, but the present invention is not limited to this.
  • a feature in which the rear seat display device 21 exists in the pointing direction may be determined as the pointing target.
  • the rear seat display device 21 has a function of acquiring map information.
  • the rear seat display device 21 transmits the indication information including the feature attribute indicating the type of the indication target to the display control device 20.
  • the display control device 20 identifies the feature included in the map information acquired by the map information acquisition unit 4 based on the feature attribute included in the indication information acquired by the indication information acquisition unit 2. Then, the display control device 20 controls the head-up display 9 so as to superimpose the pointed object on the specified feature and display the indicated object.
  • the rear seat display device 21 may include information on the pointed out target included in the map information in the pointed out information and transmit it to the display control device 20.
  • the rear seat display device 21 may have an image recognition function. In this case, the rear seat display device 21 recognizes the image captured by the photographing device 22 and recognizes the pointed out object pointed out by the user. Then, the rear seat display device 21 transmits the indication information including the indication direction and the feature attribute indicating the type of the indication target to the display control device 20.
  • the display control device 20 identifies the feature included in the map information acquired by the map information acquisition unit 4 based on the indication direction and the feature attribute included in the indication information acquired by the indication information acquisition unit 2. Then, the display control device 20 controls the head-up display 9 so as to superimpose the pointed object on the specified feature and display the indicated object.
  • the rear seat display device 21 has been described as an example, but the present invention is not limited to this. Instead of the rear seat display device 21 shown in FIG. 24, an in-vehicle display device provided in the passenger seat may be used, or a portable information terminal possessed by an occupant of the own vehicle may be used.
  • the image to be displayed on the mobile information terminal may be an image taken by a camera included in the mobile information terminal, or may be an image taken by the photographing device 22.
  • the display control unit 5 is a position corresponding to the pointed-out position in the landscape where the driver of the own vehicle visually recognizes the pointed-out object pointed out by the user in the image displayed on the rear seat display device 21.
  • the head-up display 9 is controlled so as to be displayed as a pointed object. As a result, the driver can easily recognize which position in the actual landscape the pointed out object pointed out by the user of the rear seat display device 21 corresponds to.
  • FIG. 27 is a block diagram showing an example of the configuration of the display control device 24 according to the third embodiment.
  • the display control unit 5 of the display control device 24 is communicably connected to the photographing device 22 and the image display device 25. Since other configurations and operations are the same as those of the display control device 7 shown in FIG. 2 described in the first embodiment, detailed description thereof will be omitted here.
  • the photographing device 22 is provided in the own vehicle, has a front-shooting camera and a rear-shooting camera, and shoots an image including a landscape visually recognized by the driver of the own vehicle.
  • the image display device 25 is provided at a location that can be visually recognized by the driver of the own vehicle, and displays images taken by the front-shooting camera or the rear-shooting camera that constitute the shooting device 22.
  • the image taken by the rear-view camera corresponds to the image of the electronic mirror taken behind the own vehicle instead of the rear-view mirror.
  • Operation of mobile information terminal 8 is the same as the operation of the mobile information terminal 8 shown in FIG. 3 described in the first embodiment. For example, when the mobile information terminal 8 displays a map as shown in FIG. 4 on the mobile information terminal 8 and the user 15 touches and points out the building 12, the mobile information terminal 8 points out including the pointed out position of the building 12. Information is transmitted to the display control device 24.
  • the display control unit 5 Based on the indication position included in the indication information acquired by the indication information acquisition unit 2, the display control unit 5 positions the indication object at a position corresponding to the indication position in the actual landscape taken by the front-shooting camera constituting the photographing device 22.
  • the image display device 25 is controlled so as to display.
  • the display control unit 5 aligns the image captured by the front-viewing camera with the indicated position based on the shooting direction and shooting range acquired from the front-shooting camera.
  • the pointed-out object 16 is displayed so as to be superimposed on the building 12 to be pointed out.
  • the display control unit 5 is photographed by the rear photographing camera constituting the photographing device 22 as shown in FIG. 29.
  • the image display device 25 is controlled so as to display the indicated image and display the indicated object 16 at a position corresponding to the indicated position of the image.
  • the pointed object 16 is displayed so as to be superimposed on the building 14 which is the pointed target.
  • the display control unit 5 displays the display area as shown in FIGS. 9 and 10, for example.
  • the video display device 25 may be controlled to display an indication object indicating that it exists outside. Further, when one of the images captured by the front-shooting camera or the rear-shooting camera includes the pointed-out object but the other does not include the pointed-out object, the display control unit 5 displays one of the images. Then, the image display device 25 may be controlled to display a message indicating that the indicated object is displayed.
  • the video display device 25 may separately have a video display device that displays a video shot by the front-shooting camera and a video display device that displays the video shot by the rear-shooting camera.
  • one image display device 25 may simultaneously display both the image taken by the front camera and the image taken by the rear camera.
  • the photographing device 22 may further include a rear side photographing camera.
  • the display control unit 5 controls the image display device 25 so that the pointed object is superimposed and displayed on the image captured by the rear side photographing camera.
  • the image taken by the rear side camera corresponds to the image of the electronic mirror taken on the rear side of the own vehicle instead of the door mirror or the fender mirror.
  • the shooting area shot by the shooting device 22 and the display area displayed by the video display device 25 do not match, and the shooting area is wider than the display area. Therefore, the image captured by the photographing device 22 may include the pointed out object, but the display area displayed on the image display device 25 may not include the pointed out object. In such a case, the display control unit 5 may adjust the display area of the video display device 25 so that the pointed out target is included.
  • the display control unit 5 displays the pointed-out object pointed out by the user of the mobile information terminal 8 as a pointed-out object at a position corresponding to the pointed-out position in the landscape photographed by the photographing device 22.
  • the image display device 25 is controlled. As a result, the driver can easily recognize which position in the actual landscape the pointed out object pointed out by the user of the mobile information terminal 8 corresponds to.
  • FIG. 30 is a block diagram showing an example of the configuration of the display control device 26 according to the fourth embodiment.
  • the display control unit 5 of the display control device 26 is communicably connected to the head-up display 9, the photographing device 22, and the video display device 25.
  • Other configurations and operations are the same as those of the display control device 7 shown in FIG. 2 described in the first embodiment and the display control device 24 shown in FIG. 27 described in the third embodiment, and thus will be described in detail here. Is omitted. It is assumed that the photographing device 22 is a rear photographing camera.
  • Operation of mobile information terminal 8 is the same as the operation of the mobile information terminal 8 shown in FIG. 3 described in the first embodiment. For example, when a map as shown in FIG. 8 is displayed on the mobile information terminal 8 and the user 15 touches and points out a building 14 existing behind the own vehicle 10, the mobile information terminal 8 points out the pointed position of the building 14. The indication information including the above is transmitted to the display control device 26.
  • the operation of the display control device 24 corresponds to an operation in which the operation of the display control device 7 described in the first embodiment and the operation of the display control device 24 described in the third embodiment are combined.
  • the display control unit 5 sets the indication object at a position corresponding to the indication position in the actual landscape photographed by the photographing device 22.
  • the image display device 25 is controlled so as to display.
  • the pointed-out object 16 is displayed on the image display device 25 so as to be superimposed on the building 14 to be pointed out.
  • the display control unit 5 corresponds to the pointed out position in the actual landscape as shown in FIG. 6, for example.
  • the head-up display 9 is controlled so that the indicated object 16 is displayed at the position.
  • the pointed object When displaying the pointed object on the image display device 25, it is not necessary to display anything on the head-up display 9, and as shown in FIG. 31, the pointed object is displayed on the image display device 25 corresponding to the electronic mirror.
  • the additional pointing object 17 indicating that the object is indicated may be displayed on the head-up display 9.
  • the additional pointed object 17 may be semi-transparent in order to ensure the visibility of the foreground.
  • the display control unit 5 sets the head-up display 9 and the image. At least one of the display devices 25 may be controlled to display an indication object indicating that the indication target exists outside the display area.
  • the display control unit 5 controls to display the pointed-out object on the head-up display 9 when the pointed-out target pointed out by the user of the mobile information terminal 8 exists in front of the own vehicle. If the pointed out object is behind the own vehicle, it is controlled to be displayed on the image display device 25. As a result, the driver can easily recognize which position in the actual landscape the pointed out object pointed out by the user of the mobile information terminal 8 corresponds to.
  • FIG. 32 is a block diagram showing an example of the configuration of the display control device 27 according to the fifth embodiment.
  • the display control device 27 includes a own vehicle position information transmitting unit 28 that transmits the own vehicle position information to the outside. Further, the indication information acquisition unit 2 and the own vehicle position information transmission unit 28 are communicably connected to the communication device 29. Since the other configurations and operations are the same as those of the display control device 7 shown in FIG. 2 described in the first embodiment, detailed description thereof will be omitted here.
  • the communication device 29 is mounted on the own vehicle and is communicably connected to the mobile information terminal 30 existing outside the own vehicle. Specifically, when the communication device 29 receives the indication information from the mobile information terminal 30, the communication device 29 transmits the indication information to the indication information acquisition unit 2. Further, when the communication device 29 receives the own vehicle position information from the own vehicle position information transmission unit 28, the communication device 29 transmits the own vehicle position information to the mobile information terminal 30.
  • the own vehicle position information transmitting unit 28 uses the own vehicle position included in the own vehicle information acquired by the own vehicle information acquisition unit 3 as the own vehicle position information via the communication device 29. Is transmitted to the mobile information terminal 30.
  • the mobile information terminal 30 calculates the position pointed out by the user based on the position information of the own vehicle received from the display control device 27. Then, the mobile information terminal 30 transmits the indication information including the indication position to the display control device 27 via the communication device 29.
  • the display control unit 5 controls the head-up display 9 so as to display the indication object at a position corresponding to the indication position in the actual landscape based on the indication position included in the indication information acquired by the indication information acquisition unit 2. ..
  • the display control device 27 does not have to include the own vehicle position information transmission unit 28.
  • the mobile information terminal 30 displays a map of an appropriate position unrelated to the position of the own vehicle, the indication target is not included in the display area of the head-up display 9, or the indication position is from the position of the own vehicle. It may be in a distant position.
  • the mobile information terminal 30 is shown as an example in FIG. 32, the present invention is not limited to this, and any device that can transmit the indication information to the display control device 27 may be used.
  • a personal computer or the like may be used instead of the mobile information terminal 30, a system that presents various information such as route guidance, traffic information, or tourist information to the vehicle from the outside may be used.
  • the display control device 27 may transmit landscape area information indicating an actual landscape area corresponding to the display area of the head-up display 9 which is a display device to the mobile information terminal 30 via the communication device 29. ..
  • the mobile information terminal 30 calculates the display position of the pointed object in the display area of the head-up display 9 based on the pointed position of the user and the landscape area information.
  • the mobile information terminal 30 transmits the indication information including the display position information indicating the calculated display position to the display control device 27.
  • the display control device 27 controls the head-up display 9 so that the indication object is displayed at the display position included in the indication information acquired by the indication information acquisition unit 2.
  • the display control device 27 may transmit the landscape area information indicating the actual landscape area corresponding to the display area of the video display device 25 to the mobile information terminal 30 via the communication device 29.
  • the mobile information terminal 30 can also apply the above contents when displaying the image captured by the photographing device 22.
  • the mobile information terminal 30 may transmit the indication information including the command attribute of the in-vehicle device to the display control device 27. For example, when a user of the mobile information terminal 30 points out a meeting place as an indication target, the mobile information terminal 30 sets a destination, searches for a route, and guides a route used for a navigation function of a vehicle equipped with a display control device 27. The indication information including the command attribute indicating the above is transmitted to the display control device 27.
  • the display control device 27 may control the navigation device according to the command attribute acquired from the mobile information terminal 30 to perform route search and route guidance. At this time, the display control unit 5 may control the head-up display 9 so as to display information related to route guidance.
  • the display control device 27 may be configured integrally with the navigation device or may be configured separately.
  • the command attribute may be a point registration command in the navigation device.
  • the command attribute may be a command for operating a vehicle body device such as a blinking headlight, a hazard lamp, or a horn. In this case, it is effective for a user outside the vehicle to confirm the existence of the vehicle. Is.
  • the command attribute may be a conditional command such as blinking the headlight, turning on the hazard lamp, or sounding the horn when the distance between the vehicle and the mobile information terminal 30 approaches within a certain distance, for example, within 20 m. .. In this case, it can be utilized when the user of the mobile information terminal 30 calls a taxi.
  • the command attribute may be a command for controlling an external display system for displaying various information from the vehicle to the outside.
  • the taxi displays an appropriate welcome display toward the outside of the vehicle.
  • the welcome display for example, it is conceivable to display an ID that identifies a user registered in advance. As a result, the user can recognize that the taxi has arrived.
  • the device subject to the command attribute may be an in-vehicle device capable of communicating with the display control device 27.
  • the in-vehicle device include an in-vehicle device for driving control, an in-vehicle device for safety, an in-vehicle device for body, and an in-vehicle device for in-vehicle information.
  • the mobile information terminal 30 or the display control device 27 may automatically determine whether or not to use the command attribute based on a predetermined rule, and the user of the mobile information terminal 30 includes the command attribute in the indication information. May be done.
  • the display control unit 5 positions the pointed out object pointed out by the user of the mobile information terminal 30 outside the vehicle at a position corresponding to the pointed out position in the landscape visually recognized by the driver of the own vehicle.
  • the head-up display 9 is controlled so as to be displayed as a pointed object. As a result, the driver can easily recognize which position in the actual landscape the pointed out object pointed out by the user of the mobile information terminal 30 corresponds to.
  • Each function of the own vehicle position information transmission unit 28 is realized by a processing circuit. That is, the display control devices 1, 7, 20, 24, 26, 27 acquire the indication information, acquire the own vehicle information, acquire the map information, and set the indication position in the scenery visually recognized by the driver of the own vehicle. It is provided with a processing circuit for transmitting the position information of the own vehicle by controlling the display of the indicated object superimposed on the corresponding position.
  • the processing circuit may be dedicated hardware, and is a processor (CPU (Central Processing Unit), central processing unit, processing unit, arithmetic unit, microprocessor, microcomputer, DSP) that executes a program stored in a memory. It may also be called a Digital Signal Processor).
  • processor Central Processing Unit
  • CPU Central Processing Unit
  • processing unit processing unit
  • arithmetic unit microprocessor
  • microcomputer microcomputer
  • DSP Digital Signal Processor
  • the processing circuit 31 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, or an ASIC (Application Specific Integrated Circuit). , FPGA (Field Programmable Gate Array), or a combination of these.
  • Each function of the indication information acquisition unit 2, the own vehicle information acquisition unit 3, the map information acquisition unit 4, the display control unit 5, and the own vehicle position information transmission unit 28 may be realized by the processing circuit 31, and each function may be realized. It may be realized by one processing circuit 31 collectively.
  • the processing circuit 31 is the processor 32 shown in FIG. 34
  • the functions of the indication information acquisition unit 2, the own vehicle information acquisition unit 3, the map information acquisition unit 4, the display control unit 5, and the own vehicle position information transmission unit 28 are , Software, firmware, or a combination of software and firmware.
  • the software or firmware is written as a program and stored in the memory 33.
  • the processor 32 realizes each function by reading and executing the program recorded in the memory 33. That is, the display control devices 1, 7, 20, 24, 26, 27 are in the step of acquiring the indication information, the step of acquiring the own vehicle information, the step of acquiring the map information, and the scenery visually recognized by the driver of the own vehicle.
  • a memory 33 for storing a program in which a step of controlling display of the indicated object superimposed on a position corresponding to the indicated position and a step of transmitting own vehicle position information are executed as a result.
  • these programs cause a computer to execute the procedures or methods of the indication information acquisition unit 2, the own vehicle information acquisition unit 3, the map information acquisition unit 4, the display control unit 5, and the own vehicle position information transmission unit 28. It can be said that there is.
  • the memory is, for example, non-volatile or volatile such as RAM (RandomAccessMemory), ROM (ReadOnlyMemory), flash memory, EPROM (ErasableProgrammableReadOnlyMemory), and EEPROM (ElectricallyErasableProgrammableReadOnlyMemory). It may be a sex semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a DVD (Digital Versatile Disc), or any storage medium that will be used in the future.
  • the indication information acquisition unit 2, the own vehicle information acquisition unit 3, the map information acquisition unit 4, the display control unit 5, and the own vehicle position information transmission unit 28 are realized by dedicated hardware. However, other functions may be realized by software or firmware.
  • the processing circuit can realize each of the above-mentioned functions by hardware, software, firmware, or a combination thereof.
  • the display control device described above is a system in which not only an in-vehicle navigation device, that is, a car navigation device, but also a PND (Portable Navigation Device) that can be mounted on a vehicle, a server provided outside the vehicle, and the like are appropriately combined. It can also be applied to a navigation device constructed as a device or a device other than the navigation device. In this case, each function or each component of the display control device is distributed and arranged in each function for constructing the system.
  • PND Portable Navigation Device
  • the function of the display control device can be arranged on the server.
  • the vehicle includes a mobile information terminal 8 possessed by an occupant other than the driver, and a head-up display 9 mounted on the vehicle.
  • the server 34 includes an indication information acquisition unit 2, a own vehicle information acquisition unit 3, a map information acquisition unit 4, and a display control unit 5.
  • a display control system can be constructed. The same applies to the display control devices 20, 24, 26, 27 shown in FIGS. 24, 27, 30, and 32, respectively.
  • software that executes the operation according to the above embodiment may be incorporated into, for example, a server.
  • the display control method realized by the server executing this software acquires the indication information including the indication position which is the indication target position pointed out by the user in the image displayed on the screen of the information display device, and owns the vehicle.
  • the driver of the own vehicle obtains the own vehicle information including the current position of the own vehicle and the direction of the own vehicle, acquires the map information, and based on the acquired indication information, the own vehicle information, and the map information. It is a control to superimpose and display an indication object indicating that the user has pointed out the indication target at a position corresponding to the indication position in the landscape visually recognized by the user.
  • each embodiment can be freely combined, and each embodiment can be appropriately modified or omitted.
  • 1 Display control device 2 Pointed information acquisition unit, 3 Own vehicle information acquisition unit, 4 Map information acquisition unit, 5 Display control unit, 6 Information display device, 7 Display control device, 8 Mobile information terminal, 9 Head-up display, 10 Own vehicle, 11, 12, 13, 14 buildings, 15 users, 16 pointed objects, 17 additional pointed objects, 18 gesture operations, 19 buildings, 20 display control devices, 21 rear seat display devices, 22 shooting devices, 23 buildings, 24 Display control device, 25 video display device, 26, 27 display control device, 28 own vehicle position information transmitter, 29 communication device, 30 mobile information terminal, 31 processing circuit, 32 processor, 33 memory, 34 server.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

本発明は、外部から取得した位置情報が実際の風景におけるどの位置に対応するのかを運転者に容易に認識させることが可能な表示制御装置および表示制御方法を提供することを目的とする。本発明による表示制御装置は、情報表示装置の画面に表示された画像においてユーザが指摘した指摘対象の位置である指摘位置を含む指摘情報を取得する指摘情報取得部と、自車両の現在位置である自車両位置、および自車両の向きを含む自車両情報を取得する自車両情報取得部と、地図情報を取得する地図情報取得部と、指摘情報取得部が取得した指摘情報と、自車両情報取得部が取得した自車両情報と、地図情報取得部が取得した地図情報とに基づいて、自車両の運転者が視認する風景における指摘位置に対応する位置に、ユーザが指摘対象を指摘したことを示す指摘オブジェクトを重畳して表示する制御を行う表示制御部とを備える。

Description

表示制御装置および表示制御方法
 本発明は、運転者以外のユーザが指摘した情報を運転者が視認可能な車載表示装置に表示する制御を行う表示制御装置および表示制御方法に関する。
 現在、車両内または車両外に存在する情報端末に提示された位置情報を含む位置関連情報を車載表示装置に表示する技術が実用化されている。
 具体的には、車両内に存在するスマートフォンに代表される携帯情報端末に表示された位置関連情報を車載表示装置に表示する技術が実用化されている。当該技術では、携帯情報端末に表示された位置関連情報を車載表示装置に表示し、車両内に設けられた操作装置を用いて携帯情報端末の操作を行うことが可能である。
 携帯情報端末に表示された位置関連情報を車載表示装置に提供する例としては、携帯情報端末がナビゲーション機能を有するアプリケーションを実行して位置関連情報を車載表示装置に提供する場合、または携帯情報端末がPOI(Point of Interest)サーチ機能を有するアプリケーションを実行して位置関連情報を車載表示装置に提供する場合などが挙げられる。
 従来、携帯情報端末から位置情報付画像を受信し、当該位置情報付画像に含まれる位置情報が示す地点を車載表示装置に表示する技術が開示されている(例えば、特許文献1参照)。また、グループ走行中の他車両から位置情報を取得し、グループを構成する各車両の位置を示すアイコンを地図に表示する技術が開示されている(例えば、特許文献2参照)。
特開2016-12292号公報 特開2017-9317号公報
 特許文献1,2では、例えば、特定地点を示す表示オブジェクトを地図に表示する場合、運転者は地図における特定地点を認識することはできるが、当該特定地点が実際の風景におけるどの位置に対応するのかを容易に認識することができない。
 本発明は、このような問題を解決するためになされたものであり、外部から取得した位置情報が実際の風景におけるどの位置に対応するのかを運転者に容易に認識させることが可能な表示制御装置および表示制御方法を提供することを目的とする。
 上記の課題を解決するために、本発明による表示制御装置は、情報表示装置の画面に表示された画像においてユーザが指摘した指摘対象の位置である指摘位置を含む指摘情報を取得する指摘情報取得部と、自車両の現在位置である自車両位置、および自車両の向きを含む自車両情報を取得する自車両情報取得部と、地図情報を取得する地図情報取得部と、指摘情報取得部が取得した指摘情報と、自車両情報取得部が取得した自車両情報と、地図情報取得部が取得した地図情報とに基づいて、自車両の運転者が視認する風景における指摘位置に対応する位置に、ユーザが指摘対象を指摘したことを示す指摘オブジェクトを重畳して表示する制御を行う表示制御部とを備える。
 本発明によると、表示制御装置は、自車両情報取得部が取得した自車両情報と、地図情報取得部が取得した地図情報とに基づいて、自車両の運転者が視認する風景における指摘位置に対応する位置に、ユーザが指摘対象を指摘したことを示す指摘オブジェクトを重畳して表示する制御を行うため、外部から取得した位置情報が実際の風景におけるどの位置に対応するのかを運転者に容易に認識させることが可能となる。
 本発明の目的、特徴、態様、および利点は、以下の詳細な説明と添付図面とによって、より明白となる。
本発明の実施の形態1による表示制御装置の構成の一例を示すブロック図である。 本発明の実施の形態1による表示制御装置の構成の一例を示すブロック図である。 本発明の実施の形態1による携帯情報端末の動作の一例を示すフローチャートである。 本発明の実施の形態1による携帯情報端末の表示の一例を示す図である。 本発明の実施の形態1による表示制御装置の動作の一例を示すフローチャートである。 本発明の実施の形態1によるヘッドアップディスプレイの表示の一例を示す図である。 本発明の実施の形態1によるヘッドアップディスプレイの表示の一例を示す図である。 本発明の実施の形態1による携帯情報端末の表示の一例を示す図である。 本発明の実施の形態1によるヘッドアップディスプレイの表示の一例を示す図である。 本発明の実施の形態1によるヘッドアップディスプレイの表示の一例を示す図である。 本発明の実施の形態1による携帯情報端末の表示の一例を示す図である。 本発明の実施の形態1によるヘッドアップディスプレイの表示の一例を示す図である。 本発明の実施の形態1による指摘オブジェクトの一例を示す図である。 本発明の実施の形態1による指摘オブジェクトの一例を示す図である。 本発明の実施の形態1による携帯情報端末の表示の一例を示す図である。 本発明の実施の形態1によるヘッドアップディスプレイの表示の一例を示す図である。 本発明の実施の形態1による携帯情報端末の表示の一例を示す図である。 本発明の実施の形態1によるヘッドアップディスプレイの表示の一例を示す図である。 本発明の実施の形態1による立体的な指摘オブジェクトの表示を説明するための図である。 本発明の実施の形態1による立体的な指摘オブジェクトの表示を説明するための図である。 本発明の実施の形態1による立体的な指摘オブジェクトの表示を説明するための図である。 本発明の実施の形態1による立体的な指摘オブジェクトの表示を説明するための図である。 本発明の実施の形態1による立体的な指摘オブジェクトの表示を説明するための図である。 本発明の実施の形態2による表示制御装置の構成の一例を示すブロック図である。 本発明の実施の形態2による後席表示装置の表示の一例を示す図である。 本発明の実施の形態2によるヘッドアップディスプレイの表示の一例を示す図である。 本発明の実施の形態3による表示制御装置の構成の一例を示すブロック図である。 本発明の実施の形態3による映像表示装置の表示の一例を示す図である。 本発明の実施の形態3による映像表示装置の表示の一例を示す図である。 本発明の実施の形態4による表示制御装置の構成の一例を示すブロック図である。 本発明の実施の形態4によるヘッドアップディスプレイの表示の一例を示す図である。 本発明の実施の形態5による表示制御装置の構成の一例を示すブロック図である。 本発明の実施の形態による表示制御装置のハードウェア構成の一例を示すブロック図である。 本発明の実施の形態による表示制御装置のハードウェア構成の一例を示すブロック図である。 本発明の実施の形態による表示制御システムの構成の一例を示すブロック図である。
 本発明の実施の形態について、図面に基づいて以下に説明する。
 <実施の形態1>
 <1-1.構成>
 図1は、本実施の形態1による表示制御装置1の構成の一例を示すブロック図である。なお、図1では、本実施の形態1による表示制御装置を構成する必要最小限の構成を示している。また、表示制御装置1は、自車両に搭載されているものとする。
 図1に示すように、表示制御装置1は、指摘情報取得部2と、自車両情報取得部3と、地図情報取得部4と、表示制御部5とを備えている。また、指摘情報取得部2は、情報表示装置6に通信可能に接続されている。
 指摘情報取得部2は、情報表示装置6の画面に表示された画像においてユーザが指摘した指摘対象の位置である指摘位置を含む指摘情報を取得する。自車両情報取得部3は、自車両の現在位置である自車両位置、および自車両の向きを含む自車両情報を取得する。地図情報取得部4は、地図情報を取得する。表示制御部5は、指摘情報取得部2が取得した指摘情報と、自車両情報取得部3が取得した自車両情報と、地図情報取得部4が取得した地図情報とに基づいて、自車両の運転者が視認する風景における指摘位置に対応する位置に、ユーザが指摘対象を指摘したことを示す指摘オブジェクトを重畳して表示する制御を行う。
 図2は、他の構成に係る表示制御装置7の構成の一例を示すブロック図である。
 図2に示すように、表示制御装置7は、指摘情報取得部2と、自車両情報取得部3と、地図情報取得部4と、表示制御部5とを備えている。また、指摘情報取得部2は携帯情報端末8に通信可能に接続され、表示制御部5はヘッドアップディスプレイ9と通信可能に接続されている。以下では、表示制御装置7およびヘッドアップディスプレイ9は自車両に搭載され、携帯情報端末8は自車両に乗車している運転者以外の乗員が所持しているものとして説明する。
 指摘情報取得部2は、携帯情報端末8から、当該携帯情報端末8の画面に表示された画像においてユーザが指摘した指摘位置を含む指摘情報を取得する。携帯情報端末8は、例えばスマートフォンであり、位置情報を用いた情報を表示するアプリケーションを保持している。位置情報を用いた情報を表示するアプリケーションとしては、例えば、地図を表示するアプリケーション、目的地までの経路案内を行うアプリケーション、またはPOIサーチを行うアプリケーションなどが挙げられる。なお、携帯情報端末8は、図1に示す情報表示装置6の一態様である。また、携帯情報端末8は、タッチパネルを有し、ユーザが表示画面に対してタッチ操作することが可能であるものとする。
 自車両情報取得部3は、図示しないGNSS(Global Navigation Satellite System)衛星から取得した位置情報に基づいて、自車両位置および自車両の向きを含む自車両情報を取得する。なお、GNSS衛星から取得した位置情報に、自車両の速度、移動距離、および操舵方向などをさらに付加して、自車両のより正確な現在位置および向きを求めてもよい。自車両の速度、移動距離、および操舵方向などの各情報は、自車両に設けられた各種センサから取得する。
 地図情報取得部4は、少なくとも位置情報を含む地図情報を取得する。なお、地図情報取得部4は、予め地図情報を保持してもよく、必要に応じて外部から地図情報を取得してもよい。
 表示制御部5は、指摘情報取得部2が取得した指摘情報と、自車両情報取得部3が取得した自車両情報と、地図情報取得部4が取得した地図情報とに基づいて、自車両の運転者が視認する風景における指摘位置に対応する位置に指摘オブジェクトを重畳して表示するようにヘッドアップディスプレイ9を制御する。ヘッドアップディスプレイ9は、自車両の運転者が視認する風景を含む表示領域を有している。なお、ヘッドアップディスプレイ9は、HUDともいう。
 <1-2.動作>
 以下では、携帯情報端末8および表示制御装置7の各動作について説明する。なお、以下の説明において、表示制御装置7と自車両の乗員であるユーザが所持している携帯情報端末8とは、例えば無線LAN(Local Area Network)またはBluetooth(登録商標)によって通信が確立されているものとする。また、携帯情報端末8では、表示制御装置7に指摘情報を送信する機能を有するアプリケーションが実行されているものとする。
 <1-2-1.携帯情報端末8の動作>
 図3は、携帯情報端末8の動作の一例を示すフローチャートである。
 ステップS11において、携帯情報端末8は、ユーザの操作に従って地図を表示するアプリケーションを実行すると、例えば図4に示すような地図を表示する。図4では、ビル11~14が存在する道路を自車両10が走行中であることを示している。自車両10の位置は、携帯情報端末8がGNSS衛星から取得した位置情報に相当する。携帯情報端末8は、予め地図情報を保持してもよく、必要に応じて携帯情報端末8の周辺の地図情報を外部から取得してもよい。なお、図4は、片側一車線の道路を示しており、自車両10は道路の左側を走行している場合について示しているが、これに限るものではない。例えば、道路の右側を走行することが義務付けられた国では、自車両10は道路の右側を走行することになる。この場合、携帯情報端末8には、道路の右側に自車両10が表示される。
 携帯情報端末8は、GNSS衛星から取得した位置情報に基づいて、携帯情報端末8が予め定められた速度以上で移動している場合は自車両内に存在していると判断する。なお、車両で移動中か否かによって、携帯情報端末8の位置を示すオブジェクトの表示態様を変更してもよい。例えば、携帯情報端末8が予め定められた速度以上で移動している場合は、図4に示すような自車両10のオブジェクトを表示し、携帯情報端末8が予め定められた速度よりも遅い速度で移動している場合は、人などを示すオブジェクトを表示してもよい。
 ステップS12において、携帯情報端末8は、当該携帯情報端末8の表示画面に対してユーザがタッチ操作したか否かを判断する。図4の例では、ユーザ15がビル12をタッチ操作している場合を示している。すなわち、ビル12は、ユーザ15が指摘した指摘対象である。ユーザがタッチ操作した場合は、ステップS13に移行する。一方、ユーザがタッチ操作していない場合は、ステップS11に戻る。
 ステップS13において、携帯情報端末8は、ユーザがタッチ操作した位置であるタッチ位置に対応する指摘位置を算出する。図4の例では、携帯情報端末8は、ユーザ15のタッチ位置と地図情報とに基づいて、ビル12の絶対位置を指摘位置として算出する。
 ステップS14において、携帯情報端末8は、指摘位置を含む指摘情報を表示制御装置7に送信する。図4の例では、携帯情報端末8は、ビル12の絶対位置である指摘位置を含む指摘情報を表示制御装置7に送信する。
 <1-2-2.表示制御装置7の動作>
 図5は、表示制御装置7の動作の一例を示すフローチャートである。
 ステップS21において、指摘情報取得部2は、携帯情報端末8から指摘情報を取得したか否かを判断する。指摘情報を取得するまでステップS21の処理を繰り返し、指摘情報を取得するとステップS22に移行する。
 ステップS22において、表示制御部5は、自車両に対する指摘対象の相対位置を算出する。具体的には、表示制御部5は、指摘情報取得部2が取得した指摘情報に含まれる指摘位置と、地図情報取得部4が取得した地図情報とに基づいて、地図における指摘位置を特定する。ここで特定される指摘位置は、携帯情報端末8の表示画面においてユーザがタッチ操作して指摘した指摘対象の絶対位置に相当する。
 そして、表示制御部5は、特定した指摘対象の指摘位置と、自車両情報取得部3が取得した自車両情報に含まれる自車両位置とに基づいて、自車両に対する指摘対象の相対位置を算出する。なお、表示制御部5は、自車両情報に含まれる自車両の向きをさらに考慮して、自車両に対する指摘対象の相対方向を算出してもよい。
 ステップS23において、表示制御部5は、ヘッドアップディスプレイ9に表示する指摘オブジェクトを生成する。
 ステップS24において、表示制御部5は、指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。具体的には、表示制御部5は、実際の風景におけるステップS22で算出した指摘対象の相対位置に指摘オブジェクトが重畳して表示するようにヘッドアップディスプレイ9を制御する。
 図6は、ヘッドアップディスプレイ9の表示の一例を示す図である。なお、図6では、図4に示すように携帯情報端末8のユーザ15がビル12をタッチ操作したときに、ヘッドアップディスプレイ9に指摘オブジェクト16を表示する場合を示している。指摘オブジェクト16は、携帯情報端末8のユーザがビル12を指摘したことを示しており、実際の風景におけるビル12に重畳するように表示されている。なお、図6の例では、指摘オブジェクト16は指差しを示すオブジェクトであるが、これに限るものではなく、他の図形、文字、またはこれらの組み合わせであってもよい。
 なお、ヘッドアップディスプレイ9の虚像距離が可変である場合、表示制御部5は、指摘対象に指摘オブジェクトの虚像距離を近づけてもよく、自車両から指摘対象までの距離が遠いほど指摘オブジェクト16の虚像距離を長くしてもよい。また、ヘッドアップディスプレイ9の虚像距離が固定である場合、表示制御部5は、指摘対象の方向に指摘オブジェクトを表示してもよい。
 ステップS25において、表示制御部5は、指摘オブジェクトの消去条件を満足したか否かを判断する。指摘オブジェクトの消去条件を満足するまでステップS25の処理を繰り返し、指摘オブジェクトの消去条件を満足するとステップS26に移行する。
 指摘オブジェクトの消去条件は、任意の条件であればよく、例えば、表示オブジェクトを一定時間表示した後に自動的に消去する、運転者の操作によって消去する、自車両から取得した任意のトリガ信号を取得すると消去する、携帯情報端末8の指示に従って消去する、あるいは自車両が指摘対象を通り過ぎると消去するなどでもよい。
 ステップS26において、表示制御部5は、指摘オブジェクトを消去するようにヘッドアップディスプレイ9を制御する。
 <1-3.変形例>
 以下では、本実施の形態1による表示制御装置7の変形例について説明する。
 <1-3-1.変形例1>
 上記では、携帯情報端末8は、指摘位置のみを含む指摘情報を表示制御装置7に送信する場合について説明したが、これに限るものではない。例えば、携帯情報端末8は、指摘位置に加えて、指摘対象である地物の属性を示す地物属性を含む指摘情報を表示制御装置7に送信してもよい。地物属性は、指摘対象である地物の名称、地物の種別、および地物の色などを含む。
 表示制御部5は、指摘情報取得部2が取得した指摘情報に含まれている地物属性に応じた付加指摘オブジェクトを生成する。具体的には、表示制御部5は、図4のステップS23において、指摘オブジェクトとともに付加指摘オブジェクトを生成する。
 そして、表示制御部5は、例えば図7に示すように、指摘オブジェクト16とともに付加指摘オブジェクト17を表示するようにヘッドアップディスプレイ9を制御する。図7の例では、付加指摘オブジェクト17は、ビル12の名称である「ABCDビル」を示すオブジェクトである。なお、付加指摘オブジェクト17は、文字、図形、画像、音声、効果音、またはこれらの組み合わせであってもよい。
 指摘情報に含める地物属性は、携帯情報端末8が実行したアプリケーションにおいてユーザが選択してもよい。あるいは、指摘情報取得部2が取得した指摘情報に含まれる複数の地物属性の中から、表示制御部5が付加指摘オブジェクトの生成に用いる地物属性を選択してもよい。
 <1-3-2.変形例2>
 上記では、携帯情報端末8が、指摘対象の絶対位置を指摘位置として算出し、当該指摘位置を含む指摘情報を表示制御装置7に送信する場合について説明したが、これに限るものではない。例えば、携帯情報端末8は、当該携帯情報端末8に対する指摘対象の相対位置を指摘位置として算出し、当該指摘位置を含む指摘情報を表示制御装置7に送信してもよい。
 具体的には、図3のステップS13において、携帯情報端末8は、当該携帯情報端末8の位置情報と、地図情報と、ユーザのタッチ位置とに基づいて、携帯情報端末8に対する指摘対象の相対位置を指摘位置として算出する。図4のステップS24において、表示制御部5は、指摘対象の相対位置に基づいて指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。
 なお、上記の他に、携帯情報端末8は、当該携帯情報端末8に対する指摘対象の相対方向である指摘方向を算出し、当該指摘方向を含む指摘情報を表示制御装置7に送信するようにしてもよい。指摘方向は、携帯情報端末8の位置情報と、地図情報と、ユーザのタッチ位置とに基づいて算出することができる。表示制御部5は、指摘方向に基づいて指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。
 <1-3-3.変形例3>
 例えば、図8に示すように、携帯情報端末8のユーザが自車両10の右後方に存在するビル14をタッチ操作して指摘した場合、ヘッドアップディスプレイ9ではビル14に重畳するように指摘オブジェクト16を表示することができない。このような場合において、表示制御部5は、図9に示すように、指摘対象であるビル14が自車両の右後方に存在することを示す指摘オブジェクト16を、ヘッドアップディスプレイ9の右下の表示領域に表示するようにヘッドアップディスプレイ9を制御してもよい。
 なお、表示制御部5は、図10に示すように、指摘オブジェクト16とともに、自車両の後方に指摘対象が存在していることを示す付加指摘オブジェクト17を表示するようにヘッドアップディスプレイ9を制御してもよい。
 また、表示制御部5は、指摘位置がヘッドアップディスプレイ9の表示領域内であるか否かに応じて、指摘オブジェクトの表示態様を変えてもよい。例えば、表示制御部5は、指摘オブジェクトの大きさ、形状、色、またはブリンクなどを変えてもよい。
 <1-3-4.変形例4>
 表示制御部5は、携帯情報端末8のユーザが指摘対象を指摘したときの操作に基づいて、指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御してもよい。
 具体的には、携帯情報端末8は、ユーザが指摘対象を指摘したときの操作の属性を示す操作属性を含む指摘情報を表示制御装置7に送信する。表示制御部5は、操作属性に基づいて指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。操作属性は、少なくともタッチ操作およびジェスチャー操作を含む。
 例えば、図11に示すように、携帯情報端末8のユーザが指摘対象であるビル12の位置で円を描くジェスチャー操作18をした場合、携帯情報端末8は、ジェスチャー操作18の属性を示す操作属性を含む指摘情報を表示制御装置7に送信する。表示制御部5は、操作属性に基づいて、図12に示すように、実際の風景におけるビル12に円形の指摘オブジェクト16が重畳して表示するようにヘッドアップディスプレイ9を制御する。
 また、ユーザが指摘対象をタッチ操作で指摘した場合、表示制御部5は、例えば図6に示すような指摘オブジェクト16を表示するようにヘッドアップディスプレイ9を制御する。
 なお、上記では、ユーザが円を描くジェスチャー操作をする場合について説明したが、他のジェスチャー操作を行った場合も同様に、ジェスチャー操作に応じた形状の指摘オブジェクトがヘッドアップディスプレイ9に表示される。
 上記では、ジェスチャー操作に応じた形状の指摘オブジェクトがヘッドアップディスプレイ9に表示される場合について説明したが、これに限るものではない。例えば、携帯情報端末8に表示したメニュー画面から、ユーザが指摘オブジェクトの形状を選択するようにしてもよい。この場合、ユーザが選択した形状の属性を含む指摘情報が表示制御装置7に送信される。
 <1-3-5.変形例5>
 変形例4では、ジェスチャー操作に応じた形状の指摘オブジェクトをヘッドアップディスプレイ9に表示する場合について説明したが、このとき表示制御部5は、ジェスチャー操作に応じた動的な指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御してもよい。
 例えば、図13,14に示すように、表示制御部5は、時間の経過とともに表示態様が変化する指摘オブジェクト16を表示するようにヘッドアップディスプレイ9を制御してもよい。なお、図13,14に示す動的な指摘オブジェクト16の表示は、1回でもよく、複数回繰り返してもよい。
 なお、携帯情報端末8は、動的な指摘オブジェクトを表示することを含む操作属性を表示制御装置7に送信してもよく、表示制御部5が操作属性に基づいて動的な指摘オブジェクトを生成してもよい。
 <1-3-6.変形例6>
 上記では、例えば図4に示すように、携帯情報端末8のユーザが建物であるビル12を指摘する場合について説明したが、指摘対象は建物に限らず道路であってもよい。
 例えば、図15に示すように、ユーザが携帯情報端末8に表示されている道路をタッチ操作した場合、携帯情報端末8は、タッチ位置に対応する道路の絶対位置である指摘位置を含む指摘情報を表示制御装置7に送信する。この場合、表示制御部5は、図16に示すように、実際の風景における指摘位置に対応する位置に指摘オブジェクト16を表示するようにヘッドアップディスプレイ9を制御する。
 図17に示すように、ユーザが携帯情報端末8に表示されている道路を右折するように道路をなぞるジェスチャー操作をした場合、携帯情報端末8は、ジェスチャー操作でなぞった道路の絶対位置の集合である指摘位置を含む指摘情報を表示制御装置7に送信する。この場合、表示制御部5は、図18に示すように、実際の風景における指摘位置に対応する位置に、ジェスチャー操作に応じた指摘オブジェクト16を表示するようにヘッドアップディスプレイ9を制御する。
 携帯情報端末8に目的地までの経路を案内する経路を示す経路案内線が道路に重畳して表示されている場合にユーザが当該経路案内線をタッチ操作すると、携帯情報端末8は、経路案内線に応じた道路の絶対位置の集合である指摘位置を含む指摘情報を表示制御装置7に送信してもよい。この場合、表示制御部5は、実際の風景における指摘位置に対応する位置に指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。
 このように、携帯情報端末8のユーザが指摘する指摘対象は地物に限らず、地物に関連する仮想的な地物であってもよい。この場合、携帯情報端末8は、指摘対象である仮想的な地物の属性を示す仮想地物属性を含む指摘情報を表示制御装置7に送信する。表示制御部5は、仮想地物属性に応じた指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。
 表示制御部5は、指摘対象の指摘位置と自車両位置との位置関係に応じて、指摘オブジェクトの表示態様を連続的または不連続的に変化させてもよい。例えば、目的地までの経路の途中で交差点を右折または左折する場合、表示制御部5は、交差点と自車両位置との位置関係に応じて指摘オブジェクトの表示態様を変化させてもよい。また、表示制御部5は、指摘対象の指摘位置と自車両位置との距離が50m未満、50m以上200m未満、200m以上のそれぞれに応じて指摘オブジェクトの表示態様を変化させてもよい。
 グループ走行中の各車両の位置を含む地図を携帯情報端末8に表示している場合にユーザが特定車両をタッチ操作して指摘したとき、携帯情報端末8は、特定車両の位置である指摘位置を含む指摘情報を表示制御装置7に送信してもよい。表示制御部5は、実際の風景における特定車両が存在する方向を示す指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。このときの指摘オブジェクトは、車両を示す形状、またはグループのメンバーを特定する画像または記号であってもよい。
 <1-3-7.変形例7>
 携帯情報端末8は、ユーザによる指摘がなくても任意のタイミングで指摘情報を表示制御装置7に送信してもよい。例えば、携帯情報端末8が観光案内を行うアプリケーションを実行している場合、携帯情報端末8は、例えば観光名所に近づくと当該観光名所の位置を指摘位置として含む指摘情報を表示制御装置7に送信する。この場合、表示制御部5は、実際の風景における観光名所に対応する位置に指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。
 <1-3-8.変形例8>
 上記では、図1に示す情報表示装置6が図2に示す携帯情報端末8である場合について説明したが、これに限るものではない。図1に示す情報表示装置6は、例えば、自車両に搭載され、少なくとも自車両位置から予め設定した目的地までの経路を探索するナビゲーション装置であってもよい。ナビゲーション装置の表示画面に対するユーザの指摘は、タッチ操作に限らず、リモコン、タッチパッド、自車両内に設けられた遠隔操作スイッチであってもよい。
 なお、ナビゲーション装置が表示制御装置7を包含する構成としてよく、この場合、ナビゲーション装置がヘッドアップディスプレイ9の表示を制御することになる。
 図1に示す情報表示装置6は、自車両の助手席または後席に設けられた車載表示装置であってもよい。この場合、助手席または後席の乗員は、車載表示装置に表示された地図から任意の指摘対象を指摘することができる。
 ナビゲーション装置または車載表示装置から表示制御装置7に送信される指摘情報は、付加指摘オブジェクトとして表示するテキスト文字などからなるメッセージ情報を含んでもよい。メッセージ情報は、ユーザが任意に入力してもよく、予め準備した複数の定型文からユーザが選択するようにしてもよい。
 <1-3-9.変形例9>
 上記では、携帯情報端末8が、当該携帯情報端末8がGNSS衛星から取得した位置情報を用いる場合について説明したが、これに限るものではない。例えば、携帯情報端末8は、自車両情報取得部3が取得した自車両情報を表示制御装置7から取得して利用してもよい。
 <1-3-10.変形例10>
 上記では、例えば図6に示すように、平面的な指摘オブジェクト16をヘッドアップディスプレイ9に表示する場合について説明したが、これに限るものではない。例えば、ヘッドアップディスプレイ9が奥行きを有する立体的なオブジェクトを表示することが可能な3D(three-dimensional)ヘッドアップディスプレイである場合、当該3Dヘッドアップディスプレイに立体的な指摘オブジェクトを表示してもよい。
 図19に示すように、表示制御部5は、直線形状の立体的な指摘オブジェクト16の両端であるCsおよびCeを結ぶ直線の延長線上にビル19が存在する位置に指摘オブジェクト16を表示するように、3Dヘッドアップディスプレイを制御する。なお、図19において、Y軸方向は自車両の進行方向を示し、X軸方向は自車両の進行方向に対して垂直方向を示している。
 一般的に、指摘対象の方向に指摘オブジェクトを重畳して表示する方法としては、運転者の目の位置を推定して指摘オブジェクトの位置合わせを行う方法と、運転者の目の位置を検出して指摘オブジェクトの位置合わせを行う方法とがある。前者は、運転者の目の位置を推定するときに誤差が生じるが、安価に実現することができるという長所がある。後者は、運転者の目の位置を検出する装置が必要となりコストがかかるが、運転者の目の位置の検出誤差が小さいため指摘オブジェクトの位置合わせを正確に行うことができるという長所がある。
 図23に示すように、指摘オブジェクト16のCsおよびCeが重畳して一点となるように運転者の目の位置を調整すると、運転者の目と指摘オブジェクト16とを結ぶ線の延長線上に指摘対象であるビル19が存在することになる。この場合、指摘オブジェクト16とビル19とが重畳して表示されることになる。一方、図20~22に示すように、指摘オブジェクト16のCsおよびCeが重畳して一点とならないように運転者の目の位置を調整すると、運転者の目と指摘オブジェクト16とを結ぶ線の延長線上にはビル19が存在しない。このように、指摘オブジェクト16のCsおよびCeが重畳して一点となるように運転者の目の位置を調整すると、運転者の目と指摘オブジェクト16とを結ぶ線の延長線上に指摘対象であるビル19が存在することが分かる。このような本変形例10による方法は、運転者自身が目の位置を調整する必要があるが、目の位置を検出する装置が不要であり、指摘オブジェクトの位置合わせを正確に行うことができるという長所がある。
 なお、図19~22では、直線形状のオブジェクトを指摘オブジェクトとする場合について説明したが、これに限るものではない。例えば、虚像距離が異なる2つのオブジェクトの組み合わせを指摘オブジェクトとしてもよい。この場合、ヘッドアップディスプレイ9は、必ずしも3Dヘッドアップディスプレイである必要はなく、虚像距離が異なる2つのオブジェクトを表示する機能を有していればよい。
 <1-4.効果>
 本実施の形態1によれば、表示制御部5は、携帯情報端末8のユーザが指摘した指摘対象を、自車両の運転者が視認する風景における指摘位置に対応する位置に指摘オブジェクトとして表示するようにヘッドアップディスプレイ9を制御する。これにより、携帯情報端末8のユーザが指摘した指摘対象が実際の風景におけるどの位置に対応するのかを運転者に容易に認識させることができる。
 <実施の形態2>
 <2-1.構成>
 図24は、本実施の形態2による表示制御装置20の構成の一例を示すブロック図である。
 図24に示すように、表示制御装置20の指摘情報取得部2は、後席表示装置21と通信可能に接続されており、後席表示装置21から指摘情報を取得する。その他の構成および動作は、実施の形態1で説明した図2に示す表示制御装置7と同様であるため、ここでは詳細な説明を省略する。
 後席表示装置21は、自車両の後席に設けられた車載表示装置であり、撮影装置22が撮影した映像を表示することができる。撮影装置22は、自車両に設けられており、自車両の前方を撮影する前方撮影カメラを有している。なお、撮影装置22は、前方撮影カメラに限らず、自車両の後方を撮影する後方撮影カメラ、および自車両の後側方を撮影する後側方撮影カメラなどをさらに有してもよい。
 <2-2.動作>
 以下では、後席表示装置21および表示制御装置20の各動作について説明する。
 <2-2-1.後席表示装置21の動作>
 後席表示装置21の動作は、図3のステップS11以外は実施の形態1で説明した携帯情報端末8の動作と同様である。
 後席表示装置21は、ユーザの操作に従って、撮影装置22が撮影した映像を表示するアプリケーションを実行する。その結果、後席表示装置21には、例えば図25に示すような自車両の前方を撮影した映像が表示される。
 図25に示すように、ユーザ15が映像におけるビル23をタッチ操作して指摘すると、後席表示装置21は、自車両に対するビル23の相対方向である指摘方向を含む指摘情報を表示制御装置20に送信する。具体的には、後席表示装置21は、映像の表示範囲と、表示画面におけるユーザの指摘位置とに基づいて、自車両に対する指摘対象の相対方向である指摘方向を算出する。そして、後席表示装置21は、指摘方向を含む指摘情報を表示制御装置20に送信する。
 <2-2-2.表示制御装置20の動作>
 表示制御装置20の動作は、図5のステップS21以外は実施の形態1で説明した表示制御装置7の動作と同様である。
 表示制御部5は、指摘情報取得部2が取得した指摘情報に含まれる指摘方向に基づいて、指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。具体的には、表示制御部5は、例えば図26に示すように、実際の風景におけるビル23が存在する方向を示す指摘オブジェクト16が重畳して表示するようにヘッドアップディスプレイ9を制御する。
 上記では、後席表示装置21が指摘方向を含む指摘情報を表示制御装置20に送信する場合について説明したが、これに限るものではない。後席表示装置21は、ユーザが指摘した指摘対象の指摘位置を含む指摘情報を表示制御装置20に送信してもよい。この場合、表示制御部5は、実際の風景における指摘位置に対応する位置に指摘オブジェクトが重畳して表示するようにヘッドアップディスプレイ9を制御する。
 指摘対象がヘッドアップディスプレイ9の表示領域外に存在する場合、表示制御部5は、例えば図9のような、指摘対象が後方に存在することを示す指摘オブジェクト16を表示するようにヘッドアップディスプレイ9を制御してもよい。
 <2-3.変形例>
 以下では、本実施の形態2による表示制御装置20の変形例について説明する。
 <2-3-1.変形例1>
 表示制御部5は、指摘情報取得部2が取得した指摘情報に含まれる指摘方向と、地図情報取得部4が取得した地図情報とに基づいて、指摘方向に存在する地物を指摘対象と判断してもよい。例えば図26において、表示制御部5は、指摘方向に存在するビル23を指摘対象と判断する。そして、表示制御部5は、ビル23と重畳して指摘オブジェクト16を表示するようにヘッドアップディスプレイ9を制御する。このとき、表示制御部5は、地図情報取得部4からビル23に関する情報を取得し、当該情報を付加指摘オブジェクトとして表示するようにヘッドアップディスプレイ9を制御してもよい。
 <2-3-2.変形例2>
 変形例1では、表示制御部5が指摘方向に存在する地物を指摘対象と判断することについて説明したが、これに限るものではない。例えば、後席表示装置21が指摘方向に存在する地物を指摘対象と判断してもよい。この場合、後席表示装置21は、地図情報を取得する機能を有しているものとする。後席表示装置21は、指摘対象の種別などを示す地物属性を含む指摘情報を表示制御装置20に送信する。
 表示制御装置20は、指摘情報取得部2が取得した指摘情報に含まれる地物属性に基づいて、地図情報取得部4が取得した地図情報に含まれる地物を特定する。そして、表示制御装置20は、特定した地物に重畳して指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。
 なお、後席表示装置21は、地図情報に含まれる指摘対象に関する情報を指摘情報に含めて表示制御装置20に送信してもよい。
 <2-3-3.変形例3>
 後席表示装置21は、画像認識する機能を有してもよい。この場合、後席表示装置21は、撮影装置22が撮影した映像を画像認識し、ユーザが指摘した指摘対象を認識する。そして、後席表示装置21は、指摘方向と指摘対象の種別などを示す地物属性とを含む指摘情報を表示制御装置20に送信する。
 表示制御装置20は、指摘情報取得部2が取得した指摘情報に含まれる指摘方向と地物属性とに基づいて、地図情報取得部4が取得した地図情報に含まれる地物を特定する。そして、表示制御装置20は、特定した地物に重畳して指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。
 <2-3-4.変形例4>
 図24では、後席表示装置21を一例として説明したが、これに限るものではない。図24に示す後席表示装置21に代えて、助手席に設けられた車載表示装置であってもよく、自車両の乗員が所持する携帯情報端末であってもよい。携帯情報端末に表示する映像は、当該携帯情報端末が備えるカメラが撮影した映像であってもよく、撮影装置22が撮影した映像でもよい。
 <2-4.効果>
 本実施の形態2によれば、表示制御部5は、後席表示装置21に表示された映像においてユーザが指摘した指摘対象を、自車両の運転者が視認する風景における指摘位置に対応する位置に指摘オブジェクトとして表示するようにヘッドアップディスプレイ9を制御する。これにより、後席表示装置21のユーザが指摘した指摘対象が実際の風景におけるどの位置に対応するのかを運転者に容易に認識させることができる。
 <実施の形態3>
 <3-1.構成>
 図27は、本実施の形態3による表示制御装置24の構成の一例を示すブロック図である。
 図27に示すように、表示制御装置24の表示制御部5は、撮影装置22および映像表示装置25と通信可能に接続されている。その他の構成および動作は、実施の形態1で説明した図2に示す表示制御装置7と同様であるため、ここでは詳細な説明を省略する。
 撮影装置22は、自車両に設けられており、前方撮影カメラおよび後方撮影カメラを有しており、自車両の運転者が視認する風景を含む映像を撮影する。
 映像表示装置25は、自車両の運転者が視認可能な箇所に設けられており、撮影装置22を構成する前方撮影カメラまたは後方撮影カメラが撮影した映像を表示する。特に、後方撮影カメラが撮影した映像は、バックミラーに代えて自車両の後方を撮影した電子ミラーの映像に相当する。
 <3-2.動作>
 以下では、携帯情報端末8および表示制御装置24の各動作について説明する。
 <3-2-1.携帯情報端末8の動作>
 携帯情報端末8の動作は、実施の形態1で説明した図3に示す携帯情報端末8の動作と同様である。例えば、携帯情報端末8が図4に示すような地図を携帯情報端末8に表示し、ユーザ15がビル12をタッチ操作して指摘すると、携帯情報端末8は、ビル12の指摘位置を含む指摘情報を表示制御装置24に送信する。
 <3-2-2.表示制御装置24の動作>
 表示制御装置24の動作は、図5のステップS22およびステップS24以外は実施の形態1で説明した表示制御装置7の動作と同様である。
 表示制御部5は、指摘情報取得部2が取得した指摘情報に含まれる指摘位置に基づいて、撮影装置22を構成する前方撮影カメラが撮影した実際の風景における指摘位置に対応する位置に指摘オブジェクトを表示するように映像表示装置25を制御する。このとき、表示制御部5は、前方撮影カメラから取得した撮影方向および撮影範囲に基づいて、前方撮影カメラが撮影した映像と指摘位置との位置合わせを行う。その結果、例えば図28に示すように、映像表示装置25では、指摘対象であるビル12に重畳して指摘オブジェクト16が表示される。
 また、例えば図8に示すように、ユーザが自車両の後方に存在するビル14を指摘した場合、表示制御部5は、図29に示すように、撮影装置22を構成する後方撮影カメラが撮影した映像を表示するとともに、当該映像の指摘位置に対応する位置に指摘オブジェクト16を表示するように映像表示装置25を制御する。その結果、映像表示装置25では、指摘対象であるビル14に重畳して指摘オブジェクト16が表示される。
 なお、前方撮影カメラが撮影した映像と後方撮影カメラが撮影した映像との切り替えが自動的に行われない場合、表示制御部5は、例えば図9,10に示すように、指摘対象が表示領域外に存在することを示す指摘オブジェクトを表示するように映像表示装置25を制御してもよい。また、前方撮影カメラまたは後方撮影カメラが撮影した映像のうちの一方には指摘対象が含まれているが他方には指摘対象が含まれていない場合、表示制御部5は、一方の映像を表示すれば指摘オブジェクトが表示されることを示すメッセージを表示するように映像表示装置25を制御してもよい。
 <3-3.変形例>
 以下では、本実施の形態3による表示制御装置24の変形例について説明する。
 <3-3-1.変形例1>
 上記では、前方撮影カメラまたは後方撮影カメラの一方が撮影した映像を映像表示装置25に表示する場合について説明したが、これに限るものではない。
 例えば、映像表示装置25は、前方撮影カメラが撮影した映像を表示する映像表示装置と、後方撮影カメラが撮影した映像を表示する映像表示装置とを別個に有してもよい。
 また、1つの映像表示装置25が、前方撮影カメラが撮影した映像と後方撮影カメラが撮影した映像との両方を同時に表示してもよい。
 <3-3-2.変形例2>
 撮影装置22は、後側方撮影カメラをさらに有してもよい。この場合、表示制御部5は、後側方撮影カメラが撮影した映像に指摘オブジェクトを重畳して表示するように映像表示装置25を制御する。後側方撮影カメラが撮影した映像は、ドアミラーまたはフェンダーミラーに代えて自車両の後側方を撮影した電子ミラーの映像に相当する。
 <3-3-3.変形例3>
 一般的に、撮影装置22が撮影する撮影領域と、映像表示装置25が表示する表示領域とは一致せず、表示領域よりも撮影領域の方が広い。そのため、撮影装置22が撮影した映像には指摘対象が含まれるが、映像表示装置25に表示する表示領域には指摘対象が含まれない場合が生じる。このような場合、表示制御部5は、指摘対象が含まれるように映像表示装置25の表示領域を調整するようにしてもよい。
 <3-4.効果>
 本実施の形態3によれば、表示制御部5は、携帯情報端末8のユーザが指摘した指摘対象を、撮影装置22が撮影した風景における指摘位置に対応する位置に指摘オブジェクトとして表示するように映像表示装置25を制御する。これにより、携帯情報端末8のユーザが指摘した指摘対象が実際の風景におけるどの位置に対応するのかを運転者に容易に認識させることができる。
 <実施の形態4>
 <4-1.構成>
 図30は、本実施の形態4による表示制御装置26の構成の一例を示すブロック図である。
 図30に示すように、表示制御装置26の表示制御部5は、ヘッドアップディスプレイ9、撮影装置22、および映像表示装置25と通信可能に接続されている。その他の構成および動作は、実施の形態1で説明した図2に示す表示制御装置7、および実施の形態3で説明した図27に示す表示制御装置24と同様であるため、ここでは詳細な説明を省略する。なお、撮影装置22は、後方撮影カメラであるものとする。
 <4-2.動作>
 以下では、携帯情報端末8および表示制御装置26の各動作について説明する。
 <4-2-1.携帯情報端末8の動作>
 携帯情報端末8の動作は、実施の形態1で説明した図3に示す携帯情報端末8の動作と同様である。例えば、図8に示すような地図を携帯情報端末8に表示し、ユーザ15が自車両10の後方に存在するビル14をタッチ操作して指摘すると、携帯情報端末8は、ビル14の指摘位置を含む指摘情報を表示制御装置26に送信する。
 <4-2-2.表示制御装置26の動作>
 表示制御装置24の動作は、実施の形態1で説明した表示制御装置7の動作と、実施の形態3で説明した表示制御装置24の動作とを組み合わせた動作に相当する。
 表示制御部5は、指摘情報取得部2が取得した指摘情報に含まれる指摘位置が自車両の後方である場合、撮影装置22が撮影した実際の風景における指摘位置に対応する位置に指摘オブジェクトを表示するように映像表示装置25を制御する。その結果、例えば図29に示すように、映像表示装置25には、指摘対象であるビル14に重畳して指摘オブジェクト16が表示される。
 また、例えば図4に示すように、ユーザ15が自車両の前方に存在するビル12を指摘した場合、表示制御部5は、例えば図6に示すように、実際の風景における指摘位置に対応する位置に指摘オブジェクト16を表示するようにヘッドアップディスプレイ9を制御する。
 なお、映像表示装置25に指摘オブジェクトを表示するとき、ヘッドアップディスプレイ9には何も表示しなくてもよく、図31に示すように、電子ミラーに相当する映像表示装置25に指摘オブジェクトが表示されていることを示す付加指摘オブジェクト17をヘッドアップディスプレイ9に表示するようにしてもよい。なお、付加指摘オブジェクト17は、前景の視認性を確保するために半透過であってもよい。
 携帯情報端末8でユーザが指摘した指摘対象が、ヘッドアップディスプレイ9の表示領域、および映像表示装置25の表示領域のいずれにも含まれない場合、表示制御部5は、ヘッドアップディスプレイ9および映像表示装置25の少なくとも一方に、指摘対象が表示領域外に存在することを示す指摘オブジェクトを表示するように制御してもよい。
 <4-3.効果>
 本実施の形態4によれば、表示制御部5は、携帯情報端末8のユーザが指摘した指摘対象が自車両の前方に存在する場合はヘッドアップディスプレイ9に指摘オブジェクトを表示するように制御し、指摘対象が自車両の後方に存在する場合は映像表示装置25に表示するように制御する。これにより、携帯情報端末8のユーザが指摘した指摘対象が実際の風景におけるどの位置に対応するのかを運転者に容易に認識させることができる。
 <実施の形態5>
 <5-1.構成>
 図32は、本実施の形態5による表示制御装置27の構成の一例を示すブロック図である。
 図32に示すように、表示制御装置27は、自車両位置情報を外部に送信する自車両位置情報送信部28を備える。また、指摘情報取得部2および自車両位置情報送信部28は通信装置29に通信可能に接続されている。その他の構成および動作は、その他の構成および動作は、実施の形態1で説明した図2に示す表示制御装置7と同様であるため、ここでは詳細な説明を省略する。
 通信装置29は、自車両に搭載されており、自車両の外部に存在する携帯情報端末30と通信可能に接続されている。具体的には、通信装置29は、携帯情報端末30から指摘情報を受信すると、当該指摘情報を指摘情報取得部2に送信する。また、通信装置29は、自車両位置情報送信部28から自車両位置情報を受信すると、当該自車両位置情報を携帯情報端末30に送信する。
 <5-2.動作>
 実施の形態1では、携帯情報端末8は自車両内に存在するため、携帯情報端末8の位置と自車両の位置とが一致する。一方、本実施の形態5では、携帯情報端末30は自車両外に存在するため、携帯情報端末30の位置と自車両の位置とが一致しない。従って、携帯情報端末30は、当該携帯情報端末30が取得した位置情報を自車両位置とすることができない。
 上記の対策として、本実施の形態5では、自車両位置情報送信部28は、自車両情報取得部3が取得した自車両情報に含まれる自車両位置を自車両位置情報として通信装置29を介して携帯情報端末30に送信する。携帯情報端末30は、表示制御装置27から受信した自車両位置情報に基づいて、ユーザの指摘位置を算出する。そして、携帯情報端末30は、指摘位置を含む指摘情報を、通信装置29を介して表示制御装置27に送信する。表示制御部5は、指摘情報取得部2が取得した指摘情報に含まれる指摘位置に基づいて、実際の風景における指摘位置に対応する位置に指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。
 <5-3.変形例>
 以下では、本実施の形態5による表示制御装置27の変形例について説明する。
 <5-3-1.変形例1>
 表示制御装置27は、自車両位置情報送信部28を備えなくてもよい。この場合、携帯情報端末30は、自車両位置とは関係のない適当な位置の地図を表示するため、ヘッドアップディスプレイ9の表示領域に指摘対象が含まれない、または指摘位置が自車両位置から離れた位置になる可能性がある。しかし、このような構成によれば、表示制御装置27から携帯情報端末30に自車両位置情報を送信する必要がないため、表示制御装置27と携帯情報端末30との間における通信トラフィックを軽減することができる。
 <5-3-2.変形例2>
 図32では、携帯情報端末30を一例として示したが、これに限るものではなく、表示制御装置27に指摘情報を送信することができる装置であればよい。例えば、携帯情報端末30に代えて、パーソナルコンピュータなどであってもよい。また、携帯情報端末30に代えて、外部から車両に経路案内、交通情報、または観光案内などの種々の情報を提示するシステムであってもよい。
 <5-3-3.変形例3>
 表示制御装置27は、表示装置であるヘッドアップディスプレイ9の表示領域に対応する実際の風景の領域を示す風景領域情報を、通信装置29を介して携帯情報端末30に送信するようにしてもよい。この場合、携帯情報端末30は、ユーザの指摘位置と風景領域情報とに基づいて、ヘッドアップディスプレイ9の表示領域における指摘オブジェクトの表示位置を算出する。そして、携帯情報端末30は、算出した表示位置を示す表示位置情報を含む指摘情報を表示制御装置27に送信する。表示制御装置27は、指摘情報取得部2が取得した指摘情報に含まれる表示位置に指摘オブジェクトを表示するようにヘッドアップディスプレイ9を制御する。
 なお、ヘッドアップディスプレイ9に代えて、例えば図27に示す映像表示装置25の場合も上記内容を適用することができる。この場合、表示制御装置27は、映像表示装置25の表示領域に対応する実際の風景の領域を示す風景領域情報を、通信装置29を介して携帯情報端末30に送信するようにすればよい。
 また、携帯情報端末30は、実施の形態2で説明したように、撮影装置22が撮影した映像を表示する場合も上記内容を適用することができる。
 <5-3-4.変形例4>
 携帯情報端末30は、車載機器のコマンド属性を含む指摘情報を表示制御装置27に送信してもよい。例えば、携帯情報端末30のユーザが指摘対象として待ち合わせ場所を指摘した場合、携帯情報端末30は、表示制御装置27を搭載する車両が有するナビゲーション機能に用いられる目的地設定、経路探索、および経路誘導を示すコマンド属性を含む指摘情報を表示制御装置27に送信する。
 表示制御装置27は、携帯情報端末30から取得したコマンド属性に従ってナビゲーション装置を制御して、経路探索および経路案内を行ってもよい。このとき、表示制御部5は、経路案内に関する情報を表示するようにヘッドアップディスプレイ9を制御してもよい。
 なお、表示制御装置27は、ナビゲーション装置と一体に構成されてもよく、別個に構成されてもよい。
 コマンド属性は、ナビゲーション装置における地点登録コマンドなどでもよい。また、コマンド属性は、ヘッドライトの点滅、ハザードランプ、またはクラクションなどの車両ボディ系の機器を操作するコマンドであってもよい、この場合、車両外のユーザが車両の存在を確認するために有効である。
 コマンド属性は、車両と携帯情報端末30との距離が一定の距離以内、例えば20m以内に近づいたときに、ヘッドライトの点滅、ハザードランプの点灯、またはクラクションを鳴らすなどといった条件付きのコマンドでもよい。この場合、携帯情報端末30のユーザがタクシーを呼ぶ場合などに活用することができる。
 コマンド属性は、車両から外部に種々の情報を表示する車両外向け表示システムを制御するコマンドであってもよい。例えば、携帯情報端末30のユーザが、自ら呼んだタクシーに近づいたとき、タクシーは適当なウェルカム表示を車両外に向けて表示する。ウェルカム表示としては、例えば、予め登録したユーザを識別するIDを表示することなどが考えられる。これにより、ユーザは、自らがタクシーが到着したことを認識することができる。
 コマンド属性の対象となる機器は、表示制御装置27と通信を行うことが可能な車載機器であればよい。車載機器としては、走行制御系の車載機器、安全系の車載機器、ボディ系の車載機器、および車載情報系の車載機器などが挙げられる。
 携帯情報端末30または表示制御装置27は、予め定められた規則に基づいて自動的にコマンド属性の使用の有無を判断してもよく、携帯情報端末30のユーザがコマンド属性を指摘情報に含める操作を行ってもよい。
 <5-4.効果>
 本実施の形態5によれば、表示制御部5は、車両外に存在する携帯情報端末30のユーザが指摘した指摘対象を、自車両の運転者が視認する風景における指摘位置に対応する位置に指摘オブジェクトとして表示するようにヘッドアップディスプレイ9を制御する。これにより、携帯情報端末30のユーザが指摘した指摘対象が実際の風景におけるどの位置に対応するのかを運転者に容易に認識させることができる。
 <ハードウェア構成>
 各実施の形態1~5で説明した表示制御装置1,7,20,24,26,27における指摘情報取得部2、自車両情報取得部3、地図情報取得部4、表示制御部5、および自車両位置情報送信部28の各機能は、処理回路により実現される。すなわち、表示制御装置1,7,20,24,26,27は、指摘情報を取得し、自車両情報を取得し、地図情報を取得し、自車両の運転者が視認する風景における指摘位置に対応する位置に指摘オブジェクトを重畳して表示する制御を行い、自車両位置情報を送信するための処理回路を備える。処理回路は、専用のハードウェアであってもよく、メモリに格納されるプログラムを実行するプロセッサ(CPU(Central Processing Unit)、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)ともいう)であってもよい。
 処理回路が専用のハードウェアである場合、図33に示すように、処理回路31は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。指摘情報取得部2、自車両情報取得部3、地図情報取得部4、表示制御部5、および自車両位置情報送信部28の各機能をそれぞれ処理回路31で実現してもよく、各機能をまとめて1つの処理回路31で実現してもよい。
 処理回路31が図34に示すプロセッサ32である場合、指摘情報取得部2、自車両情報取得部3、地図情報取得部4、表示制御部5、および自車両位置情報送信部28の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ33に格納される。プロセッサ32は、メモリ33に記録されたプログラムを読み出して実行することにより、各機能を実現する。すなわち、表示制御装置1,7,20,24,26,27は、指摘情報を取得するステップ、自車両情報を取得するステップ、地図情報を取得するステップ、自車両の運転者が視認する風景における指摘位置に対応する位置に指摘オブジェクトを重畳して表示する制御を行うステップ、自車両位置情報を送信するステップが結果的に実行されることになるプログラムを格納するためのメモリ33を備える。また、これらのプログラムは、指摘情報取得部2、自車両情報取得部3、地図情報取得部4、表示制御部5、および自車両位置情報送信部28の手順または方法をコンピュータに実行させるものであるともいえる。ここで、メモリとは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)等の不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、DVD(Digital Versatile Disc)等、または、今後使用されるあらゆる記憶媒体であってもよい。
 なお、指摘情報取得部2、自車両情報取得部3、地図情報取得部4、表示制御部5、および自車両位置情報送信部28の各機能について、一部の機能を専用のハードウェアで実現し、他の機能をソフトウェアまたはファームウェアで実現するようにしてもよい。
 このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 <システム構成>
 以上で説明した表示制御装置は、車載用ナビゲーション装置、すなわちカーナビゲーション装置だけでなく、車両に搭載可能なPND(Portable Navigation Device)、および車両の外部に設けられたサーバなどを適宜に組み合わせてシステムとして構築されるナビゲーション装置あるいはナビゲーション装置以外の装置にも適用することができる。この場合、表示制御装置の各機能あるいは各構成要素は、上記システムを構築する各機能に分散して配置される。
 具体的には、一例として、表示制御装置の機能をサーバに配置することができる。例えば、図35に示すように、車両には、運転者以外の乗員が所持する携帯情報端末8と、車両に搭載されたヘッドアップディスプレイ9とを備える。また、サーバ34は、指摘情報取得部2、自車両情報取得部3、地図情報取得部4、および表示制御部5を備える。このような構成とすることによって、表示制御システムを構築することができる。図24,27,30,32のそれぞれに示す表示制御装置20,24,26,27についても同様である。
 このように、表示制御装置の各機能を、システムを構築する各機能に分散して配置した構成であっても、上記の実施の形態と同様の効果が得られる。
 また、上記の実施の形態における動作を実行するソフトウェアを、例えばサーバに組み込んでもよい。このソフトウェアをサーバが実行することにより実現される表示制御方法は、情報表示装置の画面に表示された画像においてユーザが指摘した指摘対象の位置である指摘位置を含む指摘情報を取得し、自車両の現在位置である自車両位置、および自車両の向きを含む自車両情報を取得し、地図情報を取得し、取得した指摘情報、自車両情報、および地図情報に基づいて、自車両の運転者が視認する風景における指摘位置に対応する位置に、ユーザが指摘対象を指摘したことを示す指摘オブジェクトを重畳して表示する制御を行うことである。
 このように、上記の実施の形態における動作を実行するソフトウェアをサーバに組み込んで動作させることによって、上記の実施の形態と同様の効果が得られる。
 なお、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
 本発明は詳細に説明されたが、上記した説明は、すべての態様において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
 1 表示制御装置、2 指摘情報取得部、3 自車両情報取得部、4 地図情報取得部、5 表示制御部、6 情報表示装置、7 表示制御装置、8 携帯情報端末、9 ヘッドアップディスプレイ、10 自車両、11,12,13,14 ビル、15 ユーザ、16 指摘オブジェクト、17 付加指摘オブジェクト、18 ジェスチャー操作、19 ビル、20 表示制御装置、21 後席表示装置、22 撮影装置、23 ビル、24 表示制御装置、25 映像表示装置、26,27 表示制御装置、28 自車両位置情報送信部、29 通信装置、30 携帯情報端末、31 処理回路、32 プロセッサ、33 メモリ、34 サーバ。

Claims (22)

  1.  情報表示装置の画面に表示された画像においてユーザが指摘した指摘対象の位置である指摘位置を含む指摘情報を取得する指摘情報取得部と、
     自車両の現在位置である自車両位置、および前記自車両の向きを含む自車両情報を取得する自車両情報取得部と、
     地図情報を取得する地図情報取得部と、
     前記指摘情報取得部が取得した前記指摘情報と、前記自車両情報取得部が取得した前記自車両情報と、前記地図情報取得部が取得した前記地図情報とに基づいて、前記自車両の運転者が視認する風景における前記指摘位置に対応する位置に、前記ユーザが前記指摘対象を指摘したことを示す指摘オブジェクトを重畳して表示する制御を行う表示制御部と、
    を備える、表示制御装置。
  2.  前記表示制御部は、前記風景を含む表示領域を有するヘッドアップディスプレイに前記指摘オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載の表示制御装置。
  3.  前記表示制御部は、前記風景を含む映像を表示する映像表示装置に前記指摘オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載の表示制御装置。
  4.  前記映像表示装置は、前記自車両の後方の映像を表示することを特徴とする、請求項3に記載の表示制御装置。
  5.  前記表示制御部は、前記風景における前記指摘位置に対応する位置に応じて、前記自車両の前方の前記風景を含む表示領域を有するヘッドアップディスプレイ、または前記自車両の後方の前記風景を含む映像を表示する映像表示装置に前記指摘オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載の表示制御装置。
  6.  前記指摘情報は、前記表示制御部の制御対象である表示装置の表示領域における表示位置情報を含み、
     前記表示制御部は、前記表示位置情報に基づいて前記指摘オブジェクトを前記表示装置の表示領域に表示する制御を行うことを特徴とする、請求項1に記載の表示制御装置。
  7.  前記指摘位置は、前記指摘対象の絶対位置、および前記自車両に対する前記指摘対象の相対位置のうちの少なくとも一方を含むことを特徴とする、請求項1に記載の表示制御装置。
  8.  前記指摘情報は、前記自車両に対する前記指摘対象の相対方向である指摘方向を含むことを特徴とする、請求項1に記載の表示制御装置。
  9.  前記指摘情報は、前記指摘対象である地物の属性を示す地物属性を含み、
     前記表示制御部は、前記地物属性に基づいて前記地図情報に含まれる地物を特定することを特徴とする、請求項1に記載の表示制御装置。
  10.  前記指摘情報は、前記指摘対象である地物の属性を示す地物属性を含み、
     前記表示制御部は、前記地物属性に応じた付加指摘オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載の表示制御装置。
  11.  前記指摘情報は、前記指摘対象である仮想的な地物の属性を示す仮想地物属性を含み、
     前記表示制御部は、前記仮想地物属性に応じた前記指摘オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載の表示制御装置。
  12.  前記指摘情報は、前記ユーザが前記指摘対象を指摘したときの操作の属性を示す操作属性を含み、
     前記表示制御部は、前記操作属性に基づいて前記指摘オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載の表示制御装置。
  13.  前記操作属性は、ジェスチャー操作を含み、
     前記表示制御部は、前記ジェスチャー操作に応じた動的な前記指摘オブジェクトを表示する制御を行うことを特徴とする、請求項12に記載の表示制御装置。
  14.  前記情報表示装置は、少なくとも前記自車両位置から予め設定した目的地までの経路を探索するナビゲーション装置であることを特徴とする、請求項1に記載の表示制御装置。
  15.  前記情報表示装置は、前記自車両の助手席または後席に設けられた車載表示装置であることを特徴とする、請求項1に記載の表示制御装置。
  16.  前記車載表示装置は、前記自車両の周辺を撮影した映像を表示し、
     前記指摘情報取得部は、前記映像において前記ユーザが指摘した前記指摘対象の方向を含む前記指摘情報を取得することを特徴とする、請求項15に記載の表示制御装置。
  17.  前記情報表示装置は、前記自車両内に存在する携帯情報端末であることを特徴とする、請求項1に記載の表示制御装置。
  18.  前記情報表示装置は、前記自車両外に存在する携帯情報端末またはパーソナルコンピュータであることを特徴とする、請求項1に記載の表示制御装置。
  19.  前記自車両情報取得部が取得した前記自車両位置を示す自車両位置情報を前記情報表示装置に送信する自車両位置情報送信部をさらに備えることを特徴とする、請求項1に記載の表示制御装置。
  20.  前記表示制御部は、前記風景を含む表示領域に奥行きを有する立体的なオブジェクトを表示する3Dヘッドアップディスプレイに前記指摘オブジェクトを表示する制御を行うことを特徴とする、請求項1に記載の表示制御装置。
  21.  前記指摘オブジェクトは、奥行きを有する直線形状のオブジェクト、または虚像距離が異なる2つのオブジェクトであり、
     前記表示制御部は、前記運転者の目と前記直線形状のオブジェクトとの延長線上、または前記運転者の目と前記2つのオブジェクトを結ぶ直線との延長線上に前記指摘対象が存在するように、前記直線形状のオブジェクト、または前記2つのオブジェクトを表示する制御を行うことを特徴とする、請求項20に記載の表示制御装置。
  22.  情報表示装置の画面に表示された画像においてユーザが指摘した指摘対象の位置である指摘位置を含む指摘情報を取得し、
     自車両の現在位置である自車両位置、および前記自車両の向きを含む自車両情報を取得し、
     地図情報を取得し、
     取得した前記指摘情報、前記自車両情報、および前記地図情報に基づいて、前記自車両の運転者が視認する風景における前記指摘位置に対応する位置に、前記ユーザが前記指摘対象を指摘したことを示す指摘オブジェクトを重畳して表示する制御を行う、表示制御方法。
PCT/JP2019/022526 2019-06-06 2019-06-06 表示制御装置および表示制御方法 WO2020245977A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021524597A JP7217804B2 (ja) 2019-06-06 2019-06-06 表示制御装置および表示制御方法
PCT/JP2019/022526 WO2020245977A1 (ja) 2019-06-06 2019-06-06 表示制御装置および表示制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/022526 WO2020245977A1 (ja) 2019-06-06 2019-06-06 表示制御装置および表示制御方法

Publications (1)

Publication Number Publication Date
WO2020245977A1 true WO2020245977A1 (ja) 2020-12-10

Family

ID=73653089

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/022526 WO2020245977A1 (ja) 2019-06-06 2019-06-06 表示制御装置および表示制御方法

Country Status (2)

Country Link
JP (1) JP7217804B2 (ja)
WO (1) WO2020245977A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5717935B2 (ja) * 1978-02-20 1982-04-14
JP2005106651A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置
JP2013109505A (ja) * 2011-11-18 2013-06-06 Toyota Motor Corp 周辺監視装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4973582B2 (ja) 2008-04-10 2012-07-11 株式会社デンソー 車両用の可視光レーザビーム照射システム
WO2013088512A1 (ja) 2011-12-13 2013-06-20 パイオニア株式会社 表示装置及び表示方法
JP6957411B2 (ja) 2016-01-29 2021-11-02 Line株式会社 表示方法、プログラム、及び端末
JP2018031647A (ja) 2016-08-24 2018-03-01 株式会社ゼンリンデータコム 地図表示システム、地図表示方法、プログラム及び経路表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5717935B2 (ja) * 1978-02-20 1982-04-14
JP2005106651A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置
JP2013109505A (ja) * 2011-11-18 2013-06-06 Toyota Motor Corp 周辺監視装置

Also Published As

Publication number Publication date
JP7217804B2 (ja) 2023-02-03
JPWO2020245977A1 (ja) 2021-10-28

Similar Documents

Publication Publication Date Title
JP6456516B2 (ja) 運転支援装置
JP6584632B2 (ja) 駐車支援装置
JPWO2018066710A1 (ja) 走行支援装置及びコンピュータプログラム
WO2017056210A1 (ja) 車両用表示装置
WO2019224922A1 (ja) ヘッドアップディスプレイ制御装置、ヘッドアップディスプレイシステム、及びヘッドアップディスプレイ制御方法
JP6448804B2 (ja) 表示制御装置、表示装置および表示制御方法
US11645789B2 (en) Map driven augmented reality
US20170176207A1 (en) In vehicle system and method for providing information regarding points of interest
WO2017013792A1 (ja) 表示制御装置およびナビゲーション装置
US20160223346A1 (en) Navigation system
US11656089B2 (en) Map driven augmented reality
JP2015049039A (ja) ナビゲーション装置、及びナビゲーションプログラム
WO2020245977A1 (ja) 表示制御装置および表示制御方法
JP2019010919A (ja) 走行支援装置及びコンピュータプログラム
WO2017042923A1 (ja) 表示制御装置、表示装置及び表示制御方法
JP6785956B2 (ja) 表示制御装置及び表示制御方法
JP7051263B2 (ja) 運転計画変更指示装置および運転計画変更指示方法
JP2022549752A (ja) 自動運転車インタラクションシステム
US12033244B2 (en) Map driven augmented reality
JP2019087259A (ja) 重畳画像表示装置及びコンピュータプログラム
JPWO2018167815A1 (ja) 表示制御装置及び表示制御方法
JP6444514B2 (ja) 表示制御装置、表示装置および経路案内方法
JP6432312B2 (ja) ナビゲーションシステム、ナビゲーション方法、及びナビゲーションプログラム
JP6388723B2 (ja) 表示制御装置およびナビゲーション装置
JP2018205115A (ja) 表示制御装置、ヘッドアップディスプレイ及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19932080

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021524597

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19932080

Country of ref document: EP

Kind code of ref document: A1