WO2024029373A1 - 情報処理装置、情報処理方法、および路面投影システム - Google Patents

情報処理装置、情報処理方法、および路面投影システム Download PDF

Info

Publication number
WO2024029373A1
WO2024029373A1 PCT/JP2023/026800 JP2023026800W WO2024029373A1 WO 2024029373 A1 WO2024029373 A1 WO 2024029373A1 JP 2023026800 W JP2023026800 W JP 2023026800W WO 2024029373 A1 WO2024029373 A1 WO 2024029373A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
projection
road surface
information processing
processing device
Prior art date
Application number
PCT/JP2023/026800
Other languages
English (en)
French (fr)
Inventor
浩二 長田
龍一 鈴木
雅 宮尾
慶太 森
圭祐 本間
琴子 山口
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2024029373A1 publication Critical patent/WO2024029373A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V9/00Elements for modifying spectral properties, polarisation or intensity of the light emitted, e.g. filters
    • F21V9/40Elements for modifying spectral properties, polarisation or intensity of the light emitted, e.g. filters with provision for controlling spectral properties, e.g. colour, or intensity
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2102/00Exterior vehicle lighting devices for illuminating purposes
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2103/00Exterior vehicle lighting devices for signalling purposes
    • F21W2103/10Position lights
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2103/00Exterior vehicle lighting devices for signalling purposes
    • F21W2103/20Direction indicator lights
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2103/00Exterior vehicle lighting devices for signalling purposes
    • F21W2103/60Projection of signs from lighting devices, e.g. symbols or information being projected onto the road
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2104/00Exterior vehicle lighting devices for decorative purposes
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21WINDEXING SCHEME ASSOCIATED WITH SUBCLASSES F21K, F21L, F21S and F21V, RELATING TO USES OR APPLICATIONS OF LIGHTING DEVICES OR SYSTEMS
    • F21W2106/00Interior vehicle lighting devices

Definitions

  • the present technology relates to an information processing device, an information processing method, and a road projection system, and particularly relates to an information processing device, an information processing method, and a road projection system that intuitively identify a source of information.
  • Patent Document 1 in a situation where two vehicles projecting light patterns onto the road surface exist in the vicinity, the emission of a light pattern from one's own vehicle is determined in response to the detection of a light pattern emitted from another vehicle.
  • a display system for a vehicle that stops is disclosed.
  • the present technology was developed in view of this situation, and is intended to intuitively identify the source of information.
  • the information processing device of the present technology includes a projection control unit that controls the output of projection information projected from the mobile body onto a road surface on which the mobile body travels and is used for communicating with others, and a projection control unit that corresponds to the projection information.
  • the information processing apparatus further includes an additional control section that controls light emission of a light emitting section provided in the moving object, as additional information presentation.
  • an information processing device controls the output of projection information projected from the mobile body onto a road surface on which the mobile body travels and is used for communicating with others, and As a corresponding additional information presentation, there is an information processing method for controlling light emission of a light emitting section provided in the mobile body.
  • the road surface projection system of the present technology controls a light emitting unit provided on a moving object and output of projection information for communicating with others, which is projected from the moving object onto the road surface on which the moving object runs.
  • the road surface projection system includes a projection control section and an additional control section that controls light emission from the light emitting section as additional information presentation corresponding to the projection information.
  • FIG. 1 is a block diagram showing an overview of the configuration of a mobile body according to the present technology. It is a figure which shows the example of installation of a projection part, and its projection range. It is a figure which shows the example of installation of a light emitting part. It is a figure showing an example of installation of an audio output section.
  • 2 is a flowchart illustrating an overview of the operation of a mobile object.
  • FIG. 6 is a diagram illustrating an example of additional information presentation corresponding to projection information.
  • FIG. 6 is a diagram illustrating an example of additional information presentation corresponding to projection information.
  • FIG. 6 is a diagram illustrating an example of additional information presentation corresponding to projection information.
  • FIG. 2 is a block diagram showing a specific example of the configuration of a moving body.
  • 12 is a flowchart illustrating the flow of road surface projection processing for a moving object.
  • 1 is a block diagram showing an example of the configuration of a computer.
  • a welcome light for welcoming passengers when opening a door or unlocking a door
  • the welcome light is mainly projected while the vehicle is stopped, and the image is also a fixed image. Furthermore, most of the images projected onto the road surface from roadside equipment were fixed images.
  • the source of the information can be intuitively identified by controlling the output of the projection information projected onto the road surface and presenting additional information corresponding to the projection information. Do it like this.
  • FIG. 1 is a block diagram showing an overview of the configuration of a mobile object according to the present technology.
  • the moving object 1 shown in FIG. 1 is configured as, for example, a vehicle (automobile) capable of automatic driving.
  • vehicle autonomous
  • the present invention is not limited to this, and the mobile object 1 may be configured as an autonomous mobile robot that moves in a public space.
  • the moving object 1 includes an information processing device 10, a projection section 20, a light emitting section 30, and an audio output section 40, and functions as a road surface projection system that projects projection information such as images onto the road surface on which the moving object 1 runs. has.
  • the information processing device 10 includes an ECU (Electronic Control Unit) mounted on the mobile object 1, other control units including a dedicated processor, a computer, and the like.
  • ECU Electronic Control Unit
  • the projection unit 20 is composed of a projection device such as a liquid crystal microdisplay, for example.
  • the projection unit 20 projects projection information such as an image onto the road surface on which the mobile object 1 travels under the control of the information processing device 10 .
  • the projection information projected by the projection unit 20 is presentation information for communicating with others, and is used to display the behavior of the mobile object 1 (self-vehicle), notify the behavior of the own vehicle in advance, promote the behavior of others, and alerting others.
  • the light emitting unit 30 is a light emitting device provided in the moving object 1, and includes vehicle lighting devices (headlights, turn signals, tail lamps, etc.), decorative LED (Light Emitting Diode) tapes and LED illuminations attached to the vehicle body, and light emitting devices. It consists of an emblem, lighting equipment installed inside the car, etc.
  • the light emitting unit 30 emits light under the control of the information processing device 10.
  • the audio output section 40 is composed of a speaker provided on the vehicle body.
  • the audio output unit 40 outputs audio based on the control of the information processing device 10.
  • the information processing device 10 is configured to include a driving plan generation section 11, a projection control section 12, and an additional control section 13.
  • the travel plan generation unit 11 generates a travel plan including the travel route and stopover points along which the mobile body 1 travels, the travel speed at each passing point, the destination, etc. based on the surrounding information regarding the surroundings of the mobile body 1, and It is supplied to the projection control unit 12 along with the information.
  • the surrounding information includes projection information projected by another person onto the road surface on which the moving body 1 is traveling (other person's projection information), traffic situation information representing the traffic situation around the moving body 1, and the like.
  • the others here include other traffic participants (other vehicles and pedestrians) existing around the mobile object 1, as well as smart poles installed in public spaces.
  • the surrounding information is acquired based on sensor information from various sensors (not shown) provided on the mobile body 1 and information from devices that can communicate with the mobile body 1.
  • the projection control unit 12 generates projection information based on the driving plan and surrounding information from the driving plan generating unit 11, and controls the output thereof. In other words, the projection control unit 12 controls the projection unit 20 to cause the projection unit 20 to project projection information for communicating with others onto the road surface.
  • the additional control unit 13 generates control information for presenting additional information corresponding to the projection information generated by the projection control unit 12.
  • the additional control unit 13 supplies the generated control information to the projection control unit 12 to add additional projection information indicating that the source of the projection information is the moving body 1 to the projection information. Further, the additional control unit 13 controls the light emission of the light emitting unit 30 so as to indicate that the source of the projection information is the mobile object 1 by supplying the generated control information to the light emitting unit 30. Further, the additional control unit 13 controls the audio output of the audio output unit 40 so as to indicate that the source of the projection information is the mobile object 1 by supplying the generated control information to the audio output unit 40. .
  • FIG. 2 is a diagram showing an installation example of the projection unit 20 and its projection range.
  • projection devices P1 to P4 as the projection unit 20 are installed at the front end, left side, right side, and rear of the moving body 1, respectively.
  • the front region R1, left region R2, right region R3, and rear region R4 of the moving body 1 become the projection ranges of the projection devices P1 to R4, respectively.
  • the front region R1, left region R2, right region R3, and rear region R4 are shown as having gaps between them, but in reality, they are each adjacent to each other.
  • the projection range may be set to overlap with the projection range. That is, according to the projection unit 20, projection information can be projected onto the entire surrounding area of the moving body 1.
  • FIG. 3 is a diagram showing an example of how the light emitting section 30 is installed.
  • FIG. 3A shows an example in which a light emitting section L11 (not shown) as an under neon light is installed at the lower part of the vehicle body of the moving body 1.
  • a light emitting section L11 (not shown) as an under neon light is installed at the lower part of the vehicle body of the moving body 1.
  • Figure B shows an example in which light emitting parts L21 to L26 are installed at each part of the vehicle body of the moving body 1.
  • the light emitting section L21 is composed of a headlight
  • the light emitting section L22 is composed of an LED tape attached to the upper end of the windshield.
  • the light emitting part L23 is composed of LED illumination provided on the bumper
  • the light emitting part L24 is composed of an LED tape attached to the side surface of the vehicle body.
  • the light emitting section L25 is composed of LED lights provided on the front and rear wheels
  • the light emitting section L26 is composed of an LED tape attached to the rear spoiler.
  • FIG. 4 is a diagram showing an installation example of the audio output section 40.
  • FIG. 4 shows an example in which audio output units A31 and A32, which are comprised of speakers, are installed at the front and rear ends of the vehicle body of the moving body 1, respectively. This makes it possible for traffic participants in front and behind the mobile object 1 to recognize the voice.
  • step S1 the driving plan generation unit 11 generates a driving plan for the mobile object 1 (self-vehicle) based on surrounding information regarding the surroundings of the mobile object 1.
  • step S2 the projection control unit 12 generates projection information based on the driving plan and surrounding information generated by the driving plan generating unit 11, and controls the output of the projection information.
  • step S3 the additional control unit 13 presents additional information corresponding to the projection information.
  • FIG. 6 is a diagram showing a first example of additional information presentation corresponding to projection information.
  • projection information C11 representing the future traveling trajectory of the moving object 1 is projected onto the road surface.
  • the future travel trajectory can be calculated based on the travel plan of the mobile object 1.
  • projection information C12 in which the current traveling trajectory of the moving body 1 is added to the future traveling trajectory of the moving body 1 is projected onto the road surface.
  • the current travel trajectory can be calculated, for example, by estimating the vehicle position of the mobile object 1.
  • the past travel trajectory can be calculated, for example, by storing the own vehicle position of the mobile object 1.
  • FIG. 7 is a diagram showing a second example of additional information presentation corresponding to projection information.
  • projection information C21 consisting of a light pattern extending in the traveling direction of the moving object 1 is projected onto the road surface as projection information indicating the predicted course of the moving object 1.
  • the projection information C21 is composed of a plurality of line patterns of a certain length orthogonal to the traveling direction of the moving body 1 arranged in a line in the traveling direction of the moving body 1.
  • the spacing between the line patterns corresponds to the speed of the moving body 1, and the line patterns become denser as the speed of the moving body 1 approaches zero.
  • the interval between the line patterns of the projection information C21 becomes smaller toward the crosswalk where the pedestrian PE is located, the moving object 1 will stop in front of the crosswalk.
  • the light emitting parts L23 and L24 provided on the moving body 1 emit light so that a visual relationship is created with the projection information C21 projected on the road surface.
  • the light emitting parts L23 and L24 emit light so as to simulate the origin of the light pattern of the projection information C21 extending in the traveling direction of the moving body 1. Further, the light emitting units L23 and L24 may emit light in the same color as the light pattern of the projection information C21.
  • FIG. 8 is a diagram showing a third example of additional information presentation corresponding to projection information.
  • projection information indicating the predicted course of the moving object 1 is composed of a light pattern extending in the traveling direction of the moving object 1, as in FIGS. A and B of FIG. 7, respectively.
  • Projection information C31 is projected onto the road surface.
  • the projection information C31 is composed of a plurality of line patterns of a certain length orthogonal to the traveling direction of the moving body 1 arranged in a line in the traveling direction of the moving body 1. However, unlike the projection information C21 in FIG. 7, the projection information C31 has line patterns that are spaced at equal intervals.
  • an audio output unit 40 (not shown) provided in the moving body 1 outputs audio in synchronization with visual changes in the projection information C31 projected on the road surface.
  • the intervals between the line patterns of the projection information C31 are different between diagrams A and B in FIG. 8, and the signal sound "pi" is output with a rhythm corresponding to each interval.
  • the signal sound "pi” may be output in synchronization with a change in brightness or a change in color of the projection information C31.
  • an example of road surface projection in a situation where a plurality of moving objects are present will be described.
  • FIG. 9 is a diagram showing a first example of road surface projection in a situation where a plurality of moving objects are present.
  • FIGS. 9A and 9B three vehicles 1A, 1B, and 1C as moving objects are traveling on a three-lane road. Specifically, vehicle 1A is running on the right lane, vehicle 1B is running on the center lane, and vehicle 1C is running on the left lane. Vehicle 1A and vehicle 1C are in a state of translation in their respective lanes, and vehicle 1B is in a state of running behind vehicles 1A and 1C.
  • the vehicle 1A is about to change lanes to the center lane, and projection information C41 as a light pattern indicating the lane change is projected in front of the vehicle 1B in the center lane.
  • projection information C41 an arrow indicating the direction to change lanes blinks (or blinks) at a predetermined period.
  • the driver of the vehicle 1B may not be able to identify whether the projection information C41 is projected from the vehicle 1A or the vehicle 1C.
  • the light emitting section L42 provided at the rear of the vehicle 1A is made to blink (or blink) in synchronization with the blinking (or blinking) of the arrow of the projection information C41. Make it. Thereby, the driver of the vehicle 1B can intuitively identify that the projection information C41 is projected from the vehicle 1A.
  • FIGS. 10 and 11 are diagrams showing a second example of road surface projection in a situation where a plurality of moving objects are present.
  • the vehicle 1A is about to turn right from a non-priority road to a priority road at an intersection where no traffic lights are provided.
  • Projection information C51 is projected from the vehicle 1A, which represents a travel trajectory in which the vehicle turns right and proceeds to the priority road.
  • the vehicle 1B traveling on the priority road is approaching the intersection.
  • Projection information C61 is projected from the vehicle 1B, which represents the traveling trajectory of the vehicle going straight on the priority road.
  • a pedestrian PE who is about to cross a crosswalk provided on the priority road.
  • the vehicle 1A detects the approach of the vehicle 1B by detecting the projection information C61 projected from the vehicle 1B, and detects the presence of the pedestrian PE by communicating with the information terminal owned by the pedestrian PE. Can be detected.
  • the vehicle 1A projects projection information C52 and C53 of a different color from the projection information C51 instead of the projection information C51.
  • the projection information C52 is a light pattern imitating a stop line, and is projected in front of the vehicle 1A.
  • the projection information C53 is projected onto the road surface directly below the vehicle 1A, including the area around the vehicle 1A.
  • the vehicle 1A also projects projection information C54, which is a light pattern imitating a stop line, in front of the pedestrian PE as additional information presentation.
  • the pedestrian PE can also be urged to stop.
  • the projection information C54 also have the same color as each of the projection information C52 and C53, the pedestrian PE can intuitively identify that the projection information C54 is projected from the vehicle 1A.
  • the vehicle 1A continues to project the projection information C52 and C53 and projects the projection information C54 in front of the pedestrian PE. unlock.
  • the pedestrian PE can cross the crosswalk with peace of mind while recognizing that the vehicle 1A remains stopped.
  • FIG. 12 is a block diagram showing a specific example of the configuration of the mobile body 1. As shown in FIG.
  • the moving object 1 in FIG. 12 includes an imaging section 111, a distance measuring section 112, another person's road surface projection detecting section 113, a traffic situation recognizing section 114, map data 115, a travel measuring section 116, a own vehicle position estimating section 117, a user setting/ It includes an operation storage section 118, a driving plan generation section 119, and a driving control section 120.
  • the imaging unit 111 is composed of a visible light camera that images the surroundings of the moving body 1.
  • the imaging unit 111 supplies a visible light image obtained by imaging the surroundings of the moving body 1 to the other road surface projection detection unit 113 and the traffic situation recognition unit 114.
  • the distance measurement unit 112 is composed of sensors capable of measuring distance, such as a ToF sensor and LiDAR (Light Detection and Ranging).
  • the distance measurement unit 112 acquires a distance image representing the distance in the depth direction and supplies it to the traffic situation recognition unit 114.
  • the other person's road surface projection detection unit 113 detects other person's projection information (hereinafter, other person's projection information) projected on the road surface by another person (another car, a pedestrian, a smart pole, etc.) based on the distance image from the distance measuring unit 112. (also called road surface projection).
  • the other person projection information is supplied to the driving plan generation unit 119.
  • the traffic situation recognition unit 114 analyzes the traffic situation around the mobile object 1 (attributes of other people, their positions, movement directions, movement speed). Traffic situation information representing the traffic situation around the mobile object 1 is supplied to the driving plan generation section 119.
  • the map data 115 is map data of the area in which the mobile object 1 travels.
  • the travel measurement unit 116 measures travel data regarding the travel of the mobile object 1 (self-vehicle), such as the travel position, travel speed, acceleration/deceleration, and steering operation, and supplies the data to the own-vehicle position estimation unit 117.
  • the own vehicle position estimation unit 117 estimates the position of the mobile object 1 (own vehicle) in the map data 115 based on the travel data from the travel measurement unit 116. Own vehicle position information representing the estimated position of the own vehicle is supplied to the driving plan generation unit 119.
  • the user setting/operation storage unit 118 stores setting information and operation information related to driving by the user (driver).
  • the setting information and operation information include, for example, mode information indicating the automatic driving mode of the mobile object 1.
  • the setting information and operation information stored in the user setting/operation storage section 118 are read out by the driving plan generation section 119 as appropriate.
  • the driving plan generation unit 119 corresponds to the driving plan generation unit 11 in FIG.
  • the driving plan generation unit 119 uses other person projection information from the other person road surface projection detection unit 113, traffic situation information from the traffic situation recognition unit 114, and own vehicle position information from the own vehicle position estimation unit 117 as surrounding information. Based on this, a travel plan for the mobile object 1 (self-vehicle) is generated.
  • the driving plan generation unit 119 also cooperates and communicates wirelessly with other devices such as in-vehicle devices installed in other vehicles, information terminals carried by pedestrians, and ITS (Intelligent Transport Systems) devices such as smart poles.
  • a travel plan for the mobile object 1 may be generated using the traffic situation information acquired in this way.
  • the driving plan generation unit 119 supplies driving operation information according to the generated driving plan to the driving control unit 120.
  • the travel control unit 120 controls automatic driving of the mobile body 1 based on driving operation information from the travel plan generation unit 119.
  • the mobile object 1 further includes a traffic communication control section 121, a travel trajectory storage section 122, and an additional control section 123.
  • the traffic communication control unit 121 corresponds to the projection control unit 12 in FIG.
  • the traffic communication control unit 121 acquires the driving plan generated by the driving plan generating unit 119 and the surrounding information used to generate the driving plan.
  • the traffic communication control unit 121 generates a communication expression with other people as projection information based on the acquired driving plan.
  • the traffic communication control unit 121 controls the projection unit 20 based on the generated communication expression to cause the projection unit 20 to project the communication expression onto the road surface. Further, the traffic communication control unit 121 supplies the generated communication expression and traffic situation information included in the surrounding information from the driving plan generation unit 119 to the additional control unit 123.
  • the traveling trajectory storage unit 122 sequentially acquires own vehicle position information representing the position of the own vehicle estimated by the own vehicle position estimating unit 117 from the own vehicle position estimating unit 117, and records the traveling trajectory of the mobile object 1 (own vehicle). Stored as trajectory information.
  • the travel trajectory stored in the travel trajectory storage section 122 is read out by the additional control section 123 as necessary.
  • the additional control unit 123 corresponds to the additional control unit 13 in FIG.
  • the additional control unit 123 controls presentation of additional information corresponding to the communication expression based on the communication expression and traffic situation information from the traffic communication control unit 121.
  • information that is additionally presented in response to a communication expression is referred to as an individual identification expression.
  • the additional control unit 123 may project the past and present traveling trajectory based on the traveling trajectory information read from the traveling trajectory storage unit 122. It is added to the future travel trajectory and fed back to the traffic communication control unit 121. This allows others to intuitively identify the source of the projected information.
  • the additional control unit 123 may cause a visual difference between the projected light pattern and the projected light pattern, such as causing the light emitting unit 30 of the same color as the projected light pattern to emit light.
  • the light emission of the light emitting unit 30 is controlled so that a certain correlation occurs. This allows others to intuitively identify the source of the projected information.
  • the additional control unit 123 outputs audio from the audio output unit 40 in synchronization with the visual change of the projected light pattern.
  • Control output For example, the additional control unit 123 may control the audio output from the audio output unit 40 in synchronization with the blinking or blinking of the projected light pattern, or may control the audio output from the audio output unit 40 in synchronization with the change in color of the projected light pattern. , and control the audio output from the audio output unit 40. This allows others to intuitively identify the source of the projected information.
  • the presentation mode of the individual identification expression may be selected depending on the setting information and operation information stored in the user setting/operation storage unit 118, such as the equipment and settings of the mobile object 1 as a vehicle, and the driver's preferences. .
  • the presentation mode should be determined according to the traffic conditions around the moving object 1 (own vehicle) can be selected. For example, if the moving speed of the moving object 1 is relatively high or if the traffic participant with whom you communicate is another vehicle, it is not appropriate to present additional information by voice, so information presentation is selected.
  • the projected communication expression (road surface projection of the own vehicle) is fed back to the other person's road surface projection detection unit 113.
  • the other person's road surface projection detection unit 113 can detect the other person's road surface projection projected on the road surface, distinguishing it from the road surface projection of the own vehicle.
  • the communication expression (road surface projection of the own vehicle) whose projection has been adjusted may be fed back to the driving control unit 120.
  • the driving control unit 120 can modify the driving control of the moving body 1 (own vehicle) based on the road surface projection of the own vehicle.
  • step S11 the other person's road surface projection detection unit 113 detects the other person's road surface projection based on the distance image acquired by the distance measurement unit 112.
  • step S12 the traffic situation recognition unit 114 recognizes the traffic situation around the mobile object 1 based on the visible light image captured by the imaging unit 111 and the distance image acquired by the distance measurement unit 112.
  • step S13 the driving plan generation unit 119 generates a driving plan for the mobile object 1 (own vehicle) based on the road surface projection of another person, the surrounding traffic situation, and the own vehicle position as surrounding information.
  • step S14 the traffic communication control unit 121 determines whether communication using road projection is necessary based on the driving plan generated by the driving plan generation unit 119, the road projection of others used for generation, and the surrounding traffic conditions. Determine whether or not.
  • step S14 If it is determined in step S14 that communication by road surface projection is not necessary, the process proceeds to step S15, and the driving control unit 120 determines whether to end the driving based on the driving plan generated by the driving plan generating unit 119. judge.
  • step S15 If it is determined in step S15 that the traveling is not to end, the process returns to step S11 and the subsequent processes are repeated.
  • step S15 if it is determined in step S15 to end the travel, the moving body 1 ends the travel and the process ends.
  • step S14 determines whether communication by road surface projection is necessary. If it is determined in step S14 that communication by road surface projection is necessary, the process advances to step S16.
  • step S16 the traffic communication control unit 121 generates a necessary communication expression according to the driving plan generated by the driving plan generating unit 119.
  • step S17 the addition control unit 123 determines whether the addition of the individual identification expression (information additionally presented in correspondence with the communication expression) is an automatic determination. Whether or not the system side determines whether to add the individual identification expression is determined based on the setting information stored in the user setting/operation storage unit 118.
  • step S17 If it is determined in step S17 that the addition of the individual identification expression is an automatic determination, the process proceeds to step S18.
  • step S18 the additional control unit 123 determines whether there are any traffic participants in the vicinity who can visually see the mobile object 1 (self-vehicle), based on the traffic situation information. Here, it is also determined whether there is a possibility that there is a traffic participant who can visually see the mobile object 1 (self-vehicle) in a blind spot.
  • step S18 If it is determined in step S18 that there are traffic participants who can visually see the mobile object 1 (own vehicle) in the surrounding area, furthermore, there is a traffic participant who can visually see the mobile object 1 (own vehicle) in the blind spot. If it is determined that there is a possibility that there is a problem, the process advances to step S19.
  • step S19 the addition control unit 123 adds an individual identification expression to the communication expression, and the traffic communication control unit 121 projects the communication expression on the road surface. After that, the process returns to step S11, and the subsequent processes are repeated.
  • step S18 determines whether there are no traffic participants who can visually see the mobile object 1 (own vehicle) in the surrounding area, there are also traffic participants who can see the mobile object 1 (own vehicle) in a blind spot. If it is determined that there is no possibility that there is a person, the process advances to step S20.
  • step S20 the addition control unit 123 does not add the individual identification expression to the communication expression, and the traffic communication control unit 121 projects the communication expression on the road surface. After that, the process returns to step S11, and the subsequent processes are repeated.
  • step S17 if it is determined in step S17 that the addition of the individual identification expression is not automatically determined, the process advances to step S21.
  • step S21 the addition control unit 123 determines whether the setting is such that the individual identification expression is always added. Whether or not to always add the individual identification expression is also determined by the setting information stored in the user setting/operation storage unit 118.
  • step S21 If it is determined in step S21 that the setting is to always add the individual identification expression, then in step S19, the individual identification expression is added to the communication expression, and the communication expression is projected on the road surface.
  • step S21 If it is determined in step S21 that the individual identification expression is not set to always be added, then in step S20, the communication expression is projected on the road without adding the individual identification expression to the communication expression.
  • FIG. 14 is a block diagram showing an example of the hardware configuration of a computer that executes the above-described series of processes using a program.
  • the information processing device 10 (mobile object 1) described above is realized by a computer 200 having the configuration shown in FIG.
  • the CPU 201, ROM 202, and RAM 203 are interconnected by a bus 204.
  • An input/output interface 205 is further connected to the bus 204.
  • an input section 206 consisting of a keyboard, a mouse, etc.
  • an output section 207 consisting of a display, speakers, etc.
  • a storage section 208 made up of a hard disk, a nonvolatile memory, etc.
  • a communication section 209 made up of a network interface, etc.
  • a drive 210 that drives a removable medium 211 .
  • the CPU 201 for example, loads the program stored in the storage unit 208 into the RAM 203 via the input/output interface 205 and the bus 204 and executes the program, thereby executing the series of steps described above. Processing takes place.
  • a program executed by the CPU 201 is installed in the storage unit 208 by being recorded, for example, on a removable medium 211 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting.
  • the program executed by the computer 200 may be a program in which processing is performed chronologically in accordance with the order described in this specification, in parallel, or at necessary timing such as when a call is made. It may also be a program that performs processing.
  • a system refers to a collection of multiple components (devices, modules (components), etc.), regardless of whether all components are in the same casing. Therefore, multiple devices housed in separate casings and connected via a network, and one device with multiple modules housed in one casing are both systems. .
  • the present technology can have the following configuration.
  • a projection control unit that controls output of projection information for communicating with others, which is projected from the moving body onto a road surface on which the moving body runs;
  • An information processing apparatus comprising: an additional control section that controls light emission of a light emitting section provided in the moving body as additional information presentation corresponding to the projection information.
  • the information processing device (2) The information processing device according to (1), wherein the additional control section controls the light emission of the light emitting section so that a visual relationship is created between the projection information projected onto the road surface.
  • the projection control unit controls output of a light pattern extending in the traveling direction of the moving body as the projection information,
  • the information processing device according to (2), wherein the additional control section controls light emission of the light emitting section so as to simulate an extension source of the light pattern.
  • the projection control unit controls output of a light pattern that flickers or flashes at a predetermined cycle as the projection information
  • (6) The information processing device according to any one of (1) to (5), wherein the additional control section controls the light emission of the light emitting section according to traffic situation information representing the traffic situation around the moving object.
  • the additional control section is configured to present additional information corresponding to the projection information by displaying an audio signal from an audio output section provided on the moving body in synchronization with a visual change in the projection information projected onto the road surface.
  • the information processing device according to any one of (1) to (6), which controls audio output.
  • the information processing device according to (7), wherein the visual change in the projection information includes blinking or flickering of a light pattern.
  • the information processing device according to (7), wherein the visual change in the projection information includes a change in color of the light pattern.
  • the projection control unit controls output of a future travel trajectory of the moving body as the projection information
  • the addition control unit adds the current and past travel trajectories of the mobile body to the future travel trajectory of the mobile body as additional information presentation corresponding to the projection information.
  • the information processing device according to any one of 9).
  • (11) The information processing device according to any one of (1) to (10), wherein the projection control unit controls the output of the projection information based on a travel plan of the moving object and surrounding information regarding the surroundings of the moving object. .
  • the surrounding information includes the projection information projected onto the road surface by the other person.
  • the surrounding information includes traffic situation information representing the traffic situation around the mobile object.
  • the information processing device controlling the output of projection information for communicating with others, which is projected from the moving body onto a road surface on which the moving body runs;
  • An information processing method comprising: controlling light emission from a light emitting unit provided on the moving body as additional information presentation corresponding to the projection information.
  • a light emitting section provided on the moving body; a projection control unit that controls output of projection information for communicating with others, which is projected from the moving body onto a road surface on which the moving body runs;
  • a road surface projection system comprising: an additional control section that controls light emission of the light emitting section as additional information presentation corresponding to the projection information.
  • 1 Mobile object 10 Information processing device, 11 Driving plan generation unit, 12 Road condition detection unit, 13 Projection control unit, 111 Imaging unit, 112 Distance measurement unit, 113 Other road surface projection detection unit, 114 Traffic situation recognition unit, 115 Map data, 116 Driving measurement unit, 117 Own vehicle position estimation unit, 118 User setting/operation storage unit, 119 Driving plan generation unit, 120 Driving control unit, 121 Traffic communication control unit, 122 Driving trajectory storage unit, 123 Additional control Department

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本技術は、情報の発信元を直感的に識別させることができるようにする情報処理装置、情報処理方法、および路面投影システムに関する。 投影制御部は、移動体が走行する路面に対して移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御し、付加制御部は、投影情報に対応した付加的な情報提示として、移動体に設けられる発光部の発光を制御する。本技術は、例えば、路面投影を行う車両に適用することができる。

Description

情報処理装置、情報処理方法、および路面投影システム
 本技術は、情報処理装置、情報処理方法、および路面投影システムに関し、特に、情報の発信元を直感的に識別させるようにした情報処理装置、情報処理方法、および路面投影システムに関する。
 近年、移動体が走行する路面に対して移動体から情報を投影することで、周囲の交通参加者とのコミュニケーションを実現する技術が多く提案されている。
 例えば、特許文献1には、路面上に光パターンを投影する2つの車両が周辺に存在する状況において、他車両から出射された光パターンの検出に応じて、自車両からの光パターンの出射を止める車両用表示システムが開示されている。
国際公開第2020/031917号
 しかしながら、複数の車両が入り乱れて走行したり、道路側の設備からも路面上に映像などが投影されたりする中で、投影されている情報の発信元を直感的に識別させることは考えられていなかった。
 本技術は、このような状況に鑑みてなされたものであり、情報の発信元を直感的に識別させるようにするものである。
 本技術の情報処理装置は、移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御する投影制御部と、前記投影情報に対応した付加的な情報提示として、前記移動体に設けられる発光部の発光を制御する付加制御部とを備える情報処理装置である。
 本技術の情報処理方法は、情報処理装置が、移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御し、前記投影情報に対応した付加的な情報提示として、前記移動体に設けられる発光部の発光を制御する情報処理方法である。
 本技術の路面投影システムは、移動体に設けられる発光部と、前記移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御する投影制御部と、前記投影情報に対応した付加的な情報提示として、前記発光部の発光を制御する付加制御部とを備える路面投影システムである。
 本技術においては、移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力が制御され、前記投影情報に対応した付加的な情報提示として、前記移動体に設けられる発光部の発光が制御される。
本技術に係る移動体の構成の概要を示すブロック図である。 投影部の設置例とその投影範囲を示す図である。 発光部の設置例を示す図である。 音声出力部の設置例を示す図である。 移動体の動作の概要について説明するフローチャートである。 投影情報に対応した付加的な情報提示の例を示す図である。 投影情報に対応した付加的な情報提示の例を示す図である。 投影情報に対応した付加的な情報提示の例を示す図である。 複数の移動体が存在する状況での路面投影の第1の例を示す図である。 複数の移動体が存在する状況での路面投影の第2の例を示す図である。 複数の移動体が存在する状況での路面投影の第2の例を示す図である。 移動体の構成の具体例を示すブロック図である。 移動体の路面投影処理の流れについて説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
 以下、本技術を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.従来技術とその課題
 2.本技術に係る移動体の構成および動作の概要
 3.複数の移動体が存在する状況での路面投影の例
 4.移動体の構成の具体例と路面投影処理
 5.コンピュータの構成例
<1.従来技術とその課題>
 従来、車両用の路面投影装置としては、ドアを開ける際や開錠した際に搭乗者を迎え入れるためのウェルカムライト(ウェルカムランプ)が知られている。ウェルカムライトは、主に車両の停車中に投影され、その映像も固定された映像である。また、道路側の設備などから路面上に投影される映像も、多くは固定された映像であった。
 一方で、近年、移動体が走行する路面に対して移動体から情報を投影することで、周囲の交通参加者とのコミュニケーションを実現する技術が多く提案されている。一般の道路交通においては様々な交通参加者が存在し、複数の車両が入り乱れて走行したり、道路側の設備からも路面上に映像などが投影されたりする中で、投影されている情報の発信元を直感的に識別させることは考えられていなかった。
 今後は、路面へ動的な映像が投影されることで他の投影映像と重なったり、走行中の車両から投影される映像が車両とともに移動したりすることが想定される。このように、路面に投影される情報が増えていく中で、投影されている情報の発信元を直感的に識別させるための手法が必要とされる。
 これに対して、本技術においては、路面に投影される投影情報の出力を制御しつつ、その投影情報に対応した付加的な情報提示を行うことで、情報の発信元を直感的に識別させるようにする。
<2.本技術に係る移動体の構成および動作の概要>
(移動体の構成)
 図1は、本技術に係る移動体の構成の概要を示すブロック図である。
 図1に示される移動体1は、例えば、自動運転が可能な車両(自動車)として構成される。これに限らず、移動体1は、公共空間を移動する自律移動型ロボットとして構成されてもよい。
 移動体1は、情報処理装置10、投影部20、発光部30、および音声出力部40を備え、移動体1が走行する路面に対して映像などの投影情報を投影する路面投影システムとしての機能を有する。
 情報処理装置10は、移動体1に搭載されるECU(Electronic Control Unit)や、専用プロセッサを含むその他の制御ユニット、コンピュータなどにより構成される。
 投影部20は、例えば、液晶マイクロディスプレイなどのプロジェクションデバイスにより構成される。投影部20は、情報処理装置10の制御に基づいて、移動体1が走行する路面に対して映像などの投影情報を投影する。投影部20が投影する投影情報は、他者とのコミュニケーションのための提示情報であり、移動体1(自車)の行動の表示、自車の行動の事前通知、他者の行動の促進、および他者への注意喚起などを含む。
 発光部30は、移動体1に設けられる発光装置であり、車両の灯火装置(ヘッドライト、ウインカー、テールランプなど)、車体に取り付けられた装飾用のLED(Light Emitting Diode)テープやLEDイルミネーション、発光エンブレム、車内に設けられた照明装置などにより構成される。発光部30は、情報処理装置10の制御に基づいて発光する。
 音声出力部40は、車体に設けられたスピーカにより構成される。音声出力部40は、情報処理装置10の制御に基づいて音声を出力する。
 情報処理装置10は、走行プラン生成部11、投影制御部12、および付加制御部13を含むように構成される。
 走行プラン生成部11は、移動体1の周囲に関する周囲情報に基づいて、移動体1が走行する走行経路や経由地、通過地点毎の走行速度、目的地などを含む走行プランを生成し、周囲情報とともに、投影制御部12に供給する。
 周囲情報は、他者により移動体1が走行する路面に投影されている投影情報(他者投影情報)や、移動体1の周囲の交通状況を表す交通状況情報などを含む。ここでいう他者には、移動体1の周囲に存在する他の交通参加者(他車や歩行者)の他、公共空間に設置されているスマートポールなどが含まれる。
 周囲情報は、移動体1に設けられた図示せぬ各種のセンサからのセンサ情報や、移動体1と通信可能なデバイスからの情報に基づいて取得される。
 投影制御部12は、走行プラン生成部11からの走行プランと周囲情報に基づいて、投影情報を生成し、その出力を制御する。言い換えると、投影制御部12は、投影部20を制御することで、他者とのコミュニケーションのための投影情報を、路面に対して投影部20から投影させる。
 付加制御部13は、投影制御部12により生成された投影情報に対応した付加的な情報提示を行うための制御情報を生成する。
 例えば、付加制御部13は、生成した制御情報を投影制御部12に供給することで、投影情報の発信元が移動体1であることを示す付加投影情報を、当該投影情報に付加する。また、付加制御部13は、生成した制御情報を発光部30に供給することで、投影情報の発信元が移動体1であることを示すように、発光部30の発光を制御する。さらに、付加制御部13は、生成した制御情報を音声出力部40に供給することで、投影情報の発信元が移動体1であることを示すように、音声出力部40の音声出力を制御する。
 図2は、投影部20の設置例とその投影範囲を示す図である。
 図2のA図に示されるように、移動体1の前端、左側面、右側面、および後部には、それぞれ、投影部20としてのプロジェクションデバイスP1乃至P4が設置される。
 これにより、同B図に示されるように、移動体1の前方領域R1、左方領域R2、右方領域R3、後方領域R4それぞれが、プロジェクションデバイスP1乃至R4それぞれの投影範囲となる。なお、図中、前方領域R1、左方領域R2、右方領域R3、後方領域R4は、それぞれ隣接する投影範囲との間に間隙があるように示されているが、実際には、それぞれ隣接する投影範囲と重複するように設定され得る。すなわち、投影部20によれば、移動体1の周囲全体に投影情報を投影することができる。
 図3は、発光部30の設置例を示す図である。
 図3のA図には、移動体1の車体下部に、アンダーネオンとしての図示せぬ発光部L11が設置された例が示されている。これにより、移動体1の周囲を含む移動体1直下の路面が、発光部L11の発光により照らされる。
 同B図には、移動体1の車体の各部位に発光部L21乃至L26が設置された例が示されている。B図の例では、発光部L21は、ヘッドライトで構成され、発光部L22は、フロントガラス上端に貼付されたLEDテープで構成される。発光部L23は、バンパーに設けられたLEDイルミネーションで構成され、発光部L24は、車体側面に貼付されたLEDテープで構成される。発光部L25は、前後輪のホイールに設けられたLEDライトで構成され、発光部L26は、リアスポイラーに貼付されたLEDテープで構成される。これにより、移動体1の周囲の交通参加者に対して、発光部L21乃至L26の少なくともいずれかの発光を視認させることができるようになる。
 図4は、音声出力部40の設置例を示す図である。
 図4には、移動体1の車体前端と後部それぞれに、スピーカにより構成される音声出力部A31,A32が設置された例が示されている。これにより、移動体1の前方および後方の交通参加者に対して、音声を認識させることができるようになる。
(移動体の動作)
 次に、図5のフローチャートを参照して、移動体1(情報処理装置10)の動作の概要について説明する。
 ステップS1において、走行プラン生成部11は、移動体1の周囲に関する周囲情報に基づいて、移動体1(自車)の走行プランを生成する。
 ステップS2において、投影制御部12は、走行プラン生成部11により生成された走行プランと周囲情報に基づいて投影情報を生成し、その投影情報の出力を制御する。
 ステップS3において、付加制御部13は、投影情報に対応した付加的な情報提示を行う。
(投影情報に対応した付加的な情報提示の例)
 ここで、図6乃至図8を参照して、投影情報に対応した付加的な情報提示の例について説明する。
 図6は、投影情報に対応した付加的な情報提示の第1の例を示す図である。
 図6のA図においては、移動体1の未来の走行軌跡を表す投影情報C11が路面に投影されている。未来の走行軌跡は、移動体1の走行プランに基づいて算出され得る。
 同B図においては、移動体1の未来の走行軌跡に、移動体1の現在の走行軌跡が付加された投影情報C12が路面に投影されている。現在の走行軌跡は、例えば移動体1の自車位置推定を行うことで算出され得る。
 同C図においては、移動体1の現在と未来の走行軌跡に、移動体1の過去の走行軌跡がさらに付加された投影情報C13が路面に投影されている。過去の走行軌跡は、例えば移動体1の自車位置を記憶しておくことで算出され得る。
 このように、移動体1が走行した事実と投影内容が一致するように、移動体1の過去、現在、未来の走行軌跡が連続的に投影されることで、他者から見て、投影されている情報の発信元を直感的に識別させることができるようになる。
 図7は、投影情報に対応した付加的な情報提示の第2の例を示す図である。
 図7のA,B図それぞれにおいては、移動体1の予測進路を示す投影情報として、移動体1の進行方向に延出する光パターンからなる投影情報C21が路面に投影されている。
 投影情報C21は、移動体1の進行方向に直交する一定長のラインパターンが、移動体1の進行方向に複数並んで構成される。ラインパターン同士の間隔は、移動体1の速度に対応しており、移動体1の速度がゼロに近づくほどラインパターンは密になる。図7の例では、歩行者PEがいる横断歩道に向かって、投影情報C21のラインパターンの間隔が小さくなっていることから、移動体1は横断歩道の手前で停止することになる。
 また、図7の例では、移動体1に設けられた発光部L23,L24が、路面に投影される投影情報C21との間に視覚的な関連性が生じるように発光している。
 具体的には、発光部L23,L24は、移動体1の進行方向に延出する投影情報C21の光パターンの延出元を模擬するように発光している。さらに、発光部L23,L24は、投影情報C21の光パターンと同色になるように発光してもよい。
 このように、移動体1から発せられた光があたかも移動体1から路面へと移行するようにして光パターンが投影されることで、他者から見て、投影されている情報の発信元を直感的に識別させることができるようになる。
 図8は、投影情報に対応した付加的な情報提示の第3の例を示す図である。
 図8のA図、B図それぞれにおいては、図7のA図、B図それぞれと同様、移動体1の予測進路を示す投影情報として、移動体1の進行方向に延出する光パターンからなる投影情報C31が路面に投影されている。
 投影情報C31は、移動体1の進行方向に直交する一定長のラインパターンが、移動体1の進行方向に複数並んで構成される。但し、投影情報C31は、図7の投影情報C21とは異なり、ラインパターン同士の間隔が等間隔となっている。
 また、図8の例では、移動体1に設けられた図示せぬ音声出力部40が、路面に投影される投影情報C31の視覚的な変化に同調して音声を出力する。
 具体的には、図8のA図とB図とでは、投影情報C31のラインパターンの間隔が異なり、それぞれの間隔に応じたリズムで信号音「pi」が出力されている。これ以外にも、投影情報C31の明暗の変化や色彩の変化に同調して信号音「pi」が出力されてもよい。
 このように、路面に投影された投影情報の視覚的な変化に同調した音声が出力されることで、他者から見て、投影されている情報の発信元を直感的に識別させることができるようになる。
 以上の処理によれば、路面に対して移動体1から投影された投影情報に対応した付加的な情報提示が行われるようになる。これにより、路面に投影される情報が増えていく中であっても、投影されている情報の発信元を直感的に識別させることが可能となり、ひいては、より好適に周囲の交通参加者とのコミュニケーションを図ることが可能となる。
<3.複数の移動体が存在する状況での路面投影の例>
 ここで、複数の移動体が存在する状況での路面投影の例について説明する。
 図9は、複数の移動体が存在する状況での路面投影の第1の例を示す図である。
 図9のA,B図それぞれにおいては、移動体としての3台の車両1A,1B,1Cが、3車線の道路を走行している。具体的には、車両1Aが右側の車線を走行し、車両1Bが中央の車線を走行し、車両1Cが左側の車線を走行している。車両1Aと車両1Cは、それぞれの車線で並進している状態にあり、車両1Bは、車両1A,1Cの後方を走行している状態にある。
 図9のA図において、車両1Aは、中央の車線に車線変更しようとしており、中央の車線における車両1Bの前方に、車線変更する旨を表す光パターンとしての投影情報C41を投影している。投影情報C41においては、車線変更する向きを示す矢印が所定の周期で明滅(または点滅)している。しかしながら、車両1Bの運転者は、投影情報C41が車両1Aと車両1Cのいずれから投影されたものであるのかを識別できない可能性がある。
 そこで、図9のB図に示されるように、車両1Aの後部に設けられた発光部L42を、投影情報C41の矢印の明滅(または点滅)に同期するように、明滅(または点滅)させるようにする。これにより、車両1Bの運転者は、投影情報C41が車両1Aから投影されたものであることを直感的に識別できるようになる。
 このようにして、複数の車両が存在する状況において、自車からの投影情報との間に視覚的な関連性が生じるように、自車に設けられる発光部を発光させることで、周囲の交通参加者は、投影情報の発信元を直感的に識別することが可能となる。
 図10および図11は、複数の移動体が存在する状況での路面投影の第2の例を示す図である。
 まず、図10のA図に示されるように、車両1Aは、信号が設けられていない交差点において、非優先道路から優先道路へ右折しようとしている。車両1Aからは、右折して優先道路へ進む走行軌跡を表す投影情報C51が投影されている。このとき、優先道路を走行する車両1Bが交差点に接近している。車両1Bからは、優先道路を直進する走行軌跡を表す投影情報C61が投影されている。また、車両1Aの右方には、優先道路に設けられている横断歩道を渡ろうとしている歩行者PEが存在する。
 車両1Aは、車両1Bから投影されている投影情報C61を検出することで、車両1Bの接近を検知したり、歩行者PEが所持する情報端末と通信を行うことで、歩行者PEの存在を検知することができる。
 このような場合、図10のB図に示されるように、車両1Aは、投影情報C51に代えて、投影情報C51とは異なる色の投影情報C52,C53を投影する。投影情報C52は、停止線を模した光パターンであり、車両1Aの前方に投影される。投影情報C53は、車両1Aの周囲を含む車両1A直下の路面に投影される。投影情報C52と投影情報C53それぞれの色を同色とすることで、停止線を模した投影情報C52が、車両1Aから投影されていることが識別され易くなる。
 さらに、車両1Aは、付加的な情報提示として、歩行者PEの前方にも、停止線を模した光パターンである投影情報C54を投影する。これにより、歩行者PEにも停止を促すことができる。投影情報C54もまた、投影情報C52,C53それぞれの色と同色とすることで、歩行者PEは、投影情報C54が車両1Aから投影されていることを直感的に識別することができる。
 その後、図11のC図に示されるように、車両1Bが交差点を通過すると、車両1Aは、投影情報C52,C53の投影を継続したまま、歩行者PEの前方への投影情報C54の投影を解除する。これにより、歩行者PEは、車両1Aが停止したままであることを認識した状態で、安心して横断歩道を渡ることができる。
 そして、図11のD図に示されるように、歩行者PEが車両1Aの走行予定路を通過すると、車両1Aは、投影情報C52,C53に代えて、当初投影していた、右折して優先道路へ進む走行軌跡を表す投影情報C51を再び投影する。
 このようにして、複数の車両が存在する状況において、自車の周囲の状態に応じて投影情報を変更することで、周囲の交通参加者は、投影情報の発信元を直感的に識別しつつ、投影された情報の意図を容易に理解することが可能となる。
<4.移動体の構成の具体例と路面投影処理>
 以下においては、上述した移動体1の構成の具体例と、移動体1が実行する路面投影処理の流れについて説明する。
(移動体の構成の具体例)
 図12は、移動体1の構成の具体例を示すブロック図である。
 図12の移動体1は、撮像部111、距離計測部112、他者路面投影検出部113、交通状況認識部114、地図データ115、走行計測部116、自車位置推定部117、ユーザ設定/操作記憶部118、走行プラン生成部119、および走行制御部120を備えている。
 撮像部111は、移動体1の周囲を撮像する可視光カメラにより構成される。撮像部111は、移動体1の周囲を撮像することで取得される可視光映像を、他者路面投影検出部113と交通状況認識部114に供給する。
 距離計測部112は、ToFセンサやLiDAR(Light Detection and Ranging)などの距離を計測可能なセンサ類により構成される。距離計測部112は、奥行き方向の距離を表す距離画像を取得し、交通状況認識部114に供給する。
 他者路面投影検出部113は、距離計測部112からの距離画像に基づいて、他者(他車や歩行者、スマートポールなど)により路面に投影されている他者投影情報(以下、他者の路面投影などともいう)を検出する。他者投影情報は、走行プラン生成部119に供給される。
 交通状況認識部114は、撮像部111からの可視光映像と、距離計測部112からの距離画像に基づいて、移動体1の周囲の交通状況(他者の属性やその位置、移動方向や移動速度)を認識する。移動体1の周囲の交通状況を表す交通状況情報は、走行プラン生成部119に供給される。
 地図データ115は、移動体1が走行するエリアの地図データである。
 走行計測部116は、移動体1(自車)の走行位置や走行速度、加減速や操舵の運転操作などの走行に関する走行データを計測し、自車位置推定部117に供給する。
 自車位置推定部117は、走行計測部116からの走行データに基づいて、地図データ115における移動体1(自車)の位置を推定する。推定された自車の位置を表す自車位置情報は、走行プラン生成部119に供給される。
 ユーザ設定/操作記憶部118は、ユーザ(運転者)による運転に関する設定情報や操作情報を記憶している。設定情報や操作情報には、例えば移動体1の自動運転モードを表すモード情報などが含まれる。ユーザ設定/操作記憶部118に記憶されている設定情報や操作情報は、適宜、走行プラン生成部119に読み出される。
 走行プラン生成部119は、図1の走行プラン生成部11に相当する。走行プラン生成部119は、周囲情報としての、他者路面投影検出部113からの他者投影情報と交通状況認識部114からの交通状況情報、自車位置推定部117からの自車位置情報に基づいて、移動体1(自車)の走行プランを生成する。
 また、走行プラン生成部119は、他車に搭載された車載機器や、歩行者が所持する情報端末、スマートポールなどのITS(Intelligent Transport Systems)機器といった他デバイスと相互に連携・無線通信を行うことで取得した交通状況情報を用いて、移動体1の走行プランを生成してもよい。走行プラン生成部119は、生成した走行プランに応じた運転操作情報を、走行制御部120に供給する。
 走行制御部120は、走行プラン生成部119からの運転操作情報に基づいて、移動体1の自動運転を制御する。
 移動体1は、さらに、交通コミュニケーション制御部121、走行軌跡記憶部122、および付加制御部123を備えている。
 交通コミュニケーション制御部121は、図1の投影制御部12に相当する。交通コミュニケーション制御部121は、走行プラン生成部119により生成された走行プランと、その生成に用いられた周囲情報を取得する。交通コミュニケーション制御部121は、取得した走行プランに基づいて、投影情報として、他者とのコミュニケーション表現を生成する。交通コミュニケーション制御部121は、生成したコミュニケーション表現に基づいて投影部20を制御することで、コミュニケーション表現を、路面に対して投影部20から投影させる。また、交通コミュニケーション制御部121は、生成したコミュニケーション表現と、走行プラン生成部119からの周囲情報に含まれる交通状況情報を、付加制御部123に供給する。
 走行軌跡記憶部122は、自車位置推定部117により推定された自車の位置を表す自車位置情報を、逐次、自車位置推定部117から取得し、移動体1(自車)の走行軌跡情報として記憶する。走行軌跡記憶部122に記憶された走行軌跡は、必要に応じて、付加制御部123に読み出される。
 付加制御部123は、図1の付加制御部13に相当する。付加制御部123は、交通コミュニケーション制御部121からのコミュニケーション表現と交通状況情報に基づいて、コミュニケーション表現に対応した付加的な情報提示を制御する。以下においては、コミュニケーション表現に対応して付加的に提示される情報を、個別識別表現という。
 例えば、コミュニケーション表現として、移動体1の未来の走行軌跡が路面に投影される場合、付加制御部123は、走行軌跡記憶部122から読み出した走行軌跡情報に基づいた過去と現在の走行軌跡を、未来の走行軌跡に付加し、交通コミュニケーション制御部121にフィードバックする。これにより、他者から見て、投影されている情報の発信元を直感的に識別させることができるようになる。
 また、コミュニケーション表現として、特定の光パターンが投影される場合、付加制御部123は、投影されている光パターンと同色の発光部30を発光させるなど、投影されている光パターンとの間に視覚的な関連性が生じるように、発光部30の発光を制御する。これにより、他者から見て、投影されている情報の発信元を直感的に識別させることができるようになる。
 さらに、コミュニケーション表現として、視覚的な変化を持った光パターンが投影される場合、付加制御部123は、投影されている光パターンの視覚的な変化に同調して、音声出力部40からの音声出力を制御する。例えば、付加制御部123は、投影されている光パターンの明滅または点滅に同調して、音声出力部40からの音声出力を制御したり、投影されている光パターンの色の変化に同調して、音声出力部40からの音声出力を制御したりする。これにより、他者から見て、投影されている情報の発信元を直感的に識別させることができるようになる。
 このように、個別識別表現は、様々なバリエーションを有することが考えられる。そこで、個別識別表現の提示態様は、車両としての移動体1の装備や設定、運転者の趣向など、ユーザ設定/操作記憶部118に記憶されている設定情報や操作情報に応じて選択され得る。
 また、個別識別表現の最適な提示態様は、移動体1(自車)の周囲の交通状況によっても異なることから、その提示態様は、移動体1(自車)の周囲の交通状況に応じて選択され得る。例えば、移動体1の走行速度が比較的速い場合や、コミュニケーションの相手となる交通参加者が他の車両である場合には、音声による付加的な情報提示は不向きであることから、発光による付加的な情報提示が選択される。
 なお、投影されたコミュニケーション表現(自車の路面投影)は、他者路面投影検出部113にフィードバックされる。これにより、他者路面投影検出部113は、自車の路面投影と区別して、路面に投影されている他者の路面投影を検出することができる。
 さらに、図示はしないが、投影が調整されたコミュニケーション表現(自車の路面投影)は、走行制御部120にフィードバックされてもよい。この場合、走行制御部120は、自車の路面投影に基づいて、移動体1(自車)の走行制御を修正することができる。
(移動体の路面投影処理)
 次いで、図13のフローチャートを参照して、図12の移動体1の路面投影処理の流れについて説明する。図13の処理は、例えば移動体1の走行中に実行され得る。
 ステップS11において、他者路面投影検出部113は、距離計測部112により取得された距離画像に基づいて、他者の路面投影を検出する。
 ステップS12において、交通状況認識部114は、撮像部111により撮像された可視光映像と、距離計測部112により取得された距離画像に基づいて、移動体1の周囲の交通状況を認識する。
 ステップS13において、走行プラン生成部119は、周囲情報としての、他者の路面投影と周囲の交通状況、および自車位置に基づいて、移動体1(自車)の走行プランを生成する。
 ステップS14において、交通コミュニケーション制御部121は、走行プラン生成部119により生成された走行プラン、その生成に用いられた他者の路面投影と周囲の交通状況に基づいて、路面投影によるコミュニケーションが必要か否かを判定する。
 ステップS14において路面投影によるコミュニケーションが必要でないと判定された場合、ステップS15に進み、走行制御部120は、走行プラン生成部119により生成された走行プランに基づいて、走行を終了するか否かを判定する。
 ステップS15において走行を終了しないと判定された場合、ステップS11に戻り、以降の処理が繰り返される。
 一方、ステップS15において走行を終了すると判定された場合、移動体1は走行を終え、処理は終了する。
 さて、ステップS14において路面投影によるコミュニケーションが必要であると判定された場合、ステップS16に進む。
 ステップS16において、交通コミュニケーション制御部121は、走行プラン生成部119により生成された走行プランに応じて、必要とされるコミュニケーション表現を生成する。
 ステップS17において、付加制御部123は、個別識別表現(コミュニケーション表現に対応して付加的に提示される情報)の付加は自動判定であるか否かを判定する。個別識別表現の付加をシステム側で判定するか否かは、ユーザ設定/操作記憶部118に記憶されている設定情報により決定される。
 ステップS17において個別識別表現の付加は自動判定であると判定された場合、ステップS18に進む。
 ステップS18において、付加制御部123は、交通状況情報に基づいて、周囲に移動体1(自車)を目視可能な交通参加者がいるか否かを判定する。ここでは、死角となる箇所に移動体1(自車)を目視可能な交通参加者がいる可能性の有無も判定される。
 ステップS18において周囲に移動体1(自車)を目視可能な交通参加者がいると判定された場合、さらには、死角となる箇所に移動体1(自車)を目視可能な交通参加者がいる可能性があると判定された場合、ステップS19に進む。
 ステップS19において、付加制御部123は、コミュニケーション表現に個体識別表現を付加して、交通コミュニケーション制御部121が当該コミュニケーション表現の路面投影を行う。その後、処理はステップS11に戻り、以降の処理が繰り返される。
 一方、ステップS18において周囲に移動体1(自車)を目視可能な交通参加者がいないと判定された場合、また、死角となる箇所に移動体1(自車)を目視可能な交通参加者がいる可能性がないと判定された場合、ステップS20に進む。
 ステップS20において、付加制御部123は、コミュニケーション表現に個体識別表現を付加せずに、交通コミュニケーション制御部121が当該コミュニケーション表現の路面投影を行う。その後、処理はステップS11に戻り、以降の処理が繰り返される。
 さて、ステップS17において個別識別表現の付加は自動判定でないと判定された場合、ステップS21に進む。
 ステップS21において、付加制御部123は、個別識別表現を常に付加する設定であるか否かを判定する。個別識別表現を常に付加するか否かもまた、ユーザ設定/操作記憶部118に記憶されている設定情報により決定される。
 ステップS21において個別識別表現を常に付加する設定であると判定された場合には、ステップS19において、コミュニケーション表現に個体識別表現が付加されて、当該コミュニケーション表現の路面投影が行われる。
 また、ステップS21において個別識別表現を常に付加する設定でないと判定された場合には、ステップS20において、コミュニケーション表現に個体識別表現が付加されずに、当該コミュニケーション表現の路面投影が行われる。
 以上の処理によれば、路面に対して移動体から投影されたコミュニケーション表現に対応した付加的な情報提示が行われるようになる。これにより、路面に投影される情報が増えていく中であっても、投影されている情報の発信元を直感的に識別させることが可能となり、ひいては、より好適に周囲の交通参加者とのコミュニケーションを実現することが可能となる。
<5.コンピュータの構成例>
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図14は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
 上述した情報処理装置10(移動体1)は、図14に示す構成を有するコンピュータ200により実現される。
 CPU201、ROM202、RAM203は、バス204により相互に接続されている。
 バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウスなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続される。また、入出力インタフェース205には、ハードディスクや不揮発性のメモリなどよりなる記憶部208、ネットワークインタフェースなどよりなる通信部209、リムーバブルメディア211を駆動するドライブ210が接続される。
 以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部208に記憶されているプログラムを入出力インタフェース205およびバス204を介してRAM203にロードして実行することにより、上述した一連の処理が行われる。
 CPU201が実行するプログラムは、例えばリムーバブルメディア211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部208にインストールされる。
 なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたときなどの必要なタイミングで処理が行われるプログラムであっても良い。
 本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)など)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 さらに、本技術は以下のような構成をとることができる。
(1)
 移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御する投影制御部と、
 前記投影情報に対応した付加的な情報提示として、前記移動体に設けられる発光部の発光を制御する付加制御部と
 を備える情報処理装置。
(2)
 前記付加制御部は、前記路面に投影される前記投影情報との間に視覚的な関連性が生じるように、前記発光部の発光を制御する
 (1)に記載の情報処理装置。
(3)
 前記投影制御部は、前記投影情報として、前記移動体の進行方向に延出する光パターンの出力を制御し、
 前記付加制御部は、前記光パターンの延出元を模擬するように、前記発光部の発光を制御する
 (2)に記載の情報処理装置。
(4)
 前記投影制御部は、前記投影情報として、所定の周期で明滅または点滅する光パターンの出力を制御し、
 前記付加制御部は、前記光パターンに同期するように、前記発光部の明滅または点滅を制御する
 (2)に記載の情報処理装置。
(5)
 前記付加制御部は、前記投影情報として前記路面に投影される光パターンと同色になるように、前記発光部の発光を制御する
 (2)に記載の情報処理装置。
(6)
 前記付加制御部は、前記移動体の周囲の交通状況を表す交通状況情報に応じて、前記発光部の発光を制御する
 (1)乃至(5)のいずれかに記載の情報処理装置。
(7)
 前記付加制御部は、前記投影情報に対応したさらなる付加的な情報提示として、前記路面に投影される前記投影情報の視覚的な変化に同調して、前記移動体に設けられる音声出力部からの音声出力を制御する
 (1)乃至(6)のいずれかに記載の情報処理装置。
(8)
 前記投影情報の視覚的な変化は、光パターンの明滅または点滅を含む
 (7)に記載の情報処理装置。
(9)
 前記投影情報の視覚的な変化は、光パターンの色の変化を含む
 (7)に記載の情報処理装置。
(10)
 前記投影制御部は、前記投影情報として、前記移動体の未来の走行軌跡の出力を制御し、
 前記付加制御部は、前記投影情報に対応したさらなる付加的な情報提示として、前記移動体の現在および過去の前記走行軌跡を、前記移動体の未来の前記走行軌跡に付加する
 (1)乃至(9)のいずれかに記載の情報処理装置。
(11)
 前記投影制御部は、前記移動体の走行プランと、前記移動体の周囲に関する周囲情報に基づいて、前記投影情報の出力を制御する
 (1)乃至(10)のいずれかに記載の情報処理装置。
(12)
 前記周囲情報は、前記他者により前記路面に投影されている前記投影情報を含む
 (11)に記載の情報処理装置。
(13)
 前記周囲情報は、前記移動体の周囲の交通状況を表す交通状況情報を含む
 (11)に記載の情報処理装置。
(14)
 前記他者は、前記移動体の周囲に存在する他の交通参加者を含む
 (1)乃至(13)のいずれかに記載の情報処理装置。
(15)
 情報処理装置が、
 移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御し、
 前記投影情報に対応した付加的な情報提示として、前記移動体に設けられる発光部の発光を制御する
 情報処理方法。
(16)
 移動体に設けられる発光部と、
 前記移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御する投影制御部と、
 前記投影情報に対応した付加的な情報提示として、前記発光部の発光を制御する付加制御部と
 を備える路面投影システム。
(17)
 コンピュータに、
 移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御し、
 前記投影情報に対応した付加的な情報提示として、前記移動体に設けられる発光部の発光を制御する
 処理を実行させるためのプログラム。
 1 移動体, 10 情報処理装置, 11 走行プラン生成部, 12 路面状態検出部, 13 投影制御部, 111 撮像部, 112 距離計測部, 113 他者路面投影検出部, 114 お交通状況認識部, 115 地図データ, 116 走行計測部, 117 自車位置推定部, 118 ユーザ設定/操作記憶部, 119 走行プラン生成部, 120 走行制御部, 121 交通コミュニケーション制御部, 122 走行軌跡記憶部, 123 付加制御部

Claims (16)

  1.  移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御する投影制御部と、
     前記投影情報に対応した付加的な情報提示として、前記移動体に設けられる発光部の発光を制御する付加制御部と
     を備える情報処理装置。
  2.  前記付加制御部は、前記路面に投影される前記投影情報との間に視覚的な関連性が生じるように、前記発光部の発光を制御する
     請求項1に記載の情報処理装置。
  3.  前記投影制御部は、前記投影情報として、前記移動体の進行方向に延出する光パターンの出力を制御し、
     前記付加制御部は、前記光パターンの延出元を模擬するように、前記発光部の発光を制御する
     請求項2に記載の情報処理装置。
  4.  前記投影制御部は、前記投影情報として、所定の周期で明滅または点滅する光パターンの出力を制御し、
     前記付加制御部は、前記光パターンに同期するように、前記発光部の明滅または点滅を制御する
     請求項2に記載の情報処理装置。
  5.  前記付加制御部は、前記投影情報として前記路面に投影される光パターンと同色になるように、前記発光部の発光を制御する
     請求項2に記載の情報処理装置。
  6.  前記付加制御部は、前記移動体の周囲の交通状況を表す交通状況情報に応じて、前記発光部の発光を制御する
     請求項1に記載の情報処理装置。
  7.  前記付加制御部は、前記投影情報に対応したさらなる付加的な情報提示として、前記路面に投影される前記投影情報の視覚的な変化に同調して、前記移動体に設けられる音声出力部からの音声出力を制御する
     請求項1に記載の情報処理装置。
  8.  前記投影情報の視覚的な変化は、光パターンの明滅または点滅を含む
     請求項7に記載の情報処理装置。
  9.  前記投影情報の視覚的な変化は、光パターンの色の変化を含む
     請求項7に記載の情報処理装置。
  10.  前記投影制御部は、前記投影情報として、前記移動体の未来の走行軌跡の出力を制御し、
     前記付加制御部は、前記投影情報に対応したさらなる付加的な情報提示として、前記移動体の現在および過去の前記走行軌跡を、前記移動体の未来の前記走行軌跡に付加する
     請求項1に記載の情報処理装置。
  11.  前記投影制御部は、前記移動体の走行プランと、前記移動体の周囲に関する周囲情報に基づいて、前記投影情報の出力を制御する
     請求項1に記載の情報処理装置。
  12.  前記周囲情報は、前記他者により前記路面に投影されている前記投影情報を含む
     請求項11に記載の情報処理装置。
  13.  前記周囲情報は、前記移動体の周囲の交通状況を表す交通状況情報を含む
     請求項11に記載の情報処理装置。
  14.  前記他者は、前記移動体の周囲に存在する他の交通参加者を含む
     請求項1に記載の情報処理装置。
  15.  情報処理装置が、
     移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御し、
     前記投影情報に対応した付加的な情報提示として、前記移動体に設けられる発光部の発光を制御する
     情報処理方法。
  16.  移動体に設けられる発光部と、
     前記移動体が走行する路面に対して前記移動体から投影される、他者とのコミュニケーションのための投影情報の出力を制御する投影制御部と、
     前記投影情報に対応した付加的な情報提示として、前記発光部の発光を制御する付加制御部と
     を備える路面投影システム。
PCT/JP2023/026800 2022-08-05 2023-07-21 情報処理装置、情報処理方法、および路面投影システム WO2024029373A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022125306 2022-08-05
JP2022-125306 2022-08-05

Publications (1)

Publication Number Publication Date
WO2024029373A1 true WO2024029373A1 (ja) 2024-02-08

Family

ID=89848882

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/026800 WO2024029373A1 (ja) 2022-08-05 2023-07-21 情報処理装置、情報処理方法、および路面投影システム

Country Status (1)

Country Link
WO (1) WO2024029373A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019131184A (ja) * 2019-04-25 2019-08-08 三菱電機株式会社 照射装置および照射方法
JP2019214373A (ja) * 2015-04-10 2019-12-19 マクセル株式会社 投射型表示装置
JP2021167197A (ja) * 2015-01-13 2021-10-21 マクセル株式会社 車両
JP2022106673A (ja) * 2021-01-07 2022-07-20 市光工業株式会社 車両用投影装置、その制御方法、及び車両用灯具

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021167197A (ja) * 2015-01-13 2021-10-21 マクセル株式会社 車両
JP2019214373A (ja) * 2015-04-10 2019-12-19 マクセル株式会社 投射型表示装置
JP2019131184A (ja) * 2019-04-25 2019-08-08 三菱電機株式会社 照射装置および照射方法
JP2022106673A (ja) * 2021-01-07 2022-07-20 市光工業株式会社 車両用投影装置、その制御方法、及び車両用灯具

Similar Documents

Publication Publication Date Title
US11914381B1 (en) Methods for communicating state, intent, and context of an autonomous vehicle
JP6918059B2 (ja) 画像投射装置および画像投射方法
EP3235684B1 (en) Apparatus that presents result of recognition of recognition target
JP4783431B2 (ja) 交通情報検出装置、交通情報検出方法、交通情報検出プログラムおよび記録媒体
CN105555611B (zh) 车辆成像***和用于判别反射物体与另一车辆的灯的方法
KR102600202B1 (ko) 차량 및 차량의 제어방법
CN114375467B (zh) 用于检测紧急车辆的***和方法
CN102951062A (zh) 用于改变车辆的至少一个大灯的光发射的方法与设备
JPH11345394A (ja) 車両の周辺監視装置
JP2008131648A (ja) ビデオ画像を提示する方法およびシステム
CN109204305B (zh) 丰富视野方法、观察员车辆和对象中使用的设备和机动车
JP2014515893A (ja) 車両のカメラによって撮影した画像を評価するための方法および画像評価装置
US20190066510A1 (en) Vehicular image projection
US20190066509A1 (en) Vehicular image projection
JP2009067083A (ja) 車両用前照灯装置およびその制御方法
JP7171397B2 (ja) 街路灯システムおよび緊急車両通行支援システム
CN115257527B (zh) 尾灯显示的控制方法、装置及车辆
CN113547979A (zh) 车辆行为信息提示方法、装置、计算机设备和存储介质
JP6335037B2 (ja) 車外環境認識装置
US20240109478A1 (en) Vehicle state-based light projection communication system
CN111824003A (zh) 一种车灯的控制方法及控制***
JP4462895B2 (ja) 車載用物体認識システムおよびこれを用いた運転支援システム
WO2024029373A1 (ja) 情報処理装置、情報処理方法、および路面投影システム
JP2015232846A (ja) 前方状況判定装置
JP2009122917A (ja) 車両走行支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23849928

Country of ref document: EP

Kind code of ref document: A1