JP2016001464A - 処理装置、処理システム、処理プログラム、及び、処理方法 - Google Patents

処理装置、処理システム、処理プログラム、及び、処理方法 Download PDF

Info

Publication number
JP2016001464A
JP2016001464A JP2015081177A JP2015081177A JP2016001464A JP 2016001464 A JP2016001464 A JP 2016001464A JP 2015081177 A JP2015081177 A JP 2015081177A JP 2015081177 A JP2015081177 A JP 2015081177A JP 2016001464 A JP2016001464 A JP 2016001464A
Authority
JP
Japan
Prior art keywords
recognition
risk
unit
moving
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015081177A
Other languages
English (en)
Inventor
横田 聡一郎
Soichiro Yokota
聡一郎 横田
智子 石垣
Tomoko Ishigaki
智子 石垣
洋義 関口
Hiroyoshi Sekiguchi
洋義 関口
賢一郎 齊所
Kenichiro Saisho
賢一郎 齊所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015081177A priority Critical patent/JP2016001464A/ja
Priority to US14/710,801 priority patent/US9637118B2/en
Publication of JP2016001464A publication Critical patent/JP2016001464A/ja
Priority to US15/455,650 priority patent/US10387733B2/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2754/00Output or target parameters relating to objects
    • B60W2754/10Spatial relation or speed relative to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】危険度に応じた機器制御及び有用な情報を提供する。【解決手段】距離画像取得部により、各画素の距離情報を含む距離画像が取得されると、移動体検出部が、距離画像から少なくとも移動体を検出する。危険度判定部は、距離画像を用いて、少なくとも前記移動体の危険度を判定し、前記危険度に応じて被制御部を制御する制御部に対して前記危険度を出力する。一例として、制御部は、危険度に応じて車両の制動制御又はハンドル制御を行う。また、制御部は、表示部に、危険度に対応する表示を行う。これにより、危険度に応じた機器制御及び有用な情報の提供を可能とすることができる。【選択図】図25

Description

本発明は、処理装置、処理システム、処理プログラム、及び、処理方法に関する。
近年において、自車両の前方の走行車両、又は歩行者等の移動物体の速度と移動状態の変化とを認識し、前方車両の急ブレーキ、自車両と前方車両との間への別の車両の割り込み、歩行者の飛び出し等の危険な状態を早期発見し、ドライバーに警告、危険を予防する移動物体認識装置が開発されている。
例えば、前方の移動物体を認識するのに、2次元画像の画像フレーム間におけるオブジェクトのサイズの変化とカメラの焦点距離とにより、前方のオブジェクトに対する距離の変化を求める方法がある。しかし、この方法によるオブジェクトの距離の測定精度、例えば、移動物体の移動変化の検出精度は低いという問題がある。
そこで、特許文献1(特開2000−266539号公報)において、ステレオカメラ装置により得られたステレオ画像から視差を計算して視差画像(距離画像ともいう)を得る車間距離計測装置が提案されている。なお、視差画像とは視差を明るさに変換することにより得られる画像をいう。
この特許文献1に開示されている車間距離計測装置は、視差画像から前方の車両を検知し、検知した車両のエッジの移動ベクトルの大きさ及び方向により、車間距離と距離の変化とを計測している。
ここで、車両等の機器を制御する場合に、現在の状況から危険度を判断して車両等の機器制御を行うことができれば、また、車両の運転者等に対して運転情報等の有用な情報を提供できれば、安全面に大きく貢献できる。
本発明は、上述の課題に鑑みてなされたものであり、危険度に応じた機器制御及び有用な情報の提供を可能とする処理装置、処理システム、処理プログラム、及び、処理方法の提供を目的とする。
本発明は、上述した課題を解決するための手段として、各画素の距離情報を含む距離画像を取得する距離画像取得部と、距離画像から少なくとも移動体を検出する移動体検出部と、距離画像を用いて、少なくとも移動体の危険度を判定し、危険度に応じて被制御部を制御する制御部に対して、危険度を出力する危険度判定部とを有する。
本発明によれば、危険度に応じた機器制御及び有用な情報の提供ができるという効果を奏する。
図1は、一般的な立体物認識処理の流れを示す図である。 図2は、実施の形態の立体物認識装置の要部のハードウェア構成図である。 図3は、シーングラフを説明するための模式図である。 図4は、車シーングラフを説明するための模式図である。 図5は、実施の形態の立体物認識装置で記述されるシーン状況モデルのシーングラフを示す図である。 図6は、実施の形態の立体物認識装置で記述される立体物モデルのシーングラフを示す図である。 図7は、実施の形態の立体物認識装置の機能ブロック図である。 図8は、実施の形態の立体物認識装置の状況予測結果に応じて認識対象の認識手法等の変更動作を説明するためのフローチャートである。 図9は、実施の形態の立体物認識装置の状況予測結果に応じて認識対象の認識手法等を変更する動作の全体的な流れを説明するためのフローチャートである。 図10は、認識対象を追跡している画面の一例を示す図である。 図11は、道路状況モデルの一例を示す図である。 図12は、道路状況モデルの左右の道路端の勾配近似曲線パラメータを説明するための図である。 図13は、背景モデルの一例を示す図である。 図14は、第2の実施の形態の立体認識装置の機能ブロック図である。 図15は、第2の実施の形態の立体認識装置の移動体の検出動作の一例を説明するための図である。 図16は、第2の実施の形態の立体認識装置の移動体の検出動作の他の例を説明するための図である。 図17は、第3の実施の形態の立体認識装置の機能ブロック図である。 図18は、第3の実施の形態の立体認識装置の画像処理動作、及び移動体の認識動作を説明するための図である。 図19は、第3の実施の形態の立体認識装置の危険度の算出動作を説明するための図である。 図20は、第3の実施の形態の立体認識装置の危険度の他の算出動作を説明するための図である。 図21は、第4の実施の形態の立体認識装置のハードウェア構成図である。 図22は、第4の実施の形態の立体認識装置に設けられているヘッドアップディスプレイの構成を示す図である。 図23は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の表示動作の流れを示すフローチャートである。 図24は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第1の表示例を説明するための図である。 図25は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第2の表示例を説明するための図である。 図26は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第3の表示例を説明するための図である。 図27は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第3の他の表示例を説明するための図である。 図28は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第4の表示例を説明するための図である。 図29は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第5の表示例を説明するための図である。 図30は、第5の実施の形態の立体認識装置のハードウェア構成図である。 図31は、第5の実施の形態の立体認識装置におけるナビゲーション部のリルート動作の流れを説明するためのフローチャートである。
以下、本発明に係る処理装置、処理システム、処理プログラム、及び、処理方法を適用した立体物認識装置の実施の形態を、添付図面を参照しながら詳細に説明する。なお、以下の説明において、「制御対象」とは、例えば自車両等のように、実施の形態の立体物認識装置による認識結果を利用して制御される対象物を示すこととする。また、「認識対象」とは、例えば先行車両等のように、実施の形態の立体物認識装置で認識される対象物で、制御対象の制御の起因となる物体を示すこととする。
(第1の実施の形態)
まず、図1に、一般的な立体物認識処理の流れを示す。この図1に示すように、一般的な立体物認識処理においては、ステップS1において、カメラ装置等で撮像された画像を取得し、ステップS2において、取得した画像から特徴点を抽出する。また、ステップS3で、特徴点から物体の認識を行い、ステップS4で、認識した物体の重心を、それまで認識した各物体の重心の認識履歴と照合しながら各物体の追跡を行う。各物体の認識結果で制御する制御対象が、例えば自動ブレーキシステムの場合、自動ブレーキシステムは、ステップS5において、認識結果に応じて、自動的にブレーキをかける等の制御を行う。
このような立体物認識処理において、フレーム毎に認識対象の認識又は非認識が生ずると、例えば車両の場合、一度、非認識となった後に、次に認識したときには、自車両と先行車両との間に予想以上の開きが生じており、反対に、先行車両がブレーキをかけることで、先行車両が自車両の手前まで迫っている等の不都合を生ずる(ハンチング)。このため、このような不都合を生じないように、認識対象を安定して認識し続けることが重要となる。
しかし、物体のエッジ情報で認識対象の認識を行う場合、同じ認識対象を撮像している場合でも、センサの感度特性又は照明条件等の変化により、認識対象のエッジ情報の認識又は非認識が生ずる。例えば、走行中において、太陽の位置又は逆光等の変化が発生した場合、認識対象が他の物体の陰に隠れた場合、又は、自車両が建物等の陰に入った場合等は、認識対象の非認識が生ずる。また、例えば薄暗い状況下のため、認識対象のエッジ情報の値が、認識アルゴリズムの閾値付近の値である場合、センサ感度のばらつき等で、認識対象の非認識が生ずる。これらに対応するためには、1フレームの認識ロジックの閾値を調整する等、認識アルゴリズムのパラメータ調整が必要となる。
ここで、一般的な立体物認識処理においては、「物体を認識すること」を目的とした物体認識アルゴリズムが適用されている。この「物体を認識すること」を目的とした物体認識アルゴリズムの場合、上述のように様々な外光変化や認識対象の見え方の変化等に対する、ロバストで、認識率が最大となるパフォーマンスを得ることを目的として開発されている。すなわち、物体の見え方及び画像内の位置等に関わらず、1フレーム内に存在する物体をいかに多く正確に認識できるか、ということを目的として開発されている。このため、このアルゴリズムは、1フレーム内に存在する物体に対して、認識の優先順位は無く、全ての物体を均等に認識できるように、パラメータの調整等が施されている。
しかし、認識対象となる物体は、時間的な変化の中で、見え方が変わってしまうことが多く発生する。これは自車両等の制御対象も自律的に動いており、また、先行車両等の認識対象も自律的に動いているためである。例えば、先行車両が路面のカーブに沿って走行している場合、又は、先行車両が隣接する車線に車線変更した場合等である。このような状況下では、先行車両の見え方が変化するため、先行車両の非認識が多く発生する。そして、このような状況においても先行車両を認識可能なように認識アルゴリズムのパラメータを調整すると、例えば直線道路上の先行車両の認識を行っている場合でも非認識が発生する等のように、通常の状況においても非認識又は誤認識が発生する不都合を生ずるようになる。
このように、様々な状況下において、全ての認識対象を認識しようとすると(=認識対象の認識を目的としてパラメータの調整等を行った認識アルゴリズムは)、非認識と誤認識のトレードオフが発生し、膨大な開発工数及び開発時間をかけて非認識と誤認識のバランス設計を強いられることとなる。また、このようなバランス設計でパラメータの調整等を行ったにもかかわらず、通常の状況においても、非認識又は誤認識が発生する不都合を生ずる。
一方、例えば自動車の自動ブレーキシステム等の制御は、物体の一度の認識結果で行われるわけではなく、時間の経過と共に連続して認識した認識結果に基づいて、連続的に制御が行われる。このため、制御対象の制御を行う場合、制御の起因となる認識対象を、確実に認識して追尾することが重要となる。これは、自動車だけではなく、ロボット、農機、及び重機等においても同様である。すなわち、制御対象を制御することを目的とする場合は、全ての物体を均等に認識できればよいと言うわけではなく、制御の起因となる認識対象を、確実に認識して追尾することが重要となる。
また、制御対象の制御を目的とした物体認識を行う場合、
(1)認識対象には優先度を設けて認識を行うこと、
(2)一度認識した認識対象を非認識とすること無く、連続して認識(追尾:捕捉)可能
とすること、
(3)認識状態が不安定なものは制御対象とはしないこと、
(4)非認識及び誤認識の原因を特定可能とすること、
が好ましい。
(1)の優先度としては、目前の認識対象は優先度が高い認識対象となる。また、端の認識対象は、優先度が低い認識対象となる。(2)については、一度認識した対象を非認識としてしまうと、十分適切な制御を行うことができない。(3)の制御対象は、前述のハンチング等の不具合が生じる。(4)の原因の特定は、物体認識制御のプログラムの修正等を行う際に必要となる。例えば、自動車のブレーキを制御する走行安全システムにおいて、誤ブレーキ動作が発生した場合、原因を特定可能とすることは、プログラムの修正等を図るためにも重要なことである。このため、学習等の処理状態が不透明なアルゴリズムは、物体認識制御には採用し難い。また、上述したバランス設計においては、非認識が多少多くなっても誤認識を防止する方向に、物体認識制御の認識アルゴリズムが調整されることが多い。換言すると、誤認識による誤動作を防止して安全性を高めるように、物体認識制御の認識アルゴリズムが調整されることが多い。
このようなことから、第1の実施の形態の立体物認識装置は、まず、制御対象(例えば自車両)の走行速度等の「内的状況」、既認識された認識対象(先行車両、壁、道路等)の有無等の「外的状況」から、現在の状況を認識する。現状を認識できれば、例えば先行車両の陰から自車両の前に人が出てくること等が予測(次の事象を予測)できる。このため、以後の制御に予測結果を反映させることができる。例えば、安定的に認識されている認識対象は優先度が高いと判断し、多少の輝度変化等が発生しても認識できるように閾値を下げたシンプルなアルゴリズムを適用する。また、道路のカーブ等で認識対象(先行車両)の形状が変化し又は認識し難くなった場合でも、これらが予測した変化である場合は、積極的に認識を行う。すなわち、第1の実施の形態の立体物認識装置は、複数のアルゴリズム又はアルゴリズムのウェイトを、状況判断や予測に基づいて可変又は選択して用いる。これにより、物体の認識精度を飛躍的に向上させることができる。
閾値を変化させる以外には、例えば、通常の認識技術においては、路面上にある物体かどうか、対称性があるか否か、等の複数のアルゴリズムによるチェックを行ったりするが、安定的に認識されている対象に対しては、このアルゴリズムのいくつかを行わないことも考え得る。要は、撮像領域において認識される外的状況に基づいた未来の外的状況に応じて、異なる認識方法が用いられることが特徴である。
また、実施の形態の立体物認識装置は、所定の撮像フレームにおいて、前フレームで認識した既存物体の追跡を行ったあとに、既存物体を削除したうえで新規物体の認識を行う。安定的に認識されている既存物体を高精度に追跡し続け、新規物体の認識精度も高めることができる。
図2に、第1の実施の形態の立体物認識装置のハードウェア構成図を示す。この図2に示すように、第1の実施の形態の立体物認識装置は、ステレオカメラ部1と、情報処理部2とを有する。
ステレオカメラ部1は、左目用となる第1のカメラ部1aと、右目用となる第2のカメラ部1bとの、2台のカメラ部が平行に組みつけられて構成されている。各カメラ部1a,1bは、それぞれレンズ5、画像センサ6、センサコントローラ7を備えている。画像センサ6は、例えばCCDイメージセンサ又はCMOSイメージセンサとなっている。CCDは、「Charge Coupled Device」の略記である。また、CMOSは、「Complementary Metal-Oxide Semiconductor」の略記である。センサコントローラ7は、画像センサ6の露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う。
情報処理部2は、データバスライン10、シリアルバスライン11、CPU15、FPGA16、ROM17、RAM18、シリアルIF19、及びデータIF20を有している。CPUは、「Central Processing Unit」の略記である。FPGAは、「Field-Programmable Gate Array」の略記である。ROMは、「Read Only Memory」の略記である。RAMは、「Random Access Memory」の略記である。IFは、「interface」の略記である。
上述のステレオカメラ部1は、データバスライン10及びシリアルバスライン11を介して情報処理部2と接続されている。CPU15は、情報処理部2の全体の動作、画像処理、及び画像認識処理を実行制御する。各カメラ部1a,1bの画像センサ6で撮像された撮像画像の輝度画像データは、データバスライン10を介して情報処理部2のRAM18に書き込まれる。CPU15又はFPGA16からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、及び各種設定データ等は、シリアルバスライン11を介して送受信される。
FPGA16は、RAM18に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM18に再度書き込む。視差画像は距離画像の一例である。CPU15は、ステレオカメラ部1の各センサコントローラ7の制御、及び情報処理部2の全体的な制御を行う。また、ROM17には、後述する状況認識、予測、立体物認識等を実行するための立体物認識プログラムが記憶されている。立体物認識プログラムは、処理プログラムの一例である。CPU15は、データIF20を介して、例えば自車両のCAN情報(車速、加速度、舵角、ヨーレート等)をパラメータとして取得する。そして、CPU15は、ROM17に記憶されている立体物認識プログラムに従って、RAM18に記憶されている視差画像を用いて、状況認識等の各種処理を実行制御することで、例えば先行車両等の認識対象の認識を行う。CANは、「Controller Area Network」の略記である。
認識対象の認識データは、シリアルIF19を介して、例えば自動ブレーキシステム、又は、自動速度制御システム等の外部機器へ供給される。自動ブレーキシステムは、認識対象の認識データを用いて自車両のブレーキ制御を行う。また、自動速度制御システムは、認識対象の認識データを用いて自車両の速度制御を行う。
次に、第1の実施の形態の立体物認識装置は、人及び車等の立体物、及び、現在の状況をシーングラフで記述するようになっている。図3に、シーングラフの基本構造を、図4に、車のシーングラフの一例を示す。この図3及び図4からわかるように、シーングラフは、木構造で表現される。また、シーングラフは、例えばBIFS又はVRML等の言語を用いて記述される。BIFSは、「Binary Format for Scene description」の略記である。また、VRMLは、「Virtual Reality Modeling Language」の略記である。シーングラフでは、ノードと呼ばれる構成単位を階層的に組み合わせることで一つのグループを構成し、それらをまとめてシーン(状況)を構成する。ノードとは、光源、形状、材質、色、座標等をフィールドとして有する状況の構成単位であり、さらに下層のノードを持つことで階層化された記述となっている。
図5に、現在の状況を記述したシーングラフである「シーン状況モデル」の一例を示す。この図5のシーン状況モデルは、自車両の前方監視に有用な状況構成を記述した例である。この図5に示す例は、「背景物」、「道路」、及び「自車」の各ノードが記述されている。また、「背景物」のノードの下層には、「側壁」、「正面壁」、及び「屹立物」のノードが記述されている。各ノードは、例えば3次元位置、重心、相対速度、サイズ、信頼度等のエンティティを有する。また、ノードによっては、例えば道路の路面高さ、路端位置(走行可能領域)、又はカーブ曲率等の、ノード特有の情報を有する場合もある。
図6に、立体物を記述したシーングラフである「立体物モデル」の一例を示す。制御対象のブレーキ制御又はステアリング制御等による衝突回避を目的とするアプリケーションにおいては、最大の認識対象ターゲットは、人や車を含む立体物のグループに含まれる認識対象となる。第1の実施の形態の立体物認識装置は、上述のシーン状況モデルとは別に、立体物モデルを記述するようになっている。この図6に示す例は、「車」、「人」及び「その他の物体」の各ノードが記述されている。立体物モデルのノードは、例えば3次元位置、重心、相対速度、サイズ、信頼度等の、上述の背景物のエンティティと共通の構造を有し、また、詳細な立体物種別、及び移動方向等のエンティティも有するように記述される。立体物種別としては、例えば立体物が車である場合は、大型車、又は普通車等の種別が記述される。また、例えば立体物が人である場合は、大人、又は子供等の種別が記述される。
なお、上述の「シーン状況モデル」及び「立体物モデル」は、予め定義され、ROM17に記憶されている。また、シーン状況モデルで記述されるシーンは、具体的には、高速道路やスクールゾーン等の状況であり、立体物モデルで記述される各立体物は、具体的には、標識や信号等の静止物及び車や人等の動体物である。
自動ブレーキシステム、又は、自動速度制御システム等の制御対象においては、図6を用いて説明した立体物の認識結果が、図5を用いて説明したシーン状況モデルのCAN情報に含まれる位置及び速度から計算して危険と判断された際に、制御が実行される。また、背景物との衝突の危険が計算された場合も制御が実行される。第1の実施の形態の立体物認識装置は、次フレームにおける認識対象の優先度を、自車両の位置と道路情報を参酌し、認識された立体物(含背景物)に対する衝突の可能性を計算して決定する。
図5及び図6に示したシーン状況モデル及び立体物モデルは、ステレオカメラ部1で撮像される撮像画像のフレーム毎に認識されると共に、履歴情報として記録及びアップデートされ、全体が次の動作の予測に利用される。
図7に、第1の実施の形態の立体物認識装置のCPU15が立体物認識プログラムに従って動作することで実現される各機能の機能ブロック図を示す。図7に示すように、CPU15は、3次元情報化部32、車両情報(CAN情報)取得部33、シーン状況認識部34、及びシーン状況更新部35として機能する。また、CPU15は、状況予測部36、及び追跡認識部37、既検出除去部38、新規物体検出部39、及び立体物更新部40として機能する。なお、FPGA16は、図7に示す視差画像生成部31として機能し、上述のように視差画像(距離画像)を生成する。また、これら各部31〜40は、全てをソフトウェアで実現してもよいし、全て又は一部をハードウェアで実現してもよい。
このような立体物認識装置において、ステレオカメラ部1の各カメラ部1a,1bで撮像された、例えば前方の先行車両及び風景等の各撮像画像がRAM18に記憶されると、視差画像生成部31が、各撮像画像の視差を明るさに変換した、いわゆる視差画像を生成し、RAM18に記憶する。3次元情報化部32は、RAM18に記憶された視差画像から、3次元空間の情報を備えた3次元画像を生成し、RAM18に記憶する。
なお、この例においては、距離画像は、各カメラ部1a,1bの各撮像画像から生成された視差画像とした。この他、一例ではあるが、各立体物にレーダー波を照射し、立体物に反射されたレーダー波を受波するまでの時間から算出した、物体との間の距離を示す距離情報を、視差画像の代わりに用いてもよい。また、本明細書においては、視差画像を含め距離情報と画像情報が関連付けられたものを距離画像と定義する。
シーン状況認識部34は、車両情報取得部33で取得された現在の車両の状態(制御対象となる機器の動作状況を示す内的状況)を示すCAN情報から自車両の速度及び移動方向等を認識する。また、シーン状況認識部34は、3次元画像に含まれる背景物、道路、先行車両、人等の外的状況を認識する。シーン状況更新部35は、シーン状況認識部34の認識結果から、図5を用いて説明した現在の状況を示すシーン状況モデルを生成し、RAM18に記憶する。このような現在の状況の認識は、画像のフレーム毎に行われる。シーン状況更新部35は、現在の状況の認識が行われる毎に、RAM18のシーン状況モデルを更新する。
次に、状況予測部36は、現在の車両の状態を示すCAN情報、RAM18上で更新された現在の状況を示すシーン状況モデル、及び現在、認識している立体物以外の人、車両等の新たな立体物の現在の状況を示す立体物モデル(図6参照)を用いて、自車両、人、先行車両、側壁、道路等の状況を予測して予測情報を生成する。
追跡認識部37は、RAM18に記憶されている現在の視差画像内の立体物を認識すると共に、優先度が高い順に、いくつかの立体物を認識対象として認識する。追跡認識部37は、例えば自車両の目前の認識対象は優先度が高い認識対象となる。また、フレーム端の認識対象は、優先度が低い認識対象となる。
また、追跡認識部37は、RAM18に記憶されている現在の状況を示すシーン状況モデル、立体物モデル、及び状況予測部36からの予測結果を用いて、認識対象の認識方法で用いている閾値を変化させ、又は、異なる認識方法を適用する。例えば、安定的に認識されている認識対象は優先度が高いと判断し、多少の輝度変化等が発生しても認識できるように閾値を下げたシンプルなアルゴリズムを適用する。また、道路のカーブ等で認識対象(先行車両)の形状が変化し又は認識し難くなった場合でも、これらが予測した変化である場合は、積極的に認識を行う。
追跡認識部37は、複数のアルゴリズム又はアルゴリズムのウェイトを、状況判断や予測に基づいて可変又は選択して認識対象の認識を行う。これにより、微妙な輝度変化によりフレーム毎に認識又は非認識となっていた認識対象を、安定して認識し続ける(追跡する)ことができる。また、先行車両が道路のカーブを走行することで、形状が変化して見づらくなった場合でも、先行車両を安定して認識し続けることができる。
次に、既検出除去部38は、RAM18に記憶されている現在の視差画像内の物体のうち、追跡認識部37で追跡している認識対象を除去し、更新視差画像としてRAM18に記憶する。
新規物体検出部39は、追跡認識部37で追跡している認識対象を除去した更新視差画像内の車両又は人等の立体物を認識することで、追跡認識部37で現在、追跡している認識対象とは異なる新たな立体物を認識する。立体物更新部40は、RAM18に記憶されている図6に示した立体物モデルに、新規物体検出部39で認識された新たな立体物を反映させることで、RAM18に記憶されている立体物モデルを更新する。状況予測部36は、このように新たな立体物が反映されて更新された立体物モデルを用いて、状況の予測を行う。
また、立体物更新部40は、追跡認識部37からの認識対象の認識結果を、例えば自動ブレーキシステム、又は、自動速度制御システム等の制御対象となる外部機器へ供給する。これにより、認識対象の認識結果に応じて、自動的に車両のブレーキがかけられ、又は、車両の走行速度が自動的に調整される。
次に、状況予測部36における予測処理の詳細を説明する。状況予測部36は、「認識対象物位置」、「認識対象物形状変化率」、及び「認識対象物被遮蔽率」を算出する。追跡認識部37は、これらの演算結果を認識対象の状況予測結果として用いる。
まず、認識対象物位置は、カルマンフィルタ又はベイズフィルタ等を用いて算出することができる。また、ある時刻tにおける自車両の位置xf(t)、自車両の速度vf(t)、先行車両の位置xp(t)、及び、先行車両の速度vp(t)は、以下の数式で算出される。
xf(t)=xf(t-1)+vft+((aft2)/2)
vf(t)=vf(t-1)+aft
xp(t)=xp(t-1)+vpt+((apt2)/2)
vp(t)=vp(t-1)+apt
認識対象物の自車両からの相対的実座標位置は、「xp(t)−xf(t)」で表すことができる。「xp(t)−xf(t)」の数式で算出された自車両からの相対的実座標位置の3次元点を「(Xp,Yp,Zp)」とマップすると、時刻tにおける認識対象物の撮像内位置は、例えば以下の数式で算出される。
xpredict=f(Xp/Zp)
ypredict=f(Yp/Zp)
ここで、「xpredict,ypredict」を、撮像画像における認識対象物の重心位置と仮定すると、この対象物認識における予測処理領域の面積Pareaは、重心位置を中心に認識対象物のサイズ「xwidth,yheight」を用いて、物体全体を包含しつつ、例えば以下の数式で示すように設定される。
Parea=(xwidth+ω1/R+ω2E)×(yheight+ω1/R+ω2E)
この数式において、「R」は、t−1までの認識結果の信頼度を示し(安定的に認識されていた場合、高い信頼度)、「E」は認識誤差、「ω1,ω2」は、これらを反映させる重みを示す。この第1の実施の形態においては、一例としたx方向及びy方向共に同じ重みを適用している。x方向及びy方向、それぞれ異なる重みを適用してもよい。信頼度が低い場合又は認識誤差が高い場合は、より大きな範囲で認識を行う。なお、信頼度としては、対象が連続して認識されたフレーム数等を用いれば良い。
次に、認識対象物形状変化率「Δobj」は、例えば「XP,YP,ZP」をもとに、図6を用いて説明した立体物の移動方向(XP,YP,ZP)、及び図5を用いて説明した道路情報から、この位置にある道路曲率(C(XP,YP,ZP))、傾斜率(S(XP,YP,ZP))を計算し、以下の数式に示すように、これらを乗算して算出される。なお、道路曲率や傾斜率の算出には、参考文献1(特開2004−102421号公報)又は参考文献2(特開2014−006882号公報)に記載の方法、その他公知の方法が適宜に用いられる。
Δobj=C((XP+Xv),(YP+Yv),(ZP+Zv))×S((XP+Xv),(YP+Yv),(ZP+Zv))
実装する際には、「C」及び「S」に対して重み付けをしてもよく、また、正規化処理を施すことが望ましい。
同様に、認識対象物被遮蔽率「Hobj」は、例えば「XP,YP,ZP」、「XV,YV,ZV」をもとに、図5を用いて説明した背景情報から、この位置付近にある背景物及び他の立体物との位置関係を計算し、認識対象物の動きの軌跡から、背景物が認識対象物の前方に位置することとなるか否かを予測することで計算される。この予測は、下記の関数で表すことができる。
obj=Func(ΣDbo,ΣDoo,ΣRinfo)
ここで、「Dbo」は、「(XP,YP,ZP)、(XV,YV,ZV)」をもとに、背景物との位置関係の差分を算出した、背景物との距離を示す変数である。「Dbo」の値は、位置関係が重複していた場合、高い値となる。「Doo」は、「(XP,YP,ZP)、(XV,YV,ZV)」をもとに、他の立体物との位置関係の差分を算出した変数である。「Doo」の値は、位置関係が重複していた場合、高い値となる。「Rinfo」は、図5を用いて説明した道路情報(上述の「C」及び「S」をまとめたもの)である。なお、Hobjは、方向の情報を含むベクトル量である。どの方向から、どの程度遮蔽されるかを算出するため、遮蔽後の物体の形状が特定できる。また、状況予測部36は、これらに加えて、予測結果に基づき、認識対象物が他の認識対象物で遮蔽される割合を計算する。
これにより、認識対象物が他の認識対象物で遮蔽された際に認識可能となる認識対象物の形状がわかるため、認識対象物の認識率の向上を図ることができる。また、認識対象物が非認識となることなく、認識対象物を連続的に認識して追従可能とすることができる(認識対象物を見失うことなく追従可能とすることができる)。
このように状況予測部36は、例えばカルマンフィルタ等の、従来の追跡手法で用いられている認識対象物の位置予測と共に、状況を認識することで、認識対象物形状変化率及び認識対象物被遮蔽率を算出可能となる。このため、例えば認識対象物形状変化率又は認識対象物被遮蔽率が低い場合は、認識対象の認識方法を、シンプルで積極的に認識対象を認識する認識方法に変更できる。また、認識対象物形状変化率又は認識対象物被遮蔽率が高い場合には、算出された認識対象物形状変化率又は認識対象物被遮蔽率に合致した認識方法を選択して用いることができる。
次に、図8のフローチャートに、追跡認識部37が、状況予測部36からの予測結果に応じて、認識対象の認識方法の変更又は閾値の変更等を行う動作の流れを示す。追跡認識部37は、状況予測部36により、上述の認識対象物位置、認識対象物形状変化率、及び認識対象物被遮蔽率が算出されたタイミングで、図8のフローチャートにステップS11から処理を開始する。なお、認識対象物位置、認識対象物形状変化率、及び認識対象物被遮蔽率は、フレーム毎に算出される。このため、追跡認識部37は、図8のフローチャートに示す動作をフレーム毎に繰り返し実行する。
ステップS11では、追跡認識部37が、状況予測部36により算出された認識対象物形状変化率が、所定の閾値よりも高いか否かを判別する。認識対象物形状変化率が閾値よりも高いということは、現在、認識している認識対象の形状が、大きく変化していることを示す。このため、追跡認識部37は、認識対象物形状変化率が閾値よりも高い場合(ステップS11:Yes)、ステップS12に処理を進める。そして、例えば認識対象が先行車両の場合、追跡認識部37は、道路のカーブ用又は坂道の道路用の認識方法を選択し、又は、現在、実行している認識方法の閾値を、道路のカーブ用又は坂道の道路用の閾値に変更制御する。これにより、先行車両等の認識対象が、道路のカーブを走行し、又は、坂道を走行することで認識している形状が変化した場合でも、確実に捕捉して認識し続けることができる。
次に、ステップS11で認識対象物形状変化率が所定の閾値よりも低いものと判別した場合(ステップS11:No)、追跡認識部37は、処理をステップS13に進め、認識対象物被遮蔽率が、所定の閾値よりも高いか否かを判別する。例えば、現在の認識対象となっている先行車両の認識対象物被遮蔽率が閾値よりも高いということは、先行車両と自車両との間に、壁又は他の車両等の他の立体物が存在することを意味している。このため、認識対象物被遮蔽率が所定の閾値よりも高い場合(ステップS13:Yes)、ステップS14に処理を進め、認識対象の遮蔽面積に対応する認識方法を選択し、又は、現在、実行している認識方法の閾値を、認識対象の遮蔽面積に対応する閾値に変更制御する。これにより、先行車両が物陰に隠れ、又は、他の車両の陰に隠れた場合でも、確実に捕捉して認識し続けることができる。
次に、ステップS13で、認識対象物被遮蔽率が所定の閾値よりも低い場合(ステップS13:No)、追跡認識部37は、処理をステップS15に進め、立体物が安定的に検出できているか否かを判別する。具体的には、追跡認識部37は、例えば画像形状(輝度画像)、又は(及び)視差形状(視差画像)が、時間的に略々変化なく検出できているか否かを判別することにより、立体物が安定的に検出できているか否かを判別する。そして、追跡認識部37は、立体物が安定的に検出できているものと判別した場合(ステップS15:Yes)、ステップS16に処理を進め、立体物が安定的に検出できていないものと判別した場合(ステップS15:No)、ステップS17に処理を進める。
立体物が安定的に検出できているものと判別することで、処理をステップS16に進めると、追跡認識部37は、現在、認識対象の認識方法で用いている閾値を所定分低い値の閾値に変更する。これにより、認識対象の予測位置等を用いて、認識対象を、より正確に認識して追跡可能とすることができる。
また、立体物が安定的に検出できていないものと判別することで、処理をステップS17に進めると、追跡認識部37は、現在、認識対象の認識方法で用いている閾値を、標準値(初期値)に変更する。これにより、認識対象の予測位置等を用いて、標準となる閾値で認識対象の認識を行い、認識対象の安定した追跡を図る。
なお、図8のフローチャートの説明において、認識対象物形状変化率に応じた処理と、認識対象物被遮蔽率に応じた処理とは、それぞれ別個独立に実施されることとして説明した。しかし、これら各処理を複合してもよいし、これら各処理を含めた統合的判断処理を先に行ってもよい。
次に、以上説明した図8の処理フローの全体像を、図9を用いて再度説明する。すなわち、第1の実施の形態の立体物認識装置のCPU15は、立体物認識プログラムに従って動作することで、図9のステップS41に示すように、まず、外的状況を認識する。一例として、CPU15は、上述のステップS11で説明した認識対象物形状変化率、ステップS13で説明した認識対象物被遮蔽率、ステップS15で説明した立体物の検出状況等に応じて、外的状況を認識する。
次に、ステップS42において、CPU15は、認識した外的状況に基づいて、状況の予測を行う。具体的には、ステップS11及びステップS12で説明したように、認識対象物形状変化率が閾値よりも高いということは、先行車両等の認識対象が、道路のカーブを走行中であること、又は、坂道の走行中であることを予測できる。また、認識対象物被遮蔽率が閾値よりも高いということは、先行車両等の認識対象と自車両との間に、壁又は他の車両等の他の立体物の存在を予測できる。
次に、ステップS43では、予測した状況から認識方法を決定する。例えば、ステップS11及びステップS12で説明したように、認識対象物形状変化率が閾値よりも高い場合、CPU15は、道路のカーブ用又は坂道用の認識方法を選択する。又は、CPU15は、現在、実行している認識方法の閾値を、道路のカーブ用又は坂道用の閾値に変更する。そして、CPU15は、ステップS44において、選択した認識方法又は変更した閾値を用いて、既存物体である先行車両等の認識対象の追跡を行う。これにより、先行車両等の認識対象が、道路のカーブを走行し、又は、坂道を走行することで認識している形状が変化した場合でも、確実に捕捉して認識し続けることができる。
同様に、ステップS13及びステップS14を用いて説明したように、例えば先行車両の認識対象物被遮蔽率が閾値よりも高い場合、CPU15は、認識対象の遮蔽面積に対応する認識方法を選択する。又は、CPU15は、現在、実行している認識方法の閾値を、認識対象の遮蔽面積に対応する閾値に変更する。そして、CPU15は、ステップS44において、選択した認識方法又は変更した閾値を用いて、既存物体である先行車両等の認識対象の追跡を行う。これにより、先行車両が物陰に隠れ、又は、他の車両の陰に隠れた場合でも、確実に捕捉して認識し続けることができる。このように、第1の実施の形態の立体物認識装置においては、撮像領域において認識される外的状況に基づいた未来の外的状況に応じて、異なる認識方法又は異なる閾値が用いられる。
次に、CPU15は、所定の撮像フレームにおいて、前フレームで認識した既存物体の追跡(ステップS44)を行った後、ステップS45において、既存物体を削除したうえで、ステップS46において、新規物体の認識を行う。具体的には、図7を用いて説明したように、既検出除去部38が、RAM18に記憶されている現在の視差画像内の物体のうち、追跡認識部37で追跡している認識対象を除去し(ステップS45)、更新視差画像としてRAM18に記憶する。
新規物体検出部39は、追跡認識部37で追跡している認識対象を除去した更新視差画像内の車両又は人等の立体物を認識することで、追跡認識部37で現在、追跡している認識対象とは異なる新たな立体物を認識する(ステップS46)。立体物更新部40は、RAM18に記憶されている図6に示した立体物モデルに、新規物体検出部39で認識された新たな立体物を反映させることで、RAM18に記憶されている立体物モデルを更新する。状況予測部36は、このように新たな立体物が反映されて更新された立体物モデルを用いて、状況の予測を行う。これにより、安定的に認識されている既存物体を高精度に追跡し続け、新規物体の認識精度も高めることができる。
図10は、認識対象を追跡している画面の一例を示す図である。図10の(a)の符号を付した図は、ステレオカメラ部1で撮像されたステレオ画像を示している。また、図10の(b)の符号を付した図は、視差画像生成部31で生成された視差画像を示している。図10の(a)の符号を付した通常の撮像画像を参照しながら、図10の(b)の符号を付した視差画像を見ていただきたいのであるが、シーン状況認識部34は、道路の縁石50,51を認識することで、縁石50,51の間は、自車両が走行中の道路であることを認識する。また、縁石50,51に沿って壁部52,53が形成されていることを認識する。また、道路上において、自車両の前方を走行する先行車両54〜56を認識する。図10(a)の符号を付した図からわかるように、先行車両54は、乗り合いバスである。また、乗り合いバスと自車両との間を走行中の先行車両55は、オートバイである。また、この例において乗り合いバスとなっている先行車両54の前方の先行車両56は、軽自動車である。
このような状況において、従来、先行車両56の軽自動車のように、遠方の車両は、認識及び非認識が繰り返され、安定した認識及び追跡は困難であった。しかし、第1の実施の形態の立体物認識装置の場合、上述の予測結果を用いて安定して認識し続けることができる(追跡することができる)。また、この例の場合、オートバイである先行車両55に遮蔽された乗り合いバス(先行車両54)も、上述の認識対象物被遮蔽率等を計算した予測結果を用いることで、オートバイの動き及び乗り合いバスの動きを把握しながら安定して認識し続けることができる(追跡することができる)。
以上の説明から明らかなように、第1の実施の形態の立体物認識装置は、まず、自車両等の制御対象物が、現在どのような状況下にあるか、既検出された立体物があるか、それらが現在の状況下でどのような状態にあるか、等を状況認識する。すなわち、現在の状況を認識すると共に、未来的な状況を予測し、予測結果に応じた認識手法を選択的に用いて認識対象の認識を行い、又は、予測結果に応じて認識手法で用いている閾値等を変更して認識対象の認識を行う。これにより、微妙な輝度変化によってフレーム毎に認識/非認識を繰り返す立体物でも、安定して認識し続けることができる。また、先行車両が道路のカーブを走行することで、先行車両の形状が変化し、又は、壁等の陰になり見づらくなった場合でも、安定して認識し続けることができる。
(第2の実施の形態)
次に、第2の実施の形態となる立体認識装置の説明をする。第2の実施の形態の立体認識装置は、まず、制御対象物が、現在どのようなシーン状況下にあるか、既に検出された物体の有無、既に検出された物体が現在のシーン状況下でどのような状態にあるか、等を「移動体の背景となる静止物をモデル化した背景モデル(背景情報(静止物)モデル)」、「道路(移動面)モデル」及びそれぞれの「移動体の認識履歴」を利用して把握する。そして、把握した状況に応じて検出手法を変更しながら移動体(認識対象)の検出を行う。
すなわち、第2の実施の形態の立体認識装置は、立体物の検出時におけるシーン状況の認識に、モデル化した環境を用い、撮像されている物体間の3次元位置関係を把握する。そして、3次元位置関係の時間的変化の履歴から、現時点の物体認識を行う。なお、以下、「状況モデル」という文言は、例えば「認識対象となっている移動体の安定認識度」、「認識対象となっている移動体と背景モデルとの位置関係」、「認識対象となっている移動体と道路モデルとの位置関係」等の情報で表現される撮像環境の全体情報をさすこととする。
図11に、道路状況モデル(移動面状況モデル)の一例を示す。ここでの道路は、車両や人のような移動体がその上を移動する多少の凹凸を含む移動面を表わす。道路状況モデルにおいては、「道路幅」、「車線数」、「対向車線位置」、「自車線位置」、「カーブ情報」、及び「路面勾配」等のような認識情報が設定される。「道路幅」は、自車両60が走行している道路の道幅Wである。「車線数」は、自車両60が走行している道路の車線の数である。「対向車線位置」は、自車両60の走行方向に対して反対方向に走行する対向車の車線位置である。「自車線位置」は、自車両60が現在、走行中の位置Pである。「カーブ情報」は、カーブ入り口までの距離D、及びカーブの曲率Rである。
カーブ情報については、先行車両等の認識対象の姿勢変化を目的とした場合、自車両との関係から、姿勢変化の起きる可能性が検出できればよいため、それほどの精度は必要としない。また、図11の例では、カーブ情報の他に、道路の勾配情報も実装される。「路面勾配」は、図12に示すように自車両60の進行方向の道路を、自車両60からの距離に応じて分割されたセグメントSG毎に算出された近似曲線パラメータである。この近似曲線パラメータは、図11に示す左右の道路端LS,RS毎に算出される。例えば認識対象となっている先行車両の一部が隠蔽されていた場合に、このような先行車両の一部が隠蔽される状況は、下り坂等の影響であるか否かの状況認識を行う際に、勾配情報が利用される。
また、自車両の進行方向の車線が複数ある場合に、認識している先行車両が隣接車線に車線変更する可能性がある。この場合、先行車両の姿勢変化が発生する可能性、及び隣接車線を走行している他の車両の前に車線変更して走行位置を変えることで、認識対象となっている先行車両の一部が他の車両で隠蔽される可能性がある。「自車線位置」及び「車線数」等の車線情報は、このような状況認識に利用される。
このような各情報の制限値は、走行環境における道路法規等から設定される。また、視差によって得られる3次元情報によって、実撮像環境における道路モデルの実体が検出され適用される。
次に、図13に背景モデルの一例を示す。この例の背景モデルとしては、まず、自車両が移動可能な領域と自車両が移動困難な領域との境界を示す静止物境界領域が記載される。具体的には、図13の(a)の符号を付した図に示すように、自車両60の位置を上空から俯瞰した状態で、自車両60を中心に放射状に探索する。そして、自車両60の位置から見て、最近傍に位置する道路高さから換算して所定の高さ閾値以上の静止物の位置を静止物境界領域としている。静止物とは、自車両60に設けられたステレオカメラ部1で撮像を行った時点で静止している物体を意味する。このため、静止物は、撮像時に静止している、例えば壁、電柱、ガードレール、駐車車両等となる。静止物か否かを判断するために、例えばCANによる車両情報や背景モデルの履歴情報等が利用され得る。
すなわち、図13の(a)の符号を付した図は、自車両60を中心として、自車両60の移動方向を俯瞰した図である。図13の(a)の図中における矢印は、移動体が動いている方向を示している。この例では、2台数の先行車両61a,61b、1台の対向車両62、人間63a,63b.63cが移動体となっており、それぞれ矢印の方向に移動している。これらは移動体であるため、背景モデルには反映されない。これらは視差画像から検出される3次元位置から求められる。
これに対して、自車両60の進行方向側の道路における駐車車両64a〜64c、ガードレール65、車止め用のポール66、及び歩道の奥の壁67は、静止物となる。同様に、自車両60の進行方向に対して反対方向側の道路における車止め用のポール68a,68b、及びガードレール69は、静止物となる。
このような静止物境界領域を、XZ平面上にマッピングした図が、図13の(b)の符号を付した図である。図13の(b)の符号を付した図からわかるように、静止物境界領域をXZ平面上にマッピングした場合、各静止物の位置に、各静止物の高さに対応する線分が現れる。
第2の実施の形態の立体認識装置は、及び静止物体境界領域及び各静止物境界端位置の高さ情報で示される背景モデルと、上述の道路状況モデルとを用いて状況認識を行い、認識履歴のある移動体の認識結果を更新する。図14に、このような処理に対応する機能ブロック図を示す。図14の各機能は、第2の実施の形態の立体認識装置のCPU15が、立体物認識プログラムに従って動作することで実現される。なお、図14に示す各機能において、第1の実施の形態で説明した機能と同じ機能には、第1の実施の形態で説明した機能と同じ符号を付し、その詳細な説明は省略する。
図14に示すように、第2の実施の形態の立体認識装置は、視差画像生成部31、3次元情報化部32、車両情報取得部33、背景認識部71、道路認識部72、位置予測部73、及び動き予測部74を有している。また、立体認識装置は、追跡検出部75、状況認識部76、動体認識処理部77、及び認識結果更新部78を有している。視差画像生成部31は、距離画像取得部の一例となっている。また、図21又は図30を用いて後述するECU95が、制御部の一例となっている。なお、視差画像生成部31〜車両情報取得部33、及び、背景認識部71〜認識結果更新部78は、ソフトウェア的に実現されることとして説明を進めるが、全て又は一部をハードウェアで実現してもよい。
このような立体認識装置において、認識結果更新部78は、動き予測部74及び追跡検出部75により検出された移動体の追従結果に従って、RAM18に記憶されている移動体の認識結果を更新する。動き予測部74は、RAM18に記憶されている移動体の認識結果の履歴と、図11及び図12を用いて説明したように道路認識部72で検出された道路状況モデルと、図13を用いて説明したように背景認識部71で検出された背景モデルとを照合し、移動体がどのように見えるかを予測する。追跡検出部75は、動き予測部74の予測結果に応じて、移動体の追従に用いる認識手法を変更する。
具体的には、例えば直進路における先行車両等のように、検出している移動体の移動状況が、背景モデル及び道路状況モデルで示される現在の状況に影響されない場合、基本的に移動体の見え方は変化せず、移動体の移動による距離のみが変化する。この場合、動き予測部74からの予測結果も安定したものとなる。一例として、追跡検出部75は、RAM18の認識結果の履歴を用いて、フレーム間の移動体の視差形状特徴等のマッチング処理を行うことで、各移動体の動きを検出して追従している。追跡検出部75は、移動体に対する、安定的に検出されている履歴があり、かつ、背景モデル及び道路状況モデルからも、移動体の隠蔽又は姿勢変化が予測できない場合、上述の認識結果の履歴のマッチング処理で用いる閾値を低く設定する。これにより、安定的に検出されている移動体を、より安定して検出可能とすることができる。また、ステレオカメラブロック1のCMOSセンサのSN比の影響等で視差情報に微妙な誤差が生じていても、この誤差を吸収し安定した移動体の検出を可能とすることができる。
一方、例えば移動体がカーブしている道路を走行することで姿勢変化が生じ、追跡検出部75において、上述のマッチング処理による移動体の追従が困難となった場合、状況認識部76が、背景モデル、道路状況モデル、移動体の認識履歴を用いて、再度、移動体の現在の状況を認識し直す。そして、追跡検出部75は、再認識された移動体の現在の状況に応じて、移動体の認識処理の手法を、姿勢変化に対応する移動体の認識処理の手法に変更する。すなわち、この場合、動体認識処理部77は、再認識された移動体の現在の状況から、姿勢変化が生じている移動体をターゲットとして認識する。認識結果更新部78は、RAM18上の認識結果を更新する。また、位置予測部73及び動き予測部74は、RAM18の認識履歴を用いて、ターゲットとされた移動体の認識を継続する。これにより、追跡検出部75は、姿勢変化が生じている移動体の動きに追従して認識を継続することができる。
また、認識対象の移動体と隣接物体との位置関係から、認識対象の移動体が隣接物体で隠蔽される可能性があることが、状況認識部76で認識された場合、追跡検出部75は、移動体の認識処理の手法を、移動体の隠蔽に対応する認識処理の手法に変更する。すなわち、この場合、追跡検出部75は、RAM18の認識履歴を用いて、ターゲットとされた移動体の一部が隠蔽された場合でも、ターゲットとされている移動体の認識を継続する。これにより、追跡検出部75は、隠蔽が生ずる移動体の動きに追従して、ターゲットとなる移動体の認識を継続することができる。
例えば、図15の(a)及び(b)の各符号を付した図は、自車両60の前方を、オートバイ80、第1の先行車両81、及び第2の先行車両82が走行している状況を示している。すなわち、図15の(a)及び(b)の各符号を付した図は、オートバイ80が車線変更により第1の先行車両81と重なり、また、第1の先行車両81により隠蔽されていた第2の先行車両82が、車線変更により、第1の先行車両81の陰から現れた状況を示している。このような状況において、従来は、第1の先行車両81により隠蔽されている第2の先行車両82、及び第1の先行車両81に重なるオートバイ80は、従来、検出困難であった。
しかし、第2の実施の形態の立体認識装置の場合、移動体と前記背景モデルの相対的な位置関係に基づいて、移動体を検出する方法を変えている。すなわち、第2の実施の形態の立体認識装置の場合、認識対象となっている移動体が、現在どのようなシーン状況下にあるか、既検出された移動体があるか、それらが現在のシーン状況下でどのような状態にあるか、等を背景モデル(静止物モデル)、道路状況モデル、及び移動体の認識履歴を利用して把握する。そして、把握した状況に合った認識手法に変更して移動体の認識を行っている。このため、一部が隠蔽された移動体、及び微妙な輝度変化によりフレーム毎に検出及び非検出となる移動体でも、継続して認識して動きに追従することができる。また、道路のカーブ等を走行することで、認識対象となっている移動体の形状又は姿勢が変わった場合でも、安定的に移動体を検出し、動きに追従することができる。
また、図16の(a)〜(c)の符号を付した図は、人間63cの動きを示している。図16の(a)及び(b)の符号を付した図に示すように、人間63cが移動することで駐車車両64cの前方に隠れた場合であっても、追跡検出部75及び状況認識部76が、上述の背景モデル及び道路状況モデル等を用いて、一部隠蔽用の処理を行う。これにより、人間63cの動きを継続的に予測し認識することが可能になる。このため、図16の(c)の符号を付した図に示すように、人間63cが駐車車両64cの前方から自車両60の前方に移動した場合でも(人間63cが飛び出した場合でも)、ブレーキを自動制御して、自車両60を停止させることができる。
従来は、人間63cが駐車車両64cの影に隠れた時点で、認識が一度途切れてしまい、新たに人間63cの全身を認識できた時点で、あらためて追従を開始していた。このため、従来は、処理が間に合わない、又は、急ブレーキになる、等の不都合が生じていた。しかし、第2の実施の形態の立体認識装置の場合は、図21に示すECU95が、移動体の移動に、正確に追従して検出し、この検出結果に応じて、自動ブレーキシステム、自動速度制御システム、操舵制御部、又は、ヘッドマウントディスプレイ(HUD)96等を制御する。これにより、スムースかつ安全に自車両60を制御することができる。
(第3の実施の形態)
次に、第3の実施の形態となる立体認識装置の説明をする。第3の実施の形態の立体認識装置は、自車両の現在の状況から危険度を判定し、判定結果に応じて速度制御又はハンドル制御等の自車両の制御を行うものである。図17に、第3の実施の形態の立体認識装置において、CPU15が立体物認識プログラムに従って動作することで実現される各機能の機能ブロック図を示す。図17に示すように、第3の実施の形態の立体認識装置は、3次元情報化部86、3次元構造認識部87、画像認識部88、シーン認識部89、シチュエーション予測部90、シチュエーション認識部91、新規物体検出部92、及び危険度判定部93を有している。
3次元情報化部86は、ステレオカメラ部1により撮像された、例えば図18の(a)の符号を付した図に示す各視差画像85から算出した距離情報に対応する画像である、図18の(b)の符号を付した図に示す3次元復元画像を生成する。3次元復元画像にはX,Y,Z(縦,横,高さ)の各座標の情報が含まれているため、図18の(c)の符号を付した図に示すように、自車両の前方を俯瞰した図も得ることができる。3次元構造認識部87は、3次元復元画像から、図13を用いて説明した壁67、自車両が移動可能な領域と自車両が移動困難な領域との境界を示す静止物境界領域等の、自車両前方の3次元構造を認識する。
画像認識部88は、ステレオカメラ部1の撮像画像から生成された視差画像85と、予めモデル化されている路面標識、信号標識及び交通標識の画像とを比較する。そして、視差画像85中に含まれている路面標識、信号標識及び交通標識等の物標を抽出する。
シーン認識部89は、3次元構造認識部87で検出された3次元構造から、走行可能領域及び歩行者等の自車両前方の現在の状況(シーン)と共に、路面標識、信号標識及び交通標識等を認識する。図18の(d)の符号を付した図は、シーン認識部89により、自車両前方の道路が走行可能領域として認識されると共に、横断歩道86の路面標識が認識されたことを示している。シーン認識部89で認識された走行可能領域を示す情報、及び路面標識、信号標識及び交通標識等を示す情報は、シチュエーション認識部91に供給される。
シチュエーション認識部91は、移動体検出部の一例となっており、シチュエーション予測部90で取得された自車両のCAN情報(車速、加速度、舵角、ヨーレート等)を参照したうえで、路面標識、信号標識、交通標識、歩行者等を含む、自車両前方の現在の状況の認識結果を危険度判定部93に通知する。また、新規物体検出部92は、シチュエーション認識部91から自車両前方の現在の状況の認識結果を取得し、例えば自転車又は対向車等の新規な移動体を検出した場合に、危険度判定部93に通知する。危険度判定部93は、自車両前方の現在の状況の認識結果から危険度を算出する。
危険度は、例えば移動体と自車両との衝突可能性を表すものである。一例として、自車両の走行方向上に向かう動体ベクトルに対しては、高い危険度を算出する考え方が挙げられる。また、路肩又は歩道の直線に沿って平行に移動する移動体は、歩道に沿って移動している歩行者を意味するため、低い危険度を算出する。反対に、路肩又は歩道の直線を横切るかたちで移動する移動体は、歩道から車道に進入する歩行者を意味するため、高い危険度を算出する。危険度を算出するためのパラメータとして、例えば、「状況認識により求めた移動体の行動ベクトルの方向」、「状況認識により求めた移動体の行動ベクトルの大きさ」、「状況認識により求めた移動体の行動ベクトルの大きさで示される移動体の移動速度」、「状況認識により求めた移動体の行動ベクトルと自車両の進行方向の成す角度」、「自車両の速度及び加速度」、及び「移動体から自車両までの距離」等を用いることができる。これらのパラメータのいずれか、または、これらのパラメータを組み合わせることで危険度を算出する。
図19は、危険度判定部93における第1の危険度算出手法を説明するための図である。図19において、「X=0平面」は、自車両60が走行している道路の平面である。また、移動体90及び移動体91の矢印は、それぞれ移動体90及び移動体91の移動方向(行動ベクトルの方向)を示している。移動体90及び移動体91の移動方向を示す矢印上の丸印及び四角の印は、移動方向に対する危険度を示している。すなわち、移動方向が自車両60に近づく方向の場合は危険度が高いことを示す四角の印となっている。また、移動方向が自車両60から離れる方向の場合は危険度が低いことを示す丸印となっている。
危険度判定部93は、移動体90(又は、移動体91)の行動ベクトルV1の絶対値が第1の閾値Th1よりも小さな値であり(|V1|<Th1)、移動体90の位置のX成分の絶対値が第2の閾値Th2よりも小さな値である場合(|X|<Th2)、移動体90の危険度は、自車両60と移動体90との間の距離に応じて算出する。
また、危険度判定部93は、移動体90(又は、移動体91)の行動ベクトルV1が、自車両60が走行しているX=0平面に近づいている場合、移動体90(又は、移動体91)の行動ベクトルV1と自車両60の移動方向のベクトルとが成す角度をθとして、「危険度=(|V1|から成る式)×θから成る式)/(自車両と移動体との間の距離から成る式)」の演算式を用いて危険度を算出する。
また、危険度判定部93は、移動体90(又は、移動体91)の行動ベクトルV1が、自車両60が走行しているX=0の平面から遠ざかっている場合、「危険度=1」とする。なお、「1」の危険度は、危険度の最小値を示している。
このように危険度判定部93で算出される危険度としては、「移動体90(又は、移動体91)と自車両60との間の距離が小さく」、かつ、「移動体90(又は、移動体91)の行動ベクトルの方向がX=0平面に向いており」、かつ、「移動体90(又は、移動体91)の行動ベクトルの絶対値(|V|)の値が大きな値であり」、かつ、「移動体90(又は、移動体91)の行動ベクトルと自車両60の移動方向のベクトルの成す角(θ)が大きいほど、高い危険度が算出される。
次に、図20は、危険度判定部93における第2の危険度算出手法を説明するための図である。この図20に示す第2の危険度算出手法は、予め作成しておいた危険度別空間領域上における移動体90(又は、移動体91)の位置で、危険度を決定するものである。図20に示す例の場合、遠い位置から自車両60に近づくに連れ、危険度1(危険度最小)、危険度2・・・危険度N−1、危険度N(危険度最大)とのように、危険度別に空間領域が分割されている。
また、自車両60の移動方向に対する、移動体90(又は、移動体91)の行動ベクトルの向き及び大きさに応じて、各危険度1〜危険度Nに重み付けがされている。図20において、危険度1〜危険度Nの各領域が、自車両60の進行方向に対して所定の角度を成す直線(直線以外の線でもよい)で分割されていることは、各危険度1〜危険度Nに重み付けがされていることを示している。
危険度判定部93は、図20に示す危険度算出手法を用いた場合、自車両60と移動体90(又は、移動体91)との間の距離、及び、自車両60の移動方向に対する、移動体90(又は、移動体91)の行動ベクトルの向き及び大きさに応じて危険度を算出する。
例えば、図18の(e)及び(f)の符号を付した図の例において、矢印の方向は、歩行者区分の通行領域を通行する歩行者の移動方向を示している。また、図18の(f)の符号を付した図は、図18の(e)の符号を付した図よりも時間的に後の図となっている。この図18の(e)及び(f)の符号を付した図に示す例の場合、横断歩道86上には歩行者は存在しない。また、同図中右側に複数の矢印で示されている複数の歩行者は、横断歩道86から遠ざかる方向に歩行している。また、同図中左側に単数の矢印で示されている歩行者は、自車両に対して並行方向に歩行しているが、自車両との間には十分な距離が確保されている。この場合、危険度判定部93は、低い危険度を示す危険度判定情報を出力する。
これに対して、例えば歩行者が横断歩道86上を歩行している場合、歩行者が横断歩道86に近づいている場合、自車両と歩行者との間に十分な距離が確保されていない場合、自車両がスクールゾーンを走行中の場合等には、危険度判定部93は、高い危険度を示す危険度判定情報を出力する。
危険度判定部93からの危険度判定情報は、図2に示すシリアルIF19を介して、例えば自動ブレーキシステム又は自動速度制御システム等の外部機器へ供給される。自動ブレーキシステムは、上述の認識対象の認識データ及び危険度判定情報等を用いて自車両のブレーキ制御を行う。また、自動速度制御システムは、認識対象の認識データを用いて自車両の速度制御を行う。自動ブレーキシステム又は自動速度制御システムは、危険度に応じて、段階的に自車両にブレーキをかけて走行速度を調整する。例えば、高い危険度を示す危険度判定情報が供給された場合、自動ブレーキシステム又は自動速度制御システムは、自車両の走行速度が安全な走行速度となるまで、自動的にブレーキをかけて減速する。
ここで、危険度判定部93は、画像認識部88により視差画像85から認識された路面標識、信号標識又は交通標識等の、危険度に関する画像に応じて、危険度の判断基準を変更する。一例ではあるが、路上に表示されている「スクールゾーン」の文字又は標識が画像認識部88により認識された場合、危険度判定部93は、危険度をレベル分けする閾値を、低い値に変更して危険度のレベル分けを行う。
これにより、危険度の判断基準を低くすることができ、「スクールゾーン」の文字又は標識が表示されている路上又は近辺を移動する移動体に対して、高い危険度の判定を得易くすることができる。そして、子供の飛び出し等の状況が頻繁に起こり得るスクールゾーンにおいて、高い危険度の判定により、自動ブレーキシステム又は自動速度制御システムを作動させ、自車両の走行速度を安全な走行速度まで減速できる。また、運転者に対して高度な注意を喚起することができ、安全性を十分に担保可能とする危険度予測を可能とすることができる。
また、「スクールゾーン」以外であっても、例えばT字路又は交差点等の路上に書かれている「停止」、「危い」、「交差点注意」等の文字、停止線及び横断歩道等の記号が画像認識部88で認識された際に、危険度判定部93は、危険度をレベル分けする閾値を、低い値に変更して危険度のレベル分けを行う。これにより、T字路又は交差点等の路上又は近辺を移動する移動体に対して、高い危険度の判定を得易くすることができる。このため、高い危険度の判定により、被制御部の一例である自動ブレーキシステム又は自動速度制御システムを作動させ、自車両の走行速度を安全な走行速度まで減速できる。また、例えば人、車両、自転車又はオートバイ等が、運転者の視界の外から自車両の前方に移動する危険性に対する注意を、運転者に喚起できる。また、状況変化が頻繁に起こり得る交差点等に対して、安全性を十分に担保可能な危険度予測を可能とすることができる。
なお、上述の例は、危険度の判断基準を低くする例であったが、例えば見渡しの良い道路で、歩行者、障害物、標識等が画像認識部88で認識されない場合、危険度判定部93は、危険度をレベル分けする閾値を、高い値に変更して危険度のレベル分けを行う。これにより、危険度の判断基準を高くすることができ、自車両の周囲の移動体に対して、低い危険度の判定を得易くして、運転者の略々自由な運転を可能とすることができる。また、危険度は、走行速度の制御以外に用いてもよい。例えば、危険度判定情報を、被制御部の一例である操舵制御部に供給し、危険度の高い移動体に対して安全性を確保するハンドル制御を行ってもよい。
以上の説明から明らかなように、第3の実施の形態の立体認識装置は、自車両の現在の状況から危険度を判定し、判定結果に応じて速度制御又はハンドル制御等の自車両の制御を行う。また、視差画像85から認識された物標等の危険度に関する画像から危険度の判断基準を変更して、自車両の制御を行う。これにより、安全性を十分に担保可能な危険度予測を可能とすることができる他、上述の各実施の形態と同様の効果を得ることができる。
(第4の実施の形態)
次に、第4の実施の形態となる立体認識装置の説明をする。第4の実施の形態の立体認識装置は、ヘッドアップディスプレイ(HUD)を介して、運転者の視界に、道路状況及び危険度(危険度判定情報)から判断した運転情報を表示するものである。図21に、第4の実施の形態の立体認識装置のハードウェア構成を示す。図21に示すように、第4の実施の形態の立体認識装置は、車両のECU95、及びヘッドアップディスプレイ(HUD)96を有している。また、立体認識装置は、ステレオカメラ部1を備えた情報処理部2、及び運転者を撮像するドライバモニタカメラ部97を有している。ECU95は、制御部の一例である。また、HUD96は、被制御部の一例である。
情報処理部2は、ステレオカメラ部1で撮像された視差画像に基づいて、上述のように車両前方の状況(移動体と、背景及び道路等の静止物との位置関係)を認識し、その認識結果及び危険度判定情報をECU95に供給する。ECU95はHUD96を制御することで、情報処理部2で算出された道路状況及び危険度判定情報で示される危険度等を、運転者の視界に重畳して表示する。ドライバモニタカメラ部97は、運転者の両眼近傍を画角に捉える形態で配置されており、運転者の視線方向を検出する。図21では、ドライバモニタカメラ部97は、運転者の頭上に配置されているが、視線方向の検出できれば、どこに配置してもよい。
HUD96は、例えばダッシュボード内に埋め込まれた光学システムであり、内部で生成した中間像をミラー及びレンズ等で拡大した虚像とし、運転者の視点から所定の距離感を持って画像を表示するモジュールである。HUD96の実現形態はパネル投射型又はレーザ走査型の形態があるが、どちらを用いてもよい。レーザ走査型のHUDは、虚像の広角化が可能であり、また、外光に対してロバストな高輝度画像を表示できる。このため、一例ではあるが、実施の形態の立体認識装置においては、HUD96として、レーザ走査型のHUDが設けられている。
図22は、レーザ走査型のHUD96のハードウェア構成を示す図である。図22に示すように、HUD96は、光源走査部100によりR(赤),G(緑),B(青)の3色のレーザが合成される。3色の混合レーザは、光偏向器101の反射面に向かって導かれる。光偏向器101は、直交する2軸に対して揺動する単一の微小なミラーか、1軸に揺動/回動するミラー二つから成るミラー系であってもよい。光偏向器101は半導体プロセス等で作製されたMEMS(Micro Electro Mechanical Systems)である。光偏向器101により偏向された光束は、凹面ミラー102により折り返され、被走査面103に2次元像を描画する。
被走査面103はレーザを所望の発散角で発散させる。被走査面103としては、マイクロレンズアレイ構造が好適である。被走査面103から射出された光束は、凹面ミラー104及び半透過ミラー105により拡大表示される。なお、レンズ及びプリズム等の透過型光学素子を設けてもよい。
次に、図23のフローチャートに、HUD96による運転情報の表示動作の流れを示す。ステップS21では、情報処理部2が、第1の実施の形態及び第2の実施の形態で説明したように、先行車両の移動状態、及び、道路状況等の情報認識を行う。また、ステップS22では、情報処理部2が、第3の実施の形態で説明したように、移動体の危険度に基づく危険座標(領域)を判断する。さらに、ステップS23では、情報処理部2が、ステップS21で認識した現在の状況、及びステップS22で判断した危険領域から、自車両の通行可能領域を判断する。そして、ステップS24では、HUD96が、情報処理部2が道路状況及び危険度等から判断した運転情報を、運転者の視界に表示する。
具体的には、危険度が低いことを示す危険度レベル情報を含む危険度判定情報が供給された場合、ECU95は、例えば「現在、危険度は低いですが、周囲の状況に十分注意をして運転してください」等のメッセージを、HUD96を介して表示する。これに対して、例えば歩行者が横断歩道86に近づいている場合、ECU95は、例えば「歩行者が横断歩道に近づいています。歩行者の横断に注意してください」等のメッセージを、HUD96を介して表示する。これにより、運転者に対して、危険を知らせて注意を喚起することができ、安全運転に貢献できる。
ここで、危険度判定部93は、画像認識部88により視差画像85から認識された路面標識、信号標識又は交通標識等の、危険度に関する画像に応じて、危険度の判断基準を変更する。一例ではあるが、路上に表示されている「スクールゾーン」の文字又は標識が画像認識部88により認識された場合、危険度判定部93は、危険度をレベル分けする閾値を、低い値に変更して危険度のレベル分けを行う。
これにより、危険度の判断基準を低くすることができ、「スクールゾーン」の文字又は標識が表示されている路上又は近辺を移動する移動体に対して、高い危険度の判定を得易くすることができる。そして、子供の飛び出し等の状況が頻繁に起こり得るスクールゾーンにおいても、高い危険度の判定により、運転者に対して高度な注意を喚起することができ、安全性を十分に担保可能とする危険度予測を可能とすることができる。
また、「スクールゾーン」以外であっても、例えばT字路又は交差点等の路上に書かれている「停止」、「危い」、「交差点注意」等の文字、停止線及び横断歩道等の記号が画像認識部88で認識された際に、危険度判定部93は、危険度をレベル分けする閾値を、低い値に変更して危険度のレベル分けを行う。これにより、T字路又は交差点等の路上又は近辺を移動する移動体に対して、高い危険度の判定を得易くすることができる。このため、例えば人、車両、自転車又はオートバイ等が、運転者の視界の外から自車両の前方に移動する危険性に対する注意を、運転者に喚起できる。また、状況変化が頻繁に起こり得る交差点等に対して、安全性を十分に担保可能な危険度予測を可能とすることができる。
なお、上述の例は、危険度の判断基準を低くする例であったが、例えば見渡しの良い道路で、歩行者、障害物、標識等が画像認識部88で認識されない場合、危険度判定部93は、危険度をレベル分けする閾値を、高い値に変更して危険度のレベル分けを行う。これにより、危険度の判断基準を高くすることができ、自車両の周囲の移動体に対して、低い危険度の判定を得易くして、運転者の略々自由な運転を可能とすることができる。
また、この例では、HUD96を介して表示を行うこととして説明を進めるが、スピーカ部を介した音声出力、発光ダイオード(発光部)の発光制御、又は、バイブレータの振動制御等により、危険度判定情報に対応する報知を行ってもよい。すなわち、ディスプレイ、スピーカ部、発光部又はバイブレータ等の報知部を介して、危険度判定情報に対応する報知を行ってもよい。
以下、情報処理部2がHUD96を介して行う具体的な表示例を説明する。まず、図24は、自車両の前方に停止している停止車両110を追い越そうとした際に、対向車111が認識された場合の表示例である。この場合、情報処理部2は、対向車111の減速の度合いから、対向車111が停止するか、又は、走行を継続するか、を予測する。対向車111が停止するものと予測した場合には、情報処理部2は、HUD96を介して予測停止線を表示する。また、情報処理部2は、対向車111の相対速度を計算し、停止位置を予測し、HUD96を介して路面に塗りつぶし部112を表示する。
この場合、情報処理部2は、図象の方向性表現と奥行き感の誘起のために、自車両に向かって濃度が変化するグラデーション表現で塗りつぶし部112を表示してもよい。また、情報処理部2は、対向車111から自車両に向かって掃印するように塗りつぶし部112をアニメーション表示してもよい。
また、情報処理部2は、塗りつぶし部112の代わりに、線状の予測停止線を表示してもよい。この場合、予測停止線を可視化することができる。また、虚像である塗りつぶし部112により、運転者の視界を過剰に占有する不都合を防止でき、煩わしさを低減できる。
また、情報処理部2は、対向車111が停止する予測の場合には、停止車両110の追い越しを促す矢印を表示してもよい。塗りつぶし部112又は予測停止線が表示されることで、運転者が次の行動の判断に迷うことも懸念される。しかし、追い越しを促す矢印を表示することで、運転者に対して、安全に追い越し可能であることを知らせることができ、積極的な行動を促すことができる。さらに、追い越しを促す矢印を表示することで、塗りつぶし部112又は予測停止線との区別が明確となり、運転者の混乱を防止できる。
次に、例えば自車両から十分に離れた位置を等速移動する自転車が認識された場合、情報処理部2はHUD96を介して、歩行者又は自転車の進行方向に沿って輝度が増すグラデーション表示を行う。歩行者又は自転車の進行方向に対して反対方向に沿って輝度が増すグラデーション表示を行うと、「歩行者又は自転車が自車両に向かっている」と、運転者が誤解して、不要な警戒心を誘発するおそれがある。このため、歩行者又は自転車の進行方向に沿って輝度が増すグラデーション表示を行うことで、歩行者又は自転車の存在及び進行方向を運転者に知らせることができる。
次に、図25に、前方を走行する自転車に自車両が接近した際に、自転車が急にふらついて車道方向へ移動を開始した場合の表示例である。この場合、情報処理部2は、自車両の進行方向に対して横方向への自車両及び自転車の急な相対速度の変化を検出する。また、情報処理部2は、自車両と自転車との間の距離が近いことから、高い危険度を算出する。この場合、情報処理部2は、図25に示すようにHUD96を介して自転車の動きを予測した行動ベクトル群を、回避領域を示す警戒情報として表示する。一例ではあるが、この行動ベクトル群は、自転車から自車両が走行している道路側へ広がる波紋(法線群115)の画像となっている。この法線群115は、固定的な画像として表示してもよいし、自転車から道路側へ広がるようにアニメーション表示してもよい。
自転車の行動ベクトルを方向性のある矢印で表現すると、対象を中心として放射する行動ベクトルの束となって表示することとなるため、回避領域が直感的に把握しにくくなるおそれがある。しかし、自転車の行動ベクトルを法線群115で表示することで、回避領域を運転者に対して明確に知らせることができ、運転者が自車両と自転車との間合いを把握可能とすることができる。
なお、情報処理部2は、自転車の移動軌跡よりも高い輝度で法線群115を表示する。自転車の移動軌跡に対して輝度差を設けて法線群115を表示することで、法線群115が自転車につきまとう印象を運転者に与える不都合を防止できる。また、危険な状態包帯であることを運転者に知らせることができる。
また、情報処理部2は、例えば危険度が低い場合は青の法線群115を表示し、危険度が中程度の場合は黄色の法線群115を表示し、危険度が高い場合は赤色の法線群115を表示する。すなわち、情報処理部2は、危険度に応じた色で法線群115を表示する。これにより、法線群115の表示色で、運転者に対して危険度を知らせることができる。
次に、情報処理部2は、隣接する車線を走行していた先行車両があると、上述のように、この先行車両を認識し追従を開始する。このため、自車両と先行車両とが並走することで、ステレオカメラ部1で先行車両の一部しか撮像できない状態となった場合でも、情報処理部2は、先行車両の動きに追従できる。このような状態において、一旦、自車両の後方に位置することとなった先行車両(以下、追い越し車両という)が自車両を追い越そうとした場合、情報処理部2は、自車両と追い越し車両との相対速度から、追い越し車両が自車両を追い越すことが予測される行動ベクトルを検出する。そして、情報処理部2は、後方から追い越しを行う追い越し車両の予測される移動経路(仮想路線)を、HUD96を介して表示する。
図26、図27の(a)及び(b)の符号を付した図は、自車両を追い越すことが予測される追い越し車両の仮想路線の表示例を示している。情報処理部2は、自車両を追い越すことが予測される行動ベクトルを検出すると、図26に示すように自車両の走行ラインに隣接する隣接ライン上に、追い越しを行う可能性がある追い越し車両が存在することを示す帯状の仮想路線120を表示する。一例ではあるが、情報処理部2は、例えば高い輝度で、かつ、赤色の帯状の仮想路線120を表示する。なお、仮想路線120を通常の輝度で表示してもよいし、赤色以外の色で表示してもよい。このような仮想路線120を表示することで、自車両の運転者に対して、追い越し車両の存在を知らせることができる。また、情報処理部2は、移動経路120を表示すると共に、ECU95に対して、自車両の加速を禁止する情報を供給する。これにより、自車両の安全性を確保できる。
次に、追い越し車両が自車両に対してさらに近づいた場合、情報処理部2は、図27の(a)の符号を付した図に示すように、隣接する走行ラインから自車両の走行ラインにかけて帯状の仮想路線120を表示する。これにより、自車両の運転者に対して、隣接する走行ラインから、自車両の前方に追い越し車両が車線変更する可能性があることを知らせることができる。また、運転者は、自車両の前方に追い越し車両が車線変更する可能性を認識できるため、自車両の加速を直感的に抑えることができる。なお、このような仮想路線120と共に、例えば「後方車接近注意」等の追い越し車両の接近を知らせる文字又はアイコン等の警告の表示を行ってもよい。
次に、追い越し車両が自車両を追い越し、車線変更を開始すると、情報処理部2は、図27の(b)の符号を付した図に示すように、予測される追い越し車両の移動経路に沿って、帯状の仮想路線120を表示する。これにより、自車両の運転者は、追い越し車両の車線変更を妨害しないように、自車両を減速する等の安全運転を行うことができる。
なお、情報処理部2は、仮想路線120の表示後に、運転者が自車両の走行速度の減速を検出し、自車両の走行速度が所定の走行速度以下となった際に、表示している仮想路線120を非表示とする。
次に、走行ラインを認識困難な道路が存在する。例えば、図28に示す例は、前方にカーブしている複数車線の道路であり、左側の道路124は駐車場に入るための道路となっており、道路124に隣接する中央の道路が、先に続く道路126となっている道路である。このような道路において、情報処理部2は、第3の実施の形態で説明したように、道路上に書かれている文字を認識することで、左側の道路124は駐車場に入るための道路であることを認識する。そして、この場合、情報処理部2は、先に続く道路126に沿って帯状の誘導ライン125を、HUD96を介して表示する。これにより、ライン設定が複雑な道路においても、運転者に対して先に続く正しいラインを明示できる。
次に、店舗等が、店舗の近くを走行している車両に対して宣伝情報等を無線通信で送信している場合がある。このような無線通信情報を受信した場合、ECU95は、HUD96を介して表示する。図29の例は、○○商店の近くを走行中に、○○商店がセール中であることを示す宣伝情報を受信した場合の表示例である。この場合、情報処理部2は、受信した「○○商店セール中」等の情報を、HUD96を介して表示する。これにより、運転者は、○○商店の近くを走行しただけで、○○商店がセール中であることを知ることができ、○○商店に立ち寄って所望の商品を購入する等の適切な行動をとることができる。
このように第4の実施の形態の立体認識装置は、道路環境及び自車両の現在の状況等を適切に認識し、HUD96によって運転者の視界に直感的に認識可能な運転情報を表示できる。このため、運転者の安全運手をサポートすることができる。
(第5の実施の形態)
次に、第5の実施の形態となる立体認識装置の説明をする。この第5の実施の形態の立体認識装置は、ナビゲーション装置の検索ルートを、道路状況に応じて再検索させると共に、HUD96上に道路状況等の応じた運転情報を表示するものである。
図30に、第5の実施の形態の立体認識装置のハードウェア構成を示す。図30に示すように、第5の実施の形態の立体認識装置は、第4の実施の形態で説明した車両のECU95、及びHUD96を有している。また、第5の実施の形態の立体認識装置は、ステレオカメラ部1を備えた情報処理部2、運転者を撮像するドライバモニタカメラ部97、及び目的地までのルート表示を行うナビゲーション部130を有している。ナビゲーション部130は、運転者により入力された目的地までのルートを、HUD96を介して表示するようになっている。
図31のフローチャートに、第5の実施の形態の立体認識装置の動作の流れを示す。運転者によりナビゲーション部130に対して目的地が入力され、ナビゲーション部130により目的地までのルートが検索され、HUD96に検索されたルートが表示されると、図31のフローチャートの処理が開始される。
図31のフローチャートの処理が開始されると、情報処理部2は、第3の実施の形態で説明したように、ステップS31で状況認識を行い、ステップS32で自車両が走行している道路等の危険度を判断する。そして、情報処理部2は、ステップS33において、ステップS31及びステップS32で検出された道路状況及び危険度を用いて、これから走行しようとしている道路が安全に通行可能であるか否かを判別する。なお、ここでいう「これから走行しようとしている道路」は、ステレオカメラ部1の撮像画像から生成された視差画像から判断可能な範囲内の道路を意味している。ステップS33において、情報処理部2により、これから走行しようとしている道路が安全に通行可能であると判別された場合には(ステップS33:Yes)、ステップS34に処理が進み、情報処理部2は、ナビゲーション部130によりルートが表示されている画面上に、HUD96を介して安全に通行可能であることを示す通行可能表示を行う。
これに対して、ステップS33において、情報処理部2により、これから走行しようとしている道路を安全に通行することは困難であると判別された場合(ステップS33:No)、ステップS35に処理が進む。ステップS35では、情報処理部2が、ナビゲーション部130によりルートが表示されている画面上に、HUD96を介して通行困難であることを示す通行不可表示を行う。これと共に、情報処理部2は、ステップS35において、ナビゲーション部130に対してルートの再検索要求を行う。ナビゲーション部130は、ルートの再検索要求を受信すると、ステップS36において、ルートの再検索を行い、ステップS37において、再検索したルートを、HUD96を介して表示する。
このように第5の実施の形態の立体認識装置は、道路状況に応じて、ナビゲーション部130で検索されたルートを再検索してHUD96を介して表示する。これにより、ナビゲーション部130で検索されたルートが、走行に適さない場合は、即座にリルートして、走行に適したルートを運転者に提示できる。このため、運転者の安全運転に寄与できる。
なお、上述した実施形態では危険度を用いてルート再検索の判断を行っているが、これに限らず、他の情報を用いても良い。例えば、図13において説明したような背景モデル(静止物境界領域)の情報と、自車両の幅の情報を用いることができる。自車両の進行方向にある静止物間の距離が自車両の幅よりも狭い場合にルートの再検索を行う。このとき、自車両の幅よりも少し広い幅を設定し、この幅が静止物間の距離よりも狭い場合にルートの再検索を行うのが良い。なお、幅だけでなく、高さ方向にも同様の処理が利用され得る。また、ステレオカメラ等の撮像装置を用いずとも、例えばレーダー等によって周囲の環境を検出するのに十分な情報を取得できる場合には、画像の情報を用いる必要はない。
上述の各実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。各実施の形態及び各実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
例えば図14及び図17等を用いて説明した上述の各実施の形態の各機能は、立体物認識プログラムによりソフトウェア的に実現されることとしたが、一部又は全部を、例えばIC(Integrated Circuit:集積回路)等のハードウェアで実現してもよい。
また、立体物認識プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、CD−R、DVD、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、インターネット等のネットワーク経由でインストールするかたちで提供してもよい。また、機器内のROM等に予め組み込んで提供してもよい。DVDは、「Digital Versatile Disk」の略記である。
また、上述の各実施の形態の説明では、視差画像は、ステレオカメラ部1で撮像された画像から生成することとした。しかし、視差を形成するように一つのカメラ部の撮像位置を移動して撮像した複数の画像から、視差画像を生成してもよい。
1 ステレオカメラ部
2 情報処理部
5 レンズ
6 画像センサ
7 センサコントローラ
10 データバスライン
11 シリアルバスライン
15 CPU
16 FPGA
17 ROM
18 RAM
19 シリアルIF
20 データIF
31 視差画像生成部
32 3次元情報化部
33 車両情報(CAN情報)取得部
34 シーン状況認識部
35 シーン状況更新部
36 状況予測部
37 追跡認識部
38 既検出除去部
39 新規物体検出部
40 立体物更新部
60 自車両
71 背景認識部
72 道路認識部
73 位置予測部
74 動き予測部
75 追跡検出部
76 状況認識部
77 動体認識処理部
78 認識結果更新部
85 視差画像
86 3次元情報化部
87 3次元構造認識部
88 画像認識部
89 シーン認識部
90 シチュエーション予測部
91 シチュエーション認識部
92 新規物体検出部
93 危険度判定部
95 ECU
96 ヘッドアップディスプレイ(HUD)
97 ドライバモニタカメラ部
130 ナビゲーション部
特開2000−266539号公報

Claims (13)

  1. 各画素の距離情報を含む距離画像を取得する距離画像取得部と、
    前記距離画像から少なくとも移動体を検出する移動体検出部と、
    前記距離画像を用いて、少なくとも前記移動体の危険度を判定し、前記危険度に応じて被制御部を制御する制御部に対して、前記危険度を出力する危険度判定部と
    を有する処理装置。
  2. 前記移動体の行動ベクトルを検出する行動ベクトル検出部を、さらに備え、
    前記危険度判定部は、前記行動ベクトルを用いて前記移動体の危険度を判定すること
    を特徴とする請求項1に記載の処理装置。
  3. 前記危険度判定部は、前記行動ベクトルの向きで示される前記移動体の移動方向、及び前記行動ベクトルの大きさで示される前記移動体の移動速度から前記移動体の危険度を判定すること
    を特徴とする請求項2に記載の処理装置。
  4. 前記危険度判定部は、前記移動体との間の距離、前記行動ベクトルの向きで示される前記移動体の移動方向、及び前記行動ベクトルの大きさで示される前記移動体の移動速度から前記移動体の危険度を判定すること
    を特徴とする請求項2に記載の処理装置。
  5. 前記危険度判定部は、前記移動体との間の距離、前記移動体との間の角度、前記行動ベクトルの向きで示される前記移動体の移動方向、及び前記行動ベクトルの大きさで示される前記移動体の移動速度から前記移動体の危険度を判定すること
    を特徴とする請求項2に記載の処理装置。
  6. 前記危険度判定部は、前記移動体との間の距離に応じて予め設定されている危険度を、前記移動体の危険度として判定すること
    を特徴とする請求項2に記載の処理装置。
  7. 前記危険度判定部は、前記移動体との間の距離及び角度に応じて予め設定されている危険度を、前記移動体の危険度として判定すること
    を特徴とする請求項2に記載の処理装置。
  8. 前記距離画像から危険度に関する画像を認識する画像認識部を、さらに備え、
    前記危険度判定部は、前記危険度に関する画像に応じて変更した前記危険度の判定基準を用いて、前記移動体の危険度の判定を行うこと
    を特徴とする請求項1から請求項7のうち、いずれか一項に記載の処理装置。
  9. 前記画像認識部は、前記危険度に関する画像として物標の画像を認識すること
    を特徴とする請求項8に記載の処理装置。
  10. 各画素の距離情報を含む距離画像を取得する距離画像取得部と、
    前記距離画像から少なくとも移動体を検出する移動体検出部と、
    前記距離画像を用いて、少なくとも前記移動体の危険度を判定して出力する危険度判定部と、
    前記危険度に応じて、被制御部を制御する制御部と
    を有する処理システム。
  11. 前記制御部は、車両の制動制御、車両のハンドル制御、及び、表示部に対する表示制御のうち、少なくとも一つの制御を、前記危険度に応じて行うこと
    を特徴とする請求項10に記載の処理システム。
  12. コンピュータを、
    各画素の距離情報を含む距離画像を取得する距離画像取得部と、
    前記距離画像から少なくとも移動体を検出する移動体検出部と、
    前記距離画像を用いて、少なくとも前記移動体の危険度を判定し、前記危険度に応じて被制御部を制御する制御部に対して、前記危険度を出力する危険度判定部として機能させること
    特徴とする処理プログラム。
  13. 距離画像取得部が、各画素の距離情報を含む距離画像を取得する距離画像取得ステップと、
    移動体検出部が、前記距離画像から少なくとも移動体を検出する移動体検出ステップと、
    危険度判定部が、前記距離画像を用いて、少なくとも前記移動体の危険度を判定し、前記危険度に応じて被制御部を制御する制御部に対して前記危険度を出力する危険度判定ステップと
    を有する処理方法。
JP2015081177A 2014-05-19 2015-04-10 処理装置、処理システム、処理プログラム、及び、処理方法 Pending JP2016001464A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015081177A JP2016001464A (ja) 2014-05-19 2015-04-10 処理装置、処理システム、処理プログラム、及び、処理方法
US14/710,801 US9637118B2 (en) 2014-05-19 2015-05-13 Processing apparatus, processing system, and processing method
US15/455,650 US10387733B2 (en) 2014-05-19 2017-03-10 Processing apparatus, processing system, and processing method

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2014103838 2014-05-19
JP2014103838 2014-05-19
JP2014103836 2014-05-19
JP2014103836 2014-05-19
JP2015081177A JP2016001464A (ja) 2014-05-19 2015-04-10 処理装置、処理システム、処理プログラム、及び、処理方法

Publications (1)

Publication Number Publication Date
JP2016001464A true JP2016001464A (ja) 2016-01-07

Family

ID=54539530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015081177A Pending JP2016001464A (ja) 2014-05-19 2015-04-10 処理装置、処理システム、処理プログラム、及び、処理方法

Country Status (2)

Country Link
US (2) US9637118B2 (ja)
JP (1) JP2016001464A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9637118B2 (en) 2014-05-19 2017-05-02 Ricoh Company, Ltd. Processing apparatus, processing system, and processing method
JP2018122627A (ja) * 2017-01-30 2018-08-09 株式会社デンソー 車両制御装置
JP6509452B1 (ja) * 2018-03-26 2019-05-08 三菱電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JPWO2018179142A1 (ja) * 2017-03-29 2019-07-25 三菱電機株式会社 表示制御装置および表示制御方法
WO2019193830A1 (ja) * 2018-04-03 2019-10-10 株式会社Jvcケンウッド 警告処理装置、警告処理方法およびプログラム
US10453176B2 (en) 2016-11-15 2019-10-22 Ricoh Company, Ltd. Display apparatus to control display form of virtual object
WO2020194389A1 (ja) * 2019-03-22 2020-10-01 本田技研工業株式会社 交通環境認識装置及び車両制御装置
JP2020159746A (ja) * 2019-03-25 2020-10-01 株式会社Jvcケンウッド ナビゲーション制御装置、ナビゲーションシステム、ナビゲーション方法およびプログラム
JP2020177457A (ja) * 2019-04-18 2020-10-29 株式会社デンソー 物標検出装置、物標検出方法、及び運転支援システム

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6514681B2 (ja) 2013-03-15 2019-05-15 ウーバー テクノロジーズ,インコーポレイテッド ロボット用多重知覚ステレオ視のための方法、システム、および装置
JP6397934B2 (ja) * 2014-12-19 2018-09-26 株式会社日立製作所 走行制御装置
US20160189323A1 (en) * 2014-12-26 2016-06-30 Panasonic Intellectual Property Corporation Of America Risk determination method, risk determination device, risk determination system, and risk output device
EP3093194B1 (en) 2015-04-24 2021-09-22 Ricoh Company, Ltd. Information provision device
JP6805534B2 (ja) 2015-07-02 2020-12-23 株式会社リコー 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム
EP3333829B1 (en) * 2015-08-04 2019-10-09 Nissan Motor Co., Ltd. Step detection device and step detection method
KR20170017111A (ko) * 2015-08-05 2017-02-15 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6516012B2 (ja) 2015-09-15 2019-05-22 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP6499047B2 (ja) * 2015-09-17 2019-04-10 株式会社東芝 計測装置、方法及びプログラム
JP6703747B2 (ja) 2015-09-18 2020-06-03 株式会社リコー 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム
US10417504B2 (en) * 2015-09-23 2019-09-17 Intel Corporation Smart mirror mechanism
WO2017053407A1 (en) 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for localization using surface imaging
WO2017053415A1 (en) * 2015-09-24 2017-03-30 Quovard Management Llc Systems and methods for surface monitoring
WO2017072841A1 (ja) 2015-10-27 2017-05-04 日立マクセル株式会社 情報表示装置
WO2017090326A1 (ja) 2015-11-27 2017-06-01 株式会社リコー 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム
EP3385904A4 (en) 2015-11-30 2018-12-19 Ricoh Company, Ltd. Image processing device, object recognition device, device conrol system, image processing method, and program
WO2017099199A1 (ja) 2015-12-10 2017-06-15 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
WO2017104574A1 (ja) 2015-12-14 2017-06-22 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
US10338225B2 (en) 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US9915951B2 (en) 2015-12-27 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Detection of overhanging objects
JP6601506B2 (ja) 2015-12-28 2019-11-06 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
US9818038B2 (en) 2016-01-06 2017-11-14 Toshiba Tec Kabushiki Kaisha Image recognition apparatus
DE112016005851T5 (de) * 2016-01-18 2018-09-13 Mitsubishi Electric Corporation Fahrassistenzsystem, Fahrassistenzverfahren und Fahrassistenzprogramm
US10025314B2 (en) * 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
WO2017130640A1 (ja) 2016-01-28 2017-08-03 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
EP3410415B1 (en) 2016-01-28 2020-11-18 Ricoh Company, Ltd. Image processing device, imaging device, moving body device control system and image processing program
KR20180104089A (ko) * 2016-01-29 2018-09-19 닛산 지도우샤 가부시키가이샤 차량의 주행 제어 방법 및 차량의 주행 제어 장치
JP6687039B2 (ja) 2016-02-05 2020-04-22 株式会社リコー 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
WO2017138245A1 (ja) 2016-02-08 2017-08-17 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
EP3428876A4 (en) 2016-03-10 2019-01-23 Ricoh Company, Ltd. IMAGE PROCESSING DEVICE, DEVICE CONTROL SYSTEM, IMAGING DEVICE AND PROGRAM
WO2017159082A1 (ja) 2016-03-14 2017-09-21 株式会社リコー 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
EP3432291A4 (en) 2016-03-15 2019-03-27 Ricoh Company, Ltd. Image Processing Device, Object Recognition Device, Device Control System, Image Processing Method and Program
EP3432261B1 (en) 2016-03-18 2023-11-15 Ricoh Company, Ltd. Image processing device, image processing method, image processing program, object recognition device, and apparatus control system
JP6294905B2 (ja) * 2016-03-31 2018-03-14 株式会社Subaru 表示装置
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
JP6628189B2 (ja) * 2016-05-19 2020-01-08 パナソニックIpマネジメント株式会社 検出装置および検出方法
US9952317B2 (en) 2016-05-27 2018-04-24 Uber Technologies, Inc. Vehicle sensor calibration system
JP6631796B2 (ja) * 2016-05-31 2020-01-15 パナソニックIpマネジメント株式会社 移動物体検出装置、プログラムおよび記録媒体
EP3258433A1 (en) 2016-06-17 2017-12-20 Starship Technologies OÜ Method and system for delivering items
US9910442B2 (en) 2016-06-28 2018-03-06 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded area detection with static obstacle maps
US10078335B2 (en) 2016-06-28 2018-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Ray tracing for hidden obstacle detection
US10137890B2 (en) * 2016-06-28 2018-11-27 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded obstacle classification for vehicles
JP6834537B2 (ja) 2017-01-30 2021-02-24 株式会社リコー 表示装置、移動体装置、表示装置の製造方法及び表示方法。
JP6547785B2 (ja) * 2016-07-29 2019-07-24 株式会社デンソー 物標検出装置
US11880784B2 (en) 2016-08-05 2024-01-23 Starship Technologies Oü System and mobile freight station and method for distribution, delivery, and collection of freight
US9919648B1 (en) 2016-09-27 2018-03-20 Robert D. Pedersen Motor vehicle artificial intelligence expert system dangerous driving warning and control system and method
JP6780006B2 (ja) * 2016-09-30 2020-11-04 本田技研工業株式会社 車両制御装置
KR101831748B1 (ko) * 2016-10-11 2018-02-26 전자부품연구원 무안경 3d 디스플레이 장치
US10248872B2 (en) * 2016-10-19 2019-04-02 Texas Instruments Incorporated Estimation of time to collision in a computer vision system
EP3330908A1 (en) 2016-12-02 2018-06-06 Starship Technologies OÜ System and method for securely delivering packages to different delivery recipients with a single vehicle
WO2018099930A1 (en) 2016-12-02 2018-06-07 Starship Technologies Oü System and method for securely delivering packages to different delivery recipients with a single vehicle
JP6654999B2 (ja) * 2016-12-12 2020-02-26 株式会社Soken 物標検出装置
WO2018108832A1 (en) 2016-12-14 2018-06-21 Starship Technologies Oü Robot, system and method detecting and/or responding to transitions in height
WO2018125685A1 (en) * 2016-12-30 2018-07-05 Hrl Laboratories, Llc Zero-shot learning using multi-scale manifold alignment
US9990846B1 (en) * 2017-02-07 2018-06-05 NoTraffic Ltd. Device, system and method for traffic management
KR102295577B1 (ko) * 2017-02-08 2021-08-30 현대자동차주식회사 Ecu, 상기 ecu를 포함하는 무인 자율 주행 차량, 및 이의 주행 차로 판단 방법
CN108501949B (zh) * 2017-02-27 2022-11-22 松下电器(美国)知识产权公司 信息处理装置以及记录介质
JP6497818B2 (ja) 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
JP6429413B2 (ja) * 2017-03-10 2018-11-28 株式会社Subaru 画像表示装置
JP6593803B2 (ja) 2017-03-10 2019-10-23 株式会社Subaru 画像表示装置
JP6497819B2 (ja) 2017-03-10 2019-04-10 株式会社Subaru 画像表示装置
JP6465317B2 (ja) 2017-03-10 2019-02-06 株式会社Subaru 画像表示装置
JP6465318B2 (ja) 2017-03-10 2019-02-06 株式会社Subaru 画像表示装置
JP6515125B2 (ja) 2017-03-10 2019-05-15 株式会社Subaru 画像表示装置
JP6782433B2 (ja) * 2017-03-22 2020-11-11 パナソニックIpマネジメント株式会社 画像認識装置
US10479376B2 (en) 2017-03-23 2019-11-19 Uatc, Llc Dynamic sensor selection for self-driving vehicles
EP3622499A1 (en) 2017-05-11 2020-03-18 Starship Technologies OÜ A signalling device and system for increasing visibility of a mobile robot
JP6272592B1 (ja) * 2017-05-22 2018-01-31 三菱電機株式会社 位置推定装置、位置推定方法及び位置推定プログラム
WO2018215562A1 (en) 2017-05-24 2018-11-29 Starship Technologies Oü Device and method for detection and localization of vehicles
WO2018215581A1 (en) 2017-05-26 2018-11-29 Starship Technologies Oü A battery and a system for swapping and/or charging a battery of a mobile robot
EP3630558A1 (en) 2017-05-26 2020-04-08 Starship Technologies OÜ A device, method and system for swapping and/or charging a battery of a mobile robot
EP3413082B1 (en) * 2017-06-09 2020-01-01 Veoneer Sweden AB A vehicle system for detection of oncoming vehicles
JP2019008519A (ja) * 2017-06-23 2019-01-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム
WO2019020407A1 (en) 2017-07-28 2019-01-31 Starship Technologies Oü DEVICE AND SYSTEM FOR SECURELY DELIVERY OF PARCELS BY A MOBILE ROBOT
US10775488B2 (en) 2017-08-17 2020-09-15 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10746858B2 (en) 2017-08-17 2020-08-18 Uatc, Llc Calibration for an autonomous vehicle LIDAR module
US10282995B2 (en) 2017-09-05 2019-05-07 Starship Technologies Oü Mobile robot having collision avoidance system for crossing a road from a pedestrian pathway
WO2019053162A1 (en) 2017-09-15 2019-03-21 Starship Technologies Oü SYSTEM AND METHOD FOR ARTICLE DISTRIBUTION BY A MOBILE ROBOT
WO2019068634A1 (en) 2017-10-02 2019-04-11 Starship Technologies Oü DEVICE AND METHOD FOR DISTRIBUTING ARTICLES CONSUMABLE BY A MOBILE ROBOT
WO2019089591A1 (en) * 2017-10-30 2019-05-09 Mobileye Vision Technologies Ltd. Vehicle navigation based on human activity
WO2019086465A1 (en) 2017-11-02 2019-05-09 Starship Technologies Oü Visual localization and mapping in low light conditions
US20190147611A1 (en) * 2017-11-10 2019-05-16 Makoto Shinnishi Object sensing system, object sensing method, and recording medium storing program code
US10343286B2 (en) 2017-12-01 2019-07-09 Starship Technologies Oü Storage system, use and method with robotic parcel retrieval and loading onto a delivery vehicle
US10688662B2 (en) 2017-12-13 2020-06-23 Disney Enterprises, Inc. Robot navigation in context of obstacle traffic including movement of groups
KR102547823B1 (ko) * 2017-12-13 2023-06-26 삼성전자주식회사 컨텐츠 시각화 장치 및 방법
US10914820B2 (en) 2018-01-31 2021-02-09 Uatc, Llc Sensor assembly for vehicles
KR102463722B1 (ko) * 2018-02-20 2022-11-07 현대자동차주식회사 차량의 속도 설정 장치 및 방법
US11059421B2 (en) 2018-03-29 2021-07-13 Honda Motor Co., Ltd. Vehicle proximity system using heads-up display augmented reality graphics elements
CN110316053B (zh) * 2018-03-31 2022-08-12 广州煜煊信息科技有限公司 一种预判行车轨迹的显示方法
CN110316202A (zh) * 2018-03-31 2019-10-11 汉唐传媒股份有限公司 一种预判行车轨迹的显示方法
JP2021524087A (ja) 2018-05-16 2021-09-09 ノートラフィック リミテッド V2xおよびセンサデータを使用するためのシステムおよび方法
EP3797377A1 (en) 2018-05-22 2021-03-31 Starship Technologies OÜ Method and system for analyzing robot surroundings
TWI670646B (zh) * 2018-06-15 2019-09-01 財團法人工業技術研究院 資訊顯示方法及其顯示系統
US11326888B2 (en) * 2018-07-25 2022-05-10 Uatc, Llc Generation of polar occlusion maps for autonomous vehicles
EP3841516A1 (en) 2018-08-22 2021-06-30 Starship Technologies OÜ Method and system for traffic light signal detection and usage
WO2020123908A1 (en) * 2018-12-13 2020-06-18 Saddleye Inc. Vehicle and object detection system
US11222218B2 (en) * 2019-03-11 2022-01-11 Subaru Corporation Vehicle exterior environment detection apparatus
WO2020200854A1 (en) 2019-04-01 2020-10-08 Starship Technologies Oü System and method for vending items
CN110070026B (zh) * 2019-04-17 2021-01-29 中国科学院自动化研究所 基于模式识别的视频图像危险态势感知方法、***、装置
US11892848B2 (en) 2019-05-16 2024-02-06 Starship Technologies Oü Method, robot and system for interacting with actors or item recipients
KR20220023979A (ko) * 2019-06-21 2022-03-03 주식회사 소니 인터랙티브 엔터테인먼트 위치 검출 시스템, 화상 처리 장치, 위치 검출 방법 및 위치 검출 프로그램
KR20190084916A (ko) * 2019-06-28 2019-07-17 엘지전자 주식회사 주차 위치 알림 장치 및 방법
KR102614496B1 (ko) * 2019-08-09 2023-12-15 엘지전자 주식회사 Xr 디바이스 및 그 제어 방법
KR20220001029A (ko) * 2020-06-26 2022-01-05 현대모비스 주식회사 노약자 보호구역을 통과하는 차량의 전방 충돌 방지 시스템 및 방법
JP7380449B2 (ja) * 2020-06-30 2023-11-15 トヨタ自動車株式会社 判定装置及びプログラム
KR20220027746A (ko) * 2020-08-27 2022-03-08 네이버랩스 주식회사 로봇 주행에 따른 안전 가이드 라인을 제공하는 건물
KR20220065132A (ko) * 2020-11-12 2022-05-20 현대자동차주식회사 차량 및 그 제어방법
CN112543261A (zh) * 2020-12-08 2021-03-23 浙江大华技术股份有限公司 一种图像质量提升方法、装置以及计算机可读存储介质
JP2022102453A (ja) * 2020-12-25 2022-07-07 トヨタ自動車株式会社 情報処理装置、情報処理方法、およびプログラム
CN112699834B (zh) * 2021-01-12 2022-06-17 腾讯科技(深圳)有限公司 交通标识检测方法、装置、计算机设备和存储介质
JP7347464B2 (ja) * 2021-03-16 2023-09-20 トヨタ自動車株式会社 画像処理装置
KR20230072580A (ko) * 2021-11-17 2023-05-25 현대모비스 주식회사 운전자의 생물학적 상태 분석에 기반한 부주의 판단방식 및 이를 활용한 스마트 크루즈 컨트롤 연계 시스템, 운전자의 생물학적 상태 분석에 기반한 부주의 판단방식 및 이를 활용한 스마트 크루즈 컨트롤 연계 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027300A (ja) * 1996-07-10 1998-01-27 Fuji Heavy Ind Ltd 車両用運転支援装置
JPH10143245A (ja) * 1996-11-07 1998-05-29 Komatsu Ltd 移動体の障害物衝突防止装置
JP2005311691A (ja) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc 物体検出装置及び方法
JP2005352636A (ja) * 2004-06-09 2005-12-22 Alpine Electronics Inc 車載の警報発生装置
JP2010282388A (ja) * 2009-06-04 2010-12-16 Mazda Motor Corp 車両用歩行者検出装置
JP2014029604A (ja) * 2012-07-31 2014-02-13 Denso It Laboratory Inc 移動体認識システム、移動体認識プログラム、及び移動体認識方法

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5371725A (en) 1976-12-09 1978-06-26 Toyota Motor Corp Exhaust gas re-circulating device for internal combustion engine
US4104612A (en) * 1977-02-03 1978-08-01 Mcdonnell Douglas Corporation Head-up display command bar generator
JPH1096776A (ja) 1996-09-24 1998-04-14 Honda Access Corp 車間距離の表示装置
JP3596339B2 (ja) 1999-03-15 2004-12-02 日産自動車株式会社 車間距離計測装置
US20030231239A1 (en) * 2002-06-12 2003-12-18 Corzilius Brian S. Nodal video stream processor and method
JP4715325B2 (ja) 2005-06-20 2011-07-06 株式会社デンソー 情報表示装置
IL175835A0 (en) * 2006-05-22 2007-07-04 Rafael Armament Dev Authority Methods and systems for communicating and displaying points-of-interest
JP2008034981A (ja) 2006-07-26 2008-02-14 Fujitsu Ten Ltd 画像認識装置、画像認識方法、歩行者認識装置および車両制御装置
WO2008038369A1 (fr) * 2006-09-28 2008-04-03 Pioneer Corporation Dispositif de commande de conduite, procédé de commande de conduite, programme de commande de conduite et support d'enregistrement
CA2685976C (en) * 2007-05-23 2013-02-19 The University Of British Columbia Methods and apparatus for estimating point-of-gaze in three dimensions
US8232998B2 (en) * 2007-12-17 2012-07-31 Pixar Methods and apparatus for estimating and controlling behavior of animatronics units
JP2009284950A (ja) * 2008-05-27 2009-12-10 Sammy Corp 麻雀遊技機
US8489284B2 (en) * 2008-08-21 2013-07-16 International Business Machines Corporation Automated dynamic vehicle blind spot determination
WO2010064118A1 (en) * 2008-12-01 2010-06-10 Imax Corporation Methods and systems for presenting three-dimensional motion pictures with content adaptive information
US8248410B2 (en) * 2008-12-09 2012-08-21 Seiko Epson Corporation Synthesizing detailed depth maps from images
JP5371725B2 (ja) 2009-12-16 2013-12-18 富士重工業株式会社 物体検出装置
JP5664152B2 (ja) 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
JP5776173B2 (ja) 2010-03-01 2015-09-09 株式会社リコー 撮像装置及び距離測定装置
JP5769398B2 (ja) * 2010-09-29 2015-08-26 ユニ・チャーム株式会社 使い捨て着用物品
JP2012108397A (ja) * 2010-11-19 2012-06-07 Nippon Seiki Co Ltd 表示装置
MX345320B (es) * 2011-08-31 2017-01-25 Toyota Motor Co Ltd Dispositivo de control de conducción de vehículo.
CN103797530B (zh) * 2011-09-21 2015-09-09 本田技研工业株式会社 车辆周围监测装置
JP2013093013A (ja) 2011-10-06 2013-05-16 Ricoh Co Ltd 画像処理装置、車両
JP5827543B2 (ja) * 2011-10-27 2015-12-02 東芝アルパイン・オートモティブテクノロジー株式会社 警告表示方法および警告表示プログラム
JP2013112269A (ja) 2011-11-30 2013-06-10 Toshiba Alpine Automotive Technology Corp 車載用表示装置
JP5406328B2 (ja) 2012-03-27 2014-02-05 株式会社デンソーアイティーラボラトリ 車両用表示装置、その制御方法及びプログラム
JP5916541B2 (ja) 2012-07-03 2016-05-11 アルパイン株式会社 車載システム
WO2014024475A1 (ja) * 2012-08-10 2014-02-13 パナソニック株式会社 映像提供方法、送信装置および受信装置
US8939366B1 (en) * 2012-10-23 2015-01-27 Rockwell Collins, Inc. Targeting display system and method
US9158124B2 (en) 2012-12-21 2015-10-13 Ricoh Company, Ltd. Image display device and vehicle incorporating the same
JP6398347B2 (ja) 2013-08-15 2018-10-03 株式会社リコー 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
JP6648411B2 (ja) 2014-05-19 2020-02-14 株式会社リコー 処理装置、処理システム、処理プログラム及び処理方法
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP2016001170A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理プログラム、及び、処理方法
JP6565148B2 (ja) * 2014-09-05 2019-08-28 アイシン精機株式会社 画像表示制御装置および画像表示システム
JP6372402B2 (ja) * 2015-03-16 2018-08-15 株式会社デンソー 画像生成装置
US10228893B2 (en) * 2015-10-28 2019-03-12 Paypal, Inc. Private virtual object handling
US9836652B2 (en) * 2016-02-02 2017-12-05 International Business Machines Corporation Showing danger areas associated with objects using augmented-reality display techniques

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027300A (ja) * 1996-07-10 1998-01-27 Fuji Heavy Ind Ltd 車両用運転支援装置
JPH10143245A (ja) * 1996-11-07 1998-05-29 Komatsu Ltd 移動体の障害物衝突防止装置
JP2005311691A (ja) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc 物体検出装置及び方法
JP2005352636A (ja) * 2004-06-09 2005-12-22 Alpine Electronics Inc 車載の警報発生装置
JP2010282388A (ja) * 2009-06-04 2010-12-16 Mazda Motor Corp 車両用歩行者検出装置
JP2014029604A (ja) * 2012-07-31 2014-02-13 Denso It Laboratory Inc 移動体認識システム、移動体認識プログラム、及び移動体認識方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10387733B2 (en) 2014-05-19 2019-08-20 Ricoh Company, Ltd. Processing apparatus, processing system, and processing method
US9637118B2 (en) 2014-05-19 2017-05-02 Ricoh Company, Ltd. Processing apparatus, processing system, and processing method
US10453176B2 (en) 2016-11-15 2019-10-22 Ricoh Company, Ltd. Display apparatus to control display form of virtual object
US11216906B2 (en) 2016-11-15 2022-01-04 Ricoh Company, Ltd. Display apparatus to control display form of virtual object
JP2018122627A (ja) * 2017-01-30 2018-08-09 株式会社デンソー 車両制御装置
JPWO2018179142A1 (ja) * 2017-03-29 2019-07-25 三菱電機株式会社 表示制御装置および表示制御方法
CN111886637A (zh) * 2018-03-26 2020-11-03 三菱电机株式会社 信息处理装置、信息处理方法和信息处理程序
JP6509452B1 (ja) * 2018-03-26 2019-05-08 三菱電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2019186664A1 (ja) * 2018-03-26 2019-10-03 三菱電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2019193830A1 (ja) * 2018-04-03 2019-10-10 株式会社Jvcケンウッド 警告処理装置、警告処理方法およびプログラム
JPWO2020194389A1 (ja) * 2019-03-22 2021-12-09 本田技研工業株式会社 交通環境認識装置及び車両制御装置
WO2020194389A1 (ja) * 2019-03-22 2020-10-01 本田技研工業株式会社 交通環境認識装置及び車両制御装置
JP2020159746A (ja) * 2019-03-25 2020-10-01 株式会社Jvcケンウッド ナビゲーション制御装置、ナビゲーションシステム、ナビゲーション方法およびプログラム
JP2020177457A (ja) * 2019-04-18 2020-10-29 株式会社デンソー 物標検出装置、物標検出方法、及び運転支援システム

Also Published As

Publication number Publication date
US10387733B2 (en) 2019-08-20
US20150334269A1 (en) 2015-11-19
US9637118B2 (en) 2017-05-02
US20170185853A1 (en) 2017-06-29

Similar Documents

Publication Publication Date Title
JP6648411B2 (ja) 処理装置、処理システム、処理プログラム及び処理方法
US10387733B2 (en) Processing apparatus, processing system, and processing method
JP2016001170A (ja) 処理装置、処理プログラム、及び、処理方法
JP7159533B2 (ja) ホスト車両用のナビゲーションシステム
KR102351592B1 (ko) 기본 미리 보기 영역 및 시선 기반 운전자 주의 산만 검출
US20220073068A1 (en) Rider assistance system and method
US20180276986A1 (en) Vehicle-to-human communication in an autonomous vehicle operation
CN111027420B (zh) 用于模仿前车的***和方法
JP5938569B2 (ja) 方位情報を考慮する高度運転者支援システム、及びその動作方法
JP7188394B2 (ja) 画像処理装置及び画像処理方法
US20200398743A1 (en) Method and apparatus for learning how to notify pedestrians
US20170330463A1 (en) Driving support apparatus and driving support method
JPWO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
WO2016067545A1 (ja) 注視誘導装置
JP2020126629A (ja) バイクライダー用スマートヘルメットを利用してバイクのブラインドスポットをモニタリングする方法及びこれを利用したブラインドスポットモニタリング装置
JP7291015B2 (ja) 周囲物体認識方法及び周囲物体認識装置
JP7400914B1 (ja) 自動運転装置
KR20230034523A (ko) 터널 진출입시 충돌방지장치 및 방법
JP2024047442A (ja) 自動運転装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407