JP7121497B2 - 仮想車路生成装置及び方法 - Google Patents

仮想車路生成装置及び方法 Download PDF

Info

Publication number
JP7121497B2
JP7121497B2 JP2018016587A JP2018016587A JP7121497B2 JP 7121497 B2 JP7121497 B2 JP 7121497B2 JP 2018016587 A JP2018016587 A JP 2018016587A JP 2018016587 A JP2018016587 A JP 2018016587A JP 7121497 B2 JP7121497 B2 JP 7121497B2
Authority
JP
Japan
Prior art keywords
roadway
virtual
lane
virtual roadway
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018016587A
Other languages
English (en)
Other versions
JP2018142309A (ja
Inventor
曉 娥 姜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2018142309A publication Critical patent/JP2018142309A/ja
Application granted granted Critical
Publication of JP7121497B2 publication Critical patent/JP7121497B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/92Driver displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、仮想車路を生成する技術に関する。
自律走行(Automatic Driving)は、車両走行中に要求される各種の操作を自動に行うものであって、例えば、自律走行するホスト車両は、運転者がハンドルと加速ペダル、ブレーキなどを操作しなくても自ら道路で走ることができる。自律走行のための様々な技術は、車両で把握される周辺映像情報によって実行され得る。特に、自律走行のための車線は車両の前方映像から検出されるが、車両の周辺地形、悪天候(雪、雨、霧)、道路形態などによって車両により収集可能な情報には制限がある。
本発明の目的は、外部イメージに示されるオブジェクトを分析して仮想車路を容易かつ正確に生成することにある。
一実施形態に係る仮想車路生成方法は、車両の前方に対する外部イメージから抽出された車路検出情報の有効性を判断するステップと、前記車路検出情報が有効でない場合に応答して、前記外部イメージに示されるオブジェクトに基づいて仮想車路を生成するステップとを含む。
前記仮想車路を生成するステップは、前記外部イメージから前記車両の前方に存在するオブジェクトを検出するステップと、前記検出されたオブジェクトに基づいて前記仮想車路を生成するステップとを含み得る。
前記オブジェクトを検出するステップは、前記オブジェクトを含むオブジェクト領域及び前記オブジェクトの特徴部分を含む特徴領域を検出するステップを含み得る。
前記仮想車路を生成するステップは、前記外部イメージ内で前記車両の前方に存在するオブジェクトをクラスタリングして走行グループを生成するステップと、前記走行グループに基づいて前記仮想車路を生成するステップとを含み得る。
前記走行グループに基づいて前記仮想車路を生成するステップは、前記走行グループが複数である場合に応答して、複数の走行グループのそれぞれが占めている領域に基づいて複数の車路領域を推定するステップと、前記推定された複数の車路領域のそれぞれの間で仮想の車路境界線を生成するステップと、前記仮想の車路境界線に基づいて前記仮想車路を生成するステップとを含み得る。
仮想車路生成方法は、連続的なフレームイメージを含む前記外部イメージを取得するステップをさらに含み、前記仮想車路を生成するステップは、前記連続的なフレームイメージに示されるオブジェクトを予め決定された時間区間の間に追跡して走行グループを生成するステップと、前記走行グループに基づいて前記仮想車路を生成するステップとを含み得る。
前記連続的なフレームイメージに示されるオブジェクトを予め決定された時間区間の間に追跡して走行グループを生成するステップは、前記オブジェクトの速度が前記車両の速度と異なる場合に応答して、前記オブジェクトの移動を追跡して前記走行グループを生成するステップを含み得る。
前記車路検出情報の有効性を判断するステップは、前記外部イメージから車路検出情報を抽出するステップと、前記抽出された車路検出情報の有効スコアが閾値スコアを超過するか否かを判断するステップとを含み得る。
前記有効スコアが閾値スコアを超過するか否かを判断するステップは、前記車両周辺の照度情報、気象情報、時刻情報、及び前記外部イメージの画質情報のうち少なくとも1つに基づいて前記有効スコアを算出するステップを含み得る。
仮想車路生成方法は、前記生成された仮想車路をディスプレイするステップをさらに含み得る。
前記車路検出情報の有効性を判断するステップは、前記車両の前方から検出されたオブジェクトの属性に基づいて、前記車路検出情報の有効性を判断するステップを含み得る。
前記車路検出情報の有効性を判断するステップは、前記車両の前方から警報オブジェクトを検出するステップと、前記検出された警報オブジェクトに対応する車路境界線を前記車路検出情報から排除するステップとを含み得る。
前記仮想車路を生成するステップは、前記車両の前方から対象オブジェクトを検出するステップと、前記対象オブジェクトから指示情報が検出される場合に応答して、前記対象オブジェクトを前記仮想車路の生成から排除するステップとを含み得る。
仮想車路生成方法は、前記生成された仮想車路に基づいて走行経路を生成するステップをさらに含み得る。
前記車路検出情報の有効性を判断するステップは、対象オブジェクトの移動経路及び前記車路検出情報に基づいた車路がマッチングするか否かを判断するステップと、前記移動経路が前記車路検出情報に基づいた車路にマッチングしない場合、前記対象オブジェクトに対応する車路境界線を前記車路検出情報から排除するステップとを含み得る。
前記車路検出情報の有効性を判断するステップは、対象オブジェクトの移動速度が閾値の速度未満に減少する場合に応答して、前記対象オブジェクトに対応する車路境界線を前記車路検出情報から排除するステップを含み得る。
前記仮想車路を生成するステップは、前記外部イメージから検出された前記オブジェクトまでの距離を指示する深さ情報を検出するステップと、前記外部イメージ及び前記深さ情報に基づいて前記仮想車路を生成するステップとを含み得る。
前記仮想車路を生成するステップは、前記車両が位置する位置情報及び前記位置情報に対応する道路情報に基づいて前記仮想車路を生成するステップを含み得る。
他の実施形態に係る仮想車路生成方法は、車両の前方に対する映像から抽出された車線検出情報の有効性を決定するステップと、前記車線検出情報が有効でない場合、前記映像に示されたオブジェクトをクラスタリングすることによって少なくとも1つの走行グループを生成するステップと、前記少なくとも1つの走行グループが複数の走行グループを含む場合、前記少なくとも1つの走行グループそれぞれによって占有された領域に基づいて車線領域を推定するステップと、前記推定した車線領域の間に仮想車線境界線を生成するステップと、前記仮想車線境界線に基づいて仮想車線を生成するステップとを含む。
前記少なくとも1つの走行グループを生成するステップは、前記車両の位置での道路情報を取得するステップと、前記道路情報に基づいて、生成される走行グループの最大個数と最小個数を決定するステップとを含み得る。
一実施形態に係る仮想車路生成装置は、車両の前方に対する外部イメージを取得するイメージ取得部と、前記外部イメージから抽出された車路検出情報の有効性を判断し、前記車路検出情報が有効でない場合に応答して、前記外部イメージに示されるオブジェクトに基づいて仮想車路を生成する処理部とを含む。
一実施形態によると、外部イメージに示されるオブジェクトを分析して仮想車路を容易かつ正確に生成することができる。
一実施形態に係る仮想車路生成方法を説明するフローチャートである。 一実施形態に係る仮想車路生成方法を説明するフローチャートである。 一実施形態に係る外部イメージ取得を説明する図である。 一実施形態に係る車路検出情報の有効性の判断を説明する図である。 一実施形態に係る車路検出情報の有効性の判断を説明する図である。 一実施形態に係る車路検出情報の有効性の判断を説明する図である。 一実施形態に係る車路検出情報の有効性の判断を説明する図である。 一実施形態に係るオブジェクト及び特徴部分の検出を説明する図である。 一実施形態に係るオブジェクトクラスタリングを説明する図である。 一実施形態に係るオブジェクトクラスタリングを説明する図である。 一実施形態に係る複数の車路領域の推定を説明する図である。 一実施形態に係る仮想の車路境界線の生成を説明する図である。 一実施形態に係る仮想車路を説明する図である。 一実施形態に係る仮想車路を説明する図である。 一実施形態により対象オブジェクトから指示情報が検出される場合を説明する図である。 一実施形態に係る仮想車路生成装置の構成を説明するブロック図である。 一実施形態に係る仮想車路生成装置の構成を説明するブロック図である。
以下、実施形態を添付する図面を参照しながら詳細に説明する。
以下で説明する実施形態には様々な変更が加えられる。以下で説明する実施形態は、実施形態に対して限定しようとするものではなく、これに対する全ての変更、均等物ないし代替物を含むものとして理解されなければならない。
本明細書で用いた用語は、単に特定の実施形態を説明するために用いられるものであって、本発明を限定しようとする意図はない。単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は、明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なる定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
また、添付図面を参照して説明することにおいて、図面符号に関係なく同一の構成要素は同一の参照符号を付与し、これに対する重複した説明は省略することにする。実施形態の説明において関連する公知技術に対する具体的な説明が実施形態の要旨を不必要に曖昧にすると判断される場合、その詳細な説明は省略する。
図1及び図2は、一実施形態に係る仮想車路生成方法を説明するフローチャートである。
図1は、仮想車路生成方法を簡略に説明する図である。
まず、ステップS110において、仮想車路生成装置は、車両の前方に対する外部イメージから抽出された車路検出情報の有効性を判断する。ここで、外部イメージは、車両の前方の部分が撮影された映像である。一例として、仮想車路生成装置は、車両に装着されたり、車両内部に含まれるように実現され得る。車両は、例えば、自動車、トラック、トラクター、スクーター、バイク、サイクル、水陸両用車、スノーモービル、公共交通機関の車両、バス、モノレール、列車、UAV(unmanned aerial vehicle)、又はドローンであってもよい。
一例として、仮想車路生成装置は、例えば、クルーズコントロール、適応的クルーズコントロール、車線維持補助システム、及び車線離脱警報システムのような車両ガイド装置に含まれてもよい。
異なる例として、仮想車路生成装置は、車両に位置する他の装置に含まれてもよい。例えば、仮想車路生成装置は、知能型エージェント(intelligent agent)、モバイルフォン、セルラーフォン、スマートフォン、ウェアラブル装置、サーバ、コンピュータ、ラップトップ、ノート型パソコン、ネットブック、タブレット、PDAなどのような電子装置に含まれて動作してもよい。
更なる例として、仮想車路生成装置は車両外部に存在してもよい。例えば、仮想車路装置は、車両と無線で通信するコンピュータ、サーバ、又はモバイルフォンのような装置に存在する。
車路検出情報は、車両の前方に対して検出された車路に関する情報を示し得る。例えば、車路検出情報は、外部イメージに示される車路境界線及び車路領域などを含む。車路境界線は、車路と車路との間を区分する境界線を示す。車路領域は、外部イメージで車路に対応する領域を示す。
車路検出情報の有効性の判断は、図4~図7を参照して説明する。
そして、ステップS120において、仮想車路生成装置は車路検出情報が有効でない場合に応答して、外部イメージに示されるオブジェクトに基づいて仮想車路を生成する。オブジェクトは、例えば、仮想車路生成装置が装着された車両の他の車両、人、及び動物などであるが、これに限定されることはない。仮想車路は、現在車両が走行可能なものとして、仮想車路生成装置によって推定された車路を示す。
例えば、仮想車路生成装置は、外部イメージを通した車路境界線などの識別に失敗した場合、現在車両の周辺オブジェクトなどに基づいて新しい仮想車路を生成することで現在車両の走行を補助する。
反対に、車路検出情報が有効である場合、仮想車路生成装置は、別途の仮想車路を生成する代わりに有効な車路検出情報を用いることができる。例えば、仮想車路生成装置は、有効な車路検出情報をユーザにディスプレイしたり、自律走行車両の走行経路を生成する。
図2は、仮想車路生成方法をより詳細に説明する。以下、図2の説明に加えて上記の図1に関して説明した内容が図2にも適用可能であり、参照としてここに含まれる。
まず、ステップS201において、仮想車路生成装置は、外部イメージを取得する。例えば、仮想車路生成装置は、車両の前方を撮影することによって外部イメージを取得する。本明細書において、外部イメージはカラーイメージである場合を例にして説明するが、これに限定されることなく、様々なフォーマットのイメージが使用されてもよい。例えば、赤外線イメージ、グレイスケールイメージ及び深さイメージなどが使用されてもよい。
そして、ステップS110において、仮想車路生成装置は、車路検出情報の有効性を判断する。仮想車路生成装置は、外部イメージから車路検出情報を抽出する。
例えば、ステップS211において、仮想車路生成装置は、車路境界線が検出可能であるか否かを判断する。仮想車路生成装置は、車路境界線が検出されない場合、車路検出情報が有効でないものと判断する。したがって、仮想車路生成装置は、例えば、田舎の道及び車路境界線のペイントが喪失した地域などのように車両の前方道路から車路境界線が検出されない場合に車路検出情報が有効でないものと判断する。車路境界線が検出されない場合は、例えば、車路境界線である確率が閾値確率未満である。
次に、ステップS212において、仮想車路生成装置は、車路境界線が検出された場合に応答して、検出された車路境界線が有効であるか否かを判断する。例えば、仮想車路生成装置は、抽出された車路検出情報の有効スコアが閾値スコアを超過するか否かを判断する。
有効スコアは、車路検出情報が有効な程度を示すスコアである。仮想車路生成装置は、車両周辺の照度情報、気象情報、時刻情報、及び外部イメージの画質情報のうち少なくとも1つに基づいて有効スコアを算出する。有効スコアは、照度情報、気象情報、時刻情報、及び画質情報のうち少なくとも2以上の情報に基づいて複合的に算出されるが、これに限定されることなく、それぞれの情報に対して個別的に複数の有効スコアが算出され得る。照度情報は、車両周辺の照度を指示する情報を示す。気象情報は、車両が位置する地点に対応する天気を指示する情報を示す。時刻情報は、車両の現在の時点に関する情報として、例えば、昼間であるか夜であるかなどを指示する。画質情報は、外部イメージの画質を指示する情報を示す。
例えば、照度情報、気象情報、時刻情報、及び画質情報のうち少なくとも1つに基づいて、単一有効スコアが算出された場合、仮想車路生成装置は、1つの閾値スコアを決定して当該の閾値スコアを超過するか否かを判断する。異なる例として、照度情報、気象情報、時刻情報、及び画質情報のうち少なくとも2以上に基づいて複数の有効スコアが算出された場合、仮想車路生成装置は、各有効スコアに対応する複数の閾値スコアを決定し、複数の有効スコアのそれぞれが個別的に閾値スコアを超過するか否かを判断する。
ここで、有効スコアが閾値スコアを超過する場合、仮想車路生成装置は、車路検出情報が有効であるものとして決定する。有効スコアが閾値スコア以下である場合、仮想車路生成装置は車路検出情報が有効でないものと決定する。複数の有効スコアが算出された場合、有効スコアのうち1つでも閾値スコア以下である場合、仮想車路生成装置は車路検出情報が有効でないものと決定する。ただし、これに限定されることなく、設計に応じて閾値スコアを超過する有効スコアが予め決定された個数以下である場合、仮想車路生成装置は、車路検出情報が有効でないものと決定してもよい。したがって、仮想車路生成装置は、夕方の時間などのように様々な要因によって車両周辺の照度が一定値以下である場合、車路検出情報の利用ができないと判断する。気象情報を用いる場合、仮想車路生成装置は、雪や雨の天気で車路検出情報の信頼度が低いと判断する。また、仮想車路生成装置は、有効スコアが発振(oscillation)する程度が閾値発振を超過する場合にも車路検出情報が有効でないものと判断する。
ただし、車路検出情報の有効性を有効スコアだけで判断することはない。仮想車路生成装置は、オブジェクトの属性などのような様々な要素を考慮して車路検出情報の有効性を判断する。車両検出情報の有効性の判断は、図4~図7を参照して詳細に説明する。
また、検出された車路境界線が有効である場合、仮想車路生成装置は仮想車路を生成せず、検出された車路境界線に対する検出情報を用いてもよい。
そして、ステップS120において、車路検出情報が有効でない場合に応答して、外部イメージに示されるオブジェクトに基づいて仮想車路を生成する。
例えば、ステップS221において、仮想車路生成装置は、外部イメージからオブジェクト及び特徴部分を抽出する。仮想車路生成装置は、外部イメージから車両の前方に存在するオブジェクトを検出する。ここで、仮想車路生成装置は、オブジェクトを含むオブジェクト領域及びオブジェクトの特徴部分を含む特徴領域を検出する。オブジェクト領域は、外部イメージでオブジェクトに対応する領域を示す。特徴領域は、外部イメージで特徴部分に対応する領域を示す。特徴部分は、オブジェクトの特徴を指示する部分を示す。オブジェクトの特徴は、例えば、オブジェクトが車両である場合、車両の両側後尾ランプ、バックミラー、タイヤ、及びナンバープレートなどを含んでもよい。このようなオブジェクト及び特徴部分の抽出は、図8を参照して説明する。
そして、ステップS222において、仮想車路生成装置は、検出されたオブジェクト及び特徴部分に基づいてクラスタリングする。例えば、仮想車路生成装置は、外部イメージ内で車両の前方に存在するオブジェクトをクラスタリングして走行グループを生成する。クラスタリングは、図9を参照して説明する。
次に、ステップS223において、仮想車路生成装置は、クラスタリングされた走行グループに基づいて仮想車路領域を推定する。例えば、仮想車路生成装置は走行グループが複数である場合に応答して、複数の走行グループのそれぞれが占めている領域に基づいて複数の車路領域を推定する。仮想車路領域の推定は、図11を参照して説明する。
そして、ステップS224において、仮想車路生成装置は、仮想車路領域の間の中央に該当する仮想車路境界線を生成する。例えば、仮想車路生成装置は、仮想の車路境界線に基づいて仮想車路を生成する。仮想車路生成装置は、推定された複数の車路領域のそれぞれの間で仮想の車路境界線を生成する。仮想車路は、現在車両が走行できると推定された車路として、仮想車路境界線によって指示される。このような仮想車路境界線の生成は、図12を参照して説明する。
したがって、仮想車路生成装置は、検出されたオブジェクトに基づいて仮想車路境界線を推定することで、仮想の車路境界線に基づいて仮想車路を生成し得る。ただし、これに限定されることなく、仮想車路生成装置は、外部イメージ、深さ情報、走行グループ、車両が位置する位置情報、及び位置情報に対応する道路情報などに基づいて仮想車路を生成する。位置情報は、車両が位置する地点のGPS(global positioning system)情報を含んでもよく、道路情報は道路に関する情報として、道路の車路個数、工事中である車路及び閉鎖された道路などに関する情報を含んでもよい。
次に、ステップS230において、仮想車路生成装置は、生成された車路境界線を表示する。例えば、仮想車路生成装置は、ヘッドアップディスプレイ(HUD:Head-Up Display)などによって車両の風防ガラスに仮想の車路境界線を表示する。ただし、これに限定されることなく、風防ガラスそのものがディスプレイ機能を備え、仮想車路生成装置と接続された場合、仮想車路生成装置は、当該の風防ガラスで仮想の車路境界線をディスプレイするようリクエストする。車路境界線のディスプレイについては図13を参照して説明する。
仮想車路生成装置は大雨の場合のように、道路面の車路境界線の識別が難しい場合、周辺車両及び周辺車両の特徴部分を用いて周辺車両の移動経路を推定する。仮想車路生成装置は、推定された移動経路を用いて仮想車路境界線を生成して提供することで、運転者又は自律走行車両の運転を補助できる。
図3は、一実施形態に係る外部イメージ取得を説明する図である。
仮想車路生成装置は、車両の前方に対する外部イメージ300を取得する。例えば、仮想車路生成装置は車両に装着されてもよく、仮想車路生成装置のカメラは車両の前方に向かって構成されてもよい。ただし、外部イメージ300をカラーイメージに限定されることなく、赤外線イメージ及び深さイメージなどが使用されてもよい。
図4~図7は、一実施形態に係る車路検出情報の有効性の判断を説明する図である。
図4は、車両が工事現場を通過する間仮想車路生成装置が取得した外部イメージ400を示す。
一実施形態に係る仮想車路生成装置は、車両の前方から検出されたオブジェクトの属性に基づいて車路検出情報の有効性を判断する。例えば、仮想車路生成装置は、外部イメージ400から複数のオブジェクトを検出し、識別されたオブジェクトのそれぞれの属性を識別する。オブジェクトは、属性に応じて対象オブジェクト、警報オブジェクト410、及び固定オブジェクトなどに分類されてもよい。対象オブジェクトは仮想車路生成のために追跡対象となるオブジェクトとして、例えば、現在車両に先行して移動中である異なる車両であってもよい。警報オブジェクト410は、現在車両に対して危険などを警報する情報に関するオブジェクトとして、例えば、工事現場を示す標識、道路上に位置する障害物などであってもよい。固定オブジェクトは、道路上に固定されたオブジェクトとして、例えば、道路の端に停車又は駐車中である車両などであってもよい。
例えば、仮想車路生成装置は、車両の前方から警報オブジェクト410を検出する。図4に示す警報オブジェクト410は、車路遮断を指示する表示板及び車両の進入を防止する障害物として示されている。
仮想車路生成装置は、検出された警報オブジェクト410に対応する車路境界線を車路検出情報から排除する。例えば、仮想車路生成装置は、図4に示す警報オブジェクト410が配置された車路に対応する車路境界線を車路検出情報から排除する。
異なる例として、仮想車路生成装置は、対象オブジェクトの移動経路及び車路検出情報に基づいた車路がマッチングするか否かを判断する。仮想車路生成装置は、移動経路が車路検出情報に基づいた車路にマッチングしない場合、対象オブジェクトに対応する車路境界線を車路検出情報から排除する。
更なる例として、仮想車路生成装置は、対象オブジェクトの移動速度が閾値の速度未満に減少する場合に応答して、対象オブジェクトに対応する車路境界線を車路検出情報から排除する。
仮想車路生成装置は、検出された車路境界線が車路検出情報から排除され、有効な車路境界線がない場合に車路検出情報が有効ではないものと決定する。
ただし、車路検出情報の有効性の判断方式を上述のように限定することはない。仮想車路生成装置は、道路情報に基づいて現在位置の道路が工事中という情報が識別される場合に応答して、現在位置で検出された車路検出情報の少なくとも一部が有効でないものと決定してもよい。また、仮想車路生成装置は、運転者の手動操作(例えば、仮想車路生成せよとの操作)に応答して、車路検出情報が有効でないものと判断する。
図5は、雪により外部イメージ500から車路境界線が検出されない場合を示す。一実施形態によると、仮想車路生成装置は、気象が悪化して視野が確保されない場合、車路検出情報が有効でないものと判断する。例えば、外部イメージ500で中央線510が雪によって見えず、仮想車路生成装置が車路境界線を検出できないこともある。この場合、仮想車路生成装置は検出された車路境界線がないため、車路検出情報が有効でないものと決定する。
ただし、これに限定されることなく、仮想車路生成装置は、外部イメージのみならず気象情報も考慮される。例えば、仮想車路生成装置は、現在位置における気象情報の多い雪、雨、及び曇りなどのように視野を低下させる天気を指示する場合、車路検出情報が有効でないものと決定する。
図6は、混雑な道路状況に対する外部イメージ600を示す。例えば、複数の異なる車両によって見えない車路境界線が検出されず、仮想車路生成装置は車路検出情報が有効でないものと決定する。
図7は、交差点に対する外部イメージ700を示す。例えば、交差点で同一の経路に対して複数の車路境界線710が重複して示され、仮想車路生成装置が正確な車路境界線を検出できないことがある。例えば、仮想車路生成装置は、検出された車路境界線710間の間隔が閾値間隔未満である場合に応答して、車路検出情報が有効でないものと決定する。
ただし、これに限定されることなく、仮想車路生成装置は、道路情報に基づいて現在位置に対応する道路情報が交差点であることを指示する場合に応答して、現在位置で検出された車路検出情報を有効でないものと決定し得る。
図3~図7を参照して上述した方式などに基づいて、車路検出情報が有効でないものと判断された場合に応答して、仮想車路生成装置は、仮想車路を生成するための動作を図8ないし図15に示すように行うことができる。
図8は、一実施形態に係るオブジェクト及び特徴部分の検出を説明する図である。
仮想車路生成装置は、外部イメージ800からオブジェクトを含むオブジェクト領域810及びオブジェクトの特徴部分を含む特徴領域820を検出する。
例えば、仮想車路生成装置は、オブジェクト(例えば、車両)を検出するようトレーニングされたニューラルネットワークを用いて、オブジェクトを含むオブジェクト領域810を検出し得る。また、仮想車路生成装置は、カメラを介して撮影された外部イメージ800だけではなく、LiDAR(Light Imaging、Detection、And Ranging)センサなどを用いてキャプチャーされたセンサ情報も用いてオブジェクト領域810を検出し得る。センサ情報は、例えば、外部イメージ800から検出されたオブジェクトまでの距離を指示する深さ情報を含む。また、ニューラルネットワークは、オブジェクトと共にオブジェクトの特徴部分を含む特徴領域820を検出するようにトレーニングされたモデルであり得る。
図9及び図10は、一実施形態に係るオブジェクトクラスタリングを説明する図である。
図9は、図8で検出されたオブジェクト領域及び特徴領域を用いてオブジェクトをクラスタリングする過程を説明する。一実施形態によると、仮想車路生成装置は、外部イメージ900内で車両の前方に存在するオブジェクトをクラスタリングして走行グループを生成する。走行グループは、検出されたオブジェクトが車路単位に分類されたグループを示す。例えば、走行グループは、仮想車路生成装置が装着された現在車両が走行中である走行車路に対応する走行グループ910、走行車路の左側に対応する走行グループ920、及び走行車路の右側に対応する走行グループに分類される。走行車路は、仮想車路生成装置が装着された車両が現在の走行中である車路を示す。
例えば、仮想車路生成装置は、外部イメージ900内でオブジェクト領域の位置座標に応じてオブジェクトをクラスタリングする。仮想車路生成装置は、第1境界座標よって左側で検出されたオブジェクト領域921を左側に対応する走行グループ920に追加し、第2境界座標よりも右側で検出されたオブジェクト領域930を右側に対応する走行グループに追加し、第1境界座標及び第2境界座標の間で検出されたオブジェクト領域911を走行車路に対応する走行グループ910に追加する。第1境界座標及び第2境界座標は、イメージで走行グループを区分するために設定された座標として、例えば、横軸(例えば、x軸)上の座標である。
また、仮想車路生成装置は、オブジェクト領域の走行グループを分類するようにトレーニングされたモデルを用いてもよい。例えば、仮想車路生成装置は、ニューラルネットワーク、サポートベクトルマシーン(SVM:support vector machine)、及び決定木(Decision Tree)などを用いてオブジェクト領域が属する走行グループを決定する。
ただし、これに限定されることなく、仮想車路生成装置は、道路情報を用いてオブジェクトをクラスタリングし得る。例えば、仮想車路生成装置は、現在位置の道路情報から走行中である道路の広さ及び車路個数を抽出する。仮想車路生成装置は、走行中である道路の広さ及び車路個数などに基づいて、走行中である道路に対して分類される走行グループの最大個数及び最小個数などを推定することができる。
図10は、現在車両の前方で走行中である車両が車路ごとに1台以下である場合を説明する。
まず、仮想車路生成装置は、連続的なフレームイメージを含む外部イメージ1000を取得する。仮想車路生成装置は、連続的なフレームイメージに示されるオブジェクトを予め決定された時間区間の間に追跡して走行グループ1010を生成する。連続的なフレームイメージがm fpsで撮影される場合(ここで、mは1以上の整数として、例えば、30fps又は60fpsなどである)、予め決定された時間区間はn/mである(ここで、nは1以上の整数)。例えば、仮想車路生成装置は、図10に示すように、予め決定された時間区間の間に各フレームイメージで同一のオブジェクトに対応するオブジェクト領域を追跡する。仮想車路生成装置は、順次に第1オブジェクト領域1015、第2オブジェクト領域1014、第3オブジェクト領域1013、第4オブジェクト領域1012、及び第5オブジェクト領域1011を検出し得る。仮想車路生成装置は、同一のオブジェクトに該当する複数のオブジェクト領域1011~1015を1つの走行グループ1010にクラスタリングする。図10において、nは5であってもよい。
また、仮想車路生成装置は、オブジェクトの速度が車両の速度と異なる場合に応答して、オブジェクトの移動を追跡して走行グループ1010を生成する。仮想車路生成装置は、先行車両との速度差が閾値差以上である場合、連続的なフレームイメージからオブジェクトの移動を追跡する。例えば、仮想車路生成装置は、オブジェクトの速度が現在車両の速度よりも速い場合にオブジェクトの移動を追跡する。
仮想車路生成装置は、図9及び図10を参照して説明したクラスタリングを結合して使用してもよい。例えば、仮想車路生成装置は、第1車路に沿って複数の車両が位置し、第2車路に沿って単一車両のみが存在する場合、第1車路に対しては複数の車両を同じ走行グループにクラスタリングし、第2車路に対しては単一車両の連続的な追跡結果を同じ走行グループにクラスタリングする。
ただし、図9及び図10では、オブジェクト領域をクラスタリングすることを中心に説明したが、これに限定されることはない。例えば、仮想車路生成装置は、前方で検出された後尾ランプをクラスタリングして走行グループを生成してもよい。異なる例として、仮想車路生成装置は、前方で検出されたタイヤをクラスタリングして走行グループを生成してもよい。また、仮想車路生成装置は、クラスタリングの際にライダセンサなどに基づいた深さ情報、現在位置の実際の道路の広さ、及び車路情報などに基づいて車路ごとに走行グループを生成してもよい。
図11は、一実施形態に係る複数の車路領域の推定を説明する図である。
仮想車路生成装置は、走行グループに基づいて車路領域を生成する。一実施形態によると、仮想車路生成装置は、走行グループが複数である場合に応答して、複数の走行グループのそれぞれが占めている領域に基づいて複数の車路領域を推定する。ただし、これに限定されることなく、仮想車路生成装置は、走行グループが1つである場合、当該の走行グループが占めている領域に基づいて単一車路領域を推定し得る。
例えば、図11に示す外部イメージ1100で仮想車路生成装置は、左側走行グループ1121、1122に対して左側車路領域を指示する輪郭線1191、1192を生成する。仮想車路生成装置は、中央走行グループ1111、1112に対して中央車路領域を指示する輪郭線1193、1194を生成する。仮想車路生成装置は、右側走行グループ1131に対しても右側車路領域を生成する。
例えば、仮想車路生成装置は、各走行グループが占めている領域のカーブをフィッティングすることにより車路領域を推定し得る。カーブフィッティングのための方式は、例えば、線形最小二乗法(Linear least squares)を利用した方式、及び非線形回帰モデル(Non-linear regression model)を利用した方式などを含んでもよい。例えば、特定走行グループに属する車両のバウンディングボックス(bounding box)の中心座標に対する位置情報に基づいて、線形最小二乗法や非線形回帰モデルなどのカーブフィッティング方式を用いて車路領域が推定される。異なる例として、左側車路領域に位置する車両の最外郭の右側座標及び/又は右側車路領域に位置する車両の最外郭の左側座標に対する位置情報に基づいて、カーブフィッティング方式を用いて車路領域が推定されてもよい。更なる例として、車両の特徴点の位置情報に基づいて、カーブフィッティング方式を用いて車路領域が推定されてもよい。それぞれの例において、各位置情報がカーブフィッティング方式の入力として用いられてもよい。
異なる例として、仮想車路生成装置は、オブジェクト領域に基づいて車路領域を生成するようにトレーニングされたモデルを用いてもよい。車路領域を生成するように、トレーニングされたモデルはオートエンコーダ(auto-encoder)が変形されたモデルなどであってもよい。ただし、これに限定されることなく、仮想車路生成装置は、検出されたオブジェクト領域及び特徴領域から車路領域が出力されるようにトレーニングされたモデルを使用してもよい。
図12は、一実施形態に係る仮想の車路境界線の生成を説明する図である。
仮想車路生成装置は、図11を参照して抽出された車路領域に基づいて仮想の車路境界線を生成する。車路領域は図11を参照して上述したように、外部イメージ1200から検出されたオブジェクト領域1211、1212、1221、1222、1231がクラスタリングされた走行グループが占めている領域に基づいて推定される。車路領域は、車路領域の境界を指示する輪郭線1291、1292、1293、1294によって定義される。
一実施形態によると、仮想車路生成装置は、推定された複数の車路領域のそれぞれの間で仮想の車路境界線1281、1282を生成する。例えば、仮想車路生成装置は、複数の車路領域のうち互いに隣接する車路領域間の中間を横切る線を仮想車路境界線1281として決定する。図12では、左側車路領域の右側輪郭線1292及び中央車路領域の左側輪郭線1293の中間を横切る線が仮想車路境界線1281として算出される。
また、仮想車路生成装置は、先行車両に対応する走行グループの最も狭い車路領域及び最も広い車路領域を算出し、中間の広さを有する車路領域を指示する輪郭線を車路境界線として算出する。中間の広さを有する車路領域は、最も狭い車路領域を指示する輪郭線及び最も広い車路領域を指示する輪郭線の平均位置に配置した座標の集合である。
ただし、これに限定されることなく、仮想車路生成装置は先行車両に対応する走行グループが車両の後尾ランプに基づいて生成された場合、後尾ランプに基づいて車路領域を算出する。仮想車路生成装置は、算出された車路領域を指示する輪郭線に一定の長さ(例えば、車両のバンパーと後尾ランプとの間の間隔)を補償することによって仮想の車路境界線を生成してもよい。
図13及び図14は、一実施形態に係る仮想車路を説明する図である。
図13は、図12を参照して生成された仮想の車路境界線1311、1312に基づいて仮想車路生成装置が仮想車路を決定する。
仮想車路生成装置は、生成された仮想車路を図13に示すように表示する。例えば、仮想車路生成装置は、車両の風防ガラス1300に仮想車路境界線1311、1312をHUDに提供する。異なる例として、仮想車路生成装置は、計器板(instrument cluster)、車両情報通信システム(vehicular infotainment system)、拡張現実を用いる車両スクリーン、又は車両のディスプレイパネルに仮想車路境界線1311、1312を提供する。
また、仮想車路生成装置は、生成された仮想車路に基づいて走行経路を生成してもよい。例えば、仮想車路生成装置は、車路検出情報が有効でない場合に応答して、車両が仮想車路に沿って走行するよう制御する。したがって、仮想車路生成装置は、車両が自律走行に移動する場合にも視野低下による危険を最小化することができる。
図14は、路地などで別途の車路境界線なしに固定オブジェクトが存在する場合を示す。
仮想車路生成装置は、外部イメージ1400からオブジェクト1410を検出し、オブジェクトの属性に基づいて仮想車路を生成する。例えば、仮想車路生成装置は、固定オブジェクトが占めている領域の輪郭線に基づいて仮想車路境界線1480を決定する。
したがって、仮想車路生成装置は車路境界線が検出されない路地でも、仮想車路を生成してユーザ又は自律走行車両に提供することができる。
図15は、一実施形態により対象オブジェクトから指示情報が検出される場合を説明する図である。
一実施形態によると、仮想車路生成装置は、車両の前方から対象オブジェクトを検出する。仮想車路生成装置は、対象オブジェクトから指示情報が検出される場合に応答して、対象オブジェクトを仮想車路の生成から排除する。指示情報1591、1595は対象オブジェクトの状態を指示する情報として、例えば、対象オブジェクトが方向指示などを活性化した場合、非常ランプを活性化した場合、及び一定の時間以上ブレーキなどを活性化した場合などを含み得る。
図15で、仮想車路生成装置は、外部イメージ1500の第1フレームイメージのオブジェクト領域1515で指示情報(例えば、方向指示など)1591、1595を検出し、第2フレームイメージないし第5フレームイメージのオブジェクト領域1511~1514から指示情報1591、1595を連続的に検出する。仮想車路生成装置は、検出された指示情報1591、1595に関する同一対象オブジェクトに対する走行グループ1510を仮想車路生成から排除する。したがって、仮想車路生成装置は、先行する他の車両が方向を変えたり、非常状況として停車するなどの例外的な状況が発生した車路を排除することで、より安全な仮想車路を生成してユーザ又は自律走行車両に提供することができる。
図16及び図17は、一実施形態に係る仮想車路生成装置の構成を説明するブロック図である。
図16に示された仮想車路生成装置1600は、イメージ取得部1610及び処理部1620を含む。
イメージ取得部1610は、車両の前方に対する外部イメージを取得する。
処理部1620は、外部イメージから抽出された車路検出情報の有効性を判断し、車路検出情報が有効でない場合に応答して、外部イメージに示されるオブジェクトに基づいて仮想車路を生成する。実施形態により、仮想車路生成装置1600は、ディスプレイ部(図示せず)をさらに含んでもよく、上記で生成された仮想車路はディスプレイ部に表示され得る。
ただし、仮想車路生成装置1600の動作は、上述したものに限定されることなく、図1~図15を参照して上述した動作と結合されてもよい。
図17に示された仮想車路生成装置1700は、カメラ1711、車路認識部1712、処理部1720、出力部1730、及びデータベース1740を含む。処理部1720は、図16に示す処理部1620と類似動作を実行し、車路境界線検出部1721、オブジェクト検出部1722、オブジェクトクラスタリング部1723、及び仮想車路境界線生成部1724を含む。
カメラ1711は、車両(例えば、自律走行車両)の前方に対する外部イメージを撮影する。カメラ1711は、例えば、カラーイメージで車両の前方を撮影するが、これに限定されることはない。また、カメラ1711は、複数使用されてもよい。
車路認識部1712は、現在車両が位置する道路の状況を認識する。例えば、車路認識部1712は、GPS信号に基づいて車両の位置を識別し、また、ライダセンサに基づいた深さ情報などを用いて周辺オブジェクトとの距離を識別する。
車路境界線検出部1721は、カメラ1711を用いて取得した外部イメージから車両の前方に対する車路境界線を検出する。
オブジェクト検出部1722は、外部イメージから前方に位置するオブジェクトを識別する。例えば、オブジェクト検出部1722は、オブジェクトの属性などに基づいてオブジェクトの種類を識別し得る。
オブジェクトクラスタリング部1723は、オブジェクトをクラスタリングして走行グループを生成する。例えば、オブジェクトクラスタリング部1723は、現在車両が走行中である車路を基準として、現在の走行中である走行グループ、左側走行グループ、及び右側走行グループなどを生成する。
仮想車路境界線生成部1724は、生成された走行グループに基づいて仮想の車路境界線を生成する。例えば、仮想車路境界線生成部1724は、生成された走行グループ間の領域の中間を横切る線を仮想車路境界線として決定する。
出力部1730は、生成された仮想車路境界線を出力する。例えば、仮想車路生成装置1700は、ディスプレイ部(図示せず)をさらに含んでもよく、出力部1730は、仮想車路境界線をディスプレイ部を介して出力したり車両に出力してもよい。出力部1730がディスプレイで出力した仮想車路境界線は走行参照情報として運転者に提供される。例えば、出力部1730は、車両内のディスプレイにリアルタイム映像に仮想車路境界線をオーバーレイして提供する。また、出力部1730は、ナビゲーションスクリーンの地図上の道路にオーバーレイして提供し得る。さらに、出力部1730は、車両の前方道路に対してレーザやプロジェクションを介して仮想車路境界線を運転者に視覚的に提供する。
データベース1740は、仮想車路生成のために要求されるデータを格納する。例えば、データベース1740は、仮想車路推定に用いられる予めトレーニングされたモデル及び地図情報などを含み得る。
したがって、一実施形態に係る仮想車路生成装置1700は、運転者が車路境界線認識が不可能であるか、正常な方式で車路に沿って行けない場合、運転者の走行をガイドするための情報として仮想車路を生成して提供することができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合わせで具現化される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は専用コンピュータを用いて具現化される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組合せを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現化され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように、実施形態を限定された図面によって説明したとしても、当該技術分野で通常の知識を有する者であれば、前記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されたり、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果を達成することができる。
1600、1700:仮想車路生成装置
1610:イメージ取得部
1620:処理部
1711:カメラ
1712:車路認識部
1740:データベース
1720:処理部
1721:車路境界線検出部
1722:オブジェクト検出部
1723:オブジェクトクラスタリング部
1724:仮想車路境界線生成部
1730:出力部

Claims (21)

  1. 仮想車路生成装置による仮想車路生成方法であって、
    前記仮想車路生成装置におけるイメージ取得部が、車両の前方に対する外部イメージを取得するステップと、
    前記仮想車路生成装置における処理部が、前記外部イメージから抽出された車路検出情報の有効性を判断するステップと、
    前記処理部が、前記車路検出情報が有効でない場合に応答して、前記外部イメージに示されるオブジェクトに基づいて仮想車路を生成するステップと、
    含み、
    前記仮想車路を生成するステップは、前記処理部が、
    前記外部イメージ内で前記車両の前方に存在するオブジェクトをクラスタリングして走行グループを生成するステップと、
    前記走行グループに基づいて前記仮想車路を生成するステップと、
    を含み、
    前記走行グループは、左側走行グループ、中央走行グループ、及び右側走行グループのうち、いずれか1つに対応する、
    仮想車路生成方法。
  2. 前記仮想車路を生成するステップは、前記処理部が、
    前記外部イメージから前記車両の前方に存在するオブジェクトを検出するステップと、
    前記検出されたオブジェクトに基づいて前記仮想車路を生成するステップと、
    を含む、請求項1に記載の仮想車路生成方法。
  3. 前記オブジェクトを検出するステップは、前記処理部が、
    前記オブジェクトを含むオブジェクト領域及び前記オブジェクトの特徴部分を含む特徴領域を検出するステップ、
    を含む、請求項2に記載の仮想車路生成方法。
  4. 前記走行グループに基づいて前記仮想車路を生成するステップは、前記処理部が、
    前記走行グループが複数である場合に応答して、複数の走行グループのそれぞれが占めている領域に基づいて複数の車路領域を推定するステップと、
    前記推定された複数の車路領域のそれぞれの間で仮想の車路境界線を生成するステップと、
    前記仮想の車路境界線に基づいて前記仮想車路を生成するステップと、
    を含む、請求項に記載の仮想車路生成方法。
  5. 前記仮想車路生成方法は、さらに、
    前記処理部が、連続的なフレームイメージを含む前記外部イメージを取得するステップ、を含み、
    前記仮想車路を生成するステップは、前記処理部が、
    前記連続的なフレームイメージに示されるオブジェクトを予め決定された時間区間の間に追跡して走行グループを生成するステップと、
    前記走行グループに基づいて前記仮想車路を生成するステップと、
    を含む、請求項1ないしのいずれか一項に記載の仮想車路生成方法。
  6. 前記連続的なフレームイメージに示されるオブジェクトを予め決定された時間区間の間に追跡して走行グループを生成するステップは、前記処理部が、
    前記オブジェクトの速度が前記車両の速度と異なる場合に応答して、前記オブジェクトの移動を追跡して前記走行グループを生成するステップ、
    を含む、請求項に記載の仮想車路生成方法。
  7. 前記車路検出情報の有効性を判断するステップは、前記処理部が、
    前記外部イメージから車路検出情報を抽出するステップと、
    前記抽出された車路検出情報の有効スコアが閾値スコアを超過するか否かを判断するステップと、
    を含む、請求項1ないしのいずれか一項に記載の仮想車路生成方法。
  8. 前記有効スコアが閾値スコアを超過するか否かを判断するステップは、前記処理部が、
    前記車両周辺の照度情報、気象情報、時刻情報、及び前記外部イメージの画質情報のうち少なくとも1つに基づいて前記有効スコアを算出するステップ、
    を含む、請求項に記載の仮想車路生成方法。
  9. 前記仮想車路生成方法は、さらに、
    前記処理部が、前記生成された仮想車路をディスプレイするステップ、
    を含む、請求項1ないしのいずれか一項に記載の仮想車路生成方法。
  10. 前記車路検出情報の有効性を判断するステップは、前記処理部が、
    前記車両の前方から検出されたオブジェクトの属性に基づいて、前記車路検出情報の有効性を判断するステップ、
    を含む、請求項1ないしのいずれか一項に記載の仮想車路生成方法。
  11. 前記車路検出情報の有効性を判断するステップは、前記処理部が、
    前記車両の前方から警報オブジェクトを検出するステップと、
    前記検出された警報オブジェクトに対応する車路境界線を前記車路検出情報から排除するステップと、
    を含む、請求項1ないし10のいずれか一項に記載の仮想車路生成方法。
  12. 前記仮想車路を生成するステップは、前記処理部が、
    前記車両の前方から対象オブジェクトを検出するステップと、
    前記対象オブジェクトから指示情報が検出される場合に応答して、前記対象オブジェクトを前記仮想車路の生成から排除するステップと、
    を含む、請求項1ないし11のいずれか一項に記載の仮想車路生成方法。
  13. 前記仮想車路生成方法は、さらに、
    前記処理部が、前記生成された仮想車路に基づいて走行経路を生成するステップ、
    を含む、請求項1ないし12のいずれか一項に記載の仮想車路生成方法。
  14. 前記車路検出情報の有効性を判断するステップは、前記処理部が、
    対象オブジェクトの移動経路及び前記車路検出情報に基づいた車路がマッチングするか否かを判断するステップと、
    前記移動経路が前記車路検出情報に基づいた車路にマッチングしない場合、前記対象オブジェクトに対応する車路境界線を前記車路検出情報から排除するステップと、
    を含む、請求項1ないし13のいずれか一項に記載の仮想車路生成方法。
  15. 前記車路検出情報の有効性を判断するステップは、前記処理部が、
    対象オブジェクトの移動速度が閾値の速度未満に減少する場合に応答して、前記対象オブジェクトに対応する車路境界線を前記車路検出情報から排除するステップ、
    を含む、請求項1ないし14のいずれか一項に記載の仮想車路生成方法。
  16. 前記仮想車路を生成するステップは、前記処理部が、
    前記外部イメージから検出された前記オブジェクトまでの距離を指示する深さ情報を検出するステップと、
    前記外部イメージ及び前記深さ情報に基づいて前記仮想車路を生成するステップと、
    を含む、請求項1ないし15のいずれか一項に記載の仮想車路生成方法。
  17. 前記仮想車路を生成するステップは、前記処理部が、
    前記車両が位置する位置情報及び前記位置情報に対応する道路情報に基づいて前記仮想車路を生成するステップ、
    を含む、請求項1ないし16のいずれか一項に記載の仮想車路生成方法。
  18. 仮想車路生成装置による仮想車路生成方法であって、
    前記仮想車路生成装置における処理部が、車両の前方に対する映像から抽出された車線検出情報の有効性を決定するステップと、
    前記処理部が、前記車線検出情報が有効でない場合、前記映像に示されたオブジェクトをクラスタリングすることによって少なくとも1つの走行グループを生成するステップと、
    前記処理部が、前記少なくとも1つの走行グループが複数の走行グループを含む場合、前記少なくとも1つの走行グループそれぞれによって占有された領域に基づいて車線領域を推定するステップと、
    前記処理部が、前記推定した車線領域の間に仮想車線境界線を生成するステップと、
    前記処理部が、前記仮想車線境界線に基づいて仮想車線を生成するステップと、
    含み、
    前記走行グループは、左側走行グループ、中央走行グループ、および、右側走行グループのうち、いずれか1つに対応する、
    仮想車路生成方法。
  19. 前記少なくとも1つの走行グループを生成するステップは、前記処理部が、
    前記車両の位置での道路情報を取得するステップと、
    前記道路情報に基づいて、生成される走行グループの最大個数と最小個数を決定するステップと、
    を含む、請求項18に記載の仮想車路生成方法。
  20. 請求項1ないし19のいずれか一項に記載の方法を実行するための1つ以上の命令語を含むプログラムを格納したコンピュータ読み出し可能な記録媒体。
  21. 仮想車路生成装置において、
    車両の前方に対する外部イメージを取得するイメージ取得部と、
    前記外部イメージから抽出された車路検出情報の有効性を判断し、前記車路検出情報が有効でない場合に応答して、前記外部イメージに示されるオブジェクトに基づいて仮想車路を生成する処理部と、
    含み、
    前記処理部が、前記仮想車路を生成することは、
    前記外部イメージ内で前記車両の前方に存在するオブジェクトをクラスタリングして走行グループを生成し、かつ、
    前記走行グループに基づいて前記仮想車路を生成する、
    ことを含み、
    前記走行グループは、左側走行グループ、中央走行グループ、および、右側走行グループのうち、いずれか1つに対応する、
    仮想車路生成装置。
JP2018016587A 2017-02-28 2018-02-01 仮想車路生成装置及び方法 Active JP7121497B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0026524 2017-02-28
KR1020170026524A KR20180099280A (ko) 2017-02-28 2017-02-28 가상 차로 생성 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2018142309A JP2018142309A (ja) 2018-09-13
JP7121497B2 true JP7121497B2 (ja) 2022-08-18

Family

ID=60915264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018016587A Active JP7121497B2 (ja) 2017-02-28 2018-02-01 仮想車路生成装置及び方法

Country Status (5)

Country Link
US (1) US10853665B2 (ja)
EP (1) EP3376432B1 (ja)
JP (1) JP7121497B2 (ja)
KR (1) KR20180099280A (ja)
CN (1) CN108509832B (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102568114B1 (ko) * 2016-11-30 2023-08-18 현대오토에버 주식회사 자율 주행 제어 장치 및 방법
US10679428B1 (en) * 2017-05-26 2020-06-09 Snap Inc. Neural network-based image stream modification
US10444759B2 (en) * 2017-06-14 2019-10-15 Zoox, Inc. Voxel based ground plane estimation and object segmentation
CN107563326A (zh) * 2017-08-31 2018-01-09 京东方科技集团股份有限公司 一种行车辅助方法、行车辅助装置和车辆
CN107993485B (zh) * 2017-10-30 2019-11-26 惠州市德赛西威汽车电子股份有限公司 一种基于车联网的自适应预警方法以及装置
US10864819B2 (en) * 2017-10-31 2020-12-15 Speedgauge, Inc. Driver alertness warning system and method
US11068735B2 (en) * 2017-12-05 2021-07-20 Denso Corporation Reliability calculation apparatus
EP3867722A4 (en) * 2018-10-17 2022-08-03 Cognata Ltd. SYSTEM AND METHOD FOR GENERATION OF REALISTIC SIMULATION DATA FOR TRAINING AN AUTONOMOUS DRIVER
KR102633140B1 (ko) * 2018-10-23 2024-02-05 삼성전자주식회사 주행 정보를 결정하는 방법 및 장치
JP6652753B1 (ja) * 2018-10-26 2020-02-26 株式会社鈴康 情報処理方法、情報処理装置及びコンピュータプログラム
US11933626B2 (en) * 2018-10-26 2024-03-19 Telenav, Inc. Navigation system with vehicle position mechanism and method of operation thereof
US11518384B2 (en) * 2018-12-07 2022-12-06 Thinkware Corporation Method for displaying lane information and apparatus for executing the method
US10633007B1 (en) * 2019-01-31 2020-04-28 StradVision, Inc. Autonomous driving assistance glasses that assist in autonomous driving by recognizing humans' status and driving environment through image analysis based on deep neural network
CN111681199B (zh) * 2019-02-25 2023-11-03 北京地平线机器人技术研发有限公司 检测图像有效性的方法及装置
DE102019202578A1 (de) 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
DE102019202592A1 (de) 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
DE102019202587A1 (de) 2019-02-26 2020-08-27 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
CN109878508B (zh) * 2019-02-28 2021-04-06 东软睿驰汽车技术(沈阳)有限公司 一种端到端自动驾驶的方法及装置
KR102177880B1 (ko) * 2019-03-08 2020-11-12 현대모비스 주식회사 자율주행용 클래스 레이블링 장치
US10915766B2 (en) * 2019-06-28 2021-02-09 Baidu Usa Llc Method for detecting closest in-path object (CIPO) for autonomous driving
JP2021041758A (ja) * 2019-09-09 2021-03-18 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11499833B2 (en) * 2019-09-25 2022-11-15 GM Global Technology Operations LLC Inferring lane boundaries via high speed vehicle telemetry
JP7395913B2 (ja) 2019-09-30 2023-12-12 株式会社アイシン 物体検知装置
CN111158359B (zh) * 2019-12-02 2023-08-04 北京京东乾石科技有限公司 障碍物处理方法和装置
DE102019219756A1 (de) * 2019-12-16 2021-06-17 Volkswagen Aktiengesellschaft Verfahren zur Erzeugung von künstlichen Fahrbahn-Merkmalen, Computerprogramm, Computerlesbarer Datenträger und Vorrichtung zur Erzeugung von künstlichen Fahrbahn-Merkmalen
CN113012454A (zh) * 2019-12-20 2021-06-22 中移(上海)信息通信科技有限公司 地图消息、自动驾驶方法、装置、设备和介质
US12010583B2 (en) 2020-02-06 2024-06-11 Huawei Technologies Co., Ltd. Method, apparatus and system for mobile device location determination
US20210256842A1 (en) * 2020-02-14 2021-08-19 Huawei Technologies Co., Ltd. System, method and apparatus supporting navigation
US11195033B2 (en) * 2020-02-27 2021-12-07 Gm Cruise Holdings Llc Multi-modal, multi-technique vehicle signal detection
JP6946495B2 (ja) * 2020-03-04 2021-10-06 本田技研工業株式会社 車両制御装置及び車両制御方法
CN111626264B (zh) * 2020-06-06 2020-12-08 金宝兴电子(深圳)有限公司 一种实景反馈式模拟驾驶方法、装置及服务器
US11662219B2 (en) * 2020-06-23 2023-05-30 Baidu Usa Llc Routing based lane guidance system under traffic cone situation
CN113879298A (zh) * 2020-07-01 2022-01-04 华为技术有限公司 一种车辆的车道保持控制方法、装置及***
CN112001986B (zh) * 2020-08-24 2024-05-28 北京百度网讯科技有限公司 虚拟车道的生成方法、装置以及电子设备和存储介质
CN112802112B (zh) * 2021-04-12 2021-07-16 北京三快在线科技有限公司 视觉定位方法、装置、服务器及存储介质
KR102559534B1 (ko) * 2021-06-29 2023-07-26 주식회사 디에이치오토웨어 악천후에서의 차량의 주행차선 지원 방법 및 장치
US11715305B1 (en) * 2022-11-30 2023-08-01 Amitha Nandini Mandava Traffic detection system using machine vision

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007008281A (ja) 2005-06-29 2007-01-18 Toyota Motor Corp 車両用運転支援装置
JP2007122578A (ja) 2005-10-31 2007-05-17 Equos Research Co Ltd 仮想車線表示装置
JP2013232079A (ja) 2012-04-27 2013-11-14 Denso Corp 境界線検出装置、逸脱検出装置および境界線検出プログラム
JP2014002477A (ja) 2012-06-15 2014-01-09 Denso Corp 車群管理装置
JP2014157429A (ja) 2013-02-14 2014-08-28 Honda Motor Co Ltd 車両の走行支援装置
JP2016162196A (ja) 2015-03-02 2016-09-05 株式会社日本自動車部品総合研究所 車両制御装置
JP2017016360A (ja) 2015-06-30 2017-01-19 富士通テン株式会社 情報提示装置、車載装置、情報提示システムおよび情報提示方法
US20180129854A1 (en) 2016-11-09 2018-05-10 Samsung Electronics Co., Ltd. Method and apparatus for generating virtual driving lane for traveling vehicle

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5959569A (en) * 1997-10-09 1999-09-28 Eaton Vorad Technologies, L.L.C. Method and apparatus for in path target determination for an automotive vehicle using a gyroscopic device
KR101265110B1 (ko) * 2009-11-03 2013-05-20 한국전자통신연구원 랜드마크를 이용한 조향 제어 장치 및 방법
DE112009005401B4 (de) * 2009-11-27 2021-01-28 Toyota Jidosha Kabushiki Kaisha Fahrunterstützungsvorrichtung und fahrunterstützungsverfahren
US9542846B2 (en) * 2011-02-28 2017-01-10 GM Global Technology Operations LLC Redundant lane sensing systems for fault-tolerant vehicular lateral controller
KR101249366B1 (ko) 2011-10-17 2013-04-01 주식회사 만도 차선 인식 장치 및 차선 인식 방법
KR20130057112A (ko) * 2011-11-23 2013-05-31 현대자동차주식회사 가상 차선 생성 장치 및 방법
KR101316353B1 (ko) 2012-05-31 2013-10-08 현대자동차주식회사 차량 주변의 차선 생성 장치 및 방법
US8996228B1 (en) 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
US9221461B2 (en) * 2012-09-05 2015-12-29 Google Inc. Construction zone detection using a plurality of information sources
CN103366571B (zh) * 2013-07-03 2016-02-24 河南中原高速公路股份有限公司 智能的夜晚交通事件检测方法
EP2826687B1 (en) 2013-07-16 2019-03-06 Honda Research Institute Europe GmbH Technique for lane assignment in a vehicle
KR101519277B1 (ko) * 2013-12-24 2015-05-11 현대자동차주식회사 차량의 주행도로 인지 장치 및 방법
JP6323063B2 (ja) 2014-02-26 2018-05-16 日産自動車株式会社 走行車線識別装置、車線変更支援装置、走行車線識別方法
US9120486B1 (en) 2014-04-22 2015-09-01 Fca Us Llc Vehicle lane keeping techniques
DE102014212478A1 (de) 2014-06-27 2015-12-31 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
KR101526816B1 (ko) 2014-09-12 2015-06-05 현대자동차주식회사 차선 추정 시스템 및 그 방법
US9946940B2 (en) * 2014-12-18 2018-04-17 Magna Electronics Inc. Vehicle vision system with adaptive lane marker detection
JP6567832B2 (ja) 2015-01-29 2019-08-28 日本電産株式会社 レーダシステム、レーダ信号処理装置、車両走行制御装置および方法、ならびにコンピュータプログラム
JP6846630B2 (ja) 2015-02-16 2021-03-24 パナソニックIpマネジメント株式会社 走行レーン検出装置、走行レーン検出方法、併走車検出装置及び隣接するレーンを走行する併走車の検出方法
US10282997B2 (en) * 2015-07-20 2019-05-07 Dura Operating, Llc System and method for generating and communicating lane information from a host vehicle to a vehicle-to-vehicle network
BR112018007131A2 (ja) * 2015-10-08 2018-11-06 Nissan Motor Co., Ltd. A display supporting device and a display support method
JP6733225B2 (ja) * 2016-03-08 2020-07-29 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
CN105922991B (zh) * 2016-05-27 2018-08-17 广州大学 基于生成虚拟车道线的车道偏离预警方法及***
DE112016007238T5 (de) * 2016-10-20 2019-07-04 Ford Motor Company Verfahren und vorrichtung zum darstellen von spur- und fahrzeugtyp-spezifischen verkehrsinformationen auf einer karte
KR20180047210A (ko) * 2016-10-31 2018-05-10 현대자동차주식회사 주차구획 탐색 장치 및 방법
KR101891725B1 (ko) * 2016-11-18 2018-08-24 국민대학교산학협력단 단거리 레이더 센서 기반의 가상 차선 생성 방법
WO2018102425A1 (en) * 2016-12-02 2018-06-07 Starsky Robotics, Inc. Vehicle control system and method of use
KR102383427B1 (ko) * 2016-12-16 2022-04-07 현대자동차주식회사 자율주행 제어 장치 및 방법
US10417906B2 (en) * 2016-12-23 2019-09-17 Here Global B.V. Lane level traffic information and navigation
US10207706B2 (en) * 2016-12-28 2019-02-19 Automotive Research & Testing Center System for detecting lane line of road and method thereof
US10268201B2 (en) * 2017-02-28 2019-04-23 Mitsubishi Electric Research Laboratories, Inc. Vehicle automated parking system and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007008281A (ja) 2005-06-29 2007-01-18 Toyota Motor Corp 車両用運転支援装置
JP2007122578A (ja) 2005-10-31 2007-05-17 Equos Research Co Ltd 仮想車線表示装置
JP2013232079A (ja) 2012-04-27 2013-11-14 Denso Corp 境界線検出装置、逸脱検出装置および境界線検出プログラム
JP2014002477A (ja) 2012-06-15 2014-01-09 Denso Corp 車群管理装置
JP2014157429A (ja) 2013-02-14 2014-08-28 Honda Motor Co Ltd 車両の走行支援装置
JP2016162196A (ja) 2015-03-02 2016-09-05 株式会社日本自動車部品総合研究所 車両制御装置
JP2017016360A (ja) 2015-06-30 2017-01-19 富士通テン株式会社 情報提示装置、車載装置、情報提示システムおよび情報提示方法
US20180129854A1 (en) 2016-11-09 2018-05-10 Samsung Electronics Co., Ltd. Method and apparatus for generating virtual driving lane for traveling vehicle

Also Published As

Publication number Publication date
CN108509832B (zh) 2023-12-12
KR20180099280A (ko) 2018-09-05
EP3376432A2 (en) 2018-09-19
EP3376432A3 (en) 2018-12-26
CN108509832A (zh) 2018-09-07
US10853665B2 (en) 2020-12-01
JP2018142309A (ja) 2018-09-13
EP3376432B1 (en) 2023-12-20
US20180247138A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
JP7121497B2 (ja) 仮想車路生成装置及び方法
US20240132154A1 (en) Road profile along a predicted path
US11708077B2 (en) Systems and methods for navigating a vehicle among encroaching vehicles
JP7397807B2 (ja) ライダー支援システム及び方法
US11155249B2 (en) Systems and methods for causing a vehicle response based on traffic light detection
US11688174B2 (en) System and method for determining vehicle data set familiarity
US11987239B2 (en) Driving assistance device
JPWO2019065564A1 (ja) 自動運転制御装置及び方法
US20220327819A1 (en) Image processing apparatus, image processing method, and program
CN117292359A (zh) 用于辅助驾驶的障碍物确定方法、设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220805

R150 Certificate of patent or registration of utility model

Ref document number: 7121497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150