JP7240367B2 - 車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体 - Google Patents

車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体 Download PDF

Info

Publication number
JP7240367B2
JP7240367B2 JP2020160121A JP2020160121A JP7240367B2 JP 7240367 B2 JP7240367 B2 JP 7240367B2 JP 2020160121 A JP2020160121 A JP 2020160121A JP 2020160121 A JP2020160121 A JP 2020160121A JP 7240367 B2 JP7240367 B2 JP 7240367B2
Authority
JP
Japan
Prior art keywords
current vehicle
current
vehicle
around
marked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020160121A
Other languages
English (en)
Other versions
JP2021120844A (ja
Inventor
チー チェン,
ソンタオ チャン,
ツォン チェン,
ユービン ワン,
ヨウハオ リー,
ウェンヤン チェン,
Original Assignee
アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド filed Critical アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド
Publication of JP2021120844A publication Critical patent/JP2021120844A/ja
Application granted granted Critical
Publication of JP7240367B2 publication Critical patent/JP7240367B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18072Coasting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0285Parking performed automatically
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3685Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities the POI's being parking facilities
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/28Wheel speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/06Automatic manoeuvring for parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18066Coasting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/303Speed sensors
    • B60Y2400/3032Wheel speed sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Medical Informatics (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本開示は、知能自動車分野に関し、さらに無人運転技術に関し、特に、車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体に関する。
サラウンドビュー・ヴィジュアル・ポジショニング(Surround-view Visual Positioning)技術とは、車両の車体周囲の複数の魚眼画像を、サラウンドビュー画像として継ぎ合わせ、ディープニューラルネットワークモデルによって、当該サラウンドビュー画像において、例えば、駐車スペース番号、駐車スペースの角点、車線境界線、地面の道路標示情報(例えば、地面の矢印、ゼブラストライン等)などのヴィジュアル・ポジショニングの要素を検出し、事前に作成されたグローバル高精度語義地図において、データ関連付け及びマッチングを実行することにより、車両に取り付けられた視覚慣性距離計へ、効果的な観測結果を提供することができ、車庫等の適用場面では、無人車の位置特定の精度、及び、車庫の出し入れ時及び走行中の車両の位置特定の精度を向上させる。
現在、自動駐車時の位置特定の技術として、一般的に、以下の3つの方案がある。
1)魚眼による視覚的要素に基づく無人車の位置特定方法。即ち、車体に配置された、前魚眼センサ、左魚眼センサ、後魚眼センサ、右魚眼センサの4つの魚眼センサにより、車体周辺の視覚的要素としての駐車スペース、車線境界線、地面の矢印等の情報を収集し、歪みを除去することで視覚的要素の実際の位置を得、そして、一定の頻度で、得られた視覚的要素をバックエンドに送信し、バックエンドにおいて処理することにより車体の位置を特定する。
2)前方広角画像を利用したヴィジュアル・ポジショニングに基づく無人車の位置特定方法。即ち、一般的に車体前部に配置された前方広角カメラにより、駐車スペース点、車線、地面矢印及び人工的標示等の情報を識別する等のように、車体前方の視覚的要素を検出し、検出された視覚的要素をバックエンドに送信し、バックエンドにおいて視覚的要素の結合を実行することで位置を特定する。
3)サラウンドビュー・ヴィジュアル・ポジショニングに基づく局所的位置特定方法。無人車の車庫の出し入れに対する運転支援によく使用される方案として、4つの魚眼の画像を継ぎ合わせて一枚のサラウンドビュー画像を得、得られたサラウンドビュー画像から、位置特定用の視覚的要素を識別する。当該方法によれば、歪みの影響を効果的に除去することができ、車体と位置特定用の視覚的要素との相対位置を効果的に取得することができ、位置特定の精度を向上させる。
上述した従来技術による3つの車両の位置特定に用いられる方法は、いずれも、車両の位置特定用の要素を取得することによって車両の位置を特定するものであるが、それらの位置特定用の要素は、いずれも、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定することができない。即ち、車両と周囲の物体との相対位置を検出することしかできず、車両の緯度及び経度を含む座標を特定することはできない。
これに鑑み、本願の実施例は、車両の緯度及び経度を含む座標を正確に特定することができ、位置特定の精度を効果的に向上させる車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体を提供する。
第1の態様において、車両の位置特定に用いられる方法であって、現在車両周辺の標識要素及び各非標識要素を取得するステップと、現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定するステップと、高精度地図における少なくとも一つの位置要素を用いて、現在車両周辺の各非標識要素に対して観測的制約を施して、現在車両周辺の各非標識要素に対応する位置要素を取得するステップと、現在車両周辺の各非標識要素に対応する位置要素を用いて、前記現在車両の初期化位置を調整して、現在車両の目標位置を得るステップと、を含む方法を提供する。
上記実施態様は、以下の利点又は有益な効果を有する。上記実施例によれば、現在車両周辺の標識要素と高精度地図における各位置要素とをマッチングすることで現在車両の初期化位置を特定することができる。続いて現在車両周辺の各非標識要素に対応する位置要素を用いて現在車両の初期化位置を調整して、現在車両の目標位置を得ることで、車両の緯度及び経度を含む座標を正確に特定するという目的を達成する。上述した従来技術の3つの車両の位置特定に用いられる方法は、いずれも車両の位置特定用の要素を取得することによって車両の位置を特定するものであるが、位置特定用の要素は、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定することができない。即ち、車両と周囲の物体との相対位置を検出することしかできず、車両の緯度及び経度を含む座標を検出することはできない。本願によれば、標識要素によって初期化位置を特定し、その後、非標識要素によって初期化位置を調整する技術的手段を用いるため、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定できないという従来技術の技術的問題を克服でき、さらに車両の緯度及び経度を含む座標を正確に特定し、位置特定の精度を効果的に向上させるという技術的効果を奏する。
上記実施態様において、前記現在車両周辺の標識要素及び各非標識要素を取得するステップは、前記現在車両に配置された4つの魚眼センサによって、前記現在車両の4方向における環境画像を収集するステップであって、前記4つの魚眼センサは、それぞれ前記現在車両の前、後、左、右の4方向に設けられるステップと、各魚眼センサにより収集された前記現在車両の4方向における環境画像を継ぎ合わせて、一枚のサラウンドビュー魚眼画像とするステップと、前記サラウンドビュー魚眼画像をディープニューラルネットワークに入力し、前記ディープニューラルネットワークから、前記現在車両周辺の標識要素及び各非標識要素を出力するステップと、を含む。
上記実施態様は、以下の利点又は有益な効果を有する。上記実施態様によれば、4つの魚眼センサによって現在車両の4方向における環境画像を収集し、4つの環境画像を継ぎ合わせて、一枚のサラウンドビュー魚眼画像とすることにより、現在車両周辺の標識要素及び各非標識要素を取得することができる。ディープニューラルネットワークにより、サラウンドビュー魚眼センサ画像を識別して、現在車両周辺の標識要素及び各非標識要素を正確に取得することができる。
上記実施態様において、前記現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定するステップは、前記現在車両周辺の標識要素により前記高精度地図において少なくとも一つの基準初期化位置を特定するステップと、前記現在車両周辺の標識要素と各基準初期化位置との一致度を算出し、最も一致度の高い基準初期化位置を、前記現在車両の初期化位置として決定するステップと、を含む。
上記実施態様は、以下の利点又は効果を有する。上記実施態様によれば、現在車両周辺の標識要素と各基準初期化位置との一致度を算出することにより、現在車両の初期化位置を正確に特定することができる。本願では、一致度の算出には、いかなるアルゴリズムも使用することができ、ここで、制限されない。一致度の算出時、人力を必要とせず、最も一致度の高い基準初期化位置を正確に得ることができ、それにより、現在車両の初期化位置を正確に特定することができる。
上記実施態様において、前記高精度地図における少なくとも一つの位置要素を用いて、前記現在車両周辺の各非標識要素に対して観測的制約を施して、前記現在車両周辺の各非標識要素に対応する位置要素を取得するステップは、前記現在車両周辺の各非標識要素のうちの1つを現在非標識要素として選出し、前記現在非標識要素により、前記高精度地図において、前記現在非標識要素に対応する位置要素を少なくとも1つ特定するステップと、現在車両周辺の各非標識要素の対応する位置要素を得るまで、以下の処理を繰り返し実行するステップであって、前記処理は、前記現在の非標識要素が点要素であり、且つ、当該現在の非標識要素の対応する位置要素が点の元要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、ポイント・ポイント(Point-Point)観測的制約を施して、前記現在の非標識要素の対応する位置要素を得、前記現在の非標識要素が線要素であり、且つ、前記現在の非標識要素の対応する位置要素が点の元要素である場合、或いは、前記現在の非標識要素が点要素であり、且つ、前記現在の非標識要素の対応する位置要素が点線要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、点線(Point-Line)観測的制約を施して、前記現在の非標識要素に対応する位置要素を得る処理である、ステップと、を含む。
上記実施態様は、以下の利点又は有益な効果を有する。上記実施態様によれば、ポイント・ポイント(Point-Point)観測的制約、又は、点線(Point-Line)観測的制約を施すことにより、現在車両周辺の各非標識要素に対応する位置要素を正確に取得することができ、それにより、現在車両周辺の各非標識要素に対応する位置要素を用いて、現在車両の初期化位置を調整して、現在車両の目標位置を得ることができる。
上記実施態様において、前記方法は、前記現在車両に配置された慣性測定センサ及び車輪速センサによって、前記現在車両の慣性測定データ及び車輪速データをそれぞれ収集するステップと、前記現在車両の慣性測定データと車輪速データを用いて、前記現在車両の目標位置を調整し、前記現在車両の最終の位置を得るステップと、を更に含む。
上記実施態様は、以下の利点又は有益な効果を有する。上記実施態様によれば、さらに慣性測定センサ及び車輪速センサによって慣性測定データ及び車輪速データを収集し、その後、現在車両の慣性測定データ及び車輪速データを用いて現在車両の目標位置を調整して、前記現在車両の最終位置を得ることにより、現在車両の最終位置を取得する精確度を向上させることができる。
第2の態様において、車両の位置特定に用いられる装置であって、現在車両周辺の標識要素及び各非標識要素を取得するように構成された取得モジュールと、前記現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定するように構成された特定モジュールと、前記高精度地図における少なくとも一つの位置要素を用いて、前記現在車両周辺の各非標識要素に対して観測的制約を施して、前記現在車両周辺の各非標識要素に対応する位置要素を取得するように構成された制約モジュールと、前記現在車両周辺の各非標識要素に対応する位置要素を用いて、前記現在車両の初期化位置を調整して、前記現在車両の目標位置を得るように構成された調整モジュールと、を備えることを特徴とする装置を提供する。
上記実施態様において、前記取得モジュールは、前記現在車両に配置された4つの魚眼センサによって、前記現在車両の4方向における環境画像を収集するように構成された収集サブモジュールであって、前記4つの魚眼センサは、それぞれ前記現在車両の前、後、左、右の4方向に設けられる、収集サブモジュールと、各魚眼センサにより収集された前記現在車両の4方向における環境画像を継ぎ合わせて、一枚のサラウンドビュー魚眼画像とし、そして、前記サラウンドビュー魚眼画像をディープニューラルネットワークに入力し、前記ディープニューラルネットワークから、前記現在車両周辺の標識要素及び各非標識要素を出力するように構成された取得サブモジュールと、を備える。
上記実施態様において、前記特定モジュールは、前記現在車両周辺の標識要素により前記高精度地図において少なくとも一つの基準初期化位置を特定し、前記現在車両周辺の標識要素と各基準初期化位置との一致度を算出し、最も一致度の高い基準初期化位置を、前記現在車両の初期化位置として決定するように構成される。
上記実施態様において、前記制約モジュールは、特定サブモジュールと制約サブモジュールとを備え、前記特定サブモジュールは、前記現在車両周辺の各非標識要素のうちの1つを現在非標識要素として選出し、前記現在非標識要素により、前記高精度地図において、前記現在非標識要素に対応する位置要素を少なくとも1つ特定するように構成され、前記制約サブモジュールは、現在車両周辺の各非標識要素の対応する位置要素を得るまで、以下の処理を繰り返し実行するように構成され、前記処理は、前記現在の非標識要素が点要素であり、且つ、当該現在の非標識要素の対応する位置要素が点の元要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、ポイント・ポイント(Point-Point)観測的制約を施して、前記現在の非標識要素の対応する位置要素を得、前記現在の非標識要素が線要素であり、且つ、前記現在の非標識要素の対応する位置要素が点の元要素である場合、或いは、前記現在の非標識要素が点要素であり、且つ、前記現在の非標識要素の対応する位置要素が点線要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、点線(Point-Line)観測的制約を施して、前記現在の非標識要素に対応する位置要素を得る処理である。
上記実施態様において、前記取得モジュールは、さらに、前記現在車両に配置された慣性測定センサ及び車輪速センサによって、前記現在車両の慣性測定データ及び車輪速データをそれぞれ収集するように構成され、前記調整モジュールは、さらに、前記現在車両の慣性測定データと車輪速データを用いて、前記現在車両の目標位置を調整し、前記現在車両の最終の位置を得るように構成される。
第3態様において、電子デバイスであって、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続され、前記少なくとも1つのプロセッサにより実行可能な指令が記憶されたメモリと、を備え、前記指令は前記少なくとも1つのプロセッサに実行されると、前記少なくとも1つのプロセッサに、本願の何れかの実施例に記載の方法を実行させる電子デバイスを提供する。
第4の態様において、コンピュータ指令が記憶された非一時的なコンピュータ可読記憶媒体であって、前記コンピュータ指令は、前記コンピュータに本願の何れかの実施例に記載の方法を実行させる非一時的なコンピュータ可読記憶媒体を提供する。
第5態様において、コンピュータプログラムであって、
プロセッサに実行されると、本願の何れかの実施例に記載の方法を実行させるコンピュータプログラムを提供する。
上記実施態様は、以下の利点又は有益な効果を有する。本願に係る車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体は、先ず、現在車両周辺の標識要素及び各非標識要素を取得し、そして、現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定し、それから、高精度地図における少なくとも一つの位置要素を用いて、現在車両周辺の各非標識要素に対して観測的制約を施して、現在車両周辺の各非標識要素に対応する位置要素を取得し、その後、現在車両周辺の各非標識要素に対応する位置要素を用いて、前記現在車両の初期化位置を調整して、現在車両の目標位置を得る。すなわち、本願は、現在車両周辺の標識要素と高精度地図における各位置要素とをマッチングすることで現在車両の初期化位置を特定することができる。続いて現在車両周辺の各非標識要素に対応する位置要素を用いて現在車両の初期化位置を調整して、現在車両の目標位置を得ることで、車両の緯度及び経度を含む座標を正確に特定するという目的を達成する。上述した従来技術の3つの車両の位置特定に用いられる方法は、いずれも車両の位置特定用の要素を取得することによって車両の位置を特定するものであるが、位置特定用の要素は、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定することができない。即ち、車両と周囲の物体との相対位置を検出することしかできず、車両の緯度及び経度を含む座標を検出することはできない。本願によれば、標識要素によって初期化位置を特定し、その後、非標識要素によって初期化位置を調整する技術的手段を用いるため、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定できないという従来技術の技術的問題を克服でき、さらに車両の緯度及び経度を含む座標を正確に特定し、位置特定の精度を効果的に向上させるという技術的効果を奏する。また、本願の実施例の技術的解決手段は、簡単で且つ便利に実施可能であり、普及しやすく、適用範囲がより広い。
上記した選択的な態様による他の技術的効果は、後述の実施例を参照して詳細に説明する。
図面は本願発明をよりよく理解できるためのものであり、本願に対する限定ではない。
本願の実施例1に係る車両の位置特定に用いられる方法のフローチャートである。 本願の実施例2に係る車両の位置特定に用いられる方法のフローチャートである。 本願の実施例2に係る位置要素の関連付けの模式図である。 本願の実施例3に係る車両の位置特定に用いられる装置の構造概略図である。 本願の実施例3に係る取得モジュールの構造概略図である。 本願の実施例3に係る制約モジュールの構造概略図である。 本願の実施例に係る車両の位置特定に用いられる方法を実施するための電子デバイスのブロック図である。
以下、理解の便宜のために、図面を参照して、本願の様々な詳細を含む例示的な実施例を説明する。これらの実施例は単なる例示的なものである。従って、本発明の範囲と要旨を逸脱しない限り、ここで説明される実施例に対して様々な修正や変更を施すことができるのは、当業者にとって自明である。なお、以下の説明では、明確化及び簡略化のために、公知の機能及び構成については説明を省略する。
<実施例1>
図1は、本願の実施例1に係る車両の位置特定に用いられる方法のフローチャート図であり、該方法は、車両の位置特定装置又は電子デバイスにより実行可能である。該装置又は電子デバイスは、ソフトウェア及び/又はハードウェアの形態で実施可能である。該装置又は電子デバイスは、ネットワーク通信機能を有する任意のスマート機器に組み込むことができる。図1に示すように、車両の位置特定に用いられる方法は、以下のステップを含んでもよい。
S101:現在車両周辺の標識要素及び各非標識要素を取得する。
本願の具体的な実施例において、電子デバイスは、現在車両周辺の標識要素及び各非標識要素を取得することができる。具体的には、電子デバイスは、現在車両に配置された4つの魚眼センサによって現在車両の4方向における環境画像を収集することができる。ここで、現在車両の4つの魚眼センサは、それぞれ現在車両の前、後、左、右の4方向に設けられる。各魚眼センサにより収集された現在車両の4方向の環境画像を継ぎ合わせて、一枚のサラウンドビュー魚眼画像とする。サラウンドビュー魚眼画像をディープニューラルネットワークに入力し、ディープニューラルネットワークが現在車両周辺の標識要素及び各非標識要素を出力する。
好ましくは、本願の具体的な実施例において、現在車両周辺の標識要素は、駐車スペースIDであってもよいし、現在車両周辺の非標識要素は、駐車スペース点、駐車スペース線、車線境界線、地面交通標識情報等の情報であってもよい。上記魚眼センサのレンズは、超広角カメラであり、現在車両の前、後、左、右の4つの方向における一定の視野角範囲内の環境情報を撮影することができる。例えば、現在車両の4方向に取り付けられた魚眼センサ(単に、前向き魚眼センサ、後向き魚眼センサ、左側魚眼センサ及び右側魚眼センサと呼ばれる)は、現在車両の駐車スペースID及び4方向の駐車スペース点、駐車スペース線、車線境界線、地面交通標識情報を撮影することができる。本実施例において、前向き魚眼センサ、後向き魚眼センサ、左側魚眼センサ及び右側魚眼センサが取り付けられる具体的な箇所は実際の必要性によって設定することができ、ここではそれ以上限定されない。
S102:現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、現在車両の初期化位置を特定する。
本願の具体的な実施例において、電子デバイスは現在車両周辺の標識要素を高精度地図における各位置要素とマッチングし、現在車両の初期化位置を確定することができる。具体的には、電子デバイスはまず現在車両周辺の標識要素に基づいて高精度地図において少なくとも一つの基準初期化位置を決定することができる。続いて現在車両周辺の標識要素と各基準初期化位置との一致度を算出し、一致度が最も高い基準初期化位置を現在車両の初期化位置に決定する。
S103:高精度地図における少なくとも一つの位置要素を用いて、現在車両周辺の各非標識要素に対して観測的制約を施して、現在車両周辺の各非標識要素に対応する位置要素を取得する。
本願の具体的な実施例において、電子デバイスは、高精度地図における少なくとも一つの位置要素を用いて現在車両周辺の各非標識要素に対して観測的制約(Observational Constraints)を施し、現在車両周辺の各非標識要素に対応する位置要素を取得することができる。具体的には、電子デバイスは、現在車両周辺の各非標識要素において一つの非標識要素を現在の非標識要素として選択し、現在の非標識要素により高精度地図においてそれに対応する位置要素を少なくとも一つ特定し、現在車両周辺の各非標識要素の対応する位置要素を得るまで、以下の処理を繰り返し実行する。即ち、現在の非標識要素が点要素であり、且つ、当該現在の非標識要素の対応する位置要素が点の元要素である場合、現在の非標識要素と現在の非標識要素の対応する位置要素とに対して、ポイント・ポイント(Point-Point)観測的制約を施して、前記現在の非標識要素の対応する位置要素を得、前記現在の非標識要素が線要素であり、且つ、現在の非標識要素の対応する位置要素が点の元要素である場合、或いは、現在の非標識要素が点要素であり、且つ、前記現在の非標識要素の対応する位置要素が点線要素である場合、現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、点線(Point-Line)観測的制約を施して、現在の非標識要素に対応する位置要素を得る。上記処理を繰り返し実行して、現在車両周辺の各非標識要素に対応する位置要素を取得する。
S104:現在車両周辺の各非標識要素に対応する位置要素を用いて、前記現在車両の初期化位置を調整して、前記現在車両の目標位置を得る。
本願の具体的な実施例において、電子デバイスは、現在車両周辺の各非標識要素に対応する位置要素を用いて現在車両の初期化位置を調整して、現在車両の目標位置を得ることができる。
本願の実施例に係る車両の位置特定に用いられる方法は、先ず、現在車両周辺の標識要素及び各非標識要素を取得し、そして、現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定し、それから、高精度地図における少なくとも一つの位置要素を用いて、現在車両周辺の各非標識要素に対して観測的制約を施して、現在車両周辺の各非標識要素に対応する位置要素を取得し、その後、現在車両周辺の各非標識要素に対応する位置要素を用いて、前記現在車両の初期化位置を調整して、現在車両の目標位置を得る。すなわち、本願は、現在車両周辺の標識要素と高精度地図における各位置要素とをマッチングすることで現在車両の初期化位置を特定することができる。続いて現在車両周辺の各非標識要素に対応する位置要素を用いて現在車両の初期化位置を調整して、現在車両の目標位置を得ることで、車両の緯度及び経度を含む座標を正確に特定するという目的を達成する。上述した従来技術の3つの車両の位置特定に用いられる方法は、いずれも車両の位置特定用の要素を取得することによって車両の位置を特定するものであるが、位置特定用の要素は、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定することができない。即ち、車両と周囲の物体との相対位置を検出することしかできず、車両の緯度及び経度を含む座標を検出することはできない。本願によれば、標識要素によって初期化位置を特定し、その後、非標識要素によって初期化位置を調整する技術的手段を用いるため、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定できないという従来技術の技術的問題を克服でき、さらに車両の緯度及び経度を含む座標を正確に特定し、位置特定の精度を効果的に向上させるという技術的効果を奏する。また、本願の実施例の技術的解決手段は、簡単で且つ便利に実施可能であり、普及しやすく、適用範囲がより広い。
<実施例2>
図2は本願の実施例2に係る車両の位置特定に用いられる方法のフローチャートである。図2に示すように、車両の位置特定に用いられる方法は、以下のステップを含んでもよい。
S201:現在車両に配置された4つの魚眼センサによって現在車両の4方向における環境画像を取得し、現在車両上の4つの魚眼センサは、それぞれ現在車両の前、後、左、右の4方向に設けられる。
本願の具体的な実施例において、電子デバイスは、現在車両に配置された4つの魚眼センサによって現在車両の4方向における環境画像を取得することができる。そのうち、現在車両の4つの魚眼センサは、それぞれ現在車両の前、後、左、右の4方向に設けられる。
S202:各魚眼センサにより収集された現在車両の4方向における環境画像を継ぎ合わせて一枚のサラウンドビュー魚眼画像とする。
本願の具体的な実施例において、電子デバイスは、各魚眼センサが収集した現在車両の4方向における環境画像を一枚のサラウンドビュー魚眼画像に接続することができる。具体的には、魚眼センサの最大撮影範囲が180°であるため、前向き魚眼センサが収集した環境画像と左側魚眼センサ及び右側魚眼センサが収集した環境画像は、重複領域を有してもよく、後向き魚眼センサが収集した環境画像と左側魚眼センサ及び右側魚眼センサが収集した環境画像は重複領域を有してもよい。左側魚眼センサが収集した環境画像と前向き魚眼センサ及び後向き魚眼センサが収集した環境画像は、重複領域を有してもよい。右側魚眼センサが収集した環境画像と前向き魚眼センサ及び後向き魚眼センサが収集した環境画像は、重複領域を有してもよい。これにより、電子デバイスは、4つの魚眼センサが収集した4つの環境画像の間の位置関係に基づき、各魚眼センサが収集した各環境画像に対してスプライシングを行い、これら4つの環境画像に対応するサラウンドビュー魚眼画像を得ることができる。
S203:サラウンドビュー魚眼画像をディープニューラルネットワークに入力し、ディープニューラルネットワークを介して現在車両周辺の標識要素及び各非標識要素を出力する。
本願の具体的な実施例において、電子デバイスはサラウンドビュー魚眼画像をディープニューラルネットワークに入力することができ、ディープニューラルネットワークを介して現在車両周辺の標識要素及び各非標識要素を出力する。具体的には、ディープニューラルネットワークはサラウンドビュー魚眼画像における駐車スペースIDを識別することができ、現在車両の駐車スペースIDを出力する。またサラウンドビュー魚眼画像における駐車スペース点、駐車スペース線、車線境界線、地面交通標識情報等の情報を識別することができ、現在車両の駐車スペース点、駐車スペース線、車線境界線、地面交通標識情報等の情報を出力する。
S204:現在非標識要素により、前記高精度地図において、前記現在非標識要素に対応する位置要素を少なくとも1つ特定する。
本願の具体的な実施例において、電子デバイスは、現在車両周辺の標識要素に基づいて高精度地図において少なくとも一つの基準初期化位置を特定することができる。具体的には、電子デバイスは、現在車両の駐車スペースIDに基づいて高精度地図において一つの基準位置領域を特定してもよい。該基準位置領域は予め設定された規則形状であってもよい。続いて、該基準位置領域において少なくとも一つの基準初期化位置を特定する。各基準初期化位置は、現在車両が位置する姿勢の様々な可能性を反映することができる。
S205:現在車両周辺の標識要素と各基準初期化位置との一致度を算出し、最も一致度の高い基準初期化位置を現在車両の初期化位置として決定する。
本願の具体的な実施例において、電子デバイスは、現在車両周辺の標識要素と各基準初期化位置との一致度を算出することができ、最も一致度が高い基準初期化位置を現在車両の初期化位置として決定する。具体的には、電子デバイスは、現在車両周辺の標識要素と各基準初期化位置とをディープニューラルネットワークに入力することができる。該ディープニューラルネットワークによって現在車両の初期化位置を出力する。該初期化位置は、現在車両の姿勢の最大可能性を反映することができる。
S206:高精度地図における少なくとも一つの位置要素を用いて現在車両周辺の各非標識要素に対して観測的制約を施して、現在車両周辺の各非標識要素に対応する位置要素を取得する。
本願の具体的な実施例において、電子デバイスは、高精度地図における少なくとも一つの位置要素を用いて現在車両周辺の各非標識要素に対して観測的制約を施して、現在車両周辺の各非標識要素に対応する位置要素を取得することができる。具体的には、電子デバイスは、現在車両周辺の各非標識要素において一つの非標識要素を現在の非標識要素として選択し、現在の非標識要素に基づいて高精度地図において少なくとも一つのそれに対応する位置要素を特定することができる。現在の非標識要素が点要素であり、且つ、当該現在の非標識要素の対応する位置要素が点の元要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、ポイント・ポイント(Point-Point)観測的制約を施して、現在の非標識要素の対応する位置要素を得、前記現在の非標識要素が線要素であり、且つ、前記現在の非標識要素の対応する位置要素が点の元要素である場合、或いは、前記現在の非標識要素が点要素であり、且つ、前記現在の非標識要素の対応する位置要素が点線要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、点線(Point-Line)観測的制約を施して、前記現在の非標識要素に対応する位置要素を得る。現在車両周辺の各非標識要素の対応する位置要素を得るまで、上記処理を繰り返し実行する。
図3は、本願の実施例2に係る位置要素の関連付けの模式図である。図3に示すように、前方魚眼センサ、後方魚眼センサ、左側魚眼センサ及び右側魚眼センサによって感知された位置要素(ここでの位置要素は、現在車両周辺の標識要素及び各非標識要素を含む)は、位置要素A、位置要素B及び位置要素Cを含むことができる。高精度地図における位置要素は、位置要素1、位置要素2、位置要素3、位置要素4及び位置要素5を含むことができる。そのうち、位置要素Aは、位置要素1、位置要素2、位置要素3にそれぞれ繋がり、これは、位置要素Aが、位置要素1、位置要素2、位置要素3に関連する可能性があることを示す。位置要素Bは、位置要素2、位置要素3、位置要素4にそれぞれ繋がり、これは、位置要素Bが、位置要素2、位置要素3、位置要素4に関連する可能性があることを示す。位置要素Cは、位置要素3、位置要素4、位置要素5にそれぞれ繋がり、これは、位置要素Cが、位置要素3、位置要素4、位置要素5に関連する可能性があることを示す。当該ステップにおいて、電子デバイスは、位置要素Aと位置要素1、位置要素2、位置要素3との関連付けパラメータを算出可能であり、または、位置要素Bと位置要素2、位置要素3、位置要素4との関連付けパラメータを算出可能であり、また、位置要素Cと位置要素3、位置要素4、位置要素5との関連付けパラメータを算出可能である。ここでの関連付けパラメータは、平均重畳面積比率、周囲長比率、3D位置距離を含むが、これに限定されない。
S207:現在車両周辺の各非標識要素に対応する位置要素を用いて現在車両の初期化位置を調整して、現在車両の目標位置を得る。
本願の具体的な実施例において、電子デバイスは、現在車両周辺の各非標識要素に対応する位置要素を用いて現在車両の初期化位置を調整して、現在車両の目標位置を得ることができる。例えば、現在車両の初期化位置が(x、y、z)であり、方向は、車の向きが真北であるが、前向き魚眼センサにより感知された車線境界線が、西向きに30度となると仮定すると、本ステップにおいて、電子デバイスは、現在車両の初期化位置の方向を真北向きから西向きに30度となるように調整することができる。
好ましくは、本願の具体的な実施例において、電子デバイスは、さらに現在車両に設けられた慣性測定ユニットセンサ及び車輪速センサによって、それぞれ現在車両の慣性測定データ及び車輪速データを収集することができる。続いて現在車両の慣性測定データ及び車輪速データを用いて現在車両の目標位置を調整して、現在車両の最終位置を得る。
本出願の具体的な実施例において、現在車両に、サラウンドビュー感知モジュール、初期化位置特定モジュール、データ関連付けモジュール及びマルチセンサフュージョンモジュールが取り付けられ、そのうち、サラウンドビュー感知モジュールは、前、左、右、後の4つの魚眼センサに対し、ハードウェアの同期露光を行い、続いて、4つの魚眼センサが収集した環境画像をサラウンドビュー魚眼画像に継ぎ合わせ、続いて、ディープニューラルネットワークに入力し、駐車スペースID、駐車スペース点、駐車スペース線、車線境界線、地面交通標識情報等の位置要素を出力するようにしてもよい。初期化位置特定モジュールは、現在車両に対し、高精度地図での初期化姿勢を提供し、感知して識別された標識要素と各非標識要素と高精度地図とを入力として、粒子フィルタアルゴリズムを利用することにより、まず、高精度地図における駐車スペースIDの位置する位置の近傍に、ランダムに粒子(すなわち現在車両周辺の非標識要素)を散布して粒子の重みを更新し続けて、粒子の重みが高い位置に粒子を再散布し、このように循環して、最も重みの高い粒子集合領域を得、すなわち、無人車の初期化位置特定を達成する。データ関連モジュールは、車体の現在姿勢と、サラウンドビュー感知で識別された非標識要素となる自然的な要素と両者を関連付け、後端の状態推定に持続的な観測を提供し、距離計誤差を補正する。マルチセンサフュージョンモジュールは、慣性測定ユニットセンサと車輪速センサと高精度地図の観測データとを入力とする。マルチセンサフュージョンモジュールの作用は、異なる入力源によって、最も正確で、最も確実な現在車体姿勢を推定することである。具体的には、本願は、無人車プラットフォームのハードウェア計算力に応じて、マルチ状態制約に基づくカルマンフィルタアルゴリズム及び最小二乗推定に基づく最適化アルゴリズムを柔軟に適用することができる。
本願の実施例に係る車両の位置特定に用いられる方法は、先ず、現在車両周辺の標識要素及び各非標識要素を取得し、そして、現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定し、それから、高精度地図における少なくとも一つの位置要素を用いて、現在車両周辺の各非標識要素に対して観測的制約を施して、現在車両周辺の各非標識要素に対応する位置要素を取得し、その後、現在車両周辺の各非標識要素に対応する位置要素を用いて、前記現在車両の初期化位置を調整して、現在車両の目標位置を得る。すなわち、本願は、現在車両周辺の標識要素と高精度地図における各位置要素とをマッチングすることで現在車両の初期化位置を特定することができる。続いて現在車両周辺の各非標識要素に対応する位置要素を用いて現在車両の初期化位置を調整して、現在車両の目標位置を得ることで、車両の緯度及び経度を含む座標を正確に特定するという目的を達成する。上述した従来技術の3つの車両の位置特定に用いられる方法は、いずれも車両の位置特定用の要素を取得することによって車両の位置を特定するものであるが、位置特定用の要素は、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定することができない。即ち、車両と周囲の物体との相対位置を検出することしかできず、車両の緯度及び経度を含む座標を検出することはできない。本願によれば、標識要素によって初期化位置を特定し、その後、非標識要素によって初期化位置を調整する技術的手段を用いるため、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定できないという従来技術の技術的問題を克服でき、さらに車両の緯度及び経度を含む座標を正確に特定し、位置特定の精度を効果的に向上させるという技術的効果を奏する。また、本願の実施例の技術的解決手段は、簡単で且つ便利に実施可能であり、普及しやすく、適用範囲がより広い。
<実施例3>
図4は、本願の実施例3の提供する車両位置特定装置の構造概略図である。図4に示すように、前記装置400は、現在車両周辺の標識要素及び各非標識要素を取得するように構成された取得モジュール401と、前記現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定するように構成された特定モジュール402と、前記高精度地図における少なくとも一つの位置要素を用いて、前記現在車両周辺の各非標識要素に対して観測的制約を施して、前記現在車両周辺の各非標識要素に対応する位置要素を取得するように構成された制約モジュール403と、前記現在車両周辺の各非標識要素に対応する位置要素を用いて、前記現在車両の初期化位置を調整して、前記現在車両の目標位置を得るように構成された調整モジュール404と、を備える。
図5は、本願の実施例3に係る取得モジュールの構造概略図である。図5に示すように、前記取得モジュール401は、現在車両に配置された4つの魚眼センサによって、前記現在車両の4方向における環境画像を収集するように構成された収集サブモジュール4011であって、前記4つの魚眼センサは、それぞれ前記現在車両の前、後、左、右の4方向に設けられる、収集サブモジュールと、各魚眼センサにより収集された前記現在車両の4方向における環境画像を継ぎ合わせて、一枚のサラウンドビュー魚眼画像とし、そして、前記サラウンドビュー魚眼画像をディープニューラルネットワークに入力し、前記ディープニューラルネットワークから、前記現在車両周辺の標識要素及び各非標識要素を出力するように構成された取得サブモジュール4012と、を備える。
さらに、前記特定モジュール402は、具体的には、現在車両周辺の標識要素により前記高精度地図において少なくとも一つの基準初期化位置を特定し、前記現在車両周辺の標識要素と各基準初期化位置との一致度を算出し、最も一致度の高い基準初期化位置を、前記現在車両の初期化位置として特定する。
図6は、本願の実施例3に係る制約モジュールの構造概略図である。図6に示すように、前記制約モジュール403は、特定サブモジュール4031と制約サブモジュール4032とを備え、特定サブモジュール4031は、現在車両周辺の各非標識要素のうちの1つを現在非標識要素として選出し、前記現在非標識要素により、前記高精度地図において、前記現在非標識要素に対応する位置要素を少なくとも1つ特定するように構成され、制約サブモジュール4032は、現在車両周辺の各非標識要素の対応する位置要素を得るまで、以下の処理を繰り返し実行するように構成され、前記処理は、前記現在の非標識要素が点要素であり、且つ、当該現在の非標識要素の対応する位置要素が点の元要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、ポイント・ポイント(Point-Point)観測的制約を施して、前記現在の非標識要素の対応する位置要素を得、前記現在の非標識要素が線要素であり、且つ、前記現在の非標識要素の対応する位置要素が点の元要素である場合、或いは、前記現在の非標識要素が点要素であり、且つ、前記現在の非標識要素の対応する位置要素が点線要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、点線(Point-Line)観測的制約を施して、前記現在の非標識要素に対応する位置要素を得る処理である。
さらに、前記取得モジュール401は、現在車両に配置された慣性測定センサ及び車輪速センサによって、前記現在車両の慣性測定データ及び車輪速データをそれぞれ収集するように構成され、前記調整モジュール404は、さらに、現在車両の慣性測定データと車輪速データを用いて、前記現在車両の目標位置を調整し、前記現在車両の最終の位置を得るように構成される。
上記車両の位置特定に用いられる装置は、本願の任意の実施例に係る方法を実行することができ、実行方法に応じた機能モジュール及び有益な効果を奏する。本実施例において詳細に説明しない技術的詳細は、本願の任意の実施例が提供する車両の位置特定に用いられる方法を参照することができる。
<実施例4>
本願の実施例によれば、本願はさらに電子デバイス及び可読記憶媒体を提供する。
図7に示すように、本発明の実施形態に係る車両の位置特定に用いられる方法が適用された電子デバイスのブロック図である。電子デバイスは、ノート型コンピュータ、デスクトップ型コンピュータ、テーブル型コンピュータ、携帯情報端末、サーバ、ブレード型サーバ、大型コンピュータ等の様々な形態のデジタルコンピュータを対象とする。また、電子デバイスは、個人デジタル処理、携帯電話、スマートフォン、ウェアラブル機器等の各種のモバイル機器を表してもよい。なお、ここで示した構成要素、その接続関係、およびその機能はあくまで一例であり、ここで説明した本願の実現や要求される機能を限定することを意図したものではない。
図7に示すように、該電子デバイスは、1つ又は複数のプロセッサ701、メモリ702、及び各部品を接続するためのインタフェース(高速インタフェース及び低速インタフェースを含む)を含む。各構成要素は、互いに異なるバスで接続されており、共通のマザーボード上に実装されていてもよいし、必要に応じて実装されていてもよい。前記プロセッサは、前記メモリまたは前記メモリに記憶され、前記インタフェースに接続された表示装置などの外部入出力装置にGUIのグラフィック情報を表示させる指示を含む、前記電子デバイスで実行される命令を処理してもよい。他の実施形態では、必要に応じて、複数のプロセッサおよび/または複数のバスを、複数のメモリおよび複数のメモリとともに使用することができる。また、複数の電子デバイスを接続し、各機器が必要な動作(例えば、サーバアレイ、ブレードサーバ群、マルチプロセッサシステムなど)を提供するようにしてもよい。図7では、1つのプロセッサ701を例としている。
メモリ702は、本出願が提供する非一時的なコンピュータ可読記憶媒体である。ここで、前記記憶装置は少なくとも一つのプロセッサが実行可能なコマンドを記憶し、前記少なくとも一つのプロセッサに本出願が提供する車両の位置特定に用いられる方法を実行させる。本願の非一時的なコンピュータ可読記憶媒体はコンピュータ指令を記憶し、該コンピュータ指令はコンピュータに本願が提供する車両の位置特定に用いられる方法を実行させるために用いられる。
メモリ702は非一時的なコンピュータ可読記憶媒体として、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュール、例えば本願の実施例における車両の位置特定に用いられる方法に対応するプログラム指令/モジュール(例えば、図4に示す取得モジュール401、特定モジュール402、制約モジュール403及び調整モジュール404)を記憶することに用いることができる。プロセッサ701はメモリ702に記憶された非一時的なソフトウェアプログラム、指令及びモジュールを実行することにより、サーバの各種機能アプリケーション及びデータ処理を実行し、すなわち上記方法の実施例における車両の位置特定に用いられる方法を実現する。
メモリ702は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを格納する格納プログラム領域と、車両の位置特定方法に応じた電子デバイスの使用に伴って作成されたデータ等を格納する格納データ領域とを含んでもよい。また、メモリ702は高速ランダムアクセスメモリを含むことができ、また非一時的なメモリ、例えば少なくとも一つの磁気ディスク記憶装置、フラッシュメモリ装置又は他の非一時的な固体記憶装置を含むことができる。いくつかの実施例において、メモリ702はプロセッサ701と遠隔に設置されたメモリを選択することができ、これらの遠隔メモリはネットワークを介して車両の位置特定に用いられる方法の電子デバイスに接続することができる。上記ネットワークとしては、例えば、インターネット、イントラネット、ローカルエリアネットワーク、移動体通信網、これらの組み合わせなどが挙げられるが、上記に限られない。
車両の位置特定に用いられる方法の電子デバイスは、入力装置703と、出力装置704とをさらに備えることができる。プロセッサ701、メモリ702、入力装置703及び出力装置704は、バス又はその他の方式で接続されていてもよく、図7ではバスで接続されている例を示している。
入力装置703は、入力された数字や文字の情報や、タッチパネル、キーパッド、マウス、トラックパッド、タッチパネル、ポインティングデバイス、マウスボタン、トラックボール、ジョイスティック等の車両の位置特定に用いられる方法の電子デバイスのユーザ設定や機能制御に関するキー信号の入力を受け付けることができる。出力装置704は、表示装置、補助照明装置(例えば、LED)、触覚フィードバック装置(例えば、振動モータ)等を含んでもよい。該表示装置は以下を含むことができるがこれらに限定されず、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ及びプラズマディスプレイが挙げられる。いくつかの実施形態において、表示装置はタッチパネルであってもよい。
ここで説明するシステム及び技術の様々な実施形態はデジタル電子回路システム、集積回路システム、専用ASIC(専用集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は以下を含むことができる。1つ又は複数のコンピュータプログラムに実装され、該1つ又は複数のコンピュータプログラムは少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行及び/又は解釈することができ、該プログラマブルプロセッサは専用又は汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置及び少なくとも1つの出力装置からデータ及びコマンドを受信することができ、且つデータ及びコマンドを該記憶システム、該少なくとも1つの入力装置及び該少なくとも1つの出力装置に伝送する。
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、これらの計算プログラムは、上位プロセスおよび/またはオブジェクト指向のプログラミング言語、および/またはアセンブル/機械言語を利用して実現することができる。ここで、「機械可読媒体」及び「コンピュータ可読媒体」とは、機械可読信号である機械指令を受ける機械可読媒体を含み、機械指令及び/又はデータをプログラマブルプロセッサに与えるための任意のコンピュータプログラム製品、装置、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブル論理装置(PLD))を意味する。「機械可読信号」とは、機械指令やデータをプログラマブル・プロセッサに供給するための任意の信号を意味する。
ここで説明したシステム及び技術は、ユーザとのインタラクションを提供するために、ユーザに情報を表示するための表示装置(例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)モニタなど)と、ユーザが入力をコンピュータに提供するためのキーボードやポインティングデバイス(例えば、マウスやトラックボールなど)とを有するコンピュータ上で実現することができる。他の種類の装置もさらにユーザとのインタラクションを提供することに用いることができる。例えば、ユーザに提供するフィードバックはいかなる形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよい。且ついかなる形態(音声入力、音声入力又は触覚入力を含む)でもユーザからの入力を受信することができる。
ここで説明したシステム及び技術を、バックグラウンド部品を含む計算システム(例えば、データサーバとする)、ミドルウェア部品を含む計算システム(例えば、アプリケーションサーバとする)、フロントエンド部品を含む計算システム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであって、ユーザは、グラフィカルユーザインタフェース又はウェブブラウザを介して、ここで説明したシステム及び技術の実施形態とインタラクションすることができる)、又は、このようなバックグラウンド部品、ミドルウェア部品、又はフロントエンド部品のいずれかの組み合わせを含む計算システムに実装することができる。また、システムの各構成要素は、任意の形態で接続されていてもよく、通信網等のデジタルデータ通信によって接続されていてもよい。通信ネットワークとしては、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、エリアチェーンネットワークなどが挙げられる。
コンピュータシステムは、クライアントとサーバとを含んでもよい。クライアントとサーバは、通常、互いに離れており、通信ネットワークを介してやり取りされる。クライアントとサーバとの関係は、それぞれのコンピュータ上で動作し、互いにクライアント-サーバの関係を有するコンピュータプログラムによって生成される。
本願の実施例の技術的解決手段によれば、先ず、現在車両周辺の標識要素及び各非標識要素を取得し、そして、現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定し、それから、高精度地図における少なくとも一つの位置要素を用いて、現在車両周辺の各非標識要素に対して観測的制約を施して、現在車両周辺の各非標識要素に対応する位置要素を取得し、その後、現在車両周辺の各非標識要素に対応する位置要素を用いて、前記現在車両の初期化位置を調整して、現在車両の目標位置を得る。すなわち、本願は、現在車両周辺の標識要素と高精度地図における各位置要素とをマッチングすることで現在車両の初期化位置を特定することができる。続いて現在車両周辺の各非標識要素に対応する位置要素を用いて現在車両の初期化位置を調整して、現在車両の目標位置を得ることで、車両の緯度及び経度を含む座標を正確に特定するという目的を達成する。上述した従来技術の3つの車両の位置特定に用いられる方法は、いずれも車両の位置特定用の要素を取得することによって車両の位置を特定するものであるが、位置特定用の要素は、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定することができない。即ち、車両と周囲の物体との相対位置を検出することしかできず、車両の緯度及び経度を含む座標を検出することはできない。本願によれば、標識要素によって初期化位置を特定し、その後、非標識要素によって初期化位置を調整する技術的手段を用いるため、車両の局所的な位置を特定することしかできず、車両のグローバル位置を特定できないという従来技術の技術的問題を克服でき、さらに車両の緯度及び経度を含む座標を正確に特定し、位置特定の精度を効果的に向上させるという技術的効果を奏する。また、本願の実施例の技術的解決手段は、簡単で且つ便利に実施可能であり、普及しやすく、適用範囲がより広い。
なお、上述した様々な形態のフローを用いて、並び替え、追加、削除を行うようにしてもよい。例えば、本願において開示される各ステップは、並列的あるいは個別に実行されるものであっても良いし、また、本願において開示される技術的思想の範囲内において、並列的あるいは個別に実行されるものであっても良い。
上記具体的な実施形態は、本出願の保護範囲を限定するものではない。以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本願の精神及び原則内で行われた修正、均等置換及び改良等は、いずれも本願の保護範囲内に含まれるべきである。


Claims (13)

  1. 車両の位置特定に用いられる方法であって、
    現在車両周辺の標識要素及び各非標識要素を取得するステップと、
    前記現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定するステップと、
    前記高精度地図における少なくとも一つの位置要素を用いて、前記現在車両周辺の各非標識要素に対して観測的制約を施して、前記現在車両周辺の各非標識要素に対応する位置要素を取得するステップと、
    前記現在車両周辺の各非標識要素に対応する位置要素を用いて、前記現在車両の初期化位置を調整して、前記現在車両の目標位置を得るステップと、
    を含むことを特徴とする方法。
  2. 前記現在車両周辺の標識要素及び各非標識要素を取得するステップは、
    前記現在車両に配置された4つの魚眼センサによって、前記現在車両の4方向における環境画像を収集するステップであって、前記4つの魚眼センサは、それぞれ前記現在車両の前、後、左、右の4方向に設けられるステップと、
    各魚眼センサにより収集された前記現在車両の4方向における環境画像を継ぎ合わせて、一枚のサラウンドビュー魚眼画像とするステップと、
    前記サラウンドビュー魚眼画像をディープニューラルネットワークに入力し、前記ディープニューラルネットワークから、前記現在車両周辺の標識要素及び各非標識要素を出力するステップと、
    を含むことを特徴とする請求項1に記載の車両の位置特定方法。
  3. 前記現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定するステップは、
    前記現在車両周辺の標識要素により前記高精度地図において少なくとも一つの基準初期化位置を特定するステップと、
    前記現在車両周辺の標識要素と各基準初期化位置との一致度を算出し、最も一致度の高い基準初期化位置を、前記現在車両の初期化位置として決定するステップと、
    を含むことを特徴とする請求項1に記載の方法。
  4. 前記高精度地図における少なくとも一つの位置要素を用いて、前記現在車両周辺の各非標識要素に対して観測的制約を施して、前記現在車両周辺の各非標識要素に対応する位置要素を取得するステップは、
    前記現在車両周辺の各非標識要素のうちの1つを現在非標識要素として選出し、前記現在非標識要素により、前記高精度地図において、前記現在非標識要素に対応する位置要素を少なくとも1つ特定するステップと、
    現在車両周辺の各非標識要素の対応する位置要素を得るまで、以下の処理を繰り返し実行するステップであって、前記処理は、前記現在の非標識要素が点要素であり、且つ、当該現在の非標識要素の対応する位置要素が点の元要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、ポイント・ポイント(Point-Point)観測的制約を施して、前記現在の非標識要素の対応する位置要素を得、前記現在の非標識要素が線要素であり、且つ、前記現在の非標識要素の対応する位置要素が点の元要素である場合、或いは、前記現在の非標識要素が点要素であり、且つ、前記現在の非標識要素の対応する位置要素が点線要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、点線(Point-Line)観測的制約を施して、前記現在の非標識要素に対応する位置要素を得る処理である、ステップと、
    を含むことを特徴とする請求項1に記載の方法。
  5. 前記現在車両に配置された慣性測定センサ及び車輪速センサによって、前記現在車両の慣性測定データ及び車輪速データをそれぞれ収集するステップと、
    前記現在車両の慣性測定データと車輪速データを用いて、前記現在車両の目標位置を調整し、前記現在車両の最終の位置を得るステップと、
    を更に含むことを特徴とする請求項1に記載の方法。
  6. 車両の位置特定に用いられる装置であって、
    現在車両周辺の標識要素及び各非標識要素を取得するように構成された取得モジュールと、
    前記現在車両周辺の標識要素を、高精度地図における各位置要素とマッチングして、前記現在車両の初期化位置を特定するように構成された特定モジュールと、
    前記高精度地図における少なくとも一つの位置要素を用いて、前記現在車両周辺の各非標識要素に対して観測的制約を施して、前記現在車両周辺の各非標識要素に対応する位置要素を取得するように構成された制約モジュールと、
    前記現在車両周辺の各非標識要素に対応する位置要素を用いて、前記現在車両の初期化位置を調整して、前記現在車両の目標位置を得るように構成された調整モジュールと、
    を備えることを特徴とする装置。
  7. 前記取得モジュールは、
    前記現在車両に配置された4つの魚眼センサによって、前記現在車両の4方向における環境画像を収集するように構成された収集サブモジュールであって、前記4つの魚眼センサは、それぞれ前記現在車両の前、後、左、右の4方向に設けられる、収集サブモジュールと、
    各魚眼センサにより収集された前記現在車両の4方向における環境画像を継ぎ合わせて、一枚のサラウンドビュー魚眼画像とし、そして、前記サラウンドビュー魚眼画像をディープニューラルネットワークに入力し、前記ディープニューラルネットワークから、前記現在車両周辺の標識要素及び各非標識要素を出力するように構成された取得サブモジュールと、
    を備えることを特徴とする請求項6に記載の装置。
  8. 前記特定モジュールは、
    前記現在車両周辺の標識要素により前記高精度地図において少なくとも一つの基準初期化位置を特定し、前記現在車両周辺の標識要素と各基準初期化位置との一致度を算出し、最も一致度の高い基準初期化位置を、前記現在車両の初期化位置として決定するように構成される
    ことを特徴とする請求項6に記載の装置。
  9. 前記制約モジュールは、特定サブモジュールと制約サブモジュールとを備え、
    前記特定サブモジュールは、前記現在車両周辺の各非標識要素のうちの1つを現在非標識要素として選出し、前記現在非標識要素により、前記高精度地図において、前記現在非標識要素に対応する位置要素を少なくとも1つ特定するように構成され、
    前記制約サブモジュールは、現在車両周辺の各非標識要素の対応する位置要素を得るまで、以下の処理を繰り返し実行するように構成され、前記処理は、前記現在の非標識要素が点要素であり、且つ、当該現在の非標識要素の対応する位置要素が点の元要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、ポイント・ポイント(Point-Point)観測的制約を施して、前記現在の非標識要素の対応する位置要素を得、前記現在の非標識要素が線要素であり、且つ、前記現在の非標識要素の対応する位置要素が点の元要素である場合、或いは、前記現在の非標識要素が点要素であり、且つ、前記現在の非標識要素の対応する位置要素が点線要素である場合、前記現在の非標識要素と前記現在の非標識要素の対応する位置要素とに対して、点線(Point-Line)観測的制約を施して、前記現在の非標識要素に対応する位置要素を得る処理である
    ことを特徴とする請求項6に記載の装置。
  10. 前記取得モジュールは、さらに、前記現在車両に配置された慣性測定センサ及び車輪速センサによって、前記現在車両の慣性測定データ及び車輪速データをそれぞれ収集するように構成され、
    前記調整モジュールは、さらに、前記現在車両の慣性測定データと車輪速データを用いて、前記現在車両の目標位置を調整し、前記現在車両の最終の位置を得るように構成される
    ことを特徴とする請求項6に記載の装置。
  11. 電子デバイスであって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続され、前記少なくとも1つのプロセッサにより実行可能な指令が記憶されたメモリと、を備え、
    前記指令は前記少なくとも1つのプロセッサに実行されると、前記少なくとも1つのプロセッサに、請求項1乃至5のいずれかに記載の方法を実行させることを特徴とする電子デバイス。
  12. コンピュータ指令が記憶された非一時的なコンピュータ可読記憶媒体であって、
    前記コンピュータ指令は、コンピュータに請求項1乃至5のいずれかに記載の方法を実行させることを特徴とする非一時的なコンピュータ可読記憶媒体。
  13. コンピュータプログラムであって、
    プロセッサに実行されると、請求項1乃至5のいずれかに記載の方法を実行させることを特徴とするコンピュータプログラム。
JP2020160121A 2020-01-20 2020-09-24 車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体 Active JP7240367B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010067385.9A CN111274343B (zh) 2020-01-20 2020-01-20 一种车辆定位方法、装置、电子设备及存储介质
CN202010067385.9 2020-01-20

Publications (2)

Publication Number Publication Date
JP2021120844A JP2021120844A (ja) 2021-08-19
JP7240367B2 true JP7240367B2 (ja) 2023-03-15

Family

ID=70996863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020160121A Active JP7240367B2 (ja) 2020-01-20 2020-09-24 車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体

Country Status (5)

Country Link
US (1) US11586218B2 (ja)
EP (1) EP3851802A1 (ja)
JP (1) JP7240367B2 (ja)
KR (1) KR102382420B1 (ja)
CN (1) CN111274343B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274974B (zh) * 2020-01-21 2023-09-01 阿波罗智能技术(北京)有限公司 定位元素检测方法、装置、设备和介质
JP7191065B2 (ja) 2020-07-06 2022-12-16 本田技研工業株式会社 処理装置、処理方法、およびプログラム
CN112068172A (zh) * 2020-09-08 2020-12-11 广州小鹏自动驾驶科技有限公司 一种车辆的定位方法和装置
CN112184818B (zh) * 2020-10-09 2022-06-10 重庆邮电大学 基于视觉的车辆定位方法及应用其方法的停车场管理***
CN112419739A (zh) * 2020-11-18 2021-02-26 联通智网科技有限公司 车辆定位方法、装置和电子设备
DE102021204030A1 (de) * 2021-04-22 2022-10-27 Continental Autonomous Mobility Germany GmbH Detektion von einzelnen freien markierten Zielflächen aus Bildern eines Kamerasystems einer Bewegungsvorrichtung
EP4356214A1 (en) * 2021-06-17 2024-04-24 The Toro Company Autonomous work vehicle using image-based localization
CN113515126B (zh) * 2021-07-12 2024-05-10 北京经纬恒润科技股份有限公司 一种车辆定位方法及装置
CN113515536B (zh) * 2021-07-13 2022-12-13 北京百度网讯科技有限公司 地图的更新方法、装置、设备、服务器以及存储介质
CN113946151A (zh) * 2021-10-20 2022-01-18 北京百度网讯科技有限公司 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆
CN113984072B (zh) * 2021-10-28 2024-05-17 阿波罗智能技术(北京)有限公司 车辆定位方法、装置、设备、存储介质及自动驾驶车辆
CN114111817B (zh) * 2021-11-22 2023-10-13 武汉中海庭数据技术有限公司 基于slam地图与高精度地图匹配的车辆定位方法及***
CN114526722B (zh) * 2021-12-31 2024-05-24 易图通科技(北京)有限公司 地图对齐处理方法、装置及可读存储介质
CN114419590B (zh) * 2022-01-17 2024-03-19 北京百度网讯科技有限公司 高精地图的验证方法、装置、设备以及存储介质
CN114860976B (zh) * 2022-04-29 2023-05-05 长沙公交智慧大数据科技有限公司 一种基于大数据的图像数据查询方法和***
CN117934598B (zh) * 2024-03-21 2024-06-11 浙江大学 一种基于光学定位技术的桌面级刚体定位设备及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017083446A (ja) 2015-10-28 2017-05-18 本田技研工業株式会社 自動運転システム及びナビケーションシステム
US20180188742A1 (en) 2016-12-30 2018-07-05 DeepMap Inc. Representing navigable surface boundaries of lanes in high definition maps for autonomous vehicles
US20190154842A1 (en) 2017-11-22 2019-05-23 DeepMap Inc. Accuracy of global navigation satellite system based positioning using high definition map based localization
US20190271549A1 (en) 2018-03-02 2019-09-05 DeepMap Inc. Camera based localization for autonomous vehicles

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0579848A (ja) 1991-09-19 1993-03-30 Fujitsu Ltd 車両位置計測装置及び車両運転者支援装置
JP2007263385A (ja) 2006-03-27 2007-10-11 Kurita Water Ind Ltd ボイラ給水処理装置、ボイラ装置及びボイラ給水処理装置の運転方法
JP4935145B2 (ja) 2006-03-29 2012-05-23 株式会社デンソー カーナビゲーション装置
DE102014002150B3 (de) * 2014-02-15 2015-07-23 Audi Ag Verfahren zur Ermittlung der absoluten Position einer mobilen Einheit und mobile Einheit
WO2018031678A1 (en) 2016-08-09 2018-02-15 Nauto Global Limited System and method for precision localization and mapping
US10794711B2 (en) * 2016-12-30 2020-10-06 DeepMap Inc. High definition map updates based on sensor data collected by autonomous vehicles
CN107063258A (zh) * 2017-03-07 2017-08-18 重庆邮电大学 一种基于语义信息的移动机器人室内导航方法
CN108332752B (zh) * 2018-01-09 2021-04-20 深圳市无限动力发展有限公司 机器人室内定位的方法及装置
US10726567B2 (en) * 2018-05-03 2020-07-28 Zoox, Inc. Associating LIDAR data and image data
CN110440819B (zh) * 2018-05-04 2021-11-19 沈阳美行科技有限公司 导航方法、装置和***
CN109720340B (zh) * 2018-09-17 2021-05-04 魔门塔(苏州)科技有限公司 一种基于视觉识别的自动泊车***及方法
US11003945B2 (en) * 2019-05-22 2021-05-11 Zoox, Inc. Localization using semantically segmented images
KR20190089791A (ko) 2019-07-11 2019-07-31 엘지전자 주식회사 삼차원 어라운드 뷰 제공 장치 및 방법
CN110412635B (zh) * 2019-07-22 2023-11-24 武汉大学 一种环境信标支持下的gnss/sins/视觉紧组合方法
CN110411462B (zh) * 2019-07-22 2021-05-18 武汉大学 一种gnss/惯导/车道线约束/里程计多源融合方法
CN110595459B (zh) * 2019-09-18 2021-08-17 百度在线网络技术(北京)有限公司 车辆定位方法、装置、设备和介质
CN111649739B (zh) 2020-06-02 2023-09-01 阿波罗智能技术(北京)有限公司 定位方法和装置、自动驾驶车辆、电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017083446A (ja) 2015-10-28 2017-05-18 本田技研工業株式会社 自動運転システム及びナビケーションシステム
US20180188742A1 (en) 2016-12-30 2018-07-05 DeepMap Inc. Representing navigable surface boundaries of lanes in high definition maps for autonomous vehicles
US20190154842A1 (en) 2017-11-22 2019-05-23 DeepMap Inc. Accuracy of global navigation satellite system based positioning using high definition map based localization
US20190271549A1 (en) 2018-03-02 2019-09-05 DeepMap Inc. Camera based localization for autonomous vehicles

Also Published As

Publication number Publication date
KR20210094450A (ko) 2021-07-29
US20210223789A1 (en) 2021-07-22
KR102382420B1 (ko) 2022-04-06
CN111274343B (zh) 2023-11-24
JP2021120844A (ja) 2021-08-19
EP3851802A1 (en) 2021-07-21
CN111274343A (zh) 2020-06-12
US11586218B2 (en) 2023-02-21

Similar Documents

Publication Publication Date Title
JP7240367B2 (ja) 車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体
CN110869700B (zh) 用于确定车辆位置的***和方法
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
CN110312912B (zh) 车辆自动停车***和方法
CN111220154A (zh) 车辆定位方法、装置、设备和介质
CN110095752B (zh) 定位方法、装置、设备和介质
CN110793544B (zh) 路侧感知传感器参数标定方法、装置、设备及存储介质
CN111263960B (zh) 用于更新高清晰度地图的设备和方法
CN112288825B (zh) 相机标定方法、装置、电子设备、存储介质和路侧设备
US11227395B2 (en) Method and apparatus for determining motion vector field, device, storage medium and vehicle
KR101880185B1 (ko) 이동체 포즈 추정을 위한 전자 장치 및 그의 이동체 포즈 추정 방법
CN110794844B (zh) 自动驾驶方法、装置、电子设备及可读存储介质
KR102006291B1 (ko) 전자 장치의 이동체 포즈 추정 방법
CN111986261B (zh) 一种车辆定位方法、装置、电子设备及存储介质
KR20210089602A (ko) 차량의 제어 방법, 장치 및 차량
CN111721281B (zh) 位置识别方法、装置和电子设备
CN110109465A (zh) 一种自导引车以及基于自导引车的地图构建方法
CN111353453A (zh) 用于车辆的障碍物检测方法和装置
CN112344855A (zh) 障碍物的检测方法、装置、存储介质和路测设备
CN113011212B (zh) 图像识别方法、装置及车辆
CN115294234B (zh) 图像的生成方法、装置、电子设备和存储介质
CN115205828B (zh) 一种车辆定位方法、装置、整车控制器及可读存储介质
US20220343536A1 (en) Three-dimensional map estimation apparatus and obstacle detection apparatus
Sousa et al. Extrinsic sensor calibration methods for mobile robots: a short review
CN110660134B (zh) 三维地图构建方法、三维地图构建装置及终端设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210519

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211029

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221102

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20221125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230303

R150 Certificate of patent or registration of utility model

Ref document number: 7240367

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150