JP6862409B2 - 地図生成及び移動主体の位置決めの方法及び装置 - Google Patents

地図生成及び移動主体の位置決めの方法及び装置 Download PDF

Info

Publication number
JP6862409B2
JP6862409B2 JP2018245188A JP2018245188A JP6862409B2 JP 6862409 B2 JP6862409 B2 JP 6862409B2 JP 2018245188 A JP2018245188 A JP 2018245188A JP 2018245188 A JP2018245188 A JP 2018245188A JP 6862409 B2 JP6862409 B2 JP 6862409B2
Authority
JP
Japan
Prior art keywords
image
map
positioning
subject
collected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018245188A
Other languages
English (en)
Other versions
JP2019179021A (ja
Inventor
ヂォウ,ワン
ヤン,ミャオ
ヂァン,イーフェイ
ドゥァン,シィォン
マー,チャンジェ
ラン,シェンポン
ジン,ヨンガン
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Publication of JP2019179021A publication Critical patent/JP2019179021A/ja
Application granted granted Critical
Publication of JP6862409B2 publication Critical patent/JP6862409B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/3867Geometry of map features, e.g. shape points, polygons or for simplified maps
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3878Hierarchical structures, e.g. layering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明の実施形態は、主に位置決め技術分野に関するもので、より具体的に、地図生成及び地図による移動主体の位置決めの方法及び装置に関するものである。
人々の日常生活の中で、移動主体(例えば、移動中の人、走行中の交通手段など)の位置を取得し、ナビケーション、交通状況情報の提供のような、位置によるサービス(例えば、運行)を提供するように、常に様々な移動主体に対して位置決めを行う必要がある。位置決めの精度が高いほど、提供するサービスは、ユーザのニーズをよりよく満足することができる。
一方、人工知能技術分野の発展に伴い、自律走行技術はすでに注目を受けて、ますます多くの研究機関や民間企業から自律走行技術への投資と配置を進めている。自律走行技術分野において、必要不可欠な一つの技術は、高精度の位置決めである。自律走行交通手段の量産生産を実現するために、どのように低コストの方法で高精度の位置決め結果を取得するのかとの問題が存在する。
本発明の例示的実施形態によれば、地図生成方法及び移動主体の位置決め方法を提供する。
本発明の第1の態様において、地図生成方法を提供する。この方法は、収集主体の進行過程で収集された画像と、前記画像に関連する位置データ及び位置データとを取得するステップであって、前記位置データは、前記画像が収集されるときの前記収集主体の位置を示すものであり、前記位置データは、前記画像の3次元情報を示すものである、ステップを含む。この方法は、前記画像と前記位置データに基づいて、前記地図の全域特徴層中の第1の要素を生成するステップをさらに含む。この方法は、前記画像と前記点群データに基づいて、第1の要素に対応する、前記地図の局部特徴層中の第2の要素を生成するステップをさらに含む。
本発明の第2の態様において、移動主体の位置決め方法を提供する。この方法は、前記移動主体の進行過程で収集された画像を取得するステップを含む。この方法は、前記画像が収集されるときの前記移動主体の位置データを取得するステップをさらに含む。この方法は、前記画像と、前記位置データと、請求項1から請求項4のうちいずれか1項の地図とに基づいて、前記移動主体の位置決めを確定するステップをさらに含む。
本発明の第3の態様において、地図生成装置を提供する。この装置は、収集主体の進行過程で収集された画像と、前記画像に関連する位置データ及び位置データとを取得するように構築された取得モジュールであって、前記位置データは、前記画像が収集されるときの前記収集主体の位置を示すものであり、前記位置データは、前記画像の3次元情報を示すものである、取得モジュールと、前記画像と前記位置データに基づいて、前記地図の全域特徴層中の第1の要素を生成するように構築された全域特徴層生成モジュールと、前記画像と前記点群データに基づいて、第1の要素に対応する、前記地図の局部特徴層中の第2の要素を生成するように構築された局部特徴層生成モジュールを含む。
本発明の第4の態様において、移動主体の位置決め装置を提供する。この装置は、前記移動主体の進行過程で収集された画像を取得するように構築された画像取得モジュールと、前記画像が収集されるときの前記移動主体の位置データを取得するように構築された位置取得モジュールと、前記画像と、前記位置データと、請求項1から請求項4のうちいずれか1項の地図とに基づいて、前記移動主体の位置決めを確定するように構築された位置決めモジュールを含む。
本発明の第5の態様において、1つまたは複数のプロセッサと、1つまたは複数のプログラムを格納するための記憶装置を含む機器であって、前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行される場合、前記1つまたは複数のプロセッサが本発明の第1の態様による方法を実現する機器を提供する。
本発明の第6の態様において、1つまたは複数のプロセッサと、1つまたは複数のプログラムを格納するための記憶装置を含む機器であって、前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行される場合、前記1つまたは複数のプロセッサが本発明の第2の態様による方法を実現する機器を提供する。
本発明の第7の態様において、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行される場合、本発明の第1の態様による方法を実現するコンピュータ読み取り可能な記憶媒体を提供する。
本発明の第8の態様において、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムがプロセッサによって実行される場合、本発明の第2の態様による方法を実現するコンピュータ読み取り可能な記憶媒体を提供する。
発明の内容の部分で説明した内容は、本願の実施形態のポイントまたは重要な特徴を限定しようとするものではなく、本願の範囲を限定するためのものではないことを理解されたい。本願の他の特徴は、下の説明を介して容易に理解できるだろう。
以下の図面による非限定的な実施例についての詳細な説明を読み、参照することにより、本願の他の特徴、目的及び利点がより明らかになる。
図1は、本発明の複数の実施形態を実現可能な例示的な環境の概略図を示す。 図2は、本発明の実施形態による地図生成方法のフローチャートを示す。 図3は、本発明の実施形態に係る移動主体の位置決め方法のフローチャートを示す。 図4は、本発明の実施形態に係る移動主体の位置決め方法のフローチャートを示す。 図5は、本発明の実施形態に係る地図生成装置のブロック図を示す。 図6は、本発明の実施形態に係る移動主体の位置決め装置のブロック図を示す。 図7は、本発明の複数の実施形態を実施可能な計算装置のブロック図を示す。
以下、説明の詳細を参照しながら本願の様々な実施形態及び態様を説明し、図面には、上記様々な実施形態が示される。以下の説明及び図面は、本願を例示するためのものであり、限定するものとして解釈されるべきではない。本願の様々な実施形態を全面的に理解するために、多くの特定の詳細を説明する。ところが、いくつかの場合に、本願の実施形態に対する簡単な説明を提供するために、周知又は従来技術の詳細について説明していない。
本願の実施形態を説明することにおいて、用語「含む」及び似ている用語は、開放的な「含む」に理解すべきである。つまり、「...を含むが、これらに限定されない」と理解すべきである。用語「に基づいて」は、「少なくとも部分的に...に基づいて」と理解すべきである。用語「一実施形態」または「当該実施形態」は、「少なくとも一つの実施形態」として理解すべきである。用語「第1」、「第2」などは、異なるか、同じ対象物を示す可能性もある。以下、他の明確な定義と暗黙的定義を含める可能性もある。
前述したように、ユーザへより良好なロケーションベースのサービスを提供するために、正確な位置決めを行う必要がある。特に、自律走行技術分野では、相対的に低コストで車両の正確な自動位置決めを実現することはより重要である。
従来の位置決め方法は、一般的に、レーザー点群ベースの位置決め方法および画像ベースの位置決め方法に区分することができる。レーザー点群ベースの位置決め方法の利点は、位置決めの精度が高く、技術が相対的に成熟しているが、欠陥も非常に明確であり、コストが非常に高く、量産化を実現しにくい。画像ベースの位置決め方法は、コストが相対的に低く、量産化を実現しやすいが、その精度は高くなく、自律走行の要求を満足することができない。
本発明の実施形態によれば、地図ベースの移動主体の位置決め方法を提供する。この案は、レーザーレーダーの位置決めの精度が高い利点とカメラのコストが低い利点とを十分に利用する。この案は、主に2つの部分を含み、ここで、第1の部分は、オフラインでの画像の特徴層を備える地図を生成することであり、第2の部分は、オンラインで生成された地図を利用して、移動主体に対して位置決めを行うことである。
本発明の文脈において、用語「移動主体」は、例えば人、車両、または移動可能な他のデバイスのような移動可能な任意の主体である。本発明の実施形態において、移動主体に対して正確に位置決めを行うことができるため、移動主体は、画像データを収集することができるカメラ、例え、高精度カメラ、パノラマカメラ、モノカメラなどが装着されることができる。
本発明の文脈において、用語「収集主体」は、点群データ、画像データ、位置データ、および/またはその他の適切なデータを収集することができる主体である。収集主体は、例えば車両、人や移動可能な他のデバイスのような特定の移動主体であることができる。収集主体は、カメラ、位置センサおよび/またはレーザーレーダーなどの装置が装着されることができるが、移動主体は、カメラ、位置センサが装着され、レーザーレーダーが装着されなくてもよい。カメラは、高精度カメラ、パノラマカメラ、モノカメラなどであってもよい。位置センサは、GPSユニット、A−GPS(補助型GPS)装置、SPAN−CPT等であってもよい。レーザーレーダーは、単一ラインのレーザーレーダー、複数のラインのレーザーレーダー、3Dレーザーレーダー等であってもよい。
前記車両は、自律走行車および/または非自律走行車などを含むことができる。自律走行車は、無人走行車とも呼ばれ、部分的または全体的に自律走行操作を実行可能な車である。非自律走行車は、完全に人によって走行操作指令が提供される車両を指す。
本発明の実施形態において、収集主体と移動主体は、相互に関連するものであることは、技術分野の当業者により理解すべきである。例えば、データを収集する際に収集主体が移動状況であれば、このとき、収集主体は移動主体と見なされることができる。一方、移動主体に対して位置決めを行う場合に、移動主体が画像を収集してその画像に基づいて位置決めを行うと、この時点で、移動主体は、収集主体と見なされることができる。
地図生成過程では、カメラで収集した画像と位置センサで取得した位置情報を利用して、地図の全域特徴層を作成し、カメラにより収集された画像やレーザーレーダーにより取得された点群を利用して、地図の局部特徴層を生成する。全域特徴層では、大体の位置情報と画像の全域特徴を関連させ、局部の特徴層では、正確な3次元空間座標情報と、その画像の局部特徴とを関連させる。これにより、画像の全域特徴と局部特徴によって、大体の位置情報と正確な3次元情報を関連させる。
移動主体に対して位置決めを行う過程において、移動主体の進行過程で収集された画像と、その画像が収集されるときの移動主体の一つの大体の位置を用いて、生成された全域特徴層と局部特徴層を備える地図に基づいて、当該画像に関連する3次元空間座標情報を確定し、3次元空間座標情報に基づいて移動主体の位置をより正確に確定する。第1の部分で生成された高精度の地図に基づいて、移動主体は、画像を収集するためのカメラと、大体の位置を取得するための位置センサ(例えば、GPSデバイス)だけを備えれば、レーザーレーダーが完備されていなくても、リアルタイムの3次元情報を取得することができる。
以下の説明において、説明の便宜のために、本発明の下の実施形態は、車両を例に挙げて、各実施形態を説明する。しかしながら、本発明の方法は、同様の方法で他の種類の収集主体および/または移動主体に適用されることもできることを、その技術分野の当業者は理解すべきである。
以下、添付された図面を参照して、本発明の実施形態を具体的に説明する。
図1は、本発明の複数の実施形態を実現可能な例示的環境100の概略図を示す。この例示的環境100において、計算装置120によって地図110を生成し、当該地図110は、画像の特徴層を備える。地図110を生成するために、計算装置120は、まず、画像データ、位置データ、および点群データなどを収集する。収集主体(例えば、車両140)上に、既に同期された位置センサ、レーザーレーダーとカメラが設置される。データ収集のステップにおいて、カメラは、車両140の運行過程に画像を収集し、位置センサは、画像が収集されるときの車両140の位置を取得し、レーザーレーダーは、画像に関連する点群データを取得し、当該点群データは、その画像の3次元情報を示す。記憶装置130は、車両140の運行過程で収集した画像、画像が収集されるときの車両140の位置、及び画像に関連点群データなどを、これらを関連させる方法で記憶することができる。一部の実施形態において、記憶装置130は、地図110を記憶することもできる。
本発明のいくつかの実施形態において、カメラ、位置センサ、レーザーレーダーの周波数は、互いに異なる可能性があるので、位置センサで取得した位置は、画像が収集されるときの車両140の位置と必ず正確に対応し、レーザーレーダーに収集した点群データは、画像と必ずしも正確に対応するわけではない。そのために、収集した画像、位置、および点群間が対応するように、これらに対して補間などの操作を行うことができ、相互に対応する画像、位置、点群は関連して記憶装置130に記憶することができる。
計算装置120は、記憶装置130から、車140の進行過程で収集した画像、画像が収集されるときの車両140の位置を示す位置データ、及び画像の3次元情報を示す点群データを取得する。計算装置120は、画像と位置データに基づいて、地図の全域特徴層を生成する。計算装置120は、画像や点群データに基づいて、地図の局部特徴層も生成する。収集された各画像は、全域特徴層においてすべて一つの対応する全域要素を備え、収集された各画像は、局部特徴層においてすべて一つの対応する局部要素を備え、同じ画像の全域要素と局部要素は、相互に対応するものである。図2は、全域特徴層のうち1つの全域要素と局部特徴層のうち一つの局部要素をどのように生成するかを具体的に示し、以下に詳細に説明する。
この例示的環境100において、計算装置160により移動主体(例えば、車両150)の位置決めを確定する。車両150には、カメラ(例えば、低コストの単眼カメラカメラ)と位置センサ(例えば、GPSデバイス)が設置される。計算装置160は、車両150の運行過程にカメラで収集した画像と、その画像が収集されるときの位置センサで取得した位置データを取得する。計算装置160は、取得した画像、位置データおよび計算装置120で生成した地図110に基づいて、車両150の位置決めを確定する。図3は、計算装置160がどのように車両150に対して位置決めを行うかどうかを具体的に示し、以下に詳細に説明する。
図1に車両140と車両150が異なる車両に図示されるが、これらは同じ車であってもよく、当該車両は地図を構築するのに使用することができるだけでなく、構築された地図を利用して位置決めを行うことができることを、その技術分野の当業者は理解すべきである。また、計算装置160と計算装置120は、異なる部材で図示されるが、これらは同じ部材であってもよく、同じ計算装置で地図生成と車両の位置決めの両者を完成してもよい。計算装置160は、車両150と分離されているもので図示れるが、計算装置160は、車両150の内部に位置することもできることを理解すべきである。
また、図1に示された各部材の数、構造、接続関係および配置はすべて例示的なものに過ぎず、限定的なものではなく、そのうちのいくつかの部材は、選択可能なものであり、当該技術分野の当業者は、本発明の範囲内で数、構造、接続関係および配置などの方面で調整することができることを理解すべきである。
以下、図2を組み合わせて、全域特徴層中の全域要素と局部特徴層中の局部要素の生成過程を具体的に説明する。図2は、本発明の実施形態による地図生成方法200のフローチャートを示す。方法200は、例えば図1中の計算装置120によって実行されることができる。
ブロック202において、計算装置120は、収集主体(例えば、車両140)の運行過程で収集した画像、当該画像に関連する位置データ、及び当該画像に関連する点群データを取得する。位置データは、その画像が収集されるときの車両140の位置を示し、点群データは、その画像の3次元情報(例えば、その画像の中の対象物の現実の世界での3次元座標)を示す。
本発明のいくつかの実施形態において、カメラは、車両140と関連して設定され、例えば車両140の上部、側面、前方車窓、後方車窓などの位置に設置され、車両140の運転手や乗客が携帯したカメラや撮像機能を備えた他のデバイス(例えば、携帯電話、タブレットPCなど)であってもよい。さらに、位置センサ(例えば、GPSデバイス)、及びレーザーレーダーは、すべてカメラと同期されるように設定することができる。一部の実施形態において、計算装置120は、カメラから収集した画像を取得することができ、GPSデバイスから対応するカメラと同期的に収集した車両140の位置データを取得することができ、レーザーレーダーから、カメラと同期的に収集された点群データを取得することができる。
ブロック204において、計算装置120は、取得した画像と位置データに基づいて、全域特徴層中の第1の要素(つまり、全域要素)を生成する。一部の実施形態において、計算装置120は、取得した画像の全域特徴を抽出する。画像の全域特徴は、画像の全体的属性、例えば、色、テクスチャ、形状、空間包絡などを表示する。本発明のいくつかの実施形態において、抽出された全域特徴は、画像の空間包絡である。その後の計算が便利するために、計算装置120は、抽出された全域特徴を一つの技術語(例えば、一定の次元のベクトル)で表示することができ、これは全域特徴技術語と呼ばれることもできる。計算装置120は、画像から抽出した全域特徴と画像が収集されるときの車両140の位置を関連させて、地図の全域特徴層のうち1つの全域要素を生成する。例えば、全域要素の形式は、{全域特徴技術語、位置}であることができる。
ブロック206において、計算装置120は、取得した画像と、点群データに基づいて、地図の局部特徴層中の第2の要素(つまり、局部要素)を生成する。一部の実施形態において、計算装置120は、画像の複数の局部特徴(例えば、N個)を抽出する。局部特徴は、画像の局部領域(例えば、画像の一つの画素の周囲の領域)の属性、例えば、エッジ、角点、線、曲線などを表示する。同様に、その後の計算が便利するために、計算装置120は、抽出された複数の局部特徴中の各局部特徴を一つの技術語を表示することができ、これは局部特徴技術語と呼ばれることもできる。
一部の実施形態において、計算装置120は、点群データから画像の各局部特徴に関連する3次元情報を抽出する。例えば、一つの局部特徴により反映されるのが、画像の中のピクセル(X、Y)の周囲の局部領域の属性である場合、計算装置120は、点群データからピクセル(X、Y)に対応する空間3次元座標を抽出する。計算装置120は、抽出された各局部特徴とその局部特徴に関連する3次元情報を関連させて、地図の局部特徴層の一つの局部要素を生成する。例えば、局部要素の形式は、{(局部特徴技術語1、3次元情報1)、(局部特徴技術語2、3次元情報2).....(局部特徴技術語N、3次元情報N)}であることができる。局部特徴層はレーザーレーダーにより収集された3次元情報を含むので、生成された地図の精度はさらに高くなる。
このように、一つの画像を対象にして、大体の位置情報を利用して、全域特徴層のうち1つの全域要素を作成し、点群データを利用して局部特徴層の一つの局部要素を生成することができる。同じ画像から生成された全域要素と局部要素は、相互に対応するものである。
記憶装置130に格納された各画像を対象にして、または後続的に地図を更新するために収集した他の画像を対象にして、図2に示された方法200を繰り返すことにより、地図110の全域特徴層と局部特徴層を絶えず豊かにすることができる。生成された地図は、クラウドサーバ側に記憶されることができる。
生成された地図110において、全域特徴層では、画像の全域特徴と大体の位置情報を関連させ、局部特徴層では、画像の局部特徴と精密な3次元情報を関連させることで、画像の全域特徴と局部特徴を橋で、大体の位置情報と精密な3次元情報を関連させる。これらの地図を利用して、レーザーレーダーがインストールされていない車両に対して高精度の位置決めを行うこともできる。
以下、図3を組み合わせて、どのよう本発明の実施形態に係る生成された地図を利用して、車両のような移動主体に対して位置決めを行うかを説明する。図3は、本発明の実施形態に係る移動主体の位置決め方法300のフローチャートを示す。方法300は、図1に示された計算装置160によって実行されることができる。
ブロック302において、計算装置160は、移動主体(例えば、車両150)の運行過程で収集した画像を取得する。本発明のいくつかの実施形態において、計算装置160は、車両150の内部のカメラからの画像を取得することができる。
ブロック304において、計算装置160は、画像が収集されるときの車両150の位置データを取得する。例えば、計算装置160は、車両150の内部のGPSデバイスから位置データを取得することができる。本発明のいくつかの実施形態において、カメラは、車両150と関連して設定され、例えば、車両150の上部、側面、前方車窓、後方車窓などの位置に設置され、車両150の運転手や乗客が携帯したカメラや撮像機能を備えた他のデバイス(例えば、携帯電話、タブレットPCなど)であってもよい。さらに、GPSデバイスは、カメラと同期されるように設定することができる。
ブロック306において、計算装置160は、取得した画像と、位置データと、本発明の実施形態に係る画像特徴層を備える地図とに基づいて、車両150の位置決めを確定する。本発明の実施形態に係る全域特徴層と局部特徴層を備える地図を利用して、車両150上に低コストのカメラとGPSデバイスだけがインストールされば、高価なレーザーレーダーがインストールされてなくても、高精度の位置決めを実現することができる。図4は、さらにどのように画像、位置データ、及び画像特徴層を備える地図に基づいて、車両の位置決めを行うのかに対するより詳細なプロセスを示し、以下これに対する詳細に説明する。
選択可能に、計算リソースを節約するために、計算装置160は、まず、車両150から1つまたは複数の計画経路を取得し、続いて、クラウドサーバからその計画経路に関連する地図の一部をダウンロードすることができる。この方法により、計算装置160は、全体的な地図を利用する必要がなく、ただその地図の一部分だけを利用するので、コストの支出を節約し、処理効率と速度を向上させる。
図4は、本発明の一部の実施形態に係る移動主体の位置決め方法400を示す。以下、図4を組み合わせて移動主体の位置決め過程を詳細に説明する。方法400は、図1に示された計算装置160によって実行されることができる。
ブロック402において、計算装置160は、画像の全域特徴と局部特徴を抽出する。上述したように、全域特徴は、画像の全体的属性、例えば、画像の空間包絡を表示する。局部特徴は、画像の局部領域(つまり、画像の一部分)の属性を表示する。本発明のいくつかの実施形態において、計算装置160は、全域特徴技術語を利用して抽出した全域特徴を表示し、局部特徴技術語を利用して抽出した局部特徴を表示する。本発明のいくつかの実施形態において、抽出された局部特徴は、複数個であり、例えば、局部特徴1’乃至局部特徴N’である。
ブロック404において、計算装置160は、位置データに基づいて、全域特徴層から候補要素のセットを確定する。本発明のいくつかの実施形態において、計算装置160は、全域特徴層から候補要素のセットの中の候補要素として、全域要素に関連した場所と位置データにより表示される位置との間の距離が所定の閾値内に位置する全域要素を選択する。前記所定の閾値は、例えば、100メートル、200メートルなどである。
ブロック406において、計算装置160は、候補要素のセットから、画像から抽出した全域特徴に一致する全域マッチング要素を確定する。本発明のいくつかの実施形態において、計算装置160は、抽出された全域特徴と候補要素のセット中の各候補要素の全域特徴とを比較し、前記比較に基づいて、候補要素のセットから全域特徴にマッチングされる全域マッチング要素を確定する。
ブロック408において、計算装置160は、局部特徴層から全域マッチング要素に対応する局部マッチング要素を確定する。上述したように、全域マッチング要素に対応する局部マッチング要素は、N個のエントリを含むことができ、それぞれのエントリは、単一の局部特徴と相応する3次元情報とを備え、例えば、その形式は、{(局部特徴技術語1、3次元情報1)、(局部特徴技術語2、3次元情報2)...(局部特徴技術語N、3次元情報N)}であることができる。
ブロック410において、計算装置160は、局部マッチング要素に基づいて、画像から抽出した局部特徴に関連する3次元情報を確定する。具体的に、画像から抽出した複数の局部特徴中の各局部特徴I’(1’≦I’≦N’)に対して、計算装置160は、これを局部マッチング要素のN個の局部特徴のそれぞれと比較し、局部マッチング要素の局部特徴I’にマッチングされる局部マッチング特徴を確定する。また、局部特徴I’に関連する3次元情報として、局部マッチング特徴に関連する3次元情報を取得する。
ブロック412において、計算装置160は、確定した3次元情報に基づいて、移動主体の位置決めを確定する。本発明のいくつかの実施形態において、確定した3次元情報に基づいて、例えば、PNP(PERSPECTIVE−N−POINT)アルゴリズムを使用して、カメラ姿に対して解を求めれて、移動主体の位置決めを確定する。
地図は全域特徴と局部特徴を介して大体の位置と精密な3次元座標を関連させるので、実際の位置決めのプロセスにおいて、車両150は、単にカメラ(例えば、単目カメラ)と位置センサ(例えば、GPS)をインストールするだけで、高価な高精度のレーザーレーダーがインストールされてなくても、車両150の高精度の位置決めを実現することができる。
図5は、本発明の実施形態に係る地図生成装置500のブロック図を示す。図5に示すように、装置500は、収集主体の進行過程で収集した画像と、当該画像が収集されるときの収集主体の位置を示す画像に関連した位置データと、当該画像の3次元情報を示すその画像に関連する点群データを取得するように構築された取得モジュール510と、当該画像と当該位置データに基づいて、地図の全域特徴層中の第1の要素を生成するように構築された全域特徴層生成モジュール520と、当該画像と当該点群データに基づいて、第1の要素に対応する地図の局部特徴層中の第2の要素を生成するように構築された局部特徴層生成モジュール530を含む。
本発明のいくつかの実施形態において、取得モジュール510は、収集主体と関連して設定されたカメラにより収集された前記画像を取得するように構築された画像取得モジュールと、位置センサによりカメラに同期的に収集された収集主体の位置データを取得するように構築された位置取得モジュールと、レーザーレーダーによりカメラに同期的に収集された点群データを取得するように構築された点群取得モジュールを含む。
本発明のいくつかの実施形態において、全域特徴層の生成モジュール520は、画像の全体的属性を表示する画像の全域特徴を抽出するように構築された全域特徴抽出モジュールと、位置データと全域特徴を関連させて全域特徴層のうちの第1の要素を生成するように構築された関連付けモジュールを含む。
本発明のいくつかの実施形態において、局部特徴層の生成モジュール530は、画像の一部に関する属性を表示する画像の局部特徴を抽出するように構築された局部特徴抽出モジュールと、点群データから局部特徴に関連する3次元情報を抽出するように構築された3次元情報抽出モジュールと、局部特徴と3次元情報を関連させて局部特徴層中の第2の要素を生成するように構築された関連付けモジュールを含む。
図6は、本発明の実施形態に係る移動主体の位置決め装置600のブロック図を示す。図6に示すように、装置600には、移動主体の運行過程で収集した画像を取得するように構築された画像取得モジュール610と、当該画像が収集されるときの移動主体の位置データを取得するように構築された位置取得モジュール620と、当該画像、当該位置データ、及び本発明の実施形態に係る地図に基づいて、移動主体の位置決めを確定するように構築された位置決めモジュール630を含む。
本発明のいくつかの実施形態において、位置決めモジュール630は、画像の全体的属性を表示する画像の全域特徴と、画像の一部に関する属性を表示する画像の局部特徴とを抽出するように構築された特徴抽出モジュールと、移動主体の位置データに基づいて、地図の全域特徴層から候補要素のセットを確定するように構築された候補要素確定モジュールと、候補要素のセットから全域特徴にマッチングされる全域マッチング要素を確定するように構築された全域マッチング要素確定モジュールと、地図の局部特徴層から全域マッチング要素に対応する局部マッチング要素を確定するように構築された局部マッチング要素確定モジュールと、局部マッチング要素に基づいて、局部特徴に関連する3次元情報を確定するように構築された3次元情報確定モジュールと、前記3次元情報に基づいて、移動主体の位置決めを確定するように構築された位置決め確定モジュールを含む。
本発明のいくつかの実施形態において、装置600には、移動主体の計画経路を取得するように構築された計画経路取得モジュールと、計画ルートに関連する地図をダウンロードするように構築された地図ダウンロードモジュールを含む。
本発明のいくつかの実施形態において、画像取得モジュール610は、移動主体に関連して設定されたカメラにより収集された画像を取得するように、さらに構築される。位置取得モジュール620は、位置センサによりカメラに同期的に収集された移動主体の位置データを取得するように、さらに構築される。
図7は、本願の複数の実施形態を実施することができる機器700のブロック図を示す。機器700は、図1の点コンピューティング機器160を実現するのに使用することができる。図示されたように、機器700は、中央処理ユニット701(CPU)を含み、CPU701は、読み取り専用メモリ702(ROM)に記憶されたコンピュータプログラム指令、または記憶ユニット708からランダムアクセスメモリ703(RAM)にロードされたコンピュータプログラム指令に基づいて、各種の適切な動作と処理を実行することができる。RAM703には、機器700の動作に必要な各種のプログラムやデータが記憶されることができる。CPU701、ROM702とRAM703、バス704を介して互いに接続される。入力/出力(I/O)インターフェース705もバス704に接続される。
機器700中のI/Oインタフェース705に接続されている複数の部品として、キーボード、マウスなどの入力ユニット706と、様々なタイプの表示装置、スピーカーなどの出力ユニット707と、磁気ディスク、コンパクトディスクなどの記憶ユニット708と、LANカード、モデム、無線通信トランシーバなどの通信ユニット709が含まれる。通信ユニット709は、機器700がインターネットなどのコンピュータネットワークおよび/または各種の電気通信網を介して他の機器と情報/データを交換することを可能にする。
中央処理ユニット701は、前述した各方法と処理、例えば、プロセス200、300および/またはプロセス400を実行する。例えば、いくつかの実施形態において、プロセス200、300および/またはプロセス400は、コンピュータソフトウェアプログラムとして実現されることができ、これは機械可読媒体(例えば、記憶ユニット708)に含まれている。一部の実施形態において、コンピュータプログラムの一部または全部は、ROM702、および/または通信ユニット709を経由して機器700上にロードおよび/またはインストールすることができる。コンピュータプログラムは、RAM703にロードされてCPU701により実行される場合、前述したプロセス200、300および/またはプロセス400の1つまたは複数のステップを実行することができる。選択可能に、その他の実施形態において、CPU701は、ギターの任意の適切な方法で(例えば、ファームウェアの助けを借りて)プロセス200、300および/またはプロセス400を実行するように構築することができる。
本明細書に説明されて複数の機能は、少なくとも部分的に1つまたは複数のハードウェアロジック部材で実行することができる。例えば、使用可能な模式的なタイプのハードウェアロジック部材は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、オンデマンド標準製品(ASSP)、システム−オン−チップシステム(SOC)、複合プログラマブルロジック素子(CPLD)などを含むが、これに限定されない。
本願の方法を実施するためのプログラムコードは、1つまたは複数のプログラマブル言語の任意の組み合わせを利用してプログラミングすることができる。これらのプログラムコードは、汎用コンピュータ、オンデマンドコンピュータ又はその他のプログラマブルデータ処理装置のプロセッサまたは制御装置に提供されることができ、プログラムコードがプロセッサまたは制御装置により実行される場合には、フローチャート、および/またはブロック図に規定された機能/操作が実施される。プログラムコードは、完全に機械上で実行されるか、部分的に機械上で実行されるか、独立したソフトウェアパッケージとして部分的に機械上で実行されて、部分的にリモートマシン上で実行されたり、または完全にリモートマシンまたはサービスで実行されることができる。
本願の文脈において、機械可読媒体は、あるタイプの媒体であることができ、コマンドを実行するシステム、装置又は機器によって使用されるか、またはコマンドの実行システム、装置または機器と組み合わせて使用されるプログラムを含むまたは記憶することができる。機械可読媒体は、機械可読信号媒体または機械可読記憶媒体であることができる。機械可読媒体は、電子、磁気、光学、電磁、赤外線または半導体システム、装置、または機器、または前述した内容の任意の適切な組み合わせを含むことができるが、これに限定されない。機械可読記憶媒体のより具体的な例は、1つまたは複数のワイヤベースの電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去およびプログラム可能な読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD−ROM)、光学ストレージ装置、磁気記憶装置、または前述した内容の任意の適切な組み合わせを含むことができるが、これに限定されない。
また、特定の順序を利用して、各操作ウルルル説明したが、これはこのような操作が図示された特定の順序またはシーケンスで実行されることを要求したり、目的の結果を実現するために図示されたすべての操作が実行されることを要求すると理解してはならない。一定の環境において、マルチタスクと並列処理は、有利であることができる。同様に、上記説明に様々な具体的な実現の詳細が含まれているが、これらは本願の範囲の限定と解釈してはならない。別の実施形態の文脈で説明されたいくつかの特徴は、組み合わせの方法で単一の実現に実現されることができる。逆に、単一の実現のコンテキストで説明された各種の特徴も個別にまたは任意の適切なサブ組み合わせの方法で複数の実現に実現されることもできる。
構造の特徴および/または方法のロジックの動作に固有の言語を使用して本主題を説明したが、特許請求の範囲に限定された主題は、必ずしも前述した特定の特徴または動作に限定されるべきではないことを理解すべきである。逆に、前述した特定の特徴または動作は、単に特許請求の範囲を実現する例示的形式である。

Claims (24)

  1. 地図生成方法であって、
    収集主体の進行過程で収集された画像と、前記画像に関連する位置データ及び点群データとを取得するステップであって、前記位置データは、GPSデバイスにより収集され、前記画像が収集されるときの前記収集主体の大体の位置を示すものであり、前記点群データは、前記画像の3次元情報を示すものである、ステップと、
    前記画像と前記位置データに基づいて、前記地図の全域特徴層中の第1の要素を生成するステップと、
    前記画像と前記点群データに基づいて、第1の要素に対応する、前記地図の局部特徴層中の第2の要素を生成するステップと
    を含む地図生成方法。
  2. 請求項1において、
    前記画像と、前記位置データ及び前記点群データを取得するステップは、
    前記収集主体に関連して設定されたカメラにより収集された前記画像を取得するステップと、
    GPSデバイスにより前記カメラに同期的に収集された前記収集主体の位置データを取得するステップと、
    レーザーレーダーにより前記カメラに同期的に収集された前記点群データを取得するステップとを含む、地図生成方法。
  3. 請求項1において、
    前記全域特徴層中の第1の要素を生成するステップは、
    前記画像の全体的属性を表示する前記画像の全域特徴を抽出するステップと、
    前記位置データと前記全域特徴を関連させて前記第1の要素を生成するステップと
    を含む、地図生成方法。
  4. 請求項1において、
    前記局部特徴層中の第2の要素を生成するステップは、
    前記画像の一部に関する属性を表示する前記画像の局部特徴を抽出するステップと、
    前記点群データから前記局部特徴に関連する3次元情報を抽出するステップと、
    前記局部特徴と前記3次元情報を関連させて前記第2の要素を生成するステップと
    を含む、地図生成方法。
  5. 移動主体の位置決め方法であって、
    前記移動主体の進行過程で収集された画像を取得するステップと、
    前記画像が収集されるときの前記移動主体の位置データを取得するステップと、
    前記画像と、前記位置データと、請求項1から請求項4のうちいずれか1項の地図とに基づいて、前記移動主体の位置決めを確定するステップと
    を含む、移動主体の位置決め方法。
  6. 請求項5において、
    前記移動主体の位置決めを確定するステップは、
    前記画像の全体的属性を表示する前記画像の全域特徴と、前記画像の一部に関する属性を表示する前記画像の局部特徴とを抽出するステップと、
    前記移動主体の位置データに基づいて、前記地図の全域特徴層から候補要素のセットを確定するステップと、
    前記候補要素のセットから、前記全域特徴にマッチングされる全域マッチング要素を確定するステップと、
    前記地図の局部特徴層から、前記全域マッチング要素に対応する局部マッチング要素を確定するステップと、
    前記局部マッチング要素に基づいて、前記局部特徴に関連する3次元情報を確定するステップと、
    前記3次元情報に基づいて、前記移動主体の位置決めを確定するステップと
    を含む、移動主体の位置決め方法。
  7. 請求項5において、
    前記移動主体の計画経路を取得するステップと、
    前記計画経路に関連する前記地図をダウンロードするステップと
    をさらに含む移動主体の位置決め方法。
  8. 請求項5において、
    前記画像を取得するステップは、
    前記移動主体に関連して設定されたカメラにより収集された前記画像を取得するステップを含む、移動主体の位置決め方法。
  9. 請求項8において、
    前記移動主体の位置データを取得するステップは、
    GPSデバイスにより前記カメラに同期的に収集された前記移動主体の位置データを取得するステップを含む、移動主体の位置決め方法。
  10. 地図生成装置であって、
    収集主体の進行過程で収集された画像と、前記画像に関連する位置データ及び点群データとを取得するように構築された取得モジュールであって、前記位置データは、GPSデバイスにより収集され、前記画像が収集されるときの前記収集主体の位置を示すものであり、前記点群データは、前記画像の3次元情報を示すものである、取得モジュールと、
    前記画像と前記位置データに基づいて、前記地図の全域特徴層中の第1の要素を生成するように構築された全域特徴層生成モジュールと、
    前記画像と前記点群データに基づいて、第1の要素に対応する、前記地図の局部特徴層中の第2の要素を生成するように構築された局部特徴層生成モジュールと
    を含む地図生成装置。
  11. 請求項10において、
    前記取得モジュールは、
    前記収集主体と関連して設定されたカメラにより収集された前記画像を取得するように構築された画像取得モジュールと、
    GPSデバイスにより前記カメラに同期的に収集された前記収集主体の位置データを取得するように構築された位置取得モジュールと、
    レーザーレーダーにより前記カメラに同期的に収集された前記収集主体の点群データを取得するように構築された点群取得モジュールと
    を含む、地図生成装置。
  12. 請求項10において、
    前記全域特徴層生成モジュールは、
    前記画像の全体的属性を表示する前記画像の全域特徴を抽出するように構築された全域特徴抽出モジュールと、
    前記位置データと前記全域特徴を関連させて前記第1の要素を生成するように構築された関連付けモジュールと
    を含む、地図生成装置。
  13. 請求項10において、
    前記局部特徴層生成モジュールは、
    前記画像の一部に関する属性を表示する前記画像の局部特徴を抽出するように構築された局部特徴抽出モジュールと、
    前記点群データから前記局部特徴に関連する3次元情報を抽出するように構築された3次元情報抽出モジュールと、
    前記局部特徴と前記3次元情報を関連させて前記第2の要素を生成するように構築された関連付けモジュールと
    を含む、地図生成装置。
  14. 移動主体の位置決め装置であって、
    前記移動主体の進行過程で収集された画像を取得するように構築された画像取得モジュールと、
    前記画像が収集されるときの前記移動主体の位置データを取得するように構築された位置取得モジュールと、
    前記画像と、前記位置データと、請求項1から請求項4のうちいずれか1項の地図とに基づいて、前記移動主体の位置決めを確定するように構築された位置決めモジュールと
    を含む、移動主体の位置決め装置。
  15. 請求項14において、
    前記位置決めモジュールは、
    前記画像の全体的属性を表示する前記画像の全域特徴と、前記画像の一部に関する属性を表示する前記画像の局部特徴とを抽出するように構築された特徴抽出モジュールと、
    前記移動主体の位置データに基づいて、前記地図の全域特徴層から候補要素のセットを確定するように構築された候補要素確定モジュールと、
    前記候補要素のセットから、前記全域特徴にマッチングされる全域マッチング要素を確定するように構築された全域マッチング要素確定モジュールと、
    前記地図の局部特徴層から、前記全域マッチング要素に対応する局部マッチング要素を確定するように構築された局部マッチング要素確定モジュールと、
    前記局部マッチング要素に基づいて、前記局部特徴に関連する3次元情報を確定するように構築された3次元情報確定モジュールと、
    前記3次元情報に基づいて、前記移動主体の位置決めを確定するように構築された位置決め確定モジュールと
    を含む、移動主体の位置決め装置。
  16. 請求項14において、
    前記移動主体の計画経路を取得するように構築された計画経路取得モジュールと、
    前記計画経路に関連する前記地図をダウンロードするように構築された地図ダウンロードモジュールと
    をさらに含む、移動主体の位置決め装置。
  17. 請求項14において、
    前記画像取得モジュールは、
    前記移動主体に関連して設定されたカメラにより収集された前記画像を取得するように、さらに構築される、移動主体の位置決め装置。
  18. 請求項17において、
    前記位置取得モジュールは、
    GPSデバイスにより前記カメラに同期的に収集された前記移動主体の位置データを取得するようにさらに構築される、移動主体の位置決め装置。
  19. 1つまたは複数のプロセッサと、
    1つまたは複数のプログラムを格納するための記憶装置とを含む機器であって、
    前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行される場合、前記1つまたは複数のプロセッサが請求項1から請求項4のうちいずれか1項の方法を実現する機器。
  20. 1つまたは複数のプロセッサと、
    1つまたは複数のプログラムを格納するための記憶装置とを含む機器であって、
    前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行される場合、前記1つまたは複数のプロセッサが請求項5から請求項9のうちいずれか1項の方法を実現する機器。
  21. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行される場合、請求項1から請求項4のうちいずれか1項の方法を実現するコンピュータ読み取り可能な記憶媒体。
  22. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行される場合、請求項5から請求項9のうちいずれか1項の方法を実現するコンピュータ読み取り可能な記憶媒体。
  23. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項1から請求項4のうちいずれか1項の方法を実現させるコンピュータプログラム。
  24. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項5から請求項9のうちいずれか1項の方法を実現させるコンピュータプログラム。
JP2018245188A 2017-12-29 2018-12-27 地図生成及び移動主体の位置決めの方法及び装置 Active JP6862409B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201711479272.4A CN108225348B (zh) 2017-12-29 2017-12-29 地图创建以及运动实体定位的方法和装置
CN201711479272.4 2017-12-29

Publications (2)

Publication Number Publication Date
JP2019179021A JP2019179021A (ja) 2019-10-17
JP6862409B2 true JP6862409B2 (ja) 2021-04-21

Family

ID=62647056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018245188A Active JP6862409B2 (ja) 2017-12-29 2018-12-27 地図生成及び移動主体の位置決めの方法及び装置

Country Status (5)

Country Link
US (1) US10878621B2 (ja)
EP (1) EP3505866B1 (ja)
JP (1) JP6862409B2 (ja)
KR (1) KR102145109B1 (ja)
CN (1) CN108225348B (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109141446B (zh) * 2018-07-04 2021-11-12 阿波罗智能技术(北京)有限公司 用于获得地图的方法、装置、设备和计算机可读存储介质
CN109059941B (zh) * 2018-07-06 2019-11-29 禾多科技(北京)有限公司 特征地图构建方法、视觉定位方法及对应装置
CN110873568B (zh) * 2018-08-30 2021-02-23 百度在线网络技术(北京)有限公司 高精度地图的生成方法、装置以及计算机设备
JP7136035B2 (ja) * 2018-08-31 2022-09-13 株式会社デンソー 地図生成装置及び地図生成方法
US11625851B2 (en) * 2018-10-30 2023-04-11 Mitsubishi Electric Corporation Geographic object detection apparatus and geographic object detection method
CN109540122B (zh) * 2018-11-14 2022-11-04 ***股份有限公司 一种构建地图模型的方法及装置
CN109682368B (zh) * 2018-11-30 2021-07-06 上海肇观电子科技有限公司 机器人及地图构建方法、定位方法、电子设备、存储介质
US10611028B1 (en) 2018-11-30 2020-04-07 NextVPU (Shanghai) Co., Ltd. Map building and positioning of robot
CN109816697B (zh) * 2019-02-02 2019-12-10 绥化学院 一种无人模型车建立地图的***及方法
US11276189B2 (en) * 2019-03-06 2022-03-15 Qualcomm Incorporated Radar-aided single image three-dimensional depth reconstruction
CN111694903B (zh) * 2019-03-11 2023-09-12 北京地平线机器人技术研发有限公司 地图构建方法、装置、设备以及可读存储介质
EP3966742A1 (en) * 2019-05-06 2022-03-16 Zenuity AB Automated map making and positioning
DE102019207303A1 (de) * 2019-05-20 2020-11-26 Robert Bosch Gmbh Verfahren und System zum Erstellen einer Lokalisierungskarte für ein Fahrzeug
CN110220501A (zh) * 2019-06-11 2019-09-10 北京百度网讯科技有限公司 用于获取验证数据的方法、装置、电子设备和计算机存储介质
CN112212873B (zh) * 2019-07-09 2022-12-02 北京地平线机器人技术研发有限公司 一种高精地图的构建方法及装置
CN110363179B (zh) * 2019-07-23 2022-03-25 联想(北京)有限公司 地图获取方法、装置、电子设备以及存储介质
KR20210015516A (ko) * 2019-08-02 2021-02-10 네이버랩스 주식회사 라이다와 카메라를 이용하여 이미지 특징점의 깊이 정보를 향상시키는 방법 및 시스템
CN112444253B (zh) * 2019-09-04 2024-02-23 北京地平线机器人技术研发有限公司 地磁地图及其构建方法和装置
US11327506B2 (en) * 2019-11-20 2022-05-10 GM Global Technology Operations LLC Method and system for localized travel lane perception
DE102019219017A1 (de) * 2019-12-05 2021-06-10 Robert Bosch Gmbh Anzeigeverfahren zur Darstellung eines Umgebungsmodells eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug
CN111597287B (zh) * 2020-05-15 2023-09-29 阿波罗智能技术(北京)有限公司 地图生成方法、装置及设备
CN111612829B (zh) * 2020-06-03 2024-04-09 纵目科技(上海)股份有限公司 一种高精度地图的构建方法、***、终端和存储介质
CN111649724B (zh) * 2020-06-04 2022-09-06 百度在线网络技术(北京)有限公司 基于移动边缘计算的视觉定位方法和装置
CN111881233B (zh) * 2020-06-28 2022-01-18 广州文远知行科技有限公司 分布式点云地图构建方法和装置、服务器、计算机可读存储介质
CN111578949B (zh) * 2020-07-03 2023-07-25 筑石科技(湖州)有限公司 室内定位方法及装置、存储介质和电子装置
US11763569B2 (en) * 2021-03-24 2023-09-19 Denso International America, Inc. System for controlling a camera supporting human review of sensor information
CN113298871B (zh) * 2021-05-14 2022-05-24 视辰信息科技(上海)有限公司 地图生成方法、定位方法及其***、计算机可读存储介质
CN113332722B (zh) * 2021-06-04 2024-06-11 网易(杭州)网络有限公司 一种地图生成方法、装置、终端及存储介质
CN113503883B (zh) * 2021-06-22 2022-07-19 北京三快在线科技有限公司 采集用于构建地图的数据的方法、存储介质及电子设备
CN116295466A (zh) * 2022-03-31 2023-06-23 北京百度网讯科技有限公司 地图生成方法、装置、电子设备、存储介质、及车辆
CN115861039B (zh) * 2022-11-21 2023-07-25 北京城市网邻信息技术有限公司 信息展示方法、装置、设备及介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2120009B1 (en) * 2007-02-16 2016-09-07 Mitsubishi Electric Corporation Measuring device and measuring method
JP2009032600A (ja) 2007-07-28 2009-02-12 Funai Electric Co Ltd 蛍光管用電源、バックライト
US20090262974A1 (en) * 2008-04-18 2009-10-22 Erik Lithopoulos System and method for obtaining georeferenced mapping data
US8473187B2 (en) * 2009-06-01 2013-06-25 Robert Bosch Gmbh Method and apparatus for combining three-dimensional position and two-dimensional intensity mapping for localization
US8723886B2 (en) * 2010-09-08 2014-05-13 Navteq B.V. Generating a multi-layered geographic image and the use thereof
US9761002B2 (en) * 2013-07-30 2017-09-12 The Boeing Company Stereo-motion method of three-dimensional (3-D) structure information extraction from a video for fusion with 3-D point cloud data
JP6322812B2 (ja) 2014-08-21 2018-05-16 パナソニックIpマネジメント株式会社 情報管理装置、車両、および、情報管理方法
CN104573733B (zh) * 2014-12-26 2018-05-04 上海交通大学 一种基于高清正射影像图的高精细地图生成***及方法
US9686451B2 (en) * 2015-01-21 2017-06-20 Toyota Jidosha Kabushiki Kaisha Real time driving difficulty categorization
JP6639113B2 (ja) * 2015-06-05 2020-02-05 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
CN105260699B (zh) * 2015-09-10 2018-06-26 百度在线网络技术(北京)有限公司 一种车道线数据的处理方法及装置
CN107025642B (zh) * 2016-01-27 2018-06-22 百度在线网络技术(北京)有限公司 基于点云数据的车辆轮廓检测方法和装置
JP6790417B2 (ja) * 2016-03-31 2020-11-25 ソニー株式会社 情報処理装置及び情報処理サーバ
CN106503248B (zh) * 2016-11-08 2020-05-22 深圳市速腾聚创科技有限公司 地图生成方法及地图生成装置
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10539676B2 (en) * 2017-03-22 2020-01-21 Here Global B.V. Method, apparatus and computer program product for mapping and modeling a three dimensional structure
US10509413B2 (en) * 2017-09-07 2019-12-17 GM Global Technology Operations LLC Ground reference determination for autonomous vehicle operations
US10438371B2 (en) * 2017-09-22 2019-10-08 Zoox, Inc. Three-dimensional bounding box from two-dimensional image and point cloud data
US10275689B1 (en) * 2017-12-21 2019-04-30 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers

Also Published As

Publication number Publication date
CN108225348A (zh) 2018-06-29
JP2019179021A (ja) 2019-10-17
KR102145109B1 (ko) 2020-08-14
EP3505866A1 (en) 2019-07-03
KR20190082070A (ko) 2019-07-09
US10878621B2 (en) 2020-12-29
CN108225348B (zh) 2021-08-24
EP3505866B1 (en) 2022-03-30
US20190206124A1 (en) 2019-07-04

Similar Documents

Publication Publication Date Title
JP6862409B2 (ja) 地図生成及び移動主体の位置決めの方法及び装置
JP6745328B2 (ja) 点群データを復旧するための方法及び装置
EP3505869B1 (en) Method, apparatus, and computer readable storage medium for updating electronic map
US11380002B2 (en) Map element extraction method and apparatus, and server
JP7068989B2 (ja) グリッドマップを作成する方法及び装置
CN110386142A (zh) 用于自动驾驶车辆的俯仰角校准方法
CN111694903A (zh) 地图构建方法、装置、设备以及可读存储介质
WO2021051344A1 (zh) 高精度地图中车道线的确定方法和装置
CN114459471B (zh) 定位信息确定方法、装置、电子设备及存储介质
CN111008660A (zh) 语义地图的生成方法、装置、***、存储介质及电子设备
CN114387319B (zh) 点云配准方法、装置、设备以及存储介质
WO2021254019A1 (zh) 协同构建点云地图的方法、设备和***
US11699234B2 (en) Semantic segmentation ground truth correction with spatial transformer networks
CN114186007A (zh) 高精地图生成方法、装置、电子设备和存储介质
CN115578386A (zh) 泊车图像生成方法、装置、电子设备及存储介质
CN111383337B (zh) 用于识别对象的方法和装置
CN111060114A (zh) 用于生成高精度地图的特征图的方法和装置
CN116883504B (zh) 车辆朝向的校准方法、装置、计算机设备及存储介质
CN116503482B (zh) 车辆位置的获取方法、装置及电子设备
CN115830558A (zh) 车道线修正方法、装置、电子设备及存储介质
CN117949005A (zh) 三维导航***
CN116664680A (zh) 杆件检测方法、装置及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210331

R150 Certificate of patent or registration of utility model

Ref document number: 6862409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350