JP2021508815A - 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法 - Google Patents
妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2021508815A JP2021508815A JP2018568245A JP2018568245A JP2021508815A JP 2021508815 A JP2021508815 A JP 2021508815A JP 2018568245 A JP2018568245 A JP 2018568245A JP 2018568245 A JP2018568245 A JP 2018568245A JP 2021508815 A JP2021508815 A JP 2021508815A
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- cloud data
- processor
- hole
- obstructing object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000001514 detection method Methods 0.000 title description 3
- 238000004891 communication Methods 0.000 claims abstract description 21
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 230000008439 repair process Effects 0.000 claims description 9
- 230000002085 persistent effect Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 4
- 230000011218 segmentation Effects 0.000 description 15
- 238000012937 correction Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012549 training Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000414 obstructive effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013529 biological neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000036992 cognitive tasks Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 239000003292 glue Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Navigation (AREA)
- Instructional Devices (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Abstract
本開示の実施形態は、高精細度マップを補正するためのシステムおよび方法を提供する。システムは、LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信するように構成された通信インターフェースを含み得る。システムは、ポイント・クラウド・データを記憶するように構成されたストレージと、少なくとも1つのプロセッサとを、さらに含み得る。少なくとも1つのプロセッサは、ポイント・クラウド・データから少なくとも1つの妨害物体を検出するように構成され、および、少なくとも1つの妨害物体によって生じるポイント・クラウド・データ内の少なくとも1つのホールを測位するように構成され得る。少なくとも1つのプロセッサは、シーンが少なくとも1つの妨害物体なしにキャプチャされたかのように構成され、少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定するように構成され、および、妨害されないポイント・クラウド・データを用いて受信したポイント・クラウド・データを修復することによって、高精細度マップを補正するようにさらに構成される。
【選択図】図3
【選択図】図3
Description
本開示は、シーン内に妨害物が存在する際に高精細度マップを補正するためのシステムおよび方法に関し、より具体的には、妨害物体の検出に基づいて高精細度マップを更新するためのシステムおよび方法に関する。
自律走行技術は、正確なマップに大きく依拠している。たとえば、ナビゲーション・マップの精度は、測位、周囲環境の認識、意思決定、および制御などの、自律走行車両の機能にとって不可欠である。高精細度マップは、車両を乗り回している間に車両上の様々なセンサー、検出器、および他のデバイスによって収集された画像および情報を統合することによって取得され得る。たとえば車両には、車両が走行している道路または周囲の物体の特徴をキャプチャするために、光検出と測距システム(LiDAR:Light Detection And Ranging)、全地球測位システム(GPS)受信機、1つまたは複数の慣性計測装置(IMU)センサー、および1つまたは複数のカメラなどの、複数の集積センサーが装備され得る。キャプチャされたデータは、たとえば、車線のセンターラインまたは境界線座標、ビル、別の車両、ランドマーク、歩行者、または交通標識などの物体の座標および画像を含み得る。
特に、LiDARは、パルス・レーザー光を用いてターゲットを照明すること、および、センサーを用いて反射したパルスを測定することによって、ターゲットまでの距離を測定する。次いで、レーザーの戻り時間および波長における差を使用して、ターゲットのデジタル3次元(3−D)表現を構築することができる。LiDARによってキャプチャされたデータは、ポイント・クラウド・データと呼ばれる。測量の間、道路上の様々な物体がLiDARの視野を妨害する可能性がある。パルス・レーザー光は、道路に達する前に妨害物体によって反射されるため、キャプチャされるポイント・クラウド・データは歪められている。こうした歪められたポイント・クラウド・データを使用して再構築される高解像度マップは、キャプチャされたシーンを正確に反映することができない。
本開示の実施形態は、ポイント・クラウド・データのセグメンテーションおよび妨害物体によって生じる歪みの補償に基づいて高精細度マップを補正するためのシステムおよび方法によって、上記の問題に対処する。
本開示の実施形態は、高精細度マップを補正するためのシステムを提供する。システムは、LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信するように構成された通信インターフェースを含み得る。システムは、ポイント・クラウド・データを記憶するように構成されたストレージと、少なくとも1つのプロセッサとを、さらに含み得る。少なくとも1つのプロセッサは、ポイント・クラウド・データから少なくとも1つの妨害物体を検出するように構成され、および、少なくとも1つの妨害物体によって生じるポイント・クラウド・データ内の少なくとも1つのホールを測位するように構成され得る。少なくとも1つのプロセッサは、シーンが少なくとも1つの妨害物体なしにキャプチャされたかのように構成され、少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定するように構成され、および、妨害されないポイント・クラウド・データを用いて受信したポイント・クラウド・データを修復することによって、高精細度マップを補正するようにさらに構成される。
本開示の実施形態は、高精細度マップを補正するための方法も提供する。方法は、通信インターフェースを介して、LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信することを含み得る。方法は、少なくとも1つのプロセッサによって、ポイント・クラウド・データから少なくとも1つの妨害物体を検出すること、および、少なくとも1つのプロセッサによって、少なくとも1つの妨害物体によって生じるポイント・クラウド・データ内の少なくとも1つのホールを測位することを、さらに含み得る。方法は、少なくとも1つのプロセッサによって、シーンが少なくとも1つの妨害物体なしにキャプチャされたかのように、少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定すること、および、少なくとも1つのプロセッサによって、妨害されないポイント・クラウド・データを用いて受信したポイント・クラウド・データを修復することによって、高精細度マップを補正することも、含み得る。
本開示の実施形態は、1つまたは複数のプロセッサによって実行されたときに、1つまたは複数のプロセッサに高精細度マップを補正するための方法を実施させる命令を記憶した、持続性コンピュータ可読媒体を、さらに提供する。方法は、LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信することを含み得る。方法は、ポイント・クラウド・データから少なくとも1つの妨害物体を検出すること、および、少なくとも1つのプロセッサによって、少なくとも1つの妨害物体によって生じるポイント・クラウド・データ内の少なくとも1つのホールを測位することを、さらに含み得る。方法は、シーンが少なくとも1つの妨害物体なしにキャプチャされたかのように、少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定すること、および、妨害されないポイント・クラウド・データを用いて受信したポイント・クラウド・データを修復することによって、高精細度マップを補正することも、含み得る。
前述の概略的な説明および下記の詳細な説明は、どちらも単に例示的および説明的なものであり、請求される本発明を制限するものではないことを理解されよう。
次に、添付の図面にそれらの例が図示された例示的な実施形態について詳細に言及する。図面全体を通じて、同じかまたは類似の部分を言い表すために可能な限り同じ参照番号が使用される。
図1は、本開示の実施形態に従った、複数のセンサー140および150を有する例示的な車両100の概略図を示す。いくつかの実施形態に一致して、車両100は、高精細度マップまたは3−D都市モデリングを構築するためのデータを収集するように構成された測量車両であり得る。車両100は、電気車両、燃料電池車両、ハイブリッド車両、または従来の内燃エンジン車両であり得ることが企図される。車両100は、車体110および少なくとも1つのホイール120を有し得る。車体110は、スポーツ車両、クーペ、セダン、ピックアップ・トラック、ステーション・ワゴン、スポーツ用多目的車両(SUV)、ミニバン、またはコンバージョン・バンなどの、任意の車体スタイルであり得る。いくつかの実施形態において、車両100は、図1に示すように、1対の前輪および1対の後輪を含み得る。しかしながら、車両100は、車両100が動き回れるようにする、より多い、またはより少ないホイールまたは等価の構造を有し得ることが企図される。車両100は、全輪駆動(AWD)、前輪駆動(FWR)、または後輪駆動(RWD)として構成され得る。いくつかの実施形態において、車両100は、車両に乗車している運転者によって、遠隔制御で、および/または自律的に運転されるように構成され得る。
図1に示されるように、車両100には、取付構造130を介して車体110に取り付けられたセンサー140が装備され得る。取付構造130は、車両100の車体110に設置される(installed)かまたは他の方法で接続される(attached)、電気機械デバイスであり得る。いくつかの実施形態において、取付構造130は、ねじ、接着剤、または別の取付機構を使用し得る。車両100は追加として、任意の好適な取付機構を使用して、車体110の内部または外部にセンサー150を装備し得る。センサー140または150を車両100に装備し得る様式は、図1に示された例によって制限されることはなく、望ましい感知性能を達成するために、センサー140および150および/または車両100のタイプに応じて変更され得ることが企図される。
いくつかの実施形態において、センサー140および150は、車両100が軌道に沿って進んでいるときにデータをキャプチャするように構成され得る。本開示に一致して、センサー140は、周囲を走査し、ポイント・クラウドを収集するように構成された、LiDARであり得る。LiDARは、パルス・レーザー光を用いてターゲットを照明すること、およびセンサーを用いて反射したパルスを測定することによって、ターゲットまでの距離を測定する。次いで、レーザーの戻り時間および波長における差を用いて、ターゲットのデジタル3−D表現を作成することができる。LiDAR走査に使用される光は、紫外線、可視光、または近赤外線であり得る。狭レーザー・ビームは非常に高い解像度で物理特徴をマッピングできるため、LiDARは高精細度マップ測量に特に好適である。いくつかの実施形態において、LiDARがポイント・クラウドをキャプチャし得る。ポイント・クラウド・データは、物体の周囲の外部表面上にデータ・ポイントのセットを含み得る。ポイント・クラウドが、物体の3−Dモデルを構築するために処理され得る。車両100が軌道に沿って進んでいるときに、センサー140はポイント・クラウド・データを連続的にキャプチャし得る。ある時点でキャプチャされるポイント・クラウド・データの各セットが、ポイント・クラウド・フレームと呼ばれる。ポイント・クラウド・フレームは、リアルタイムで(たとえば、ストリーミングによって)、または、車両100が軌道全体を完了した後でまとめて、サーバ160に伝送され得る。
図1に示されるように、車両100には追加としてセンサー150が装備され得、センサー150は、GPS受信機および1つまたは複数のIMUセンサーなどの、ナビゲーション・ユニットにおいて使用されるセンサーを含み得る。GPSは、ジオロケーションおよび時間情報をGPS受信機に提供するグローバル・ナビゲーション衛星システムである。IMUは、加速度計およびジャイロスコープ、時には磁力計などの、様々な慣性センサーを使用して、車両の特定の力、角速度、および時には車両を取り囲む磁場を、測定および提供する電子デバイスである。GPS受信機およびIMUセンサーを組み合わせることによって、センサー150は、車両100が進んでいるときに、各時点での車両100の位置および配向(たとえば、オイラー角)を含む車両100のリアルタイム姿勢情報を提供することができる。本開示に一致して、センサー150は、センサー140がポイント・クラウド・フレームをキャプチャするのと同じ時点で、姿勢情報を測定し得る。したがって、姿勢情報はそれぞれのポイント・クラウド・フレームに関連付けられ得る。いくつかの実施形態において、ポイント・クラウド・フレームとその関連付けられた姿勢情報との組み合わせを使用して、車両100が測位され得る。
本開示に一致して、センサー140および150はサーバ160と通信し得る。いくつかの実施形態において、サーバ160は、ローカル物理サーバ、(図1に示されるような)クラウド・サーバ、仮想サーバ、分散型サーバ、または任意の他の好適なコンピューティング・デバイスであり得る。本開示に一致して、サーバ160は、センサー140および150からデータを取得し得る。サーバ160は、ワイヤレス・ローカル・エリア・ネットワーク(WLAN)、ワイド・エリア・ネットワーク(WAN)、電波などのワイヤレス・ネットワーク、セルラー・ネットワーク、衛星通信ネットワーク、および/または、ローカルまたは短距離ワイヤレス・ネットワーク(たとえば、Bluetooth(登録商標))などの、ネットワークを介して、センサー140および150、および/または車両100の他の構成要素と通信し得る。サーバ160は高精細度マップを記憶し得る。いくつかの実施形態において、高精細度マップは、元来、センサー140によって収集されたポイント・クラウド・データを使用して構築され得る。
本開示に一致して、サーバ160は、妨害物体によって生じるキャプチャされたポイント・クラウド・データ内のいずれの歪みも除去するために、高精細度マップを補正する責務も負い得る。いくつかの実施形態において、妨害物体は、レーザー光が道路に達する前に物体によって反射されるようにセンサー140のレーザー経路を遮断する任意の物体を含み得る。たとえば妨害物体は、歩行者、一時的なブース、あるいは、車、オートバイ、または自転車などの駐車または移動している車両であり得る。サーバ160は、妨害物体によって反射されたポイント・クラウド・データを残りのポイント・クラウド・データから分離すること、妨害物体が存在しなかったかのように正しいポイント・クラウド・データを推定すること、および、推定されたポイント・クラウド・データを使用して高精細度マップを補正することができる。
たとえば図2は、本開示の実施形態に従った、高精細度マップを補正するための例示的なサーバ160のブロック図を示す。いくつかの実施形態において、図2に示されるように、サーバ160は、通信インターフェース202、プロセッサ204、メモリ206、およびストレージ208を含み得る。いくつかの実施形態において、サーバ160は、集積回路(IC)チップなどの単一デバイス内に異なるモジュールを有し得るか、または、専用機能を備える別々のデバイスを有し得る。いくつかの実施形態において、サーバ160の1つまたは複数の構成要素は、クラウド内に配置され得るか、あるいは代替として、単一の位置(車両100内部またはモバイル・デバイス)または分散位置にあり得る。サーバ160の構成要素は、集積デバイス内にあり得るか、または、異なる位置に分散されるが互いにネットワーク(図示せず)を介して通信し得る。
通信インターフェース202は、通信ケーブル、ワイヤレス・ローカル・エリア・ネットワーク(WLAN)、ワイド・エリア・ネットワーク(WAN)、電波などのワイヤレス・ネットワーク、セルラー・ネットワーク、および/または、ローカルまたは短距離ワイヤレス・ネットワーク(たとえば、Bluetooth(登録商標))、あるいは他の通信方法を介して、センサー140および150などの構成要素にデータを送信し得、またそれらの構成要素からデータを受信し得る。いくつかの実施形態において、通信インターフェース202は、統合サービス・デジタル・ネットワーク(ISDN)カード、ケーブル・モデム、衛星モデム、または、データ通信接続を提供するためのモデムとすることができる。別の例として、通信インターフェース202は、互換LANへのデータ通信接続を提供するためのローカル・エリア・ネットワーク(LAN)カードとすることができる。ワイヤレス・リンクも通信インターフェース202によって実装可能である。こうした実装形態において、通信インターフェース202は、ネットワークを介して様々なタイプの情報を表すデジタル・データ・ストリームを伝搬する、電気、電磁、または光の信号を送受信することができる。
いくつかの実施形態に一致して、通信インターフェース202は、センサー140によってキャプチャされたポイント・クラウド・データ203などのデータを受信し得る。いくつかの実施形態において、通信インターフェース202は、センサー150によってキャプチャされた姿勢情報(図示せず)も受信し得る。いくつかの実施形態において、通信インターフェース202は、追加として、トレーニング・デバイス180からニューラル・ネットワーク205を受信し得る。いくつかの実施形態において、トレーニング・デバイス180は、たとえばプロセッサ、メモリ、ストレージ・デバイスなどを含む、サーバ160の構造と類似の構造を有し得る。いくつかの実施形態において、トレーニング・デバイス180はサーバ160の一部であり得る。トレーニング・デバイス180は、サンプル・データを使用してニューラル・ネットワーク205をトレーニングするように構成され得る。ニューラル・ネットワーク205は、トレーニング・プロセスの間に認知タスクを実施することを習得し得る。たとえば、ニューラル・ネットワーク205は、当初はLiDARによってキャプチャされたポイント・クラウド・データに基づいて、妨害物体を検出するようにトレーニングされ得る。いくつかの実施形態において、ニューラル・ネットワーク205は、セグメンテーション・タスクを実施するように、たとえば、妨害物体に関連付けられたポイント・クラウド・データ203の部分を残りのポイント・クラウド・データ203から分離するように、トレーニングされ得る。本開示に一致して、ニューラル・ネットワーク205は、畳み込みニューラル・ネットワーク(CNN)を含むが限定されない、任意の好適な学習モデルであり得る。いくつかの実施形態において、ニューラル・ネットワーク205のトレーニングは、畳み込みカーネルの重さ、サイズ、形状、および構造などの、1つまたは複数のモデル・パラメータを決定し得る。
通信インターフェース202はさらに、受信したポイント・クラウド・データ203およびニューラル・ネットワーク205を、記憶のためにストレージ208へ、または処理のためにプロセッサ204へ、提供し得る。通信インターフェース202は、プロセッサ204によって作成された補正済み高精細度マップを受信すること、および、補正済みマップを、車両100内の任意のローカル構成要素へ、またはネットワークを介して任意のリモート・デバイスへ、提供することもできる。
プロセッサ204は、任意の適切なタイプの汎用または特定用途向けのマイクロプロセッサ、デジタル信号プロセッサ、あるいはマイクロコントローラを含み得る。プロセッサ204は、高精細度マップの補正専用の別のプロセッサ・モジュールとして構成され得る。代替として、プロセッサ204は、高精細度マップの生成および補正に無関係の他の機能を実施するための、共有プロセッサ・モジュールとして構成され得る。
図2に示されるように、プロセッサ204は、ポイント・クラウド・セグメンテーション・ユニット210、ホール測位ユニット212、妨害されないポイント・クラウド推定ユニット214、マップ補正ユニット216などの、複数のモジュールを含み得る。これらのモジュール(および任意の対応するサブモジュールまたはサブユニット)は、他の構成要素と共に使用するように設計されたプロセッサ204のハードウェア・ユニット(たとえば、集積回路の一部)、または、プログラムの少なくとも一部を実行することを介してプロセッサ204によって実装されるソフトウェア・ユニットとすることができる。プログラムは、コンピュータ可読媒体上に記憶され得、またプロセッサ204によって実行されたときに、1つまたは複数の機能を実施し得る。図2は、ユニット210〜216がすべて1つのプロセッサ204内にあるように示しているが、これらのユニットは、互いに近くまたは遠隔に配置された複数のプロセッサ間に分散され得ることが企図される。
ポイント・クラウド・セグメンテーション・ユニット210は、1つまたは複数の妨害物体を検出するために、受信したポイント・クラウド・データ203をセグメント化するように構成され得る。妨害物体は、歩行者、車両、または、センサー140のレーザー経路内にある別の物体であり得る。いくつかの実施形態において、ポイント・クラウド・セグメンテーション・ユニット210は、ポイント・クラウド・データ203を2次元(2−D)平面に投影するように、したがって2−D投影画像を取得するように、構成され得る。たとえば、2−D投影画像は見下ろし図であり得る。いくつかの実施形態において、2−D投影画像は、いくつかのピクセルまたはスーパーピクセル(補助ピクセルのグループを含む)を含み得る。ポイント・クラウド・セグメンテーション・ユニット210は、2−D投影画像から様々な特徴をさらに抽出し得る。特徴の各カテゴリはチャネルに対応し得る。いくつかの実施形態において、ポイント・クラウド・セグメンテーション・ユニット210は、ピクセルが妨害物体に属する可能性がどの程度あるかを示す、ピクセルの属性を予測するために、抽出された特徴にニューラル・ネットワーク205を適用し得る。たとえば属性は、ピクセルと妨害物体の中心との間の距離、信頼度のレベル、ピクセルが妨害物体の一部である可能性、および妨害物体の高さを含み得る。
ピクセルについての属性予測結果に基づいて、妨害物体に対応するピクセルのセグメントが存在し得る。たとえば各セグメントは、可能性がしきい値よりも大きいなどの、ピクセルが妨害物体の一部であることを示す属性を伴うピクセルを含み得る。いくつかの実施形態において、同じ妨害物体に属するいくつかのセグメントは、それでもなお互いに接続していない可能性があり、セグメント間にあるギャップが存在し得る。いくつかの実施形態において、ポイント・クラウド・セグメンテーション・ユニット210は、ギャップを形成するピクセルの予測結果を修正することによって、それらのセグメントを統合し得る。
次いで、ポイント・クラウド・セグメンテーション・ユニット210は、妨害物体に対応するポイント・クラウド・データを、残りのポイント・クラウド・データから分離し得る。したがって残りのポイント・クラウド・データは、妨害物体によって生じる複数のホールを含む。いくつかの実施形態において、これらのホールは後に、妨害物体によって生じるデータ歪みを補償するために、推定されたポイント・クラウド・データによって満たされ得る。
いくつかの実施形態において、ホール測位ユニット212は、ポイント・クラウド・データ203内のホールを測位するように構成され得る。いくつかの実施形態において、ホールを測位することは、ホールが位置する平面、および妨害物体を包含するバウンディング・ボックスを決定することを含む。本開示ではホールを測位することを説明するが、代替として、ホールの代わりに妨害物体が測位され得、達成される機能は等価であり得ることが企図される。
妨害されないポイント・クラウド推定ユニット214は、LiDAR測定が妨害物体によって遮断されなかったかのように、ホールを満たすためのポイント・クラウド・データを推定し得る。いくつかの実施形態において、妨害物体の平面位置に基づいて、レーザー経路がシミュレートされ得る。次いで、レーザー経路は、道路に接触するポイントを見つけるために、妨害物体を超えて延在し得る。そのポイントについてのポイント・クラウド・データが推定され得る。
マップ補正ユニット216は、推定されたポイント・クラウド・データを使用して高精細度マップを補正するように構成され得る。いくつかの実施形態において、マップ補正ユニット216は、推定されたポイント・クラウド・データを用いてホールを「修復」し得る。いくつかの実施形態において、修復は、妨害物体を包含するバウンディング・ボックス内に制限される。修復は、データの置換、修正、再配置、またはその他の操作を含み得る。いくつかの実施形態において、ポイント・クラウド・データ203は、LiDARが軌道に沿って移動するときにキャプチャされる、複数のポイント・クラウド・フレームを含み得る。マップ補正ユニット216は、前述のように、対応する妨害されないポイント・クラウド・データを用いて各ポイント・クラウド・フレームを修復し、修復されたポイント・クラウド・フレームを統合し得る。修復されたポイント・クラウド・フレームを結合することで、ホールの領域をより良くカバーする高精細度マップをもたらすことができる。
メモリ206およびストレージ208は、プロセッサ204が操作する必要があり得る任意のタイプの情報を記憶するために提供される、任意の適切なタイプの大容量ストレージを含み得る。メモリ206およびストレージ208は、揮発性または不揮発性、磁気、半導体、テープ、光、取り外し可能、取り外し不能、または他のタイプのストレージ・デバイス、あるいは、ROM、フラッシュ・メモリ、ダイナミックRAM、およびスタティックRAMを含むが限定されない、有形の(すなわち持続性)コンピュータ可読媒体であり得る。メモリ206および/またはストレージ208は、本明細書で開示されるマップ補正機能を実施するためにプロセッサ204によって実行され得る、1つまたは複数のコンピュータ・プログラムを記憶するように構成され得る。たとえばメモリ206および/またはストレージ208は、LiDARによってキャプチャされたポイント・クラウド・データのセグメント化に基づいて高精細度マップを補正するために、プロセッサ204によって実行され得るプログラムを記憶するように構成され得る。
メモリ206および/またはストレージ208は、さらに、プロセッサ204によって使用される情報およびデータを記憶するように構成され得る。たとえば、メモリ206および/またはストレージ208は、センサー140および150によってキャプチャされた様々なタイプのデータ(たとえば、ポイント・クラウド・データ、姿勢情報など)および高精細度マップを記憶するように構成され得る。メモリ206および/またはストレージ208は、ニューラル・ネットワーク205などの中間データおよび推定されたポイント・クラウドなども記憶し得る。様々なタイプのデータは、永続的に記憶すること、定期的に除去すること、または、データの各フレームが処理された直後に無視することができる。
図3は、本開示の実施形態に従った、高精細度マップを補正するための例示的な方法300のフローチャートを示す。いくつかの実施形態において、方法300は、とりわけサーバ160を含むマップ補正システムによって実装され得る。しかしながら方法300は、その例示的実施形態に限定されない。方法300は、下記で説明するようなステップS302〜S320を含み得る。ステップのうちのいくつかは、本明細書で提供される開示を実施するために任意選択であり得ることを理解されよう。さらに、ステップのうちのいくつかは、同時に、または図3に示される順序とは異なる順序で、実施され得る。
ステップS302において、センサー140によってキャプチャされたポイント・クラウド・データが受信され得る。いくつかの実施形態において、車両100は、高精細度マップを構築するためのデータをキャプチャするための測量トリップに派遣され得る。車両100が軌道に沿って移動するとき、センサー140は周囲のシーンのポイント・クラウド・データをキャプチャし得る。いくつかの実施形態において、ポイント・クラウド・データは複数のフレームからなり得、各フレームは、車両が軌道上の特定の位置にいる特定の時点でキャプチャされる。本開示に一致して、道路上には、LiDARのレーザー経路を妨害する他の物体が存在し得、したがって収集されるポイント・クラウド・データ内に歪みを生じさせる。
ステップS304において、サーバ160は、2−D投影画像を作成するために、ステップS304で受信された3−Dポイント・クラウド・データを平面上に投影し得る。いくつかの実施形態において、投影は下方に向かって垂直であるため、取得される2−D投影画像は見下ろし図となる。3−Dポイント・クラウド・データを2−D画像内に投影することによって、深度情報が除去され、セグメンテーション・プロセスが簡略化される。
ステップS306〜S312はまとめて、妨害物体に対応する歪んだデータを、残りの歪んでいないポイント・クラウド・データから分離するために、ポイント・クラウド・データのセグメンテーションを実施する。いくつかの実施形態において、セグメンテーションは、ニューラル・ネットワークなどの機械学習モデルに基づくものであり得る。ニューラル・ネットワークは人工ニューラル・ネットワークとも呼ばれ、学習タスクを完了するために生物学的ニューラル・ネットワークをシミュレートするコンピューティング・モデルである。たとえばニューラル・ネットワークは、ポイント・クラウド・データのいずれの部分が、道路ではなく妨害物体によって反射されたレーザー光から収集されたかを学習するようにトレーニングされる。
図4は、本開示の実施形態に従った、ポイント・クラウド・データをセグメント化するために使用される例示的なCNN400を示す。いくつかの実施形態において、CNN400はエンコーダ420およびデコーダ430を含み得る。エンコーダ420およびデコーダ430の各々は、複数の個別層(図示せず)を含み得る。異なる層の例は、1つまたは複数の畳み込み層、非線形演算子層(正規化線形ユニット(ReLu)関数、シグモイド関数、または双曲正接関数など)、プールまたはサブサンプリング層、完全に接続された層、および/または最終損失層を含み得る。各層は、1つのアップストリーム層と1つのダウンストリーム層とを接続し得る。入力は入力層と見なされ得、出力は最終出力層と見なされ得る。
CNNモデルの性能および学習能力を向上させるために、異なる層の数を選択的に増加させることができる。入力層から出力層までの中間個別層の数は非常に大きくなる可能性があり、それによって、CNNモデルのアーキテクチャの複雑さが増加する。多数の中間層を備えるCNNモデルは、深層CNNモデルと呼ばれる。たとえば、いくつかの深層CNNモデルは20から30を超える層を含み得、他の深層CNNモデルは数百を超える層を含む場合さえある。深層CNNモデルの例には、AlexNet、VGGNet、GoogLeNet、ResNetなどが含まれる。
本明細書で使用される場合、開示されるセグメンテーション方法によって使用されるCNNモデルは、畳み込みニューラル・ネットワークのフレームワークに基づいて公式化、適合、または修正された、任意のニューラル・ネットワーク・モデルを言い表し得る。たとえば、本開示の実施形態においてセグメンテーションに使用されるCNNモデルは、1つまたは複数の逆畳み込み層、アップサンプリングまたはアッププール層、ピクセル単位予測層、および/または、コピーおよびクロップ演算子層などの、入力層から出力層までの間の中間層を選択的に含み得る。
図3に戻り、ステップS306において、サーバ160は2−D投影画像の各ピクセルから特徴を抽出し得る。抽出される特徴の例は、ピクセル値、ピクセル周辺のテクスチャ、隣接ピクセルとのコントラスト、画像内のピクセルの相対位置などを含み得る。CNN400は、抽出された特徴402を入力として受信し得る。いくつかの実施形態において、特徴はW*H*Cマトリックスとして配置され得、Wはピクセル行数、Hはピクセル列数、およびCはチャネル特徴数である。
ステップS308において、CNN400は、ピクセル属性を予測するために抽出された特徴に適用され得る。たとえば属性は、ピクセルと妨害物体の中心との間の距離404、信頼度のレベル406、ピクセルが妨害物体の一部である可能性を示す確率408、および、妨害物体410の高さを含み得る。
ステップS310において、サーバ160は、ピクセルが妨害物体の一部であることを示す属性を備えるピクセルを含むセグメントを識別し得る。いくつかの実施形態において、ピクセルが妨害物体として分類されるべきであるかどうかを判定するために、属性をいくつかの所定のしきい値と比較し得る。たとえば、確率408が95%であるピクセルは、90%のしきい値と比較した後、妨害物体の一部であるものと分類され得る。代替または追加として、妨害物体の中心までの距離404がピクセル幅5のしきい値よりも短いピクセルは、妨害物体の一部であるとラベル表示され得る。
ピクセルごとの予測は、時折、結果として隣接するが接続されていないセグメントを生じさせ得る。たとえば、数個の散在的な妨害していない物体のピクセル、または、2つのその他の方法で接続されたセグメント間の小さなギャップが存在し得る。ステップS312において、サーバ160は、ギャップ内のそれらのピクセルの予測結果を修正することによって、それらのセグメントを統合し得る。たとえば、ピクセルごとの予測によって、歩行者の頭に対応する1つのセグメントと、歩行者の胴体(trunk)に対応する隣接するセグメントとを見つけることができる。しかしながら、歩行者の首のエリアのピクセルは、たとえば、それらのピクセルのある属性がそれらを妨害物体に対応するものとして分類するための基準を満たさないため、初期には、妨害物体の一部ではないものとして予測され得る。しかしながら、統合を介して、セグメント間のピクセルを妨害物体に対応するものとして修正することによって、頭部セグメントおよび胴体セグメントが接続され得る。
妨害物体によって、ホールはポイント・クラウド・データ内に残される。ステップS314において、サーバ160は、検出された妨害物体に基づいてホールを測位し得る。いくつかの実施形態において、サーバ160は第1に、妨害物体についてバウンディング・ボックス、すなわち対応するホールの境界を決定し得る。サーバ160はさらに、バウンディング・ボックスのすぐ外側のポイント・クラウドについて第1の面を決定し得る。その一方で、サーバ160は、オリジナル(センサー140が位置している場所)(「基準面」)近くのポイント・クラウド・データの第2の面を決定し、第1の面と第2の面との間の角度を決定する。この角度がしきい値よりも小さい場合、サーバ160は第1の面を物体面として設定する。
ステップS316において、サーバ160は、妨害物体が無かったかのようにホールについて妨害されないポイント・クラウド・データを推定し得る。図5は、本開示の実施形態に従った、妨害されないポイント・クラウド・データを推定するための例示的な方法を示す。図5に示されるように、車両500は、面b1と面b2との間に存在し得る。レーザー光は原点OでLiDARによって放出される。レーザー経路内に妨害物体が存在しない場合、レーザー経路は道路に当たり、たとえばポイントAで道路によって反射される。車両500の存在に起因して、レーザー経路は面b1内のポイントBに当たり得、車両500によって反射される。車両500が無い場合、レーザー経路OBは延長され、最終的にポイントB’で道路に当たることになる。同様に、別のレーザー経路はポイントCで面b1に当たり、延長され、ポイントC’で道路に当たることになる。このようにして、ポイントCおよびBに対応する収集されたポイント・クラウド・データを使用して、ポイントC’およびB’に対応する妨害されないポイント・クラウド・データを推定することができる。いくつかの実施形態において、面b1内の物体バウンディング・ボックス内(ポイント501とポイント502との間)の各ポイントは、道路上の対応するポイントを見つけ得る。このようにして、道路上の対応するポイントについて妨害されないポイント・クラウド・データを推定するために、面b1から収集されたポイント・データを割り当てるかまたは他の方法で使用することができる。
ステップS318において、サーバ160は、推定された妨害されないポイント・クラウド・データを使用して、ホールを修復し得る。たとえば対応する妨害されないポイント・クラウド・データを使用して、ホールを満たすか、または他の方法でホールのデータを修正し得る。ステップS320において、修復は物体バウンディング・ボックスによってフィルタリングされ得る。たとえば図5に示されるように、修復されるホールは、道路上への物体バウンディング・ボックス(ポイント501とポイント502との間)の投影に限定される。修復をフィルタリングすることによって、ノイズを減少させ、補正結果を向上させることができる。
本開示の別の態様は、実行されたときに、前述のように1つまたは複数のプロセッサに方法を実施させる命令を記憶する、持続性コンピュータ可読媒体を対象とする。コンピュータ可読媒体は、揮発性または不揮発性、磁気、半導体、テープ、光、取り外し可能、取り外し不能、あるいは他のタイプの、コンピュータ可読媒体またはコンピュータ可読ストレージ・デバイスを含み得る。たとえば、コンピュータ可読媒体は、開示されたようなコンピュータ命令を記憶している、ストレージ・デバイスまたはメモリ・モジュールであり得る。いくつかの実施形態において、コンピュータ可読媒体は、コンピュータ命令を記憶しているディスクまたはフラッシュ・ドライブであり得る。
当業者であれば、開示されたシステムおよび関連方法に対して様々な修正および変形が実行可能であることが明らかとなろう。当業者であれば、本明細書の考察および開示されたシステムおよび関連方法の実施から、他の実施形態が明らかとなろう。
本明細書および実施例は単なる例示として見なされ、真の範囲は下記の特許請求の範囲およびそれらの等価物によって示されていることが意図される。
Claims (20)
- 高精細度マップを補正するためのシステムであって、
LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信するように構成された通信インターフェースと、
前記ポイント・クラウド・データを記憶するように構成されたストレージと、
少なくとも1つのプロセッサと、
を備え、
前記少なくとも1つのプロセッサは、
前記ポイント・クラウド・データから少なくとも1つの妨害物体を検出するように構成され、
前記少なくとも1つの妨害物体によって生じる前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するように構成され、
前記シーンが前記少なくとも1つの妨害物体なしにキャプチャされたかのように、前記少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定するように構成され、および、
前記妨害されないポイント・クラウド・データを用いて前記受信したポイント・クラウド・データを修復することによって、前記高精細度マップを補正するように構成される、
システム。 - 前記ストレージはニューラル・ネットワークを記憶するように構成され、前記少なくとも1つのプロセッサは、前記ニューラル・ネットワークを使用して前記少なくとも1つの妨害物体を検出するように構成される、請求項1に記載のシステム。
- 前記ニューラル・ネットワークは畳み込みニューラル・ネットワークである、請求項2に記載のシステム。
- 前記少なくとも1つのプロセッサは、
前記ポイント・クラウド・データに基づいて2−D投影画像を作成するようにさらに構成され、前記2−D投影画像は複数のピクセルを含み、および、
前記ニューラル・ネットワークを使用して各ピクセルに関連付けられた複数の属性を決定するようにさらに構成され、前記属性は、前記ピクセルが前記少なくとも1つの妨害物体に対応する可能性を示す、
請求項2に記載のシステム。 - 前記少なくとも1つのプロセッサは、
前記2−D投影画像からセグメントを識別するようにさらに構成され、各セグメントは、前記ピクセルが前記少なくとも1つの妨害物体のうちの1つに対応することを示す属性を備えるピクセルを含み、および、
前記2−D投影画像内の統合エリアを決定するようにさらに構成され、前記統合エリアは前記識別されたセグメントのすべてを包含する、
請求項4に記載のシステム。 - 前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するために、前記少なくとも1つのプロセッサは、
各ホールが位置する面を決定するように構成され、および、
各ホールについて境界を決定するようにさらに構成される、請求項1に記載のシステム。 - 前記少なくとも1つのプロセッサは、前記ホールの前記面に基づいて前記妨害されないポイント・クラウド・データを推定するようにさらに構成される、請求項6に記載のシステム。
- 前記受信されたポイント・クラウド・データは、前記LiDARが軌道に沿って移動するときにキャプチャされる複数のポイント・クラウド・フレームを含み、
前記少なくとも1つのプロセッサは、
前記対応する妨害されないポイント・クラウド・データを用いて各ポイント・クラウド・フレームを修復するように構成され、および、
前記修復されたポイント・クラウド・フレームを統合するように構成される、請求項1に記載のシステム。 - 高精細度マップを補正するための方法であって、
通信インターフェースを介して、LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信するステップと、
少なくとも1つのプロセッサによって、前記ポイント・クラウド・データから少なくとも1つの妨害物体を検出するステップと、
前記少なくとも1つのプロセッサによって、前記少なくとも1つの妨害物体によって生じる前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するステップと、
前記少なくとも1つのプロセッサによって、前記シーンが前記少なくとも1つの妨害物体なしにキャプチャされたかのように、前記少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定するステップと、
前記少なくとも1つのプロセッサによって、前記妨害されないポイント・クラウド・データを用いて前記受信したポイント・クラウド・データを修復することによって、前記高精細度マップを補正するステップと、
を含む、方法。 - 前記少なくとも1つの妨害物体はニューラル・ネットワークを使用して検出される、請求項9に記載の方法。
- 前記ニューラル・ネットワークは畳み込みニューラル・ネットワークである、請求項10に記載の方法。
- 前記ポイント・クラウド・データに基づいて2−D投影画像を作成するステップであって、前記2−D投影画像は複数のピクセルを含む、作成するステップと、
前記ニューラル・ネットワークを使用して各ピクセルに関連付けられた複数の属性を決定するステップであって、前記属性は、前記ピクセルが前記少なくとも1つの妨害物体に対応する可能性を示す、決定するステップと、
をさらに含む、請求項10に記載の方法。 - 前記2−D投影画像からセグメントを識別するステップであって、各セグメントは、前記ピクセルが前記少なくとも1つの妨害物体のうちの1つに対応することを示す属性を備えるピクセルを含む、識別するステップと、
前記2−D投影画像内の統合エリアを決定するステップであって、前記統合エリアは前記識別されたセグメントのすべてを包含する、決定するステップと、
をさらに含む、請求項12に記載の方法。 - 前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するステップは、
各ホールが位置する面を決定するステップと、
各ホールについて境界を決定するステップと、
をさらに含む、請求項9に記載の方法。 - 前記妨害されないポイント・クラウド・データは前記ホールの前記面に基づいて推定される、請求項14に記載の方法。
- 前記受信されたポイント・クラウド・データは、前記LiDARが軌道に沿って移動するときにキャプチャされる複数のポイント・クラウド・フレームを含み、
前記高精細度マップを補正するステップは、
前記対応する妨害されないポイント・クラウド・データを用いて各ポイント・クラウド・フレームを修復するステップと、
前記修復されたポイント・クラウド・フレームを統合するステップと、
をさらに含む、請求項1に記載の方法。 - コンピュータ・プログラムを記憶している持続性コンピュータ可読媒体であって、
前記コンピュータ・プログラムは、少なくとも1つのプロセッサによって実行されたときに、高精細度マップを補正するための方法を実施し、
前記方法は、
LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信するステップと、
前記ポイント・クラウド・データから少なくとも1つの妨害物体を検出するステップと、
前記少なくとも1つの妨害物体によって生じる前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するステップと、
前記シーンが前記少なくとも1つの妨害物体なしにキャプチャされたかのように、前記少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定するステップと、
前記妨害されないポイント・クラウド・データを用いて前記受信したポイント・クラウド・データを修復することによって、前記高精細度マップを補正するステップと、
を含む、持続性コンピュータ可読媒体。 - 前記少なくとも1つの妨害物体はニューラル・ネットワークを使用して検出され、
前記方法は、
前記ポイント・クラウド・データに基づいて2−D投影画像を作成するステップであって、前記2−D投影画像は複数のピクセルを含む、作成するステップと、
前記ニューラル・ネットワークを使用して各ピクセルに関連付けられた複数の属性を決定するステップであって、前記属性は、前記ピクセルが前記少なくとも1つの妨害物体に対応する可能性を示す、決定するステップと、
をさらに含む、請求項17に記載の持続性コンピュータ可読媒体。 - 前記方法は、
前記2−D投影画像からセグメントを識別するステップであって、各パッチは、前記ピクセルが前記少なくとも1つの妨害物体のうちの1つに対応することを示す属性を備えるピクセルを含む、識別するステップと、
前記2−D投影画像内の統合エリアを決定するステップであって、前記統合エリアは前記識別されたセグメントのすべてを包含する、決定するステップと、
をさらに含む、請求項18に記載の持続性コンピュータ可読媒体。 - 前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するステップは、
各ホールが位置する面を決定するステップと、
各ホールについて境界を決定するステップと、
をさらに含み、
前記妨害されないポイント・クラウド・データは前記ホールの前記面に基づいて推定される、
請求項17に記載の持続性コンピュータ可読媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/115582 WO2020097840A1 (en) | 2018-11-15 | 2018-11-15 | Systems and methods for correcting a high-definition map based on detection of obstructing objects |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021508815A true JP2021508815A (ja) | 2021-03-11 |
Family
ID=70726532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018568245A Pending JP2021508815A (ja) | 2018-11-15 | 2018-11-15 | 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US11035958B2 (ja) |
EP (1) | EP3676796A4 (ja) |
JP (1) | JP2021508815A (ja) |
CN (1) | CN111448478B (ja) |
AU (1) | AU2018286592A1 (ja) |
CA (1) | CA3028599A1 (ja) |
SG (1) | SG11201811747XA (ja) |
TW (1) | TWI722355B (ja) |
WO (1) | WO2020097840A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11520331B2 (en) * | 2018-12-28 | 2022-12-06 | Intel Corporation | Methods and apparatus to update autonomous vehicle perspectives |
EP3783385A1 (en) * | 2019-08-23 | 2021-02-24 | Leica Geosystems AG | Combined point cloud generation using a stationary laser scanner and a mobile scanner |
US11327178B2 (en) * | 2019-09-06 | 2022-05-10 | Volvo Car Corporation | Piece-wise network structure for long range environment perception |
US20210109523A1 (en) * | 2019-10-10 | 2021-04-15 | Waymo Llc | Sensor field of view in a self-driving vehicle |
CN110873565B (zh) * | 2019-11-21 | 2021-06-04 | 北京航空航天大学 | 用于城市场景重建的无人机实时路径规划方法 |
US11531114B2 (en) * | 2020-06-16 | 2022-12-20 | Toyota Research Institute, Inc. | Sensor placement to reduce blind spots |
CN112045654B (zh) * | 2020-08-11 | 2022-01-28 | 上海有个机器人有限公司 | 一种无人密闭空间的检测方法、装置和机器人 |
CN111949544B (zh) * | 2020-08-19 | 2022-10-04 | 腾讯科技(深圳)有限公司 | 一种自动驾驶车辆的定位模块的测试方法及相关装置 |
WO2022049653A1 (ja) | 2020-09-02 | 2022-03-10 | 日本電信電話株式会社 | 推定方法、推定装置及びプログラム |
CN114252883B (zh) * | 2020-09-24 | 2022-08-23 | 北京万集科技股份有限公司 | 目标检测方法、装置、计算机设备和介质 |
CN112837239B (zh) * | 2021-02-01 | 2024-05-14 | 意诺科技有限公司 | 毫米波雷达的残影消除方法、装置及计算机可读介质 |
DE102021125653A1 (de) | 2021-10-04 | 2023-04-06 | Valeo Schalter Und Sensoren Gmbh | Entfernen nicht relevanter Punkte aus einer Punktwolke |
CN114403114B (zh) * | 2022-01-26 | 2022-11-08 | 安徽农业大学 | 一种高地隙植保机车身姿态平衡控制***及方法 |
CN114545443A (zh) * | 2022-02-09 | 2022-05-27 | 北京三快在线科技有限公司 | 一种盲区识别方法及装置 |
US11593921B1 (en) * | 2022-03-22 | 2023-02-28 | Illuscio, Inc. | Systems and methods for supplementing image capture with artificial data points that are generated based on material properties and associated rules |
CN114754762A (zh) * | 2022-04-14 | 2022-07-15 | 中国第一汽车股份有限公司 | 地图的处理方法、装置 |
CN115100377B (zh) * | 2022-07-15 | 2024-06-11 | 小米汽车科技有限公司 | 地图构建方法、装置、车辆、可读存储介质及芯片 |
GB2624621A (en) * | 2022-11-15 | 2024-05-29 | Continental Autonomous Mobility Germany GmbH | 3-Dimensional (3D) map generation system and method for creating 3D map of surroundings of a vehicle |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04216487A (ja) * | 1990-12-14 | 1992-08-06 | Shigeo Hirose | 移動ロボットの位置同定方法 |
JP2010191066A (ja) * | 2009-02-17 | 2010-09-02 | Mitsubishi Electric Corp | 三次元地図補正装置及び三次元地図補正プログラム |
US20130054187A1 (en) * | 2010-04-09 | 2013-02-28 | The Trustees Of The Stevens Institute Of Technology | Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning |
WO2017157967A1 (en) * | 2016-03-14 | 2017-09-21 | Imra Europe Sas | Processing method of a 3d point cloud |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10520482B2 (en) * | 2012-06-01 | 2019-12-31 | Agerpoint, Inc. | Systems and methods for monitoring agricultural products |
US9052721B1 (en) * | 2012-08-28 | 2015-06-09 | Google Inc. | Method for correcting alignment of vehicle mounted laser scans with an elevation map for obstacle detection |
US9523772B2 (en) | 2013-06-14 | 2016-12-20 | Microsoft Technology Licensing, Llc | Object removal using lidar-based classification |
US10959107B2 (en) * | 2015-04-14 | 2021-03-23 | ETAK Systems, LLC | Systems and methods for delivering a close out package for work done at a telecommunications site |
KR20170006505A (ko) | 2015-07-08 | 2017-01-18 | (주)휴엔텍 | 장애물 감지 장치와 이를 이용한 스크린도어용 장애물감지 시스템 |
KR101711964B1 (ko) | 2015-07-14 | 2017-03-13 | 서울대학교산학협력단 | 자유 공간 지도 생성 방법, 자유 공간 지도 생성 시스템, 자유 공간 지도를 이용한 전경/배경 추출 방법 및 전경/배경 추출 시스템 |
US10748264B2 (en) | 2015-09-09 | 2020-08-18 | Sony Corporation | Image processing apparatus and image processing method |
US10268740B2 (en) | 2015-10-14 | 2019-04-23 | Tharmalingam Satkunarajah | 3D analytics actionable solution support system and apparatus |
US9910442B2 (en) * | 2016-06-28 | 2018-03-06 | Toyota Motor Engineering & Manufacturing North America, Inc. | Occluded area detection with static obstacle maps |
CN106199558A (zh) * | 2016-08-18 | 2016-12-07 | 宁波傲视智绘光电科技有限公司 | 障碍物快速检测方法 |
TWI607412B (zh) | 2016-09-10 | 2017-12-01 | 財團法人工業技術研究院 | 多維度尺寸量測系統及其方法 |
US10031231B2 (en) * | 2016-09-12 | 2018-07-24 | Delphi Technologies, Inc. | Lidar object detection system for automated vehicles |
KR20180059188A (ko) | 2016-11-25 | 2018-06-04 | 연세대학교 산학협력단 | 딥 러닝을 이용한 동적 장애물이 없는 배경 위주의 3차원 지도 생성 방법 |
CN106650640B (zh) * | 2016-12-05 | 2020-03-03 | 浙江大学 | 一种基于激光雷达点云局部结构特征的负障碍物检测方法 |
CN111108342B (zh) * | 2016-12-30 | 2023-08-15 | 辉达公司 | 用于高清地图创建的视觉测程法和成对对准 |
EP3566078A1 (en) | 2017-01-03 | 2019-11-13 | Innoviz Technologies Ltd. | Lidar systems and methods for detection and classification of objects |
US10078790B2 (en) * | 2017-02-16 | 2018-09-18 | Honda Motor Co., Ltd. | Systems for generating parking maps and methods thereof |
CN108732584B (zh) * | 2017-04-17 | 2020-06-30 | 百度在线网络技术(北京)有限公司 | 用于更新地图的方法和装置 |
CN107064955A (zh) * | 2017-04-19 | 2017-08-18 | 北京汽车集团有限公司 | 障碍物聚类方法及装置 |
CN107301654B (zh) * | 2017-06-12 | 2020-04-03 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
CN107390681B (zh) * | 2017-06-21 | 2019-08-20 | 华南理工大学 | 一种基于激光雷达与地图匹配的移动机器人实时定位方法 |
CN107607090B (zh) * | 2017-09-12 | 2020-02-21 | 中煤航测遥感集团有限公司 | 建筑物投影纠正方法及装置 |
US10841496B2 (en) * | 2017-10-19 | 2020-11-17 | DeepMap Inc. | Lidar to camera calibration based on edge detection |
US11556777B2 (en) * | 2017-11-15 | 2023-01-17 | Uatc, Llc | Continuous convolution and fusion in neural networks |
CN108152831B (zh) * | 2017-12-06 | 2020-02-07 | 中国农业大学 | 一种激光雷达障碍物识别方法及*** |
CN108415032B (zh) * | 2018-03-05 | 2021-06-25 | 中山大学 | 一种基于深度学习与激光雷达的点云语义地图构建方法 |
CN108303101B (zh) * | 2018-03-05 | 2018-09-11 | 弗徕威智能机器人科技(上海)有限公司 | 一种导航地图的构建方法 |
US10726567B2 (en) * | 2018-05-03 | 2020-07-28 | Zoox, Inc. | Associating LIDAR data and image data |
CN108734654A (zh) * | 2018-05-28 | 2018-11-02 | 深圳市易成自动驾驶技术有限公司 | 绘图与定位方法、***及计算机可读存储介质 |
US10491885B1 (en) * | 2018-06-13 | 2019-11-26 | Luminar Technologies, Inc. | Post-processing by lidar system guided by camera information |
-
2018
- 2018-11-15 SG SG11201811747XA patent/SG11201811747XA/en unknown
- 2018-11-15 CN CN201880002657.8A patent/CN111448478B/zh active Active
- 2018-11-15 EP EP18819306.4A patent/EP3676796A4/en active Pending
- 2018-11-15 CA CA3028599A patent/CA3028599A1/en not_active Abandoned
- 2018-11-15 AU AU2018286592A patent/AU2018286592A1/en not_active Abandoned
- 2018-11-15 JP JP2018568245A patent/JP2021508815A/ja active Pending
- 2018-11-15 WO PCT/CN2018/115582 patent/WO2020097840A1/en unknown
- 2018-12-27 TW TW107147365A patent/TWI722355B/zh active
- 2018-12-28 US US16/235,886 patent/US11035958B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04216487A (ja) * | 1990-12-14 | 1992-08-06 | Shigeo Hirose | 移動ロボットの位置同定方法 |
JP2010191066A (ja) * | 2009-02-17 | 2010-09-02 | Mitsubishi Electric Corp | 三次元地図補正装置及び三次元地図補正プログラム |
US20130054187A1 (en) * | 2010-04-09 | 2013-02-28 | The Trustees Of The Stevens Institute Of Technology | Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning |
WO2017157967A1 (en) * | 2016-03-14 | 2017-09-21 | Imra Europe Sas | Processing method of a 3d point cloud |
Non-Patent Citations (2)
Title |
---|
DORIA, D. 外1名: ""Filling Large Holes in LiDAR Data By Inpainting Depth Gradients"", 2012 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW), JPN6021004384, 16 June 2012 (2012-06-16), pages 65 - 72, XP032206779, ISSN: 0004608071, DOI: 10.1109/CVPRW.2012.6238916 * |
LERTNIPHONPHAN, K. 外3名: ""2D TO 3D LABEL PROPAGATION FOR OBJECT DETECTION IN POINT CLOUD"", 2018 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA & EXPO WORKSHOPS (ICMEW), JPN6021004385, 23 July 2018 (2018-07-23), pages 6 Pages, ISSN: 0004443469 * |
Also Published As
Publication number | Publication date |
---|---|
EP3676796A1 (en) | 2020-07-08 |
US20200158875A1 (en) | 2020-05-21 |
WO2020097840A1 (en) | 2020-05-22 |
CN111448478A (zh) | 2020-07-24 |
US11035958B2 (en) | 2021-06-15 |
TWI722355B (zh) | 2021-03-21 |
EP3676796A4 (en) | 2020-07-08 |
SG11201811747XA (en) | 2020-06-29 |
CN111448478B (zh) | 2023-02-28 |
TW202020811A (zh) | 2020-06-01 |
CA3028599A1 (en) | 2020-05-15 |
AU2018286592A1 (en) | 2020-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI722355B (zh) | 用於基於障礙物檢測校正高清晰度地圖的系統和方法 | |
US10937231B2 (en) | Systems and methods for updating a high-resolution map based on binocular images | |
JP7073315B2 (ja) | 乗物、乗物測位システム、及び乗物測位方法 | |
US10860871B2 (en) | Integrated sensor calibration in natural scenes | |
CN111436216B (zh) | 用于彩色点云生成的方法和*** | |
CN110766760B (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
CN110728720B (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
CN112136021A (zh) | 用于构建基于地标的高清地图的***和方法 | |
CN110751693A (zh) | 用于相机标定的方法、装置、设备和存储介质 | |
CN112424568A (zh) | 构建高清地图的***和方法 | |
CN113196341A (zh) | 用于对道路的表面上的对象进行检测和建模的方法 | |
WO2022133986A1 (en) | Accuracy estimation method and system | |
CN113874681B (zh) | 点云地图质量的评估方法和*** | |
CN112020722A (zh) | 基于三维传感器数据识别路肩 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190418 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211005 |