JP2021508815A - 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法 - Google Patents

妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法 Download PDF

Info

Publication number
JP2021508815A
JP2021508815A JP2018568245A JP2018568245A JP2021508815A JP 2021508815 A JP2021508815 A JP 2021508815A JP 2018568245 A JP2018568245 A JP 2018568245A JP 2018568245 A JP2018568245 A JP 2018568245A JP 2021508815 A JP2021508815 A JP 2021508815A
Authority
JP
Japan
Prior art keywords
point cloud
cloud data
processor
hole
obstructing object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018568245A
Other languages
English (en)
Inventor
ルー フェン
ルー フェン
テン マー
テン マー
Original Assignee
ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド, ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド filed Critical ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド
Publication of JP2021508815A publication Critical patent/JP2021508815A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

本開示の実施形態は、高精細度マップを補正するためのシステムおよび方法を提供する。システムは、LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信するように構成された通信インターフェースを含み得る。システムは、ポイント・クラウド・データを記憶するように構成されたストレージと、少なくとも1つのプロセッサとを、さらに含み得る。少なくとも1つのプロセッサは、ポイント・クラウド・データから少なくとも1つの妨害物体を検出するように構成され、および、少なくとも1つの妨害物体によって生じるポイント・クラウド・データ内の少なくとも1つのホールを測位するように構成され得る。少なくとも1つのプロセッサは、シーンが少なくとも1つの妨害物体なしにキャプチャされたかのように構成され、少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定するように構成され、および、妨害されないポイント・クラウド・データを用いて受信したポイント・クラウド・データを修復することによって、高精細度マップを補正するようにさらに構成される。
【選択図】図3

Description

本開示は、シーン内に妨害物が存在する際に高精細度マップを補正するためのシステムおよび方法に関し、より具体的には、妨害物体の検出に基づいて高精細度マップを更新するためのシステムおよび方法に関する。
自律走行技術は、正確なマップに大きく依拠している。たとえば、ナビゲーション・マップの精度は、測位、周囲環境の認識、意思決定、および制御などの、自律走行車両の機能にとって不可欠である。高精細度マップは、車両を乗り回している間に車両上の様々なセンサー、検出器、および他のデバイスによって収集された画像および情報を統合することによって取得され得る。たとえば車両には、車両が走行している道路または周囲の物体の特徴をキャプチャするために、光検出と測距システム(LiDAR:Light Detection And Ranging)、全地球測位システム(GPS)受信機、1つまたは複数の慣性計測装置(IMU)センサー、および1つまたは複数のカメラなどの、複数の集積センサーが装備され得る。キャプチャされたデータは、たとえば、車線のセンターラインまたは境界線座標、ビル、別の車両、ランドマーク、歩行者、または交通標識などの物体の座標および画像を含み得る。
特に、LiDARは、パルス・レーザー光を用いてターゲットを照明すること、および、センサーを用いて反射したパルスを測定することによって、ターゲットまでの距離を測定する。次いで、レーザーの戻り時間および波長における差を使用して、ターゲットのデジタル3次元(3−D)表現を構築することができる。LiDARによってキャプチャされたデータは、ポイント・クラウド・データと呼ばれる。測量の間、道路上の様々な物体がLiDARの視野を妨害する可能性がある。パルス・レーザー光は、道路に達する前に妨害物体によって反射されるため、キャプチャされるポイント・クラウド・データは歪められている。こうした歪められたポイント・クラウド・データを使用して再構築される高解像度マップは、キャプチャされたシーンを正確に反映することができない。
本開示の実施形態は、ポイント・クラウド・データのセグメンテーションおよび妨害物体によって生じる歪みの補償に基づいて高精細度マップを補正するためのシステムおよび方法によって、上記の問題に対処する。
本開示の実施形態は、高精細度マップを補正するためのシステムを提供する。システムは、LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信するように構成された通信インターフェースを含み得る。システムは、ポイント・クラウド・データを記憶するように構成されたストレージと、少なくとも1つのプロセッサとを、さらに含み得る。少なくとも1つのプロセッサは、ポイント・クラウド・データから少なくとも1つの妨害物体を検出するように構成され、および、少なくとも1つの妨害物体によって生じるポイント・クラウド・データ内の少なくとも1つのホールを測位するように構成され得る。少なくとも1つのプロセッサは、シーンが少なくとも1つの妨害物体なしにキャプチャされたかのように構成され、少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定するように構成され、および、妨害されないポイント・クラウド・データを用いて受信したポイント・クラウド・データを修復することによって、高精細度マップを補正するようにさらに構成される。
本開示の実施形態は、高精細度マップを補正するための方法も提供する。方法は、通信インターフェースを介して、LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信することを含み得る。方法は、少なくとも1つのプロセッサによって、ポイント・クラウド・データから少なくとも1つの妨害物体を検出すること、および、少なくとも1つのプロセッサによって、少なくとも1つの妨害物体によって生じるポイント・クラウド・データ内の少なくとも1つのホールを測位することを、さらに含み得る。方法は、少なくとも1つのプロセッサによって、シーンが少なくとも1つの妨害物体なしにキャプチャされたかのように、少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定すること、および、少なくとも1つのプロセッサによって、妨害されないポイント・クラウド・データを用いて受信したポイント・クラウド・データを修復することによって、高精細度マップを補正することも、含み得る。
本開示の実施形態は、1つまたは複数のプロセッサによって実行されたときに、1つまたは複数のプロセッサに高精細度マップを補正するための方法を実施させる命令を記憶した、持続性コンピュータ可読媒体を、さらに提供する。方法は、LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信することを含み得る。方法は、ポイント・クラウド・データから少なくとも1つの妨害物体を検出すること、および、少なくとも1つのプロセッサによって、少なくとも1つの妨害物体によって生じるポイント・クラウド・データ内の少なくとも1つのホールを測位することを、さらに含み得る。方法は、シーンが少なくとも1つの妨害物体なしにキャプチャされたかのように、少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定すること、および、妨害されないポイント・クラウド・データを用いて受信したポイント・クラウド・データを修復することによって、高精細度マップを補正することも、含み得る。
前述の概略的な説明および下記の詳細な説明は、どちらも単に例示的および説明的なものであり、請求される本発明を制限するものではないことを理解されよう。
本開示の実施形態に従った、センサーが装備された例示的な車両を示す概略図である。 本開示の実施形態に従った、高精細度マップを補正するための例示的なサーバを示すブロック図である。 本開示の実施形態に従った、高精細度マップを補正するための例示的な方法を示すフローチャートである。 本開示の実施形態に従った、ポイント・クラウド・データをセグメント化するために使用される例示的な畳み込みニューラル・ネットワーク(CNN)を示す図である。 本開示の実施形態に従った、妨害されないポイント・クラウド・データを推定するための例示的な方法を示す図である。
次に、添付の図面にそれらの例が図示された例示的な実施形態について詳細に言及する。図面全体を通じて、同じかまたは類似の部分を言い表すために可能な限り同じ参照番号が使用される。
図1は、本開示の実施形態に従った、複数のセンサー140および150を有する例示的な車両100の概略図を示す。いくつかの実施形態に一致して、車両100は、高精細度マップまたは3−D都市モデリングを構築するためのデータを収集するように構成された測量車両であり得る。車両100は、電気車両、燃料電池車両、ハイブリッド車両、または従来の内燃エンジン車両であり得ることが企図される。車両100は、車体110および少なくとも1つのホイール120を有し得る。車体110は、スポーツ車両、クーペ、セダン、ピックアップ・トラック、ステーション・ワゴン、スポーツ用多目的車両(SUV)、ミニバン、またはコンバージョン・バンなどの、任意の車体スタイルであり得る。いくつかの実施形態において、車両100は、図1に示すように、1対の前輪および1対の後輪を含み得る。しかしながら、車両100は、車両100が動き回れるようにする、より多い、またはより少ないホイールまたは等価の構造を有し得ることが企図される。車両100は、全輪駆動(AWD)、前輪駆動(FWR)、または後輪駆動(RWD)として構成され得る。いくつかの実施形態において、車両100は、車両に乗車している運転者によって、遠隔制御で、および/または自律的に運転されるように構成され得る。
図1に示されるように、車両100には、取付構造130を介して車体110に取り付けられたセンサー140が装備され得る。取付構造130は、車両100の車体110に設置される(installed)かまたは他の方法で接続される(attached)、電気機械デバイスであり得る。いくつかの実施形態において、取付構造130は、ねじ、接着剤、または別の取付機構を使用し得る。車両100は追加として、任意の好適な取付機構を使用して、車体110の内部または外部にセンサー150を装備し得る。センサー140または150を車両100に装備し得る様式は、図1に示された例によって制限されることはなく、望ましい感知性能を達成するために、センサー140および150および/または車両100のタイプに応じて変更され得ることが企図される。
いくつかの実施形態において、センサー140および150は、車両100が軌道に沿って進んでいるときにデータをキャプチャするように構成され得る。本開示に一致して、センサー140は、周囲を走査し、ポイント・クラウドを収集するように構成された、LiDARであり得る。LiDARは、パルス・レーザー光を用いてターゲットを照明すること、およびセンサーを用いて反射したパルスを測定することによって、ターゲットまでの距離を測定する。次いで、レーザーの戻り時間および波長における差を用いて、ターゲットのデジタル3−D表現を作成することができる。LiDAR走査に使用される光は、紫外線、可視光、または近赤外線であり得る。狭レーザー・ビームは非常に高い解像度で物理特徴をマッピングできるため、LiDARは高精細度マップ測量に特に好適である。いくつかの実施形態において、LiDARがポイント・クラウドをキャプチャし得る。ポイント・クラウド・データは、物体の周囲の外部表面上にデータ・ポイントのセットを含み得る。ポイント・クラウドが、物体の3−Dモデルを構築するために処理され得る。車両100が軌道に沿って進んでいるときに、センサー140はポイント・クラウド・データを連続的にキャプチャし得る。ある時点でキャプチャされるポイント・クラウド・データの各セットが、ポイント・クラウド・フレームと呼ばれる。ポイント・クラウド・フレームは、リアルタイムで(たとえば、ストリーミングによって)、または、車両100が軌道全体を完了した後でまとめて、サーバ160に伝送され得る。
図1に示されるように、車両100には追加としてセンサー150が装備され得、センサー150は、GPS受信機および1つまたは複数のIMUセンサーなどの、ナビゲーション・ユニットにおいて使用されるセンサーを含み得る。GPSは、ジオロケーションおよび時間情報をGPS受信機に提供するグローバル・ナビゲーション衛星システムである。IMUは、加速度計およびジャイロスコープ、時には磁力計などの、様々な慣性センサーを使用して、車両の特定の力、角速度、および時には車両を取り囲む磁場を、測定および提供する電子デバイスである。GPS受信機およびIMUセンサーを組み合わせることによって、センサー150は、車両100が進んでいるときに、各時点での車両100の位置および配向(たとえば、オイラー角)を含む車両100のリアルタイム姿勢情報を提供することができる。本開示に一致して、センサー150は、センサー140がポイント・クラウド・フレームをキャプチャするのと同じ時点で、姿勢情報を測定し得る。したがって、姿勢情報はそれぞれのポイント・クラウド・フレームに関連付けられ得る。いくつかの実施形態において、ポイント・クラウド・フレームとその関連付けられた姿勢情報との組み合わせを使用して、車両100が測位され得る。
本開示に一致して、センサー140および150はサーバ160と通信し得る。いくつかの実施形態において、サーバ160は、ローカル物理サーバ、(図1に示されるような)クラウド・サーバ、仮想サーバ、分散型サーバ、または任意の他の好適なコンピューティング・デバイスであり得る。本開示に一致して、サーバ160は、センサー140および150からデータを取得し得る。サーバ160は、ワイヤレス・ローカル・エリア・ネットワーク(WLAN)、ワイド・エリア・ネットワーク(WAN)、電波などのワイヤレス・ネットワーク、セルラー・ネットワーク、衛星通信ネットワーク、および/または、ローカルまたは短距離ワイヤレス・ネットワーク(たとえば、Bluetooth(登録商標))などの、ネットワークを介して、センサー140および150、および/または車両100の他の構成要素と通信し得る。サーバ160は高精細度マップを記憶し得る。いくつかの実施形態において、高精細度マップは、元来、センサー140によって収集されたポイント・クラウド・データを使用して構築され得る。
本開示に一致して、サーバ160は、妨害物体によって生じるキャプチャされたポイント・クラウド・データ内のいずれの歪みも除去するために、高精細度マップを補正する責務も負い得る。いくつかの実施形態において、妨害物体は、レーザー光が道路に達する前に物体によって反射されるようにセンサー140のレーザー経路を遮断する任意の物体を含み得る。たとえば妨害物体は、歩行者、一時的なブース、あるいは、車、オートバイ、または自転車などの駐車または移動している車両であり得る。サーバ160は、妨害物体によって反射されたポイント・クラウド・データを残りのポイント・クラウド・データから分離すること、妨害物体が存在しなかったかのように正しいポイント・クラウド・データを推定すること、および、推定されたポイント・クラウド・データを使用して高精細度マップを補正することができる。
たとえば図2は、本開示の実施形態に従った、高精細度マップを補正するための例示的なサーバ160のブロック図を示す。いくつかの実施形態において、図2に示されるように、サーバ160は、通信インターフェース202、プロセッサ204、メモリ206、およびストレージ208を含み得る。いくつかの実施形態において、サーバ160は、集積回路(IC)チップなどの単一デバイス内に異なるモジュールを有し得るか、または、専用機能を備える別々のデバイスを有し得る。いくつかの実施形態において、サーバ160の1つまたは複数の構成要素は、クラウド内に配置され得るか、あるいは代替として、単一の位置(車両100内部またはモバイル・デバイス)または分散位置にあり得る。サーバ160の構成要素は、集積デバイス内にあり得るか、または、異なる位置に分散されるが互いにネットワーク(図示せず)を介して通信し得る。
通信インターフェース202は、通信ケーブル、ワイヤレス・ローカル・エリア・ネットワーク(WLAN)、ワイド・エリア・ネットワーク(WAN)、電波などのワイヤレス・ネットワーク、セルラー・ネットワーク、および/または、ローカルまたは短距離ワイヤレス・ネットワーク(たとえば、Bluetooth(登録商標))、あるいは他の通信方法を介して、センサー140および150などの構成要素にデータを送信し得、またそれらの構成要素からデータを受信し得る。いくつかの実施形態において、通信インターフェース202は、統合サービス・デジタル・ネットワーク(ISDN)カード、ケーブル・モデム、衛星モデム、または、データ通信接続を提供するためのモデムとすることができる。別の例として、通信インターフェース202は、互換LANへのデータ通信接続を提供するためのローカル・エリア・ネットワーク(LAN)カードとすることができる。ワイヤレス・リンクも通信インターフェース202によって実装可能である。こうした実装形態において、通信インターフェース202は、ネットワークを介して様々なタイプの情報を表すデジタル・データ・ストリームを伝搬する、電気、電磁、または光の信号を送受信することができる。
いくつかの実施形態に一致して、通信インターフェース202は、センサー140によってキャプチャされたポイント・クラウド・データ203などのデータを受信し得る。いくつかの実施形態において、通信インターフェース202は、センサー150によってキャプチャされた姿勢情報(図示せず)も受信し得る。いくつかの実施形態において、通信インターフェース202は、追加として、トレーニング・デバイス180からニューラル・ネットワーク205を受信し得る。いくつかの実施形態において、トレーニング・デバイス180は、たとえばプロセッサ、メモリ、ストレージ・デバイスなどを含む、サーバ160の構造と類似の構造を有し得る。いくつかの実施形態において、トレーニング・デバイス180はサーバ160の一部であり得る。トレーニング・デバイス180は、サンプル・データを使用してニューラル・ネットワーク205をトレーニングするように構成され得る。ニューラル・ネットワーク205は、トレーニング・プロセスの間に認知タスクを実施することを習得し得る。たとえば、ニューラル・ネットワーク205は、当初はLiDARによってキャプチャされたポイント・クラウド・データに基づいて、妨害物体を検出するようにトレーニングされ得る。いくつかの実施形態において、ニューラル・ネットワーク205は、セグメンテーション・タスクを実施するように、たとえば、妨害物体に関連付けられたポイント・クラウド・データ203の部分を残りのポイント・クラウド・データ203から分離するように、トレーニングされ得る。本開示に一致して、ニューラル・ネットワーク205は、畳み込みニューラル・ネットワーク(CNN)を含むが限定されない、任意の好適な学習モデルであり得る。いくつかの実施形態において、ニューラル・ネットワーク205のトレーニングは、畳み込みカーネルの重さ、サイズ、形状、および構造などの、1つまたは複数のモデル・パラメータを決定し得る。
通信インターフェース202はさらに、受信したポイント・クラウド・データ203およびニューラル・ネットワーク205を、記憶のためにストレージ208へ、または処理のためにプロセッサ204へ、提供し得る。通信インターフェース202は、プロセッサ204によって作成された補正済み高精細度マップを受信すること、および、補正済みマップを、車両100内の任意のローカル構成要素へ、またはネットワークを介して任意のリモート・デバイスへ、提供することもできる。
プロセッサ204は、任意の適切なタイプの汎用または特定用途向けのマイクロプロセッサ、デジタル信号プロセッサ、あるいはマイクロコントローラを含み得る。プロセッサ204は、高精細度マップの補正専用の別のプロセッサ・モジュールとして構成され得る。代替として、プロセッサ204は、高精細度マップの生成および補正に無関係の他の機能を実施するための、共有プロセッサ・モジュールとして構成され得る。
図2に示されるように、プロセッサ204は、ポイント・クラウド・セグメンテーション・ユニット210、ホール測位ユニット212、妨害されないポイント・クラウド推定ユニット214、マップ補正ユニット216などの、複数のモジュールを含み得る。これらのモジュール(および任意の対応するサブモジュールまたはサブユニット)は、他の構成要素と共に使用するように設計されたプロセッサ204のハードウェア・ユニット(たとえば、集積回路の一部)、または、プログラムの少なくとも一部を実行することを介してプロセッサ204によって実装されるソフトウェア・ユニットとすることができる。プログラムは、コンピュータ可読媒体上に記憶され得、またプロセッサ204によって実行されたときに、1つまたは複数の機能を実施し得る。図2は、ユニット210〜216がすべて1つのプロセッサ204内にあるように示しているが、これらのユニットは、互いに近くまたは遠隔に配置された複数のプロセッサ間に分散され得ることが企図される。
ポイント・クラウド・セグメンテーション・ユニット210は、1つまたは複数の妨害物体を検出するために、受信したポイント・クラウド・データ203をセグメント化するように構成され得る。妨害物体は、歩行者、車両、または、センサー140のレーザー経路内にある別の物体であり得る。いくつかの実施形態において、ポイント・クラウド・セグメンテーション・ユニット210は、ポイント・クラウド・データ203を2次元(2−D)平面に投影するように、したがって2−D投影画像を取得するように、構成され得る。たとえば、2−D投影画像は見下ろし図であり得る。いくつかの実施形態において、2−D投影画像は、いくつかのピクセルまたはスーパーピクセル(補助ピクセルのグループを含む)を含み得る。ポイント・クラウド・セグメンテーション・ユニット210は、2−D投影画像から様々な特徴をさらに抽出し得る。特徴の各カテゴリはチャネルに対応し得る。いくつかの実施形態において、ポイント・クラウド・セグメンテーション・ユニット210は、ピクセルが妨害物体に属する可能性がどの程度あるかを示す、ピクセルの属性を予測するために、抽出された特徴にニューラル・ネットワーク205を適用し得る。たとえば属性は、ピクセルと妨害物体の中心との間の距離、信頼度のレベル、ピクセルが妨害物体の一部である可能性、および妨害物体の高さを含み得る。
ピクセルについての属性予測結果に基づいて、妨害物体に対応するピクセルのセグメントが存在し得る。たとえば各セグメントは、可能性がしきい値よりも大きいなどの、ピクセルが妨害物体の一部であることを示す属性を伴うピクセルを含み得る。いくつかの実施形態において、同じ妨害物体に属するいくつかのセグメントは、それでもなお互いに接続していない可能性があり、セグメント間にあるギャップが存在し得る。いくつかの実施形態において、ポイント・クラウド・セグメンテーション・ユニット210は、ギャップを形成するピクセルの予測結果を修正することによって、それらのセグメントを統合し得る。
次いで、ポイント・クラウド・セグメンテーション・ユニット210は、妨害物体に対応するポイント・クラウド・データを、残りのポイント・クラウド・データから分離し得る。したがって残りのポイント・クラウド・データは、妨害物体によって生じる複数のホールを含む。いくつかの実施形態において、これらのホールは後に、妨害物体によって生じるデータ歪みを補償するために、推定されたポイント・クラウド・データによって満たされ得る。
いくつかの実施形態において、ホール測位ユニット212は、ポイント・クラウド・データ203内のホールを測位するように構成され得る。いくつかの実施形態において、ホールを測位することは、ホールが位置する平面、および妨害物体を包含するバウンディング・ボックスを決定することを含む。本開示ではホールを測位することを説明するが、代替として、ホールの代わりに妨害物体が測位され得、達成される機能は等価であり得ることが企図される。
妨害されないポイント・クラウド推定ユニット214は、LiDAR測定が妨害物体によって遮断されなかったかのように、ホールを満たすためのポイント・クラウド・データを推定し得る。いくつかの実施形態において、妨害物体の平面位置に基づいて、レーザー経路がシミュレートされ得る。次いで、レーザー経路は、道路に接触するポイントを見つけるために、妨害物体を超えて延在し得る。そのポイントについてのポイント・クラウド・データが推定され得る。
マップ補正ユニット216は、推定されたポイント・クラウド・データを使用して高精細度マップを補正するように構成され得る。いくつかの実施形態において、マップ補正ユニット216は、推定されたポイント・クラウド・データを用いてホールを「修復」し得る。いくつかの実施形態において、修復は、妨害物体を包含するバウンディング・ボックス内に制限される。修復は、データの置換、修正、再配置、またはその他の操作を含み得る。いくつかの実施形態において、ポイント・クラウド・データ203は、LiDARが軌道に沿って移動するときにキャプチャされる、複数のポイント・クラウド・フレームを含み得る。マップ補正ユニット216は、前述のように、対応する妨害されないポイント・クラウド・データを用いて各ポイント・クラウド・フレームを修復し、修復されたポイント・クラウド・フレームを統合し得る。修復されたポイント・クラウド・フレームを結合することで、ホールの領域をより良くカバーする高精細度マップをもたらすことができる。
メモリ206およびストレージ208は、プロセッサ204が操作する必要があり得る任意のタイプの情報を記憶するために提供される、任意の適切なタイプの大容量ストレージを含み得る。メモリ206およびストレージ208は、揮発性または不揮発性、磁気、半導体、テープ、光、取り外し可能、取り外し不能、または他のタイプのストレージ・デバイス、あるいは、ROM、フラッシュ・メモリ、ダイナミックRAM、およびスタティックRAMを含むが限定されない、有形の(すなわち持続性)コンピュータ可読媒体であり得る。メモリ206および/またはストレージ208は、本明細書で開示されるマップ補正機能を実施するためにプロセッサ204によって実行され得る、1つまたは複数のコンピュータ・プログラムを記憶するように構成され得る。たとえばメモリ206および/またはストレージ208は、LiDARによってキャプチャされたポイント・クラウド・データのセグメント化に基づいて高精細度マップを補正するために、プロセッサ204によって実行され得るプログラムを記憶するように構成され得る。
メモリ206および/またはストレージ208は、さらに、プロセッサ204によって使用される情報およびデータを記憶するように構成され得る。たとえば、メモリ206および/またはストレージ208は、センサー140および150によってキャプチャされた様々なタイプのデータ(たとえば、ポイント・クラウド・データ、姿勢情報など)および高精細度マップを記憶するように構成され得る。メモリ206および/またはストレージ208は、ニューラル・ネットワーク205などの中間データおよび推定されたポイント・クラウドなども記憶し得る。様々なタイプのデータは、永続的に記憶すること、定期的に除去すること、または、データの各フレームが処理された直後に無視することができる。
図3は、本開示の実施形態に従った、高精細度マップを補正するための例示的な方法300のフローチャートを示す。いくつかの実施形態において、方法300は、とりわけサーバ160を含むマップ補正システムによって実装され得る。しかしながら方法300は、その例示的実施形態に限定されない。方法300は、下記で説明するようなステップS302〜S320を含み得る。ステップのうちのいくつかは、本明細書で提供される開示を実施するために任意選択であり得ることを理解されよう。さらに、ステップのうちのいくつかは、同時に、または図3に示される順序とは異なる順序で、実施され得る。
ステップS302において、センサー140によってキャプチャされたポイント・クラウド・データが受信され得る。いくつかの実施形態において、車両100は、高精細度マップを構築するためのデータをキャプチャするための測量トリップに派遣され得る。車両100が軌道に沿って移動するとき、センサー140は周囲のシーンのポイント・クラウド・データをキャプチャし得る。いくつかの実施形態において、ポイント・クラウド・データは複数のフレームからなり得、各フレームは、車両が軌道上の特定の位置にいる特定の時点でキャプチャされる。本開示に一致して、道路上には、LiDARのレーザー経路を妨害する他の物体が存在し得、したがって収集されるポイント・クラウド・データ内に歪みを生じさせる。
ステップS304において、サーバ160は、2−D投影画像を作成するために、ステップS304で受信された3−Dポイント・クラウド・データを平面上に投影し得る。いくつかの実施形態において、投影は下方に向かって垂直であるため、取得される2−D投影画像は見下ろし図となる。3−Dポイント・クラウド・データを2−D画像内に投影することによって、深度情報が除去され、セグメンテーション・プロセスが簡略化される。
ステップS306〜S312はまとめて、妨害物体に対応する歪んだデータを、残りの歪んでいないポイント・クラウド・データから分離するために、ポイント・クラウド・データのセグメンテーションを実施する。いくつかの実施形態において、セグメンテーションは、ニューラル・ネットワークなどの機械学習モデルに基づくものであり得る。ニューラル・ネットワークは人工ニューラル・ネットワークとも呼ばれ、学習タスクを完了するために生物学的ニューラル・ネットワークをシミュレートするコンピューティング・モデルである。たとえばニューラル・ネットワークは、ポイント・クラウド・データのいずれの部分が、道路ではなく妨害物体によって反射されたレーザー光から収集されたかを学習するようにトレーニングされる。
図4は、本開示の実施形態に従った、ポイント・クラウド・データをセグメント化するために使用される例示的なCNN400を示す。いくつかの実施形態において、CNN400はエンコーダ420およびデコーダ430を含み得る。エンコーダ420およびデコーダ430の各々は、複数の個別層(図示せず)を含み得る。異なる層の例は、1つまたは複数の畳み込み層、非線形演算子層(正規化線形ユニット(ReLu)関数、シグモイド関数、または双曲正接関数など)、プールまたはサブサンプリング層、完全に接続された層、および/または最終損失層を含み得る。各層は、1つのアップストリーム層と1つのダウンストリーム層とを接続し得る。入力は入力層と見なされ得、出力は最終出力層と見なされ得る。
CNNモデルの性能および学習能力を向上させるために、異なる層の数を選択的に増加させることができる。入力層から出力層までの中間個別層の数は非常に大きくなる可能性があり、それによって、CNNモデルのアーキテクチャの複雑さが増加する。多数の中間層を備えるCNNモデルは、深層CNNモデルと呼ばれる。たとえば、いくつかの深層CNNモデルは20から30を超える層を含み得、他の深層CNNモデルは数百を超える層を含む場合さえある。深層CNNモデルの例には、AlexNet、VGGNet、GoogLeNet、ResNetなどが含まれる。
本明細書で使用される場合、開示されるセグメンテーション方法によって使用されるCNNモデルは、畳み込みニューラル・ネットワークのフレームワークに基づいて公式化、適合、または修正された、任意のニューラル・ネットワーク・モデルを言い表し得る。たとえば、本開示の実施形態においてセグメンテーションに使用されるCNNモデルは、1つまたは複数の逆畳み込み層、アップサンプリングまたはアッププール層、ピクセル単位予測層、および/または、コピーおよびクロップ演算子層などの、入力層から出力層までの間の中間層を選択的に含み得る。
図3に戻り、ステップS306において、サーバ160は2−D投影画像の各ピクセルから特徴を抽出し得る。抽出される特徴の例は、ピクセル値、ピクセル周辺のテクスチャ、隣接ピクセルとのコントラスト、画像内のピクセルの相対位置などを含み得る。CNN400は、抽出された特徴402を入力として受信し得る。いくつかの実施形態において、特徴はWCマトリックスとして配置され得、Wはピクセル行数、Hはピクセル列数、およびCはチャネル特徴数である。
ステップS308において、CNN400は、ピクセル属性を予測するために抽出された特徴に適用され得る。たとえば属性は、ピクセルと妨害物体の中心との間の距離404、信頼度のレベル406、ピクセルが妨害物体の一部である可能性を示す確率408、および、妨害物体410の高さを含み得る。
ステップS310において、サーバ160は、ピクセルが妨害物体の一部であることを示す属性を備えるピクセルを含むセグメントを識別し得る。いくつかの実施形態において、ピクセルが妨害物体として分類されるべきであるかどうかを判定するために、属性をいくつかの所定のしきい値と比較し得る。たとえば、確率408が95%であるピクセルは、90%のしきい値と比較した後、妨害物体の一部であるものと分類され得る。代替または追加として、妨害物体の中心までの距離404がピクセル幅5のしきい値よりも短いピクセルは、妨害物体の一部であるとラベル表示され得る。
ピクセルごとの予測は、時折、結果として隣接するが接続されていないセグメントを生じさせ得る。たとえば、数個の散在的な妨害していない物体のピクセル、または、2つのその他の方法で接続されたセグメント間の小さなギャップが存在し得る。ステップS312において、サーバ160は、ギャップ内のそれらのピクセルの予測結果を修正することによって、それらのセグメントを統合し得る。たとえば、ピクセルごとの予測によって、歩行者の頭に対応する1つのセグメントと、歩行者の胴体(trunk)に対応する隣接するセグメントとを見つけることができる。しかしながら、歩行者の首のエリアのピクセルは、たとえば、それらのピクセルのある属性がそれらを妨害物体に対応するものとして分類するための基準を満たさないため、初期には、妨害物体の一部ではないものとして予測され得る。しかしながら、統合を介して、セグメント間のピクセルを妨害物体に対応するものとして修正することによって、頭部セグメントおよび胴体セグメントが接続され得る。
妨害物体によって、ホールはポイント・クラウド・データ内に残される。ステップS314において、サーバ160は、検出された妨害物体に基づいてホールを測位し得る。いくつかの実施形態において、サーバ160は第1に、妨害物体についてバウンディング・ボックス、すなわち対応するホールの境界を決定し得る。サーバ160はさらに、バウンディング・ボックスのすぐ外側のポイント・クラウドについて第1の面を決定し得る。その一方で、サーバ160は、オリジナル(センサー140が位置している場所)(「基準面」)近くのポイント・クラウド・データの第2の面を決定し、第1の面と第2の面との間の角度を決定する。この角度がしきい値よりも小さい場合、サーバ160は第1の面を物体面として設定する。
ステップS316において、サーバ160は、妨害物体が無かったかのようにホールについて妨害されないポイント・クラウド・データを推定し得る。図5は、本開示の実施形態に従った、妨害されないポイント・クラウド・データを推定するための例示的な方法を示す。図5に示されるように、車両500は、面b1と面b2との間に存在し得る。レーザー光は原点OでLiDARによって放出される。レーザー経路内に妨害物体が存在しない場合、レーザー経路は道路に当たり、たとえばポイントAで道路によって反射される。車両500の存在に起因して、レーザー経路は面b1内のポイントBに当たり得、車両500によって反射される。車両500が無い場合、レーザー経路OBは延長され、最終的にポイントB’で道路に当たることになる。同様に、別のレーザー経路はポイントCで面b1に当たり、延長され、ポイントC’で道路に当たることになる。このようにして、ポイントCおよびBに対応する収集されたポイント・クラウド・データを使用して、ポイントC’およびB’に対応する妨害されないポイント・クラウド・データを推定することができる。いくつかの実施形態において、面b1内の物体バウンディング・ボックス内(ポイント501とポイント502との間)の各ポイントは、道路上の対応するポイントを見つけ得る。このようにして、道路上の対応するポイントについて妨害されないポイント・クラウド・データを推定するために、面b1から収集されたポイント・データを割り当てるかまたは他の方法で使用することができる。
ステップS318において、サーバ160は、推定された妨害されないポイント・クラウド・データを使用して、ホールを修復し得る。たとえば対応する妨害されないポイント・クラウド・データを使用して、ホールを満たすか、または他の方法でホールのデータを修正し得る。ステップS320において、修復は物体バウンディング・ボックスによってフィルタリングされ得る。たとえば図5に示されるように、修復されるホールは、道路上への物体バウンディング・ボックス(ポイント501とポイント502との間)の投影に限定される。修復をフィルタリングすることによって、ノイズを減少させ、補正結果を向上させることができる。
本開示の別の態様は、実行されたときに、前述のように1つまたは複数のプロセッサに方法を実施させる命令を記憶する、持続性コンピュータ可読媒体を対象とする。コンピュータ可読媒体は、揮発性または不揮発性、磁気、半導体、テープ、光、取り外し可能、取り外し不能、あるいは他のタイプの、コンピュータ可読媒体またはコンピュータ可読ストレージ・デバイスを含み得る。たとえば、コンピュータ可読媒体は、開示されたようなコンピュータ命令を記憶している、ストレージ・デバイスまたはメモリ・モジュールであり得る。いくつかの実施形態において、コンピュータ可読媒体は、コンピュータ命令を記憶しているディスクまたはフラッシュ・ドライブであり得る。
当業者であれば、開示されたシステムおよび関連方法に対して様々な修正および変形が実行可能であることが明らかとなろう。当業者であれば、本明細書の考察および開示されたシステムおよび関連方法の実施から、他の実施形態が明らかとなろう。
本明細書および実施例は単なる例示として見なされ、真の範囲は下記の特許請求の範囲およびそれらの等価物によって示されていることが意図される。

Claims (20)

  1. 高精細度マップを補正するためのシステムであって、
    LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信するように構成された通信インターフェースと、
    前記ポイント・クラウド・データを記憶するように構成されたストレージと、
    少なくとも1つのプロセッサと、
    を備え、
    前記少なくとも1つのプロセッサは、
    前記ポイント・クラウド・データから少なくとも1つの妨害物体を検出するように構成され、
    前記少なくとも1つの妨害物体によって生じる前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するように構成され、
    前記シーンが前記少なくとも1つの妨害物体なしにキャプチャされたかのように、前記少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定するように構成され、および、
    前記妨害されないポイント・クラウド・データを用いて前記受信したポイント・クラウド・データを修復することによって、前記高精細度マップを補正するように構成される、
    システム。
  2. 前記ストレージはニューラル・ネットワークを記憶するように構成され、前記少なくとも1つのプロセッサは、前記ニューラル・ネットワークを使用して前記少なくとも1つの妨害物体を検出するように構成される、請求項1に記載のシステム。
  3. 前記ニューラル・ネットワークは畳み込みニューラル・ネットワークである、請求項2に記載のシステム。
  4. 前記少なくとも1つのプロセッサは、
    前記ポイント・クラウド・データに基づいて2−D投影画像を作成するようにさらに構成され、前記2−D投影画像は複数のピクセルを含み、および、
    前記ニューラル・ネットワークを使用して各ピクセルに関連付けられた複数の属性を決定するようにさらに構成され、前記属性は、前記ピクセルが前記少なくとも1つの妨害物体に対応する可能性を示す、
    請求項2に記載のシステム。
  5. 前記少なくとも1つのプロセッサは、
    前記2−D投影画像からセグメントを識別するようにさらに構成され、各セグメントは、前記ピクセルが前記少なくとも1つの妨害物体のうちの1つに対応することを示す属性を備えるピクセルを含み、および、
    前記2−D投影画像内の統合エリアを決定するようにさらに構成され、前記統合エリアは前記識別されたセグメントのすべてを包含する、
    請求項4に記載のシステム。
  6. 前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するために、前記少なくとも1つのプロセッサは、
    各ホールが位置する面を決定するように構成され、および、
    各ホールについて境界を決定するようにさらに構成される、請求項1に記載のシステム。
  7. 前記少なくとも1つのプロセッサは、前記ホールの前記面に基づいて前記妨害されないポイント・クラウド・データを推定するようにさらに構成される、請求項6に記載のシステム。
  8. 前記受信されたポイント・クラウド・データは、前記LiDARが軌道に沿って移動するときにキャプチャされる複数のポイント・クラウド・フレームを含み、
    前記少なくとも1つのプロセッサは、
    前記対応する妨害されないポイント・クラウド・データを用いて各ポイント・クラウド・フレームを修復するように構成され、および、
    前記修復されたポイント・クラウド・フレームを統合するように構成される、請求項1に記載のシステム。
  9. 高精細度マップを補正するための方法であって、
    通信インターフェースを介して、LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信するステップと、
    少なくとも1つのプロセッサによって、前記ポイント・クラウド・データから少なくとも1つの妨害物体を検出するステップと、
    前記少なくとも1つのプロセッサによって、前記少なくとも1つの妨害物体によって生じる前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するステップと、
    前記少なくとも1つのプロセッサによって、前記シーンが前記少なくとも1つの妨害物体なしにキャプチャされたかのように、前記少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定するステップと、
    前記少なくとも1つのプロセッサによって、前記妨害されないポイント・クラウド・データを用いて前記受信したポイント・クラウド・データを修復することによって、前記高精細度マップを補正するステップと、
    を含む、方法。
  10. 前記少なくとも1つの妨害物体はニューラル・ネットワークを使用して検出される、請求項9に記載の方法。
  11. 前記ニューラル・ネットワークは畳み込みニューラル・ネットワークである、請求項10に記載の方法。
  12. 前記ポイント・クラウド・データに基づいて2−D投影画像を作成するステップであって、前記2−D投影画像は複数のピクセルを含む、作成するステップと、
    前記ニューラル・ネットワークを使用して各ピクセルに関連付けられた複数の属性を決定するステップであって、前記属性は、前記ピクセルが前記少なくとも1つの妨害物体に対応する可能性を示す、決定するステップと、
    をさらに含む、請求項10に記載の方法。
  13. 前記2−D投影画像からセグメントを識別するステップであって、各セグメントは、前記ピクセルが前記少なくとも1つの妨害物体のうちの1つに対応することを示す属性を備えるピクセルを含む、識別するステップと、
    前記2−D投影画像内の統合エリアを決定するステップであって、前記統合エリアは前記識別されたセグメントのすべてを包含する、決定するステップと、
    をさらに含む、請求項12に記載の方法。
  14. 前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するステップは、
    各ホールが位置する面を決定するステップと、
    各ホールについて境界を決定するステップと、
    をさらに含む、請求項9に記載の方法。
  15. 前記妨害されないポイント・クラウド・データは前記ホールの前記面に基づいて推定される、請求項14に記載の方法。
  16. 前記受信されたポイント・クラウド・データは、前記LiDARが軌道に沿って移動するときにキャプチャされる複数のポイント・クラウド・フレームを含み、
    前記高精細度マップを補正するステップは、
    前記対応する妨害されないポイント・クラウド・データを用いて各ポイント・クラウド・フレームを修復するステップと、
    前記修復されたポイント・クラウド・フレームを統合するステップと、
    をさらに含む、請求項1に記載の方法。
  17. コンピュータ・プログラムを記憶している持続性コンピュータ可読媒体であって、
    前記コンピュータ・プログラムは、少なくとも1つのプロセッサによって実行されたときに、高精細度マップを補正するための方法を実施し、
    前記方法は、
    LiDARによってキャプチャされたシーンのポイント・クラウド・データを受信するステップと、
    前記ポイント・クラウド・データから少なくとも1つの妨害物体を検出するステップと、
    前記少なくとも1つの妨害物体によって生じる前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するステップと、
    前記シーンが前記少なくとも1つの妨害物体なしにキャプチャされたかのように、前記少なくとも1つのホールについて妨害されないポイント・クラウド・データを推定するステップと、
    前記妨害されないポイント・クラウド・データを用いて前記受信したポイント・クラウド・データを修復することによって、前記高精細度マップを補正するステップと、
    を含む、持続性コンピュータ可読媒体。
  18. 前記少なくとも1つの妨害物体はニューラル・ネットワークを使用して検出され、
    前記方法は、
    前記ポイント・クラウド・データに基づいて2−D投影画像を作成するステップであって、前記2−D投影画像は複数のピクセルを含む、作成するステップと、
    前記ニューラル・ネットワークを使用して各ピクセルに関連付けられた複数の属性を決定するステップであって、前記属性は、前記ピクセルが前記少なくとも1つの妨害物体に対応する可能性を示す、決定するステップと、
    をさらに含む、請求項17に記載の持続性コンピュータ可読媒体。
  19. 前記方法は、
    前記2−D投影画像からセグメントを識別するステップであって、各パッチは、前記ピクセルが前記少なくとも1つの妨害物体のうちの1つに対応することを示す属性を備えるピクセルを含む、識別するステップと、
    前記2−D投影画像内の統合エリアを決定するステップであって、前記統合エリアは前記識別されたセグメントのすべてを包含する、決定するステップと、
    をさらに含む、請求項18に記載の持続性コンピュータ可読媒体。
  20. 前記ポイント・クラウド・データ内の少なくとも1つのホールを測位するステップは、
    各ホールが位置する面を決定するステップと、
    各ホールについて境界を決定するステップと、
    をさらに含み、
    前記妨害されないポイント・クラウド・データは前記ホールの前記面に基づいて推定される、
    請求項17に記載の持続性コンピュータ可読媒体。
JP2018568245A 2018-11-15 2018-11-15 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法 Pending JP2021508815A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/115582 WO2020097840A1 (en) 2018-11-15 2018-11-15 Systems and methods for correcting a high-definition map based on detection of obstructing objects

Publications (1)

Publication Number Publication Date
JP2021508815A true JP2021508815A (ja) 2021-03-11

Family

ID=70726532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018568245A Pending JP2021508815A (ja) 2018-11-15 2018-11-15 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法

Country Status (9)

Country Link
US (1) US11035958B2 (ja)
EP (1) EP3676796A4 (ja)
JP (1) JP2021508815A (ja)
CN (1) CN111448478B (ja)
AU (1) AU2018286592A1 (ja)
CA (1) CA3028599A1 (ja)
SG (1) SG11201811747XA (ja)
TW (1) TWI722355B (ja)
WO (1) WO2020097840A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11520331B2 (en) * 2018-12-28 2022-12-06 Intel Corporation Methods and apparatus to update autonomous vehicle perspectives
EP3783385A1 (en) * 2019-08-23 2021-02-24 Leica Geosystems AG Combined point cloud generation using a stationary laser scanner and a mobile scanner
US11327178B2 (en) * 2019-09-06 2022-05-10 Volvo Car Corporation Piece-wise network structure for long range environment perception
US20210109523A1 (en) * 2019-10-10 2021-04-15 Waymo Llc Sensor field of view in a self-driving vehicle
CN110873565B (zh) * 2019-11-21 2021-06-04 北京航空航天大学 用于城市场景重建的无人机实时路径规划方法
US11531114B2 (en) * 2020-06-16 2022-12-20 Toyota Research Institute, Inc. Sensor placement to reduce blind spots
CN112045654B (zh) * 2020-08-11 2022-01-28 上海有个机器人有限公司 一种无人密闭空间的检测方法、装置和机器人
CN111949544B (zh) * 2020-08-19 2022-10-04 腾讯科技(深圳)有限公司 一种自动驾驶车辆的定位模块的测试方法及相关装置
WO2022049653A1 (ja) 2020-09-02 2022-03-10 日本電信電話株式会社 推定方法、推定装置及びプログラム
CN114252883B (zh) * 2020-09-24 2022-08-23 北京万集科技股份有限公司 目标检测方法、装置、计算机设备和介质
CN112837239B (zh) * 2021-02-01 2024-05-14 意诺科技有限公司 毫米波雷达的残影消除方法、装置及计算机可读介质
DE102021125653A1 (de) 2021-10-04 2023-04-06 Valeo Schalter Und Sensoren Gmbh Entfernen nicht relevanter Punkte aus einer Punktwolke
CN114403114B (zh) * 2022-01-26 2022-11-08 安徽农业大学 一种高地隙植保机车身姿态平衡控制***及方法
CN114545443A (zh) * 2022-02-09 2022-05-27 北京三快在线科技有限公司 一种盲区识别方法及装置
US11593921B1 (en) * 2022-03-22 2023-02-28 Illuscio, Inc. Systems and methods for supplementing image capture with artificial data points that are generated based on material properties and associated rules
CN114754762A (zh) * 2022-04-14 2022-07-15 中国第一汽车股份有限公司 地图的处理方法、装置
CN115100377B (zh) * 2022-07-15 2024-06-11 小米汽车科技有限公司 地图构建方法、装置、车辆、可读存储介质及芯片
GB2624621A (en) * 2022-11-15 2024-05-29 Continental Autonomous Mobility Germany GmbH 3-Dimensional (3D) map generation system and method for creating 3D map of surroundings of a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216487A (ja) * 1990-12-14 1992-08-06 Shigeo Hirose 移動ロボットの位置同定方法
JP2010191066A (ja) * 2009-02-17 2010-09-02 Mitsubishi Electric Corp 三次元地図補正装置及び三次元地図補正プログラム
US20130054187A1 (en) * 2010-04-09 2013-02-28 The Trustees Of The Stevens Institute Of Technology Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning
WO2017157967A1 (en) * 2016-03-14 2017-09-21 Imra Europe Sas Processing method of a 3d point cloud

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10520482B2 (en) * 2012-06-01 2019-12-31 Agerpoint, Inc. Systems and methods for monitoring agricultural products
US9052721B1 (en) * 2012-08-28 2015-06-09 Google Inc. Method for correcting alignment of vehicle mounted laser scans with an elevation map for obstacle detection
US9523772B2 (en) 2013-06-14 2016-12-20 Microsoft Technology Licensing, Llc Object removal using lidar-based classification
US10959107B2 (en) * 2015-04-14 2021-03-23 ETAK Systems, LLC Systems and methods for delivering a close out package for work done at a telecommunications site
KR20170006505A (ko) 2015-07-08 2017-01-18 (주)휴엔텍 장애물 감지 장치와 이를 이용한 스크린도어용 장애물감지 시스템
KR101711964B1 (ko) 2015-07-14 2017-03-13 서울대학교산학협력단 자유 공간 지도 생성 방법, 자유 공간 지도 생성 시스템, 자유 공간 지도를 이용한 전경/배경 추출 방법 및 전경/배경 추출 시스템
US10748264B2 (en) 2015-09-09 2020-08-18 Sony Corporation Image processing apparatus and image processing method
US10268740B2 (en) 2015-10-14 2019-04-23 Tharmalingam Satkunarajah 3D analytics actionable solution support system and apparatus
US9910442B2 (en) * 2016-06-28 2018-03-06 Toyota Motor Engineering & Manufacturing North America, Inc. Occluded area detection with static obstacle maps
CN106199558A (zh) * 2016-08-18 2016-12-07 宁波傲视智绘光电科技有限公司 障碍物快速检测方法
TWI607412B (zh) 2016-09-10 2017-12-01 財團法人工業技術研究院 多維度尺寸量測系統及其方法
US10031231B2 (en) * 2016-09-12 2018-07-24 Delphi Technologies, Inc. Lidar object detection system for automated vehicles
KR20180059188A (ko) 2016-11-25 2018-06-04 연세대학교 산학협력단 딥 러닝을 이용한 동적 장애물이 없는 배경 위주의 3차원 지도 생성 방법
CN106650640B (zh) * 2016-12-05 2020-03-03 浙江大学 一种基于激光雷达点云局部结构特征的负障碍物检测方法
CN111108342B (zh) * 2016-12-30 2023-08-15 辉达公司 用于高清地图创建的视觉测程法和成对对准
EP3566078A1 (en) 2017-01-03 2019-11-13 Innoviz Technologies Ltd. Lidar systems and methods for detection and classification of objects
US10078790B2 (en) * 2017-02-16 2018-09-18 Honda Motor Co., Ltd. Systems for generating parking maps and methods thereof
CN108732584B (zh) * 2017-04-17 2020-06-30 百度在线网络技术(北京)有限公司 用于更新地图的方法和装置
CN107064955A (zh) * 2017-04-19 2017-08-18 北京汽车集团有限公司 障碍物聚类方法及装置
CN107301654B (zh) * 2017-06-12 2020-04-03 西北工业大学 一种多传感器的高精度即时定位与建图方法
CN107390681B (zh) * 2017-06-21 2019-08-20 华南理工大学 一种基于激光雷达与地图匹配的移动机器人实时定位方法
CN107607090B (zh) * 2017-09-12 2020-02-21 中煤航测遥感集团有限公司 建筑物投影纠正方法及装置
US10841496B2 (en) * 2017-10-19 2020-11-17 DeepMap Inc. Lidar to camera calibration based on edge detection
US11556777B2 (en) * 2017-11-15 2023-01-17 Uatc, Llc Continuous convolution and fusion in neural networks
CN108152831B (zh) * 2017-12-06 2020-02-07 中国农业大学 一种激光雷达障碍物识别方法及***
CN108415032B (zh) * 2018-03-05 2021-06-25 中山大学 一种基于深度学习与激光雷达的点云语义地图构建方法
CN108303101B (zh) * 2018-03-05 2018-09-11 弗徕威智能机器人科技(上海)有限公司 一种导航地图的构建方法
US10726567B2 (en) * 2018-05-03 2020-07-28 Zoox, Inc. Associating LIDAR data and image data
CN108734654A (zh) * 2018-05-28 2018-11-02 深圳市易成自动驾驶技术有限公司 绘图与定位方法、***及计算机可读存储介质
US10491885B1 (en) * 2018-06-13 2019-11-26 Luminar Technologies, Inc. Post-processing by lidar system guided by camera information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04216487A (ja) * 1990-12-14 1992-08-06 Shigeo Hirose 移動ロボットの位置同定方法
JP2010191066A (ja) * 2009-02-17 2010-09-02 Mitsubishi Electric Corp 三次元地図補正装置及び三次元地図補正プログラム
US20130054187A1 (en) * 2010-04-09 2013-02-28 The Trustees Of The Stevens Institute Of Technology Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning
WO2017157967A1 (en) * 2016-03-14 2017-09-21 Imra Europe Sas Processing method of a 3d point cloud

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DORIA, D. 外1名: ""Filling Large Holes in LiDAR Data By Inpainting Depth Gradients"", 2012 IEEE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW), JPN6021004384, 16 June 2012 (2012-06-16), pages 65 - 72, XP032206779, ISSN: 0004608071, DOI: 10.1109/CVPRW.2012.6238916 *
LERTNIPHONPHAN, K. 外3名: ""2D TO 3D LABEL PROPAGATION FOR OBJECT DETECTION IN POINT CLOUD"", 2018 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA & EXPO WORKSHOPS (ICMEW), JPN6021004385, 23 July 2018 (2018-07-23), pages 6 Pages, ISSN: 0004443469 *

Also Published As

Publication number Publication date
EP3676796A1 (en) 2020-07-08
US20200158875A1 (en) 2020-05-21
WO2020097840A1 (en) 2020-05-22
CN111448478A (zh) 2020-07-24
US11035958B2 (en) 2021-06-15
TWI722355B (zh) 2021-03-21
EP3676796A4 (en) 2020-07-08
SG11201811747XA (en) 2020-06-29
CN111448478B (zh) 2023-02-28
TW202020811A (zh) 2020-06-01
CA3028599A1 (en) 2020-05-15
AU2018286592A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
TWI722355B (zh) 用於基於障礙物檢測校正高清晰度地圖的系統和方法
US10937231B2 (en) Systems and methods for updating a high-resolution map based on binocular images
JP7073315B2 (ja) 乗物、乗物測位システム、及び乗物測位方法
US10860871B2 (en) Integrated sensor calibration in natural scenes
CN111436216B (zh) 用于彩色点云生成的方法和***
CN110766760B (zh) 用于相机标定的方法、装置、设备和存储介质
CN110728720B (zh) 用于相机标定的方法、装置、设备和存储介质
CN112136021A (zh) 用于构建基于地标的高清地图的***和方法
CN110751693A (zh) 用于相机标定的方法、装置、设备和存储介质
CN112424568A (zh) 构建高清地图的***和方法
CN113196341A (zh) 用于对道路的表面上的对象进行检测和建模的方法
WO2022133986A1 (en) Accuracy estimation method and system
CN113874681B (zh) 点云地图质量的评估方法和***
CN112020722A (zh) 基于三维传感器数据识别路肩

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190418

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211005