JP7369847B2 - 自動運転車両に対するデータ処理方法及び装置、電子機器、記憶媒体、コンピュータプログラム、ならびに自動運転車両 - Google Patents

自動運転車両に対するデータ処理方法及び装置、電子機器、記憶媒体、コンピュータプログラム、ならびに自動運転車両 Download PDF

Info

Publication number
JP7369847B2
JP7369847B2 JP2022173997A JP2022173997A JP7369847B2 JP 7369847 B2 JP7369847 B2 JP 7369847B2 JP 2022173997 A JP2022173997 A JP 2022173997A JP 2022173997 A JP2022173997 A JP 2022173997A JP 7369847 B2 JP7369847 B2 JP 7369847B2
Authority
JP
Japan
Prior art keywords
data
inertial measurement
determining
relative position
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022173997A
Other languages
English (en)
Other versions
JP2023021994A (ja
Inventor
巍 高
文▲東▼ 丁
国▲偉▼ 万
▲亮▼ 彭
Original Assignee
アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド filed Critical アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド
Publication of JP2023021994A publication Critical patent/JP2023021994A/ja
Application granted granted Critical
Publication of JP7369847B2 publication Critical patent/JP7369847B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本開示はスマート交通技術分野に関し、特に自動運転の分野に関し、より具体的には、自動運転車両に対するデータ処理方法及び装置、電子機器、記憶媒体、コンピュータプログラム、ならびに自動運転車両に関する。
現在、視覚/LiDARオドメトリ問題に対して既に多くの解決手段があり、従来の方法は、オンラインリアルタイム運用の需要を満たすことができるが、一般的に大量のCPU計算リソースを消費する必要がある。
本開示は、自動運転車両に対するデータ処理方法及び装置、電子機器、記憶媒体、コンピュータプログラム、ならびに自動運転車両を提供する。
本開示の一態様によれば、自動運転車両に対するデータ処理方法であって、慣性測定データ、レーザーライダーデータ及び視覚画像データを含む、前記自動運転車両に対するセンサデータを取得すること、前記慣性測定データ及び前記視覚画像データに基づいて、前記慣性測定データに対する第一拘束ファクターを決定すること、前記慣性測定データ及び前記レーザーライダーデータに基づいて、前記レーザーライダーデータに対する第二拘束ファクターを決定すること、前記慣性測定データ、前記視覚画像データ及び前記レーザーライダーデータに基づいて、前記視覚画像データに対する第三拘束ファクターを決定すること、及び前記第一拘束ファクター、前記第二拘束ファクター及び前記第三拘束ファクターに基づいて、前記センサデータを処理して、前記自動運転車両を測位するための測位データを取得すること、を含む方法を提供する。
本開示の別の態様によれば、:取得モジュール、第一決定モジュール、第二決定モジュール、第三決定モジュール及び処理モジュールを含む自動運転車両に対するデータ処理装置を提供する。取得モジュールは、慣性測定データ、レーザーライダーデータ及び視覚画像データを含む、前記自動運転車両に対するセンサデータを取得するために用いられる。第一決定モジュールは、前記慣性測定データ及び前記視覚画像データに基づいて、前記慣性測定データに対する第一拘束ファクターを決定するために用いられる。第二決定モジュールは、前記慣性測定データ及び前記レーザーライダーデータに基づいて、前記レーザーライダーデータに対する第二拘束ファクターを決定するために用いられる。第三決定モジュールは、前記慣性測定データ、前記視覚画像データ及び前記レーザーライダーデータに基づいて、前記視覚画像データに対する第三拘束ファクターを決定するために用いられる。処理モジュールは、前記第一拘束ファクター、前記第二拘束ファクター及び前記第三拘束ファクターに基づいて、前記センサデータを処理し、前記自動運転車両を測位するための測位データを取得するために用いられる。
本開示の別の態様によれば、少なくとも1つのプロセッサ、及び前記少なくとも1つのプロセッサと通信可能に接続されたメモリを含み、前記メモリは、前記少なくとも1つのプロセッサにより実行可能な指令を格納し、前記指令は、前記少なくとも1つのプロセッサが上記自動運転車両に対するデータ処理方法を実施可能となるよう、前記少なくとも1つのプロセッサにより実行される電子機器を提供する。
本開示の別の態様によれば、コンピュータ指令を格納する非一時性コンピュータが読み取り可能な記録媒体であって、前記コンピュータ指令は、前記コンピュータに上記自動運転車両に対するデータ処理方法を実行させるためのものである記録媒体を提供する。
本開示の別の態様によれば、プロセッサにより実行される場合、上記自動運転車両に対するデータ処理方法を実行するコンピュータプログラムを提供する。
本開示の別の態様によれば、上記電子機器を含む自動運転車両を提供する。
理解すべきことは、本部分に記載された内容は本開示の実施例のキー又は重要な特徴を識別することを意図するものではなく、本開示の範囲を限定するものではない。本開示の他の特徴は、以下の説明により容易に理解されるであろう。
図面は、本開示の発明をよりよく理解するために用いられ、本開示を限定するものではない。
図1は本開示の一実施例に係る自動運転車両に対するデータ処理方法のフローチャートを模式的に示す。 図2は本開示の一実施例に係る自動運転車両に対するデータ処理方法の原理図を模式的に示す。 図3は本開示の一実施例に係る補間計算の原理概略図を模式的に示す。 図4は本開示の一実施例に係るファクターグラフの概略図を模式的に示す。 図5は本開示の一実施例に係る自動運転車両に対するデータ処理装置のブロック図を模式的に示す。 図6は、本発明の実施例に係る自動運転車両に対するデータ処理を実行するための電子機器を示すブロック図である。
以下、図面を参照して本開示の例示的な実施例を説明する。ここで、より理解しやすいために本開示の実施例の様々な詳細は含まれ、それらが例示的なものであると考えられるべきである。したがって、当業者であれば、ここで記載される実施例に対して様々な変更・修正を行うことができ、本開示の範囲及び精神から逸脱することはないと分るべきである。同様に、明確かつ簡潔に説明するために、以下の記載において周知の機能や構成に対する説明を省略する。
ここで使用した用語は、具体的な実施例を説明するためのものに過ぎず、本開示を限定することを意図しない。ここで使用した「含む」、「含まれる」などの用語は、前記特徴、ステップ、操作及び/又は部品の存在を表すが、1つ又は複数の他の特徴、ステップ、操作又は部品の存在や、追加を除外しない。
ここで使用したすべての用語(技術及び科学用語を含む)は、別途定義しない限り、当業者が通常に理解した意味を持つ。ここで使用した用語は、本明細書のコンテキストと一致する意味を持つと解釈すべきであり、理想化又は硬すぎる方式で解釈すべきではないことに留意すべきである。
「Aと、Bと、Cなどの少なくとも1つ」といった表現を使用する場合、一般的に当業者が通常に理解したこの表現の意味で解釈すべきである(例えば、「Aと、Bと、Cとの少なくとも1つを有するシステム」は、単にAを有する、単にBを有する、単にCを有する、AとBとを有する、AとCとを有する、BとCとを有する、及び/又はAと、Bと、Cとを有するシステムなどを含むが、これらに限られない)。
視覚/LiDARオドメトリを利用して測位計算を行う過程において一般的に大量のCPU計算リソースを消費する必要がある。そのため、精度が高く、CPUリソースの占用が少なく、GPUリソースに対する利用が合理的な視覚、ライダー、慣性測定ユニットのオドメトリを利用することは実用的価値がある。本開示の実施例は、視覚、ライダー、慣性測定ユニットに基づくオドメトリを構築する方法を提供し、かつ視覚、ライダー、慣性測定ユニットに基づくオドメトリを利用して自動運転車両の測位を行う。
本開示の実施例は、自動運転車両に対するデータ処理方法であって、慣性測定データ、レーザーライダーデータ及び視覚画像データを含む、前記自動運転車両に対するセンサデータを取得すること、前記慣性測定データ及び前記視覚画像データに基づいて、前記慣性測定データに対する第一拘束ファクターを決定すること、前記慣性測定データ及び前記レーザーライダーデータに基づいて、前記レーザーライダーデータに対する第二拘束ファクターを決定すること、前記慣性測定データ、前記視覚画像データ及び前記レーザーライダーデータに基づいて、前記視覚画像データに対する第三拘束ファクターを決定すること、さらに、前記第一拘束ファクター、前記第二拘束ファクター及び前記第三拘束ファクターに基づいて、前記センサデータを処理して、前記自動運転車両を測位するための測位データを取得すること、を含む自動運転車両に対するデータ処理方法を提供する。
以下、図1~図4を参照して、本開示の例示的な実施形態に係る自動運転車両に対するデータ処理方法について説明する。
図1は本開示の一実施例に係る自動運転車両に対するデータ処理方法のフローチャートを模式的に示す。
図1に示すように、本開示の実施例の自動運転車両に対するデータ処理方法100は、例えば、動作S110~動作S150を含んでもよい。
動作S110において、慣性測定データ、レーザーライダーデータ及び視覚画像データを含む、自動運転車両に対するセンサデータを取得する。
動作S120において、慣性測定データ及び視覚画像データに基づいて、慣性測定データに対する第一拘束ファクターを決定する。
動作S130において、慣性測定データ及びレーザーライダーデータに基づいて、レーザーライダーデータに対する第二拘束ファクターを決定する。
動作S140において、慣性測定データ、視覚画像データ及びレーザーライダーデータに基づいて、視覚画像データに対する第三拘束ファクターを決定する。
動作S150において、第一拘束ファクター、第二拘束ファクター及び第三拘束ファクターに基づいて、センサデータを処理し、自動運転車両を測位するための測位データを取得する。
例示的には、自動運転車両は運転中に、様々なタイプのセンサによりデータを収集することができ、様々なタイプのセンサは、例えば、慣性測定ユニット、ライダー、カメラを含むがそれらに限定されるものではない。慣性計測部としては、例えば、IMUジャイロや車輪速計が挙げられるが、これらに限定されるものではない。
センサデータを収集して取得した後、センサデータに基づいて第一拘束ファクター、第二拘束ファクター及び第三拘束ファクターを取得することができる。そして、第一拘束ファクター、第二拘束ファクター及び第三拘束ファクターに基づいてセンサデータを処理して測位データを取得することで、自動運転車両が測位データに基づいて測位を行うことができる。
理解できるように、本開示の実施例は慣性測定ユニット、ライダー、カメラによりセンサデータを収集し、かつセンサデータに基づいてデータ処理を行って自動運転車両の測位を実現することで、自動運転車両の測位精度を向上させる。また、センサデータに基づいてデータ処理を行うプロセスにおいて、GPUリソースを合理的に利用することで、CPUリソースの占有率を低下させ、資源を節約しつつ、計算速度を向上させる。
図2は本開示の一実施例に係る自動運転車両に対するデータ処理方法の原理図を模式的に示す。
図2に示すように、本開示の実施例によれば、まず、レーザーライダーデータ210、視覚画像データ220及び慣性測定データ230を取得する。次に、ICP CUDA(Iterative Closet Point of UnificDevice Architecture)アルゴリズムに基づいてレーザーライダーデータ210を処理して、点群フレーム間の相対位置姿勢拘束情報を取得する;光フロー法特徴追跡アルゴリズムを利用して視覚画像データ220を処理して視覚特徴を取得し、かつ深度情報推定アルゴリズムを利用して視覚特徴及びレーザーライダーデータ210に基づいて深度情報を取得する;慣性測定データ230に数値積分を行い、フレーム間動き予測及び状態拘束情報を取得し、慣性測定データ230は例えばIMUデータ及び車輪速計データを含む。
次に、点群フレーム間の相対位置姿勢拘束情報、深度情報、フレーム間動き予測及び状態拘束情報に基づいて融合計算を行って複数の拘束ファクター240を取得し、複数の拘束ファクター240は例えば第一拘束ファクター、第二拘束ファクター及び第三拘束ファクターを含む。
複数の拘束ファクター240を取得した後、複数の拘束ファクター240のうちの少なくとも一つを状態として出力することにより、慣性測定ユニットを校正することができ、校正過程は、例えば、慣性測定データに基づいて数値積分を行う場合、複数の拘束ファクター240のうちの少なくとも一つを拘束とすることを含む。
慣性測定データに対して、2フレームの慣性測定データに対応する時間がそれぞれt,tk+1であり、この2フレーム時刻の間において、複数回のIMU及び車輪速計測定を有することを仮定する。地球の自転要因の影響を無視し、IMUジャイロスコープ及び車輪速計の測定値に基づいてこれらの2フレームに対応する時刻のローカル座標系の相対位置姿勢関係を直接計算して取得することができる。
例えば、IMUから出力された角速度情報を直接的に積分して回転部分を取得することができる。回転部分の一例の計算方法は以下のとおりである:
車輪速計の出力と外部パラメータの関係に基づいてIMUの局所座標系での速度を直接的に算出し、さらに速度を積分することにより、変位部分を得る。例えば、IMUの時刻tでの速度計算方法は以下のとおりである:
視覚画像データに対して、非直接法を採用することができ、すなわち視覚画像データの特徴を抽出し、かつ視覚画像フレーム(即ち、視覚フレーム)の間の動き拘束を取得する。
第二拘束ファクターについて、レーザーライダーデータを利用して視覚画像データの深度情報を取得し、かつ該深度情報を利用してレーザーライダーデータに対する第二拘束ファクターを決定することができる。
例えば、レーザーライダーデータは複数フレームのレーザ点群データを含むことができる。慣性測定データ及びレーザーライダーデータに基づいて、レーザーライダーデータに対する第二拘束ファクターを決定することは、例えば、以下のプロセスを含む。
まず、慣性測定データ、複数フレームのレーザ点群データにおける第一フレームのレーザ点群データ及び第二フレームのレーザ点群データに基づいて、第一フレームのレーザ点群データと第二フレームのレーザ点群データとの間の初期相対位置姿勢を決定する。
次に、第一フレームのレーザ点群データの第一投影データ及び第二フレームのレーザ点群データの第二投影データをそれぞれ決定する。
次に、第一投影データ及び第二投影データに基づいて、初期相対位置姿勢を調整し、点群フレーム間の相対位置姿勢を取得し、かつ点群フレーム間の相対位置姿勢に基づいて、第二拘束ファクターを決定する。
例示的には、第一投影データ及び第二投影データは例えば、いずれもN個の画素を含み、Nは1より大きい整数である。第一投影データ及び第二投影データに基づいて、初期相対位置姿勢を調整し、点群フレーム間の相対位置姿勢を取得することができる。例えば、N個のボクセルにおける各体画素及び初期相対位置姿勢に基づいて、N回の反復操作を実行し、第N相対位置姿勢を取得して点群フレーム間の相対位置姿勢とする。
例示的には、第一投影データは、例えば、第一投影画像及び第一法線ベクトルを含み、第二投影データは例えば第二投影画像及び第二法線ベクトルを含む。N回の反復操作を実行することにより、第N相対姿勢を取得する。
例えば、N回の反復におけるi回目の反復は、以下を含む。iに基づいて距離閾値及び角度閾値を決定し、iが1以上N以下である。第一投影画像における第i第一画素と第二投影画像における第i第二画素との間の距離が距離閾値以下であり、かつ第i画素の対応する第一法線ベクトルと対応する第二法線ベクトルとの間の角度が角度閾値以下であると決定した場合、第i-1回の反復により得られた第i-1相対位置姿勢、第i第一画素、第i第二画素、第i画素の対応する第一法線ベクトル及び第i画素の対応する第二法線ベクトルを用いて、第i相対姿勢を決定する。例えば、第i画素は、例えば、第i第一画素と第i第二画素を含み、第i第一画素は第一法線ベクトルに対応し、第i第二画素は第二法線ベクトルに対応する。
本開示の実施例によれば、LiDAR(ライダー)データはレーザ点群データを含むことができ、2フレームの点群データを採用してレジストレーションを行うことができる。したがって、理論的には、2フレームの点群のレジストレーションを完了可能な任意の方法であれば、いずれも本開示の実施例に適用される。利点は、実施形態がより拡張しやすいことである。
異なるフレームの点群データをレジストレーションすることにより、対応する時刻のIMU座標系の相対的な姿勢関係を取得することができる。GPUにより実行されたICP(Iterative Closet Point、反復の最近点)方法によれば、2フレームの点群レジストレーションの時間消費を低減し、さらに複数対のキーフレームの点群のレジストレーションを迅速に完了することができる。ICP方法に基づいて劣化ファクターを改善する方法は、元の方法のLiDAR退化シーンの精度を向上させる。
注意すべきことは、以上のアルゴリズムはGPUで並列実行することができ、これによりCPUのリソース占有を低減し、処理効率を向上させることができる。
当業者であれば理解できるように、視覚画像データに対して、複数の視覚画像フレーム間に基づいて一致な観測を構築することができ、後続の画像特徴点の再投影エラーの計算に用いられる。
第三拘束ファクターについて、慣性測定データ、視覚画像データ及びレーザーライダーデータに基づいて、視覚画像データに対する第三拘束ファクターを決定することができる。
例えば、視覚画像データ及びレーザーライダーデータに基づいて、視覚画像データの深度情報を決定する。次に、視覚画像データ及び慣性測定データに基づいて、視覚画像データと慣性測定データとの間のマッピング関係を決定し、かつ深度情報とマッピング関係に基づいて、第三拘束ファクターを決定する。
深度情報について、視覚画像データの視覚画像収集時刻が隣接するレーダデータのレーダデータ収集時刻に対する初期慣性測定相対位置を決定することができる。次に、視覚画像収集時刻、レーダデータ収集時刻及び初期慣性測定相対位置姿勢に基づいて、レーザーライダーデータの画像データ平面への第一投影位置を決定する。次に、第一投影位置に基づいて画像投影時刻及び更新された慣性測定相対位置姿勢を決定し、かつ更新された慣性測定相対位置姿勢に基づいて視覚画像データの深度情報を決定する。
例示的には、第一投影位置に基づいて画像投影時刻及び更新された慣性測定相対位置を決定することは、例えば、以下のプロセスを含む。まず、視覚画像収集時刻の画像投影時刻に対する第一慣性測定相対位置姿勢を決定し、かつ画像投影時刻のレーザデータ収集時刻に対する第二慣性測定相対位置姿勢を決定する。次に、第一慣性測定相対位置姿勢及び第二慣性測定相対位置姿勢を利用して初期慣性測定相対位置姿勢を補間し、更新された慣性測定相対位置姿勢を取得する。
図3は本開示の一実施例に係る補間計算の原理概略図を模式的に示す。
投影の方法によりレーザーライダーデータと視覚画像データを融合した後、視覚特徴点の周囲の点群データpatchを利用して視覚特徴点の深度を計算することができ、例示的な方法はLIMOと類似し、説明を省略する。
当業者であれば理解されるように、上記する本開示に基づくレーザ点群データを利用して深度値を計算する方法を加え、マルチフレーム視覚画像の三角化の方法を利用してよく、本開示はこれについて制限がない。ライダーの垂直視野角がカメラの視覚画像収集装置の視野角より小さくなり、又はライダーの有効観測距離に制限が存在することが多いので、一部の視覚画像領域がレーザ点群データで覆われない状況が存在する。したがって、レーザ点群データにより一部の視覚特徴点の深度情報を算出することができない。この部分の視覚特徴点に対して、マルチフレーム画像観測データの三角化の方法により特徴点の深度を計算することができ、即ち、安定追跡が一定のフレーム数を超える特徴点のみを三角化する。2フレームの三角化に比べて、このような方法は、特徴点の深度に対する推定がより正確となり、さらに特徴点の深度の推定エラーの運動推定精度に対する悪影響を低減する。
本開示の実施例によれば、スライドウィンドウに基づく図最適化方法を採用することができる。各視覚又はライダーキーフレームの状態のそれぞれは、図のノードで表すことができ、各ノードの状態は以下のように定義される。
システム全体の状態は以下のとおりである。
Xは測位データであり、自動運転車両は該測位データに基づいて測位することができる。例えば、該測位データを環境感知、運動制御、相対測位、地図構築などの分野に用いることができる。
図4は本開示の一実施例に係るファクターグラフの概略図を模式的に示す。
図4に示すように、本開示の実施例によれば、中空円形はLiDARノードを、中空正方形は視覚ノードを、中空五角星は視覚特徴を、一点鎖線はIMU事前積分ファクターを、破線はICPファクターを、線分は視覚ファクターを、それぞれ示す。ファクター図における辺について、スライドウィンドウの長さが最大値に達した後、新たなキーフレームノードを挿入し、かつ最も古いキーフレームノードを削除する。関連観測フレームが存在しない画像データ特徴を削除することにより、計算複雑度が時間の経過に伴って増大しないことを保証することができる。一例において、スライドウィンドウの長さの最大値は例えば40である。図4におけるIMU事前積分ファクターは例えば第一拘束ファクターであり、ICPファクターは例えば第二拘束ファクターであり、視覚ファクターは例えば第三拘束ファクターである。
測位データを最適化するために、第一拘束ファクター、第二拘束ファクター及び第三拘束ファクターに基づいて、センサデータを処理し、自動運転車両を測位するための測位データを取得することができる。例えば、以下の式を満たすものを測位データとすることができる。
IMU事前積分ファクターは、すなわち、IMU事前積分結果に基づいて隣接するキーフレーム間の状態に対して作成された拘束関係である。本開示の実施例によれば、視覚画像キーフレームとレーザー点群キーフレームに対して統一的なシリアルIMU事前積分ファクターを作成する。IMU事前積分ファクターを採用すると、IMU測定値を効果的に利用してノードの全ての次元の状態を拘束し、さらにノードを有効に推定する速度に役立っている。
視覚ファクターは、即ち、視覚キーフレームに作成された拘束関係である。本開示の実施例によれば、再投影エラーを視覚ファクターとして採用し、また再投影エラーを計算する場合に、Rolling Shutterカメラシャッタの平面投影座標への影響は除去される。
本開示の実施例によれば、慣性測定データは慣性センサーにより収集され、レーザーライダーデータ及び第一拘束ファクターに基づいて、慣性センサーの速度及び加速度を初期化することができる。
例示的には、慣性センサーを初期化する必要があり、初期化の目的は初期キーフレームシーケンスを構築することにより、キーフレームノードの状態を推定し、グローバル姿勢、速度、加速度計ゼロバイアス、ジャイロスコープゼロオフセットなどを含み、かつ重力方向を推定することにより、正確なシステム初期状態を確立し、初期化はシステムが正常に実行する前提である。視覚画像センサを有するシステムに対して、初期化プロセスにおいて、さらに視覚地図のスケール情報を確立する必要がある。初期化精度が高くない、引いて初期化が行われないと、システム状態が収束しにくいので、システム精度が低下される。
本開示の実施例によれば、レーザーライダーデータを用いて慣性センサーを初期化することができる。また、視覚画像データ及び車輪速計データを用いて慣性センサーを初期化することができる。
レーザーライダーデータを用いて慣性センサーを初期化する場合、例えば、非退化シーンでLiDARのフロントエンドによりフレーム間の相対運動を計算することができる。その後の初期化過程は、ジャイロスコープゼロバイアス推定段階及び速度及び重力加速度推定段階を含んでもよい。
ジャイロスコープゼロバイアス推定段階に対して、例えば、VINS-Mono(Digital MonocuVia Visual Inertial State Estimator、単眼視覚慣性システム、香港科学技術大学が開発したオープンソース単眼慣性視覚オドメトリVIO)を用いて実現することができる。ジャイロスコープゼロバイアス推定段階では、キーフレームの間の回転運動に基づいてIMUを推定しかつ結合して回転運動の事前積分結果に基づいてIMUのジャイロスコープゼロバイアスを計算することができる。IMUのジャイロスコープゼロバイアスを更新した後に、事前積分結果の正確性を保証するために、事前積分を改めて行う必要がある。具体的な過程は、例えば、関連文献(Tong Q、Peiliang L、Shaojie S.VINS-Mono:A Robust and Versatile MonocuVisual-Inertial State Estimator[J].IEEE Translons on Robotics、2018、PP(99):1-17)を参照することができる。簡潔にするために、本開示の実施例は説明を省略する。
速度及び重力加速度の推定段階において、推定しようとする状態変数は以下のとおりである。
速度及び重力加速度の推定段階において、運動推定結果とIMU事前積分における速度及び変位結果を結合して、以下の初期化問題を構築することができる。
該最適化問題において、最適化目標関数は、IMU事前積分残差であって、IMU事前積分結果速度及び変位成分と推定値との差異を示し、それにより、システムノードの速度状態及び重力加速状態に対する拘束を提供する。
もう一つの最適化目的関数は,地球表面の重力加速度のモジュロが定数と近似するとの事実を利用することにある。これにより、算出された重力加速度がより正確であることを保証することができる。
本開示の実施例によれば、直接観測可能な回転成分及び平行移動成分を最適化する必要がなく、速度成分、IMUジャイロゼロバイアス及び重力加速度ベクトルのみを最適化することになる。IMU加速度計のゼロバイアス初期値をゼロに設定してもよい。上記方法は、利用範囲が広く、すなわち、他のセンサによりフレーム間の相対運動を取得する方法に対しても適用される。
レーザーライダーデータがない場合、視覚画像データ及び車輪速計データを用いて初期化を行うことができる。IMU及び車輪速計を用いてフレーム間の運動を計算する場合、ジャイロスコープゼロバイアスがゼロであると仮定し、したがって、このような初期化方法において、ジャイロスコープゼロバイアスの推定を省略し、ゼロであると直接仮定する。
車輪速計データを採用して初期化を補助する利点は、実現しやすくなり、初期運動条件に対する要求が低く、かつ一般的な場合に精度が十分であり、これにより、単純IMUプラス視覚初期化の車両運動性への要求によるサイズの過大を回避する。
視覚画像センサを含むシステムを初期化することは、ノードの状態を推定する必要がある以外に、視覚特徴点の深度情報を確立する必要がある。一例において、BA(Bundle Adjustment、ビーム平行差法)により実現することができる。
本開示の実施例の技術案によれば、視覚及びレーザーライダーデータを処理する必要があるため、処理効率に対する要求がより高くなる。特にデータ処理の計算量がより大きいため、視覚画像データとライダーフレームデータを並列処理する必要がある。データ融合部分において、視覚キーフレームノードとライダーキーフレームノードを同一ファクターマップを利用して状態最適化を行い、かつ前にIMU事前積分ファクターにより、時間順序に応じて視覚キーフレームノードとライダーキーフレームノードを順に接続するため、IMUの事前積分の動作がシリアル処理であることが必要とされる。同様に、データ融合部分に対して、システム全体が同じスライドウィンドウを共有し、かつスライドウィンドウに視覚画像キーフレーム及びライダーキーフレームが含まれるため、スライドウィンドウ更新及び融合最適化操作はスレッド同期を行う必要があり、すなわち、並列処理する。これに鑑みて、GPUを用いて並列処理を実行することができ、したがって、CPUリソースの占用を減少させ、GPUリソースを合理的に利用することができる。
一つの実施形態によれば、それぞれ独立したスレッドを作成して視覚画像データとレーザーライダーデータを処理することができ、それにより並列処理を実現する。IMU事前積分などのシリアル処理に対して、スレッド同期によりタイミングの正確性を保証することができる。
図5は本開示の一実施例に係る自動運転車両に対するデータ処理装置のブロック図を模式的に示す。
図5に示すように、本開示の実施例の自動運転車両に対するデータ処理装置500は、例えば、取得モジュール510、第一決定モジュール520、第二決定モジュール530、第三決定モジュール540及び処理モジュール550を含む。
取得モジュール510は慣性測定データ、レーザーライダーデータ及び視覚画像データを含む、自動運転車両に対するセンサデータを取得するために用いられる。本開示の実施例によれば、取得モジュール510は、例えば、図1を参照して前文で説明した動作S110を実行することができ、ここでは説明を省略する。
第一決定モジュール520は慣性測定データ及び視覚画像データに基づいて、慣性測定データに対する第一拘束ファクターを決定するために用いられる。本開示の実施例によれば、第一決定モジュール520は、例えば、図1を参照して前文で説明した動作S120を実行することができ、ここで説明を省略する。
第二決定モジュール530は慣性測定データ及びレーザーライダーデータに基づいて、レーザーライダーデータに対する第二拘束ファクターを決定するために用いられる。本開示の実施例によれば、第二決定モジュール530は、例えば、図1を参照して前文で説明した動作S130を実行することができ、ここで説明を省略する。
第三決定モジュール540は慣性測定データ、視覚画像データ及びレーザーライダーデータに基づいて、視覚画像データに対する第三拘束ファクターを決定するために用いられる。本開示の実施例によれば、第三決定モジュール540は、例えば、図1を参照して前文で説明した動作S140を実行することができ、ここで説明を省略する。
処理モジュール550は第一拘束ファクター、第二拘束ファクター及び第三拘束ファクターに基づいて、センサデータを処理し、自動運転車両を測位するための測位データを取得するために用いられる。本開示の実施例によれば、処理モジュール550は、例えば、図1を参照して前文で説明した動作S150を実行することができ、ここで説明を省略する。
本開示の実施例によれば、レーザーライダーデータは複数フレームのレーザ点群データを含み、第二決定モジュール530は、第一決定サブモジュール、第二決定サブモジュール、調整サブモジュール及び第三決定サブモジュールを含む。第一決定サブモジュールは、慣性測定データ、複数フレームのレーザ点群データにおける第一フレームのレーザ点群データ及び第二フレームのレーザ点群データに基づいて、第一フレームのレーザ点群データと第二フレームのレーザ点群データとの間の初期相対位置姿勢を決定するために用いられる。第二決定サブモジュールは、第一フレームのレーザ点群データの第一投影データ及び第二フレームのレーザ点群データの第二投影データをそれぞれ決定するために用いられる。調整サブモジュールは、第一投影データ及び第二投影データに基づいて、初期相対位置姿勢を調整し、点群フレーム間の相対位置姿勢を取得するために用いられる。第三決定サブモジュールは、点群フレーム間の相対位置姿勢に基づいて、第二拘束ファクターを決定するために用いられる。
本開示の実施例によれば、第一投影データ及び第二投影データはいずれもN(Nは1より大きい整数である)個のボクセルを含み、調整サブモジュールは、さらに、N個のボクセルにおける各体画素と初期相対位置姿勢に基づいて、N回の反復操作を実行し、第N相対位置姿勢を得て、点群フレーム間の相対位置姿勢とするために用いられる。
本開示の実施例によれば、第一投影データは第一投影画像及び第一法線ベクトルを含み、第二投影データは第二投影画像及び第二法線ベクトルを含む。調整サブモジュールについて、さらに、N回の反復における第i回の反復は、i(iが1以上N以下である)に基づいて距離閾値及び角度閾値を決定すること;第一投影画像における第i第一画素と第二投影画像における第i第二画素との間の距離が距離閾値以下であり、かつ第i画素の対応する第一法線ベクトルと対応する第二法線ベクトルとの間の角度が角度閾値以下であると決定した場合、第i-1回の反復により得られた第i-1相対位置姿勢、第i第一画素、第i第二画素、第i画素の対応する第一法線ベクトル及び第i画素の対応する第二法線ベクトルを用いて、第i相対姿勢を決定することを含む。
本開示の実施例によれば、第三決定モジュール540は、第四決定サブモジュール、第五決定サブモジュール及び第六決定サブモジュールを含む。第四決定サブモジュールは、視覚画像データ及びレーザーライダーデータに基づいて、視覚画像データの深度情報を決定するために用いられる。第五決定サブモジュールは、視覚画像データ及び慣性測定データに基づいて、視覚画像データと慣性測定データとの間のマッピング関係を決定するために用いられる。第六決定サブモジュールは、深度情報及びマッピング関係に基づいて、第三拘束ファクターを決定するために用いられる。
本開示の実施例によれば、第四決定サブモジュールは、第一決定手段、第二決定手段、第三決定手段及び第四決定手段を含む。第一決定手段は、視覚画像データの視覚画像収集時刻が隣接するレーダデータのレーダデータ収集時刻に対する初期慣性測定相対位置姿勢を決定するために用いられる。第二決定手段は、視覚画像収集時刻、レーダデータ収集時刻及び初期慣性測定相対位置姿勢に基づいて、レーザーライダーデータを視覚画像データ平面の第一投影位置に決定するために用いられる。第三決定手段は、第一投影位置に基づいて画像投影時刻及び更新された慣性測定相対位置姿勢を決定するために用いられる。第四決定手段は、更新された慣性測定相対位置姿勢に基づいて視覚画像データの深度情報を決定するために用いられる。
本開示の実施例によれば、第三決定手段は、第一決定サブ手段、第二決定サブ手段及び補間サブ手段を含む。第一決定サブ手段は、画像投影時刻における画像投影時刻に対する第一慣性測定相対位置姿勢を決定するために用いられる。第二決定サブ手段は、画像投影時刻におけるレーザデータ収集時刻に対する第二慣性測定相対位置姿勢を決定するために用いられる。補間サブ手段は、第一慣性測定相対位置姿勢及び第二慣性測定相対位置姿勢を利用して初期慣性測定相対位置姿勢を補間し、更新された慣性測定相対位置姿勢を取得するために用いられる。
本開示の実施例によれば、処理モジュール550は以下の式を満たすXを測位データとする。
本開示の実施例によれば、慣性測定データは慣性センサーにより収集されるものである;装置500は、レーザーライダーデータ及び第一拘束ファクターに基づいて、慣性センサーの速度及び加速度を初期化するために用いられる初期化モジュールを、さらに含んでもよい。
本開示の技術案において、言及するユーザ個人情報の収集、記憶、使用、加工、伝送、提供及び開示等の処理は、いずれも相関法規則の規定に適合し、かつ公序良俗にも違反されることはない。
本開示の実施例によれば、本開示はさらに電子機器、読み取り可能な記憶媒体及びコンピュータプログラム製品を提供する。
本開示の実施例によれば、自動運転車両を提供し、図6の電子機器を含む。
図6は、本発明の実施例に係る自動運転車両に対するデータ処理を実行するための電子機器を示すブロック図である。
図6は、本開示の実施例を実施可能な例示的電子機器600の模式的ブロック図を示している。電子機器600は、様々な形式のデジタルコンピュータを示すことを目的とし、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ及び他の適切なコンピュータである。電子機器は、さらに様々な形式の移動装置を示してもよく、例えば、パーソナルデジタルアシスタント、携帯電話、スマートフォン、ウェアラブル機器及び他の類似の演算装置である。本明細書に示された部材、それらの接続及び関係、並びにそれらの機能は、例示に過ぎず、本明細書に記載された及び/又は要求された本開示の実現を限定しない。
図6に示すように、電子機器600は、計算手段601を含み、計算手段601は、リードオンリーメモリ(ROM)602に記憶されたコンピュータプログラム又は記憶手段608からランダムアクセスメモリ(RAM)603にロードされたコンピュータプログラムに基づいて、様々な適切な動作及び処理を実行してもよい。RAM603には、さらに電子機器600の操作に必要な様々なプログラム及びデータを記憶してもよい。計算手段601、ROM602、及びRAM603は、バス604を介して相互に接続される。入出力(I/O)インターフェース605も、バス604に接続される。
電子機器600における複数の部品は、I/Oインターフェース605に接続され、例えばキーボード、マウス等の入力手段606と、例えば様々な種類のディスプレイ、スピーカ等の出力手段607と、例えば磁気ディスク、光ディスク等の記憶手段608と、例えばネットワークカード、モデム、無線通信トランシーバ等の通信手段609とを含む。通信手段609は、電子機器600がインターネット等のコンピュータネットワーク及び/又は各種の電気ネットワークを介して他の機器と情報・データをやり取りすることを可能にする。
計算手段601は、処理及び演算能力を有する各種の汎用及び/又は専用の処理モジュールであってもよい。計算手段601の幾つかの例として、中央処理ユニット(CPU)、GPU(Graphics Processing Unit)、各種専用の人工知能(AI)演算チップ、各種機械学習モデルアルゴリズムをランニングする演算ユニット、DSP(Digital Signal Processor)、並びに任意の適切なプロセッサ、コントローラ、マイクロコントローラ等が挙げられるが、これらに限定されない。計算手段601は、上記で記載された各方法及び処理、例えば自動運転車両に対するデータ処理を実行する。例えば、幾つかの実施例において、自動運転車両に対するデータ処理は、例えば記憶手段608のような機械可読媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現されてもよい。いくつかの実施例において、コンピュータプログラムの一部又は全部は、ROM 602及び/又は通信手段609を介して電子機器600にロード及び/又はインストールされてもよい。コンピュータプログラムがRAM603にロードされて計算手段601により実行される場合、上記に記載の交通信号機に対する提示方法の1つ又は複数のステップを実行してもよい。代替的に、他の実施例において、計算手段601は、他の任意の適切な方式(例えば、ファームウェアを介する)により自動運転車両に対するデータ処理を実行するように構成されてもよい。
本明細書で以上に説明されたシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラムマブルロジックデバイス (CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現されてもよい。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムにおいて実施され、該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラムマブルプロセッサを含むプログラムマブルシステムで実行され及び/又は解釈されることが可能であり、該プログラムマブルプロセッサは、専用又は汎用のプログラムマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、かつデータ及び命令を該記憶システム、該少なくとも1つの入力装置、及び該少なくとも1つの出力装置に伝送することができることを含んでもよい。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで作成されてもよい。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ又は他のプログラマブルの自動運転車両に対するデータ処理装置のプロセッサ又はコントローラに提供されてもよく、それによって、プログラムコードがプロセッサ又はコントローラにより実行される時に、フローチャート及び/又はブロック図に規定された機能・操作が実施される。プログラムコードは、機器に完全に実行されてもよく、部分的に機器で実行されてもよく、独立したソフトウェアパッケージとして部分的に機器で実行され、かつ部分的に遠隔機器で実行されるか又は完全に遠隔機器又はサーバで実行されてもよい。
本開示のコンテキストにおいて、機械可読媒体は、有形の媒体であってもよく、命令実行システム、装置又は電子機器に使用され、又は命令実行システム、装置又は電子機器と組み合わせて使用されるプログラムを含んで又は記憶してもよい。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であってもよい。機械可読媒体は、電子の、磁気的、光学的、電磁的、赤外線の、又は半導体システム、装置又は電子機器、又は上記内容の任意の適切な組み合わせを含んでもよいが、それらに限定されない。機械可読記憶媒体のより具体的な例としては、1つ以上の線による電気的接続、携帯式コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、コンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、又は上記内容の任意の適切な組み合わせを含む。
ユーザとの対話を提供するために、コンピュータにここで説明されたシステム及び技術を実施させてもよく、該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを備え、ユーザは、該キーボード及び該ポインティングデバイスを介して入力をコンピュータに提供することができる。他の種類の装置は、さらにユーザとの対話を提供してもよく、例えば、ユーザに提供されたフィードバックは、いかなる形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、かついかなる形式(音声入力、語音入力又は、触覚入力を含む)でユーザからの入力を受信してもよい。
ここで説明されたシステム及び技術は、バックグラウンド部品を含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェア部品を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンド部品を含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザが該グラフィカルユーザインタフェース又は該ネットワークブラウザを介してここで説明されたシステム及び技術の実施形態と対話することができる)、又はこのようなバックグラウンド部品、ミドルウェア部品、又はフロントエンド部品のいずれかの組み合わせを含むコンピューティングシステムに実施されることが可能である。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によりシステムの部品を互いに接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットを例示的に含む。
コンピュータシステムは、クライアント及びサーバを含んでもよい。クライアントとサーバ同士は、一般的に離れており、通常、通信ネットワークを介して対話する。クライアントとサーバとの関係は、該当するコンピュータ上でランニングし、クライアント-サーバの関係を有するコンピュータプログラムによって生成される。サーバは、クラウドサーバであってもよく、分散型システムのサーバであってもよく、又はブロックチェーンを組合せたサーバであってもよい。
理解されるべきこととして、以上に示された様々な形式のフローを使用してもよく、操作を改めてソーティングしたり、追加したり又は削除してもよい。例えば、本開示に記載の各操作は、並列に実行されたり、順次に実行されたり、又は異なる順序で実行されてもよく、本開示の発明の所望の結果を実現することができれば、本明細書はここで限定されない。
上記具体的な実施形態は、本開示の保護範囲を限定するものではない。当業者であれば、設計要件及び他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション及び代替を行うことが可能であると理解すべきである。本開示の精神と原則内で行われる任意の修正、均等置換及び改良などは、いずれも本開示の保護範囲内に含まれるべきである。

Claims (22)

  1. 自動運転車両に対するデータ処理方法であって、
    慣性測定データ、レーザーライダーデータ及び視覚画像データを含む、前記自動運転車両に対するセンサデータを取得すること、
    前記慣性測定データ及び前記視覚画像データに基づいて、前記慣性測定データに対する第一拘束ファクターを決定すること、
    前記慣性測定データ及び前記レーザーライダーデータに基づいて、前記レーザーライダーデータに対する第二拘束ファクターを決定すること、
    前記慣性測定データ、前記視覚画像データ及び前記レーザーライダーデータに基づいて、前記視覚画像データに対する第三拘束ファクターを決定すること、及び
    前記第一拘束ファクター、前記第二拘束ファクター及び前記第三拘束ファクターに基づいて、前記センサデータを処理して、前記自動運転車両を測位するための測位データを取得すること、を含む、
    自動運転車両に対するデータ処理方法。
  2. 請求項1に記載の自動運転車両に対するデータ処理方法であって、
    前記レーザーライダーデータは複数フレームのレーザー点群データを含み、
    記慣性測定データ及び前記レーザーライダーデータに基づいて、前記レーザーライダーデータに対する第二拘束ファクターを決定することは、
    前記慣性測定データ、前記複数フレームのレーザ点群データにおける第一フレームのレーザ点群データ及び第二フレームのレーザ点群データに基づいて、第一フレームのレーザ点群データと第二フレームのレーザ点群データとの間の初期相対位置姿勢を決定すること、
    前記第一フレームのレーザ点群データの第一投影データ及び前記第二フレームのレーザ点群データの第二投影データをそれぞれ決定すること、
    前記第一投影データ及び前記第二投影データに基づいて、前記初期相対位置姿勢を調整し、点群フレーム間の相対位置姿勢を取得すること、及び
    前記点群フレーム間の相対位置姿勢に基づいて、前記第二拘束ファクターを決定すること、を含む、
    自動運転車両に対するデータ処理方法。
  3. 請求項2に記載の自動運転車両に対するデータ処理方法であって、
    前記第一投影データ及び前記第二投影データはいずれもN(Nは1より大きい整数である)個のボクセルを含み、、
    記第一投影データ及び前記第二投影データに基づいて、前記初期相対位置姿勢を調整し、点群フレーム間の相対位置姿勢を取得することは、
    N個のボクセルにおける各体画素と前記初期相対位置姿勢に基づいて、N回の反復操作を実行し、第N相対位置姿勢を得て、前記点群フレーム間の相対位置姿勢とすることを含む、
    自動運転車両に対するデータ処理方法。
  4. 請求項3に記載の自動運転車両に対するデータ処理方法であって、
    前記第一投影データは第一投影画像及び第一法線ベクトルを含み、
    前記第二投影データは第二投影画像及び第二法線ベクトルを含み、
    記第一投影データ及び前記第二投影データに基づいて、前記初期相対位置姿勢を調整し、点群フレーム間の相対位置姿勢を取得することについて、
    前記N回の反復におけるi回目の反復は、
    i(iが1以上N以下である)に基づいて距離閾値及び角度閾値を決定すること、
    第一投影画像における第i第一画素と第二投影画像における第i第二画素との間の距離が前記距離閾値以下であり、かつ第i画素の対応する第一法線ベクトルと対応する第二法線ベクトルとの間の角度が前記角度閾値以下であると決定した場合、第i-1回の反復により得られた第i-1相対位置姿勢、第i第一画素、第i第二画素、第i画素の対応する第一法線ベクトル及び第i画素の対応する第二法線ベクトルを用いて、第i相対姿勢を決定することを含む、
    自動運転車両に対するデータ処理方法。
  5. 請求項1に記載の自動運転車両に対するデータ処理方法であって、
    記慣性測定データ、前記視覚画像データ及び前記レーザーライダーデータに基づいて、前記視覚画像データに対する第三拘束ファクターを決定することは、
    前記視覚画像データ及び前記レーザーライダーデータに基づいて、前記視覚画像データの深度情報を決定すること、
    前記視覚画像データ及び前記慣性測定データに基づいて、前記視覚画像データと前記慣性測定データとの間のマッピング関係を決定すること、及び
    前記深度情報と前記マッピング関係に基づいて、前記第三拘束ファクターを決定すること、を含む、
    自動運転車両に対するデータ処理方法。
  6. 請求項5に記載の自動運転車両に対するデータ処理方法であって、
    記視覚画像データ及び前記レーザーライダーデータに基づいて、前記視覚画像データの深度情報を決定することは、
    視覚画像データの視覚画像収集時刻の隣接するレーダデータに対するレーダデータ収集時刻の初期慣性測定相対位置姿勢を決定すること、
    視覚画像収集時刻、レーダデータ収集時刻及び初期慣性測定相対位置姿勢に基づいて、前記レーザーライダーデータから視覚画像データ平面までの第一投影位置を決定すること、
    前記第一投影位置に基づいて画像投影時刻及び更新された慣性測定相対位置姿勢を決定すること、及び
    前記更新された慣性測定相対位置姿勢に基づいて視覚画像データの深度情報を決定すること、を含む、
    自動運転車両に対するデータ処理方法。
  7. 請求項6に記載の自動運転車両に対するデータ処理方法であって、
    記第一投影位置に基づいて画像投影時刻及び更新された慣性測定相対位置を決定することは、
    視覚画像収集時刻の画像投影時刻に対する第一慣性測定相対位置姿勢を決定すること、
    画像投影時刻のレーザデータ収集時刻に対する第二慣性測定相対位置姿勢を決定すること、及び
    前記第一慣性測定相対位置姿勢及び前記第二慣性測定相対位置姿勢を利用して前記初期慣性測定相対位置姿勢を補間し、前記更新された慣性測定相対位置姿勢を取得することを含む、
    自動運転車両に対するデータ処理方法。
  8. 請求項1乃至7のいずれか一項に記載の自動運転車両に対するデータ処理方法であって、
    記第一拘束ファクター、前記第二拘束ファクター及び前記第三拘束ファクターに基づいて、前記センサデータを処理し、前記自動運転車両を測位するための測位データを取得することは、
    以下の式を満たすXを前記測位データとすることを含み、
    Figure 0007369847000026
    自動運転車両に対するデータ処理方法。
  9. 請求項1乃至7のいずれか一項に記載の自動運転車両に対するデータ処理方法であって、
    前記慣性測定データは慣性センサーにより収集されるものであり、
    前記レーザーライダーデータ及び前記第一拘束ファクターに基づいて、前記慣性センサーの速度及び加速度を初期化することを、さらに含む、
    自動運転車両に対するデータ処理方法。
  10. 自動運転車両に対するデータ処理装置であって、
    慣性測定データ、レーザーライダーデータ及び視覚画像データを含む、前記自動運転車両に対するセンサデータを取得するための取得モジュールと、
    前記慣性測定データ及び前記視覚画像データに基づいて、前記慣性測定データに対する第一拘束ファクターを決定するための第一決定モジュールと、
    前記慣性測定データ及び前記レーザーライダーデータに基づいて、前記レーザーライダーデータに対する第二拘束ファクターを決定するための第二決定モジュールと、
    前記慣性測定データ、前記視覚画像データ及び前記レーザーライダーデータに基づいて、前記視覚画像データに対する第三拘束ファクターを決定するための第三決定モジュールと、
    前記第一拘束ファクター、前記第二拘束ファクター及び前記第三拘束ファクターに基づいて、前記センサデータを処理し、前記自動運転車両を測位するための測位データを取得するための処理モジュールと、を含む、
    自動運転車両に対するデータ処理装置。
  11. 請求項10に記載の自動運転車両に対するデータ処理装置であって、
    前記レーザーライダーデータは複数フレームのレーザ点群データを含み、
    前記第二決定モジュールは、
    前記慣性測定データ、前記複数フレームのレーザ点群データにおける第一フレームのレーザ点群データ及び第二フレームのレーザ点群データに基づいて、第一フレームのレーザ点群データと第二フレームのレーザ点群データとの間の初期相対位置姿勢を決定するための第一決定サブモジュールと、
    前記第一フレームのレーザ点群データの第一投影データと前記第二フレームのレーザ点群データの第二投影データをそれぞれ決定するための第二決定サブモジュールと、
    前記第一投影データ及び前記第二投影データに基づいて、前記初期相対位置姿勢を調整し、点群フレーム間の相対位置姿勢を取得するための調整サブモジュールと、
    前記点群フレーム間の相対位置姿勢に基づいて、前記第二拘束ファクターを決定するための第三決定サブモジュールと、を含む、
    自動運転車両に対するデータ処理装置。
  12. 請求項11に記載の自動運転車両に対するデータ処理装置であって、
    前記第一投影データ及び前記第二投影データはいずれもN(Nは1より大きい整数である)個のボクセルを含み、
    前記調整サブモジュールは、
    N個のボクセルにおける各体画素と前記初期相対位置姿勢に基づいて、N回の反復操作を実行し、第N相対位置姿勢を得て、前記点群フレーム間の相対位置姿勢とするために用いられる、
    自動運転車両に対するデータ処理装置。
  13. 請求項12に記載の自動運転車両に対するデータ処理装置であって、
    前記第一投影データは第一投影画像及び第一法線ベクトルを含み、
    前記第二投影データは第二投影画像及び第二法線ベクトルを含み、
    前記調整サブモジュールについて、
    前記N回の反復におけるi回目の反復は、
    i(iが1以上N以下である)に基づいて距離閾値及び角度閾値を決定すること、
    第一投影画像における第i第一画素と第二投影画像における第i第二画素との間の距離が前記距離閾値以下であり、かつ第i画素の対応する第一法線ベクトルと対応する第二法線ベクトルとの間の角度が前記角度閾値以下であると決定した場合、第i-1回の反復により得られた第i-1相対位置姿勢、第i第一画素、第i第二画素、第i画素の対応する第一法線ベクトル及び第i画素の対応する第二法線ベクトルを用いて、第i相対姿勢を決定すること、を含む、
    自動運転車両に対するデータ処理装置。
  14. 請求項10に記載の自動運転車両に対するデータ処理装置であって、
    前記第三決定モジュールは、
    前記視覚画像データ及び前記レーザーライダーデータに基づいて、前記視覚画像データの深度情報を決定するための第四決定サブモジュールと、
    前記視覚画像データ及び前記慣性測定データに基づいて、前記視覚画像データと前記慣性測定データとの間のマッピング関係を決定するための第五決定サブモジュールと、
    前記深度情報と前記マッピング関係に基づいて、前記第三拘束ファクターを決定するための第六決定サブモジュールと、を含む、
    自動運転車両に対するデータ処理装置。
  15. 請求項14に記載の自動運転車両に対するデータ処理装置であって、
    前記第四決定サブモジュールは、
    視覚画像データの視覚画像収集時刻の隣接するレーダデータに対するレーダデータ収集時刻の初期慣性測定相対位置姿勢を決定するための第一決定手段と、
    視覚画像収集時刻、レーダデータ収集時刻及び初期慣性測定相対位置姿勢に基づいて、前記レーザーライダーデータから視覚画像データ平面までの第一投影位置を決定するための第二決定手段と、
    前記第一投影位置に基づいて画像投影時刻及び更新された慣性測定相対位置姿勢を決定するための第三決定手段と、
    前記更新された慣性測定相対位置姿勢に基づいて視覚画像データの深度情報を決定するための第四決定手段と、を含む、
    自動運転車両に対するデータ処理装置。
  16. 請求項15に記載の自動運転車両に対するデータ処理装置であって、
    前記第三手段は、
    視覚画像収集時刻の画像投影時刻に対する第一慣性測定相対位置姿勢を決定するための第一決定サブ手段と、
    画像投影時刻のレーザデータ収集時刻に対する第二慣性測定相対位置姿勢を決定するための第二決定サブ手段と、
    前記第一慣性測定相対位置姿勢及び前記第二慣性測定相対位置姿勢を利用して前記初期慣性測定相対位置姿勢を補間し、前記更新された慣性測定相対位置姿勢を取得するための補間サブ手段とを、含む、
    自動運転車両に対するデータ処理装置。
  17. 請求項10乃至16のいずれか一項に記載の自動運転車両に対するデータ処理装置であって、
    前記処理モジュールは、以下の式を満たすXを前記測位データとするために用いられ、
    Figure 0007369847000027
    自動運転車両に対するデータ処理装置。
  18. 請求項10乃至16のいずれか一項に記載の自動運転車両に対するデータ処理装置であって、
    前記慣性測定データは慣性センサーにより収集されるものであり、
    前記レーザーライダーデータ及び前記第一拘束ファクターに基づいて、前記慣性センサーの速度及び加速度を初期化するための初期化モジュールをさらに含む、
    自動運転車両に対するデータ処理装置。
  19. 少なくとも1つのプロセッサ、及び
    前記少なくとも1つのプロセッサと通信可能に接続されたメモリを含み、
    前記メモリは、前記少なくとも1つのプロセッサにより実行可能な指令を格納し、前記指令は、前記少なくとも1つのプロセッサが請求項1乃至7のいずれか一項に記載の自動運転車両に対するデータ処理方法を実施可能となるよう、前記少なくとも1つのプロセッサにより実行される、
    電子機器。
  20. コンピュータ指令を格納する非一時性コンピュータが読み取り可能な記録媒体であって、
    前記コンピュータ指令は、前記コンピュータに請求項1乃至7のいずれか一項に記載の自動運転車両に対するデータ処理方法を実行させるためのものである、
    記録媒体。
  21. プロセッサにより実行される場合、請求項1乃至7のいずれか一項に記載の自動運転車両に対するデータ処理方法を実行する、
    コンピュータプログラム。
  22. 自動運転車両であって、
    請求項19に記載の電子機器を含む、
    自動運転車両。
JP2022173997A 2021-11-02 2022-10-31 自動運転車両に対するデータ処理方法及び装置、電子機器、記憶媒体、コンピュータプログラム、ならびに自動運転車両 Active JP7369847B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111291238.0 2021-11-02
CN202111291238.0A CN114013449B (zh) 2021-11-02 2021-11-02 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆

Publications (2)

Publication Number Publication Date
JP2023021994A JP2023021994A (ja) 2023-02-14
JP7369847B2 true JP7369847B2 (ja) 2023-10-26

Family

ID=80059937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022173997A Active JP7369847B2 (ja) 2021-11-02 2022-10-31 自動運転車両に対するデータ処理方法及び装置、電子機器、記憶媒体、コンピュータプログラム、ならびに自動運転車両

Country Status (5)

Country Link
US (1) US20230118945A1 (ja)
EP (1) EP4160271B1 (ja)
JP (1) JP7369847B2 (ja)
KR (1) KR20220153535A (ja)
CN (1) CN114013449B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114706805B (zh) * 2022-03-31 2024-03-15 重庆长安汽车股份有限公司 一种根据目标序号对传感融合信息进行排序的方法、电子设备及计算机可读存储介质
CN114429432B (zh) * 2022-04-07 2022-06-21 科大天工智能装备技术(天津)有限公司 一种多源信息分层融合方法、装置及存储介质
CN115113627A (zh) * 2022-07-27 2022-09-27 深圳市普渡科技有限公司 机器人、路径规划方法和计算机可读存储介质
CN116989763B (zh) * 2023-05-10 2024-07-19 广东工业大学 一种面向水陆两用无人***的融合定位与建图方法
CN117237902B (zh) * 2023-11-15 2024-01-26 山东飞宏工程机械有限公司 基于深度学习的机器人物体识别***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015518566A (ja) 2012-04-17 2015-07-02 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション 3次元走査ビームおよび撮像システム
US20210094550A1 (en) 2019-09-30 2021-04-01 Baidu Usa Llc Obstacle perception calibration system for autonomous driving vehicles
CN112598757A (zh) 2021-03-03 2021-04-02 之江实验室 一种多传感器时间空间标定方法及装置
JP2021162366A (ja) 2020-03-30 2021-10-11 株式会社豊田中央研究所 センサ遅延時間推定装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109341706B (zh) * 2018-10-17 2020-07-03 张亮 一种面向无人驾驶汽车的多特征融合地图的制作方法
CN110009739B (zh) * 2019-01-29 2023-03-24 浙江省北大信息技术高等研究院 移动摄像机的数字视网膜的运动特征的提取与编码方法
CN110906923B (zh) * 2019-11-28 2023-03-14 重庆长安汽车股份有限公司 车载多传感器紧耦合融合定位方法、***、存储介质及车辆
CN111595333B (zh) * 2020-04-26 2023-07-28 武汉理工大学 视觉惯性激光数据融合的模块化无人车定位方法及***
CN112304307A (zh) * 2020-09-15 2021-02-02 浙江大华技术股份有限公司 一种基于多传感器融合的定位方法、装置和存储介质
CN112985394B (zh) * 2021-05-12 2021-08-06 腾讯科技(深圳)有限公司 定位方法和装置、存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015518566A (ja) 2012-04-17 2015-07-02 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション 3次元走査ビームおよび撮像システム
US20210094550A1 (en) 2019-09-30 2021-04-01 Baidu Usa Llc Obstacle perception calibration system for autonomous driving vehicles
JP2021162366A (ja) 2020-03-30 2021-10-11 株式会社豊田中央研究所 センサ遅延時間推定装置
CN112598757A (zh) 2021-03-03 2021-04-02 之江实验室 一种多传感器时间空间标定方法及装置

Also Published As

Publication number Publication date
EP4160271A1 (en) 2023-04-05
CN114013449B (zh) 2023-11-03
JP2023021994A (ja) 2023-02-14
CN114013449A (zh) 2022-02-08
EP4160271B1 (en) 2024-05-01
US20230118945A1 (en) 2023-04-20
KR20220153535A (ko) 2022-11-18

Similar Documents

Publication Publication Date Title
JP7369847B2 (ja) 自動運転車両に対するデータ処理方法及び装置、電子機器、記憶媒体、コンピュータプログラム、ならびに自動運転車両
US11668571B2 (en) Simultaneous localization and mapping (SLAM) using dual event cameras
US9709404B2 (en) Iterative Kalman Smoother for robust 3D localization for vision-aided inertial navigation
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
CN114018274B (zh) 车辆定位方法、装置及电子设备
US20190301871A1 (en) Direct Sparse Visual-Inertial Odometry Using Dynamic Marginalization
CN114323033B (zh) 基于车道线和特征点的定位方法、设备及自动驾驶车辆
DuToit et al. Consistent map-based 3D localization on mobile devices
Xu et al. Direct visual-inertial odometry with semi-dense mapping
CN113610702B (zh) 一种建图方法、装置、电子设备及存储介质
CN112991400B (zh) 一种无人艇的多传感器辅助定位方法
JP2024012160A (ja) 目標状態推定方法、装置、電子機器及び媒体
CN115900697B (zh) 对象运动轨迹信息处理方法、电子设备以及自动驾驶车辆
CN117029802A (zh) 一种基于深度学习的多模态slam方法
Presnov et al. Robust range camera pose estimation for mobile online scene reconstruction
CN113946151A (zh) 针对自动驾驶车辆的数据处理方法、装置和自动驾驶车辆
CN117058430B (zh) 用于视场匹配的方法、装置、电子设备和存储介质
CN116448105B (zh) 位姿更新方法、装置、电子设备和存储介质
CN116152301B (zh) 一种目标的速度估计方法、装置、设备及介质
WO2022172831A1 (ja) 情報処理装置
US10636205B2 (en) Systems and methods for outlier edge rejection
CN115342829A (zh) 基于迭代扩展卡尔曼滤波器的里程计算方法及装置
Wang Sensor Fusion in Autonomous Navigation Using Fast SLAM 3.0–An Improved SLAM Method
CN117405105A (zh) 一种基于视觉惯性融合技术的无人机自主定位方法及***
CN116704022A (zh) 基于结构线段的vio***的位姿估计方法、装置及介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R150 Certificate of patent or registration of utility model

Ref document number: 7369847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150