CN108327724B - 通过无监督学习的对象跟踪 - Google Patents
通过无监督学习的对象跟踪 Download PDFInfo
- Publication number
- CN108327724B CN108327724B CN201810024904.6A CN201810024904A CN108327724B CN 108327724 B CN108327724 B CN 108327724B CN 201810024904 A CN201810024904 A CN 201810024904A CN 108327724 B CN108327724 B CN 108327724B
- Authority
- CN
- China
- Prior art keywords
- data points
- vehicle
- joint
- probability
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 45
- 238000009826 distribution Methods 0.000 claims description 22
- 238000005309 stochastic process Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
- B60W2050/0031—Mathematical model of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/09—Other types of propulsion units, e.g. fluid motors, or type not specified
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/18—Braking system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/20—Steering systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Optimization (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Optics & Photonics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
Abstract
车辆中的计算设备可以通过基于第一3D数据点的联合概率确定以对象为中心的第一矩形边界来确定对象,然后通过基于由第一矩形边界决定第二3D数据点的联合贝叶斯概率确定以对象为中心的第二矩形边界来确定对象,以及基于确定的对象驾驶车辆。
Description
技术领域
本公开总体涉及车辆驾驶***,并且更具体地,涉及通过无监督学习的对象跟踪。
背景技术
车辆可以配备在自主和乘员驾驶模式下操作。车辆可以配备计算设备、网络、传感器和控制器以驾驶车辆并协助乘员驾驶车辆。计算设备可以经由传感器监测车辆的真实世界环境,以帮助计算设备驾驶车辆。
发明内容
根据本发明,提供一种方法,包括:
通过基于联合概率确定以对象为中心的第一矩形边界,来基于多个第一3D数据点确定所述对象;
通过基于所述第一矩形边界和联合概率确定以所述对象为中心的第二矩形边界,来确定多个第二3D数据点中的所述对象;以及
基于所述对象驾驶车辆。
根据本发明的一个实施例,其中所述3D数据点由激光雷达确定。
根据本发明的一个实施例,其中确定所述对象包括确定所述第一矩形边界和所述第二矩形边界的位置、姿势和尺寸。
根据本发明的一个实施例,其中确定所述对象包括将所述第一3D数据点与先前获取的3D数据点进行比较以确定对象数据点和背景数据点。
根据本发明的一个实施例,其中所述第一矩形边界和所述第二矩形边界是通过使所述对象数据点相对于所述背景数据点的联合概率最大化来确定的。
根据本发明的一个实施例,其中最大化所述联合概率确定以所述对象数据点为中心的3×3网格,其中所述3×3网格的中心网格包括一个或多个对象数据点并且不包括背景数据点。
根据本发明的一个实施例,其中所述第一矩形边界被定义为所述3×3网格的中心网格,并且被用作基于所述联合概率确定所述第二矩形边界的起始点。
根据本发明的一个实施例,其中所述联合概率是贝叶斯概率,其中对象数据点属于所述对象的概率由所述对象数据点在先前时间步长属于所述对象的概率来决定。
根据本发明的一个实施例,其中所述联合概率是通过使所述联合概率的自然对数最大化来确定的。
根据本发明的一个实施例,其中通过确定每个所述联合概率的自然对数的梯度来使所述联合概率最大化。
根据本发明,提供一种装置,包括:
处理器;
存储器,所述存储器存储可由所述处理器执行以进行以下操作的指令:
通过基于联合概率确定以对象为中心的第一矩形边界,来基于多个第一3D数据点确定所述对象;
通过基于所述第一矩形边界和联合概率确定以所述对象为中心的第二矩形边界,来确定多个第二3D数据点中的所述对象;以及
基于所述对象驾驶车辆。
根据本发明的一个实施例,其中所述3D数据点由激光雷达确定。
根据本发明的一个实施例,其中确定所述对象包括确定第一矩形边界和第二矩形边界的位置、姿势和尺寸。
根据本发明的一个实施例,其中确定对象包括将第一3D数据点与先前获取的3D数据点进行比较以确定对象数据点和背景数据点。
根据本发明的一个实施例,其中通过最大化对象数据点相对于背景数据点的联合概率来确定第一矩形边界和第二矩形边界。
根据本发明的一个实施例,其中最大化联合概率确定以对象数据点为中心的3×3网格,其中所述3×3网格的中心网格包括一个或多个对象数据点并且不包括背景数据点。
根据本发明的一个实施例,其中第一矩形边界被定义为3×3网格的中心网格,并被用作基于联合概率确定第二矩形边界的起始点。
根据本发明的一个实施例,其中联合概率是贝叶斯概率,其中对象数据点属于对象的概率由对象数据点在先前时间步长属于对象的概率来决定。
根据本发明的一个实施例,其中联合概率是通过最大化联合概率的自然对数来确定。
根据本发明的一个实施例,其中通过确定联合概率中的每一个的自然对数的梯度来最大化联合概率。
附图说明
图1是示例车辆的框图;
图2是激光雷达传感器和3D数据点的图;
图3是激光雷达传感器和3D数据点的图;
图4是激光雷达传感器和3D数据点的图;
图5是激光雷达传感器和3D数据点的图;
图6是用于驾驶车辆的示例过程的流程图;
图7是用于驾驶车辆的示例过程的流程图;
图8是封闭矩形的图。
具体实施方式
车辆可以配备为在自主和乘员驾驶模式下操作。通过半自主或完全自主的模式,我们是指其中车辆可以由作为具有传感器和控制器的车辆信息***的一部分的计算设备来驾驶的操作模式。车辆可以被占用或不被占用,但是在任何情况下都可以在没有乘员帮助的情况下驾驶车辆。为了本公开的目的,自主模式被定义为其中车辆推进(例如经由包括内燃机和/或电动马达的动力传动***)、制动和转向中的每一个由一个或多个车辆计算机控制的模式;在半自主模式下,车辆计算机(一个或多个)控制车辆推进、制动和转向中的一个或两个。
车辆可以配备有计算设备、网络、传感器和控制器来驾驶车辆并且确定包括道路等特征的周围现实世界的地图。可以驾驶车辆,并且可以基于在周围现实世界中定位和识别道路标志来确定地图。通过驾驶我们指的是指挥车辆的移动,以便沿着道路或路径的其他部分移动车辆。
图1是车辆信息***100的示意图,根据公开的实施方式,该车辆信息***100包括可以在自主(“自主”本身在本公开内容中意指“完全自主”的)和乘员驾驶(也被称为非自主)模式下操作的车辆110。车辆110还包括一个或多个计算设备115,其用于在自主操作期间执行用于驾驶车辆110的计算。计算设备115可以从传感器116接收关于车辆操作的信息。
计算设备115包括处理器和诸如已知的存储器。此外,存储器包括一种或多种形式的计算机可读介质,并且存储由处理器执行的用于执行各种操作的指令,包括如本文所公开的。例如,计算设备115可以包括用于操作车辆制动器、推进器(例如通过控制内燃机、电动马达、混合发动机等中的一个或多个来控制车辆110中的加速度)、转向装置、气候控制装置、内部和/或外部灯等中的一个或多个的程序设计,以及确定是否以及何时由计算设备115而非人类操作者来控制这样的操作的程序设计。
计算设备115可以包括多于一个计算设备或诸如经由下面进一步描述的车辆通信总线通信地连接到多于一个计算设备,例如包括在车辆110中的用于监控和/或控制的各种车辆部件的控制器等,诸如动力传动***控制器112、制动控制器113、转向控制器114等。计算设备115通常被布置用于在诸如车辆110中的总线的车辆通信网络(诸如控制器局域网(CAN)等)上进行通信;车辆110网络可以包括诸如已知的有线或无线通信机制,例如以太网或其他通信协议。
经由车辆网络,计算设备115可以向车辆中的各种设备发送消息和/或从各种设备接收消息,各种设备例如为包括传感器116的控制器、驱动器、传感器等。或者或另外,在计算设备115实际上包括多个设备的情况下,车辆通信网络可以用于在本公开中表示为计算设备115的设备之间的通信。此外,如下所述,各种控制器或感测元件可以经由车辆通信网络向计算设备115提供数据。
另外,计算设备115可以被配置为经由网络130与远程服务器计算机120(例如云服务器)通过车对基础设施(V-I)接口111进行通信,如下所述,网络130可以利用各种有线和/或无线联网技术,例如蜂窝、和有线和/或无线分组网络。计算设备115还包括诸如已知的非易失性存储器。计算设备115可以通过将信息存储在非易失性存储器中来记录信息,以供稍后检索和经由车辆通信网络和V-I接口111发送到服务器计算机120或用户移动设备160。
如已经提到的,通常包括在存储在存储器的指令中并且由计算设备115的处理器执行的是用于在没有人类操作者的干预的情况下操作一个或多个车辆110部件(例如制动器、转向装置、推进器等)的程序设计。使用在计算设备115中接收的数据,例如来自传感器116、服务器计算机120等的传感器数据,计算设备115可以进行各种确定和/或控制各种车辆110部件和/或操作,而无需驾驶员来操作车辆110。例如,计算设备115可以包括用于调节车辆110的例如速度、加速度、减速度、转向等操作行为以及诸如车辆之间的距离和/或车辆之间的时间量、车辆之间的车道变换最小间隙、左转穿过路径最小值(left-turn-across-path minimum)、到达特定位置的时间和穿过十字路口的十字路口(无信号)最短抵达时间的战术行为的程序设计。
这里使用的术语“控制器”包括通常被编程为控制特定车辆子***的计算设备。示例包括动力传动***控制器112、制动控制器113和转向控制器114。控制器可以是诸如已知的电子控制单元(ECU),可能包括如本文所述的附加程序设计。控制器可以通信地连接到计算设备115并且接收来自计算设备115的指令,以根据该指令来驱动子***。例如,制动控制器113可以从计算设备115接收指令以操作车辆110的制动器。
用于车辆110的一个或多个控制器112、113、114可以包括已知的电子控制单元(ECU)等,其包括作为非限制性示例的一个或多个动力传动***控制器112、一个或多个制动控制器113和一个或多个转向控制器114。控制器112、113、114中的每一个可以包括相应的处理器和存储器以及一个或多个驱动器。控制器112、113、114可以被编程并连接到诸如控制器局域网(CAN)总线或局部互连网络(LIN)总线的车辆110通信总线,以从计算机115接收指令并基于该指令控制驱动器。
传感器116可以包括已知经由车辆通信总线提供数据的各种设备。例如,固定到车辆110的前保险杠(未示出)的雷达可以提供从车辆110到车辆110前方的下一个车辆的距离,或者设置在车辆110中的全球定位***(GPS)传感器可以提供车辆110的地理坐标。由雷达提供的距离或由GPS传感器提供的地理坐标可以被计算设备115使用以自主地或半自主地操作车辆110。
车辆110通常是具有三个或更多个车轮的陆上自主车辆110,例如乘用车、轻型卡车等。车辆110包括一个或多个传感器116、V-I接口111、计算设备115和一个或多个控制器112、113、114。
传感器116可以被编程为收集与车辆110以及车辆110正在操作所处的环境相关的数据。作为示例而非限制,传感器116可以包括例如高度计、摄像机、激光雷达、雷达、超声波传感器、红外传感器、压力传感器、加速计、陀螺仪、温度传感器、压力传感器、霍尔传感器、光学传感器、电压传感器、电流传感器、诸如开关的机械传感器等。传感器116可用于感测车辆110正在操作所处的环境,例如天气条件、道路坡度、道路或邻近车辆110的位置。传感器116还可以用于收集与车辆110的操作相关的动态车辆110数据,例如速度、横摆率、转向角、发动机转速、制动压力、油压、施加到车辆110中的控制器112、113、114的功率电平、部件之间的连接性以及车辆110的电气和逻辑健康性。
图2是交通场景200的图,其中具有激光雷达传感器202的车辆110中的计算设备115引导激光雷达传感器202来获取3D数据点204、206。3D数据点204、206分为两组;背景3D数据点204(实心圆)和对象3D数据点206(空心圆)。可以使用众所周知的机器视觉技术将3D数据点204、206自动标记为背景3D数据点204或对象3D数据点206。例如,可以获取表示静态或静止背景的3D数据点的先前地图。在该时间之后获得的匹配静态背景的任何3D数据点204、206可以被标记为“背景”3D数据点204,并且与静态背景不匹配的任何3D数据点被标记为“对象”3D数据点206。
在交通场景200中,计算设备115已经基于对象3D数据点206确定了第一估计的封闭矩形208(灰色虚线)。可以如图8所示地定义封闭矩形800。图8是相对于XY坐标轴802由两组平行线804、806、808、810的交点限定的封闭矩形800的图。例如,XY坐标轴802可以被限定在与道路的可驾驶表面平行的平面中。例如,XY坐标轴802可以被定义为与地理方向对齐指向,其中一个轴指向北。在另一种情况下,例如,可以将XY坐标轴802定义为与车辆110的姿势对齐指向,其中一个轴指向车辆110的行驶方向。在任一情况下,封闭矩形800可以由正交的平行线对804、806、808、810的位置、尺寸和姿势来限定。
封闭矩形800的位置可以被定义为顶点814的XY坐标(x1,y1),例如相对于XY坐标轴802的原点820的XY坐标(x0,y0)定义的。原点820可以与车辆110上的预定位置(例如质心)相关联,并且因此当车辆110在道路上移动时,原点820将在XY平面中平移。封闭矩形800的尺寸和姿势可以基于顶点812、814的XY坐标(x1,y1),(x2,y2)确定,例如长度(图8中的L)和宽度(图8中的W)的尺寸可以被确定为:
W=x2-x1 (1)
L=y2-y1 (2)
以及定义为相对于XY坐标轴802的角度(图8中的Θ)的姿势被定义为:
返回到图2,计算设备115基于由激光雷达传感器202获取的真实但是对于计算设备115未知的对象封闭矩形210(左对角阴影线)的对象3D数据点206,通过使用通过首先选择第一封闭矩形208的起始姿势来确定第一封闭矩形208的参数的基于规则的方法,来估计封闭矩形208(灰色虚线)。例如,起始姿势可以使第一封闭矩形208的边分别平行于XY坐标轴802。然后,例如,计算设备115迭代地将正交的平行线对调整到封闭最大数量的对象3D数据点206同时不封闭背景3D数据点204所需的最小尺寸。
起始姿势可以用来自第一激光雷达扫描的启发式框尺寸(heuristic box size)来初始化,或者可以通过如下面题为“边界框估计”的部分所述的为先前的封闭矩形分配模型参数的“漫射”或均匀分布来确定边界框,从而初始化起始姿势。以这种方式,边界框估计算法可以被告知我们没有关于边界框的任何信息,但是允许边界框估计算法从通过第一激光雷达扫描获得的3D数据点中找到最佳的条件拟合。
计算设备115已知的关于在通过第一激光雷达扫描获取3D数据点时的边界框尺寸的先前信息可用于调整边界框估计。例如,已知行车道上的对象很少超过车道宽度并且可以与车道对齐。关于模型参数的初始先验分布的信息可被编码到第一边界框估计算法迭代中。
图3是在包括激光雷达传感器202的车辆110已经移动的新时间步长发生的交通场景300的图。激光雷达传感器202已经为计算设备115提供了新的背景3D数据点304(实心六边形)和对象3D数据点306(空心六边形)的样本。计算设备115已经在新的时间步长中基于对象3D数据点306和第一估计的封闭矩形208通过联合贝叶斯推断形成了真实但未知的对象封闭矩形210(左对角阴影线)的第二估计的封闭矩形308(虚线),第一估计的封闭矩形208如在下文的标题为“边界框估计”的部分中所讨论的。
标题为“边界框估计”的下面部分是对使用贝叶斯推断执行边界框估计所需的计算的推导,其通过由随机变量Z 1:k的向量表示的当前和先前观察通过以下公式决定概率分布p来实现,Z 1:k表示与封闭框相关联的参数:
也如下面的方程(7)所示,其中p(Z k|B,C k,Θk,Z 1:k-1)表示在时间步长k处的测量似然,p(B|Z 1:k-1)表示先前时间步长的框尺寸以及
表示随机过程模型,该模型在时间步骤k和k-1处,根据与先前时间步长的封闭框相关联的框参数,对3D数据点B(位置)以及封闭框参数C k,Θk(尺寸和姿势)的联合贝叶斯概率进行建模。这些因子通过除以p(Z k)(在时间步长k的封闭框数据的边际概率)来归一化。附录A通过计算对数似然函数的梯度并由此使测量似然最大化来显示以联合贝叶斯概率分布的形式的p(Z k|B,C k,Θk,Z 1:k-1)(测量似然)的解。
基于对象3D数据点306和第一估计的封闭矩形208,最大化联合贝叶斯概率分布确定第二估计的封闭矩形308。注意,当来自交通场景300的3D数据点304、306与第一估计的封闭矩形208组合时,第二估计的封闭矩形308表示对真实但对计算设备115未知的对象封闭矩形210的改进的估计。还要注意,在这种情况下,第二估计的封闭矩形308的姿势不从第一估计的封闭矩形208的姿势改变。如果第一估计的封闭矩形208的姿势没有恰巧与真实但未知的封闭矩形210的姿势匹配,则不一定如此。在这种情况下,第二估计的封闭矩形308的姿势将比第一估计的封闭矩形208的姿势更接近真实但未知的封闭矩形210的姿势。
图4是在另一新的时间步长发生的交通场景400的图,其中车辆110已经再次移动,车辆包括激光雷达传感器202。激光雷达传感器202已经为计算设备115提供了新的背景3D数据点404(实心圆)和对象3D数据点406(空心圆)的样本。计算设备115已经基于对象3D数据点406和第二估计的封闭矩形308通过在新的时间步长处最大化以上关于图3和标记为“边界框估计”的部分所讨论的联合贝叶斯概率分布形成了真实但未知的对象封闭矩形210(左对角阴影线)的第三估计的封闭矩形408(虚线)。
再次注意,当来自交通场景400的3D数据点404、406与先前估计的封闭矩形308组合时,估计的封闭矩形408表示对真实但未知的对象封闭矩形210的改进的估计。例如,如果第二估计的封闭矩形308的姿势没有恰巧与真实但未知的对象封闭矩形210的姿势的匹配,则第三估计的封闭矩形408的姿势可以比第二估计的封闭矩形308的姿势更接近真实但未知的对象封闭矩形210的姿势。
图5是在另一个新的时间步长发生的包括激光雷达传感器202的车辆110已经再次移动的交通场景500的图。激光雷达传感器202已经为计算设备115提供了新的背景3D数据点504(实心圆)和对象3D数据点506(空心圆)的样本。计算设备115已经基于对象3D数据点406和第三估计的封闭矩形406通过在新的时间步长处最大化以上关于图3和标记为“边界框估计”的部分所讨论的联合贝叶斯概率分布形成了真实但未知的对象封闭矩形210(左对角阴影线)的第四估计的封闭矩形508(灰色虚线)。
再次注意,当来自交通场景500的3D数据点504、506与先前估计的封闭矩形408组合时,第四估计的封闭矩形508再次表示对真实但未知的对象封闭矩形210的改进的估计。如果第三估计的封闭矩形408的姿势没有恰巧与真实但未知的对象封闭矩形210的姿势的匹配,则第四估计的封闭矩形508的姿势可以比第三估计的封闭矩形408的姿势更接近真实但未知的对象封闭矩形210的姿势。
图6是关于图1-5描述的用于基于确定的对象驾驶车辆110(例如如上所述)的过程600的流程图的图。例如,过程600可以由计算设备115的处理器实现,处理器从传感器116获取输入信息,并且执行指令和经由控制器112、113、114发送控制信号。过程600包括以所公开的顺序采取的多个步骤。过程600还包括包含更少步骤的实施方式或者可以包括以不同顺序采取的步骤。
过程600从步骤602开始,其中计算设备115基于多个第一对象3D数据点206确定第一对象。可以使用基于规则的方法,通过确定第一估计的封闭矩形208的参数来确定第一对象,该方法通过首先选择第一封闭矩形208的起始姿势并且然后迭代地将正交线对调整到在不封闭背景3D数据点204的同时封闭最大数目的对象3D数据点206所需的最小尺寸来确定第一封闭矩形208的参数,如以上关于图2所讨论的。计算设备115还可以通过预先确定用于第一次迭代的模型参数来确定起始姿势,如以上关于图2所讨论的。
在步骤604,计算设备115通过基于根据如上关于图3以及标记为“边界框估计”的部分所讨论的多个第二对象3D数据点306和第一估计的封闭矩形208最大化联合贝叶斯概率分布确定第二估计的封闭矩形308的参数,来确定第二对象。
在步骤606处,计算设备115基于在步骤604中确定的第二对象来驾驶车辆110。计算设备可以通过使用共同未决申请XX/XXX,XXX(题为“通过无监督学习的对象跟踪”,并且其具有相同的发明人并被转让给与本申请相同的受让人)中讨论的技术来最大化联合贝叶斯概率分布,来确定激光雷达传感器202的视场中的多个对象,该申请的全部内容通过引用并入本文。计算设备115可以通过预测激光雷达传感器202的视场中的对象的路径然后规划车辆110到达预定位置同时避开对象的路径,来驾驶车辆110。
总之,过程600描述了一个过程,通过该过程:计算设备115可以使用激光雷达传感器202获取第一对象3D数据点206、基于第一对象3D数据点确定第一对象、使用激光雷达传感器202获取第二对象3D数据点306、并且基于第一对象和第二对象3D数据点确定激光雷达传感器202的视场中的第二对象、并且基于所确定的第二对象驾驶车辆110到达预定位置同时避开对象。
图7是关于图1-5描述的用于基于3D数据点和先前估计的封闭矩形(例如如上所述)确定估计的封闭矩形的过程700的流程图的图。例如,过程700可以由计算设备115的处理器实现,处理器从传感器116获取输入信息,并且执行指令和经由控制器112、113、114发送控制信号。过程700包括以所公开的顺序采取的多个步骤。过程700还包括包含更少步骤的实施方式或者可以包括以不同顺序采取的步骤。
过程700在步骤702开始,其中计算设备115将获取的3D数据点与之前获取的3D数据点进行比较,以确定背景3D数据点和对象3D数据点,如以上关于图2所讨论的。在步骤704处,计算设备形成由每个对象的每个对象3D数据点决定的联合贝叶斯概率分布,所述每个对象3D数据点由先前时间步长的结果决定,如上面关于图3和附录A所讨论的。
在步骤706处,计算设备形成3×3网格,其与在先前时间步长处估计的封闭矩形对齐,如标记为“边界框估计”的部分的表1中所示,其中根据概率分类法计算对象3D数据点的联合贝叶斯概率分布,其中估计的封闭矩形内的对象3D数据点在类别1中,并且在估计的封闭矩形外部出现的对象3D数据点在类别2-9中。
例如,在步骤708,通过根据如在标记为“边界框估计”的部分讨论的3×3网格上的概率分类法,最大化由先前估计的矩形边界决定的对象3D数据点的联合贝叶斯概率分布来确定所估计的矩形边界,并且在步骤710中,计算设备115可以将估计的矩形边界输出到例如过程600的过程以驾驶车辆110。过程700在框708之后结束。
总之,过程700是用于将3D数据点与先前获取的点进行比较以确定对象3D数据点、基于对象3D数据点以及根据3×3网格上的先前估计的封闭矩形来形成联合贝叶斯概率分布、以及基于对象3D数据点以及先前估计的封闭矩形估计新的封闭矩形、以及输出新的估计的封闭矩形的过程。
边界框估计
随机变量B、C k和随机变量Θk的矢量的概率分布p可以使用由随机变量Z 1:k的矢量表示的当前和之前观察值来决定概率分布p的贝叶斯推断来通过以下公式估计,随机变量B、C k表示将时间步长k处的3D数据点与封闭框相关联的参数,随机变量Θk表示在时间步长k处与封闭框相关联的参数,以及随机变量Z 1:k表示与封闭框相关联的参数:
其中p(Z k|B,C k,Θk,Z 1:k-1)表示时间步长k处的测量似然,p(B|Z 1:k-1)表示先前时间步长的框尺寸以及
表示随机过程模型,该模型模拟3D数据点B和在时间步长k和k-1处的封闭框参数C k、Θk的联合贝叶斯概率,由框尺寸和来自先前时间步长的与封闭框相关联的参数决定。这些因子通过除以p(Z k)(在时间步长k的封闭框数据的边际概率)来归一化。
关注测量似然,我们首先假设每个数据点是独立的,按照等式:
其中符号||表示“统计独立”,这意味着模型的最大似然可以计算为:
其中算子表示在3D数据点l从1到nZ(3D数据点的数量)的情况下的“贝叶斯概率分布的乘积”。为了简化,省略时间步长标记(k),分别查看每个3D数据点,从分类角度接近每个3D数据点,其中作为边界框正交排列的两组平行线(边界1、边界2和边界3、边界4)形成如表1所示的网格:
表1边界框类别和边界
在局部坐标系中,类别1的边界条件是:
其中:
其中:
以及
其中9×2矩阵的行分别表示从上到下的类别1-9。
使用逻辑/softmax函数可以确定“柔性”边界:
其中:
以及
现在,假设softmax函数精确地标记对象(例如类别1)或没有精确地标记(例如类别2-9)。这促使形成一个“超类”,等于所有大于1的类别的联合。
回到模型最大似然计算并代入得出:
在这一点上,有两个选择来解决最大似然计算:
1.以EKF(扩展卡尔曼滤波)预测为p(C k,Θk|B,Z 1:k-1)。请注意,在这种情况下,C k和Θk的边际后验概率分布不能用于EKF作为观察,因为它是狭隘的。
2.假设C k和Θk的均匀/非信息/扩散先验边际后验概率分布。那么我们可以使用边际后验概率分布作为EKF计算中的观察值。
假设选项2:
将聚类(对象)标记添加到表示法中:
取自然对数:
现在计算梯度。首先,使:
以及
继续推导:
代入:
其中:
然后,经由商法则:
以及经由链式法则:
以及
并且代入fj:
代入对数似然梯度并取消Φl:
其中:
Θ′可以按以下公式计算:
其中:
总之,要被最大化的对数似然函数是:
L=ln[p(B|Z 1:k-1)]+∑l∈INln(Φl)+∑l∈OUTln(1-Φl) (60)
以及它的梯度为:
其中:
以及:
现在,λ是与softmax函数的“锐度”成正比的调谐参数,其中:
Φl=一个点确实来自一个对象的测量概率,
1-Φl=一个点不是源自对象的测量概率,以及
通过找到Hessian(海赛函数),梯度可以被用来最大化对数似然函数:
其中:
现在使用商法则:
代回到(66):
以及
其通过商法则等于:
其中:
其可以代入(71):
并且
其中:
其可以代回到(74):
并且代回到(70):
结果:
诸如这里讨论的那些计算设备通常各自包括可由一个或多个计算设备(诸如上述那些)执行以及用于执行上述过程的框或步骤的指令。例如,上面讨论的过程框可以被实现为计算机可执行指令。
计算机可执行指令可以由计算机程序编译或解释,计算机程序采用多种编程语言和/或技术创建,这些编程语言和/或技术包括但并不限于单独地或组合的JavaTM、C、C++、Visual Basic、Java Script、Perl、HTML等。通常,处理器(例如微处理器)例如从存储器、计算机可读介质等接收指令,并且执行这些指令,由此完成一个或多个程序,包括这里所描述的一个或多个程序。这样的指令或其他数据可以存储在文件中和采用各种计算机可读介质发送。计算设备中的文件通常是存储在诸如存储介质、随机存取存储器等的计算机可读介质上的数据的集合。
计算机可读介质包括任何参与提供数据(例如指令)的介质,该数据可以由计算机(例如计算机处理器)读取。这样的介质可以采用多种形式,包括但不限于非易失性介质和易失性介质等。非易失性介质可以包括例如光盘或磁盘或其他永久性存储器。易失性介质可以包括典型地构成主存储器的动态随机存取存储器(DRAM)。计算机可读介质的常规形式包括,如软盘、柔性盘、硬盘、磁盘、任何其他磁性介质、CD-ROM(只读光盘驱动器)、DVD(数字化视频光盘)、任何其他光学介质、穿孔卡片、纸带、具有孔图案的任何其他物理介质、RAM(随机存取存储器)、PROM(可编程只读存储器)、EPROM(可擦除可编程只读存储器)、FLASHEEPROM(闪速电可擦除可编程只读存储器)、任何其他存储器芯片或盒,或者任何其他计算机可读取的介质。
在权利要求中所使用的所有术语旨在给予其最宽泛的合理的解释以及应被本领域的技术人员理解为其最常用的意思,除非在这里做出了明确的相反的指示。特别地,单数冠词“一”、“该”、“所述”等的使用应该理解为表述一个或多个所示元件,除非做出了与此相反的明确限制。
术语“示例性”在本文中用于表示示例的意义,例如,对“示例性小部件”的指代应该被解读为仅仅指代小部件的示例。
修饰值或结果的副词“近似”意味着形状、结构、测量、值、确定、计算等可能偏离精确描述的几何、距离、测量、值、确定、计算等,因为材料、加工、制造、传感器测量、计算、处理时间、通信时间等方面存在缺陷。
在附图中,相同的附图标记表示相同的元件。而且,这些元件中的一些或全部都可以改变。关于这里所述的介质、过程、***、方法等,应理解的是虽然这样的过程等的步骤描述为按照一定的顺序排列发生,但这样的过程可以采用以这里描述的顺序之外的顺序完成的描述的步骤实施操作。进一步应该理解的是,某些步骤可以同时执行,可以添加其他步骤,或者可以省略这里所述的某些步骤。换言之,这里的程序的描述提供用于说明某些实施例的目的,并且不应该以任何方式解释为限制要求保护的发明。
Claims (14)
2.根据权利要求1所述的方法,其中所述3D数据点由激光雷达确定。
3.根据权利要求1所述的方法,其中确定所述对象包括确定所述第一矩形边界和所述第二矩形边界的位置、姿势和尺寸。
4.根据权利要求1所述的方法,其中确定所述对象包括将所述第一3D数据点与先前获取的3D数据点进行比较以确定对象数据点和背景数据点。
5.根据权利要求4所述的方法,其中所述第一矩形边界和所述第二矩形边界是通过使所述对象数据点相对于所述背景数据点的联合概率最大化来确定的。
6.根据权利要求5所述的方法,其中最大化所述联合概率确定以所述对象数据点为中心的3×3网格,其中所述3×3网格的中心网格包括一个或多个对象点并且不包括背景数据点。
7.根据权利要求6所述的方法,其中所述第一矩形边界被定义为所述3×3网格的中心网格,并且被用作基于所述联合概率确定所述第二矩形边界的起始点。
8.根据权利要求7所述的方法,其中所述联合概率是贝叶斯概率,其中对象数据点属于所述对象的概率由所述对象数据点在先前时间步长中属于所述对象的概率来决定。
9.根据权利要求8所述的方法,其中联合概率最大化是通过使所述联合概率的自然对数最大化来确定的。
10.根据权利要求9所述的方法,其中通过确定每个所述联合概率的自然对数的梯度来使所述联合概率最大化。
11.根据权利要求3所述的方法,其中所述矩形边界是由两点和一个角定义的矩形。
13.一种用于车辆的***,包括被编程为执行权利要求1-12中任一项的方法的计算机。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/408,877 | 2017-01-18 | ||
US15/408,877 US10254758B2 (en) | 2017-01-18 | 2017-01-18 | Object tracking by unsupervised learning |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108327724A CN108327724A (zh) | 2018-07-27 |
CN108327724B true CN108327724B (zh) | 2023-01-13 |
Family
ID=61256256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810024904.6A Active CN108327724B (zh) | 2017-01-18 | 2018-01-11 | 通过无监督学习的对象跟踪 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10254758B2 (zh) |
CN (1) | CN108327724B (zh) |
DE (1) | DE102018100987A1 (zh) |
GB (1) | GB2560619A (zh) |
MX (1) | MX2018000123A (zh) |
RU (1) | RU2717616C2 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018049602A1 (zh) * | 2016-09-14 | 2018-03-22 | 深圳大学 | 一种适用于杂波环境的多目标跟踪方法及跟踪*** |
US10586118B2 (en) * | 2018-01-13 | 2020-03-10 | Toyota Jidosha Kabushiki Kaisha | Localizing traffic situation using multi-vehicle collaboration |
US10916135B2 (en) | 2018-01-13 | 2021-02-09 | Toyota Jidosha Kabushiki Kaisha | Similarity learning and association between observations of multiple connected vehicles |
US10963706B2 (en) | 2018-01-13 | 2021-03-30 | Toyota Jidosha Kabushiki Kaisha | Distributable representation learning for associating observations from multiple vehicles |
US11204605B1 (en) * | 2018-08-03 | 2021-12-21 | GM Global Technology Operations LLC | Autonomous vehicle controlled based upon a LIDAR data segmentation system |
EP3654064B1 (en) * | 2018-11-16 | 2021-01-13 | Bayerische Motoren Werke Aktiengesellschaft | Apparatus and method for characterizing an object based on measurement samples from one or more location sensors |
JP7506876B2 (ja) * | 2018-12-11 | 2024-06-27 | セーフ エーアイ,インコーポレイテッド | 自律車両における運動挙動推定および動的挙動推定のための技術 |
US10891518B1 (en) | 2018-12-14 | 2021-01-12 | Waymo Llc | Auto labeler |
US11420647B2 (en) * | 2020-08-13 | 2022-08-23 | Argo AI, LLC | Enhanced static object classification using lidar |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101872476A (zh) * | 2009-04-24 | 2010-10-27 | 索尼株式会社 | 估计图像中对象姿势视角的方法、设备 |
CN102216957A (zh) * | 2008-10-09 | 2011-10-12 | 埃西斯创新有限公司 | 图像中对象的视觉跟踪以及图像分割 |
CN103064086A (zh) * | 2012-11-04 | 2013-04-24 | 北京工业大学 | 一种基于深度信息的车辆跟踪方法 |
US8736463B1 (en) * | 2012-01-30 | 2014-05-27 | Google Inc. | Object bounding box estimation |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080065328A1 (en) | 2006-09-08 | 2008-03-13 | Andreas Eidehall | Method and system for collision avoidance |
PE20120627A1 (es) | 2006-12-20 | 2012-05-26 | Scanalyse Pty Ltd | Sistema para la medicion del desplazamiento de una superficie relativa a una base de referencia |
US8217938B2 (en) | 2007-05-31 | 2012-07-10 | Ford Global Technologies, Llc | Method and apparatus for determining item orientation |
US20090312985A1 (en) | 2008-06-12 | 2009-12-17 | Eliazar Austin I D | Multiple hypothesis tracking |
US8270732B2 (en) | 2009-08-31 | 2012-09-18 | Behavioral Recognition Systems, Inc. | Clustering nodes in a self-organizing map using an adaptive resonance theory network |
US9317965B2 (en) | 2009-11-16 | 2016-04-19 | Autodesk, Inc. | Uniform point cloud decimation |
EP2345998B1 (en) | 2009-12-01 | 2019-11-20 | Honda Research Institute Europe GmbH | Multi-object tracking with a knowledge-based, autonomous adaptation of the tracking modeling level |
US8655513B2 (en) * | 2010-03-12 | 2014-02-18 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data |
GB201004232D0 (en) | 2010-03-15 | 2010-04-28 | Bae Systems Plc | Target tracking |
US8818702B2 (en) | 2010-11-09 | 2014-08-26 | GM Global Technology Operations LLC | System and method for tracking objects |
US8953888B2 (en) | 2011-02-10 | 2015-02-10 | Microsoft Corporation | Detecting and localizing multiple objects in images using probabilistic inference |
KR101740259B1 (ko) | 2011-10-07 | 2017-05-29 | 한국전자통신연구원 | 3차원 포인트 클라우드의 공간 분할 방법 |
US8923606B2 (en) | 2012-01-09 | 2014-12-30 | Chrysler Group Llc | System and method for identifying an aperture in a representation of an object |
US9129211B2 (en) | 2012-03-15 | 2015-09-08 | GM Global Technology Operations LLC | Bayesian network to track objects using scan points using multiple LiDAR sensors |
GB2501466A (en) * | 2012-04-02 | 2013-10-30 | Univ Oxford | Localising transportable apparatus |
US9081385B1 (en) * | 2012-12-21 | 2015-07-14 | Google Inc. | Lane boundary detection using images |
US9523772B2 (en) * | 2013-06-14 | 2016-12-20 | Microsoft Technology Licensing, Llc | Object removal using lidar-based classification |
US9150224B2 (en) * | 2013-09-24 | 2015-10-06 | Ford Global Technologies, Llc | Transitioning from autonomous vehicle control to to driver control to responding to driver control |
DE102013223803A1 (de) | 2013-11-21 | 2015-05-21 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Segmentierung eines Belegungsgitters für ein Umfeldmodell eines Fahrerassistenzsystems für ein Fahrzeug |
US9607228B2 (en) * | 2014-02-14 | 2017-03-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Parts based object tracking method and apparatus |
US20150310601A1 (en) | 2014-03-07 | 2015-10-29 | Digimarc Corporation | Methods and arrangements for identifying objects |
US9821813B2 (en) * | 2014-11-13 | 2017-11-21 | Nec Corporation | Continuous occlusion models for road scene understanding |
GB2541153A (en) | 2015-04-24 | 2017-02-15 | Univ Oxford Innovation Ltd | Processing a series of images to identify at least a portion of an object |
-
2017
- 2017-01-18 US US15/408,877 patent/US10254758B2/en active Active
- 2017-12-12 RU RU2017143389A patent/RU2717616C2/ru active
-
2018
- 2018-01-08 MX MX2018000123A patent/MX2018000123A/es unknown
- 2018-01-11 CN CN201810024904.6A patent/CN108327724B/zh active Active
- 2018-01-17 GB GB1800770.8A patent/GB2560619A/en not_active Withdrawn
- 2018-01-17 DE DE102018100987.9A patent/DE102018100987A1/de active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102216957A (zh) * | 2008-10-09 | 2011-10-12 | 埃西斯创新有限公司 | 图像中对象的视觉跟踪以及图像分割 |
CN101872476A (zh) * | 2009-04-24 | 2010-10-27 | 索尼株式会社 | 估计图像中对象姿势视角的方法、设备 |
US8736463B1 (en) * | 2012-01-30 | 2014-05-27 | Google Inc. | Object bounding box estimation |
CN103064086A (zh) * | 2012-11-04 | 2013-04-24 | 北京工业大学 | 一种基于深度信息的车辆跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
GB201800770D0 (en) | 2018-02-28 |
RU2017143389A (ru) | 2019-06-13 |
US10254758B2 (en) | 2019-04-09 |
GB2560619A (en) | 2018-09-19 |
DE102018100987A1 (de) | 2018-07-19 |
RU2017143389A3 (zh) | 2019-10-23 |
CN108327724A (zh) | 2018-07-27 |
US20180203447A1 (en) | 2018-07-19 |
RU2717616C2 (ru) | 2020-03-24 |
MX2018000123A (es) | 2018-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108327724B (zh) | 通过无监督学习的对象跟踪 | |
CN108327723B (zh) | 通过无监督学习的对象跟踪 | |
US10853670B2 (en) | Road surface characterization using pose observations of adjacent vehicles | |
CN110857085A (zh) | 车辆路径规划 | |
US10733510B2 (en) | Vehicle adaptive learning | |
US20200049511A1 (en) | Sensor fusion | |
US10831208B2 (en) | Vehicle neural network processing | |
CN110726399A (zh) | 姿态估计 | |
US11188085B2 (en) | Vehicle capsule networks | |
US11138452B2 (en) | Vehicle neural network training | |
US20200249356A1 (en) | SYSTEM AND METHOD FOR PROVIDING ONLINE MULTI-LiDAR DYNAMIC OCCUPANCY MAPPING | |
US11055859B2 (en) | Eccentricity maps | |
US11829131B2 (en) | Vehicle neural network enhancement | |
US11299169B2 (en) | Vehicle neural network training | |
US11662741B2 (en) | Vehicle visual odometry | |
US11702044B2 (en) | Vehicle sensor cleaning and cooling | |
CN113298250A (zh) | 用于定位和对象检测的神经网络 | |
CN115249066A (zh) | 分位数神经网络 | |
US11423674B2 (en) | Vehicle occupant gaze detection | |
CN114114239A (zh) | 组对象跟踪 | |
CN112793568A (zh) | 车辆操作标签 | |
US11610412B2 (en) | Vehicle neural network training | |
CN112519779A (zh) | 基于位置的车辆操作 | |
US11628856B2 (en) | Systems and methods for estimating cuboids from LiDAR, map and image data | |
CN113177985A (zh) | 具有相机作为地标的仅方位slam |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |