CN110949380A - 用于动态对象的位置预测 - Google Patents
用于动态对象的位置预测 Download PDFInfo
- Publication number
- CN110949380A CN110949380A CN201910915452.5A CN201910915452A CN110949380A CN 110949380 A CN110949380 A CN 110949380A CN 201910915452 A CN201910915452 A CN 201910915452A CN 110949380 A CN110949380 A CN 110949380A
- Authority
- CN
- China
- Prior art keywords
- objects
- object list
- dynamic
- list
- program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000009826 distribution Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000036632 reaction speed Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00272—Planning or execution of driving tasks using trajectory prediction for other traffic participants relying on extrapolation of current movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00274—Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及用于预测动态对象的位置的一种控制***和一种方法。控制***(10)具有多个传感器(30)以及计算***(40),该计算***设置用于借助第一程序将由多个传感器(30)检测到的对象(20)组合成对象列表(22),该对象列表(22)的每个元素针对所述对象(20)中的每个包括位置、速度以及自由路段,并且对象列表(22)包括时间戳;根据预定义数量的对象列表(22),借助第二程序针对所述动态对象(20)中的至少一部分确定另一对象列表(23),其中,所述另一对象列表(23)包括将来时刻的时间戳并且至少包括动态对象(20)的位置。
Description
技术领域
本发明涉及一种用于车辆的控制***,本发明还一种用于预测例如能够由车辆的传感器检测到的动态对象(例如行人)的位置的方法。
背景技术
检测车辆的动态周围环境是目前在许多情况下只能以非常高的计算能力完成的任务。例如对于提供对驾驶员的高度支持的车辆或至少部分自动化行驶的车辆而言,预测动态对象的位置是重要的,尤其以便避免和/或防止碰撞。
发明内容
本发明的一方面涉及一种用于车辆的控制***。车辆可以是陆地车辆——尤其轿车、货车、公交车或专用车辆。用于预测动态对象的位置的控制***具有多个传感器和计算***。所述动态对象例如可以是行人、骑自行车的人或其他交通参与者——尤其如下交通参与者:所述交通参与者的运动可能强烈地偏离于直线运动或匀速运动。所述传感器例如可以使用一个或多个摄像机、激光雷达、雷达或其他传感器机构。
该计算***设置用于借助第一程序将由多个传感器检测到的对象组合成对象列表。这种例如将对象组合成所谓的世界图景(Weltsicht)的程序至少在一些构型中能够同时作为包(Paket)使用。
将所述对象显示在对象列表中,其中,对象列表的每个元素针对所述对象中的每个包括位置、速度以及自由路段(freie Strecke),并且对象列表包括时间戳。这些说明例如可以在计算***的存储器中检测到;在此,这些说明相应于真实世界中的说明。因此,空间坐标例如可以相应于GPS坐标或至车辆、例如至如下车辆的(必要时归一化的)距离:所述传感器布置在所述车辆中或所述车辆上。在一种实施方式中,所述位置表示为空间坐标或极坐标。
所述速度是矢量,所述矢量在多个实施方式中以类似于空间坐标的方式呈现在计算***中。自由路段例如可以(作为至相邻的静态和/或动态对象的距离)通过两个空间坐标表示。自由路段可以是周围环境描述的一部分,该周围环境描述可以存储在存储器中,计算***可以访问该存储器。因此,存在如下对象列表的序列:这些对象列表中的每个都包括时间戳。在一种实施方式中,时间戳可以是等距的,在另一实施方式中,创建时间列表的频率可以取决于周围环境因素——例如取决于动态对象的数量。
此外,该计算***设置用于根据预定义数量的对象列表,借助第二程序针对动态对象中的至少一部分确定另一对象列表,其中,该另一对象列表包括将来时刻的时间戳并且至少包括动态对象的位置。因此,产生另一对象列表或预定义数量的另外的对象列表。这基于过去已经创建的预定义数量的对象列表来完成;也可以在现在创建对象列表。所述对象列表使用第二程序来进行预测——即产生如下对象列表:该对象列表确定对象在将来的属性。为此,例如可以使用线性的或非线性的预测方法。通过这种设置,显著改善(即加速和/或准确说明)例如能够由车辆的传感器检测到的动态对象(例如行人)的位置的预测。
本发明的另一方面涉及一种用于至少部分自动行驶的车辆的方法。该方法用于预测车辆的周围环境中的动态对象的位置。所述动态对象例如可以是其他车辆、行人、骑自行车的人或其他交通参与者——尤其如下交通参与者:所述交通参与者的运动可能强烈地偏离于直线的或匀速的运动。
所述方法包括如下步骤:
-借助多个传感器检测对象;
-借助第一程序将所述对象组合成对象列表,其中,该对象列表的每个元素针对所述对象中的每个包括位置、速度以及自由路段,并且
对象列表包括时间戳;
-根据预定义数量的对象列表,借助第二程序针对所述动态对象的至少一部分确定另一对象列表,其中,该另一对象列表包括将来时刻的时间戳并且至少包括动态对象的位置。
所述传感器例如可以使用一个或多个摄像机、激光雷达、雷达或其他传感器机构。因此,所述传感器例如借助单个传感器或者也借助传感器的组合检测动态对象,其中,例如也可以将不同类型的传感器进行组合——例如将摄像机的信号与雷达传感器的信号进行组合。第一程序将由多个传感器检测到的对象组合成对象列表。在此,该对象列表的每个元素针对所述对象中的每个包括位置、速度以及自由路段。此外,对象列表包括时间戳。所述信息例如相应于真实世界中的信息。因此,空间坐标例如可以相应于GPS坐标或至车辆、例如至如下车辆的(必要时归一化的)距离:所述传感器布置在所述车辆中或所述车辆上。在一种实施方式中,该位置表示为空间坐标或极坐标。
因此,对象列表的元素中的一个在真实世界中可以相应于自行车(尤其运动的自行车)。自行车在确定时刻处于确定的位置。在此,该确定的时刻例如相应于对象列表的第一时间戳。该位置例如可以通过空间坐标呈现在对象列表中。自行车具有速度;该速度例如可以通过空间坐标的矢量呈现在对象列表中。此外,自行车具有自由路段,该自由路段例如可以呈现为终点。以类似的方式,例如也可以确定另一对象(例如行人)的位置、速度和自由路段,并且将其输入到对象列表中。在所述示例中,该元素可以呈现在同一对象列表中并且也可以附有第一时间戳。
基于该对象列表的数据和/或例如在较早时刻已经创建并且附有另一时间戳的其他对象列表的数据,借助第二程序针对这些动态对象的至少一部分——在所述示例中例如针对自行车和行人——确定另一对象列表。该另一对象列表包括将来时刻的时间戳并且至少包括动态对象的位置。在此,所述对象例如可以直线地或非直线地运动。因此,例如可以基于所述对象列表例如计算:在将来时刻,自行车或行人是否会与车辆发生碰撞。借助所述信息可以操控车辆。在计算出可能与车辆发生碰撞的情况下,车辆例如可以影响制动***和/或转向***——即例如从潜在碰撞的位置偏转出来或进行制动。
在一种实施方式中,第二程序使用所谓的LSTM方法;这种简称表示所谓的“LongShort-Term Memory:长短期记忆”方法。在此,涉及递归神经网络。该递归神经网络用于处理顺序数据——尤其时间顺序数据,也就是说,在这种情况下使用递归神经网络来确定用于另一对象列表的规则和值,所述另一对象列表至少包括动态对象的位置。在此,LSTM构造基于其训练过的数据的抽象化。在此,以有利的方式应用这一点,以便对不同的检测到的对象的交互进行建模。因此,例如可以检测非直线的运动。在上述示例中,例如可以识别如下情况:在所述情况中,自行车避让行人并且由此(借助另一对象列表的确定)可能导致潜在碰撞,这可能引起车辆的动作。
在一种实施方式中,第二程序使用所谓的“社会LSTM网络”(Social LSTMNetworks)。在这种构型中,尤其考虑人类在人群中的行为方式。有利地,社会LSTM网络使用局部性原理,也就是说,所述对象以特别高的可能性受到其周围环境(尤其其直接周围环境)中的对象的影响。在在此列举的示例中,与对另一远处对象做出反应相比,自行车对行人的运动做出反应的概率会更高。
在此,在违反所述假设(即受到其周围环境中的对象的影响)的情况下,回退到后备模型。在此,社会LSTM网络对所述对象中的每个单独进行建模。在此,在一种实施方式中,在车辆周围形成格栅,并且相同格栅区域(或格栅的相同单元)中的对象相互作用。因此,对所述对象(例如相互避让或避让自行车的行人)之间的一种“通信”进行建模。在此,例如以有利的方式使用对象之间的这种“通信”。
因此,可以显著进一步改善动态对象的位置的预测。在一种实施方式中,借助所述信息训练人工神经网络;因为与其他方法(例如对位置的可能预测的基于规则的检测)相比,可以优选基于示例地识别最重要的、最频繁的和/或最紧急的情况,并且因此明显改善控制***的预测和/或反应。
在一种实施方式中,对象列表的每个元素还包括概率。这可以进一步提高车辆的反应速度,因为由此可以与具有较高概率的元素不同地处理具有较低概率的元素。因此,例如可以以较大的预测深度(Vorhersageteife)处理具有较高概率的元素,或者可以在一些计算***中更早地和/或以更高的优先级处理具有较高概率的元素,或者可以中断具有较高概率的元素的处理。
在一种实施方式中,至少对于所述对象中的一部分,位置表示为双变量正态分布。当对象的尺寸已知时,在许多情况下将精确的尺寸输入到对象列表中。例如在对象的尺寸未知的情况下,则可以替代地输入双变量正态分布。
在一种实施方式中,至少对于所述对象中的一部分,距离以对数形式表示。这在如下情况下是特别有利的:对于不同对象来说所表示的距离强烈变化,或者,对象例如在更深度预测的情况下进一步远离。在一种实施方式中,可以根据对象的距离使用对数表示。在一些情况下,可以在对数表示的情况下使用更低的精度。这尤其考虑到在不同周围环境中以不同速度运动的车辆行为。
在一种实施方式中,时间戳具有10毫秒至500毫秒、尤其50毫秒至200毫秒的间距。时间戳的间距主要取决于自身车辆的速度。
在一种实施方式中,对象列表是张量。这对于一系列场景已被证明是用于表示的特别有意义的方法。
本发明的另一方面涉及一种程序单元,该程序单元设置用于当其在计算***上实施时执行在此描述的方法。
本发明的另一方面涉及一种计算机可读的介质,在该计算机可读的介质上存储有所提及的程序单元。
附图说明
附图示出:
图1示出根据本发明的一种实施方式的对象列表的示意图;
图2示出根据本发明的一种实施方式的对象列表的序列的示意图;
图3示出根据本发明的一种实施方式的用于预测动态对象的位置的方法的示意图。
具体实施方式
图1示出对象列表22的示意图。在此,各个动态对象20作为小立方体示出并且借助axyz表示。在该图示中,x轴和y轴是对象的位置坐标;z轴表示对象的属性。例如,右下角所示的对象a651表示如下对象:该对象处于位置x=6和y=5处,该对象具有第一属性。在所示出的示例中,每个对象的属性的数量相同;但是,在其他实施方式中,属性的可变数量是可能的。在所示出的示例中,浅色描绘的对象a111和a121是所检测到的或所辨识出的陌生对象,a111例如可以表示行人,并且a121例如可以表示骑自行车的人。深色描绘的对象a341可以是自身车辆。因此,当如在所述实施例中那样使用空间坐标时,所述对象中的每个对象都配属有x-y位置。该位置可以表示为双变量正态分布。x-y位置的度量可以是线性的或者至少对于这些对象20中的一部分是对数形式的。对于这些对象20中的每个,在属性列表中存储有所述对象的至少一个速度和自由路段。此外,对象列表22包括时间戳;该时间戳在此未示出,因为该时间戳是用于整个对象列表22的特性。
图2示出对象列表22的序列的示意图,该对象列表的序列实现确定另一对象列表23。在此,另一对象列表23是根据对象列表22的序列的预测。因此,对象列表23包括将来时刻的时间戳。
在图2中示出这种预测的三个层29。这些层29中的每个具有两个对象列表22,所述对象列表包括具有所检测的对象的观测并且借助Xt或(对于另一步骤)借助Xt+1表示。在每个层29中,由对象列表22和内部状态Ht确定输出Ct,并且分别(作为预测)确定下一对象列表23。在此,在将过去的(即具有较旧时间戳的)预测从层29传递到下一层29之前,可以借助所检测的值对过去的预测进行修正。在所示出的示例中,这在三个层29上执行,使得当前的对象列表23在一定程度上包括来自过去的三个步骤的“经验”。使用第二程序来进行这种预测。第二程序可以使用LSTM方法(尤其社会LSTM网络)方法。
图3示出用于预测动态对象20的位置的方法50的示意图。动态对象20例如可以是行人、骑自行车的人或其他交通参与者——尤其如下交通参与者:该交通参与者的运动可能强烈地偏离于直线的或匀速的运动。在步骤51中,借助多个传感器30检测动态对象20。传感器30例如可以使用一个或多个摄像机、激光雷达、雷达或其他传感器机构。
在步骤52中,借助第一程序将对象20组合成对象列表22。在此,对象列表的每个元素针对所述对象中的每个包括位置、速度以及自由路段,并且对象列表22包括时间戳。在过去或在现在创建时间戳。
在步骤53中,根据预定义数量的对象列表22,借助第二程序创建一个或多个另外的对象列表22。借助第二程序创建的另外的对象列表23包括将来时刻的时间戳并且至少包括动态对象20的位置。
Claims (12)
1.一种用于预测动态对象(20)的位置的控制***(10),所述控制***具有:
多个传感器(30),
计算***(40),所述计算***设置用于,
借助第一程序将由所述多个传感器(30)检测到的对象(20)组合成对象列表(22),其中,所述对象列表(22)的每个元素针对所述对象(20)中的每个包括位置、速度以及自由路段,并且所述对象列表(22)包括时间戳;
根据预定义数量的对象列表(22),借助第二程序针对所述动态对象(20)中的至少一部分确定另一对象列表(23),其中,所述另一对象列表(23)包括将来时刻的时间戳并且至少包括所述动态对象(20)的位置。
2.一种用于预测动态对象(20)的位置的方法,所述方法具有如下步骤:
借助多个传感器(30)检测所述对象(20);
借助第一程序将所述对象(20)组合成对象列表(22),其中,所述对象列表(22)的每个元素针对所述对象(20)中的每个包括位置、速度以及自由路段,并且所述对象列表(22)包括时间戳;
根据预定义数量的对象列表(22),借助第二程序针对所述动态对象(20)的至少一部分确定另一对象列表(23),其中,所述另一对象列表(23)包括将来时刻的时间戳并且至少包括所述动态对象(20)的位置。
3.根据权利要求2所述的方法,
其中,所述第二程序使用LSTM方法。
4.根据权利要求2或3所述的方法,
其中,所述第二程序使用社会LSTM网络。
5.根据权利要求2至4中任一项所述的方法,
其中,所述对象列表(22)的每个元素还包括概率。
6.根据权利要求2至5中任一项所述的方法,
其中,至少对于所述对象(20)中的一部分,所述位置表示为双变量正态分布。
7.根据权利要求2至6中任一项所述的方法,
其中,至少对于所述对象(20)中的一部分,距离以对数形式表示。
8.根据权利要求2至7中任一项所述的方法,
其中,所述时间戳具有10毫秒至500毫秒、尤其50毫秒至200毫秒的距离。
9.根据权利要求2至8中任一项所述的方法,
其中,所述对象列表(22)是张量。
10.一种程序单元,所述程序单元设置用于当其在计算***(40)上实施时执行根据权利要求2至9中任一项所述的方法。
11.一种计算机可读的介质,在所述计算机可读的介质上存储有根据权利要求10所述的程序单元。
12.一种设置用于实施根据权利要求2至9中任一项所述的方法的设备。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018216417.7 | 2018-09-26 | ||
DE102018216417.7A DE102018216417A1 (de) | 2018-09-26 | 2018-09-26 | Ortsvorhersage für dynamische Objekte |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110949380A true CN110949380A (zh) | 2020-04-03 |
Family
ID=69725488
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910915452.5A Pending CN110949380A (zh) | 2018-09-26 | 2019-09-26 | 用于动态对象的位置预测 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11541885B2 (zh) |
CN (1) | CN110949380A (zh) |
DE (1) | DE102018216417A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7203563B2 (ja) * | 2018-10-29 | 2023-01-13 | 日立Astemo株式会社 | 移動体挙動予測装置 |
US11884304B2 (en) * | 2021-09-08 | 2024-01-30 | Ford Global Technologies, Llc | System, method, and computer program product for trajectory scoring during an autonomous driving operation implemented with constraint independent margins to actors in the roadway |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101711025B1 (ko) * | 2011-04-21 | 2017-02-28 | 한국전자통신연구원 | 우선 관제 대상 선정 장치와 방법 및 대상물 관제 장치 |
DE102011101246A1 (de) * | 2011-05-11 | 2012-11-15 | Conti Temic Microelectronic Gmbh | Redudante objektdetektion für fahrerassistenzsysteme |
DE102013110615B3 (de) * | 2013-09-26 | 2014-11-27 | Sick Ag | 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten |
DE102014008578B4 (de) * | 2014-06-12 | 2016-02-18 | Audi Ag | Verfahren zur Ermittlung von Positionsdaten zur Nutzung beim Betrieb eines Fahrzeugsystems eines Kraftfahrzeugs und Positionsdatenermittlungs- und-verteilssystem |
DE102014215124A1 (de) * | 2014-08-01 | 2016-02-04 | Bayerische Motoren Werke Aktiengesellschaft | Mobileinheit und Verfahren zur Positionsbestimmung eines Umgebungsobjektes einer Mobileinheit |
US20160205656A1 (en) * | 2015-01-13 | 2016-07-14 | GM Global Technology Operations LLC | Determination of object-to-object position using data fusion techniques |
DE102015212026A1 (de) * | 2015-06-29 | 2016-12-29 | Siemens Aktiengesellschaft | Verfahren zum Betreiben eines Netzwerks mit mehreren Knoteneinrichtungen und Netzwerk |
US9986404B2 (en) * | 2016-02-26 | 2018-05-29 | Rapidsos, Inc. | Systems and methods for emergency communications amongst groups of devices based on shared data |
US10656245B2 (en) * | 2017-09-05 | 2020-05-19 | Valeo Radar Systems, Inc. | Automotive radar sensor blockage detection using adaptive overlapping visibility |
CN111727413B (zh) * | 2017-12-27 | 2024-06-11 | 直流电资本有限责任公司 | 用于访问来自其他车辆的补充感知数据的方法 |
CN108564118B (zh) * | 2018-03-30 | 2021-05-11 | 陕西师范大学 | 基于社会亲和力长短期记忆网络模型的拥挤场景行人轨迹预测方法 |
US10579888B2 (en) * | 2018-05-15 | 2020-03-03 | GM Global Technology Operations LLC | Method and system for improving object detection and object classification |
US20200192393A1 (en) * | 2018-12-12 | 2020-06-18 | Allstate Insurance Company | Self-Modification of an Autonomous Driving System |
-
2018
- 2018-09-26 DE DE102018216417.7A patent/DE102018216417A1/de active Pending
-
2019
- 2019-09-20 US US16/577,159 patent/US11541885B2/en active Active
- 2019-09-26 CN CN201910915452.5A patent/CN110949380A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US11541885B2 (en) | 2023-01-03 |
DE102018216417A1 (de) | 2020-03-26 |
US20200094823A1 (en) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111382768B (zh) | 多传感器数据融合方法和装置 | |
RU2701051C2 (ru) | Способ, система и машиночитаемые запоминающие носители для выявления объектов с использованием рекуррентной нейронной сети и сцепленной карты признаков | |
EP3159235B1 (en) | Method and system for assisting a driver of a vehicle in driving the vehicle and computer program | |
US20200211395A1 (en) | Method and Device for Operating a Driver Assistance System, and Driver Assistance System and Motor Vehicle | |
JP5278419B2 (ja) | 運転シーンの遷移予測装置及び車両用推奨運転操作提示装置 | |
CN110843789B (zh) | 一种基于时序卷积网络的车辆换道意图预测方法 | |
Zhang et al. | Prediction of pedestrian-vehicle conflicts at signalized intersections based on long short-term memory neural network | |
JP2020046706A (ja) | 物体検出装置、車両制御システム、物体検出方法及び物体検出用コンピュータプログラム | |
Niranjan et al. | Deep learning based object detection model for autonomous driving research using carla simulator | |
Jeong et al. | Bidirectional long shot-term memory-based interactive motion prediction of cut-in vehicles in urban environments | |
CN113165670A (zh) | 一种智能驾驶方法、装置、存储介质及计算机程序 | |
JP2013242615A (ja) | 運転シーン遷移予測装置および車両用推奨運転操作提示装置 | |
CN110949380A (zh) | 用于动态对象的位置预测 | |
Ilic et al. | Development of sensor fusion based ADAS modules in virtual environments | |
US11657635B2 (en) | Measuring confidence in deep neural networks | |
Wang et al. | Online safety assessment of automated vehicles using silent testing | |
CN113557524A (zh) | 用于表示移动平台环境的方法 | |
Izquierdo et al. | Vehicle lane change prediction on highways using efficient environment representation and deep learning | |
EP3798912A1 (en) | Training method for a convolutional neural network for predicting a driving maneuver of a traffic participant | |
CN113071515B (zh) | 可移动载体控制方法、装置、可移动载体及存储介质 | |
Ilić et al. | Predicting positions and velocities of surrounding vehicles using deep neural networks | |
CN117387647A (zh) | 融合车载传感器数据与道路传感器数据的道路规划方法 | |
CN112319505A (zh) | 自动驾驶换道判断方法、装置、设备及存储介质 | |
Valiente et al. | Dynamic object map based architecture for robust cvs systems | |
Candela et al. | Fast collision prediction for autonomous vehicles using a stochastic dynamics model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |