CN116348915A - 用于计算与对象和相机之间的相对速度相关的信息的方法、用于车辆的控制方法、计算机程序、计算机可读记录介质、对象运动分析***以及控制*** - Google Patents
用于计算与对象和相机之间的相对速度相关的信息的方法、用于车辆的控制方法、计算机程序、计算机可读记录介质、对象运动分析***以及控制*** Download PDFInfo
- Publication number
- CN116348915A CN116348915A CN202080105838.0A CN202080105838A CN116348915A CN 116348915 A CN116348915 A CN 116348915A CN 202080105838 A CN202080105838 A CN 202080105838A CN 116348915 A CN116348915 A CN 116348915A
- Authority
- CN
- China
- Prior art keywords
- transformation
- camera
- pixel
- optical flow
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 113
- 238000004590 computer program Methods 0.000 title claims abstract description 10
- 230000003287 optical effect Effects 0.000 claims abstract description 99
- 230000009466 transformation Effects 0.000 claims abstract description 80
- 238000013519 translation Methods 0.000 claims description 13
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 12
- 230000009977 dual effect Effects 0.000 description 10
- 238000006073 displacement reaction Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000760038 Monosis Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000004377 microelectronic Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/04—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
- B60W10/06—Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of combustion engines
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/804—Relative longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/06—Combustion engines, Gas turbines
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/18—Braking system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/20—Steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
计算机实现的方法,用于基于由相机获取的对象的两个图像(Ik,Ik+1)来计算与对象(200)和相机(30)之间的相对速度相关的信息。该方法包括:S41)确定两个图像(Ik,Ik+1)之间的光流(F)的值;并且,与确定光流的值一起或者在确定光流的值之后,使用光流来确定变换的至少一个参数(s,tx,ty);以及S42)基于变换的所述至少一个参数(s,tx,ty)来计算与对象和相机之间的相对速度相关的信息(RVD,TtC)。还公开了用于车辆的控制方法和基于上述方法的对象运动分析***,以及实现上述方法的计算机程序和计算机可读记录介质。
Description
技术领域
本公开主要涉及用于估计在由一个或多个相机输出的图像序列中检测到的对象的速度的方法。通过扩展,还涉及使用由该方法估计的相对速度信息的车辆控制。
背景技术
当车辆正在移动时,检测在车辆周围移动的独立移动的对象对于安全地驾驶车辆是至关重要的。估计这些对象相对于车辆的相对速度当然也是非常重要的。
该相对速度通常可以由安装在车辆上的雷达来确定。
然而,在移动对象不在车辆的雷达的获取区域的情况下,或者在这些雷达中的一个雷达发生故障的情况下,可能有必要使用替代方法来获得关于车辆和车辆周围移动的移动对象之间的相对速度的信息。
因此,需要一种能够提供关于对象和车辆之间的相对速度的信息的方法和设备,特别是当这种信息不能由车辆的雷达提供时。
发明内容
本发明是考虑到现有技术的上述问题而构思的,因此本公开的第一目的是提出用于计算与对象和“观察者”(其可以是例如车辆,但是观察者可以更一般地是场景的任何静态观察者)之间的相对速度相关的信息的方法,该方法不依赖于雷达。
根据本公开,提出了用于计算与对象和相机之间的相对速度相关的信息的计算机实现的方法。
该方法基于从由相机输出的图像帧导出的对象的初始图像Ik和最终图像Ik+1,并且包括以下步骤:
S41)确定初始图像和最终图像之间的光流的值,该光流针对初始图像的像素定义其在初始图像变换为最终图像的变换期间的估计运动;以及,
与确定光流的值一起或在确定光流的值之后,使用光流来确定变换的至少一个参数;以及
S42)基于变换的至少一个参数来计算与对象和相机之间的相对速度相关的信息。
与车辆和对象之间的相对速度相关的信息可以是例如指示检测到的对象是移动远离还是移动朝向车辆的值;它可以是检测到的对象相对于车辆的深度相对速度(relative velocity in depth);与检测到的车辆碰撞的时间;或者检测到的对象相对于车辆的(深度)相对加速度;等。
在根据本公开的方法中,可以不仅基于变换的所述至少一个参数的单个值,而且基于变换的所述至少一个参数的多个值,来计算与对象和相机之间的相对速度相关的信息。在这种情况下,可以通过多次执行步骤S41来计算该多个值,以获得变换的(一个或多个)参数的多个估计(然后对多对图像执行步骤S41,每对图像包括初始图像和最终图像);以及基于变换的(一个或多个)参数的所述多个估计来计算与相对速度相关的信息。
有利的是,该方法仅使用非常便宜和通用的传感器:相机。
该方法仅使用基于由相机输出的一对帧的一对图像来计算与对象和相机之间的相对速度相关的信息。从其中导出初始图像和最终图像的这一对帧通常由相机在两个不同时间点处获取的两个帧组成(这里k是指在由相机输出的图像序列中的帧的编号)。
重要的是,在本公开的方法中,初始图像可以在时间上在最终图像之前或之后表示对象:这两个图像的顺序(相对于时间)并不重要。
该方法不使用由相机输出的整个帧,而是仅使用这些帧中表示相对速度将被估计的对象的部分。
因此,初步步骤包括从该一对帧中提取表示这两个帧中的对象的两个图像(“子图像”或“分块”)。这两个子图像或分块是本方法所依赖的初始图像和最终图像。
根据本公开,已经观察到,可以在(至少)两个步骤中,使用光流来计算与对象和相机之间的相对速度相关的信息。如本领域所公知的,光流包括运动矢量(u,v)的坐标,运动矢量(u,v)的坐标定义了像素(x,y)在初始图像变换为最终图像的变换中的运动。因此,光流在以下光流方程中由函数F定义:
(u,v)=F(x,y)
检测感兴趣的对象(例如,车辆),并且使用对象检测算法在连续帧中的每一帧中确定其边界框。几种这样的检测算法是众所周知的,例如SSD、Yolo、AdaBoost等)。使用已经确定的边界框将以这种方式识别出的并且表示对象的子图像从帧中裁剪出来。此外,3D对象检测的最新进展,例如MonoDis,可以用作该方法的先前步骤。并且,诸如Mask-RCNN的实例分割方法也可以用于在背景和前景之间做出区分。
假设所观察到的对象是刚性的,并且因此,对其在图像中的投影视图进行约束变换。在更一般或更极端的情况下,这可以由透视或仿射变换来表示,但是,特别是对于在大距离处观看的对象,该变换优选地由相似性变换来表示,该相似性变换仅涉及缩放(扩展)和平移(tx,ty)。
在这些假设下,从表示对象的像素(x,y)的前一帧到当前帧的表观运动(光流)(u,v)可以表示为:
(x,y)→(x+u,y+v)=s·(x,y)+(tx,ty),或
注意,(1)中的扩展和平移被认为对于分块的所有点都是相同的。扩展s的值通常接近于1,并且s>1的情况对应于扩展(接近)对象,而0<s<1的情况对应于收缩(离开)对象。
因此,在微分光流方程中,(u,v)可以被替换为s、tx以及ty的函数。
这可以得到不同的差分光流方程;在霍恩-舒克(Horn-Schunck)算法的情况下,这种微分光流方程可以表示为:
在一些实施例中,本公开提出了一种针对分块内的每个点(x,y)对该方程进行估计的方法,该方法提供了针对三个变量s、tx和ty的超定方程***。
通过求解上述针对整个分块或其重要部分的方程,可以高精度地获得关于与对象和相机之间的相对速度相关的信息。
所提出的方法的两个步骤S41和S42可以描述如下。
在S41中,首先,针对初始图像或最终图像之一的像素确定光流的值;并且与确定光流的值一起或者在确定光流的值之后,使用光流来确定变换的至少一个参数。
这里,术语“使用”意味着在确定变换的(一个或多个)参数期间,光流被用作输入或用作中间变量。
在该步骤中,变换的(一个或多个)参数是与确定光流的值一起或在确定光流的值之后被确定。
然后,在S42中,基于在第一个步骤中确定的变换的(一个或多个)参数,计算与对象和相机之间的相对速度相关的信息。
直接方法
第一实施例定义了“直接方法”,将其称为“直接方法”是因为变换的(一个或多个)参数是在一个步骤(下面的步骤S412)中计算的。
在该方法中,步骤S41包括两个子步骤:
S411)确定两个图像之间的光流的值;以及,
变换后的像素是通过将变换应用于相应的先前像素而获得的像素,
变换后的像素的坐标因此是通过将相应的先前像素的光流F的值与相应的先前像素的坐标相加而获得的;
S412)求解使用变换的所述至少一个参数将变换后的像素的坐标表示为对应的先前像素的坐标的函数的方程组,并且从而确定变换的所述至少一个参数。
在步骤S411期间,可以通过任何已知的方法来计算光流。例如可以使用卢卡斯-卡纳德(Lucas-Kanade)算法、Horn-Schunck算法等来计算光流。
然后,在步骤S412期间,基于光流,计算变换的(一个或多个)参数。在该步骤期间,例如通过对线性模型进行鲁棒拟合,例如通过RANSAC方法或IRLS方法(“迭代重加权最小二乘”方法),可以求解该方程组。
迭代方法
作为直接方法的替代方法,在第二或替代方法中,变换的(一个或多个)参数被迭代地计算。在该方法中,总共计算了变换的(一个或多个)参数以及光流。
迭代方法定义如下:
变换后的像素是通过将变换应用于相应的先前像素而获得的像素;
变换后的像素的坐标因此是通过将相应的先前像素的光流F的值与相应的先前像素的坐标相加而获得的;
第一方程是使用变换的所述至少一个参数将变换后的像素的坐标表示为相应的先前像素的坐标的函数的方程,并且
第二方程是表示针对所考虑像素,关于所考虑像素处的像素强度I的空间-时间信息、关于偏离所考虑像素估计偏移值的另一像素处的像素强度的空间-时间信息以及变换的所述至少一个参数之间的关系的光流方程;
步骤S41包括执行如下初始化步骤:
S415)确定变换的所述至少一个参数和光流的初始值;
步骤S41还包括迭代地执行以下步骤:
S416)基于针对所述所考虑像素的光流F的估计值,通过求解针对初始图像的所考虑像素建立的第二方程组,来确定变换的所述至少一个参数的更新值;
S417)确定是否有必要执行(算法的)新的迭代;以及,
S418)使用针对所述所考虑像素的第一方程组以及在步骤S416中确定的(一个或多个)变换参数的值,来确定针对所述所考虑像素的光流F的更新的估计值。
步骤S418优选地是条件步骤,其仅当如果在步骤S417中确定有必要执行另一迭代时才执行。
空间-时间信息可以包括例如在所考虑像素处的像素强度的空间-时间导数。
在步骤S417中,在一些实施例中,当确定(一个或多个)参数的更新值和先前计算的(一个或多个)参数的值之间的差值超过预定阈值时,确定有必要执行算法的新的迭代。
替代地或附加地,在其它实施例中,只要(或仅当)没有超过迭代的最大次数imax,则确定有必要执行算法的新的迭代。
在本第二方法中,与直接方法相反,光流F不是自由定义的“每像素流场”,而是由为对整个子图像的运动建模而选择的变换来定义。
因此,光流F可以用函数表示。可以使用许多不同的功能。
例如,在一实施例中,按照连续帧中子图像中心之间的扩展s以及位移矢量(tx,ty)来表示流。然而,可以选择任何其他合适的表达式来对光流F建模。
有利地,已经发现用本方法识别的变换的(一个或多个)参数(诸如膨胀率等)在数值上非常稳定——至少对于小位移——甚至在输入图像中存在噪声、衰减或压缩伪像的情况下也是如此。
在该方法中,使用称为“双局部算法”的算法,与变换的(一个或多个)参数一起并由变换的(一个或多个)参数约束地逐步地估计初始图像的像素的光流F的值。
在光流的值大的情况下,即像素从初始图像到最终图像的运动大的情况下,双局部算法尤其适用。当光流的初始估计可以从由相机获取的先前的帧导出时,该算法可以以特别有效的方式实现。
在通常的光流确定方法中,基于两个图像之间的位移,通过考虑在两个图像中的单个位置处的空间-时间导数,假设运动小,来确定光流。
相反,第二方法是“双局部”方法。术语“双局部”意味着光流方程现在被公式化为考虑图像中两个不同位置处(上述“所考虑像素”以及“另一像素”)的空间-时间信息。
另一像素是通过将“所考虑像素”移位一估计偏移值而获得的。该偏移值是基于光流的当前值而计算的;例如,它可以等于光流的当前值。
归功于该特征,即使在从一帧到下一帧的位移大的情况下也可以使用第二方法。
当然,不需要为初始图像或最终图像的所有像素(或像素组合)建立方程。然而,所使用的像素的数量越多,在确定变换的(一个或多个)参数时的精确度越高。
在一实施例中,针对所述所考虑像素中的每一个所考虑像素,第二方程组表示在所述所考虑像素处的初始图像中的空间-时间信息与最终图像中的所述另一像素处的空间-时间信息之间的关系。
在一实施例中,其中,变换是由变换参数s、tx和ty定义的相似性,第二方程组定义为:
其中,ui、vi是针对当前迭代i的光流F的值。
根据本公开的计算方法(具体地,直接方法和迭代方法)可以针对多种变换来实现。例如,该变换可以是透视变换、与平移相结合的相似性变换、仿射变换、与平移相结合的刚性对象的旋转。
在计算出与对象和相机之间的相对速度相关的信息之后,在步骤S42中,这种信息可以用于各种目的。
在一个特别感兴趣的实施例中,该信息用于控制至少一个设备,例如车辆的至少一个设备。
例如,控制方法可以包括以下步骤:
S10)利用至少一个相机获取所述至少一个相机的环境的相机图像;
S20)在由所述至少一个相机中的一个相机获取的至少一相机图像对中识别对象;
S30)提取对象的初始图像和最终图像,该初始图像和最终图像是所述相机图像对中由识别出的所述对象的边界框定义的部分;
S40)使用上述定义的方法中的一个方法来计算与对象和所述至少一个相机之间的相对速度相关的信息;
S50)基于与对象和所述至少一个相机之间的相对速度相关的所述信息来控制所述至少一个车辆设备。
在一个特定实施方式中,所提出的控制方法由计算机程序指令确定。
因此,本公开的另一目的是提出计算机程序,该计算机程序存储在非暂时性计算机可读存储介质上,并且适于在处理器上执行,该程序包括指令,该指令在处理器上运行时,适于执行如上定义的方法的步骤。
该计算机程序可以使用任何编程语言,并且可以是源代码、目标代码或者在源代码和目标代码之间的中间代码的形式,诸如以部分编译的形式,或者以任何其它期望的形式。
上述处理器可以是任何数据处理装置,例如个人计算机、配置成安装在汽车中的电子控制单元等。
本公开还包括计算机可读介质,该计算机可读介质存储有指令该指令在由处理器执行时,致使处理器执行上述计算机程序。
该计算机可读介质可以是能够存储程序的实体或设备。例如,计算机可读介质可以包括存储装置,诸如只读存储器(Read Only Memory,ROM),例如光盘(Compact Disk,CD)ROM,或微电子电路ROM,或者实际上是磁记录装置,例如软盘或硬盘。
替代地,计算机可读介质可以是其中包含有程序的集成电路,该电路适于执行或用于执行所讨论的控制方法。
本公开的另一目的是提出对象运动分析***。该对象运动分析***包括电子控制单元,该电子控制单元配置为,基于从由相机输出的图像帧导出的对象的初始图像和最终图像:
S41)确定初始图像和最终图像之间的光流的值,该光流针对初始图像的像素定义其在初始图像变换为所述最终图像的变换期间的估计运动;以及,
与确定光流的值一起或在确定光流的值之后,使用光流来确定变换的至少一个参数;以及
S42)基于变换的所述至少一个参数来计算与对象和相机之间的相对速度相关的信息。
更广泛地,本发明包括对象运动分析***,该对象运动分析***包括电子控制单元,该电子控制单元配置为,基于从由相机输出的图像帧导出的对象的初始图像和最终图像来执行上述方法中的一个方法。
在一实施例中,电子控制单元配置为:
S411)确定两个图像之间的光流的值;并且,
变换后的像素是通过将变换应用于相应的先前像素而获得的像素,
变换后的像素的坐标因此是通过将相应的先前像素的光流F的值与相应的先前像素的坐标相加而获得的;
S412)求解使用变换的所述至少一个参数将变换后的像素的坐标表示为相应的先前像素的坐标的函数的方程组,并且从而确定变换的所述至少一个参数。
例如,电子控制单元可以配置为通过对线性模型进行鲁棒拟合,例如通过RANSAC方法或IRLS方法,来求解方程组。
替代地,在一实施例中,并且基于如上呈现的第一方程和第二方程的定义,电子控制单元配置为执行以下初始化步骤:
S415)确定变换的所述至少一个参数和光流的初始值;
电子控制单元还配置为迭代地执行以下步骤:
S416)基于针对所述所考虑像素的光流F的估计值,并通过求解针对初始图像的所考虑像素建立的第二方程组,来确定变换的所述至少一个参数的更新值;
S417)确定是否有必要执行新的迭代;以及
S418)使用针对所述所考虑像素的第一方程组以及在步骤S416中确定的(一个或多个)变换参数的值,来确定针对所述所考虑像素的光流F的更新的估计值。
该变换特别地可以是透视变换、与平移相结合的相似性变换、仿射变换、与平移相结合的刚性对象的旋转。
只有在步骤417中确定有必要执行另一迭代时,才优选地在步骤S418中确定针对所述所考虑像素的光流F的更新的估计值。
对象运动分析***可以特别地集成在控制***中,特别是用于车辆的自动驾驶***中。
在这种情况下,控制***包括至少一个相机,该至少一个相机配置为获取图像;并且电子控制单元配置为:
S10)利用所述至少一个相机获取所述至少一个相机的环境的相机图像;
S20)在由所述(一个或多个)相机中的一个相机获取的至少一相机图像对中识别对象;
S30)提取对象的初始图像和最终图像,该初始图像和最终图像是所述相机图像对中由识别出的所述对象的边界框定义的部分;
S40)使用上述定义的方法中的一个方法来计算与对象和所述至少一个相机之间的相对速度相关的信息;以及
S50)基于与对象和所述至少一个相机之间的相对速度相关的所述信息来控制自动控制***的至少一个车辆设备。
附图说明
通过参考附图,本领域技术人员可以更好地理解本公开内容,并且其许多其它目的和优点将变得显而易见,在附图中,相似的附图标记表示几个附图中的相似要素,并且其中:
图1是基本示出根据本公开的装备有自动驾驶***的汽车的示意图;
图2是示出根据按照本公开的方法的第一实施例的用于确定与移动对象和车辆的相机之间的相对速度相关的信息的方法的步骤的框图;以及
图3是示出根据按照本公开的方法的第二实施例的用于确定与移动对象和车辆的相机之间的相对速度相关的信息的方法的步骤的框图。
具体实施方式
现在将描述配置为实现所提出的用于控制至少一个设备的方法的自动驾驶***10(作为根据本公开的控制***的示例)。
图1示意性地示出了装配有自动驾驶***10的汽车100,该自动驾驶***10形成了根据本公开的控制***的示例性实施例。汽车100在道路上移动(箭头A);在相反的方向上,在另一车道中另一汽车200正在驶来。
自动驾驶***10(或者简称,***10)包括对象运动分析***,该对象运动分析***包括电子控制单元20、相机30以及几个其它未示出的传感器。
由相机30产生的图像被发送到电子控制单元20(ECU 20)。
ECU 20总体上具有计算机的硬件架构。ECU 20包括微处理器22、随机存取存储器(Random Access Memory,RAM)24、只读存储器(Read Only Memory,ROM)26、接口28。
ECU 20的硬件元件可选地与自动驾驶***10的其它单元和/或汽车100的其它***共享。
接口28特别地包括安装在汽车的仪表板中或汽车的仪表板上的触觉显示器以及各种显示器。
接口28包括具有(未示出的)显示器的驾驶员接口,以向汽车100的驾驶员发送信息,以及与汽车的致动器和其它车辆设备的接口连接。特别地,接口28包括与汽车100的多个驱动致动器(即,发动机32、转向柱34和制动器36)的连接。
存储器26中存储有计算机程序,该计算机程序配置为通过执行车辆的横向和纵向控制来部分地承担驾驶任务。该程序配置为计算与在由相机30发送的图像中检测到的汽车100和周围对象之间的相对速度相关的信息。该程序还配置为输出至少在一些驾驶时段期间控制主车辆的驱动致动器的命令。
该程序和存储器26分别是根据本公开的计算机程序和非暂时性计算机可读介质的示例。
ECU 20的只读存储器26确实构成了根据本公开的可由处理器22读取的非暂时性计算机可读介质。它存储有指令,该指令在由处理器执行时,致使处理器22执行根据本公开的控制方法。
更具体地,存储在存储器26中的程序包括用于执行方法的指令,该方法用于基于与车辆和在车辆之外移动的“独立移动对象”(Independently Moving Object,IMO)之间的相对速度相关的信息来控制车辆100的多个设备。在本实施例中,将在相反方向上驶来的车辆200作为车辆100之外的IMO的示例。在本实施例中,自动驾驶***10构成根据本公开的示例性对象运动分析***。
为了执行其功能,***10使用由相机30提供的图像,在ECU 20中处理这些图像,并且基于由ECU 20计算的与车辆和在车辆周围检测到的“独立移动对象”之间的相对速度相关的信息来控制车辆100。
根据本公开,可以在驾驶期间特别地根据图2和图3所示的控制方法中的一个方法来控制车辆100,图2和图3表示根据本公开的控制方法的示例性实施例。
在图2的控制方法中,以直接两步方法计算将初始图像变换为最终图像的变换的(一个或多个)参数。相反,在图3的控制方法中,迭代地计算该(一个或多个)参数。
现在将描述图2和图3所示的控制方法的步骤。
步骤S10-S30:准备
在图2和图3所示的控制方法中,控制方法首先包括以下准备步骤:
S10)通过相机30连续获取车辆的环境的相机图像。对于这些连续获取中的每一个获取,递增主索引k的值。实际上,相机30连续地监视汽车100前方的场景,并因此以每秒30帧的速率将图像帧发送到电子控制单元20。
S20)在这些图像的每一个图像中,电子控制单元识别存在的对象。这种识别是使用神经网络进行的,并且集中在识别特别是行人、其它车辆等。
在本示例中,在由相机30发送的连续图像中识别即将驶来的汽车200。
S30)当在图像中识别出对象时,从相机图像中提取对象的图像。为此目的,针对这些相机图像中的每一个相机图像中的对象确定边界框。然后,从相机图像中裁剪出显示图像中的对象的子图像,以便由对象的边界框来定义。
根据该过程,两个图像(本示例中的Ik和Ik+1,其中k和k+1对应于相机30的连续的两次获取)因此是从由相机30获取的帧中提取的,并且表示具有本公开含义的对象的初始图像和最终图像。
这些图像中的每一个图像形成像素强度I(x,y)的矩阵。
步骤S40:计算与相对速度相关的信息
S40)然后,在两个步骤S41以及S42中计算与对象和相机之间的相对速度相关的信息。
步骤S41
在步骤S41,确定两个图像Ik和Ik+1之间的光流F;然后,一旦确定了光流F,就使用光流F计算将初始图像(Ik)变换为最终图像(Ik+1)的变换的(一个或多个)参数。
光流针对初始图像(Ik)的像素(x,y),定义这些像素在初始图像(Ik)和最终图像(Ik+1)之间的估计运动(u,v)。如前所述,一般地说,光流由函数F定义,该函数F提供作为(x,y)的函数的(u,v):
(u,v)=F(x,y)
在该表达式中,对(x,y)表示初始图像中的像素的坐标。通常,通过做出一些假设来简化计算,从而对光流进行建模。
在一些实施例中,例如,在此结合图2和图3考虑的实施例中(在本公开的范围内当然也可能有其它可能性),假设图像的变换是与平移(tx,ty)相结合的比率s的相似性。因此,变换后的像素的位置由以下方程定义:
更一般地,在根据本公开的方法中,可以使用任何种类的函数来定义图像的变换。例如,变换可以被定义为透视变换、仿射变换、与平移相结合的刚性对象的旋转等。
因此,在本实施例中,光流F由下面的方程组(1')表示,其等价于***(1):
可以针对初始图像中其光流(u,v)能够被计算的任何像素(x,y)建立***(1')。
步骤41可以以不同的方式实现。下面将更详细地给出步骤S41的两个优选实施方式:图2所示的“直接方法”,以及图3所示的“迭代方法”。
步骤S41-直接方法(图2)
在该控制方法的实施方式中,步骤S41包括两个子步骤。
在第一子步骤S411中,确定光流F。这里,可以使用任何已知的方法来计算光流F。
然后,在子步骤S412中,确定变换的(一个或多个)参数。
例如,如果变换是与如上所构思的由参数s、tx、ty定义的平移相结合的相似性,则通过组合针对初始图像中其光流能够被计算的所有像素(x,y)建立的所有***(1'),即得到一个大的方程组。这个方程组仅包括三个未知数,s、tx和ty。
在步骤S412期间,通过任何已知的方法求解该方程组。它可以例如通过最小二乘法经典地求解;然而,优选地使用鲁棒拟合方法,例如RANSAC方法、IRLS方法等。
步骤S41-迭代方法(图3)
在如前所述的步骤S41中,基于初始图像(Ik)和最终图像(Ik+1)来确定变换的(一个或多个)参数(s,tx,ty)。
在步骤S41的该实施方式中,步骤S41包括初始化子步骤S415,随后是迭代执行的几个子步骤。在每次迭代时,索引i递增,该索引i是在步骤S41中嵌套的本地循环的索引。
首先,在初始化步骤S415(i=0)中,针对估计的光流F设定初始值。
在迭代方法中,光流F由变换的(一个或多个)参数约束(或定义)。因此,通过初始化变换的(一个或多个)参数来执行流的初始化。
因此,初始化包括针对变换的(一个或多个)参数设定初始值。在本示例性实施例中,可以例如选择以下值:
(s,tx,ty)0=(1,0,0)。
因此,针对子图像中的每个像素,u0=v0=0(这里,在变量(s,tx,ty)0、u0和v0中,下标指的是i,其中i=0)。
光流的初始化不限于u0=v0=0。可以使用u0和v0的任何合理的初始值。例如,可以通过执行上述直接方法来初始化它们的值。
然后,在步骤S416中,计算变换的(一个或多个)参数的更新值(s,tx,ty)i+1。
在应用先前提出的“双局部算法”的原理时,步骤S416基于以下计算:
在上述方程中,值ui、vi是针对当前迭代(针对索引i的待决值)的光流F的值。
为了用公式表示双局部光流,例如基于Horn-Schunck算法,使用基本(局部)光流方程来表示在跨越连续帧的像素的亮度强度的守恒。这得到:
当然,除了跨越帧的像素的亮度强度守恒之外的其它标准可以用于计算双局部公式(其定义了第二方程2d1)。
作为示例,可以在强度变化上增加加性缩放和乘性缩放的可能性。此外,上面的Horn和Schunck方程仅对一阶效应进行建模,忽略了泰勒展开中的高阶项(方程2d2)。同样从这个角度来看,有可能在光流方程中增加二阶项和高阶项。
给定在所考虑像素处的光流的估计(ui,vi),可以使用当前帧Ik和下一帧Ik+1(下一帧Ik+1与该初始估计一起“扭曲”(“warped”))来重新形成上述方程(2d1)。因此,双局部光流方程可以如下公式表示,其中,将方程(2d1)应用于残余流(u-ui,v-vi):
上述方程解释如下:
方程(2d4)等价于方程(2d)的标量公式。
然后可以通过用其作为(x,y)和变换的(一个或多个)参数的函数的表达式代替其中的光流(u,v)来简化上述方程。在所提出的实施例中,变换是由方程(1)定义的相似性变换,其参数是(s,tx,ty)。
因此,双局部光流方程(2d)可以用参数(s,tx,ty)表示为:
方程(2d')构成具有本公开的含义的第二方程。
这些第二方程是针对能够被计算的所有像素所写的。由此获得一方程组,其表示关于在所考虑像素处的像素强度I的空间-时间信息、针对所述所考虑像素中的每一个所考虑像素的关于在另一像素处的像素强度I的空间-时间信息以及变换的(一个或多个)参数(s,tx,ty)之间的关系。
所述另一像素是从所考虑像素偏移估计偏移值,该估计偏移值基于所考虑像素的光流的当前值(ui,vi)。在本实施例中,估计偏移值等于光流的当前估计(ui,vi)。
该方程组(2d')是线性***(针对参数(s,tx,ty)),然后其被通过任何适当的方法求解,从而针对变换的参数s、tx和ty提供新的(或更新的)估计(s,tx,ty)i+1。
然后,基于该更新的估计(s,tx,ty)i+1,并且使用方程(1'),计算光流的更新值(ui+1,vi+1)。
然后,在步骤S417中,将参数(s,tx,ty)i+1的新估计与先前估计(s,tx,ty)i进行比较。如果差值超过预定阈值,则得出该算法还没有收敛的结论。
因此,该算法跳到步骤S418。在步骤S418中,针对初始图像中能够计算这些值的每个像素(x,y),基于方程(1'),计算光流的更新值(ui+1,vi+1)。
然后,算法继续到步骤S416处,如上所述。
相反,如果在步骤S1417中,确定(s,tx,ty)i+1和(s,tx,ty)i之间的差值低于预定阈值,则得出该算法已经充分收敛的结论。因此得出结论,值(s,tx,ty)i+1是将初始图像变换为最终图像的变换的(一个或多个)参数的值。
步骤S42
然后,该算法继续到步骤S42处。
在步骤S42中,将在步骤S412中计算出的变换的(一个或多个)参数的值用于计算与对象和相机之间的相对速度相关的信息。
该信息可以非常简单。例如,取决于相似性比率s的值,可以确定检测到的对象是移动远离(s<1)还是移动朝向(s>1)车辆。这种信息是与车辆和对象之间的相对速度相关的信息,并且有时足以决定停止跟踪对象(如果它移动远离的话),或者相反地,如果它变得更接近的话,增加向对象投入的注意等级。
实际上,相似性比率s是视觉扩展参数:它表征对象的图像在由相机30获取的图像中增长或相反收缩得有多快。
作为可能从变换的(一个或多个)参数中提取到的与对象和相机之间的相对速度相关的另一信息,基于从车辆100到对象200的距离的相似性比率s以及估计D(其可以是粗略估计),可以使用以下公式来计算对象相对于车辆的深度相对速度RVD:
RVD=D·(1–s)/(T1–T0)
其中T0和T1是获取初始图像Ik和最终图像Ik+1的时刻。
作为可能从变换的(一个或多个)参数中提取到的与对象和相机之间的相对速度相关的另一信息,基于深度相对速度RVD,可以使用以下公式估计与对象(汽车200)碰撞的时间:
TtC=D/RVD
还可以考虑在不同的时间步长T0、……、Tn上的RVD和TtC的上述方程,假设例如在时段上的恒定相对速度。该组合导致方程组:
RVD=D0·(1–sk)/(Tk–T0),k=1,…,n
其中sk是不同时间步长Tk处的扩展速率,k=1,…,n,并且都是相对于T0处的初始帧计算的。
然后直接求解该联合齐次方程组以计算TtC:给定作为针对D的估计,RVD被计算为:
RVD=D/TtC。
该特定公式通过TtC稳定了D和RVD的数值输出。
此外,除了相对速度RVD之外,在公式中还可以考虑相对加速度RAC以计算碰撞的时间TtC。
在这种情况下,速度不被认为是恒定的;在不同的时间步长T0、……、Tn上且在给定用于每个时间步长的扩展sk下的到对象的距离Dk可以表示为:
Dk=D0–RVD(Tk–T0)–RAC(Tk–T0)2/2=sk D0
(上述方程可以被认为是汽车的运动学行为的泰勒展开:其当然可以包括(一个或多个)附加项)。
可以求解上述齐次方程组以确定RVD/D和RAC/D的值。由于存在两个未知数,所以必须使用至少3个观测值(例如,k=1,2,还有用作参考的0)来获得解。
如果对于距离D0存在适当的估计(例如,借由汽车宽度以及相机固有特性),则可以基于RVD和RAC的值来计算碰撞的时间TtC。
最终步骤S50:控制至少一个车辆设备
S50)最后,电子控制单元20基于与对象和相机之间的相对速度相关的所述信息,例如基于视觉扩展s、汽车200的深度相对速度RVD和/或与汽车200的碰撞的时间TtC,输出命令以控制汽车100的至少一个车辆设备(32,34,36)。
尽管根据本公开的方法的实施例仅针对从由(单个)相机获取的相机图像导出的对象的两个图像的获取来呈现,但是应当理解,这些方法通常基于由一个或多个相机在连续的时间步长处获取的一连串图像来迭代地实现。
因此,在一些实施例中,基于多个初始图像和最终图像对,可以执行步骤S41几次。由此获得变换的(一个或多个)参数的几个值。然后,在步骤S42中,可以基于这些不同的值来计算与对象和相机之间的相对速度相关的信息。
此外,可以执行上述定义的方法,以不仅基于单个相机,而且基于多个(两个或更多个)相机来计算与对象和相机之间的相对速度相关的信息。在这种情况下,所有相机必须相对于彼此保持在固定位置。此外,相机必须具有重叠的视场,使得对象出现在不同相机的图像中。
在这种情况下,可以基于初始图像和最终图像对来执行步骤S41,其中,所述初始图像和最终图像对基于不同相机的相机图像。由此获得变换的(一个或多个)参数的几个值。然后,在步骤S42中,可以基于这些不同的值来计算与对象和相机之间的相对速度相关的信息。
Claims (15)
1.计算机实现的方法,用于基于从由相机(30)输出的图像帧导出的对象的初始图像Ik和最终图像Ik+1来计算与所述对象(200)和所述相机(30)之间的相对速度相关的信息,所述方法包括:
S41)确定所述初始图像(Ik)和所述最终图像(Ik+1)之间的光流(F)的值,所述光流针对所述初始图像的像素(x,y)定义其在所述初始图像(Ik)变换为所述最终图像(Ik+1)的变换期间的估计运动(u,v);以及,
与确定所述光流的值一起或在确定所述光流的值之后,使用所述光流来确定所述变换的至少一个参数(s,tx,ty);以及
S42)基于所述变换的所述至少一个参数(s,tx,ty)来计算与所述对象和所述相机之间的相对速度相关的信息(RVD,TtC)。
2.如权利要求1所述的计算机实现的方法,其中,步骤S41包括:
S411)确定两个所述图像(Ik,Ik+1)之间的所述光流的值;并且,
变换后的像素是通过将所述变换应用于相应的先前像素而获得的像素;
变换后的像素的坐标因此是通过将所述相应的先前像素的所述光流F的值(u,v)与所述相应的先前像素的坐标(x,y)相加而获得的;
S412)求解使用所述变换的至少一个参数(s,tx,ty)将变换后的像素的坐标(x+u,y+v)表示为相应的先前像素的坐标(x,y)的函数的方程组,并且从而确定所述变换的所述至少一个参数(s,tx,ty)。
3.根据权利要求1所述的计算机实现方法,其中:
变换后的像素是通过将所述变换应用于相应的先前像素而获得的像素,
变换后的像素的坐标因此是通过将所述相应的先前像素的所述光流F的值(u,v)与所述相应的先前像素的坐标(x,y)相加而获得的;
第一方程(1)是使用所述变换的所述至少一个参数(s,tx,ty)将变换后的像素的坐标(x+u,y+v)表示为相应的先前像素的坐标(x,y)的函数的光流方程;
第二方程(2d')是表示针对所考虑像素(x,y),关于所述所考虑像素处的像素强度I的空间-时间信息关于偏离所述所考虑像素估计偏移值(ui,vi)的另一像素处的像素强度的空间-时间信息/>以及所述变换的所述至少一个参数(s,tx,ty)之间的关系的光流方程;
步骤S41包括执行如下初始化步骤:
S415)确定所述变换的所述至少一个参数((s,tx,ty)0)和所述光流(u0,v0)的初始值;
步骤S41还包括迭代地执行以下步骤:
S416)基于针对所述所考虑像素的所述光流(F)的估计值(ui,vi),通过求解针对所述初始图像的所考虑像素建立的第二方程组(2d'),来确定所述变换的所述至少一个参数((s,tx,ty)i+1)的更新值;
S417)确定是否有必要执行新的迭代;
S418)使用针对所述所考虑像素的第一方程组(1)以及在步骤S416中确定的所述一个或多个变换参数((s,tx,ty)i+1)的值,来确定针对所述所考虑像素的所述光流(F)的更新的估计值(ui+1,vi+1)。
6.如权利要求1至5中任一项所述的计算机实现的方法,其中,所述变换是透视变换、与平移(tx,ty)相结合的相似性变换(s)、仿射变换或者与平移相结合的刚性对象的旋转。
7.用于控制至少一个设备(100)的控制方法,所述控制方法包括以下步骤:
S10)利用至少一个相机(30)获取所述至少一个相机(30)的环境的相机图像;
S20)在由所述至少一个相机(30)中的一个相机获取的至少一相机图像对中识别对象(200);
S30)提取所述对象的初始图像(Ik)和最终图像(Ik+1),所述初始图像(Ik)和所述最终图像(Ik+1)是所述相机图像对中由识别出的所述对象(200)的边界框定义的部分;
S40)使用根据权利要求1至6中任一项所述的方法来计算与对象和所述至少一个相机之间的相对速度相关的信息(RVD,TtC);
S50)基于与所述对象和所述至少一个相机之间的所述相对速度相关的所述信息来控制所述至少一个设备(32、34、36)。
8.计算机程序,其存储在计算机可读存储介质上,并且适于在处理器上执行,所述程序包括指令,所述指令在所述处理器上运行时,适于执行根据权利要求1至7中任一项所述的方法的步骤。
9.计算机可读介质,其存储有指令,所述指令在由处理器执行时,致使所述处理器执行根据权利要求8所述的计算机程序。
10.对象运动分析***(10),所述对象运动分析***(10)包括电子控制单元(20),所述电子控制单元(20)配置为,基于从由相机输出的图像帧导出的所述对象的初始图像Ik和最终图像Ik+1:
S41)确定所述初始图像(Ik)和所述最终图像(Ik+1)之间的光流(F)的值,所述光流针对所述初始图像的像素(x,y)定义其在所述初始图像(Ik)变换为所述最终图像(Ik+1)的变换期间的估计运动(u,v);以及,
与确定所述光流的值(u,v)一起或在确定所述光流的值(u,v)之后,使用所述光流来确定所述变换的至少一个参数(s,tx,ty);以及
S42)基于所述变换的所述至少一个参数(s,tx,ty)来计算与所述对象和所述相机之间的相对速度相关的信息(RVD,TtC)。
11.根据权利要求10所述的对象运动分析***(10),其中,所述电子控制单元(20)配置为:
S411)确定两个所述图像(Ik,Ik+1)之间的所述光流的值;并且,
变换后的像素是通过将所述变换应用于相应的先前像素而获得的像素,
变换后的像素的坐标因此是通过将所述相应的先前像素的所述光流F的值(u,v)与所述相应的先前像素的坐标(x,y)相加而获得的;
S412)求解使用所述变换的所述至少一个参数(s,tx,ty)将变换后的像素的坐标(x+u,y+v)表示为相应的先前像素的坐标(x,y)的函数的方程组,并且从而确定所述变换的所述至少一个参数(s,tx,ty)。
12.根据权利要求11所述的对象运动分析***(10),其中,所述电子控制单元配置为通过对线性模型进行鲁棒拟合,例如通过RANSAC方法或IRLS方法,来求解所述方程组。
13.根据权利要求10所述的对象运动分析***(10),其中:
变换后的像素是通过将所述变换应用于相应的先前像素而获得的像素,
变换后的像素的坐标因此是通过将所述相应的先前像素的所述光流F的值(u(x,y),v(x,y))与所述相应的先前像素的坐标(x,y)相加而获得的;
第一方程(1)是使用所述变换的所述至少一个参数(s,tx,ty)将变换后的像素的坐标(x+u,y+v)表示为相应的先前像素的坐标(x,y)的函数的方程;
第二方程(2d')是表示针对所考虑像素(x,y),关于所述所考虑像素处的像素强度的空间-时间信息关于偏离所述所考虑像素以估计偏移值(ui,vi)的另一像素处的像素强度I的空间-时间信息/>以及所述变换的所述至少一个参数(s,tx,ty)之间的关系的光流方程;所述电子控制单元(20)配置为执行如下初始化步骤:
S415)确定所述变换的所述至少一个参数((s,tx,ty)0)和所述光流(u0,v0)的初始值;
所述电子控制单元(20)配置为还迭代地执行以下步骤:
S416)基于针对所述所考虑像素的所述光流F的估计值(ui,vi),并通过求解针对所述初始图像的所考虑像素建立的第二方程组(2d'),来确定所述变换的所述至少一个参数((s,tx,ty)i+1)的更新值;
S417)确定是否有必要执行新的迭代;以及
S418)使用针对所述所考虑像素的第一方程组(1)以及在步骤S416中确定的所述一个或多个变换参数((s,tx,ty)i+1)的值,来确定针对所述所考虑像素的所述光流F的更新的估计值(ui+1,vi+1)。
14.根据权利要求10至13中任一项所述的对象运动分析***(10),其中,所述变换是透视变换、与平移(tx,ty)相结合的相似性变换(S)、仿射变换或者与平移相结合的刚性对象的旋转。
15.控制***(10),其包括根据权利要求10至14中任一项所述的对象运动分析***(10),其中:
所述控制***(10)包括至少一个相机(30),所述至少一个相机(30)配置为获取图像(Ik,Ik+1);
所述电子控制单元配置为:
S10)利用所述至少一个相机(30)获取所述至少一个相机的环境的相机图像;
S20)在由所述至少一个相机中的一个相机获取的至少一相机图像对中识别对象(200);
S30)提取所述对象的初始图像(Ik)和最终图像(Ik+1),所述初始图像(Ik)和所述最终图像(Ik+1)是所述相机图像对中由识别出的所述对象(200)的边界框定义的部分;
S40)使用根据权利要求1至6中任一项所述的方法来计算与对象和所述至少一个相机之间的相对速度相关的信息(RVD,TtC);以及
S50)基于与所述对象和所述至少一个相机之间的所述相对速度相关的所述信息来控制所述控制***(10)的至少一个设备(32、34、36)。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2020/071861 WO2022028673A1 (en) | 2020-08-04 | 2020-08-04 | A method for calculating information relative to a relative speed between an object and a camera, a control method for a vehicle, a computer program, a computer-readable recording medium, an object motion analysis system and a control system |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116348915A true CN116348915A (zh) | 2023-06-27 |
Family
ID=71950623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080105838.0A Pending CN116348915A (zh) | 2020-08-04 | 2020-08-04 | 用于计算与对象和相机之间的相对速度相关的信息的方法、用于车辆的控制方法、计算机程序、计算机可读记录介质、对象运动分析***以及控制*** |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230289983A1 (zh) |
CN (1) | CN116348915A (zh) |
WO (1) | WO2022028673A1 (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080046181A1 (en) * | 2006-07-28 | 2008-02-21 | Hiroyuki Koike | Time-to-contact estimation device and method for estimating time to contact |
CN101146231A (zh) * | 2007-07-03 | 2008-03-19 | 浙江大学 | 根据多视角视频流生成全景视频的方法 |
CN101166276A (zh) * | 2006-10-17 | 2008-04-23 | 哈曼贝克自动***股份有限公司 | 由传感器辅助的视频压缩 |
CN108573500A (zh) * | 2018-04-24 | 2018-09-25 | 西安交通大学 | 一种直接估计车载相机运动参数的方法 |
-
2020
- 2020-08-04 CN CN202080105838.0A patent/CN116348915A/zh active Pending
- 2020-08-04 US US18/019,195 patent/US20230289983A1/en active Pending
- 2020-08-04 WO PCT/EP2020/071861 patent/WO2022028673A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080046181A1 (en) * | 2006-07-28 | 2008-02-21 | Hiroyuki Koike | Time-to-contact estimation device and method for estimating time to contact |
CN101166276A (zh) * | 2006-10-17 | 2008-04-23 | 哈曼贝克自动***股份有限公司 | 由传感器辅助的视频压缩 |
CN101146231A (zh) * | 2007-07-03 | 2008-03-19 | 浙江大学 | 根据多视角视频流生成全景视频的方法 |
CN108573500A (zh) * | 2018-04-24 | 2018-09-25 | 西安交通大学 | 一种直接估计车载相机运动参数的方法 |
Non-Patent Citations (1)
Title |
---|
TOMOKA KAWAKAMI ET AL: "estimation of rotation and divergence from optical flow constraint", ICCAS2008, 14 October 2008 (2008-10-14), pages 2 - 3 * |
Also Published As
Publication number | Publication date |
---|---|
WO2022028673A1 (en) | 2022-02-10 |
US20230289983A1 (en) | 2023-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11386567B2 (en) | Systems and methods for weakly supervised training of a model for monocular depth estimation | |
Menze et al. | Object scene flow | |
EP2757527B1 (en) | System and method for distorted camera image correction | |
US9990736B2 (en) | Robust anytime tracking combining 3D shape, color, and motion with annealed dynamic histograms | |
CN112991413A (zh) | 自监督深度估测方法和*** | |
WO2019183087A1 (en) | Data augmentation using computer simulated objects for autonomous control systems | |
US20200143179A1 (en) | Infrastructure-free nlos obstacle detection for autonomous cars | |
Drews et al. | Aggressive deep driving: Model predictive control with a cnn cost model | |
US11887336B2 (en) | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle | |
KR20190030474A (ko) | 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치 | |
JP2023530762A (ja) | 3dバウンディングボックスからの単眼深度管理 | |
KR20220008208A (ko) | 깊이 및 모션 추정을 위한 자기 지도 어텐션 학습 | |
JP5388059B2 (ja) | 背景画像推定に基づく物体検出方法及び物体検出装置 | |
Wedel et al. | Warpcut–fast obstacle segmentation in monocular video | |
Wang et al. | Cbwloss: constrained bidirectional weighted loss for self-supervised learning of depth and pose | |
JP2019032751A (ja) | カメラ運動推定装置、カメラ運動推定方法及びプログラム | |
CN116348915A (zh) | 用于计算与对象和相机之间的相对速度相关的信息的方法、用于车辆的控制方法、计算机程序、计算机可读记录介质、对象运动分析***以及控制*** | |
Wirges et al. | Self-supervised flow estimation using geometric regularization with applications to camera image and grid map sequences | |
Westerhoff et al. | Development and comparison of homography based estimation techniques for camera to road surface orientation | |
US11210802B2 (en) | Systems and methods for conditioning training data to avoid learned aberrations | |
CN111695379B (zh) | 基于立体视觉的地面分割方法、装置、车载设备及存储介质 | |
JP2013105392A (ja) | 運転支援システム、運転支援方法、及び、プログラム | |
Mohamed et al. | Real-time moving objects tracking for mobile-robots using motion information | |
JP7337165B2 (ja) | デジタル画像シーケンスを用いた相対運動の決定方法 | |
US20230386059A1 (en) | Warping depth features for depth estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |