CN110489202A - 用于在成像传感器的仿真中的透视性遮挡的快速的评定的方法 - Google Patents

用于在成像传感器的仿真中的透视性遮挡的快速的评定的方法 Download PDF

Info

Publication number
CN110489202A
CN110489202A CN201910336402.1A CN201910336402A CN110489202A CN 110489202 A CN110489202 A CN 110489202A CN 201910336402 A CN201910336402 A CN 201910336402A CN 110489202 A CN110489202 A CN 110489202A
Authority
CN
China
Prior art keywords
sensor
image
solid
dummy object
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910336402.1A
Other languages
English (en)
Inventor
M·彼得豪
K·里姆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dspace GmbH
Dspace Digital Signal Processing and Control Engineering GmbH
Original Assignee
Dspace Digital Signal Processing and Control Engineering GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dspace Digital Signal Processing and Control Engineering GmbH filed Critical Dspace Digital Signal Processing and Control Engineering GmbH
Publication of CN110489202A publication Critical patent/CN110489202A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/403Antenna boresight in azimuth, i.e. in the horizontal plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4086Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder in a calibrating environment, e.g. anechoic chamber

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种用于仿真包括成像传感器和图像处理单元的传感器***的方法。虚拟测试环境包括传感器和多个虚拟物体,其中一定数量的虚拟物体可通过图像处理单元识别。当第一和第二虚拟物体通过传感器的传感器视野检测出时,则张开投影平面。与第一虚拟物***置相同且尺寸一致的第一几何体和与第二虚拟物***置相同且尺寸一致的第二几何体在以传感器的位置坐标作为视点的中央投影中投影到投影平面上。当存在第一和第二几何体的映像的交集、传感器与第一虚拟物体之间的欧几里得距离小于传感器与第二虚拟物体之间的欧几里得距离并且交集的大小超过预定义的阈值,则第二虚拟物体假定为被透视性地遮挡。否则第二虚拟物体假定为未被透视性地遮挡。

Description

用于在成像传感器的仿真中的透视性遮挡的快速的评定的 方法
技术领域
本发明涉及传感器仿真和虚拟测试。
背景技术
在对安全关键的嵌入式***的开发中已知,对所述***在虚拟测试环境中检查正确的功能。在作为硬件在环(HIL)已知的方法中,将嵌入式***的原型与仿真计算机连接,所述仿真计算机提供绝大部分虚拟测试环境并且为嵌入式***以硬实时提供借助虚拟测试环境产生的输入数据。反之,仿真计算机可以读取嵌入式***的控制信号,并且在计算相应下一个仿真时间步长中的虚拟测试环境的状态时考虑所述控制信号。在较早的开发阶段中也已知,代替原型的嵌入式***只将其软件或其程序逻辑结合到虚拟测试环境中。这样的完全虚拟测试方法作为软件在环(SIL)或模型在环(MIL)而已知并且不是必须强制性地实时进行。在汽车工业中此外已知称为车辆在环(VIL)的方法,其中,安装在试验路段或滚子试验台上地测试在物理的测试车辆中的嵌入式***的原型,其中,以硬实时为嵌入式***提供借助虚拟测试环境产生的合成的传感器数据。
一些嵌入式***评估如下传感器数据,所述传感器数据由包括成像传感器的传感器***供应。这样的嵌入式***在汽车工业中与高级驾驶辅助***(ADAS,AdvancedDriving Assistance Systems)和高度自动化行驶(AF)相联系地具有特别的意义。成像传感器理解为所有如下传感器,由所述传感器的传感器数据可重现传感器的环境的图像,所述传感器尤其是雷达传感器、激光雷达传感器和超声传感器和此外用于可见的或不可见的光谱中被动采集图像的照相机***的光学传感器。这样的传感器***除了传感器本身之外也可以包括用于评估由传感器供应的图像数据的图像处理单元。图像处理单元可以设置为自主的嵌入式***或集成到要检验的嵌入式***中。
如果设有用于检验嵌入式***的虚拟测试环境,所述嵌入式***期待从包括成像传感器的传感器***的输入数据,则虚拟测试环境必须包括传感器***的仿真。在一些应用情况下,例如当图像处理单元不是待测件或不是待测件的部分时,则为了节省计算耗费合适的是,省去对传感器的详细的仿真。代替由虚拟测试环境计算传感器的图像数据,将传感器视野配置给仿真的传感器,所述传感器视野例如是具有限定的作用范围的由传感器出发的锥形视野,并且从多个由虚拟测试环境所包括的虚拟物体中将一定数量的虚拟物体确定为通过传感器***可识别的虚拟物体。当传感器仿真例如设置用于路标识别的仿真时,则所有可添加给虚拟测试环境的虚拟路标可以确定为通过传感器***可识别的虚拟物体。在虚拟测试环境的仿真运行中,于是在示例性的使用中将所有由传感器视野检测的虚拟路标接纳到所识别的虚拟物体的暂时列表中,而所有其余的由传感器视野检测的虚拟物体、例如人、树、建筑物、车辆和交通灯原则上不被仿真的传感器***识别,即原则上不接纳到所识别的虚拟物体的暂时列表中。
因而在本发明的本说明书中,以传感器***的仿真优选指的是借助简单的传感器***模型的仿真,所述传感器***模型仅在表面上仿制传感器***的行为,但最多在小范围内仿真物理的传感器***的物理的或技术的过程并且尤其是不包括计算出合成的图像数据,所述图像数据例如模仿由真正的成像传感器产生的图像数据。这样的简单的传感器***模型也作为Ground-Truth传感器已知。其优点之一是小的计算耗费,所述计算耗费对其实施是必需的。由此Ground-Truth传感器特别适合用于以硬实时、例如以硬件在环方法实施的虚拟测试。
在事先Ground-Trut传感器时的基本问题是考虑通过传感器***可识别的虚拟物体的透视性遮挡。如在前说明的,Ground-Truth传感器首先将所有如下虚拟物体评价为被识别的,所述虚拟物体由传感器视野检测并且确定为通过传感器***可识别的物体。但为了对传感器***切合实际地仿真,必须事后检验,评价为所识别的虚拟物体实际上是否对于传感器可见,或者所述虚拟物体从传感器的视角至少部分地是否被另一个虚拟物体遮挡。当情况如此并且透视性遮挡超过一定程度时,则所述虚拟物体必须从所识别的虚拟物体的暂时列表中去除。
由计算机图形学的专业领域已知大量用于识别被透视性地遮挡的面的的、方法。一个选择例如在Torsten的演示“Visibility and Hidden Surface Removal”中公开(加拿大的Simon Fraser大学的课程“CMPT 361:Introduction to ComputerGraphics”的一部分,在互联网上可下载)。其中一些也包含三维场景到投影平面上的投影。但该已知的方法的目的是计算切合实际的图像,并且其高的计算耗费使得其对于实时应用是有问题的,因为在计算传感器图像之后按照已知的方法之一还必须评估,所查明的透视性遮挡是否还允许通过仿真的传感器***识别被遮挡的物体。
Xue-li Shen和Tao Li的文章“Fast Collision Detection Based onProjection Parallel Algorithm”(2nd International Conference on FutureComputer und Communication,IEEE,2010)说明一种用于两个体在三维空间中的碰撞识别的方法,其通过投影到三个正交的投影平面上和在每个投影平面上实施碰撞识别来进行。
EP 0 620 409 B1公开一种用于搜索目标的导弹的开发和测试的仿真环境。所述仿真环境以硬实时计算用于导弹的成像传感器的合成的图像,并且所述公开包括用于识别被透视性地遮挡的面的方法。
发明内容
在该背景下,本发明的任务是,在虚拟测试环境中加速对包括成像传感器的传感器***的仿真中的透视性遮挡的识别。
为了解决该任务,提出一种以下描述的用于仿真传感器***的方法。仿真的传感器***在此包括成像传感器和用于识别在由传感器输出的传感器图像中的物体的图像处理单元。传感器***本身的仿真优选是Ground-Truth传感器并且只隐含地包括成像传感器和图像处理单元。
为了应用所述方法,使用如下虚拟测试环境,所述测试环境包括多个虚拟物体,并且在所述测试环境中,给传感器和每个虚拟物体分别配置位置坐标。在虚拟测试环境中给传感器配置传感器视野,并且所述多个虚拟物体中的一定数量的物体确定为可通过传感器***识别的虚拟物体。
在所述虚拟测试环境上开始仿真运行,在所述仿真运行的过程中,给传感器或至少一个虚拟物体周期地配置在虚拟测试环境中的新的位置坐标,并且周期地检查:至少一个虚拟物体是否通过传感器视野检测出。
当至少一个第一虚拟物体和第二虚拟物体通过传感器视野检测处并且第二虚拟物体可通过传感器***识别时,则以下面描述的方式实施第二物体通过第一物体的透视性遮挡的评定。为此在虚拟测试环境中首先张开投影平面,所述投影平面的空间的取向这样选择,使得其适合于第一物体和第二物体的中央投影,如果传感器的位置坐标作为中央投影的视点使用的话。中央投影理解为具有从视点出发的扇形光路的投影,所述投影在投影平面上产生投影的点的图像,如处于视点上的观察器、具体来说传感器将察觉其。
以传感器的位置坐标作为视点实施与第一物***置相同的几何体到投影平面上的至少部分的中央投影,其中,未缩放的第一几何体的尺寸完全或至少大致与第一物体的尺寸一致。不重要的是,第一几何体在虚拟测试环境中是否原来就存在或按照需要产生用于实施中央投影。在第一几何体和第一物体的尺寸完全一致时,第一几何体也可以与第一物体相同,亦即仅隐含地在虚拟测试环境中存在。优选地,第一几何体是第一物体的包络体或缩放的包络体。物体的包络体理解完全包围物体的几何体,其具有相对于被包围的物体简化的几何结构,尤其是具有少量的顶点的多面体或以简单的方式可解析地描述的体、例如球或圆柱体。
包络体最多应该包括多少顶点或其几何结构应该如何简单则与应用情况有关并且几乎无法普遍有效地确定。只要所述方法设置用于实时地实施,则几何体的几何结构应该原则上这样选择,使得所述方法的软件实现的完整经过在通过应用情况预定的时间段内、尤其是在仿真时间步长内这样可靠地确保,使得在完整的仿真运行内不会期待由于软件实现而逾越预定的时间段。尤其是根据所述方法的实现、虚拟测试环境和仿真的复杂性并且根据实施所述方法的计算机***的硬件装备来确定:几何体的何种几何结构或何种数量的顶点是合理的。
物体的部分的中央投影或部分地实施的中央投影理解为,物体的点中的仅不完整的选集在中央投影中投影到投影平面上。在一些实施形式中,由所投影的点在投影平面上形成集合,所述集合大致与由物体的完整实施的中央投影所产生的映像一致。
以与实施第一几何体的中央投影类似的方式,以传感器的位置坐标作为视点实施与第二物***置相同的第二几何体到投影平面上的至少部分的中央投影,其中,未缩放的第二几何体的尺寸完全或至少大致与第二物体的尺寸一致。
第一几何体的投影产生在投影平面上的第一映像,第二几何体的投影产生在投影平面上的第二映像。接着检验:是否存在第一映像和第二映像的交集。在如下情况下,即,首先存在交集,其次传感器与第一物体之间的欧几里得距离小于传感器与第二物体之间的欧几里得距离,并且再次交集的大小相对于第二映像的大小超过预先确定的阈值,则第二物体评价为几何上被遮挡,即从如下事实出发,即,当第二物体从传感器看来部分地可见时,图像处理单元也不识别第二物体,因为透视性遮挡的程度对于第二物体通过图像处理单元的识别而言过高。欧几里得距离的确定优选借助传感器、第一物体和第二物体的位置坐标进行。
在传感器与物体之间的欧几里得距离可以借助传感器的位置坐标和物体的确定的点来确定,例如借助物体的与传感器处于最近的点或物体的位置坐标。
在上面提到的条件中至少之一不满足的情况下,亦即要么没有交集存在,要么在传感器与第一物体之间的欧几里得距离大于或等于在传感器与第二物体之间的欧几里得距离,要么交集的大小相对于第二映像的大小未超过预先确定的阈值,则第二物体评价为未被透视性地遮挡,即从如下事实出发,即,当第二物体部分地通过第一物体透视性地遮挡时,图像处理单元也识别出第二物体,因为透视性遮挡的程度对于第二物体通过图像处理单元的识别足够低。
透视性遮挡的在前描述的评定可以在需要时多次实施到分别不同的虚拟物体上,如果除了第一物体和第二物体之外通过传感器视野检测到其他虚拟物体的话。为了通过待测件或通过运行虚拟测试环境的计算机***的评估,产生传感器***的信号,从所述信号可得出信息,所有通过传感器视野检测出的并且可通过传感器***识别的、评价为未被透视性地遮挡的虚拟物体由图像处理单元识别,而所有通过传感器视野检测出的并且可通过传感器***识别的、评价为被透视性地遮挡的虚拟物体不由图像处理单元识别。
在一种可能的应用情况下,所述信号形成实际的传感器***、尤其是系列生产的或原型的传感器***的可能的信号。在另一种可能的应用情况下,所述信号模仿实际的传感器***的不可能的信号并且例如用于操控测试台,所述测试台设置用于为实际的成像传感器假装在其传感器视野内物体存在。
本发明的优点是,能够实现用于处理图像的传感器***对虚拟物体的可识别性的快速且可靠的评定,而不用在此采用计算机图形学中的计算耗费的方法、例如光线追踪或Z-Buffering。由此所述方法也减少用于相应的传感器***的仿真的硬件耗费,因为其在不使用图形处理器(GPU,Graphics Processing Unit)的情况下可实施。申请人的研究已得出,按照本发明的方法的软件实现可以可靠地在一毫秒内进行。这意味着,本发明适合用于硬件在环方法并且按照本发明的方法按硬件在环方法的意义实时适应。
有利地,所述传感器在虚拟测试环境中悬挂在虚拟自动装置上,其中,传感器***的信号由设置用于操控虚拟自动装置的控制***或由设置用于操控虚拟自动装置的控制软件来监控。所述控制***尤其可以是待测件、例如用于控制物理的自动装置的原型的嵌入式***,所述自动装置借助传感器图像作出关于控制自动装置的决定。相应地,控制软件尤其可以是原型的、设置用于安装在用于控制物理自动装置的控制***上的控制软件,或处于开发中的程序逻辑,所述程序逻辑设置用于稍后准备用于安装在相应的控制***上。虚拟自动装置特别优选是虚拟自动化车辆,其中,车辆理解为任意的设置用于由自身的力前进的技术***。传感器在虚拟自动装置上的悬挂尤其是理解为,传感器的位置坐标和传感器视野的空间的取向通过虚拟自动装置的位置坐标和/或空间的取向和/或状态而明确地预定。
为了进一步减少计算耗费有利的是,不实施几何体到投影平面上的完整投影,而是仅将几何体的点的选集投影到投影平面上并且从由选择的点的映像形成的点云在投影平面上形成二维集合,所述二维集合大致对应于完全投影的几何体的映像并且优选包括点云的所有点,例如通过形成点云的凸形包络。为了多面几何体的投影例如可能的是,对几何体的所有顶点或顶点的选集进行投影。特别有利的是仅投影几何体的如下点,所述点的映像是由几何体的完整投影而产生的映像的凸形包络的元素。用于确定各点的这样的选集的数值方法在对图4至6的描述中公开。
点的集合的凸形包络是包括所述点的集合中的所有点的最小凸形集合。当每个在所述集合中的两个点之间连起的连接直线完全包含在所述集合中时,则所述集合叫做凸形。当与体全等的空间点的集合是凸形时,所述体称为凸形。
为了测试交集的存在并且为了确定相对于第二映像的大小的交集的大小,可以在本发明的一种实施方案中使用用于测量面的已知的数值方法。例如投影平面可以分成足够小的区、例如方形、三角形或六角形。交集的存在的识别和相对于第二映像的大小对比可以然后通过对所述区的计数进行,所述区至少部分地不仅处于第一映像内而且处于第二映像内或至少部分地处于第二映像内,并且通过所确定的区数量的对比。
但有利地省去对面进行的测量,其方式为,用于交集的大小的阈值设置为等于零并且交集的存在的检验借助第一映像和第二映像在投影平面上的碰撞识别来实施。亦即在最后提到的实施例中,第一映像和第二映像的交集的存在的单纯的证明就足够,将虚拟的第二体评估为被遮挡,其中,假定如下情况,即,第一虚拟物体相对于传感器的欧几里得距离小于第二虚拟物体相对于传感器的欧几里得距离。交集的大小不重要。所述方法由此显著加速,因为交集的存在或不存在的单纯的证明在相应地适合低实现所述方法时比对面进行的测量要求更少的计算步骤。
为了第一映像和第二映像的碰撞识别,Gilbert-Johnson-Keerthi算法、以下称为GJK算法的使用是有利的,如其例如在Patrick Lindemann的学科论文“The Gilbert-Johnson-Keerthi Distance Algorithm”中说明的(为关于“Algorithms on MediaInformatics Media”的Media Informatics Proseminar,2009)。
第一和第二映像在如下情况下刚好相撞,即,其闵可夫斯基差包括在投影平面上定义的笛卡尔坐标系的原点。GJK算法规定,形成第一映像和第二映像的闵可夫斯基差并且通过在闵可夫斯基差中的三角形的重复的定义检查,闵可夫斯基差是否包括原点,其中,所述三角形在每个重复步骤中更多地接近原点。GJK算法仅可用于凸形量。
对于GJK算法的快速运行有利的是,第一映像和第二映像是具有少量的顶点的凸形封闭的多边形,从而第一映像和第二映像–并且因此其闵可夫斯基差–分别可划分成小的数量的三角形。这可以如下保证,即,所述几何体构造为具有少量的顶点的凸形多面体,其中尤其是在实施几何体的投影之前确定几何体的顶点的选集,所述顶点的映像是几何体的映像的凸形包络的元素。在此分别只投影所述选集的顶点。
借助碰撞识别、例如GJK算法,可证明第一映像和第二映像的交集的存在或不存在。但碰撞识别通常不提供关于存在的交集的大小的信息。当如在本发明的在前所述实施形式中,用于交集的大小的阈值设置为等于零并且为交集的存在的检验使用碰撞识别,则第二物体通过第一物体的每次透视性遮挡都引起第二物体评价为被透视性地遮挡,而这与透视性遮挡的程度无关。
在一些情况下,这不对应于实际的处理图像的传感器***的应为。通常借此要考虑,设置用于在传感器图像中的物体的识别的实际的传感器***识别对于传感器***可识别的、但被透视性地遮挡的物体,只要透视性遮挡的程度不超过一定的公差值,并且当透视性遮挡的程度超过公差值,则传感器***不识别被透视性地遮挡的物体。
为了在使用碰撞识别模仿该行为,在本发明的一种实施方案中规定,确定用于对于传感器***可识别的物体的透视性遮挡的公差值,由所述公差值计算缩放因数并且在实施投影之前至少将第一几何体或第二几何体以所述缩放因数缩放为更小或在实施碰撞识别之前至少将第一映像或第二映像以所述缩放因数缩放为更小。在图7的说明中公开用于缩放因数的计算的示例性的算法。
在投影过程或碰撞识别的通常的、尤其是在相应适合的程序中,原则上不需要,结束投影过程。为了按照本发明的方法的进一步加速在一种特别有利的实施方案中设置,已经在运行对第一几何体或第二几何体的投影过程期间,尤其是其中并行实施第一几何体和第二几何体的投影,借助第一几何体和第二几何体的已经投影到投影平面上的点的映像实施碰撞识别并且中断尚未结束的投影,如果借助已经投影的点的映像识别出碰撞或排除了碰撞的话。
要求保护的发明也包括设置用于实施按照本发明的方法的计算机***以及用于设置用于实施按照本发明的方法的计算机***的计算机程序产品。
附图说明
以下借助附图说明有利的实施例,其对本发明进一步解释。图中:
图1示出设置用于实施按照本发明的方法的计算机***;
图2示出存储在计算机***上的虚拟测试环境;
图3示出第一几何体和第二几何体的示例性的投影过程;
图4示出用于选择几何体的设置用于投影的点的方法;
图5示出用于在排除碰撞之后中断投影过程的第一示例;
图6示出用于在识别碰撞之后中断投影过程的第二示例;以及
图7示出第一或第二几何体的示例性的缩放。
具体实施方式
图1的示图示出用于虚拟测试构造为驾驶辅助***的基于雷达的控制***UUT的设置为测试台的计算机***TB。计算机***TB包括仿真计算机SI、雷达测试台RD和主机H。仿真计算机SI包括中央处理器C,实时运行***(未示出)和虚拟测试环境VT存储在所述中央处理器上,以及用于虚拟测试环境VT与仿真计算机SI的***之间交换数据的接口单元IN。在主机H上存储的是用于设置虚拟测试环境VT和用于将虚拟测试环境VT存储在中央处理器C上的计算机程序产品,此外还有用于在虚拟测试环境VT的仿真运行期间监控并且操控在中央处理器C上的虚拟测试环境VT的操作软件。
计算机***TB作为待测件包括具有发射-接收单元TR、第一控制器E1和第二控制器E2的基于雷达的控制***UUT。发射-接收单元TR设置用于发出雷达脉冲RS,借助成像的雷达传感器接收雷达脉冲RS的雷达回波RE并且借助雷达回波RE构建发射-接收单元TR的环境的传感器图像。第一控制器E1包括用于识别在传感器图像中的物体的图像处理单元并且此外设置用于借助所识别的物体构建对发射-接收单元的环境的说明。第二控制器E2设置用于,读入、评估环境的说明并且借助对环境的说明来操控在虚拟测试环境VT中的虚拟自动化车辆VE。
雷达测试台RD包括一定数量的在圆弧上可运动的雷达发射机T,所述雷达发射机设置用于发射用于仿真雷达回波RE的雷达脉冲。仿真计算机SI设置用于操控雷达测试台RD。仿真计算机在此对雷达发射机T定位并且在时间上这样调整仿真的雷达回波RE,使得雷达测试台RD按照由发射-接收单元TR发射的雷达脉冲模仿在虚拟测试环境中的虚拟物体的雷达回波RE。
图2的视图示出虚拟测试环境VT的示例性的快照。虚拟测试环境具有包括在虚拟的道路R上的由第二控制器E2操控的虚拟自动化车辆VE和多个其他虚拟物体O3、…、O10。虚拟物体示例性地包括车辆O3、O4、O9、O10、建筑物O5、树O6、O7和路标O8。每个虚拟物体O3、…、O10配置有在虚拟测试环境VT中的静止或可变的位置坐标。
传感器S(被遮挡)悬挂在虚拟自动化车辆VE的前侧上。传感器S是传感器***的仿真的部分,所述传感器***除了传感器S之外也包括用于识别物体的图像处理单元。传感器S配置有金字塔形的、从传感器S出发的传感器视野FV,所述传感器视野的空间取向通过虚拟自动化车辆VE的位置坐标和空间取向来预定。在虚拟测试环境VT中存在的物体的至少一个子集作为通过传感器***可识别的物体确定。所有可通过传感器***识别的、通过传感器视野FV检测出的物体O1、…、O8接纳到所识别的虚拟物体的暂时列表中。针对所有在暂时列表中列出的物体,实施针对透视性遮挡的检查,并且所有评价为被透视性地遮挡的物体从暂时列表中去除。在关于透视性遮挡检查结束之后还列出的物体形成所识别的物体的列表,并且虚拟测试环境VT产生传感器***的信号,从所述信号可得出在所识别的物体的列表中列出的物体。
传感器***的信号的准确构造可以按照应用情况不同。所述信号可以带有关于列出的物体的其他信息、例如其绝对位置坐标或相对于传感器S的相对位置坐标。所述信号例如可以模仿真正的传感器***的可能的信号并且经由接口单元IN为了通过控制***UUT评估而向外引导。在图1和2中示出的实施例中,所述信号不模仿真正的传感器***的信号并且不向外引导,而是由用于操控雷达测试台RD的仿真计算机SI评估。
在当前所述的实施例中,虚拟测试环境VT中的所有虚拟物体O3、…、O10可通过传感器***识别。在其他实施例中,一些在虚拟测试环境VT中存在的虚拟物体通过传感器***不可识别。原则上只通过传感器***可识别的物体接纳到可识别的物体的暂时列表中。但有利地,通过传感器***不可识别的物体也能透视性地遮挡通过传感器***可识别的物体。
每个物体O1、…、O10在虚拟测试环境VT中作为包络体配置有包络长方体B1,B2,所述包络长方体在学术界称为定界框(Bounding Box)。
雷达测试台RD应该只模仿在虚拟测试环境VT中的物体O3、…、O10的雷达回波RE,所述物体从传感器S的视点未被透视性地遮挡或其透视性遮挡低于公差值,从而第一控制器E1将相应被透视性地遮挡的物理的物体识别为独立的物体。在图2中示出的快照中,三个车辆O3、O9、O10、建筑物O5、树O7和路标O8通过传感器视野FV检测出并且因此接纳到所识别的物体的暂时列表中。但车辆O10被车辆O9透视性地遮挡,路标O8被车辆O9部分地透视性地遮挡并且车辆O3被建筑物O5部分地透视性地遮挡。
以下描述的图示出按照本发明的用于评定透视性遮挡的方法。
图3的视图示出虚拟测试环境VT的三维场景,所述虚拟测试环境包括传感器S、在第一包络长方体B1中的第一物体O1和在第二包络长方体B2中的第二物体O2。第一物体O1和第二物体O2两者由传感器视野FV检测出并且接纳到所识别的物体的暂时列表中。首先借助第一物体O1的位置坐标和传感器S1的位置坐标确定第一物体O1至传感器的欧几里得距离,并且借助第二物体O2的位置坐标和传感器S的位置坐标确定第二物体O2至传感器的欧几里得距离。将所述欧几里得进行距离比较,并且对于更远地与传感器S远离的物体检验:从传感器S看来通过较靠近于传感器S的物体的透视性遮挡。示例性地检验:从传感器S看来第二物体O2是否通过第一物体O1透视性地遮挡。
为此张开投影平面P,双轴的局域坐标系CS定义在所述投影平面上,并且第一包络长方体B1和第二包络长方体B2至少部分地投影到投影平面P上,其中,对于所述投影使用以传感器S的位置坐标作为视点的中央投影。因为包络长方体B1、B2是凸形体,所以其在投影平面上的映像I1,I2也是凸形。第一包络长方体B1的投影这样发生,使得在实施投影之前确定第一包络长方体B1的顶点,所述顶点在投影平面P上的图像是第一包络长方体B1的第一映像I1的顶点。用于确定相应顶点的数值方法以下在图4的描述中的公开。第一包络长方体B1的所有六个从传感器S看来可见的顶点的投影和所投影的顶点的映像的凸形包络的形成产生第一包络长方体B1的精确映像I1。
以相同的方式在投影平面P上构建第二包络长方体B2的第二映像I2。代替包络长方体也可使用具有其他几何结构的其他包络体,所述其他包络体的映像例如具有与通过包络体包裹的虚拟物体的映像更大的一致性。
借助GJK算法实施第一映像I1和第二映像I1的碰撞识别。当存在第一映像I1和第二映像I2的交集,并且交集的存在评价为第二物体O2被第一物体O1透视性遮挡时,则碰撞准确地存在。GJK算法规定,首先在局域坐标系CS中形成第一映像I1和第二映像I2的闵可夫斯基差。两个集合A,B的闵可夫斯基差Σ是集合
Σ(A,B)={a-b|a∈A,b∈B},
亦即如下集合,其通过从A中的每个元素减去B中的每个元素产生。交集A和B在如下情况下准确存在,即,原点是Σ的元素。GJK算法规定,通过将闵可夫斯基差Σ分解成三角形来检查:局域坐标系CS的原点是否是第一映像I1和第二映像I2的闵可夫斯基差Σ的元素。通过使用具有只少量的顶点的用于第一物体O1和第二物体O2的多面体的包络体,第一映像I1和第二映像I2并且结果是还有其闵可夫斯基差Σ是具有少量的顶点的多边形,亦即可分解成少数量的三角形(单纯形)。由此有利于GJK算法的快速运行。
图3的示图仅为了形象说明投影过程而分别示出第一包络长方体B1和B2的完整投影。实际上规定,将两个包络长方体B1,B2并行投影,已经在投影过程期间形成或部分地形成两个包络体B1,B2的顶点的已经投影的点云的闵可夫斯基差,并且一旦借助已经投影的顶点或点的映像识别或排除了第一映像I1和第二映像I2的碰撞,则中断投影过程。本发明的该方面在后续的说明中进一步解释。
图4的示图以第二包络长方体B2为例勾画用于确定包络体的各点的设置用于投影的选集的搜索算法。
首先确定平行于投影平面P的初始搜索方向SD1(用于选择初始搜索方向的规则在图5和6的描述中预设)并且借助初始搜索方向SD1张开搜索平面SP,所述搜索平面满足以下条件:
-搜索平面SP正交于投影平面P,并且
-搜索平面SP平行于搜索方向SD1。
所述搜索算法包括以下步骤:
1)搜索第二包络长方体的第一点P1,所述第一点关于搜索方向SD1处于最外面。
第一点P1能够同义地也定义为如下点,法向矢量平行于搜索方向SD1的面放置在所述点上,从而所述面仅包括与第二包络长方体B2的唯一的交点并且在沿搜索方向SD1的任意小的移动之后不再与第二包络长方体B2具有交点。
2)确定从视点、即传感器S的位置坐标至第一点P1的连接矢量V。
3)形成新的搜索方向SD2,其平行于搜索平面SP并且正交于连接矢量V并且其与旧的搜索方向SD1的标积为正,以便搜索第二点P2,所述第二点关于新的搜索方向SD2处于最外面。
4)重复步骤1)至3),直至在当前的迭代步骤中发现的点与在前面的迭代步骤中发现的点之间的距离低于公差值。
在图4中示出的示例中,借助所描述的搜索算法,第二点P2确定为第二包络长方体B2的设置用于投影的点。以反向于搜索方向SD1的初始搜索方向的后续的搜索运行将第三点P3确定为设置用于投影的点。原则上,所述搜索算法可以任意频繁地以变换的搜索方向实施。每次搜索运行导致确定第二包络长方体B2的一个边界点,所述边界点从传感器S看来透视性地远在外面并且在以传感器S的位置坐标作为视点对第二包络长方体B2的完整中央投影中将属于第二包络长方体B2的图像的凸形包络。
通过以不同的初始搜索方向多次实施所述搜索算法,确定第二包络长方体B2的点P2、P3的选集,并且实施第二包络长方体的投影,其方式为,点P2、P3的选集在以传感器S的位置坐标作为视点的中央投影中投影到投影平面P上。
只要点P2、P3的选集充分广泛,则映像I2精确地对应于第二包络体的实际映像,如其由完全实施的中央投影得出的那样。搜索算法可使用于任意的包络体,也用于非多面体的包络体、例如圆柱形的包络体,其中,包络体有利地是凸形包络体。通过借助搜索算法确定凸形包络体的点的选集和形成所述点的选集的映像的凸形集合,总是可构建包络体的映像,所述映像大致对应于由包络体的完全实施的投影而产生的映像。
用于投影的点的选集的确定对于第一包络长方体B1并且对于第二包络长方体B2并行实施,并且借助搜索算法确定的点分别直接在其确定之后投影到投影平面P上。在投影平面P上已经在第一包络长方体B1和第二包络长方体B2的还运行的投影过程期间借助已经投影的点的映像来实施碰撞识别,并且当借助已经投影的点的映像识别出碰撞或排除了碰撞,则中断投影。
图5的示图示出用于提前中断第一包络体B1和第二包络体B2的投影的第一示例。在所述示例中,第一包络体B1作为立方体并且第二包络体B2作为球示出。首先确定第一初始搜索方向SD1-A,以便借助在图4中示出的搜索算法搜索第一包络体B1的从传感器S看来沿第一初始搜索方向SD1-A的方向最远的第一点P1-A。
为了确定第一初始搜索方向SD1-A在所描述的实施例中原则上规定,将第一包络体B1的位置坐标从第二包络体B2的位置坐标中减去并且将由所述减去产生的连接矢量投影到投影平面P上。
第一点P1-A直接在其确定之后投影到投影平面P上,以便产生第一点的映像I1-A。接着确定与第一初始搜索方向SD1-A相反的第二初始搜索方向SD1-B,以便搜索第二包络体B2的从传感器S看来沿第二初始搜索方向SD1-B的方向最远的第二点P1-B。第二点P1-B直接在其确定之后投影到投影平面P上,以便产生第二点的映像I1-B。
直接在第二点P1-B的投影之后形成第一点I1-A的映像和第二点I1-B的映像的差D。所述差D是第一包络体B1和第二包络体B2的映像的闵可夫斯基差Σ的点。因为不仅第一包络体B1而且第二包络体B2是凸形体,所以由第一初始搜索方向SD1-A和差D的负的标积得出,第一点的映像I1-A和第二点的映像I1-B是第一包络体B1和第二包络体B2的映像的彼此处于最近的点并且因而差D是闵可夫斯基差Σ的与局域坐标系CS的原点处于最近的点。闵可夫斯基差Σ因而可以不包括局域坐标系CS的原点。所述投影因此在第一点P1-A和第二点P1-B的投影之后中断,并且由第二包络体B2包裹的第二物体O2评价为未被透视性地遮挡,只要第二包络体B2不由第一包络体B1之外的另一个包络体透视性地遮挡的话。
图6的示图示出用于提前投影的第二示例并且同时图像投影过程的有利的实施方案。原则上对于第二包络体B2通过第一包络体B1的透视性遮挡的识别规定以下列出的方法步骤。设置用于投影的点的选集在此原则上如在图4的说明中所描述的在使用当前有效的初始搜索方向的情况下发生。以下假定,第二虚拟物体O2相对于传感器S的欧几里得距离大于第一虚拟物体O1相对于传感器S的欧几里得距离。
所述方法步骤如下:
1.1)通过如下矢量到投影平面P上的投影定义第一初始搜索方向SD1-A,所述矢量通过将第一虚拟物体O1的位置坐标从第二虚拟物体O2的位置坐标中减去而得出,并且定义与第一初始搜索方向SD1-A相反的初始搜索方向SD1-B。
1.2)借助第一初始搜索方向SD1-A选择第一包络体B1的第一点P1-A并且将其投影到投影平面P上,以便产生第一包络体B1的第一点P1-A的映像I1-A。借助相反的初始搜索方向SD1-B选择第二包络体B2的第一点P1-B并且将其投影到投影平面P上,以便产生第二包络体B2的第一点P1-B的映像I1-B,
1.3)在局域坐标系CS中形成映像I1-A和I1-B的第一差D1。
2.1)定义第二初始搜索方向SD2-A,其从第一差D1出发指向局域坐标系CS的原点的方向,借助第二初始搜索方向SD2-A选择第一包络体B1的第二点P2-A并且将其投影到投影平面P上,以便产生点P2-A的映像I2-A。
2.2)借助与第二初始搜索方向SD2-A相反的初始搜索方向SD2-B选择第二包络体B2的第二点P2-B并且将其投影到投影平面P上,以便产生点P2-B的映像I2-B。
2.3)在局域坐标系CS中形成最后产生的映像I2-A和I2-B的第二差D2。
3.1)定义第三初始搜索方向SD3-A,其垂直于第一差D1和第二差的连接线并且指向局域坐标系CS的原点的方向,借助第三初始搜索方向SD3-A选择第一包络体B1的第三点P3-A并且将其投影到投影平面P上,以便产生第一包络体B1的第三点P3-A的映像I3-A。
3.2)借助与第三搜索方向SD3-A相反的搜索方向SD3-B选择第二包络体B2的第三点P3-B并且将其投影到投影平面P上,以便产生点P3-B的映像I3-B。
3.3)在局域坐标系CS中形成最后产生的映像I3-A和I3-B的第三差D3的图像。
4)当闵可夫斯基差Σ的由第一差D1、第二差D2和第三差D3张开的单纯形包括局域坐标系CS的原点时,中断投影过程并且将第二虚拟物体O2评估为被透视性地遮挡。
5.1)当单纯形不包括局域坐标系CS的原点,放弃单纯形的最远地与原点远离的角点并且定义新的初始搜索方向,所述新的初始搜索方向垂直于两个剩余的角点的连接线并且指向局域坐标系CS的原点的方向。借助新的搜索方向选择第一包络体B1的点并且将其投影到投影平面P上,以便产生所述点的映像。
5.2)借助与新的初始搜索方向相反的搜索方向选择第二包络体B2的点并且将其投影到投影平面P上,以便产生所述点的映像。
5.3)在局域坐标系CS中形成两个最后产生的图像的差别并且使用所述差作为新的角点,以便与两个剩余的角点一起张开一个新的单纯形。
6)重复步骤5.1至5.3,直至当前的单纯形要么具有局域坐标系CS的原点(中断准则A)要么当前的使用于选择第一包络体B1的点的初始搜索方向和借助当前的初始搜索方向设置的角点的标积为负(中断准则B)。
当出现中断准则A时,第二虚拟物体O2评价为被透视性地遮挡。当出现中断准则B时,第二虚拟物体O2评价为未被透视性地遮挡。中断准则A的检验和使用当然在如下情况下才可能,即,确定了至少三个角点D1,D2,D3。中断准则B已经在确定唯一的角点之后就可使用。在图6中示出的示例中,投影过程在确定第三角点D3之后中断并且第二虚拟物体O2评价为被透视性地遮挡,因为闵可夫斯基差Σ的通过三个角点D1,D2,D3张开的单纯形具有局域坐标系CS的原点并且借此证明第二包络体B2被第一包络体B1部分地透视性地遮挡。
借助GJK算法虽然可证明两个集合的交集的存在,但不可测量交集的大小。因此第二包络体B2通过第一包络体的任意小的透视性遮挡导致,第二包络体B2评价为被透视性地遮挡并且因而作为对于传感器***不可见。但从包括成像传感器S和图像处理单元的实际的传感器***可期待,图像处理单元也将透视性地部分地识别被遮挡的物体本身,只要透视性遮挡不超过公差值的话。
为了模仿该切合实际的行为,可确定用于虚拟物体O1、…、O8的透视性遮挡的公差值T。公差值T=0.25例如表示:如果从传感器S看来虚拟物体的多于大约四分之一的面没有被透视性地遮挡,则处于传感器视野FV中的并且通过传感器***可识别的虚拟物体应该通过传感器***识别出。根据所选择的公差值,至少所述第一包络体B1或第二包络体B2缩放为更小。当存在已缩放的包络体的映像I1,I2的交集时,第二虚拟物体O2评价为被透视性地遮挡。
为第一包络体B1导入第一缩放因数s1。为第二包络体B2导入第二缩放因数s2。对于在0≤T≤0.5的范围中的公差值,缩放因数如下确定:
s1=1
s2=2(0.5-T)
用于在0.5<T≤1的范围中的公差值,缩放因数如下确定:
s2=0
A1是在假定完全实施投影的情况下对第一包络体B1的第一映像I1的面的精确的或评定的值,并且A2是对于第二包络体B2的第二映像I2的面的精确的或评定的值。长方体形的包络体的映像的面A1借助以下公式评定:
在此L是投影平面P与由包络体包裹的虚拟物体的位置坐标之间的欧几里得距离,D1,D2和D3是长方体的三个彼此正交的面,es是由包络体包裹的虚拟物体和传感器S的位置坐标的差矢量,并且en,1、en,2和en,3是面法线。
图7的示图示出该缩放规定对于三个不同的公差值的应用。第一包络体B1和第二包络体B2在示图中出于明了性作为棱边长度8cmx6cm和6cmx4cm的二维矩形示出。虚线分别示出未缩放的包络体,实线示出缩放的包络体。
在公差值T=0.25时,第一包络体B1保持未缩放,而对于第二包络体产生缩放因数0.5。第一包络体B1必须遮挡未缩放的第二包络体B2的可见的面的大约四分之一,然后出现缩放的第二包络体B2的透视性遮挡。
在公差值T=0.5时,第一包络体B1保持未缩放,而第二包络体B2缩放到点大小。第一包络体B1必须大致一半地遮挡未缩放的第二包络体B2的可见的面,然后出现缩放的第二包络体B2的透视性遮挡。
在公差值T=1时,对于第一包络体B1得出缩放因数s1=0.5,而第二包络体B2缩放到点大小。未缩放的第一包络体B1必须大致完全遮挡未缩放的第二包络体B2,然后出现缩放的第二包络体B2通过缩放的第一包络体B1的透视性遮挡。
在图7中示出的缩放方法可普遍有效地应用,如果在虚拟测试环境VT中的所有虚拟物体O1、…、O8具有类似的尺寸的话。否则普遍有效的应用可能是有问题的。因为潜在被透视性地遮挡的第二包络体B2可以缩放直到点大小,所以可以产生通过任意小的第一包络体B1的透视性遮挡,这不是按照本发明的传感器***的切合实际的行为。例如按照本发明的方法可能在如在图3中示出的情况下导致如下结果,即,车辆O1对于基于雷达的控制***UUT不可见,因为其被小孩O2遮挡。
在虚拟测试环境VT中的虚拟物体O1、…、O8的尺寸强烈彼此偏离的情况下因此有利的是,借助对映像I1,I2的面的之前描述的评定进行透视性遮挡的可信度的预先评价。例如所述方法可以这样扩展,使得透视性遮挡的检验只在如下情况实施,即,第一映像I1的评定的面相对于第二映像I2的评定的面超过预定的值。

Claims (14)

1.用于仿真传感器***的方法,所述传感器***包括成像传感器(S)和用于在由传感器(S)输出的传感器图像中识别物体(O1、…、O10)的图像处理单元,
其中,在包括多个虚拟物体(O1、…、O10)的虚拟测试环境(VT)中,给传感器(S)配置位置坐标并且给每个虚拟物体(O1、…、O10)配置位置坐标;
给传感器(S)配置在虚拟测试环境(VT)中的传感器视野(FV),并且所述多个虚拟物体(O1、…、O10)中的一定数量的物体确定为可通过传感器***识别的虚拟物体;
开始仿真运行,在所述仿真运行的过程中,为传感器(S)或至少一个虚拟物体(O1、…、O10)周期地分派在虚拟测试环境(VT)中的新的位置坐标,
并且周期性检查:至少一个虚拟物体(O1、…、O10)是否通过传感器视野(FV)检测出;
其特征在于,在通过传感器视野(FV)检测出第一虚拟物体(O1)和可通过传感器***识别的第二虚拟物体(O2)的情况下,
-张开合适于以传感器(S)的位置坐标作为视点对第一虚拟物体(O1)和第二虚拟物体(O2)进行中央投影的投影平面(P);
-在投影平面(P)上形成第一映像(I1),其方式为,在以传感器(S)的位置坐标作为视点的中央投影中将与第一虚拟物体(O1)位置相同的第一几何体(B1)至少部分地投影到投影平面(P)上,所述第一几何体的尺寸至少大致与第一虚拟物体(O1)的尺寸一致;
-在投影平面(P)上形成第二映像(I2),其方式为,在以传感器(S)的位置坐标作为视点的中央投影中将与第二虚拟物体(O2)位置相同的第二几何体(B2)至少部分地投影到投影平面(P)上,所述第二几何体的尺寸至少大致与第二虚拟物体(O2)的尺寸一致;
-检验:是否存在第一映像(I1)和第二映像(I2)的交集;
-在如下情况下,即,
i.存在交集,
ii.在传感器(S)与第一虚拟物体(O1)之间的欧几里得距离小于在传感器与第二虚拟物体(O2)之间的欧几里得距离,并且
iii.交集的大小、尤其是相对于第二映像(I2)的大小超过预先确定的阈值,
则将第二虚拟物体(O2)评价为被透视性地遮挡;
-在所述条件i.、ii.或iii.中的至少之一不满足的情况下,则将第二虚拟物体(O2)评价为未被透视性地遮挡;并且
-产生传感器***的信号,从所述信号可得出,所有通过传感器视野(FV)检测出的并且可通过传感器***识别的、评价为未被透视性地遮挡的虚拟物体(O1、…、O10)由图像处理单元识别,并且所有通过传感器视野(FV)检测出的并且可通过传感器***识别的、评价为被透视性地遮挡的虚拟物体(O1、…、O10)不由图像处理单元识别。
2.按照权利要求1所述的方法,其中,在虚拟测试环境(VT)中,所述传感器(S)悬挂在虚拟自动装置上、尤其是在虚拟自动化车辆(VE)上,并且所述传感器***的信号由设置用于操控虚拟自动装置的控制***(UUT)或由设置用于操控虚拟自动装置的控制软件来监控。
3.按照权利要求1所述的方法,其中,所述第一几何体(B1)是第一物体(O1)的第一包络体,而所述第二几何体(B2)是第二物体(O2)的第二包络体。
4.按照权利要求1至3之一所述的方法,其中,投影所述几何体(B1,B2)的点(P1-A,P2-A,P1-B、…、P3-B)的选集,并且
形成几何体(B1,B2)的映像(I1,I2),其方式为,由所选择的点的映像(I1-A,I1-B,I2-A、…、I2-B)形成的点云在投影平面(P)上形成二维集合。
5.按照权利要求4所述的方法,其中,所述二维集合是点云的凸形包络。
6.按照权利要求4或5所述的方法,其中,所述点(P1-A,P2-A,P1-B、…、P3-B)的选集仅包含如下点,所述点的映像是几何体(B1,B2)的由几何体(B1,B2)的完整投影而形成的映像的凸形包络的元素。
7.按照上述权利要求之一所述的方法,其中,为了检验交集的存在,实施用于第一映像(I1)和第二映像(I2)的碰撞识别,并且用于所述交集的大小的阈值等于零。
8.按照权利要求7所述的方法,其中,为碰撞识别使用Gilbert-Johnson-Keerthi算法。
9.按照权利要求7所述的方法,其中,确定用于对于传感器***可识别的虚拟物体(O1、…、O10)的透视性遮挡的公差值,由所述公差值计算缩放因数,并且第一几何体(B1)或第二几何体(B2)在实施投影之前以所述缩放因数缩放为更小。
10.按照权利要求7所述的方法,其中,确定用于对于传感器***可识别的虚拟物体(O1、…、O10)的透视性遮挡的公差值,由所述公差值计算缩放因数,并且第一映像(I1)或第二映像(I2)在实施碰撞识别之前缩放为更小。
11.按照权利要求7至9之一所述的方法,其中,在实施第一几何体(B1)或第二几何体(B2)的投影期间,借助第一几何体(B1)和第二几何体(B2)的已经投影到投影平面(P)上的点(P1-A,P2-A,P1-B、…、P3-B)的映像(I1-A,I2-A,I1-B、…、I3-B)实施碰撞识别,
并且当借助已经投影的点(P1-A,P2-A,P1-B、…、P3-B)的映像(I1-A,I2-A,I1-B、…、I3-B)识别出碰撞或排除了碰撞时,中断尚未结束的投影。
12.按照权利要求1至11之一所述的方法,其中,确定第一几何体(B1)和第二几何体(B2)至传感器(S)的欧几里得距离,尤其是借助第一虚拟物体(O1)、第二虚拟物体(O2)和传感器(S)的位置坐标来确定。
13.设置用于实施按照权利要求1至12之一所述的方法的计算机***(TB)。
14.计算机程序产品,其用于设置计算机***(TB),以用于实施按照权利要求1至12之一所述的方法。
CN201910336402.1A 2018-05-14 2019-04-25 用于在成像传感器的仿真中的透视性遮挡的快速的评定的方法 Pending CN110489202A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP18172050.9A EP3570063B1 (de) 2018-05-14 2018-05-14 Verfahren zur schnellen abschätzung einer perspektivischen verdeckung in einer simulation eines bildgebenden sensors
EP18172050.9 2018-05-14

Publications (1)

Publication Number Publication Date
CN110489202A true CN110489202A (zh) 2019-11-22

Family

ID=62217755

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910336402.1A Pending CN110489202A (zh) 2018-05-14 2019-04-25 用于在成像传感器的仿真中的透视性遮挡的快速的评定的方法

Country Status (3)

Country Link
US (1) US10990854B2 (zh)
EP (1) EP3570063B1 (zh)
CN (1) CN110489202A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111123319A (zh) * 2019-12-31 2020-05-08 泰斗微电子科技有限公司 一种卫星定位装置、卫星信号接收机及终端设备
CN113297881A (zh) * 2020-02-24 2021-08-24 华为技术有限公司 一种目标检测方法及相关装置

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
CN104969289B (zh) 2013-02-07 2021-05-28 苹果公司 数字助理的语音触发器
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10884424B2 (en) * 2018-09-07 2021-01-05 GM Global Technology Operations LLC Traffic light occlusion detection for autonomous vehicle
EP3850457A4 (en) * 2018-09-12 2022-05-18 Brain Corporation BLIND SPOT DETECTION SYSTEMS AND METHODS FOR ROBOTS
WO2020112213A2 (en) * 2018-09-13 2020-06-04 Nvidia Corporation Deep neural network processing for sensor blindness detection in autonomous machine applications
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN113901343A (zh) * 2021-09-30 2022-01-07 北京百度网讯科技有限公司 目标物体的可视角确定方法、装置及电子设备
EP4202753A1 (de) * 2021-12-21 2023-06-28 dSPACE GmbH Erzeugen von testdaten zum testen eines einen sensordatenstrom auswertenden steuersystems eines kraftfahrzeugs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0700546D0 (en) * 2007-01-11 2007-02-21 Real Time Data Company The Ltd Radar reflection simulator
CN107438538A (zh) * 2015-04-10 2017-12-05 罗伯特·博世有限公司 用于显示车辆的车辆周围环境的方法
CN107526065A (zh) * 2016-06-20 2017-12-29 罗德施瓦兹两合股份有限公司 雷达目标仿真设备和方法
US20180075635A1 (en) * 2016-09-12 2018-03-15 Samsung Electronics Co., Ltd. Method and apparatus for transmitting and receiving virtual reality content

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5495562A (en) 1993-04-12 1996-02-27 Hughes Missile Systems Company Electro-optical target and background simulation
US9830700B2 (en) * 2014-02-18 2017-11-28 Judy Yee Enhanced computed-tomography colonography
SE538908C2 (sv) * 2015-10-22 2017-02-07 Uniquesec Ab Testing method with virtual radar signatures for an automotive safety radar system
US10635844B1 (en) 2018-02-27 2020-04-28 The Mathworks, Inc. Methods and systems for simulating vision sensor detection at medium fidelity

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0700546D0 (en) * 2007-01-11 2007-02-21 Real Time Data Company The Ltd Radar reflection simulator
CN107438538A (zh) * 2015-04-10 2017-12-05 罗伯特·博世有限公司 用于显示车辆的车辆周围环境的方法
CN107526065A (zh) * 2016-06-20 2017-12-29 罗德施瓦兹两合股份有限公司 雷达目标仿真设备和方法
US20180075635A1 (en) * 2016-09-12 2018-03-15 Samsung Electronics Co., Ltd. Method and apparatus for transmitting and receiving virtual reality content

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
S. XUE-LI等: "Fast collision detection based on projection parallel algorithm", 2010 2ND INTERNATIONAL CONFERENCE ON FUTURE COMPUTER AND COMMUNICATION, 28 June 2010 (2010-06-28) *
王振文, 徐华: "复杂场景中基于拓扑空间网格的碰撞检测算法", 计算机***应用, vol. 26, no. 12, 31 December 2017 (2017-12-31), pages 116 - 123 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111123319A (zh) * 2019-12-31 2020-05-08 泰斗微电子科技有限公司 一种卫星定位装置、卫星信号接收机及终端设备
CN113297881A (zh) * 2020-02-24 2021-08-24 华为技术有限公司 一种目标检测方法及相关装置
CN113297881B (zh) * 2020-02-24 2024-05-14 华为技术有限公司 一种目标检测方法及相关装置

Also Published As

Publication number Publication date
US20190347525A1 (en) 2019-11-14
EP3570063B1 (de) 2023-08-30
EP3570063A1 (de) 2019-11-20
US10990854B2 (en) 2021-04-27

Similar Documents

Publication Publication Date Title
CN110489202A (zh) 用于在成像传感器的仿真中的透视性遮挡的快速的评定的方法
US20200230821A1 (en) Information processing apparatus, information processing method, and storage medium
US11455565B2 (en) Augmenting real sensor recordings with simulated sensor data
CN103678754B (zh) 信息处理装置及信息处理方法
KR20190062171A (ko) 자율 머신에서의 오작동 센서의 딥 러닝 기반의 실시간 검출 및 수정
Tuttas et al. Validation of BIM components by photogrammetric point clouds for construction site monitoring
CN104908038A (zh) 对工件的取出工序进行仿真的机器人仿真装置
Tuncali et al. Sim-atav: Simulation-based adversarial testing framework for autonomous vehicles
CN102947865A (zh) 用于光线跟踪中的图元相交的***和方法
KR100718157B1 (ko) 충돌 감지 장치 및 방법
CN104517318A (zh) 三维量测模拟取点***及方法
Trika et al. Virtual reality interfaces for feature-based computer-aided design systems
CN210115917U (zh) 具有视觉语义感知的机器人虚实交互操作执行***
Kulkarni et al. Visual SLAM combined with object detection for autonomous indoor navigation using kinect V2 and ROS
Karwowski et al. Quantitative metrics for benchmarking human-aware robot navigation
CN104102357A (zh) 一种虚拟场景中的3d模型检测方法及装置
JPH10128686A (ja) ロボットマニピュレータの制御方法およびロボットマニピュレータの制御装置
Papp et al. Multi-agent based HIL simulator with high fidelity virtual sensors
Ohashi et al. A remote control method for mobile robots using game engines
Gomes et al. Volumetric Occupancy Detection: A Comparative Analysis of Mapping Algorithms
Eason et al. Least-squares fusion of multisensory data
Buck et al. Unreal engine-based photorealistic aerial data generation and unit testing of artificial intelligence algorithms
JP2020143920A (ja) モデル生成装置、車両シミュレーションシステム、モデル生成方法、車両シミュレーション方法およびコンピュータプログラム
CN111367194A (zh) 一种视觉算法验证的方法及装置
CN115468778B (zh) 车辆测试方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Paderborn, Germany

Applicant after: Desbeth Co.,Ltd.

Address before: Paderborn, Germany

Applicant before: DSPACE DIGITAL SIGNAL PROCESSING AND CONTROL ENGINEERING GmbH

CB02 Change of applicant information