CN107097790A - 用于阐明车辆的车辆周围环境的方法和设备以及车辆 - Google Patents

用于阐明车辆的车辆周围环境的方法和设备以及车辆 Download PDF

Info

Publication number
CN107097790A
CN107097790A CN201710089301.XA CN201710089301A CN107097790A CN 107097790 A CN107097790 A CN 107097790A CN 201710089301 A CN201710089301 A CN 201710089301A CN 107097790 A CN107097790 A CN 107097790A
Authority
CN
China
Prior art keywords
vehicle
periphery
another
relation
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710089301.XA
Other languages
English (en)
Inventor
H·扬森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of CN107097790A publication Critical patent/CN107097790A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及一种用于阐明车辆(100)的车辆周围环境(106)的方法。所述方法包括提供所述车辆周围环境(106)的映象的步骤;在使用所述映象中的第一对象(115)的第一位置和所述映象中的第二对象(116)的第二位置的情况下构造关系信息的步骤,其中,所述关系信息代表所述车辆周围环境(106)中的所述第一对象(115)和第二对象(116)之间的空间关系;和使用所述关系信息的步骤,以便阐明所述车辆周围环境(106)。

Description

用于阐明车辆的车辆周围环境的方法和设备以及车辆
技术领域
本发明涉及用于阐明车辆的车辆周围环境的方法和设备。本发明的主题也是一种计算机程序。
背景技术
用于驾驶员辅助(FAS)的***通常使用具有不同物理特性的传感器用于检测自身车辆处于的状况。如下处理传感器的信息:使得可以实现驾驶员辅助功能,例如车辆的纵向控制,也称作“ACC”(Adaptive Cruise Control:自适应巡航控制)。
发明内容
在此背景下,利用在此所提出的方案,提出一种用于阐明车辆的车辆周围环境的方法,此外提出了一种使用该方法的设备、一种车辆以及最后提出一种相应的计算机程序。本发明还提出有利的扩展方案和改善方案。
车辆的车辆周围环境的映象(Abbild)中的对象的位置的用于构造关系信息——所述关系信息代表车辆周围环境中的对象之间的空间关系——的使用能够实现用于实现驾驶员辅助功能和/或自动化驾驶功能和/或自动驾驶功能的相对的对象描述的导入。
映象可以涉及场景的传感器附近映像。映象可以理解为围绕车辆的驾驶状况的描述。映象可以例如涉及中心透视的映象或鸟瞰视角示出的映象中的场景。映象可以示出从视频传感器视角的场景的示图。
映象尤其可以涉及车辆的视频传感器的图像,所述视频传感器根据在此所提出的构思的一种实施方式从图像来分析相对的对象描述和对象关系,所述对象描述和对象关系在内部阐明时结合并且阐明的结果和/或对象和/或对象之间的关系在到车辆的驾驶员辅助***的和/或驾驶功能的外部接口上以供使用。
提出用于阐明车辆的车辆周围环境的方法,其中,所述方法具有以下步骤:
提供车辆周围环境的映象;
在使用映象中的第一对象的第一位置和映象中的第二对象的第二位置的情况下构造关系信息,其中,所述关系信息代表车辆周围环境中的第一对象与第二对象之间的空间关系;
使用所述关系信息,以便阐明车辆周围环境。
所述方法可以在软件或硬件中或在由软件和硬件构成的混合形式中——例如在控制设备中——实现。
车辆周围环境可以涉及与用于车辆的驾驶辅助功能相关的车辆的周围环境。车辆周围环境可以具有基础设施和/或车辆的相对附近区域中的有生命的或无生命的对象。车辆周围环境可以根据车辆在乡村的还是城市的周围环境中运动而变化,并且也可以根据当前由车辆行驶的道路属于哪种道路种类而变化。光学传感器可以是分配给车辆的驾驶员辅助***的视频摄像机的一部分,所述视频摄像机布置在车辆的挡风玻璃后面。所述映象可以示出车辆周围环境中的场景的传感器附近映象。所述映象例如可以是中心透视的映象。所述映象也可以示出鸟瞰视角。所述映象可以代表由车辆的对准车辆的行驶方向的光学传感器产生的映象。所述映象可以相应地涉及数字视频图像。相应于摄像机的位置,所述映象可以描绘车辆周围环境的在行驶方向上位于车辆前面的片段,尤其在行驶方向上位于车辆前面的道路片段和邻接所述道路片段的基础设施区域、和位于所述片段中的对象。
对象例如可以涉及交通参与者(例如车辆、行人或骑自行车的人)、所示出的场景的可行驶的场地(所谓的空场地)、行车道的车道、交通基础设施、侧边沿(Berandungen)(例如防护栏和导向柱、绿色条纹(Grünstreifen)等)、植被、建筑、天空等。对象可以在相应的情境中理解为真实车辆周围环境的真实对象或真实对象在代表车辆周围环境的数字映象中的虚拟对象。对象的位置可以代表数字映象中的像素所描绘的对象的位置。第一对象与第二对象之间的空间关系例如可以表示对象之间的间距、至少一个对象与车辆的距离、至少一个对象的运动方向和/或运动速度或对象中的一个被另一个的遮挡。关系信息可以在使用映象的像素的数量和尺寸的情况下求取,所述关系信息示出第一与第二对象之间的关系,例如对象的间距。
为了有利地跟踪车辆周围环境中的至少一个对象,可以重复实施所述方法的步骤。
在此所提出的构思在一种优选实施方式中描述视频传感器的接口,所述接口尽可能最优地匹配于传感器的特性并且所述接口直接使用视频传感器的物理特性。由此,传感器信息的降低性能的转换(例如从正面视角到格栅图示(网状图示)得以避免或者通过另外的直接的视频信息补充。在此,直接从传感器的物理特性导出的信息可以补充例如鸟瞰投影中的接口。所述方法扩大信息的范围,所述信息可以从视频传感器中拿出来被使用。这达到这样的程度,使得未来可以大大减少用于实施驾驶员辅助功能的其他传感器的数量。由此,得出在传感器市场中的很大优点,所述优点可以尽可能地完全地利用各个传感器的潜力。通过在此所提出的构思,增加作用范围和/或驾驶状况中的所检测的对象的可用性。
根据一种实施方式,可以在使用步骤中使用所述关系信息用于横向转向功能例如车道保持功能,和/或用于车辆的纵向调节。在此,所述纵向调节例如也包括车辆的跟随。如此可以特别稳健地实现车道保持功能。
也有利的是,所述方法具有将第一对象和/或第二对象分配给对象类别的步骤。相应地,在使用步骤中,还可以使用对象类别,以便阐明车辆周围环境。根据所述方法的所述实施方式,可以有利地以低的计算耗费阐明车辆周围环境。
根据另一实施方式,所述方法可以具有构造遮挡信息的步骤。遮挡信息可以代表映象中的第一对象被第二对象遮挡。相应地,在使用步骤中还可以使用遮挡信息,以便阐明车辆周围环境。遮挡信息可以容易地用于确定第一对象相对于车辆的空间关系。
在构造关系的步骤中,例如还可以在使用映象中的另一第一对象的另一第一位置和映象中另一第二对象的另一第二位置的情况下构造另一关系信息。在此,所述另一关系信息可以代表车辆周围环境中的另一第一对象与另一第二对象之间的空间关系。相应地,在使用步骤中,还可以使用所述另一关系信息,以便阐明车辆周围环境。所述另一关系信息可以容易地用于验证所述关系信息。
根据一种特别的实施方式,使用步骤可以具有生成所述关系信息与所述另一关系信息之间的关系值的步骤。如此可以在使用所述关系值的情况下阐明车辆周围环境。
所述方法的所述实施方式能够实现车辆周围环境阐明向远处的有利的传播(Progagierung)。
在此,例如可以在使用步骤中使用所述关系值用于在另一车辆后面跟随行驶。
也有利的是,所述方法具有确定对象中的一个的或另一对象的相对于光学传感器的定向(Peilung)的步骤。相应地,在使用步骤中还可以使用所述定向,以便阐明车辆周围环境。如此可以使用光学传感器的极性检测原理在其直接的使用中有利地用于阐明车辆周围环境。
在此所提出的方案还实现一种设备,所述设备构造用于在相应的装置中执行、操控或实施在此所提出的方法的方案的步骤。也可以通过本发明的以一种设备的形式的实施方案快速并且高效地解决基于本发明的任务。
为此,所述设备可以具有用于处理信号或数据的至少一个计算单元、用于存储信号或数据的至少一个存储单元、到传感器或执行器的用于从传感器读取传感器信号或用于向执行器输出数据信号或控制信号的至少一个接口、和/或用于读取或输出数据的至少一个通信接口,所述数据嵌入到通信协议中。所述计算单元例如可以是信号处理器、微处理器、ASSP(专用标准产品)、SOC(***级芯片)等,其中,所述存储单元可以是闪存存储器、EPROM或磁存储单元。数据也可以存储在分散地由车辆组成的云端中。通信接口可以构造用于无线地和/或有线地读取或输出数据,其中,可以读取或输出有线的数据的通信接口可以从相应的数据传输线路中电地或光学地读取数据或向相应的数据传输线路中输出数据。
在本申请中,对于设备可以理解为电设备,所述电设备处理传感器信号并且根据所述传感器信号输出控制信号和/或数据信号。所述设备可以具有接口,所述接口可以硬件形式地和/或软件形式地构造。在硬件形式的构造中,接口可以例如是所谓的***ASIC和/或***ASSP的一部分,所述部分包含设备的最不同功能。但也可以的是,所述接口是独立的集成电路或至少部分地由离散的器件构成。在软件形式的构造中,接口可以是软件模块,所述软件模块例如在微处理器上存在于其他软件模块旁边。
在一种有利的构型中,通过所述设备,在使用车辆的车辆周围环境的数字映象中的对象的位置的情况下实现关系信息的构造。为此,所述设备可以调用安装在车辆的视频传感器的视频信号。
还提出一种具有光学传感器、驾驶员辅助***和如上面所描述的设备的车辆。所述设备与光学传感器和/或驾驶员辅助***导电地连接。
驾驶员辅助***可以提供车道保持辅助或如车辆的自主驾驶或自动制动等功能。
也有利的是具有程序代码的计算机程序产品或计算机程序,所述计算机程序产品可以存储在机器可读的载体上,例如半导体存储器、硬盘存储器或光学存储器,并且被用于尤其当所述程序产品或程序在电脑上或设备上运行时来执行、实施和/或操控根据上面所描述的实施方式中任一项所述的方法的步骤。
附图说明
在此所提出的方案的实施例在附图中示出并且在以下描述中进一步阐述。附图示出:
图1根据一种实施例的具有驾驶员辅助***的车辆;
图2根据一种实施例的用于阐明车辆的车辆周围环境的设备的方框图;
图3根据一种实施例的用于阐明车辆的车辆周围环境的方法的流程图。
图4根据一种实施例的用于构造关系信息的高速公路场景的中心透视的示意性示图
图5根据一种实施例的用于构造关系信息的城市场景的中心透视的示意性示图
图6根据一种实施例的用于构造关系信息的城市场景的另一中心透视的示意性示图
在本发明的有利的实施例的以下描述中,对于在不同附图中示出的并且类似作用的元素使用同样的或类似的附图标记,其中,不对所述元件做重复的描述。
具体实施方式
图1以俯视图示出车辆100。对于图1中示出的实施例,车辆100涉及轿车。车辆100也可以涉及其他与道路相关的车辆,例如载重车辆或摩托车。
示例的车辆100具有多个视频摄像机,所述视频摄像机安装在车辆的不同位置上。第一视频摄像机102安装在车辆100的挡风玻璃后面并且对准车辆100的车辆周围环境106的在车辆100的行驶方向104上位于车辆100前面的片段(Ausschnitt)。第二视频摄像机108安装在车辆100的右侧外后视镜中并且对准车辆100的车辆周围环境106的在行驶方向104上位于车辆100右侧的片段。第三视频摄像机110安装在车辆100的左侧外后视镜中并且对准车辆100的车辆周围环境106的在行驶方向104上位于车辆100左侧的片段。第四视频摄像机112安装在车辆100的后面区域中并且对准车辆100的车辆周围环境106的在行驶方向104上位于车辆100后面的片段。
车辆100还具有驾驶员辅助***114,所述驾驶员辅助***例如通过车辆100的CAN总线与视频摄像机102、108、110、112导电地连接。视频摄像机102、108、110、112的光学传感器或视频传感器产生对视频摄像机可见的车辆周围环境106的视频信号,所述视频信号在视频摄像机102、108、110、112的配属的图像处理装置中被处理成所检测的车辆周围环境106的数字图像。
通过后续的和/或在视频摄像机102、108、110、112中所包含的功能,通过合适的接口为了实现驾驶员辅助功能向驾驶员辅助***114提供所述图像信息。
根据在图1中的示图,视频摄像机102、108、110、112通过所述视频摄像机的相应的图像传感器的面检测车辆100所处的状况,并且在其中识别与驾驶员辅助***功能相关的对象或其他信息。示例性的,在图1中的示图中示出车辆周围环境106中的第一对象115和第二对象116,所述第一对象和第二对象在图1中所示出的示例性的驾驶状况中位于第一视频摄像机102的检测区域内。
例如,第一视频摄像机102的光学传感器118在车辆100的所述驾驶状况中检测在行驶方向104上位于车辆100前面的路段以及两个对象115、116,并且提供相应的图像信号。在使用所述图像信号的情况下,第一视频摄像机102的图像处理装置产生所检测的周围环境106的中心透视的数字映象,在所述映象中平面地示出车辆周围环境106的所检测的片段的基础设施元素以及对象115、116。在此,所述中心透视的示图仅仅是示例性选择的。例如也可以实现鸟瞰视角的示图。
根据在此所提出的构思,车辆100配备至少一个用于阐明车辆100的车辆周围环境106的设备120。设备120与第一视频摄像机102导电地连接并且构造用于在使用车辆周围环境106的由视频摄像机102所产生的中心透视的映象中的对象115、116的虚拟映象的位置的情况下构造至少一个关系信息,所述关系信息代表车辆周围环境106中真实对象115、116之间的空间关系,并且使用所述关系信息,以便阐明车辆周围环境106。
在图1中所示出的实施例中,设备120是第一视频摄像机102的一部分,例如以视频摄像机102的界面或接口的形式,所述设备尽可能最优地与传感器118的特性匹配,并且直接使用视频传感器的物理特性。
根据一种实施例,通常在车辆100中安装的视频摄像机108、110、112也配备有自己的设备120。
在一种替代的变型方案中,设备120与视频摄像机102远离地安装在车辆100中并且例如通过CAN总线导电地与视频摄像机102耦合。例如,设备120也可以是驾驶员辅助***114的一部分并且构造用于将所有可用的摄像机102、108、110、112的数字映象中央地处理成用于阐明车辆周围环境106的关系信息。除了数字映象,也可以将各个摄像机102、108、110、112的车辆周围环境的描述传输到中心单元114。
设备120的任务是提供相对的对象描述和对象关系,所述对象描述和对象关系基于车辆周围环境106中所检测的对象115、116的在视频摄像机102的平面图像传感器的中心透视的映象中的形势(Konstellation)。
根据在此所提出的构思设计的用于驾驶员辅助的摄像机***在***复杂性低和***成本低的同时具有高性能。
根据所提出的构思,驾驶员辅助***114的驾驶员辅助功能可以基于视频传感器118的相对描述实现经改善的调节策略,所述调节策略提升各个功能的质量。例如,相比于间接从视频材料中所确定的绝对坐标,可以更稳健地调节(相对)碰撞时间。从中导出对于基于视频的驾驶员辅助***114有利的行为模式。例如,对于在行车道上的跟随行驶,相对于与车道走向的间距来调节与前方行驶车辆的相对间距。对于在空场地上的行驶,则以相对于侧边界如防护栏的相对间距为导向。
为了支持场景阐明,也可以有利地使用在车辆100中存储的数字地图的信息。如果在当前路段上道路形式不改变,例如在高速公路上行驶而没有驶入或驶出的情况,则可以相对可靠地将所述状况假设为同样的和恒定的。在此,摄像机102的附近区域和远处区域应该在道路的基础设施中具有大的相似性。该场景内容的相对描述可以有利地被针对该接口规格优化的驾驶员辅助功能使用。
根据一种实施例,雷达传感器可以附加于或代替于所述视频摄像机102、108、110、112中的至少几个安装在车辆100中。所述雷达传感器检测对象115、116的反向散射信号并且测量对象115、116的间距。在此情况下也可以设想其他传感器,例如光学雷达、超声波等。
在此所提出的用在用于驾驶员辅助***的新型视频传感器界面中的相对的对象描述的构思也可以与驾驶员辅助结合地实现,其中,为了优化功能性能,合并车辆驾驶员辅助***中的不同传感器的信息。在合并前,将所述信息换算至统一的、可合并的图示。在此,非常经常地使用车辆所处的状况的笛卡尔的、绝对的图示。所述图示方式称为所谓的格栅图示(网状图示)。所述场景的统一的建模导致,传感器基于向有合并能力的形式的换算通常不再能够在其本地坐标系中提供其数据和信息。
如果将视频传感器118的信息转换至格栅图示,则以几乎90°转动前观察方向——所述场景已最初被从所述观察方向接收——并且从上面观察所述场景。对象115、116之间的最初在场景的图像中所包含的关系在此丢失。在此,在所述“经典的”格栅图示上的功能仅次优地利用例如视频传感器118。根据在此所提出的方案,这可以通过添加基于所述透视示图的关系信息来补偿。
借助在此所提出的构思,可以有利地简化车辆100的传感器安装。如此可以实现减少到仅仅一个雷达传感器和一个视频传感器。还可以设想,也实现在唯一的主传感器上的复杂驾驶功能;在此主要提供视频传感器118,因为所述视频传感器具有最大的带宽并且可以提供关于驾驶状况的完整信息。
图2示出用于阐明车辆的车辆周围环境的设备120的一种实施例的方框图。设备120具有构造装置200和使用装置202。
通过合适的接口——例如到车辆的视频摄像机的图像传感器——向图像装置200提供由图像传感器产生的车辆的车辆周围环境的中心透视的映象204。构造装置200构造用于,在使用映象中的第一对象的第一位置和映象中第二对象的第二位置的情况下构造关系信息206并且向使用装置202提供所述关系信息。
在使用装置202中处理代表车辆周围环境中的第一对象和第二对象之间的空间关系的关系信息206,以便鉴于必要时必需的驾驶员辅助功能阐明车辆周围环境。
根据设备120的一种实施例,在构造设备200中还在使用映象中的另一第一对象的另一第一位置和映象中的另一第二对象的另一第二位置的情况下构造另一关系信息208,所述关系信息代表车辆周围环境中另一第一对象与另一第二对象之间的空间关系。同样在使用设备202中处理所述另一关系信息208,以便还进一步鉴于必要时必需的驾驶员辅助功能阐明车辆周围环境。
借助以适合处理的形式的结果信息210例如向车辆的驾驶员辅助***提供在使用装置202中执行的车辆周围环境的阐明的结果,所述驾驶员辅助***在使用所述结果信息的情况下例如控制车辆的车道保持功能。
根据设备120的一种实施例,构造装置200还构造用于将数字映象中所示出的对象分配给一个或多个对象类别。相应地,在使用装置202中还在使用对象的分类的情况下阐明车辆周围环境。
替代地或附加地,构造装置200还可以构造用于在中心透视的映象中的一个对象被另一对象遮挡的情形下构造遮挡信息212并且向使用装置202提供所述遮挡信息。相应地,在使用装置202中还在使用遮挡信息212的情况下阐明车辆周围环境。
在此,对象之间的关系的数量不限于例如所述关系206、208、212、214。可以存在任意多类型206、208、212、214的关系或者其他有意义的关系,所述其他有意义的关系在此不详细提及。
基于光学传感器的极性测量原则,根据另一实施例提供:在图像装置200中确定由传感器检测的并且在映象中示出的至少一个对象的定向214并且向使用装置202提供所述定向。使用装置202使用该定向214用于阐明车辆周围环境,尤其在与车辆路线可能相交的活动对象、例如行人或骑自行车的人方面。
图3示出用于阐明车辆的车辆周围环境的方法300的一种实施例的流程图。可以由图1和图2中示出的用于阐明车辆周围环境的设备实施方法300。
在提供302步骤中,提供车辆周围环境的中心透视映象,所述映象已由车辆的对准车辆行驶方向的光学传感器产生。在构造304步骤中,在使用映象中的对象的情况下构造至少一个关系信息,所述关系信息代表车辆周围环境中对象之间的空间关系。在使用306步骤中,例如在车辆的驾驶员辅助装置中或在分配给光学传感器的摄像机的计算单元中使用所述关系信息,以便阐明车辆周围环境。
为了车辆周围环境中的运动对象的跟踪或追踪功能,可以重复实施步骤302、304、306。
如果在使用306时或阐明所构造的信息304时产生其他信息,同样可以在方法300中将所述其他信息使用为所构造的信息304。
为了直观的阐述在此所提出的作为用于驾驶员辅助功能的基础的相对的对象描述的构思,图4示意性地示出车辆周围环境的示例性的中心透视的数字映象400。在此所示出的是典型的高速公路场景,如由在示例性的车辆——自身车辆——的挡风玻璃后面所安装的视频摄像机的图像传感器看见并且成像的所述高速公路场景那样。自身车辆假想地位于图4中所示出的示意性的透视映象400前面并且在图4中通过线402代表,所述线402示出自身车辆的相对于数字映象400中所示出的驾驶场景的中心纵向轴线的位置。
在图4中的中心透视的映象400中,示例性地示意性示出高速公路场景作为驾驶状况。所述场景由空场地404构成,在所述空场地上,通过标记406标记车道。通过空场地404形成的行车道的侧边界通过侧标记408留边。在空场地404旁边布置有防护栏410。在自身车辆前行驶着例如载重车辆412。载重车辆412在行车道404的车道414上行驶,所述车道也由自身车辆行驶。标记406、侧标记408、防护栏410、载重车辆412和车道414构成映象400中的对象。
如下实现数字映象400中所示出的场景的新的相对描述。从代表自身车辆的中心轴线402测量到右侧行车道边界408的侧间距416。载重车辆412以到右侧行车道边界408的侧间距418在前方行驶。测量从代表载重车辆412的中心轴的另一条线420到行车道边界408的侧间距418。
根据在此所提出的构思,将中心透视的映象400中所示出的对象406、408、410、412、414之间的关系作为自身车辆的车辆周围环境的阐明的基础。在此,这些关系描述图像400的对象406、408、410、412、414之间的关系,例如“相邻关系”。在图4中,通过另一辆车辆412给定所述相邻关系,所述另一辆车辆沿着防护栏410在自身车辆前方行驶。这种相对关系与通过人对状况的阐明相似,并且在理解一场景或驾驶状况时提供大的潜力。由此,自身车辆的辅助功能的可能的处理可在于:准确地跟随所述车辆412和防护栏410。如果例如不能良好地识别前方行驶的车辆412,则自身车辆跟随防护栏410。
根据一种实施例,自身车辆中设置的用于确定车辆周围环境的设备首先在使用侧间距416的情况下确定关系信息并且在使用侧间距418的情况下确定另一关系信息。在使用所述关系信息和所述另一关系信息的情况下,所述设备接下来产生关系值,所述关系值提供映象400中所示出的车辆周围环境的阐明结果,所述阐明结果可以在自身车辆的驾驶员辅助***中被用于在载重车辆412后面跟随行驶的功能。
自身车辆可以因此功能性地跟随前方行驶的车辆412,其方式是:自身车辆保持与同样标记408的侧间距416,而不必须为此精确地绝对地——例如通过笛卡尔坐标系——测量前方行驶的车辆412。在行驶中仅仅必须注意,自身车辆在接近时不与前方行驶的车辆412碰撞。因此可以有利地减少对于识别前方行驶的车辆412的要求。代替地观察,从到共同的对象408的间距416、418中导出的相对值是否保持不变。
根据在此所提出的方案所使用的对象描述比其他描述方式更稳健,因为所述对象描述跟踪由摄像机直接可见的结构或使用直接的测量参量,例如图像400中的对象406、408、410、412、414的尺寸或对象406、408、410、412、414彼此之间的间距。除了提高稳健性,还增大视频传感器的有效范围。
用于车辆周围环境阐明的替代的参考对象可以通过侧防护栏410给定,载重车辆412具有到所述防护栏的相对间距422。自身车辆也具有到同一防护栏410的相应的间距424。另一示例性的替代方案示出载重车辆412到标记406的的侧间距426。可以确定对象406、408、410、412、414之间的关系信息并且作为周围环境阐明的基础。
也可以在对象406、408、410、412、414内确定关系信息。如此中间车道414在附近区域具有第一测量宽度428。如果设定如下前提:车道宽度在当前场景中在远处区域中不改变,则在远处的第二测量宽度430与所述值428近似一致。通过使用所述内部关系也在此实现稳健性和工作范围的提高。也可以使用测量值430用于测量测量值430的位置的周围环境中的其他对象,自身车辆中的摄像机已如此求取米制的值用于所述测量值。
图4中所示出的对可能的场景高速公路处的交通状况的相对描述的示例直观地表明在此所提出的方案:为了阐明车辆周围环境的映象400的图像内容,首先自身车辆中的摄像机保持所述视角并且在那里产生对所述状况的作为整体的且完整的描述。首先即不实施到鸟瞰视角上的投影,以便获得信息的附加价值并且避免基于换算技术的遗漏和错误。代替地直接从视频传感器中获得信息的最大准确性和可用性。
尤其考虑视频摄像机的测量原则的极性特性。如此,对象406、408、410、412、414的观察在确定的角度——定向——下例如示出稳健的且直接的测量参量。在此,基于在摄像机的极性,在附近区域中的对间距和对象尺寸的测量的准确性和分辨率比在远处区域中高。也可以从对象外表中直接测量尺寸变化并且使用所述尺寸变化用于计算例如接触时间值(Time-To-Contact)或TTC值。“Time-to-Contact”描述以下时间:在经过所述时间之后,自身车辆将与所述特别观察的对象碰撞。
如果识别到且必要时分类对象406、408、410、412、414,则可以在视频传感器的平面图形信号中在所谓的跟踪的意义上跟踪所述对象。具有统一的跟踪矢量的区域——即类似图像序列的光“流”——示出附加的标记用于位于车辆周围环境中的对象,尤其运动的对象例如载重车辆412。
标记408在图4中所示出的示例性映象400中构造共同的相对的参考对象用于对象402和412。通过所述共同的相对的参考对象408实现车辆附近区域与远处区域的关联。
在摄像机前的附近区域中经常可以附加地实现,获得用于测量所检测的对象406、408、410、412、414的可靠信息。所述可靠信息是用于通过测量侧向的(横向的)和前向的(纵向的)间距对场景进行笛卡尔描述的基础并且是场景的鸟瞰视角和格栅图示的前提。在附近区域中实现场景的三维的或者说3D测量。可以通过所述关系合适地向场景的远处区域中传播这种测量。也可以在人的视觉中使用所述策略。
作为示例将光学检测的车道406称为示例性对象,其宽度在从附近区域到远处区域的变化过程中不剧烈改变。基于所述宽度,例如产生如下可能性:估计或传播远处区域中的其他车辆——例如载重车辆412——的宽度。在远处区域中,主要分析处理透视影像400中的二维或者说2D特性。用于阐明车辆周围环境的设备构造用于从所有可用的图像特性的组合中完成对当前驾驶状况的场景阐明并且在此实现高的完整性。
根据此所提出的方案可用的图像特性例如有:对象406、408、410、412、414的相对对象关系(例如相邻性和运动方向);对象关系在场景中——例如在防护栏410上——的传播;还有用于摄像机的附近区域(3D)和远处区域(2D)的特殊的对象描述,其中从场景的附近区域中和远处区域中的信息之间可以提取或传播关系;以及相对于相邻性的直接的视频传感器参数或摄像机参数的使用;对象的平面外表;定向;TTC;视频传感器的极性特征等。
为了阐明在此所提出的作为驾驶员辅助功能的基础的相对对象描述,图5示意性地示出典型的城市周围环境中的车辆周围环境的示例性的中心透视的数字映象500。在此示出的是一种可能的城市场景,如由在示例性的自身车辆的挡风玻璃后面安装的视频摄像机的图像传感器看见并且成像的那样。自身车辆在此也假想地位于图5中所示出的示意性立体映象500的前面。
在图5中所示出的根据车辆周围环境的中心透视的映象500的另一实施例的交通场景的相对描述的示例中,人员502从人行道504进入车道414上,所述车道位于行车道404中。在车道414和人行道504之间存在路沿石506。在人行道504右边竖立建筑508。人员或行人502在停泊的另一辆车辆412后面进入道路并且在此进入人行横道或者说斑马线510。
也在图5中所示出的城市场景中,为了阐明车辆周围环境,通过安装在自身车辆中的视频摄像机的图像传感器或摄像机成像仪,在图像检测时尽可能完全地充分利用状况的平面检测。在自身车辆中设置的用于阐明车辆周围环境的设备建立行人502在数字映象500中关于车辆412的位置的位置,以便在使用行人502与车辆412之间的间距512的情况下构造关系信息。
所述关系信息在此描述对象502、412之间的相邻关系。附加地,所述设备在此确定遮挡信息,所述遮挡信息代表行人502被车辆412部分遮挡513。从所述关系中例如可以导出场景在映象500中的几何边界条件。如此可以求取,人员502在车辆412末端的纵向位置516后面的纵向位置514——或在自身车辆前的间距。描述对象遮挡513的关系的分析处理在此支持对场景的米制的阐明。构建在其上面的功能可以由此具有更高的性能,例如在更低的错误识别率时的更高的识别率。
通过人员502与路沿石506的间距518确定数字映象500中的另一关系信息。互补内容描述另一关系信息,所述关系信息基于人员502到行车道中心的间距。根据实施例,这些关系信息可以互相支持和/或减少测量时的错误。还可以借助遮挡信息支持间距518的测量。
在数字映象500中,人员502运动通过人行横道或者说斑马线510。然后产生行人502和对象510之间的位置上的分配关系522,在此具体是“位于上面(Befindet-sich-auf)”关系522。在使用“位于上面”关系522的情况下,所述设备也可以确定关系信息。所述关系信息可以以多重方式被用于阐明车辆周围环境。一方面,对人行横道510的分类可以支持人员502的对象假设,反之亦然。另一方面,可以从分类为行人的对象502和分类为人行横道的对象510的结合中导出行人502的(很有可能的)意图:通过人行横道510横穿车道414。同样地可以考虑基于遮挡关系513的遮挡信息用于周围环境阐明,等。
如此,首先,所描述的相邻关系简化视频传感器中的阐明过程并且接下来向摄像机的外部接口提供用于驾驶功能的重要信息,所述驾驶功能构建在相对信息上。同样可以考虑图像500中位置上连接的区域——例如人行道504——用于意义阐明。尤其可以从视频传感器的附近区域向远处区域传播所述阐明。除了所描述的可以在一个时刻或在图像序列的图像中在场景中求取的关系,可以考虑对象运动的动态用于借助关系的描述。
图6示意性地示出典型城市周围环境中的车辆周围环境的另一示例性的中心透视的数字映象600,由在车辆周围环境中运动的车辆的视频摄像机建立。在此示出的主要是图5中的没有停泊的车辆的城市场景。
图6中的示图阐明在使用映象600中的行人502的极坐标的情况下根据在此所提出的构思实现的对象——在此行人502——的极性测量。
用于阐明车辆周围环境的设备为此使用直接的测量参量,所述测量参量由视频传感器求取。极性间距602则描述自身车辆与人员502之间的距离。所述距离被以合适的角量度(Winkelmaβ)在与自身车辆的中线402有极性角604的情况下测量。基于所述间距值和角度值,所述设备确定行人502参考车辆中的光学传感器的定向并且使用所述定向用于阐明车辆周围环境。
根据一种实施例,用于周围环境阐明的设备还使用人员502在横向和/或纵向方向的延伸尺度606以及人员502的对象高度608。数字映象600中的这种空间上的延伸尺度606、608以图像像素和/或米制尺寸和/或角量度测量。
在此所提出的构思的跟踪或追踪功能中,可以通过跟踪或追踪对象——如行人502——测量定向变化或对象尺寸608的变化或对象延伸尺度606的变化。时间上变化的定向表明,自身车辆不与对象502碰撞,反之,时间上不变的定向表明与对象502很有可能碰撞。
对象之间变化的定向也可以被用于求取相对距离或用于对象的深度估计。所述深度估计可以被用作用于阐明场景的另一支持。在此,可以考虑不同对象的视差。
根据图1至图6所提出的用于阐明车辆周围环境的技术提供在中心透视的数字映象204、400、500、600中示出的场景的自底向上分析或反向分析(Bottom-Up-Analyse)的可能性。为了确定用于实施在此所提出的构思的合适的关系信息,为此尤其使用间距关系、相邻关系、共同参考对象之间的关系、遮挡关系、位置上的分配关系(例如“位于上面”、“位于下面(Befindet-sich-unter)”)、互补关系和传播关系(例如数字映象400、500、600中的场景的的附近区域向远处区域之间)。也可以设想其他关系。
所述关系分别直接在图像204、400、500、600中受限制(moderieren)和/或参考其他合适的坐标系。添加运动关系,所述运动关系描述场景的对象上的相对变化和/或场景的对象之间的相对变化。示例性的运动关系是与恒定的定向相反的定向变化、尺寸变化、对象之间的相对定向变化(视差)和关系变化的跟踪;相邻关系例如可以改变并且从其中导出对象行为。为此的示例是离开的或正在接近的前方行驶车辆,超过的或被超过的车辆、迎面而来的和遮挡其他交通参与者的车辆。
分析构思可以附加于自底向上分析有利地通过自顶向下分析或正向分析(Top-Down-Analyse)的关系补充。从其联系和/或关系中导出关于场景的抽象信息。例如在数字映象204、400、500、600中与彼此相邻的对象经常处于与场景的其他对象相同的情境中。还可以通过在描述中和/或场景阐明中发现和处理“漏洞”实现场景的阐明的完整性。此外,可以设想场景阐明的完整化连同场景的未阐明的区域的减少。根据一种实施例,可以识别和考虑对象的同类型的运动模式,例如车队中的车辆、一群行人等。可以识别对象的行为,或可以识别连接对象的关系和/或从中确定对象的意图。也可以使用行为模式或意图识别用于改善识别有效范围和/或对象信息的可用性。
根据另一实施例,也可以设想识别场景宏观结构。在此,例如获得关于道路的和/或道路延伸的主方向和消失点的临近的知识。辨识可行驶的道路平面的(主要)限制,并且确定侧构造的元件例如防护栏、导向柱(Leitpfosten)、林荫道等。
可以有利地通过关系支持将示例性的场景阐明的流程划分为两个阶段。在第一阶段中实现对场景的反向分析,例如从传感器信息的数据驱动。在第二阶段中实施对场景的自顶向下分析,通过从场景角度的内容和意义驱动。
在此所提出的相对对象描述的构思作为驾驶员辅助******的新型视频传感器接口适合用于实现高性能的自动的和/或(部分)自动化的驾驶功能。可以以所提出的措施改善的场景在用于自动驾驶的路线图中是非常重要的。在所述情境中存在的例如车辆的纵向控制和横向控制的高度可用性的背景下,使用在此所提出的方案是有利的。
如果一种实施例包括第一特征与第二特征之间的“和/或”连接,那么这应这样解读,使得实施例根据一种实施方式既具有第一特征又具有第二特征而根据另一实施方式要么仅具有第一特征要么仅具有第二特征。

Claims (12)

1.用于阐明车辆(100)的车辆周围环境(106)的方法(300),其中,所述方法(300)具有以下步骤:
提供(302)所述车辆周围环境(106)的映象(204;400;500;600);
在使用所述映象(204;400;500;600)中的第一对象(115)的第一位置和所述映象(204;400;500;600)中的第二对象(116)的第二位置的情况下构造(304)关系信息(206),其中,所述关系信息(206)代表所述车辆周围环境(106)中的所述第一对象(115)与所述第二对象(116)之间的空间关系;
使用(306)所述关系信息(206),以便阐明所述车辆周围环境(106)。
2.根据权利要求1所述的方法(300),其中,在所述使用(306)步骤中,使用所述关系信息(206)用于所述车辆(100)的横向转向功能和/或纵向调节。
3.根据上述权利要求中任一项所述的方法(300),其具有将所述第一对象(115)和/或所述第二对象(116)分配给对象类别的步骤,其中,在所述使用(306)步骤中,还使用所述对象类别,以便阐明所述车辆周围环境(106)。
4.根据上述权利要求中任一项所述的方法(300),其具有构造遮挡信息(212)的步骤,所述遮挡信息代表所述映象(204;400;500;600)中的所述第一对象(115)被所述第二对象(116)遮挡,其中,在所述使用(306)步骤中,还使用所述遮挡信息(212),以便阐明所述车辆周围环境(106)。
5.根据上述权利要求中任一项所述的方法(300),其中,在所述构造(304)步骤中,还在使用所述映象(204;400;500;600)中的另一第一对象(115)的另一第一位置和所述映象(204;400;500;600)中的另一第二对象(116)的另一第二位置的情况下构造另一关系信息(208),其中,所述另一关系信息(208)代表所述车辆周围环境(106)中的所述另一第一对象与另一第二对象之间的空间关系,其中,在所述使用(306)步骤中,还使用所述另一关系信息(208),以便阐明所述车辆的周围环境(106)。
6.根据权利要求5所述的方法(300),其中,所述使用(306)步骤具有生成所述关系信息(206)与所述另一关系信息(208)之间的关系值的步骤,以便在使用所述关系值的情况下阐明所述车辆周围环境(106)。
7.根据权利要求6所述的方法(300),其中,在所述使用(306)步骤中,使用所述关系值用于在另一车辆(412)后面跟随行驶。
8.根据上述权利要求中任一项所述的方法(300),其具有确定所述对象(115,116)中的一个的或另一对象的相对于所述光学传感器(118)的定向(214)的步骤,其中,在所述使用(306)步骤中,还使用所述定向(214),以便阐明所述车辆周围环境(106)。
9.一种设备(120),其设置用于在相应的单元中实施根据上述权利要求中的任一项所述的方法(300)的步骤。
10.一种车辆(100),其具有光学传感器(118)、驾驶员辅助***(114)和根据权利要求9所述的设备(120),其中,所述设备(120)导电地与所述光学传感器(118)和/或所述驾驶员辅助***(114)连接。
11.一种计算机程序,所述计算机程序设置用于实施根据上述权利要求中任一项所述的方法(300)。
12.一种机器可读的存储介质,在所述机器可读的存储介质上存储有根据权利要求11所述的计算机程序。
CN201710089301.XA 2016-02-19 2017-02-20 用于阐明车辆的车辆周围环境的方法和设备以及车辆 Pending CN107097790A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016202594.5A DE102016202594A1 (de) 2016-02-19 2016-02-19 Verfahren und Vorrichtung zum Interpretieren einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug
DE102016202594.5 2016-02-19

Publications (1)

Publication Number Publication Date
CN107097790A true CN107097790A (zh) 2017-08-29

Family

ID=59522122

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710089301.XA Pending CN107097790A (zh) 2016-02-19 2017-02-20 用于阐明车辆的车辆周围环境的方法和设备以及车辆

Country Status (3)

Country Link
US (1) US10311309B2 (zh)
CN (1) CN107097790A (zh)
DE (1) DE102016202594A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109425855A (zh) * 2017-08-31 2019-03-05 福特全球技术公司 使用模拟传感器数据扩增现实传感器记录
WO2019134110A1 (en) * 2018-01-05 2019-07-11 Driving Brain International Ltd. Autonomous driving methods and systems
WO2020135738A1 (zh) * 2018-12-29 2020-07-02 长城汽车股份有限公司 车辆自动驾驶时避障的方法、***及车辆
WO2020154990A1 (zh) * 2019-01-30 2020-08-06 深圳市大疆创新科技有限公司 目标物体运动状态检测方法、设备及存储介质

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106406312B (zh) * 2016-10-14 2017-12-26 平安科技(深圳)有限公司 导览机器人及其移动区域标定方法
EP3373037B1 (en) * 2017-03-10 2023-06-28 The Hi-Tech Robotic Systemz Ltd Single casing advanced driver assistance system
DE102018128634A1 (de) * 2018-11-15 2020-05-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bereitstellen einer visuellen Information über zumindest einen Teil einer Umgebung, Computerprogrammprodukt, mobiles Kommunikationsgerät und Kommunikationssystem
US11386671B2 (en) * 2019-06-25 2022-07-12 Zoox, Inc. Refining depth from an image
US20220066460A1 (en) * 2020-08-27 2022-03-03 Toyota Research Institute, Inc. Causing a mobile robot to move according to a planned trajectory determined from a prediction of agent states of agents in an environment of the mobile robot
US11524703B2 (en) * 2020-11-24 2022-12-13 GM Global Technology Operations LLC Method and system for interactive hypothesis estimation of multi-vehicle traffic for autonomous driving
DE102021119871B4 (de) 2021-07-30 2023-11-02 Cariad Se Verfahren und Prozessorschaltung zum Betreiben einer automatisierten Fahrfunktion mit Objektklassifikator in einem Kraftfahrzeug, sowie Kraftfahrzeug

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4332612A1 (de) * 1992-09-25 1994-04-07 Yazaki Corp Außenansichts-Überwachungsverfahren für Kraftfahrzeuge
CN101915990A (zh) * 2009-04-02 2010-12-15 通用汽车环球科技运作公司 全挡风玻璃平视显示器上的增强道路视觉
CN103991448A (zh) * 2014-04-01 2014-08-20 财团法人车辆研究测试中心 动态车道线检测***及方法
US8903592B1 (en) * 2013-03-12 2014-12-02 Google Inc. User interface for displaying object-based indications in an autonomous driving system
CN104204847A (zh) * 2012-01-19 2014-12-10 罗伯特·博世有限公司 用于可视化车辆的周围环境的方法和装置
CN104369736A (zh) * 2013-08-13 2015-02-25 现代摩比斯株式会社 利用可视光通信的前方车辆跟随装置及方法
CN104590258A (zh) * 2013-10-31 2015-05-06 富士重工业株式会社 车辆控制***
CN104755349A (zh) * 2012-10-31 2015-07-01 宝马股份公司 车辆辅助设备
EP2922027A1 (en) * 2014-03-20 2015-09-23 Ricoh Company, Ltd. Disparity deriving apparatus, method and carrier medium
WO2015163205A1 (ja) * 2014-04-25 2015-10-29 日本精機株式会社 車両用表示システム
US20150314783A1 (en) * 2014-04-30 2015-11-05 Denso International America, Inc. Situation Awareness Assistant For Vehicle Control
CN105196918A (zh) * 2014-06-12 2015-12-30 通用汽车环球科技运作有限责任公司 展示机动车的车辆周围环境信息的方法
US20160014406A1 (en) * 2014-07-14 2016-01-14 Sadao Takahashi Object detection apparatus, object detection method, object detection program, and device control system mountable to moveable apparatus
CN105324275A (zh) * 2013-05-31 2016-02-10 丰田自动车株式会社 移动轨迹预测装置和移动轨迹预测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013200387A1 (de) * 2013-01-14 2014-07-17 Robert Bosch Gmbh Erstellung einer Hinderniskarte

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4332612A1 (de) * 1992-09-25 1994-04-07 Yazaki Corp Außenansichts-Überwachungsverfahren für Kraftfahrzeuge
CN101915990A (zh) * 2009-04-02 2010-12-15 通用汽车环球科技运作公司 全挡风玻璃平视显示器上的增强道路视觉
CN104204847A (zh) * 2012-01-19 2014-12-10 罗伯特·博世有限公司 用于可视化车辆的周围环境的方法和装置
CN104755349A (zh) * 2012-10-31 2015-07-01 宝马股份公司 车辆辅助设备
US8903592B1 (en) * 2013-03-12 2014-12-02 Google Inc. User interface for displaying object-based indications in an autonomous driving system
CN105324275A (zh) * 2013-05-31 2016-02-10 丰田自动车株式会社 移动轨迹预测装置和移动轨迹预测方法
CN104369736A (zh) * 2013-08-13 2015-02-25 现代摩比斯株式会社 利用可视光通信的前方车辆跟随装置及方法
CN104590258A (zh) * 2013-10-31 2015-05-06 富士重工业株式会社 车辆控制***
EP2922027A1 (en) * 2014-03-20 2015-09-23 Ricoh Company, Ltd. Disparity deriving apparatus, method and carrier medium
CN103991448A (zh) * 2014-04-01 2014-08-20 财团法人车辆研究测试中心 动态车道线检测***及方法
WO2015163205A1 (ja) * 2014-04-25 2015-10-29 日本精機株式会社 車両用表示システム
US20150314783A1 (en) * 2014-04-30 2015-11-05 Denso International America, Inc. Situation Awareness Assistant For Vehicle Control
CN105196918A (zh) * 2014-06-12 2015-12-30 通用汽车环球科技运作有限责任公司 展示机动车的车辆周围环境信息的方法
US20160014406A1 (en) * 2014-07-14 2016-01-14 Sadao Takahashi Object detection apparatus, object detection method, object detection program, and device control system mountable to moveable apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109425855A (zh) * 2017-08-31 2019-03-05 福特全球技术公司 使用模拟传感器数据扩增现实传感器记录
WO2019134110A1 (en) * 2018-01-05 2019-07-11 Driving Brain International Ltd. Autonomous driving methods and systems
WO2020135738A1 (zh) * 2018-12-29 2020-07-02 长城汽车股份有限公司 车辆自动驾驶时避障的方法、***及车辆
WO2020154990A1 (zh) * 2019-01-30 2020-08-06 深圳市大疆创新科技有限公司 目标物体运动状态检测方法、设备及存储介质

Also Published As

Publication number Publication date
US10311309B2 (en) 2019-06-04
US20170243070A1 (en) 2017-08-24
DE102016202594A1 (de) 2017-08-24

Similar Documents

Publication Publication Date Title
CN107097790A (zh) 用于阐明车辆的车辆周围环境的方法和设备以及车辆
US11669102B2 (en) Navigating a vehicle based on a detected barrier
JP7125214B2 (ja) プログラムおよびコンピューティングデバイス
US11204417B2 (en) Selective attention mechanism for improved perception sensor performance in vehicular applications
US10696227B2 (en) Determining a road surface characteristic
JP7157054B2 (ja) 整合画像及びlidar情報に基づいた車両ナビゲーション
US11312372B2 (en) Vehicle path prediction
US11656620B2 (en) Generating environmental parameters based on sensor data using machine learning
Pfeiffer et al. Efficient representation of traffic scenes by means of dynamic stixels
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
US20230296382A1 (en) Determination of free space around a vehicle
JP5023186B2 (ja) 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム
WO2005088971A1 (ja) 画像生成装置、画像生成方法、および画像生成プログラム
CN113544467A (zh) 对齐用于导航的道路信息
CN113330495A (zh) 对用于车辆导航的事件信息进行聚类
EP4049057A1 (en) Method and system for object detection for a mobile robot with time-of-flight camera
US20230117253A1 (en) Ego motion-based online calibration between coordinate systems
Tsai et al. Accurate and fast obstacle detection method for automotive applications based on stereo vision
CN109895697B (zh) 一种行车辅助提示***及方法
KR102065693B1 (ko) 자율주행 차량을 위한 기계학습 데이터 표준화 방법 및 시스템
JP2021064056A (ja) ゼブラゾーン認識装置、車両制御装置、ゼブラゾーン認識方法、およびプログラム
Liu Performance evaluation of stereo and motion analysis on rectified image sequences
Jarnea et al. Advanced driver assistance system for overtaking maneuver on a highway
Langner Visual Perception for Autonomous Driving
KR102612438B1 (ko) 교통 객체 위치 추정 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination