CN118182504A - 通过检测遮挡作出增强决策的***和方法 - Google Patents

通过检测遮挡作出增强决策的***和方法 Download PDF

Info

Publication number
CN118182504A
CN118182504A CN202311049394.5A CN202311049394A CN118182504A CN 118182504 A CN118182504 A CN 118182504A CN 202311049394 A CN202311049394 A CN 202311049394A CN 118182504 A CN118182504 A CN 118182504A
Authority
CN
China
Prior art keywords
interest
region
vehicle
occluded
occupant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311049394.5A
Other languages
English (en)
Inventor
M·沙玛
J·A·邦德
J·F·什切尔巴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN118182504A publication Critical patent/CN118182504A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种用于选择性地增强车辆中的信息的***和方法,包括从至少一个传感器接收场景信息,从场景信息识别感兴趣区域,分析场景信息以确定感兴趣区域是否被遮挡,以及当感兴趣区域被遮挡时,使用显示***增强感兴趣区域。感兴趣区域包括在场景信息内识别且被分类为与车辆安全相关的对象。

Description

通过检测遮挡作出增强决策的***和方法
技术领域
本公开涉及向车辆乘员显示增强信息,并且更具体地涉及用于基于遮挡检测,确定何时显示信息的***和方法。
背景技术
增强现实(AR)涉及通过虚拟元素增强现实世界,这些虚拟元素显示于在三维空间中并能够与乘员进行实时交互。抬头显示器(HUD)将车辆速度和导航指令等信息直接显示在乘员前方视野内的车辆挡风玻璃上。相应地,抬头显示器在无需将目光从道路上移开的情况下为乘员提供信息。用于车辆的增强现实抬头显示器(AR-HUD)变得受欢迎,其通过在挡风玻璃上叠加图像,帮助驾驶员导航道路。这些增强功能增强了乘员对车外环境的视野,从而增强了环境意识。增强的环境意识对于患有残疾(例如色觉障碍)的乘员来说尤其重要。然而,通过AR-HUD或其他显示器提供过多的增强功能可能会让乘员应接不暇。
因此,虽然车载AR-HUD和其他显示器实现了其向乘员提供有关车辆外部环境的更多信息的预期目的,但本领域需要一种自动决策***,该***可以防止过度增强并避免过度使用AR-HUD或其他显示器。
发明内容
根据若干方面,提供了一种用于选择性地增强车辆中的信息的方法。该方法包括从至少一个传感器接收场景信息、从场景信息识别感兴趣区域,以及分析场景信息以确定感兴趣区域是否被遮挡。当感兴趣区域被遮挡时,该方法使用显示***增强感兴趣区域。
在本公开的另一方面中,场景信息包括与车辆周围的环境有关的数据。
在本公开的另一方面中,感兴趣区域包括在场景信息内识别且被分类为与车辆安全相关的对象。
在本公开的另一方面中,在与车辆安全相关的场景信息内识别的对象包括道路标志、刹车灯、行人、交通灯和交通标志。
在本公开的另一方面中,感兴趣区域包括由乘员需要识别用于增强的对象。
在本公开的另一方面中,由乘员需要识别用于增强的对象包括由乘员设置的增强偏好。
在本公开的另一方面中,识别感兴趣区域包括传递场景信息通过神经网络。
在本公开的另一方面中,分析场景信息包括传递场景信息通过神经网络,以确定感兴趣区域是否被遮挡。
在本公开的另一方面中,当感兴趣区域被挡住或缺失时,感兴趣区域被遮挡。
在本公开的另一方面中,当感兴趣区域被挡住或缺失大于预定遮挡阈值时,感兴趣区域被遮挡。
在本公开的另一方面中,用于分析场景信息的方法还包括识别感兴趣区域是否包含交通灯。此外,该方法包括确定交通灯状态。该方法然后包括将交通灯的RGB光转换成强度图像。另外,该方法包括计算强度图像的对比度值。此外,该方法然后包括确定对比度值是否小于对比度阈值。最后,该方法包括当对比度小于对比度阈值时使用显示***增强交通灯状态,或者可选地当对比度大于对比度阈值时使用显示***不增强交通灯状态。
在本公开的另一方面中,确定交通灯状态包括将包含交通灯的感兴趣区域传递通过神经网络。
在本公开的另一方面中,用于分析场景的方法还包括识别感兴趣区域是否包括行人。此外,该方法还包括确定行人是否被遮挡。最后,该方法包括当行人被遮挡时使用显示***增强感兴趣区域,以及可选地当行人未被遮挡时使用显示***不增强感兴趣区域。
在本公开的另一方面中,用于分析场景信息的方法还包括识别感兴趣区域是否包括交通标志。此外,该方法包括通过将场景信息传递通过神经网络,确定交通标志的类型。另外,该方法包括确定交通标志是否被遮挡。最后,该方法包括当交通标志被遮挡时使用显示***增强交通标志的类型,以及可选地当交通标志未被遮挡时使用显示***不增强交通标志类型。
在本公开的另一方面中,用于分析场景信息的方法还包括识别感兴趣区域中的道路标志。此外,该方法包括确定道路标志是否被遮挡。最后,该方法包括当道路标志被遮挡时使用显示***增强道路标志,以及可选地当道路标志未被遮挡时使用显示***不增强道路标志。
在本公开的另一方面中,用于分析场景信息的方法还包括识别感兴趣区域是否包含车辆前方的远处车辆。此外,该方法包括检测远处车辆是否正在减速。另外,该方法包括检测远处车辆上的刹车灯是否被遮挡。最后,该方法包括基于确定了远处车辆正在减速并且刹车灯被遮挡,增强刹车灯,以及可选地基于确定了远处车辆没有减速和/或刹车灯没有被遮挡,不增强刹车灯。
在本公开的另一方面中,增强感兴趣区域包括以图形方式去除遮挡,或者在感兴趣区域上或其附近显示图形。
根据若干方面,提供了一种用于选择性地增强车辆中的信息的***。该***包括至少一个用于获取有关车辆周围环境的信息的传感器。显示***位于乘员的视野范围内。控制器与至少一个传感器和显示***电通信。控制器被编程为从至少一个传感器接收场景信息,从场景信息识别感兴趣区域,分析场景信息以确定感兴趣区域是否被遮挡,以及当感兴趣区域被遮挡时,使用显示器***增强感兴趣区域。
在本公开的另一方面中,至少一个传感器包括相机、雷达(RADAR)、激光雷达(LIDAR)或车用无线通信技术(vehicle to everything,V2X)。此外,显示***包括AR-HUD、AR集群、透明挡风玻璃显示器(transparent windscreen display,TWD)***或直视显示器。
根据若干方面,提供了一种用于车辆的选择性增强***的计算机。该***包括:至少一个传感器,用于获取有关车辆周围环境的信息;显示***,位于乘员视野内,用于向乘员显示增强的感兴趣区域;以及与至少一个传感器和用于增强感兴趣区域的显示***电通信的控制器。控制器包括与至少一个传感器和显示***电通信的至少一个处理器,以及用于存储指令的非暂时性计算机可读存储介质。至少一个处理器被编程为从至少一个传感器接收场景信息、从场景信息识别感兴趣区域、分析场景信息以确定感兴趣区域是否被遮挡、以及当感兴趣区域被遮挡时,使用显示***来增强感兴趣区域。
从本文提供的描述中,进一步的适用领域将变得显而易见。应当理解,这些描述和具体示例仅用于说明的目的,并不旨在限制本公开的范围。
附图说明
本文描述的附图仅用于说明目的,而不旨在以任何方式限制本公开的范围。
图1是根据示例性实施例的用于向车辆乘员提供信息的***的示意图;
图2是根据示例性实施例的用于增强被遮挡的感兴趣区域的方法的流程图;
图3是根据示例性实施例的用于增强被遮挡的交通灯的方法的流程图;
图4A是根据示例性实施例的第一示例性驾驶场景,包括被遮挡的交通标志、被遮挡的行人以及被遮挡的路面标记;以及
图4B是根据示例性实施例的第二示例性驾驶场景,包括被遮挡的交通灯和被遮挡的车辆刹车灯。
具体实施方式
下面的描述本质上仅是示例性的,并且不旨在限制本公开、应用或用途。
参考图1,示出了一种用于选择性地向车辆乘员增强信息的***,该***总体上由附图标记10表示。***10与示例性车辆12一起示出。虽然示出了客运车辆,但应当理解的是,车辆12可以是任何类型的车辆而不脱离本公开的范围。***10通常包括控制器14、车辆传感器16、增强现实抬头显示器(AR-HUD)***18、透明挡风玻璃显示器(TWD)***20和人机界面(human-machine interface,HMI)22。虽然***10被示出为混合AR-HUD,但应当理解的是,可以采用各种其他显示***,包括AR-HUD、AR集群和诸如中央控制台显示器的直视显示器。
控制器14用于实现如下文所述的、用于选择性地向车辆乘员增强信息的方法100。控制器14包括至少一个处理器24和非暂时性计算机可读存储设备或介质26。处理器24可以是定制的或市售的处理器、中央处理单元(CPU)、图形处理单元(GPU)、与控制器14相关联的多个处理器中的辅助处理器、基于半导体的微处理器(形式为微芯片或芯片组)、宏处理器、其组合,或者通常是用于执行指令的设备。计算机可读存储设备或介质26可以包括例如只读存储器(ROM)、随机存取存储器(RAM)和保活存储器(keep-alive memory,KAM)中的易失性和非易失性存储设备。KAM是持久性或非易失性存储器,其可用于在处理器24断电时存储各种操作变量。计算机可读存储设备或介质26可以使用多个存储设备实现,例如可编程只读存储器(programmable read-only memory,PROM)、电可编程只读存储器(electricallyPROM,EPROM)、电可擦除可编程只读存储器(EEPROM)、闪存或其他能够存储数据的电、磁、光或其组合存储器,其中一些数据表示控制器14用于控制车辆12的各种***的可执行指令。控制器14也可以由彼此电通信的多个控制器组成。
控制器14与车辆传感器16、AR-HUD***18、TWD***20和HMI 22电通信。可以使用例如CAN总线、Wi-Fi网络、蜂窝数据网络等,建立电通信。应当理解的是,用于与控制器14通信的各种其他的有线和无线技术和通信协议都在本公开的范围内。
车辆传感器16用于获取关于车辆12周围的环境28的信息。在示例性实施例中,车辆传感器16包括摄像机30、车辆通信***34和全球定位***(GPS)36。应当理解,车辆传感器16可以包括用于确定车辆12的特性(例如车辆速度、道路曲率和/或车辆转向)的另外的传感器,而不脱离本公开的范围。应当理解,车辆传感器16可以包括用于确定环境28的特性的其他传感器,例如RADAR、LIDAR和V2X。如上所述,车辆传感器16与控制器14电通信。
摄像机30用于捕捉车辆12周围的环境28的图像和/或视频。在示例性实施例中,摄像机30为相机和/或摄影机,其被定位成观察车辆12前方的环境28。在一个示例中,摄像机30固定在车辆12的内部,例如,固定在车辆12的顶棚中,通过车辆12的挡风玻璃32进行观察。在另一示例中,摄像机30固定在车辆12的外部,例如固定在车辆12的车顶上,具有车辆12前方的环境28的视野。应当理解,具有各种传感器类型(包括例如电荷耦合器件(CCD)传感器、互补金属氧化物半导体(CMOS)传感器和/或高动态范围(HDR)传感器)的相机都在本发明的范围内。此外,具有包括例如广角镜头和/或窄角镜头的各种镜头类型的相机也在本公开的范围内。
车辆通信***34被控制器14用来与车辆12外部的其他***进行通信。例如,车辆通信***34包括用于与车辆通信(“V2V”通信)、基础设施(“V2I”通信)、远程呼叫中心处的远程***(例如,通用汽车公司的ON-STAR)和/或个人设备。在一些实施例中,车辆通信***34是无线通信***,其被配置为使用IEEE 802.11标准或通过使用蜂窝数据通信,经由无线局域网(WLAN)进行通信。然而,诸如专用短程通信(DSRC)信道和/或基于第三代合作伙伴计划(3GPP)标准的移动电信协议之类的附加或替代通信方法也被认为在本公开的范围内。DSRC信道是指专为汽车使用而设计的单向或双向短距离到中距离无线通信信道以及一组相应的协议和标准。3GPP是指多个开发移动电信协议和标准的标准组织之间的合作伙伴关系。3GPP标准被结构化为“版本”。因此,基于3GPP版本14、15、16和/或未来3GPP版本的通信方法被认为在本公开的范围内。因此,车辆通信***34可包括一个或多个天线和/或通信收发器,用于接收和/或发射信号,例如协作感测消息(cooperative sensing message,CSM)。车辆通信***34被配置为在车辆12和另一车辆之间无线地传送信息。进一步地,车辆通信***34被配置为在车辆12和基础设施或其他车辆之间无线地传送信息。
GPS 36用于确定车辆12的地理位置。在示例性实施例中,GPS 36包括GPS接收器天线(未示出)和与GPS接收器天线电通信的GPS控制器(未示出)。GPS接收器天线从多个卫星接收信号,并且GPS控制器基于GPS接收器天线接收到的信号,计算车辆12的地理位置。应当理解,各种其它类型的基于卫星的无线电导航***,包括其它类型的全球导航卫星***(GNSS),都在本公开的范围内。
AR-HUD***18用于通过在车辆12的挡风玻璃32上显示AR-HUD图形(即,向乘员提供视觉信息的通知符号),以增强视觉信息。图4A和4B中示出AR-HUD图形和增强的示例,并将在下面进行讨论。AR-HUD***18包括AR-HUD投影仪38和乘员位置跟踪设备40。如上所述,AR-HUD***18与控制器14电通信。
AR-HUD投影仪38用于将AR-HUD图形投影在车辆12的挡风玻璃32上。应当理解,设计用于投影图像的各种设备包括例如光学准直器、激光投影仪、数字光投影仪(DLP)等都在本公开的范围内。
乘员位置跟踪设备40用于确定车辆12中乘员的位置。例如,乘员位置跟踪设备40可以跟踪乘员的头部或眼睛的位置。车辆12中的乘员相对于乘员位置跟踪设备40的位置用于定位车辆12的挡风玻璃32上的AR-HUD图形。在示例性实施例中,乘员位置跟踪设备40是设置在车辆12中的一个或多个摄像机。
TWD***20用于在车辆12的挡风玻璃32上显示图像。在示例性实施例中,AR-HUD***18可以在挡风玻璃32的预定义区域中显示AR-HUD图形。TWD***20可以在挡风玻璃32的任何区域显示TWD图形(未示出)。因此,通过结合操作AR-HUD***18和TWD***20,控制器14可以在挡风玻璃32的任何区域中显示图形。在示例性实施例中,TWD***20包括嵌入到挡风玻璃32中的透明磷光体(未示出)和TWD投影仪42。如上所述,TWD***20与控制器14电通信。
透明磷光体是响应于被TWD投影仪42激发,而发出荧光的发光颗粒。在示例性实施例中,透明磷光体是红色、绿色和蓝色(RGB)磷光体,允许TWD***20的全色操作。单色和/或双色磷光体的使用也在本公开的范围内。当激发光被透明磷光体吸收时,透明磷光体发射可见光。激发光可以是例如可见光谱中的紫光(范围从约380至450纳米)和/或紫外光。
TWD投影仪42用于以预定图案激发透明磷光体,以在挡风玻璃32上产生TWD图形。在示例性实施例中,TWD投影仪42是设置在车辆12的顶棚附近的紫光/紫外激光投影仪。TWD投影仪42包括三个激光器,每个激光器被配置为激发红色、绿色或蓝色透明磷光体中的一种。
在示例性实施例中,除了AR-HUD***18和TWD***20之外,还使用HMI 22向车辆12的乘员显示信息。在另一示例性实施例中,使用HMI 22代替AR-HUD***18和/或TWD***20向车辆12的乘员显示信息。在前述示例性实施例中,HMI 22是位于乘员视野中并且能够显示文本、图形和/或图像的显示***。应当理解,包括LCD显示器、LED显示器等的HMI显示***在本公开的范围内。HMI 22设置在后视镜中的其他示例性实施例也在本公开的范围内。如上所述,HMI 22与控制器14电通信。
参照图2,用于选择性地增强信息的方法的流程图总体上由附图标记100指示。方法100用于确定何时使用AR-HUD***18、TWD***20、HMI 22或车辆中的任何其他显示设备,以增强视觉信息。方法100开始于框102并进行至框104。
在框104处,控制器14从一个或多个车辆传感器16接收场景信息。场景信息是与车辆12的周围环境28有关的图像或数据,特别是通过挡风玻璃32可看到的周围环境28。在一个示例中,场景信息是摄像机30捕获的图像。当场景信息是图像时,如下文将描述的,图像可以包括各种可识别对象和感兴趣区域。在另一示例中,场景信息是由车辆通信***34接收的对象定位。在又一示例中,场景信息是由GPS 36接收的对象定位。在又一示例中,场景信息包括从其他传感器(包括检测车辆12前方的一个或多个对象的LIDAR和RADAR)接收的信息。最后,场景信息可以是被上述车辆传感器16捕获的一些或全部信息的融合。场景信息存储在控制器14的介质26中。在框104之后,方法100进行到框106。
在框106,控制器14分析场景信息,以识别场景信息内的感兴趣区域。感兴趣区域是在场景信息内识别的对象,其被分类为考虑使用AR-HUD***18进行增强的对象。在所提供的示例中,与车辆安全相关和/或由乘员的增强需求,识别要考虑进行增强的对象。在一个实施例中,还通过对乘员和车辆12周围的环境的评估,确定增强决策。
与安全相关的对象包括但不限于交通灯、行人、交通标志、人行道标记以及远处车辆的刹车灯。交通灯包括自动操作的彩灯结构(通常为红色、黄色和绿色),其位于道路上方或沿道路布置,旨在通过发光控制路口和人行横道的交通流量,以指示正确的驾驶员操作(停车、减速至停车,或穿过交叉路口)。行人包括不使用机动车过马路或沿着道路移动的人或宠物(例如步行者、慢跑者或骑自行车的人)。交通标志包括沿道路设置的结构(包括图像和/或文本),以向道路使用者提供与道路规则、法律和/或规章相关的信息。道路标志包括设置在道路表面和/或路缘上的图像、颜色和/或文本,以向道路使用者提供关于道路规则、法律和/或规章的信息(包括车道线)。
乘员的增强需求包括由***10的乘员设置或选择的增强偏好。这些偏好包括对与安全性无关的对象进行分类,以考虑进行增强。例如,乘员可能希望增强加油站或充电站标志,以便在低光照条件下进行额外增强,或者增强颜色。在非限制性示例中,使用车辆12的HMI 22设置这些偏好。
如上所述,在一个实施例中,还通过控制器14对乘员、周围环境28和乘员的出行历史的评估,以确定增强决策。对乘员的评估包括乘员的年龄、基于来自乘员位置***40的信息的乘员的警觉性,以及乘员的已知视力。例如,如果控制器14确定乘员是年长的乘员、不警觉的乘员和/或视力差的乘员,则控制器14将考虑对更多对象进行增强。对周围环境28的评估可以包括确定是否存在可能妨碍乘员视野的天气或环境条件,以及基于评估进行增强。对乘员的出行历史的评估包括基于乘员的GPS历史,确定乘员是否处于新区域,以及基于评估进行增强。
在示例性实施例中,控制器14被编程为使用机器学习算法(例如使用神经网络)分析场景信息并识别感兴趣区域。在非限制性示例中,通过向算法提供感兴趣区域的图像(例如已经预先分类的交通标志和道路标志),训练机器学习算法。图像可以显示各种背景和天气条件下的感兴趣区域。经过对机器学习算法的充分训练,该算法能够从场景信息中高精准地识别出感兴趣区域。在框106之后,方法100进行到框108。
在框108,控制器14确定是否在场景信息内识别出感兴趣区域。如果在框108控制器14确定场景信息包括感兴趣区域,则该方法进行到框110。如果在框108控制器14确定场景信息不包括感兴趣区域,则方法100返回到框102并且重复方法100。
在框110,控制器14分析场景信息以确定感兴趣区域是否被遮挡。当与感兴趣区域相关的视觉信息被挡住、缺失或以其他方式无法被车辆12的乘员看到时,感兴趣区域被遮挡。感兴趣区域被挡住的一个示例为,树木部分或完全遮挡停车标志。视觉信息缺失的感兴趣区域的一个示例为褪色的车道线或停车标志。其他无法被看到的方式的示例包括交通灯或刹车灯由于阳光直射或其他外部照明而褪色。被遮挡的感兴趣区域的示例在图4A和4B示出并在下面描述。在一个实施例中,当遮挡大于预定遮挡阈值时,感兴趣区域被遮挡。例如,预定遮挡阈值是20%,因此如果感兴趣区域被遮挡超过20%(即超过20%被遮挡,或者超过20%视觉信息缺失),则控制器14确定感兴趣区域被遮挡。在另一个实施例中,使用乘员和环境评估调整预定遮挡阈值。例如,如果乘员不警觉或处于新区域,则可以降低预定遮挡阈值。
为了确定感兴趣区域是否被遮挡,控制器14使用机器学***时,可以使用GPS地图数据确定道路标志。
如果控制器14确定感兴趣区域未被遮挡,则方法100返回到框102并且不执行增强。如果控制器14确定感兴趣区域被遮挡,则该方法进行到框112。
在框112,控制器14使用AR-HUD***18、TWD***20、HMI 22或其他显示器,增强感兴趣区域。然后,方法100返回框102以在车辆在该环境中行驶时时重复该过程。参照如上所描述的图1,增强可以包括以图形方式去除遮挡,或者在感兴趣区域上或附近显示图形。示例性图形将在下面参考图4A和4B进行讨论。
参考图3,附图标记200用于指示用于确定感兴趣的交通灯区域是否被遮挡(或更具体地是否被直射阳光冲刷)的方法的示例流程图。方法200开始于框202并进行至框204。
在框204,控制器14使用对象检测和定位算法(例如机器学习),通过分析捕获的图像或其他场景信息,以确定检测到的感兴趣区域是否是交通灯。在框204,如果控制器14确定感兴趣区域不是交通灯,则方法200在框206结束;如果控制器14确定感兴趣区域是交通灯,则方法200前进至框208。
在框208处,控制器14确定交通灯状态。交通灯状态包括交通灯的哪些灯被点亮。为了确定交通灯状态,使用机器学习算法(例如神经网络)将交通灯的图像映射到所有环境光条件下的交通灯状态。交通灯状态包括对于交通灯可能的各种交通灯照明条件。在框208之后,方法200进行到框210。
在框210,控制器14将摄像机30捕获的图像转换为强度图像(即,灰度图像)。强度图像是一个数据矩阵,其值表示一定范围内可能的强度(即亮度)。捕获图像的每个像素都被分配到一个数值,该数值创建强度图像。方法200然后进行到框212。
在框212,控制器14计算各可能光状态(红、绿、黄)的对比度值。对比度值为捕获图像的强度图像值与GR、GY和YR(红-绿、绿-黄或黄-红)值之间的差。因此,对比度值是捕获图像中交通灯的亮度强度的度量。然后方法200进行到框214。
在框214,控制器14确定对比度阈值与在框212确定的对比度值的最高值之间的差值。换句话说,对比度值用于确定照射在交通灯上的直射阳光是否会影响乘员看到交通灯状态。对比度阈值是预编程值,用于确定是否将使用AR-HUD***18增强交通灯。如果最高对比度值大于对比度阈值,则方法200返回到框206,方法200结束,不增强交通灯。如果最高对比度值低于预先确定的阈值,则方法200进行到框216。
在框216,控制器14使用AR-HUD***18、TWD***20、HMI 22或其他显示器增强感兴趣区域。增强可以包括以图形方式在感兴趣区域内去除遮挡或者在其上或附近显示图形(如前文结合图1所述),或者增加被照射的交通标志灯的强度。示例性图形将在下面图4A和4B进行讨论。。
参考图4A,示出了第一示例性驾驶场景,标记为附图标记300。第一示例性驾驶场景300描绘了从乘员的角度通过车辆12的挡风玻璃32看到的环境28的视图。第一示例性驾驶场景300包括遮挡物302(即,枝繁叶茂的树)以及若干感兴趣区域,包括被遮挡的行人304、被遮挡的交通标志306以及被遮挡的人行道标记308和310。被遮挡的行人304位于被遮挡的交通标志306附近。被遮挡的交通标志306包括表达行人可能正在附近穿过的图像(即,驾驶规则)。被遮挡的道路标志308在行人可能正在穿过被遮挡的人行横道310(允许行人安全地横穿道路的指定区域)时,指示驾驶员应当降低车辆12的速度。***10和方法100用于增强这些感兴趣区域,其被覆盖到相应的感兴趣区域304、306、308和310上。因此,***10和方法100通过增强感兴趣区域304、306、308和310,帮助提高乘员对车辆12周围的环境28的认识。因此,如上所述,仅当***10已经确定感兴趣区域304、306、308和310被遮挡时,第一示例性驾驶场景300中的感兴趣区域304、306、308和310才被增强。
参考4B,示出了第二示例性驾驶场景,标记为附图标记312。第二示例性驾驶场景312描绘了从乘员的角度通过车辆12的挡风玻璃32看到的环境28的视图。第二示例性驾驶场景312包括被遮挡的交通灯314(即,被雪覆盖),其指示车辆12应当减速(即,黄灯)。第二示例性驾驶场景312还包括来自位于车辆12前方的远处车辆316的一组被遮挡的刹车灯(即,被雪覆盖)。***10和方法100用于增强这些感兴趣区域314和316,其被覆盖到相应的感兴趣区域上。因此,***10和方法100有助于提高乘员对车辆12周围的环境28的认识。例如,色弱的乘员可能无法区分被遮挡的交通灯314的颜色。通过提供增强的感兴趣区域314和316,***10和方法100用于提高色弱乘员对环境28的感知。
本公开的描述本质上仅是示例性的,并且不脱离本公开的主旨的变型旨在落入本公开的范围内。此类变化不应被视为脱离本公开的精神和范围。

Claims (10)

1.一种用于选择性地增强车辆中的信息的方法,所述方法包括:
从至少一个传感器接收场景信息;
从所述场景信息中识别感兴趣区域;
分析所述场景信息,以确定所述感兴趣区域是否被遮挡;以及
当所述感兴趣区域被遮挡时,使用显示***来增强所述感兴趣区域。
2.根据权利要求1所述的方法,其中,所述场景信息包括与车辆周围的环境有关的数据。
3.根据权利要求1所述的方法,其中,所述感兴趣区域包括在所述场景信息内识别且被分类为与车辆安全相关的对象。
4.根据权利要求3所述的方法,其中,与车辆安全相关的对象包括道路标志、刹车灯、行人、交通灯和交通标志。
5.根据权利要求1所述的方法,其中,所述感兴趣区域包括由乘员需要识别用于增强的对象。
6.根据权利要求5所述的方法,其中,由乘员需要识别用于增强的对象包括由乘员设置的增强偏好。
7.根据权利要求1所述的方法,其中,识别所述感兴趣区域包括传递所述场景信息通过神经网络。
8.根据权利要求1所述的方法,其中,分析所述场景信息包括传递所述场景信息通过神经网络,以确定所述感兴趣区域是否被遮挡。
9.根据权利要求8所述的方法,其中,当所述感兴趣区域被挡住、缺失或由于直射阳光而无法被所述车辆的乘员看到时,所述感兴趣区域被遮挡。
10.根据权利要求8所述的方法,其中,当所述感兴趣区域被挡住或缺失大于预定遮挡阈值时,所述感兴趣区域被遮挡。
CN202311049394.5A 2022-12-14 2023-08-18 通过检测遮挡作出增强决策的***和方法 Pending CN118182504A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US18/066,008 2022-12-14
US18/066,008 US20240203084A1 (en) 2022-12-14 2022-12-14 System and method for augmented decision making by detecting occlusions

Publications (1)

Publication Number Publication Date
CN118182504A true CN118182504A (zh) 2024-06-14

Family

ID=91278493

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311049394.5A Pending CN118182504A (zh) 2022-12-14 2023-08-18 通过检测遮挡作出增强决策的***和方法

Country Status (3)

Country Link
US (1) US20240203084A1 (zh)
CN (1) CN118182504A (zh)
DE (1) DE102023122806A1 (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3654286B1 (en) * 2013-12-13 2024-01-17 Panasonic Intellectual Property Management Co., Ltd. Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
KR102570780B1 (ko) * 2018-05-08 2023-08-29 소니 세미컨덕터 솔루션즈 가부시키가이샤 화상 처리 장치, 이동 장치 및 방법, 그리고 프로그램
US11094295B2 (en) * 2019-12-10 2021-08-17 Volvo Car Corporation Automated adjustment of head up display image in a vehicle
US11919391B2 (en) * 2020-05-29 2024-03-05 Yazaki Corporation On-vehicle display apparatus
US20220019225A1 (en) * 2020-07-14 2022-01-20 Argo AI, LLC Smart node for autonomous vehicle perception augmentation
US20230351773A1 (en) * 2022-04-28 2023-11-02 Toyota Research Institute, Inc. Systems and methods for detecting traffic lights corresponding to a driving lane

Also Published As

Publication number Publication date
DE102023122806A1 (de) 2024-06-20
US20240203084A1 (en) 2024-06-20

Similar Documents

Publication Publication Date Title
US9715827B2 (en) Multi-view traffic signage
EP3112810B1 (en) Advanced driver assistance apparatus, display apparatus for vehicle and vehicle
KR101768500B1 (ko) 운전 보조 장치 및 그 제어방법
US10634317B2 (en) Dynamic control of vehicle lamps during maneuvers
CN109716415B (zh) 车辆控制装置、车辆控制方法以及移动体
US10917619B2 (en) Display apparatus, display system, moveable body, and display method
CN110803019B (zh) 车辆用显示***及车辆
CN113710530A (zh) 用于运行自主交通工具中的驾驶员信息***的方法和驾驶员信息***
CN113498388A (zh) 用于运行自我车辆中的驾驶员信息***的方法和驾驶员信息***
WO2022009848A1 (ja) 自車位置推定装置、走行制御装置
KR20200069084A (ko) 도로 제한 속도 판단 방법, 도로 제한 속도 판단 장치, 전자 기기, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
CN108136956A (zh) 车辆的通知装置
JP2008046766A (ja) 車両外部情報表示装置
US11697346B1 (en) Lane position in augmented reality head-up display system
CN112824150A (zh) 通信预期交通工具操纵的***和方法
CN113170080A (zh) 信息处理设备、信息处理方法和程序
CN117719331A (zh) 增强供乘员认知的道路标记和交通标志
US20240029559A1 (en) Augmented reality display for traffic signal awareness
US20240045204A1 (en) Augmenting vehicle indicator lights with arhud for color vision impaired
WO2017179174A1 (ja) 移動体周囲表示方法及び移動体周囲表示装置
US11766938B1 (en) Augmented reality head-up display for overlaying a notification symbol over a visually imperceptible object
US20240203084A1 (en) System and method for augmented decision making by detecting occlusions
US20240157935A1 (en) Detection of distracted drivers
JP7447842B2 (ja) 車両用表示制御装置、車両用表示制御方法
KR101376524B1 (ko) 주행 환경의 매핑 시스템 및 그 매핑 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination