CN116880494A - 用于基于语义分割的图像定位的***和方法 - Google Patents

用于基于语义分割的图像定位的***和方法 Download PDF

Info

Publication number
CN116880494A
CN116880494A CN202310929060.0A CN202310929060A CN116880494A CN 116880494 A CN116880494 A CN 116880494A CN 202310929060 A CN202310929060 A CN 202310929060A CN 116880494 A CN116880494 A CN 116880494A
Authority
CN
China
Prior art keywords
image data
vehicle
image
data
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310929060.0A
Other languages
English (en)
Inventor
黄泽铧
陈鹏飞
王泮渠
许可
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tucson Ltd
Original Assignee
Tucson Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tucson Ltd filed Critical Tucson Ltd
Publication of CN116880494A publication Critical patent/CN116880494A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)

Abstract

公开了一种基于语义分割的图像定位***和方法。一个特定实施例包括:从安装在自主车辆上的图像生成设备接收图像数据;对所接收的图像数据执行语义分割或其他对象检测,以识别并标记图像数据中的对象,并产生语义标记图像数据;识别语义标记图像数据中的无关对象;从语义标记图像数据中去除无关对象;比较语义标记图像数据和基准语义标记图;基于匹配的基准语义标记图中的信息来确定自主车辆的车辆位置。

Description

用于基于语义分割的图像定位的***和方法
本申请为申请日为2018年05月18日、于2019年11月15日进入中国国家阶段、中国国家申请号为201880032688.8、发明名称为“用于基于语义分割的图像定位的***和方法”的发明专利申请的分案申请。
相关申请的交叉引用
本申请要求于2017年5月18日提交的美国专利申请序列号15/598,727的优先权。
版权声明
本专利文件的公开的一部分包含受版权保护的材料。版权拥有者不反对任何人按照在美国专利商标局的专利文件或记录中所显示的那样以传真形式复制本专利文件或专利公开,但在其他方面保留所有版权。以下声明适用于本文的公开内容以及形成本文档一部分的附图:版权2016-2017,TuSimple,保留所有权利。
技术领域
本专利文件总体上涉及用于图像处理、车辆定位、车辆导航、车辆控制***和自主驾驶***的工具(***、装置、方法、计算机程序产品等),更具体地,但不限于此,涉及基于语义分割的图像定位的***和方法。
背景技术
图像语义分割旨在通过将图像中的每个像素标记为语义类别来识别直接与图像中的对象相对应的图像区域。与仅检测图像中的对象的对象识别相反,语义分割将类别标记分配给每个像素,以指示该像素所属的对象。因此,语义分割的目的是为图像中的每个像素分配类别标记,这在图像分析和自驾驶***中起着重要作用。
定位是确定车辆在环境中的确切位置的过程。定位对于在环境中导航车辆很重要。定位对于避开环境中的障碍物也很重要。在一些情况下,当使用语义分割标记时,定位可能会更加困难,这是因为在执行语义分割标记的图像中出现的变化的无关对象。另外,来自自主车辆上的传感器设备的图像数据和距离数据的准确度可能不是最佳的。这样,在生成准确的车辆位置和速度时可能存在问题。
发明内容
本文公开的各种示例实施例描述了一种用于使用语义解析对自主车辆进行高度自动化的定位和导航的***和方法。示例实施例的***和方法包括两个主要组成部分或阶段:1)映射组成部分/阶段,以及2)定位组成部分/阶段。在映射阶段,当操作测试车辆时,来自一个或多个相机(或其他图像生成设备)的图像数据被发送到***内的计算设备。计算设备处理图像数据以产生高度准确的基准语义标记图像,并从基准语义标记图像中去除无关的动态对象,该基准语义标记图像作为基准语义标记图或路线图表示被记录在数据存储设备中。在定位阶段,自主车辆中的第二计算设备基于实时图像数据计算相同的语义标记图像,并从语义标记图像中去除无关的动态对象。然后,第二计算设备通过比较语义标记图像与基准语义标记图的相似度来定位车辆的位置。本文公开的方法包括:1)从语义标记图像中去除无关的动态对象;2)通过比较语义标记图像与基准语义标记图的相似度来定位车辆的位置。
附图说明
在附图的各图中以示例而非限制的方式示出了各种实施例,在附图中:
图1示出了其中可以实现示例实施例的图像处理和定位模块的示例生态***的框图;
图2和图3示出了示例实施例的图像处理和定位模块的组件;
图4是示出了用于基于语义分割的图像定位的***和方法的示例实施例的过程流程图;以及
图5以计算机***的示例形式示出了机器的示意图,其中指令集在被执行时可以使该机器执行本文所讨论的方法中的任何一个或多个方法。
具体实施方式
在下面的描述中,出于解释的目的,阐述了许多具体细节以便提供对各种实施例的透彻理解。然而,对于本领域的普通技术人员而言显而易见的是,可以在没有这些具体细节的情况下实践各种实施例。
如各种示例实施例中所述,本文描述了用于基于语义分割的图像定位的***和方法。可以在车辆生态***101中的控制***150的情况下使用本文公开的示例实施例。在一个示例实施例中,驻留在车辆105中的具有图像处理和定位模块200的控制***150可以像图1中所示的架构和生态***101一样进行配置。然而,对于本领域的普通技术人员而言显而易见的是,可以在各种其他应用以及***中实现、配置和使用本文描述和要求保护的图像处理和定位模块200。
现在参考图1,框图示出了示例生态***101,其中可以实现示例实施例的控制***150和图像处理和定位模块200。将在下面更详细地描述这些组件。生态***101包括各种***和组件,它们可以生成信息/数据和相关服务的一个或多个源和/或将其传递给控制***150和图像处理和定位模块200,其可以安装在车辆105中。例如,作为车辆子***140的设备之一,安装在车辆105中的相机可以生成可由控制***150接收的图像和定时数据。控制***150和在其上执行的图像处理和定位模块200可以接收该图像和定时数据输入。如下面更详细地描述的,图像处理和定位模块200可以处理输入图像数据,基于输入图像数据生成语义标记图像,从语义标记图像中去除无关的动态对象,以及将语义标记图像与基准语义标记图像进行比较。比较的结果可以用于准确地确定自主车辆的精确位置。位置信息可以由自主车辆控制子***(作为车辆子***140的另一子***)来使用。例如,自主车辆控制子***可以使用车辆位置信息来安全高效地导航车辆105通过真实世界驾驶场景,同时避开障碍物并安全地控制车辆。
在本文所述的示例实施例中,控制***150可以与多个车辆子***140进行数据通信,所有这些车辆子***140可以驻留在用户的车辆105中。提供车辆子***接口141以促进控制***150和多个车辆子***140之间的数据通信。控制***150可以被配置为包括数据处理器171,以执行图像处理和定位模块200,该数据处理器171用于处理从车辆子***140中的一个或多个接收的图像数据。数据处理器171可与数据存储设备172组合,该数据存储设备172作为控制***150中的计算***170的一部分。数据存储设备172可用于存储数据、处理参数和数据处理指令。可以提供处理模块接口165以促进数据处理器171与图像处理和定位模块200之间的数据通信。在各个示例实施例中,类似于图像处理和定位模块200配置的多个处理模块可以被提供以供数据处理器171执行。如图1中的虚线所示,图像处理和定位模块200可以集成到控制***150中,或可选地下载到控制***150。
控制***150可以被配置为从与其连接的广域网120和网络资源122接收数据或向其发送数据。网络支持设备130和/或用户移动设备132可用于经由网络120进行通信。网络支持设备接口131可由控制***150使用以促进经由网络支持设备130在控制***150和网络120之间的数据通信。类似地,控制***150可以使用用户移动设备接口133来促进通过用户移动设备132在控制***150和网络120之间的数据通信。以这种方式,控制***150可以获得通过网络120对网络资源122的实时访问。网络资源122可以用于获得用于由数据处理器171执行的处理模块、训练内部神经网络的数据内容、***参数或其他数据。
生态***101可以包括广域数据网络120。网络120代表一个或多个常规广域数据网络,例如因特网、蜂窝电话网络、卫星网络、寻呼机网络、无线广播网络、游戏网络、WiFi网络、对等网络、IP语音(VoIP)网络等。这些网络120中的一个或多个可用于将用户或客户端***与网络资源122(例如,网站、服务器、中央控制站点等)连接起来。网络资源122可以生成和/或分发数据,该数据可以在车辆105中经由网络支持设备130或用户移动设备132被接收。网络资源122还可以托管网络云服务,其可以支持用于计算或协助处理图像输入或图像输入分析的功能。天线可用于经由蜂窝、卫星、无线电或其他常规信号接收机制将控制***150以及图像处理和定位模块200与数据网络120连接。这样的蜂窝数据网络当前可用(例如,VerizonTM、AT&TTM、T-MobileTM等)。此类基于卫星的数据或内容网络目前也可用(例如,SiriusXMTM、HughesNetTM等)。诸如AM/FM无线电网络、寻呼机网络、UHF网络、游戏网络、WiFi网络、对等网络、IP语音(VoIP)网络等的常规广播网络也是众所周知的。因此,如下面更详细地描述的,控制***150和图像处理和定位模块200可以经由车载网络支持设备接口131接收基于网络的数据或内容,该网络支持设备接口131可以用于与网络支持设备接收器130和网络120连接。通过这种方式,控制***150和图像处理和定位模块200可以支持车辆105内的各种可联网设备和***。
如图1所示,控制***150和图像处理和定位模块200还可以从用户移动设备132接收数据、图像处理控制参数和训练内容,该用户移动设备132可以位于车辆105内部或附近。用户移动设备132可以代表标准移动设备,例如蜂窝电话、智能电话、个人数字助理(PDA)、MP3播放器、平板计算设备(例如,iPadTM)、膝上型计算机、CD播放器和其他移动设备,该移动设备可以产生、接收和/或传递用于控制***150和图像处理和定位模块200的数据、图像处理控制参数和内容。如图1所示,移动设备132也可以与网络云120进行数据通信。移动设备132可以从移动设备132本身的内部存储器组件或通过网络120从网络资源122获取数据和内容。另外,移动设备132本身可以包括GPS数据接收器、加速度计、WiFi三角测量或移动设备中的其他地理位置传感器或组件,其可用于在任何时间(通过移动设备)确定用户的实时地理位置。在任何情况下,如图1所示,控制***150和图像处理和定位模块200都可以从移动设备132接收数据。
仍然参考图1,生态***101的示例实施例可以包括车辆操作子***140。对于在车辆105中实现的实施例,许多标准车辆包括操作子***,例如支持监测/控制用于发动机、制动器、变速器、电气***、排放***、内部环境等的子***的电子控制单元(ECU)。例如,经由车辆子***接口141从车辆操作子***140(例如,车辆105的ECU)传送给控制***150的数据信号可以包括关于车辆105的一个或多个组件或子***的状态的信息。具体地,可以从车辆操作子***140传送给车辆105的控制器局域网(CAN)总线的数据信号可以经由车辆子***接口141由控制***150来接收和处理。本文描述的***和方法的实施例可以与使用本文定义的CAN总线或类似的数据通信总线的基本上任何机械化***一起使用,包括但不限于工业设备、船、卡车、机械、或汽车;因此,本文使用的术语“车辆”可以包括任何此类机械化***。本文描述的***和方法的实施例还可以与采用某种形式的网络数据通信的任何***一起使用;然而,不需要这种网络通信。
仍然参考图1,生态***101以及其中的车辆操作子***140的示例实施例可以包括支持车辆105的操作的各种车辆子***。通常,车辆105可以采用以下形式:例如,小汽车、卡车、摩托车、公共汽车、船、飞机、直升机、割草机、推土机、雪地摩托、飞行器、休旅车、游乐园车、农用设备、建筑设备、电车、高尔夫球车、火车和手推车。其他车辆也是可能的。车辆105可被配置为完全或部分地以自主模式操作。例如,车辆105可以在自主模式下控制自己,并且可操作以确定车辆的当前状态及其环境、确定该环境中至少一个其他车辆的预测行为、确定可以与该至少一个其他车辆执行预测行为的概率相对应的置信度、以及基于所确定的信息来控制车辆105。当处于自主模式时,车辆105可以被配置为在没有人类交互的情况下进行操作。
车辆105可以包括各种车辆子***,例如车辆驱动子***142、车辆传感器子***144、车辆控制子***146和乘员接口子***148。如上所述,车辆105还可以包括控制***150、计算***170以及图像处理和定位模块200。车辆105可以包括更多或更少的子***,并且每个子***可以包括多个元件。此外,车辆105的每个子***和元件可以互连。因此,车辆105的所描述的功能中的一个或多个可以被划分为附加的功能或物理组件,或者被组合为较少的功能或物理组件。在一些其他示例中,可以将其他功能和物理组件添加到图1所示的示例中。
车辆驱动子***142可以包括可操作以为车辆105提供动力运动的组件。在示例实施例中,车辆驱动子***142可以包括发动机或电动机、车轮/轮胎、变速器、电气子***和电源。发动机或电动机可以是内燃发动机、电动机、蒸汽发动机、燃料电池发动机、丙烷发动机或其他类型的发动机或电动机的任何组合。在一些示例实施例中,发动机可以配置为将动力源转换成机械能。在一些示例实施例中,车辆驱动子***142可以包括多种类型的发动机或电动机。例如,气电混合汽车可以包括汽油发动机和电动机。其他示例也是可能的。
车辆105的车轮可以是标准轮胎。车辆105的车轮可以被配置为各种形式,例如包括单轮车、自行车、三轮车或四轮车(例如,在汽车或卡车上)形式。其他车轮几何形状也是可能的,例如包括六个或更多个车轮的那些。车辆105的车轮的任何组合可以可操作以相对于其他车轮不同地旋转。车轮可以表示固定地附接到变速器的至少一个车轮、以及耦接到车轮的轮辋的至少一个轮胎,其可以与驱动表面接触。车轮可以包括金属和橡胶的组合或材料的另一组合。变速器可包括可操作以将机械动力从发动机传递给车轮的元件。为此,变速器可以包括齿轮箱、离合器、差速器和驱动轴。变速器也可以包括其他元件。驱动轴可包括可耦接至一个或多个车轮的一个或多个轮轴。电气***可包括可操作以传送和控制车辆105中的电信号的元件。这些电信号可用于激活车辆105的灯、伺服、电动机和其他电驱动或控制设备。动力源可以表示可以全部或部分地为发动机或电动机供电的能源。即,发动机或电动机可以被配置为将动力源转换成机械能。动力源的示例包括汽油、柴油、其他基于石油的燃料、丙烷、其他基于压缩气体的燃料、乙醇、燃料电池、太阳能板、电池和其他电源的来源。动力源可以附加地或替代地包括燃料箱、电池、电容器或飞轮的任何组合。动力源也可以为车辆105的其他子***提供能量。
车辆传感器子***144可以包括多个传感器,其被配置为感测关于车辆105的环境或状况的信息。例如,车辆传感器子***144可以包括惯性测量单元(IMU)、全球定位***(GPS)收发器、RADAR单元、激光测距仪/LIDAR单元(或其他距离测量设备)以及一个或多个相机或图像捕获设备。车辆传感器子***144还可以包括被配置为监测车辆105的内部***的传感器(例如,O 2监测器、燃油表、发动机油温)。其他传感器也是可能的。车辆传感器子***144中包括的一个或多个传感器可以被配置为单独地或共同地被致动,以便修改一个或多个传感器的位置、取向或两者。
IMU可以包括被配置为基于惯性加速度感测车辆105的位置和取向变化的传感器(例如,加速度计和陀螺仪)的任何组合。GPS收发器可以是被配置为估计车辆105的地理位置的任何传感器。为此,GPS收发器可以包括可操作以提供关于车辆105相对于地表的位置的信息的接收器/发送器。RADAR单元可以表示利用无线电信号来感测车辆105的局部环境内的对象的***。在一些实施例中,除了感测对象之外,RADAR单元还可以被配置为感测车辆105附近的对象的速度和前进方向。激光测距仪或LIDAR单元(或其他距离测量设备)可以是被配置为使用激光来感测车辆105所在环境中的对象的任何传感器。在示例实施例中,激光测距仪/LIDAR单元可包括一个或多个激光源、激光扫描仪以及一个或多个检测器以及其他***组件。激光测距仪/LIDAR单元可以被配置为以相干(例如,使用外差检测)或非相干检测模式操作。相机可以包括一个或多个设备,该设备被配置为捕获车辆105的环境的多个图像。相机可以是静止图像相机或运动相机。
车辆控制***146可以被配置为控制车辆105及其组件的操作。因此,车辆控制***146可包括各种元件,例如转向单元、节气门、制动单元、导航单元和自主控制单元。
转向单元可以表示可操作以调节车辆105的前进方向的机构的任何组合。节气门可以被配置为控制例如发动机的操作速度,并进而控制车辆105的速度。制动单元可以包括被配置为使车辆105减速的机构的任何组合。制动单元可以以标准方式使用摩擦使车轮减速。在其他实施例中,制动单元可以将车轮的动能转换为电流。制动单元也可以采用其他形式。导航单元可以是被配置为确定车辆105的行驶路径或路线的任何***。导航单元可以被附加地配置为在车辆105操作时动态地更新驾驶路径。在一些实施例中,导航单元可以被配置为合并来自图像处理和定位模块200、GPS收发器以及一个或多个预定地图的数据,以便确定车辆105的驾驶路径。自主控制单元可以表示被配置为识别、评估、避开或以其他方式协商车辆105的环境中的潜在障碍物的控制***。通常,自主控制单元可以被配置为在没有驾驶员的情况下控制车辆105进行操作或提供驾驶员辅助以控制车辆105。在一些实施例中,自主控制单元可以被配置为合并来自图像处理和定位模块200、GPS收发器、RADAR、LIDAR、相机和其他车辆子***的数据,以确定车辆105的行驶路径或轨迹。车辆控制***146可以附加地或替代地包括除了示出和描述的那些组件之外的组件。
乘员接口子***148可以被配置为允许车辆105与外部传感器、其他车辆、其他计算机***和/或车辆105的乘员或用户之间的交互。例如,乘员接口子***148可以包括标准视觉显示设备(例如,等离子体显示器、液晶显示器(LCD)、触摸屏显示器、平视显示器等)、扬声器或其他音频输出设备、麦克风或其他音频输入设备、导航界面以及用于控制车辆105的内部环境(例如,温度、风扇等)的界面。
在示例实施例中,乘员接口子***148可以提供例如用于车辆105的用户/乘员与其他车辆子***进行交互的装置。视觉显示设备可以向车辆105的用户提供信息。用户接口设备还可以可操作以经由触摸屏接受来自用户的输入。触摸屏可以被配置为经由电容感测、电阻感测或表面声波过程等来感测用户手指的位置和移动中的至少一个。触摸屏能够感测在与触摸屏表面平行或成平面的方向上、在垂直于触摸屏表面的方向上或者在这两者上的手指移动,并且还能够感测被施加到触摸屏表面的压力水平。触摸屏可以由一个或多个半透明或透明的绝缘层和一个或多个半透明或透明的导电层形成。触摸屏也可以采用其他形式。
在其他实例中,乘员接口子***148可以提供用于车辆105与其环境内的设备进行通信的装置。麦克风可以被配置为从车辆105的用户接收音频(例如,语音命令或其他音频输入)。类似地,扬声器可以被配置为向车辆105的用户输出音频。在一个示例实施例中,乘员接口子***148可被配置为直接地或经由通信网络与一个或多个设备无线通信。例如,无线通信***可以使用3G蜂窝通信,例如CDMA、EVDO、GSM/GPRS,或4G蜂窝通信,例如WiMAX或LTE。备选地,无线通信***可以例如使用与无线局域网(WLAN)通信。在一些实施例中,无线通信***146可以例如使用红外链路、/>或/>直接与设备进行通信。在本公开的上下文中,诸如各种车辆通信***之类的其他无线协议也是可能的。例如,无线通信***可以包括一个或多个专用短程通信(DSRC)设备,其可以包括车辆和/或路侧站点之间的公共或私有数据通信。
车辆105的许多或全部功能可以由计算***170控制。计算***170可以包括至少一个数据处理器171(其可以包括至少一个微处理器),其执行存储在非暂时性计算机可读介质(例如,数据存储设备172)中的处理指令。计算***170还可以表示多个计算设备,其可以用来控制车辆105的处于分布式方式的各个组件或子***。在一些实施例中,数据存储设备172可以包含可由数据处理器171执行以执行车辆105的各种功能的处理指令(例如,程序逻辑),包括本文结合附图所描述的那些功能。数据存储设备172还可以包含其他指令,包括将数据发送给车辆驱动子***140、车辆传感器子***144、车辆控制子***146以及乘员接口子***148中的一个或多个、从其接收数据、与其进行交互或对其进行控制的指令。
除了处理指令之外,数据存储设备172还可以存储诸如图像处理参数、训练数据、道路地图和路径信息等信息之类的数据。车辆105和计算***170可以在车辆105以自主、半自主和/或手动模式进行操作期间使用此类信息。
车辆105可以包括用于向车辆105的用户或乘员提供信息或从车辆105的用户或乘员接收信息的用户界面。用户界面可以控制可以在显示设备上显示的交互式图像的内容和布局或实现对可以在显示设备上显示的交互式图像的内容和布局的控制。此外,用户界面可包括在一组乘员接口子***148内的一个或多个输入/输出设备,例如显示设备、扬声器、麦克风或无线通信***。
计算***170可以基于从各个车辆子***(例如,车辆驱动子***140、车辆传感器子***144和车辆控制子***146)接收的以及从乘员接口子***148接收的输入来控制车辆105的功能。例如,计算***170可以使用来自车辆控制***146的输入,以便控制转向单元以避开由车辆传感器子***144和图像处理和定位模块200检测到的障碍物。在示例实施例中,计算***170可操作以提供对车辆105及其子***的许多方面的控制。
尽管图1示出了车辆105的各种组件,例如车辆子***140、计算***170、数据存储设备172、控制***150以及图像处理和定位模块200,它们被集成到车辆105中,这些组件中的一个或多个可以独立于车辆105而安装或相关联。例如,数据存储设备172可以部分地或全部地与车辆105分开地存在。因此,可以以可以分开定位或定位在一起的设备元件的形式来提供车辆105。构成车辆105的设备元件可以以有线或无线方式通信地耦合在一起。在各个示例实施例中,控制***150以及与之进行数据通信的图像处理和定位模块200可以被实现为集成组件或单独组件。在示例实施例中,可以通过使用经由网络120与移动设备132和/或网络资源122的数据连接来动态地升级、修改和/或扩充控制***150和/或图像处理和定位模块200的软件组件。控制***150可以周期性地向移动设备132或网络资源122查询更新,或者可以将更新推送到控制***150。
在示例实施例中,图像处理和定位模块200可以被配置为包括与如图1所示的控制***150的接口,图像处理和定位模块200可以通过该接口发送和接收数据,如本文所述。另外,图像处理和定位模块200可以被配置为包括与控制***150和/或其他生态***101子***的接口,图像处理和定位模块200可以通过该接口从上述各种数据源接收辅助数据。辅助数据可用于基于多种因素来增强、修改或训练图像处理和定位模块200的操作,这些因素包括用户操作车辆的环境(例如,车辆的位置、特定目的地、行进方向、速度、一天中的时间、车辆的状态等)以及可从本地和远程的各种源获得的各种其他数据,如本文所述。如上所述,图像处理和定位模块200还可以在未部署在车辆中和不必在车辆中使用或与车辆一起使用的***和平台中实施。
基于语义分割的图像定位的***和方法
本文公开的各种示例实施例描述了一种用于使用语义解析对自主车辆进行高度自动化的定位和导航的***和方法。示例实施例的***和方法包括两个主要组成部分或阶段:1)映射组成部分/阶段,以及2)定位组成部分/阶段。在映射阶段,当操作测试车辆时,来自一个或多个相机(或其他图像生成设备)的图像数据被发送到***内的计算设备。图像数据可以对应于来自由一个或多个相机生成的视频流的至少一帧。计算设备处理图像数据以产生高度准确的基准语义标记图像,并从基准语义标记图像中去除无关的动态对象,该基准语义标记图像作为基准语义标记图或路线图表示被记录在数据存储设备中。在定位阶段,自主车辆中的第二计算设备基于实时图像数据计算相同的语义标记图像,并从语义标记图像中去除无关的动态对象。然后,第二计算设备通过比较语义标记图像与基准语义标记图的相似度来定位车辆的位置。本文公开的方法包括:1)从语义标记图像中去除无关的动态对象;2)通过比较语义标记图像与基准语义标记图的相似度来定位车辆的位置。
现在参考图2和图3,在示例实施例中,图示出了基于语义分割的定位***201/301。如图2所示的基于语义分割的定位***201是测试车辆用于生成基准语义标记图像数据的配置。如图3所示的基于语义分割的定位***301是自主车辆在现实世界场景中使用的配置,以从实况车辆图像数据生成语义标记图像数据,将生成的语义标记图像数据与基准语义标记图像图进行比较,并根据比较来确定精确的车辆位置。在下面更详细地描述示例实施例的这些***。
在图2所示的示例实施例中,基于语义分割的定位***201以及其中包括的基准图像处理和定位模块202是测试车辆用于生成基准语义标记图像数据的配置。在示例实施例中,基准图像处理和定位模块202可以被配置为包括图像语义分割模块273和语义标记图像处理模块275以及为清楚起见未示出的其他处理模块。这些模块中的每个模块都可以被实现为在控制***150内操作或与控制***150进行数据通信的基准图像处理和定位模块202的可执行环境中执行或激活的软件、固件或其他逻辑组件。下面结合本文提供的附图更详细地描述示例实施例的这些模块中的每个模块。
仍然参考图2,以基准生成配置操作的图像语义分割模块273可以从配备有一个或多个相机或其他图像捕获设备的测试车辆接收图像数据210。测试车辆还可以配备有高精度全球定位***(GPS)、高质量LIDAR和雷达***以及被配置为准确地生成特定位置的图像并将图像与高精度的距离和位置测量相关的其他设备。结果,测试车辆可以在感兴趣的环境中的定义路线上行驶,并采集环境的图像以及环境中对象的精确距离和位置测量。图像语义分割模块273可以采集该图像数据以及对应的距离和位置测量数据。图像数据可以与对应的距离和位置测量数据相关,以产生环境的高度准确的三维(3D)模型或图。使用图像数据210,图像语义分割模块273可以对采集的图像210执行语义分割或其他对象检测技术,以识别并标记图像数据中的对象。使用相关的距离和位置测量数据,还可以以高准确度定义所识别对象的3D位置。当以这种方式处理多个图像时,可以在预定义的时间间隔内跟踪所识别对象的位置。每个识别对象的位置差异可用于导出图像中每个移动或动态对象的速度和速度矢量。以这种方式,图像语义分割模块273可以生成语义标记图像数据,该语义标记图像数据包括对象标记、在由测试车辆采集的图像中识别的对象的准确位置以及移动或动态对象的速度。语义标记图像处理模块275可以使用该信息。
仍然参考图2,以基准生成配置操作的语义标记图像处理模块275可以从图像语义分割模块273接收语义标记图像数据以及检测到的对象位置和速度。语义标记图像处理模块275处理语义标记图像数据以识别在图像数据中识别的动态(例如,移动)的、短暂的、暂时的或其他无关对象。例如,图像中的动态的、短暂的、暂时的或其他无关的对象可以是对图像和其他图像对象的确定性和准确定位没有帮助的对象。语义标记图像处理模块275可以识别语义标记图像数据中的这些动态的、短暂的、暂时的或其他无关的对象,并将它们从语义标记图像数据中去除。所得的语义标记图像数据提供了高度准确的语义标记图,其中包括确定性的并提供准确定位的已识别的标记对象。该高度准确的语义标记图可以用作基准语义标记图220,从中可以确定准确的车辆定位。基准语义标记图220可以作为路线图表示274存储在存储器272中,其可以在现实世界的驾驶场景中由自主车辆控制***用来辅助车辆控制***来确定准确的车辆位置。
现在参考图3,基于语义分割的定位***301和其中包括的图像处理和定位模块200提供了在现实世界场景中自主车辆在实况车辆操作中使用的配置,以根据实时车辆图像数据310生成语义标记图像数据,将生成的语义标记图像数据与基准语义标记图220进行比较,并根据比较来确定精确的车辆位置320。在示例实施例中,图像处理和定位模块200可以被配置为包括图像语义分割模块273、语义标记图像处理模块275、定位处理模块377以及为清楚起见未示出的其他处理模块。这些模块中的每个模块都可以被实现为在控制***150内操作或与控制***150进行数据通信的图像处理和定位模块200的可执行环境中执行或激活的软件、固件或其他逻辑组件。下面结合本文提供的附图更详细地描述示例实施例的这些模块中的每个模块。
仍然参考图3,以实况车辆操作配置操作的图像语义分割模块273可以从在真实世界场景中操作的自主车辆接收图像数据310。自主车辆可以配备有如上所述的标准相机或成像设备、GPS、LIDAR、雷达以及其他车辆传感器设备和子***。自主车辆可以使用传感器子***来采集环境图像,以及环境中的对象的来自相机和LIDAR或雷达设备的距离测量。由于自主车辆的传感器子***可能不是高度精确的,并且现实世界环境可能无法像测试环境一样受控制,因此自主车辆采集的图像和距离数据可能不准确或不完整。结果,在环境中检测到的对象的位置以及因此在环境中的定位可能不是高度准确。然而,图像语义分割模块273可以从自主车辆传感器子***采集该图像数据310和对应的距离数据。使用该图像数据310,图像语义分割模块273可以对所采集图像310执行语义分割或其他对象检测技术,以识别并标记图像数据中的对象。使用距离数据,还可以估计所识别对象的3D位置。当以这种方式处理多个图像时,可以在预定义的时间间隔内跟踪所识别对象的位置。每个识别对象的位置差异可用于导出图像中的每个移动对象的估计速度和速度矢量。以这种方式,图像语义分割模块273可以生成语义标记图像数据,该语义标记图像数据包括对象标记、在由自主车辆采集的图像中识别的对象的估计位置以及移动对象的估计速度。语义标记图像处理模块275可以使用该信息。
仍然参考图3,以实况车辆操作配置操作的语义标记图像处理模块275可以从图像语义分割模块273接收语义标记图像数据以及检测到的对象位置和速度。语义标记图像处理模块275处理语义标记图像数据以识别在图像数据中识别的动态(例如,移动)的、短暂的、暂时的或其他无关对象。例如,图像中的动态的、短暂的、暂时的或其他无关的对象可以是对图像和其他图像对象的确定性和准确定位没有帮助的对象。语义标记图像处理模块275可以识别语义标记图像数据中的这些动态的、短暂的、暂时的或其他无关的对象,并将它们从语义标记图像数据中去除。所得的语义标记图像数据提供了语义标记图,其包括已识别的标记对象,这些对象对于车辆定位是确定性的和有用的。然而,如上所述,在实况车辆操作期间生成的识别对象和位置可能不是高度准确的。结果,可能难以从该语义标记图数据确定精确的车辆位置。因此,示例实施例提供了定位处理模块377,以进一步处理语义标记图像数据并从中提取精确的车辆位置。
如上所述,在基准生成阶段产生的高度准确的语义标记图可以用作基准语义标记图220,根据该基准语义标记图220可以确定准确的车辆定位。基准语义标记图220可从存储器272中检索并作为路线图表示374存储在本地存储器372中,该路线图表示374可由定位处理模块377用于生成准确的车辆位置。特别地,定位处理模块377可以使用从实时图像数据310生成的语义标记图像数据,并将生成的语义标记图像数据与对应于基准语义标记图220的路线图表示374进行比较。因为已经去除了每个所生成的语义标记图像数据和基准语义标记图220中的动态的、短暂的、暂时的、或其他无关对象,将生成的语义标记图像数据与基准语义标记图220进行比较以找到匹配的基准语义标记图220会更快、更有效。如上所述,基准语义标记图220是用高度精度的3D位置数据生成的。因此,当定位处理模块377执行比较并寻找匹配的基准语义标记图220时,可以从匹配的基准语义标记图220中提取精确的3D位置数据,并将其用于生成自主车辆的高度准确的3D位置320。当在多个循环中跟踪该准确的3D位置时,还可以生成自主车辆的准确速度和速度矢量。另外,还可以生成准确的车辆轨迹或位置历史记录,以准确地绘制车辆通过环境的路径。定位处理模块377生成的车辆位置320可以作为图像处理和定位模块200的输出提供。车辆位置320可以由自主车辆控制***在现实世界驾驶场景中使用,以辅助车辆控制***在各种不同环境中安全高效地操作自主车辆。
现在参考图4,流程图示出了用于基于语义分割的图像定位的***和方法1000的示例实施例。该示例实施例可以被配置为:从安装在自主车辆上的图像生成设备接收图像数据(处理框1010);对接收到的图像数据执行语义分割或其他对象检测,以识别并标记图像数据中的对象,并产生语义标记图像数据(处理框1020);识别语义标记图像数据中的无关对象(处理框1030);从语义标记图像数据中去除无关对象(处理框1040);比较语义标记图像数据和基准语义标记图(处理框1050);基于匹配的基准语义标记图中的信息来确定自主车辆的车辆位置(处理框1060)。
如本文所使用的,除非另有说明,否则术语“移动设备”包括可以与本文所述的控制***150和/或图像处理和定位模块200通信以获得通过任何数据通信模式传送的数据信号、消息或内容的读取或写入访问权限的任何计算或通信设备。在许多情况下,移动设备130是手持式便携式设备,例如智能电话、移动电话、蜂窝电话、平板计算机、膝上型计算机、显示寻呼机、射频(RF)设备、红外(IR)设备、全球定位设备(GPS)、个人数字助理(PDA)、手持计算机、可穿戴计算机、便携式游戏机、其他移动通信和/或计算设备或组合一个或多个前述设备的集成设备等。另外,移动设备130可以是计算设备、个人计算机(PC)、多处理器***、基于微处理器的或可编程的消费电子设备、网络PC、诊断设备、由车辆119的制造商或服务技术人员操作的***等,但不仅限于便携式设备。移动设备130可以接收和处理多种数据格式中的任何一种格式的数据。数据格式可以包括任何编程格式、协议或语言或被配置为以任何编程格式、协议或语言进行操作,包括但不限于JavaScript、C++、iOS、Android等。
如本文所使用的,除非另有说明,否则术语“网络资源”包括可以与本文所述的控制***150和/或图像处理和定位模块200通信以获得对通过任何模式的进程间或联网数据通信传送的数据信号、消息或内容的读取或写入访问权限的任何设备、***或服务。在许多情况下,网络资源122是数据网络可访问的计算平台,包括客户端或服务器计算机、网站、移动设备、对等(P2P)网络节点等。此外,网络资源122可以是Web设备、网络路由器、交换机、网桥、网关、诊断设备、由车辆119的制造商或服务技术人员操作的***或者是能够执行一组指令(顺序或其他方式)的任何机器,该指令指定要由该机器执行的动作。此外,虽然仅示出了单个机器,但是术语“机器”也可以被理解为包括机器的任何集合,其单独地或共同地执行一组(或多组)指令以执行本文讨论的任何一个或多个方法。网络资源122可以包括网络可传输数字内容的各个提供者或处理器中的任何一个。通常,所采用的文件格式是可扩展标记语言(XML),但是各种实施例不限于此,并且可以使用其他文件格式。例如,各种实施例可以支持除超文本标记语言(HTML)/XML之外的数据格式或除开放/标准数据格式之外的格式。本文所述的各种实施例可以支持任何电子文件格式,例如可移植文档格式(PDF)、音频(例如,运动图像专家组音频第3层-MP3等)、视频(例如,MP4等)以及由特定内容站点定义的任何专有交换格式。
与网络资源122一起使用的广域数据网络120(也称为网络云)可以被配置为将一个计算或通信设备与另一计算或通信设备耦合。可以使网络能够采用任何形式的计算机可读数据或介质来将信息从一个电子设备传送到另一电子设备。网络120可以包括互联网,以及其他广域网(WAN)、蜂窝电话网络、城域网、局域网(LAN)、其他分组交换网络、电路交换网络、例如通过通用串行总线(USB)或以太网端口的直接数据连接、其他形式的计算机可读介质或其任何组合。网络120可以包括互联网,以及其他广域网(WAN)、蜂窝电话网络、卫星网络、空中广播网络、AM/FM无线电网络、寻呼机网络、UHF网络、其他广播网络、游戏网络、WiFi网络、对等网络、IP语音(VoIP)网络、城域网、局域网(LAN)、其他分组交换网络、电路交换网络、直接数据连接(例如,通过通用串行总线(USB)或以太网端口)、其他形式的计算机可读介质或其任意组合。在一组互连的网络(包括基于不同架构和协议的网络)上,路由器或网关可以充当网络之间的链接,使得消息能够在不同网络上的计算设备之间发送。而且,网络内的通信链路通常可以包括双绞线电缆、USB、火线、以太网或同轴电缆,而网络之间的通信链路可以利用模拟或数字电话线、包括T1、T2、T3和T4的全部或部分专用数字线路、综合业务数字网(ISDN)、数字用户线(DSL)、包括卫星链路、蜂窝电话链路或本领域普通技术人员公知的其他通信链路的无线链路。此外,远程计算机和其他相关电子设备可以通过调制解调器和临时电话链路远程连接到网络。
网络120还可以包括可以进一步覆盖独立自组织网络等的各种无线子网络中的任何一个,以提供面向基础设施的连接。这样的子网络可以包括网状网络、无线LAN(WLAN)网络、蜂窝网络等。该网络还可以包括通过无线无线电链路或无线收发器连接的终端、网关、路由器等的自主***。这些连接器可以被配置为自由随机移动并任意组织,以使网络拓扑可以快速变化。网络120还可以采用多个标准无线和/或蜂窝协议或接入技术中的一个或多个,包括结合本文附图中描述的网络接口712和网络714在本文阐述的那些。
在特定实施例中,移动设备132和/或网络资源122可以充当使得用户能够访问和使用控制***150和/或图像处理和定位模块200与车辆子***的一个或多个组件交互的客户端设备。这些客户端设备132或122实际上可以包括被配置为通过诸如本文所述的网络120之类的网络发送和接收信息的任何计算设备。这样的客户端设备可以包括移动设备,例如蜂窝电话、智能电话、平板计算机、显示寻呼机、射频(RF)设备、红外(IR)设备、全球定位设备(GPS)、个人数字助理(PDA)、手持式计算机、可穿戴计算机、游戏控制台、组合一个或多个前述设备的集成设备等。客户端设备还可以包括其他计算设备,例如个人计算机(PC)、多处理器***、基于微处理器的或可编程的消费电子产品、网络PC等。这样,客户端设备在功能和特征方面可以广泛地变化。例如,被配置为电话的客户端设备可以具有数字小键盘和几行单色LCD显示器,在其上只能显示文本。在另一示例中,支持网络的客户端设备可以具有触敏屏幕、手写笔和彩色LCD显示屏,其中可以显示文本和图形两者。此外,支持网络的客户端设备可以包括浏览器应用,该浏览器应用能够接收和发送无线应用协议消息(WAP)和/或有线应用消息等。在一个实施例中,浏览器应用被启用以采用超文本标记语言(HTML)、动态HTML、手持设备标记语言(HDML)、无线标记语言(WML)、WMLScript、JavaScriptTM、可扩展HTML(xHTML)、紧凑HTML(CHTML等)来显示和发送带有相关信息的消息。
客户端设备还可以包括至少一个客户端应用,该至少一个客户端应用被配置为经由网络传输从另一计算设备接收内容或消息。客户端应用可以包括提供和接收文本内容、图形内容、视频内容、音频内容、警报、消息、通知等的功能。此外,客户端设备还可以被配置为例如通过短消息服务(SMS)、直接消息传递(例如,Twitter)、电子邮件、多媒体消息服务(MMS)、即时消息传递(IM)、互联网中继聊天(IRC)、mIRC、Jabber、增强消息传递服务(EMS)、文本消息传递、智能消息传递、空中(OTA)消息传递等在另外的计算设备之间传送和/或接收消息等。客户端设备还可以包括无线应用设备,客户端应用被配置在该无线应用设备上,以使得该设备的用户能够经由网络无线地向/从网络资源发送和接收信息。
可以使用增强执行环境的安全性的***来实现控制***150和/或图像处理和定位模块200,从而提高安全性并降低控制***150和/或图像处理和定位模块200以及相关服务可能被病毒或恶意软件破坏的可能性。例如,可以使用可信执行环境来实现控制***150和/或图像处理和定位模块200,其可以确保敏感数据以安全的方式被存储、处理和传送。
图5以计算***700的示例形式示出了机器的示意图,在其中当一组指令被执行时和/或当处理逻辑被激活时可以使该机器执行所描述的和/或本文所要求保护的方法中的任何一个或多个。在替代实施例中,该机器作为独立设备进行操作,或者可以连接(例如,联网)到其他机器。在联网部署中,机器可以在服务器-客户端网络环境中以服务器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。该机器可以是个人计算机(PC)、膝上型计算机、平板计算***、个人数字助理(PDA)、蜂窝电话、智能电话、网络设备、机顶盒(STB)、网络路由器、交换机或网桥、或能够执行一组指令(顺序指令或其他指令)或激活指定该机器要执行的动作的处理逻辑的任何机器。此外,虽然仅示出了单个机器,但是术语“机器”也可以被理解为包括机器的任何集合,其单独地或共同地执行一组(或多组)指令或处理逻辑以执行本文描述和/或要求保护的方法中的任意一个或多个。
示例计算***700可以包括可以通过总线或其他数据传输***706彼此通信的数据处理器702(例如,片上***(SoC)、通用处理核心、图形核心和可选地其他处理逻辑)和存储器704。移动计算和/或通信***700还可包括各种输入/输出(I/O)设备和/或接口710,例如触摸屏显示器、音频插孔、语音接口以及可选地网络接口712。在示例实施例中,网络接口712可以包括一个或多个无线电收发器,其被配置为与任何一个或多个标准无线和/或蜂窝协议或接入技术(例如,第二代(2G)、2.5代、第三代(3G)、***(4G)和下一代蜂窝***的无线电接入、全球移动通信***(GSM)、通用分组无线电业务(GPRS)、增强型数据GSM环境(EDGE)、宽带码分多址(WCDMA)、LTE、CDMA2000、WLAN、无线路由器(WR)网等)兼容。网络接口712还可被配置为与各种其他有线和/或无线通信协议一起使用,包括TCP/IP、UDP、SIP、SMS、RTP、WAP、CDMA、TDMA、UMTS、UWB、WiFi、WiMax、IEEE 802.11x等。本质上,网络接口712可以实际上包括或支持任何有线和/或无线通信和数据处理机制,通过该机制,信息/数据可以通过网络714在计算***700和另一计算或通信***之间传送。
存储器704可以代表机器可读介质,在其上存储体现本文所描述和/或要求保护的方法或功能中的任何一个或多个的一组或多组指令、软件、固件或其他处理逻辑(例如,逻辑708)。在由移动计算和/或通信***700执行期间,逻辑708或其一部分也可以完全或至少部分地驻留在处理器702内。这样,存储器704和处理器702也可以构成机器可读介质。逻辑708或其一部分也可以被配置为处理逻辑或逻辑,其至少一部分部分地以硬件实现。逻辑708或其一部分还可以经由网络接口712通过网络714发送或接收。虽然示例实施例的机器可读介质可以是单个介质,但是术语“机器可读介质”应当被认为包括存储一个或多个指令集的单个非暂时性介质或多个非暂时性介质(例如,集中式或分布式数据库和/或相关联的高速缓存和计算***)。术语“机器可读介质”也可以被认为包括任何非暂时性介质,其能够存储、编码或携带一组指令以供机器执行并且使机器执行各种实施例的任何一个或多个方法,或者能够存储、编码或携带由该组指令利用或与之相关联的数据结构。因此,术语“机器可读介质”可被认为包括但不限于固态存储器、光学介质和磁性介质。
提供本公开的摘要以允许读者快速地确定技术公开的性质。提交本文档时应理解为不会将其用于解释或限制权利要求的范围或含义。另外,在前述具体实施方式中,可以看出,出于简化本公开的目的,在单个实施例中将各种特征组合在一起。本公开的方法不应被解释为反映了以下意图:所要求保护的实施例需要比每个权利要求中明确记载的特征更多的特征。相反,如所附权利要求所反映的,本发明主题在于少于单个公开实施例的所有特征。因此,所附权利要求由此并入详细描述中,其中每个权利要求独立地作为单独的实施例。

Claims (20)

1.一种用于生成用于车辆定位的基准语义标记图的***,包括:
数据处理器;
所述数据处理器可执行的图像处理和定位模块,所述图像处理和定位模块被配置为:
从在环境中行驶的测试车辆上的图像生成设备接收所述环境的图像数据;
对所述图像数据执行语义分割,以识别并标记所述图像数据中的对象,以生成语义标记图像数据,其中所述语义标记图像数据包括通过所述语义分割为所述图像数据中的每个像素分配的对象标记、所识别并标记的对象在所述环境中的位置、以及所述对象的速度;
基于所述对象标记和所述对象的速度,识别所述对象中的移动或动态对象,作为无关对象;以及
从所述语义标记图像数据中去除与所述无关对象相关联的数据,以生成用于车辆定位的基准语义标记图。
2.根据权利要求1所述的***,其中所述所述图像处理和定位模块还被配置为:
从所述测试车辆上的距离和位置测量设备接收与所述图像数据对应的距离和位置测量数据;
基于所述对象标记、以及所述距离和位置测量数据,确定所述对象的位置;以及
基于所述对象的位置,确定所述对象的速度。
3.根据权利要求2所述的***,其中所述图像数据包括所述图像生成设备以预定时间间隔拍摄的多帧图像的数据。
4.根据权利要求3所述的***,其中所述图像处理和定位模块被配置为:
基于所述对象的位置在所述多帧图像之间的差异,来确定所述对象的速度。
5.根据权利要求1所述的***,其中所述基准语义标记图用于指S201931-128000-8118.CN00
示所述环境中的非移动和非暂时对象、以及所述非移动和非暂时对象在所述环境中的3D位置。
6.根据权利要求1所述的***,其中所述图像生成设备包括一个或多个相机。
7.根据权利要求2所述的***,其中所述距离和位置测量设备包括全球定位***(GPS)和雷达***。
8.一种用于生成用于车辆定位的基准语义标记图的方法,包括:
从在环境中行驶的测试车辆上的图像生成设备接收所述环境的图像数据;
对所述图像数据执行语义分割,以识别并标记所述图像数据中的对象,以生成语义标记图像数据,其中所述语义标记图像数据包括通过所述语义分割为所述图像数据中的每个像素分配的对象标记、所识别并标记的对象在所述环境中的位置、以及所述对象的速度;
基于所述对象标记和所述对象的速度,识别所述对象中的移动或动态对象,作为无关对象;以及
从所述语义标记图像数据中去除与所述无关对象相关联的数据,以生成用于车辆定位的基准语义标记图。
9.根据权利要求8所述的方法,还包括:
从所述测试车辆上的距离和位置测量设备接收与所述图像数据对应的距离和位置测量数据;
基于所述对象标记、以及所述距离和位置测量数据,确定所述对象的位置;以及
基于所述对象的位置,确定所述对象的速度。
10.根据权利要求9所述的方法,其中所述图像数据包括所述图像生成设备以预定时间间隔拍摄的多帧图像的数据。
11.根据权利要求10所述的方法,其中基于所述对象的位置,确定所述对象的速度包括:
基于所述对象的位置在所述多帧图像之间的差异,来确定所述对象的速度。
12.根据权利要求8所述的方法,其中所述基准语义标记图用于指S201931-128000-8118.CN00
示所述环境中的非移动和非暂时对象、以及所述非移动和非暂时对象在所述环境中的3D位置。
13.根据权利要求8所述的方法,其中所述图像生成设备包括一个或多个相机。
14.根据权利要求9所述的方法,其中,其中所述距离和位置测量设备包括全球定位***(GPS)和雷达***。
15.一种包含指令的非暂时性机器可用存储介质,当所述指令由机器执行时,使得所述机器执行操作,所述操作包括:
从在环境中行驶的测试车辆上的图像生成设备接收所述环境的图像数据;
对所述图像数据执行语义分割,以识别并标记所述图像数据中的对象,以生成语义标记图像数据,其中所述语义标记图像数据包括通过所述语义分割为所述图像数据中的每个像素分配的对象标记、所识别并标记的对象在所述环境中的位置、以及所述对象的速度;
基于所述对象标记和所述对象的速度,识别所述对象中的移动或动态对象,作为无关对象;以及
从所述语义标记图像数据中去除与所述无关对象相关联的数据,以生成用于车辆定位的基准语义标记图。
16.根据权利要求15所述的非暂时性机器可用存储介质,其中所述操作还包括:
从所述测试车辆上的距离和位置测量设备接收与所述图像数据对应的距离和位置测量数据;
基于所述对象标记、以及所述距离和位置测量数据,确定所述对象的位置;以及
基于所述对象的位置,确定所述对象的速度。
17.根据权利要求16所述的非暂时性机器可用存储介质,其中所述图像数据包括所述图像生成设备以预定时间间隔拍摄的多帧图像的数据。
18.根据权利要求17所述的非暂时性机器可用存储介质,其中基于所述对象的位置,确定所述对象的速度包括:
S201931-128000-8118.CN00
基于所述对象的位置在所述多帧图像之间的差异,来确定所述对象的速度。
19.根据权利要求15所述的非暂时性机器可用存储介质,其中所述基准语义标记图用于指示所述环境中的非移动和非暂时对象、以及所述非移动和非暂时对象在所述环境中的3D位置。
20.根据权利要求15所述的非暂时性机器可用存储介质,其中述图像生成设备包括一个或多个相机。
CN202310929060.0A 2017-05-18 2018-05-18 用于基于语义分割的图像定位的***和方法 Pending CN116880494A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US15/598,727 US10558864B2 (en) 2017-05-18 2017-05-18 System and method for image localization based on semantic segmentation
US15/598,727 2017-05-18
PCT/US2018/033445 WO2018213739A1 (en) 2017-05-18 2018-05-18 System and method for image localization based on semantic segmentation
CN201880032688.8A CN110914778B (zh) 2017-05-18 2018-05-18 用于基于语义分割的图像定位的***和方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201880032688.8A Division CN110914778B (zh) 2017-05-18 2018-05-18 用于基于语义分割的图像定位的***和方法

Publications (1)

Publication Number Publication Date
CN116880494A true CN116880494A (zh) 2023-10-13

Family

ID=61533082

Family Applications (4)

Application Number Title Priority Date Filing Date
CN202010798194.XA Active CN112050792B (zh) 2017-05-18 2017-10-13 一种图像定位方法和装置
CN201710953717.1A Active CN107796374B (zh) 2017-05-18 2017-10-13 一种图像定位方法、***和装置
CN201880032688.8A Active CN110914778B (zh) 2017-05-18 2018-05-18 用于基于语义分割的图像定位的***和方法
CN202310929060.0A Pending CN116880494A (zh) 2017-05-18 2018-05-18 用于基于语义分割的图像定位的***和方法

Family Applications Before (3)

Application Number Title Priority Date Filing Date
CN202010798194.XA Active CN112050792B (zh) 2017-05-18 2017-10-13 一种图像定位方法和装置
CN201710953717.1A Active CN107796374B (zh) 2017-05-18 2017-10-13 一种图像定位方法、***和装置
CN201880032688.8A Active CN110914778B (zh) 2017-05-18 2018-05-18 用于基于语义分割的图像定位的***和方法

Country Status (4)

Country Link
US (2) US10558864B2 (zh)
EP (1) EP3625634A4 (zh)
CN (4) CN112050792B (zh)
WO (1) WO2018213739A1 (zh)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10552691B2 (en) * 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
US10543828B2 (en) * 2017-06-13 2020-01-28 Nissan North America, Inc. Structured multivariate contextual vehicle operation with integrated semiotic control
WO2019090417A1 (en) 2017-11-10 2019-05-16 Clearpath Robotics Inc. Systems and methods for updating an electronic map
EP3495992A1 (en) * 2017-12-07 2019-06-12 IMRA Europe SAS Danger ranking using end to end deep neural network
US10628690B2 (en) * 2018-05-09 2020-04-21 Ford Global Technologies, Llc Systems and methods for automated detection of trailer properties
CN110780665B (zh) * 2018-07-26 2022-02-08 比亚迪股份有限公司 车辆无人驾驶控制方法及装置
CN109084749B (zh) * 2018-08-21 2021-05-11 北京云迹科技有限公司 通过环境中物体进行语义定位的方法及装置
CN111060114A (zh) * 2018-10-17 2020-04-24 宝马股份公司 用于生成高精度地图的特征图的方法和装置
US11263245B2 (en) * 2018-10-30 2022-03-01 Here Global B.V. Method and apparatus for context based map data retrieval
CA3028286A1 (en) * 2018-11-09 2020-05-09 Beijing Didi Infinity Technology And Development Co., Ltd. Vehicle positioning system using lidar
CN110945449B (zh) * 2018-11-15 2023-10-17 灵动科技(北京)有限公司 现场环境的实时监督式机器学习***与方法
US11151391B2 (en) * 2018-12-10 2021-10-19 Here Global B.V. Method and apparatus for creating a visual map without dynamic content
CN109606384B (zh) * 2018-12-29 2021-04-20 百度在线网络技术(北京)有限公司 车辆控制方法、装置、设备和存储介质
US11468690B2 (en) * 2019-01-30 2022-10-11 Baidu Usa Llc Map partition system for autonomous vehicles
CN110012351B (zh) * 2019-04-11 2021-12-31 深圳市大富科技股份有限公司 标签数据获取方法、存储器、终端、车辆以及车联网***
CN109947115A (zh) * 2019-04-17 2019-06-28 河北农业大学 一种割草机控制***及其控制方法
CN110246142A (zh) * 2019-06-14 2019-09-17 深圳前海达闼云端智能科技有限公司 一种检测障碍物的方法、终端和可读存储介质
CN111439257A (zh) * 2019-06-26 2020-07-24 纵目科技(上海)股份有限公司 一种记忆泊车***、方法、终端和云端服务器
CN110304050B (zh) * 2019-06-26 2022-10-14 纵目科技(上海)股份有限公司 一种基于特征组合的记忆泊车***、方法、终端和云端服务器
CN110298320B (zh) * 2019-07-01 2021-06-22 北京百度网讯科技有限公司 一种视觉定位方法、装置及存储介质
CN110543173B (zh) * 2019-08-30 2022-02-11 上海商汤智能科技有限公司 车辆定位***及方法、车辆控制方法及装置
US12014459B2 (en) * 2019-09-12 2024-06-18 Sony Interactive Entertainment Inc. Image processing device, image processing method, and program for forming an accurate three-dimensional map
CN111103612A (zh) * 2019-12-27 2020-05-05 北京车和家信息技术有限公司 视觉自定位方法、装置及车辆
CN112639522B (zh) * 2020-02-21 2021-10-26 华为技术有限公司 一种车辆行驶速度、加速度的测量方法、装置及存储介质
CN111369624B (zh) * 2020-02-28 2023-07-25 北京百度网讯科技有限公司 定位方法和装置
US11904914B2 (en) * 2020-03-23 2024-02-20 Bnsf Railway Company Systems and methods for identifying potential deficiencies in railway environment objects
US11715277B2 (en) 2020-06-23 2023-08-01 Tusimple, Inc. Perception system for autonomous vehicles
US11373389B2 (en) 2020-06-23 2022-06-28 Tusimple, Inc. Partitioning images obtained from an autonomous vehicle camera
US11461922B2 (en) * 2020-06-23 2022-10-04 Tusimple, Inc. Depth estimation in images obtained from an autonomous vehicle camera
CN111986261B (zh) * 2020-08-13 2023-08-18 清华大学苏州汽车研究院(吴江) 一种车辆定位方法、装置、电子设备及存储介质
US11694301B2 (en) 2020-09-30 2023-07-04 Alibaba Group Holding Limited Learning model architecture for image data semantic segmentation
CN112455465B (zh) * 2020-12-08 2022-02-01 广州小鹏自动驾驶科技有限公司 一种行驶环境感知方法、装置、电子设备和存储介质
US20210101619A1 (en) * 2020-12-16 2021-04-08 Mobileye Vision Technologies Ltd. Safe and scalable model for culturally sensitive driving by automated vehicles
CN112529107B (zh) * 2020-12-28 2022-05-31 华中科技大学 基于可见光图像识别的等离子体温度瞬态诊断方法和***
CN112699940B (zh) * 2020-12-30 2023-04-07 腾讯科技(深圳)有限公司 一种车辆清洁关联资源推荐方法、装置及存储介质
CN113393515B (zh) * 2021-05-21 2023-09-19 杭州易现先进科技有限公司 一种结合场景标注信息的视觉定位方法和***
DE102021209575B3 (de) * 2021-08-31 2023-01-12 Volkswagen Aktiengesellschaft Verfahren und Assistenzeinrichtung zum Unterstützen von Fahrzeugfunktionen in einem Parkraum und Kraftfahrzeug
CN113581256B (zh) * 2021-09-02 2023-05-30 浙江众合科技股份有限公司 一种基于bim和gis技术的列车自主定位方法和***
CN114018215B (zh) * 2022-01-04 2022-04-12 智道网联科技(北京)有限公司 基于语义分割的单目测距方法、装置、设备及存储介质
WO2023222671A1 (en) * 2022-05-18 2023-11-23 Continental Automotive Technologies GmbH Position determination of a vehicle using image segmentations
US20240208530A1 (en) * 2022-12-21 2024-06-27 Mercedes-Benz Group AG Evaluating integrity of vehicle pose estimates via semantic labels

Family Cites Families (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US7103460B1 (en) 1994-05-09 2006-09-05 Automotive Technologies International, Inc. System and method for vehicle diagnostics
US7783403B2 (en) 1994-05-23 2010-08-24 Automotive Technologies International, Inc. System and method for preventing vehicular accidents
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
WO2003093857A2 (en) 2002-05-03 2003-11-13 Donnelly Corporation Object detection system for vehicle
US6777904B1 (en) 2003-02-25 2004-08-17 Ford Global Technologies, Llc Method and system for controlling a motor
WO2005098751A1 (en) 2004-04-08 2005-10-20 Mobileye Technologies Limited Crowd detection
WO2005098739A1 (en) 2004-04-08 2005-10-20 Mobileye Technologies Limited Pedestrian detection
US8082101B2 (en) 2004-04-08 2011-12-20 Mobileye Technologies Ltd. Collision warning system
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
EP1790541A2 (en) 2005-11-23 2007-05-30 MobilEye Technologies, Ltd. Systems and methods for detecting obstructions in a camera field of view
US8164628B2 (en) 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
US7689559B2 (en) 2006-02-08 2010-03-30 Telenor Asa Document similarity scoring and ranking method, device and computer program product
US7786898B2 (en) 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
EP2383679A1 (en) 2006-12-06 2011-11-02 Mobileye Technologies Limited Detecting and recognizing traffic signs
US20080249667A1 (en) 2007-04-09 2008-10-09 Microsoft Corporation Learning and reasoning to enhance energy efficiency in transportation systems
US7839292B2 (en) 2007-04-11 2010-11-23 Nec Laboratories America, Inc. Real-time driving danger level prediction
US8041111B1 (en) 2007-10-15 2011-10-18 Adobe Systems Incorporated Subjective and locatable color theme extraction for images
US9176006B2 (en) 2008-01-15 2015-11-03 Mobileye Vision Technologies Ltd. Detection and classification of light sources using a diffraction grating
US9117133B2 (en) 2008-06-18 2015-08-25 Spectral Image, Inc. Systems and methods for hyperspectral imaging
US8111923B2 (en) 2008-08-14 2012-02-07 Xerox Corporation System and method for object class localization and semantic class based image segmentation
US20100049397A1 (en) 2008-08-22 2010-02-25 Garmin Ltd. Fuel efficient routing
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US9459515B2 (en) 2008-12-05 2016-10-04 Mobileye Vision Technologies Ltd. Adjustable camera mount for a vehicle windshield
US8175376B2 (en) 2009-03-09 2012-05-08 Xerox Corporation Framework for image thumbnailing based on visual similarity
RU2011143140A (ru) 2009-03-26 2013-05-10 Конинклейке Филипс Электроникс Н.В. Способ и устройство для изменения изображения посредством использования карты внимания, основанной на частоте цвета
US8271871B2 (en) 2009-04-30 2012-09-18 Xerox Corporation Automated method for alignment of document objects
US8392117B2 (en) 2009-05-22 2013-03-05 Toyota Motor Engineering & Manufacturing North America, Inc. Using topological structure for path planning in semi-structured environments
US8645480B1 (en) 2009-07-19 2014-02-04 Aaron T. Emigh Trust representation by similarity
JP2011176748A (ja) 2010-02-25 2011-09-08 Sony Corp 画像処理装置および方法、並びにプログラム
US9118816B2 (en) 2011-12-06 2015-08-25 Mobileye Vision Technologies Ltd. Road vertical contour detection
US9280711B2 (en) 2010-09-21 2016-03-08 Mobileye Vision Technologies Ltd. Barrier and guardrail detection using a single camera
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
EP2448251B1 (en) 2010-10-31 2019-09-25 Mobileye Vision Technologies Ltd. Bundling night vision and other driver assistance systems (DAS) using near infra red (NIR) illumination and a rolling shutter
WO2012068154A1 (en) 2010-11-15 2012-05-24 Huawei Technologies Co., Ltd. Method and system for video summarization
US9251708B2 (en) 2010-12-07 2016-02-02 Mobileye Vision Technologies Ltd. Forward collision warning trap and pedestrian advanced warning system
US8401292B2 (en) 2011-04-26 2013-03-19 Eastman Kodak Company Identifying high saliency regions in digital images
US9233659B2 (en) 2011-04-27 2016-01-12 Mobileye Vision Technologies Ltd. Pedestrian collision warning system
KR101777875B1 (ko) 2011-04-28 2017-09-13 엘지디스플레이 주식회사 입체 영상 표시장치와 그 입체 영상 조절 방법
US8565958B1 (en) * 2011-06-02 2013-10-22 Google Inc. Removing extraneous objects from maps
US9183447B1 (en) 2011-06-09 2015-11-10 Mobileye Vision Technologies Ltd. Object detection using candidate object alignment
DE112012003140T5 (de) 2011-07-28 2014-06-26 Honda Motor Co., Ltd. Drahtloses Energieübertragungsverfahren
DE102011083749B4 (de) 2011-09-29 2015-06-11 Aktiebolaget Skf Rotorblatt einer Windkraftanlage mit einer Vorrichtung zum Erfassen eines Abstandswertes und Verfahren zum Erfassen eines Abstandswertes
US9297641B2 (en) 2011-12-12 2016-03-29 Mobileye Vision Technologies Ltd. Detection of obstacles at night by analysis of shadows
US9620017B2 (en) * 2011-12-14 2017-04-11 Robert Bosch Gmbh Vehicle merge assistance system and method
FR2984254B1 (fr) 2011-12-16 2016-07-01 Renault Sa Controle de vehicules autonomes
JP5605381B2 (ja) 2012-02-13 2014-10-15 株式会社デンソー クルーズ制御装置
US9042648B2 (en) 2012-02-23 2015-05-26 Microsoft Technology Licensing, Llc Salient object segmentation
US9476970B1 (en) 2012-03-19 2016-10-25 Google Inc. Camera based localization
US9134402B2 (en) 2012-08-13 2015-09-15 Digital Signal Corporation System and method for calibrating video and lidar subsystems
US9025880B2 (en) 2012-08-29 2015-05-05 Disney Enterprises, Inc. Visual saliency estimation for images and video
US9120485B1 (en) 2012-09-14 2015-09-01 Google Inc. Methods and systems for smooth trajectory generation for a self-driving vehicle
US9111444B2 (en) 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
US9092430B2 (en) 2013-01-02 2015-07-28 International Business Machines Corporation Assigning shared catalogs to cache structures in a cluster computing system
US8788134B1 (en) 2013-01-04 2014-07-22 GM Global Technology Operations LLC Autonomous driving merge management system
WO2014111814A2 (en) 2013-01-15 2014-07-24 Mobileye Technologies Limited Stereo assist with rolling shutters
US9277132B2 (en) 2013-02-21 2016-03-01 Mobileye Vision Technologies Ltd. Image distortion correction of a camera with a rolling shutter
US9111355B1 (en) 2013-03-13 2015-08-18 Hrl Laboratories, Llc Selective color processing for vision systems that enables optimal detection and recognition
US9147255B1 (en) 2013-03-14 2015-09-29 Hrl Laboratories, Llc Rapid object detection by combining structural information from image segmentation with bio-inspired attentional mechanisms
US9158995B2 (en) 2013-03-14 2015-10-13 Xerox Corporation Data driven localization using task-dependent representations
US9342074B2 (en) 2013-04-05 2016-05-17 Google Inc. Systems and methods for transitioning control of an autonomous vehicle to a driver
US9438878B2 (en) 2013-05-01 2016-09-06 Legend3D, Inc. Method of converting 2D video to 3D video using 3D object models
CN105659304B (zh) 2013-06-13 2020-01-03 移动眼视力科技有限公司 车辆、导航***及生成并递送导航信息的方法
US9315192B1 (en) 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
US9122954B2 (en) 2013-10-01 2015-09-01 Mobileye Vision Technologies Ltd. Performing a histogram using an array of addressable registers
US9738280B2 (en) 2013-10-03 2017-08-22 Robert Bosch Gmbh Adaptive cruise control with on-ramp detection
US9330334B2 (en) 2013-10-24 2016-05-03 Adobe Systems Incorporated Iterative saliency map estimation
US9299004B2 (en) 2013-10-24 2016-03-29 Adobe Systems Incorporated Image foreground detection
US9201421B1 (en) * 2013-11-27 2015-12-01 Google Inc. Assisted perception for autonomous vehicles
US9150220B2 (en) 2013-12-04 2015-10-06 Mobileye Vision Technologies Ltd. Systems and methods for mimicking a leading vehicle
KR101582572B1 (ko) * 2013-12-24 2016-01-11 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
CA2935617C (en) 2013-12-30 2023-09-12 Craig Arnold Tieman Connected vehicle system with infotainment interface for mobile devices
EP3100206B1 (en) 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systems and methods for lane end recognition
US9664789B2 (en) 2014-02-20 2017-05-30 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
CN103793925B (zh) 2014-02-24 2016-05-18 北京工业大学 融合时空特征的视频图像视觉显著程度检测方法
DE102014205170A1 (de) 2014-03-20 2015-11-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Ermitteln einer Trajektorie für ein Fahrzeug
CN105100134A (zh) 2014-04-28 2015-11-25 思科技术公司 屏幕共享缓存管理
CN112580456A (zh) 2014-05-14 2021-03-30 御眼视觉技术有限公司 用于路缘检测和行人危险评估的***和方法
US9720418B2 (en) 2014-05-27 2017-08-01 Here Global B.V. Autonomous vehicle monitoring and control
US10572744B2 (en) 2014-06-03 2020-02-25 Mobileye Vision Technologies Ltd. Systems and methods for detecting an object
US9457807B2 (en) 2014-06-05 2016-10-04 GM Global Technology Operations LLC Unified motion planning algorithm for autonomous driving vehicle in obstacle avoidance maneuver
US9554030B2 (en) 2014-09-29 2017-01-24 Yahoo! Inc. Mobile device image acquisition using objects of interest recognition
US9746550B2 (en) 2014-10-08 2017-08-29 Ford Global Technologies, Llc Detecting low-speed close-range vehicle cut-in
KR101664582B1 (ko) 2014-11-12 2016-10-10 현대자동차주식회사 자율주행차량의 주행경로 생성장치 및 방법
US10115024B2 (en) 2015-02-26 2018-10-30 Mobileye Vision Technologies Ltd. Road vertical contour detection using a stabilized coordinate frame
JP6421684B2 (ja) 2015-04-17 2018-11-14 井関農機株式会社 乗用草刈機
US10635761B2 (en) 2015-04-29 2020-04-28 Energid Technologies Corporation System and method for evaluation of object autonomy
US10019657B2 (en) * 2015-05-28 2018-07-10 Adobe Systems Incorporated Joint depth estimation and semantic segmentation from a single image
DE102015211926A1 (de) 2015-06-26 2016-12-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln bzw. Bewerten einer Soll-Trajektorie eines Kraftfahrzeugs
CN107925476B (zh) 2015-07-23 2020-11-10 日本电气株式会社 路由切换设备、路由切换***和路由切换方法
US10346996B2 (en) * 2015-08-21 2019-07-09 Adobe Inc. Image depth inference from semantic labels
US9587952B1 (en) 2015-09-09 2017-03-07 Allstate Insurance Company Altering autonomous or semi-autonomous vehicle operation based on route traversal values
US9568915B1 (en) 2016-02-11 2017-02-14 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling autonomous or semi-autonomous vehicle
WO2017152067A1 (en) * 2016-03-04 2017-09-08 Animusoft Llc Drone and robot control systems and methods
US9857795B2 (en) * 2016-03-24 2018-01-02 Honda Motor Co., Ltd. System and method for trajectory planning for unexpected pedestrians
US9535423B1 (en) 2016-03-29 2017-01-03 Adasworks Kft. Autonomous vehicle with improved visual detection ability
GB201616097D0 (en) * 2016-09-21 2016-11-02 Univ Oxford Innovation Ltd Segmentation of path proposals
DE102016222156A1 (de) * 2016-11-11 2018-05-17 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Steuereinheit zur Steuerung eines autonomen Transportfahrzeugs
CN106650708B (zh) * 2017-01-19 2023-08-11 南京航空航天大学 一种自动驾驶障碍物视觉检测方法与***
US10147193B2 (en) 2017-03-10 2018-12-04 TuSimple System and method for semantic segmentation using hybrid dilated convolution (HDC)
US9953236B1 (en) 2017-03-10 2018-04-24 TuSimple System and method for semantic segmentation using dense upsampling convolution (DUC)

Also Published As

Publication number Publication date
US10558864B2 (en) 2020-02-11
US20180336421A1 (en) 2018-11-22
EP3625634A4 (en) 2021-03-10
WO2018213739A1 (en) 2018-11-22
CN107796374B (zh) 2020-09-08
CN110914778B (zh) 2023-07-14
CN110914778A (zh) 2020-03-24
CN112050792B (zh) 2022-10-14
EP3625634A1 (en) 2020-03-25
US10867188B2 (en) 2020-12-15
CN112050792A (zh) 2020-12-08
US20200160067A1 (en) 2020-05-21
CN107796374A (zh) 2018-03-13

Similar Documents

Publication Publication Date Title
CN110914778B (zh) 用于基于语义分割的图像定位的***和方法
CN110753934B (zh) 主动选择和标记图像以进行语义分割的***和方法
CN110914707B (zh) 基于相机和lidar数据的车辆位置和速度估计的***和方法
US11745736B2 (en) System and method for vehicle occlusion detection
US11967140B2 (en) System and method for vehicle wheel detection
US10303956B2 (en) System and method for using triplet loss for proposal free instance-wise semantic segmentation for lane detection
US20240046489A1 (en) System and method for online real-time multi-object tracking
US11610406B2 (en) System and method for lateral vehicle detection
US10311312B2 (en) System and method for vehicle occlusion detection
CN115331198A (zh) 用于车辆车轮检测的***和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination