CN111060094A - 车辆定位方法和装置 - Google Patents

车辆定位方法和装置 Download PDF

Info

Publication number
CN111060094A
CN111060094A CN201910268323.1A CN201910268323A CN111060094A CN 111060094 A CN111060094 A CN 111060094A CN 201910268323 A CN201910268323 A CN 201910268323A CN 111060094 A CN111060094 A CN 111060094A
Authority
CN
China
Prior art keywords
vehicle
lane
determining
image
driving lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910268323.1A
Other languages
English (en)
Inventor
郑景夫
姜纳硖
姜喆友
李元熙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN111060094A publication Critical patent/CN111060094A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • G01C21/3694Output thereof on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/10Selection of transformation methods according to the characteristics of the input images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/301Sensors for position or displacement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Atmospheric Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

公开了一种车辆定位方法和车辆定位装置。车辆定位方法包括:基于由位置传感器感测的数据估计车辆的初始位置,基于从车辆捕获的前视图像确定车辆的行驶车道,基于行驶车道修正车辆的初始位置,以及基于前视图像中的车道边界的几何信息确定车辆在行驶车道中的位置。

Description

车辆定位方法和装置
相关申请的交叉引用
本申请要求2018年10月16日在韩国知识产权局递交的韩国专利申请No.10-2018-0123340的权益,出于所有目的,其全部公开内容通过引用合并于此。
技术领域
以下描述涉及车辆定位技术。
背景技术
为了辅助车辆和其他运输工具的行驶,导航***通过增强现实(AR)为驾驶员提供各种视觉信息。这样的导航***经由全球定位***(GPS)传感器从卫星接收GPS信号,并且基于所接收的GPS信号估计车辆的当前位置。可以根据GPS信号导出车辆的基于纬度和经度的绝对位置的值。
发明内容
提供本发明内容以用简化形式介绍对下面在具体实施方式中进一步描述的构思的选择。本发明内容不意在确定所请求保护的主题的关键特征或基本特征,也不意在帮助确定所请求保护的主题的范围。
在一个总的方面,提供了一种车辆定位方法,包括:基于由位置传感器感测的数据估计车辆的初始位置;基于从车辆捕获的前视图像确定车辆的行驶车道;基于行驶车道修正车辆的初始位置;以及基于前视图像中的车道边界的几何信息确定车辆在行驶车道中的位置。
确定车辆的位置可以包括:获取前视图像的反转透视映射图像;在反转透视映射图像中提取行驶车道的车道边界;以及基于所提取的车道边界的几何信息确定车辆在行驶车道中的位置。
获取反转透视映射图像可以包括:在前视图像中选择可以包括道路区域的感兴趣区域(ROI);以及从ROI中去除由于相对于所述ROI的相机角度而产生的透视失真。
提取行驶车道的车道边界可以包括:提取最靠近反转透视映射图像的中心线定位的具有车道边界的颜色和线形状的区域。
确定车辆的位置可以包括:基于所提取的车道边界的线之间的第一下部中间位置值与反转透视映射图像的第二下部中间位置值之间的差来确定车辆的位置。
该车辆定位方法还可以包括:基于前视图像中的车道边界的几何信息确定车辆在所确定的位置处前进的方向。
确定车辆前进的方向可以包括:获取前视图像的反转透视映射图像;从反转透视映射图像中提取行驶车道的车道边界;以及基于所提取的车道边界的几何信息确定车辆前进的方向。
确定车辆前进的方向可以包括:基于与所提取的车道边界相对应的线的方向确定车辆前进的方向。
修正车辆的初始位置可以包括:将地图上与行驶车道的中间位置相对应的位置确定为车辆的位置。
确定车辆的行驶车道可以包括:使用基于神经网络的行驶车道识别模型,根据前视图像确定车辆的行驶车道的车道编号。
确定车辆的行驶车道可以包括:使用基于神经网络的行驶车道识别模型,根据前视图像和车辆的周围图像确定车辆的行驶车道的车道编号。
确定车辆的行驶车道可以包括:使用基于神经网络的行驶车道识别模型,确定从左向右的方向上的第一车道编号和从右向左的方向上的第二车道编号;以及基于第一车道编号或第二车道编号中具有较高可靠性的车道编号确定车辆的行驶车道。
修正车辆的初始位置可以包括:将车辆的初始位置修正为地图上与所确定的车道编号相对应的位置。
修正车辆的初始位置可以包括:基于车辆的行驶方向和在之前的时间确定的车辆的行驶车道,确定是否将车辆的初始位置修正为行驶车道的位置。
在另一总的方面,提供了一种车辆定位装置,包括:位置传感器,被配置为感测车辆的位置数据;以及处理器,被配置为:基于位置数据估计车辆的初始位置,基于从车辆捕获的前视图像确定车辆的行驶车道,基于行驶车道修正车辆的初始位置,以及基于前视图像中的车道边界的几何信息确定车辆在行驶车道中的位置。
处理器还可以被配置为:通过将地图上与当前行驶车道的中间位置相对应的位置确定为车辆的位置来修正车辆的初始位置。
处理器还可以被配置为:将前视图像转换为反转透视映射图像,在反转透视映射图像中提取行驶车道的车道边界,以及基于所提取的车道边界的几何信息确定车辆在行驶车道中的位置。
处理器还可以被配置为:基于所提取的车道边界的线之间的第一下部中间位置值与反转透视映射图像的第二下部中间位置值之间的差来确定车辆的位置。
处理器可以被配置为:基于车道边界的几何信息确定车辆前进的方向。
在另一总的方面,提供了一种车辆定位装置,包括:位置传感器,被配置为感测车辆的位置数据;以及处理器,被配置为:基于从车辆捕获的前视图像确定车辆正行驶的行驶车道的车道编号,基于地图信息和车道编号修正车辆的位置数据,以及基于修正后的位置数据确定车辆的位置。
处理器还可以被配置为通过以下操作修正车辆的位置数据:识别地图上与车道编号相对应的车道,以及将地图上与行驶车道的中间位置相对应的位置确定为车辆的位置。
处理器可以被配置为:将前视图像转换为反转透视映射图像,从反转透视映射图像中提取行驶车道的车道边界,以及通过基于所提取的车道边界的几何信息确定车辆在行驶车道中的位置来调整车辆的位置。
在另一总的方面,提供了一种车辆定位装置,包括:位置传感器,被配置为感测车辆的位置;以及处理器,被配置为:基于车辆的位置估计车辆的初始位置,基于车辆的前视图像确定车辆的行驶车道,基于行驶车道在横向方向上调整车辆的初始位置,在前视图像的反转透视映射图像中检测行驶车道的边界,确定车辆的方向以及车辆的调整后的位置距行驶车道的边界的中间位置的距离,以及基于所述距离和方向修正调整后的位置。
处理器可以被配置为基于以下操作估计初始位置:使用车辆与车辆周围的对象之间的距离修正车辆的位置。
处理器可以被配置为:基于在地图上识别最接近车辆的初始位置的车道来确定车辆的行驶车道。
其他特征和方面将通过以下详细描述、附图和权利要求变得清楚。
附图说明
图1示出了由增强现实(AR)导航设备提供的路线引导显示的示例。
图2和图3示出了车辆定位方法的操作的示例。
图4和图5示出了定位车辆的过程的示例。
图6示出了识别车辆的行驶车道的过程的示例。
图7示出了基于识别行驶车道的结果修正车辆的位置的过程的示例。
图8示出了根据前视图像获取反转透视映射图像的过程的示例。
图9和图10示出了基于车道边界的几何信息修正车辆的位置的过程的示例。
图11和图12示出了确定车辆在行驶车道中的位置和方向的过程的示例。
图13示出了车辆定位装置的示例。
在整个附图和详细描述中,除非另有描述或提供,否则相同的附图标记将被理解为指代相同的元件、特征和结构。附图不必按比例绘制,并且为了清楚、示出和方便,可以扩大附图中的元件的相对尺寸、比例和描绘。
具体实施方式
提供以下详细描述以帮助读者获得对本文中描述的方法、装置和/或***的全面理解。然而,在理解了本申请的公开之后,本文中描述的方法、装置和/或***的各种改变、修改和等同物将是显而易见的。例如,本文中描述的操作顺序仅仅是示例,并且不限于在本文中阐述的那些操作顺序,而是可以在理解了本申请的公开之后明显改变,除了必须以一定顺序进行的操作之外。此外,为了更加清楚和简洁,可以省略对本领域公知的特征的描述。
本文中描述的特征可以以不同形式来实施,并且不应被解释为限于本文中描述的示例。相反,提供本文中描述的示例仅仅是为了说明实现本文中描述的方法、装置和/或***的许多可行方式中的一些,在理解了本申请的公开之后这些方式将是清楚的。
尽管本文中可以使用诸如“第一”、“第二”和“第三”之类的术语来描述各种构件、组件、区域、层或部分,但是这些构件、组件、区域、层或部分不受这些术语的限制。相反,这些术语仅用于将一个构件、组件、区域、层或部分与另一构件、组件、区域、层或部分加以区分。因此,在不脱离示例的教导的情况下,本文中描述的示例中提及的第一构件、组件、区域、层或部分也可以被称为第二构件、组件、区域、层或部分。
贯穿说明书,当诸如层、区域或基板之类的元件被描述为在另一元件“上”、“连接到”或“耦接到”另一元件时,它可以直接在该另一元件“上”、“连接到”或“耦接到”该另一元件,或者可以存在介于其间的一个或多个其他元件。相反,当元件被描述为“直接在另一元件上”、“直接连接到”或“直接耦接到”另一元件时,可以不存在介于其间的其他元件。
本文中使用的术语仅用于描述各种示例,而不用于限制本公开。除非上下文另外明确指示,否则冠词“一”、“一个”和“该”也意在包括复数形式。术语“包括”、“包含”和“具有”表示存在所阐述的特征、数目、操作、构件、元件和/或其组合,但并不排除存在或添加一个或多个其他特征、数目、操作、构件、元件和/或其组合。
本文所描述的车辆指的是任何运输、递送或交通工具,例如汽车、卡车、拖拉机、滑板车、摩托车、自行车、水陆两用车辆、雪地摩托车、船、公共运输车辆、公共汽车、单轨电车、火车、有轨电车、自主或自动驾驶车辆、智能车辆、自驾车辆、无人驾驶飞行器、电动车辆(EV)、混合动力车辆、智能移动设备或无人机。在示例中,智能移动设备包括诸如电动轮、电动踢水板和电动自行车之类的移动设备。在示例中,车辆包括机动车辆和非机动车辆,例如,具有动力引擎的车辆(例如,中耕机或摩托车)、自行车或手推车。术语“道路”是两个地方之间已被改进为允许通过步行或某种形式的运输工具(例如,车辆)行进的通道、路线或连接。道路可以包括各种类型的道路,例如高速公路、国道、地方道路、快速通路、农田道路、乡道、高速国道和机动车道。术语“车道”指的是通过在道路表面上标记的车道边界进行区分的道路空间。术语“当前行驶车道”指的是车辆当前在其中行驶的车道并且指示车辆当前占用和使用的车道空间。当前行驶车道也被称为“自我车道(ego lane)”。术语“车道边界”指的是在道路表面上标记的实线或虚线以区分车道。在本公开中,术语“车道边界”可与术语“车道标记”互换地使用。
本文所描述的方法和装置以增大的准确度确定车辆的位置。所述方法和装置用于在诸如增强现实平视显示器(AR 3D HUD)之类的导航设备和自主车辆中确定车辆的位置。在示例中,本文所描述的方法和装置可以用于生成信息以支持驾驶员或控制自主车辆。在示例中,本文所描述的示例还可以用于为车辆中安装的用于完全自主驾驶或驾驶辅助的智能***解译视觉信息,并且用于辅助安全和舒适的驾驶。本文所描述的示例可以适用于车辆和车辆管理***,例如,自主车辆、自动或自主驾驶***、智能车辆、高级驾驶员辅助***(ADAS)、辅助车辆安全地维持车辆正在其上行进的车道的导航***、智能电话或移动设备。仅作为示例来提供与显示车辆的行驶引导相关的示例,并且诸如训练、游戏、医疗保健应用、公共安全、旅游和市场营销之类的其他示例被认为在本公开的范围内。
除了本文所描述的车辆之外,本文所描述的方法和装置还可以被包括在各种其他设备中,例如,步行辅助设备、可穿戴设备、安全设备、机器人、移动终端和各种物联网(IoT)设备。
在下文中,将参考附图详细描述示例,其中相似的附图标记用于相似的元素。
图1是示出了由增强现实(AR)导航设备提供的路线引导显示的示例的图。
参考图1,在示例中,AR导航设备基于车辆的位置和地图信息设定从车辆的位置到目的地的路线,并使用AR对象105向车辆的驾驶员提供所设定的路线。在该示例中,AR导航设备使用全球定位***(GPS)传感器来测量车辆的绝对位置,例如纬度和经度。因为GPS传感器的位置测量值具有大约10米(m)的误差范围,所以当每个车道的宽度为大约3米时,难以使用GPS传感器识别车辆在车道之中的当前行驶车道中的位置。为了减小GPS传感器的误差范围,可以使用惯性测量单元(IMU)和/或视觉测程仪(VO),但是这可能不足以准确地识别车辆的位置。
如果AR对象105以车道为单位进行显示,则可以为车辆的驾驶员提供更精确和逼真的路线引导。为了设定更精确的路线引导,可以预先准确地测量车辆的位置。而且,如果估计了车辆前进的方向,则可以更精确地确定路线引导。
本文所描述的方法和装置基于车辆的周围环境图像识别车辆当前行驶的行驶车道,并且以增大的准确度确定车辆在行驶车道中的位置和方向。本文所描述的方法和装置使用车辆的行驶车道和行驶车道的车道边界信息来估计车辆在行驶车道中的准确位置。因此,准确地预测车辆的绝对位置并将绝对位置与高密度地图信息进行匹配,以在几厘米(cm)的误差范围水平下估计车辆的位置。
图2和图3是示出了车辆定位方法的操作的示例的图。可以按所示的顺序和方式来执行图2和3中的操作,然而在不脱离所描述的说明性示例的精神和范围的情况下,可以改变一些操作的顺序,或者省略一些操作。可以并行地或同时地执行图2和图3所示的许多操作。可以由本公开中所描述的车辆定位装置执行车辆定位方法。车辆定位装置是用于确定车辆的位置并且在硬件模块上实现的装置。可以通过执行指定功能的基于专用硬件的计算机或者通过专用硬件和计算机指令的组合来实现图2和图3的一个或多个框和这些框的组合。除了以下对图2和图3的描述之外,对图1的描述也适用于图2和图3,并且通过引用合并于此。因此,这里可以不再重复以上描述。
参考图2,在操作210中,车辆定位装置基于由位置传感器感测的位置数据估计车辆的位置。车辆定位装置基于由传感器(例如,GPS传感器)测量的位置数据估计车辆的位置。使用GPS传感器获得车辆的纬度和经度。
为了更准确地估计车辆的位置,除了GPS传感器之外,车辆定位装置还可以使用IMU、车载诊断(OBD)传感器和/或视觉测程仪。在一个示例中,车辆定位装置使用GPS传感器测量车辆的绝对位置,并且使用车辆的速度和移动方向修正车辆的绝对位置,其中车辆的速度和移动方向是使用IMU或OBD传感器测量的。IMU包括加速度传感器和陀螺仪传感器,以测量车辆的移动和方向。
在示例中,为了减小使用GPS传感器测量的绝对位置的误差,车辆定位装置执行视觉测程仪,所述视觉测程仪使用车辆周围环境的多视图图像来测量目标与车辆之间的距离。通过视觉测程仪,对与多视图图像中出现的对象和车辆之间的距离有关的信息进行估计。而且,根据所估计的信息的时间变化来计算车辆的移动量和/或旋转量。基于所计算的移动量和/或旋转量来修正使用GPS传感器测量的车辆的绝对位置。
通过诸如GPS传感器之类的位置传感器感测车辆的位置数据,从而基于所感测的位置数据估计车辆的位置。然而,车辆的所估计位置可能无法提供用于区分车辆的当前行驶车道的足够的位置准确度。车辆定位装置可以通过以下过程更准确地确定车辆的位置。
在操作220中,车辆定位装置基于从车辆捕获的前视图像确定车辆的当前行驶车道。车辆定位装置分析前视图像以确定车辆当前占用和使用的行驶车道的位置。在示例中,车辆定位装置使用行驶车道识别模型根据前视图像确定车辆的当前行驶车道的车道编号。行驶车道识别模型是这样的神经网络:所述神经网络预先被训练为当输入了图像时输出与图像相对应的正确车道编号。行驶车道识别模型接收前视图像或者前视图像的特征,并且输出与车辆的当前行驶车道的车道编号有关的信息。
在示例中,神经网络可以具有深度神经网络(DNN)或者n层神经网络的架构。DNN或n层神经网络可以对应于卷积神经网络(CNN)、递归神经网络(RNN)、深度信念网络、完全连接网络、双向神经网络、受限制的玻耳兹曼机,或者可以包括分别具有完全连接、卷积连接、递归连接和/或双向连接的不同的或者重叠的神经网络部分。例如,神经网络可以被实施为CNN,但不限于此。
神经网络可以被实施为具有多个层的架构,其中所述多个层包括输入层、特征映射和输出。在神经网络中,对输入图像与被称为内核的滤波器执行卷积操作,并且作为结果,输出特征映射。对作为输入特征映射的输出特征映射与内核再次执行卷积操作,并且输出新的特征映射。当如此重复地执行卷积操作时,可以最终通过神经网络输出针对输入图像的特征的识别结果。在神经网络的示例中,除了所示的卷积层之外,CNN还可以包括池化层(pooling layer)或者完全连接层。
在示例中,行驶车道识别模型提供与作为当前行驶车道的车道编号的在从左向右的方向上获得的第一车道编号和在从右向左的方向上获得的第二车道便号有关的信息。行驶车道识别模型附加地提供与第一车道编号的可靠性和第二车道编号的可靠性有关的信息。在示例中,车辆定位装置基于与第一车道编号的可靠性和第二车道编号的可靠性之间的较高可靠性相对应的车道编号来确定车辆的当前行驶车道。
在另一示例中,除了前视图像之外,车辆定位装置还使用车辆的一个或多个周围图像来确定当前行驶车道。例如,车辆定位装置使用从车辆捕获的后视图像和/或从车辆捕获的侧视图像来确定车辆的当前行驶车道。在示例中,基于神经网络的行驶车道识别模型被用于根据图像识别当前行驶车道。
在操作230中,车辆定位装置基于在操作220中确定的当前行驶车道的位置修正在操作210中估计的车辆的位置。车辆定位装置将使用GPS传感器估计的车辆的位置修正为地图上与在操作220中确定的当前行驶车道的车道编号相对应的位置。在示例中,车辆定位装置将当前行驶车道的中心位置(例如,限定当前行驶车道的两个车道边界之间的中心位置)确定为车辆的位置。
在示例中,车辆定位装置基于车辆的行驶方向和在之前的时间确定的车辆的行驶车道来确定是否将操作210中估计的车辆的位置修正为操作220中确定的当前行驶车道的位置。例如,当在先前的时间确定的行驶车道的车道编号是“2”,车辆的行驶方向是与车道方向平行的方向,并且当前确定的当前行驶车道的车道编号被预测为“4”时,车辆定位装置将车辆的位置维持为地图上与车道编号“2”相对应的位置,而不是将车辆的位置改变为地图上与车道编号“4”相对应的位置。这是因为当车辆的行驶方向没有改变时,很可能没有发生行驶车道的改变。
这样,车辆定位装置基于当前行驶车道的位置修正车辆的位置信息,从而提高定位精度以达到车道水平。另外,车辆定位装置通过以下过程更精确地计算车道中的车辆位置和/或车辆方向。
在操作240中,车辆定位装置基于前视图像中出现的车道边界的几何信息确定车辆在当前行驶车道中的位置。车辆定位装置分析前视图像中出现的车道边界的形状,以计算车辆在车道中的准确位置。此外,车辆定位装置基于前视图像中出现的车道边界确定车辆在当前行驶车道中确定的位置处前进的方向。将参考图3进一步描述操作240。
参考图3,在操作310中,车辆定位装置获取前视图像的反转透视映射图像或顶视图像。在示例中,为了生成反转透视映射图像,车辆定位装置在前视图像中设定包括道路区域的感兴趣区域(ROI),并且去除由于针对ROI的相机角度而产生的透视失真。
在操作320中,车辆定位装置在反转透视映射图像中提取限定当前行驶车道的车道边界。在示例中,车辆定位装置从反转透视映射图像中提取具有车道边界的颜色的线形式的区域,并且提取在两个方向上距反转透视映射图像的中心线最近的区域作为当前行驶车道的车道边界。此外,车辆定位装置使用各种方法从反转透视映射图像中提取行驶车道的车道边界,例如,车辆定位装置使用基于神经网络的车道边界检测模型来检测行驶车道的车道边界的位置。
在操作330中,车辆定位装置基于在操作320中提取的车道边界的几何信息确定车辆在当前行驶车道中的位置。在示例中,车辆定位装置确定与在操作320中提取的车道边界相对应的线之间的下部中间位置值,在下文中将其称为“第一下部中间位置值”。这里,下部中间位置值可以对应于所述线与反转透视映射图像的下边界相交的位置之间的中间值。在示例中,车辆定位装置计算所述线的下部中间位置值与反转透视映射图像的下部中间位置值(在下文中将其称为“第二下部中间位置值”)之间的差,并基于所计算的差确定车辆的位置。对于反转透视映射图像,可以知道在真实距离上一个像素表示多少米。因为所计算的距离由反转透视映射图像中的像素数表示,所以可以推导与所述差相对应的实际距离值。车辆定位装置基于所推导的实际距离值计算从当前行驶车道的中心位置到车辆的实际距离。
车辆定位装置基于第一下部中间位置值与第二下部中间位置值之间的位置关系确定车辆位于当前行驶车道的中心还是在当前行驶车道中靠左或靠右。例如,当第一下部中间位置值和第二下部中间位置值相同时,确定车辆在当前行驶车道中居中。当第一下部中间位置值在第二下部中间位置值的左侧时,确定车辆在当前行驶车道中靠右。当第一下部中间位置值在第二下部中间位置值的右侧时,确定车辆在当前行驶车道中靠左。
车辆定位装置基于第一下部中间位置值与第二下部中间位置值之间的位置关系以及与第一下部中间位置值和第二下部中间位置值之间的差相对应的实际距离值准确地确定车辆在当前行驶车道中的位置。
在操作340中,车辆定位装置基于在操作320中提取的车道边界的几何信息确定车辆在当前行驶车道中前进的方向。车辆定位装置基于与操作320中提取的车道边界相对应的线或者与车道边界相对应的线之间的中间线和参考线(例如,反转透视映射图像的中心线)之间的角度来确定车辆前进的方向。因为捕获前视图像的相机的角度是已知的,所以在示例中,基于与通过分析反转透视映射图像而计算的角度有关的信息和相机角度信息来预测车辆的准确方向。
通过上述过程,即使在前视图像中存在由于附近车辆和/或障碍物引起的视场(FoV)限制和阻碍时,车辆定位装置也能准确地估计车辆在当前行驶车道中的位置和车辆在该位置处前进的方向。因此,高速地执行在当前行驶车道内的高精度车辆位置测量。
可以如图所示顺序地执行图2和图3所示的操作,在不脱离本文阐述的示例的范围和精神的情况下可以不执行其中一些操作,或者可以改变操作的顺序。例如,图2的操作210和220以及图3的操作330和340可以同时地或并行地执行。
图4和图5是示出了定位车辆的过程的示例的图。可以按所示的顺序和方式执行图4和图5中的操作,然而在不脱离所描述的说明性示例的精神和范围的情况下,可以改变一些操作的顺序,或者省略一些操作。可以并行地或同时地执行图4和图5所示的许多操作。可以由本公开中所描述的车辆定位装置执行车辆定位方法。车辆定位装置是用于确定车辆的位置并且在硬件模块上实现的装置。可以通过执行指定功能的基于专用硬件的计算机或者通过专用硬件和计算机指令的组合来实现图4和图5的一个或多个框和这些框的组合。除了以下对图4和图5的描述之外,对图1至图3的描述也适用于图4和图5,并且通过引用合并于此。因此,这里可以不再重复以上描述。
参考图4,在示例中,车辆定位装置执行第一车辆位置修正操作(例如,使用车辆的行驶车道的操作410)和第二车辆位置修正操作(例如,基于车道边界的几何信息的操作450)。
在操作410中,车辆定位装置识别行驶车道编号并基于识别的结果在车道水平上修正车辆的位置。在示例中,识别行驶车道编号是使用操作420、430和440确定车辆当前正在其中行驶的车道的过程。在操作420中,车辆定位装置使用从传感器(例如,GPS传感器)获取的传感器数据估计车辆的位置。在示例中,车辆定位装置可以使用IMU、OBD传感器和/或视觉测程仪准确地估计车辆的位置。
在操作430中,车辆定位装置基于车辆的前视图像确定车辆当前正在其中行驶的行驶车道。在示例中,车辆定位装置使用行驶车道识别模型根据前视图像检测行驶车道的车道编号。当车辆在道路上靠右行进时,行驶车道识别模型输出基于道路的中心线或左侧获得的第一车道编号的概率值和基于道路的右侧获得的第二车道编号的概率值。车辆定位装置基于第一车道编号的概率值和第二车道编号的概率值之间的较大值确定行驶车道的车道编号。由此,行驶车道识别模型识别对于前视图像中由附近车辆和/或障碍物引起的遮蔽具有鲁棒性的行驶车道。
在操作440中,车辆定位装置基于在操作430中确定的行驶车道的位置修正在操作420中估计的车辆的位置。在示例中,车辆定位装置基于在操作430中确定的行驶车道的车道编号搜索地图上最接近当前车辆位置的行驶车道。车辆定位装置将车辆的位置修正为在搜索中所定位的行驶车道的位置。例如,可以将车辆的位置修正为所找到的行驶车道的中间或中心位置。由此,对车辆位置的横向方向值进行修正。
在操作410中,仍然可能留有行驶车道的位置误差,并且车辆的方向和姿态未被修正。为了降低这种误差,执行操作450。在操作450中,车辆定位装置基于限定行驶车道的车道边界的几何信息(例如,形状信息)修正车辆在行驶车道中的方向和位置。在示例中,车辆定位装置使用操作460、470和480修正车辆在行驶车道中的方向和位置。
在操作460中,车辆定位装置基于前视图像获取反转透视映射图像,并从反转透视映射图像中检测当前行驶车道的车道边界。车辆定位装置检测存在于反射透视映射图像中的特定范围内的车道边界,并将所检测到的车道边界检测为当前行驶车道的车道边界。在除了行驶车道之外的车道的情况下,车道边界可能不经常出现在前视图像中。然而,在车辆当前正在其中行驶的车道的情况下,由于通常与前方的车辆保持距离,所以行驶车道的车道边界可能出现在前视图像中。因此,可以在反转透视映射图像中的特定范围内容易地检测到当前行驶车道的车道边界。
在操作470中,车辆定位装置分析在操作460中检测到的车道边界的形状。车辆定位装置检测所检测到的车道边界的方向(与行驶车道的方向相对应)和中间位置值。在示例中,车辆定位装置基于所检测到的信息确定车辆的方向和距当前行驶车道的中间位置(与操作440中车辆的修正后的位置相对应)的距离。
在操作480中,车辆定位装置基于操作470中的车道边界分析结果确定车辆在行驶车道中的方向和最终位置。车辆定位装置通过应用基于操作470的车道边界分析所获得的车辆的方向和从车辆到当前行驶车道的中间位置的距离来确定车辆的方向和位置。
图5详细示出了图4的操作410和操作450的示例。
参考图5,车辆定位装置从包括GPS传感器、IMU、OBD传感器和/或相机在内的传感器模块505接收传感器数据。例如,车辆定位装置从传感器模块505接收由GPS传感器测量的位置数据、由惯性测量传感器或OBD传感器测量的车辆移动和方向数据、由相机捕获的多视图图像等。
在操作510中,车辆定位装置基于从传感器模块505接收的传感器数据估计车辆的位置。例如,车辆定位装置通过以下操作来估计车辆的位置:基于由惯性测量传感器和/或OBD传感器测量的车辆移动和方向数据,修正由GPS传感器测量的车辆的绝对位置。在示例中,车辆定位装置基于由相机捕获的多视图图像,使用视觉测程仪计算车辆与车辆周围的对象之间的距离,并基于所计算的距离修正车辆的绝对位置,从而估计车辆的位置。惯性测量传感器、OBD传感器和相机传感器可以进一步提高由GPS传感器测量的位置数据的准确度。
在操作520中,车辆定位装置基于前视图像识别行驶车道。在示例中,车辆定位装置使用行驶车道识别模型根据前视图像识别行驶车道。行驶车道识别模型输出基于道路的左边界(例如,中心线)获得的车道编号和基于道路的右边界(例如,右边缘边界线)获得的车道编号。车辆定位装置基于所输出的两个车道编号之间具有较高可靠性的车道编号来确定车辆当前正在其中行驶的车道的车道编号。
在操作530中,车辆定位装置验证操作520中所识别的行驶车道是否合适。例如,当先前确定的(或在前视图的前一帧中确定的)行驶车道的车道编号是“3”并且该编号被改变为当前确定的(或在前视图像的当前帧中确定的)行驶车道的车道编号“2”时,车辆定位装置基于诸如车辆的行驶方向和道路的车道数量之类的因素确定当前确定的车道编号是否正确。在示例中,当道路的车道数量没有改变并且车辆正在直线行驶时,先前确定的车道编号可以与当前确定的车道编号相同。在示例中,当道路的车道数量没有改变并且车辆正在直线行驶时,即使当前行驶车道的车道编号被确定为与先前确定的车道编号不同,车辆定位装置也保持先前确定的车道编号。在该示例中,目前的行驶车道的车道编号被确定为“3”而不是“2”。在示例中,当道路的车道数量改变和/或车辆的行驶方向不是直行方向时,当前确定的车道编号被确定为行驶车道的车道编号。
在操作540中,车辆定位装置在地图上搜索与行驶车道的车道编号相对应的行驶车道位置。车辆定位装置基于在操作510中估计的车辆的位置识别车辆在地图上的位置,并且基于所识别的车辆的位置搜索与行驶车道的车道编号相对应的位置。
在操作550中,车辆定位装置将车辆的位置修正为在地图上找到的行驶车道位置。车辆定位装置将车辆的位置从操作510中所估计的车辆的位置修正为地图上与当前行驶车道的车道编号相对应的车辆的位置(例如,与车道编号相对应的车道的中间或中心位置)。
在操作560中,车辆定位装置使用反转透视映射方法根据前视图像获取反转透视映射图像。在操作570中,车辆定位装置从反转透视映射图像中提取当前行驶车道的车道边界。车辆定位装置使用例如像素值分析或基于神经网络的车道边界检测模型,从反转透视映射图像中提取当前行驶车道的车道边界。
在操作580中,车辆定位装置分析在操作570中提取的车道边界的几何信息。在示例中,车辆定位装置计算与所提取的车道边界相对应的线的下部中间位置值和所述线的方向。
在操作590中,车辆定位装置基于操作580中的分析结果确定车辆前进的方向(或车辆的姿态)以及车辆在当前行驶车道中的位置。在示例中,车辆定位装置基于与反转透视映射图像中的行驶车道的车道边界相对应的线的下部中间位置值和反转透视映射图像的下部中间位置值之间的差来确定车辆是否位于当前行驶车道的中间位置处。此外,车辆定位装置基于与从反转透视映射图像提取的行驶车道的车道边界相对应的线和反转透视映射图像的中间线之间的角度差来计算车辆的方向。车辆定位装置通过将计算的结果应用于在操作550中修正的车辆的位置来确定车辆在当前行驶车道中的最终位置和车辆在最终位置处的方向。
图6是示出了识别车辆的行驶车道的过程的示例的图。
图6示出了由位于车辆中的相机捕获的前视图像610的示例。在示例中,将前视图像610输入到基于神经网络的行驶车道识别模型620。在示例中,可以在将前视图像610输入到行驶车道识别模型620之前对前视图像610执行图像预处理过程。图像预处理过程包括以下操作中的一项或多项:去除前视图像610中的噪声,增大前视图像610的对比度,进行去模糊以去除前视图像610中的模糊,去除前视图像610中的不必要区域,进行扭曲以修正前视图像610中的失真,以及对前视图像610进行二值化。
行驶车道识别模型620提供用于识别前视图像610中的当前行驶车道的信息。在示例中,行驶车道识别模型620提供与当前行驶车道的车道编号和对应于车道编号的可靠性有关的信息。例如,作为当前行驶车道的车道编号,行驶车道识别模型620提供在从左到右的方向上获得的第一车道编号的概率值和在从右到左的方向上获得的第二车道编号的概率值。车辆定位装置将与较大概率值相对应的车道编号确定为当前行驶车道的车道编号。
图7是示出了基于行驶车道的识别结果修正车辆的位置的过程的示例的图。
参考图7,位置750是基于从诸如GPS传感器之类的位置传感器输出的位置数据所估计的车辆的位置。基于前视图像的分析,车道730被识别为车辆的当前行驶车道。附图标记720与道路上的中心线相对应。
车辆定位装置提取两个车道边界710和715以在地图上限定行驶车道730,并且将基于传感器数据获得的车辆的位置750修正为基于这两个车道边界710和715之间的中间线740的位置760。因此,横向地修正了车辆的位置750,并且将限定行驶车道730的两个车道边界710和715的中间位置760确定为车辆的位置。由此,车辆位置的误差范围减小到小于车道宽度的一半的范围,例如,0到1.5m的水平。
图8是示出了根据前视图像获取反转透视映射图像的过程的示例的图。
图8示出了通过由相机从车辆角度捕获前视图而获取的前视图像810。在示例中,为了去除前视图像810的不必要区域,提取包括道路区域的ROI 820。车辆定位装置通过以下操作获取反转透视映射图像830:基于用来获取前视图像810的相机的校准参数将反转透视映射方案应用于ROI 820。在示例中,反转透视映射方案是用于通过去除由相机角度引起的透视失真来生成顶视图像的方案。在反转透视映射图像830的情况下,像素到米度量是可用的。例如,可以计算在反转透视映射图像830中一个像素表示多少米。
图9和图10是示出了基于车道边界的几何信息修正车辆的位置的过程的示例的图。
参考图9,车辆定位装置在反转透视映射图像910中检测限定当前行驶车道的两个车道边界。在示例中,车辆定位装置基于所检测的车道边界的几何信息(例如,形状信息)更准确地确定车辆在行驶车道中的位置。
车辆定位装置在反转透视映射图像910中设定与当前行驶车道的车道边界相对应的线920和930。车辆定位装置计算与以下位置相对应的下部中间位置值945:其中在所述位置处,线920和930的中间线940与反转透视映射图像910的下边界相交。此外,车辆定位装置计算与以下位置相对应的下部中间位置值955:其中在所述位置处,反转透视映射图像910的中间线950与反转透视映射图像910的下边界相交。下部中间位置值945与下部中间位置值955之间的差960与车辆位置误差相对应,并且车辆定位装置基于差960修正车辆的位置。因为像素到米度量对于反转透视映射图像910是可用的,所以可计算在反转透视映射图像910中一个像素表示多少米。车辆定位装置通过将由与差960相对应的多个像素表示的距离应用于车辆的原始位置来确定车辆的最终位置。
参考图10,车辆定位装置从反转透视映射图像1010中检测限定当前行驶车道的两个车道边界,并基于所检测的车道边界的几何信息确定车辆在行驶车道中的方向和位置。
车辆定位装置在反转透视映射图像1010中设定与当前行驶车道的车道边界相对应的线1020和1030。车辆定位装置计算与以下位置相对应的下部中间位置值1045:其中在所述位置处,线1020和1030之间的中间线1040与反转透视映射图像1010的下边界相交。此外,车辆定位装置计算与以下位置相对应的下部中间位置值1055:其中在所述位置处,反转透视映射图像1010的中间线1050与反转透视映射图像1010的下边界相交。下部中间位置值1045与下部中间位置值1055之间的差与车辆位置误差相对应。车辆定位装置基于与差1060相对应的距离修正车辆的位置。
此外,车辆定位装置基于线1020和1030之间的中间线1040与反转透视映射图像1010的中间线1050之间的角度1070或方向差来估计车辆的方向。例如,车辆定位装置估计出车辆在当前行驶车道中前进的方向可以是与中间线1040的方向成角度1070的方向。由此,车辆定位装置精确地预测车辆在当前行驶车道中的位置和车辆在该位置处的方向。
图11和图12是示出了确定车辆在行驶车道中的位置和方向的过程的示例的图。
参考图11,将基于传感器数据估计的位置修正为当前行驶车道1110的中间位置1120,作为对车辆位置的初步修正的结果。如参考图9和图10所述,基于车道边界的几何信息计算当前行驶车道中的车辆位置误差。通过补偿这种误差,车辆定位装置可以更准确地修正车辆在当前行驶车道中的位置。例如,车辆定位装置通过以下操作对车辆的位置执行二次修正:将与图9的下部中间位置值945和下部中间位置值955之间的差960相对应的距离应用于中间位置1120。通过二次修正,去除了当前行驶车道中的车辆位置误差。当中间位置1120改变为位置1130时,将位置1130确定为车辆的最终位置,作为车辆位置修正的结果。
图12是示出了图11的区域1140的放大视图。参考图12,车辆定位装置确定车辆在当前行驶车道1110中的最终位置1130和车辆在位置1130处前进的方向1210。例如,车辆定位装置通过以下操作确定车辆前进的方向:将中间线1040与中间线1050之间的角度1070应用于中间线1040的方向。
图13是示出了车辆定位装置的示例的图。
参考图13,车辆定位装置1300包括处理器1330、存储器1340和通信总线1370。根据示例,车辆定位装置1300还包括传感器模块1310、相机1320、显示器1350和/或通信接口1360。传感器模块1310、相机1320、处理器1330、存储器1340、显示器1350和通信接口1360通过通信总线1370彼此通信。
在示例中,传感器模块1310包括至少一个传感器。传感器模块1310包括位置传感器,例如,用于感测车辆的位置数据的GPS传感器、IMU和/或OBD传感器。传感器模块1310感测车辆的位置、车辆的姿态和车辆的行驶环境,并且作为感测的结果提供感测数据。传感器模块1310还可以包括例如雷达、激光雷达、超声波传感器和红外相机。
相机1320从车辆角度捕获周围环境视图,以提供车辆的周围环境视图图像。例如,相机1320从车辆角度捕获前视图并提供前视图像。此外,相机1320提供用于测量车辆与车辆周围的对象之间的距离的多视图图像。
存储器1340连接到处理器1330并存储可由处理器1330执行的指令、将由处理器1330计算的数据或由处理器1330处理的数据。例如,存储器1340存储从传感器模块1310接收的传感器数据、所计算的车辆位置数据和地图数据。存储器1340包括非暂时性计算机可读介质,例如,高速随机存取存储器(RAM)和/或非易失性计算机可读存储介质(例如,一个或多个磁盘存储设备、闪存设备或其他非易失性固态存储设备)。在下面提供关于存储器1340的进一步细节。
处理器1330控制车辆定位装置1300的整体操作,并执行要在车辆定位装置1300中执行的功能和指令。处理器1330执行参考图1至图12所描述的一个或多个操作。在示例中,处理器1330指的是这样的数据处理设备:所述数据处理设备被配置为在物理结构上具有电路的硬件以执行期望的操作。例如,期望的操作可以包括程序中包括的代码或指令。例如,被配置为硬件的数据处理设备可以包括:微处理器、中央处理单元(CPU)、处理器核、多核处理器、多处理器、专用集成电路(ASIC)和现场可编程门阵列(FPGA)。在下面提供关于处理器1330的进一步细节。
例如,处理器1330基于从传感器模块1310接收的车辆的位置数据估计车辆的位置。在示例中,处理器1330基于使用GPS传感器测量的车辆位置数据和使用IMU、OBD传感器和VO中的至少一个估计的车辆移动信息来估计车辆的位置。处理器1330使用行驶车道识别模型确定当前行驶车道和行驶车道的车道编号,其中所述行驶车道识别模型使用车辆的前视图像作为输入。处理器1330基于所确定的当前行驶车道的车道编号和地图信息修正基于传感器的位置数据所估计的车辆位置数据。例如,处理器1330在地图上识别与所确定的车道编号相对应的车道,并且通过将地图上与所识别的车道的中间位置相对应的位置确定为车辆的位置来修正车辆位置数据。
此外,处理器1330基于前视图像中出现的车道边界的几何信息执行二次修正或者再次修正车辆的位置。处理器1330基于限定当前行驶车道的车道边界的几何信息确定车辆在当前行驶车道中的方向和/或位置。处理器1330将前视图像转换成反转透视映射图像,并在反转透视映射图像中提取限定当前行驶车道的车道边界。处理器1330通过基于所提取的车道边界的几何信息确定车辆在当前行驶车道中的位置来再次修正车辆的位置。处理器1330基于与所提取的车道边界相对应的线之间的下部中间位置值和反转透视映射图像的下部中间位置值之间的差来确定车辆的位置。处理器1330基于所述差计算从当前行驶车道的中心到车辆的距离和方向。此外,处理器1330基于与从反转透视映射图像提取的行驶车道的车道边界相对应的线的方向来估计车辆的方向和姿态。由此,处理器1330以增大的准确度确定车辆的当前位置。
显示器1350显示由处理器1330确定的车辆的位置和基于车辆的位置生成的路径引导。在示例中,显示器1350是包括提供用于呈现用户界面和/或接收用户输入的能力的一个或多个硬件组件在内的物理结构。在示例中,使用平视显示器(HUD)设备在车辆的挡风玻璃或单独的屏幕上显示车辆的修正后的位置,或者在增强现实平视显示器(AR HUD)上显示车辆的修正后的位置。在示例中,车辆定位装置1300向车辆的电子控制单元(ECU)或车辆控制单元(VCU)发送定位信息。ECU或VCU在车辆的显示设备1350上显示定位信息。
然而,车辆的修正后的位置的显示不限于上述示例,并且任何其他仪表组、车辆信息娱乐***、车辆中的屏幕或车辆中的显示面板可以执行显示功能。在不脱离所描述的说明性示例的精神和范围的情况下,可以使用可操作地连接到定位装置1300的其他显示器,例如智能电话和眼镜显示器(EGD)。
通信接口1360提供用于与车辆定位装置1300的外部设备通信的功能。例如,通信接口1360从外部设备接收与车辆正在其上行驶的道路相对应的地图信息和/或导航信息。
本文所描述的车辆定位装置、车辆定位装置1300、装置、单元、模块、设备和其他组件由硬件组件实现。在适当的情况下可以用于执行本申请中所描述的操作的硬件组件的示例包括控制器、传感器、生成器、驱动器、存储器、比较器、算术逻辑单元、加法器、减法器、乘法器、除法器、积分器以及被配置为执行本申请中所描述的操作的任何其他电子组件。在其他示例中,通过计算硬件(例如,通过一个或多个处理器或计算机)实现执行本申请中所描述的操作的一个或多个硬件组件。处理器或计算机可以由一个或多个处理元件实现,例如逻辑门阵列、控制器和算术逻辑单元、数字信号处理器、微型计算机、可编程逻辑控制器、现场可编程门阵列、可编程逻辑阵列、微处理器或被配置为以定义的方式响应并执行指令以实现期望结果的任何其他设备或设备的组合。在一个示例中,处理器或计算机包括或连接到存储由处理器或计算机执行的指令或软件的一个或多个存储器。由处理器或计算机实现的硬件组件可以执行指令或软件,诸如操作***(OS)和在OS上运行的一个或多个软件应用程序,以执行本申请中所描述的操作。硬件组件还可以响应于指令或软件的执行而访问、操纵、处理、创建和存储数据。为了简洁起见,在对本申请中描述的示例的描述中可以使用单数术语“处理器”或“计算机”,但是在其他示例中可以使用多个处理器或计算机,或者处理器或计算机可以包括多个处理元件或多种类型的处理元件、或两者兼有。例如,单个硬件组件或者两个或更多个硬件组件可以由单个处理器、或两个或更多个处理器、或者处理器和控制器来实现。一个或多个硬件组件可以由一个或多个处理器、或处理器和控制器来实现,并且一个或多个其他硬件组件可以由一个或多个其他处理器、或另一处理器和另一控制器来实现。一个或多个处理器或者处理器和控制器可以实现单个硬件组件、或者两个或更多个硬件组件。硬件组件可以具有不同的处理配置中的任何一种或多种,所述处理配置的示例包括单处理器、独立处理器、并行处理器、单指令单数据(SISD)多处理、单指令多数据(SIMD)多处理、多指令单数据(MISD)多处理和多指令多数据(MIMD)多处理。
执行本申请中所描述的操作的方法由计算硬件执行,例如,由执行指令或软件的如上所述地实现的一个或多个处理器或计算机执行,以执行本申请中所描述的通过这些方法执行的操作。例如,单个操作或者两个或更多个操作可以由单个处理器、或者两个或更多个处理器、或者处理器和控制器执行。一个或多个操作可以由一个或多个处理器、或者处理器和控制器执行,并且一个或多个其他操作可以由一个或多个其他处理器、或者另一处理器和另一控制器执行。一个或多个处理器或者处理器和控制器可以执行单个操作或者两个或更多个操作。
用于控制处理器或计算机如上所述地实现硬件组件并执行所述方法的指令或软件被写为计算机程序、代码段、指令或其任何组合,用于单独地或共同地指示或配置处理器或计算机作为机器或专用计算机来操作,以执行由硬件组件执行的操作和上述方法。在示例中,指令或软件包括以下至少一项:小应用程序、动态链接库(DLL)、中间件、固件、设备驱动程序、存储防止冲突的方法的应用程序。在一个示例中,指令或软件包括由处理器或计算机直接执行的机器代码,例如由编译器产生的机器代码。在另一个示例中,指令或软件包括由处理器或计算机使用解释器执行的高级代码。本领域的普通程序员能够基于附图中所示的框图和流程图以及说明书中的对应描述来容易地编写指令或软件,其中所述对应描述公开了用于执行由硬件组件执行的操作和如上所述的方法的算法。
用于控制计算硬件(例如,一个或多个处理器或计算机)实现硬件组件并执行如上所述的方法的指令或软件以及任何相关联的数据、数据文件和数据结构可以被记录、存储或固定在一个或多个非暂时性计算机可读存储介质中或其上。非暂时性计算机可读存储介质的示例包括:只读存储器(ROM)、可编程只读存储器(PROM)、电可擦除可编程只读存储器(EEPROM)、随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、闪存、非易失性存储器、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、蓝光或光盘存储器、硬盘驱动器(HDD)、固态驱动器(SSD)、闪存、卡类型的存储器(比如,多媒体卡、安全数字(SD)卡或极限数字(XD)卡)、磁带、软盘、磁光数据存储设备、光学数据存储设备、硬盘、固态盘以及任何其他设备,所述任何其他设备被配置为以非暂时性方式存储指令或软件以及任何相关联的数据、数据文件和数据结构,并且向处理器或计算机提供指令或软件以及任何相关联的数据、数据文件和数据结构,使得处理器或计算机可以执行所述指令。在一个示例中,指令或软件以及任何相关联的数据、数据文件和数据结构分布在联网的计算机***上,使得一个或多个处理器或计算机以分布方式存储、访问和执行所述指令和软件以及任何相关联的数据、数据文件和数据结构。
尽管本公开包括特定示例,但是在理解了本申请的公开内容之后将显而易见的是,在不脱离权利要求及其等同物的精神和范围的情况下,可以对这些示例进行形式和细节上的各种改变。本文描述的示例仅被认为是描述性的,而不是为了限制的目的。对每个示例中的特征或方面的描述应被认为适用于其他示例中的类似特征或方面。如果所描述的技术以不同的顺序执行和/或如果所描述的***、架构、设备或电路中的组件以不同的方式组合和/或被其他组件或其等同物替换或补充,则可以实现合适的结果。因此,本公开的范围不是由详细描述限定,而是由权利要求及其等同物限定,并且在权利要求及其等同物的范围内的所有变化都被解释为包括在本公开中。

Claims (26)

1.一种车辆定位方法,包括:
基于由位置传感器感测的数据估计车辆的初始位置;
基于从所述车辆捕获的前视图像确定所述车辆的行驶车道;
基于所述行驶车道修正所述车辆的初始位置;以及
基于所述前视图像中的车道边界的几何信息确定所述车辆在所述行驶车道中的位置。
2.根据权利要求1所述的车辆定位方法,其中,确定所述车辆的位置包括:
获取所述前视图像的反转透视映射图像;
在所述反转透视映射图像中提取所述行驶车道的车道边界;以及
基于所提取的车道边界的几何信息确定所述车辆在所述行驶车道中的位置。
3.根据权利要求2所述的车辆定位方法,其中,获取所述反转透视映射图像包括:
在所述前视图像中选择包括道路区域的感兴趣区域ROI;以及
从所述ROI中去除由于相对于所述ROI的相机角度而产生的透视失真。
4.根据权利要求2所述的车辆定位方法,其中,提取所述行驶车道的车道边界包括:提取最靠近所述反转透视映射图像的中心线定位的具有车道边界的颜色和线形状的区域。
5.根据权利要求2所述的车辆定位方法,其中,确定所述车辆的位置包括:
基于所提取的车道边界的线之间的第一下部中间位置值与所述反转透视映射图像的第二下部中间位置值之间的差来确定所述车辆的位置。
6.根据权利要求1所述的车辆定位方法,还包括:
基于所述前视图像中的车道边界的几何信息确定所述车辆在所确定的位置处前进的方向。
7.根据权利要求6所述的车辆定位方法,其中,确定所述车辆前进的方向包括:
获取所述前视图像的反转透视映射图像;
从所述反转透视映射图像中提取所述行驶车道的车道边界;以及
基于所提取的车道边界的几何信息确定所述车辆前进的方向。
8.根据权利要求7所述的车辆定位方法,其中,确定所述车辆前进的方向包括:
基于与所提取的车道边界相对应的线的方向确定所述车辆前进的方向。
9.根据权利要求1所述的车辆定位方法,其中,修正所述车辆的初始位置包括:
将地图上与所述行驶车道的中间位置相对应的位置确定为所述车辆的位置。
10.根据权利要求1所述的车辆定位方法,其中,确定所述车辆的行驶车道包括:
使用基于神经网络的行驶车道识别模型,根据所述前视图像来确定所述车辆的行驶车道的车道编号。
11.根据权利要求1所述的车辆定位方法,其中,确定所述车辆的行驶车道包括:
使用基于神经网络的行驶车道识别模型,根据所述前视图像和所述车辆的周围图像来确定所述车辆的行驶车道的车道编号。
12.根据权利要求10所述的车辆定位方法,其中,确定所述车辆的行驶车道包括:
使用所述基于神经网络的行驶车道识别模型,确定从左向右的方向上的第一车道编号和从右向左的方向上的第二车道编号;以及
基于所述第一车道编号或所述第二车道编号中具有较高可靠性的车道编号确定所述车辆的行驶车道。
13.根据权利要求10所述的车辆定位方法,其中,修正所述车辆的初始位置包括:
将所述车辆的初始位置修正为地图上与所确定的车道编号相对应的位置。
14.根据权利要求1所述的车辆定位方法,其中,修正所述车辆的初始位置包括:
基于所述车辆的行驶方向和在之前的时间确定的所述车辆的行驶车道,确定是否将所述车辆的初始位置修正为基于所述前视图像确定的所述行驶车道的位置。
15.一种存储指令的非暂时性计算机可读存储介质,所述指令在由处理器执行时使所述处理器执行根据权利要求1所述的车辆定位方法。
16.一种车辆定位装置,包括:
位置传感器,被配置为感测车辆的位置数据;以及
处理器,被配置为:
基于所述位置数据估计所述车辆的初始位置,
基于从所述车辆捕获的前视图像确定所述车辆的行驶车道,
基于所述行驶车道修正所述车辆的初始位置,以及
基于所述前视图像中的车道边界的几何信息确定所述车辆在所述行驶车道中的位置。
17.根据权利要求16所述的车辆定位装置,其中,所述处理器还被配置为:通过将地图上与当前行驶车道的中间位置相对应的位置确定为所述车辆的位置来修正所述车辆的初始位置。
18.根据权利要求16所述的车辆定位装置,其中,所述处理器还被配置为:将所述前视图像转换为反转透视映射图像,在所述反转透视映射图像中提取所述行驶车道的车道边界,以及基于所提取的车道边界的几何信息确定所述车辆在所述行驶车道中的位置。
19.根据权利要求18所述的车辆定位装置,其中,所述处理器还被配置为:
基于所提取的车道边界的线之间的第一下部中间位置值与所述反转透视映射图像的第二下部中间位置值之间的差来确定所述车辆的位置。
20.根据权利要求16所述的车辆定位装置,其中,所述处理器还被配置为:基于所述车道边界的几何信息确定所述车辆前进的方向。
21.一种车辆定位装置,包括:
位置传感器,被配置为感测车辆的位置数据;以及
处理器,被配置为:
基于从所述车辆捕获的前视图像确定所述车辆正行驶的行驶车道的车道编号,
基于地图信息和所述车道编号修正所述车辆的位置数据,以及
基于修正后的位置数据确定所述车辆的位置。
22.根据权利要求21所述的车辆定位装置,其中,所述处理器还被配置为通过以下操作修正所述车辆的位置数据:识别地图上与所述车道编号相对应的车道,以及将地图上与所述行驶车道的中间位置相对应的位置确定为所述车辆的位置。
23.根据权利要求21所述的车辆定位装置,其中,所述处理器还被配置为:
将所述前视图像转换为反转透视映射图像,
从所述反转透视映射图像中提取所述行驶车道的车道边界,以及
通过基于所提取的车道边界的几何信息确定所述车辆在所述行驶车道中的位置来调整所述车辆的位置。
24.根据权利要求16所述的车辆定位装置,其中,所述处理器还被配置为:
基于所述行驶车道在横向方向上调整所述车辆的初始位置,
在所述前视图像的反转透视映射图像中检测所述行驶车道的边界,
确定所述车辆的方向以及所述车辆的调整后的位置距所述行驶车道的边界的中间位置的距离,以及
基于所述距离和所述方向修正所述调整后的位置。
25.根据权利要求24所述的车辆定位装置,其中,所述处理器还被配置为基于以下操作估计所述初始位置:使用所述车辆与所述车辆周围的对象之间的距离修正所述车辆的位置。
26.根据权利要求24所述的车辆定位装置,其中,所述处理器还被配置为:基于在地图上识别最接近所述车辆的初始位置的车道来确定所述车辆的行驶车道。
CN201910268323.1A 2018-10-16 2019-04-03 车辆定位方法和装置 Pending CN111060094A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0123340 2018-10-16
KR1020180123340A KR102483649B1 (ko) 2018-10-16 2018-10-16 차량 위치 결정 방법 및 차량 위치 결정 장치

Publications (1)

Publication Number Publication Date
CN111060094A true CN111060094A (zh) 2020-04-24

Family

ID=66182444

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910268323.1A Pending CN111060094A (zh) 2018-10-16 2019-04-03 车辆定位方法和装置

Country Status (5)

Country Link
US (1) US11175149B2 (zh)
EP (1) EP3640599B1 (zh)
JP (1) JP7461720B2 (zh)
KR (1) KR102483649B1 (zh)
CN (1) CN111060094A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112187234A (zh) * 2020-11-02 2021-01-05 南京绿瞬电子科技有限公司 基于物联网的车辆定位监测***
US20220076038A1 (en) * 2020-12-25 2022-03-10 Beijing Baidu Netcom Science Technology Co., Ltd. Method for controlling vehicle and electronic device
CN114396958A (zh) * 2022-02-28 2022-04-26 重庆长安汽车股份有限公司 基于多车道多传感器的车道定位方法、***及车辆
CN114705180A (zh) * 2022-06-06 2022-07-05 中汽创智科技有限公司 高精地图的数据修正方法、装置、设备及存储介质
WO2022147924A1 (zh) * 2021-01-05 2022-07-14 广州汽车集团股份有限公司 车辆定位方法和装置、存储介质及电子设备

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11273836B2 (en) * 2017-12-18 2022-03-15 Plusai, Inc. Method and system for human-like driving lane planning in autonomous driving vehicles
US11130497B2 (en) * 2017-12-18 2021-09-28 Plusai Limited Method and system for ensemble vehicle control prediction in autonomous driving vehicles
US20190185012A1 (en) 2017-12-18 2019-06-20 PlusAI Corp Method and system for personalized motion planning in autonomous driving vehicles
CN109345589A (zh) * 2018-09-11 2019-02-15 百度在线网络技术(北京)有限公司 基于自动驾驶车辆的位置检测方法、装置、设备及介质
KR102627453B1 (ko) 2018-10-17 2024-01-19 삼성전자주식회사 위치 추정 장치 및 방법
EP3798575A1 (en) * 2019-09-26 2021-03-31 Zenuity AB Method and system for determining localization of a vehicle on a road
EP3983930A1 (en) * 2019-10-11 2022-04-20 Huawei Technologies Co., Ltd. Lane detection system and method for a vehicle
KR20210057393A (ko) * 2019-11-12 2021-05-21 삼성전자주식회사 정밀 항법 장치 및 그 장치의 동작 방법
US20210155158A1 (en) * 2019-11-22 2021-05-27 Telenav, Inc. Navigation system with lane estimation mechanism and method of operation thereof
CN111914651A (zh) * 2020-07-01 2020-11-10 浙江大华技术股份有限公司 一种行车车道判定的方法、装置及存储介质
US11880997B2 (en) 2020-08-28 2024-01-23 Samsung Electronics Co., Ltd. Method and apparatus with pose estimation
KR20220068710A (ko) 2020-11-19 2022-05-26 삼성전자주식회사 차량 측위 방법 및 장치
KR102633705B1 (ko) * 2020-12-03 2024-02-06 재단법인대구경북과학기술원 자율주행을 위한 차량의 위치추정 장치 및 방법
CN112541437A (zh) * 2020-12-15 2021-03-23 北京百度网讯科技有限公司 车辆定位方法、装置、电子设备及存储介质
US11544918B2 (en) * 2020-12-30 2023-01-03 Adasky, Ltd. Vehicle to infrastructure system and method with long wave infrared capability
WO2022172146A1 (en) * 2021-02-15 2022-08-18 C.R.F. Societa' Consortile Per Azioni Automotive cooperative map-free lane-level relative localization based on inter-vehicular communication
KR102472569B1 (ko) * 2021-03-12 2022-11-30 포티투닷 주식회사 차량의 현재 차선을 결정하기 위한 방법 및 장치
KR102438114B1 (ko) * 2021-07-28 2022-08-31 포티투닷 주식회사 차량의 주행 경로를 결정하기 위한 방법 및 장치
WO2023059222A1 (ru) * 2021-10-04 2023-04-13 Общество с ограниченной ответственностью "ЭвоКарго" Способ картографирования местности для автономных транспортных средств
KR102670522B1 (ko) * 2021-12-08 2024-05-31 (주)시스콘로보틱스 다중 관성측정장치와 카메라 센서 융합기반 위치 인식을 이용한 로더 용량별 결합이 가능한 자율주행 무인 운반차
CN114754778B (zh) * 2022-04-02 2024-07-12 智道网联科技(北京)有限公司 一种车辆定位方法以及装置、电子设备、存储介质
DE102023004947A1 (de) 2022-12-09 2024-06-20 Mercedes-Benz Group AG Spurlokalisierungssystem und Verfahren dazu

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101101333A (zh) * 2006-07-06 2008-01-09 三星电子株式会社 用于产生行进车辆的驾驶员辅助信息的设备和方法
US20110196608A1 (en) * 2010-02-06 2011-08-11 Bayerische Motoren Werke Aktiengesellschaft Method for Position Determination for a Motor Vehicle
KR20120127830A (ko) * 2011-05-16 2012-11-26 삼성전자주식회사 차량용 단말을 위한 사용자 인터페이스 방법 및 장치
WO2014017693A1 (ko) * 2012-07-24 2014-01-30 주식회사 피엘케이 테크놀로지 영상인식 정보를 이용한 gps 보정 시스템 및 방법
CN105599679A (zh) * 2014-11-18 2016-05-25 现代摩比斯株式会社 车辆前方信息显示控制装置及方法
US20170369057A1 (en) * 2016-06-24 2017-12-28 Ford Global Technologies, Llc Lane Detection Systems And Methods
US20180024562A1 (en) * 2016-07-21 2018-01-25 Mobileye Vision Technologies Ltd. Localizing vehicle navigation using lane measurements
US20180129887A1 (en) * 2016-11-07 2018-05-10 Samsung Electronics Co., Ltd. Method and apparatus for indicating lane
CN108362295A (zh) * 2017-01-26 2018-08-03 三星电子株式会社 车辆路径引导设备和方法
US20180225527A1 (en) * 2015-08-03 2018-08-09 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus, storage medium and device for modeling lane line identification, and method, apparatus, storage medium and device for identifying lane line

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310522A (ja) * 2003-04-08 2004-11-04 Toyota Motor Corp 車両用画像処理装置
US7526103B2 (en) * 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP4637618B2 (ja) * 2005-03-18 2011-02-23 株式会社ホンダエレシス 車線認識装置
JP4392389B2 (ja) 2005-06-27 2009-12-24 本田技研工業株式会社 車両及び車線認識装置
JP4506790B2 (ja) * 2007-07-05 2010-07-21 アイシン・エィ・ダブリュ株式会社 道路情報生成装置、道路情報生成方法および道路情報生成プログラム
JP2010019759A (ja) 2008-07-11 2010-01-28 Mazda Motor Corp 車両用走行車線検出装置
RU2629433C2 (ru) * 2012-02-23 2017-08-29 Ниссан Мотор Ко., Лтд. Устройство обнаружения трехмерных объектов
US9081385B1 (en) * 2012-12-21 2015-07-14 Google Inc. Lane boundary detection using images
KR20150087619A (ko) 2014-01-22 2015-07-30 한국전자통신연구원 증강 현실 기반의 차로 변경 안내 장치 및 방법
KR102037129B1 (ko) * 2014-03-28 2019-11-26 한화디펜스 주식회사 차량의 위치 보정 장치 및 방법과 이를 이용한 차량 위치 보정 시스템 및 무인 운행이 가능한 차량
US9460624B2 (en) 2014-05-06 2016-10-04 Toyota Motor Engineering & Manufacturing North America, Inc. Method and apparatus for determining lane identification in a roadway
US9483700B1 (en) 2015-05-13 2016-11-01 Honda Motor Co., Ltd. System and method for lane vehicle localization with lane marking detection and likelihood scoring
KR102366402B1 (ko) * 2015-05-21 2022-02-22 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
KR101729030B1 (ko) * 2015-06-05 2017-05-02 (주)캠시스 차량 주변의 위험요소 경고장치 및 경고방법
CN105260699B (zh) * 2015-09-10 2018-06-26 百度在线网络技术(北京)有限公司 一种车道线数据的处理方法及装置
KR102158169B1 (ko) 2016-01-06 2020-09-22 주식회사 디젠 차선 인식장치
JP6654933B2 (ja) * 2016-03-04 2020-02-26 株式会社Soken 操舵量制御装置、操舵量制御方法
US10124730B2 (en) * 2016-03-17 2018-11-13 Ford Global Technologies, Llc Vehicle lane boundary position
US9672734B1 (en) * 2016-04-08 2017-06-06 Sivalogeswaran Ratnasingam Traffic aware lane determination for human driver and autonomous vehicle driving system
US10121367B2 (en) * 2016-04-29 2018-11-06 Ford Global Technologies, Llc Vehicle lane map estimation
KR102552712B1 (ko) * 2016-05-12 2023-07-06 현대모비스 주식회사 차량의 위치 추정 시스템 및 이를 이용한 차량의 위치 추정 방법
KR20180009280A (ko) 2016-07-18 2018-01-26 주식회사 퓨전소프트 3d 맵 데이터를 이용한 차선 위치확인 및 경로 안내 시스템
WO2018031678A1 (en) 2016-08-09 2018-02-15 Nauto Global Limited System and method for precision localization and mapping
US10210406B2 (en) 2016-08-19 2019-02-19 Dura Operating, Llc System and method of simultaneously generating a multiple lane map and localizing a vehicle in the generated map
US20180067494A1 (en) * 2016-09-02 2018-03-08 Delphi Technologies, Inc. Automated-vehicle 3d road-model and lane-marking definition system
US10545029B2 (en) * 2016-12-30 2020-01-28 DeepMap Inc. Lane network construction using high definition maps for autonomous vehicles
KR101864066B1 (ko) 2017-01-11 2018-07-05 숭실대학교산학협력단 차선 인식 장치, 차선 이탈 판단 장치, 차선 인식 방법 및 차선 이탈 판단 방법
CN108303103B (zh) * 2017-02-07 2020-02-07 腾讯科技(深圳)有限公司 目标车道的确定方法和装置
CN107092862A (zh) * 2017-03-16 2017-08-25 浙江零跑科技有限公司 一种基于卷积神经网络的车道边缘检测方法
US10754348B2 (en) * 2017-03-28 2020-08-25 Uatc, Llc Encoded road striping for autonomous vehicles
US11254329B2 (en) * 2017-04-24 2022-02-22 Mobileye Vision Technologies Ltd. Systems and methods for compression of lane data
KR101882683B1 (ko) 2017-07-13 2018-07-30 한국건설기술연구원 Rtk-gnss를 이용한 도로 차선 위치정보 검출 시스템 및 그 방법
CN109543493B (zh) * 2017-09-22 2020-11-20 杭州海康威视数字技术股份有限公司 一种车道线的检测方法、装置及电子设备
US10628671B2 (en) * 2017-11-01 2020-04-21 Here Global B.V. Road modeling from overhead imagery
US10528824B2 (en) * 2017-12-11 2020-01-07 GM Global Technology Operations LLC Artificial neural network for lane feature classification and localization
CN111095291B (zh) * 2018-02-27 2024-04-09 辉达公司 由自动驾驶车辆实时检测车道和边界
US10990832B2 (en) * 2018-03-06 2021-04-27 Phantom AI, Inc. Lane line reconstruction using future scenes and trajectory
CN111902694A (zh) * 2018-04-03 2020-11-06 御眼视觉技术有限公司 用于确定导航参数的***和方法
US11675359B2 (en) * 2018-06-13 2023-06-13 Nvidia Corporation Path detection for autonomous machines using deep neural networks
US11042157B2 (en) * 2018-07-23 2021-06-22 Baidu Usa Llc Lane/object detection and tracking perception system for autonomous vehicles
CN109389095B (zh) * 2018-10-24 2021-10-22 中车株洲电力机车研究所有限公司 一种路面标线图像识别方法和训练方法
CN112334370B (zh) * 2018-10-26 2024-04-30 深圳市大疆创新科技有限公司 车道偏离警报的自动化载运工具动作及关联的***和方法
US20200219399A1 (en) * 2019-01-04 2020-07-09 Visteon Global Technologies, Inc. Lane level positioning based on neural networks
US11544940B2 (en) * 2019-01-04 2023-01-03 Qualcomm Incorporated Hybrid lane estimation using both deep learning and computer vision
US11475678B2 (en) * 2019-01-04 2022-10-18 Qualcomm Incorporated Lane marker detection and lane instance recognition
US20200265245A1 (en) * 2019-02-19 2020-08-20 Chongqing Jinkang New Energy Automobile Co., Ltd. Method and system for automatic generation of lane centerline
US11428537B2 (en) * 2019-03-28 2022-08-30 Nexar, Ltd. Localization and mapping methods using vast imagery and sensory data collected from land and air vehicles
CN109977908B (zh) * 2019-04-04 2022-07-15 重庆交通大学 一种基于深度学习的车辆行车车道检测方法
WO2020210127A1 (en) * 2019-04-12 2020-10-15 Nvidia Corporation Neural network training using ground truth data augmented with map information for autonomous machine applications
US11988518B2 (en) * 2019-06-17 2024-05-21 Nvidia Corporation Updating high definition maps based on lane closure and lane opening
CN110203210A (zh) * 2019-06-19 2019-09-06 厦门金龙联合汽车工业有限公司 一种车道偏离预警方法、终端设备及存储介质
JP7133520B2 (ja) * 2019-08-06 2022-09-08 直之 村上 コンピユーターの目(pceye)
US10867190B1 (en) * 2019-11-27 2020-12-15 Aimotive Kft. Method and system for lane detection
CN111667706A (zh) * 2020-06-05 2020-09-15 百度在线网络技术(北京)有限公司 车道级路面状况识别方法、路况提示方法和装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101101333A (zh) * 2006-07-06 2008-01-09 三星电子株式会社 用于产生行进车辆的驾驶员辅助信息的设备和方法
US20110196608A1 (en) * 2010-02-06 2011-08-11 Bayerische Motoren Werke Aktiengesellschaft Method for Position Determination for a Motor Vehicle
KR20120127830A (ko) * 2011-05-16 2012-11-26 삼성전자주식회사 차량용 단말을 위한 사용자 인터페이스 방법 및 장치
WO2014017693A1 (ko) * 2012-07-24 2014-01-30 주식회사 피엘케이 테크놀로지 영상인식 정보를 이용한 gps 보정 시스템 및 방법
CN105599679A (zh) * 2014-11-18 2016-05-25 现代摩比斯株式会社 车辆前方信息显示控制装置及方法
US20180225527A1 (en) * 2015-08-03 2018-08-09 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus, storage medium and device for modeling lane line identification, and method, apparatus, storage medium and device for identifying lane line
US20170369057A1 (en) * 2016-06-24 2017-12-28 Ford Global Technologies, Llc Lane Detection Systems And Methods
US20180024562A1 (en) * 2016-07-21 2018-01-25 Mobileye Vision Technologies Ltd. Localizing vehicle navigation using lane measurements
US20180129887A1 (en) * 2016-11-07 2018-05-10 Samsung Electronics Co., Ltd. Method and apparatus for indicating lane
CN108362295A (zh) * 2017-01-26 2018-08-03 三星电子株式会社 车辆路径引导设备和方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112187234A (zh) * 2020-11-02 2021-01-05 南京绿瞬电子科技有限公司 基于物联网的车辆定位监测***
US20220076038A1 (en) * 2020-12-25 2022-03-10 Beijing Baidu Netcom Science Technology Co., Ltd. Method for controlling vehicle and electronic device
WO2022147924A1 (zh) * 2021-01-05 2022-07-14 广州汽车集团股份有限公司 车辆定位方法和装置、存储介质及电子设备
CN114396958A (zh) * 2022-02-28 2022-04-26 重庆长安汽车股份有限公司 基于多车道多传感器的车道定位方法、***及车辆
CN114396958B (zh) * 2022-02-28 2023-08-18 重庆长安汽车股份有限公司 基于多车道多传感器的车道定位方法、***及车辆
CN114705180A (zh) * 2022-06-06 2022-07-05 中汽创智科技有限公司 高精地图的数据修正方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US11175149B2 (en) 2021-11-16
EP3640599A1 (en) 2020-04-22
EP3640599B1 (en) 2022-12-21
US20200116499A1 (en) 2020-04-16
KR20200042760A (ko) 2020-04-24
JP2020064046A (ja) 2020-04-23
JP7461720B2 (ja) 2024-04-04
KR102483649B1 (ko) 2023-01-02

Similar Documents

Publication Publication Date Title
US11175149B2 (en) Vehicle localization method and apparatus
US11204253B2 (en) Method and apparatus for displaying virtual route
US11113544B2 (en) Method and apparatus providing information for driving vehicle
US11294392B2 (en) Method and apparatus for determining road line
US11842447B2 (en) Localization method and apparatus of displaying virtual object in augmented reality
US20190163993A1 (en) Method and apparatus for maintaining a lane
US9569673B2 (en) Method and device for detecting a position of a vehicle on a lane
US11176719B2 (en) Method and apparatus for localization based on images and map data
US10891795B2 (en) Localization method and apparatus based on 3D color map
US10866427B2 (en) Method and apparatus for outputting pose information
US10936851B2 (en) Method and apparatus for recognizing object
CN112859127A (zh) 导航装置及导航装置的操作方法
US20240119740A1 (en) Method and apparatus with lane line determination
WO2023017624A1 (en) Drive device, vehicle, and method for automated driving and/or assisted driving
CN111060946B (zh) 用于估计位置的方法和装置
GB2580401A (en) A control system, system and method for providing assistance to an occupant of a vehicle

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination