CN116168173A - 车道线地图生成方法、装置、电子装置和存储介质 - Google Patents

车道线地图生成方法、装置、电子装置和存储介质 Download PDF

Info

Publication number
CN116168173A
CN116168173A CN202310444818.1A CN202310444818A CN116168173A CN 116168173 A CN116168173 A CN 116168173A CN 202310444818 A CN202310444818 A CN 202310444818A CN 116168173 A CN116168173 A CN 116168173A
Authority
CN
China
Prior art keywords
map
lane line
grid
target
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310444818.1A
Other languages
English (en)
Other versions
CN116168173B (zh
Inventor
高海明
华炜
邱奇波
张霄来
张骞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202310444818.1A priority Critical patent/CN116168173B/zh
Publication of CN116168173A publication Critical patent/CN116168173A/zh
Application granted granted Critical
Publication of CN116168173B publication Critical patent/CN116168173B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

本申请涉及一种车道线地图生成方法、装置、电子装置和存储介质,其中,该车道线地图生成方法包括:获取车载相机采集到的原始图像;基于原始图像,确定对应的掩膜图像,掩膜图像中包括车道线属性信息;基于掩膜图像,构建相应的栅格地图;基于掩膜图像以及车载相机的内外参数,将车道线属性信息填充至栅格地图中,得到填充后的栅格地图;基于填充后的栅格地图,生成局部车道线地图。通过本申请,解决了现有技术中无法通过视觉空间的图像信息生成车道线地图的问题,实现了根据视觉空间的图像信息生成了车道线地图。

Description

车道线地图生成方法、装置、电子装置和存储介质
技术领域
本申请涉及辅助驾驶技术领域,特别是涉及一种车道线地图生成方法、装置、电子装置和存储介质。
背景技术
车道线地图能够为智能辅助驾驶领域提供重要的先验信息,例如,能够为智能驾驶车辆的实时定位以及运动规划提供依据,因此,车道线地图的生成引起了相关领域学者的大量关注。
目前的车道线地图大都是基于激光雷达产生的点云数据并结合人工标注的方式生成的,工作量巨大,而且激光雷达传感器本身价格昂贵,并且,激光雷达强度信息容易受积水、车道线材质和磨损程度的影响,导致地图的完整度低。并且,在基于视觉空间的图像信息生成车道线地图方面,目前还没有提出有效的解决方案。
如何利用视觉空间的图像信息生成车道线地图,是一个需要解决的问题。
发明内容
在本实施例中提供了一种车道线地图生成方法、装置、电子装置和存储介质,以解决相关技术中如何利用视觉空间的图像信息生成车道线地图的问题。
第一个方面,在本实施例中提供了一种车道线地图生成方法,包括:
获取车载相机采集到的原始图像;
基于所述原始图像,确定对应的掩膜图像,所述掩膜图像中包括车道线属性信息;
基于所述掩膜图像,构建相应的栅格地图;
基于所述掩膜图像以及所述车载相机的内外参数,将所述车道线属性信息填充至所述栅格地图中,得到填充后的栅格地图;
基于所述填充后的栅格地图,生成局部车道线地图。
在其中的一些实施例中,所述基于所述掩膜图像,构建相应的栅格地图,包括:
获取所述车载相机的内外参数;
基于所述车载相机的内外参数将所述掩膜图像转换为所述栅格地图。
在其中的一些实施例中,所述基于所述掩膜图像以及所述车载相机的内外参数,将所述车道线属性信息填充至所述栅格地图中,得到填充后的栅格地图,包括:
基于所述车载相机的内外参数,将所述栅格地图投影至所述车载相机的成像平面,得到无畸变地图;
获取所述车载相机中无畸变图像与畸变图像之间的映射关系;
基于所述无畸变地图以及所述映射关系,得到所述栅格地图对应的畸变地图;
基于所述掩膜图像以及所述畸变地图,将所述车道线属性信息填充至所述栅格地图中,得到填充后的栅格地图。
在其中的一些实施例中,所述车道线属性信息包括多个属性类别,在所述基于所述填充后的栅格地图,生成局部车道线地图之后,所述方法还包括:
获取所述车载相机在不同位姿下对应的多个局部车道线地图;
基于多个所述局部车道线条地图,确定初始全局车道线地图;
确定目标栅格的观测总次数,以及所述目标栅格每次观测对应的属性类别,所述目标栅格为所述初始全局车道线地图中的任一栅格;
基于所述目标栅格在每一属性类别中的属性观测次数、所述观测总次数以及预设阈值,确定所述目标栅格的目标属性类别;
基于所述初始全局车道线地图中所有栅格的目标属性类别,生成目标全局车道线地图。
在其中的一些实施例中,所述基于所述目标栅格在每一属性类别中的属性观测次数、所述观测总次数以及预设阈值,确定所述目标栅格的目标属性类别,包括:
基于所述目标栅格在每一属性类别的属性观测次数以及所述观测总次数,确定所述目标栅格在每一属性类别对应的类别概率;
基于各类别概率以及所述预设阈值,确定所述目标栅格的目标属性类别。
在其中的一些实施例中,在基于所述初始全局车道线地图中所有栅格的目标属性类别,生成目标全局车道线地图之后,所述方法还包括:
获取所述目标全局车道线地图的分布参数;
基于所述分布参数、所述目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及所述目标全局车道线地图中的车道线的当前观测总次数,对所述目标全局车道线地图进行更新。
在其中的一些实施例中,所述基于所述分布参数、所述目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及所述目标全局车道线地图中的车道线的当前观测总次数,对所述目标全局车道线地图进行更新,包括:
所述基于所述分布参数、所述目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及所述目标全局车道线地图中的车道线的当前观测总次数,确定所述目标全局车道线地图当前的概率分布函数;
基于所述当前的概率分布函数,对所述目标全局车道线地图进行更新。
第二个方面,在本实施例中提供了一种车道线地图生成装置,包括:
获取模块,用于获取车载相机采集到的原始图像;
确定模块,用于基于所述原始图像,确定对应的掩膜图像,所述掩膜图像中包括车道线属性信息;
构建模块,用于基于所述掩膜图像,构建相应的栅格地图;
填充模块,用于基于所述掩膜图像以及所述车载相机的内外参数,将所述车道线属性信息填充至所述栅格地图中,得到填充后的栅格地图;
生成模块,用于基于所述填充后的栅格地图,生成局部车道线地图。
第三个方面,在本实施例中提供了一种电子装置,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一个方面以及第一方面任一实施例所述的车道线地图生成方法。
第四个方面,在本实施例中提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述第一个方面以及第一方面任一实施例所述的车道线地图生成方法。
与相关技术相比,在本实施例中提供的车道线地图生成方法,通过车载相机采集的原始图像确定对应的掩膜图像,其中,掩膜图像包括车道线的属性信息,进一步地,根据掩膜图像构建对应的栅格地图,并根据掩膜图像以及车载相机的内外参数,将掩膜图像中的车道线属性信息填充至对应的栅格地图中,得到填充后的栅格地图,从而使填充后的栅格地图中包括车道线的属性信息,进一步地,根据填充后的栅格地图生成局部车道线地图,从而通过车载相机采集的视觉空间的图像信息生成了车道线地图,避免了由于天气、车道线材质以及其他因素对激光雷达的影响,导致生成的车道线地图的完整度低的问题,通过本申请提供的根据视觉空间的图像信息生成的车道线地图,算法逻辑简单清晰,能够为智能驾驶车辆的实时定位以及运动规划提供准确的先验信息。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是本申请实施例提供的一种车道线地图生成方法的应用场景示意图;
图2是本申请实施例提供的一种车道线地图生成方法的流程图;
图3是本申请实施例提供的一种成像平面与鸟瞰图视角平面的示意图;
图4是本申请实施例的一种车道线地图生成方法的实施例流程图;
图5是本申请实施例提供的一种园区环境下的车道线地图示意图;
图6是本申请实施例提供的一种车道线地图生成装置的结构框图;
图7是本申请实施例提供的一种计算机设备的内部结构示意图。
具体实施方式
为更清楚地理解本申请的目的、技术方案和优点,下面结合附图和实施例,对本申请进行了描述和说明。
除另作定义外,本申请所涉及的技术术语或者科学术语应具有本申请所属技术领域具备一般技能的人所理解的一般含义。在本申请中的“一”、“一个”、“一种”、“该”、“这些”等类似的词并不表示数量上的限制,它们可以是单数或者复数。在本申请中所涉及的术语“包括”、“包含”、“具有”及其任何变体,其目的是涵盖不排他的包含;例如,包含一系列步骤或模块(单元)的过程、方法和***、产品或设备并未限定于列出的步骤或模块(单元),而可包括未列出的步骤或模块(单元),或者可包括这些过程、方法、产品或设备固有的其他步骤或模块(单元)。在本申请中所涉及的“连接”、“相连”、“耦接”等类似的词语并不限定于物理的或机械连接,而可以包括电气连接,无论是直接连接还是间接连接。在本申请中所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。通常情况下,字符“/”表示前后关联的对象是一种“或”的关系。在本申请中所涉及的术语“第一”、“第二”、“第三”等,只是对相似对象进行区分,并不代表针对对象的特定排序。
本申请实施例提供的车道线地图生成方法,可以应用于如图1所示的应用场景中,图1是本申请实施例提供的一种车道线地图生成方法的应用场景示意图。其中,终端102通过网络与服务器104进行通信。数据存储***可以存储服务器104需要处理的数据。数据存储***可以集成在服务器104上,也可以放在云上或其他网络服务器上。在本申请实施例中,终端102可以是智能车载设备,终端102也可以是各种个人计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调等。服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
车道线地图能够为智能辅助驾驶领域提供重要的先验信息,例如,能够为智能驾驶车辆的实时定位以及运动规划提供依据,因此,车道线地图的生成引起了相关领域学者的大量关注。
目前的车道线地图大都是基于激光雷达产生的点云数据并结合人工标注的方式生成的,工作量巨大,而且激光雷达传感器本身价格昂贵,并且,激光雷达强度信息容易受积水、车道线材质和磨损程度的影响,导致地图的完整度低。并且,在基于视觉空间的图像信息生成车道线地图方面,目前还没有提出有效的解决方案。
如何利用视觉空间的图像信息生成车道线地图,是一个需要解决的问题。
在本实施例中提供了一种车道线地图生成方法,图2是本申请实施例提供的一种车道线地图生成方法的流程图,该方法的执行主体可以是电子装置,可选的,电子装置可以是服务器,也可以是终端设备,但本申请不限于此。具体的,如图2所示,该流程包括如下步骤:
步骤S201,获取车载相机采集到的原始图像。
步骤S202,基于原始图像,确定对应的掩膜图像。
其中,所述掩膜图像中包括车道属性信息。
具体的,车道属性信息可以包括实线、虚线、停止线以及其他四类,更具体的,车道属性信息也可以是实线、虚线、停止线以及其他对应的标签,例如,实线的标签为1,虚线的标签为2,停止线的标签为3,其他的标签为0。
示例性地,通过车载相机获取待生成地图区域的原始图像,待生成地图区域中包括车道线。
具体的,车载相机可以是车载单目相机,也可以是车载双目相机,本申请实施例以车载相机是车载单目相机为例进行说明,在此不做限制。
进一步地,根据获取的原始图像,利用深度学习算法,确定原始图像对应的掩膜图像。具体的,可以根据transformer的深度学习算法,得到原始图像中车道线的纹理信息,进一步地,根据车道线的纹理信息得到对应的掩膜图像,其中,该掩膜图像中可以包括车道线的属性信息。
需要说明的是,本申请实施例中,仅以transformer的深度学习算法为例进行说明,在实际应用中,也可以采用R-CNN算法、SPP-Net算法、Fast R-CNN算法以及FPN算法中的一种或多种,也可以采用其他类型的深度学习算法,在此不做限制。
步骤S203,基于掩膜图像,构建相应的栅格地图。
进一步地,根据掩膜图像构建对应的栅格地图,从而得到鸟瞰图视觉下的栅格地图。
步骤S204,基于掩膜图像以及车载相机的内外参数,将车道线属性信息填充至栅格地图中,得到填充后的栅格地图。
示例性地,基于掩膜图像以及车载相机的内外参数,确定掩膜图像与栅格地图之间的位置转换关系,进一步地,根据该转换关系,将掩膜图像中车道线属性信息填充至栅格地图中的对应位置,从而得到填充后的栅格地图。
步骤S205,基于填充后的栅格地图,生成局部车道线地图。
示例性地,将填充后的栅格地图确定为局部车道线地图。
在上述实现过程中,通过车载相机采集的原始图像确定对应的掩膜图像,其中,掩膜图像包括车道线的属性信息,进一步地,根据掩膜图像构建对应的栅格地图,并根据掩膜图像以及车载相机的内外参数,将掩膜图像中的车道线属性信息填充至对应的栅格地图中,得到填充后的栅格地图,从而使填充后的栅格地图中包括车道线的属性信息,进一步地,根据填充后的栅格地图生成局部车道线地图,从而通过车载相机采集的视觉空间的图像信息生成了车道线地图,避免了由于天气、车道线材质以及其他因素对激光雷达的影响,导致生成的车道线地图的完整度低的问题,通过本申请提供的根据视觉空间的图像信息生成的车道线地图,算法逻辑简单清晰,能够为智能驾驶车辆的实时定位以及运动规划提供准确的先验信息。
在其中的一些实施例中,基于掩膜图像,构建相应的栅格地图,可以包括以下步骤:
步骤1:获取车载相机的内外参数。
步骤2:基于车载相机的内外参数将掩膜图像转换为栅格地图。
示例性地,获取车载相机的内外参数,进一步地,根据车载相机的内外参数可以确定出掩膜图像与鸟瞰图之间的位置转换关系,进而,可以根据掩膜图像与鸟瞰图之间的位置转换关系,将掩膜图像中车道线的位置信息转换至鸟瞰图中,从而得到鸟瞰图视觉下的栅格地图。
在上述实现过程中,根据车载相机的内外参数确定出掩膜图像与鸟瞰图之间的位置转换关系,进而根据掩膜图像与鸟瞰图之间的位置转换关系,以及设定的栅格地图的大小和分辨率,确定出鸟瞰图视觉下的栅格地图,从而实现了栅格地图的构建。
在其中的一些实施例中,基于掩膜图像以及车载相机的内外参数,将车道线属性信息填充至栅格地图中,得到填充后的栅格地图,可以包括以下步骤:
步骤1:基于车载相机的内外参数,将栅格地图投影至车载相机的成像平面,得到无畸变地图。
步骤2:获取车载相机中无畸变图像与畸变图像之间的映射关系。
步骤3:基于无畸变地图以及映射关系,得到栅格地图对应的畸变地图。
步骤4:基于掩膜图像以及畸变地图,将车道线属性信息填充至栅格地图中,得到填充后的栅格地图。
由于光学***对物体所成的像相对于物体本身而言会产生失真,即为畸变,其直接原因是因为透镜的边缘部分和中心部分的放大倍率不一样。透镜的畸变是不可消除的,但可以通过车载相机中无畸变图像与畸变图像之间的映射关系,根据无畸变图像确定出对应的畸变图像,或者,根据畸变图像确定出对应的无畸变图像。
示例性地,根据车载相机的内外参数,将栅格地图中的每个栅格投影至车载相机的成像平面,从而得到投影后的地图,并且,通过投影方式得到的地图是无畸变的,也就是说,投影后的地图也为无畸变地图。
图3是本申请实施例提供的一种成像平面与鸟瞰图视角平面的示意图,如图3所示,车载相机所在的坐标系为OXYZ,其成像平面为uν所在平面,鸟瞰图视角平面为图3中的粗线所在平面,即为栅格地图所在平面。
由于掩膜图像是通过有畸变的原始图像得到的,因此,掩膜图像是有畸变的,为了准确地确定掩膜图像与栅格地图之间的位置对应关系,因此需要确定投影后的地图对应的畸变图像。
具体的,可以获取车载相机中无畸变图像与畸变图像之间的映射关系,并根据无畸变地图以及该映射关系,确定出投影后的地图对应的畸变图像,即为栅格地图对应的畸变地图。
进一步地,由于掩膜图像以及畸变地图都是有畸变的,并且,掩膜图像中的车道线位置与畸变地图中的车道线位置是一一对应的,因此,可以将掩膜图像中的车道线的属性信息对应至畸变图像中,而畸变图像是根据栅格地图进行位置转换得到的,因此,可以确定出栅格地图中与掩膜图像位置对应的车道线的属性信息,并将掩膜图像中每一位置的车道线属性信息填充至栅格地图中,从而得到填充后的栅格地图。
在上述实现过程中,根据车载相机的内外参数,将栅格地图投影至车载相机的成像平面,得到无畸变地图,从而得到与掩膜图像在同一平面的无畸变地图,进一步地,考虑到车载相机的畸变对位置的影响,并且,掩膜图像是畸变图像,则根据车载相机中无畸变图像与畸变图像之间的映射关系,确定出无畸变图像对应的畸变图像,从而得到与掩膜图像在同一平面的畸变地图,从而可以根据掩膜图像与畸变地图位置对应关系,确定畸变地图中对应位置的车道线属性信息,而畸变地图与栅格地图位置对应,进一步地,确定出栅格地图中对应位置的车道线属性信息,并将每一位置的车道线属性信息填充至栅格地图中,从而得到填充后的栅格地图。
在其中的一些实施例中,获取车载相机中无畸变图像与畸变图像之间的映射关系,可以包括以下步骤:
步骤1:获取车载相机的畸变参数。
步骤2:根据畸变参数以及原始图像,确定无畸变图像与畸变图像之间的映射关系。
示例性地,可以利用棋盘格对车载相机进行标定,得到车载相机畸变参数,具体的,车载相机畸变参数可以为:(k1,k2,p1,p2,k3),其中,(k1,k2,k3)是径向畸变参数,(p1,p2)是切向畸变参数。
进一步地,根据畸变参数确定出原始图像中每一位置对应的无畸变位置,从而确定出无畸变图像与畸变图像之间的映射关系。
在上述实现过程中,根据车载相机的畸变参数以及原始图像,确定无畸变图像与畸变图像之间的映射关系,从而便于根据该映射关系进行无畸变图像与畸变图像之间的位置转换。
在其中的一些实施例中,车道线属性信息包括多个属性类别,在基于填充后的栅格地图,生成局部车道线地图之后,该方法还可以包括以下步骤:
步骤1:获取车载相机在不同位姿下对应的多个局部车道线地图。
步骤2:基于多个局部车道线条地图,确定初始全局车道线地图。
步骤3:确定目标栅格的观测总次数,以及目标栅格每次观测对应的属性类别,目标栅格为初始全局车道线地图中的任一栅格。
步骤4:基于目标栅格在每一属性类别中的属性观测次数、观测总次数以及预设阈值,确定目标栅格的目标属性类别。
步骤5:基于初始全局车道线地图中所有栅格的目标属性类别,生成目标全局车道线地图。
示例性地,由于局部车道线是通过车载相机获取的,车载相机在获取图像时,会根据设定的频率获取,例如,车载相机的频率一般为20hz至30hz,即一秒可以获取20至30次图像,对应的会得到20至30个局部车道线地图,具体的,可以将一个局部车道线地图作为一次观测,即每次观测完成了局部车道线图像中每个栅格的一次观测。
进一步地,由于车载相机的获取图像的尺寸有限,为了获取到全局的车道线地图,则车载相机可以以不同的姿态获取图像,进而得到不同姿态对应的局部车道线地图。
进一步地,将多个局部车道线地图中每个栅格的位置进行组合,得到初始全局车道线地图,具体的,可以根据车辆的运行环境,确定初始全局车道线地图的大小,作为一个实施例,本申请中的全局车道线地图的长度为L,宽度为W,栅格分辨率为δa。
由于多个局部车道线地图中可能会存在重复观测的位置,因此,在初始全局车道线地图中,一个栅格可能在几个局部车道线地图中都存在,也可能只在一个局部车道线地图中存在,也就是说,初始全局车道线地图中,每个栅格的观测总次数可能相同,也可能不同,车道线属性信息可以包括多个属性类别,具体的,车道线属性信息可以包括实线、虚线、停止线以及其他四种属性类别,初始全局车道线地图中,每个栅格的每次观测会得到对应的一个属性类别。
进一步地,确定出目标栅格的观测总次数,观测总次数即为目标栅格在多个局部车道线地图中被观测到的总次数,以及目标栅格每次观测对应的车道线属性类别,其中,目标栅格为初始全局车道线地图中的任一栅格。
进一步地,确定出目标栅格在多个属性类别中,每一属性类别出现的次数,即属性观测次数,进一步地,根据目标栅格的属性观测次数、观测总次数以及预设阈值确定出目标栅格的目标属性类别。
进一步地,确定出初始全局车道线地图中,所有栅格的目标属性类别,并将确定出所有目标属性类别的初始全局车道线地图确定为目标全局车道线地图。
在上述实现过程中,根据车载相机不同姿态下的局部车道线地图构成初始全局车道线地图,从而使初始全局车道线地图包括所有车道线的位置信息,进一步地,根据初始全局车道线地图中每一栅格被观测的总次数,每次观测的属性类别以及预设阈值,确定出每一栅格的目标属性类别,进而确定出初始全局车道线地图中每一栅格的目标属性类别,并将确定出所有栅格的目标属性类别的初始全局栅格地图确定为目标全局栅格地图,从而实现了全局栅格地图的生成。
在其中的一些实施例中,基于目标栅格在每一属性类别中的属性观测次数、观测总次数以及预设阈值,确定目标栅格的目标属性类别,可以包括以下步骤:
步骤1:基于目标栅格在每一属性类别的属性观测次数以及观测总次数,确定目标栅格在每一属性类别对应的类别概率。
步骤2:基于各类别概率以及预设阈值,确定目标栅格的目标属性类别。
示例性地,根据目标栅格在每一属性类别中的属性观测次数,以及观测总次数,可以确定出目标栅格在每一属性类别对应的类别概率,进一步地,可以根据各属性类别的属性概率,确定出目标栅格的目标属性栅格ci
具体的,若目标栅格为初始全局车道线地图中的第i个栅格ci,其在实线、虚线、停止线以及其他的属性观测次数分别记为n1,n2,n3和n4,观测总次数为ni,分别统计栅格ci在每一属性类别的类别概率,即栅格ci为实线的类别概率为P1=n1/ni,栅格ci为虚线的类别概率为P2=n2/ni,栅格ci为停止线的类别概率为P3=n3/ni,栅格ci为其他的类别概率为P4=n4/ni,确定最大的类别概率,若栅格ci的各类别概率的大小为P1<P3<P4<P2,则栅格ci最大的类别概率为P2
进一步地,根据最大的类别概率以及预设阈值,确定目标栅格的目标属性类别,根据最大的类别概率与预设阈值之间的大小,确定目标栅格的目标属性类别。
具体的,假定预设阈值为Pr,若Pr≤P2,则栅格ci的目标属性类别为虚线,若Pr>P2,则栅格ci为非车道线属性。
在上述实现过程中,根据目标栅格在每一属性类别的属性观测次数以及观测总次数,确定目标栅格在每一属性类别对应的类别概率,进一步根据各类别概率以及预设阈值,确定目标栅格的目标属性类别,从而准确地确定出目标栅格的目标属性类别。
在其中的一些实施例中,在基于初始全局车道线地图中所有栅格的目标属性类别,生成目标全局车道线地图之后,该方法还可以包括以下步骤:
步骤1:获取目标全局车道线地图的分布参数。
步骤2:基于分布参数、目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及目标全局车道线地图中的车道线的当前观测总次数,对目标全局车道线地图进行更新。
示例性地,在生成目标全局车道线地图之后,可以将目标全局地图部署到实际车辆中进行应用,并在应用过程中,还可以对目标全局地图进行更新,具体的,该方法还可以包括:获取目标全局车道线地图的分布参数,具体的,该分布参数可以是预先设定的分布参数,进一步地,根据分布参数、目标车道线地图在应用过程中,每一栅格在每一属性类别中当前的属性观测次数以及当前观测总次数,对目标全局车道线地图进行更新。
在上述实现过程中,根据目标全局地图的分布参数、目标全局车道线地图中的每一栅格在当前累积的属性观测次数以及观测总次数,对目标全局车道线地图进行更新,从而能够在目标全局车道线地图的实际应用中进行实时更新,提高了全局车道线地图的准确度。
在其中的一些实施例中,基于分布参数、目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及目标全局车道线地图中的车道线的当前观测总次数,对目标全局车道线地图进行更新,可以包括以下步骤:
步骤1:基于分布参数、目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及目标全局车道线地图中的车道线的当前观测总次数,确定目标全局车道线地图当前的概率分布函数。
步骤2:基于当前的概率分布函数,对目标全局车道线地图进行更新。
示例性地,Beta分布作为伯努利分布和二项式分布的共轭先验分布的密度函数,在统计学中有重要应用。因此,在本申请实施例中,可以根据分布参数α和β,得到Beta分布函数,Beta(α,β),并在实际应用过程中,记录目标全局车道线地图中任一栅格在每一属性类别中当前的属性观测次数α0以及当前观测总次数β0,从而构建出目标全局车道线地图当前的概率分布函数Beta(α+α0,β+β0)。
进一步地,可根据当前的概率分布函数Beta(α+α0,β+β0)对目标全局车道线地图进行更新。
在上述实现过程中,根据分布参数、目标全局车道线地图中任一栅格在每一属性类别中当前的属性观测次数α0以及当前观测总次数β0,从而可以确定出目标全局车道线地图当前的概率分布函数,从而实现了车道线属性信息的量化,并根据当前的概率分布函数对目标全局车道线地图进行更新,从而实现了目标全局车道线地图的实时维护与更新。
在本实施例中还提供了一种车道线地图生成方法的实施例。图4是本申请实施例的一种车道线地图生成方法的实施例流程图,如图4所示,该流程包括如下步骤:
步骤S401,基于车载相机获取的原始图像,得到车道线掩膜图像。
示例性地,基于车载单目相机获得原始图像,通过深度学习方法,根据原始图像的纹理信息得到包括车道线属性信息的掩膜图像,完成稠密像素级分割。
近年来,transformer深度学习算法在视觉任务中发挥着越来越重要的作用,在本申请实施例中,利用基于视觉的transformer的深度学习算法,得到原始图像的分割结果。图像分割得到的掩膜图像中的车道线属性信息包括车道线实线、虚线、停止线以及其他类四类。
步骤S402,基于掩膜图像,确定栅格地图。
通过预设的栅格地图尺寸大小和分辨率,构建局部栅格地图。
具体的,在本申请实施例中,需要将原始图像的掩膜图像转换为鸟瞰图视角下的栅格地图,在当前车体坐标系下,通过预设的栅格地图尺寸大小和分辨率,以生成对应的局部栅格地图。
步骤S403,基于掩膜图像以及车载相机的内外参数,填充栅格地图中的车道线属性信息,得到局部车道线地图。
具体的,根据车载相机的内外参数将构建的局部栅格地图中每个栅格中心投影至成像平面,从而得到与掩膜图像在同一平面的无畸变地图。
进一步地,获取无畸变图像与原始图像之间映射关系,具体的,可以利用棋盘格对车载相机进行标定,得到车载相机畸变参数,具体的,车载相机畸变参数可以为:(k1,k2,p1,p2,k3),其中,(k1,k2,k3)是径向畸变参数,(p1,p2)是切向畸变参数,进而根据畸变参数确定出原始图像中每一位置对应的无畸变位置,从而确定出无畸变图像与原始图像之间的映射关系。
进一步地,通过无畸变图像与原始图像之间的映射关系,将与掩膜图像在同一平面的无畸变地图进行位置变换,得到与掩膜图像在同一平面的畸变图像,从而使畸变图像与掩膜图像中的位置是一一对应的,而畸变图像是根据栅格地图进行位置转换得到的。
进而可以将掩膜图像中车道线的属性信息填充至栅格地图中,从而得到包括车道线信息的局部车道线地图。
步骤S404,基于车载相机不同姿态下的多个局部车道线地图构建全局车道线地图,并确定全局车道线地图中每一栅格的车道线属性信息。
具体的,根据车辆的工作环境尺寸,将全局车道线地图的长度设定为L,宽度设定为W,栅格分辨率为δa,并根据车载相机不同姿态下的多个局部车道线地图构建全局车道线地图。
进一步地,统计全局车道线地图中每个栅格在每一属性类别上的属性观测次数以及观测总次数,并将每一属性类别上的属性观测次数与观测总次数之比,确定为每一属性类别的类别概率,进一步地,保留类别概率最大的值。
进一步地,确定概率最大的值与预设概率阈值的大小,若概率最大的值大于或等于预设概率阈值,则概率最大值对应的属性类别即为该栅格的目标属性类别,从而确定出全局车道线地图中每一栅格的车道线属性信息。
将最终得到的全局车道线地图应用在车辆中。
步骤S405,基于分布参数、全局车道线地图中每一栅格在每一属性类别的观测次数以及观测总次数,对全局车道线地图进行更新。
在全局车道线地图的应用过程中,记录全局车道线地图中每一栅格当前实时获取的属性观测次数与观测总次数,并结合预设的分布参数对全局车道线地图进行更新。
具体的,给定参数α和β,得到分布Beta(α,β),在更新过程中,当前车道线的栅格属性观测次数和观测总次数分别记为α0,β0,因此可以得到新的分布Beta(α+α0,β+β0)。在此基础上,可通过计算新的Beta分布的均值,并以此更新和维护对应栅格的属性。
在上述实现过程中,基于深度学习方法从原始图像中得到车道线掩膜图像;然后构建局部栅格地图以得到鸟瞰图视角下的车道线信息;之后结合当前相机的实时位姿信息,以构造车道线统计栅格地图,并根据预设概率阈值确定每个栅格的属性并生成全局车道线地图;最后在实际应用过程中,通过引入Beta分布,进行全局车道线地图的更新与维护。图5是本申请实施例提供的一种园区环境下的车道线地图示意图。
需要说明的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在本实施例中还提供了一种车道线地图生成装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。以下所使用的术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管在以下实施例中所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图6是本申请实施例提供的一种车道线地图生成装置的结构框图,如图6所示,该装置包括:
获取模块601,用于获取车载相机采集到的原始图像。
确定模块602,用于基于原始图像,确定对应的掩膜图像,掩膜图像中包括车道线属性信息。
构建模块603,用于基于掩膜图像,构建相应的栅格地图。
填充模块604,用于基于掩膜图像以及车载相机的内外参数,将车道线属性信息填充至栅格地图中,得到填充后的栅格地图。
生成模块605,用于基于填充后的栅格地图,生成局部车道线地图。
在其中的一些实施例中,构建模块603具体用于:
获取车载相机的内外参数;
基于车载相机的内外参数将掩膜图像转换为栅格地图。
在其中的一些实施例中,填充模块604具体用于:
基于车载相机的内外参数,将栅格地图投影至车载相机的成像平面,得到无畸变地图;
获取车载相机中无畸变图像与畸变图像之间的映射关系;
基于无畸变地图以及映射关系,得到栅格地图对应的畸变地图;
基于掩膜图像以及畸变地图,将车道线属性信息填充至栅格地图中,得到填充后的栅格地图。
在其中的一些实施例中,车道线属性信息包括多个属性类别,生成模块605还用于:
获取车载相机在不同位姿下对应的多个局部车道线地图;
基于多个局部车道线条地图,确定初始全局车道线地图;
确定目标栅格的观测总次数,以及目标栅格每次观测对应的属性类别,目标栅格为初始全局车道线地图中的任一栅格;
基于目标栅格在每一属性类别中的属性观测次数、观测总次数以及预设阈值,确定目标栅格的目标属性类别;
基于初始全局车道线地图中所有栅格的目标属性类别,生成目标全局车道线地图。
在其中的一些实施例中,生成模块605具体用于:
基于目标栅格在每一属性类别的属性观测次数以及观测总次数,确定目标栅格在每一属性类别对应的类别概率;
基于各类别概率以及预设阈值,确定目标栅格的目标属性类别。
在其中的一些实施例中,生成模块605还用于:
获取目标全局车道线地图的分布参数;
基于分布参数、目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及目标全局车道线地图中的车道线的当前观测总次数,对目标全局车道线地图进行更新。
在其中的一些实施例中,生成模块605具体用于:基于分布参数、目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及目标全局车道线地图中的车道线的当前观测总次数,确定目标全局车道线地图当前的概率分布函数;
基于当前的概率分布函数,对目标全局车道线地图进行更新。
需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图7所示。图7是本申请实施例提供的一种计算机设备的内部结构示意图。该计算机设备包括通过***总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于存储车载相机获取到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种车道线地图生成方法。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种电子装置,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(RandomAccess Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccessMemory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对专利保护范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (10)

1.一种车道线地图生成方法,其特征在于,包括:
获取车载相机采集到的原始图像;
基于所述原始图像,确定对应的掩膜图像,所述掩膜图像中包括车道线属性信息;
基于所述掩膜图像,构建相应的栅格地图;
基于所述掩膜图像以及所述车载相机的内外参数,将所述车道线属性信息填充至所述栅格地图中,得到填充后的栅格地图;
基于所述填充后的栅格地图,生成局部车道线地图。
2.根据权利要求1所述的车道线地图生成方法,其特征在于,所述基于所述掩膜图像,构建相应的栅格地图,包括:
获取所述车载相机的内外参数;
基于所述车载相机的内外参数将所述掩膜图像转换为所述栅格地图。
3.根据权利要求1所述的车道线地图生成方法,其特征在于,所述基于所述掩膜图像以及所述车载相机的内外参数,将所述车道线属性信息填充至所述栅格地图中,得到填充后的栅格地图,包括:
基于所述车载相机的内外参数,将所述栅格地图投影至所述车载相机的成像平面,得到无畸变地图;
获取所述车载相机中无畸变图像与畸变图像之间的映射关系;
基于所述无畸变地图以及所述映射关系,得到所述栅格地图对应的畸变地图;
基于所述掩膜图像以及所述畸变地图,将所述车道线属性信息填充至所述栅格地图中,得到填充后的栅格地图。
4.根据权利要求1所述的车道线地图生成方法,其特征在于,所述车道线属性信息包括多个属性类别,在所述基于所述填充后的栅格地图,生成局部车道线地图之后,所述方法还包括:
获取所述车载相机在不同位姿下对应的多个局部车道线地图;
基于多个所述局部车道线地图,确定初始全局车道线地图;
确定目标栅格的观测总次数,以及所述目标栅格每次观测对应的属性类别,所述目标栅格为所述初始全局车道线地图中的任一栅格;
基于所述目标栅格在每一属性类别中的属性观测次数、所述观测总次数以及预设阈值,确定所述目标栅格的目标属性类别;
基于所述初始全局车道线地图中所有栅格的目标属性类别,生成目标全局车道线地图。
5.根据权利要求4所述的车道线地图生成方法,其特征在于,所述基于所述目标栅格在每一属性类别中的属性观测次数、所述观测总次数以及预设阈值,确定所述目标栅格的目标属性类别,包括:
基于所述目标栅格在每一属性类别的属性观测次数以及所述观测总次数,确定所述目标栅格在每一属性类别对应的类别概率;
基于各类别概率以及所述预设阈值,确定所述目标栅格的目标属性类别。
6.根据权利要求4所述的车道线地图生成方法,其特征在于,在基于所述初始全局车道线地图中所有栅格的目标属性类别,生成目标全局车道线地图之后,所述方法还包括:
获取所述目标全局车道线地图的分布参数;
基于所述分布参数、所述目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及所述目标全局车道线地图中的车道线的当前观测总次数,对所述目标全局车道线地图进行更新。
7.根据权利要求6所述的车道线地图生成方法,其特征在于,所述基于所述分布参数、所述目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及所述目标全局车道线地图中的车道线的当前观测总次数,对所述目标全局车道线地图进行更新,包括:
所述基于所述分布参数、所述目标全局车道线地图中的车道线在每一属性类别中当前的属性观测次数以及所述目标全局车道线地图中的车道线的当前观测总次数,确定所述目标全局车道线地图当前的概率分布函数;
基于所述当前的概率分布函数,对所述目标全局车道线地图进行更新。
8.一种车道线地图生成装置,其特征在于,包括:
获取模块,用于获取车载相机采集到的原始图像;
确定模块,用于基于所述原始图像,确定对应的掩膜图像,所述掩膜图像中包括车道线属性信息;
构建模块,用于基于所述掩膜图像,构建相应的栅格地图;
填充模块,用于基于所述掩膜图像以及所述车载相机的内外参数,将所述车道线属性信息填充至所述栅格地图中,得到填充后的栅格地图;
生成模块,用于基于所述填充后的栅格地图,生成局部车道线地图。
9.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行权利要求1至权利要求7中任一项所述的车道线地图生成方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至权利要求7中任一项所述的车道线地图生成方法的步骤。
CN202310444818.1A 2023-04-24 2023-04-24 车道线地图生成方法、装置、电子装置和存储介质 Active CN116168173B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310444818.1A CN116168173B (zh) 2023-04-24 2023-04-24 车道线地图生成方法、装置、电子装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310444818.1A CN116168173B (zh) 2023-04-24 2023-04-24 车道线地图生成方法、装置、电子装置和存储介质

Publications (2)

Publication Number Publication Date
CN116168173A true CN116168173A (zh) 2023-05-26
CN116168173B CN116168173B (zh) 2023-07-18

Family

ID=86420366

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310444818.1A Active CN116168173B (zh) 2023-04-24 2023-04-24 车道线地图生成方法、装置、电子装置和存储介质

Country Status (1)

Country Link
CN (1) CN116168173B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052910A (zh) * 2017-12-19 2018-05-18 深圳市保千里电子有限公司 一种车辆全景成像***的自动调整方法、装置及存储介质
CN109461126A (zh) * 2018-10-16 2019-03-12 重庆金山医疗器械有限公司 一种图像畸变校正方法及***
CN111683203A (zh) * 2020-06-12 2020-09-18 达闼机器人有限公司 栅格地图生成方法、装置及计算机可读存储介质
CN111680673A (zh) * 2020-08-14 2020-09-18 北京欣奕华科技有限公司 一种栅格地图中动态物体的检测方法、装置及设备
CN112862839A (zh) * 2021-02-24 2021-05-28 清华大学 一种地图要素语义分割鲁棒性增强方法和***
US20210347378A1 (en) * 2020-05-11 2021-11-11 Amirhosein Nabatchian Method and system for generating an importance occupancy grid map
CN114625822A (zh) * 2022-03-02 2022-06-14 阿波罗智联(北京)科技有限公司 高精地图的更新方法、装置及电子设备
CN114663852A (zh) * 2022-02-21 2022-06-24 北京箩筐时空数据技术有限公司 车道线图的构建方法、装置、电子设备及可读存储介质
US20220276655A1 (en) * 2019-08-21 2022-09-01 Sony Group Corporation Information processing device, information processing method, and program
CN115187944A (zh) * 2022-06-29 2022-10-14 合众新能源汽车有限公司 一种车道线检测方法及装置
CN115937825A (zh) * 2023-01-06 2023-04-07 之江实验室 在线俯仰角估计的bev下鲁棒车道线生成方法及装置
CN115937449A (zh) * 2022-12-05 2023-04-07 北京百度网讯科技有限公司 高精地图生成方法、装置、电子设备和存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108052910A (zh) * 2017-12-19 2018-05-18 深圳市保千里电子有限公司 一种车辆全景成像***的自动调整方法、装置及存储介质
CN109461126A (zh) * 2018-10-16 2019-03-12 重庆金山医疗器械有限公司 一种图像畸变校正方法及***
US20220276655A1 (en) * 2019-08-21 2022-09-01 Sony Group Corporation Information processing device, information processing method, and program
US20210347378A1 (en) * 2020-05-11 2021-11-11 Amirhosein Nabatchian Method and system for generating an importance occupancy grid map
CN111683203A (zh) * 2020-06-12 2020-09-18 达闼机器人有限公司 栅格地图生成方法、装置及计算机可读存储介质
CN111680673A (zh) * 2020-08-14 2020-09-18 北京欣奕华科技有限公司 一种栅格地图中动态物体的检测方法、装置及设备
CN112862839A (zh) * 2021-02-24 2021-05-28 清华大学 一种地图要素语义分割鲁棒性增强方法和***
CN114663852A (zh) * 2022-02-21 2022-06-24 北京箩筐时空数据技术有限公司 车道线图的构建方法、装置、电子设备及可读存储介质
CN114625822A (zh) * 2022-03-02 2022-06-14 阿波罗智联(北京)科技有限公司 高精地图的更新方法、装置及电子设备
CN115187944A (zh) * 2022-06-29 2022-10-14 合众新能源汽车有限公司 一种车道线检测方法及装置
CN115937449A (zh) * 2022-12-05 2023-04-07 北京百度网讯科技有限公司 高精地图生成方法、装置、电子设备和存储介质
CN115937825A (zh) * 2023-01-06 2023-04-07 之江实验室 在线俯仰角估计的bev下鲁棒车道线生成方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WEI-BIN YU 等: "An Efficient Algorithm for Depression Filling and Flat-Surface Processing in Raster DEMs", 《IEEE GEOSCIENCE AND REMOTE SENSING LETTERS》, pages 2198 - 2202 *
耿延龙: "基于激光雷达的热成像巡检机器人设计与实现", 《硕士电子期刊》, pages 1 - 77 *

Also Published As

Publication number Publication date
CN116168173B (zh) 2023-07-18

Similar Documents

Publication Publication Date Title
CN108335353B (zh) 动态场景的三维重建方法、装置和***、服务器、介质
US9087408B2 (en) Systems and methods for generating depthmaps
CN108564527B (zh) 基于神经网络的全景图内容补全和修复的方法及装置
CN109191554B (zh) 一种超分辨图像重建方法、装置、终端和存储介质
US20190340746A1 (en) Stationary object detecting method, apparatus and electronic device
WO2022267693A1 (en) System and method for super-resolution image processing in remote sensing
CN111815707A (zh) 点云确定方法、点云筛选方法、装置、计算机设备
CN111161398B (zh) 一种图像生成方法、装置、设备及存储介质
CN116071404A (zh) 图像配准方法、装置、计算机设备和存储介质
CN108074250B (zh) 匹配代价计算方法和装置
CN114066999A (zh) 基于三维建模的目标定位***及方法
CN113177957B (zh) 一种细胞图像的分割方法、装置、电子设备及存储介质
CN116168173B (zh) 车道线地图生成方法、装置、电子装置和存储介质
Alaba et al. Multi-sensor fusion 3D object detection for autonomous driving
CN113744361B (zh) 一种基于三目视觉的三维高精地图构建方法及装置
CN112652056B (zh) 一种3d信息展示方法及装置
CN114792354A (zh) 模型处理方法、装置、存储介质及电子设备
CN114359891A (zh) 一种三维车辆检测方法、***、装置及介质
CN112419459A (zh) 烘焙模型ao贴图的方法、装置、计算机设备和存储介质
JP7388595B2 (ja) 画像拡張装置、制御方法、及びプログラム
US11776148B1 (en) Multi-view height estimation from satellite images
CN109269477A (zh) 一种视觉定位方法、装置、设备和存储介质
CN117392317B (zh) 实景三维建模方法、装置、计算机设备和存储介质
CN111010558B (zh) 一种基于短视频图像的立木深度图生成方法
CN116824068B (zh) 面向复杂动态场景中点云流的实时重建方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant