CN115164924A - 基于视觉ai的融合定位方法、***、设备及存储介质 - Google Patents
基于视觉ai的融合定位方法、***、设备及存储介质 Download PDFInfo
- Publication number
- CN115164924A CN115164924A CN202210789254.0A CN202210789254A CN115164924A CN 115164924 A CN115164924 A CN 115164924A CN 202210789254 A CN202210789254 A CN 202210789254A CN 115164924 A CN115164924 A CN 115164924A
- Authority
- CN
- China
- Prior art keywords
- image
- real
- point set
- positioning
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/343—Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3658—Lane guidance
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3811—Point data, e.g. Point of Interest [POI]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3852—Data derived from aerial or satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Navigation (AREA)
Abstract
本发明提供了基于视觉AI的融合定位方法、***、设备及存储介质,该方法包括以下步骤:车辆采集路面的实时图像和GPS定位信息;对实时图像进行图像识别,判断在实时图像中识别是否存在车道线;存在则基于GPS定位和实时图像基于高精地图进行地图定位,对局部区域范围内的点集进行插值扩充;不存在则基于GPS定位对高精地图的点集进行插值扩充;基于***值后的点集与分区图像进行分类匹配,获得高精地图的点集在图像中的对应区域。本发明能够通过实时图像的检测结果和图像分割结果作为输入,来实现基于高精地图的混合校验,减少了计算量,加快了定位速度,并且提高定位精度。
Description
技术领域
本发明涉及AI视觉技术领域,尤其涉及一种基于视觉AI的融合定位方法、***、设备及存储介质。
背景技术
在自动驾驶领域,近年来通过高精地图和视觉定位的解决方案已经越来越受到重视。目前,市面上的主流解决方案仍然是通过单一车道线特征、单一模型支撑、多传感器松耦合的形式。这就导致目前的高精度地图视觉定位方案仍然缺乏自我校验,导致单一的视觉定位方案无法单独完成较为复杂的任务。
现有的车辆定位和路面检测中大部分采用视觉传感器、激光雷达、超声波雷达等多种设备的融合使用,将多方数据融合到现场的三维空间,在投影到俯视图等等步骤繁琐,虽然准确性较高,但是成本极高,难以推广。部分仅使用图形传感器来进行路面检测,但是识别准确率较低,而且过大的计算量也延长了算法的处理时间,提高了对车载算力或是带宽的要求。
有鉴于此,本发明提供了一种基于视觉AI的融合定位方法、***、设备及存储介质。
需要说明的是,上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
针对现有技术中的问题,本发明的目的在于提供基于视觉AI的融合定位方法、***、设备及存储介质,克服了现有技术的困难,能够通过实时图像的检测结果和图像分割结果作为输入,来实现基于高精地图的混合校验,减少了计算量,加快了定位速度,并且提高定位精度。
本发明的实施例提供一种基于视觉AI的融合定位方法,包括以下步骤:
车辆采集路面的实时图像和GPS定位信息;
对所述实时图像进行图像识别,并获得分区后的像素区域与分区图像对应的标签类别的映射关系;
判断在所述实时图像中识别是否存在车道线;
若存在车道线,则基于所述车辆当前的GPS定位信息和所述车道线的在所述实时图像的位置基于高精地图进行地图定位,并基于地图定位对局部区域范围内的点集进行插值扩充;
若不存在车道线,则基于所述车辆当前的GPS定位信息定位对所述高精地图中局部区域范围内的点集进行插值扩充;
基于***值后的所述点集与所述分区图像基于标签类别进行分类匹配,获得所述高精地图的点集在所述图像中的对应区域。
优选地,所述车辆采集路面的实时图像和GPS定位信息,包括:
车辆通过图像传感器采集路面的实时图像;
车辆通过GPS获得所述车辆当前的GPS定位信息。
优选地,所述对所述实时图像进行图像识别,并获得分区后的像素区域与分区图像对应的标签类别的映射关系,包括:
对所述实时图像进行图像分区识别,获得每个分区对应的标签类别;
建立每个分区对应的像素与所述分区的标签类别的映射关系。
优选地,所述判断在所述实时图像中识别是否存在车道线,包括:
判断在所述实时图像的各分区中是否包括至少一个标签类别为车道线的图像分区。
优选地,所述基于所述车辆当前的GPS定位信息和所述车道线的在所述实时图像的位置基于高精地图进行地图定位,并基于地图定位对局部区域范围内的点集进行插值扩充,包括:
基于所述图像建立平面坐标,将每条所述车道线在图像中延展方向进行曲线拟合,并获得曲线轨迹;
基于所述车辆当前的GPS定位信息为中心,预设长度为半径,在所述高精地图中获得一局部区域;
通过所述曲线轨迹对所述局部区域的范围内的标签类别为车道线的点的集合进行过滤,过滤掉与所述曲线轨迹的距离大于预设距离阈值的点;以及
对过滤后的所述点集进行插值扩充。
优选地,所述通过所述曲线轨迹对所述局部区域的范围内的点的点集进行过滤,过滤掉与所述曲线轨迹的距离大于预设距离阈值的点,还包括:
所述预设距离阈值为所述实时图像的宽度像素值的1/15至1/30。
优选地,所述基于所述车辆当前的GPS定位信息定位对所述高精地图中局部区域范围内的点集进行插值扩充,包括:
基于所述车辆当前的GPS定位信息为中心,预设长度为半径,在所述高精地图中获得一局部区域;
获得位于所述局部区域的范围内的点的点集;
对所述点集进行插值扩充。
优选地,所述高精地图包括若干个子点集,每个子点集中的每个点具有标签类别,所述标签类别对应一障碍物或一路面标识,对所述点集进行插值扩充时,基于若干相邻点的空间位置在相邻点之间添加一插值点,并根据所述插值点周围的所述相邻点的数量最大的一类标签类别来确定所述插值点的标签类别。
优选地,对过滤后的点集以及在高精地图中与点集的间距小于等于预设间距阈值的子点集进行插值扩充。
优选地,所述基于***值后的所述点集与所述分区图像基于标签类别进行分类匹配,获得所述高精地图的点集在所述图像中的对应区域,包括:
对每个所述分区图像进行骨骼化;
将***值后的所述点集与骨骼化的所述分区图像基于标签类别进行分类匹配,获得所述高精地图的点集在所述图像中的对应区域。
本发明的实施例还提供一种基于视觉AI的融合定位***,用于实现上述的基于视觉AI的融合定位方法,基于视觉AI的融合定位***包括:
图像采集模块,车辆采集路面的实时图像和GPS定位信息;
图像识别模块,对所述实时图像进行图像识别,并获得分区后的像素区域与分区图像对应的标签类别的映射关系;
车道检测模块,判断在所述实时图像中识别是否存在车道线;
过滤插值模块,当存在车道线,则基于所述车辆当前的GPS定位信息和所述车道线的在所述实时图像的位置基于高精地图进行地图定位,并基于地图定位对局部区域范围内的点集进行插值扩充;
定位插值模块,当不存在车道线,则基于所述车辆当前的GPS定位信息定位对所述高精地图中局部区域范围内的点集进行插值扩充;
匹配定位模块,基于***值后的所述点集与所述分区图像基于标签类别进行分类匹配,获得所述高精地图的点集在所述图像中的对应区域。
本发明的实施例还提供一种基于视觉AI的融合定位设备,包括:
处理器;
存储器,其中存储有处理器的可执行指令;
其中,处理器配置为经由执行可执行指令来执行上述基于视觉AI的融合定位方法的步骤。
本发明的实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现上述基于视觉AI的融合定位方法的步骤。
本发明的基于视觉AI的融合定位方法、***、设备及存储介质,能够通过实时图像的检测结果和图像分割结果作为输入,来实现基于高精地图的混合校验,减少了计算量,加快了定位速度,并且提高定位精度。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显。
图1是本发明的基于视觉AI的融合定位方法的流程图。
图2至6是本发明的基于视觉AI的融合定位方法的一种实施过程景的示意图。
图7至8是本发明的基于视觉AI的融合定位方法的另一种实施过程景的示意图。
图9是本发明的基于视觉AI的融合定位***的结构示意图。
图10是本发明的基于视觉AI的融合定位设备的结构示意图。以及
图11是本发明一实施例的计算机可读存储介质的结构示意图。
具体实施方式
以下通过特定的具体实例说明本申请的实施方式,本领域技术人员可由本申请所揭露的内容轻易地了解本申请的其他优点与功效。本申请还可以通过另外不同的具体实施方式加以实施或应用***,本申请中的各项细节也可以根据不同观点与应用***,在没有背离本申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
下面以附图为参考,针对本申请的实施例进行详细说明,以便本申请所属技术领域的技术人员能够容易地实施。本申请可以以多种不同形态体现,并不限定于此处说明的实施例。
在本申请的表示中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的表示意指结合该实施例或示例表示的具体特征、结构、材料或者特点包括于本申请的至少一个实施例或示例中。而且,表示的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本申请中表示的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于表示目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本申请的表示中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
为了明确说明本申请,省略与说明无关的器件,对于通篇说明书中相同或类似的构成要素,赋予了相同的参照符号。
在通篇说明书中,当说某器件与另一器件“连接”时,这不仅包括“直接连接”的情形,也包括在其中间把其它元件置于其间而“间接连接”的情形。另外,当说某种器件“包括”某种构成要素时,只要没有特别相反的记载,则并非将其它构成要素排除在外,而是意味着可以还包括其它构成要素。
当说某器件在另一器件“之上”时,这可以是直接在另一器件之上,但也可以在其之间伴随着其它器件。当对照地说某器件“直接”在另一器件“之上”时,其之间不伴随其它器件。
虽然在一些实例中术语第一、第二等在本发明中用来表示各种元件,但是这些元件不应当被这些术语限制。这些术语仅用来将一个元件与另一个元件进行区分。例如,第一接口及第二接口等表示。再者,如同在本发明中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在的特征、步骤、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、步骤、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能、步骤或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
此处使用的专业术语只用于言及特定实施例,并非意在限定本申请。此处使用的单数形态,只要语句未明确表示出与之相反的意义,那么还包括复数形态。在说明书中使用的“包括”的意义是把特定特性、区域、整数、步骤、作业、要素及/或成份具体化,并非排除其它特性、区域、整数、步骤、作业、要素及/或成份的存在或附加。
虽然未不同地定义,但包括此处使用的技术术语及科学术语,所有术语均具有与本申请所属技术领域的技术人员一般理解的意义相同的意义。普通使用的字典中定义的术语追加解释为具有与相关技术文献和当前提示的内容相符的意义,只要未进行定义,不得过度解释为理想的或非常公式性的意义。
图1是本发明的基于视觉AI的融合定位方法的流程图。如图1所示,本发明的实施例提供一种基于视觉AI的融合定位方法,包括以下步骤:
S110、车辆采集路面的实时图像和GPS定位信息。
S120、对实时图像进行图像识别,并获得分区后的像素区域与分区图像对应的标签类别的映射关系。
S130、判断在实时图像中识别是否存在车道线,若是,则执行步骤S140,若否,则执行步骤S150。
S140、通过车辆当前的GPS定位信息和车道线的在实时图像的位置基于高精地图进行地图定位,并基于地图定位对局部区域范围内的点集进行插值扩充,执行步骤S160。
S150、基于车辆当前的GPS定位信息定位对高精地图中局部区域范围内的点集进行插值扩充。
S160、基于***值后的点集与分区图像基于标签类别进行分类匹配,获得高精地图的点集在图像中的对应区域。
为了解决现有技术的问题,本发明提出了一种多输入的视觉辅助定位方案,该方案将端到端检测结果和图像分割结果作为输入,并通过一系列操作完成自校验。在获得匹配结果后,还可以进一步第将匹配结果,里程计与GPS均参与到融合当中,并完成视觉定位帧与帧之间的进一步平滑中。从而有效地避免车辆在缺少标示的直行情况下出现纵向定位偏差的问题。
在一个优选实施例中,步骤S110包括:
S110、车辆通过图像传感器采集路面的实时图像。
S120、车辆通过GPS获得车辆当前的GPS定位信息。
在一个优选实施例中,步骤S120包括:
S121、对实时图像进行图像分区识别,获得每个分区对应的标签类别。
S122、建立每个分区对应的像素与分区的标签类别的映射关系。
在一个优选实施例中,步骤S130包括:
判断在实时图像的各分区中是否包括至少一个标签类别为车道线的图像分区。
在一个优选实施例中,步骤S140包括:
S141、基于图像建立平面坐标,将每条车道线在图像中延展方向进行曲线拟合,并获得曲线轨迹。
S142、基于车辆当前的GPS定位信息为中心,预设长度为半径,在高精地图中获得一局部区域。
S143、通过曲线轨迹对局部区域的范围内的标签类别为车道线的点的集合进行过滤,过滤掉与所述曲线轨迹的距离大于预设距离阈值的点。
以及
S144、对过滤后的点集进行插值扩充。
在一个优选实施例中,步骤S143中,预设距离阈值为实时图像的宽度像素值的1/15至1/30。
在一个优选实施例中,高精地图包括若干个子点集,每个子点集中的每个点具有标签类别以及精确的定位信息,标签类别对应一障碍物或一路面标识,对点集进行插值扩充时,基于若干相邻点的空间位置在相邻点之间添加一插值点,并根据插值点周围的相邻点的数量最大的一类标签类别来确定插值点的标签类别,从而实现插值点的自动定义。
在一个优选实施例中,步骤S144中,对过滤后的点集以及在高精地图中与点集的间距小于等于预设间距阈值的子点集进行插值扩充。
在一个优选实施例中,对过滤后的点集进行插值扩充。
在一个优选实施例中,步骤S150包括:
S151、基于车辆当前的GPS定位信息为中心,预设长度为半径,在高精地图中获得一局部区域。
S152、获得位于局部区域的范围内的点的点集。
S153、对点集进行插值扩充。
在一个优选实施例中,步骤S160包括:
S161、对每个分区图像进行骨骼化。
S162、将***值后的点集与骨骼化的分区图像基于标签类别进行分类匹配,获得高精地图的点集在图像中的对应区域。
本发明的基于视觉AI的融合定位方法能够通过实时图像的检测结果和图像分割结果作为输入,来实现基于高精地图的混合校验,减少了计算量,加快了定位速度,并且提高定位精度。
为了解决现有技术的问题,本发明提出了一种多输入的视觉辅助定位方案,该方案将端到端检测结果和图像分割结果作为输入,并通过一系列操作完成自校验。在获得匹配结果后,还可以进一步第将匹配结果,里程计与GPS均参与到融合当中,并完成视觉定位帧与帧之间的进一步平滑中。从而有效地避免车辆在缺少标示的直行情况下出现纵向定位偏差的问题。
图2至6是本发明的基于视觉AI的融合定位方法的一种实施过程景的示意图。如图2所示,本实施例中,车辆通过图像传感器采集路面的实时图像1。车辆通过GPS获得车辆当前的GPS定位信息。
如图3所示,通过车载视觉芯片对实时图像1进行图像分区识别,获得每个分区对应的标签类别。建立每个分区对应的像素与分区的标签类别的映射关系本实施例中,分区11的标签类别是车道线,分区12的标签类别是车道线,分区13的标签类别是路灯(图片左上角的一段其他车道的车道线应为位于边缘,变形严重,就没有被识别出来,这个不会影响本发明的定位精度,反而去掉了无关的数据,有利于减小计算量,加快识别速度)。判断在实时图像1的各分区中是否包括至少一个标签类别为车道线的图像分区。本实施例中的AI图像识别,是指利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对象的技术,是应用深度学习算法的一种实践应用。图像的传统识别流程分为四个步骤:图像采集→图像预处理→特征提取→图像识别。通过海量的路况图像训练一个图像识别神经网络,从而对实时图像的基于被识别出的目标物进行分割,并建立分割后图像与目标物标签的映射关系。
如图4所示,基于图像建立平面坐标,将每条车道线在图像中延展方向进行曲线拟合,并获得曲线轨迹14、15。基于车辆当前的GPS定位信息为中心,预设长度为半径,在车载***中预存的高精地图中获得一局部区域。本实施例中的高精地图包括海量具有高精度定位信息的点集,其中,每个子点集中的每个点具有标签类别,标签类别对应一障碍物或一路面标识。端到端的方法可以直接提取出图像的车道线的方程信息,如果高精地图的点集投影到图像中与端到端的方程信息没有太大的偏差,则会认为该位置处通过校验,会认为该点有效区域通过这样的方法可以快速筛选大量的不在图像中的地图点集。
在一个优选例中,可以通过车载芯片和对于图像传感器的先验信息(传感器尺寸,被安装在车身的位置,镜头的光学参数等三)来模拟高精地图的点集投影到实时图像1的具体图案,从而让实际拍摄到的车道线与模拟出来的车道线进行比对,两者重叠或是接近的区域就是靠近车辆的区域,需要高精度认别的区域;实际拍摄到的车道线与模拟出来的车道线相互远离的区域则距离车辆很远,不用进行高精度识别。
如图5所示,通过曲线轨迹对局部区域的范围内的标签类别为车道线的点的集合进行过滤,过滤掉与曲线轨迹的距离大于预设距离阈值的点。例如:将点集合中的每个点计算分别与曲线轨迹的最小距离,由于每个曲线轨迹是分别对应一个车道线,则通过过滤必然留下一个车道线对应的一个点集合中的部分点(同一个车道线对应的一个点集合中的其他点可能应为透视或是过于遥远等原因,与曲线轨迹的距离大于预设距离阈值的点,则被过滤掉)。其中,预设距离阈值为实时图像1的宽度像素值的1/15至1/30,本实施例中的,图像宽度为960个像素,则预设距离阈值为50个像素,通过过滤,其中靠近曲线轨迹的点16被保留,与曲线轨迹的距离大于预设距离阈值的点17被过滤掉(由于距离过远,点17代表的区域对当前行驶没有危害,所以去掉这部分的点不会影响当前的路面识别,而且有利于减小计算量,加快识别速度。)。由于图像传感器会拍摄到几百米以外的路面和障碍物,这部分不需要被使用,远方的物体没有被识别到的就不计入后续的点云计算中,从而减少计算量。
如图6所示,高精地图包括若干个子点集,每个子点集中的每个点具有标签类别,标签类别对应一障碍物或一路面标识,对点集进行插值扩充时,基于若干相邻点的空间位置在相邻点之间添加一插值点,并根据插值点周围的相邻点的数量最大的一类标签类别来确定插值点的标签类别。对过滤后的点集18以及在高精地图中与点集18的间距小于等于预设间距阈值的子点集19进行插值扩充。通过将与曲线轨迹接近的代表过滤后的车道线的点集18和在高精地图中相邻的其他子点集19一起进行插值,从而将相关区域的路面的局部高精地图通过插值来获得更多有效信息。
最后,对每个分区图像进行骨骼化。可以采用现有的图像骨骼化算法,将***值后的点集与骨骼化的分区图像基于标签类别进行分类匹配,获得高精地图的点集18、19等在图像中的对应区域,从而强化车辆对于周围环境的路面情况、障碍物位置等的精确信息。车辆能够快速、准确地获得自身以及周围标示或障碍物在高精度地图中位置,从而实现准确的路面识别。本实施例中的骨骼化包括以下步骤:对图像进行腐蚀,腐蚀后的物体变得更窄细;对腐蚀后图像做开运算,开运算处理时被删除的像素就是骨骼的一部分,将其加入骨骼图像;重复以上过程,直到图像被完全腐蚀,从而获取每个分区图像的图像细化后的骨骼,但不以此为限。
本发明不需要使用具有深度信息的传感器或是激光雷达等,节约了硬件设备,并且在算法那层面,仅通过实施图像1的平面坐标进行识别和定位,不构建算需要巨大算力的三维空间,大大节约了算力。本发明的基于视觉AI的融合定位方法能够通过实时图像1的检测结果和图像分割结果作为输入,来实现基于高精地图的混合校验,减少了计算量,加快了定位速度,并且提高定位精度。
图7至8是本发明的基于视觉AI的融合定位方法的令一种实施过程景的示意图。如图7所示,本实施例中,本项目的视觉匹配校验***如图7所示,该方法存在有三个特征输入。且内部存在三处自校验策略,从而保证视觉特征匹配结果的稳定性。
首先通过端到端的模型输入,可以有效地考虑到不存在车道线的情况,从而可以避免分割结果误识别所造成的干扰问题。
通过识别图像中是否有车道线进行第一次自校验策略,如果存在车道线,就是要通过端到端的结果和高精地图的信息进行匹配,该处的操作可以有效地应对车道线密集这类复杂场景。通过车辆当前自身的位置,将高精地图投影结果和端到端输出结果进行匹配,来自行校验高精地图上合适的车道线点集,从而确定车辆自身在横轴方向上的位置。
如果不存在车道线,就会省略车道线校准这一步,直接使用线性差值来扩充高精地图点集,进行第二次自校验策略。这一步主要作用是用来扩充车道线和灯杆的地图点信息,从而为车道线,灯杆拟合提供更多的有效信息。
在分割结果处需要先根据分割结果的种类进行骨骼化。通过骨骼化的形式可以有效地提取出车道线,灯杆,标识的中心,从而便于后续的特征匹配。
随后,通过线性差值的高精地图点集和骨骼化后的点集合使用Kdtree一一匹配,来获取高精地图点集在骨骼化图中对应的位置。虽然分割结果的干扰会造成骨骼化时的误差,但是通过骨骼化加Kdtree的方式完成了第三次自校验。能够有效地滤除分割结果不好的区域,同时因为线性插值得到了较多的特征点,这可以有效地降低分割不佳区域的干扰。其中,kd-tree(k-dimensional树的简称),是一种对k维空间中的实例点进行存储以便对其进行快速检索的树形数据结构。主要应用于多维空间关键数据的搜索(如:范围搜索和最近邻搜索)。K-D树是二进制空间分割树的特殊的情况。在计算机科学里,k-d树(k-维树的缩写)是在k维欧几里德空间组织点的数据结构。k-d树可以使用在多种应用场合,如多维键值搜索(例:范围搜寻及最邻近搜索)。k-d树是空间二分树(Binary space partitioning)的一种特殊情况。k-d树是每个节点都为k维点的二叉树。所有非叶子节点可以视作用一个超平面把空间分割成两个半空间。节点左边的子树代表在超平面左边的点,节点右边的子树代表在超平面右边的点。选择超平面的方法如下:每个节点都与k维中垂直于超平面的那一维有关。因此,如果选择按照x轴划分,所有x值小于指定值的节点都会出现在左子树,所有x值大于指定值的节点都会出现在右子树。这样,超平面可以用该x值来确定,其法线为x轴的单位向量。在获得与高精地图匹配的骨骼化点后,通过点集对应关系获得车道线的三次曲线方程、灯杆的直线方程以及车道标识的点坐标信息。例如:通过将骨骼化后所有的点作为树来进行kd-tree最近邻搜索。从而得到每个扩充点所对应的最近的骨骼化的点。匹配值是依据图像中像素间的欧氏距离来计算的,并限定kd-tree的搜索范围,目前设置的像素值为20像素。也就是在kd-tree的扩展点(xex,yex)与骨骼化的点(xsk,ysk)的欧氏距离小于20像素,则认为匹配到了骨骼点。最后会根据这些骨骼点再次通过三次样条插值拟合出一条三次曲线方程用来优化,但不以此为限。
如图8所示,本实施例中,当视觉校验匹配结果作为输出后,我们拿到了当前帧的优化输入,在此处我们会选取最近10帧的特征信息,此时因为里程计的频率较高,且在短时间内误差较小的特性,会参与进去实现帧间优化。从而避免视觉校验匹配结果在车辆静止时发生振荡或是有效特征较少导致纵向优化误差较大问题的问题。
GPS会使用松耦合的方式参与到融合定位中,由于GPS更新频率较低,且当高楼遮挡存在漂移的情况,所以会根据当前的GPS状态以及两者定位差值来判断是否将GPS加入到融合定位中。如果加入GPS则会通过卡尔曼滤波去进一步融合这两者的定位结果,并将其作为最终的定位结果输出到无人车中,如果不加入GPS会直接输入帧间优化的结果。
本发明当中,提出了一种视觉辅助的高精度融合定位方案,主要技术优势包括:
基于端到端检测结果和图像分割结果作为输入,来实现基于高精地图的混合校验。
本发明通过端到端检测结果,可以有效地过滤不存在车道线的情形,从而避免车道线误检导致的定位误差
本发明对图像分割结果使用骨骼化+kdtree的方式,有效地提取出适用于三维空间的车道线三次曲线方程。并通过灯杆,标识牌,车道标识来综合约束车辆定位的精度。
在优化的过程中,在匹配结果中加入里程计信息,完成视觉的帧间约束,并通过与GPS定位信息的判断融合。从而避免车辆在缺少标示的直行情况下出现纵向定位偏差的问题。
图9是本发明的基于视觉AI的融合定位***的结构示意图。如图9所示,本发明的基于视觉AI的融合定位***5,包括:
图像采集模块51,车辆采集路面的实时图像和GPS定位信息;
图像识别模块52,对实时图像进行图像识别,并获得分区后的像素区域与分区图像对应的标签类别的映射关系;
车道检测模块53,判断在实时图像中识别是否存在车道线;
过滤插值模块54,当存在车道线,则基于车辆当前的GPS定位信息和车道线的在实时图像的位置基于高精地图进行地图定位,并基于地图定位对局部区域范围内的点集进行插值扩充;
定位插值模块55,当不存在车道线,则基于车辆当前的GPS定位信息定位对高精地图中局部区域范围内的点集进行插值扩充;
匹配定位模块56,基于***值后的点集与分区图像基于标签类别进行分类匹配,获得高精地图的点集在图像中的对应区域。
在一个优选实施例中,图像采集模块51被配置为令车辆通过图像传感器采集路面的实时图像,车辆通过GPS获得车辆当前的GPS定位信息。
在一个优选实施例中,图像识别模块52被配置为对实时图像进行图像分区识别,获得每个分区对应的标签类别,建立每个分区对应的像素与分区的标签类别的映射关系。
在一个优选实施例中,车道检测模块53被配置为判断在实时图像的各分区中是否包括至少一个标签类别为车道线的图像分区。
在一个优选实施例中,过滤插值模块54被配置为基于图像建立平面坐标,将每条车道线在图像中延展方向进行曲线拟合,并获得曲线轨迹;基于车辆当前的GPS定位信息为中心,预设长度为半径,在高精地图中获得一局部区域;通过曲线轨迹对局部区域的范围内的点的点集进行过滤,过滤掉与曲线轨迹的距离大于预设距离阈值的点;对过滤后的点集进行插值扩充。
在一个优选实施例中,过滤插值模块54中预设距离阈值为实时图像的宽度像素值的1/15至1/30。
在一个优选实施例中,定位插值模块55被配置为基于车辆当前的GPS定位信息为中心,预设长度为半径,在高精地图中获得一局部区域;获得位于局部区域的范围内的点的点集;对点集进行插值扩充。
在一个优选实施例中,高精地图包括若干个子点集,每个子点集中的每个点具有标签类别,标签类别对应一障碍物或一路面标识,对点集进行插值扩充时,基于若干相邻点的空间位置在相邻点之间添加一插值点,并根据插值点周围的相邻点的数量最大的一类标签类别来确定插值点的标签类别。
在一个优选实施例中,匹配定位模块56被配置为对每个分区图像进行骨骼化;将***值后的点集与骨骼化的分区图像基于标签类别进行分类匹配,获得高精地图的点集在图像中的对应区域。
本发明的基于视觉AI的融合定位***,能够通过实时图像的检测结果和图像分割结果作为输入,来实现基于高精地图的混合校验,减少了计算量,加快了定位速度,并且提高定位精度。
本发明实施例还提供一种基于视觉AI的融合定位设备,包括处理器。存储器,其中存储有处理器的可执行指令。其中,处理器配置为经由执行可执行指令来执行的基于视觉AI的融合定位方法的步骤。
如上,本发明的基于视觉AI的融合定位设备能够通过实时图像的检测结果和图像分割结果作为输入,来实现基于高精地图的混合校验,减少了计算量,加快了定位速度,并且提高定位精度。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为***、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“平台”。
图10是本发明的基于视觉AI的融合定位设备的结构示意图。下面参照图10来描述根据本发明的这种实施方式的电子设备600。图10显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图10所示,电子设备600以通用计算设备的形式表现。电子设备600的组件可以包括但不限于:至少一个处理单元610、至少一个存储单元620、连接不同平台组件(包括存储单元620和处理单元610)的总线630、显示单元640等。
其中,存储单元存储有程序代码,程序代码可以被处理单元610执行,使得处理单元610执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器660可以通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储平台等。
本发明实施例还提供一种计算机可读存储介质,用于存储程序,程序被执行时实现的基于视觉AI的融合定位方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述电子处方流转处理方法部分中描述的根据本发明各种示例性实施方式的步骤。
如上所示,该实施例的计算机可读存储介质的程序在执行时,能够通过实时图像的检测结果和图像分割结果作为输入,来实现基于高精地图的混合校验,减少了计算量,加快了定位速度,并且提高定位精度。
图11是本发明的计算机可读存储介质的结构示意图。参考图11所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品800,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
综上,本发明的基于视觉AI的融合定位方法、***、设备及存储介质,能够通过实时图像的检测结果和图像分割结果作为输入,来实现基于高精地图的混合校验,减少了计算量,加快了定位速度,并且提高定位精度。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (12)
1.一种基于视觉AI的融合定位方法,其特征在于,包括以下步骤:
车辆采集路面的实时图像和GPS定位信息;
对所述实时图像进行图像识别,并获得分区后的像素区域与分区图像对应的标签类别的映射关系;
判断在所述实时图像中识别是否存在车道线;
若存在车道线,则通过所述车辆当前的GPS定位信息和所述车道线的在所述实时图像的位置基于高精地图进行地图定位,并基于地图定位对局部区域范围内的点集进行插值扩充;
若不存在车道线,则基于所述车辆当前的GPS定位信息定位对所述高精地图中局部区域范围内的点集进行插值扩充;
基于***值后的所述点集与所述分区图像基于标签类别进行分类匹配,获得所述高精地图的点集在所述图像中的对应区域。
2.根据权利要求1所述的基于视觉AI的融合定位方法,其特征在于,所述车辆采集路面的实时图像和GPS定位信息,包括:
车辆通过图像传感器采集路面的实时图像;
车辆通过GPS获得所述车辆当前的GPS定位信息。
3.根据权利要求1所述的基于视觉AI的融合定位方法,其特征在于,所述对所述实时图像进行图像识别,并获得分区后的像素区域与分区图像对应的标签类别的映射关系,包括:
对所述实时图像进行图像分区识别,获得每个分区对应的标签类别;
建立每个分区对应的像素与所述分区的标签类别的映射关系。
4.根据权利要求1所述的基于视觉AI的融合定位方法,其特征在于,所述判断在所述实时图像中识别是否存在车道线,包括:
判断在所述实时图像的各分区中是否包括至少一个标签类别为车道线的图像分区。
5.根据权利要求1所述的基于视觉AI的融合定位方法,其特征在于,所述基于所述车辆当前的GPS定位信息和所述车道线的在所述实时图像的位置基于高精地图进行地图定位,并基于地图定位对局部区域范围内的点集进行插值扩充,包括:
基于所述图像建立平面坐标,将每条所述车道线在图像中延展方向进行曲线拟合,并获得曲线轨迹;
基于所述车辆当前的GPS定位信息为中心,预设长度为半径,在所述高精地图中获得一局部区域;
通过所述曲线轨迹对所述局部区域的范围内的标签类别为车道线的点的集合进行过滤,过滤掉与所述曲线轨迹的距离大于预设距离阈值的点;以及
对过滤后的所述点集进行插值扩充。
6.根据权利要求5所述的基于视觉AI的融合定位方法,其特征在于,所述通过所述曲线轨迹对所述局部区域的范围内的点的点集进行过滤,过滤掉与所述曲线轨迹的距离大于预设距离阈值的点,还包括:
所述预设距离阈值为所述实时图像的宽度像素值的1/15至1/30。
7.据权利要求1所述的基于视觉AI的融合定位方法,其特征在于,所述基于所述车辆当前的GPS定位信息定位对所述高精地图中局部区域范围内的点集进行插值扩充,包括:
基于所述车辆当前的GPS定位信息为中心,预设长度为半径,在所述高精地图中获得一局部区域;
获得位于所述局部区域的范围内的点的点集;
对所述点集进行插值扩充。
8.根据权利要求5或7所述的基于视觉AI的融合定位方法,其特征在于,所述高精地图包括若干个子点集,每个子点集中的每个点具有标签类别,所述标签类别对应一障碍物或一路面标识,对所述点集进行插值扩充时,基于若干相邻点的空间位置在相邻点之间添加一插值点,并根据所述插值点周围的所述相邻点的数量最大的一类标签类别来确定所述插值点的标签类别。
9.据权利要求1所述的基于视觉AI的融合定位方法,其特征在于,所述基于***值后的所述点集与所述分区图像基于标签类别进行分类匹配,获得所述高精地图的点集在所述图像中的对应区域,包括:
对每个所述分区图像进行骨骼化;
将***值后的所述点集与骨骼化的所述分区图像基于标签类别进行分类匹配,获得所述高精地图的点集在所述图像中的对应区域。
10.一种基于视觉AI的融合定位***,其特征在于,所述***包括:
图像采集模块,车辆采集路面的实时图像和GPS定位信息;
图像识别模块,对所述实时图像进行图像识别,并获得分区后的像素区域与分区图像对应的标签类别的映射关系;
车道检测模块,判断在所述实时图像中识别是否存在车道线;
过滤插值模块,当存在车道线,则基于所述车辆当前的GPS定位信息和所述车道线的在所述实时图像的位置基于高精地图进行地图定位,并基于地图定位对局部区域范围内的点集进行插值扩充;
定位插值模块,当不存在车道线,则基于所述车辆当前的GPS定位信息定位对所述高精地图中局部区域范围内的点集进行插值扩充;
匹配定位模块,基于***值后的所述点集与所述分区图像基于标签类别进行分类匹配,获得所述高精地图的点集在所述图像中的对应区域。
11.一种基于视觉AI的融合定位设备,其特征在于,包括:
处理器;
存储器,其中存储有所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至9中任一项所述的基于视觉AI的融合定位方法的步骤。
12.一种计算机可读存储介质,用于存储程序,其特征在于,所述程序被执行时实现权利要求1至9中任一项所述的基于视觉AI的融合定位方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210789254.0A CN115164924A (zh) | 2022-07-06 | 2022-07-06 | 基于视觉ai的融合定位方法、***、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210789254.0A CN115164924A (zh) | 2022-07-06 | 2022-07-06 | 基于视觉ai的融合定位方法、***、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115164924A true CN115164924A (zh) | 2022-10-11 |
Family
ID=83491245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210789254.0A Pending CN115164924A (zh) | 2022-07-06 | 2022-07-06 | 基于视觉ai的融合定位方法、***、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115164924A (zh) |
-
2022
- 2022-07-06 CN CN202210789254.0A patent/CN115164924A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11900627B2 (en) | Image annotation | |
EP3505869B1 (en) | Method, apparatus, and computer readable storage medium for updating electronic map | |
US11094198B2 (en) | Lane determination method, device and storage medium | |
CN111220993B (zh) | 目标场景定位方法、装置、计算机设备和存储介质 | |
CN105667518B (zh) | 车道检测的方法及装置 | |
WO2018068653A1 (zh) | 点云数据处理方法、装置及存储介质 | |
CN108171131B (zh) | 基于改进MeanShift的Lidar点云数据道路标识线提取方法 | |
CN107808123B (zh) | 图像可行域检测方法、电子设备、存储介质、检测*** | |
CN111542860A (zh) | 用于自主车辆的高清地图的标志和车道创建 | |
CN111582189B (zh) | 交通信号灯识别方法、装置、车载控制终端及机动车 | |
US20210001891A1 (en) | Training data generation for dynamic objects using high definition map data | |
Parra et al. | Robust visual odometry for vehicle localization in urban environments | |
CN113034566B (zh) | 高精度地图构建方法、装置、电子设备及存储介质 | |
CN114394088B (zh) | 泊车循迹轨迹生成方法、装置、电子设备及存储介质 | |
WO2024012211A1 (zh) | 自动驾驶环境感知方法、介质及车辆 | |
CN115564865A (zh) | 一种众包高精地图的构建方法、***、电子设备及车辆 | |
CN114445565A (zh) | 数据处理方法、装置、电子设备和计算机可读介质 | |
Khoche et al. | Semantic 3d grid maps for autonomous driving | |
Lu et al. | A lightweight real-time 3D LiDAR SLAM for autonomous vehicles in large-scale urban environment | |
CN113189610B (zh) | 地图增强的自动驾驶多目标追踪方法和相关设备 | |
CN114387576A (zh) | 一种车道线识别方法、***、介质、设备及信息处理终端 | |
CN113971697A (zh) | 一种空地协同车辆定位定向方法 | |
Kim et al. | Urban localization based on aerial imagery by correcting projection distortion | |
US20230236021A1 (en) | Information processing device | |
Wong et al. | Single camera vehicle localization using feature scale tracklets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050 Applicant after: Shanghai Xijing Technology Co.,Ltd. Address before: Room 503-3, 398 Jiangsu Road, Changning District, Shanghai 200050 Applicant before: SHANGHAI WESTWELL INFORMATION AND TECHNOLOGY Co.,Ltd. |
|
CB02 | Change of applicant information |