CN115082772B - 地点识别方法、装置、车辆、存储介质及芯片 - Google Patents

地点识别方法、装置、车辆、存储介质及芯片 Download PDF

Info

Publication number
CN115082772B
CN115082772B CN202210847873.0A CN202210847873A CN115082772B CN 115082772 B CN115082772 B CN 115082772B CN 202210847873 A CN202210847873 A CN 202210847873A CN 115082772 B CN115082772 B CN 115082772B
Authority
CN
China
Prior art keywords
image
place
feature information
network
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210847873.0A
Other languages
English (en)
Other versions
CN115082772A (zh
Inventor
刘洋
马雅楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaomi Automobile Technology Co Ltd
Original Assignee
Xiaomi Automobile Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiaomi Automobile Technology Co Ltd filed Critical Xiaomi Automobile Technology Co Ltd
Priority to CN202210847873.0A priority Critical patent/CN115082772B/zh
Publication of CN115082772A publication Critical patent/CN115082772A/zh
Application granted granted Critical
Publication of CN115082772B publication Critical patent/CN115082772B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • G06V20/39Urban scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本公开涉及地点识别方法、装置、车辆、存储介质及芯片,该方法包括:获取待识别图像;获取待识别图像的全局特征信息和局部特征信息,其中,局部特征信息用于描述待识别图像中的目标对象的特征;从数据库中确定与全局特征信息和局部特征信息匹配的地点图像,并将地点图像表征的地点作为待识别图像的地点。通过上述技术方案,在对待识别图像进行地点识别时,采用全局特征信息和局部特征信息联合匹配的方式,通过局部特征信息对能区分各地点且不易随时间发生变化的目标对象进行注意,而不会对地点区分性不强且形态易随时间变化的物体如绿植进行注意,提高了地点识别的准确性。

Description

地点识别方法、装置、车辆、存储介质及芯片
技术领域
本公开涉及自动驾驶技术领域,尤其涉及一种地点识别方法、装置、车辆、存储介质及芯片。
背景技术
相关技术中的地点识别***,存在对某些场景,如大面积绿植场景,识别效果较差的问题。
发明内容
为克服相关技术中存在的问题,本公开提供一种地点识别方法、装置、车辆、存储介质及芯片。
根据本公开实施例的第一方面,提供一种地点识别方法,包括:
获取待识别图像;
获取所述待识别图像的全局特征信息和局部特征信息,其中,所述局部特征信息用于描述所述待识别图像中的目标对象的特征;
从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点。
可选地,所述从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点包括:
确定所述待识别图像中的非目标对象在所述待识别图像中的面积占比;
在所述面积占比小于预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点;
在所述面积占比大于或等于所述预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的候选地点图像,并基于所述局部特征信息从所述候选地点图像中确定第一目标地点图像,并将所述第一目标地点图像表征的地点作为所述待识别图像的地点。
可选地,所述获取所述待识别图像的全局特征信息和局部特征信息包括:
将所述待识别图像输入预设图像识别网络,获取所述待识别图像的全局特征信息和局部特征信息,其中,所述预设图像识别网络应用有针对所述目标对象的局部注意力机制。
可选地,所述预设图像识别网络是通过以下方式训练得到的:
对原训练集的多张第一地点图像随机擦除部分区域,以形成多张第二地点图像;
将所述多张第二地点图像扩充入原训练集,得到新训练集;
基于所述新训练集进行模型训练,得到所述预设图像识别网络。
可选地,所述预设图像识别网络包括图像处理子网络,所述基于所述新训练集进行模型训练,得到所述预设图像识别网络包括:
对所述新训练集内的地点图像下采样为低分辨率的地点图像,得到低分辨率训练集;
基于所述低分辨率训练集对初始图像处理子网络进行训练,获得所述图像处理子网络,所述初始图像处理子网络用于对所述低分辨率训练集中的地点图像进行如下至少一种操作:去雾化操作、像素化操作和锐化操作。
可选地,所述预设图像识别网络还包括主干网络、全局特征信息生成分支网络和局部特征信息生成分支网络,所述主干网络的输入端与所述图像处理子网络的输出端连接、输出端与所述全局特征信息生成分支网络和局部特征信息生成分支网络的输入端连接,所述全局特征信息生成分支网络包括多尺度目标检测子网络和广义平均池化子网络,所述局部特征信息生成分支网络应用有针对目标对象的局部注意力机制,所述将所述待识别图像输入预设图像识别网络,获得所述待识别图像的全局特征信息和局部特征信息包括:
将所述待识别图像输入图像处理子网络,经主干网络、多尺度目标检测子网络和广义平均池化子网络,获得所述待识别图像的全局特征信息;经主干网络和局部特征信息生成分支网络,获得所述待识别图像的局部特征信息。
可选地,获取待识别图像包括:
获取图像采集设备的地理位置,并确定所述图像采集设备的地理位置与所述数据库中第二目标地点图像表征的地点的地理位置之间的距离;
响应于所述距离小于或等于第二阈值,通过所述图像采集设备获取待识别图像。
根据本公开实施例的第二方面,提供一种地点识别装置,包括:
图像获取模块,被配置为获取待识别图像;
特征信息生成模块,被配置为获取所述待识别图像的全局特征信息和局部特征信息,所述局部特征信息用于描述所述待识别图像中的目标对象的特征;
识别结果输出模块,被配置为从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点。
根据本公开实施例的第三方面,提供一种车辆,包括:
第一处理器;
用于存储第一处理器可执行指令的第一存储器;
其中,所述第一处理器被配置为:
获取待识别图像;
获取所述待识别图像的全局特征信息和局部特征信息,所述局部特征信息用于描述所述待识别图像中的目标对象的特征;
从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开第一方面所提供的地点识别方法的步骤。
根据本公开实施例的第五方面,提供一种芯片,包括第二处理器和接口;所述第二处理器用于读取指令以执行本公开第一方面所提供的地点识别方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
通过上述技术方案,采用局部特征信息描述待识别图像中目标对象的特征,该目标对象可以设置为建筑物、路标等具有标志性且不易发生变化的物体。在对待识别图像进行地点识别时,采用全局特征信息和局部特征信息联合匹配的方式,通过局部特征信息对能区分各地点且不易随时间发生变化的目标对象进行注意,而不会对地点区分性不强且形态易随时间变化的物体如绿植进行注意,提高了地点识别的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种地点识别方法的流程图。
图2是根据一示例性实施例示出的预设图像识别网络的框图。
图3是根据一示例性实施例示出的一种地点识别装置的框图。
图4是根据一示例性实施例示出的一种车辆的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种地点识别方法的流程图。该地点识别方法可以应用于移动机器人自主导航、视觉即时定位与建图、自动驾驶、自动泊车等。如图1所示,所述地点识别方法包括以下步骤。
在步骤S11中,获取待识别图像。
其中,待识别图像即需要识别地点信息的图像。当所述地点识别方法应用于自动驾驶或自动泊车时,所述待识别图像可以是车辆在自动驾驶或自动泊车的行车过程中,安装在车辆上的摄像头采集的行车过程中的图像。该图像可以包括建筑物、构筑物、绿植、人、车等。
在步骤S12中,获取所述待识别图像的全局特征信息和局部特征信息,其中,所述局部特征信息用于描述所述待识别图像中的目标对象的特征。
其中,所述目标对象可以设置为建筑物、路标(构筑物)等具有标志性且不易发生变化的物体。
在步骤S13中,从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点。
通过上述技术方案,采用局部特征信息描述待识别图像中目标对象的特征,该目标对象可以设置为建筑物、路标等具有标志性且不易发生变化的物体。在对待识别图像进行地点识别时,采用全局特征信息和局部特征信息联合匹配的方式,通过局部特征信息对能区分各地点且不易随时间发生变化的目标对象进行注意,而不会对地点区分性不强且形态易随时间变化的物体如绿植进行注意,提高了地点识别的准确性。
可选地,步骤S13包括:
确定所述待识别图像中的非目标对象在所述待识别图像中的面积占比。
其中,所述非目标对象与目标对象相反。所述非目标对象可以是绿植等对地点区分性不强(不具有标志性)且形态易随时间变化的物体。确定所述待识别图像中的非目标对象在所述待识别图像中的面积占比的步骤可以包括:获取待识别图像中非目标对象包括的像素点个数与待识别图像的像素点总数的比值,并将该比值作为非目标对象在所述待识别图像中的面积占比。例如,当非目标对象为绿植时,可以通过获取待识别图像中像素值表征为绿色的像素点个数与待识别图像的总像素点总数的比值,将该比值作为绿植在所述待识别图像中的面积占比。
在所述面积占比小于预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点。
其中,预设阈值可以根据实际情况进行设置。在所述面积占比小于预设阈值的情况下,即表明非目标对象在待识别图像的面积占比较小,即可以认为待识别图像中包括的绿植等对地点区分性不强(不具有标志性)且形态易随时间变化的物体较少,因此可以直接通过对全局特征信息进行匹配,获得所述待识别图像的地点,以节约***算力。
在所述面积占比大于或等于所述预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的候选地点图像,并基于所述局部特征信息从所述候选地点图像中确定第一目标地点图像,并将所述第一目标地点图像表征的地点作为所述待识别图像的地点。
反之,在所述面积占比大于或等于所述预设阈值的情况下,即表明非目标对象在待识别图像的面积占比较大,即可以认为待识别图像中包括的绿植等对地点区分性不强(不具有标志性)且形态易随时间变化的物体较多,因此,在从所述数据库中确定与所述全局特征信息匹配的候选地点图像后,需要通过局部特征信息对候选地点图像中能区分各地点且不易随时间发生变化的目标对象进行注意,以减轻绿植等对地点区分性不强(不具有标志性)且形态易随时间变化的物体对地点识别的影响,确保地点识别的准确性。
可选地,步骤S12包括:
将所述待识别图像输入预设图像识别网络,获取所述待识别图像的全局特征信息和局部特征信息。其中,所述预设图像识别网络应用有针对所述目标对象的局部注意力机制。
通过上述技术方案,采用一个预设图像识别网络来获取全局特征信息和局部特征信息,相较于采用两个分离的网络来分别获取全局特征信息和局部特征信息,有利于高效地进行模型训练和部署。
可选地,所述预设图像识别网络是通过以下方式训练得到的:
对原训练集的多张第一地点图像随机擦除部分区域,以形成多张第二地点图像。
将所述多张第二地点图像扩充入原训练集,得到新训练集。
基于所述新训练集进行模型训练,得到所述预设图像识别网络。
通过上述技术方案,在预设图像识别网络进行训练的过程中,使用了随机擦除了部分区域的第二地点图像,使预设图像识别网络对待识别图像中不同程度的遮挡具有更好的鲁棒性。因此,本公开提供的技术方案,可以有效解决待识别图像中出现大面积运动目标,而导致同一地点拍摄的图像识别差异较大的问题,提高对待识别图像的地点识别的准确性。
可选地,所述预设图像识别网络包括图像处理子网络,所述基于所述新训练集进行模型训练,得到所述预设图像识别网络包括:
对所述新训练集内的地点图像下采样为低分辨率的地点图像,得到低分辨率训练集。
基于所述低分辨率训练集对初始图像处理子网络进行训练,获得所述图像处理子网络,所述初始图像处理子网络用于对所述低分辨率训练集中的地点图像进行如下至少一种操作:去雾化操作、像素化操作和锐化操作。
其中,像素化操作包括如下至少一种操作:白平衡处理、伽马变换、对比度调节和色调调节。
通过上述技术方案,预先采用低分辨率的地点图像对初始图像处理子网络进行训练,获得图像处理子网络;在地点识别时,采用训练得到的图像处理子网络对待识别图像进行如下至少一种操作:去雾化操作、像素化操作和锐化操作,使待识别图像进行自适应增强,提高对待识别图像的地点识别的准确性。因此,本公开提供的技术方案,可以有效降低清晰度、光照、雾气对待识别图像识别结果的干扰。并且,在训练过程中,将新训练集内的地点图像下采样为低分辨率的地点图像,通过低分辨率的地点图像训练得到预设图像识别网络,并将该预设图像识别网络应用于原始分辨率的待识别图像的识别中,降低了计算量,节约了计算资源。
可选地,如图2所示,所述预设图像识别网络还包括主干网络、全局特征信息生成分支网络和局部特征信息生成分支网络。所述主干网络的输入端与所述图像处理子网络的输出端连接、输出端与所述全局特征信息生成分支网络和局部特征信息生成分支网络的输入端连接。所述全局特征信息生成分支网络包括多尺度目标检测子网络和广义平均池化子网络。所述局部特征信息生成分支网络应用有针对目标对象的局部注意力机制。步骤S12包括:
将所述待识别图像输入图像处理子网络,经主干网络、多尺度目标检测子网络和广义平均池化子网络,获得所述待识别图像的全局特征信息;经主干网络和局部特征信息生成分支网络,获得所述待识别图像的局部特征信息。
其中,多尺度目标检测子网络可以能实现多尺度检测的特征金字塔网络等。
通过上述技术方案,在提取全局特征信息时,采用了多尺度目标检测子网络,使得提取的全局特征信息能够学习到更丰富的语义特征,从而对在外观相似地点拍摄的待识别图像具有较好的识别能力,提高对待识别图像的地点识别的准确性。
可选地,步骤S11包括:
获取图像采集设备的地理位置,并确定所述图像采集设备的地理位置与所述数据库中第二目标地点图像表征的地点的地理位置之间的距离。
其中,当所述地点识别方法应用于自动泊车时,所述图像采集设备可以安装于车辆上,且该图像采集设备可以是安装与车辆上的行车记录仪或相机等。获取图像采集设备的地理位置的方式可以有多种,例如,通过GPS(Global Positioning System,全球定位***)获取图像采集设备的地理位置、通过移动基站定位获取图像采集设备的地理位置、通过WIFI定位获取图像采集设备的地理位置,通过辅助全球卫星定位***获取图像采集设备的地理位置等。所述数据库中可以预存有至少一张地点图像,第二目标地点图像可以是数据库中的任意一张地点图像,也可以是数据库中特定的(如用户在某种情况下指定的)一张地点图像。当所述地点识别方法应用于自动泊车时,所述数据库中的地点图像可以是用户预存的进行自动泊车的起始地点的图像,则第二目标地点图像可以是用户预存的进行自动泊车的一个起始地点的图像。
响应于所述距离小于或等于第二阈值,通过所述图像采集设备获取待识别图像。
其中,第二阈值根据应用情况灵活设置,在此不做限制。
相应地,在所述距离大于所述第二阈值的情况下,不获取用于地点识别的待识别图像。即,所述图像采集设备可以获取图像,但获取的图像不用于地点识别;或者所述图像采集设备不获取图像。
当所述地点识别方法应用于自动泊车时,通过上述技术方案,可以实现在检测到图像采集设备的地理位置距离自动泊车的某个起始地点较近的情况下,才获取用于地点识别的待识别图像,以及根据获取的待识别图像进行地点识别,以便于能检测到启动自动泊车的起始地点,为后期自动泊车奠定基础,同时节约计算资源。上述技术方案的实际使用场景可以是:车主对其车辆在数据库中预存两个启动自动泊车的起始地点的地点图像,如靠近车主公司的自动泊车起始地点和靠近车主家的自动泊车起始地点的地点图像,在检测到图像采集设备的地理位置距离任意一个起始地点(靠近车主公司或靠近车主家的自动泊车起始地点)小于或等于第二阈值的情况下,获取用于地点识别的待识别图像,以及根据获取的待识别图像进行地点识别,以便于能在车主达到公司或者到达家的情况下,识别到自动泊车起始地点,以便开启自动泊车功能进行自动泊车。上述应用场景中,数据库中还可以预存一个或多个启动自动泊车的起始地点的地点图像,在此不做赘述。
图3是根据一示例性实施例示出的一种地点识别装置的框图。参照图3,该装置包括图像获取模块11、特征信息生成模块12和识别结果输出模块13。
图像获取模块11,被配置为获取待识别图像。
特征信息生成模块12,被配置为获取所述待识别图像的全局特征信息和局部特征信息,所述局部特征信息用于描述所述待识别图像中的目标对象的特征。
识别结果输出模块13,被配置为从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点。
通过上述技术方案,采用局部特征信息描述待识别图像中目标对象的特征,该目标对象可以设置为建筑物、路标等具有标志性且不易发生变化的物体。在对待识别图像进行地点识别时,采用全局特征信息和局部特征信息联合匹配的方式,通过局部特征信息对能区分各地点且不易随时间发生变化的目标对象进行注意,而不会对地点区分性不强且形态易随时间变化的物体如绿植进行注意,提高了地点识别的。
可选地,识别结果输出模块13包括:
面积占比子模块,被配置为确定所述待识别图像中的非目标对象在所述待识别图像中的面积占比。
第一地点识别子模块,被配置为在所述面积占比小于预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点。
第二地点识别子模块,被配置为在所述面积占比大于或等于所述预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的候选地点图像,并基于所述局部特征信息从所述候选地点图像中确定第一目标地点图像,并将所述第一目标地点图像表征的地点作为所述待识别图像的地点。
通过上述技术方案,在所述面积占比小于预设阈值的情况下,即表明非目标对象在待识别图像的面积占比较小,即可以认为待识别图像中包括的绿植等对地点区分性不强(不具有标志性)且形态易随时间变化的物体较少,因此可以直接通过对全局特征信息进行匹配,获得所述待识别图像的地点,以节约***算力。在所述面积占比大于或等于所述预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的候选地点图像,并基于所述局部特征信息从所述候选地点图像中确定第一目标地点图像,并将所述第一目标地点图像表征的地点作为所述待识别图像的地点。
可选地,特征信息生成模块12,被配置为:
将所述待识别图像输入预设图像识别网络,获取所述待识别图像的全局特征信息和局部特征信息。其中,所述预设图像识别网络应用有针对所述目标对象的局部注意力机制。
通过上述技术方案,采用一个预设图像识别网络来获取全局特征信息和局部特征信息,相较于采用两个分离的网络来分别获取全局特征信息和局部特征信息,有利于高效地进行模型训练和部署。
可选地,所述装置还包括训练模块,所述训练模块包括:
擦除子模块,被配置为:对原训练集的多张第一地点图像随机擦除部分区域,以形成多张第二地点图像。
扩充子模块,被配置为:将所述多张第二地点图像扩充入原训练集,得到新训练集。
第一训练子模块,被配置为:基于所述新训练集进行模型训练,得到所述预设图像识别网络。
通过上述技术方案,在预设图像识别网络进行训练的过程中,使用了随机擦除了部分区域的第二地点图像,使预设图像识别网络对待识别图像中不同程度的遮挡具有更好的鲁棒性。因此,本公开提供的技术方案,可以有效解决待识别图像中出现大面积运动目标,而导致同一地点拍摄的图像识别差异较大的问题,提高对待识别图像的地点识别的准确性。
可选地,所述预设图像识别网络包括图像处理子网络,第一训练子模块,被配置为:
对所述新训练集内的地点图像下采样为低分辨率的地点图像,得到低分辨率训练集。基于所述低分辨率训练集对初始图像处理子网络进行训练,获得所述图像处理子网络,所述初始图像处理子网络用于对所述低分辨率训练集中的地点图像进行如下至少一种操作:去雾化操作、像素化操作和锐化操作。
通过上述技术方案,预先采用低分辨率的地点图像对初始图像处理子网络进行训练,获得图像处理子网络;在地点识别时,采用训练得到的图像处理子网络对待识别图像进行如下至少一种操作:去雾化操作、像素化操作和锐化操作,使待识别图像进行自适应增强,提高对待识别图像的地点识别的准确性。因此,本公开提供的技术方案,可以有效降低清晰度、光照、雾气对待识别图像识别结果的干扰。并且,在训练过程中,将新训练集内的地点图像下采样为低分辨率的地点图像,通过低分辨率的地点图像训练得到预设图像识别网络,并将该预设图像识别网络应用于原始分辨率的待识别图像的识别中,降低了计算量,节约了计算资源。
可选地,如图2所示,所述预设图像识别网络还包括主干网络、全局特征信息生成分支网络和局部特征信息生成分支网络。所述主干网络的输入端与所述图像处理子网络的输出端连接、输出端与所述全局特征信息生成分支网络和局部特征信息生成分支网络的输入端连接。所述全局特征信息生成分支网络包括多尺度目标检测子网络和广义平均池化子网络。所述局部特征信息生成分支网络应用有针对目标对象的局部注意力机制。特征信息生成模块12,被配置为:
将所述待识别图像输入图像处理子网络,经主干网络、多尺度目标检测子网络和广义平均池化子网络,获得所述待识别图像的全局特征信息;经主干网络和局部特征信息生成分支网络,获得所述待识别图像的局部特征信息。
通过上述技术方案,在提取全局特征信息时,采用了多尺度目标检测子网络,使得提取的全局特征信息能够学习到更丰富的语义特征,从而对在外观相似地点拍摄的待识别图像具有较好的识别能力,提高对待识别图像的地点识别的准确性。
可选地,图像获取模块11包括距离比较子模块和图像采集子模块。
距离比较子模块,被配置为获取图像采集设备的地理位置,并确定所述图像采集设备的地理位置与所述数据库中第二目标地点图像表征的地点的地理位置之间的距离。
图像采集子模块,被配置为响应于所述距离小于或等于第二阈值,通过所述图像采集设备获取待识别图像。
当所述地点识别方法应用于自动泊车时,通过上述技术方案,可以实现在检测到图像采集设备的地理位置距离自动泊车的某个起始地点较近的情况下,才获取用于地点识别的待识别图像,以及根据获取的待识别图像进行地点识别,以便于能检测到启动自动泊车的起始地点,为后期自动泊车奠定基础,同时节约计算资源。上述技术方案的实际使用场景可以是:车主对其车辆在数据库中预存两个启动自动泊车的起始地点的地点图像,如靠近车主公司的自动泊车起始地点和靠近车主家的自动泊车起始地点的地点图像,在检测到图像采集设备的地理位置距离任意一个起始地点(靠近车主公司或靠近车主家的自动泊车起始地点)小于或等于第二阈值的情况下,获取用于地点识别的待识别图像,以及根据获取的待识别图像进行地点识别,以便于能在车主达到公司或者到达家的情况下,识别到自动泊车起始地点,以便开启自动泊车功能进行自动泊车。上述应用场景中,数据库中还可以预存一个或多个启动自动泊车的起始地点的地点图像,在此不做赘述。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开还提供一种计算机可读存储介质,其上存储有计算机程序指令,该程序指令被处理器执行时实现本公开提供的地点识别方法的步骤。
上述装置除了可以是独立的电子设备外,也可是独立电子设备的一部分,例如在一种实施例中,该装置可以是集成电路(Integrated Circuit,IC)或芯片,其中该集成电路可以是一个IC,也可以是多个IC的集合;该芯片可以包括但不限于以下种类:GPU(GraphicsProcessing Unit,图形处理器)、CPU(Central Processing Unit,中央处理器)、FPGA(Field Programmable Gate Array,可编程逻辑阵列)、DSP(Digital Signal Processor,数字信号处理器)、ASIC(Application Specific Integrated Circuit,专用集成电路)、SOC(System on Chip,SoC,片上***或***级芯片)等。上述的集成电路或芯片中可以用于执行可执行指令(或代码),以实现上述的地点识别方法。其中该可执行指令可以存储在该集成电路或芯片中,也可以从其他的装置或设备获取,例如该集成电路或芯片中包括第二处理器、第二存储器,以及用于与其他的装置通信的接口。该可执行指令可以存储于该第二存储器中,当该可执行指令被第二处理器执行时实现上述的地点识别方法;或者,该集成电路或芯片可以通过该接口接收可执行指令并传输给该第二处理器执行,以实现上述的地点识别方法。
参阅图4,图4是一示例性实施例示出的一种车辆600的功能框图示意图。车辆600可以被配置为完全或部分自动驾驶模式。例如,车辆600可以通过感知***620获取其周围的环境信息,并基于对周边环境信息的分析得到自动驾驶策略以实现完全自动驾驶,或者将分析结果呈现给用户以实现部分自动驾驶。
车辆600可包括各种子***,例如,信息娱乐***610、感知***620、决策控制***630、驱动***640以及计算平台650。可选的,车辆600可包括更多或更少的子***,并且每个子***都可包括多个部件。另外,车辆600的每个子***和部件可以通过有线或者无线的方式实现互连。
在一些实施例中,信息娱乐***610可以包括通信***611,娱乐***612以及导航***613。
通信***611可以包括无线通信***,无线通信***可以直接地或者经由通信网络来与一个或多个设备无线通信。例如,无线通信***可使用3G蜂窝通信,例如CDMA、EVD0、GSM/GPRS,或者4G蜂窝通信,例如LTE。或者5G蜂窝通信。无线通信***可利用WiFi与无线局域网(wireless local area network,WLAN)通信。在一些实施例中,无线通信***可利用红外链路、蓝牙或ZigBee与设备直接通信。其他无线协议,例如各种车辆通信***,例如,无线通信***可包括一个或多个专用短程通信(dedicated short range communications,DSRC)设备,这些设备可包括车辆和/或路边台站之间的公共和/或私有数据通信。
娱乐***612可以包括显示设备,麦克风和音响,用户可以基于娱乐***在车内收听广播,播放音乐;或者将手机和车辆联通,在显示设备上实现手机的投屏,显示设备可以为触控式,用户可以通过触摸屏幕进行操作。
在一些情况下,可以通过麦克风获取用户的语音信号,并依据对用户的语音信号的分析实现用户对车辆600的某些控制,例如调节车内温度等。在另一些情况下,可以通过音响向用户播放音乐。
导航***613可以包括由地图供应商所提供的地图服务,从而为车辆600提供行驶路线的导航,导航***613可以和车辆的全球定位***621、惯性测量单元622配合使用。地图供应商所提供的地图服务可以为二维地图,也可以是高精地图。
感知***620可包括感测关于车辆600周边的环境的信息的若干种传感器。例如,感知***620可包括全球定位***621(全球定位***可以是GPS***,也可以是北斗***或者其他定位***)、惯性测量单元(inertial measurement unit,IMU)622、激光雷达623、毫米波雷达624、超声雷达625以及摄像装置626。感知***620还可包括被监视车辆600的内部***的传感器(例如,车内空气质量监测器、燃油量表、机油温度表等)。来自这些传感器中的一个或多个的传感器数据可用于检测对象及其相应特性(位置、形状、方向、速度等)。这种检测和识别是车辆600的安全操作的关键功能。
全球定位***621用于估计车辆600的地理位置。
惯性测量单元622用于基于惯性加速度来感测车辆600的位姿变化。在一些实施例中,惯性测量单元622可以是加速度计和陀螺仪的组合。
激光雷达623利用激光来感测车辆600所位于的环境中的物体。在一些实施例中,激光雷达623可包括一个或多个激光源、激光扫描器以及一个或多个检测器,以及其他***组件。
毫米波雷达624利用无线电信号来感测车辆600的周边环境内的物体。在一些实施例中,除了感测物体以外,毫米波雷达624还可用于感测物体的速度和/或前进方向。
超声雷达625可以利用超声波信号来感测车辆600周围的物体。
摄像装置626用于捕捉车辆600的周边环境的图像信息。摄像装置626可以包括单目相机、双目相机、结构光相机以及全景相机等,摄像装置626获取的图像信息可以包括静态图像,也可以包括视频流信息。
决策控制***630包括基于感知***620所获取的信息进行分析决策的计算***631,决策控制***630还包括对车辆600的动力***进行控制的整车控制器632,以及用于控制车辆600的转向***633、油门634和制动***635。
计算***631可以操作来处理和分析由感知***620所获取的各种信息以便识别车辆600周边环境中的目标、物体和/或特征。目标可以包括行人或者动物,物体和/或特征可包括交通信号、道路边界和障碍物。计算***631可使用物体识别算法、运动中恢复结构(Structure from Motion,SFM)算法、视频跟踪等技术。在一些实施例中,计算***631可以用于为环境绘制地图、跟踪物体、估计物体的速度等等。计算***631可以将所获取的各种信息进行分析并得出对车辆的控制策略。
整车控制器632可以用于对车辆的动力电池和引擎641进行协调控制,以提升车辆600的动力性能。
转向***633可操作来调整车辆600的前进方向。例如在一个实施例中可以为方向盘***。
油门634用于控制引擎641的操作速度并进而控制车辆600的速度。
制动***635用于控制车辆600减速。制动***635可使用摩擦力来减慢车轮644。在一些实施例中,制动***635可将车轮644的动能转换为电流。制动***635也可采取其他形式来减慢车轮644转速从而控制车辆600的速度。
驱动***640可包括为车辆600提供动力运动的组件。在一个实施例中,驱动***640可包括引擎641、能量源642、传动***643和车轮644。引擎641可以是内燃机、电动机、空气压缩引擎或其他类型的引擎组合,例如汽油发动机和电动机组成的混动引擎,内燃引擎和空气压缩引擎组成的混动引擎。引擎641将能量源642转换成机械能量。
能量源642的示例包括汽油、柴油、其他基于石油的燃料、丙烷、其他基于压缩气体的燃料、乙醇、太阳能电池板、电池和其他电力来源。能量源642也可以为车辆600的其他***提供能量。
传动***643可以将来自引擎641的机械动力传送到车轮644。传动***643可包括变速箱、差速器和驱动轴。在一个实施例中,传动***643还可以包括其他器件,比如离合器。其中,驱动轴可包括可耦合到一个或多个车轮644的一个或多个轴。
车辆600的部分或所有功能受计算平台650控制。计算平台650可包括至少一个第一处理器651,第一处理器651可以执行存储在例如第一存储器652这样的非暂态计算机可读介质中的指令653。在一些实施例中,计算平台650还可以是采用分布式方式控制车辆600的个体组件或子***的多个计算设备。
第一处理器651可以是任何常规的处理器,诸如商业可获得的CPU。可替换地,第一处理器651还可以包括诸如图像处理器(Graphic Process Unit,GPU),现场可编程门阵列(FieldProgrammable Gate Array,FPGA)、片上***(System on Chip,SOC)、专用集成芯片(Application Specific Integrated Circuit,ASIC)或它们的组合。尽管图4功能性地图示了处理器、存储器、和在相同块中的计算机的其它元件,但是本领域的普通技术人员应该理解该处理器、计算机、或存储器实际上可以包括可以或者可以不存储在相同的物理外壳内的多个处理器、计算机、或存储器。例如,存储器可以是硬盘驱动器或位于不同于计算机的外壳内的其它存储介质。因此,对处理器或计算机的引用将被理解为包括对可以或者可以不并行操作的处理器或计算机或存储器的集合的引用。不同于使用单一的处理器来执行此处所描述的步骤,诸如转向组件和减速组件的一些组件每个都可以具有其自己的处理器,处理器只执行与特定于组件的功能相关的计算。
在本公开实施方式中,第一处理器651可以执行上述的地点识别方法。
在此处所描述的各个方面中,第一处理器651可以位于远离该车辆并且与该车辆进行无线通信。在其它方面中,此处所描述的过程中的一些在布置于车辆内的处理器上执行而其它则由远程处理器执行,包括采取执行单一操纵的必要步骤。
在一些实施例中,第一存储器652可包含指令653(例如,程序逻辑),指令653可被第一处理器651执行来执行车辆600的各种功能。第一存储器652也可包含额外的指令,包括向信息娱乐***610、感知***620、决策控制***630、驱动***640中的一个或多个发送数据、从其接收数据、与其交互和/或对其进行控制的指令。
除了指令653以外,第一存储器652还可存储数据,例如道路地图、路线信息,车辆的位置、方向、速度以及其它这样的车辆数据,以及其他信息。这种信息可在车辆600在自主、半自主和/或手动模式中操作期间被车辆600和计算平台650使用。
计算平台650可基于从各种子***(例如,驱动***640、感知***620和决策控制***630)接收的输入来控制车辆600的功能。例如,计算平台650可利用来自决策控制***630的输入以便控制转向***633来避免由感知***620检测到的障碍物。在一些实施例中,计算平台650可操作来对车辆600及其子***的许多方面提供控制。
可选地,上述这些组件中的一个或多个可与车辆600分开安装或关联。例如,第一存储器652可以部分或完全地与车辆600分开存在。上述组件可以按有线和/或无线方式来通信地耦合在一起。
可选地,上述组件只是一个示例,实际应用中,上述各个模块中的组件有可能根据实际需要增添或者删除,图4不应理解为对本公开实施例的限制。
在道路行进的自动驾驶汽车,如上面的车辆600,可以识别其周围环境内的物体以确定对当前速度的调整。物体可以是其它车辆、交通控制设备、或者其它类型的物体。在一些示例中,可以独立地考虑每个识别的物体,并且基于物体的各自的特性,诸如它的当前速度、加速度、与车辆的间距等,可以用来确定自动驾驶汽车所要调整的速度。
可选地,车辆600或者与车辆600相关联的感知和计算设备(例如计算***631、计算平台650)可以基于所识别的物体的特性和周围环境的状态(例如,交通、雨、道路上的冰、等等)来预测识别的物体的行为。可选地,每一个所识别的物体都依赖于彼此的行为,因此还可以将所识别的所有物体全部一起考虑来预测单个识别的物体的行为。车辆600能够基于预测的识别的物体的行为来调整它的速度。换句话说,自动驾驶汽车能够基于所预测的物体的行为来确定车辆将需要调整到(例如,加速、减速、或者停止)何种稳定状态。在这个过程中,也可以考虑其它因素来确定车辆600的速度,诸如,车辆600在行驶的道路中的横向位置、道路的曲率、静态和动态物体的接近度等等。
除了提供调整自动驾驶汽车的速度的指令之外,计算设备还可以提供修改车辆600的转向角的指令,以使得自动驾驶汽车遵循给定的轨迹和/或维持与自动驾驶汽车附近的物体(例如,道路上的相邻车道中的车辆)的安全横向和纵向距离。
上述车辆600可以为各种类型的行驶工具,例如,轿车、卡车、摩托车、公共汽车、船、飞机、直升飞机、娱乐车、火车等等,本公开实施例不做特别的限定。
在另一示例性实施例中,还提供一种计算机程序产品,该计算机程序产品包含能够由可编程的装置执行的计算机程序,该计算机程序具有当由该可编程的装置执行时用于执行上述的地点识别方法的代码部分。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种地点识别方法,其特征在于,包括:
获取待识别图像;
获取所述待识别图像的全局特征信息和局部特征信息,其中,所述局部特征信息用于描述所述待识别图像中的目标对象的特征;
从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点;
其中,所述从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点包括:
确定所述待识别图像中的非目标对象在所述待识别图像中的面积占比;
在所述面积占比小于预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的地点图像,并将该地点图像表征的地点作为所述待识别图像的地点;
在所述面积占比大于或等于所述预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的候选地点图像,并基于所述局部特征信息从所述候选地点图像中确定第一目标地点图像,并将所述第一目标地点图像表征的地点作为所述待识别图像的地点。
2.根据权利要求1所述的地点识别方法,其特征在于,所述获取所述待识别图像的全局特征信息和局部特征信息包括:
将所述待识别图像输入预设图像识别网络,获取所述待识别图像的全局特征信息和局部特征信息,其中,所述预设图像识别网络应用有针对所述目标对象的局部注意力机制。
3.根据权利要求2所述的地点识别方法,其特征在于,所述预设图像识别网络是通过以下方式训练得到的:
对原训练集的多张第一地点图像随机擦除部分区域,以形成多张第二地点图像;
将所述多张第二地点图像扩充入原训练集,得到新训练集;
基于所述新训练集进行模型训练,得到所述预设图像识别网络。
4.根据权利要求3所述的地点识别方法,其特征在于,所述预设图像识别网络包括图像处理子网络,所述基于所述新训练集进行模型训练,得到所述预设图像识别网络包括:
对所述新训练集内的地点图像下采样为低分辨率的地点图像,得到低分辨率训练集;
基于所述低分辨率训练集对初始图像处理子网络进行训练,获得所述图像处理子网络,所述初始图像处理子网络用于对所述低分辨率训练集中的地点图像进行如下至少一种操作:去雾化操作、像素化操作和锐化操作。
5.根据权利要求4所述的地点识别方法,其特征在于,所述预设图像识别网络还包括主干网络、全局特征信息生成分支网络和局部特征信息生成分支网络,所述主干网络的输入端与所述图像处理子网络的输出端连接、输出端与所述全局特征信息生成分支网络和局部特征信息生成分支网络的输入端连接,所述全局特征信息生成分支网络包括多尺度目标检测子网络和广义平均池化子网络,所述局部特征信息生成分支网络应用有针对目标对象的局部注意力机制,所述将所述待识别图像输入预设图像识别网络,获得所述待识别图像的全局特征信息和局部特征信息包括:
将所述待识别图像输入所述图像处理子网络,经所述主干网络、多尺度目标检测子网络和广义平均池化子网络,获得所述待识别图像的全局特征信息;经所述主干网络和局部特征信息生成分支网络,获得所述待识别图像的局部特征信息。
6.根据权利要求1~5中任一项所述的地点识别方法,其特征在于,获取待识别图像包括:
获取图像采集设备的地理位置,并确定所述图像采集设备的地理位置与所述数据库中第二目标地点图像表征的地点的地理位置之间的距离;
响应于所述距离小于或等于第二阈值,通过所述图像采集设备获取待识别图像。
7.一种地点识别装置,其特征在于,包括:
图像获取模块,被配置为获取待识别图像;
特征信息生成模块,被配置为获取所述待识别图像的全局特征信息和局部特征信息,所述局部特征信息用于描述所述待识别图像中的目标对象的特征;
识别结果输出模块,被配置为从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点,具体包括:
确定所述待识别图像中的非目标对象在所述待识别图像中的面积占比;
在所述面积占比小于预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的地点图像,并将该地点图像表征的地点作为所述待识别图像的地点;
在所述面积占比大于或等于所述预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的候选地点图像,并基于所述局部特征信息从所述候选地点图像中确定第一目标地点图像,并将所述第一目标地点图像表征的地点作为所述待识别图像的地点。
8.一种车辆,其特征在于,包括:
第一处理器;
用于存储第一处理器可执行指令的第一存储器;
其中,所述第一处理器被配置为:
获取待识别图像;
获取所述待识别图像的全局特征信息和局部特征信息,所述局部特征信息用于描述所述待识别图像中的目标对象的特征;
从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点;
其中,所述从数据库中确定与所述全局特征信息和局部特征信息匹配的地点图像,并将所述地点图像表征的地点作为所述待识别图像的地点包括:
确定所述待识别图像中的非目标对象在所述待识别图像中的面积占比;
在所述面积占比小于预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的地点图像,并将该地点图像表征的地点作为所述待识别图像的地点;
在所述面积占比大于或等于所述预设阈值的情况下,从所述数据库中确定与所述全局特征信息匹配的候选地点图像,并基于所述局部特征信息从所述候选地点图像中确定第一目标地点图像,并将所述第一目标地点图像表征的地点作为所述待识别图像的地点。
9.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,该程序指令被处理器执行时实现权利要求1~6中任一项所述方法的步骤。
10.一种芯片,其特征在于,包括第二处理器和接口;所述第二处理器用于读取指令以执行权利要求1~6中任一项所述的方法。
CN202210847873.0A 2022-07-19 2022-07-19 地点识别方法、装置、车辆、存储介质及芯片 Active CN115082772B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210847873.0A CN115082772B (zh) 2022-07-19 2022-07-19 地点识别方法、装置、车辆、存储介质及芯片

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210847873.0A CN115082772B (zh) 2022-07-19 2022-07-19 地点识别方法、装置、车辆、存储介质及芯片

Publications (2)

Publication Number Publication Date
CN115082772A CN115082772A (zh) 2022-09-20
CN115082772B true CN115082772B (zh) 2022-11-11

Family

ID=83259985

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210847873.0A Active CN115082772B (zh) 2022-07-19 2022-07-19 地点识别方法、装置、车辆、存储介质及芯片

Country Status (1)

Country Link
CN (1) CN115082772B (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102672A (ja) * 2015-12-01 2017-06-08 株式会社日立ソリューションズ 地理位置情報特定システム及び地理位置情報特定方法
JP7153264B2 (ja) * 2018-08-02 2022-10-14 三菱重工業株式会社 画像解析システム、画像解析方法及び画像解析プログラム
JP2021047737A (ja) * 2019-09-19 2021-03-25 エアロセンス株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN111104867B (zh) * 2019-11-25 2023-08-25 北京迈格威科技有限公司 基于部件分割的识别模型训练、车辆重识别方法及装置
CN111507381B (zh) * 2020-03-31 2024-04-02 上海商汤智能科技有限公司 图像识别方法及相关装置、设备
CN111967515A (zh) * 2020-08-14 2020-11-20 Oppo广东移动通信有限公司 图像信息提取方法、训练方法及装置、介质和电子设备

Also Published As

Publication number Publication date
CN115082772A (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN115100377B (zh) 地图构建方法、装置、车辆、可读存储介质及芯片
CN115123257B (zh) 路面减速带位置识别方法、装置、车辆、存储介质及芯片
CN114842075B (zh) 数据标注方法、装置、存储介质及车辆
CN115035494A (zh) 图像处理方法、装置、车辆、存储介质及芯片
CN115042821A (zh) 车辆控制方法、装置、车辆及存储介质
CN114935334A (zh) 车道拓扑关系的构建方法、装置、车辆、介质及芯片
CN115205311B (zh) 图像处理方法、装置、车辆、介质及芯片
CN115100630B (zh) 障碍物检测方法、装置、车辆、介质及芯片
CN115203457B (zh) 图像检索方法、装置、车辆、存储介质及芯片
CN114842440B (zh) 自动驾驶环境感知方法、装置、车辆及可读存储介质
CN115164910B (zh) 行驶路径生成方法、装置、车辆、存储介质及芯片
CN114842455B (zh) 障碍物检测方法、装置、设备、介质、芯片及车辆
CN115202234B (zh) 仿真测试方法、装置、存储介质和车辆
CN114782638B (zh) 生成车道线的方法、装置、车辆、存储介质及芯片
CN115056784B (zh) 车辆控制方法、装置、车辆、存储介质及芯片
CN115205848A (zh) 目标检测方法、装置、车辆、存储介质及芯片
CN115205179A (zh) 图像融合的方法、装置、车辆及存储介质
CN115334111A (zh) 用于车道识别的***架构、传输方法,车辆,介质及芯片
CN115042814A (zh) 交通灯状态识别方法、装置、车辆及存储介质
CN115082772B (zh) 地点识别方法、装置、车辆、存储介质及芯片
CN115222791A (zh) 目标关联方法、装置、可读存储介质及芯片
CN114822216B (zh) 生成车位地图的方法、装置、车辆、存储介质及芯片
CN115147794B (zh) 车道线确定方法、装置、车辆、介质及芯片
CN115082573B (zh) 参数标定方法、装置、车辆及存储介质
CN115082886B (zh) 目标检测的方法、装置、存储介质、芯片及车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant