CN113705669A - 一种数据匹配方法、装置、电子设备以及存储介质 - Google Patents

一种数据匹配方法、装置、电子设备以及存储介质 Download PDF

Info

Publication number
CN113705669A
CN113705669A CN202110994415.5A CN202110994415A CN113705669A CN 113705669 A CN113705669 A CN 113705669A CN 202110994415 A CN202110994415 A CN 202110994415A CN 113705669 A CN113705669 A CN 113705669A
Authority
CN
China
Prior art keywords
target
point cloud
image data
data
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110994415.5A
Other languages
English (en)
Inventor
吕伟杰
杨国润
王哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Lingang Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Lingang Intelligent Technology Co Ltd
Priority to CN202110994415.5A priority Critical patent/CN113705669A/zh
Publication of CN113705669A publication Critical patent/CN113705669A/zh
Priority to PCT/CN2022/075419 priority patent/WO2023024443A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种数据匹配方法、装置、电子设备以及存储介质,其中,该方法包括:分别对待匹配的点云数据和图像数据进行检测,得到点云数据的目标检测结果和图像数据的目标检测结果;根据点云数据的目标检测结果,确定点云数据和图像数据分别对应的目标特征信息;根据图像数据的目标检测结果,确定图像数据对应的目标特征信息;目标特征信息包括检测出的目标对象的包围框的几何特征信息,以及包围框内的目标对象的外观特征信息;根据目标特征信息,对点云数据中的包围框和所述图像数据中的包围框进行匹配。本公开实施例通过将图像数据和点云数据进行结合来检测3D目标,可以提高3D目标的检测准确性,进而得到更加准确的目标检测结果。

Description

一种数据匹配方法、装置、电子设备以及存储介质
技术领域
本公开涉及自动驾驶技术领域,具体而言,涉及一种数据匹配方法、装置、电子设备以及存储介质。
背景技术
3D目标检测的目标是识别出物体的3D包围盒信息,主要包括位置、朝向、尺寸、置信度等信息。近年来,在3D目标检测领域,基于激光雷达或相机传感器的单模态方法取得了越来越大的进步。然而,由于数据结构特点,图像单模态方法的目标检测效果受当前环境影响,曝光或过暗的照片都会影响目标信息的获取,并且还受前后遮挡的影响;点云单模态方法需要解决点云稀疏、不规则、缺乏纹理和语义信息以及小物体、远处物体的点数太少等问题。
基于此,亟需一种稳定、可靠、精准和鲁棒性高的多模态匹配算法。
发明内容
本公开实施例至少提供一种数据匹配方法、装置、电子设备以及存储介质。
第一方面,本公开实施例提供了一种数据匹配方法,包括:分别对待匹配的点云数据和图像数据进行检测,得到所述点云数据的目标检测结果和图像数据的目标检测结果;其中,所述目标检测结果包括检测出的目标对象的包围框信息;根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息;根据所述图像数据的目标检测结果,确定所述图像数据对应的目标特征信息;所述目标特征信息包括检测出的目标对象的包围框的几何特征信息,以及所述包围框内的目标对象的外观特征信息;根据所述目标特征信息,对基于所述点云数据确定的包围框和基于所述图像数据确定的包围框进行匹配。
上述实施方式中,通过结合图像数据和点云数据进行目标检测的方式,可以通过点云数据弥补图像数据容易受到光照和遮挡影响的缺陷,同时通过图像数据可以弥补点云数据稀疏以及无纹理的缺陷。因此,将图像数据和点云数据进行结合来检测3D目标,可以提高3D目标的检测准确性,进而得到更加准确的目标检测结果。
一种可选的实施方式中,所述根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息,包括:将所述点云数据的目标检测结果投影至所述图像数据中,得到所述点云数据所对应的包围框的投影框;根据所述投影框的顶点在所述图像数据中的像素坐标,确定所述点云数据的几何特征信息。
上述实施例中,通过将点云数据所对应的3D包围框投影至图像数据中,以得到2D投影框,可以实现数据格式的统一,从而能够快速的根据图像数据所对应的2D包围框和2D投影框之间的相对位置进行目标对象的匹配,进而得到相应的匹配结果。
一种可选的实施方式中,所述几何特征信息包括所述包围框的位置信息和/或尺寸信息。
上述实施例中,通过将包围框的位置信息和/或尺寸信息扩充至几何特征信息中,可以丰富几何特征信息,进一步提高了数据匹配的准确度。
一种可选的实施方式中,所述根据所述图像数据的目标检测结果,确定所述图像数据对应的目标特征信息,包括:确定所述图像数据中位于检测出的包围框内的目标图像数据;提取所述目标图像数据的图像特征,并将提取到的所述图像特征确定为所述图像数据对应的外观特征信息。
上述实施方式中,通过提取图像数据所对应的包围框内的目标图像数据的图像特征,可以实现在根据位置信息对包围框进行匹配的基础上,进一步根据外观特征信息校验位置相匹配的包围框内对象是否为同一个对象。通过上述处理方式,可以弥补由于图像数据和点云数据之间的弱同步所导致的匹配错误,从而提高了数据匹配的精度,进而提高了自动驾驶的安全系数。
一种可选的实施方式中,所述根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息,包括:确定所述点云数据中位于检测出的包围框内的目标点云数据;其中,所述目标点云数据包括:位于该包围盒内目标点云的数量和/或所述目标点云在点云坐标系下的坐标信息;基于所述目标点云数据,确定用于描述所述目标点云的整体特征的全局点云特征,并根据所述全局点云特征确定所述点云数据对应的外观特征信息。
上述实施方式中,通过提取点云数据所对应的包围框内的目标点云数据的全局点云特征,可以实现在根据位置信息对包围框进行匹配的基础上,进一步根据外观特征信息校验位置相匹配的包围框内对象是否为同一个对象。通过上述处理方式,可以弥补由于图像数据和点云数据之间的弱同步所导致的匹配错误,从而提高了数据匹配的精度,进而提高了自动驾驶的安全系数。
一种可选的实施方式中,所述根据所述目标特征信息,对基于所述点云数据确定的包围框和基于所述图像数据确定的包围框进行匹配,包括:对所述图像数据的目标特征信息和所述点云数据的目标特征信息进行相关性计算,得到相关性计算结果,得到相关性计算结果;根据所述相关性计算结果确定所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果。
上述实施方式中,通过结合几何图像信息和外观特征信息,对点云数据目标特征信息和图像数据的目标特征信息进行相关性计算,可以准确的确定出M个2D包围框所对应的特征信息中的每个特征信息与N个3D包围框所对应的特征信息中各个特征信息之间的相关性,从而在根据相关性计算结果对包围框进行匹配时,得到提高包围框的匹配准确度。
一种可选的实施方式中,所述对所述图像数据的目标特征信息和所述点云数据的目标特征信息进行相关性计算,得到相关性计算结果,包括:对所述图像数据对应的几何特征信息和所述图像数据对应的外观特征信息进行拼接,得到目标图像特征;对所述点云数据对应的几何特征信息和所述点云数据对应的外观特征信息进行拼接,得到目标点云特征;对所述目标图像特征和所述目标点云特征进行相关性运算,得到所述相关性计算结果。
上述实施方式中,通过将几何特征信息和外观特征信息进行拼接,得到相应的目标图像特征和目标点云特征,再对目标图像特征和目标点云特征进行相关性计算,从而根据相关性计算结果确定包围框的匹配结果的方式,可以弥补由于图像数据和点云数据之间的弱同步所导致的匹配错误,从而提高了数据匹配的精度,进而提高了自动驾驶的安全系数。
一种可选的实施方式中,所述根据所述相关性计算结果确定所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果,包括:对所述相关性计算结果进行卷积计算,得到相似度矩阵,其中,所述相似度矩阵用于表征所述点云数据中的包围框和所述图像数据中的包围框之间的相似程度;对所述相似度矩阵进行取反计算,得到匹配代价矩阵;对所述匹配代价矩阵进行二分图匹配处理,得到所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果。
上述实施方式中,可以通过对上述相关性计算结果进行卷积、取反和二分图匹配处理等操作,可以提高匹配结果的处理效率,并得到准确度较高的匹配结果。
一种可选的实施方式中,所述分别对待匹配的点云数据和图像数据进行检测,得到所述点云数据的目标检测结果和图像数据的目标检测结果,包括:通过训练好的单模态检测模型分别对所述点云数据和所述图像数据进行目标检测,得到所述点云数据的目标检测结果和所述图像数据的目标检测结果。
上述实施方式中,通过训练好的点云单模态检测模型对点云数据进行目标检测,并通过图像单模态检测模型对图像数据进行目标检测,可以提高目标检测结果的准确性,从而得到包含完整目标对象的准确性更高的包围框信息。
一种可选的实施方式中,根据以下步骤训练所述单模态检测模型确定包含多个训练样本的训练样本集;其中,每个训练样本中包含:携带有样本标签的样本图像数据和样本点云数据;通过待训练的单模态检测模型对所述训练样本集进行目标检测,得到样本目标检测结果;根据所述样本目标检测结果和所述样本标签,确定标签匹配矩阵;根据所述标签匹配矩阵计算目标损失函数的函数值,并根据所述目标损失函数函数值调整所述单模态检测模型的模型参数,直至达到预设条件,得到训练完成的所述单模态检测模型。
上述实施方式中,通过上述所描述的方式对单模态检测模型进行训练,可以得到处理精度满足精度要求的单模态检测模型,在根据该单模态检测模型进行目标检测时,可以提高目标检测结果的准确性,从而提高数据匹配的准确率。
一种可选的实施方式中,所述根据所述样本目标检测结果和所述样本标签,确定标签匹配矩阵包括:计算所述样本目标检测结果中样本图像数据对应的至少一个预测包围框和所述样本标签中样本图像数据对应的标注包围框之间的交并比,得到第一交并比值;并根据所述第一交并比值对所述至少一个预测包围框进行筛选,得到目标预测包围框;计算所述样本目标检测结果中样本点云数据对应的至少一个预测包围盒和所述样本标签中样本点云数据对应的标注包围盒之间的交并比,得到第二交并比值;并根据所述第二交并比值对所述至少一个预测包围盒进行筛选,得到目标预测包围盒;将所述目标预测包围框和所述目标预测包围盒进行匹配,得到标签匹配结果,并根据所述标签匹配结果确定所述标签匹配矩阵。
上述实施方式中,通过上述处理方式,可以将准确的将预测包围框和预测包围盒进行匹配,得到标签匹配矩阵;在根据该标签匹配矩阵确定目标损失函数的函数值时,可以得到准确的函数值,从而提高单模态检测模型的训练精度。
一种可选的实施方式中,所述确定包含多个训练样本的训练样本集,包括:获取目标跟踪数据序列,其中,所述目标跟踪数据序列中包含在各个跟踪时刻获取到的图像数据和点云数据;在所述目标跟踪数据序列中确定至少一个数据组合,其中,每个所述数据组合包括:目标图像数据和目标点云数据;所述目标图像数据的第一跟踪时刻和所述目标点云数据的第二跟踪时刻不相同,且所述第一跟踪时刻和所述第二跟踪时刻之间的时间间隔为预设间隔;将每个所述数据组合中的数据作为每个训练样本中的数据。
上述实施方式中,本公开技术方案提出了一种构建点云与图像弱同步多模态数据集的方法,通过该方法可以模拟自动驾驶实际场景可能出现的弱同步情况,在通过该训练样本集训练单模态检测模型时,就可以使得训练之后的单模态检测模型能够适应多模态数据集的弱同步场景。
第二方面,本公开实施例还提供一种数据匹配装置,包括:获取模块:用于分别对待匹配的点云数据和图像数据进行检测,得到所述点云数据的目标检测结果和图像数据的目标检测结果;其中,所述目标检测结果包括检测出的目标对象的包围框信息;确定模块:用于根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息;根据所述图像数据的目标检测结果,确定所述图像数据对应的目标特征信息;所述目标特征信息包括检测出的目标对象的包围框的几何特征信息,以及所述包围框内的目标对象的外观特征信息;匹配模块:用于根据所述目标特征信息,对基于所述点云数据确定的包围框和基于所述图像数据确定的包围框进行匹配。
第三方面,本公开实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
第四方面,本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述第一方面,或第一方面中任一种可能的实施方式中的步骤。
为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本公开实施例所提供的一种数据匹配方法的流程图;
图2示出了本公开实施例所提供的另一种数据匹配方法的流程图;
图3本公开实施例所提供的一种数据匹配方法中,根据样本目标检测结果和样本标签,确定标签匹配矩阵的流程图;
图4示出了本公开实施例所提供的一种数据匹配装置的示意图;
图5示出了本公开实施例所提供的一种电子设备的示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
经研究发现,在现有的自动驾驶领域,在进行3D目标检测时,通常是基于激光雷达或相机传感器的单模态检测方法,其中,上述单模态检测方法通常包括图像单模态方法和点云单模态方法。但由于数据结构特点,图像单模态方法的目标检测效果受当前环境影响,曝光或过暗的照片都会影响目标信息的获取,并且还受前后遮挡的影响;点云单模态方法需要解决点云稀疏、不规则、缺乏纹理和语义信息以及小物体、远处物体的点数太少等问题。
基于上述研究,本公开提供了一种数据匹配方法、装置、电子设备以及存储介质。在本公开实施例中,通过结合图像数据和点云数据进行目标检测的方式,可以通过点云数据弥补图像数据容易受到光照和遮挡影响的缺陷,同时通过图像数据可以弥补点云数据稀疏以及无纹理的缺陷。因此,将图像数据和点云数据进行结合来检测3D目标,可以提高3D目标的检测准确性,进而得到更加准确的目标检测结果。
为便于对本实施例进行理解,首先对本公开实施例所公开的一种数据匹配方法进行详细介绍,本公开实施例所提供的数据匹配方法的执行主体一般为具有一定计算能力的电子设备。
参见图1所示,为本公开实施例提供的一种数据匹配方法的流程图,所述方法包括步骤S101~S105,其中:
S101:分别对待匹配的点云数据和图像数据进行检测,得到所述点云数据的目标检测结果和图像数据的目标检测结果;其中,所述目标检测结果包括检测出的目标对象的包围框信息。
在本公开实施例中,可以通过摄像装置采集图像数据,并通过激光雷达传感器采集点云数据,其中,摄像装置和激光雷达传感器为预先安装在目标车辆上的传感器。该目标车辆可以为具备自动驾驶功能的车辆,例如,小巴车,轿车等,本公开对目标车辆的类型不作具体限定。
针对点云数据来说,点云数据的目标检测结果包括检测出的目标对象的包围框信息,此处的包围框为3D包围框。比如,目标对象的数量为N个,那么包围框信息包括N个目标对象的3D包围框的相关信息。
针对图像数据来说,图像数据的目标检测结果包括检测出的目标对象的包围框信息,此处的包围框为2D包围框。比如,目标对象的数量为M个,那么包围框信息包括M个目标对象的2D包围框的相关信息。
需要说明的是,N个目标对象和M个目标对象中可以包含相同的目标对象,还可以包含不相同的目标对象。
S103:根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息;根据所述图像数据的目标检测结果,确定所述图像数据对应的目标特征信息;所述目标特征信息包括检测出的目标对象的包围框的几何特征信息,以及所述包围框内的目标对象的外观特征信息。
在本公开实施例中,目标特征信息可以为上述点云数据对应的目标特征信息,还可以为图像数据对应的目标特征信息。
例如,点云数据对应的目标特征信息中可以包含检测出的目标对象的包围框的几何特征信息,以及该包围框内的目标对象的外观特征信息;图像数据对应的目标特征信息中同样可以包含检测出的目标对象的包围框的几何特征信息,以及该包围框内的目标对象的外观特征信息。
在本公开实施例中,外观特征信息可以为用于表征包围框所框选目标对象的属性特征,该属性特征可以为该目标对象的对象类别信息,其中,该类别信息为该目标对象的类别标签,例如,车辆,行人等。
S105:根据所述目标特征信息,对基于所述点云数据确定的包围框和基于所述图像数据确定的包围框进行匹配。
在本公开实施例中,通过结合图像数据和点云数据进行目标检测的方式,可以通过点云数据弥补图像数据容易受到光照和遮挡影响的缺陷,同时通过图像数据可以弥补点云数据稀疏以及无纹理的缺陷。因此,将图像数据和点云数据进行结合来检测3D目标,可以提高3D目标的检测准确性,进而得到更加准确的目标检测结果。
在本公开实施例中,为了现有的单模态检测方法中所存在的目标检测的准确性差的技术问题,一种可选的实施方式是多模态检测方法,此处的多模态检测方法是指结合图像数据和点云数据来进行对象的检测。例如,多模态检测方法可以包含点云投影法、图像反投影法和相似度矩阵法。
点云投影法只考虑点云3D候选框的预测结果,严重依赖点云单模态检测器的效果。图像投影法只考虑了图像2D候选框的预测结果,严重依赖图像单模态检测器的效果。相似度矩阵法并未对弱同步情况下的多模态匹配问题有太多探究。
针对上述所描述的点云投影法、图像反投影法和相似度矩阵法的前提条件是激光雷达传感器和摄像装置之间的强同步性,因此,上述技术方案并未考虑激光雷达传感器和摄像装置之间出现弱同步的情况。
这里,摄像装置和激光雷达传感器之间具有强同步性是指点云数据和图像数据的采集时间高度同步,也可以理解为点云单模态检测器和图像单模态检测器在检测到同一个物体时,点云投影2D框与图像2D框会重合,或者图像反投影3D框与点云的3D框会重合。然而,在自动驾驶实际场景中,摄像装置和激光雷达传感器由于响应延迟或复杂的道路状况可能会出现很弱的同步。此时,弱同步会导致图像数据和点云数据之间产生同步误差。一旦产生了同步误差,那么根据误差的传递性,一方投影的结果与另一方也会产生相应的同步误差,即可以理解为通过点云数据所检测到的物体的包围框和通过图像数据所检测到的该物体的包围框不会重合,此时,可能会产生错误的匹配结果,糟糕的匹配效果会给多模态融合带来比单模态下更差的检测结果。
基于此,本公开提供了一种数据匹配方法,在该数据匹配方法中,通过结合图像数据和点云数据进行目标检测的方式,可以通过点云数据弥补图像数据容易受到光照和遮挡影响的缺陷,同时通过图像数据可以弥补点云数据稀疏以及无纹理的缺陷。因此,将图像数据和点云数据进行结合来检测3D目标,可以提高3D目标的检测准确性,进而得到更加准确的目标检测结果。
在本公开实施例中,将对上述步骤S101至步骤S105所描述的步骤进行详细的描述,具体描述过程如下所述。
针对步骤S101,分别对待匹配的点云数据和图像数据进行检测,得到所述点云数据的目标检测结果和图像数据的目标检测结果,具体包括如下过程:
通过训练好的单模态检测模型分别对点云数据和所述图像数据进行目标检测,得到所述点云数据的目标检测结果和所述图像数据的目标检测结果。
这里,单模态检测模块包含点云单模态检测模型和图像单模态检测模型。其中,点云单模态检测模型用于对点云数据进行目标检测,得到相应的目标检测结果;图像单模态检测模型用于对图像数据进行目标检测,得到相应的目标检测结果。
在本公开实施例中,首先通过激光雷达传感器采集点云数据,并通过摄像装置采集图像数据。之后,通过点云单模态检测模型对点云数据进行目标检测,并通过图像单模态检测模型对图像数据进行目标检测。
需要说明的是,点云单模态检测模型包括但不限于SECOND、PointPillars、PointRCNN、PV-RCNN,图像单模态检测模型包括但不限于RRC、MSCNN、Cascade R-CNN。
上述实施方式中,通过训练好的点云单模态检测模型对点云数据进行目标检测,并通过图像单模态检测模型对图像数据进行目标检测,可以提高目标检测结果的准确性,从而得到包含完整目标对象的准确性更高的包围框信息。
在步骤S103中,在确定出目标检测结果之后,就可以确定点云数据对应的目标特征信息和图像数据对应的目标特征信息。因此,针对步骤S103,可以描述为下述过程:
步骤S1031,根据点云数据的目标检测结果,确定点云数据所对应的几何特征信息和外观特征信息。
步骤S1032,根据图像数据的目标检测结果,确定图像数据所对应的几何特征信息和外观特征信息。
这里,步骤S1031和步骤S1032无先后顺序。可以同时执行步骤S1031和步骤S1032;还可以先执行步骤S1031,而后执行步骤S1032;或者先执行步骤S1032,而后执行步骤S1031。下面将具体介绍上述步骤S1031和步骤S1032。
针对S1032、可以通过下述过程确定图像数据所对应的几何特征信息,具体过程描述如下:
(1)、根据图像数据的目标检测结果,确定目标对象的包围框。
(2)、根据目标对象的包围框确定图像数据的几何特征信息。
在本公开实施例中,假设,图像数据中包含M个目标对象,那么图像数据的目标检测结果中包括M个目标对象的2D包围框。若每个2D包围框的包围框信息记为Ij,则M个2D包围框的包围框信息可以记为
Figure BDA0003233459660000131
其中,每个2D包围框的包围框信息可以表示为:Ij={xj1,yj1,xj2,yj2}。
此时,可以将每个2D包围框的包围框信息确定为图像数据所对应的几何特征信息。
这里,(xj1,yj1)和(xj2,yj2)分别表示在摄像装置的外参坐标系下,每个2D包围框的左上角和右下角在图像数据中的坐标信息。
针对S1031、根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息,具体过程描述如下:
(1)、将所述点云数据的目标检测结果投影至所述图像数据中,得到所述点云数据所对应的包围框的投影框。
(2)、根据所述投影框的顶点在所述图像数据中的像素坐标,确定所述点云数据的几何特征信息。
在通过点云单模态检测模型对点云数据进行目标检测之后,得到目标检测结果,假设,该目标检测结果中包括:N个目标对象的3D包围框,若每个3D包围框的包围盒信息记为Pi,则N个3D包围框的包围框信息可以记为
Figure BDA0003233459660000132
其中,每个3D包围框的包围框信息Pi={xi,yi,zi,hi,wi,li,θi}。
这里,xi,yi,zi表示3D包围框中心在激光雷达传感器坐标系上的坐标,hi,wi,li表示点云3D包围框的三维尺寸长宽高,θi表示点云3D包围盒在鸟瞰图上的朝向信息,即绕着激光雷达传感器坐标系Y轴的转角。
在获得点云数据的目标检测结果P之后,就可以根据摄像装置的外参坐标系,以及激光雷达传感器和摄像装置之间的标定关系,将上述点云数据所对应的目标检测结果投影至图像数据中,得到点云数据所对应的包围框的2D投影框
Figure BDA0003233459660000141
其中,
Figure BDA0003233459660000142
在本公开实施例中,在上述2D投影框
Figure BDA0003233459660000143
中,
Figure BDA0003233459660000144
为2D投影框的左上角和右下角在图像数据中的像素坐标。在得到2D投影框的坐标信息之后,可以将该坐标信息确定点云数据的几何特征信息。
需要说明的是,上述点云数据所对应的包围框的2D投影框的几何特征信息可以记为
Figure BDA0003233459660000145
其中,
Figure BDA0003233459660000146
此时,可以看出该几何特征信息
Figure BDA0003233459660000147
中的数据维度DG为4,即包括
Figure BDA0003233459660000148
中左上角点和右下角点的像素坐标,则上述点云数据所对应的包围框的2D投影框的几何特征信息的大小可以记为N×DG
同理可得,上述图像数据的2D包围框的几何特征信息可以记为
Figure BDA0003233459660000149
其中,
Figure BDA00032334596600001410
此时,可以看出该几何特征信息
Figure BDA00032334596600001411
中的数据维度DG为4,即包括
Figure BDA00032334596600001412
中左上角点和右下角点的像素坐标,则上述图像数据的几何特征的大小可以记为M×DG
这里需要说明的是,几何特征信息中包围框信息除了是左上角点和右下角点的像素坐标之外,还可以为左下角点和右上角点的像素坐标,本公开对此不作具体限定。
在本公开实施例中,上述几何特征信息还可以包含包围框的位置信息和/或尺寸信息。
这里,在按照上述所描述的方式确定出点云数据的几何特征信息和图像数据的几何特征信息之后,还可以将包围框的位置信息和/或尺寸信息扩充至几何特征信息中,此时,扩充之后的几何特征信息包括所述包围框的位置信息和/或尺寸信息。
下面,可以分为对图像数据的几何特征信息的扩充和对点云数据的几何特征信息的扩充两种情况来对几何特征信息的扩充过程进行介绍。
情况一:对图像数据的几何特征信息的扩充过程。
在本公开实施例中,在对上述图像数据的几何特征信息进行扩充时,可以将该2D包围框的中心点的像素坐标(xc,yc)扩充至上述
Figure BDA0003233459660000151
中,使得DG=6,则扩充后的
Figure BDA0003233459660000152
此外,还可以将该2D包围框的尺寸信息(h,w)也扩充至上述
Figure BDA0003233459660000153
中,使得DG=8,则扩充后的
Figure BDA0003233459660000154
其中,上述尺寸信息h、w分别为该2D包围框的高、宽的尺寸信息。
情况二:对点云数据的几何特征信息的扩充过程。
在本公开实施例中,在对上述点云数据的几何特征信息进行扩充时,可以将该2D投影框的中心点的像素坐标
Figure BDA0003233459660000155
扩充至上述
Figure BDA0003233459660000156
中,使得DG=6,则扩充后的
Figure BDA0003233459660000157
此外,还可以将该2D投影框的尺寸信息
Figure BDA0003233459660000158
也扩充至上述
Figure BDA0003233459660000159
中,使得DG=8,则扩充后的
Figure BDA00032334596600001510
其中,上述尺寸信息
Figure BDA00032334596600001511
分别为该2D投影框的高、宽的尺寸信息。
上述实施例中,通过将点云数据所对应的3D包围框投影至图像数据中,以得到2D投影框,可以实现数据格式的统一,从而能够快速的根据图像数据所对应的2D包围框和2D投影框之间的相对位置进行目标对象的匹配,进而得到相应的匹配结果。
上述实施例中,通过将包围框的位置信息和/或尺寸信息扩充至几何特征信息中,可以丰富几何特征信息,进一步提高了数据匹配的准确度。
针对S1032、在目标特征信息包括外观特征信息的情况下,根据图像数据的目标检测结果,确定所述图像数据对应的目标特征信息,具体过程描述如下:
(1)、确定所述图像数据中位于检测出的包围框内的目标图像数据。
(2)、提取所述目标图像数据的图像特征,并将提取到的所述图像特征确定为所述图像数据对应的外观特征信息。
在本公开实施例中,在图像数据中确定位于图像数据所对应的M个2D包围框
Figure BDA0003233459660000161
内的图像,并将确定出的图像进行裁剪得到目标图像数据;针对M个2D包围框,可以得到M个目标图像数据。之后,可以将裁剪下来的目标图像数据进行放缩,得到M个统一像素为r×r的RBG图像,放缩之后的目标图像数据可以表示为Image,其中,
Figure BDA0003233459660000162
放缩之后的目标图像数据Image用于表征各个像素点的像素值,且该放缩之后的目标图像数据Image的大小为r×r×3。在得到目标图像数据之后,可以将目标图像数据Image输入到预设的图像特征提取网络中,提取得到该目标图像数据的DA维的图像特征
Figure BDA0003233459660000163
然后根据该图像特征
Figure BDA0003233459660000164
得到该目标图像数据的外观特征信息
Figure BDA0003233459660000165
其中,该外观特征信息
Figure BDA0003233459660000166
可以表示为大小为M×DA的向量形式。需要说明的是,上述图像特征提取网络包括但不限于VGG-Net、ResNet、GoogleNet等能够实现上述图像特征提取的网络。
上述实施方式中,通过提取图像数据所对应的包围框内的目标图像数据的图像特征,可以实现在根据位置信息对包围框进行匹配的基础上,进一步根据外观特征信息校验位置相匹配的包围框内对象是否为同一个对象。通过上述处理方式,可以弥补由于图像数据和点云数据之间的弱同步所导致的匹配错误,从而提高了数据匹配的精度,进而提高了自动驾驶的安全系数。
针对S1031、在目标特征信息包括外观特征信息的情况下,步骤:根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息,具体过程描述如下:
(1)、确定所述点云数据中位于检测出的包围框内的目标点云数据;其中,所述目标点云数据包括:位于该包围框内目标点云的数量和/或所述目标点云在点云坐标系下的坐标信息。
(2)、基于所述目标点云数据,确定用于描述所述目标点云的整体特征的全局点云特征,并根据所述全局点云特征确定所述点云数据的外观特征信息。
在本公开实施例中,上述激光雷达传感器可以对扫描范围内的路况进行扫描,从而得到若干个用于表征采集范围内的物体特征的点云数据。在确定点云数据所对应的外观特征信息时,可以在点云数据中确定位于3D包围框内的目标点云数据,其中,目标点云数据包含位于该包围框内目标点云的数量L和/或目标点云在点云坐标系(也即,激光雷达坐标系)下的坐标信息C,其中C=3。
这里,可以将提取到的目标点云数据记为PC,其中
Figure BDA0003233459660000171
然后,将该目标点云数据输入到点云特征提取网络中,提取得到目标点云数据的DA维的全局点云特征
Figure BDA0003233459660000172
然后根据该全局点云特征
Figure BDA0003233459660000173
得到该点云数据的外观特征信息
Figure BDA0003233459660000174
其中,该外观特征信息
Figure BDA0003233459660000175
可以表示为大小为N×DA的向量形式。
需要说明的是,上述点云特征提取网络包括但不限于Pointnet、Pointnet++、PointSIFT等能够实现上述点云特征提取的提取网络。
上述实施方式中,通过提取点云数据所对应的包围框内的目标点云数据的全局点云特征,可以实现在根据位置信息对包围框进行匹配的基础上,进一步根据外观特征信息校验位置相匹配的包围框内对象是否为同一个对象。通过上述处理方式,可以弥补由于图像数据和点云数据之间的弱同步所导致的匹配错误,从而提高了数据匹配的精度,进而提高了自动驾驶的安全系数。
针对步骤S105,根据所述目标特征信息,对基于所述点云数据确定的包围框和基于所述图像数据确定的包围框进行匹配,具体过程描述如下:
(1)、对所述图像数据的目标特征信息和所述点云数据的目标特征信息进行相关性计算,得到相关性计算结果,得到相关性计算结果。
(2)、根据所述相关性计算结果确定所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果。
在本公开实施例中,在确定出目标特征信息之后,可以按照预设相关性算法对图像数据的目标特征信息和点云数据的目标特征信息进行相关性计算,得到相关性计算结果。
假设,图像数据的目标特征信息中包含M个2D包围框所对应的特征信息,点云数据的目标特征信息中包含N个3D包围框所对应的特征信息。此时,相关性计算结果可以理解为M个2D包围框所对应的特征信息中的每个特征信息与N个3D包围框所对应的特征信息中各个特征信息之间的相关性。
在得到上述相关性计算结果之后,可以根据该相关性计算结果确定基于点云数据所确定的包围框和基于图像数据所确定的包围框之间的匹配结果。
具体的,该匹配结果表征基于点云数据确定的包围框和基于图像数据确定的包围框是否匹配,其中,该匹配结果可以为一个N*M的匹配矩阵。当该匹配矩阵内的元素为1时,表征两个包围框为匹配的包围框,当该匹配矩阵内的元素为0时,表征两个包围框不是相互匹配的包围框。
上述实施方式中,通过结合几何图像信息和外观特征信息,对点云数据目标特征信息和图像数据的目标特征信息进行相关性计算,可以准确的确定出M个2D包围框所对应的特征信息中的每个特征信息与N个3D包围框所对应的特征信息中各个特征信息之间的相关性,从而在根据相关性计算结果对包围框进行匹配时,得到提高包围框的匹配准确度。
在本公开实施例中,上述步骤中:对所述图像数据的目标特征信息和所述点云数据的目标特征信息进行相关性计算,得到相关性计算结果,得到相关性计算结果,具体过程描述如下:
(1)、对所述图像数据对应的几何特征信息和所述图像数据对应的外观特征信息进行拼接,得到目标图像特征。
(2)、对所述点云数据对应的几何特征信息和所述点云数据对应的外观特征信息进行拼接,得到目标点云特征。
(3)、对所述目标图像特征和所述目标点云特征进行相关性运算,得到所述相关性计算结果。
在本公开实施例中,可以对上述图像数据的几何特征信息和该图像数据的外观特征信息进行拼接,从而得到该图像数据的目标图像特征。例如,可以将大小为M×DA外观特征向量
Figure BDA0003233459660000191
(图像数据的外观特征信息)和大小为M×DG的几何特征向量
Figure BDA0003233459660000192
(图像数据的几何特征信息)进行拼接,从而得到大小为M×(DA+DG)的图像特征向量Fimg,即上述目标图像特征。在本公开实施例中,可以对上述点云数据的几何特征信息和该点云数据的外观特征信息进行拼接,从而得到该点云数据的目标点云特征。例如,可以将大小为N×DA外观特征向量
Figure BDA0003233459660000193
(点云数据的外观特征信息)和大小为N×DG的几何特征向量Fpc(点云数据的几何特征信息)进行拼接,从而得到大小为N×(DA+DG)的点云数据的点云特征向量Fpc,即上述目标点云特征。之后,可以通过预设相关性算法,对目标图像特征和目标点云特征进行相关性运算。例如,可以通过预设相关性算法对上述图像特征向量Fimg和图像特征向量Fpc进行计算,得到N×M×(DA+DG)的相关性矩阵Fcorrelation(也即,上述相关性计算结果)。
在一种可选的实施方式中,在根据预设相关性算法可以为如下任意一个计算公式所对应的算法:
Figure BDA0003233459660000194
Figure BDA0003233459660000195
Figure BDA0003233459660000196
Figure BDA0003233459660000197
Figure BDA0003233459660000198
上述实施方式中,通过将几何特征信息和外观特征信息进行拼接,得到相应的目标图像特征和目标点云特征,再对目标图像特征和目标点云特征进行相关性计算,从而根据相关性计算结果确定包围框的匹配结果的方式,可以弥补由于图像数据和点云数据之间的弱同步所导致的匹配错误,从而提高了数据匹配的精度,进而提高了自动驾驶的安全系数。
在本公开实施例中,上述步骤中:根据所述相关性计算结果确定所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果,具体过程描述如下:
(1)、对所述相关性计算结果进行卷积计算,得到相似度矩阵,其中,所述相似度矩阵用于表征所述点云数据中的包围框和所述图像数据中的包围框之间的相似程度。
(2)、对所述相似度矩阵进行取反计算,得到匹配代价矩阵。
(3)、对所述匹配代价矩阵进行二分图匹配处理,得到所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果。
在本公开实施例中,在得到相关性计算结果之后,可以将上述相关性计算结果(也即,相关性矩阵Fcorrelation)输入到若干个二维卷积网络中进行卷积计算,得到一个大小为N×M×1的相似度矩阵。其中,该相似度矩阵中的每个元素表示:N个3D包围框中的每个3D包围框与M个2D包围框中各个2D包围框之间的相似程度。
这里,相似程度包含:基于几何特征信息确定的出相似程度,还包含基于外观特征信息确定出的相似程度。
例如,第n个3D包围框与第m个2D包围框的几何特征信息相似程度较高,且第n个3D包围框与第m个2D包围框所框选对象的外观特征信息的相似程度较高,则可以确定出第n个3D包围框与第m个2D包围框为相互匹配的包围框。
在得到相似矩阵之后,可以对相似度矩阵进行取反计算,得到匹配代价矩阵;进而,对匹配代价矩阵进行二分图匹配处理,得到点云数据中的包围框和图像数据中的包围框之间的匹配结果。
假设两个单模态的检测结果之间(即,图像数据的目标检测结果和点云数据的目标检测结果),每个检测结果最多只能构成一个匹配,而同一模态下的检测结果互不相同。
这里,每个检测结果最多只能构成一个匹配可以理解为:基于图像数据确定的一个2D包围框最多能够匹配到一个基于点云数据确定的3D包围框。
此时,可以将两个单模态检测结果的匹配问题当成二分图匹配问题。具体地,在一个无向图当中,图像数据的目标检测结果和点云数据的目标检测结果可以分成两个子集,例如,图像数据的目标检测结果作为一个子集,点云数据的目标检测结果作为另外一个子集。在每个子集中包含多个顶点,每个顶点对应一个包围框,且每个子集当中的顶点各自互不相交,并且无向图中的所有边关联的顶点都属于两个不同的集合。对于二分图而言,构成的匹配数量可以是不同的,而匹配目标是使得两个子集尽可能准确地两两匹配。因此通过匹配算法,将相似度矩阵逐个取反后作为匹配代价矩阵,然后设置匹配阈值δ,匹配代价高于δ不参与匹配,进而计算出最终的多模态匹配矩阵(即,点云数据中的包围框和所述图像数据中的包围框之间的匹配结果)。
需要说明的是,上述所描述的匹配算法包括但不限于匈牙利匹配算法、Kuhn-Munkres匹配算法。
上述实施方式中,可以通过对上述相关性计算结果进行卷积、取反和二分图匹配处理等操作,可以提高匹配结果的处理效率,并得到准确度较高的匹配结果。
在弱同步多模态数据集下,针对几何特征信息来说,由于是通过2D包围框和3D包围框的投影框的位置信息来进行对象的匹配,因此几何特征信息也会出现弱同步问题。特别是,对于小物体而言,几何特征信息的偏差会导致匹配效果的严重下降,因此现有常用IOU相似度矩阵匹配算法并不能解决弱同步下的多模态匹配问题。而外观特征信息始终是跟随3D框和2D框内的对象进行特征提取到的,因此,外观特征信息不会受到弱同步问题的影响,因此外观特征信息有助于修正弱同步带来的误差。
综上分析,本公开实施例提出的数据匹配方法可以同时适用于强同步和弱同步情况下的多对多的多模态数据的匹配过程。
在本公开实施例中,如图2所示,还提供了另一种数据匹配方法的流程示意图,该方法具体描述如下:
(1)、确定目标检测结果。
通过摄像装置采集待匹配的图像数据;并通过图像单模态检测模型对图像数据进行检测,得到目标检测结果A1,其中,目标检测结果A1中包含图像数据中所包含的M个对象的2D包围框
Figure BDA0003233459660000221
通过激光雷达传感器采集待匹配的点云数据;并通过点云单模态检测模型对点云数据进行检测,得到目标检测结果A2,其中,目标检测结果A2中包含点云数据中所感知到的N个对象的3D包围框
Figure BDA0003233459660000222
(2)、根据目标检测结果A1确定图像数据所对应的目标特征信息。
将M个对象的2D包围框
Figure BDA0003233459660000223
的位置信息确定为图像数据所对应的目标特征信息中的几何特征信息。在图像数据中确定位于每个2D包围框内的目标图像数据,并通过图像特征提取网络提取上述目标图像数据的图像特征,将提取到的上述图像特征确定为上述图像数据所对应的目标特征信息中的外观特征信息M×DA
(3)、根据目标检测结果A2确定点云数据所对应的目标特征信息。
将点云数据所对应的目标检测结果投影至图像数据中,得到点云数据所对应的3D包围框的投影框;根据投影框的顶点在图像数据中的像素坐标,确定点云数据的几何特征信息。
在点云数据中确定位于检测出的3D包围框内的目标点云数据;其中,所述目标点云数据包括:位于该3D包围框内目标点云的数量和/或目标点云在点云坐标系下的坐标信息;基于目标点云数据,确定用于描述目标点云的整体特征的全局点云特征,并根据全局点云特征确定点云数据的外观特征信息。
(4)相关性计算。
对图像数据对应的几何特征信息和图像数据对应的外观特征信息进行拼接,得到目标图像特征;对点云数据对应的几何特征信息和点云数据对应的外观特征信息进行拼接,得到目标点云特征;对目标图像特征和目标点云特征进行相关性运算,得到相关性计算结果。
(5)、数据匹配过程。
对上述相关性计算结果进行卷积计算,得到相似度矩阵N×M×1;对上述相似度矩阵进行取反计算,得到匹配代价矩阵N×M;对上述匹配代价矩阵进行二分图匹配处理,得到上述点云数据中的包围框和上述图像数据中的包围框之间的匹配结果,其中,该匹配结果可以为大小是N×M的匹配矩阵。
通过上述描述可知,在本公开实施例中,针对摄像装置和激光雷达传感器由于响应延迟或复杂道路状况出现的弱同步情况,提出了一种数据匹配方法,该方法利用点云单模态检测模型和图像单模态检测模型预测得到的包围框,先获取点云数据所对应的3D包围框的投影2D包围框与图像数据所对应的2D包围框的几何特征信息,再通过点云特征提取网络和图像特征提取网络提取出相应包围框内的外观特征信息,最后由几何特征信息和外观特征信息的联合特征,预测出点云数据的目标检测结果与图像数据的目标检测结果的相似度矩阵。
在本公开实施例中,在通过训练好的单模态检测模型对所述点云数据和图像数据分别进行目标检测,得到所述点云数据的目标检测结果和所述图像数据的目标检测结果之前,还需要根据以下步骤训练所述单模态检测模型:
(1)、确定包含多个训练样本的训练样本集;其中,每个训练样本中包含:携带有样本标签的样本图像数据和样本点云数据。
(2)、通过待训练的单模态检测模型对所述训练样本集进行目标检测,得到样本目标检测结果。
(3)、根据所述样本目标检测结果和所述样本标签,确定标签匹配矩阵。
(4)、根据所述标签匹配矩阵计算目标损失函数的函数值,并根据所述目标损失函数的函数值调整所述单模态检测模型的模型参数,直至达到预设条件,得到训练完成的所述单模态检测模型。
在本公开实施例中,在对单模态检测模型进行训练时,首先需要构建包含多个训练样本的训练样本集,即包含样本标签的样本图像数据或者样本点云数据的样本合集。
在本公开实施例中,可以通过将上述训练样本集输入到该待训练的单模态检测模型中的方式,训练上述单模态检测模型对上述点云数据和图像数据中的样本标签分别进行识别,从而得到样本目标检测结果。
在得到样本目标检测结果之后,可以根据样本标签和样本目标检测结果确定标签匹配矩阵。进而,根据标签匹配矩阵计算目标损失函数,并根据目标损失函数调整所述单模态检测模型的模型参数,直至达到预设条件,得到训练完成的所述单模态检测模型,其中,上述预设条件可以为单模态检测模型训练次数满足预设次数要求,和/或,该单模态检测模型的训练精度满足预设精度要求。
需要说明的是,目标损失函数包括但不限于均方误差损失(MSE)、绝对误差损失(MAE)、交叉熵损失(BCE)等能够实现上述单模态检测模型训练的算法。
通过上述描述可知,单模态检测模型包含点云单模态检测模型和图像单模态检测模型。在对点云单模态检测模型和图像单模态检测模型进行训练时,可以基于包含样本图像数据的样本训练集对图像单模态检测模型进行训练,并基于包含样本点云数据的样本训练集对点云单模态检测模型进行训练,具体训练过程如上所述,此处不再分开描述。
上述实施方式中,通过上述所描述的方式对单模态检测模型进行训练,可以得到处理精度满足精度要求的单模态检测模型,在根据该单模态检测模型进行目标检测时,可以提高目标检测结果的准确性,从而提高数据匹配的准确率。
在本公开实施例中,如图3所示,上述步骤:根据所述样本目标检测结果和所述样本标签,确定标签匹配矩阵,具体过程描述如下:
(1)、计算所述样本目标检测结果中样本图像数据对应的至少一个预测包围框和所述样本标签中样本图像数据对应的标注包围框之间的交并比,得到第一交并比值;并根据所述第一交并比值对所述至少一个预测包围框进行筛选,得到目标预测包围框。
具体地,在本公开实施例中,可以将训练样本所包含的样本图像数据输入至图像单模态检测模型中,得到包含至少一个预测包围框的样本目标检测结果,其中,至少一个预测包围框又可以称为预测2D包围框。
之后,计算每个预测2D包围框和样本图像数据中各个标注包围框之间的交并比IOU(Intersection Over Union),得到多个第一交并比值;然后,根据多个第一交并比值对至少一个预测包围框进行筛选,得到目标预测包围框,具体筛选过程描述如下:
首先,针对每个预测2D包围框来说,判断多个第一交并比值中是否满足大于或者等于预设阈值的交并比值。若判断出包含,则将该预测2D包围框确定为目标预测包围框。此时,可以在多个第一交并比值中确定最大交并比值所对应的标注包围框,并将该标注包围框确定为与该预测2D包围框相匹配的包围框。若确定出不包含,则舍弃该预测2D包围框。
(2)、计算所述样本目标检测结果中样本点云数据对应的至少一个预测包围盒和所述样本标签中样本点云数据对应的标注包围盒之间的交并比,得到第二交并比值;并根据所述第二交并比值对所述至少一个预测包围盒进行筛选,得到目标预测包围盒。
具体地,在本公开实施例中,可以将训练样本所包含的样本点云数据输入至点云单模态检测模型中,得到包含至少一个预测包围盒的样本目标检测结果,其中,至少一个预测包围盒又可以称为预测3D包围盒。
之后,计算每个预测3D包围盒和样本点云数据中各个标注包围盒之间的交并比IOU(Intersection Over Union),得到多个第二交并比值;然后,根据多个第二交并比值对至少一个预测包围盒进行筛选,得到目标预测包围盒,具体筛选过程描述如下:
首先,针对每个预测3D包围盒来说,判断多个第二交并比值中是否满足大于或者等于预设阈值的交并比值。若判断出包含,则将该预测3D包围盒确定为目标预测包围盒。此时,可以在多个第二交并比值中确定最大交并比值所对应的标注包围盒,并将该标注包围盒确定为与该预测3D包围盒相匹配的包围盒。若确定出不包含,则舍弃该预测3D包围盒。
(3)、将所述目标预测包围框和所述目标预测包围盒进行匹配,得到标签匹配结果,并根据所述标签匹配结果确定所述标签匹配矩阵。
在确定出目标预测包围框和目标预测包围盒之后,将目标预测包围框和目标预测包围盒中对应相同对象的目标预测包围盒和目标预测包围框作为一个标签匹配对;并将标签匹配矩阵对应的位置设为1,而不匹配的位置为0,从而得到一个标签匹配矩阵。
上述实施方式中,通过上述处理方式,可以将准确的将预测包围框和预测包围盒进行匹配,得到标签匹配矩阵;在根据该标签匹配矩阵确定目标损失函数的函数值时,可以得到准确的函数值,从而提高单模态检测模型的训练精度。
在本公开实施例中,确定包含多个训练样本的训练样本集,具体过程描述如下:
(1)、获取目标跟踪数据序列,其中,所述目标跟踪数据序列中包含在各个跟踪时刻获取到的图像数据和点云数据。
(2)、在所述目标跟踪数据序列中确定至少一个数据组合,其中,每个所述数据组合包括:目标图像数据和目标点云数据;所述目标图像数据的第一跟踪时刻和所述目标点云数据的第二跟踪时刻不相同,且所述第一跟踪时刻和所述第二跟踪时刻之间的时间间隔为预设间隔。
(3)、将每个所述数据组合中的数据作为每个训练样本中的数据。
在本公开实施例中,首先分别获取包含图像数据和点云数据的目标跟踪数据序列,其中,上述目标跟踪数据序列中包含足够用于跟踪以及训练上述单模态检测模型的数据。
在本公开实施例中,首先,在同一个目标跟踪数据序列里,选取第一跟踪时刻的目标图像数据imagek,然后根据预设间隔,间隔若干帧确定出第二跟踪时刻并选取该时刻的目标点云数据PCk+n,其构建原理为弱同步的传递性,当前帧的目标图像数据imagek与间隔若干帧的图像数据imagek+n会出现时空的弱同步,则图像数据imagek+n对应的强同步目标点云数据PCk+n也会与目标图像数据imagek产生时空弱同步。
在本公开实施例中,将上述目标图像数据imagek和目标点云数据PCk+n分别确定为训练样本中的样本图像数据和样本点云数据。
上述实施方式中,本公开技术方案提出了一种构建点云与图像弱同步多模态数据集的方法,通过该方法可以模拟自动驾驶实际场景可能出现的弱同步情况,在通过该训练样本集训练单模态检测模型时,就可以使得训练之后的单模态检测模型能够适应多模态数据集的弱同步场景。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
基于同一发明构思,本公开实施例中还提供了与数据匹配方法对应的数据匹配装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述数据匹配方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
参照图4所示,为本公开实施例提供的一种数据匹配装置的示意图,所述装置包括:获取模块41、确定模块42、匹配模块43;其中,
获取模块41,用于分别对待匹配的点云数据和图像数据进行检测,得到所述点云数据的目标检测结果和图像数据的目标检测结果;其中,所述目标检测结果包括检测出的目标对象的包围框信息;
确定模块42:用于根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息;根据所述图像数据的目标检测结果,确定所述图像数据对应的目标特征信息;所述目标特征信息包括检测出的目标对象的包围框的几何特征信息,以及所述包围框内的目标对象的外观特征信息;
匹配模块43:用于根据所述目标特征信息,对基于所述点云数据确定的包围框和基于所述图像数据确定的包围框进行匹配。
本公开实施例中,通过结合图像数据和点云数据进行目标检测的方式,可以通过点云数据弥补图像数据容易受到光照和遮挡影响的缺陷,同时通过图像数据可以弥补点云数据稀疏以及无纹理的缺陷。因此,将图像数据和点云数据进行结合来检测3D目标,可以提高3D目标的检测准确性,进而得到更加准确的目标检测结果。
一种可能的实施方式中,确定模块42,还用于:将所述点云数据的目标检测结果投影至所述图像数据中,得到所述点云数据的包围框的投影框;根据所述投影框的顶点在所述图像数据中的像素坐标,确定所述点云数据的几何特征信息。
一种可能的实施方式中,所述几何特征信息包括所述包围框的位置信息和/或尺寸信息。
一种可能的实施方式中,确定模块42,还用于:确定所述图像数据中位于检测出的包围框内的目标图像数据;提取所述目标图像数据的图像特征,并将提取到的所述图像特征确定为所述图像数据对应的外观特征信息。
一种可能的实施方式中,确定模块42,还用于:确定所述点云数据中位于检测出的包围框内的目标点云数据;其中,所述目标点云数据包括:位于该包围盒内目标点云的数量和/或所述目标点云在点云坐标系下的坐标信息;基于所述目标点云数据,确定用于描述所述目标点云的整体特征的全局点云特征,并根据所述全局点云特征确定所述点云数据对应的外观特征信息。
一种可能的实施方式中,匹配模块43,还用于:对所述图像数据的目标特征信息和所述点云数据的目标特征信息进行相关性计算,得到相关性计算结果,得到相关性计算结果;根据所述相关性计算结果确定所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果。
一种可能的实施方式中,匹配模块43,还用于:对所述图像数据对应的几何特征信息和所述图像数据对应的外观特征信息进行拼接,得到目标图像特征;对所述点云数据对应的几何特征信息和所述点云数据对应的外观特征信息进行拼接,得到目标点云特征;对所述目标图像特征和所述目标点云特征进行相关性运算,得到所述相关性计算结果。
一种可能的实施方式中,匹配模块43,还用于:对所述相关性计算结果进行卷积计算,得到相似度矩阵,其中,所述相似度矩阵用于表征所述点云数据中的包围框和所述图像数据中的包围框之间的相似程度;对所述相似度矩阵进行取反计算,得到匹配代价矩阵;对所述匹配代价矩阵进行二分图匹配处理,得到所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果。
一种可能的实施方式中,匹配模块43,还用于:通过训练好的单模态检测模型分别对所述点云数据和所述图像数据进行目标检测,得到所述点云数据的目标检测结果和所述图像数据的目标检测结果。
一种可能的实施方式中,该装置,还用于:根据以下步骤训练所述单模态检测模型:确定包含多个训练样本的训练样本集;其中,每个训练样本中包含:携带有样本标签的样本图像数据和样本点云数据;通过待训练的单模态检测模型对所述训练样本集进行目标检测,得到样本目标检测结果;根据所述样本目标检测结果和所述样本标签,确定标签匹配矩阵;根据所述标签匹配矩阵计算目标损失函数,并根据所述目标损失函数调整所述单模态检测模型的模型参数,直至达到预设条件,得到训练完成的所述单模态检测模型。
一种可能的实施方式中,该装置,还用于:计算所述样本目标检测结果中样本图像数据对应的至少一个预测包围框和所述样本标签中样本图像数据对应的标注包围框之间的交并比,得到第一交并比值;并根据所述第一交并比值对所述至少一个预测包围框进行筛选,得到目标预测包围框;计算所述样本目标检测结果中样本点云数据对应的至少一个预测包围盒和所述样本标签中样本点云数据对应的标注包围盒之间的交并比,得到第二交并比值;并根据所述第二交并比值对所述至少一个预测包围盒进行筛选,得到目标预测包围盒;将所述目标预测包围框和所述目标预测包围盒进行匹配,得到标签匹配结果,并根据所述标签匹配结果确定所述标签匹配矩阵。
一种可能的实施方式中,该装置,还用于:获取目标跟踪数据序列,其中,所述目标跟踪数据序列中包含在各个跟踪时刻获取到的图像数据和点云数据;在所述目标跟踪数据序列中确定至少一个数据组合,其中,每个所述数据组合包括:目标图像数据和目标点云数据;所述目标图像数据的第一跟踪时刻和所述目标点云数据的第二跟踪时刻不相同,且所述第一跟踪时刻和所述第二跟踪时刻之间的时间间隔为预设间隔;将每个所述数据组合中的数据作为每个训练样本中的数据。
关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。
对应于图1中的数据匹配方法,本公开实施例还提供了一种电子设备500,如图5所示,为本公开实施例提供的电子设备500结构示意图,包括:
处理器51、存储器52、和总线53;存储器52用于存储执行指令,包括内存521和外部存储器522;这里的内存521也称内存储器,用于暂时存放处理器51中的运算数据,以及与硬盘等外部存储器522交换的数据,处理器51通过内存521与外部存储器522进行数据交换,当所述电子设备500运行时,所述处理器51与所述存储器52之间通过总线53通信,使得所述处理器51执行以下指令:
分别对待匹配的点云数据和图像数据进行检测,得到所述点云数据的目标检测结果和图像数据的目标检测结果;其中,所述目标检测结果包括检测出的目标对象的包围框信息;根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息;根据所述图像数据的目标检测结果,确定所述图像数据对应的目标特征信息;所述目标特征信息包括检测出的目标对象的包围框的几何特征信息,以及所述包围框内的目标对象的外观特征信息;根据所述目标特征信息,对基于所述点云数据确定的包围框和基于所述图像数据确定的包围框进行匹配。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的***、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。

Claims (15)

1.一种数据匹配方法,其特征在于,包括:
分别对待匹配的点云数据和图像数据进行检测,得到所述点云数据的目标检测结果和图像数据的目标检测结果;其中,所述目标检测结果包括检测出的目标对象的包围框信息;
根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息;根据所述图像数据的目标检测结果,确定所述图像数据对应的目标特征信息;所述目标特征信息包括检测出的目标对象的包围框的几何特征信息,以及所述包围框内的目标对象的外观特征信息;
根据所述目标特征信息,对基于所述点云数据确定的包围框和基于所述图像数据确定的包围框进行匹配。
2.根据权利要求1所述的方法,其特征在于,所述根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息,包括:
将所述点云数据的目标检测结果投影至所述图像数据中,得到所述点云数据所对应的包围框的投影框;
根据所述投影框的顶点在所述图像数据中的像素坐标,确定所述点云数据的几何特征信息。
3.根据权利要求1或2所述的方法,其特征在于,所述几何特征信息包括所述包围框的位置信息和/或尺寸信息。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述根据所述图像数据的目标检测结果,确定所述图像数据对应的目标特征信息,包括:
确定所述图像数据中位于检测出的包围框内的目标图像数据;
提取所述目标图像数据的图像特征,并将提取到的所述图像特征确定为所述图像数据对应的外观特征信息。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息,包括:
确定所述点云数据中位于检测出的包围框内的目标点云数据;其中,所述目标点云数据包括:位于该包围盒内目标点云的数量和/或所述目标点云在点云坐标系下的坐标信息;
基于所述目标点云数据,确定用于描述所述目标点云的整体特征的全局点云特征,并根据所述全局点云特征确定所述点云数据对应的外观特征信息。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述根据所述目标特征信息,对基于所述点云数据确定的包围框和基于所述图像数据确定的包围框进行匹配,包括:
对所述图像数据的目标特征信息和所述点云数据的目标特征信息进行相关性计算,得到相关性计算结果;
根据所述相关性计算结果确定所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果。
7.根据权利要求6所述的方法,其特征在于,所述对所述图像数据的目标特征信息和所述点云数据的目标特征信息进行相关性计算,得到相关性计算结果,包括:
对所述图像数据对应的几何特征信息和所述图像数据对应的外观特征信息进行拼接,得到目标图像特征;
对所述点云数据对应的几何特征信息和所述点云数据对应的外观特征信息进行拼接,得到目标点云特征;
对所述目标图像特征和所述目标点云特征进行相关性运算,得到所述相关性计算结果。
8.根据权利要求6或7所述的方法,其特征在于,所述根据所述相关性计算结果确定所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果,包括:
对所述相关性计算结果进行卷积计算,得到相似度矩阵,其中,所述相似度矩阵用于表征所述点云数据中的包围框和所述图像数据中的包围框之间的相似程度;
对所述相似度矩阵进行取反计算,得到匹配代价矩阵;
对所述匹配代价矩阵进行二分图匹配处理,得到所述点云数据中的包围框和所述图像数据中的包围框之间的匹配结果。
9.根据权利要求1至8中任一项所述的方法,其特征在于,所述分别对待匹配的点云数据和图像数据进行检测,得到所述点云数据的目标检测结果和图像数据的目标检测结果,包括:
通过训练好的单模态检测模型分别对所述点云数据和所述图像数据进行目标检测,得到所述点云数据的目标检测结果和所述图像数据的目标检测结果。
10.根据权利要求9所述的方法,其特征在于,根据以下步骤训练所述单模态检测模型:
确定包含多个训练样本的训练样本集;其中,每个训练样本中包含:携带有样本标签的样本图像数据或者样本点云数据;
通过待训练的单模态检测模型对所述训练样本集进行目标检测,得到样本目标检测结果;
根据所述样本目标检测结果和所述样本标签,确定标签匹配矩阵;
根据所述标签匹配矩阵计算目标损失函数的函数值,并根据所述目标损失函数的函数值调整所述单模态检测模型的模型参数,直至达到预设条件,得到训练完成的所述单模态检测模型。
11.根据权利要求10所述的方法,其特征在于,所述根据所述样本目标检测结果和所述样本标签,确定标签匹配矩阵包括:
计算所述样本目标检测结果中样本图像数据对应的至少一个预测包围框和所述样本标签中样本图像数据对应的标注包围框之间的交并比,得到第一交并比值;并根据所述第一交并比值对所述至少一个预测包围框进行筛选,得到目标预测包围框;
计算所述样本目标检测结果中样本点云数据对应的至少一个预测包围盒和所述样本标签中样本点云数据对应的标注包围盒之间的交并比,得到第二交并比值;并根据所述第二交并比值对所述至少一个预测包围盒进行筛选,得到目标预测包围盒;
将所述目标预测包围框和所述目标预测包围盒进行匹配,得到标签匹配结果,并根据所述标签匹配结果确定所述标签匹配矩阵。
12.根据权利要求10至11所述的方法,其特征在于,所述确定包含多个训练样本的训练样本集,包括:
获取目标跟踪数据序列,其中,所述目标跟踪数据序列中包含在各个跟踪时刻获取到的图像数据和点云数据;
在所述目标跟踪数据序列中确定至少一个数据组合,其中,每个所述数据组合包括:目标图像数据和目标点云数据;所述目标图像数据的第一跟踪时刻和所述目标点云数据的第二跟踪时刻不相同,且所述第一跟踪时刻和所述第二跟踪时刻之间的时间间隔为预设间隔;
将每个所述数据组合中的数据作为每个训练样本中的数据。
13.一种数据匹配装置,其特征在于,包括:
获取模块:用于分别对待匹配的点云数据和图像数据进行检测,得到所述点云数据的目标检测结果和图像数据的目标检测结果;其中,所述目标检测结果包括检测出的目标对象的包围框信息;
确定模块:用于根据所述点云数据的目标检测结果,确定所述点云数据对应的目标特征信息;根据所述图像数据的目标检测结果,确定所述图像数据对应的目标特征信息;所述目标特征信息包括检测出的目标对象的包围框的几何特征信息,以及所述包围框内的目标对象的外观特征信息;
匹配模块:用于根据所述目标特征信息,对基于所述点云数据确定的包围框和基于所述图像数据确定的包围框进行匹配。
14.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至12任意一项所述的数据匹配方法的步骤。
15.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至12任意一项所述的数据匹配方法的步骤。
CN202110994415.5A 2021-08-27 2021-08-27 一种数据匹配方法、装置、电子设备以及存储介质 Pending CN113705669A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110994415.5A CN113705669A (zh) 2021-08-27 2021-08-27 一种数据匹配方法、装置、电子设备以及存储介质
PCT/CN2022/075419 WO2023024443A1 (zh) 2021-08-27 2022-02-07 数据匹配方法及装置、电子设备、存储介质和程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110994415.5A CN113705669A (zh) 2021-08-27 2021-08-27 一种数据匹配方法、装置、电子设备以及存储介质

Publications (1)

Publication Number Publication Date
CN113705669A true CN113705669A (zh) 2021-11-26

Family

ID=78655867

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110994415.5A Pending CN113705669A (zh) 2021-08-27 2021-08-27 一种数据匹配方法、装置、电子设备以及存储介质

Country Status (2)

Country Link
CN (1) CN113705669A (zh)
WO (1) WO2023024443A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114241011A (zh) * 2022-02-22 2022-03-25 阿里巴巴达摩院(杭州)科技有限公司 目标检测方法、装置、设备及存储介质
CN114310875A (zh) * 2021-12-20 2022-04-12 珠海格力智能装备有限公司 一种曲轴定位识别方法、装置、存储介质和设备
WO2023024443A1 (zh) * 2021-08-27 2023-03-02 上海商汤智能科技有限公司 数据匹配方法及装置、电子设备、存储介质和程序产品

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117894015B (zh) * 2024-03-15 2024-05-24 浙江华是科技股份有限公司 点云标注数据优选方法及***

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102091580B1 (ko) * 2019-07-09 2020-03-20 주식회사 모빌테크 이동식 도면화 시스템을 이용한 도로 표지 정보 수집 방법
CN110675431B (zh) * 2019-10-08 2020-09-11 中国人民解放军军事科学院国防科技创新研究院 一种融合图像和激光点云的三维多目标跟踪方法
CN110988912B (zh) * 2019-12-06 2022-12-02 青岛慧拓智能机器有限公司 自动驾驶车辆的道路目标与距离检测方法、***、装置
CN113705669A (zh) * 2021-08-27 2021-11-26 上海商汤临港智能科技有限公司 一种数据匹配方法、装置、电子设备以及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023024443A1 (zh) * 2021-08-27 2023-03-02 上海商汤智能科技有限公司 数据匹配方法及装置、电子设备、存储介质和程序产品
CN114310875A (zh) * 2021-12-20 2022-04-12 珠海格力智能装备有限公司 一种曲轴定位识别方法、装置、存储介质和设备
CN114310875B (zh) * 2021-12-20 2023-12-05 珠海格力智能装备有限公司 一种曲轴定位识别方法、装置、存储介质和设备
CN114241011A (zh) * 2022-02-22 2022-03-25 阿里巴巴达摩院(杭州)科技有限公司 目标检测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
WO2023024443A1 (zh) 2023-03-02

Similar Documents

Publication Publication Date Title
US11450063B2 (en) Method and apparatus for training object detection model
CN113705669A (zh) 一种数据匹配方法、装置、电子设备以及存储介质
CN109960742B (zh) 局部信息的搜索方法及装置
US20160063754A1 (en) System and Method for Detecting a Structural Opening in a Three Dimensional Point Cloud
US20190303650A1 (en) Automatic object recognition method and system thereof, shopping device and storage medium
CN110675487A (zh) 基于多角度二维人脸的三维人脸建模、识别方法及装置
WO2021114776A1 (en) Object detection method, object detection device, terminal device, and medium
JP5833507B2 (ja) 画像処理装置
JP2016179534A (ja) 情報処理装置、情報処理方法、プログラム
Pound et al. A patch-based approach to 3D plant shoot phenotyping
AliAkbarpour et al. Fast structure from motion for sequential and wide area motion imagery
CN112927353A (zh) 基于二维目标检测和模型对齐的三维场景重建方法、存储介质及终端
CN112200056A (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN114677435A (zh) 一种点云全景融合要素提取方法和***
CN114332473A (zh) 目标检测方法、装置、计算机设备、存储介质及程序产品
CN116402976A (zh) 三维目标检测模型训练方法及装置
Vong et al. How to build a 2d and 3d aerial multispectral map?—all steps deeply explained
CN111160450A (zh) 一种基于神经网络的果蔬称重方法及储存介质、装置
Keyvanfar et al. Performance comparison analysis of 3D reconstruction modeling software in construction site visualization and mapping
CN110458177B (zh) 图像深度信息的获取方法、图像处理装置以及存储介质
CN116309817A (zh) 一种基于rgb-d相机的托盘检测与定位方法
CN113160414B (zh) 货物余量自动识别方法、装置、电子设备以及计算机可读介质
WO2021114775A1 (en) Object detection method, object detection device, terminal device, and medium
CN113096104A (zh) 目标分割模型的训练方法及装置和目标分割方法及装置
CN113378864A (zh) 一种锚框参数的确定方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40056762

Country of ref document: HK