CN113808186A - 训练数据生成方法、装置与电子设备 - Google Patents
训练数据生成方法、装置与电子设备 Download PDFInfo
- Publication number
- CN113808186A CN113808186A CN202110238897.1A CN202110238897A CN113808186A CN 113808186 A CN113808186 A CN 113808186A CN 202110238897 A CN202110238897 A CN 202110238897A CN 113808186 A CN113808186 A CN 113808186A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- frame
- projection
- labeling
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 95
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000002372 labelling Methods 0.000 claims abstract description 263
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 27
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/40—Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Image Analysis (AREA)
Abstract
本公开提供一种训练数据生成方法、装置与电子设备。训练数据生成方法包括:获取目标图像对应的目标三维点云数据,所述目标三维点云数据包括多个物体的三维标注框以及每个所述三维标注框对应的标注结果;获取在所述目标图像的识别范围内的第一三维标注框;对同一物体的两个或多个所述第一三维标注框进行处理,获得同一物体预设数量的第二三维标注框;根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注以生成训练数据,所述训练数据用于训练所述目标检测模型。本公开实施例可以自动高效生成用于训练单目三维目标检测模型的训练数据。
Description
技术领域
本公开涉及信息技术领域,具体而言,涉及一种用于生成单目三维目标检测模型的训练数据的训练数据生成方法、装置与电子设备。
背景技术
单目三维目标检测(Monocular 3D Object Detection)是只利用单目摄像头拍摄的图像或视频序列,即可输出目标物体类别和其在三维空间中的精确长宽高及其旋转角等信息的技术,广泛应用于车辆自动驾驶***、智能机器人、智能视频监控、智能交通等领域。因其仅需一台视觉传感器,结构简单、相机标定也简单,在自动驾驶***感知领域,相比于通过多线激光雷达实现的三维目标检测技术具有信息稠密、成本低的巨大优势。
但是,一个优秀稳定的单目三维目标检测模型需要大量场景丰富的训练数据集来训练,而相关技术中通常通过构建目标物体的三维模型(例如CAD模型)来完成对单目三维目标检测模型识别二维影像的三维信息的能力的训练,训练数据有限,且生成训练数据、使用训练数据的成本高昂。
因此,需要一种能够大批量低成本产出单目三维目标检测模型的训练数据的方法。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种用于生成单目三维目标检测模型的训练数据的训练数据生成方法、装置与电子设备,用于至少在一定程度上克服由于相关技术的限制和缺陷而导致的单目三维目标检测模型的训练数据稀缺问题。
根据本公开实施例的第一方面,提供一种训练数据生成方法,包括:获取目标图像对应的目标三维点云数据,所述目标三维点云数据包括多个物体的三维标注框以及每个所述三维标注框对应的标注结果;获取在所述目标图像的识别范围内的第一三维标注框;对同一物体的两个或多个所述第一三维标注框进行处理,获得同一物体预设数量的第二三维标注框;根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注以生成训练数据,所述训练数据用于训练所述目标检测模型。
在本公开的一种示例性实施例中,所述获取在所述目标图像的识别范围内的第一三维标注框包括:获取所述目标三维点云数据中的三维标注框在第一投影面的投影框以及所述投影框的中心点坐标,所述第一投影面为所述目标图像对应的拍摄面;如果一个所述中心点坐标在所述目标图像的显示坐标范围外,删除所述中心点坐标对应的三维标注框;如果两个所述投影框的重叠度大于第一预设值,删除两个所述投影框对应的两个三维标注框中三维中心点距离所述第一投影面较远者;将剩余的所述三维标注框确定为所述第一三维标注框。
在本公开的一种示例性实施例中,所述对同一物体的两个或多个所述第一三维标注框进行处理,获得同一物体预设数量的第二三维标注框包括:获取两个第一三维标注框在第二投影面的第一投影框和第二投影框,所述第二投影面为所述目标图像对应的拍摄俯视面;在所述第一投影框和所述第二投影框的重叠度大于第二预设值、小于第三预设值时,删除所述第一投影框和所述第二投影框中面积较小者对应的第一三维标注框;在所述第一投影框和所述第二投影框的重叠度大于等于所述第三预设值时,获取所述两个第一三维标注框在第一投影面的第三投影框和第四投影框,所述第一投影面为所述目标图像对应的拍摄面;删除所述第三投影框和所述第四投影框中符合预设高度条件者对应的第一三维标注框。
在本公开的一种示例性实施例中,所述删除所述第三投影框和所述第四投影框中符合预设高度条件者对应的第一三维标注框包括:确定所述第三投影框对应的第一中心点高度和第一高度,根据所述第一中心点高度和所述第一高度确定所述第三投影框的第一顶点高度;确定所述第四投影框对应的第二中心点高度和第二高度,根据所述第二中心点高度和所述第二高度确定所述第四投影框的第二顶点高度;在所述第一中心点高度大于所述第二顶点高度时,删除所述第三投影框对应的第一三维标注框;在所述第二中心点高度大于所述第一顶点高度时,删除所述第四投影框对应的第一三维标注框。
在本公开的一种示例性实施例中,在所述获得同一物体预设数量的第二三维标注框后,还包括:在所述所述第二三维标注框的所述标注结果匹配目标物体时,根据所述第二三维标注框的尺寸更新所述标注结果。
在本公开的一种示例性实施例中,所述根据所述第二三维标注框的尺寸更新所述标注结果包括:获取所述第二三维标注框在第二投影面的目标投影框,所述第二投影面为所述目标图像对应的拍摄俯视面;如果所述目标投影框在所述第二投影面的法线方向上的长度小于第四预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第一物体;如果所述目标投影框在所述第二投影面的法线方向上的长度大于第五预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第二物体;如果所述目标投影框在所述第二投影面的法线方向上的长度大于等于所述第四预设值、小于等于所述第五预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第三物体。
在本公开的一种示例性实施例中,所述根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注以生成训练数据包括:获取每个所述第二三维标注框对应的目标物体以及预设参数,所述预设参数至少包括高度信息和距离信息;在所述目标图像中确定每个所述目标物体的位置;根据所述目标图像、每个所述目标物体的位置以及每个所述目标物体的所述预设参数生成所述训练数据。
根据本公开实施例的第二方面,提供一种训练数据生成装置,包括:点云数据获取模块,设置为获取目标图像对应的目标三维点云数据,所述目标三维点云数据包括多个物体的三维标注框以及每个所述三维标注框对应的标注结果;可视框筛选模块,设置为获取在所述目标图像的识别范围内的第一三维标注框;重复框处理模块,设置为对同一物体的两个或多个所述第一三维标注框进行处理,获得同一物体预设数量的第二三维标注框;数据标注模块,设置为根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注以生成训练数据,所述训练数据用于训练所述目标检测模型。
根据本公开的第三方面,提供一种电子设备,包括:存储器;以及耦合到所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如上述任意一项所述的方法。
根据本公开的第四方面,提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如上述任意一项所述的训练数据生成方法。
本公开实施例通过对现有激光点云数据以及对应的拍摄图像进行处理以得到用于训练单目三维目标检测模型的训练数据,无需建模即可获得多种物体的三维信息与二维信息的对应关系,进而极大降低生成单目三维目标检测模型的训练数据的成本;此外,由于直接对激光点云数据的标注框进行简单处理,处理效率高,可以克服相关技术中建设单目三维目标检测模型的训练数据成本高昂、效率低下的问题,大批量低成本生成单目三维目标检测模型的训练数据。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本公开示例性实施例中训练数据生成方法的流程图。
图2是本公开一个实施例中步骤S2的子流程图。
图3是本公开一个实施例中步骤S22的示意图。
图4是本公开一个实施例中确定第一三维标注框的流程图。
图5是本公开一个实施例中与图3所示实施例对应第一三维标注框的示意图。
图6是本公开一个实施例中步骤S3的子流程图。
图7是本公开一个实施例中第一三维标注框在第二投影面的投影框示意图。
图8是图7所示实施例的第一三维标注框在第一投影面的投影框示意图。
图9是本公开一个实施例中确定第二三维标注框的流程图。
图10是按图9所示实施例操作后与图7所示实施例对应的第二三维标注框在第二投影面的投影框示意图。
图11是本公开一个实施例中根据第二三维标注框的尺寸更新标注结果的流程图。
图12是图11所示实施例的另一种流程图。
图13是本公开示例性实施例中一种训练数据生成装置的方框图。
图14是本公开示例性实施例中一种电子设备的方框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
下面结合附图对本公开示例实施方式进行详细说明。
图1是本公开示例性实施例中训练数据生成方法的流程图。
参考图1,训练数据生成方法100可以包括:
步骤S1,获取目标图像对应的目标三维点云数据,所述目标三维点云数据包括多个物体的三维标注框以及每个所述三维标注框对应的标注结果;
步骤S2,获取在所述目标图像的识别范围内的第一三维标注框;
步骤S3,对同一物体的两个或多个所述第一三维标注框进行处理,获得同一物体预设数量的第二三维标注框;
步骤S4,根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注以生成训练数据,所述训练数据用于训练所述目标检测模型。
本公开实施例通过对现有激光点云数据以及对应的拍摄图像进行处理以得到用于训练单目三维目标检测模型的训练数据,无需建模即可获得多种物体的三维信息与二维信息的对应关系,进而极大降低生成单目三维目标检测模型的训练数据的成本;此外,由于直接对激光点云数据的标注框进行简单处理,处理效率高,可以克服相关技术中建设单目三维目标检测模型的训练数据成本高昂、效率低下的问题,大批量低成本生成单目三维目标检测模型的训练数据。
下面,对训练数据生成方法100的各步骤进行详细说明。
在步骤S1,获取目标图像对应的目标三维点云数据,所述目标三维点云数据包括多个物体的三维标注框以及每个所述三维标注框对应的标注结果。
由于通过激光雷达获取三维点云数据的技术比较成熟,因此市场上有大量公开的三维点云数据集。在本公开实施例中,可以直接对公开三维点云数据集中的三维点云数据来进行处理,从而利用外部公开的数据来扩充自有的训练数据库,降低训练数据的生成成本,提高训练数据的生成效率。需要注意的是,需要选择包括二维图像信息的三维点云数据集。
当然,在公开三维点云数据集成本较高的情况下,或者公开三维点云数据集中缺少待识别的目标物体的情况下,也可以使用具有激光点云信息采集能力和识别能力的交通工具,通过激光雷达和摄像机实时采集待识别的目标物体的二维图像和三维点云数据。由于激光雷达和摄像机成本有限、采集和标注速度高,即使本领域技术人员为了建立单目三维目标检测模型而现场获取三维点云数据和目标图像,成本也远低于现有技术中建立CAD模型的方法,效率和训练数据的数量也能得到极大提高。
由于三维点云数据均是为了训练激光雷达而设置,标注框均为三维标注框,通常存在标注框之间相互遮挡、一个物体的不同部分被分别标注等问题,无法直接应用于单目三维目标检测模型的训练中,因此,本公开实施例设置对现有的三维点云数据进行如下处理。
在一些情况下,三维点云数据集可以是一组数据,对应多张二维图像,这些二维图像例如可以为照片、视频帧等信息。此时,每一张图像对应的目标三维点云数据均为同一组三维点云数据。在另一些情况下,例如自定义采集三维点云数据的场景下,获取的二维图像可能与一组三维点云数据集对应,此时目标图像对应的目标三维点云数据可能为特定的一组三维点云数据。目标图像与目标三维点云数据的对应关系可能因数据获取方式不同而不同,本公开不以此为限。
在步骤S2,获取在所述目标图像的识别范围内的第一三维标注框。
图2是本公开一个实施例中步骤S2的子流程图。
参考图2,在一个实施例中,步骤S2可以包括:
步骤S21,获取所述目标三维点云数据中的三维标注框在第一投影面的投影框以及所述投影框的中心点坐标,所述第一投影面为所述目标图像对应的拍摄面;
步骤S22,如果一个所述中心点坐标在所述目标图像的显示坐标范围外,删除所述中心点坐标对应的三维标注框;
步骤S23,如果两个所述投影框的重叠度大于第一预设值,删除两个所述投影框对应的两个三维标注框中三维中心点距离所述第一投影面较远者;
步骤S24,将剩余的所述三维标注框确定为所述第一三维标注框。
由于目标图像的显示范围有限,而三维点云数据的空间范围通常较大,本公开实施例设置首先删除在二维的目标图像中无法显示的三维标注框。
图3是本公开一个实施例中步骤S22的示意图。
参考图3,第一投影面是目标图像的拍摄面,目标图像具有矩形显示范围300,多个三维标注框在第一投影面具有投影框31~39,每个投影框均具有中心点坐标。
在计算过程中,设一个三维标注框的大小为(length,width,height),三维中心点坐标为(x,y,z),利用投影矩阵计算出其在目标图像的拍摄面上的投影框坐标为(x0,y0,x1,y1),投影框中心点坐标为(centerx,centery),目标图像为(imagewidth,imageheight),则满足以下公式(1)的投影框中心点坐标可以被判定为在目标图像的显示坐标范围内:
不满足公式(1)的中心点坐标则被判定在目标图像的显示坐标范围外,该中心点坐标对应的投影框对应的三维标注框会被删除。在图3所示实施例中,即删除投影框31、39对应的三维标注框。
由于视觉成像单向性,二维图像上的远处物体极易被近处物体所遮挡,因此本公开实施例在步骤S23设置删除对于目标图像而言被遮挡的不可见的物体对应的三维标注框。
在本公开实施例中,设置使用投影框之间的重叠度(Intersection over Union,IOU)来确定物体之间的遮挡关系。IOU也被称为交并比,计算的是图形对象“预测的边框”和“真实的边框”的交集和并集的比值,以两个图形为例,首先计算两个图形的交集面积,然后计算两个图形的并集面积,最后根据交集面积和并集面积的比值确定这两个图形之间的重叠度(IOU)。
继续参考图3,可以观察到,投影框33和投影框34之间具有较高的重叠度。在目标图像的拍摄面,如果两个投影框有重叠,说明其对应的两个目标物体之间存在遮挡关系。由于遮挡严重时无法通过目标图像识别位于后方的物体,可以设置第一预设值,例如0.7,来判断这种遮挡关系是否影响目标图像中物体的显示效果,进而影响对物体的识别。如果重叠度超过第一预设值,说明后方物体被前方物体严重遮挡,无需识别后方物体,可以删除后方物体对应的三维标注框,以提高有效训练数据在全部训练数据中的占比。两个物体的前后位置可以根据两个三维标注框的三维中心点与第一投影面的位置来确定,在三维标注框具有对应于图像拍摄面的深度信息时,可以直接获取重叠度超过第一预设值的两个投影框对应的三维标注框的深度信息,删除相对于拍摄面来说深度较大的三维标注框。
最后,将剩余的三维标注框确定为第一三维标注框,即能够通过目标图片被准确识别的物体的三维标注框。
图4是本公开一个实施例中确定第一三维标注框的流程图。
参考图4,在一个实施例中,确定第一三维标注框的具体流程可以包括:
步骤S400,获取三维点云数据集,三维点云数据集包括多个三维标注框、每个三维标注框对应的标注结果、与三维点云数据集对应的多张图片。
步骤S401,获取目标图片对应的三维点云数据中的N个三维标注框在第一投影面的N个投影框T1及N个投影中心点坐标,设置i=0,M=N。
可以将三维点云数据集中的图像排序,顺次对每一张图像进行标注,将当前被标注的图像称为目标图像。i是本实施例中用于记录三维标注框序号的参数,一个三维标注框及其对应的投影框和投影中心点均被设置为相同的序号;M是本实施例中用于记录在目标图片的显示范围内的三维标注框的数量的参数。
步骤S402,判断第i投影中心点坐标是否超过目标图像的显示区域,如果是,进入步骤S403,删除第i三维标注框,对M减一后,进入步骤S404;如果否,进入步骤S404;
步骤S404,判断i是否等于三维标注框的总数N,如果否,进入步骤S405对i加一,返回步骤S402处理下一个投影框;如果是,进入步骤S406;
步骤S406,重置i值并设置P=M,P是本实施例中用于记录第一三维标注框的数量的参数。本步骤用于对在目标图像的显示范围内的三维标注框设置序号。
需要说明的是,由于三维标注框之间可能存在层层遮挡问题,因此在步骤S406可以按照三维中心点与第一投影面的距离从大到小对各三维标注框顺次编号,以便在后续步骤S408~S410的判断中,从后向前删除被遮挡的物体对应的三维标注框,避免先删除位于遮挡队列中部的三维标注框后,位于遮挡队列最前方的物体和位于遮挡队列最后方的物体被判断为不存在遮挡关系。
步骤S407,判断第i投影框T1i和第i+1投影框T1i+1的重叠度IOU(T1i,T1i+1)是否大于等于第一预设值Vth1,如果是,进入步骤S408删除第i三维标注框与第i+1三维标注框中三维中心点距离第一投影面较远者,对P减一后进入步骤S409;如果否,进入步骤S409;
步骤S409,判断i+1是否等于M,如果否,进入步骤S410对i加一后返回步骤S407判断下一组投影框;如果是,进入步骤S411将剩余的P个三维标注框均确定为第一三维标注框。
图5是本公开一个实施例中与图3所示实施例对应的第一三维标注框的示意图。
参考图5,在删除了超出目标图像显示范围300的投影框31、39对应的三维标注框以及被遮挡的在后三维标注框(对应投影框33)后,第一三维标注框包括投影框32、34、35、36、37、38对应的三维标注框。
在步骤S3,对同一物体的两个或多个所述第一三维标注框进行处理,获得同一物体预设数量的第二三维标注框。
本公开实施例可以用于自动驾驶车辆配备的单目三维目标检测模型的训练数据的生成。由于三维点云数据通常包括多种标注方法,例如对一个物体的不同部位进行分别标注,而自动驾驶领域或者其他单目三维目标检测的应用场景更需要关注物体主体,为了提高有效的训练数据的占比,可以对同一物体的多个标注框进行处理。
图6是本公开一个实施例中步骤S3的子流程图。
参考图6,在一个实施例中,步骤S3可以包括:
步骤S31,获取两个第一三维标注框在第二投影面的第一投影框和第二投影框,所述第二投影面为所述目标图像对应的拍摄俯视面;
步骤S32,在所述第一投影框和所述第二投影框的重叠度大于第二预设值、小于第三预设值时,删除所述第一投影框和所述第二投影框中面积较小者对应的第一三维标注框;
步骤S33,在所述第一投影框和所述第二投影框的重叠度大于等于所述第三预设值时,获取所述两个第一三维标注框在第一投影面的第三投影框和第四投影框,所述第一投影面为所述目标图像对应的拍摄面;
步骤S34,删除所述第三投影框和所述第四投影框中符合预设高度条件者对应的第一三维标注框。
图7是本公开一个实施例中第一三维标注框在第二投影面的投影框示意图。
参考图7,第一三维标注框在第二投影面的投影框例如可以包括投影框71~76。发明人分析,由于第二投影面是目标图像对应的拍摄俯视面,如果两个三维标注框在俯视面有较大范围的重叠,说明这两个三维标注框标注的可能是同一物体的不同高度的部位(例如起重机的吊架和车体)或不同组件(例如推土机的铲子和车体)。在本公开实施例中,判断重叠度较高(大于第三预设值)的两个投影框为同一物体不同高度的投影框;判断重叠度较低(在第二预设值和第三预设值之间)的投影框为同一物体的不同组件的投影框。进而,对不同情况采用不同方法进行处理。
对于不同组件的投影框,仅保留主要部分即可,因此本公开实施例设置删除两个重叠投影框中在第二投影面上面积较小者对应的第一三维标注框。但是,在一些实施例中,有可能主要组件对于地面呈细高形状,次要组件对于地面呈扁平形态,导致误删除主要组件对应的第一三维标注框,因此,也可以对被判断为同一物体不同组件的投影框,根据对应的第一三维标注框在第一投影面的投影框的高度来筛选出高度符合预设条件的第一三维标注框。在本公开的一些实施例中,对一个物体仅保留一个最接近地面的三维标注框,以利于将生成的训练数据应用在无人驾驶技术领域;在本公开的另一些实施例中,还可以设置对一个物体保留符合预设条件的一或多个标注框,以便将训练数据应用在其他目标技术领域。预设条件可以由本领域技术人员根据训练数据的应用目的自行设置,本公开不以此为限。
图8是图7所示实施例的第一三维标注框在第一投影面的投影框示意图。
参考图8,投影框81~86和投影框71~76分别是第一三维标注框在第二投影面的投影框和在第一投影面的投影框。投影框81~86分别与投影框71~76对应。从图8可以看出,在第二投影面上重叠度大于第三预设值(例如0.9)的投影框73和74在高度上不同,此时,如果设置对一个物体仅保留一个最接近地面的三维标注框,以利于将生成的训练数据应用在无人驾驶技术领域,则可以删除较高的投影框84对应的第一三维标注框;同理,投影框71和72在第二投影面的重叠度大于第二预设值(例如0.1),但是小于第三预设值(例如0.9),对应的第一投影面的投影框81和82的高度不同,同样可以删除较高的投影框81对应的第一三维标注框。最后,将剩余的第一三维标注框设置为用于产生标注信息的第二三维标注框。
在一个实施例中,通过步骤S34在图8中删除较高第一三维标注框的方法可以包括:确定所述第三投影框对应的第一中心点高度和第一高度,根据所述第一中心点高度和所述第一高度确定所述第三投影框的第一顶点高度;确定所述第四投影框对应的第二中心点高度和第二高度,根据所述第二中心点高度和所述第二高度确定所述第四投影框的第二顶点高度;在所述第一中心点高度大于所述第二顶点高度时,删除所述第三投影框对应的第一三维标注框;在所述第二中心点高度大于所述第一顶点高度时,删除所述第四投影框对应的第一三维标注框。
图9是本公开一个实施例中确定第二三维标注框的流程图。
参考图9,在一个实施例中,确定第二三维标注框的流程可以包括:
步骤S901,获取P个第一三维标注框在第二投影面的P个投影框T2,设置j=0,Q=P;本实施例使用Q记录第二三维投影框的数量。
步骤S902,判断第j个第一三维标注框在第二投影面的投影框第j T2j和第j+1投影框T2j+1的重叠度IOU(T2j,T2j+1)是否在第二预设值Vth2和第三预设值Vth3之间,如果是,进入步骤S903删除第j投影框与第j+1投影框中面积较小者对应的第一三维标注框,对Q减一操作后进入步骤S911;如果否,进入步骤S904;
步骤S904,判断IOU(T2j,T2j+1)是否大于等于第三预设值Vth3,如果是,进入步骤S905,如果否,进入步骤S911;
步骤S905,获取第j个第一三维标注框和第j+1个第一三维标注框在第一投影面的投影框T1j和投影框T1j+1;
步骤S906,获取的投影框T1j的第一中心点高度和第一顶点高度,获取投影框T1j+1的第二中心点高度和第二顶点高度;
步骤S907,判断第一中心点高度是否大于第二顶点高度,如果是,进入步骤S908删除第j个第一三维标注框,对Q减一操作后进入步骤S911;如果否,进入步骤S909;
步骤S909,判断第二中心点高度是否大于第一顶点高度,如果是,进入步骤S910删除第j+1个第一三维标注框,对Q减一操作后进入步骤S911;如果否,进入步骤S911;
步骤S911,判断j+1是否等于P,如果否,进入步骤S912对j进行加一操作后返回步骤S902判断下一组投影框;如果是,进入步骤S913将剩余的Q个第一三维标注框确定为第二三维标注框。
图10是按图9所示实施例操作后与图7所示实施例对应的第二三维标注框在第二投影面的投影框示意图。
参考图10,删除较小的投影框71对应的第一三维标注框和较高的投影框74对应的第一三维标注框后,第二三维标注框为投影框72、73、75、76对应的三维标注框。
在本公开的另一个实施例中,如果三维点云数据来自公开数据集,标注类别较粗,还可以对每个第二三维标注框进行标注结果更新,以实现更符合单目三维目标检测模型的检测目的的标注。
例如,可以在一个第二三维标注框的标注结果匹配目标物体时,对标注结果进行调整。在一些实施例中,例如公开数据集将所有车辆均标注为车辆,此时可以根据三维标注框的尺寸调整标注结果为“自行车”、“小型机动车”、“大型机动车”等;在另一些实施例中,如果标注结果为“大型机动车”,还可以进一步使用分类模型(例如训练好的神经网络模型)对该第二三维标注框对应的物体进行进一步细分类,分为“公交车”、“卡车”等等。
图11是本公开一个实施例中根据第二三维标注框的尺寸更新标注结果的流程图。
参考图11,在一个实施例中,根据第二三维标注框的尺寸更新标注结果的过程可以包括:
步骤S111,获取所述第二三维标注框在第二投影面的目标投影框,所述第二投影面为所述目标图像对应的拍摄俯视面;
步骤S112,如果所述目标投影框在所述第二投影面的法线方向上的长度小于第四预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第一物体;
步骤S113,如果所述目标投影框在所述第二投影面的法线方向上的长度大于第五预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第二物体;
步骤S114,如果所述目标投影框在所述第二投影面的法线方向上的长度大于等于所述第四预设值、小于等于所述第五预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第三物体。
图12是图11所示实施例的另一种流程图。
参考图12,首先在步骤S121设置k=0,k用于表示第二三维标注框的序号。
步骤S122,确定第k个第二三维标注框的标注结果是否匹配目标物体,如果否,进入步骤S128;如果是,进入步骤S123;
步骤S123,判断第k个第二三维标注框在第二投影面法线方向的长度是否小于第四预设值,如果是,进入步骤S124将第k个第二三维标注框的标注结果更新为第一物体后进入步骤S128;如果否,进入步骤S125;
步骤S125,判断第k个第二三维标注框在第二投影面法线方向的长度是否大于第五预设值,如果是,进入步骤S126将第k个第二三维标注框的标注结果更新为第二物体后进入步骤S128;如果否,进入步骤S127将第k个第二三维标注框的标注结果更新为第三物体后进入步骤S128;
步骤S128,判断k是否等于第二三维标注框的数量Q,如果否,进入步骤S129对k进行加一操作后返回步骤S122判断下一个第二三维标注框;如果否,进入步骤S4。
图11和图12所示实施例中的目标物体例如可以为车辆,第一物体例如可以为自行车,第二物体例如可以为大型机动车,第三物体例如可以为小型机动车。在根据尺寸更新目标物体的标注结果后,还可以进一步使用分类模型对部分或全部第二三维标注框进行更细粒度的分类,并再次更新标注结果,本公开对此不作特殊限制。
在步骤S4,根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注以生成训练数据,所述训练数据用于训练所述目标检测模型。
在本公开实施例中根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注的过程例如可以包括:获取每个所述第二三维标注框对应的目标物体以及预设参数,所述预设参数至少包括高度信息和距离信息;在所述目标图像中确定每个所述目标物体的位置;根据所述目标图像、每个所述目标物体的位置以及每个所述目标物体的所述预设参数生成所述训练数据。
通过以上标注过程,生成的训练数据中每一张图像中的每一个可识别的物体均具有高度信息和距离信息,因此使用此训练数据进行训练的单目三维目标检测模型可以根据二维图像判断目标物体的三维信息,例如根据物体的高度信息推测物体的距离,继而根据物体的距离实现相应的操作。
本公开实施例可以用于直接对公共数据集进行清洗以大批量低成本生成单目三维目标检测模型的训练数据,迅速得到大量符合训练要求的训练数据,不仅能增强训练数据集和模型的泛化能力,而且可以极大节约人力和财力成本。
对应于上述方法实施例,本公开还提供一种训练数据生成装置,可以用于执行上述方法实施例。
图13是本公开示例性实施例中一种训练数据生成装置的方框图。
参考图13,训练数据生成装置1300可以包括:
点云数据获取模块131,设置为获取目标图像对应的目标三维点云数据,所述目标三维点云数据包括多个物体的三维标注框以及每个所述三维标注框对应的标注结果;
可视框筛选模块132,设置为获取在所述目标图像的识别范围内的第一三维标注框;
重复框处理模块133,设置为对同一物体的两个或多个所述第一三维标注框进行处理,获得同一物体预设数量的第二三维标注框;
数据标注模块134,设置为根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注以生成训练数据,所述训练数据用于训练所述目标检测模型。
在本公开的一种示例性实施例中,可视框筛选模块132设置为:获取所述目标三维点云数据中的三维标注框在第一投影面的投影框以及所述投影框的中心点坐标,所述第一投影面为所述目标图像对应的拍摄面;如果一个所述中心点坐标在所述目标图像的显示坐标范围外,删除所述中心点坐标对应的三维标注框;如果两个所述投影框的重叠度大于第一预设值,删除两个所述投影框对应的两个三维标注框中三维中心点距离所述第一投影面较远者;将剩余的所述三维标注框确定为所述第一三维标注框。
在本公开的一种示例性实施例中,重复框处理模块133设置为:获取两个第一三维标注框在第二投影面的第一投影框和第二投影框,所述第二投影面为所述目标图像对应的拍摄俯视面;在所述第一投影框和所述第二投影框的重叠度大于第二预设值、小于第三预设值时,删除所述第一投影框和所述第二投影框中面积较小者对应的第一三维标注框;在所述第一投影框和所述第二投影框的重叠度大于等于所述第三预设值时,获取所述两个第一三维标注框在第一投影面的第三投影框和第四投影框,所述第一投影面为所述目标图像对应的拍摄面;删除所述第三投影框和所述第四投影框中符合预设高度条件者对应的第一三维标注框。
在本公开的一种示例性实施例中,重复框处理模块133设置为:确定所述第三投影框对应的第一中心点高度和第一高度,根据所述第一中心点高度和所述第一高度确定所述第三投影框的第一顶点高度;确定所述第四投影框对应的第二中心点高度和第二高度,根据所述第二中心点高度和所述第二高度确定所述第四投影框的第二顶点高度;在所述第一中心点高度大于所述第二顶点高度时,删除所述第三投影框对应的第一三维标注框;在所述第二中心点高度大于所述第一顶点高度时,删除所述第四投影框对应的第一三维标注框。
在本公开的一种示例性实施例中,还包括分类模块135,设置为:在所述所述第二三维标注框的所述标注结果匹配目标物体时,根据所述第二三维标注框的尺寸更新所述标注结果。
在本公开的一种示例性实施例中,分类模块135设置为:获取所述第二三维标注框在第二投影面的目标投影框,所述第二投影面为所述目标图像对应的拍摄俯视面;如果所述目标投影框在所述第二投影面的法线方向上的长度小于第四预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第一物体;如果所述目标投影框在所述第二投影面的法线方向上的长度大于第五预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第二物体;如果所述目标投影框在所述第二投影面的法线方向上的长度大于等于所述第四预设值、小于等于所述第五预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第三物体。
在本公开的一种示例性实施例中,数据标注模块134设置为:获取每个所述第二三维标注框对应的目标物体以及预设参数,所述预设参数至少包括高度信息和距离信息;在所述目标图像中确定每个所述目标物体的位置;根据所述目标图像、每个所述目标物体的位置以及每个所述目标物体的所述预设参数生成所述训练数据。
由于装置1300的各功能已在其对应的方法实施例中予以详细说明,本公开于此不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为***、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“***”。
下面参照图14来描述根据本发明的这种实施方式的电子设备1400。图14显示的电子设备1400仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图14所示,电子设备1400以通用计算设备的形式表现。电子设备1400的组件可以包括但不限于:上述至少一个处理单元1410、上述至少一个存储单元1420、连接不同***组件(包括存储单元1420和处理单元1410)的总线1430。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1410执行,使得所述处理单元1410执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元1410可以执行如本公开实施例所示的方法。
存储单元1420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)14201和/或高速缓存存储单元14202,还可以进一步包括只读存储单元(ROM)14203。
存储单元1420还可以包括具有一组(至少一个)程序模块14205的程序/实用工具14204,这样的程序模块14205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1400也可以与一个或多个外部设备1500(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1400交互的设备通信,和/或与使得该电子设备1400能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1450进行。并且,电子设备1400还可以通过网络适配器1460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1460通过总线1430与电子设备1400的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
根据本发明的实施方式的用于实现上述方法的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和构思由权利要求指出。
Claims (10)
1.一种用于单目三维目标检测模型的训练数据生成方法,其特征在于,包括:
获取目标图像对应的目标三维点云数据,所述目标三维点云数据包括多个物体的三维标注框以及每个所述三维标注框对应的标注结果;
获取在所述目标图像的识别范围内的第一三维标注框;
对同一物体的两个或多个所述第一三维标注框进行处理,获得同一物体预设数量的第二三维标注框;
根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注以生成训练数据,所述训练数据用于训练所述目标检测模型。
2.如权利要求1所述的训练数据生成方法,其特征在于,所述获取在所述目标图像的识别范围内的第一三维标注框包括:
获取所述目标三维点云数据中的三维标注框在第一投影面的投影框以及所述投影框的中心点坐标,所述第一投影面为所述目标图像对应的拍摄面;
如果一个所述中心点坐标在所述目标图像的显示坐标范围外,删除所述中心点坐标对应的三维标注框;
如果两个所述投影框的重叠度大于第一预设值,删除两个所述投影框对应的两个三维标注框中三维中心点距离所述第一投影面较远者;
将剩余的所述三维标注框确定为所述第一三维标注框。
3.如权利要求1所述的训练数据生成方法,其特征在于,所述对同一物体的两个或多个所述第一三维标注框进行处理,获得同一物体预设数量的第二三维标注框包括:
获取两个第一三维标注框在第二投影面的第一投影框和第二投影框,所述第二投影面为所述目标图像对应的拍摄俯视面;
在所述第一投影框和所述第二投影框的重叠度大于第二预设值、小于第三预设值时,删除所述第一投影框和所述第二投影框中面积较小者对应的第一三维标注框;
在所述第一投影框和所述第二投影框的重叠度大于等于所述第三预设值时,获取所述两个第一三维标注框在第一投影面的第三投影框和第四投影框,所述第一投影面为所述目标图像对应的拍摄面;
删除所述第三投影框和所述第四投影框中符合预设高度条件者对应的第一三维标注框。
4.如权利要求3所述的训练数据生成方法,其特征在于,所述删除所述第三投影框和所述第四投影框中符合预设高度条件者对应的第一三维标注框包括:
确定所述第三投影框对应的第一中心点高度和第一高度,根据所述第一中心点高度和所述第一高度确定所述第三投影框的第一顶点高度;
确定所述第四投影框对应的第二中心点高度和第二高度,根据所述第二中心点高度和所述第二高度确定所述第四投影框的第二顶点高度;
在所述第一中心点高度大于所述第二顶点高度时,删除所述第三投影框对应的第一三维标注框;
在所述第二中心点高度大于所述第一顶点高度时,删除所述第四投影框对应的第一三维标注框。
5.如权利要求1所述的训练数据生成方法,其特征在于,在所述获得同一物体预设数量的第二三维标注框后,还包括:
在所述所述第二三维标注框的所述标注结果匹配目标物体时,根据所述第二三维标注框的尺寸更新所述标注结果。
6.如权利要求5所述的训练数据生成方法,其特征在于,所述根据所述第二三维标注框的尺寸更新所述标注结果包括:
获取所述第二三维标注框在第二投影面的目标投影框,所述第二投影面为所述目标图像对应的拍摄俯视面;
如果所述目标投影框在所述第二投影面的法线方向上的长度小于第四预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第一物体;
如果所述目标投影框在所述第二投影面的法线方向上的长度大于第五预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第二物体;
如果所述目标投影框在所述第二投影面的法线方向上的长度大于等于所述第四预设值、小于等于所述第五预设值,将所述目标投影框对应的第二三维标注框的标注结果更新为第三物体。
7.如权利要求1所述的训练数据生成方法,其特征在于,所述根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注以生成训练数据包括:
获取每个所述第二三维标注框对应的目标物体以及预设参数,所述预设参数至少包括高度信息和距离信息;
在所述目标图像中确定每个所述目标物体的位置;
根据所述目标图像、每个所述目标物体的位置以及每个所述目标物体的所述预设参数生成所述训练数据。
8.一种用于单目三维目标检测模型的训练数据生成装置,其特征在于,包括:
点云数据获取模块,设置为获取目标图像对应的目标三维点云数据,所述目标三维点云数据包括多个物体的三维标注框以及每个所述三维标注框对应的标注结果;
可视框筛选模块,设置为获取在所述目标图像的识别范围内的第一三维标注框;
重复框处理模块,设置为对同一物体的两个或多个所述第一三维标注框进行处理,获得同一物体预设数量的第二三维标注框;
数据标注模块,设置为根据每个所述第二三维标注框的所述标注结果对所述目标图像进行标注以生成训练数据,所述训练数据用于训练所述目标检测模型。
9.一种电子设备,其特征在于,包括:
存储器;以及
耦合到所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如权利要求1-7任一项所述的训练数据生成方法。
10.一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如权利要求1-7任一项所述的训练数据生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110238897.1A CN113808186B (zh) | 2021-03-04 | 2021-03-04 | 训练数据生成方法、装置与电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110238897.1A CN113808186B (zh) | 2021-03-04 | 2021-03-04 | 训练数据生成方法、装置与电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113808186A true CN113808186A (zh) | 2021-12-17 |
CN113808186B CN113808186B (zh) | 2024-01-16 |
Family
ID=78892886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110238897.1A Active CN113808186B (zh) | 2021-03-04 | 2021-03-04 | 训练数据生成方法、装置与电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113808186B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116469025A (zh) * | 2022-12-30 | 2023-07-21 | 以萨技术股份有限公司 | 一种识别任务的处理方法、电子设备及存储介质 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108960174A (zh) * | 2018-07-12 | 2018-12-07 | 广东工业大学 | 一种目标检测结果优化方法及装置 |
CN110163904A (zh) * | 2018-09-11 | 2019-08-23 | 腾讯大地通途(北京)科技有限公司 | 对象标注方法、移动控制方法、装置、设备及存储介质 |
CN110264468A (zh) * | 2019-08-14 | 2019-09-20 | 长沙智能驾驶研究院有限公司 | 点云数据标注、分割模型确定、目标检测方法及相关设备 |
WO2019196130A1 (zh) * | 2018-04-12 | 2019-10-17 | 广州飒特红外股份有限公司 | 面向车载热成像行人检测的分类器训练方法和装置 |
CN110443212A (zh) * | 2019-08-12 | 2019-11-12 | 睿魔智能科技(深圳)有限公司 | 用于目标检测的正样本获取方法、装置、设备及存储介质 |
CN110796201A (zh) * | 2019-10-31 | 2020-02-14 | 深圳前海达闼云端智能科技有限公司 | 一种标注框的修正方法、电子设备及存储介质 |
WO2020102944A1 (zh) * | 2018-11-19 | 2020-05-28 | 深圳市大疆创新科技有限公司 | 点云处理方法、设备及存储介质 |
CN111310667A (zh) * | 2020-02-18 | 2020-06-19 | 北京小马慧行科技有限公司 | 确定标注是否准确的方法、装置、存储介质与处理器 |
CN111523390A (zh) * | 2020-03-25 | 2020-08-11 | 杭州易现先进科技有限公司 | 一种图像识别的方法及增强现实ar图标识别的*** |
CN111563450A (zh) * | 2020-04-30 | 2020-08-21 | 北京百度网讯科技有限公司 | 数据处理方法、装置、设备及存储介质 |
CN111583663A (zh) * | 2020-04-26 | 2020-08-25 | 宁波吉利汽车研究开发有限公司 | 基于稀疏点云的单目感知修正方法、装置及存储介质 |
CN111652113A (zh) * | 2020-05-29 | 2020-09-11 | 北京百度网讯科技有限公司 | 障碍物检测方法、装置、设备以及存储介质 |
CN111797734A (zh) * | 2020-06-22 | 2020-10-20 | 广州视源电子科技股份有限公司 | 车辆点云数据处理方法、装置、设备和存储介质 |
CN112183180A (zh) * | 2019-07-02 | 2021-01-05 | 通用汽车环球科技运作有限责任公司 | 用于二维图像数据的三维对象定边界的方法和装置 |
CN112287860A (zh) * | 2020-11-03 | 2021-01-29 | 北京京东乾石科技有限公司 | 物体识别模型的训练方法及装置、物体识别方法及*** |
CN112329846A (zh) * | 2020-11-03 | 2021-02-05 | 武汉光庭信息技术股份有限公司 | 激光点云数据高精度标注方法及***、服务器及介质 |
-
2021
- 2021-03-04 CN CN202110238897.1A patent/CN113808186B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019196130A1 (zh) * | 2018-04-12 | 2019-10-17 | 广州飒特红外股份有限公司 | 面向车载热成像行人检测的分类器训练方法和装置 |
CN108960174A (zh) * | 2018-07-12 | 2018-12-07 | 广东工业大学 | 一种目标检测结果优化方法及装置 |
CN110163904A (zh) * | 2018-09-11 | 2019-08-23 | 腾讯大地通途(北京)科技有限公司 | 对象标注方法、移动控制方法、装置、设备及存储介质 |
WO2020102944A1 (zh) * | 2018-11-19 | 2020-05-28 | 深圳市大疆创新科技有限公司 | 点云处理方法、设备及存储介质 |
CN112183180A (zh) * | 2019-07-02 | 2021-01-05 | 通用汽车环球科技运作有限责任公司 | 用于二维图像数据的三维对象定边界的方法和装置 |
CN110443212A (zh) * | 2019-08-12 | 2019-11-12 | 睿魔智能科技(深圳)有限公司 | 用于目标检测的正样本获取方法、装置、设备及存储介质 |
CN110264468A (zh) * | 2019-08-14 | 2019-09-20 | 长沙智能驾驶研究院有限公司 | 点云数据标注、分割模型确定、目标检测方法及相关设备 |
CN110796201A (zh) * | 2019-10-31 | 2020-02-14 | 深圳前海达闼云端智能科技有限公司 | 一种标注框的修正方法、电子设备及存储介质 |
CN111310667A (zh) * | 2020-02-18 | 2020-06-19 | 北京小马慧行科技有限公司 | 确定标注是否准确的方法、装置、存储介质与处理器 |
CN111523390A (zh) * | 2020-03-25 | 2020-08-11 | 杭州易现先进科技有限公司 | 一种图像识别的方法及增强现实ar图标识别的*** |
CN111583663A (zh) * | 2020-04-26 | 2020-08-25 | 宁波吉利汽车研究开发有限公司 | 基于稀疏点云的单目感知修正方法、装置及存储介质 |
CN111563450A (zh) * | 2020-04-30 | 2020-08-21 | 北京百度网讯科技有限公司 | 数据处理方法、装置、设备及存储介质 |
CN111652113A (zh) * | 2020-05-29 | 2020-09-11 | 北京百度网讯科技有限公司 | 障碍物检测方法、装置、设备以及存储介质 |
CN111797734A (zh) * | 2020-06-22 | 2020-10-20 | 广州视源电子科技股份有限公司 | 车辆点云数据处理方法、装置、设备和存储介质 |
CN112287860A (zh) * | 2020-11-03 | 2021-01-29 | 北京京东乾石科技有限公司 | 物体识别模型的训练方法及装置、物体识别方法及*** |
CN112329846A (zh) * | 2020-11-03 | 2021-02-05 | 武汉光庭信息技术股份有限公司 | 激光点云数据高精度标注方法及***、服务器及介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116469025A (zh) * | 2022-12-30 | 2023-07-21 | 以萨技术股份有限公司 | 一种识别任务的处理方法、电子设备及存储介质 |
CN116469025B (zh) * | 2022-12-30 | 2023-11-24 | 以萨技术股份有限公司 | 一种识别任务的处理方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113808186B (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6745328B2 (ja) | 点群データを復旧するための方法及び装置 | |
CN109461211B (zh) | 基于视觉点云的语义矢量地图构建方法、装置和电子设备 | |
CN112861653B (zh) | 融合图像和点云信息的检测方法、***、设备及存储介质 | |
US20200302241A1 (en) | Techniques for training machine learning | |
US20220366681A1 (en) | VISION-LiDAR FUSION METHOD AND SYSTEM BASED ON DEEP CANONICAL CORRELATION ANALYSIS | |
US11763474B2 (en) | Method for generating simulated point cloud data, device, and storage medium | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及*** | |
CN113989450A (zh) | 图像处理方法、装置、电子设备和介质 | |
CN111666876B (zh) | 用于检测障碍物的方法、装置、电子设备和路侧设备 | |
WO2024001969A1 (zh) | 一种图像处理方法、装置、存储介质及计算机程序产品 | |
CN111739005A (zh) | 图像检测方法、装置、电子设备及存储介质 | |
CN113688738B (zh) | 一种基于激光雷达点云数据的目标识别***及方法 | |
CN112509126B (zh) | 三维物体检测的方法、装置、设备及存储介质 | |
CN115719436A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN114565916A (zh) | 目标检测模型训练方法、目标检测方法以及电子设备 | |
CN111767843A (zh) | 三维位置预测方法、装置、设备以及存储介质 | |
CN113808186B (zh) | 训练数据生成方法、装置与电子设备 | |
CN113126120A (zh) | 数据标注方法、装置、设备、存储介质以及计算机程序产品 | |
CN117197419A (zh) | 雷达点云的标注方法、装置、电子设备及存储介质 | |
CN112381873A (zh) | 一种数据标注方法及装置 | |
CN116642490A (zh) | 基于混合地图的视觉定位导航方法、机器人及存储介质 | |
CN116977963A (zh) | 基于bev视角的自动驾驶多模态协同感知方法及*** | |
CN116229247A (zh) | 室内场景语义分割方法、装置、设备和介质 | |
Ponto et al. | Opportunities for utilizing consumer grade 3D capture tools for insurance documentation | |
CN115565072A (zh) | 一种道路垃圾识别和定位方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |