CN103324937A - 标注目标的方法和装置 - Google Patents
标注目标的方法和装置 Download PDFInfo
- Publication number
- CN103324937A CN103324937A CN2012100769274A CN201210076927A CN103324937A CN 103324937 A CN103324937 A CN 103324937A CN 2012100769274 A CN2012100769274 A CN 2012100769274A CN 201210076927 A CN201210076927 A CN 201210076927A CN 103324937 A CN103324937 A CN 103324937A
- Authority
- CN
- China
- Prior art keywords
- target
- sorter
- precision
- mark
- appointment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种标注目标的方法和装置,属于图像处理技术领域,目标的标注结果可以用于训练目标检测器。所述方法包括:获取训练数据,使用分类器对所述训练数据进行目标检测,得到第一目标位置集合;计算分类器的精度,当分类器的精度未达到指定的精度要求时,在所述第一目标位置集合内选取未达到指定置信度要求的目标输出以进行误检标注,得到第二目标位置集合;将第一目标位置集合中达到指定置信度要求的目标与第二目标位置集合组成目标标注集合,根据目标标注集合对分类器进行训练;重复执行上述步骤直至分类器的精度达到指定的精度要求。所述装置包括:目标检测模块、性能测试模块、学习模块、训练模块和迭代模块。本发明极大地降低了人工标注的成本,提高了目标标注的效率。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种标注目标的方法和装置。
背景技术
随着电子信息技术的进步和网络化普及,人们在日常生活中越来越普遍地使用各种各样的图像采集设备,例如监控摄像机、数码摄像机、数码相机、网络摄像机、手机相机、以及物联网中的视频传感器等等,从而可以快捷的获取大量的图像和视频数据。快速而智能地分析这些数据,成为公共管理部门、工业界、尤其是IT(Information Technology,信息技术)行业和互联网行业等,甚至人们日常生活中的迫切需求。
人体检测技术是这些数据分析的一个至关重要的技术途径,并且被广泛的应用在多个领域中,主要包括三个方面:首先是内容分析领域,可以用于大批量的图片视频的管理检索和标注;其次是智能车辆领域,可以自动检测到车前的行人并采取相应的安全措施;最后是监控领域,可以用于支持基于视觉图像理解的智能监控***。
人体检测的过程就是在给定的一幅输入图像中检测人的存在,并且定位出其位置。现有的人体检测技术一般需要给定大量标注的样本,利用这些样本进行训练,得到描述人外观的分类器,然后使用该分类器去检测图片中的目标。其中,给定的标注样本是通过人手工标注出图片中每个人的位置得到的,这种人工标注大量样本的方式费时又费力。当为一个场景安装新的摄像机时,针对这个摄像机拍摄的视频也需要重新标注样本,并重新进行训练以提高目标检测的精度和速度,由于是对大量的样本进行标注,因此,目前纯手工标注的方式很难完成这种大规模的视频数据的标注。
发明内容
为了解决现有的手工标注样本费时费力的问题,本发明实施例提供了一种标注目标的方法和装置。所述技术方案如下:
一方面,本发明实施例提供了一种标注目标的方法,包括:
获取训练数据,使用分类器对所述训练数据进行目标检测,得到第一目标位置集合;
计算所述分类器的精度,判断所述分类器的精度是否达到指定的精度要求,当所述分类器的精度未达到所述指定的精度要求时,在所述第一目标位置集合内选取未达到指定置信度要求的目标输出,以进行误检标注,得到第二目标位置集合;
将所述第一目标位置集合中达到所述指定置信度要求的目标与所述第二目标位置集合组成目标标注集合,根据所述目标标注集合对所述分类器进行训练;
重复执行上述步骤直至所述分类器的精度达到所述指定的精度要求。
一种实施方式下,所述训练数据为视频数据;
使用分类器对所述训练数据进行目标检测,得到第一目标位置集合之后,还包括:
对所述第一目标位置集合内的目标进行跟踪得到目标的轨迹;
在所述第一目标位置集合内选取未达到指定置信度要求的目标输出,以进行误检标注,得到第二目标位置集合,包括:
在所述第一目标位置集合内选取未达到指定置信度要求的目标进行输出,以进行误检标注;
根据误检标注的结果获取正样本目标,按照所述正样本目标的轨迹,将所述视频数据中未标注的所述正样本目标标注出来,得到第二目标位置集合。
其中,按照所述正样本目标的轨迹,将所述视频数据中未标注的所述正样本目标标注出来,包括:
根据所述正样本目标的轨迹,确定所述正样本目标在所述视频数据中所处的各个帧;
将所述各个帧中未标注的所述正样本目标标注出来。
在另一种实施方式下,所述获取训练数据,包括:
当首次获取训练数据时,在训练数据中选取一个训练数据段;
当非首次获取训练数据时,在所述训练数据中未被选取过的数据中选取一个训练数据段,且本次选取的训练数据段中的数据个数大于上一次选取的训练数据段中的数据个数。
再一种实施方式下,将所述第一目标位置集合中达到所述指定置信度要求的目标与所述第二目标位置集合组成目标标注集合之后,还包括:
将经过标注处理的所述训练数据输出,以进行漏检标注;
获取漏检标注目标的中心点;
在所述目标标注集合中查找匹配的目标,所述匹配的目标对应的标注框坐标范围包含所述中心点的坐标;
根据所述匹配的目标对应的标注框的大小确定一个标注框大小范围;
生成多个临时标注框,所述临时标注框的大小在所述标注框大小范围内,且所述临时标注框的中心点与所述获取的中心点的距离小于预设的阈值;
使用所述分类器计算所述多个临时标注框的置信度,并根据置信度从所述多个临时标注框中选取一个标注框作为所述漏检目标的标注框,在所述漏检目标所在的帧中将所述漏检目标标注出来,并将标注后的所述漏检目标添加到所述目标标注集合中。
优选地,根据置信度从所述多个临时标注框中选取一个标注框作为所述漏检目标的标注框,包括:
从所述多个临时标注框中选取置信度最高的标注框作为所述漏检目标的标注框。
在又一个实施方式中,在所述第一目标位置集合内选取未达到指定置信度要求的目标输出,包括:
在所述第一目标位置集合内按照置信度从低到高的顺序选取指定的比例的目标输出。
其中,在所述第一目标位置集合内按照置信度从低到高的顺序选取指定的比例的目标输出之前,还包括:
根据所述分类器的精度确定所述指定的比例。
优选地,根据所述分类器的精度确定所述指定的比例,包括:
按照公式H=K*(1-P)计算所述指定的比例;
其中,所述H为指定的比例,所述P为所述分类器的精度,所述K为指定的系数,且所述K≥1。
在另一个实施方式下,计算所述分类器的精度,包括:
获取校验数据和所述校验数据的目标标注集合;
使用所述分类器对所述校验数据进行目标检测,得到第三目标位置集合;
对所述目标标注集合和所述第三目标位置集合取交集,用取交集的结果中的目标个数除以所述第三目标位置集合中的目标个数,得到所述分类器的精度。
在又一个实施方式下,所述方法还包括:
在首次使用所述分类器进行目标检测之前,用初始训练集合对所述分类器进行训练,并根据所述分类器的受试者工作特征ROC曲线,选取使所述分类器的召回率达到预设的召回率阈值时对应的置信度值,将所述选取的置信度值作为所述分类器的置信度阈值以使所述分类器按照所述置信度阈值进行目标检测。
再一种实施方式下,判断所述分类器的精度是否达到指定的精度要求,包括:
判断所述分类器的精度是否大于或等于预设的精度阈值,如果是,则确定所述分类器的精度达到指定的精度要求,否则,确定所述分类器的精度未达到所述指定的精度要求;或者,
判断所述分类器的精度与上一次进行目标检测时分类器的精度相差是否小于预设的差别阈值,如果是,则确定所述分类器的精度达到所述指定的精度要求,否则,确定所述分类器的精度未达到所述指定的精度要求。
另一方面,本发明实施例还提供了一种标注目标的装置,包括:目标检测模块、性能测试模块、学习模块、训练模块和迭代模块;
所述目标检测模块,用于获取训练数据,使用分类器对所述训练数据进行目标检测,得到第一目标位置集合;
所述性能测试模块,用于计算所述分类器的精度,判断所述分类器的精度是否达到指定的精度要求;
所述学习模块,用于当所述分类器的精度未达到所述指定的精度要求时,在所述第一目标位置集合内选取未达到指定置信度要求的目标输出,以进行误检标注,得到第二目标位置集合;
所述训练模块,用于将所述第一目标位置集合中达到所述指定置信度要求的目标与所述第二目标位置集合组成目标标注集合,根据所述目标标注集合对所述分类器进行训练;
所述迭代模块,用于重复触发所述目标检测模块、性能测试模块、学习模块和训练模块直至所述分类器的精度达到所述指定的精度要求。
一种实施方式下,所述训练数据为视频数据;
所述装置还包括:
跟踪模块,用于对所述第一目标位置集合内的目标进行跟踪得到目标的轨迹;
所述学习模块用于:在所述第一目标位置集合内选取未达到指定置信度要求的目标进行输出,以进行误检标注,根据误检标注的结果获取正样本目标,按照所述正样本目标的轨迹,将所述视频数据中未标注的所述正样本目标标注出来,得到第二目标位置集合。
另一种实施方式下,所述学习模块包括:
误检标注单元,用于根据所述正样本目标的轨迹,确定所述正样本目标在所述视频数据中所处的各个帧,将所述各个帧中未标注的所述正样本目标标注出来。
又一种实施方式下,所述目标检测模块包括:
获取单元,用于当首次获取训练数据时,在训练数据中选取一个训练数据段,当非首次获取训练数据时,在所述训练数据中未被选取过的数据中选取一个训练数据段,且本次选取的训练数据段中的数据个数大于上一次选取的训练数据段中的数据个数。
再一种实施方式下,所述训练模块还包括:
漏检标注单元,用于在组成目标标注集合之后,将经过标注处理的所述训练数据输出,以进行漏检标注,获取漏检标注目标的中心点,在所述目标标注集合中查找匹配的目标,所述匹配的目标对应的标注框坐标范围包含所述中心点的坐标,根据所述匹配的目标对应的标注框的大小确定一个标注框大小范围,生成多个临时标注框,所述临时标注框的大小在所述标注框大小范围内,且所述临时标注框的中心点与所述获取的中心点的距离小于预设的阈值,使用所述分类器计算所述多个临时标注框的置信度,并根据置信度从所述多个临时标注框中选取一个标注框作为所述漏检目标的标注框,在所述漏检目标所在的帧中将所述漏检目标标注出来,并将标注后的所述漏检目标添加到所述目标标注集合中。
其中,所述漏检标注单元用于:从所述多个临时标注框中选取置信度最高的标注框作为所述漏检目标的标注框。
另一种实施方式下,所述学习模块包括:
选取单元,用于在所述第一目标位置集合内按照置信度从低到高的顺序选取指定的比例的目标输出。
进一步地,所述学习模块还包括:
确定单元,用于在所述选取单元选取所述指定的比例的目标输出之前,根据所述分类器的精度确定所述指定的比例。
优选地,所述确定单元具体用于:按照公式H=K*(1-P)计算所述指定的比例;
其中,所述H为指定的比例,所述P为所述分类器的精度,所述K为指定的系数,且所述K≥1。
再一种实施方式下,所述性能测试模块包括:
测试单元,用于获取校验数据和所述校验数据的目标标注集合,使用所述分类器对所述校验数据进行目标检测,得到第三目标位置集合;
计算单元,用于对所述目标标注集合和所述第三目标位置集合取交集,用取交集的结果中的目标个数除以所述第三目标位置集合中的目标个数,得到所述分类器的精度。
又一种实施方式下,所述训练模块还包括:
初始训练单元,用于在所述目标跟踪模块首次使用所述分类器进行目标检测之前,用初始训练集合对所述分类器进行训练,并根据所述分类器的受试者工作特征ROC曲线,选取使所述分类器的召回率达到预设的召回率阈值时对应的置信度值,将所述选取的置信度值作为所述分类器的置信度阈值以使所述分类器按照所述置信度阈值进行目标检测。
再一种实施方式下,所述性能测试模块包括:
第一判断单元,用于判断所述分类器的精度是否大于或等于预设的精度阈值,如果是,则确定所述分类器的精度达到指定的精度要求,否则,确定所述分类器的精度未达到所述指定的精度要求;或者,
第二判断单元,用于判断所述分类器的精度与上一次进行目标检测时分类器的精度相差是否小于预设的差别阈值,如果是,则确定所述分类器的精度达到所述指定的精度要求,否则,确定所述分类器的精度未达到所述指定的精度要求。
本发明实施例提供的技术方案带来的有益效果是:通过在分类器的第一目标位置集合中选取置信度未达到指定的精度要求的目标输出以进行误检标注,得到第二目标位置集合,将第一目标位置集合和第二目标位置集合组合为目标标注集合对分类器进行训练,提高了分类器的精度,而且仅输出未达到精度要求的目标进行人工标注,极大地减少了人工标注的工作量,而且,所述目标标注集合可以用于训练目标检测器。
进一步地,通过对分类器的检测目标进行跟踪得到目标的轨迹,输出置信度低的目标进行人工确认,结合人工标注的结果以及目标轨迹,可以自动将视频数据中未标注的目标标注出来,由于仅输出置信度低的目标进行人工标注,极大地减少了人工标注的样本量,降低了成本,达到了省时省力的效果,提高了目标标注的效率;并且,将输出目标以外的置信度高的目标与基于轨迹标注的目标组成目标标注集合,对分类器进行训练,可以进一步提高分类器的精度,从而提高目标标注的准确率和精度。本发明实施例提供的技术方案由于只输出置信度低的目标进行人工标注,无需对所有的样本进行人工标注,因此,可以胜任对大规模的视频数据的目标标注,也能应用于新安装的摄像机拍摄的视频数据的目标标注,具有广阔的应用前景。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种标注目标的方法流程图;
图2是本发明实施例提供的另一种标注目标的方法流程图;
图3是本发明实施例提供的目标跟踪结果示意图;
图4是本发明实施例提供的对漏检目标进行标注的示意图;
图5是本发明实施例提供的增量渐进获取训练数据的示意图;
图6是本发明实施例提供的一种标注目标的装置结构图;
图7是本发明实施例提供的另一种标注目标的装置结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
参见图1,本发明一实施例提供了一种标注目标的方法,包括:
步骤101:获取训练数据,使用分类器对所述训练数据进行目标检测,得到第一目标位置集合;
步骤102:计算分类器的精度,判断分类器的精度是否达到指定的精度要求,当分类器的精度未达到指定的精度要求时,在第一目标位置集合内选取未达到指定置信度要求的目标输出,以进行误检标注,得到第二目标位置集合;
步骤103:将第一目标位置集合中达到指定置信度要求的目标与第二目标位置集合组成目标标注集合,根据该目标标注集合对分类器进行训练;
步骤104:重复执行上述步骤直至分类器的精度达到指定的精度要求。
本实施例提供的方法,通过在分类器的第一目标位置集合中选取置信度未达到指定的精度要求的目标输出以进行误检标注,得到第二目标位置集合,将第一目标位置集合和第二目标位置集合组合为目标标注集合对分类器进行训练,提高了分类器的精度,而且仅输出未达到精度要求的目标进行人工标注,极大地减少了人工标注的工作量,而且,所述目标标注集合可以用于训练目标检测器。
参见图2,本发明另一实施例还提供了一种标注目标的方法,包括:
步骤201:用初始训练集合对分类器进行训练,并确定该分类器的置信度阈值。
本实施例中,在首次使用分类器进行目标检测之前,先使用初始训练集合对其进行训练。所述初始训练集合为预先采集的视频数据,优选地,为采集的与待标注的视频数据的场景相关的视频数据,或者为同一场景下的视频数据,本发明对此不限定。
本发明实施例涉及的检测和标注的目标包括但不限于:人体、物体等,本发明对此不限定。
本发明实施例涉及的分类器(classifier)是使待划分对象被划归为某一类而使用的分类装置或数学模型。分类器是一种机器学习程序,在通过学习后,可自动将数据划分到已知类别。分类器可以应用在搜索引擎以及各种检索程序中,同时也大量应用于数据分析与预测领域,以及数据挖掘、专家***、模式识别等人工智能领域。分类器有多种分支,包括但不限于:Bayes分类器,BP神经网络分类器,决策树算法,SVM(支持向量机)算法等等。
通常情况下,分类器可以用如下表达式来描述:
其中,x是分类器的输入图像,F(x)为分类器检测输入图像得到的目标的置信度,t为分类器的置信度阈值,Y是分类器的输出,即分类器检测的目标集合。分类器的原理就是当检测目标的置信度大于或等于置信度阈值t时,分类器输出该目标;当检测目标的置信度小于置信度阈值t时,不输出该目标。分类器输出的目标组成了目标位置集合,该目标位置集合内可以包括一个或者多个目标,通常包括多个目标,目标位置集合内的每一个目标都有自己的位置信息,该位置信息通常以坐标信息来表示。
分类器的置信度阈值t可以是固定的,或者也可以是不固定的。通常情况下,在使用分类器进行目标检测之前,需要先确定分类器的置信度阈值t,使得分类器按照该置信度阈值进行目标检测,以便分类器的检测结果能够与预期的结果更接近。分类器的置信度阈值t是决定分类器是否将检测目标进行输出的一个关键性指标,确定该置信度阈值t与分类器的精度和召回率均有关。
本实施例中,确定所述分类器的置信度阈值,可以具体包括:
根据该分类器的ROC(Receiver Operating Characteristic,受试者工作特征)曲线,选取使该分类器的召回率达到预设的召回率阈值时对应的置信度值,将该选取的置信度值作为该分类器的置信度阈值以使分类器按照该置信度阈值进行目标检测。
其中,召回率(Recall)是检测出的正确目标数与实际目标总数的比率,衡量的是检测的查全率。与召回率密切相关的一个指标是精度(Precision),精度是检测出的正确目标数与检测出的目标总数的比率,衡量的是检测的查准率。召回率和精度是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。当召回率高时,精度低;当精度高时,召回率低。召回率和精度不可能两全其美,通常,在不牺牲精度的情况下,获得一个高召回率是很困难的。
分类器的置信度阈值t的调整会同时影响召回率和精度。分类器的置信度阈值t越小,分类器检测出的结果就越多,这样召回率也就越高,但是带来的副作用就是误检也会增加,所以精度会下降。为了更合理地确定分类器的置信度阈值,本实施例基于ROC曲线来确定分类器的置信度阈值。
所述ROC曲线又称为感受性曲线(sensitivity curve),它是根据一系列不同的二分类方式,以真阳性率(灵敏度)为纵坐标,假阳性率(1-特异度)为横坐标绘制的曲线。ROC曲线评价方法具有广泛的应用。分类器的ROC曲线上,每一个点都对应一组参数(t,r,p),其中,t是分类器的置信度阈值,r是分类器的召回率,p是分类器的精度。当指定这三个参数中的任何一个参数时,根据该ROC曲线就可以得到对应的其余两个参数。例如,指定置信度阈值t为t1,则根据ROC曲线可以得到与t1对应的r1和p1。
本实施例中,可以预先指定一个召回率阈值,然后在ROC曲线上找到召回率达到该召回率阈值时对应的点,并确定出该点对应的置信度值,将该置信度值作为该分类器的置信度阈值。通过这种方式确定分类器的置信度阈值,可以保证分类器的召回率能够达到期望的要求。所述召回率阈值可以根据需要设置,作为本发明的一个实施例,可以将召回率阈值设置为0.9,这种情况下可以保证分类器的漏检率在0.1以下。当然在本发明的其它实施例中还可以将召回率阈值设置为其它的值,如0.8或0.85等等,本发明对此不限定。
步骤202:获取训练数据,使用分类器对该训练数据进行目标检测,得到第一目标位置集合。
本实施例中,所述训练数据可以是图像数据,或者也可以是视频数据。当训练数据是视频数据时,所述获取训练数据是指在输入到分类器的视频数据中获取,所述输入到分类器的视频数据可以是在线的视频数据,即实时拍摄的视频数据;或者,也可以是离线的视频数据,即已经拍摄好的视频数据,本发明对此不限定。通常情况下,所述输入的视频数据是针对某一个场景拍摄的一段视频数据,该视频数据包括多个帧,每个帧为一个视频图像,每一个视频图像反映了对应时刻的场景内容,包括人体、物体、背景等。由于场景中的人或者物体等随着时间的推移会发生变化,因此,一段视频数据反映了对应的一段时间内该场景的变化。
本实施例中,获取训练数据可以是一次性获取全部的训练数据;或者也可以是分多次获取,每次获取一部分训练数据,本发明对此不限定。由于初始时分类器的精度不是很高,优选地,可以采取增量渐进的方式分多次获取,该过程具体如下:
当首次获取训练数据时,在训练数据中选取一个训练数据段;
当非首次获取训练数据时,在所述训练数据中未被选取过的数据中选取一个训练数据段,且本次选取的训练数据段中的数据个数大于上一次选取的训练数据段中的数据个数。
步骤203:对第一目标位置集合内的目标进行跟踪得到目标的轨迹。
本实施例中,当所述训练数据为视频数据时,可以采用目标跟踪算法对第一目标位置集合内的目标进行跟踪,得到目标的轨迹。目标跟踪技术广泛应用于导航、交通以及军事等相关领域。目标跟踪技术可以收集各个时刻目标的数据,将不同时刻下同一目标的检测结果关联起来,合并到一个集合中,得到目标的轨迹。所述目标跟踪算法包括但不限于:多假设跟踪,均值漂移跟踪算法,粒子滤波跟踪算法等,本发明对此不限定。
例如,参见图3,为对分类器检测的目标进行跟踪的示意图。其中,以视频数据包括3帧图像为例进行说明,如图3a所示。分类器对该3帧图像进行目标检测后得到第一目标位置集合,如图3b所示,该第一目标位置集合中包括6个目标,且以方形的标注框标注在图像中。采用目标跟踪算法对这6个目标进行跟踪后,可以得到四条轨迹,如图3c所示,每一条轨迹就是一个集合,该集合包括了3个不同时刻下的同一个目标。
本实施例中,可以保存跟踪得到的目标轨迹,以便于后续根据目标轨迹进行相应的标注。其中,在保存目标轨迹时,可以给不同的目标分配不同的ID,在一条轨迹中不同时刻的同一个目标均具有相同的ID。
步骤204:计算该分类器的精度。
本实施例中,计算分类器的精度,可以具体包括:
获取校验数据和该校验数据的目标标注集合;使用该分类器对该校验数据进行目标检测,得到第三目标位置集合;对该目标标注集合和第三目标位置集合取交集,用取交集的结果中的目标个数除以第三目标位置集合中的目标个数,得到该分类器的精度。
具体地,上述计算过程可以用如下公式来表示:
Precision=|A∩B|/|B|; (2)
其中,Precision表示分类器的精度,A表示目标标注集合,B表示第三目标位置集合。
本实施例中,所述校验数据是指预先采集的用于测试分类器的精度的数据,优选地,是视频数据。所述视频数据可以是离线的视频数据。所述校验数据的目标标注集合是指标注结果为正确的目标位置集合。作为本发明的一个实施例,所述校验数据的目标标注集合可以通过人工标注的方式来获得,当然,在本发明的其它实施例中,也可以通过其它精度较高的分类器来获得,本发明对此不限定。无论采用哪种方式获得,该目标标注集合中的目标被视为是正确的标注目标,以此为标准对本发明中的分类器进行性能测试,以测试该分类器的精度。所述第三目标位置集合是采用本发明中的分类器对所述校验数据进行目标检测后实际得到的检测结果,其中包括正确的检测目标,也可能包括错误的检测目标。当分类器的精度较高时,该第三目标位置集合中的错误目标就会较少,当分类器的精度较低时,该第三目标位置集合中的错误目标就会较多。
例如,校验数据的目标标注集合A中有100个目标,分类器测试得到的第三目标位置集合B中有110个目标,即分类器标注出来110个目标。其中A∩B=90,即分类器标注出90个正确的目标,则分类器的精度为90/110=82%,也就是说82%的标注结果是正确的。
本实施例中涉及的校验数据优选地是不同于训练集合的数据,所述校验数据不作为训练数据对分类器进行训练,是专门用于分类器性能测试的独立数据,这样可以保证对分类器的性能测试更加客观、合理,测试结果能够更真实地反映分类器的精度。
步骤205:判断计算出的该分类器的精度是否达到指定的精度要求,如果该精度未达到指定的精度要求,则执行步骤206;如果该精度达到指定的精度要求,则流程结束。
其中,判断该分类器的精度是否达到指定的精度要求,可以采用以下任一种方式实现:
第一种方式:判断该分类器的精度是否大于或等于预设的精度阈值,如果是,则确定该分类器的精度达到指定的精度要求,否则,确定该分类器的精度未达到指定的精度要求;或者,
第二种方式:判断该分类器的精度与上一次进行目标检测时分类器的精度相差是否小于预设的差别阈值,如果是,则确定该分类器的精度达到指定的精度要求,否则,确定该分类器的精度未达到指定的精度要求。
所述第一种方式中涉及的精度阈值为预先设置的精度边界值。当分类器的精度大于或等于该精度阈值时,认为分类器的精度已经达到要求了,可以直接使用该分类器进行目标检测,无需再进行训练和学习了。当分类器的精度小于该精度阈值时,认为分类器的精度还不够,未能达到指定的要求,因此,需要对分类器继续进行训练和学习。
例如,预设的精度阈值为0.8,如果实际测试出分类器的精度为0.7,则认为该分类器未达到指定的要求,如果实际测试出的分类器的精度为0.9,则认为该分类器达到了指定的要求。
所述第二种方式中的差别阈值是指预先设置的精度之差的阈值。如果当前的分类器的精度与上一次进行目标检测时分类器的精度相比之差小于该差别阈值,则表明分类器的精度已经不能再提高了,即认为分类器的精度达到了指定的要求,可以直接使用该分类器进行目标检测,无需再进行训练和学习了。如果当前的分类器的精度与上一次进行目标检测时分类器的精度相比之差大于或等于该差别阈值,则表明分类器的精度还可以再提高,因此,需要继续对分类器进行训练和学习。
例如,预设的差别阈值为0.05,如果当前实际测试的分类器的精度为0.7,上一次实际测试的分类器的精度为0.6,则二者相差为0.1,且0.1>0.05,因此,认为分类器的精度可以再提高,此时,还没有达到指定的要求。如果当前实际测试的分类器的精度为0.9,上一次实际测试的分类器的精度为0.88,则二者相差为0.02,且0.02<0.05,因此,认为分类器的精度不能再提高了,此时,分类器的精度已经达到了指定的要求,可以直接使用该分类器进行目标检测,无需再进行训练和学习了。
步骤206:在第一目标位置集合内按照置信度从低到高的顺序选取指定的比例的目标输出,以进行误检的人工确认。
本实施例中,对于分类器进行目标检测得到的每一个目标,都具有一个置信度,该置信度反映了检测目标的准确程度,置信度越高,表明该目标的正确度越高,置信度越低,表明该目标的正确度越低。对于第一目标位置集合内的目标,可以按照各个目标的置信度进行排序,如按照置信度从低到高的顺序进行排序,以便于选取指定的比例的目标。
其中,所述指定的比例可以预先根据该分类器的精度确定。
具体地,根据该分类器的精度确定该指定的比例,可以包括:
按照如下公式计算该指定的比例:
H=K*(1-P); (3)
其中,所述H为指定的比例,所述P为该分类器的精度,所述K为指定的系数,且K≥1。具体地,所述K的取值可以根据需要预先设置,优选地设置为大于1的数,以便将指定的比例确定得比分类器的错误率稍微高些,从而保证可以获得更多的人工标注的正确的目标标注结果。作为本发明的一个实施例,可以将所述系数K设置为2,当然,在其它的实施例中也可以设置为1.5,或者2.5,或者3等等,本发明对此不限定。
例如,实际测试分类器的精度P为82%,则1-P=18%,表明标注结果中有18%的标注结果是错误的,预设K=2,则计算出所述指定的比例为2*18%=36%,因此,按照置信度从低到高的顺序输出36%的目标进行人工确认,由人工确认这些输出的目标是正确的目标,还是错误的目标,从而使得这些置信度较低的目标可以通过人工标注的方式获得正确的目标位置集合。
本步骤中,输出选取的目标以进行人工确认时,可以采用多种方式输出。作为本发明的一个实施例,可以将选取的目标所在的帧输出进行人工确认;或者,在本发明的另一个实施例中,可以将选取的目标从所在的帧中提取出来,单独输出该目标进行人工确认;类似地,还有其它的方式,本发明对此不限定。人工对输出的目标进行确认时,也可以采用多种方式进行标注,包括但不限于:仅标注出正确的目标,或者仅标注出错误的目标,或者将正确的目标和错误的目标以不同的颜色或形状进行标注以进行区分,等等,本发明对此也不做具体限定。
本发明实施例中,分类器检测目标的结果可以输出进行显示,且检测到的各个目标会在各帧中以标注框的形式标注出来,所述标注框的形状本发明对此不做具体限定,包括但不限于:正方形、长方形或者圆形等等。
步骤207:根据人工标注的结果获取正样本目标,按照该正样本目标的轨迹,将所述视频数据中未标注的该正样本目标标注出来。
所述根据人工标注的结果获取正样本目标包括多种场景:如果人工标注的是正确的目标,则直接获取该目标;如果人工标注的是错误的目标,则获取相反的目标,即人工未标注的目标;如果人工既标注了正确的目标,也标注了错误的目标,则根据二者标注的区别获取正确的目标。
本发明实施例中涉及的正样本目标可以为一个,或者也可以为多个。当根据人工标注的结果获取到多个正样本目标时,可以根据上述已经获得的目标轨迹确定其中每一个正样本目标的轨迹。
其中,按照正样本目标的轨迹,将所述视频数据中未标注的该正样本目标标注出来,可以具体包括:
根据该正样本目标的轨迹,确定正样本目标在所述视频数据中所处的各个帧,将所述各个帧中未标注的正样本目标标注出来。这个过程可以理解为是以一个正样本目标为例进行说明的,当有多个正样本目标时,仅仅是上述过程的简单重复,因此,此处不做过多说明。这种基于跟踪轨迹对目标进行标注的方式极大地减少了人工标注的工作量,对于一条目标轨迹中的若干时刻的跟踪结果,只需人工标注一个,其余的均可以实现自动进行标注,极大地提高了目标标注的效率。举例来说,假设每个目标从出现到消失平均持续30帧以上,那么针对跟踪算法的轨迹进行主动学习和标注可以将标注工作减少30倍。
具体地,还可以结合目标ID对目标L进行标注,例如,目标L的轨迹中包括6个不同时刻的跟踪结果,这6个时刻分别为t1、t2、t3、t4、t5和t6。当人工对其中的t1时刻的目标L进行标注后,基于不同时刻的同一目标具有相同的ID,因此,可以将所述视频数据中具有该ID的其它时刻的目标L均标注出来,即把时刻t2、t3、t4、t5和t6下的目标L标注出来,从而极大地节省了人工标注的成本,提高了效率。
步骤208:将第一目标位置集合中达到指定置信度要求的目标,与所述视频数据中已标注的所述正样本目标,组成目标标注集合,根据该目标标注集合对该分类器进行训练,然后返回执行步骤202。
其中,所述达到指定置信度要求的目标是指置信度较高的目标,也就是除输出目标以外的目标。例如,第一目标位置集合中有100个目标,按照置信度从低到高的顺序选取20个目标输出后,剩余的80个目标被视为是置信度较高,比较可靠的目标,将这些目标加入目标标注集合,对分类器进行训练可以进一步地提高分类器的精度。
所述视频数据中已标注的所述正样本目标包括人工标注的某一时刻的该正样本目标,以及分类器自动标注的其它时刻的该正样本目标。
本步骤中组成的目标标注集合用来对分类器进行训练,因此,也可以称为训练集合,当然,作为分类器的输出结果,该目标标注集合也可以用来训练目标检测器。
本实施例中,当分类器的精度达到指定的精度要求时,无需再继续对分类器进行训练和学习了,可以直接使用该分类器对输入的视频数据进行目标检测了,所述目标标注可以是在线的实时标注,或者是离线的标注,本发明对此不限定。例如,对一个摄像头拍摄到的视频数据实时进行目标检测;或者,对已经拍摄好的一段视频数据进行目标检测等等。
另外,本发明实施例中,在分类器进行目标检测的过程中,还可能出现漏检的情况,因此,为了进一步提高标注结果的准确性,所述方法还包括对漏检的目标进行补充标注的步骤,具体如下:
在组成目标标注集合之后,将经过标注处理的所述训练数据输出以进行漏检的人工标注,获取人工对漏检目标标注的中心点;
在所述目标标注集合中查找匹配的目标,所述匹配的目标对应的标注框坐标范围包含所述中心点的坐标;
根据所述匹配的目标对应的标注框的大小确定一个标注框大小范围;
生成多个临时标注框,所述临时标注框的大小在所述标注框大小范围内,且所述临时标注框的中心点与所述获取的中心点的距离小于预设的阈值;
使用所述分类器计算所述多个临时标注框的置信度,并根据置信度从该多个临时标注框中选取一个标注框作为该漏检目标的标注框,在所述漏检目标所在的帧中将该漏检目标标注出来,并将标注后的该漏检目标添加到所述目标标注集合中。
其中,根据所述匹配的目标对应的标注框的大小确定一个标注框大小范围,包括:
在所述匹配的目标对应的多个标注框中选取最大的标注框和最小的标注框,以该最大的标注框的大小和该最小的标注框的大小作为边界值生成一个标注框大小范围。
优选地,根据置信度从所述多个临时标注框中选取一个标注框作为所述漏检目标的标注框,包括:
从所述多个临时标注框中选取置信度最高的标注框作为所述漏检目标的标注框。
其中,所述中心点为人工标注的一个像素点,如人工通过鼠标点击的一个像素点。所述匹配的目标是指已经标注出来的且标注框坐标范围能够包含该中心点坐标的目标,这些匹配的目标可能是所述视频数据中在某些时刻下出现在同一位置的其它标注目标,因此,可以作为当前漏检目标标注框大小的参考范围。所述临时标注框的中心点与所述获取的中心点的距离小于预设的阈值,是为了防止获取的中心点可能出现误差,不是漏检目标的真正中心点,因此,通过所述预设的阈值给符合标注框大小范围的临时标注框一个平移的范围,当临时标注框的中心点与获取的中心点的距离小于预设的阈值时,该获取的中心点可能位于该临时框的边缘处,这种情况下获取的中心点存在误差,因此,按照所述预设的阈值平移得到的该临时框也可以作为漏检目标的参考对象。为了使标注框能够更精确地标注漏检目标,可以在该多个临时标注框中尽量选取置信度较高的目标作为标注的依据。作为本发明的一个优选的实施例,可以在该多个临时标注框中选取置信度最高的标注框作为所述漏检目标的标注框,在该漏检目标所在的帧中将该漏检目标标注出来,从而达到提高精度的目的。通过这种方式,人工只需确定一个中心点,就可以实现漏检目标的自动标注,与现有的需要人工确定左上角点和右下角点的方式相比,有效地降低了漏检目标的标注次数,极大地节省了人工的成本,提高了目标标注的效率。
更进一步地,当进行漏检目标的标注后,还可以对已标注的漏检目标进行跟踪,以便在后续的帧中,根据该漏检目标的轨迹,对相应的帧中出现的同一目标进行标注,从而进一步地节省人工标注的成本以及提高目标标注的效率。
例如,参见图4,为对漏检目标进行标注的示意图。图4a显示的是输出的视频帧,其中有一个漏检的目标;图4b显示的是人工对漏检目标确定一个中心点;图4c显示的从目标标注集合中找到匹配目标确定一个标注框大小范围;图4d是生成多个临时标注框并按照置信度选取标注框;图4e是根据选取的标注框对漏检目标进行标注;图4f是对标注好的漏检目标进行跟踪后将该漏检目标在其它帧中标注出来。
本实施例提供的上述方法,通过在分类器的第一目标位置集合中选取置信度未达到指定的精度要求的目标输出以进行误检标注,得到第二目标位置集合,将第一目标位置集合和第二目标位置集合组合为目标标注集合对分类器进行训练,提高了分类器的精度,而且仅输出未达到精度要求的目标进行人工标注,极大地减少了人工标注的工作量,而且,所述目标标注集合可以用于训练目标检测器。
进一步地,通过对分类器的检测目标进行跟踪得到目标的轨迹,输出置信度低的目标进行人工确认,结合人工标注的结果以及目标轨迹,可以自动将视频数据中未标注的目标标注出来,由于仅输出置信度低的目标进行人工标注,极大地减少了人工标注的样本量,降低了成本,达到了省时省力的效果,提高了目标标注的效率;并且,将输出目标以外的置信度高的目标与基于轨迹标注的目标组成目标标注集合,对分类器进行训练,可以进一步提高分类器的精度,从而提高目标标注的准确率和精度。本发明实施例提供的技术方案由于只输出置信度低的目标进行人工标注,无需对所有的样本进行人工标注,因此,可以胜任对大规模的视频数据的目标标注,也能应用于新安装的摄像机拍摄的视频数据的目标标注,具有广阔的应用前景。
参见图5,为本实施例增量渐进获取视频数据的示意图。其中,分类器的输入视频数据分四次获取,图中标注的1、2、3、4四个数字代表获取的次数,每个数字上方的长方形代表一段时间的视频数据,可以看出每一次获取的视频数据的时长均大于上一次获取的视频数据的时长。每一个代表一段视频数据的长方形内包括的长方形表示需要手工进行标注的视频数据。例如,第1、2、3和4次的视频数据的时长分别为1个小时、3个小时、5个小时、8个小时。从图中可以明显地看出,多次增量渐进式获取视频数据的方式,可以使得人工标注的工作量逐步地递减,在第四次获取视频数据时,人工标注的工作量与第一次相比已经减少很多,从而极大地减少了人工标注的工作量。
参见图6,本发明实施例还提供了一种目标标注的装置,包括:目标检测模块601、性能测试模块602、学习模块603、训练模块604和迭代模块605;
目标检测模块601,用于获取训练数据,使用分类器对所述训练数据进行目标检测,得到第一目标位置集合;
性能测试模块602,用于计算分类器的精度,判断分类器的精度是否达到指定的精度要求;
学习模块603,用于当分类器的精度未达到指定的精度要求时,在第一目标位置集合内选取未达到指定置信度要求的目标输出,以进行误检标注,得到第二目标位置集合;
训练模块604,用于将第一目标位置集合中达到指定置信度要求的目标与第二目标位置集合组成目标标注集合,根据所述目标标注集合对分类器进行训练;
迭代模块605,用于重复触发目标检测模块601、性能测试模块602、学习模块603和训练模块604直至分类器的精度达到指定的精度要求。
作为本发明的一个实施例,所述训练数据为视频数据,所述装置还包括:
跟踪模块606,用于对第一目标位置集合内的目标进行跟踪得到目标的轨迹;
学习模块603用于:在第一目标位置集合内选取未达到指定置信度要求的目标输出,以进行误检标注,根据误检标注的结果获取正样本目标,按照所述正样本目标的轨迹,将所述视频数据中未标注的所述正样本目标标注出来,得到第二目标位置集合。
本实施例中,跟踪模块606可以保存跟踪得到的目标轨迹,以便于后续根据目标轨迹进行相应的标注。其中,在保存目标轨迹时,可以给不同的目标分配不同的ID,在一条轨迹中不同时刻的同一个目标均具有相同的ID。
进一步地,学习模块603可以包括:
误检标注单元603a,用于根据所述正样本目标的轨迹,确定所述正样本目标在所述视频数据中所处的各个帧,将所述各个帧中未标注的所述正样本目标标注出来。
作为本发明的另一个实施例,目标检测模块601可以包括:
获取单元601a,用于当首次获取训练数据时,在训练数据中选取一个训练数据段,当非首次获取训练数据时,在所述训练数据中未被选取过的数据中选取一个训练数据段,且本次选取的训练数据段中的数据个数大于上一次选取的训练数据段中的数据个数。
作为本发明的又一个实施例,训练模块604还包括:
漏检标注单元604a,用于在组成目标标注集合之后,将经过标注处理的所述训练数据输出,以进行漏检标注,获取漏检标注目标的中心点,在所述目标标注集合中查找匹配的目标,所述匹配的目标对应的标注框坐标范围包含所述中心点的坐标,根据所述匹配的目标对应的标注框的大小确定一个标注框大小范围,生成多个临时标注框,所述临时标注框的大小在所述标注框大小范围内,且所述临时标注框的中心点与所述获取的中心点的距离小于预设的阈值,使用所述分类器计算所述多个临时标注框的置信度,并根据置信度从所述多个临时标注框中选取一个标注框作为所述漏检目标的标注框,在所述漏检目标所在的帧中将所述漏检目标标注出来,并将标注后的所述漏检目标添加到所述目标标注集合中。
其中,漏检标注单元604a可以用于:从所述多个临时标注框中选取置信度最高的标注框作为所述漏检目标的标注框。
通过这种方式,人工只需确定一个中心点,就可以实现漏检目标的自动标注,与现有的需要人工确定左上角点和右下角点的方式相比,有效地降低了漏检目标的标注次数,极大地节省了人工的成本,提高了目标标注的效率。
作为本发明的再一个实施例,学习模块603包括:
选取单元603b,用于在第一目标位置集合内按照置信度从低到高的顺序选取指定的比例的目标输出。
进一步地,学习模块603还包括:
确定单元603c,用于在选取单元603b选取所述指定的比例的目标输出之前,根据所述分类器的精度确定所述指定的比例。
具体地,确定单元603c具体用于:按照公式H=K*(1-P)计算所述指定的比例;
其中,所述H为指定的比例,所述P为所述分类器的精度,所述K为指定的系数,且所述K≥1。具体地,所述K的取值可以根据需要预先设置,优选地设置为大于1的数,以便将指定的比例确定得比分类器的错误率稍微高些,从而保证可以获得更多的人工标注的正确的目标标注结果。作为本发明的一个实施例,可以将所述系数K设置为2,当然,在其它的实施例中也可以设置为1.5,或者2.5,或者3等等,本发明对此不限定。
作为本发明的另一个实施例,性能测试模块602包括:
测试单元602a,用于获取校验数据和所述校验数据的目标标注集合,使用分类器对所述校验数据进行目标检测,得到第三目标位置集合;
计算单元602b,用于对所述目标标注集合和第三目标位置集合取交集,用取交集的结果中的目标个数除以所述第三目标位置集合中的目标个数,得到分类器的精度。
本实施例中,所述校验数据是指预先采集的用于测试分类器的精度的数据,优选地,是视频数据。所述视频数据可以是离线的视频数据。所述校验数据的目标标注集合是指标注结果为正确的目标位置集合。作为本发明的一个实施例,所述校验数据的正样本目标位置集合可以通过人工标注的方式来获得,当然,在本发明的其它实施例中,也可以通过其它精度较高的分类器来获得,本发明对此不限定。无论采用哪种方式获得,该正样本目标位置集合中的目标被视为是正确的标注目标,以此为标准对本发明中的分类器进行性能测试,以测试该分类器的精度。
本实施例中涉及的校验数据优选地是不同于训练集合的数据,所述校验数据不作为训练数据对分类器进行训练,是专门用于分类器性能测试的独立数据,这样可以保证对分类器的性能测试更加客观、合理,测试结果能够更真实地反映分类器的精度。
作为本发明的再一个实施例,训练模块604还包括:
初始训练单元604b,用于在目标跟踪模块601首次使用所述分类器进行目标检测之前,用初始训练集合对所述分类器进行训练,并根据所述分类器的受试者工作特征ROC曲线,选取使所述分类器的召回率达到预设的召回率阈值时对应的置信度值,将所述选取的置信度值作为所述分类器的置信度阈值以使所述分类器按照所述置信度阈值进行目标检测。
其中,所述初始目标标注集合为预先采集的视频数据,优选地,为采集的与待标注的视频数据的场景相关的视频数据,或者为同一场景下的视频数据,本发明对此不限定。
作为本发明的另一个实施例,性能测试模块602包括:
第一判断单元,用于判断所述分类器的精度是否大于或等于预设的精度阈值,如果是,则确定所述分类器的精度达到指定的精度要求,否则,确定所述分类器的精度未达到所述指定的精度要求;或者,
第二判断单元,用于判断所述分类器的精度与上一次进行目标检测时分类器的精度相差是否小于预设的差别阈值,如果是,则确定所述分类器的精度达到所述指定的精度要求,否则,确定所述分类器的精度未达到所述指定的精度要求。
所述精度阈值为预先设置的精度边界值。当分类器的精度大于或等于该精度阈值时,认为分类器的精度已经达到要求了,可以直接使用该分类器进行目标检测,无需再进行训练和学习了。当分类器的精度小于该精度阈值时,认为分类器的精度还不够,未能达到指定的要求,因此,需要对分类器继续进行训练和学习。
所述差别阈值是指预先设置的精度之差的阈值。如果当前的分类器的精度与上一次进行目标检测时分类器的精度相比之差小于该差别阈值,则表明分类器的精度已经不能再提高了,即认为分类器的精度达到了指定的要求,可以直接使用该分类器进行目标检测,无需再进行训练和学习了。如果当前的分类器的精度与上一次进行目标检测时分类器的精度相比之差大于或等于该差别阈值,则表明分类器的精度还可以再提高,因此,需要继续对分类器进行训练和学习。
本实施例中,当分类器的精度达到指定的精度要求时,无需再继续对分类器进行训练和学习了,可以直接使用该分类器对输入的视频数据进行目标检测了,所述目标标注可以是在线的实时标注,或者是离线的标注,本发明对此不限定。例如,对一个摄像头拍摄到的视频数据实时进行目标检测;或者,对已经拍摄好的一段视频数据进行目标检测等等。
本发明实施例提供的装置可以执行上述方法实施例中的任一方法,具体过程详见方法实施例中的描述,此处不赘述。所述装置可以位于计算机等设备中,本发明对此不限定。
本实施例提供的上述装置,通过在分类器的第一目标位置集合中选取置信度未达到指定的精度要求的目标输出以进行误检标注,得到第二目标位置集合,将第一目标位置集合和第二目标位置集合组合为目标标注集合对分类器进行训练,提高了分类器的精度,而且仅输出未达到精度要求的目标进行人工标注,极大地减少了人工标注的工作量,而且,所述目标标注集合可以用于训练目标检测器。
进一步地,通过对分类器的检测目标进行跟踪得到目标的轨迹,输出置信度低的目标进行人工确认,结合人工标注的结果以及目标轨迹,可以自动将视频数据中未标注的目标标注出来,由于仅输出置信度低的目标进行人工标注,极大地减少了人工标注的样本量,降低了成本,达到了省时省力的效果,提高了目标标注的效率;并且,将输出目标以外的置信度高的目标与基于轨迹标注的目标组成目标标注集合,对分类器进行训练,可以进一步提高分类器的精度,从而提高目标标注的准确率和精度。本发明实施例提供的技术方案由于只输出置信度低的目标进行人工标注,无需对所有的样本进行人工标注,因此,可以胜任对大规模的视频数据的目标标注,也能应用于新安装的摄像机拍摄的视频数据的目标标注,具有广阔的应用前景。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (24)
1.一种标注目标的方法,其特征在于,所述方法包括:
获取训练数据,使用分类器对所述训练数据进行目标检测,得到第一目标位置集合;
计算所述分类器的精度,判断所述分类器的精度是否达到指定的精度要求,当所述分类器的精度未达到所述指定的精度要求时,在所述第一目标位置集合内选取未达到指定置信度要求的目标输出,以进行误检标注,得到第二目标位置集合;
将所述第一目标位置集合中达到所述指定置信度要求的目标与所述第二目标位置集合组成目标标注集合,根据所述目标标注集合对所述分类器进行训练;
重复执行上述步骤直至所述分类器的精度达到所述指定的精度要求。
2.根据权利要求1所述的方法,其特征在于,所述训练数据为视频数据;
使用分类器对所述训练数据进行目标检测,得到第一目标位置集合之后,还包括:
对所述第一目标位置集合内的目标进行跟踪得到目标的轨迹;
在所述第一目标位置集合内选取未达到指定置信度要求的目标输出,以进行误检标注,得到第二目标位置集合,包括:
在所述第一目标位置集合内选取未达到指定置信度要求的目标进行输出,以进行误检标注;
根据误检标注的结果获取正样本目标,按照所述正样本目标的轨迹,将所述视频数据中未标注的所述正样本目标标注出来,得到第二目标位置集合。
3.根据权利要求2所述的方法,其特征在于,按照所述正样本目标的轨迹,将所述视频数据中未标注的所述正样本目标标注出来,包括:
根据所述正样本目标的轨迹,确定所述正样本目标在所述视频数据中所处的各个帧;
将所述各个帧中未标注的所述正样本目标标注出来。
4.根据权利要求1所述的方法,其特征在于,所述获取训练数据,包括:
当首次获取训练数据时,在训练数据中选取一个训练数据段;
当非首次获取训练数据时,在所述训练数据中未被选取过的数据中选取一个训练数据段,且本次选取的训练数据段中的数据个数大于上一次选取的训练数据段中的数据个数。
5.根据权利要求1所述的方法,其特征在于,将所述第一目标位置集合中达到所述指定置信度要求的目标与所述第二目标位置集合组成目标标注集合之后,还包括:
将经过标注处理的所述训练数据输出,以进行漏检标注;
获取漏检标注目标的中心点;
在所述目标标注集合中查找匹配的目标,所述匹配的目标对应的标注框坐标范围包含所述中心点的坐标;
根据所述匹配的目标对应的标注框的大小确定一个标注框大小范围;
生成多个临时标注框,所述临时标注框的大小在所述标注框大小范围内,且所述临时标注框的中心点与所述获取的中心点的距离小于预设的阈值;
使用所述分类器计算所述多个临时标注框的置信度,并根据置信度从所述多个临时标注框中选取一个标注框作为所述漏检目标的标注框,在所述漏检目标所在的帧中将所述漏检目标标注出来,并将标注后的所述漏检目标添加到所述目标标注集合中。
6.根据权利要求5所述的方法,其特征在于,根据置信度从所述多个临时标注框中选取一个标注框作为所述漏检目标的标注框,包括:
从所述多个临时标注框中选取置信度最高的标注框作为所述漏检目标的标注框。
7.根据权利要求1所述的方法,其特征在于,在所述第一目标位置集合内选取未达到指定置信度要求的目标输出,包括:
在所述第一目标位置集合内按照置信度从低到高的顺序选取指定的比例的目标输出。
8.根据权利要求7所述的方法,其特征在于,在所述第一目标位置集合内按照置信度从低到高的顺序选取指定的比例的目标输出之前,还包括:
根据所述分类器的精度确定所述指定的比例。
9.根据权利要求8所述的方法,其特征在于,根据所述分类器的精度确定所述指定的比例,包括:
按照公式H=K*(1-P)计算所述指定的比例;
其中,所述H为指定的比例,所述P为所述分类器的精度,所述K为指定的系数,且所述K≥1。
10.根据权利要求1所述的方法,其特征在于,计算所述分类器的精度,包括:
获取校验数据和所述校验数据的目标标注集合;
使用所述分类器对所述校验数据进行目标检测,得到第三目标位置集合;
对所述目标标注集合和所述第三目标位置集合取交集,用取交集的结果中的目标个数除以所述第三目标位置集合中的目标个数,得到所述分类器的精度。
11.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在首次使用所述分类器进行目标检测之前,用初始训练集合对所述分类器进行训练,并根据所述分类器的受试者工作特征ROC曲线,选取使所述分类器的召回率达到预设的召回率阈值时对应的置信度值,将所述选取的置信度值作为所述分类器的置信度阈值以使所述分类器按照所述置信度阈值进行目标检测。
12.根据权利要求1所述的方法,其特征在于,判断所述分类器的精度是否达到指定的精度要求,包括:
判断所述分类器的精度是否大于或等于预设的精度阈值,如果是,则确定所述分类器的精度达到指定的精度要求,否则,确定所述分类器的精度未达到所述指定的精度要求;或者,
判断所述分类器的精度与上一次进行目标检测时分类器的精度相差是否小于预设的差别阈值,如果是,则确定所述分类器的精度达到所述指定的精度要求,否则,确定所述分类器的精度未达到所述指定的精度要求。
13.一种标注目标的装置,其特征在于,所述装置包括:目标检测模块、性能测试模块、学习模块、训练模块和迭代模块;
所述目标检测模块,用于获取训练数据,使用分类器对所述训练数据进行目标检测,得到第一目标位置集合;
所述性能测试模块,用于计算所述分类器的精度,判断所述分类器的精度是否达到指定的精度要求;
所述学习模块,用于当所述分类器的精度未达到所述指定的精度要求时,在所述第一目标位置集合内选取未达到指定置信度要求的目标输出,以进行误检标注,得到第二目标位置集合;
所述训练模块,用于将所述第一目标位置集合中达到所述指定置信度要求的目标与所述第二目标位置集合组成目标标注集合,根据所述目标标注集合对所述分类器进行训练;
所述迭代模块,用于重复触发所述目标检测模块、性能测试模块、学习模块和训练模块直至所述分类器的精度达到所述指定的精度要求。
14.根据权利要求13所述的装置,其特征在于,所述训练数据为视频数据;
所述装置还包括:
跟踪模块,用于对所述第一目标位置集合内的目标进行跟踪得到目标的轨迹;
所述学习模块用于:在所述第一目标位置集合内选取未达到指定置信度要求的目标进行输出,以进行误检标注,根据误检标注的结果获取正样本目标,按照所述正样本目标的轨迹,将所述视频数据中未标注的所述正样本目标标注出来,得到第二目标位置集合。
15.根据权利要求14所述的装置,其特征在于,所述学习模块包括:
误检标注单元,用于根据所述正样本目标的轨迹,确定所述正样本目标在所述视频数据中所处的各个帧,将所述各个帧中未标注的所述正样本目标标注出来。
16.根据权利要求13所述的装置,其特征在于,所述目标检测模块包括:
获取单元,用于当首次获取训练数据时,在训练数据中选取一个训练数据段,当非首次获取训练数据时,在所述训练数据中未被选取过的数据中选取一个训练数据段,且本次选取的训练数据段中的数据个数大于上一次选取的训练数据段中的数据个数。
17.根据权利要求13所述的装置,其特征在于,所述训练模块还包括:
漏检标注单元,用于在组成目标标注集合之后,将经过标注处理的所述训练数据输出,以进行漏检标注,获取漏检标注目标的中心点,在所述目标标注集合中查找匹配的目标,所述匹配的目标对应的标注框坐标范围包含所述中心点的坐标,根据所述匹配的目标对应的标注框的大小确定一个标注框大小范围,生成多个临时标注框,所述临时标注框的大小在所述标注框大小范围内,且所述临时标注框的中心点与所述获取的中心点的距离小于预设的阈值,使用所述分类器计算所述多个临时标注框的置信度,并根据置信度从所述多个临时标注框中选取一个标注框作为所述漏检目标的标注框,在所述漏检目标所在的帧中将所述漏检目标标注出来,并将标注后的所述漏检目标添加到所述目标标注集合中。
18.根据权利要求17所述的装置,其特征在于,所述漏检标注单元用于:从所述多个临时标注框中选取置信度最高的标注框作为所述漏检目标的标注框。
19.根据权利要求13所述的装置,其特征在于,所述学习模块包括:
选取单元,用于在所述第一目标位置集合内按照置信度从低到高的顺序选取指定的比例的目标输出。
20.根据权利要求19所述的装置,其特征在于,所述学习模块还包括:
确定单元,用于在所述选取单元选取所述指定的比例的目标输出之前,根据所述分类器的精度确定所述指定的比例。
21.根据权利要求20所述的装置,其特征在于,
所述确定单元具体用于:按照公式H=K*(1-P)计算所述指定的比例;
其中,所述H为指定的比例,所述P为所述分类器的精度,所述K为指定的系数,且所述K≥1。
22.根据权利要求13所述的装置,其特征在于,所述性能测试模块包括:
测试单元,用于获取校验数据和所述校验数据的目标标注集合,使用所述分类器对所述校验数据进行目标检测,得到第三目标位置集合;
计算单元,用于对所述目标标注集合和所述第三目标位置集合取交集,用取交集的结果中的目标个数除以所述第三目标位置集合中的目标个数,得到所述分类器的精度。
23.根据权利要求13所述的装置,其特征在于,所述训练模块还包括:
初始训练单元,用于在所述目标跟踪模块首次使用所述分类器进行目标检测之前,用初始训练集合对所述分类器进行训练,并根据所述分类器的受试者工作特征ROC曲线,选取使所述分类器的召回率达到预设的召回率阈值时对应的置信度值,将所述选取的置信度值作为所述分类器的置信度阈值以使所述分类器按照所述置信度阈值进行目标检测。
24.根据权利要求13所述的装置,其特征在于,所述性能测试模块包括:
第一判断单元,用于判断所述分类器的精度是否大于或等于预设的精度阈值,如果是,则确定所述分类器的精度达到指定的精度要求,否则,确定所述分类器的精度未达到所述指定的精度要求;或者,
第二判断单元,用于判断所述分类器的精度与上一次进行目标检测时分类器的精度相差是否小于预设的差别阈值,如果是,则确定所述分类器的精度达到所述指定的精度要求,否则,确定所述分类器的精度未达到所述指定的精度要求。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210076927.4A CN103324937B (zh) | 2012-03-21 | 2012-03-21 | 标注目标的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210076927.4A CN103324937B (zh) | 2012-03-21 | 2012-03-21 | 标注目标的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103324937A true CN103324937A (zh) | 2013-09-25 |
CN103324937B CN103324937B (zh) | 2016-08-03 |
Family
ID=49193665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210076927.4A Active CN103324937B (zh) | 2012-03-21 | 2012-03-21 | 标注目标的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103324937B (zh) |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104933588A (zh) * | 2015-07-01 | 2015-09-23 | 北京京东尚科信息技术有限公司 | 用于拓展商品品类的数据标注平台及方法 |
CN106814753A (zh) * | 2017-03-20 | 2017-06-09 | 成都通甲优博科技有限责任公司 | 一种目标位置矫正方法、装置及*** |
CN106874843A (zh) * | 2016-12-30 | 2017-06-20 | 浙江宇视科技有限公司 | 一种目标跟踪方法以及设备 |
CN107818389A (zh) * | 2016-09-12 | 2018-03-20 | 北京嘀嘀无限科技发展有限公司 | 公交路线验证处理方法及装置 |
WO2018076122A1 (en) * | 2016-10-31 | 2018-05-03 | Twenty Billion Neurons GmbH | System and method for improving the prediction accuracy of a neural network |
CN108108745A (zh) * | 2016-11-23 | 2018-06-01 | 财团法人工业技术研究院 | 分类方法、分类模块及计算机程序产品 |
WO2018119684A1 (zh) * | 2016-12-27 | 2018-07-05 | 深圳前海达闼云端智能科技有限公司 | 一种图像识别***及图像识别方法 |
CN108492343A (zh) * | 2018-03-28 | 2018-09-04 | 东北大学 | 一种扩充目标识别的训练数据的图像合成方法 |
CN108537244A (zh) * | 2017-12-04 | 2018-09-14 | 中南大学 | 一种面向实时***的渐进式深度学习方法 |
WO2018201444A1 (en) * | 2017-05-05 | 2018-11-08 | Boe Technology Group Co., Ltd. | Method for detecting and tracking target object, target object tracking apparatus, and computer-program product |
CN108830332A (zh) * | 2018-06-22 | 2018-11-16 | 安徽江淮汽车集团股份有限公司 | 一种视觉车辆检测方法及*** |
CN108875768A (zh) * | 2018-01-23 | 2018-11-23 | 北京迈格威科技有限公司 | 数据标注方法、装置和***及存储介质 |
CN108898188A (zh) * | 2018-07-06 | 2018-11-27 | 四川奇迹云科技有限公司 | 一种图像数据集辅助标记***及方法 |
CN108960046A (zh) * | 2018-05-23 | 2018-12-07 | 北京图森未来科技有限公司 | 一种训练数据采样方法及其装置、计算机服务器 |
CN109427073A (zh) * | 2017-08-31 | 2019-03-05 | 杭州海康威视数字技术股份有限公司 | 一种运动目标确定方法、装置及电子设备 |
CN109697393A (zh) * | 2017-10-23 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 人物跟踪方法、装置、电子装置及计算机可读介质 |
CN109829375A (zh) * | 2018-12-27 | 2019-05-31 | 深圳云天励飞技术有限公司 | 一种机器学习方法、装置、设备及*** |
CN109886338A (zh) * | 2019-02-25 | 2019-06-14 | 苏州清研精准汽车科技有限公司 | 一种智能汽车测试图像标注方法、装置、***及存储介质 |
CN110032914A (zh) * | 2018-01-12 | 2019-07-19 | 北京京东尚科信息技术有限公司 | 一种标注图片的方法和装置 |
CN110163043A (zh) * | 2018-05-18 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 面部检测方法、装置、存储介质及电子装置 |
CN110263652A (zh) * | 2019-05-23 | 2019-09-20 | 杭州飞步科技有限公司 | 激光点云数据识别方法及装置 |
CN110264523A (zh) * | 2019-06-25 | 2019-09-20 | 亮风台(上海)信息科技有限公司 | 一种确定测试图像中的目标图像的位置信息的方法与设备 |
CN110288007A (zh) * | 2019-06-05 | 2019-09-27 | 北京三快在线科技有限公司 | 数据标注的方法、装置及电子设备 |
CN110443141A (zh) * | 2019-07-08 | 2019-11-12 | 深圳中兴网信科技有限公司 | 数据集处理方法、数据集处理装置及存储介质 |
CN110503074A (zh) * | 2019-08-29 | 2019-11-26 | 腾讯科技(深圳)有限公司 | 视频帧的信息标注方法、装置、设备及存储介质 |
CN111401228A (zh) * | 2020-03-13 | 2020-07-10 | 中科创达软件股份有限公司 | 视频目标标注方法、装置及电子设备 |
CN111461056A (zh) * | 2020-04-15 | 2020-07-28 | 北京罗克维尔斯科技有限公司 | 一种样本数据获取方法和装置 |
CN111723623A (zh) * | 2019-03-22 | 2020-09-29 | 杭州海康威视数字技术股份有限公司 | 一种检测平台的方法及装置 |
US10859387B2 (en) | 2016-04-27 | 2020-12-08 | Beijing Didi Infinity Technology And Development Co., Ltd. | System and method for determining routes of transportation service |
CN112257587A (zh) * | 2020-10-22 | 2021-01-22 | 江苏禹空间科技有限公司 | 目标对象的检测效果评估方法、装置、存储介质及设备 |
CN112269379A (zh) * | 2020-10-14 | 2021-01-26 | 北京石头世纪科技股份有限公司 | 障碍物识别信息反馈方法 |
CN112287898A (zh) * | 2020-11-26 | 2021-01-29 | 深源恒际科技有限公司 | 一种图像的文本检测质量评价方法及*** |
CN112861959A (zh) * | 2021-02-02 | 2021-05-28 | 南京天创电子技术有限公司 | 一种目标检测图像的自动标注方法 |
CN113156263A (zh) * | 2021-03-23 | 2021-07-23 | 广东安恒电力科技有限公司 | 电缆状态监测方法及存储介质 |
TWI753347B (zh) * | 2018-10-29 | 2022-01-21 | 財團法人工業技術研究院 | 基於神經網路的分類裝置及分類方法 |
CN114782805A (zh) * | 2022-03-29 | 2022-07-22 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机巡逻的人在环路混合增强目标识别方法 |
US11704534B2 (en) | 2018-10-29 | 2023-07-18 | Industrial Technology Research Institute | Neural-network-based classification device and classification method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030046297A1 (en) * | 2001-08-30 | 2003-03-06 | Kana Software, Inc. | System and method for a partially self-training learning system |
US20090304268A1 (en) * | 2008-06-04 | 2009-12-10 | Nec Laboratories America, Inc. | System and Method for Parallelizing and Accelerating Learning Machine Training and Classification Using a Massively Parallel Accelerator |
CN101655910A (zh) * | 2008-08-21 | 2010-02-24 | 索尼(中国)有限公司 | 训练***、训练方法及检测方法 |
CN102054176A (zh) * | 2010-12-23 | 2011-05-11 | 中国科学院自动化研究所 | 用计算机对运动目标的场景图像建立语义场景模型的方法 |
US20110293136A1 (en) * | 2010-06-01 | 2011-12-01 | Porikli Fatih M | System and Method for Adapting Generic Classifiers for Object Detection in Particular Scenes Using Incremental Training |
-
2012
- 2012-03-21 CN CN201210076927.4A patent/CN103324937B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030046297A1 (en) * | 2001-08-30 | 2003-03-06 | Kana Software, Inc. | System and method for a partially self-training learning system |
US20090304268A1 (en) * | 2008-06-04 | 2009-12-10 | Nec Laboratories America, Inc. | System and Method for Parallelizing and Accelerating Learning Machine Training and Classification Using a Massively Parallel Accelerator |
CN101655910A (zh) * | 2008-08-21 | 2010-02-24 | 索尼(中国)有限公司 | 训练***、训练方法及检测方法 |
US20110293136A1 (en) * | 2010-06-01 | 2011-12-01 | Porikli Fatih M | System and Method for Adapting Generic Classifiers for Object Detection in Particular Scenes Using Incremental Training |
CN102054176A (zh) * | 2010-12-23 | 2011-05-11 | 中国科学院自动化研究所 | 用计算机对运动目标的场景图像建立语义场景模型的方法 |
Non-Patent Citations (2)
Title |
---|
MENG WANG,XIAOGANG WANG: "automatic adaptation of a generic pedestrian detector to a specific traffic scene", 《IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, 20 June 2011 (2011-06-20) * |
倪心强: "SAR图像分类与自动目标识别技术研究", 《中国博士学位论文全文数据库信息科技辑2008年》, no. 10, 15 October 2008 (2008-10-15) * |
Cited By (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104933588A (zh) * | 2015-07-01 | 2015-09-23 | 北京京东尚科信息技术有限公司 | 用于拓展商品品类的数据标注平台及方法 |
US10859387B2 (en) | 2016-04-27 | 2020-12-08 | Beijing Didi Infinity Technology And Development Co., Ltd. | System and method for determining routes of transportation service |
CN107818389A (zh) * | 2016-09-12 | 2018-03-20 | 北京嘀嘀无限科技发展有限公司 | 公交路线验证处理方法及装置 |
WO2018076122A1 (en) * | 2016-10-31 | 2018-05-03 | Twenty Billion Neurons GmbH | System and method for improving the prediction accuracy of a neural network |
CN108108745A (zh) * | 2016-11-23 | 2018-06-01 | 财团法人工业技术研究院 | 分类方法、分类模块及计算机程序产品 |
US11270166B2 (en) | 2016-12-27 | 2022-03-08 | Cloudminds (Shenzhen) Robotics Systems Co., Ltd | Image identification system and image identification method |
WO2018119684A1 (zh) * | 2016-12-27 | 2018-07-05 | 深圳前海达闼云端智能科技有限公司 | 一种图像识别***及图像识别方法 |
CN106874843A (zh) * | 2016-12-30 | 2017-06-20 | 浙江宇视科技有限公司 | 一种目标跟踪方法以及设备 |
CN106814753A (zh) * | 2017-03-20 | 2017-06-09 | 成都通甲优博科技有限责任公司 | 一种目标位置矫正方法、装置及*** |
CN106814753B (zh) * | 2017-03-20 | 2020-11-06 | 成都通甲优博科技有限责任公司 | 一种目标位置矫正方法、装置及*** |
WO2018201444A1 (en) * | 2017-05-05 | 2018-11-08 | Boe Technology Group Co., Ltd. | Method for detecting and tracking target object, target object tracking apparatus, and computer-program product |
US10896495B2 (en) | 2017-05-05 | 2021-01-19 | Boe Technology Group Co., Ltd. | Method for detecting and tracking target object, target object tracking apparatus, and computer-program product |
CN109791615A (zh) * | 2017-05-05 | 2019-05-21 | 京东方科技集团股份有限公司 | 用于检测并跟踪目标对象的方法、目标对象跟踪设备和计算机程序产品 |
CN109791615B (zh) * | 2017-05-05 | 2023-07-28 | 京东方科技集团股份有限公司 | 用于检测并跟踪目标对象的方法、目标对象跟踪设备和计算机程序产品 |
CN109427073B (zh) * | 2017-08-31 | 2020-12-11 | 杭州海康威视数字技术股份有限公司 | 一种运动目标确定方法、装置及电子设备 |
CN109427073A (zh) * | 2017-08-31 | 2019-03-05 | 杭州海康威视数字技术股份有限公司 | 一种运动目标确定方法、装置及电子设备 |
CN109697393A (zh) * | 2017-10-23 | 2019-04-30 | 北京京东尚科信息技术有限公司 | 人物跟踪方法、装置、电子装置及计算机可读介质 |
US11270126B2 (en) | 2017-10-23 | 2022-03-08 | Beijing Jingdong Shangke Information Technology Co., Ltd. | Person tracking method, device, electronic device, and computer readable medium |
CN108537244A (zh) * | 2017-12-04 | 2018-09-14 | 中南大学 | 一种面向实时***的渐进式深度学习方法 |
CN110032914A (zh) * | 2018-01-12 | 2019-07-19 | 北京京东尚科信息技术有限公司 | 一种标注图片的方法和装置 |
CN108875768A (zh) * | 2018-01-23 | 2018-11-23 | 北京迈格威科技有限公司 | 数据标注方法、装置和***及存储介质 |
CN108492343B (zh) * | 2018-03-28 | 2021-09-21 | 东北大学 | 一种扩充目标识别的训练数据的图像合成方法 |
CN108492343A (zh) * | 2018-03-28 | 2018-09-04 | 东北大学 | 一种扩充目标识别的训练数据的图像合成方法 |
CN110163043B (zh) * | 2018-05-18 | 2023-09-26 | 腾讯科技(深圳)有限公司 | 面部检测方法、装置、存储介质及电子装置 |
CN110163043A (zh) * | 2018-05-18 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 面部检测方法、装置、存储介质及电子装置 |
US11631249B2 (en) | 2018-05-23 | 2023-04-18 | Beijing Tusen Zhitu Technology Co., Ltd. | Method and apparatus for sampling training data and computer server |
US11068719B2 (en) | 2018-05-23 | 2021-07-20 | Tusimple, Inc. | Method and apparatus for sampling training data and computer server |
CN108960046A (zh) * | 2018-05-23 | 2018-12-07 | 北京图森未来科技有限公司 | 一种训练数据采样方法及其装置、计算机服务器 |
CN108830332A (zh) * | 2018-06-22 | 2018-11-16 | 安徽江淮汽车集团股份有限公司 | 一种视觉车辆检测方法及*** |
CN108898188A (zh) * | 2018-07-06 | 2018-11-27 | 四川奇迹云科技有限公司 | 一种图像数据集辅助标记***及方法 |
TWI753347B (zh) * | 2018-10-29 | 2022-01-21 | 財團法人工業技術研究院 | 基於神經網路的分類裝置及分類方法 |
US11704534B2 (en) | 2018-10-29 | 2023-07-18 | Industrial Technology Research Institute | Neural-network-based classification device and classification method |
CN109829375A (zh) * | 2018-12-27 | 2019-05-31 | 深圳云天励飞技术有限公司 | 一种机器学习方法、装置、设备及*** |
CN109886338A (zh) * | 2019-02-25 | 2019-06-14 | 苏州清研精准汽车科技有限公司 | 一种智能汽车测试图像标注方法、装置、***及存储介质 |
CN111723623A (zh) * | 2019-03-22 | 2020-09-29 | 杭州海康威视数字技术股份有限公司 | 一种检测平台的方法及装置 |
CN110263652A (zh) * | 2019-05-23 | 2019-09-20 | 杭州飞步科技有限公司 | 激光点云数据识别方法及装置 |
WO2020244183A1 (zh) * | 2019-06-05 | 2020-12-10 | 北京三快在线科技有限公司 | 数据标注 |
CN110288007A (zh) * | 2019-06-05 | 2019-09-27 | 北京三快在线科技有限公司 | 数据标注的方法、装置及电子设备 |
CN110264523B (zh) * | 2019-06-25 | 2021-06-18 | 亮风台(上海)信息科技有限公司 | 一种确定测试图像中的目标图像的位置信息的方法与设备 |
CN110264523A (zh) * | 2019-06-25 | 2019-09-20 | 亮风台(上海)信息科技有限公司 | 一种确定测试图像中的目标图像的位置信息的方法与设备 |
CN110443141A (zh) * | 2019-07-08 | 2019-11-12 | 深圳中兴网信科技有限公司 | 数据集处理方法、数据集处理装置及存储介质 |
CN110503074B (zh) * | 2019-08-29 | 2022-04-15 | 腾讯科技(深圳)有限公司 | 视频帧的信息标注方法、装置、设备及存储介质 |
US11727688B2 (en) | 2019-08-29 | 2023-08-15 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for labelling information of video frame, device, and storage medium |
CN110503074A (zh) * | 2019-08-29 | 2019-11-26 | 腾讯科技(深圳)有限公司 | 视频帧的信息标注方法、装置、设备及存储介质 |
CN111401228A (zh) * | 2020-03-13 | 2020-07-10 | 中科创达软件股份有限公司 | 视频目标标注方法、装置及电子设备 |
CN111401228B (zh) * | 2020-03-13 | 2023-12-19 | 中科创达软件股份有限公司 | 视频目标标注方法、装置及电子设备 |
CN111461056A (zh) * | 2020-04-15 | 2020-07-28 | 北京罗克维尔斯科技有限公司 | 一种样本数据获取方法和装置 |
CN112269379A (zh) * | 2020-10-14 | 2021-01-26 | 北京石头世纪科技股份有限公司 | 障碍物识别信息反馈方法 |
CN112269379B (zh) * | 2020-10-14 | 2024-02-27 | 北京石头创新科技有限公司 | 障碍物识别信息反馈方法 |
CN112257587A (zh) * | 2020-10-22 | 2021-01-22 | 江苏禹空间科技有限公司 | 目标对象的检测效果评估方法、装置、存储介质及设备 |
CN112257587B (zh) * | 2020-10-22 | 2023-12-22 | 无锡禹空间智能科技有限公司 | 目标对象的检测效果评估方法、装置、存储介质及设备 |
CN112287898A (zh) * | 2020-11-26 | 2021-01-29 | 深源恒际科技有限公司 | 一种图像的文本检测质量评价方法及*** |
CN112861959A (zh) * | 2021-02-02 | 2021-05-28 | 南京天创电子技术有限公司 | 一种目标检测图像的自动标注方法 |
CN113156263A (zh) * | 2021-03-23 | 2021-07-23 | 广东安恒电力科技有限公司 | 电缆状态监测方法及存储介质 |
CN114782805A (zh) * | 2022-03-29 | 2022-07-22 | 中国电子科技集团公司第五十四研究所 | 一种面向无人机巡逻的人在环路混合增强目标识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103324937B (zh) | 2016-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103324937A (zh) | 标注目标的方法和装置 | |
CN108830188B (zh) | 基于深度学习的车辆检测方法 | |
CN109977813B (zh) | 一种基于深度学习框架的巡检机器人目标定位方法 | |
CN105354548B (zh) | 一种基于ImageNet检索的监控视频行人重识别方法 | |
CN111368690B (zh) | 基于深度学习的海浪影响下视频图像船只检测方法及*** | |
CN108711148B (zh) | 一种基于深度学习的轮胎缺陷智能检测方法 | |
CN109816689A (zh) | 一种多层卷积特征自适应融合的运动目标跟踪方法 | |
CN105872477A (zh) | 视频监控方法和视频监控*** | |
CN104615986B (zh) | 利用多检测器对场景变化的视频图像进行行人检测的方法 | |
CN108830332A (zh) | 一种视觉车辆检测方法及*** | |
CN103544483B (zh) | 一种基于局部稀疏表示的联合目标追踪方法及其*** | |
CN109583324A (zh) | 一种基于单点多盒检测器的指针仪表读数自动识别方法 | |
CN109344905A (zh) | 一种基于集成学习的输电设备自动故障识别方法 | |
CN107705324A (zh) | 一种基于机器学习的视频目标检测方法 | |
CN105184229A (zh) | 一种动态场景下基于在线学习的实时行人检测方法 | |
CN107305636A (zh) | 目标识别方法、目标识别装置、终端设备和目标识别*** | |
CN110136101A (zh) | 一种基于孪生距离比对的轮胎x光病疵检测方法 | |
CN113850799B (zh) | 一种基于YOLOv5的微量DNA提取工作站工件检测方法 | |
CN111274886B (zh) | 一种基于深度学习的行人闯红灯违法行为分析方法及*** | |
CN114049477A (zh) | 一种过鱼鱼道***、鱼类数量和种类的动态识别跟踪方法 | |
CN103150552B (zh) | 一种基于人头计数的驾驶培训管理方法 | |
CN107808376A (zh) | 一种基于深度学习的举手检测方法 | |
CN104123714B (zh) | 一种人流量统计中最优目标检测尺度的生成方法 | |
CN109446964A (zh) | 基于端到端单级多尺度检测器的面部检测分析方法及装置 | |
CN111898677A (zh) | 一种基于深度学习的浮游生物自动检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |