CN110598751A - 一种基于几何属性的锚点生成方法 - Google Patents
一种基于几何属性的锚点生成方法 Download PDFInfo
- Publication number
- CN110598751A CN110598751A CN201910749521.XA CN201910749521A CN110598751A CN 110598751 A CN110598751 A CN 110598751A CN 201910749521 A CN201910749521 A CN 201910749521A CN 110598751 A CN110598751 A CN 110598751A
- Authority
- CN
- China
- Prior art keywords
- width
- height
- bounding box
- clustering
- bounding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于几何属性的锚点生成方法,属于深度学习领域,方法步骤包括:步骤一、提取图像中所有标注边界框的坐标,将标注边界框的宽和高均进行归一化;步骤二、通过欧氏距离对标注边界框的宽高比进行聚类;步骤三、通过SIoU距离对标注边界框的尺寸进行聚类;步骤四、以尺寸和宽高比聚类中心为间断点,生成尺寸和宽高比向量的锚点。本发明通过对标注边界框归一化,对标注边界框的宽高比及尺寸进行聚类,所生成的锚点包含目标的几何属性,可提取区域建议,以提高目标检测的精度。
Description
技术领域
本发明涉及目标检测领域,具体涉及一种基于几何属性的锚点生成方法。
背景技术
随着深度学习的快速发展,基于卷积神经网络的模型广泛应用于场景中目标的检测。通常,基于卷积神经网络的目标检测方法可分为二阶段检测法和一阶段检测法。二阶段检测方法首先提取区域建议,然后将区域建议输出至检测器中并对该区域中的目标位置和类别进行预测,如Faster RCNN(Ren Shaoqing等,Faster RCNN:towards real-timeobject detection with region proposal networks,IEEE Trans on Pattern Analysisand Machine Intelligence,2017,39(6):1137-1149);一阶段检测方法不需要提取区域建议,直接从图像中提取目标的候选区域并在该区域中对目标位置和类别进行预测,如YOLO(Joseph Redmons等.YOLO9000:better,faster,stronger,Proc of the IEEE Conf onComputer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2017:6517-6525)。尽管Faster RCNN和YOLO等深度模型对一般目标的检测具有良好的适用性,但其未考虑目标属性等先验知识,使得它们在特定场景的应用中仍存在检测精度不理想的问题。
发明内容
根据以上现有技术的不足,本发明提出了一种基于几何属性的锚点生成方法,通过对标注边界框的宽高比及尺寸进行聚类,生成具有几何属性的锚点,用于提取区域建议,以提高检测精度。
为了解决上述技术问题,本发明采用的技术方案为:一种锚点生成方法,通过K-means聚类获取目标的宽高比、大小的先验几何属性,生成锚点。锚点生成方法步骤包括:步骤一、从目标数据集的每张图像中提取出所有目标的标注边界框的宽和高,并将每个标注边界框的宽和高与该张图像的宽和高相除,得到n个归一化的标注边界框的宽和高,在坐标图中,以原点表示归一化后的边界框的左下角顶点,以右上角顶点表示为边界框的宽高坐标;步骤二、将步骤一中归一化的标注边界框的宽与高相除,生成对应标注边界框的宽高比,基于欧氏距离采用K均值聚类算法(K-means)对n个标注边界框的宽高比进行聚类,得到n个聚类中心的宽高比;步骤三、对于步骤一中归一化的标注边界框的宽和高,采用基于强化交并比(Strengthed Intersection over Union,SIoU)距离的K-means算法对n个标注边界框的宽和高进行聚类,得到n个聚类中心的宽高尺度;步骤四、将步骤二及步骤三得到的n个聚类中心的宽高比及宽高尺度与锚点的基础尺度相乘,生成锚点。
可选的,所述方法步骤一中的归一化方法为:提取图像中所有标注边界框的坐标设为点集D,Di=[xi1,yi1,xi2,yi2]表示第i个标注边界框的左上角及右下角坐标,第i个标注边界框的宽和高分别为wi=xi2-xi1,hi=yi2-yi1,将第i个标注边界框的宽wi和高hi分别除以图像的宽M和高N,即 表示归一化后标注边界框的宽高集合,将归一化后图像中的边界框的左下角归置到原点,以右上角顶点表示为边界框的宽高坐标。
可选的,所述方法步骤二中的边界框宽高比聚类方法为:计算每个标注边界框的宽高比得到宽高比集合{ri},对{ri}进行K-means聚类,从所有的{ri}中随机选取K个作为初始质心集合{Km},计算{ri}中每个宽高比与{Km}中每个初始质心的欧式距离,将距离每个质心最近的宽高比归为一簇,共划分为K个簇;计算每个簇的均值,更新质心位置,重复步骤二,当每个簇的质心边界框的更新误差小于给定误差时,结束步骤二。
可选的,所述方法步骤三中的边界框尺寸聚类方法为:
步骤(1)、在使用右上角顶点表示边界框的宽高坐标之后,从所有标注边界框中随机选取K个作为初始质心边界框,对n个标注边界框和K个初始质心边界框在宽高平面上进行聚类,计算第l个质心边界框到第i个标注边界框的SIoU,SIoU的计算公式为:
步骤(2)、计算两个边界框之间的交并比(Intersection over Union,IoU),将两个标注边界框交集的面积Sl∩i与标注边界框并集的面积Sl∪i相除,即
步骤(3)、计算两个边界框之间的最小闭包的面积SC,将两个边界框的最小闭包面积与边界框并集的面积SC-Sl∪i的差值与最小闭包的面积SC相除,作为M,即
步骤(4)、计算IoU与M的差值,作为SIoU,即SIoU=IoU-M;
步骤(5)、计算第l个质心边界框到第i个标注边界框的距离将距离每个质心最近的宽高比归为一簇,共划分为K个簇;
步骤(6)、分别求出每个簇中所有边界框的宽的中值作为这一簇中新质心边界框的宽,相应地,以高的中值作为这一簇中新质心边界框的高;
步骤(7)、重复上述步骤(1)-(6),当每个簇的质心边界框的更新误差小于给定误差时,聚类结束,将K个质心边界框的宽与高相乘即得到K个尺寸SK。
可选的,所述方法步骤四中的生成锚点的尺寸和宽高比向量的方法为:在聚类结束之后,将由边界框宽高比聚类得到的RK及边界框尺寸聚类得到的SK与锚点的基础尺寸Bs相乘,得到包含目标几何属性的锚点。
本发明有益效果是:本发明给出了一种基于几何属性的锚点生成方法,本发明首先将数据集中所有图像的宽和高进行归一化;其次,通过欧式距离对标注边界框的宽高比进行聚类;再次,通过SIoU距离对标注边界框的尺寸进行聚类;最后,以尺寸和宽高比聚类中心为间断点,生成锚点。
附图说明
下面对本说明书附图所表达的内容及图中的标记作简要说明:
图1是本发明的锚点生成方法的流程框图;
图2是本发明的具体实施方式的提取标注边界框坐标示意图;
图3是本发明的具体实施方式的标注边界框坐标归一化示意图;
图4是本发明的具体实施方式的标注边界框宽高比聚类样本数量示意图;
图5是本发明的具体实施方式的SIoU距离示意图;
图6是本发明的具体实施方式的标注边界框尺寸聚类示意图;
图7是本发明的具体实施方式的生成的锚点尺寸SK和宽高比RK示意图;
图8是本发明的步骤三中标注边界框尺寸聚类方法的流程框图。
具体实施方式
下面对照附图,通过对实施例的描述,本发明的具体实施方式如所涉及的各构件的形状、构造、各部分之间的相互位置及连接关系、各部分的作用及工作原理、制造工艺及操作使用方法等,作进一步详细的说明,以帮助本领域技术人员对本发明的发明构思、技术方案有更完整、准确和深入的理解。
一种基于几何属性的锚点生成方法,通过对训练数据集的所有目标的宽高比及尺寸进行聚类,生成锚点,以便提高目标的检测精度。
如图1-7所示,本方法包括如下步骤:
S1、从目标数据集的每张图像中提取出所有目标的标注边界框的宽和高,并将每个标注边界框的宽和高与该张图像的宽和高相除,得到n个归一化的标注边界框的宽和高,在坐标图中,以原点表示归一化后的边界框的左下角顶点,以右上角顶点表示为边界框的宽高坐标;
S2、将步骤S1中归一化的标注边界框的宽与高相除,生成对应标注边界框的宽高比,基于欧氏距离采用K均值聚类算法(K-means)对n个标注边界框的宽高比进行聚类,得到n个聚类中心的宽高比;
S3、对于S1中归一化的标注边界框的宽和高,采用基于强化交并比(StrengthedIntersection over Union,SIoU)距离的K-means算法对n个标注边界框的宽和高进行聚类,得到n个聚类中心的宽高尺度;
S4、将步骤S2及步骤S3得到的n个聚类中心的宽高比及宽高尺度与锚点的基础尺度相乘,生成锚点。
本方法将数据集中所有图像的宽和高均进行归一化,如图2所示;将归一化图像中的边界框的左下角归置到原点,如图3所示;其次,通过欧式距离对标注边界框的宽高比进行聚类,得到标注边界框的宽高比聚类结果,如图4所示;再次,通过SIoU距离(图5)对标注边界框的尺寸进行聚类,得到标注边界框的尺寸聚类结果,如图6所示;最后,以尺寸和宽高比聚类中心为间断点,生成锚点的尺寸和宽高比向量,如图7所示。
进一步的,所述步骤S1的归一化方法为:如图2所示,提取图像中所有标注边界框的坐标设为点集D,Di=[xi1,yi1,xi2,yi2]表示第i个标注边界框的左上角及右下角坐标,第i个标注边界框的宽和高分别为wi=xi2-xi1,hi=yi2-yi1,将第i个标注边界框的宽wi和高hi分别除以图像的宽M和高N,即 表示归一化后标注边界框的宽高集合,如图3所示,将归一化后图像中的边界框的左下角归置到原点,以右上角顶点表示为边界框的宽高坐标。
进一步的,所述步骤S2中标注边界框的宽高比聚类方法为:计算每个标注边界框的宽高比得到宽高比集合{ri},对{ri}进行K-means聚类,从所有的{ri}中随机选取K个作为初始质心集合{Km},计算{ri}中每个宽高比与{Km}中每个初始质心的欧式距离,将距离每个质心最近的宽高比归为一簇,共划分为K个簇;计算每个簇的均值,更新质心位置,重复步骤S2,当每个簇的质心边界框的更新误差小于给定误差时,结束步骤S2,聚类结果如图4所示,其中黑色柱体显示了聚类样本数量,柱体下端的区间显示了每一类中ri的范围。
进一步的,如图8所示,所述方法步骤S3中的标注边界框尺寸聚类方法为:
S301、在使用右上角顶点表示边界框的宽高坐标之后,从所有标注边界框中随机选取K个作为初始质心边界框,对n个标注边界框和K个初始质心边界框在宽高平面上进行聚类,计算第l个质心边界框到第i个标注边界框的SIoU,如图5所示,SIoU的计算公式为:
S302、计算两个边界框之间的交并比(Intersection over Union,IoU),将两个标注边界框交集的面积Sl∩i与标注边界框并集的面积Sl∪i相除,即
S303、计算两个边界框之间的最小闭包的面积SC,将两个边界框的最小闭包面积与边界框并集的面积SC-Sl∪i的差值与最小闭包的面积SC相除,作为M,即
S304、计算IoU与M的差值,作为SIoU,即SIoU=IoU-M;
S305、计算第l个质心边界框到第i个标注边界框的距离将距离每个质心最近的宽高比归为一簇,共划分为K个簇;
S306、分别求出每个簇中所有边界框的宽的中值作为这一簇中新质心边界框的宽,相应地,以高的中值作为这一簇中新质心边界框的高;
S307、重复上述步骤S301-S306,当每个簇的质心边界框的更新误差小于给定误差时,聚类结束,聚类结果如图6所示,将K个质心边界框的宽与高相乘即得到K个尺寸SK。
进一步的,如图7所示,所述方法步骤S4中的生成尺寸和宽高比向量的方法为:在聚类结束之后,将由边界框宽高比聚类得到的RK及边界框尺寸聚类得到的SK与锚点的基础尺寸Bs相乘,得到包含目标几何属性的锚点。
上面结合附图对本发明进行了示例性描述,显然本发明具体实现并不受上述方式的限制,只要采用了本发明的方法构思和技术方案进行的各种非实质性的改进,或未经改进将本发明的构思和技术方案直接应用于其它场合的,均在本发明的保护范围之内。本发明的保护范围应该以权利要求书所限定的保护范围为准。
Claims (5)
1.一种基于几何属性的锚点生成方法,其特征在于,所述锚点生成方法包括如下步骤:
步骤一、从目标数据集的每张图像中提取出所有目标的标注边界框的宽和高,并将每个标注边界框的宽和高与该张图像的宽和高相除,得到n个归一化的标注边界框的宽和高,在坐标图中,以原点表示归一化后的边界框的左下角顶点,以右上角顶点表示为边界框的宽高坐标;
步骤二、将步骤一中归一化的标注边界框的宽与高相除,生成对应标注边界框的宽高比,基于欧氏距离采用K均值聚类算法(K-means)对n个标注边界框的宽高比进行聚类,得到n个聚类中心的宽高比;
步骤三、对于步骤一中归一化的标注边界框的宽和高,采用基于强化交并比(Strengthed Intersection over Union,SIoU)距离的K-means算法对n个标注边界框的宽和高进行聚类,得到n个聚类中心的宽高尺度;
步骤四、将步骤二及步骤三得到的n个聚类中心的宽高比及宽高尺度与锚点的基础尺度相乘,生成锚点。
2.根据权利要求1所述的基于几何属性的锚点生成方法,其特征在于,所述方法步骤一中的归一化方法为:提取图像中所有标注边界框的坐标设为点集D,Di=[xi1,yi1,xi2,yi2]表示第i个标注边界框的左上角及右下角坐标,第i个标注边界框的宽和高分别为wi=xi2-xi1,hi=yi2-yi1,将第i个标注边界框的宽wi和高hi分别除以图像的宽M和高N,即 表示归一化后标注边界框的宽高集合,将归一化后图像中的边界框的左下角归置到原点,以右上角顶点表示为边界框的宽高坐标。
3.根据权利要求2所述的基于几何属性的锚点生成方法,其特征在于,所述方法步骤二中标注边界框的宽高比聚类方法为:计算每个标注边界框的宽高比得到宽高比集合{ri},对{ri}进行K-means聚类,从所有的{ri}中随机选取K个作为初始质心集合{Km},计算{ri}中每个宽高比与{Km}中每个初始质心的欧式距离,将距离每个质心最近的宽高比归为一簇,共划分为K个簇;计算每个簇的均值,更新质心位置,重复步骤二,当每个簇的质心边界框的更新误差小于给定误差时,结束步骤二。
4.根据权利要求3所述的基于几何属性的锚点生成方法,其特征在于,所述方法步骤三中的标注边界框尺寸聚类方法为:
步骤(1)、在使用右上角顶点表示边界框的宽高坐标之后,从所有标注边界框中随机选取K个作为初始质心边界框,对n个标注边界框和K个初始质心边界框在宽高平面上进行聚类,计算第l个质心边界框到第i个标注边界框的SIoU,SIoU的计算公式为:
步骤(2)、计算两个边界框之间的交并比(Intersection over Union,IoU),将两个标注边界框交集的面积Sl∩i与标注边界框并集的面积Sl∪i相除,即
步骤(3)、计算两个边界框之间的最小闭包的面积SC,将两个边界框的最小闭包面积与边界框并集的面积SC-Sl∪i的差值与最小闭包的面积SC相除,作为M,即
步骤(4)、计算IoU与M的差值,作为SIoU,即SIoU=IoU-M;
步骤(5)、计算第l个质心边界框到第i个标注边界框的距离将距离每个质心最近的宽高比归为一簇,共划分为K个簇;
步骤(6)、分别求出每个簇中所有边界框的宽的中值作为这一簇中新质心边界框的宽,相应地,以高的中值作为这一簇中新质心边界框的高;
步骤(7)、重复上述步骤(1)-(6),当每个簇的质心边界框的更新误差小于给定误差时,聚类结束,将K个质心边界框的宽与高相乘即得到K个尺寸SK。
5.根据权利要求4所述的基于几何属性的锚点生成方法,其特征在于,所述方法步骤四中的生成尺寸和宽高比向量的方法为:在聚类结束之后,将由边界框宽高比聚类得到的RK及边界框尺寸聚类得到的SK与锚点的基础尺寸Bs相乘,得到包含目标几何属性的锚点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910749521.XA CN110598751B (zh) | 2019-08-14 | 2019-08-14 | 一种基于几何属性的锚点生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910749521.XA CN110598751B (zh) | 2019-08-14 | 2019-08-14 | 一种基于几何属性的锚点生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110598751A true CN110598751A (zh) | 2019-12-20 |
CN110598751B CN110598751B (zh) | 2022-06-07 |
Family
ID=68854398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910749521.XA Active CN110598751B (zh) | 2019-08-14 | 2019-08-14 | 一种基于几何属性的锚点生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110598751B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797993A (zh) * | 2020-06-16 | 2020-10-20 | 东软睿驰汽车技术(沈阳)有限公司 | 深度学习模型的评价方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169421A (zh) * | 2017-04-20 | 2017-09-15 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
CN108416307A (zh) * | 2018-03-13 | 2018-08-17 | 北京理工大学 | 一种航拍图像路面裂缝检测方法、装置及设备 |
-
2019
- 2019-08-14 CN CN201910749521.XA patent/CN110598751B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107169421A (zh) * | 2017-04-20 | 2017-09-15 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
CN108416307A (zh) * | 2018-03-13 | 2018-08-17 | 北京理工大学 | 一种航拍图像路面裂缝检测方法、装置及设备 |
Non-Patent Citations (5)
Title |
---|
HAMID REZATOFIGHI ETC.: "Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression", 《ARXIV[CS.CV]》 * |
JOSEPH REDMON ETC.: "YOLO9000:Better, Faster, Stronger", 《ARXIV[CS.CV]》 * |
LIANGJI FANG ETC.: "Putting the Anchors Efficiently:Geometric Constrained", 《ASIAN CONFERENCE ON COMPUTER VISION 2018》 * |
于春晓: "复杂采集环境下QR码识别", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
姜晓伟 等: "基于改进候选区域网络的红外飞机检测", 《激光与红外》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797993A (zh) * | 2020-06-16 | 2020-10-20 | 东软睿驰汽车技术(沈阳)有限公司 | 深度学习模型的评价方法、装置、电子设备及存储介质 |
CN111797993B (zh) * | 2020-06-16 | 2024-02-27 | 东软睿驰汽车技术(沈阳)有限公司 | 深度学习模型的评价方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110598751B (zh) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10929649B2 (en) | Multi-pose face feature point detection method based on cascade regression | |
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及*** | |
CN111275688B (zh) | 基于注意力机制的上下文特征融合筛选的小目标检测方法 | |
CN108288088B (zh) | 一种基于端到端全卷积神经网络的场景文本检测方法 | |
CN110580723B (zh) | 一种利用深度学习和计算机视觉进行精准定位的方法 | |
CN111695522B (zh) | 一种平面内的旋转不变人脸检测方法、装置及存储介质 | |
US20190279045A1 (en) | Methods and apparatuses for identifying object category, and electronic devices | |
CN107907124B (zh) | 基于场景重识的定位方法、电子设备、存储介质、*** | |
US8238660B2 (en) | Hybrid graph model for unsupervised object segmentation | |
CN110232311A (zh) | 手部图像的分割方法、装置及计算机设备 | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
CN106570480B (zh) | 一种基于姿势识别的人体动作分类方法 | |
US11530915B2 (en) | Dimension measuring device, dimension measuring method, and semiconductor manufacturing system | |
Qian et al. | Grasp pose detection with affordance-based task constraint learning in single-view point clouds | |
CN110688965A (zh) | 基于双目视觉的ipt模拟训练手势识别方法 | |
JP2015533434A (ja) | 教師あり形状ランク付けに基づく生物学的単位の識別 | |
CN112784869B (zh) | 一种基于注意力感知与对抗学习的细粒度图像识别方法 | |
JPWO2014155715A1 (ja) | 物体認識装置および物体認識方法並びにプログラム | |
Liu et al. | Road centerlines extraction from high resolution images based on an improved directional segmentation and road probability | |
Cupec et al. | Object recognition based on convex hull alignment | |
Thalhammer et al. | SyDPose: Object detection and pose estimation in cluttered real-world depth images trained using only synthetic data | |
CN113240716B (zh) | 一种多特征融合的孪生网络目标跟踪方法及*** | |
CN110598634A (zh) | 一种基于图例库的机房草图识别方法及其装置 | |
CN111914832B (zh) | 一种rgb-d相机在动态场景下的slam方法 | |
CN110598751B (zh) | 一种基于几何属性的锚点生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |