CN110728310B - 一种基于超参数优化的目标检测模型融合方法及融合*** - Google Patents
一种基于超参数优化的目标检测模型融合方法及融合*** Download PDFInfo
- Publication number
- CN110728310B CN110728310B CN201910926982.XA CN201910926982A CN110728310B CN 110728310 B CN110728310 B CN 110728310B CN 201910926982 A CN201910926982 A CN 201910926982A CN 110728310 B CN110728310 B CN 110728310B
- Authority
- CN
- China
- Prior art keywords
- super
- parameters
- fusion
- target detection
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于超参数优化的目标检测模型融合方法及融合***,所述融合方法包括以下步骤:1)采用至少两个目标检测模型对待测试图片进行目标检测,获得至少两个初始预测结果;2)对所述初始预测结果进行非极大值抑制处理;3)利用预先获得的最优融合超参数对经步骤2)后的初始预测结果进行融合,获得最终预测结果,其中,最优融合超参数由局部随机搜索法优化得到。与现有技术相比,本发明可以有效利用多个目标检测模型各自的优势,来提高目标检测精度。
Description
技术领域
本发明涉及机器学习和计算机视觉技术领域,涉及一种目标检测方法,尤其是涉及一种基于超参数优化的目标检测模型融合方法及融合***。
背景技术
随着机器学习和计算机视觉技术的发展,人们对图像识别任务有了进一步的要求,除了要识别出图像中有何种物体,还需要知道每个物体在图像中的具***置,进而引入了目标检测任务。目标检测任务,顾名思义就是要检测出图像中的目标,即框出目标在图像中的位置,并且给出其类别信息。
在深度学习兴起以前,虽然学术界和工业界对目标检测都有所研究,但由于当时的方法精度都很低,检测速度也很慢,很难应用到实际的生产中,因而目标检测没有受到太广泛的关注。但是近几年,随着深度学习的兴起,尤其是在2012年,深度学习领军人物Hinton及其学生Alex成功地将深度神经网络应用到ImageNet图像识别任务中后,目标检测任务迎来了井喷式的发展。目标检测任务,无论是在检测精度上,还是检测速度上,都比过去有了非常大的提升。近年来,学术界出现的目标检测方法非常多,其大致可以分为两类:一类是一阶段的目标检测方法,如SSD、YOLO、RetinaNet等,另一类是两阶段的目标检测方法,如Faster-RCNN、Mask-RCNN等。一阶段目标检测方法由于所有的学习和推断都是端到端的,速度非常快;而两阶段目标检测方法由于可以对生成的候选框进行两次分类和边框回归,通常能达到较高的精度。
由于现有目标检测方法在检测精度和速度上都有着较好的表现,其在工业界也受到了越来越广泛的关注,也有越来越多的个人和组织将其进行适配改造,应用到现实生活中的方方面面,如安防、新零售、无人驾驶、工业质检、医学诊断等领域。尽管如此,在很多领域中,目标检测算法的应用还存在一些问题,即单一的算法很难满足现实生产的要求。譬如在新零售领域,目标检测算法A在比较大的商品上表现很好,但是小商品上表现不好,而目标检测算法B则在小商品上表现较好,在大商品上表现平平;在无人驾驶领域,目标检测算法C能准确识别出前方出现的目标,但是其定位效果较差,而目标检测算法D能精确定位前方出现的目标,但是其容易错判目标的类别。虽然现有的特征融合方法和集成学习方法都能缓解单一算法无法满足精度要求的问题,但是特征融合方法很难利用不同目标检测方法的具体学习策略,因而难以比较大程度地发挥多个模型各自的优势;而传统集成学习比较适用于一般的分类任务,对目标检测这种需要同时兼顾类别、位置和预测分数的任务,比较难直接套用一种经典的集成学习方法来提升其效果。
发明内容
本发明的目的在于克服上述现有技术存在的缺陷而提供一种提高目标检测精度的基于超参数优化的目标检测模型融合方法及融合***。
本发明的目的可以通过以下技术方案来实现:
一种基于超参数优化的目标检测模型融合方法,包括以下步骤:
1)采用至少两个目标检测模型对待测图片进行目标检测,获得至少两个初始预测结果;
2)对所述初始预测结果进行非极大值抑制处理;
3)利用预先获得的最优融合超参数对经步骤2)后的初始预测结果进行融合,获得最终预测结果,其中,最优融合超参数由局部随机搜索法优化得到。
进一步地,在所述步骤2)的非极大值抑制处理中,对物体包围框进行过滤采用的阈值为0.05-0.15。
进一步地,所述步骤3)中,若目标检测模型包括模型M1和M2,则对初始预测结果进行融合的方式具体为:
计算两个预测结果中包围框的交并比,若交并比大于第一阈值,则判定各包围框检测出的物体属于同一个物体;
若某个物体仅被M1预测出,则仅在该物体的预测分值大于第二阈值时,保留该物体,否则将该物体从预测结果中删除;
若某个物体仅被M2预测出,则仅在该物体的预测分值大于第三阈值时,保留该物体,否则将该物体从预测结果中删除;
在某个物体被M1和M2中同时预测出时,若该物体来自M1的预测结果,则在该物体的预测分值大于第四阈值,保留该物体,否则将该物体从预测结果中删除;若该物体来自M2的预测结果,则在该物体的预测分值大于第五阈值,保留该物体,否则将该物体从预测结果中删除;
所述第一阈值、第二阈值、第三阈值、第四阈值和第五阈值为所述最优融合超参数。
进一步地,所述采用局部随机搜索法来获得最优融合超参数的具体步骤为:
101)在设定范围内随机获得一组超参数;
102)利用各个所述目标检测模型在一已知检测真值的验证集上获得对应初始预测结果;
103)利用所述超参数对各初始预测结果进行融合,获得最终预测结果;
104)对验证集上的最终检测结果进行评价,获得检测精度;
105)判断是否完成总搜索次数,若是,则以检测精度最高的一组超参数作为最优融合超参数,若否,则返回步骤101)。
本发明还提供一种基于超参数优化的目标检测模型融合***,包括:
多个目标初检测模块,用于对待测图片进行目标检测,获得对应的初始预测结果;
非极大值抑制模块,用于对多个目标初检测模块获得的所述初始预测结果进行非极大值抑制处理;
融合模块,用于利用预先获得的最优融合超参数对经非极大值抑制处理后的初始预测结果进行融合,获得最终预测结果,其中,最优融合超参数由局部随机搜索法优化得到。
进一步地,在所述非极大值抑制处理中,对物体包围框进行过滤采用的阈值为0.05-0.15。
进一步地,所述融合模块中,若目标检测模型包括模型M1和M2,则对初始预测结果进行融合的方式具体为:
计算两个预测结果中包围框的交并比,若交并比大于第一阈值,则判定各包围框检测出的物体属于同一个物体;
若某个物体仅被M1预测出,则仅在该物体的预测分值大于第二阈值时,保留该物体,否则将该物体从预测结果中删除;
若某个物体仅被M2预测出,则仅在该物体的预测分值大于第三阈值时,保留该物体,否则将该物体从预测结果中删除;
在某个物体被M1和M2中同时预测出时,若该物体来自M1的预测结果,则在该物体的预测分值大于第四阈值,保留该物体,否则将该物体从预测结果中删除;若该物体来自M2的预测结果,则在该物体的预测分值大于第五阈值,保留该物体,否则将该物体从预测结果中删除;
所述第一阈值、第二阈值、第三阈值、第四阈值和第五阈值为所述最优融合超参数。
进一步地,所述采用局部随机搜索法来获得最优融合超参数的具体步骤为:
101)在设定范围内随机获得一组超参数;
102)利用各个所述目标检测模型在一已知检测真值的验证集上获得对应初始预测结果;
103)利用所述超参数对各初始预测结果进行融合,获得最终预测结果;
104)对验证集上的最终检测结果进行评价,获得检测精度;
105)判断是否完成总搜索次数,若是,则以检测精度最高的一组超参数作为最优融合超参数,若否,则返回步骤101)。
与现有技术相比,本发明具有如下有益效果:
第一,本发明首次提出了目标检测的预测融合,可以有效利用多个目标检测模型各自的优势,来提高目标检测精度。
第二,不同于一般的集成学习方法,本发明兼顾了类别、位置和预测分数等信息的融合。
第三,本发明引入局部随机搜索法,对预测融合中的超参数进行优化,可以快速、有效地寻找到较好的融合参数,从而提高实际生产中的目标检测精度。
附图说明
图1为本发明的目标检测原理示意图;
图2为本发明训练过程示意图;
图3为本发明测试过程示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本发明提供一种基于超参数优化的目标检测模型融合方法,以解决单一的目标检测算法难以满足现实生产要求的问题,包括以下步骤:
1)采用至少两个目标检测模型对待测图片进行目标检测,获得至少两个初始预测结果;
2)对所述初始预测结果进行非极大值抑制处理;
3)利用预先获得的最优融合超参数对经步骤2)后的初始预测结果进行融合,获得最终预测结果,其中,采用局部随机搜索法优化获得最优融合超参数。
本实施例以两个目标检测模型的预测融合为例来介绍该发明方法,该方法主要包含目标检测模型1、目标检测模型2和融合策略部分三个部分,结构如图1所示。
步骤一,获取所有图像数据,并将其划分为训练集、验证集和测试集;
步骤二,分别用训练集数据训练两个目标检测模型,记为M1和M2;
步骤三,利用训练好的模型M1和M2,分别对验证集上的图片进行预测,得到初始预测结果。
步骤四,对步骤三种得到的初始预测结果进行非极大值抑制(NMS),得到两个模型的最终预测结果。
本实施例的NMS操作和一般目标检测不同,一般目标检测在做NMS之前会去除掉绝大部分预测分值低于某一阈值的包围框(bbox),该阈值通常设置为0.5。本实施例中为了保留绝大部分的包围框,将阈值通常会设置成非常小的值,如0.1。
进行完NMS操作后,得到两个目标检测模型在验证集上的最终预测结果:和/>,其中,为M1在验证集第i张图片上的预测结果,为M2在验证集第i张图片上的预测结果。预测结果中的x1,y1,x2,y2为物体包围框的位置信息,l为包围框中物体的类别信息,s为该包围框中该物体的预测分值。
步骤五,利用预先获得的最优融合超参数对步骤四中得到的两个模型的预测结果进行融合。本实施例具有两个目标检测模型,超参数为5个,包括超参数T1,T2,T3,T4,T5。
本实施例将5个超参数限定在一个经验局部范围,并确定总搜索次数N,采用局部随机搜索法进行优化,过程如下:
(1)每次在该范围内随机出一组超参数T1,T2,T3,T4,T5;
(2)遍历目标检测模型M1和M2在验证集所有图片上的预测结果,对每张图片(以第i张图片为例),逐个计算中的包围框和/>中的包围框的交并比(iou),若交并比大于阈值T1,则判定两个包围框检测出的物体属于同一个物体(即该物体同时被模型M1和M2检测到了),反之,两个包围框检测出的物体不属于同一物体;
(3)融合两个模型预测出的结果,得到最终检测结果。融合策略如下:
若某个物体只有M1预测出了,M2没有预测到,则需要该物体的预测分值大于阈值T2,该物体才会被留下,否则从预测结果中删除;
若某个物体只有M2预测出了,M1没有预测到,则需要该物体的预测分值大于阈值T3,该物体才会被留下,否则从预测结果中删除;
若某个物体在N1和N2中都预测到了,则分两种情况,情况1:该物体来自N1的预测结果,则需要该物体的预测分值大于阈值T4,该物体才会被留下,否则从预测结果中删除,情况2:该物体来自M2的预测结果,则需要该物体的预测分值大于阈值T5,该物体才会被留下,否则从预测结果中删除。
(4)对验证集上的最终检测结果进行评价,计算检测精度。
(5)判断是否完成总搜索次数,如果没有,则依次执行(1)到(4),如果已完成,则查找检测精度最高的那组超参数,记为:该超参数即为模型融合最优超参数。
步骤六,利用模型M1和M2和最优融合参数对测试集上的图片执行目标检测,得到最终检测结果。
本实施例在实际光伏组件缺陷检测场景做了实验。该数据集(非公开)共包含两类图片:正常图片(OK图片)和异常图片(NG图片)。其中训练集包含8419张NG图片和50000张OK图片(OK图片实际不参与训练);验证集包含4288张图片(180张NG图片+4108张OK图片);测试集包含8779张图片(390张NG图片+8389张OK图片)。这里我们采用工业质检行业比较通用的漏报率和误报率作为评价指标。其中漏报率=NG图片被分为OK图片的数量/NG图片总数,误报率=OK图片被分为NG图片的数量/OK图片总数。值得注意的是,由于某些图片包含的缺陷个数不止一个,本发明的评价指标统计原则如下:一张NG图片中只要有一个缺陷漏掉该图片就算漏报图片,一张OK图片中无论误报出几个缺陷该图片都算误报。
实验中选取的目标检测模型为Faster-RCNN和YOLO,这里为了便于比较,本发明将每种方法的漏报率控制在一定范围,对比各方法得到的误报率。表1给出了两个模型单独作用时的检测效果以及利用本发明的方法作用的效果,从中可以看出本发明方法可以一致地得到比单个目标检测算法更好的检测效果。
表1CIFAR-10数据集的实验数据
方法 | 漏报率 | 误报率 | 漏报率 | 误报率 |
Faster-RCNN | 不超过1% | 8.5% | 不超过2% | 5.1% |
YOLO | 不超过1% | 9.2% | 不超过2% | 4.5% |
预测融合法 | 不超过1% | 5.5% | 不超过2% | 2.8% |
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (4)
1.一种基于超参数优化的目标检测模型融合方法,其特征在于,包括以下步骤:
1)采用至少两个目标检测模型对待测图片进行目标检测,获得至少两个初始预测结果;
2)对所述初始预测结果进行非极大值抑制处理;
3)利用预先获得的最优融合超参数对经步骤2)后的初始预测结果进行融合,获得最终预测结果,其中,最优融合超参数由局部随机搜索法优化得到;
步骤3)中,若目标检测模型包括模型和/>,则对初始预测结果进行融合的方式具体为:
计算两个预测结果中包围框的交并比,若交并比大于第一阈值,则判定各包围框检测出的物体属于同一个物体;
若某个物体仅被预测出,则仅在该物体的预测分值大于第二阈值时,保留该物体,否则将该物体从预测结果中删除;
若某个物体仅被预测出,则仅在该物体的预测分值大于第三阈值时,保留该物体,否则将该物体从预测结果中删除;
在某个物体被中同时预测出时,若该物体来自/>的预测结果,则在该物体的预测分值大于第四阈值,保留该物体,否则将该物体从预测结果中删除;若该物体来自/>的预测结果,则在该物体的预测分值大于第五阈值,保留该物体,否则将该物体从预测结果中删除;
所述第一阈值、第二阈值、第三阈值、第四阈值和第五阈值为所述最优融合超参数;
采用局部随机搜索法来获得最优融合超参数的具体步骤为:
101)在设定范围内随机获得一组超参数;
102) 利用各个所述目标检测模型在一已知检测真值的验证集上获得对应初始预测结果;
103)利用所述超参数对各初始预测结果进行融合,获得最终预测结果;
104)对验证集上的最终检测结果进行评价,获得检测精度;
105)判断是否完成总搜索次数,若是,则以检测精度最高的一组超参数作为最优融合超参数,若否,则返回步骤101)。
2.根据权利要求1所述的基于超参数优化的目标检测模型融合方法,其特征在于,在步骤2)的非极大值抑制处理中,对物体包围框进行过滤采用的阈值为0.05-0.15。
3.一种基于超参数优化的目标检测模型融合***,其特征在于,包括:
多个目标初检测模块,用于对待测图片进行目标检测,获得对应的初始预测结果;
非极大值抑制模块,用于对多个目标初检测模块获得的所述初始预测结果进行非极大值抑制处理;
融合模块,用于利用预先获得的最优融合超参数对经非极大值抑制处理后的初始预测结果进行融合,获得最终预测结果,其中,最优融合超参数由局部随机搜索法优化得到;
所述融合模块中,若目标检测模型包括模型和/>,则对初始预测结果进行融合的方式具体为:
计算两个预测结果中包围框的交并比,若交并比大于第一阈值,则判定各包围框检测出的物体属于同一个物体;
若某个物体仅被预测出,则仅在该物体的预测分值大于第二阈值时,保留该物体,否则将该物体从预测结果中删除;
若某个物体仅被预测出,则仅在该物体的预测分值大于第三阈值时,保留该物体,否则将该物体从预测结果中删除;
在某个物体被中同时预测出时,若该物体来自/>的预测结果,则在该物体的预测分值大于第四阈值,保留该物体,否则将该物体从预测结果中删除;若该物体来自/>的预测结果,则在该物体的预测分值大于第五阈值,保留该物体,否则将该物体从预测结果中删除;
所述第一阈值、第二阈值、第三阈值、第四阈值和第五阈值为所述最优融合超参数;
采用局部随机搜索法来获得最优融合超参数的具体步骤为:
101)在设定范围内随机获得一组超参数;
102) 利用各个所述目标检测模型在一已知检测真值的验证集上获得对应初始预测结果;
103)利用所述超参数对各初始预测结果进行融合,获得最终预测结果;
104)对验证集上的最终检测结果进行评价,获得检测精度;
105)判断是否完成总搜索次数,若是,则以检测精度最高的一组超参数作为最优融合超参数,若否,则返回步骤101)。
4.根据权利要求3所述的基于超参数优化的目标检测模型融合***,其特征在于,在所述非极大值抑制处理中,对物体包围框进行过滤采用的阈值为0.05-0.15。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910926982.XA CN110728310B (zh) | 2019-09-27 | 2019-09-27 | 一种基于超参数优化的目标检测模型融合方法及融合*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910926982.XA CN110728310B (zh) | 2019-09-27 | 2019-09-27 | 一种基于超参数优化的目标检测模型融合方法及融合*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110728310A CN110728310A (zh) | 2020-01-24 |
CN110728310B true CN110728310B (zh) | 2023-09-01 |
Family
ID=69218561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910926982.XA Active CN110728310B (zh) | 2019-09-27 | 2019-09-27 | 一种基于超参数优化的目标检测模型融合方法及融合*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110728310B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113836982A (zh) * | 2020-06-24 | 2021-12-24 | 阿里巴巴集团控股有限公司 | 图像处理方法、装置、存储介质及计算机设备 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678321A (zh) * | 2015-12-31 | 2016-06-15 | 北京工业大学 | 一种基于融合模型的人体姿态估计方法 |
CN106203506A (zh) * | 2016-07-11 | 2016-12-07 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
CN107844750A (zh) * | 2017-10-19 | 2018-03-27 | 华中科技大学 | 一种水面全景图像目标检测识别方法 |
CN108090417A (zh) * | 2017-11-27 | 2018-05-29 | 上海交通大学 | 一种基于卷积神经网络的人脸检测方法 |
WO2018120942A1 (zh) * | 2016-12-31 | 2018-07-05 | 西安百利信息科技有限公司 | 一种多模型融合自动检测医学图像中病变的***及方法 |
CN108875595A (zh) * | 2018-05-29 | 2018-11-23 | 重庆大学 | 一种基于深度学习和多层特征融合的驾驶场景目标检测方法 |
CN108961460A (zh) * | 2018-07-18 | 2018-12-07 | 清华大学 | 基于稀疏esgp与多目标优化的故障预测方法及装置 |
CN109299274A (zh) * | 2018-11-07 | 2019-02-01 | 南京大学 | 一种基于全卷积神经网络的自然场景文本检测方法 |
CN109544533A (zh) * | 2018-11-23 | 2019-03-29 | 聚时科技(上海)有限公司 | 一种基于深度学习的金属板缺陷检测和度量方法 |
CN109657805A (zh) * | 2018-12-07 | 2019-04-19 | 泰康保险集团股份有限公司 | 超参数确定方法、装置、电子设备及计算机可读介质 |
CN109902629A (zh) * | 2019-03-01 | 2019-06-18 | 成都康乔电子有限责任公司 | 一种复杂交通场景下的实时车辆目标检测模型 |
CN109978882A (zh) * | 2019-04-09 | 2019-07-05 | 中康龙马(北京)医疗健康科技有限公司 | 一种基于多模态融合的医疗影像目标检测方法 |
CN110110862A (zh) * | 2019-05-10 | 2019-08-09 | 电子科技大学 | 一种基于适应性模型的超参数优化方法 |
CN110276316A (zh) * | 2019-06-26 | 2019-09-24 | 电子科技大学 | 一种基于深度学习的人体关键点检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019028468A1 (en) * | 2017-08-04 | 2019-02-07 | Fair Ip, Llc | COMPUTER SYSTEM FOR CONSTRUCTING, TRAINING AND PRODUCING AUTOMATIC LEARNING MODELS |
JP6974712B2 (ja) * | 2017-10-24 | 2021-12-01 | 富士通株式会社 | 探索方法、探索装置および探索プログラム |
-
2019
- 2019-09-27 CN CN201910926982.XA patent/CN110728310B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105678321A (zh) * | 2015-12-31 | 2016-06-15 | 北京工业大学 | 一种基于融合模型的人体姿态估计方法 |
CN106203506A (zh) * | 2016-07-11 | 2016-12-07 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
WO2018120942A1 (zh) * | 2016-12-31 | 2018-07-05 | 西安百利信息科技有限公司 | 一种多模型融合自动检测医学图像中病变的***及方法 |
CN107844750A (zh) * | 2017-10-19 | 2018-03-27 | 华中科技大学 | 一种水面全景图像目标检测识别方法 |
CN108090417A (zh) * | 2017-11-27 | 2018-05-29 | 上海交通大学 | 一种基于卷积神经网络的人脸检测方法 |
CN108875595A (zh) * | 2018-05-29 | 2018-11-23 | 重庆大学 | 一种基于深度学习和多层特征融合的驾驶场景目标检测方法 |
CN108961460A (zh) * | 2018-07-18 | 2018-12-07 | 清华大学 | 基于稀疏esgp与多目标优化的故障预测方法及装置 |
CN109299274A (zh) * | 2018-11-07 | 2019-02-01 | 南京大学 | 一种基于全卷积神经网络的自然场景文本检测方法 |
CN109544533A (zh) * | 2018-11-23 | 2019-03-29 | 聚时科技(上海)有限公司 | 一种基于深度学习的金属板缺陷检测和度量方法 |
CN109657805A (zh) * | 2018-12-07 | 2019-04-19 | 泰康保险集团股份有限公司 | 超参数确定方法、装置、电子设备及计算机可读介质 |
CN109902629A (zh) * | 2019-03-01 | 2019-06-18 | 成都康乔电子有限责任公司 | 一种复杂交通场景下的实时车辆目标检测模型 |
CN109978882A (zh) * | 2019-04-09 | 2019-07-05 | 中康龙马(北京)医疗健康科技有限公司 | 一种基于多模态融合的医疗影像目标检测方法 |
CN110110862A (zh) * | 2019-05-10 | 2019-08-09 | 电子科技大学 | 一种基于适应性模型的超参数优化方法 |
CN110276316A (zh) * | 2019-06-26 | 2019-09-24 | 电子科技大学 | 一种基于深度学习的人体关键点检测方法 |
Non-Patent Citations (1)
Title |
---|
Evgeny A. Smirnov, Denis M. Timoshenko, Serge N. Andrianov.Comparison of Regularization Methods for ImageNet Classification with Deep Convolutional Neural Networks.AASRI Procedia.2014,第6卷全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN110728310A (zh) | 2020-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
He et al. | Defect detection of hot rolled steels with a new object detection framework called classification priority network | |
CN110348437B (zh) | 一种基于弱监督学习与遮挡感知的目标检测方法 | |
CN103824055B (zh) | 一种基于级联神经网络的人脸识别方法 | |
He et al. | Deep regression neural network for industrial surface defect detection | |
KR20190063839A (ko) | 제조 공정에서 딥러닝을 활용한 머신 비전 기반 품질검사 방법 및 시스템 | |
CN113272827A (zh) | 卷积神经网络中分类决策的验证 | |
CN111310826B (zh) | 样本集的标注异常检测方法、装置及电子设备 | |
CN113642474A (zh) | 一种基于yolov5的危险区域人员监控方法 | |
CN115439458A (zh) | 基于深度图注意力的工业图像缺陷目标检测算法 | |
CN115019133A (zh) | 基于自训练和标签抗噪的图像中弱目标的检测方法及*** | |
CN110728310B (zh) | 一种基于超参数优化的目标检测模型融合方法及融合*** | |
CN117372424B (zh) | 一种缺陷检测方法、装置、设备及存储介质 | |
Liu et al. | Defect detection of the surface of wind turbine blades combining attention mechanism | |
CN114219936A (zh) | 目标检测方法、电子设备、存储介质和计算机程序产品 | |
CN115861306B (zh) | 一种基于自监督拼图模块的工业品异常检测方法 | |
Chen et al. | Surface defect detection of industrial components based on vision | |
CN113312968B (zh) | 一种监控视频中的真实异常检测方法 | |
Fang et al. | ACRM: Attention cascade R-CNN with Mix-NMS for metallic surface defect detection | |
KR20230063742A (ko) | 계층적 cnn을 이용한 스마트 팩토리에서의 제품 불량 탐지 방법 및 이를 기록한 기록매체 | |
Fujita et al. | Fine-tuned Surface Object Detection Applying Pre-trained Mask R-CNN Models | |
Mehta et al. | An Analysis of Fabric Defect Detection Techniques for Textile Industry Quality Control | |
Mikriukov et al. | Revealing Similar Semantics Inside CNNs: An Interpretable Concept-based Comparison of Feature Spaces | |
Zhang et al. | Novel freight train image fault detection and classification models based on CNN | |
Ramazhan et al. | Car Body Damage Detection System Using YOLOv7 | |
Saini et al. | Hybrid Deep Learning Model for The SmartManufacturing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |