CN109615610A - 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法 - Google Patents
一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法 Download PDFInfo
- Publication number
- CN109615610A CN109615610A CN201811373386.5A CN201811373386A CN109615610A CN 109615610 A CN109615610 A CN 109615610A CN 201811373386 A CN201811373386 A CN 201811373386A CN 109615610 A CN109615610 A CN 109615610A
- Authority
- CN
- China
- Prior art keywords
- yolo
- tiny
- value
- adhesive bandage
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Quality & Reliability (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于YOLO v2‑tiny的医用创可贴瑕疵检测方法,步骤包括:用摄像头采集创可贴图像数据,制作VOC格式数据集;用制作完成的数据集训练YOLO v2‑tiny模型至损失函数降为0.1~0.2之间并保存权重模型;运用训练完成的YOLO v2‑tiny模型回归出创可贴图像具体坐标位置并根据坐标裁剪出目标创可贴;取裁剪后创可贴中心处10*10~30*30之间像素大小,利用单通道颜色算法将裁剪后的目标与同等大小的白色区域计算相似度,相似度计算公式采用欧氏距离;根据环境设定一个阈值,阈值取值范围为3500~5000,如若欧氏距离计算结果大于该值则无药芯,小于等于该值设为带有药芯。本发明能有效地解决目前生产线上医用创可贴耗费大量人力财力的问题且瑕疵检测效率可达到40次/分。
Description
技术领域
本发明属于图像识别领域,具体涉及一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法。
背景技术
机器换人是推动产业升级的重要举措,目标瑕疵检测是提高工业效率的重要手段之一。用机器代替人实施分拣同时机器具有识别分类某一样目标的能力将大大提高产业效率。
在医用创可贴行业中,创可贴的瑕疵检测占有重要的地位,提高医用创可贴瑕疵检测的精度和效率将大大提高企业的生产效率。医用创可贴瑕疵检测主要是检测是否带有药芯。目前,瑕疵检测的方式主要是靠人工肉眼检测,此方法需要耗费大量的人力和财力同时人的视觉会有一定地疲劳,因此会出现一定的漏检。
发明内容
本发明实施例的目的在于提供一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法,目标识别网络结合OpenCV颜色匹配算法能够有效地提高瑕疵检测的精度和效率同时有效地解决上述人工检测的不足。
本发明实施例是这样实现的,一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法包括以下步骤:
步骤一:用摄像头采集创可贴图像数据,制作VOC格式数据集;
进一步,在步骤一中的用摄像头采集创可贴图像数据,制作VOC格式数据集,VOC格式数据集共有三个文件夹分别是train文件夹用于存放所有训练和验证的图片、Annotation文件夹存放对应图片的xml,xml由labeImg标注软件生成、ImageSets文件夹又细分了Layout,Main,Segmentation三个子文件夹,将训练图片的名称制成txt文件放于Main文件夹下。
步骤二:用制作完成的数据集训练YOLO v2-tiny模型至损失函数降为O.1~0.2之间并保存权重模型;
进一步,在步骤二中的训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间,其中的训练损失函数为其中λcoord代表坐标误差权值,λnoobj代表分类误差权值,S*S代表将图片分成S*S个栅格,B代表每个grid中bounding box的个数,判断第i个栅格和第j个bounding box是否负责这个object,判断是否有object的中心落入栅格中,xi,yi代表第i个栅格的bounding box的中心坐标,wi,hi代表第i个栅格的bounding box的宽和高,分别代表第i个栅格的真实目标框的中心中心点坐标、宽度、长度、目标类别和置信度,Ci代表模型预测第i个栅格的类别,pi代表模型预测第i个栅格目标物体的置信度。
进一步,在步骤二中的训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间,学习率learning rate取值为0.001~0.1,动量参数Momentum为0.9~1,decay取值为0.0005~0.001,将训练进行至损失函数降为0.1~0.2之间且损失函数变化值小于0.02。
步骤三:运用训练完成的YOLO v2-tiny模型回归出创可贴图像具体坐标位置并根据坐标裁剪出目标创可贴;
进一步,在步骤三中运用训练完成的YOLO v2-tiny模型回归出目标创可贴具体坐标,其具体实现过程如下:
a.给定一个输入医用创可贴图片,将图片划分成S*S的网格,S取值为7;
b.对于每个网格预测B个bounding box以及C个类别概率,总共输出S*S*B个bounding box以及S*S*(B*5+C)个维度的标签,其中5代表5维即每一个bounding box的中心点坐标、宽度、高度以及该bounding box的置信度;
c.用极大值抑制去掉冗余bounding box,其具体做法为先选个概率极大框加入最终结果,然后计算其他框和这个最大框的相交面积占两者总面积的比率IOU,之后把比率比较大的剔除,输出最后的候选框,IOU计算公式为DetectionResult为检测的bounding box与,GroundTruth为真实的目标所在的框。
步骤四:取裁剪后创可贴中心处10*10~30*30之间像素大小,利用单通道颜色算法将裁剪后的目标与同等大小的白色区域计算相似度,相似度计算公式采用欧氏距离;
进一步,在步骤四中采用单通道颜色匹配算法,具体步骤如下:
a.提取裁剪后的目标创可贴中心10*10~30*30之间像素大小区域,并对该区域进行高斯滤波,滤波公式为G(x)=exp(-x2/(2sigma2)),其中sigma为高斯分布参数,x为裁剪后区域内的像素值;
b.提取经过滤波后的像素区域的单色通道,该单色为蓝色,黄色中带有蓝色成分较少,通过对比蓝色通道得出最大的颜色差异;
c.将该蓝色通道数值与255进行比对,计算欧式距离,计算公式如其中n为提取像素区域的像素点个数,x为区域内每一个具体的像素值,y的值均为255。
步骤五:根据环境设定一个阈值,阈值取值范围为3500~5000,如若欧式距离计算结果大于该值则无药芯,小于等于该值设为带有药芯。
本发明提供的医用创可贴瑕疵检测技术,主要分为两步:第一步是利用卷积神经网络YOLO v2-tiny回归出创可贴的具***置,位置包括四个数值,分别是中心点坐标(x,y),宽度(w)和高度(h);第二步,根据四个位置值裁剪创可贴,取裁剪后的创可贴中心处10*10~30*30像素区间范围内的某一个具体值,该范围内的像素均能落入创可贴贴有药芯部分并将提取该范围内像素的蓝色通道与255进行欧式距离的比对。该技术可在随意摆放医用创可贴位置的情况下获得较好的识别率和瑕疵检测准确率,同时采用了YOLO v2-tiny网络大大的提高了瑕疵检测的效率,目前在4G显存的GPU(Quadro K5000),Intel CPU E5-2630 v22.6GHz*24的台式工作站服务器上网络的处理速度为1.5秒/帧,分拣机构配合网络识别抓取效率高达40次/分,大大提升了企业的竞争力。
本发明公开了一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法,步骤包括:用摄像头采集创可贴图像数据,制作VOC格式数据集;用制作完成的数据集训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间并保存权重模型;运用训练完成的YOLO v2-tiny模型回归出创可贴图像具体坐标位置并根据坐标裁剪出目标创可贴;取裁剪后创可贴中心处10*10~30*30之间像素大小,利用单通道颜色算法将裁剪后的目标与同等大小的白色区域计算相似度,相似度计算公式采用欧氏距离;根据环境设定一个阈值,阈值取值范围为3500~5000,如若欧氏距离计算结果大于该值则无药芯,小于等于该值设为带有药芯。
本发明能有效地解决目前生产线上医用创可贴耗费大量人力财力的问题且瑕疵检测效率可达到40次/分。
附图说明
图1为本发明实施例提供的创可贴瑕疵检测方法的流程示意图;
图2为采用本发明的算法的创可贴识别效果示意图;
图3为采用本发明方法的YOLO v2-tiny的网络结构图;
图4为本发明卷积神经网络YOLO v2-tiny的卷积运算操作示意图;
图5为本发明卷积神经网络YOLO v2-tiny的最大池化操作示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
以下是对本发明涉及的术语进行解释和说明。
Conv1代表YOLO v2-tiny中的第一层卷积层;
Max1代表YOLO v2-tiny中的第一层最大池化层;
Feature Map代表通过卷积层提取特征后最终形成的特征图。
参阅图1为本发明一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法的流程示意图:
S201:用摄像头采集创可贴图像数据,制作VOC格式数据集;
S202:用制作完成的数据集训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间并保存权重模型;
S203:运用训练完成的YOLO v2-tiny模型回归出创可贴图像具体坐标位置并根据坐标裁剪出目标创可贴;
S204:取裁剪后创可贴中心处10*10~30*30之间像素大小,利用单通道颜色算法将裁剪后的目标与同等大小的白色区域计算相似度,相似度计算公式采用欧氏距离;
S205:根据环境设定一个阈值,阈值取值范围为3500~5000之间,如若欧氏距离计算结果大于该值则无药芯,小于等于该值设为带有药芯。
参阅图2为采用本发明方法的医用创可贴识别效果示意图。图2中创可贴的放置位置、角度以及光照环境均不同,YOLO v2-tiny均能准确的框出具体目标。
参阅图3为采用本发明方法的YOLO v2-tiny的网络结构图。该网络输入是640*480,经过9层卷积层和6层最大池化层输出特征图,再利用Anchor Box和非极大值抑制(NMS)输出最后的结果。
参阅图4为本发明卷积神经网络YOLO v2-tiny的卷积运算操作示意图。卷积操作计算为卷积核在图像上滑过,卷积核覆盖处对应两个数相乘最后结果相加。
参阅图5为本发明卷积神经网络YOLO v2-tiny的最大池化操作示意图。最大池化操作为卷积核在图像上滑过,卷积核覆盖区域求出图像的最大值并保留最大值。
本发明的实施例1:
用罗技摄像头随机拍摄生产线上的医用创可贴图片3000张,其中包括训练集2000张,测试集1000张,将该数据集制作成VOC格式并将该格式的数据集输入到YOLO v2-tiny网络模型中,模型训练至40K次时损失函数达到0.1~0.2之间且损失函数变化值小于0.02,训练完成的模型被自动保存,其中训练过程中学习率learning rate取值为0.001,动量参数Momentum为0.9,decay取值为0.0005;用罗技摄像头随机拍摄生产线上创可贴图片,将该图片输入到训练完成的模型中,该模型回归出创可贴的具体坐标位置,坐标位置一般用四维向量(x,y,w,h)表示,分别表示窗口的中心点坐标和窗口的宽高,根据四维坐标向量裁剪出创可贴目标;提取裁剪后的目标创可贴中心10*10~30*30之间像素大小区域,并对该区域进行高斯滤波,滤波公式为G(x)=exp(-x2/(2sigma2)),其中sigma为高斯分布参数;提取经过滤波后的像素区域的蓝色通道,将该蓝色通道数值与255进行比对,计算欧式距离,计算公式如其中n为提取像素区域的像素点个数,x为区域内每一个具体的像素值,y的值均为255;根据环境设定一个阈值,阈值范围在3500~5000,如若欧氏距离计算结果大于阈值则不带有药芯,小于阈值则带有药芯。
以上所述仅为本发明的较佳实施例而已,但本发明的技术特征并不局限于此,任何本领域的技术人员在本发明的领域内,所作的变化或修饰皆涵盖在本发明的专利范围之中。
Claims (5)
1.一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法,其特征在于,该方法包括以下步骤:
步骤一:用摄像头采集创可贴图像数据,制作VOC格式数据集;
步骤二:用制作完成的数据集训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间并保存权重模型;
步骤三:运用训练完成的YOLO v2-tiny模型回归出创可贴图像具体坐标位置并根据坐标裁剪出目标创可贴;
步骤四:取裁剪后创可贴中心处10*10~30*30之间像素大小,利用单通道颜色算法将裁剪后的目标与同等大小的白色区域计算相似度,相似度计算公式采用欧氏距离;
步骤五:根据环境设定一个阈值,阈值取值范围为3500~5000之间,如若欧式距离计算结果大于该值则无药芯,小于等于该值设为带有药芯。
2.如权利要求1所述的一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法,其特征在于,在步骤二中的训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间,其
中的训练损失函数为其中λcoord代表坐标误差权值,λnoobj代表分类误差权值,S*S代表将图片分成S*S个栅格,B代表每个grid中bounding box的个数,判断第i个栅格和第j个bounding box是否负责这个object,判断是否有object的中心落入栅格中,xi,yi代表第i个栅格的bounding box的中心坐标,wi,hi代表第i个栅格的bounding box的宽和高, 分别代表第i个栅格的真实目标框的中心中心点坐标、宽度、长度、目标类别和置信度,Ci代表模型预测第i个栅格的类别,pi代表模型预测第i个栅格目标物体的置信度。
3.如权利要求1所述的一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法,其特征在于,在步骤二中的训练YOLO v2-tiny模型至损失函数降为0.1~0.2之间,学习率learningrate取值为0.001~0.1,动量参数Momentum为0.9~1,decay取值为0.0005~0.001,将训练进行至损失函数降为0.1~0.2之间且损失函数变化值小于0.02。
4.如权利要求1所述的一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法,其特征在于,在步骤三中运用训练完成的YOLO v2-tiny模型回归出目标创可贴具体坐标,其具体实现过程如下:
a.给定一个输入医用创可贴图片,将图片划分成S*S的网格,S取值为7;
b.对于每个网格预测B个bounding box以及C个类别概率,总共输出S*S*B个boundingbox以及S*S*(B*5+C)个维度的标签,其中5代表5维即每一个bounding box的中心点坐标、宽度、高度以及该bounding box的置信度;
c.用极大值抑制去掉冗余bounding box,其具体做法为先选个概率极大框加入最终结果,然后计算其他框和这个最大框的相交面积占两者总面积的比率IOU,之后把比率比较大的剔除,输出最后的候选框,IOU计算公式为DetectionResult为检测的bounding box与,GroundTruth为真实的目标所在的框。
5.如权利要求1所述的一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法,其特征在于,在步骤四中采用单通道颜色匹配算法,具体步骤如下:
a.提取裁剪后的目标创可贴中心10*10~30*30之间像素大小区域,并对该区域进行高斯滤波,滤波公式为G(x)=exp(-x2/(2sigma2)),其中sigma为高斯分布参数,x为裁剪后区域内的像素值;
b.提取经过滤波后的像素区域的单色通道,该单色为蓝色,黄色中带有蓝色成分较少,通过对比蓝色通道得出最大的颜色差异;
c.将该蓝色通道数值与255进行比对,计算欧式距离,计算公式如其中n为提取像素区域的像素点个数,x为区域内每一个具体的像素值,y的值均为255。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811373386.5A CN109615610B (zh) | 2018-11-13 | 2018-11-13 | 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811373386.5A CN109615610B (zh) | 2018-11-13 | 2018-11-13 | 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109615610A true CN109615610A (zh) | 2019-04-12 |
CN109615610B CN109615610B (zh) | 2023-06-06 |
Family
ID=66003491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811373386.5A Active CN109615610B (zh) | 2018-11-13 | 2018-11-13 | 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109615610B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298307A (zh) * | 2019-06-27 | 2019-10-01 | 浙江工业大学 | 一种基于深度学习的异常停车实时检测方法 |
CN110490874A (zh) * | 2019-09-04 | 2019-11-22 | 河海大学常州校区 | 基于yolo神经网络的纺织布匹表面瑕疵检测方法 |
CN112906547A (zh) * | 2021-02-09 | 2021-06-04 | 哈尔滨市科佳通用机电股份有限公司 | 一种基于e-yolo的铁路列车风挡破损故障检测方法 |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020072874A1 (en) * | 2000-11-22 | 2002-06-13 | Bernd Michaelis | Method of detecting flaws in the structure of a surface |
WO2008028893A1 (en) * | 2006-09-07 | 2008-03-13 | Unilever Plc | Method of measuring blemishes on skin |
US20080247640A1 (en) * | 2004-07-22 | 2008-10-09 | National University Corporation Nara Institute Of | Image Processing Device, Image Processing Method, and Recording Medium on Which the Program is Recorded |
JP2009157701A (ja) * | 2007-12-27 | 2009-07-16 | Shimadzu Corp | 画像処理方法及び画像処理装置 |
CN104508681A (zh) * | 2012-06-28 | 2015-04-08 | 派力肯影像公司 | 用于检测有缺陷的相机阵列、光学器件阵列和传感器的***及方法 |
CN104764440A (zh) * | 2015-03-12 | 2015-07-08 | 大连理工大学 | 基于彩色图像的滚转物单目位姿测量方法 |
CN105160685A (zh) * | 2015-10-16 | 2015-12-16 | 南京大学(苏州)高新技术研究院 | 一种岩石孔隙和颗粒***的计算机数字图像识别方法 |
CN106022458A (zh) * | 2016-05-13 | 2016-10-12 | 中国人民解放军国防科学技术大学 | 面向校车安全的人数快速统计方法 |
CN106326937A (zh) * | 2016-08-31 | 2017-01-11 | 郑州金惠计算机***工程有限公司 | 基于卷积神经网络的人群密度分布估计方法 |
CN106934784A (zh) * | 2017-03-16 | 2017-07-07 | 中国科学院遥感与数字地球研究所 | 一种基于遥感影像融合的冰川面积变化监测方法 |
CN107133567A (zh) * | 2017-03-31 | 2017-09-05 | 北京奇艺世纪科技有限公司 | 一种创可贴广告点位选取方法及装置 |
US20180075628A1 (en) * | 2016-09-12 | 2018-03-15 | Zebra Medical Vision Ltd. | Systems and methods for automated detection of an indication of malignancy in a mammographic image |
CN107862694A (zh) * | 2017-12-19 | 2018-03-30 | 济南大象信息技术有限公司 | 一种基于深度学习的手足口病检测*** |
CN108171705A (zh) * | 2018-01-20 | 2018-06-15 | 南京理工大学 | 一种透明玻璃瓶内液体的异物检测算法 |
CN108492291A (zh) * | 2018-03-12 | 2018-09-04 | 苏州天准科技股份有限公司 | 一种基于cnn分割的太阳能光伏硅片瑕疵检测***及方法 |
CN108520114A (zh) * | 2018-03-21 | 2018-09-11 | 华中科技大学 | 一种纺织布疵点检测模型及其训练方法和应用 |
CN108593660A (zh) * | 2018-04-19 | 2018-09-28 | 浙江师范大学 | 一种冲压铝板缺陷自动检测装置及方法 |
CN108648182A (zh) * | 2018-04-27 | 2018-10-12 | 南京信息工程大学 | 一种基于分子亚型的乳腺癌核磁共振图像肿瘤区域分割方法 |
-
2018
- 2018-11-13 CN CN201811373386.5A patent/CN109615610B/zh active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020072874A1 (en) * | 2000-11-22 | 2002-06-13 | Bernd Michaelis | Method of detecting flaws in the structure of a surface |
US20080247640A1 (en) * | 2004-07-22 | 2008-10-09 | National University Corporation Nara Institute Of | Image Processing Device, Image Processing Method, and Recording Medium on Which the Program is Recorded |
WO2008028893A1 (en) * | 2006-09-07 | 2008-03-13 | Unilever Plc | Method of measuring blemishes on skin |
JP2009157701A (ja) * | 2007-12-27 | 2009-07-16 | Shimadzu Corp | 画像処理方法及び画像処理装置 |
CN104508681A (zh) * | 2012-06-28 | 2015-04-08 | 派力肯影像公司 | 用于检测有缺陷的相机阵列、光学器件阵列和传感器的***及方法 |
CN104764440A (zh) * | 2015-03-12 | 2015-07-08 | 大连理工大学 | 基于彩色图像的滚转物单目位姿测量方法 |
CN105160685A (zh) * | 2015-10-16 | 2015-12-16 | 南京大学(苏州)高新技术研究院 | 一种岩石孔隙和颗粒***的计算机数字图像识别方法 |
CN106022458A (zh) * | 2016-05-13 | 2016-10-12 | 中国人民解放军国防科学技术大学 | 面向校车安全的人数快速统计方法 |
CN106326937A (zh) * | 2016-08-31 | 2017-01-11 | 郑州金惠计算机***工程有限公司 | 基于卷积神经网络的人群密度分布估计方法 |
US20180075628A1 (en) * | 2016-09-12 | 2018-03-15 | Zebra Medical Vision Ltd. | Systems and methods for automated detection of an indication of malignancy in a mammographic image |
CN106934784A (zh) * | 2017-03-16 | 2017-07-07 | 中国科学院遥感与数字地球研究所 | 一种基于遥感影像融合的冰川面积变化监测方法 |
CN107133567A (zh) * | 2017-03-31 | 2017-09-05 | 北京奇艺世纪科技有限公司 | 一种创可贴广告点位选取方法及装置 |
CN107862694A (zh) * | 2017-12-19 | 2018-03-30 | 济南大象信息技术有限公司 | 一种基于深度学习的手足口病检测*** |
CN108171705A (zh) * | 2018-01-20 | 2018-06-15 | 南京理工大学 | 一种透明玻璃瓶内液体的异物检测算法 |
CN108492291A (zh) * | 2018-03-12 | 2018-09-04 | 苏州天准科技股份有限公司 | 一种基于cnn分割的太阳能光伏硅片瑕疵检测***及方法 |
CN108520114A (zh) * | 2018-03-21 | 2018-09-11 | 华中科技大学 | 一种纺织布疵点检测模型及其训练方法和应用 |
CN108593660A (zh) * | 2018-04-19 | 2018-09-28 | 浙江师范大学 | 一种冲压铝板缺陷自动检测装置及方法 |
CN108648182A (zh) * | 2018-04-27 | 2018-10-12 | 南京信息工程大学 | 一种基于分子亚型的乳腺癌核磁共振图像肿瘤区域分割方法 |
Non-Patent Citations (3)
Title |
---|
JUNFENG JING等: "Defect Detection on Patterned Fabrics Using Distance Matching Function and Regular Band", 《JOURNAL OF ENGINEERED FIBERS AND FABRICS》 * |
吴科君等: "基于改进YOLO算法的全景多目标实时检测", 《计算机工程与设计》 * |
熊显阔: "钮扣特征检测与分类识别算法研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅰ辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110298307A (zh) * | 2019-06-27 | 2019-10-01 | 浙江工业大学 | 一种基于深度学习的异常停车实时检测方法 |
CN110298307B (zh) * | 2019-06-27 | 2021-07-20 | 浙江工业大学 | 一种基于深度学习的异常停车实时检测方法 |
CN110490874A (zh) * | 2019-09-04 | 2019-11-22 | 河海大学常州校区 | 基于yolo神经网络的纺织布匹表面瑕疵检测方法 |
CN112906547A (zh) * | 2021-02-09 | 2021-06-04 | 哈尔滨市科佳通用机电股份有限公司 | 一种基于e-yolo的铁路列车风挡破损故障检测方法 |
CN112906547B (zh) * | 2021-02-09 | 2022-01-11 | 哈尔滨市科佳通用机电股份有限公司 | 一种基于e-yolo的铁路列车风挡破损故障检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109615610B (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107016405B (zh) | 一种基于分级预测卷积神经网络的害虫图像分类方法 | |
CN111709379B (zh) | 基于遥感影像的丘陵区柑橘种植地块监测方法及*** | |
Liu et al. | A computer vision system for early stage grape yield estimation based on shoot detection | |
CN106127204B (zh) | 一种全卷积神经网络的多方向水表读数区域检测算法 | |
CN109961024A (zh) | 基于深度学习的小麦田间杂草检测方法 | |
CN108830188A (zh) | 基于深度学习的车辆检测方法 | |
CN109614985A (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
CN110135296A (zh) | 基于卷积神经网络的机场跑道fod检测方法 | |
CN109409365A (zh) | 一种基于深度目标检测的待采摘水果识别和定位方法 | |
CN103049763B (zh) | 一种基于上下文约束的目标识别方法 | |
CN107609512A (zh) | 一种基于神经网络的视频人脸捕捉方法 | |
CN110321815A (zh) | 一种基于深度学习的道路裂缝识别方法 | |
CN110097568A (zh) | 一种基于时空双分支网络的视频对象检测与分割方法 | |
CN107346420A (zh) | 一种基于深度学习的自然场景下文字检测定位方法 | |
CN110569747A (zh) | 一种利用图像金字塔与Faster-RCNN快速统计大田水稻稻穗数的方法 | |
CN112560675B (zh) | Yolo与旋转-融合策略相结合的鸟类视觉目标检测方法 | |
CN102915446A (zh) | 基于svm机器学习的植物病虫害检测方法 | |
Wang et al. | Tea picking point detection and location based on Mask-RCNN | |
CN105931241B (zh) | 一种自然场景图像的自动标注方法 | |
CN109615610A (zh) | 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法 | |
CN113392849A (zh) | 一种基于r-cnn的复杂路面裂缝识别方法 | |
CN110110755A (zh) | 基于ptgan区域差距与多重分支的行人重识别检测算法及装置 | |
CN107038416A (zh) | 一种基于二值图像改进型hog特征的行人检测方法 | |
CN108596883A (zh) | 一种基于深度学习和距离约束的航拍图像防震锤滑移故障诊断方法 | |
Gleason et al. | A Fusion Approach for Tree Crown Delineation from Lidar Data. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |