CN111951237A - 外观视觉检测方法 - Google Patents
外观视觉检测方法 Download PDFInfo
- Publication number
- CN111951237A CN111951237A CN202010772989.3A CN202010772989A CN111951237A CN 111951237 A CN111951237 A CN 111951237A CN 202010772989 A CN202010772989 A CN 202010772989A CN 111951237 A CN111951237 A CN 111951237A
- Authority
- CN
- China
- Prior art keywords
- image
- defect
- detection
- workpiece
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 115
- 230000000007 visual effect Effects 0.000 title claims abstract description 27
- 230000003287 optical effect Effects 0.000 claims abstract description 38
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000012634 optical imaging Methods 0.000 claims abstract description 5
- 230000007547 defect Effects 0.000 claims description 133
- 238000001914 filtration Methods 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 26
- 238000000034 method Methods 0.000 claims description 25
- 230000011218 segmentation Effects 0.000 claims description 19
- 230000002950 deficient Effects 0.000 claims description 17
- 239000000463 material Substances 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000013136 deep learning model Methods 0.000 claims description 14
- 230000009466 transformation Effects 0.000 claims description 14
- 238000013519 translation Methods 0.000 claims description 11
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 238000013461 design Methods 0.000 claims description 6
- 238000000926 separation method Methods 0.000 claims description 6
- 239000010421 standard material Substances 0.000 claims description 6
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims 12
- 238000013135 deep learning Methods 0.000 abstract description 6
- 238000003384 imaging method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 208000034656 Contusions Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种外观视觉检测方法,包括:光学引导步骤:通过以基准图像作为标准,计算出待比较图像相似度,从而确保同一批次产品在不同机台上采集到图像的光学成像一致性;视觉引导步骤:对于小零件产品上料需要达到预设的高精准度,否则机械臂就无法进行正常上料的场景,产品上料前需要通过视觉引导算法获取产品的偏离角度、X位置及Y位置,通知机械进行调整来确保产品上料精准性。本发明创新性的采用深度学习加传统图像处理的机器视觉检测方法,所以才存在图像采集阶段的相似性比较的需求,用于确保采集到一致的图像,从而确保后续用于深度模型检测的数据的准确性以及图像检测的准确率。
Description
技术领域
本发明涉及图形检测领域,具体地,涉及一种外观视觉检测方法。
背景技术
传统光学引导主要是依靠实施工程师的主观经验,通过调节相机焦距、光圈及工作距离等方式控制光学成像质量,效果一般、不同机台的成像光学一致性差。
传统的视觉引导流程一般为:带有工业相机的上料机构(机械手、吸盘等),每次抓取物料前拍照,通过视觉软件计算待抓取物料的位置偏差、角度偏差的信息,以保证在下料时能符合下料精度。存在的缺陷主要是精度无法保证。
传统的目标检测算法常采用滑动窗口的策略对整幅图像进行遍历,然后用Haar、SIFT、HOG等特征提取器对目标对象进行提取,再利用SVM,Adaboost等分类器对提取的目标进行分类,这种穷举的策略虽然包含了目标所有可能出现的位置,但是缺点也是显而易见的:时间复杂度太高,产生冗余窗口太多,这也严重影响后续特征提取和分类的速度和性能。而且,由于目标的形态多样性,光照变化多样性,背景多样性等因素使得设计一个鲁棒的特征并不是那么容易。
传统的目标检测算法常采用滑动窗口的策略对整幅图像进行遍历,然后用Haar、SIFT、HOG等特征提取器对目标对象进行提取,再利用SVM,Adaboost等分类器对提取的目标进行分类,这种穷举的策略虽然包含了目标所有可能出现的位置,但是缺点也是显而易见的:时间复杂度太高,产生冗余窗口太多,这也严重影响后续特征提取和分类的速度和性能。而且,由于目标的形态多样性,光照变化多样性,背景多样性等因素使得设计一个鲁棒的特征并不是那么容易。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种外观视觉检测方法。
根据本发明提供的一种外观视觉检测方法,包括:
光学引导步骤:通过以基准图像作为标准,计算出待比较图像相似度,从而确保同一批次产品在不同机台上采集到图像的光学成像一致性;
视觉引导步骤:对于小零件产品上料需要达到预设的高精准度,否则机械臂就无法进行正常上料的场景,产品上料前需要通过视觉引导算法获取产品的偏离角度、X位置及Y位置,通知机械进行调整来确保产品上料精准性;
产品图像获取步骤:通过针对不同产品及同一产品不同的光学面进行相机设置,获得与基准光学面一致的相机原图,获得原图之后传送给图像处理模块进行图像处理,最终得到可以进行模型检测的图像;
模型检测步骤:将获得的可以进行模型检测的图像发送给深度模型及灰度检测模型进行检测,最终获取产品每个光学面返回的检测结果;
物理量过滤步骤:对于返回的检测结果进阈值或者缺陷长度、缺陷宽度及缺陷亮度物理量进行过滤;
产品下料步骤:根据检测结果判断工件是否为良品,针对良品及不同缺陷的不良品进行分类下料到不同下料口。
优选地,所述光学引导步骤:
步骤S101:分别对标准图像和待比较图像进行平滑滤波,滤除随机性的噪声;
步骤S102:根据工件的亮度特点,采取背景图像亮度值的一半作为分隔阈值,如果当前像素点的值和背景值的差距大于当前分隔阈值,我们会把当前像素点作为前景,反之作为背景值,对于难以分隔的图像,在界面预留精度值,让用户手动调整,从而能正确分割基准图像;
步骤S103:用所述分隔阈值对待比较图像、标准图像进行阈值分割,将图像进行二值化,分割出图像的前景和背景的位置;
步骤S104:在二值图像中查找图像的轮廓,根据工件的特点,最大的轮廓即工件,其他较小的轮廓是因为噪声导致的,直接忽略掉;分别提取工件的质心、像素点位置、面积等参数;
步骤S105:根据质心和面积来判断图像的前景是否一致;
步骤S106:根据工件特点,只比较背景图像的亮度。
优选地,所述视觉引导步骤:
步骤S201:机械臂抓一个料放到拍照处,按照九宫格点位设计拍九张照片,并且将每个点为坐标数据保存在RobotCores.csv文件中,其中第5张图片被定义位模板图,命名为Template.tiff;
步骤S202:机械臂抓着该料以预设旋转角度拍摄预设数量的照片;
步骤S203:创建标定模板,拖动鼠标在图片上划定感兴趣区域;
步骤S204:根据机械臂九宫格点位和定位模板数据进行九点标定计算;
步骤S205:根据旋转拍照时的点位坐标数据执行旋转中心计算,用拍摄的预设数量的照片的位置数据拟合圆;
步骤S206:读取机械臂从拍照位到放置位的旋转角度,写入文件RobotRotAngel.txt;
步骤S207:机械臂从载台抓取一个标准物料到拍照位,相机拍照,将该拍照图片命名为StdImage.tiff,然后计算标准位置在X,Y,Z三个方向的坐标,保存在StdCore.tup中;
步骤S208:测试标定是否可行,不可行的话需要重新标定。
优选地,所述产品图像获取步骤:
步骤S301:移动相机和工件的位置到指定光学面点位
步骤S302:根据光学面信息设置相机参数和光源后,触发相机拍照;
步骤S303:收到相机传回的原图,将原图对应的工件信息添加到原图头部;
步骤S304:将带有头部信息的相机原图存盘,用于发生问题时追溯原因;
步骤S305:将带有头部信息的相机原图分发到不同光学面图片预处理模块并行处理;
步骤S306:图片预处理模块根据工件载台数量、机台通道数量信息,将相机原图进行切割、压缩、旋转、水平镜像以及垂直镜像算法操作,输出符合模型检测要求的图像,包括如下所述情况:
一张相机原图中包含多个工件,需要将图像中的工件分别切割出来;
相机原图尺寸过大,需要将原图压缩至更小,以提升模型运算速度;
一个工件需要多张相机原图合并而成,需要先对相机原图进行旋转、镜像操作后再进行合并。
优选地,所述模型检测步骤包括:
搭建步骤:设计并搭建用于检测工件缺陷的深度学习模型;
分类步骤:对需学习的学习图像中的每个像素点进行类别分类,对每个像素点进行类型的置信度判定;
深度学习模型训练步骤:对完成像素点类别分类和置信度判定的学习图像进行训练,得到训练后的深度学习模型;
缺陷检测步骤:利用训练后的深度学习模型对工件进行缺陷检测。
优选地,所述分类步骤:对学习图像中的每个像素点进行分类类别,以0表示像素点的类别为背景,以1表示像素点的类别为缺陷,根据类别将学习图像分割为背景区域和缺陷区域;
所述分类步骤包括:
卷积步骤:对输入层进行特征抽取,过滤部分无用信息并保留特征有效信息;
池化步骤:对输入层进行降维,降低计算量;
特征融合步骤:对具有相同维度的不同层进行跨层连接;
类别判定步骤:将特征融合步骤得到的特征信息量化为某个类别的置信度;
输出步骤:输出多维数组向量作为结果,表征一幅学习图像中各个像素值的类别及置信度;
多维数组向量包括[m,n,c,s]向量,其中:m表示图像宽度,n表示图像高度,c表示类别,s表示置信度。
优选地,所述深度学习模型训练步骤:设置设定的训练步数,训练时分单双交替训练训练集中的良品图像和缺陷图像,直至损失无明显减小时停止训练,输出此时对应步数的模型作为本次训练的输出模型。
优选地,还包括灰度模型检测步骤:通过灰度变换和空间滤波对工件缺陷检测;
所述灰度模型检测步骤包括顶部凹陷检测步骤:
通过形状模板匹配定位,得到图像的旋转平移的矩阵;
通过旋转平移矩阵得到仿射变换后的顶部区域,
对仿射变换顶部区域进行亚像素阈值分割,将分割得到的边缘线段加入到计量模型中;
计算出边上个点到基线的最大和最小距离,最大距离和最小距离之差即凹陷的值;
所述灰度模型检测步骤包括披锋毛刺检测步骤:
通过形状模板匹配定位,得到图像的旋转平移的矩阵;
通过阈值分割找到内孔区域,抹掉通过仿射变换后的内孔区域的内角区域,用闭运算检测出毛刺;
所述灰度模型检测步骤包括水口高度检测步骤:
通过形状模板匹配定位,得到图像的旋转平移的矩阵;
通过矩阵的旋转角度判定水口高度是否达标;
所述灰度模型检测步骤包括顶裂检测步骤:
将图片进行阈值分割找出检测的区域,通过傅里叶变换将图像有时阈变换到频域;
通过高斯滤波器将中频的分量滤掉,变换到时阈,通过二阶导的方式求出线条的形状。
优选地,所述物理量过滤步骤:
设置过滤规则步骤:由于不同产品,不同缺陷,不同部位判断为对应缺陷的参数条件是不一样,设置不同规则来作为判断缺陷条件;过滤规则可以设置组合规则,并且区分规则优先级,优先级高先进行比对;如果第一个规则进行比对符合缺陷规则,则直接判断该产品的检测记录为对应缺陷记录,其他规则就不用比对;如果不符合缺陷规则,则继续拿第二条规则进行比对;如果还是不符合缺陷,则继续比对直到所有缺陷规则都比对完;如果还是没有符合则当前判断该检测记录为良品记录;
设置规则条件步骤:规则条件是指可以作为条件的线性量化的数值,包括以下物理量条件:缺陷阈值、缺陷长度、缺陷宽度、缺陷面积、缺陷平均亮度、缺陷对比度、缺陷梯度、缺陷长宽比,通过设置一个或多个规则进行组合成一条判断规则;
非检测区域过滤步骤:针对产品不同光学面有对应的非检测区域的,该区域无需检测缺陷,通过设置区域检出规则条件来有条件的屏蔽检出缺陷,进而精准检出的目标。
优选地,所述产品下料步骤包括:
判定下料分为检测结果完成下料及超时下料:
检测结果完成下料是指工件的所有的光学面都返回检测结果从而进行判定下料的过程;
超时下料是指当工件所有的光学面都已经拍照完成并开始计时,超过预设的超时时间之后的所有的检测结果都返回进行判定下料;
判定产品良品及不同缺陷的不良品:
根据过滤工件的缺陷结果进行判定该工件最终判定所属不良品缺陷或良品,不良品缺陷的最终判定可以通过最终判定算法如取阈值最大算法,或根据如阈值,缺陷面积大小,缺陷亮度分别不同的权重计算出的值,得到最终改工件所属判定缺陷;
分类下料:
根据判定良品及不良品缺陷分类配置对应不同的下料口。
与现有技术相比,本发明具有如下的有益效果:
1、本发明通过深度学习检测,大大降低了时间复杂度,减少了冗余窗口的产生,大大提升了后续特征提取和分类的速度和性能;
2、本发明通过深度学习检测,提升了图像鲁棒的特征;
3、本发明结合多种检测模式,检测更为全面准确。
4、创新性的采用深度学习加传统图像处理的机器视觉检测方法,所以才存在图像采集阶段的相似性比较的需求,用于确保采集到一致的图像,从而确保后续用于深度模型检测的数据的准确性以及图像检测的准确率。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为外观视觉检测流程示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
下面通过优选例,对本发明进行更为具体地说明。
优选例1:
一、光学引导
光学引导是指通过以基准图像作为标准,计算出待比较图像的亮度,轮廓、面积等相似度,从而确保同一批次产品在不同机台上采集到图像的光学成像一致性(包括产品成像角度,成像大小,成像亮度)。
针对同类产品的不同尺寸,不同颜色进行光学取像达到一致性,我现场人员通过调整相机光圈,焦距,角度等参数来调整成像,根据经验及感官来确认当前产品成像与基准产品成像是否一致。由于不同人员感官的差异性,要确保成像的一致性光靠人员经验及感官是不可靠的,所以需要通过光学引导算法提供对应基准参数数据来确保一致性。
普通的光学检测,由于图像传感器的位置较为固定且检测目标区域较大,采集到的图像一致性较好,不需要进行图像采集阶段的图像一致性对比。我司所做的电子产品(其中有些小零件较小,长:1cm,宽:3mm)的表面缺陷检测,行业里通常的做法是人拿着显微镜对实物反复检测是否存在缺陷,所以不存在图像采集的这个阶段,不存在图像采集阶段的图像相似性的比较。传统人工检测、这种单调重复的工作,对工人的视力、精神等伤害较大,为了提升工作效率,将工人从这种痛苦的环境下解救出来并助力国家工业4.0的目标,我司创新性的采用深度学习加传统图像处理的机器视觉检测方法,所以才存在图像采集阶段的相似性比较的需求,用于确保采集到一致的图像,从而确保后续用于深度模型检测的数据的准确性以及图像检测的准确率。
具体光学引导步骤及算法如下:
1)分别对标准图像和待比较图像进行平滑滤波,滤除随机性的噪声;
2)根据工件的亮度特点,我们采取背景图像亮度值的一半作为分隔阈值,如果当前像素点的值和背景值的差距大于当前分隔阈值,我们会把当前像素点作为前景,反之作为背景值,同时遇到难以分隔的图像,我们会在界面预留精度值,让用户手动调整,从而能正确分割基准图像。在处理的时候,我们有一个硬性条件,默认基准图像是绝对可以分割,如果不能分割,说明采集到的基准图像有问题,需要重新采集基准图像;
3)用该阈值对待比较图像、标准图像进行阈值分割,将图像进行二值化,分割出图像的前景和背景的位置;
4)在二值图像中查找图像的轮廓,根据工件的特点,最大的轮廓即是我们的工件,其他较小的轮廓是因为噪声导致的,我们直接忽略掉。分别提取工件的质心、像素点位置、面积等参数;
5)根据质心和面积来判断图像的前景是否一致;
6)根据工件特点,为了简化计算量,我们只比较背景图像的亮度;背景亮度是指去除工件前景后的其他区域,为什么比较背景亮度而不比较工件的前景呢?是因为受生产工艺的影响,不同批次的工件,会存在亮度的差异,不同亮度的工件会混杂在一块,所以无法比较前景的像素平均值
二、视觉引导
针对小零件产品上料需要达到很高精准度且稍微有一点偏差机械臂就无法进行正常上料的场景,产品上料前需要通过视觉引导算法获取产品的偏离角度,X位置,Y位置,通知机械进行调整来确保产品上料精准性。
具体视觉引导步骤及算法如下:
1)机械臂抓一个料放到拍照处,按照九宫格点位设计拍九张照片,并且将每个点为坐标数据保存在RobotCores.csv文件中,其中第5张图片被定义位模板图,命名为Template.tiff;
2)机械臂抓着该料以旋转角度为5的拍照七张;可以是5张或者9张,理论上采集的数量越多,计算机械臂的旋转中心越精准;
3)创建标定模板(拖动鼠标在图片上划定感兴趣区域,作用就是为了创建形状模板以实现搜索定位,比如以产品中的两个圆建立模板,那么采集了一张新的产品图像,算法就会基于建立的模板在指定范围内去搜索(两个圆),从而知道产品的具***置),拖动鼠标在图片上划定感兴趣区域;
4)根据机械臂九点运动坐标(即九宫格点位)和定位模板数据进行九点标定计算;
5)根据旋转拍照时的点位坐标数据执行旋转中心计算,用7张照片的位置数据拟合圆;
6)读取机械臂从拍照位到放置位的旋转角度,写入文件RobotRotAngel.txt;
7)机械臂从载台抓取一个标准物料到拍照位,相机拍照,将该拍照图片命名为StdImage.tiff,然后计算标准位置在X,Y,Z三个方向的坐标,保存在StdCore.tup中;该步的计算基于步骤1)-6),根据坐标变换、圆形位置、角度旋转等信息计算一组供机械臂调整抓取物料放置位置,这样能最大限度减小放到载台失败的情况
8)最后需要测试标定是否可行(即机械手抓取,测试下料准不准),不可行的话需要重新标定。
三、获取产品图像
通过针对不同产品及同一产品不同的光学面进行相机设置,曝光,感兴趣区域位置,行频,拍照延时等参数,取到跟基准光学面一致的相机原图,得到原图之后传送给图像处理模块进行图像处理(包括切割,压缩,旋转,水平镜像,垂直镜像、合并等算法),最终得到可以进行模型检测的图像。
具体获取产品图像步骤及算法如下:
1)移动相机和工件的位置到指定光学面点位
2)根据光学面信息设置相机参数(包括曝光值、伽马值、行频、感兴趣区域等)和光源后,触发相机拍照
3)收到相机传回的原图,将原图对应的工件信息(包括工件号、通道号)添加到原图头部
4)将带有头部信息的相机原图存盘,用于发生问题时追溯原因
5)将带有头部信息的相机原图分发到不同光学面图片预处理模块并行处理
6)图片预处理模块根据工件载台数量、机台通道数量等信息,将相机原图进行切割、压缩、旋转、水平镜像、垂直镜像等算法操作,输出符合模型检测要求的图像。具体分为以下几种情况:
a)一张相机原图中包含多个工件,需要将图像中的工件分别切割出来
b)相机原图尺寸过大,需要将原图压缩至更小,以提升模型运算速度
c)一个工件需要多张相机原图合并而成,需要先对相机原图进行旋转、镜像操作后再进行合并
四、模型检测
把获取到的模型检测图发送给模型管道服务进行检测,其中针对不同产品及不同光学面一部分发送给深度模型进行检测,一部分发送给灰度检测模型进行检测,最终获取产品每个光学面返回的检测信息(包括:缺陷,缺陷阈值位置信息x坐标,y坐标,宽度,高度,缺陷长度,缺陷高度,缺陷面积,缺陷平均亮度信息,缺陷梯度信息,缺陷对比度信息,缺陷最亮20%平均亮度信息,缺陷最暗20%平均亮度信息)。
传统的目标检测算法常采用滑动窗口的策略对整幅图像进行遍历,然后用Haar、SIFT、HOG等特征提取器对目标对象进行提取,再利用SVM,Adaboost等分类器对提取的目标进行分类,这种穷举的策略虽然包含了目标所有可能出现的位置,但是缺点也是显而易见的:时间复杂度太高,产生冗余窗口太多,这也严重影响后续特征提取和分类的速度和性能。而且,由于目标的形态多样性,光照变化多样性,背景多样性等因素使得设计一个鲁棒的特征并不是那么容易。
模型检测分为深度模型检测和灰度模型检测。
1.深度模型检测具体实施步骤如下:
1)设计并搭建深度学习模型用于对工件缺陷检测深度学习模型由分割网络和分类网络two-stage构成,其中主要包含卷积模块、池化模块、特征融合模块、类别判定模块及输出模块。
其中分割网络学习图像中每个像素点所属的分类类别,以0表述该像素类别为背景,以1表示该像素类别为缺陷,根据类别将一副图像分割为背景区域和缺陷区域;其中分类网络在分割网络基础上对提取的背景区域和缺陷区域中的每个像素点作出判定给出每个像素点属于某个类别的可能性,即置信度。
所述卷积层,其特征在于对输入层进行特征抽取,过滤部分无用信息并保留特征大部分有效信息;所述的池化层特征在于对输入层进行降维以降低计算量;所述的特征融合层特征在于对具有相同维度的不同层进行跨层连接以获取更丰富的特征信息;所述的类别判定层特征在于将特征融合层得到的特征信息量化为某个类别的概率值;述的输出层特征在于经过卷积池化特征融合等之后输出向量[m,n,c,s]作为结果,表征一幅图像中各个像素值的类别及置信度。
2)以划分好的数据集循环训练深度学习模型;
具体地,所述实施方式(5)包含:
深度学习的训练方法,其特征在于对划分好的训练集文件夹内所有图像进行训练,设置训练步数>1000,训练时分单双交替训练训练集中的良品图像和缺陷图像,直至loss无明显减小时停止训练输出此刻对应步数的模型作为本次训练的输出模型。
3)用深度学习模型对真实场景工件进行外观缺陷检测,给出检测结果判定并进行量化;
对真实场景工件进行外观缺陷检测时,利用上述输出的模型对金属粉末注射成型的工件进行检测,按照向量[m,n,c,s]输出结果。
2.灰度模型检测,
灰度模型检测就是使用灰度变换和空间滤波的方式进行检测,针对不同的缺陷使用不同的检测方式。具体的缺陷类型有:顶部凹陷、披锋毛刺、水口高度、碰伤缺陷、裂缝缺陷、变形缺陷等。在算法里面会有图像反转、分段线性变换、直方图均衡和匹配、空间滤波等,有些特殊的检测比如碰伤、裂纹,会从时域转到频域处理,利用频域的特性来进行检测,具体算法如下:
1)顶部凹陷的检测
通过形状模板匹配来定位,得到图像的旋转平移的矩阵。通过旋转平移矩阵得到仿射变换后的顶部区域,再对仿射变换顶部区域进行亚像素阈值分割,将分割得到的边缘线段加入到计量模型中,然后计算出边上个点到基线的最大和最小距离,最大距离和最小距离之差即凹陷的值。
2)披锋毛刺的检测
通过形状模板匹配来定位,得到图像的旋转平移的矩阵。通过阈值分割找到内孔区域,然后抹掉通过仿射变换后的内孔区域的内角区域,最后用闭运算检测出毛刺。
3)水口高度
通过形状模板匹配来定位,得到图像的旋转平移的矩阵。因为底部长度固定,通过矩阵的旋转角度来判定水口高度是否达标。
4)顶裂检测
现将图片进行阈值分割找出检测的区域,通过傅里叶变换将图像有时阈变换到频域,然后通过高斯滤波器将中频的分量滤掉,然后在变换到时阈,通过二阶导的方式求出线条的形状。
五、物理量过滤
满足客户现场出货良率动态调整的需求,采用线性的物理量过滤方式,
针对模型返回检测结果进阈值,或者缺陷长度,缺陷宽度,缺陷亮度等物理量进行过滤。
物理量过滤步骤如下:
1)设置过滤规则
由于不同产品,不同缺陷,不同部位判断为对应缺陷的参数条件是不一样,所以需要设置不同规则来作为判断缺陷条件。过滤规则可以设置组合规则,并且区分规则优先级,优先级高先进行比对;如果第一个规则进行比对符合缺陷规则,则直接判断该产品的检测记录为对应缺陷记录,其他规则就不用比对;如果不符合缺陷规则,则继续拿第二条规则进行比对;如果还是不符合缺陷,则继续比对直到所有缺陷规则都比对完;如果还是没有符合则当前判断该检测记录为良品记录。
2)设置规则条件
规则条件是指可以作为条件的线性量化的数值,包括缺陷阈值,缺陷长度,缺陷宽度,缺陷面积,缺陷平均亮度,缺陷对比度,缺陷梯度,缺陷长宽比等物理量条件,可以通过设置一个或多个规则进行组合成一条判断规则,如划伤大面规则:面积>3mm&&阈值>0.4&&缺陷长度>0.5mm最为判断该检查记录为缺陷记录。
3)非检测区域过滤
针对产品不同光学面有对应的非检测区域的,该区域无需检测缺陷,如果该区域出现过杀的缺陷记录(通过设置区域检出规则条件来有条件的屏蔽检出缺陷,达到精准检出的目标),则进行过滤屏蔽。
补充说明:非检测区域出现的缺陷进行过滤屏蔽
六、产品下料
产品下料就是产品根据检测结果判断工件是否为良品,针对良品及不同缺陷的不良品进行分类下料到不同下料口的过程。
具体下料步骤如下:
1)判定下料分为检测结果完成下料及超时下料
检测结果完成下料是指工件的所有的光学面都返回检测结果从而进行判定下料的过程。
超时下料是指当工件所有的光学面都已经拍照完成并开始计时,如果设置超时时间为10s,则意味着工件拍照完成10s之后所有的模型结果是否都返回进行判定下料的过程。
2)判定产品良品及不同缺陷的不良品
根据过滤工件的缺陷结果进行判定该工件最终判定所属不良品缺陷或良品。其中不良品缺陷的最终判定可以通过最终判定算法如取阈值最大算法,或根据权重算法(根据如阈值,缺陷面积大小,缺陷亮度分别不同的权重计算出的值)得到最终改工件所属判定缺陷。
3)分类下料
根据判定良品及不良品缺陷分类配置对应不同的下料口。例如:良品对应1号下料口;不良品划伤对应2号下料口等进行分类下料。
在本申请的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的***、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的***、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的***、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (10)
1.一种外观视觉检测方法,其特征在于,包括:
光学引导步骤:通过以基准图像作为标准,计算出待比较图像相似度,从而确保同一批次产品在不同机台上采集到图像的光学成像一致性;
视觉引导步骤:对于小零件产品上料需要达到预设的高精准度,否则机械臂就无法进行正常上料的场景,产品上料前需要通过视觉引导算法获取产品的偏离角度、X位置及Y位置,通知机械进行调整来确保产品上料精准性;
产品图像获取步骤:通过针对不同产品及同一产品不同的光学面进行相机设置,获得与基准光学面一致的相机原图,获得原图之后传送给图像处理模块进行图像处理,最终得到可以进行模型检测的图像;
模型检测步骤:将获得的可以进行模型检测的图像发送给深度模型及灰度检测模型进行检测,最终获取产品每个光学面返回的检测结果;
物理量过滤步骤:对于返回的检测结果进阈值或者缺陷长度、缺陷宽度及缺陷亮度物理量进行过滤;
产品下料步骤:根据检测结果判断工件是否为良品,针对良品及不同缺陷的不良品进行分类下料到不同下料口。
2.根据权利要求1所述的外观视觉检测方法,其特征在于,所述光学引导步骤:
步骤S101:分别对标准图像和待比较图像进行平滑滤波,滤除随机性的噪声;
步骤S102:根据工件的亮度特点,采取背景图像亮度值的一半作为分隔阈值,如果当前像素点的值和背景值的差距大于当前分隔阈值,我们会把当前像素点作为前景,反之作为背景值,对于难以分隔的图像,在界面预留精度值,让用户手动调整,从而能正确分割基准图像;
步骤S103:用所述分隔阈值对待比较图像、标准图像进行阈值分割,将图像进行二值化,分割出图像的前景和背景的位置;
步骤S104:在二值图像中查找图像的轮廓,根据工件的特点,最大的轮廓即工件,其他较小的轮廓是因为噪声导致的,直接忽略掉;分别提取工件的质心、像素点位置、面积等参数;
步骤S105:根据质心和面积来判断图像的前景是否一致;
步骤S106:根据工件特点,只比较背景图像的亮度。
3.根据权利要求1所述的外观视觉检测方法,其特征在于,所述视觉引导步骤:
步骤S201:机械臂抓一个料放到拍照处,按照九宫格点位设计拍九张照片,并且将每个点为坐标数据保存在RobotCores.csv文件中,其中第5张图片被定义位模板图,命名为Template.tiff;
步骤S202:机械臂抓着该料以预设旋转角度拍摄预设数量的照片;
步骤S203:创建标定模板,拖动鼠标在图片上划定感兴趣区域;
步骤S204:根据机械臂九宫格点位和定位模板数据进行九点标定计算;
步骤S205:根据旋转拍照时的点位坐标数据执行旋转中心计算,用拍摄的预设数量的照片的位置数据拟合圆;
步骤S206:读取机械臂从拍照位到放置位的旋转角度,写入文件RobotRotAngel.txt;
步骤S207:机械臂从载台抓取一个标准物料到拍照位,相机拍照,将该拍照图片命名为StdImage.tiff,然后计算标准位置在X,Y,Z三个方向的坐标,保存在StdCore.tup中;
步骤S208:测试标定是否可行,不可行的话需要重新标定。
4.根据权利要求1所述的外观视觉检测方法,其特征在于,所述产品图像获取步骤:
步骤S301:移动相机和工件的位置到指定光学面点位
步骤S302:根据光学面信息设置相机参数和光源后,触发相机拍照;
步骤S303:收到相机传回的原图,将原图对应的工件信息添加到原图头部;
步骤S304:将带有头部信息的相机原图存盘,用于发生问题时追溯原因;
步骤S305:将带有头部信息的相机原图分发到不同光学面图片预处理模块并行处理;
步骤S306:图片预处理模块根据工件载台数量、机台通道数量信息,将相机原图进行切割、压缩、旋转、水平镜像以及垂直镜像算法操作,输出符合模型检测要求的图像,包括如下所述情况:
一张相机原图中包含多个工件,需要将图像中的工件分别切割出来;
相机原图尺寸过大,需要将原图压缩至更小,以提升模型运算速度;
一个工件需要多张相机原图合并而成,需要先对相机原图进行旋转、镜像操作后再进行合并。
5.根据权利要求1所述的外观视觉检测方法,其特征在于,所述模型检测步骤包括:
搭建步骤:设计并搭建用于检测工件缺陷的深度学习模型;
分类步骤:对需学习的学习图像中的每个像素点进行类别分类,对每个像素点进行类型的置信度判定;
深度学习模型训练步骤:对完成像素点类别分类和置信度判定的学习图像进行训练,得到训练后的深度学习模型;
缺陷检测步骤:利用训练后的深度学习模型对工件进行缺陷检测。
6.根据权利要求5所述的外观视觉检测方法,其特征在于,所述分类步骤:对学习图像中的每个像素点进行分类类别,以0表示像素点的类别为背景,以1表示像素点的类别为缺陷,根据类别将学习图像分割为背景区域和缺陷区域;
所述分类步骤包括:
卷积步骤:对输入层进行特征抽取,过滤部分无用信息并保留特征有效信息;
池化步骤:对输入层进行降维,降低计算量;
特征融合步骤:对具有相同维度的不同层进行跨层连接;
类别判定步骤:将特征融合步骤得到的特征信息量化为某个类别的置信度;
输出步骤:输出多维数组向量作为结果,表征一幅学习图像中各个像素值的类别及置信度;
多维数组向量包括[m,n,c,s]向量,其中:m表示图像宽度,n表示图像高度,c表示类别,s表示置信度。
7.根据权利要求5所述的外观视觉检测方法,其特征在于,所述深度学习模型训练步骤:设置设定的训练步数,训练时分单双交替训练训练集中的良品图像和缺陷图像,直至损失无明显减小时停止训练,输出此时对应步数的模型作为本次训练的输出模型。
8.根据权利要求5所述的外观视觉检测方法,其特征在于,还包括灰度模型检测步骤:通过灰度变换和空间滤波对工件缺陷检测;
所述灰度模型检测步骤包括顶部凹陷检测步骤:
通过形状模板匹配定位,得到图像的旋转平移的矩阵;
通过旋转平移矩阵得到仿射变换后的顶部区域,
对仿射变换顶部区域进行亚像素阈值分割,将分割得到的边缘线段加入到计量模型中;
计算出边上个点到基线的最大和最小距离,最大距离和最小距离之差即凹陷的值;
所述灰度模型检测步骤包括披锋毛刺检测步骤:
通过形状模板匹配定位,得到图像的旋转平移的矩阵;
通过阈值分割找到内孔区域,抹掉通过仿射变换后的内孔区域的内角区域,用闭运算检测出毛刺;
所述灰度模型检测步骤包括水口高度检测步骤:
通过形状模板匹配定位,得到图像的旋转平移的矩阵;
通过矩阵的旋转角度判定水口高度是否达标;
所述灰度模型检测步骤包括顶裂检测步骤:
将图片进行阈值分割找出检测的区域,通过傅里叶变换将图像有时阈变换到频域;
通过高斯滤波器将中频的分量滤掉,变换到时阈,通过二阶导的方式求出线条的形状。
9.根据权利要求1所述的外观视觉检测方法,其特征在于,所述物理量过滤步骤:
设置过滤规则步骤:由于不同产品,不同缺陷,不同部位判断为对应缺陷的参数条件是不一样,设置不同规则来作为判断缺陷条件;过滤规则可以设置组合规则,并且区分规则优先级,优先级高先进行比对;如果第一个规则进行比对符合缺陷规则,则直接判断该产品的检测记录为对应缺陷记录,其他规则就不用比对;如果不符合缺陷规则,则继续拿第二条规则进行比对;如果还是不符合缺陷,则继续比对直到所有缺陷规则都比对完;如果还是没有符合则当前判断该检测记录为良品记录;
设置规则条件步骤:规则条件是指可以作为条件的线性量化的数值,包括以下物理量条件:缺陷阈值、缺陷长度、缺陷宽度、缺陷面积、缺陷平均亮度、缺陷对比度、缺陷梯度、缺陷长宽比,通过设置一个或多个规则进行组合成一条判断规则;
非检测区域过滤步骤:针对产品不同光学面有对应的非检测区域的,该区域无需检测缺陷,通过设置区域检出规则条件来有条件的屏蔽检出缺陷,进而精准检出的目标。
10.根据权利要求1所述的外观视觉检测方法,其特征在于,所述产品下料步骤包括:
判定下料分为检测结果完成下料及超时下料:
检测结果完成下料是指工件的所有的光学面都返回检测结果从而进行判定下料的过程;
超时下料是指当工件所有的光学面都已经拍照完成并开始计时,超过预设的超时时间之后的所有的检测结果都返回进行判定下料;
判定产品良品及不同缺陷的不良品:
根据过滤工件的缺陷结果进行判定该工件最终判定所属不良品缺陷或良品,不良品缺陷的最终判定可以通过最终判定算法如取阈值最大算法,或根据如阈值,缺陷面积大小,缺陷亮度分别不同的权重计算出的值,得到最终改工件所属判定缺陷;
分类下料:
根据判定良品及不良品缺陷分类配置对应不同的下料口。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010772989.3A CN111951237B (zh) | 2020-08-04 | 2020-08-04 | 外观视觉检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010772989.3A CN111951237B (zh) | 2020-08-04 | 2020-08-04 | 外观视觉检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111951237A true CN111951237A (zh) | 2020-11-17 |
CN111951237B CN111951237B (zh) | 2021-06-08 |
Family
ID=73339342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010772989.3A Active CN111951237B (zh) | 2020-08-04 | 2020-08-04 | 外观视觉检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111951237B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116668A (zh) * | 2020-11-23 | 2020-12-22 | 常州微亿智造科技有限公司 | 质检用光学复制方法、装置及质检设备 |
CN112508950A (zh) * | 2021-02-02 | 2021-03-16 | 常州微亿智造科技有限公司 | 异常检测方法和装置 |
CN112529762A (zh) * | 2020-12-04 | 2021-03-19 | 成都新西旺自动化科技有限公司 | 一种机器视觉***配置筛选方法、设备和可读存储介质 |
CN112598642A (zh) * | 2020-12-22 | 2021-04-02 | 苏州睿信诺智能科技有限公司 | 一种高速高精度视觉检测方法 |
CN112950619A (zh) * | 2021-03-25 | 2021-06-11 | 征图智能科技(江苏)有限公司 | 基于可视化仿真的视觉检测方法 |
CN113340895A (zh) * | 2021-06-04 | 2021-09-03 | 深圳中科飞测科技股份有限公司 | 检测***的调节方法及检测*** |
CN113706495A (zh) * | 2021-08-23 | 2021-11-26 | 广东奥普特科技股份有限公司 | 一种在传送带上自动检测锂电池参数的机器视觉检测*** |
CN113959951A (zh) * | 2021-11-21 | 2022-01-21 | 天津宏华焊研机器人科技有限公司 | 一种在线检测工件组装的机器视觉装置及检测方法 |
CN114018935A (zh) * | 2021-11-05 | 2022-02-08 | 苏州中锐图智能科技有限公司 | 一种多点快速标定方法 |
CN114353702A (zh) * | 2021-12-06 | 2022-04-15 | 北京动力机械研究所 | 一种基于视觉检测的旋转开口调节面积测量装置 |
CN114359276A (zh) * | 2022-03-17 | 2022-04-15 | 武汉海明亮科技发展有限公司 | 基于麻点缺陷的钢模下料优选方案获取方法 |
CN114708209A (zh) * | 2022-03-25 | 2022-07-05 | 广东高景太阳能科技有限公司 | 一种基于3d建模和视觉检测的生产交互方法及*** |
CN114827466A (zh) * | 2022-04-20 | 2022-07-29 | 武汉三江中电科技有限责任公司 | 一种仿人眼的设备图像采集装置及图像采集方法 |
CN115115622A (zh) * | 2022-08-24 | 2022-09-27 | 苏州新实达精密电子科技有限公司 | 一种冲压端子视觉检测装置 |
CN115639207A (zh) * | 2022-12-26 | 2023-01-24 | 广东省农业科学院设施农业研究所 | 一种用于多种产品同时检测的机器视觉检测方法及*** |
CN115861315A (zh) * | 2023-02-27 | 2023-03-28 | 常州微亿智造科技有限公司 | 缺陷检测方法和装置 |
CN116087216A (zh) * | 2022-12-14 | 2023-05-09 | 广东九纵智能科技有限公司 | 一种多轴联动视觉检测设备、方法及应用 |
CN116245877A (zh) * | 2023-05-08 | 2023-06-09 | 济南达宝文汽车设备工程有限公司 | 一种基于机器视觉的料框检测方法及*** |
CN116452598A (zh) * | 2023-06-20 | 2023-07-18 | 曼德惟尔(山东)智能制造有限公司 | 基于计算机视觉的车桥生产质量快速检测方法及*** |
CN116652956A (zh) * | 2023-06-20 | 2023-08-29 | 上海微亿智造科技有限公司 | 一种用于外观检测的拍照路径自适应规划方法及装置 |
CN116934746A (zh) * | 2023-09-14 | 2023-10-24 | 常州微亿智造科技有限公司 | 划伤缺陷检测方法、***、设备及其介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268857A (zh) * | 2014-09-16 | 2015-01-07 | 湖南大学 | 一种基于机器视觉的快速亚像素边缘检测与定位方法 |
CN106053479A (zh) * | 2016-07-21 | 2016-10-26 | 湘潭大学 | 一种基于图像处理的工件外观缺陷的视觉检测*** |
CN106204614A (zh) * | 2016-07-21 | 2016-12-07 | 湘潭大学 | 一种基于机器视觉的工件外观缺陷检测方法 |
CN106625676A (zh) * | 2016-12-30 | 2017-05-10 | 易思维(天津)科技有限公司 | 一种汽车智能制造自动上料的三维视觉精确引导定位方法 |
CN110675341A (zh) * | 2019-09-18 | 2020-01-10 | 哈尔滨工程大学 | 一种单目光视觉引导的水下机器人与海底平台对接方法 |
CN210500279U (zh) * | 2019-07-11 | 2020-05-12 | 常州星宇车灯股份有限公司 | 一种基于视觉引导的定位抓取*** |
-
2020
- 2020-08-04 CN CN202010772989.3A patent/CN111951237B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268857A (zh) * | 2014-09-16 | 2015-01-07 | 湖南大学 | 一种基于机器视觉的快速亚像素边缘检测与定位方法 |
CN106053479A (zh) * | 2016-07-21 | 2016-10-26 | 湘潭大学 | 一种基于图像处理的工件外观缺陷的视觉检测*** |
CN106204614A (zh) * | 2016-07-21 | 2016-12-07 | 湘潭大学 | 一种基于机器视觉的工件外观缺陷检测方法 |
CN106625676A (zh) * | 2016-12-30 | 2017-05-10 | 易思维(天津)科技有限公司 | 一种汽车智能制造自动上料的三维视觉精确引导定位方法 |
CN210500279U (zh) * | 2019-07-11 | 2020-05-12 | 常州星宇车灯股份有限公司 | 一种基于视觉引导的定位抓取*** |
CN110675341A (zh) * | 2019-09-18 | 2020-01-10 | 哈尔滨工程大学 | 一种单目光视觉引导的水下机器人与海底平台对接方法 |
Non-Patent Citations (3)
Title |
---|
F.RUFFIER等: "BIO-INSPIRED OPTICAL FLOW CIRCUITS FOR THE VISUAL GUIDANCE OF MICRO-AIR VEHICLES", 《 PROCEEDINGS OF THE 2003 INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS》 * |
叶鹏等: "一种融合深度基于灰度共生矩阵的感知模型", 《计算机科学》 * |
陈思伟: "视觉引导抓取机械手工作平面定位误差与修正", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112116668A (zh) * | 2020-11-23 | 2020-12-22 | 常州微亿智造科技有限公司 | 质检用光学复制方法、装置及质检设备 |
CN112529762A (zh) * | 2020-12-04 | 2021-03-19 | 成都新西旺自动化科技有限公司 | 一种机器视觉***配置筛选方法、设备和可读存储介质 |
CN112598642A (zh) * | 2020-12-22 | 2021-04-02 | 苏州睿信诺智能科技有限公司 | 一种高速高精度视觉检测方法 |
CN112598642B (zh) * | 2020-12-22 | 2024-05-10 | 苏州睿信诺智能科技有限公司 | 一种高速高精度视觉检测方法 |
CN112508950A (zh) * | 2021-02-02 | 2021-03-16 | 常州微亿智造科技有限公司 | 异常检测方法和装置 |
CN112508950B (zh) * | 2021-02-02 | 2021-05-11 | 常州微亿智造科技有限公司 | 异常检测方法和装置 |
CN112950619A (zh) * | 2021-03-25 | 2021-06-11 | 征图智能科技(江苏)有限公司 | 基于可视化仿真的视觉检测方法 |
CN113340895A (zh) * | 2021-06-04 | 2021-09-03 | 深圳中科飞测科技股份有限公司 | 检测***的调节方法及检测*** |
CN113706495A (zh) * | 2021-08-23 | 2021-11-26 | 广东奥普特科技股份有限公司 | 一种在传送带上自动检测锂电池参数的机器视觉检测*** |
CN114018935A (zh) * | 2021-11-05 | 2022-02-08 | 苏州中锐图智能科技有限公司 | 一种多点快速标定方法 |
CN113959951A (zh) * | 2021-11-21 | 2022-01-21 | 天津宏华焊研机器人科技有限公司 | 一种在线检测工件组装的机器视觉装置及检测方法 |
CN114353702A (zh) * | 2021-12-06 | 2022-04-15 | 北京动力机械研究所 | 一种基于视觉检测的旋转开口调节面积测量装置 |
CN114359276A (zh) * | 2022-03-17 | 2022-04-15 | 武汉海明亮科技发展有限公司 | 基于麻点缺陷的钢模下料优选方案获取方法 |
CN114359276B (zh) * | 2022-03-17 | 2022-05-27 | 武汉海明亮科技发展有限公司 | 基于麻点缺陷的钢模下料优选方案获取方法 |
CN114708209A (zh) * | 2022-03-25 | 2022-07-05 | 广东高景太阳能科技有限公司 | 一种基于3d建模和视觉检测的生产交互方法及*** |
CN114827466A (zh) * | 2022-04-20 | 2022-07-29 | 武汉三江中电科技有限责任公司 | 一种仿人眼的设备图像采集装置及图像采集方法 |
CN114827466B (zh) * | 2022-04-20 | 2023-07-04 | 武汉三江中电科技有限责任公司 | 一种仿人眼的设备图像采集装置及图像采集方法 |
CN115115622A (zh) * | 2022-08-24 | 2022-09-27 | 苏州新实达精密电子科技有限公司 | 一种冲压端子视觉检测装置 |
CN116087216A (zh) * | 2022-12-14 | 2023-05-09 | 广东九纵智能科技有限公司 | 一种多轴联动视觉检测设备、方法及应用 |
CN116087216B (zh) * | 2022-12-14 | 2024-02-20 | 广东九纵智能科技有限公司 | 一种多轴联动视觉检测设备、方法及应用 |
CN115639207A (zh) * | 2022-12-26 | 2023-01-24 | 广东省农业科学院设施农业研究所 | 一种用于多种产品同时检测的机器视觉检测方法及*** |
CN115861315A (zh) * | 2023-02-27 | 2023-03-28 | 常州微亿智造科技有限公司 | 缺陷检测方法和装置 |
CN116245877B (zh) * | 2023-05-08 | 2023-11-03 | 济南达宝文汽车设备工程有限公司 | 一种基于机器视觉的料框检测方法及*** |
CN116245877A (zh) * | 2023-05-08 | 2023-06-09 | 济南达宝文汽车设备工程有限公司 | 一种基于机器视觉的料框检测方法及*** |
CN116452598B (zh) * | 2023-06-20 | 2023-08-29 | 曼德惟尔(山东)智能制造有限公司 | 基于计算机视觉的车桥生产质量快速检测方法及*** |
CN116652956A (zh) * | 2023-06-20 | 2023-08-29 | 上海微亿智造科技有限公司 | 一种用于外观检测的拍照路径自适应规划方法及装置 |
CN116452598A (zh) * | 2023-06-20 | 2023-07-18 | 曼德惟尔(山东)智能制造有限公司 | 基于计算机视觉的车桥生产质量快速检测方法及*** |
CN116652956B (zh) * | 2023-06-20 | 2024-03-22 | 上海微亿智造科技有限公司 | 一种用于外观检测的拍照路径自适应规划方法及装置 |
CN116934746A (zh) * | 2023-09-14 | 2023-10-24 | 常州微亿智造科技有限公司 | 划伤缺陷检测方法、***、设备及其介质 |
CN116934746B (zh) * | 2023-09-14 | 2023-12-01 | 常州微亿智造科技有限公司 | 划伤缺陷检测方法、***、设备及其介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111951237B (zh) | 2021-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111951237B (zh) | 外观视觉检测方法 | |
CN111951238A (zh) | 产品缺陷检测方法 | |
CN106709436B (zh) | 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪*** | |
CN110163853B (zh) | 一种边缘缺陷的检测方法 | |
CN110866903B (zh) | 基于霍夫圆变换技术的乒乓球识别方法 | |
CN111652085B (zh) | 基于2d与3d特征结合的物体识别方法 | |
CN105678213B (zh) | 基于视频特征统计的双模式蒙面人事件自动检测方法 | |
US20240005148A1 (en) | System and method for finding and classifying patterns in an image with a vision system | |
CN105158268A (zh) | 精冲零部件缺陷智能在线检测方法、***及装置 | |
CN112907519A (zh) | 一种基于深度学习的金属曲面缺陷分析***及方法 | |
CN109559324A (zh) | 一种线阵图像中的目标轮廓检测方法 | |
CN106447701A (zh) | 用于图像相似性确定、对象检测和跟踪的方法和装置 | |
CN113252568A (zh) | 基于机器视觉的镜片表面缺陷检测方法、***、产品、终端 | |
CN111402238A (zh) | 一种通过机器视觉实现的缺陷标识*** | |
CN110189375A (zh) | 一种基于单目视觉测量的图像目标识别方法 | |
CN113177924A (zh) | 一种工业流水线产品瑕疵检测方法 | |
CN117152161B (zh) | 一种基于图像识别的刨花板质量检测方法及*** | |
CN113222938A (zh) | 芯片缺陷检测方法及***与计算机可读存储介质 | |
CN114004814A (zh) | 一种基于深度学习和灰度三阶矩分析的煤矸石识别方法及*** | |
CN111665199A (zh) | 一种基于机器视觉的电线电缆颜色检测识别方法 | |
CN113822810A (zh) | 一种基于机器视觉的三维空间中工件的定位方法 | |
Fu et al. | Research on image-based detection and recognition technologies for cracks on rail surface | |
CN113012228B (zh) | 一种工件定位***及基于深度学习的工件定位方法 | |
CN110866917A (zh) | 一种基于机器视觉的药片类型及排列方式识别方法 | |
CN112686872A (zh) | 基于深度学习的木材计数方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |