CN117132584B - 一种基于深度学习的液晶显示屏瑕疵检测方法及装置 - Google Patents

一种基于深度学习的液晶显示屏瑕疵检测方法及装置 Download PDF

Info

Publication number
CN117132584B
CN117132584B CN202311227287.7A CN202311227287A CN117132584B CN 117132584 B CN117132584 B CN 117132584B CN 202311227287 A CN202311227287 A CN 202311227287A CN 117132584 B CN117132584 B CN 117132584B
Authority
CN
China
Prior art keywords
feature map
feature
point
map
convolution layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311227287.7A
Other languages
English (en)
Other versions
CN117132584A (zh
Inventor
李敏
赵世龙
李刚
周鸣乐
韩德隆
邢瑞
张�成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Computer Science Center National Super Computing Center in Jinan
Original Assignee
Shandong Computer Science Center National Super Computing Center in Jinan
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong Computer Science Center National Super Computing Center in Jinan filed Critical Shandong Computer Science Center National Super Computing Center in Jinan
Priority to CN202311227287.7A priority Critical patent/CN117132584B/zh
Publication of CN117132584A publication Critical patent/CN117132584A/zh
Application granted granted Critical
Publication of CN117132584B publication Critical patent/CN117132584B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30121CRT, LCD or plasma display
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

一种基于深度学习的液晶显示屏瑕疵检测方法及装置,涉及计算机视觉目标检测技术领域,通过设计轻量化特征提取网络,在保证液晶显示屏瑕疵特征提取能力的基础上减少计算量,提高模型的检测速度;设计跨层多尺度特征融合网络,高效的融合特征提取网络的浅层细粒度信息和深层语义信息;设计精细化预测网络,包括特征聚合器和特征提纯模块,特征聚合器融合了多层次的特征,提取更多上下文信息,增强细粒度特征的提取;特征提纯模块抑制了不同尺度特征图的冲突信息,减少语义差异,提高了模型对液晶显示屏瑕疵检测的准确率。

Description

一种基于深度学习的液晶显示屏瑕疵检测方法及装置
技术领域
本发明涉及计算机视觉目标检测技术领域,具体涉及一种基于深度学习的液晶显示屏瑕疵检测方法及装置。
背景技术
近年来,随着电子产品设备的超高速迭代更新,智能设备对液晶显示屏的要求越来越高,液晶显示屏的瑕疵检测是影响屏幕质量的重要环节。然而,如果在加工生产前检查材料的瑕疵,在一定程度上可以避免这些问题的产生。
随着机器自动化的飞速发展,许多工业领域的任务正在被机器智能所替代,这显著提升了生产过程中产品的自动化水平。然而,机器视觉技术长期以来一直依赖于人工设计特征,这导致了在某些情况下鲁棒性不足的问题。近年来,随着深度学习技术的迅速崛起,出现了一系列新的目标检测方法,如以YOLO为代表的一阶段目标检测器和以Fast RCNN为代表的二阶段目标检测器。虽然这些计算机视觉目标检测器已经在工厂液晶显示屏瑕疵检测中得到应用,但同时也面临着一些挑战。例如液晶显示屏的瑕疵种类繁多,不同瑕疵之间差异明显,而且有些瑕疵可能不太显著。此外,液晶显示屏的尺寸和形状多种多样,传统的目标检测器往往难以有效地处理这些问题,因为它们难以融合浅层细节和深层语义信息,这些信息对于准确检测至关重要。在实际的工厂生产环境中,产品质量检验必须在规定的时间内完成,这增加了挑战的复杂性。因此,迫切需要一种方法,既能够实时地完成检测任务,又能够精确地识别液晶显示屏上的各种瑕疵。这将有助于提高产品质量控制的效率和准确性,从而满足现代工厂生产的需求。
发明内容
本发明为了克服以上技术的不足,提供了一种有效解决上述液晶显示屏瑕疵检测的困难,提高对液晶显示屏瑕疵检测的精度和速度,保障产品进入市场的质量和效率。
本发明克服其技术问题所采用的技术方案是:
一种基于深度学习的液晶显示屏瑕疵检测方法,包括如下步骤:
a)拍摄N张液晶显示屏图像,得到液晶显示屏图像数据集P,P={P1,P2,...,Pi,...,PN},Pi为第i张液晶显示屏图像,i∈{1,2,...,N};
b)对第i张液晶显示屏图像Pi进行预处理和数据增强操作,得到增强后的第i张液晶显示屏图像PIi,增强后的液晶显示屏图像数据集为PI,PI={PI1,PI2,...,PIi,...,PIN};
c)将增强后的液晶显示屏图像数据集PI划分为训练集、测试集、验证集;
d)建立液晶显示屏瑕疵检测模型的轻量化特征提取网络,将训练集中的第i张增强后的图像PIi输入到轻量化特征提取网络中,输出得到特征图PI1
e)建立液晶显示屏瑕疵检测模型的跨层多尺度特征融合网络,将特征图PI1输入到跨层多尺度特征融合网络中,输出得到特征图PI2、特征图PI3、特征图PI4
f)建立液晶显示屏瑕疵检测模型的精细化预测网络,将特征图PI2、特征图PI3、特征图PI4输入到精细化预测网络中,输出得到最终特征图像m,最终特征图像m中包含瑕疵的类别、预测框的位置和置信度;
g)计算总损失LTotal
h)通过Adam优化器利用总损失LTotal优化液晶显示屏瑕疵检测模型,得到优化后的液晶显示屏瑕疵检测模型。
进一步的,步骤b)包括如下步骤:
b-1)人工判断液晶显示屏图像数据集P中的液晶显示屏图像中是否有裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,如果没有则判定为没有瑕疵的图像,将没有瑕疵的图像去除,得到m张有瑕疵的液晶显示屏图像;
b-2)将有瑕疵的液晶显示屏图像尺寸调整为2560×1600,使用图像标注工具Labelme对第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi进行标注,利用矩形框标注出有瑕疵的液晶显示屏图像中裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,该矩形框为真实框,根据矩形框的左上角坐标、矩形框的右下角坐标、矩形框的宽度、矩形框的高度、瑕疵类别得到XML格式的标签xi,得到XML格式标签集为X,X={x1,x2,...,xi,...,xm},使用python将XML格式的标签xi转化为TXT格式的标签Ti,得到TXT格式标签集为T,T={T1,T2,...,Ti,...,Tm},瑕疵类别为:裂纹区域的类别为a1、破损区域的类别为a2、划痕区域的类别为a3、水滴区域的类别为a4、斑点区域的类别为a5、毛刺区域的类别为a6
b-3)通过公式计算得到随机生成不同密度白噪声图像Q,mi为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi在四个象限中第i个像素点的像素值,mj为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi的白噪声标志矩阵,mj为与mi同尺寸的像素矩阵,mj取值为0或1,mj=0时表示对应位置的mi为白噪声,mj=1时表示对应位置的mi像素值不变,i∈{1,2,...,2560×1600},j∈{1,2,...,2560×1600};
b-4)以白噪声图像Q中心点为原点建立直角坐标系,取白噪声图像Q第k象限的像素点p,k∈{1,2,3,4},将像素点p作为掩码矩阵的左上角顶点,生成正方形的掩码m,掩码m的边长为w为白噪声图像Q的宽,h为白噪声图像Q的高,掩码取值为0或1,将掩码m与白噪声图像Q进行矩阵按位相乘操作,得到增强后的第i张液晶显示屏图像PIi
优选的,步骤c)中将增强后的液晶显示屏图像数据集PI按8:1:1的比例划分为训练集、测试集、验证集。
进一步的,步骤d)包括如下步骤:
d-1)轻量化特征提取网络由第一特征提取模块、第二特征提取模块、第三特征提取模块、第四特征提取模块构成;
d-2)轻量化特征提取网络的第一特征提取模块由第一逐点卷积模块、第二逐点卷积模块、注意力特征提取模块组成,第一逐点卷积模块、第二逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将第i张增强后的图像PIi输入到第一特征提取模块的第一逐点卷积模块中,输出得到特征图PIi′,将特征图PIi′输入到第一特征提取模块的第二逐点卷积模块中,输出得到特征图PIi″,将特征图PIi″输入到第一特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图PIp,将特征图PIp输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图PIo,将特征图PIo输入到残差特征提取模块的第二卷积层中,输出得到特征图PIl,将特征图PIl输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图PIk,将特征图PIk与特征图PIl进行逐元素相加操作,得到特征图PIq,将特征图PIq输入到残差特征提取模块的第三卷积层中,输出得到特征图PIj,将特征图PIj输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图PIh,将特征图PIh与特征图PIj进行逐元素相加操作,得到特征图PIw,将第i张增强后的图像PIi与特征图PIw进行逐元素相加操作,得到特征图PIm,将特征图PIm输入到通道注意力模块的第一卷积块中,输出得到特征图PIu,将特征图PIu输入到通道注意力模块的全局平均池化层中,输出得到特征图PIy,将特征图PIu输入到通道注意力模块的全局最大池化层中,输出得到特征图PIt,将特征图PIy与特征图PIt逐元素相加操作,得到特征图PIr,将特征图PIr依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵Wm,将权重矩阵Wm与特征图PIu逐元素相乘,得到160×160×64维度的特征图PIa
d-3)轻量化特征提取网络的第二特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIa输入到第二特征提取模块的逐点卷积模块中,输出得到特征图PIa′,将特征图PIa′输入到第二特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIa与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到80×80×128维度的特征图PIb
d-4)轻量化特征提取网络的第三特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIb输入到第三特征提取模块的逐点卷积模块中,输出得到特征图PIb′,将特征图PIb′输入到第三特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIb与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到40×40×256维度的特征图PIc
d-5)轻量化特征提取网络的第四特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIc输入到第四特征提取模块的逐点卷积模块中,输出得到特征图PIc′,将特征图PIc′输入到第四特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIc与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到20×20×512维度的特征图PI1
进一步的,步骤e)包括如下步骤:
e-1)跨层多尺度特征融合网络由第一融合节点、第二融合节点、第三融合节点、第四融合节点、第五融合节点、第六融合节点、第七融合节点、第八融合节点、第九融合节点构成;
e-2)第一融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIb输入到第一融合节点中,输出得到特征图e-3)第二融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIc输入到第二融合节点中,输出得到特征图/>e-4)第三融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图PI1输入到第三融合节点中,输出得到特征图/>e-5)第四融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图/>与特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第四融合节点中,输出得到特征图/>e-6)第五融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图/>特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第五融合节点中,输出得到特征图/>e-7)第六融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图/>与特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第六融合节点中,输出得到特征图/>e-8)第七融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图/>特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第七融合节点中,输出得到特征图PI2
e-9)第八融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第八融合节点中,输出得到特征图PI3
e-10)第九融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第九融合节点中,输出得到特征图PI4
进一步的,步骤f)包括如下步骤:
f-1)精细化预测网络由特征聚合器、特征提纯模块、YOLOV5网络的检测头构成;f-2)精细化预测网络的特征聚合器由第一分支单元、第二分支单元、第三分支单元、卷积核大小为1×1的卷积层构成;
f-3)将特征图PI3上采样2倍得到特征图将特征图PI4上采样4倍得到特征图将特征图PI2、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f1,将特征图PI2下采样2倍得到特征图/>将特征图PI4上采样2倍得到特征图/>将特征图PI3、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f2,将特征图PI2下采样4倍得到特征图/>将特征图PI3下采样2倍得到特征图/>将特征图PI4、特征图特征图/>通过Concat函数进行拼接操作,输出得到特征图f3;f-4)特征聚合器的第一分支单元由卷积核大小为1×1的卷积层、最大池化层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f1输入到第一分支单元的卷积层中,输出得到特征图f11,将特征图f11输入到第一分支单元的最大池化层中,输出得到特征图f12,将特征图f12输入到第一分支单元的第一逐点卷积层中,输出得到特征图f13,将特征图f12与特征图f13进行残差操作后输入到第一分支单元的第二逐点卷积层中,输出得到特征图f14
f-5)特征聚合器的第二分支单元由卷积核大小为1×1的卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f2输入到第二分支单元的卷积层中,输出得到特征图f21,将特征图f21输入到第二分支单元的第一逐点卷积层中,输出得到特征图f22,将特征图f21与特征图f22进行残差操作后输入到第二分支单元的第二逐点卷积层中,输出得到特征图f22
f-6)特征聚合器的第三分支单元由卷积核大小为1×1的卷积层、上采样层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f3输入到第三分支单元的卷积层中,输出得到特征图f31,将特征图f31输入到第三分支单元的上采样层中,输出得到特征图f32,将特征图f32输入到第三分支单元的第一逐点卷积层中,输出得到特征图f33,将特征图f32与特征图f33进行残差操作后输入到第三分支单元的第二逐点卷积层中,输出得到特征图f34
f-7)将特征图f14、特征图f22、特征图f34通过Concat函数进行拼接操作,得到特征图f4,将特征图f4输入到特征聚合器的卷积层中,输出得到特征图F;
f-8)精细化预测网络的特征提纯模块由全局平均池化层、全局最大池化层、Sigmoid函数构成,将特征图F依次输入到全局平均池化层、Sigmoid函数中,输出得到权重向量v1,将特征图F依次输入到全局最大池化层、Sigmoid函数中,输出得到权重向量v2,将权重向量v1和权重向量v2进行逐元素相加操作得到向量F1,将向量F1与特征图F进行逐元素相乘操作得到特征图F′;
f-9)将特征图F′输入到精细化预测网络的YOLOV5网络的检测头中,得到最终特征图像m,最终特征图像m中包含瑕疵的类别、瑕疵位置的矩形框和置信度,瑕疵位置的矩形框为预测框。
进一步的,步骤g)包括如下步骤:
g-1)通过公式计算得到位置损失LC_SIOU,式中IoU为预测框与真实框的面积的交集和预测框与真实框面积的并集的比值,α为控制模型的权重参数,Δ为预测框与真实框之间的距离损失,/>e为自然常数,∧为预测框和真实框之间的角度损失,cw为真实框和预测框最小外接矩形的宽,ch为真实框和预测框最小外接矩形的高,/>为真实框的中心点横坐标,/>为真实框的中心点纵坐标,为预测框的中心点横坐标,/>为预测框的中心点纵坐标,γ为不同尺度的预测框与真实框之间的形状损失,
为真实框的宽,hgt为真实框的高,θ为形状成本值,θ取值为2-6,cn=anbn,an为不同瑕疵类别的预测矩阵,an=[a1,a2,a3,a4,a5,a6],bn=[b1,b2,b3,b4,b5,b6],bi为第i种瑕疵类别ai对应的真实框的长宽比;g-2)通过公式LTotal=LBCE+0.5LC_SIOU计算得到总损失LTotal,式中LBCE为交叉熵损失函数。
一种基于深度学习的液晶显示屏瑕疵检测装置,包括:
至少一个处理器,以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
执行上述的基于深度学习的液晶显示屏瑕疵检测方法。
本发明的有益效果是:通过设计轻量化特征提取网络,在保证液晶显示屏瑕疵特征提取能力的基础上减少计算量,提高模型的检测速度;设计跨层多尺度特征融合网络,高效的融合特征提取网络的浅层细粒度信息和深层语义信息;设计精细化预测网络,包括特征聚合器和特征提纯模块,特征聚合器融合了多层次的特征,提取更多上下文信息,增强细粒度特征的提取;特征提纯模块抑制了不同尺度特征图的冲突信息,减少语义差异,提高了模型对液晶显示屏瑕疵检测的准确率,具有较高的鲁棒性。
附图说明
图1为本发明的方法流程图;
图2为本发明的轻量化特征提取网络的结构图;
图3为本发明的轻量化特征提取网络中逐点卷积模块的结构图;
图4为本发明的轻量化特征提取网络中的注意力特征提取模块的结构图;
图5为本发明的跨层多尺度特征融合结构图;
图6为本发明的精细化预测网络中的特征聚合器的结构图;
图7为精细化预测网络中的特征提纯模块的结构图。
具体实施方式
下面结合附图1至附图7对本发明做进一步说明。
一种基于深度学习的液晶显示屏瑕疵检测方法,包括如下步骤:
a)拍摄N张液晶显示屏图像,得到液晶显示屏图像数据集P,P={P1,P2,...,Pi,...,PN},Pi为第i张液晶显示屏图像,i∈{1,2,...,N}。
b)对第i张液晶显示屏图像Pi进行预处理和数据增强操作,得到增强后的第i张液晶显示屏图像PIi,增强后的液晶显示屏图像数据集为PI,PI={PI1,PI2,...,PIi,...,PIN}。
c)将增强后的液晶显示屏图像数据集PI划分为训练集、测试集、验证集。
d)建立液晶显示屏瑕疵检测模型的轻量化特征提取网络,将训练集中的第i张增强后的图像PIi输入到轻量化特征提取网络中,输出得到特征图PI1
e)建立液晶显示屏瑕疵检测模型的跨层多尺度特征融合网络,将特征图PI1输入到跨层多尺度特征融合网络中,输出得到特征图PI2、特征图PI3、特征图PI4。f)建立液晶显示屏瑕疵检测模型的精细化预测网络,将特征图PI2、特征图PI3、特征图PI4输入到精细化预测网络中,输出得到最终特征图像m,最终特征图像m中包含瑕疵的类别、预测框的位置和置信度。
g)计算总损失LTotal
h)通过Adam优化器利用总损失LTotal优化液晶显示屏瑕疵检测模型,得到优化后的液晶显示屏瑕疵检测模型。
可以有效解决上述液晶显示屏瑕疵检测的困难,提高对液晶显示屏瑕疵检测的精度和速度,保障产品进入市场的质量和效率。
在本发明的一个实施例中,步骤b)包括如下步骤:
b-1)人工判断液晶显示屏图像数据集P中的液晶显示屏图像中是否有裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,如果没有则判定为没有瑕疵的图像,将没有瑕疵的图像去除,得到m张有瑕疵的液晶显示屏图像。
b-2)将有瑕疵的液晶显示屏图像尺寸调整为2560×1600,使用图像标注工具Labelme对第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi进行标注,利用矩形框标注出有瑕疵的液晶显示屏图像中裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,该矩形框为真实框,根据矩形框的左上角坐标、矩形框的右下角坐标、矩形框的宽度、矩形框的高度、瑕疵类别得到XML格式的标签xi,得到XML格式标签集为X,X={x1,x2,...,xi,...,xm},使用python将XML格式的标签xi转化为TXT格式的标签Ti,得到TXT格式标签集为T,T={T1,T2,...,Ti,...,Tm},瑕疵类别为:裂纹区域的类别为a1、破损区域的类别为a2、划痕区域的类别为a3、水滴区域的类别为a4、斑点区域的类别为a5、毛刺区域的类别为a6
b-3)通过公式计算得到随机生成不同密度白噪声图像Q,mi为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi在四个象限中第i个像素点的像素值,mj为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi的白噪声标志矩阵,mj为与mi同尺寸的像素矩阵,mj取值为0或1,mj=0时表示对应位置的mi为白噪声,mj=1时表示对应位置的mi像素值不变,i∈{1,2,...,2560×1600},j∈{1,2,...,2560×1600}。
b-4)以白噪声图像Q中心点为原点建立直角坐标系,取白噪声图像Q第k象限的像素点p,k∈{1,2,3,4},将像素点p作为掩码矩阵的左上角顶点,生成正方形的掩码m,掩码m的边长为w为白噪声图像Q的宽,h为白噪声图像Q的高,掩码取值为0或1,0代表生成的掩码,1代表保留原始图像,将掩码m与白噪声图像Q进行矩阵按位相乘操作,得到增强后的第i张液晶显示屏图像PIi
在本发明的一个实施例中,步骤c)中将增强后的液晶显示屏图像数据集PI可以使用剪裁操作得到尺寸大小为640×640调节后的图像数据集,可以将调节后的图像数据集按8:1:1的比例划分为训练集、测试集、验证集。
在本发明的一个实施例中,步骤d)包括如下步骤:
d-1)轻量化特征提取网络由第一特征提取模块、第二特征提取模块、第三特征提取模块、第四特征提取模块构成。
d-2)轻量化特征提取网络的第一特征提取模块由第一逐点卷积模块、第二逐点卷积模块、注意力特征提取模块组成,第一逐点卷积模块、第二逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将第i张增强后的图像PIi输入到第一特征提取模块的第一逐点卷积模块中,输出得到特征图PIi′,将特征图PIi′输入到第一特征提取模块的第二逐点卷积模块中,输出得到特征图PIi″,将特征图PIi″输入到第一特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图PIp,将特征图PIp输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图PIo,将特征图PIo输入到残差特征提取模块的第二卷积层中,输出得到特征图PIl,将特征图PIl输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图PIk,将特征图PIk与特征图PIl进行逐元素相加操作,得到特征图PIq,将特征图PIq输入到残差特征提取模块的第三卷积层中,输出得到特征图PIj,将特征图PIj输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图PIh,将特征图PIh与特征图PIj进行逐元素相加操作,得到特征图PIw,将第i张增强后的图像PIi与特征图PIw进行逐元素相加操作,得到特征图PIm,将特征图PIm输入到通道注意力模块的第一卷积块中,输出得到特征图PIu,将特征图PIu输入到通道注意力模块的全局平均池化层中,输出得到特征图PIy,将特征图PIu输入到通道注意力模块的全局最大池化层中,输出得到特征图PIt,将特征图PIy与特征图PIt逐元素相加操作,得到特征图PIr,将特征图PIr依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵Wm,将权重矩阵Wm与特征图PIu逐元素相乘,得到160×160×64维度的特征图PIa
d-3)轻量化特征提取网络的第二特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIa输入到第二特征提取模块的逐点卷积模块中,输出得到特征图PIa′,将特征图PIa′输入到第二特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIa与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到80×80×128维度的特征图PIb
d-4)轻量化特征提取网络的第三特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIb输入到第三特征提取模块的逐点卷积模块中,输出得到特征图PIb′,将特征图PIb′输入到第三特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIb与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵与特征图/>逐元素相乘,得到40×40×256维度的特征图PIc
d-5)轻量化特征提取网络的第四特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIc输入到第四特征提取模块的逐点卷积模块中,输出得到特征图PIc′,将特征图PIc′输入到第四特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIc与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到20×20×512维度的特征图PI1
在本发明的一个实施例中,步骤e)包括如下步骤:
e-1)跨层多尺度特征融合网络由第一融合节点、第二融合节点、第三融合节点、第四融合节点、第五融合节点、第六融合节点、第七融合节点、第八融合节点、第九融合节点构成。
e-2)第一融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIb输入到第一融合节点中,输出得到特征图e-3)第二融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIc输入到第二融合节点中,输出得到特征图/>e-4)第三融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图PI1输入到第三融合节点中,输出得到特征图/>e-5)第四融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图/>与特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第四融合节点中,输出得到特征图/>e-6)第五融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图/>特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第五融合节点中,输出得到特征图e-7)第六融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图/>与特征图通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第六融合节点中,输出得到特征图/>e-8)第七融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图/>特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图输入到第七融合节点中,输出得到特征图PI2
e-9)第八融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第八融合节点中,输出得到特征图PI3
e-10)第九融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第九融合节点中,输出得到特征图PI4
在本发明的一个实施例中,步骤f)包括如下步骤:
f-1)精细化预测网络由特征聚合器、特征提纯模块、YOLOV5网络的检测头构成。f-2)精细化预测网络的特征聚合器由第一分支单元、第二分支单元、第三分支单元、卷积核大小为1×1的卷积层构成。
f-3)将特征图PI3上采样2倍得到特征图将特征图PI4上采样4倍得到特征图将特征图PI2、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f1,将特征图PI2下采样2倍得到特征图/>将特征图PI4上采样2倍得到特征图/>将特征图PI3、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f2,将特征图PI2下采样4倍得到特征图/>将特征图PI3下采样2倍得到特征图/>将特征图PI4、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f3。f-4)特征聚合器的第一分支单元由卷积核大小为1×1的卷积层、最大池化层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f1输入到第一分支单元的卷积层中,输出得到特征图f11,将特征图f11输入到第一分支单元的最大池化层中,输出得到特征图f12,将特征图f12输入到第一分支单元的第一逐点卷积层中,输出得到特征图f13,将特征图f12与特征图f13进行残差操作后输入到第一分支单元的第二逐点卷积层中,输出得到特征图f14
f-5)特征聚合器的第二分支单元由卷积核大小为1×1的卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f2输入到第二分支单元的卷积层中,输出得到特征图f21,将特征图f21输入到第二分支单元的第一逐点卷积层中,输出得到特征图f22,将特征图f21与特征图f22进行残差操作后输入到第二分支单元的第二逐点卷积层中,输出得到特征图f22
f-6)特征聚合器的第三分支单元由卷积核大小为1×1的卷积层、上采样层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f3输入到第三分支单元的卷积层中,输出得到特征图f31,将特征图f31输入到第三分支单元的上采样层中,输出得到特征图f32,将特征图f32输入到第三分支单元的第一逐点卷积层中,输出得到特征图f33,将特征图f32与特征图f33进行残差操作后输入到第三分支单元的第二逐点卷积层中,输出得到特征图f34
f-7)将特征图f14、特征图f22、特征图f34通过Concat函数进行拼接操作,得到特征图f4,将特征图f4输入到特征聚合器的卷积层中,输出得到特征图F。f-8)精细化预测网络的特征提纯模块由全局平均池化层、全局最大池化层、Sigmoid函数构成,将特征图F依次输入到全局平均池化层、Sigmoid函数中,输出得到权重向量v1,将特征图F依次输入到全局最大池化层、Sigmoid函数中,输出得到权重向量v2,将权重向量v1和权重向量v2进行逐元素相加操作得到向量F1,将向量F1与特征图F进行逐元素相乘操作得到特征图F′。
f-9)将特征图F′输入到精细化预测网络的YOLOV5网络的检测头中,得到最终特征图像m,最终特征图像m中包含瑕疵的类别、瑕疵位置的矩形框和置信度,瑕疵位置的矩形框为预测框。
在本发明的一个实施例中,步骤g)包括如下步骤:
g-1)通过公式计算得到位置损失LC_SIOU,式中IoU为预测框与真实框的面积的交集和预测框与真实框面积的并集的比值,α为控制模型的权重参数,Δ为预测框与真实框之间的距离损失,/>e为自然常数,∧为预测框和真实框之间的角度损失,cw为真实框和预测框最小外接矩形的宽,ch为真实框和预测框最小外接矩形的高,/>为真实框的中心点横坐标,/>为真实框的中心点纵坐标,为预测框的中心点横坐标,/>为预测框的中心点纵坐标,γ为不同尺度的预测框与真实框之间的形状损失,/>
为真实框的宽,hgt为真实框的高,θ为形状成本值,θ取值为2-6,cn=anbn,an为不同瑕疵类别的预测矩阵,an=[a1,a2,a3,a4,a5,a6],bn=[b1,b2,b3,b4,b5,b6],bi为第i种瑕疵类别ai对应的真实框的长宽比。
g-2)通过公式LTotal=LBCE+0.5LC_SIOU计算得到总损失LTotal,式中LBCE为交叉熵损失函数。
本发明还涉及一种基于深度学习的液晶显示屏瑕疵检测装置,包括:至少一个处理器,以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
执行上述的基于深度学习的液晶显示屏瑕疵检测方法。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于深度学习的液晶显示屏瑕疵检测方法,其特征在于,包括如下步骤:
a)拍摄N张液晶显示屏图像,得到液晶显示屏图像数据集P,P={P1,P2,…,Pi,…,PN},Pi为第i张液晶显示屏图像,i∈{1,2,…,N};
b)对第i张液晶显示屏图像Pi进行预处理和数据增强操作,得到增强后的第i张液晶显示屏图像PMi,增强后的液晶显示屏图像数据集为PM,PM={PM1,PM2,…,PMi,…,PMN};
c)将增强后的液晶显示屏图像数据集PM划分为训练集、测试集、验证集;
d)建立液晶显示屏瑕疵检测模型的轻量化特征提取网络,将训练集中的第i张增强后的图像PMi输入到轻量化特征提取网络中,输出得到特征图PI1
e)建立液晶显示屏瑕疵检测模型的跨层多尺度特征融合网络,将特征图PI1输入到跨层多尺度特征融合网络中,输出得到特征图PI2、特征图PI3、特征图PI4
f)建立液晶显示屏瑕疵检测模型的精细化预测网络,将特征图PI2、特征图PI3、特征图PI4输入到精细化预测网络中,输出得到最终特征图像m,最终特征图像m中包含瑕疵的类别、预测框的位置和置信度;
g)计算总损失LTotal
h)通过Adam优化器利用总损失LTotal优化液晶显示屏瑕疵检测模型,得到优化后的液晶显示屏瑕疵检测模型;
步骤d)包括如下步骤:
d-1)轻量化特征提取网络由第一特征提取模块、第二特征提取模块、第三特征提取模块、第四特征提取模块构成;
d-2)轻量化特征提取网络的第一特征提取模块由第一逐点卷积模块、第二逐点卷积模块、注意力特征提取模块组成,第一逐点卷积模块、第二逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将第i张增强后的图像PMi输入到第一特征提取模块的第一逐点卷积模块中,输出得到特征图PIi′,将特征图PIi′输入到第一特征提取模块的第二逐点卷积模块中,输出得到特征图PIi″,将特征图PIi″输入到第一特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图PIp,将特征图PIp输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图PIo,将特征图PIo输入到残差特征提取模块的第二卷积层中,输出得到特征图PIl,将特征图PIl输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图PIk,将特征图PIk与特征图PIl进行逐元素相加操作,得到特征图PIq,将特征图PIq输入到残差特征提取模块的第三卷积层中,输出得到特征图PIj,将特征图PIj输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图PIh,将特征图PIh与特征图PIj进行逐元素相加操作,得到特征图PIw,将第i张增强后的图像PMi与特征图PIw进行逐元素相加操作,得到特征图PIm,将特征图PIm输入到通道注意力模块的第一卷积块中,输出得到特征图PIu,将特征图PIu输入到通道注意力模块的全局平均池化层中,输出得到特征图PIy,将特征图PIu输入到通道注意力模块的全局最大池化层中,输出得到特征图PIt,将特征图PIy与特征图PIt逐元素相加操作,得到特征图PIr,将特征图PIr依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵Wm,将权重矩阵Wm与特征图PIu逐元素相乘,得到160×160×64维度的特征图PIa
d-3)轻量化特征提取网络的第二特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIa输入到第二特征提取模块的逐点卷积模块中,输出得到特征图PIa′,将特征图PIa′输入到第二特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIa与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵与特征图/>逐元素相乘,得到80×80×128维度的特征图PIb
d-4)轻量化特征提取网络的第三特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIb输入到第三特征提取模块的逐点卷积模块中,输出得到特征图PIb′,将特征图PIb′输入到第三特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIb与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵与特征图/>逐元素相乘,得到40×40×256维度的特征图PIc
d-5)轻量化特征提取网络的第四特征提取模块由逐点卷积模块、注意力特征提取模块组成,逐点卷积模块均依次由卷积核大小为3×3的逐点卷积层、批量归一化层、Silu激活函数构成,注意力特征提取模块由残差特征提取模块和通道注意力模块组成,残差特征提取模块由卷积核大小为1×1的第一卷积层、卷积核大小为1×1的第二卷积层、卷积核大小为1×1的第三卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为1×1的第二逐点卷积层、卷积核大小为1×1的第三逐点卷积层构成,通道注意力模块由卷积核大小为1×1的第一卷积层、全局平均池化层、全局最大池化层、卷积核大小为1×1的第二卷积层、一维卷积层、sigmoid激活函数构成,将特征图PIc输入到第四特征提取模块的逐点卷积模块中,输出得到特征图PIc′,将特征图PIc′输入到第四特征提取模块的注意力特征提取模块的残差特征提取模块的第一卷积层中,输出得到特征图将特征图/>输入到残差特征提取模块的第一逐点卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第二逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图将特征图/>输入到残差特征提取模块的第三卷积层中,输出得到特征图/>将特征图/>输入到残差特征提取模块的第三逐点卷积层中,输出得到特征图/>将特征图/>与特征图/>进行逐元素相加操作,得到特征图/>将特征图PIc与特征图/>进行逐元素相加操作,得到特征图/>将特征图/>输入到通道注意力模块的第一卷积块中,输出得到特征图/>将特征图/>输入到通道注意力模块的全局平均池化层中,输出得到特征图将特征图/>输入到通道注意力模块的全局最大池化层中,输出得到特征图/>将特征图/>与特征图/>逐元素相加操作,得到特征图/>将特征图/>依次输入到通道注意力模块的第二卷积层、一维卷积层、sigmoid激活函数,输出得到权重矩阵/>将权重矩阵/>与特征图/>逐元素相乘,得到20×20×512维度的特征图PI1
步骤e)包括如下步骤:
e-1)跨层多尺度特征融合网络由第一融合节点、第二融合节点、第三融合节点、第四融合节点、第五融合节点、第六融合节点、第七融合节点、第八融合节点、第九融合节点构成;
e-2)第一融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIb输入到第一融合节点中,输出得到特征图
e-3)第二融合节点依次由卷积层、下采样层、YOLOV5网络的C3模块构成,将特征图PIc输入到第二融合节点中,输出得到特征图
e-4)第三融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图PI1输入到第三融合节点中,输出得到特征图
e-5)第四融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图与特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第四融合节点中,输出得到特征图/>
e-6)第五融合节点依次由卷积层、上采样层、YOLOV5网络的C3模块构成,将特征图特征图/>特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第五融合节点中,输出得到特征图/>e-7)第六融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图/>与特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第六融合节点中,输出得到特征图/>
e-8)第七融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第七融合节点中,输出得到特征图PI2
e-9)第八融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第八融合节点中,输出得到特征图PI3
e-10)第九融合节点依次由卷积层、YOLOV5网络的C3模块构成,将特征图特征图特征图/>通过Concat函数进行拼接操作,得到特征图/>将特征图/>输入到第九融合节点中,输出得到特征图PI4
步骤f)包括如下步骤:
f-1)精细化预测网络由特征聚合器、特征提纯模块、YOLOV5网络的检测头构成;f-2)精细化预测网络的特征聚合器由第一分支单元、第二分支单元、第三分支单元、卷积核大小为1×1的卷积层构成;
f-3)将特征图PI3上采样2倍得到特征图将特征图PI4上采样4倍得到特征图/>将特征图PI2、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f1,将特征图PI2下采样2倍得到特征图/>将特征图PI4上采样2倍得到特征图/>将特征图PI3、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f2,将特征图PI2下采样4倍得到特征图/>将特征图PI3下采样2倍得到特征图/>将特征图PI4、特征图/>特征图/>通过Concat函数进行拼接操作,输出得到特征图f3;f-4)特征聚合器的第一分支单元由卷积核大小为1×1的卷积层、最大池化层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f1输入到第一分支单元的卷积层中,输出得到特征图f11,将特征图f11输入到第一分支单元的最大池化层中,输出得到特征图f12,将特征图f12输入到第一分支单元的第一逐点卷积层中,输出得到特征图f13,将特征图f12与特征图f13进行残差操作后输入到第一分支单元的第二逐点卷积层中,输出得到特征图f14
f-5)特征聚合器的第二分支单元由卷积核大小为1×1的卷积层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f2输入到第二分支单元的卷积层中,输出得到特征图f21,将特征图f21输入到第二分支单元的第一逐点卷积层中,输出得到特征图f22,将特征图f21与特征图f22进行残差操作后输入到第二分支单元的第二逐点卷积层中,输出得到特征图f22
f-6)特征聚合器的第三分支单元由卷积核大小为1×1的卷积层、上采样层、卷积核大小为3×3的第一逐点卷积层、卷积核大小为3×3的第二逐点卷积层构成,将特征图f3输入到第三分支单元的卷积层中,输出得到特征图f31,将特征图f31输入到第三分支单元的上采样层中,输出得到特征图f32,将特征图f32输入到第三分支单元的第一逐点卷积层中,输出得到特征图f33,将特征图f32与特征图f33进行残差操作后输入到第三分支单元的第二逐点卷积层中,输出得到特征图f34
f-7)将特征图f14、特征图f22、特征图f34通过Concat函数进行拼接操作,得到特征图f4,将特征图f4输入到特征聚合器的卷积层中,输出得到特征图F;f-8)精细化预测网络的特征提纯模块由全局平均池化层、全局最大池化层、Sigmoid函数构成,将特征图F依次输入到全局平均池化层、Sigmoid函数中,输出得到权重向量v1,将特征图F依次输入到全局最大池化层、Sigmoid函数中,输出得到权重向量v2,将权重向量v1和权重向量v2进行逐元素相加操作得到向量F1,将向量F1与特征图F进行逐元素相乘操作得到特征图F′;
f-9)将特征图F′输入到精细化预测网络的YOLOV5网络的检测头中,得到最终特征图像m,最终特征图像m中包含瑕疵的类别、瑕疵位置的矩形框和置信度,瑕疵位置的矩形框为预测框。
2.根据权利要求1所述的基于深度学习的液晶显示屏瑕疵检测方法,其特征在于,步骤b)包括如下步骤:
b-1)人工判断液晶显示屏图像数据集P中的液晶显示屏图像中是否有裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,如果没有则判定为没有瑕疵的图像,将没有瑕疵的图像去除,得到m张有瑕疵的液晶显示屏图像;
b-2)将有瑕疵的液晶显示屏图像尺寸调整为2560×1600,使用图像标注工具Labelme对第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi进行标注,利用矩形框标注出有瑕疵的液晶显示屏图像中裂纹区域和/或破损区域和/或划痕区域和/或水滴区域和/或斑点区域和/或毛刺区域,该矩形框为真实框,根据矩形框的左上角坐标、矩形框的右下角坐标、矩形框的宽度、矩形框的高度、瑕疵类别得到XML格式的标签xi,得到XML格式标签集为X,X={x1,x2,...,xi,...,xm},使用python将XML格式的标签xi转化为TXT格式的标签Ti,得到TXT格式标签集为T,T={T1,T2,...,Ti,...,Tm},瑕疵类别为:裂纹区域的类别为a1、破损区域的类别为a2、划痕区域的类别为a3、水滴区域的类别为a4、斑点区域的类别为a5、毛刺区域的类别为a6
b-3)通过公式计算得到随机生成不同密度白噪声图像Q,mi为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi在四个象限中第i个像素点的像素值,mj为第i张调整尺寸后的有瑕疵的液晶显示屏图像Pi的白噪声标志矩阵,mj为与mi同尺寸的像素矩阵,mj取值为0或1,mj=0时表示对应位置的mi为白噪声,mj=1时表示对应位置的mi像素值不变,i∈{1,2,...,2560×1600},j∈{1,2,...,2560×1600};
b-4)以白噪声图像Q中心点为原点建立直角坐标系,取白噪声图像Q第k象限的像素点p,k∈{1,2,3,4},将像素点p作为掩码矩阵的左上角顶点,生成正方形的掩码m,掩码m的边长为w为白噪声图像Q的宽,h为白噪声图像Q的高,掩码取值为0或1,将掩码m与白噪声图像Q进行矩阵按位相乘操作,得到增强后的第i张液晶显示屏图像PMi
3.根据权利要求1所述的基于深度学习的液晶显示屏瑕疵检测方法,其特征在于:步骤c)中将增强后的液晶显示屏图像数据集PM按8:1:1的比例划分为训练集、测试集、验证集。
4.根据权利要求1所述的基于深度学习的液晶显示屏瑕疵检测方法,其特征在于,步骤g)包括如下步骤:
g-1)通过公式计算得到位置损失LC_SIOU,式中IoU为预测框与真实框的面积的交集和预测框与真实框面积的并集的比值,α为控制模型的权重参数,Δ为预测框与真实框之间的距离损失,/>e为自然常数,∧为预测框和真实框之间的角度损失,cw为真实框和预测框最小外接矩形的宽,ch为真实框和预测框最小外接矩形的高,/>为真实框的中心点横坐标,/>为真实框的中心点纵坐标,/>为预测框的中心点横坐标,/>为预测框的中心点纵坐标,γ为不同尺度的预测框与真实框之间的形状损失,
为真实框的宽,hgt为真实框的高,θ为形状成本值,θ取值为2-6,cn=anbn,an为不同瑕疵类别的预测矩阵,an=[a1,a2,a3,a4,a5,a6],bn=[b1,b2,b3,b4,b5,b6],bi为第i种瑕疵类别ai对应的真实框的长宽比;
g-2)通过公式LTotal=LBCE+0.5LC_SIOU计算得到总损失LTotal,式中LBCE为交叉熵损失函数。
5.一种基于深度学习的液晶显示屏瑕疵检测装置,其特征在于,包括:
至少一个处理器,以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
执行如权利要求1至4中任意一项所述的基于深度学习的液晶显示屏瑕疵检测方法。
CN202311227287.7A 2023-09-22 2023-09-22 一种基于深度学习的液晶显示屏瑕疵检测方法及装置 Active CN117132584B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311227287.7A CN117132584B (zh) 2023-09-22 2023-09-22 一种基于深度学习的液晶显示屏瑕疵检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311227287.7A CN117132584B (zh) 2023-09-22 2023-09-22 一种基于深度学习的液晶显示屏瑕疵检测方法及装置

Publications (2)

Publication Number Publication Date
CN117132584A CN117132584A (zh) 2023-11-28
CN117132584B true CN117132584B (zh) 2024-02-13

Family

ID=88860111

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311227287.7A Active CN117132584B (zh) 2023-09-22 2023-09-22 一种基于深度学习的液晶显示屏瑕疵检测方法及装置

Country Status (1)

Country Link
CN (1) CN117132584B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111077166A (zh) * 2018-10-19 2020-04-28 北京金山云网络技术有限公司 液晶屏的瑕疵检测方法、装置及终端设备
WO2021082919A1 (zh) * 2019-10-28 2021-05-06 上海悦易网络信息技术有限公司 一种电子设备屏幕区域瑕疵检测方法与设备
CN115170529A (zh) * 2022-07-20 2022-10-11 西安电子科技大学广州研究院 基于注意力机制的多尺度微小瑕疵检测方法
CN115661777A (zh) * 2022-11-03 2023-01-31 西安邮电大学 一种联合语义的雾天道路目标检测算法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111077166A (zh) * 2018-10-19 2020-04-28 北京金山云网络技术有限公司 液晶屏的瑕疵检测方法、装置及终端设备
WO2021082919A1 (zh) * 2019-10-28 2021-05-06 上海悦易网络信息技术有限公司 一种电子设备屏幕区域瑕疵检测方法与设备
CN115170529A (zh) * 2022-07-20 2022-10-11 西安电子科技大学广州研究院 基于注意力机制的多尺度微小瑕疵检测方法
CN115661777A (zh) * 2022-11-03 2023-01-31 西安邮电大学 一种联合语义的雾天道路目标检测算法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A Lightweight Multiscale Feature Fusion Network for Remote Sensing Object Counting;J. Yi;IEEE Transactions on Geoscience and Remote Sensing;20230119;全文 *
基于CCD的手机液晶屏缺陷检测方法;闫俊红;禹昕晖;李忠虎;;包头职业技术学院学报(01);全文 *
基于改进Faster R-CNN算法的屏幕表面瑕疵检测***的设计与实现;罗清雨;中国优秀硕士学位论文全文数据库 信息科技;全文 *
多尺度特征自适应融合的轻量化织物瑕疵检测;杨毅;计算工程;全文 *

Also Published As

Publication number Publication date
CN117132584A (zh) 2023-11-28

Similar Documents

Publication Publication Date Title
CN109683360B (zh) 液晶面板缺陷检测方法及装置
CN112102255B (zh) 基于工业场景下的x射线成像图像的缺陷智能评级方法
CN111932511B (zh) 一种基于深度学习的电子元器件质量检测方法与***
CN113393438B (zh) 一种基于卷积神经网络的树脂镜片缺陷检测方法
CN112819748B (zh) 一种带钢表面缺陷识别模型的训练方法及装置
CN114372968A (zh) 结合注意力机制与自适应记忆性融合网络的瑕疵检测方法
CN116630323B (zh) 一种稠密金属腐蚀深度自动计算方法、***、介质和设备
CN116128839A (zh) 晶圆缺陷识别方法、装置、电子设备以及存储介质
CN113936195A (zh) 敏感图像识别模型的训练方法、训练装置和电子设备
CN116739991A (zh) 基于深度学习的液晶显示屏表面缺陷检测方法及电子装置
CN112017154A (zh) 基于Mask R-CNN模型的一种射线缺陷检测方法
CN111754502A (zh) 基于多尺度特征融合的Faster-RCNN算法检测磁芯表面缺陷的方法
CN114494250A (zh) 基于神经网络模型的地板缺陷检测方法
CN113962980A (zh) 基于改进yolov5x的玻璃容器瑕疵检测方法及***
CN116805387B (zh) 基于知识蒸馏的模型训练方法、质检方法和相关设备
CN113516652A (zh) 电池表面缺陷和粘合剂检测方法、装置、介质和电子设备
CN113313678A (zh) 一种基于多尺度特征融合的***形态学自动分析方法
CN117132584B (zh) 一种基于深度学习的液晶显示屏瑕疵检测方法及装置
CN117197146A (zh) 一种铸件内部缺陷自动识别方法
CN117593244A (zh) 一种基于改进注意力机制的膜产品缺陷检测方法
CN114419078B (zh) 基于卷积神经网络的表面缺陷区域分割方法及装置
CN116824122A (zh) 基于深度学习的led芯片定位方法及led芯片定位装置
CN116228637A (zh) 基于多任务多尺寸网络的电子元器件缺陷识别方法及装置
CN113469984B (zh) 一种基于yolo结构的显示面板外观检测方法
CN111738324B (zh) 一种基于分频卷积的多频率和多尺度融合的自动化裂缝检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant