CN111488882A - 一种用于工业零件测量的高精度图像语义分割方法 - Google Patents
一种用于工业零件测量的高精度图像语义分割方法 Download PDFInfo
- Publication number
- CN111488882A CN111488882A CN202010281361.3A CN202010281361A CN111488882A CN 111488882 A CN111488882 A CN 111488882A CN 202010281361 A CN202010281361 A CN 202010281361A CN 111488882 A CN111488882 A CN 111488882A
- Authority
- CN
- China
- Prior art keywords
- image
- semantic segmentation
- target
- map
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种用于工业零件测量的高精度图像语义分割方法,所述方法包括:S1:构建并训练神经网络模型;S2:将图像输入训练好的模型进行在线检测,实现图像的语义分割;其中,神经网络模型(1)采用PSPNet作为图像特征提取器;(2)采用几何池化层的池化方法,来替换传统的全局池化;(3)采用迭代概率图对概率图进行优化。本发明通过对目标的几何形状进行学习和建模,利用几何形状信息对提取的目标的边界进行优化,可以显著提高现有基于CNN的语义分割模型的准确度和适应性及鲁棒性,相比传统算法可大幅度提高边界和细小结构的提取精度;可以提取简洁精确的目标边界。
Description
技术领域
本发明涉及图像语义分割领域,更具体地,涉及一种用于工业零件测量的高精度图像语义分割方法。
背景技术
基于视觉的工业零件检测和分割要求图像语义分割结果具备非常精准的边界,而且能正确识别目标上的细小的结构。但是受遮挡,阴影,纹理缺乏,纹理混淆,噪声等因素的影响,目标边界在图像上往往是不可见或者模糊的。在这些情况下,现有的卷积神经网络(CNN)的语义分割模型往往会在目标边界周围出现错误识别的情况,因为绝大部分现有的CNN模型没有考虑到如何在图像信息缺失时正确识别目标。
在图像信息缺失时正确识别目标需要利用目标周围的上下文信息等长距离的相关性对目标进行推理。比如金字塔空间池化层(PyramidSpatialPooling)利用全局信息帮助局部目标识别,对长距离的相关性有一定的建模能力。注意力机制可以提取和使用相关的上下文区域,在一定程度上提高语义分割的精度。生成式对抗神经网络(GAN)或者视觉损失函数则通过惩罚预测结果的异质性,从而在整体上提高预测结果的一致性。但是这种提升全局一致性的技术并没有表明可以改进现有的CNN模型在目标边界和细节上的识别能力。
发明内容
本发明为克服上述现有技术所述的工业零件边界检测中边界和细小结构的提取精度不够高的缺陷,提供一种用于工业零件测量的高精度图像语义分割方法。
所述方法包括:
S1:构建并训练神经网络模型;
S2:将图像输入训练好的模型进行在线检测,实现图像的语义分割;
其中,神经网络模型(1)采用PSPNet作为图像特征提取器;
(2)采用几何池化层的池化方法,来替换传统的全局池化;
(3)采用迭代概率图对概率图进行优化。
优选地,神经网络模型的训练包括以下步骤:
S1.1:人工勾画训练样本数据集,并生成真值图;
S1.2:将图像和其对应的真值图切分成相同尺寸的若干小图和对应的真值图;使用生成的所有的小图及其对应的真值图作为训练样本;
S1.3:随机选取一个训练样本,对训练样本进行预处理,得到增强样本;
S1.4:使用PSPNet-ResNet101前向传播提取增强样本图像的特征向量;
S1.5:在多波段特征图上使用若干个Conv-BN-ReLu-Conv-BN结构分别预测像素级分类结果,关键点以及目标边界点;使用交叉熵损失函数计算损失;
S1.6:对几何池化层进行池化;获取特征图的特征向量;
S1.7:将S1.6所得到的特征向量与S1.4提取增强样本图像的特征向量串联得到更新的特征图;
S1.8:采用Conv-BN-ReLU-Conv-BN结构对S1.7生成的更新的特征图进行像素级别的分类,对每个像素位置进行语义分割,生成目标语义分割的概率图,并使用交叉熵损失函数计算其样本分类损失;
S1.9:使用S1.5和S1.8中的损失计算结果进行后向传播,计算模型参数的梯度,并使用ADAM更新模型参数,直至收敛;
其中,ADAM是一种可以替代传统随机梯度下降(SGD)过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。
收敛之后得到最终的优化的模型参数,而非优化后的概率图。S1.10-S1.13为概率图优化的网络结构。
S1.10:使用多层Conv-BN-ReLU结构将S1.8的语义分割结果投影到低维隐空间,在低维空间的特征上加上高斯噪声干扰;
然后在使用多层Deconv-BN-ReLU将低维空间特征投影回语义分割概率图,得到优化之后的概率图;
使用交叉熵损失函数计算投影之后的语义分割概率图的分类损失;
S1.10中定义了一个概率图优化模型。其输入为概率图,输出为优化之后的概率图。
S1.11:将真值图转换为float型的数据,将每个像素的像素值v替换为(0.8*v+rand(0.2)),其中rand(0.2)为标准差为0.2的高斯噪声;
S1.12:将S1.10生成的优化之后的概率图和S1.11生成的值输入PatchGAN的判别器,使用对抗神经网络损失函数计算损失;
S1.13:使用S1.12中得到的损失计算结果进行后向传播,计算S1.1-S1.10中的模型参数的梯度,并使用ADAM更新S1.1-S1.10中定义的模型参数,直至收敛。
S1.11-S1.13是一个GAN网络结构,用于辅助训练S1.1-S1.10的模型。在预测节点,S1.11-S1.13中的GAN判别网络不需要使用。
优选地,S1.1具体为在图像中精确勾画出所有的目标边界,并生成和原始图像长宽相同的真值图,其中目标边界多边形及以内的像素值为1,其他的像素值为0。
优选地,S1.3中的预处理包括:随机旋转,拉伸,缩放,和噪声干扰操作。
优选地,S1.5中在多波段特征图上使用3个Conv-BN-ReLu-Conv-BN结构分别预测像素级分类结果。
优选地,S1.6具体为:提取特征图在所有目标边界点上的特征向量;
提取所有检测出的目标边界点的图像坐标,并将这些图像坐标归一化,使得每个目标的几何边界坐标的平均值为0,所有目标边界的几何坐标的全局标准差为1;
将归一化之后的边界坐标与边界点上提取的特征向量串联得到带目标边界几何信息的图像特征;
并计算所得带目标边界几何信息的图像特征每个波段在所有点上的平均值,得到特征向量。
如果一个特征图为rows*cols*channels,那这一步得到的特征向量为1*1*channels。
优选地,S1.12中使用对抗神经网络损失函数计算损失,计算公式为:
其中,G为S1.4-S1.10中描述的网络结构,D为S1.12中使用的PathcGAN。
这里的损失指对抗神经网络的损失,此损失定义参考文献Goodfellow,Ian,etal."Generative adversarial nets."Advances in neural information processingsystems.2014.
优选地,在线检测包括以下步骤:
S2.1:将输入图像切分成小块,输入经S1已训练的模型,得到S1.10输出的概率图作为预测结果。
S2.2:将S2.1的预测结果重新输入S1.10所定义的语义分割优化模型,输出结果为优化之后的预测结果;
S2.3:重复S2.2数次直到语义分割结果不再变化;
S2.4:将图像每个小块的预测结果拼接成完整的图像;
S2.5:将输入图像进行若干次重采样,采样原始图像的0.7-1.3倍大小,对每个重采样之后的图像分别使用S2.1-S2.2进行预测,然后再将检测结果重新采样到原始图像大小;
S2.6:平均所有的预测结果,得到最终的语义分割结果。
优选地,S2.5中将输入图像的若干次重采样,分别重采样到原始图像的0.7,0.8,0.9,1.1,1.2,1.3倍大小。
与现有技术相比,本发明技术方案的有益效果是:
本发明可以提取简洁精确的目标边界,可用于模板匹配和形状建模等在对边界提取精度较高的工业零件检测应用中。本发明模型训练方法可以显著提高现有基于CNN的语义分割模型的准确度和适应性及鲁棒性。通过增强现有CNN模型对形状先验知识的学习能力来提高其边界提取的准确度,可用于增强现有的各类语义分割神经网络模型。
本发明通过对目标的几何形状进行学习和建模,利用几何形状信息对提取的目标的边界进行优化,相比传统算法可大幅度提高边界和细小结构的提取精度。
附图说明
图1为实施例1所述神经网络模型训练方法流程图。
图2为实施例1所述用于工业零件测量的高精度语义分割模型。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1:
本实施例提供一种用于工业零件测量的高精度图像语义分割方法。所述方法基于一种可以学习目标几何形状特征的高精度图像语义分割模型。如图2所示,所述模型采用PSPNet作为图像特征提取器。
本实施例使用几何信息引导的池化技术和迭代概率图优化技术。这两个结构可有效增强神经网络学习形状先验知识的能力,使得图像信息缺失时仍能根据目标的形状特征推理出正确的形状。
本实施例通过构建并离线训练模型和在线检测两步完成。
如图1所示,模型训练包括以下步骤:
S1.1:人工勾画训练样本数据集。在图像中精确勾画出所有的目标边界,并生成和原始图像长宽相同的真值图,其中目标边界多边形及以内的像素值为1,其他的像素值为0。
S1.2:将图像和其对应的真值图切分成相同尺寸的若干小图和对应的真值图。不同的小图之间有一定的重叠度。使用生成的所有的小图及其对应的真值图作为训练样本。
S1.3:随机选取一个训练样本,对样本进行随机旋转,拉伸,缩放,和噪声干扰等操作,得到增强之后的样本。
S1.4:使用PSPNet-ResNet101前向传播提取增强样本图像的特征向量。
S1.5:在多波段特征图上使用3个Conv-BN-ReLu-Conv-BN结构分别预测像素级分类结果,关键点以及目标边界点。使用交叉熵损失函数计算损失。
S1.6:对几何池化层进行池化;获取特征图的特征向量。
本实施例提出几何池化层的池化方法,用来替换传统的全局池化。提取特征图在所有目标边界点上的特征向量。提取所有检测出的目标边界点的图像坐标,并将这些图像坐标归一化,使得每个目标的几何边界坐标的平均值为0,所有目标边界的几何坐标的全局标准差为1。将归一化之后的边界坐标与边界点上提取的特征向量串联得到带目标边界几何信息的图像特征。并计算所得特征每个波段在所有点上的平均值,得到一个特征向量。
S1.7:将S1.6所得到的特征向量与S1.4提取的特征向量串联得到更新的特征图。
S1.8:采用Conv-BN-ReLU-Conv-BN结构对S1.7生成的特征图进行像素级别的分类,对每个像素位置生成目标语义分割的概率图。使用交叉熵损失函数计算样本分类损失。
S1.9:使用所有上诉步骤中的损失计算结果进行后向传播,计算模型参数的梯度,并使用ADAM更新模型参数,直至收敛。
S1.10:使用多层Conv-BN-ReLU结构将S1.8的语义分割结果投影到低维隐空间,在低维空间的特征上加上高斯噪声干扰,然后在使用多层Deconv-BN-ReLU将低维空间特征投影回语义分割概率图,得到优化之后的概率图。使用交叉熵损失函数计算投影之后的语义分割概率图的分类损失。
S1.11:将真值图转换为float型的数据,将每个像素的像素值v替换为(0.8*v+rand(0.2)),其中rand(0.2)为标准差为0.2的高斯噪声。
S1.12:将S1.10生成的优化之后的概率图和S1.11生成的值输入PatchGAN的判别器,使用对抗神经网络损失函数计算损失,即:
其中,G为S1.4-S1.10中描述的网络结构,D为S1.12中使用的PathcGAN。这里的损失指对抗神经网络的损失。
S1.13:使用S1.12中得到的损失计算结果进行后向传播,计算S1.1-S1.10中的模型参数的梯度,并使用ADAM更新S1.1-S1.10中定义的模型参数,直至收敛。
在线检测包括以下步骤:
S2.1:将输入图像切分成小块,输入已训练的模型,得到S1.10输出的概率图作为预测结果。
S2.2:将S2.1的预测结果重新输入S1.10所定义的语义分割优化模型,输出结果为优化之后的预测结果。
S2.3:重复S2.2数次直到语义分割结果不再变化。
S2.4:将图像每个小块的预测结果拼接成完整的图像。
S2.5:将输入图像重采样到原始图像的0.7,0.8,0.9,1.1,1.2,1.3大小,对每个重采样之后的图像分别使用S2.1-S2.2进行预测,然后再将检测结果重新采样到原始图像大小。
S2.6:平均所有的预测结果,得到最终的语义分割结果。
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (9)
1.一种用于工业零件测量的高精度图像语义分割方法,其特征在于,所述方法包括:
S1:构建并训练神经网络模型;
S2:将待分割的图像输入训练好的模型进行在线检测,实现图像的语义分割;
其中,所述神经网络模型采用PSPNet作为图像特征提取器;
采用几何池化层的池化方法,来替换传统的全局池化;
采用迭代概率图对概率图进行优化。
2.根据权利要求1所述的用于工业零件测量的高精度图像语义分割方法,其特征在于,神经网络模型的训练包括以下步骤:
S1.1:勾画训练样本数据集,并生成真值图;
S1.2:将图像和其对应的真值图切分成相同尺寸的若干小图和对应的真值图;使用生成的所有的小图及其对应的真值图作为训练样本;
S1.3:随机选取一个训练样本,对训练样本进行预处理,得到增强样本;
S1.4:使用PSPNet-ResNet101前向传播提取增强样本图像的特征向量;
S1.5:在多波段特征图上使用若干个Conv-BN-ReLu-Conv-BN结构分别预测像素级分类结果,关键点以及目标边界点;使用交叉熵损失函数计算损失;
S1.6:对几何池化层进行池化;获取特征图的特征向量;
S1.7:将S1.6所得到的特征向量与S1.4提取增强样本图像的特征向量串联得到更新的特征图;
S1.8:采用Conv-BN-ReLU-Conv-BN结构对S1.7生成的更新的特征图进行像素级别的分类,对每个像素位置进行语义分割,生成目标语义分割的概率图,
并使用交叉熵损失函数计算其样本分类损失;
S1.9:使用S5和S8中的损失计算结果进行后向传播,计算模型参数的梯度,并使用ADAM更新模型参数,直至收敛;
S1.10:使用多层Conv-BN-ReLU结构将S1.8的语义分割结果投影到低维隐空间,在低维空间的特征上加上高斯噪声干扰;
然后在使用多层Deconv-BN-ReLU将低维空间特征投影回语义分割概率图,得到优化之后的概率图;
使用交叉熵损失函数计算投影之后的语义分割概率图的分类损失;
S1.11:将真值图转换为float型的数据,将每个像素的像素值v替换为(0.8*v+rand(0.2)),其中rand(0.2)为标准差为0.2的高斯噪声;
S1.12:将S1.10生成的优化之后的概率图和S1.11生成的值输入PatchGAN的判别器,使用对抗神经网络损失函数计算损失;
S1.13:使用S1.12中得到的损失计算结果进行后向传播,计算S1.1-S1.10中的模型参数的梯度,并使用ADAM更新S1.1-S1.10中定义的模型参数,直至收敛。
3.根据权利要求2所述的用于工业零件测量的高精度图像语义分割方法,其特征在于,S1.1具体为在图像中勾画出所有的目标边界,并生成和原始图像长宽相同的真值图,其中目标边界多边形及以内的像素值为1,其他的像素值为0。
4.根据权利要求3所述的用于工业零件测量的高精度图像语义分割方法,其特征在于,S1.3中的预处理包括:随机旋转,拉伸,缩放,和噪声干扰操作。
5.根据权利要求4所述的用于工业零件测量的高精度图像语义分割方法,其特征在于,S1.5中在多波段特征图上使用3个Conv-BN-ReLu-Conv-BN结构分别预测像素级分类结果。
6.根据权利要求5所述的用于工业零件测量的高精度图像语义分割方法,其特征在于,S1.6具体为:提取特征图在所有目标边界点上的特征向量;
提取所有检测出的目标边界点的图像坐标,并将这些图像坐标归一化,使得每个目标的几何边界坐标的平均值为0,所有目标边界的几何坐标的全局标准差为1;
将归一化之后的边界坐标与边界点上提取的特征向量串联得到带目标边界几何信息的图像特征;
并计算所得带目标边界几何信息的图像特征每个波段在所有点上的平均值,得到特征向量。
8.根据权利要求7所述的用于工业零件测量的高精度图像语义分割方法,其特征在于,在线检测包括以下步骤:
S2.1:将输入图像切分成小块,输入经S1已训练的模型,得到S1.10输出的概率图作为预测结果;
S2.2:将S2.1的预测结果重新输入S1.10所定义的语义分割优化模型,输出结果为优化之后的预测结果;
S2.3:重复S2.2数次直到语义分割结果不再变化;
S2.4:将图像每个小块的预测结果拼接成完整的图像;
S2.5:将输入图像进行若干次重采样,采样原始图像的0.7-1.3倍大小,对每个重采样之后的图像分别使用S2.1-S2.2进行预测,然后再将检测结果重新采样到原始图像大小;
S2.6:平均所有的预测结果,得到最终的语义分割结果。
9.根据权利要求8所述的用于工业零件测量的高精度图像语义分割方法,其特征在于,S2.5中将输入图像的若干次重采样,分别重采样到原始图像的0.7,0.8,0.9,1.1,1.2,1.3倍大小。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010281361.3A CN111488882B (zh) | 2020-04-10 | 2020-04-10 | 一种用于工业零件测量的高精度图像语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010281361.3A CN111488882B (zh) | 2020-04-10 | 2020-04-10 | 一种用于工业零件测量的高精度图像语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111488882A true CN111488882A (zh) | 2020-08-04 |
CN111488882B CN111488882B (zh) | 2020-12-25 |
Family
ID=71794766
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010281361.3A Active CN111488882B (zh) | 2020-04-10 | 2020-04-10 | 一种用于工业零件测量的高精度图像语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111488882B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117974664A (zh) * | 2024-04-01 | 2024-05-03 | 宝鸡市鹏鑫金属材料有限公司 | 基于图像识别的钵锻件探伤检测方法及*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778563A (zh) * | 2016-12-02 | 2017-05-31 | 江苏大学 | 一种基于空间连贯特征的快速任意姿态人脸表情识别方法 |
CN108829826A (zh) * | 2018-06-14 | 2018-11-16 | 清华大学深圳研究生院 | 一种基于深度学习和语义分割的图像检索方法 |
CN110084850A (zh) * | 2019-04-04 | 2019-08-02 | 东南大学 | 一种基于图像语义分割的动态场景视觉定位方法 |
US10614736B2 (en) * | 2017-08-04 | 2020-04-07 | Université de Liège | Foreground and background detection method |
-
2020
- 2020-04-10 CN CN202010281361.3A patent/CN111488882B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106778563A (zh) * | 2016-12-02 | 2017-05-31 | 江苏大学 | 一种基于空间连贯特征的快速任意姿态人脸表情识别方法 |
US10614736B2 (en) * | 2017-08-04 | 2020-04-07 | Université de Liège | Foreground and background detection method |
CN108829826A (zh) * | 2018-06-14 | 2018-11-16 | 清华大学深圳研究生院 | 一种基于深度学习和语义分割的图像检索方法 |
CN110084850A (zh) * | 2019-04-04 | 2019-08-02 | 东南大学 | 一种基于图像语义分割的动态场景视觉定位方法 |
Non-Patent Citations (1)
Title |
---|
李国清: "基于深度学习的CT图像肾脏分割研究", 《中国优秀硕士学位论文全文数据库.信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117974664A (zh) * | 2024-04-01 | 2024-05-03 | 宝鸡市鹏鑫金属材料有限公司 | 基于图像识别的钵锻件探伤检测方法及*** |
CN117974664B (zh) * | 2024-04-01 | 2024-06-11 | 宝鸡市鹏鑫金属材料有限公司 | 基于图像识别的钵锻件探伤检测方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN111488882B (zh) | 2020-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7236545B2 (ja) | ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム | |
CN110738207B (zh) | 一种融合文字图像中文字区域边缘信息的文字检测方法 | |
CN109977918B (zh) | 一种基于无监督域适应的目标检测定位优化方法 | |
WO2019192397A1 (zh) | 一种任意形状的场景文本端到端识别方法 | |
CN110599537A (zh) | 基于Mask R-CNN的无人机图像建筑物面积计算方法及*** | |
CN108830171B (zh) | 一种基于深度学习的智能物流仓库引导线视觉检测方法 | |
CN107784288B (zh) | 一种基于深度神经网络的迭代定位式人脸检测方法 | |
CN107423760A (zh) | 基于预分割和回归的深度学习目标检测方法 | |
CN109033978B (zh) | 一种基于纠错策略的cnn-svm混合模型手势识别方法 | |
CN113744311A (zh) | 基于全连接注意力模块的孪生神经网络运动目标跟踪方法 | |
CN108734109B (zh) | 一种面向图像序列的视觉目标跟踪方法及*** | |
CN113312973B (zh) | 一种手势识别关键点特征提取方法及*** | |
CN114677565B (zh) | 特征提取网络的训练方法和图像处理方法、装置 | |
CN113221956B (zh) | 基于改进的多尺度深度模型的目标识别方法及装置 | |
CN112802005A (zh) | 一种基于改进Mask RCNN的汽车表面擦伤检测方法 | |
CN115546113A (zh) | 掌子面裂隙图像与前方三维结构参数预测方法及*** | |
CN115147418A (zh) | 缺陷检测模型的压缩训练方法和装置 | |
CN111488882B (zh) | 一种用于工业零件测量的高精度图像语义分割方法 | |
Widyantara et al. | Gamma correction-based image enhancement and canny edge detection for shoreline extraction from coastal imagery | |
CN112329662B (zh) | 基于无监督学习的多视角显著性估计方法 | |
CN117541652A (zh) | 一种基于深度lk光流法与d-prosac采样策略的动态slam方法 | |
CN116075820A (zh) | 用于搜索图像数据库的方法、非暂时性计算机可读存储介质和设备 | |
CN117237902A (zh) | 基于深度学习的机器人物体识别*** | |
CN116258877A (zh) | 土地利用场景相似度变化检测方法、装置、介质及设备 | |
CN115239776B (zh) | 点云的配准方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |