CN116824337A - 基于特征迁移学习的生成粗糙度预测模型的方法及*** - Google Patents

基于特征迁移学习的生成粗糙度预测模型的方法及*** Download PDF

Info

Publication number
CN116824337A
CN116824337A CN202310821158.4A CN202310821158A CN116824337A CN 116824337 A CN116824337 A CN 116824337A CN 202310821158 A CN202310821158 A CN 202310821158A CN 116824337 A CN116824337 A CN 116824337A
Authority
CN
China
Prior art keywords
roughness
sample
sample image
neural network
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310821158.4A
Other languages
English (en)
Inventor
刘坚
朱理
索鑫宇
周飞滔
路恩会
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Upna Technology Co ltd
Hunan University
Original Assignee
Jiangsu Upna Technology Co ltd
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Upna Technology Co ltd, Hunan University filed Critical Jiangsu Upna Technology Co ltd
Priority to CN202310821158.4A priority Critical patent/CN116824337A/zh
Publication of CN116824337A publication Critical patent/CN116824337A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Game Theory and Decision Science (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了基于特征迁移学习的生成粗糙度预测模型的方法及***。其中生成粗糙度预测模型的方法包括:采集经不同加工方式加工的、具有不同粗糙度的切削加工表面的图像,生成样本集合,其中样本集合包括:对应第一加工方式的多个第一样本图像、对应第二加工方式的多个第二样本图像、以及各第一样本图像和各第二样本图像分别对应的粗糙度度量值;将具有相同粗糙度度量值的第一样本图像和第二样本图像输入深度迁移学习模型,通过学习第一样本图像和第二样本图像的特征的相关性,来确定目标函数,以通过求解目标函数来调整深度迁移学习模型的网络参数;利用深度迁移学习模型,生成粗糙度预测模型。

Description

基于特征迁移学习的生成粗糙度预测模型的方法及***
技术领域
本申请涉及计算机技术领域,尤其涉及基于特征迁移学习的生成粗糙度预测模型的方法及***。
背景技术
在机械加工过程中,刀具或砂轮与零件表面之间发生切削与摩擦导致切屑分离,表层金属发生塑性变形以及加工过程中机床的振动等因素会导致被加工表面形成细微的峰谷。在一定的观测范围内微小峰谷的不平整度称为表面粗糙度。表面粗糙度对机械设备的使用性能和使用寿命有非常重要的影响。
近年来,随着工业自动化水平的不断提高,自动化生产线的产能也越来越大,基于抽检式的加工质量监测模式不仅人力工作量大,检测不全面,反馈不及时等缺点与高速的生产节奏不匹配。另一方面,随着计算机算力的不断提升以及图像分析与处理技术的不断发展,基于机器视觉的粗糙度测量方法开始成为智能制造领域的研究热点,这种方法具备高准确度、低成本以及实时检测的优点。这对于提高生产效率和质量、降低成本、减少人为错误具有非常重要的作用。基于机器视觉的粗糙度测量方法主要是基于机器学习或深度学习原理的分类或预测方法,要求参与拟合或训练的样本数量足、有代表性、粗糙度值真实且正确、样本多样性程度高,否则无法构建准确的映射关系,导致最终的预测模型泛化性差或预测结果置信度不高。在实际应用过程中,收集样本的过程是十分花费时间与精力的、并且获得一个高丰富度的数据集的成本是高昂的。
有鉴于此,研究如何依赖少量样本,来构建准确的粗糙度预测模型,在实际工程应用中具有一定的意义与价值。
发明内容
本申请提供了基于特征迁移学习的生成粗糙度预测模型的方法及***,以力图解决或者至少缓解上面存在的至少一个问题。
根据本申请的一个方面,提供了基于特征迁移学习的生成粗糙度预测模型的方法,包括:采集经不同加工方式加工的、具有不同粗糙度的切削加工表面的图像,生成样本集合,其中所述样本集合包括:对应第一加工方式的多个第一样本图像、对应第二加工方式的多个第二样本图像、以及各第一样本图像和各第二样本图像分别对应的粗糙度度量值;将具有相同粗糙度度量值的所述第一样本图像和所述第二样本图像输入深度迁移学习模型,通过度量所述第一样本图像和所述第二样本图像的特征的差异性,来确定目标函数,以通过求解目标函数来调整所述深度迁移学习模型的网络参数;利用深度迁移学习模型,生成粗糙度预测模型,所述粗糙度预测模型用于预测工件表面的粗糙度。
可选地,在根据本申请的方法中,深度迁移学习模型包括:第一卷积神经网络组件和第二卷积神经网络组件;以及与第一卷积神经网络组件、第二卷积神经网络组件分别耦接的目标函数计算组件,其中,第一卷积神经网络组件和第二卷积神经网络组件具有相同的网络结构和网络参数,均至少包含多个卷积处理层。
可选地,在根据本申请的方法中,将具有相同粗糙度度量值的第一样本图像和第二样本图像输入深度迁移学习模型,包括:将第一样本图像输入第一卷积神经网络组件,以提取第一样本图像的特征,作为第一特征,并得到第一样本图像的粗糙度预测值;将第二样本图像输入第二卷积神经网络组件,以提取第二样本图像的特征,作为第二特征;将第一特征和第二特征、以及粗糙度预测值,输入目标函数计算组件,以求解目标函数。
可选地,在根据本申请的方法中,目标函数包括:基于粗糙度预测值与对应的粗糙度度量值的预测损失值、基于对应卷积处理层输出的第一特征与第二特征的距离度量值。
可选地,在根据本申请的方法中,目标函数计算组件包括预测预测预测损失计算模块和至少一个域间差异计算模块,且域间差异计算模块对应耦接至第一卷积神经网络组件和第二卷积神经网络组件的部分卷积处理层,预测预测损失计算模块耦接到第一卷积神经网络组件的输出。
可选地,在根据本申请的方法中,域间差异计算模块适于度量对应的卷积处理层所输出的第一特征和第二特征之间的距离;预测损失计算模块适于根据第一样本图像的粗糙度预测值和粗糙度度量值,计算预测损失;目标函数计算组件适于基于距离和预测损失,确定目标函数。
可选地,在根据本申请的方法中,第一卷积神经网络组件和第二卷积神经网络组件通过深度适应网络实现,域间差异计算模块利用多核最大均值差异来度量第一特征和第二特征的距离。
可选地,在根据本申请的方法中,第一卷积神经网络组件和第二卷积神经网络组件通过DeepCoral实现,域间差异计算模块利用相关性对齐损失来度量第一特征和第二特征的距离。
可选地,在根据本申请的方法中,第一卷积神经网络组件和第二卷积神经网络组件通过深度子域适应网络实现,域间差异计算模块适于利用基于局部最大平均差异来来度量第一特征和第二特征的距离。
可选地,在根据本申请的方法中,第一加工方式和第二加工方式为相似的加工工艺,且经第一加工方式与经第二加工方式加工的工件表面,在纹理信息与灰度分布上具有较强相似性。其中,第一加工方式为车削加工,第二加工方式为立铣加工。
可选地,在根据本申请的方法中,采集经不同加工方式加工的、具有不同粗糙度的切削加工表面的图像,生成样本集合,包括:采集经第一加工方式加工的、不同粗糙度的切削加工表面的图像,作为第一原始图像的集合;采集经第二加工方式加工的、不同粗糙度的切削加工表面的图像,作为第二原始图像的集合;分别对第一原始图像和第二原始图像进行预处理,得到固定尺寸的多个第一样本图像和第二样本图像,其中,预处理包括裁剪、下采样、旋转、翻转变换、灰度翻转。
根据本申请的再一方面,提供了一种生成粗糙度预测模型的***,包括:数据采集模块,适于采集经不同加工方式加工的、具有不同粗糙度的切削加工表面的图像,生成样本集合,其中样本集合包括:对应第一加工方式的多个第一样本图像、对应第二加工方式的多个第二样本图像、以及各第一样本图像和各第二样本图像分别对应的粗糙度度量值;模型训练模块,适于将具有相同粗糙度度量值的第一样本图像和第二样本图像输入深度迁移学习模型,来通过度量第一样本图像和第二样本图像的特征的差异性,确定目标函数,并通过求解目标函数来调整深度迁移学习模型的网络参数,直到生成粗糙度预测模型。
根据本申请的再一方面,提供了一种计算设备,包括:一个或多个处理器存储器;一个或多个程序,其中所述一个或多个程序存储在存储器中并被配置为由一个或多个处理器执行,一个或多个程序包括用于执行如上任一方法的指令。
根据本申请的再一方面,提供了一种存储一个或多个程序的计算机可读存储介质,一个或多个程序包括指令,指令在被计算设备执行时,使得计算设备执行如上所述的任一方法。
综上所述,根据本申请的方案,以车削和立铣图像数据集作为两个互相迁移的领域样本集,提出了基于深度特征对齐式迁移学习的深度迁移学习模型。基于距离度量来构建目标函数,通过求解该目标函数即可得到最终优化的深度迁移学习模型。基于该深度迁移学习模型,确定出粗糙度预测模型,以解决类似加工方式样本采集繁琐、昂贵的问题。
此外,根据本申请,通过实验证明在源域样本量充足的情况下,稀缺目标域样本可通过本方法建立高准确度的粗糙度预测模型。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
为了实现上述以及相关目的,本文结合下面的描述和附图来描述某些说明性方面,这些方面指示了可以实践本文所申请的原理的各种方式,并且所有方面及其等效方面旨在落入所要求保护的主题的范围内。通过结合附图阅读下面的详细描述,本申请的上述以及其它目的、特征和优势将变得更加明显。遍及本申请,相同的附图标记通常指代相同的部件或元素。
图1示出了根据本申请一些实施例的生成粗糙度预测模型的***100的示意图;
图2示出了根据本申请一些实施例的计算设备200的示意图;
图3示出了根据本申请一些实施例的基于特征迁移学习的生成粗糙度预测模型的方法300的流程示意图;
图4示出了根据本申请一些实施例的深度迁移学习模型400的基本架构图;
图5示出了采用DAN的深度迁移学习模型的结构图;
图6示出了采用DeepCoral的深度迁移学习模型的结构图;
图7示出了采用深度子域适应网络的深度迁移学习模型的结构图。
具体实施方式
下面将参照附图更详细地描述本申请的示例性实施例。虽然附图中显示了本申请的示例性实施例,然而应当理解,可以以各种形式实现本申请而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本申请,并且能够将本申请的范围完整的传达给本领域的技术人员。
切削加工的工件表面往往具有辨识度高的纹理特征,其纹理信息与其表面粗糙度之间有一定的关系,但表面粗糙度的数值是一个经过统计方法计算的具体值,粗糙度表面图像与粗糙度数值之间无法建立一个明确的映射关系,因此利用计算机视觉的方法一般只能预测根据国标制定的粗糙度的等级。不同切削加工的样本在表面纹理特征上有一定的相似性,因此,根据本申请的实施方式,利用某一类加工方式的切削加工粗糙度预测模型,来适配另一类切削加工的粗糙度样本,从而避免繁琐的样本收集工作,使粗糙度预测模型更快速地泛化到相似的加工方式上。根据本申请,提出了一种基于特征对齐式迁移学习的粗糙度预测方案,能够对不同加工方式下的切削表面的粗糙度进行预测。
应当指出,上述不同的加工方式应该是相似加工方式,相似加工方式例如具有相似的加工工艺,且经不同加工方式加工后的切削表面,其纹理信息与灰度分布具有较强相似性。
根据本申请的方案,首先,基于深度卷积神经网络构建出深度迁移学习模型;同时,采集了两种不同切削加工方式的粗糙度样本图像,构建了两组表面粗糙度图像数据集;之后,利用这两组图像数据集,训练深度迁移学习模型,以得到最终的粗糙度预测模型。该粗糙度预测模型能够对经类似加工方式加工的切削加工表面进行粗糙度预测。根据本方案,能够解决类似加工方式样本采集繁琐、昂贵的问题。
图1示出了根据本申请一些实施例的生成粗糙度预测模型的***100的示意图。如图1所示,***100包括数据采集模块110和模型训练模块120。
数据采集模块110用于采集经不同加工方式加工的、具有不同粗糙度的切削加工表面的图像,生成样本集合。
根据本申请的实施方式,选取两种相似加工方式来构建样本集合,进行后续的迁移学习。在一些实施例中,申请人发现,从加工的物理机制上来说,车削和铣削均由旋转运动与进给运动的配合作用下实现,主要差异在于车削时工件发生旋转运动,刀具发生进给运动;而铣削时,旋转运动由刀具发生,进给运动由工件发生。因此从主切削运动与进给运动的角度来说,车削和铣削(如,立铣)是两种比较相似的加工工艺,鉴于此,本申请选择采集经车削和经铣削加工方式(而不考虑刨削、磨削)加工的切削加工表面的图像。此外,铣削根据铣刀完成切削的切削刃不同,分为卧铣和立铣,这两种铣削方式在微观上切削刃与工件表面的差异是较大的,申请人经研究对比,确认立铣的切削参数以及加工过后的表面纹理均与车削相似。故而,在一些实施例中,采用的两种加工方式:第一加工方式为车削加工,第二加工方式为立铣加工。当然,也可以以立铣加工作为第一加工方式,车削加工作为第二加工方式,不限于此。
需要说明的是,此处仅以车削和铣削为例,示出了根据本申请的方案选择样本的方式,本申请并不限于车削加工和立铣加工两种加工方式。本领域技术人员基于本申请实施例的描述,可以从主切削运动与进给运动的角度、加工后工件表面纹理的相似度等,来选择两种相似加工方式。总之,第一加工方式和第二加工方式为相似的加工工艺、切削参数相似,且经第一加工方式与经第二加工方式加工的工件表面,在纹理信息与灰度分布上具有较强相似性。
具体地,数据采集模块110选用车削和铣削(立铣)粗糙度标准样块进行原始图像的采集。将具有相同粗糙度等级的1个车削样块和1个铣削样块作为一个样本对。优选地,样块可以来自不同厂家,将来自同一厂家的、具有相同粗糙度等级的1个车削样块和1个铣削样块作为一个样本对。在一些实施例中,粗糙度包含4个等级,分别为Ra0.8,Ra1.6,Ra3.2和Ra6.3。
原始图像的采集一般通过光学成像硬件与图像采集软件组成的***来完成。根据本申请的一些实施例,在采集到原始图像后,数据采集模块110还会对原始图像进行预处理,包括:将原始图像裁剪到预定尺寸(例如,448*448),然后再下采样到网络要求的尺寸大小(例如,224*224)。在一些实施例中,对应第一加工方式的原始图像记作第一原始图像,对应第二加工方式的原始图像记作第二原始图像,经上述预处理后的第一原始图像和第二原始图像分别记作第一样本图像和第二样本图像。
此外,为了提高网络的泛化能力,数据采集模块110还会对各样本图像分别进行数据增强等预处理,以得到更多的样本图像。数据增强操作例如包括:旋转、翻转变换、灰度翻转、对比度调节、亮度调节等,本申请对此不做限制。
这样,最终生成的样本集合包括:对应第一加工方式的多个第一样本图像、对应第二加工方式的多个第二样本图像、以及各第一样本图像和各第二样本图像分别对应的粗糙度度量值。
模型训练模块120用于完成深度迁移学习模型的迁移学习,以最终生成粗糙度预测模型,用来预测相似加工方式下的切削加工表面的粗糙度。
根据本申请,将具有相同粗糙度度量值的第一样本图像和第二样本图像输入深度迁移学习模型,来通过度量第一样本图像和第二样本图像的特征的差异性,确定目标函数,并通过求解目标函数来调整深度迁移学习模型的网络参数,直到生成粗糙度预测模型。
根据本申请的***100,通过数据采集模块110采集并生成两组样本图像,通过模型训练模块120,利用基于特征的迁移学习思路,度量两组样本图像的对应特征之间的距离,并据此来优化深度迁移学习模型,最终得到粗糙度预测模型。换言之,根据本申请的方案,利用深度卷积神经网络分别提取第一样本图像和第二样本图像的特征,通过基于特征统计的距离度量函数计算迁移损失,从而缩小两个领域的分布之间的距离。在本实施例中,将第一样本图像作为源域数据,第二样本图像作为目标域数据。基于深度特征对齐式迁移学习方法可以利用源域知识明显提高目标领域数据的预测表现。
根据本申请的***100可以通过一台或多台计算设备实现,以用来执行生成粗糙度预测模型的方法300。图2示出了根据本申请一些实施例的计算设备200的结构框图。需要说明的是,图2所示的计算设备200仅为一个示例,在实践中,用于实施本申请的计算设备可以是任意型号的设备,其硬件配置情况可以与图2所示的计算设备200相同,也可以与图2所示的计算设备200不同。实践中用于实施本申请的计算设备可以对图2所示的计算设备200的硬件组件进行增加或删减,本申请对计算设备的具体硬件配置情况不做限制。
如图2所示,在基本配置202中,计算设备200典型地包括***存储器206和一个或者多个处理器204。存储器总线208可以用于在处理器204和***存储器206之间的通信。
取决于期望的配置,处理器204可以是任何类型的处理器,包括但不限于:微处理器(μP)、微控制器(μC)、数字信息处理器(DSP)或者它们的任何组合。处理器204可以包括诸如一级高速缓存210和二级高速缓存212之类的一个或者多个级别的高速缓存、处理器核心214和寄存器216。示例的处理器核心214可以包括运算逻辑单元(ALU)、浮点数单元(FPU)、数字信号处理(DSP)核心或者它们的任何组合。示例的存储器控制器218可以与处理器204一起使用,或者在一些实现中,存储器控制器218可以是处理器204的一个内部部分。
取决于期望的配置,***存储器206可以是任意类型的存储器,包括但不限于:易失性存储器(诸如RAM)、非易失性存储器(诸如ROM、闪存等)或者它们的任何组合。计算设备中的物理内存通常指的是易失性存储器RAM,磁盘中的数据需要加载至物理内存中才能够被处理器204读取。***存储器206可以包括操作***220、一个或者多个应用222以及程序数据224。在一些实施方式中,应用222可以布置为在操作***上由一个或多个处理器204利用程序数据224执行指令。操作***220例如可以是Linux、Windows等,其包括用于处理基本***服务以及执行依赖于硬件的任务的程序指令。应用222包括用于实现各种用户期望的功能的程序指令,应用222例如可以是浏览器、即时通讯软件、软件开发工具(例如集成开发环境IDE、编译器等)等,但不限于此。
在计算设备200启动运行时,处理器204会从存储器206中读取操作***220的程序指令并执行。应用222运行在操作***220之上,利用操作***220以及底层硬件提供的接口来实现各种用户期望的功能。当用户启动应用222时,应用222会加载至存储器206中,处理器204从存储器206中读取并执行应用222的程序指令。
计算设备200还包括储存设备232,储存设备232包括可移除储存器236(例如CD、DVD、U盘、可移动硬盘等)和不可移除储存器238(例如硬盘驱动器HDD等),可移除储存器236和不可移除储存器238均与储存接口总线234连接。
计算设备200还可以包括储存接口总线234。储存接口总线234实现了从储存设备232(例如,可移除储存器236和不可移除储存器238)经由总线/接口控制器230到基本配置202的通信。操作***220、应用222以及程序数据224的至少一部分可以存储在可移除储存器236和/或不可移除储存器238上,并且在计算设备200上电或者要执行应用222时,经由储存接口总线234而加载到***存储器206中,并由一个或者多个处理器204来执行。
计算设备200还可以包括有助于从各种接口设备(例如,输出设备242、外设接口244和通信设备246)到基本配置202经由总线/接口控制器230的通信的接口总线240。示例的输出设备242包括图形处理单元248和音频处理单元250。它们可以被配置为有助于经由一个或者多个A/V端口252与诸如显示器或者扬声器之类的各种外部设备进行通信。示例外设接口244可以包括串行接口控制器254和并行接口控制器256,它们可以被配置为有助于经由一个或者多个I/O端口258和诸如输入设备(例如,键盘、鼠标、笔、语音输入设备、触摸输入设备)或者其他外设(例如打印机、扫描仪等)之类的外部设备进行通信。示例的通信设备246可以包括网络控制器260,其可以被布置为便于经由一个或者多个通信端口264与一个或者多个其他计算设备262通过网络通信链路的通信。
网络通信链路可以是通信介质的一个示例。通信介质通常可以体现为在诸如载波或者其他传输机制之类的调制数据信号中的计算机可读指令、数据结构、程序模块,并且可以包括任何信息递送介质。“调制数据信号”可以是这样的信号,它的数据集中的一个或者多个或者它的改变可以在信号中以编码信息的方式进行。作为非限制性的示例,通信介质可以包括诸如有线网络或者专线网络之类的有线介质,以及诸如声音、射频(RF)、微波、红外(IR)或者其它无线介质在内的各种无线介质。这里使用的术语计算机可读介质可以包括存储介质和通信介质二者。
计算设备200可以实现为包括桌面计算机和笔记本计算机配置的个人计算机。当然,计算设备200也可以实现为小尺寸便携(或者移动)电子设备的一部分,这些电子设备可以是诸如蜂窝电话、数码照相机、个人数字助理(PDA)、个人媒体播放器设备、无线网络浏览设备、个人头戴设备、应用专用设备、或者可以包括上面任何功能的混合设备。甚至可以被实现为服务器,如文件服务器、数据库服务器、应用程序服务器和WEB服务器等。本申请的实施例对此均不做限制。
在根据本申请的实施例中,计算设备200被配置为执行根据本申请的生成粗糙度预测模型的方法300。其中,布置在操作***上的应用222中包含用于执行上述一种或多种方法的多条程序指令,这些程序指令可以指示处理器204执行本申请的上述方法300。
图3示出了根据本申请一些实施例的生成粗糙度预测模型的方法300的流程示意图。如图3所示,方法300始于310。
在310中,采集经不同加工方式加工的、具有不同粗糙度的切削加工表面的图像,生成样本集合。
如前文所述,由车削和立铣这两种切削加工方式加工的工件表面在纹理信息与灰度分布上具有较强的相似性,故此处选择第一加工方式为车削加工,第二加工方式为立铣加工。
根据本申请的一些实施例,采集经第一加工方式加工的、不同粗糙度的切削加工表面的图像,作为第一原始图像的集合。同时,采集经第二加工方式加工的、不同粗糙度的切削加工表面的图像,作为第二原始图像的集合。之后,分别对第一原始图像和第二原始图像进行预处理,得到固定尺寸的多个第一样本图像和第二样本图像。其中预处理包括裁剪、下采样、旋转、翻转变换、灰度翻转,等等。
这样,最终生成的样本集合包括:对应第一加工方式的多个第一样本图像、对应第二加工方式的多个第二样本图像、以及各第一样本图像和各第二样本图像分别对应的粗糙度度量值。在一些实施例中,可以将来自同一加工厂家的、具有相同粗糙度等级的第一样本图像和第二样本图像作为一个样本对,每个样本对都具有相应的标签数据,即粗糙度度量值,在一些实施例中,可以采用粗糙度等级来表示粗糙度度量值。根据本实施例,粗糙度等级包括:Ra0.8,Ra1.6,Ra3.2和Ra6.3共4个等级。
在320中,将具有相同粗糙度度量值的第一样本图像和第二样本图像输入深度迁移学习模型,通过度量第一样本图像和第二样本图像的特征的差异性,来确定目标函数,以通过求解目标函数来调整深度迁移学习模型的网络参数。
根据本申请的迁移学习应用问题可格式化为以下形式:源领域样本空间(即,第一样本图像所组成的样本空间)和目标域样本空间(即,第二样本图像所组成的样本空间)可以分别定义为Xs,Xt,对应的标签空间(即,对应的粗糙度度量值)可定义为Ys,Yt,因此源域可定义为一个在源领域样本空间Xs的数据分布Ds和一个标签函数f:Xs→[0,1,2,3]构成的组合,其中,当标签的预测结果不确定时,该函数可以得出一个输入样本实例所对应的标签期望值。源域的任务定义为Ts={ys,f(xs)},其中xs是Xs中的一个实例,即xs∈Xs,f(xs)为xs的预测标签,ys为xs的真实标签,ys∈Ys,同理目标域为Tt={yt,f(xt)}。在本问题中,只考虑两个领域之间的互相迁移,一个源领域与一个目标领域。从现实的加工情况来说,车削样本与铣削样本在一定的进给量与吃刀量的情况下可能实现微观表面纹理一致,且粗糙度等级相同,因此我们假设两个领域的样本空间并不是相互独立的,即且Ys=Yt,从领域的角度来看,两个领域之间虽然存在非完全对齐的概率分布但具有相同的预测目标,即Ds≠Dt,Ts=Tt。具有这类特点的迁移学习问题一般称为同构迁移学习问题。
根据本申请的实施方式,首先构建一个深度迁移学习模型,用该深度迁移学习模型对样本图像进行迁移学习,并且基于经多次优化后最终确定的深度迁移学习模型,确定出粗糙度预测模型。以下对迁移学习的过程进行详细介绍。
利用基于特征的迁移学习方法解决上述问题的一般思路大致可分为以下几步:首先,需要根据样本本身的特性选择或设计域相关性特征指标,一般需要进行域特征指标与域分布差异性的相关性分析,如果有若干个域相关性指标,则还需利用主成分分析等方法对各个域相关性特征指标赋予不同的权重,以保证两个领域的概率分布正确且高效地对齐。然后需要学习一对映射函数,将来自两个领域的域相关性特征指标映射到一个公共地特征空间,通过特定的映射方法在公共特征空间中度量两个领域之间的差异性,一般可以将缩小域间差异性问题视为一个凸优化问题(即,目标函数)。然后对该凸优化问题进行求解,即可训练源域分类器和目标域分类器,最终得到粗糙度预测模型。最后是测试阶段,选用来自目标域中的测试数据集,提取其域特征指标,然后映射到新的特征空间中,将得到的特征指标输入到经过训练的分类器中进行预测,由此便可判断该迁移学习方法的准确度性能表现。
在迁移学习领域,一般可以使用深度卷积神经网络提取的特征作为域相关性特征指标,相比于人工设计的特征指标,这类指标不依赖于设计人员的相关领域专业知识,同时具有很强的域相关性。因此,在构建深度迁移学习模型时,构建特征提取网络组件,来提取样本图像的特征,作为域相关性特征指标。
在基于特征的迁移学习中,解决领域适配的关键在于如何学习到域不变性特征,即如何学习到域间的特征映射来将不同领域的样本映射到由域不变性特征构成的公共空间。获取这类域不变性特征的关键在于如何度量这种域不变性,目前相关研究已经提出了若干种域不变性度量标准,其中最主要的是最大均值差异嵌入(Maximum MeanDiscrepancy Embedding,MMDE)来度量以及迁移成分分析。
在根据本申请的一些实施例中,使用深度神经网络替代基于核函数的特征映射。可选地,利用编码MMD测量在卷积神经网络中学习的深层特征之间的距离。
图4示出了根据本申请一些实施例的深度迁移学习模型400的基本架构图。
如图4所示,深度迁移学习模型400包括:第一卷积神经网络组件410和第二卷积神经网络组件420、以及与第一卷积神经网络组件410、第二卷积神经网络组件420分别耦接的目标函数计算组件430。其中,第一卷积神经网络组件410和第二卷积神经网络组件420具有相同的网络结构和网络参数,均至少包含多个卷积处理层。图4中的卷积处理层仅作为示例,本申请并不限制卷积处理层的数量。
在一些实施例中,以第一卷积神经网络组件410为例,其包含多个卷积处理层,这些卷积处理层依次对输入的图像进行处理,以提取图像特征。同时,最后一个卷积处理层通常被配置为分类处理层(例如,Softmax层),用来对上一卷积处理层所输出的图像特征进行处理,以预测该图像所对应的粗糙度等级,即得到粗糙度预测值。此外,卷积处理层例如可以包含卷积核、池化、激活、全连接、Softmax等,本申请对此不做过多限制。
具体地,将具有相同粗糙度度量值的第一样本图像和第二样本图像输入深度迁移学习模型,包括:将第一样本图像输入第一卷积神经网络组件,以提取第一样本图像的特征,作为第一特征,并得到第一样本图像的粗糙度预测值;将第二样本图像输入第二卷积神经网络组件,以提取第二样本图像的特征,作为第二特征;将第一特征和第二特征、以及粗糙度预测值,输入目标函数计算组件,以求解目标函数。需要说明的是,在本申请的实施例中,将第一卷积神经网络组件中除最后一个卷积处理层外,其它卷积处理层所输出的特征,均称作第一特征;将第二卷积神经网络组件中除最后一个卷积处理层外,其它卷积处理层所输出的特征,均称作第二特征。
应当指出,第二卷积神经网络组件420也包含对图像特征进行分类的分类处理层,来输出关于第二样本图像的粗糙度预测值,由于在迁移学习阶段,不需要对该粗糙度预测值进行处理,因此此处未示出。
根据一些实施方式,目标函数通常会包括:基于粗糙度预测值与对应的粗糙度度量值的预测损失值、基于对应卷积处理层输出的第一特征与第二特征的距离度量值。
在一些实施例中,如图4,目标函数计算组件430包括:预测损失计算模块432和至少一个域间差异计算模块434。在一些实施例中,域间差异计算模块434对应耦接至第一卷积神经网络组件410和第二卷积神经网络组件420的部分卷积处理层,预测损失计算模块432耦接到第一卷积神经网络组件410的输出。如图4所示,目标函数计算组件430中包含1个域间差异计算模块434。应当了解,本申请并不限制域间差异计算模块的数量。
域间差异计算模块434用来度量对应的卷积处理层所输出的第一特征和第二特征之间的距离。预测损失计算模块432根据第一样本图像的粗糙度预测值和粗糙度度量值,计算预测损失。总之,目标函数计算组件430基于所度量的距离和预测损失,来确定目标函数。通过利用这种距离度量方式,卷积神经网络可以在最大化标签相关性的同时,最小化域之间的差异,从而自动学习具有跨领域表示能力的特征。
具体来说,对距离的经验估计可表示为如下形式:
其中,xs∈Xs、xt∈Xt分别表示当前卷积处理层的输入数据,即,第一样本图像和第二样本图像经过前几层卷积神经网络转换后的输出,表示卷积处理层对输入数据的卷积操作,/>和/>分别表示当前卷积处理层对应的第一特征和第二特征。
为了使整个网络需要在源领域上具有很高的预测准确性,并且能缩小两个领域之间的分布距离,一种能满足以上两个条件的方法是使用组合的损失函数,作为目标函数,表示如下:
其中,为预测损失,以带标签数据的预测标签(Xs)和真实标签(y)作为输入,通过交叉熵函数输出结果。后一项为距离度量函数,亦可称为迁移损失。超参数λ为两损失函数之间的权衡指标,决定了想要混淆域的强烈程度,λ的设置一般根据模型的训练结果判断,如果λ设置太小会导致MMD正则化项对模型学习域不变性特征没有作用,但λ设置过大会导致正则化过于严重导致模型不能很好地学习类差异性特征,使所有的数据点聚集无法分类。
根据本申请的实施方式,针对样本集合,设置好相应的超参数(例如,优化器、学习率、批次大小、迁移损失权重等),通过多次迭代计算目标函数,直到目标函数的值满足条件时,训练结束,得到相应的深度迁移学习模型。
在330中,利用深度迁移学习模型,生成粗糙度预测模型。
根据本申请,将训练好的深度迁移学习模型中的第一卷积神经网络组件或第二卷积神经网络组件,作为粗糙度预测模型。该粗糙度预测模型即可用来对经相似加工方式处理的切削加工表面的图像进行处理,预测其粗糙度。
上述架构是深度迁移学习模型的典型架构,根据本申请,在此基础上采用了多种网络模型来实现上述卷积神经网络组件。下表列举若干种表现优异的模型及其性能表现。
表1基于深度特征的迁移学习模型及在OFFICE-31数据集上的性能表现
其中A,W,D分别代表OFFICE-31数据集中的三个不同领域数据,即经不同加工方式加工的切削表面图像,“A→W”表示将数据A作为第一样本图像,W作为第二样本图像,以此类推。
由上表可以看出,根据本申请的方法300的深度迁移学习模型,可以利用源域知识明显提高目标领域数据的预测表现。具体而言,根据本方案,基于第一特征和第二特征的距离度量来构建目标函数,通过求解该目标函数即可得到最终优化的深度迁移学习模型。基于该深度迁移学习模型,确定出粗糙度预测模型,以解决类似加工方式样本采集繁琐、昂贵的问题。
下文将使用方法300来验证不同切削加工样件之间表面粗糙度的可迁移性。考虑到模型之间存在一定的相似性,故此处只选取了DAN、DeepCoral和DSAN三种具有代表性的模型。
在一些实施例中,第一卷积神经网络组件和第二卷积神经网络组件通过深度适应网络(DAN)实现。
DAN针对神经网络不同深度卷积层所提取的特征的可迁移性对网络参数的训练采用了不同的模式,可以在统计保证下学习可迁移特征,并利用均值嵌入配准对核选择敏感的特点,域间差异计算模块采用多核最大均值差异(Multi Kernal-Maximum MeanDiscrepancy,MK-MMD)来度量第一特征和第二特征的距离,与单核相比,显著提高了域适应能力。
图5示出了采用DAN的深度迁移学习模型的结构图。图5中的源域数据集和目标域数据集分别为第一样本图像的集合和第二样本图像的集合。其中conv1-conv5、fc6、fc7、fc8表示卷积神经网络组件中的卷积处理层,conv为卷积层,fc为全连接层。
由于卷积处理层提取的特征随着深度的增加由通用向特定过渡,所以,根据本申请,针对不同深度的卷积处理层,采用了不同的参数调节策略。具体地,全连接层fc6-fc8是为了提取适用于特定分类任务的特征,因此它们是不可迁移的,采用MK-MMD来调整。如图5,3个域间差异计算模块用“MK-MMD”来表示,分别度量fc6-fc8的距离。预测损失计算模块用“分类损失”来表示。
对于深度特征层的优化目标函数如下所示:
其中,表示预测损失,/>是经过第l层的第一特征和第二特征计算出来的MK-MMD,l1和l2分别是计算MK-MMD的起始层序号和终止层序号。
该架构的参数θ优化策略如下:
由于使用核技巧计算MK-MMD的时间复杂度是O(n2),对于深度学习的训练相当不理想,该方法直接对MK-MMD进行无偏估计,计算公式如下:
其中使用四元组通过函数:
计算每个四元组上多维核函数,这种方法的计算时间复杂度为O(n)。然后通过随机梯度下降算法(SGD)让目标函数对θ进行调节。
参数β的优化策略如下:
其中是估计方差。
综上可见,DAN的目标函数本质上是一个极大极小值问题:
在一些实施例中,第一卷积神经网络组件和第二卷积神经网络组件通过DeepCoral实现。
DeepCoral创新之处在于利用相关性对齐(CORelation Alignment,Coral)损失来最小化跨领域学习的特征协方差的差异,这类似于用多项式核最小化MMD。根据本申请,域间差异计算模块利用相关性对齐损失来度量第一特征和第二特征的距离。
图6示出了采用DeepCoral的深度迁移学习模型的结构图。图6中的源域数据集和目标域数据集分别为第一样本图像的集合和第二样本图像的集合。其中conv1-conv5、fc6、fc7、fc8表示卷积神经网络组件中的卷积处理层,conv为卷积层,fc为全连接层。如图6包含1个域间差异计算模块,用“相关性对齐损失Coral Loss”来表示,用来度量全连接层fc8输出的特征的距离,即Coral损失。
具体地,Coral损失定义为第一特征(即,源特征)和第二特征(即,目标特征)的二阶统计量(协方差)之间的距离:
其中为方阵Frobenius范数。源数据和目标数据的协方差矩阵为:
相对于输入特征的梯度可以用链式法则计算:
相比于DAN,DeepCoral的损失函数非常简单且高效,说明Coral损失能更好地观测两个分布之间的相关性。
在一些实施例中,第一卷积神经网络组件和第二卷积神经网络组件通过深度子域适应网络(Deep Subdomain Adaptation Network,DSAN)实现。
深度子域适应网络也是一种基于特征距离度量的迁移学***均差异(Local Maximum Mean Discrepancy,LMMD)来来度量第一特征和第二特征的距离。
图7示出了采用深度子域适应网络的深度迁移学习模型的结构图。图7中的源域数据集和目标域数据集分别为第一样本图像的集合和第二样本图像的集合。其中特征提取网络表示卷积神经网络组件,如图7中示出了2个域间差异计算模块(不限于此),用“LMMD”来表示,每个域间差异计算模块都需要四个输入(以第1个LMMD为例):第l个卷积处理层提取的深度特征zsl、ztl、源域样本的真实标签ys(即,第一样本图像的粗糙度度量值)和目标域样本的预测标签(即,第二样本图像的粗糙度预测值),根据设定的深度特征提取层数量可拓展域间差异计算模块。
根据本实施例,域间差异计算模块的距离度量公式表示如下所示:
/>
其中xs和xt分别为Xs和Xt的实例,p(c)和q(c)分别为Xs和Xt的子域分布,不同于MMD仅仅只关注分布整体的差异性,上式可以测量局部分布的域间差异性。然后LMMD假设每个样本根据权重ωc判断从属于哪个类别。
对上式进行无偏估计,形式如下:
其中ωc的计算公式如下:
其中yic是向量yi的对应第c类的值,对源域样本来说,由于使用的是真实标签,所以各个样本的权重是已知的,对于目标域样本,由于模型学习的模式是无监督的域适应,所以目标域的标签是不可用的,因此使用标签预测值来计算样本分配给某一类的权重。因此可以将CMMD视为LMMD的一个特例(CMMD假设每个样本都有相同的权重)。
DSAN是一种非常简单且有效的深度域适应方法。该方法易于训练,不同于基于对抗的域适应方法,该方法收敛速度快,实验表明,DSAN作为一种非对抗性方法,在标准迁移数据集的目标识别任务和数字分类任务中都能获得显著的标准域适应效果。但从目标域样本的类别权重分配方法来看,该方法容易受到的异常样本或类判别性差的样本影响。
进一步地,从预测准确度、召回率、特征分布可视化三个方面对上述3个网络模型进行评价。
本课题所使用的模型训练硬件GPU为RXT 2080Ti单显卡,显存11GB;CPU为12vCPUIntel(R)Xeon(R)Platinum 8255C [email protected];深度学习环境为PyTorch1.8.1+TorchVision0.9.1+Cuda11.1。三种方法使用的相同超参数有:特征提取网络ResNet50;瓶颈特征维数256维;优化器SGD{momentum:0.9,weight decay:5e-4};学习率调整策略inv{gamma:3e-4,decay:0.75};批次大小32;训练轮次200。部分不同设置超参数如表2所示。
表2实验超参数表
分别对每种模型进行两个数据集之间互相迁移实验,并对每次实验设置三个随机种子,得到三组重复实验结果。
(1)DAN
基于上述实验要求,DAN方法的最终效果如表3所示(其中,mAP(mean AveragePrecision),表示所有类别准确度的平均值):
表3DAN预测准确度结果
(2)DeepCoral
基于上述实验要求,DeepCoral方法的最终效果如表4所示:
表4DeepCora l预测准确度结果
(3)DSAN
基于上述实验要求,DSAN方法的最终效果如表5所示:
表5DSAN预测准确度结果
由于实验结果受随机种子的影响在一定范围内波动,考虑将最佳的实验结果作为模型最终准确性评价指标,设置综合实验结果如表6所示,其中,采用ResNet50作为对照实验组。
表6最佳预测准确度结果汇总表
从预测准确度来看,由于DAN、DeepCoral主要关注整体分布的迁移效果,因此虽然整体的预测准确度相对于对照组会有一定提升,但每个子域的准确度提升幅度并不大。基于DSAN的特征迁移学习方法能更好的捕获子领域中的细粒度信息,因此可以将分布整体对齐的同时保证各子领域之间的分布对齐效果,从而同时提升了各个子域的准确度和召回率,从而使整体的预测准确度有明显的提升,所以该方法对不同切削加工表面粗糙度的迁移学习模型的预测效果最好。不过从实验结果来看,该方法在不同的随机数生成器下的重复实验结果存在较大的波动性,主要是因为DSAN对细粒度特征的关注影响迁移损失与分类损失之间的权衡,使整体的损失值较大,从而导致模型训练过程存在较大波动。
召回率也是作为评估模型分类效果的重要指标之一,可以衡量模型对所有真实样本的查全能力,从而间接体现了模型对各个类别的鉴别能力。表7列出上述三种模型的最佳实验组的召回率结果。
表7召回率结果汇总表
当两个领域的数据在进行特征对齐时,如果不考虑领域内部的差异性,则会导致域间差异性虽然缩小了,但子域内的可鉴别性并未得到进一步提升。在两组迁移任务中,Ra1.6的样本可鉴别性最差,从该类样本的召回效果可以体现模型对于子域特征的拟合能力,其中DSAN方法在两组迁移任务中对Ra1.6的召回率相对于ResNet50分别提升了30%和41.6%,并且对其他类别的召回率也具有显著提升,体现了DSAN方法可以有效地解决多子域迁移学习任务。
此外,分别对每种方法的结果最佳组用t-SNE方法对其深度特征降至2维,并通过图表进行可视化,以得到二维特征点的分布。在车削→立铣任务(即,将车削样本作为源域,立铣样本作为目标域)中,DSAN与DAN、DeepCoral相比,在实现了两领域整体分布对齐的同时,兼顾各个子领域的对齐,大部分源域和目标域的特征点形成了边界清晰的聚集特征点簇,但是对于Ra0.8和Ra1.6两类样本存在部分异常样本较难鉴别。在立铣→车削任务(即,将立铣样本作为源域,车削样本作为目标域)中,3种模型的二维的特征分布难以判断各类别之间的清晰边界,而从预测结果来分析四类粗糙度样本特征散点图应该呈聚集状态。因此以DAN与DSAN为例,进行三维特征可视化分析,进一步判断可视化结果是否符合理想状态。两个模型的共同点为:对于Ra3.2和Ra6.3这两类的分布对齐效果较理想,可以比较直观的观察到子域边界。对于Ra1.6和Ra0.8这两类之间的鉴别性较差,无法比较直观地找到类别与类别之间的边界。两模型的区别在于:DSAN可以把握子类的细粒度特征信息,同类样本间聚集程度明显强于DAN,子类之间的分布间隙大,使得分类边界更明确。
总的来看,基于本申请的方法300,可以较好的利用源域数据集与目标域数据集训练一个高准确度的跨域预测模型,该模型可显著缩小两个领域的基于实例特征点统计指标计算的分布距离。
根据本申请的方案,以车削和立铣图像数据集作为两个互相迁移的领域样本集,提出了基于深度特征对齐式迁移学习的切削表面粗糙度预测模型,以解决类似加工方式样本采集繁琐、昂贵的问题。此外,根据本申请,通过实验证明在源域样本量充足的情况下,稀缺目标域样本可通过本方法建立高准确度的粗糙度预测模型。
这里描述的各种技术可结合硬件或软件,或者它们的组合一起实现。从而,本申请的方法和设备,或者本申请的方法和设备的某些方面或部分可采取嵌入有形媒介,例如可移动硬盘、U盘、软盘、CD-ROM或者其它任意机器可读的存储介质中的程序代码(即指令)的形式,其中当程序被载入诸如计算机之类的机器,并被所述机器执行时,所述机器变成实践本申请的设备。
在程序代码在可编程计算机上执行的情况下,计算设备一般包括处理器、处理器可读的存储介质(包括易失性和非易失性存储器和/或存储元件),至少一个输入装置,和至少一个输出装置。其中,存储器被配置用于存储程序代码;处理器被配置用于根据该存储器中存储的所述程序代码中的指令,执行本申请的生成粗糙度预测模型的方案。
本申请公开了:
A8、如A4-6中任一项所述的方法,其中,所述第一卷积神经网络组件和第二卷积神经网络组件通过DeepCoral实现,所述域间差异计算模块利用相关性对齐损失来度量第一特征和第二特征的距离。A9、如A4-6中任一项所述的方法,其中,所述第一卷积神经网络组件和第二卷积神经网络组件通过深度子域适应网络实现,所述域间差异计算模块适于利用基于局部最大平均差异来来度量第一特征和第二特征的距离。A10、如A1-9中任一项所述的方法,其中,所述第一加工方式和所述第二加工方式为相似的加工工艺,且经所述第一加工方式与经所述第二加工方式加工的工件表面,在纹理信息与灰度分布上具有较强相似性。A11、如A1-10中任一项所述的方法,其中,所述第一加工方式为车削加工,所述第二加工方式为立铣加工。A12、如A1-11中任一项所述的方法,其中,所述采集经不同加工方式加工的、具有不同粗糙度的切削加工表面的图像,生成样本集合,包括:采集经第一加工方式加工的、不同粗糙度的切削加工表面的图像,作为第一原始图像的集合;采集经第二加工方式加工的、不同粗糙度的切削加工表面的图像,作为第二原始图像的集合;分别对所述第一原始图像和所述第二原始图像进行预处理,得到固定尺寸的多个第一样本图像和第二样本图像,其中,所述预处理包括裁剪、下采样、旋转、翻转变换、灰度翻转。
以示例而非限制的方式,可读介质包括可读存储介质和通信介质。可读存储介质存储诸如计算机可读指令、数据结构、程序模块或其它数据等信息。通信介质一般以诸如载波或其它传输机制等已调制数据信号来体现计算机可读指令、数据结构、程序模块或其它数据,并且包括任何信息传递介质。以上的任一种的组合也包括在可读介质的范围之内。
在此处所提供的说明书中,算法和显示不与任何特定计算机、虚拟***或者其它设备固有相关。各种通用***也可以与本申请的示例一起使用。根据上面的描述,构造这类***所要求的结构是显而易见的。此外,本申请也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本申请的内容,并且上面对特定语言所做的描述是为了披露本申请的优选实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本申请的实施例可以在没有这些具体细节的情况下被实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本申请并帮助理解各个申请方面中的一个或多个,在上面对本申请的示例性实施例的描述中,本申请的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该申请的方法解释成反映如下意图:即所要求保护的本申请要求比在每个权利要求中所明确记载的特征更多特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本申请的单独实施例。
本领域那些技术人员应当理解在本文所公开的示例中的设备的模块或单元或组件可以布置在如该实施例中所描述的设备中,或者可替换地可以定位在与该示例中的设备不同的一个或多个设备中。前述示例中的模块可以组合为一个模块或者此外可以分成多个子模块。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本申请的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
此外,所述实施例中的一些在此被描述成可以由计算机***的处理器或者由执行所述功能的其它装置实施的方法或方法元素的组合。因此,具有用于实施所述方法或方法元素的必要指令的处理器形成用于实施该方法或方法元素的装置。此外,装置实施例的在此所述的元素是如下装置的例子:该装置用于实施由为了实施该公开的目的的元素所执行的功能。
如在此所使用的那样,除非另行规定,使用序数词“第一”、“第二”、“第三”等等来描述普通对象仅仅表示涉及类似对象的不同实例,并且并不意图暗示这样被描述的对象必须具有时间上、空间上、排序方面或者以任意其它方式的给定顺序。此外,数量词“多个”表示“两个”和/或“两个以上”。
尽管根据有限数量的实施例描述了本申请,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本申请的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本申请的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本申请的范围,对本申请所做的公开是说明性的,而非限制性的,本申请的范围由所附权利要求书限定。

Claims (10)

1.基于特征迁移学习的生成粗糙度预测模型的方法,包括:
采集经不同加工方式加工的、具有不同粗糙度的切削加工表面的图像,生成样本集合,其中所述样本集合包括:对应第一加工方式的多个第一样本图像、对应第二加工方式的多个第二样本图像、以及各第一样本图像和各第二样本图像分别对应的粗糙度度量值;
将具有相同粗糙度度量值的所述第一样本图像和所述第二样本图像输入深度迁移学习模型,通过度量所述第一样本图像和所述第二样本图像的特征的差异性,来确定目标函数,以通过求解目标函数来调整所述深度迁移学习模型的网络参数;
利用所述深度迁移学习模型,生成粗糙度预测模型,所述粗糙度预测模型用于预测工件表面的粗糙度。
2.如权利要求1所述的方法,其中,所述深度迁移学习模型包括:
第一卷积神经网络组件和第二卷积神经网络组件;以及
与所述第一卷积神经网络组件、所述第二卷积神经网络组件分别耦接的目标函数计算组件,
其中,所述第一卷积神经网络组件和所述第二卷积神经网络组件具有相同的网络结构和网络参数,均至少包含多个卷积处理层。
3.如权利要求2所述的方法,其中,将具有相同粗糙度度量值的所述第一样本图像和所述第二样本图像输入深度迁移学习模型,包括:
将所述第一样本图像输入所述第一卷积神经网络组件,以提取所述第一样本图像的特征,作为第一特征,并得到所述第一样本图像的粗糙度预测值;
将所述第二样本图像输入所述第二卷积神经网络组件,以提取所述第二样本图像的特征,作为第二特征;
将所述第一特征和所述第二特征、以及所述粗糙度预测值,输入所述目标函数计算组件,以求解所述目标函数。
4.如权利要求3所述的方法,其中,所述目标函数包括:
基于所述粗糙度预测值与对应的所述粗糙度度量值的预测损失值、基于对应卷积处理层输出的所述第一特征与第二特征的距离度量值。
5.如权利要求2-4中任一项所述的方法,其中,所述目标函数计算组件包括预测预测预测损失计算模块和至少一个域间差异计算模块,且所述域间差异计算模块对应耦接至所述第一卷积神经网络组件和所述第二卷积神经网络组件的部分卷积处理层,所述预测预测损失计算模块耦接到所述第一卷积神经网络组件的输出。
6.如权利要求5所述的方法,其中,
所述域间差异计算模块适于度量对应的卷积处理层所输出的第一特征和第二特征之间的距离;
所述预测损失计算模块适于根据所述第一样本图像的粗糙度预测值和粗糙度度量值,计算预测损失;
所述目标函数计算组件适于基于所述距离和所述预测损失,确定目标函数。
7.如权利要求4-6中任一项所述的方法,其中,所述第一卷积神经网络组件和第二卷积神经网络组件通过深度适应网络实现,
所述域间差异计算模块利用多核最大均值差异来度量第一特征和第二特征的距离。
8.一种生成粗糙度预测模型的***,包括:
数据采集模块,适于采集经不同加工方式加工的、具有不同粗糙度的切削加工表面的图像,生成样本集合,其中所述样本集合包括:对应第一加工方式的多个第一样本图像、对应第二加工方式的多个第二样本图像、以及各第一样本图像和各第二样本图像分别对应的粗糙度度量值;
模型训练模块,适于将具有相同粗糙度度量值的所述第一样本图像和所述第二样本图像输入深度迁移学习模型,来通过度量所述第一样本图像和所述第二样本图像的特征的差异性,确定目标函数,并通过求解所述目标函数来调整所述深度迁移学习模型的网络参数,直到生成粗糙度预测模型。
9.一种计算设备,包括:
一个或多个处理器;
存储器;
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行如权利要求1-7中任一项所述方法的指令。
10.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令在被计算设备执行时,使得所述计算设备执行如权利要求1-7中任一项所述的方法。
CN202310821158.4A 2023-07-05 2023-07-05 基于特征迁移学习的生成粗糙度预测模型的方法及*** Pending CN116824337A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310821158.4A CN116824337A (zh) 2023-07-05 2023-07-05 基于特征迁移学习的生成粗糙度预测模型的方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310821158.4A CN116824337A (zh) 2023-07-05 2023-07-05 基于特征迁移学习的生成粗糙度预测模型的方法及***

Publications (1)

Publication Number Publication Date
CN116824337A true CN116824337A (zh) 2023-09-29

Family

ID=88123889

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310821158.4A Pending CN116824337A (zh) 2023-07-05 2023-07-05 基于特征迁移学习的生成粗糙度预测模型的方法及***

Country Status (1)

Country Link
CN (1) CN116824337A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117574962A (zh) * 2023-10-11 2024-02-20 苏州天准科技股份有限公司 基于迁移学习的半导体芯片检测方法、装置及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117574962A (zh) * 2023-10-11 2024-02-20 苏州天准科技股份有限公司 基于迁移学习的半导体芯片检测方法、装置及存储介质

Similar Documents

Publication Publication Date Title
CN114638784B (zh) 一种基于fe-yolo的铜管表面缺陷检测方法及装置
Zhang et al. An efficient lightweight convolutional neural network for industrial surface defect detection
CN110633711B (zh) 训练特征点检测器的计算机装置、方法及特征点检测方法
CN111680556A (zh) 交通卡口车辆类型的识别方法、装置、设备及存储介质
CN107016416B (zh) 基于邻域粗糙集和pca融合的数据分类预测方法
CN116824337A (zh) 基于特征迁移学习的生成粗糙度预测模型的方法及***
Saisree et al. Pothole detection using deep learning classification method
García-Ordás et al. Combining shape and contour features to improve tool wear monitoring in milling processes
CN113496260B (zh) 基于改进YOLOv3算法的粮库人员不规范作业检测法
Cui et al. Real-time detection of wood defects based on SPP-improved YOLO algorithm
CN105224941A (zh) 对象辨识与定位方法
CN114358279A (zh) 图像识别网络模型剪枝方法、装置、设备及存储介质
Rofik et al. The Optimization of Credit Scoring Model Using Stacking Ensemble Learning and Oversampling Techniques
CN116071348B (zh) 基于视觉检测的工件表面检测方法及相关装置
Sameki et al. ICORD: Intelligent Collection of Redundant Data-A Dynamic System for Crowdsourcing Cell Segmentations Accurately and Efficiently.
CN109191452B (zh) 一种基于主动学习的腹腔ct图像腹膜转移自动标记方法
Wu et al. A monitoring method for surface roughness of γ-TiAl alloy based on deep learning of time–frequency diagram
CN110348479A (zh) 一种基于近邻传播的股票预测方法、***、装置和介质
Heinecke et al. Unsupervised statistical learning for die analysis in ancient numismatics
Yang et al. Classification of industrial surface defects based on neural architecture search
CN111127485B (zh) 一种ct图像中目标区域提取方法、装置及设备
CN113627522A (zh) 基于关系网络的图像分类方法、装置、设备及存储介质
Protopapadakis et al. Data sampling for semi-supervised learning in vision-based concrete defect recognition
CN116824338A (zh) 基于对抗式迁移学习的生成粗糙度预测模型的方法及***
CN114972866B (zh) 用于识别车削零件表面粗糙度等级的有效特征的确定方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination