CN117636057B - 基于多分支跨空间注意力模型的列车轴承损伤分类识别方法 - Google Patents
基于多分支跨空间注意力模型的列车轴承损伤分类识别方法 Download PDFInfo
- Publication number
- CN117636057B CN117636057B CN202311711526.6A CN202311711526A CN117636057B CN 117636057 B CN117636057 B CN 117636057B CN 202311711526 A CN202311711526 A CN 202311711526A CN 117636057 B CN117636057 B CN 117636057B
- Authority
- CN
- China
- Prior art keywords
- branch
- cross
- layer
- space
- sample set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000012795 verification Methods 0.000 claims abstract description 16
- 238000011176 pooling Methods 0.000 claims description 21
- 230000004927 fusion Effects 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 14
- 238000010586 diagram Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 9
- 241001079606 Paches Species 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000000638 solvent extraction Methods 0.000 claims description 2
- 238000010200 validation analysis Methods 0.000 claims description 2
- 239000000284 extract Substances 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 16
- 230000008447 perception Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004901 spalling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多分支跨空间注意力模型的列车轴承损伤分类识别方法,包括如下步骤:获取列车轮对轴承元件表面图像;根据列车轮对轴承元件表面不同的损伤类型,分别建立图像样本集,并根据损伤类型不同对其进行标签划分;将样本集进行随机划分,确定训练样本集和验证样本集,将训练样本集和验证样本集输入网络模型中训练;使用完成网络模型训练的网络模型对待测的轮对轴承进行损伤识别。构建的网络模型既可以通过多分支模块提取不同语义下更丰富的图像特征信息,又利用跨空间通道连接突出增强重要特征信息,从而能够较为准确地扑捉图像中的关键特征,提升网络的分类识别性能。
Description
技术领域
本发明涉及列车轮对轴承损伤检测技术领域,特别涉及基于多分支跨空间注意力模型的列车轴承损伤分类识别方法。
背景技术
铁路交通运输具有运量大、成本低、占地少、绿色环保等诸多优点,对促进国民经济发展具有不可取代的关键作用。轮对轴承作为列车走行部核心部件之一,长时间在恶劣的工况环境下运行,极易发生划伤、剥离、凹痕等多类损伤。因此,开展有效的高速列车轮对轴承故障运维研究,对保障列车安全、平稳运营具有重要的学术价值与经济意义。
发明内容
为了解决以上问题,本发明提供了基于多分支跨空间注意力模型的列车轴承损伤分类识别方法。
为实现上述目的,本发明所采用的技术方案如下:
基于多分支跨空间注意力模型的列车轴承损伤分类识别方法,包括如下步骤:
获取列车轮对轴承元件表面图像;
根据列车轮对轴承元件表面不同的损伤类型,分别建立图像样本集,并根据损伤类型不同对其进行标签划分;
将样本集进行随机划分,确定训练样本集和验证样本集,将训练样本集和验证样本集输入网络模型中训练;
使用完成网络模型训练的网络模型对待测的轮对轴承进行损伤识别。
进一步的:所述将样本集进行随机划分,确定训练样本集和验证样本集,将训练样本集和验证样本集输入网络模型中训练,其中所述网络模型包括:
图像Patch生成模块:用于将训练样本集和验证样本集划分为Paches,并将每个Paches映射到一维向量中;
多分支跨空间注意力模块:包括多头注意力分支、跨空间连接分支和多尺度空洞卷积分支,通过空间连接特征图相乘分别将跨空间连接分支与多头注意力分支、跨空间连接分支与多尺度空洞卷积分支进行跨空间连接,三分支输出结果通过特征图相加进行特征图融合,通过展平层,实现维度匹配,再进行残差连接,经残差结构的多层感知器模块输出结果;
MLP分类识别模块;包括展平层、平均池化层、最大池化层和全连接层,其中,平均池化与最大池化并行操作。
进一步的:所述图像Patch生成模块包括:
缩放层、卷积层和线性映射层,其中缩放层利用resize()函数将不同尺寸大小的图像统一缩放为相同的尺寸;卷积层通过卷积操作将图像划分为给定大小的多个Paches;通过线性映射层将每个Patch映射到一维向量中。
进一步的:所述多头注意力分支包括:
层归一化、多头注意力以及与跨空间连接分支的空间连接,其特征输出结果表示为:
式中,表示特征图相乘,z1′表示多头注意力分支跨空间连接前的特征,z′21表示跨空间连接分支要与多头注意力分支跨空间连接的特征,z1表示多头注意力分支最终输出特征,最终输出特征经reshape()函数处理后输出。
进一步的:所述跨空间连接分支包括:
经reshape()函数处理后,再经可分离卷积层、批归一化层以及非线性层输出得到的z2,即跨空间连接分支最终输出特征;经reshape()函数处理后,再经分离卷积层、平均池化层、Softmax层、展平层输出得到的z′21,即跨空间连接分支要与多头注意力分支跨空间连接的特征;以及经reshape()函数处理后,再经分离卷积层与Sigmoid层输出得到的z′23,即跨空间连接分支要与多尺度空洞卷积分支跨空间连接的特征。
进一步的:所述多尺度空洞卷积分支包括:
reshape()函数层、并行的空洞卷积融合、与跨空间连接分支的空间连接,其特征输出结果表示为:
式中,表示特征图相乘,z3′表示多尺度空洞卷积分支跨空间连接前的特征,z′23表示跨空间连接分支要与多尺度空洞卷积分支跨空间连接的特征,z3表示多尺度空洞卷积分支最终输出特征,z3′是三个并行空洞卷积前后融合输出的结果,三个并行空洞卷积采用前后融合的特征图拼接方式,将多个特征图在通道维度上进行堆叠。
进一步的:所述多分支跨空间注意力模块还包括:
多头注意力分支、跨空间连接分支与多尺度空洞卷积分支最终输出的特征进行特征图相加进行融合:
式中,表示特征图相加,z′表示三个分支特征融合的特征,通过展平层,实现维度匹配,再进行残差连接,经残差结构的多层感知器模块输出,输出结果如下式:
式中,z表示多分支跨空间注意力子模块特征输出结果,z″表示输入多分支跨空间注意力子模块前的特征结果。
本发明与现有技术相比,所取得的技术进步在于:
本发明设计的多分类智能识别功能的多分支跨空间注意力网络模型采用了多分支的结构,包括多头注意力、跨空间连接和多尺度空洞卷积等分支,助于模型学***均池化和最大池化的并行操作,通过相加融合这两种池化的结果,有助于模型更全面地捕获特征信息,同时也可以提高对图像的多方面信息进行智能分类的能力。
总体而言,本发明既可以通过多分支模块提取不同语义下更丰富的图像特征信息,又利用跨空间通道连接突出增强重要特征信息,从而能够较为准确地捕捉图像中的关键特征,提升网络的分类识别性能。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。
在附图中:
图1为本发明的一种基于多分支跨空间注意力模型的列车轴承损伤分类识别方法的流程图;
图2为本发明多分类网络模型的结构示意图;
图3为本发明图像Patch生成模块的结构示意图;
图4为本发明多分支跨空间注意力模块的结构示意图;
图5为本发明分类识别模块的结构示意图;
图6为本发明多分类网络模型训练及验证分析结果图;
图7为本发明列车轮对轴承损伤监测输出结果的混淆矩阵。
具体实施方式
下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
如图1所示的,本发明公开了一种基于多分支跨空间注意力模型的列车轴承损伤分类识别方法,包括如下步骤:
S01:获取列车轮对轴承元件表面图像;
S02:根据列车轮对轴承元件表面不同的损伤类型,分别建立图像样本集,并根据损伤类型不同对其进行标签划分;
S03:将样本集进行随机划分,确定训练样本集和验证样本集,将训练样本集和验证样本集输入网络模型中训练;
S04:使用完成网络模型训练的网络模型对待测的轮对轴承进行损伤识别。
具体的,在S01至S03中,可以通过工业摄像机拍摄列车轮对轴承内圈、外圈、滚子等不同元件表面不同类型损伤图像,根据不同图像的损伤类型分别建立图像样本数据集,将损伤类型作为对应样本数据集的样本标签,列车轴承图像样本集包括多个不同损伤类型轴承图像样本和样本标签。
具体的,S03中,网络模型为具有多分类智能识别功能的多分支跨空间注意力网络模型,该模型包括图像Patch生成模块、多分支跨空间注意力模块以及分类识别模块,其中多分支跨空间注意力模块有L个多分支跨空间注意力子模块顺序连接组成,所搭建的网络模型由这三个基本模块顺序连接构成,结构示意图如图2所示。
具体的,在图像Patch生成模块中,首先,通过是一个缩放层,利用resize()函数将不同尺寸大小的图像统一缩放为相同的尺寸,图像维度大小统一为:H×W×C(H高度,W宽度,C通道数)=224×224×3;然后是一个标准卷积层,通过卷积操作将图像划分为给定大小的一堆Paches,卷积层中卷积核大小为16×16,步长(stride)为16,卷积核的个数为768,因此图片划分为Paches后,维度由[224×224×3]变化为[14×14×768];最后,通过一个线性映射层,将每个Patch映射到一维向量中,具体操作是通过一个Flatten()函数,将图像的维度由[14×14×768]变化为[196×768],图像Patch生成模块结构的示意图如图3。
具体的,如图4所示的,多分支跨空间注意力模块是多分支跨空间注意力网络模型的核心构成模块,有L个多分支跨空间注意力子模块顺序连接。包含三个分支,分别分支一多头注意力、分支二跨空间连接和分支三多尺度空洞卷积(Atrous convolution,AC)。通过特征图相乘(Multiplication)方式,分别把分支二与分支一、分支二与分支三进行跨空间连接。三个分支输出结果通过特征图相加(Addition)方式进行特征图融合,后面是一个残差连接和一个残差结构的多层感知器(Multilayer Perception,MLP)模块。
其中:
1)分支一多头注意力:该分支主要由层归一化(LayerNorm)、多头注意力及与分支二的空间连接共三部分构成,其特征输出结果可以表示:
式中,表示特征图相乘,z1′表示分支一跨空间连接前的特征,z′21表示分支二要与分支一跨空间连接的特征,z1表示分支一最终输出特征。由于分支一输出特征维度与分支二、分支三特征维度不匹配,所以要进行reshape()函数处理,保证分支一与分支二、分支三特征维度匹配,从而进行后面三个分支输出的特征图相加(Addition)融合。分支一使用多头注意力机制来建立特征图中不同位置的关联,通过自注意力机制在全局范围内学习到图像的特征表示,能够在不依赖卷积操作的情况下有效地捕捉到图像中的全局信息。在此基础上,通过与分支二部分进行跨空间融合,将多个特征图逐元素相乘,融合它们的信息,增强共同出现的特征并减弱不重要的特征。
2)分支二跨空间连接:该分支有三个输出特征:z2,z′21,z′23,分别代表分支二最终输出特征、分支二要与分支一跨空间连接的特征、分支二要与分支三跨空间连接的特征。z2经reshape()函数处理后,再经可分离卷积层(DWC)、批归一化层(BatchNorm)及非线性层(Non-Linear)输出得到。z′21经reshape()函数处理后,再经分离卷积层(DWC)、平均池化层(Avg Pooling)、Softmax层、展平层(Flatten)输出得到。z′23经reshape()函数处理后,再经分离卷积层(DWC)与Sigmoid层输出得到。分支二一方面通过可分离卷积操作提取基本的图像细节特征信息,另一方面为分支一与分支三提供跨空间连接。
3)分支三多尺度空洞卷积:该分支由reshape()函数层、三个并行的空洞卷积融合、与分支二的空间连接三部分构成,其特征输出结果可以表示:
式中,表示特征图相乘,z3′表示分支三跨空间连接前的特征,z′23表示分支二要与分支三跨空间连接的特征,z1表示分支三最终输出特征。在该模块中,z3′是三个并行空洞卷积前后融合输出的结果,这三个空洞卷积的卷积核大小均为3×3,空洞率分别为2、3和4。空洞卷积相比普通卷积操作在不增加卷积计算量的基础上,可以有效扩大卷积感受野范围,但是单个空洞卷积操作会因存在“网格效应”,导致卷积过程中某些重要特征信息丢失。因此,三个并行空洞卷积采用前后融合的特征图拼接(Concatenation)方式,将多个特征图在通道维度上进行堆叠,来避免空洞卷积过程中重要特征信息的丢失。将分支二可分离卷积提取特征与多尺度空洞卷积提取的特征逐元素相乘,进一步融合信息后,可以增强共同出现的特征并减弱不重要的特征。
最后分支一、分支二与分支三最终输出的特征进行特征图相加(Addition)进行融合:
式中,表示特征图相加,z′表示三个分支特征融合的特征。通过一个展平层(Flatten),实现维度匹配,再进行残差连接,然后是一个残差结构的多层感知器(Multilayer Perception,MLP)模块,输出结果如下式:
式中,z表示多分支跨空间注意力子模块特征输出结果,z″表示输入多分支跨空间注意力子模块前的特征结果。
具体的,如图5所示的,分类识别模块包括展平层(Flatten)、平均池化层(AvgPooling)、最大池化层(Max Pooling)、全连接层构成,其中,平均池化和最大池化是并行操作,结果进行相加(Addition)融合,通过该模块,输出对应图像的智能识别结果。
在使用时需要对多分支跨空间注意力网络模型的参数进行设置,设置结果如下表所示:
例如:通过摄像机拍摄采集列车轮对轴承外圈、内圈、滚子等各个元件表面图像,根据轴承元件表面不同的损伤类型,分别建立图像样本集,并根据损伤类型不同对其进行标签划分;图像样本集共包含4种类型轴承样本图像,每一类样本图像包含300张图像,对应的样本标签分别为剥落、电蚀、裂纹和正常,这些轴承损伤均是在列车长时间运行过程中所造成的;搭建具备多分类智能识别功能的多分支跨空间注意力网络,将每一类列车轮对轴承图像样本进行比例为9:1的随机划分,确定训练样本集和验证样本集,每一类训练样本集包含270张图像,每一类验证样本集包含30张图像;将训练样本集和验证样本集输入网络模型中训练,训练和验证的准确率分别为98.5%、95%。所述网络模型的训练及验证分析结果如图6所示。选取待测的剥落、电蚀、裂纹和正常四类样本图像,每一类各10张,不设置标签,全部输入至已训练好的网络模型,进行列车轮对轴承损伤监测,监测输出结果的混淆矩阵如图7所示,分类识别准确率为100%,这证实了所提网络模型用于列车轮对轴承损伤检测的有效性。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明权利要求保护的范围之内。
Claims (2)
1.基于多分支跨空间注意力模型的列车轴承损伤分类识别方法,其特征在于,包括如下步骤:
获取列车轮对轴承元件表面图像;
根据列车轮对轴承元件表面不同的损伤类型,分别建立图像样本集,并根据损伤类型不同对其进行标签划分;
将样本集进行随机划分,确定训练样本集和验证样本集,将训练样本集和验证样本集输入网络模型中训练;
使用完成网络模型训练的网络模型对待测的轮对轴承进行损伤识别;
其中,所述网络模型包括:
图像Patch生成模块:用于将训练样本集和验证样本集划分为Paches,并将每个Paches映射到一维向量中;
多分支跨空间注意力模块:包括多头注意力分支、跨空间连接分支和多尺度空洞卷积分支,通过空间连接特征图相乘分别将跨空间连接分支与多头注意力分支、跨空间连接分支与多尺度空洞卷积分支进行跨空间连接,三分支输出结果通过特征图相加进行特征图融合,通过展平层,实现维度匹配,再进行残差连接,经残差结构的多层感知器模块输出结果;
MLP分类识别模块;包括展平层、平均池化层、最大池化层和全连接层,其中,平均池化与最大池化并行操作;
所述图像Patch生成模块包括:
缩放层、卷积层和线性映射层,其中缩放层利用resize()函数将不同尺寸大小的图像统一缩放为相同的尺寸;卷积层通过卷积操作将图像划分为给定大小的多个Paches;通过线性映射层将每个Patch映射到一维向量中;
所述多头注意力分支包括:
层归一化、多头注意力以及与跨空间连接分支的空间连接,其特征输出结果表示为:
式中,表示特征图相乘,z′1表示多头注意力分支跨空间连接前的特征,z′21表示跨空间连接分支要与多头注意力分支跨空间连接的特征,z1表示多头注意力分支最终输出特征,最终输出特征经reshape()函数处理后输出;
所述跨空间连接分支包括:
经reshape()函数处理后,再经可分离卷积层、批归一化层以及非线性层输出得到的z2,即跨空间连接分支最终输出特征;经reshape()函数处理后,再经分离卷积层、平均池化层、Softmax层、展平层输出得到的z′21,即跨空间连接分支要与多头注意力分支跨空间连接的特征;以及经reshape()函数处理后,再经分离卷积层与Sigmoid层输出得到的z′23,即跨空间连接分支要与多尺度空洞卷积分支跨空间连接的特征;
所述多尺度空洞卷积分支包括:
reshape()函数层、并行的空洞卷积融合、与跨空间连接分支的空间连接,其特征输出结果表示为:
式中,表示特征图相乘,z′3表示多尺度空洞卷积分支跨空间连接前的特征,z′23表示跨空间连接分支要与多尺度空洞卷积分支跨空间连接的特征,z3表示多尺度空洞卷积分支最终输出特征,z′3是三个并行空洞卷积前后融合输出的结果,三个并行空洞卷积采用前后融合的特征图拼接方式,将多个特征图在通道维度上进行堆叠。
2.根据权利要求1所述的基于多分支跨空间注意力模型的列车轴承损伤分类识别方法,其特征在于,所述多分支跨空间注意力模块还包括:
多头注意力分支、跨空间连接分支与多尺度空洞卷积分支最终输出的特征进行特征图相加进行融合:
式中,表示特征图相加,z′表示三个分支特征融合的特征,通过展平层,实现维度匹配,再进行残差连接,经残差结构的多层感知器模块输出,输出结果如下式:
式中,z表示多分支跨空间注意力子模块特征输出结果,z″表示输入多分支跨空间注意力子模块前的特征结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311711526.6A CN117636057B (zh) | 2023-12-13 | 2023-12-13 | 基于多分支跨空间注意力模型的列车轴承损伤分类识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311711526.6A CN117636057B (zh) | 2023-12-13 | 2023-12-13 | 基于多分支跨空间注意力模型的列车轴承损伤分类识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117636057A CN117636057A (zh) | 2024-03-01 |
CN117636057B true CN117636057B (zh) | 2024-06-11 |
Family
ID=90032068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311711526.6A Active CN117636057B (zh) | 2023-12-13 | 2023-12-13 | 基于多分支跨空间注意力模型的列车轴承损伤分类识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117636057B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472352A (zh) * | 2018-11-29 | 2019-03-15 | 湘潭大学 | 一种基于特征图统计特征的深度神经网络模型裁剪方法 |
JP6830707B1 (ja) * | 2020-01-23 | 2021-02-17 | 同▲済▼大学 | ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法 |
CN112668584A (zh) * | 2020-12-24 | 2021-04-16 | 山东大学 | 一种基于视觉注意力和多尺度卷积神经网络的空调外机画像智能检测方法 |
CN113610144A (zh) * | 2021-08-02 | 2021-11-05 | 合肥市正茂科技有限公司 | 一种基于多分支局部注意力网络的车辆分类方法 |
CN115331261A (zh) * | 2022-08-24 | 2022-11-11 | 功夫链(上海)体育文化发展有限公司 | 基于YOLOv6的移动端实时人体检测方法及*** |
CN115565020A (zh) * | 2022-11-11 | 2023-01-03 | 郑州机械研究所有限公司 | 一种基于改进神经网络的齿面损伤识别方法及装置 |
WO2023019698A1 (zh) * | 2021-08-16 | 2023-02-23 | 武汉大学 | 基于富上下文网络的高光谱图像分类方法 |
CN115966010A (zh) * | 2023-02-07 | 2023-04-14 | 南京邮电大学 | 一种基于注意力和多尺度特征融合的表情识别方法 |
CN116718377A (zh) * | 2023-04-28 | 2023-09-08 | 重庆交通大学 | 基于小波变换和深度残差注意力机制的轴承故障诊断方法 |
CN116740527A (zh) * | 2023-05-23 | 2023-09-12 | 西安电子科技大学 | U型网络与自注意力机制结合的遥感图像变化检测方法 |
CN117095287A (zh) * | 2023-07-27 | 2023-11-21 | 浙江大学 | 一种基于时空交互Transformer模型的遥感图像变化检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220415027A1 (en) * | 2021-06-29 | 2022-12-29 | Shandong Jianzhu University | Method for re-recognizing object image based on multi-feature information capture and correlation analysis |
-
2023
- 2023-12-13 CN CN202311711526.6A patent/CN117636057B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472352A (zh) * | 2018-11-29 | 2019-03-15 | 湘潭大学 | 一种基于特征图统计特征的深度神经网络模型裁剪方法 |
JP6830707B1 (ja) * | 2020-01-23 | 2021-02-17 | 同▲済▼大学 | ランダムバッチマスクとマルチスケール表現学習を融合した人物再同定方法 |
CN112668584A (zh) * | 2020-12-24 | 2021-04-16 | 山东大学 | 一种基于视觉注意力和多尺度卷积神经网络的空调外机画像智能检测方法 |
CN113610144A (zh) * | 2021-08-02 | 2021-11-05 | 合肥市正茂科技有限公司 | 一种基于多分支局部注意力网络的车辆分类方法 |
WO2023019698A1 (zh) * | 2021-08-16 | 2023-02-23 | 武汉大学 | 基于富上下文网络的高光谱图像分类方法 |
CN115331261A (zh) * | 2022-08-24 | 2022-11-11 | 功夫链(上海)体育文化发展有限公司 | 基于YOLOv6的移动端实时人体检测方法及*** |
CN115565020A (zh) * | 2022-11-11 | 2023-01-03 | 郑州机械研究所有限公司 | 一种基于改进神经网络的齿面损伤识别方法及装置 |
CN115966010A (zh) * | 2023-02-07 | 2023-04-14 | 南京邮电大学 | 一种基于注意力和多尺度特征融合的表情识别方法 |
CN116718377A (zh) * | 2023-04-28 | 2023-09-08 | 重庆交通大学 | 基于小波变换和深度残差注意力机制的轴承故障诊断方法 |
CN116740527A (zh) * | 2023-05-23 | 2023-09-12 | 西安电子科技大学 | U型网络与自注意力机制结合的遥感图像变化检测方法 |
CN117095287A (zh) * | 2023-07-27 | 2023-11-21 | 浙江大学 | 一种基于时空交互Transformer模型的遥感图像变化检测方法 |
Non-Patent Citations (3)
Title |
---|
Remaining Useful Life Prediction of Machinery: A New Multiscale Temporal Convolutional Network Framework;Feiyue Deng 等;《IEEE Transactions on Instrumentation and Measurement ( Volume: 71)》;20220829;全文 * |
使用密集弱注意力机制的图像显著性检测;项圣凯;曹铁勇;方正;洪施展;;中国图象图形学报;20200116(第01期);全文 * |
卷积神经网络在轴承故障识别的应用;颉潭成;陈孟会;徐彦伟;李先锋;;制造业自动化;20200125(第01期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117636057A (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN110569738B (zh) | 基于密集连接网络的自然场景文本检测方法、设备和介质 | |
CN105528595A (zh) | 在无人机航拍图像中对输电线路绝缘子的识别定位方法 | |
CN111008618B (zh) | 一种自注意力深度学习端到端的行人再识别方法 | |
CN108875727B (zh) | 图文标识的检测方法及装置、存储介质、处理器 | |
CN111178451A (zh) | 一种基于YOLOv3网络的车牌检测方法 | |
CN116503399B (zh) | 基于yolo-afps的绝缘子污闪检测方法 | |
CN111079645A (zh) | 一种基于AlexNet网络的绝缘子自爆识别方法 | |
CN112633088B (zh) | 一种基于航拍图像中光伏组件识别的电站容量估测方法 | |
CN113506239B (zh) | 一种基于跨阶段局部网络的带钢表面缺陷检测方法 | |
CN104408479A (zh) | 一种基于深度局部特征描述符的海量图像分类方法 | |
CN109543546B (zh) | 基于深度序分布回归的步态年龄估计方法 | |
CN116206112A (zh) | 基于多尺度特征融合和sam的遥感图像语义分割方法 | |
CN109325407B (zh) | 基于f-ssd网络滤波的光学遥感视频目标检测方法 | |
CN112784754A (zh) | 一种车辆再识别方法、装置、设备及存储介质 | |
CN112257741A (zh) | 一种基于复数神经网络的生成性对抗虚假图片的检测方法 | |
CN114792430A (zh) | 基于极化自注意力的行人重识别方法、***及相关设备 | |
CN114581789A (zh) | 一种高光谱图像分类方法及*** | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN112837281B (zh) | 基于级联卷积神经网络的销钉缺陷识别方法、装置和设备 | |
CN116503398B (zh) | 绝缘子污闪检测方法、装置、电子设备及存储介质 | |
CN117636057B (zh) | 基于多分支跨空间注意力模型的列车轴承损伤分类识别方法 | |
CN108711150A (zh) | 一种基于pca的端到端路面裂缝检测识别方法 | |
CN117372853A (zh) | 一种基于图像增强和注意力机制的水下目标检测算法 | |
CN116977859A (zh) | 基于多尺度图像切割和实例困难度的弱监督目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |