CN114119582B - 一种合成孔径雷达图像目标检测方法 - Google Patents

一种合成孔径雷达图像目标检测方法 Download PDF

Info

Publication number
CN114119582B
CN114119582B CN202111455414.XA CN202111455414A CN114119582B CN 114119582 B CN114119582 B CN 114119582B CN 202111455414 A CN202111455414 A CN 202111455414A CN 114119582 B CN114119582 B CN 114119582B
Authority
CN
China
Prior art keywords
convolution
feature extraction
synthetic aperture
aperture radar
target detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111455414.XA
Other languages
English (en)
Other versions
CN114119582A (zh
Inventor
陈杰
万辉耀
黄志祥
刘小平
邬伯才
夏润繁
周正
吕建明
冯运
杜文天
于敬仟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Zhongke Xinglian Information Technology Co ltd
Anhui University
Original Assignee
Anhui Zhongke Xinglian Information Technology Co ltd
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Zhongke Xinglian Information Technology Co ltd, Anhui University filed Critical Anhui Zhongke Xinglian Information Technology Co ltd
Priority to CN202111455414.XA priority Critical patent/CN114119582B/zh
Priority to US17/668,483 priority patent/US20230169623A1/en
Publication of CN114119582A publication Critical patent/CN114119582A/zh
Application granted granted Critical
Publication of CN114119582B publication Critical patent/CN114119582B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • G01S13/9027Pattern recognition for feature extraction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9021SAR image post-processing techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种合成孔径雷达图像目标检测方法,涉及目标检测技术领域,采用无锚框目标检测算法YOLOX作为基本框架,从轻量级的角度重构了特征提取骨干网络,将MobilenetV2中的深度可分离卷积替换成1个普通卷积和一个深度可分离卷积。特征图经过普通卷积通道数降为原来的一半,深度可分离卷积进一步提取普通卷积输入的特征,最后两者相拼接。此外通过设置注意增强CSEMPAN模块,采用整合通道和空间注意机制来突出SAR目标独特的强散射特性。并针对SAR目标的多尺度和强稀疏特性,设计不同扩张率的卷积增强接受域,使用ESPHead提高模型从不同尺度目标中提取重要信息的能力,进一步提高检测性能。

Description

一种合成孔径雷达图像目标检测方法
技术领域
本发明涉及目标检测技术领域,特别涉及一种合成孔径雷达图像目标检测方法。
背景技术
合成孔径雷达(SAR)是一种有源微波成像传感器。SAR具有全天候特性,在恶劣环境下能保持较高的观测能力。随着SAR成像技术的成熟,SAR在军事侦察、地形测绘、环境和自然灾害监测中得到了广泛的应用。用SAR目标检测的目的是定位图像中目标的位置和目标类别。SAR目标检测的军事应用包括军事侦察、区域监视、精确打击、损害评估和核***探测。SAR目标检测的民用领域包括农业规划、林业监测、水利调查、城市管理、环境保护、地质矿产勘探、生态环境和自然灾害预测。
传统的SAR目标检测主要是基于人工设计特征的方法和CFAR,CFAR技术是一种给检测策略设定检测阀值,并且使得杂波和干扰对***的恒虚警概率影响最小化的信号处理方法。基于人工设计特征的方法依赖手动设计的特性,随着目标特性的变化,检测性能急剧下降,泛化性能较差。基于CFAR的方法严重依赖于杂乱的统计数据。随着SAR图像分辨率越大,背景越来越复杂,目标的分布参数可能会估计不正确,从而导致检测性能严重下降。
近年来,随着深度学习的发展,基于卷积神经网络的方法通过卷积层的连续堆叠,从大量数据中自动学习目标的一般特征,避免了人工设计,提高了算法的泛化性能。因此,许多研究者基于深度学习开发很多SAR图像检测算法。
但发明人发现,目前的基于深度学习的SAR目标检测任务仍存在以下问题:
(1)目前大多数基于深度学习的SAR目标检测直接将光学图像场中成熟的目标检测网络迁移到SAR目标检测任务,而没有具体考虑SAR图像的特点设计检测方法。
(2)在追求更高的检测精度时,大多数SAR目标检测研究忽略了模型的高体量,导致许多模型参数量太大且实时推理速度慢。因此,很难将SAR目标探测模型部署到边缘设备上进行实际应用,从而极大地限制了该模型的研究价值。
(3)由于SAR图像的成像角度大、分辨率高、目标尺度可变,基于锚框的SAR目标检测算法对锚框的尺寸和长宽比非常敏感。调整超参数需要相当大的时间和精力,并且由于人工参数调整经验对模型性能影响较大,导致模型性能不稳定。此外,基于锚框的检测算法需要生成许多候选锚,从而大大增加了模型的计算量。基于锚框的算法使用目标轮廓和纹理信息作为目标检测的学习指南。然而,由于SAR目标本身表现出极强的散射和稀疏性,在大多数情况下,目标的边缘轮廓信息都不够明显。导致使用基于锚框方法进行目标特征学习,很难获得良好的结果。
基于此现有的问题,本申请提供了一种合成孔径雷达图像目标检测方法,本方法基于无锚框目标检测算法YOLOX,重构特征提取骨干网络,通过降低模型的计算复杂度,有效地提取和保留SAR目标的多尺度显著特征信息,并通过注意增强模块CSEMPAN整合通道和空间注意机制突出SAR目标独特的强散射特性,提高检测性能。
发明内容
本发明的目的在于提供一种合成孔径雷达图像目标检测方法,基于无锚框目标检测算法YOLOX,重构特征提取骨干网络,通过降低模型的计算复杂度,有效地提取和保留SAR目标的多尺度显著特征信息,并通过注意增强模块CSEMPAN整合通道和空间注意机制突出SAR目标独特的强散射特性,提高检测性能。
本发明提供了一种合成孔径雷达图像目标检测方法,包括以下步骤:
利用特征提取骨干网络对合成孔径雷达图像进行特征提取;
将特征提取结果输入金字塔注意力网络CSEMPAN;
金字塔注意力网络CSEMPAN利用不同尺度的特征进行参数聚合,提取合成孔径雷达图像中目标物体的多尺度信息;
目标检测头ESPHead通过不同膨胀率对目标物体的多尺度信息进行不同感受野的进行空间层级化信息提取。
进一步地,还包括:
采用轻量化网络mobilenetV2S作为特征提取的基本网络;
基于特征提取的基本网络,采用无锚框目标检测算法YOLOX,构建特征提取骨干网络。
进一步地,所述基于特征提取的基本网络,采用无锚框目标检测算法YOLOX,构建特征提取骨干网络的步骤,包括:
将轻量化网络MobilenetV2中的深度可分离卷积替换为一个普通卷积和一个深度可分离卷积;
普通卷积将特征图的通道数降为原通道数的一半,深度可分离卷积用于提取普通卷积输出的特征图的特征;
获得特征提取骨干网络。
进一步地,所述金字塔注意力网络CSEMPAN利用不同尺度的特征进行参数聚合,提取合成孔径雷达图像中目标物体的多尺度信息的步骤,包括:
选取SE模块作为金字塔注意力网络CSEMPAN中的通道注意力模块;
特征提取结果经过通道注意力模块,对输入特征图不同通道进行差异化加权;
提取合成孔径雷达图像中目标物体的多尺度信息。
进一步地,所述特征提取结果经过通道注意力模块,对输入特征图不同通道进行差异化加权的步骤,包括:
将特征提取结果中的特征图映射为1*1*c的大小,其中c为通道数;
使用两个卷积核大小为1*1卷积层学习各个通道的权重系数;
将各个通道的权重系数乘以原始特征;
并且采用1*1的卷积层对乘以原始特征的各个通道的权重系数进行卷积。
进一步地,所述提取合成孔径雷达图像中目标物体的多尺度信息的步骤,包括:
通过分组卷积将输入的特征提取结果分为g组;
分组后的每组通过全球平均池Global Average Pooling将特征图映射为1*1大小,并和每组特征图做点积运算;
点积运算结果沿着channel维度对特征进行求和,获得大小和原特征图一样通道数为1的空间注意力掩膜;
空间注意力掩膜通过sigmoid操作将空间上的每个像素的权值映射到0~1之间并且和原特征图相乘;
通过concat操作将g组特征重新拼接为原始特征图的大小;
采用一个卷积核大小为3*3的卷积对拼接结果进行提取特征;
使用卷积核大小相同,空洞率分别为1,2,4,8,16的卷积改变卷积的receptionfield,获得目标的多尺度空间信息。
进一步地,还包括:
利用Decoupled head预测合成孔径雷达图像中目标物体的类别信息和位置回归信息。
与现有技术相比,本发明具有如下显著优点:
本发明提供了一种合成孔径雷达图像目标检测方法,采用无锚框目标检测算法YOLOX作为基本框架,从轻量级的角度重构了特征提取骨干网络,将MobilenetV2中的深度可分离卷积替换成1个普通卷积和一个深度可分离卷积。特征图经过普通卷积通道数降为原来的一半,深度可分离卷积进一步提取普通卷积输入的特征,最后两者相拼接。通过设置注意增强CSEMPAN模块,采用整合通道和空间注意机制来突出SAR目标独特的强散射特性。并针对SAR目标的多尺度和强稀疏特性,设计不同扩张率的卷积增强接受域,使用ESPHead提高模型从不同尺度目标中提取重要信息的能力,进一步提高检测性能。本申请根据合成孔径雷达图像目标的特点进行优化设计,采用无锚框体系结构更好地满足了SAR目标的独特特性,避免了与锚框相关的一系列超参数设置和体系结构设计,从而大大减少了计算量;通过降低模型的计算复杂度,尽可能有效地提取和保留SAR目标的多尺度显著特征信息。
附图说明
图1为本发明实施例提供的一种合成孔径雷达图像目标检测方法的检测流程图;
图2为本发明实施例提供的一种合成孔径雷达图像目标检测方法的整体框架图;
图3为本发明实施例提供的mobilenetV2S轻量化网络结构图;
图4为本发明实施例提供的CSEM模块图;
图5为本发明实施例提供的通道注意力模块图;
图6为本发明实施例提供的SPPCSP模块图;
图7为本发明实施例提供的空间注意力模块图;
图8为本发明实施例提供的ESPHead目标检测头模块图。
具体实施方式
下面结合本发明中的附图,对本发明实施例的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应属于本发明保护的范围。
针对SAR图像具有独特的样本少、散射强、稀疏性、多尺度、干扰和背景复杂、目标边缘轮廓信息不明显等特点。目前多数SAR图像目标检测方法大多数是基于锚框的算法,为了克服基于锚框算法在训练过程中超参数设置对训练造成不稳定的性能影响,本发明基于yolox提出了一种无锚框的SAR图像目标检测方法,即AFSar。首先,对于SAR目标的少数样本和多尺度特征,为了降低模型的计算复杂度,提高多尺度特征提取的能力,我们重新设计了轻量级骨干,即MobileNetV2S。此外,我们提出了一种注意增强CSEMPAN模块,称为CSEMPAN,它通过整合通道和空间注意机制来突出SAR目标独特的强散射特性。最后,针对SAR目标的多尺度和强稀疏特性,我们提出了一种新的目标检测头,即ESPHead,设计不同扩张率的卷积增强接受域,提高模型从不同尺度目标中提取重要信息的能力,进一步提高检测性能。
由于目前基于锚框的SAR目标检测算法难以解决由于SAR图像目标的多尺度、强散射和稀疏性特征所引起的问题,本发明提出了一种无锚框的SAR目标检测算法。引入最新的无锚框目标检测算法YOLOX作为基本框架,然后根据SAR目标的特点进行了一系列的优化设计。无锚框体系结构的引入更好地满足了SAR目标的独特特性,避免了与锚框相关的一系列超参数设置和体系结构设计,从而大大减少了计算量。
为了适应SAR目标的多尺度和少样本特征,满足实际需求,进一步降低复杂性,提高实时推理速度,本发明从轻量级的角度重构了特征提取骨干网络。首先引入了MobileNetV2作为特征提取的基本网络;此外,我们将MobilenetV2中的深度可分离卷积替换成1个普通卷积和一个深度可分离卷积。特征图经过普通卷积通道数降为原来的一半,深度可分离卷积进一步提取普通卷积输入的特征,最后两者相拼接。我们的目标是通过降低模型的计算复杂度,尽可能有效地提取和保留SAR目标的多尺度显著特征信息。
针对SAR目标的强散射特性,为了突出SAR目标的显著和强散射特性信息,本发明提出了注意力增强CSEMPAN模块,称为CSEMPAN。该模块通过信道和空间注意的融合,进一步增强了特征聚合和提取能力,从而突出了SAR目标特征,抑制了背景信息,提高了分类和定位精度。
针对SAR目标的多尺度和强稀疏特征,提取不同尺度SAR稀疏目标的显著信息,本发明提出了一种新的目标检测头,即ESPHead。ESPHead通过不同空洞率的空洞卷积模块,获得不同尺度卷积感受野,提取目标空间的层次化特征信息,通过add操作对特征进行合并,提高网络定位不同尺度目标的能力。
现有的YOLOX的backbone大多采用大规模的网络架构,如DarkNet53,CSPNet等,此类backbone通常具有较高的检测精度,但是由于模型体量较大,其推理速度较慢。
参照图1-图8,本发明提供了一种合成孔径雷达图像目标检测方法,包括以下步骤:
步骤S1:采用轻量化网络mobilenetV2S作为特征提取的基本网络backbone,如图2所示;
步骤S2:如图3所示,基于特征提取的基本网络,采用无锚框目标检测算法YOLOX,构建特征提取骨干网络,引入最新的无锚框目标检测框架-yolox作为基础架构,yolox作为最近提出的一种anchor-free检测算法避免了anchor参数的设置和大量基于anchor的计算;具体包括:
步骤S201:将轻量化网络MobilenetV2中的深度可分离卷积替换为一个普通卷积和一个深度可分离卷积;
步骤S202:普通卷积将特征图的通道数降为原通道数的一半,深度可分离卷积用于提取普通卷积输出的特征图的特征;
步骤S203:将两个卷积的卷积结果相拼接,获得特征提取骨干网络,相比只用一组深度可分离卷积更能获取数据的语义信息,进一步提升了模型的建模能力增加了分类和定位准确性。
步骤S3:利用特征提取骨干网络对合成孔径雷达图像进行特征提取;
步骤S4:将特征提取结果输入金字塔注意力网络CSEMPAN,注意力增强CSEMPAN利用不同尺度的特征进行参数聚合,更好的提取SAR图像中物体的多尺度信息;
步骤S5:金字塔注意力网络CSEMPAN利用不同尺度的特征进行参数聚合,提取合成孔径雷达图像中目标物体的多尺度信息;具体包括:
步骤S501:选取SE模块作为金字塔注意力网络CSEMPAN中的通道注意力模块;
步骤S502:特征提取结果经过通道注意力模块,对输入特征图不同通道进行差异化加权;具体包括:
步骤S5021:将特征提取结果中的特征图映射为1*1*c的大小,其中c为通道数;
步骤S5022:使用两个卷积核大小为1*1卷积层学习各个通道的权重系数;
步骤S5023:将各个通道的权重系数乘以原始特征;
步骤S5024:并且采用1*1的卷积层对乘以原始特征的各个通道的权重系数进行卷积。
步骤S503:提取合成孔径雷达图像中目标物体的多尺度信息,具体包括:
步骤S5031:通过分组卷积将输入的特征提取结果分为g组;
步骤S5032:分组后的每组通过全球平均池Global Average Pooling将特征图映射为1*1大小,并和每组特征图做点积运算;
步骤S5033:点积运算结果沿着channel维度对特征进行求和,获得大小和原特征图一样通道数为1的空间注意力掩膜;
步骤S5034:空间注意力掩膜通过sigmoid操作将空间上的每个像素的权值映射到0~1之间并且和原特征图相乘;
步骤S5035:通过concat操作将g组特征重新拼接为原始特征图的大小;
步骤S5036:采用一个卷积核大小为3*3的卷积对拼接结果进行提取特征;
步骤S5037:使用卷积核大小相同,空洞率分别为1,2,4,8,16的卷积改变卷积的reception field,获得目标的多尺度空间信息。
考虑CNN的机理特性,卷积层堆叠的越多特征图的感受野就越大,特征图中包含的语义信息就越多,空间信息则较少。目标的分类主要依赖CNN获得的语义信息,目标的定位则依赖特征图的感受野,浅层特征图的感受野较小适合小目标的定位,深层特征图的感受野较大适合大目标的定位。CSEMPAN操作为了平衡分类,小目标和大目标的定位准确性采用自顶向下和自下向上的多尺度特征聚合策略以融合浅层和深层特征图信息。由于SAR图像成像的散射特性,目标和背景区分度不高,传统的CSEMPAN没有考虑提取目标的显著信息,导致背景被检测成目标的概率较高。为了解决这个问题,本发明设计了一种注意力增强模块CSEM以抑制背景信息,突出目标的显著性信息。
如图4所示,CSEM模块可分为3个部分:通道注意力,SPPCSP和空间注意力。CSEM的工作原理可总结为如下:
Px+1=Conv(Cx+1) (1)
Cx_s=Concat(CA(Cx),Upsample(Px+1)) (2)
Cx_f=SPPCSP(SPPCSP(Cx_s)) (3)
Px=SA(Cx_f) (4)
其中,CA代表通道注意力,SA代表空间注意力。
经骨干网络提取的特征Cx首先经过通道注意力,对输入特征图不同通道进行差异化加权以突出通道的不同重要程度。考虑SAR图像数据集的大小,为了防止过拟合我们选择最常用并且参数最少的SE模块作为通道注意力加强特征提取,如图5所示,SE模块主要分为3个步骤Squeeze,Excitation和Scale。输入特征经过Squeeze操作将特征图映射为1*1*c大小(c为通道数),然后Excitation操作使用两个卷积核大小为1*1卷积层学习各个通道的权重系数,最后Scale将学习到的各个通道的权值(0~1之间)乘以原始特征,在SE的基础上添加了原始特征和经过SE注意力之后相加并且最后用1*1的卷积层再次卷积的操作,通道注意力模块的工作原理可总结为如下:
sc=Fex(z,W)=σ(B(W2B(δ(W1z)))) (6)
特征Cx的下层特征Cx+1的分辨率比Cx小一倍,两者相concat之前需要对Cx+1的特征进行2倍的上采样操作,经过上采样后特征Cx和Cx+1相concat,concat后的特征再经过两次SPPCSP的提取。如图6所示,SPPCSP比普通的CSP模块多了一个SPP模块,即3个卷积核大小为{5,9,13}的maxpool操作。SAR图像中存在不同尺寸的目标,引入SPP模块,通过3不同卷积核maxpool可以提取大小不同目标的空间特征信息,以适应多尺度的目标信息。
特征的空间信息直接决定着目标的定位是否准确,为了抑制背景信息并显著性的提取目标信息,在SPPCSP操作之后加入空间注意力模块以突出目标的空间信息。如图7所示,空间注意力模块通过分组卷积首先将输入特征分成g组,设定g为8,分组后每组通过Global Average Pooling将特征图映射为1*1大小并和每组特征图做点积运算,点积运算之后沿着channel维度对特征进行求和操作获得大小和原特征图一样通道数为1的空间注意力掩膜,空间注意力掩膜通过sigmoid操作将空间上的每个像素的权值映射到0~1之间并且和原特征图相乘以此突出目标的显著性特征,最后通过concat操作将g组特征重新拼接到原始特征图的大小。空间注意力的工作原理可总结为如下:
x1,x2......xg=split(x) (8)
ci=sum(ni·xi) (10)
x=concat(ci·xi)i=1,2....g (11)
其中,split为分组卷积,FGAP代表全局平均池化,sum为沿着channel方向求和操作,concat代表拼接。
步骤S6:目标检测头ESPHead通过不同膨胀率dilation rate对目标物体的多尺度信息进行不同感受野的进行空间层级化信息提取;
为了获得不同尺度目标的信息,在特征进入head前加入了一个ESP模块,如图8所示,特征输入到ESP模块先用一个卷积核大小为3*3的卷积进一步提取特征,随后使用卷积核大小相同(3*3)但是空洞率分别为1,2,4,8,16的卷积改变卷积的reception field获得目标的多尺度空间信息。由于通道数不一定是5的倍数,将通道数除以5取整并得到通道数为C"的特征作为空洞率为1的卷积输出,剩余特征被平等分成4份通过空洞率为2,4,8,16的卷积输出。特征经过空洞卷积输出后空洞率为1和2的输出特征先相加,其次和空洞率为4的卷积输出特征再相加,以此类推相加。最后通过concat操作进行特征融合。这种多尺度和多层特征融合策略更符合SAR图像空间特征的提取。
步骤S7:利用加入ESP模块的Decoupled head预测合成孔径雷达图像中目标物体的类别信息和位置回归信息。
步骤S8:后处理采用simOTA算法匹配正负样本计算loss,特征提取下采样操作确定目标真值框GT在特征图上的中心点,simOTA将中心3*3区域都认为是正样本,即每个gt有1个正样本扩展到9个正样本,然后simOTA计算正样本与GT的Iou并且计算损失以确定每个gt的dynamic_k,为每个gt取损失排名最小的前dynamic_k个anchor作为正样本,其余为负样本计算loss以监督模型训练。
损失函数用来表现预测与实际数据的差距程度,一个合适的损失函数对优化模型的训练至关重要,我们的训练损失函数由3部分组成:
L=λ1Lcls2Lobj3Lbbox (12)
其中λ1,λ2,λ3为权重系数(设定λ1=1,λ2=2,λ3=5),Lcls,Lobj,Lbbox分别代表分类损失,目标损失,回归损失。
目标损失和类别损失采用交叉熵损失函数:
L(pi,pi *)=-[pilog(pi *)+(1-pi)log(1-pi *)] (13)
其中,pi代表真实值,pi *代表预测值。
回归损失使用IOU损失函数,IOU损失表示预测框和真实框之间交并比的差值,反映预测检测框的检测效果,定义如下:
L=1-IOU (14)
其中IOU代表预测框和真实框之间交并比。
本发明提出的新的无锚框SAR图像目标检测方法,以取得更类人的智能化水平。此模型可以在极低的Flops下取得了SOTA性能。
以上公开的仅为本发明的几个具体实施例,但是,本发明实施例并非局限于此,任何本领域的技术人员能思之的变化都应落入本发明的保护范围。

Claims (2)

1.一种合成孔径雷达图像目标检测方法,其特征在于,包括以下步骤:
采用轻量化网络mobilenetV2S作为特征提取的基本网络;
基于特征提取的基本网络,采用无锚框目标检测算法YOLOX,构建特征提取骨干网络;所述基于特征提取的基本网络,采用无锚框目标检测算法YOLOX,构建特征提取骨干网络的步骤,包括:
将轻量化网络MobilenetV2中的深度可分离卷积替换为一个普通卷积和一个深度可分离卷积;
普通卷积将特征图的通道数降为原通道数的一半,深度可分离卷积用于提取普通卷积输出的特征图的特征;
获得特征提取骨干网络;
利用特征提取骨干网络对合成孔径雷达图像进行特征提取;
将特征提取结果输入金字塔注意力网络CSEMPAN;
金字塔注意力网络CSEMPAN利用不同尺度的特征进行参数聚合,提取合成孔径雷达图像中目标物体的多尺度信息;所述金字塔注意力网络CSEMPAN利用不同尺度的特征进行参数聚合,提取合成孔径雷达图像中目标物体的多尺度信息的步骤,包括:
选取SE模块作为金字塔注意力网络CSEMPAN中的通道注意力模块;
特征提取结果经过通道注意力模块,对输入特征图不同通道进行差异化加权;所述特征提取结果经过通道注意力模块,对输入特征图不同通道进行差异化加权的步骤,包括:
将特征提取结果中的特征图映射为1*1*c的大小,其中c为通道数;
使用两个卷积核大小为1*1卷积层学习各个通道的权重系数;
将各个通道的权重系数乘以原始特征;
并且采用1*1的卷积层对乘以原始特征的各个通道的权重系数进行卷积;
提取合成孔径雷达图像中目标物体的多尺度信息;所述提取合成孔径雷达图像中目标物体的多尺度信息的步骤,包括:
通过分组卷积将输入的特征提取结果分为g组;
分组后的每组通过全局平均池化GlobalAveragePooling将特征图映射为1*1大小,并和每组特征图做点积运算;
点积运算结果沿着channel维度对特征进行求和,获得大小和原特征图一样通道数为1的空间注意力掩膜;
空间注意力掩膜通过sigmoid操作将空间上的每个像素的权值映射到0~1之间并且和原特征图相乘;
通过concat操作将g组特征重新拼接为原始特征图的大小;
采用一个卷积核大小为3*3的卷积对拼接结果进行提取特征;
使用卷积核大小相同,空洞率分别为1,2,4,8,16的卷积改变卷积的reception field,获得目标的多尺度空间信息;
目标检测头ESPHead通过不同膨胀率对目标物体的多尺度信息进行不同感受野的空间层级化信息提。
2.如权利要求1所述的一种合成孔径雷达图像目标检测方法,其特征在于,还包括:
利用Decoupled head预测合成孔径雷达图像中目标物体的类别信息和位置回归信息。
CN202111455414.XA 2021-12-01 2021-12-01 一种合成孔径雷达图像目标检测方法 Active CN114119582B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111455414.XA CN114119582B (zh) 2021-12-01 2021-12-01 一种合成孔径雷达图像目标检测方法
US17/668,483 US20230169623A1 (en) 2021-12-01 2022-02-10 Synthetic aperture radar (sar) image target detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111455414.XA CN114119582B (zh) 2021-12-01 2021-12-01 一种合成孔径雷达图像目标检测方法

Publications (2)

Publication Number Publication Date
CN114119582A CN114119582A (zh) 2022-03-01
CN114119582B true CN114119582B (zh) 2024-04-26

Family

ID=80369407

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111455414.XA Active CN114119582B (zh) 2021-12-01 2021-12-01 一种合成孔径雷达图像目标检测方法

Country Status (2)

Country Link
US (1) US20230169623A1 (zh)
CN (1) CN114119582B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114863426B (zh) * 2022-05-05 2022-12-13 北京科技大学 一种目标特征注意力与金字塔相耦合的微小目标检测方法
CN115035299B (zh) * 2022-06-20 2023-06-13 河南大学 一种基于深度学习的改进型城市街景图像分割方法
WO2024028872A1 (en) * 2022-08-01 2024-02-08 Utilis Israel Ltd. System and method of predicting mineral concentration
CN115272250B (zh) * 2022-08-01 2024-06-04 深圳技术大学 确定病灶位置方法、装置、计算机设备和存储介质
CN116310837B (zh) * 2023-04-11 2024-04-23 安徽大学 一种sar舰船目标旋转检测方法及***
CN116189115A (zh) * 2023-04-24 2023-05-30 青岛创新奇智科技集团股份有限公司 车型识别方法、电子设备和可读存储介质
CN116403092B (zh) * 2023-06-02 2023-08-18 北京建工环境修复股份有限公司 一种基于图像学习的地下水napl污染程度判定方法及***
CN116403115B (zh) * 2023-06-07 2023-08-22 江西啄木蜂科技有限公司 一种大幅面遥感影像目标检测方法
CN116894959B (zh) * 2023-07-25 2024-03-26 中山大学 基于混合尺度和聚焦网络的红外小目标检测方法及装置
CN117173618B (zh) * 2023-09-06 2024-04-30 哈尔滨工业大学 基于多特征感知的Faster R-CNN的探地雷达空洞目标识别方法
CN117036365A (zh) * 2023-10-10 2023-11-10 南京邮电大学 一种基于深度注意力网络的第三磨牙牙根数目识别方法
CN117079195B (zh) * 2023-10-13 2024-02-23 中国科学技术大学 一种基于图像视频的野生动物识别方法和***
CN117115723B (zh) * 2023-10-23 2024-01-23 四川泓宝润业工程技术有限公司 一种消防设施计数方法、装置、存储介质及电子设备
CN117218606B (zh) * 2023-11-09 2024-02-02 四川泓宝润业工程技术有限公司 一种逃生门检测方法、装置、存储介质及电子设备
CN117496358B (zh) * 2023-12-29 2024-03-22 中国石油大学(华东) 基于激光雷达数据进行特征增强的神经网络构建方法
CN117853738B (zh) * 2024-03-06 2024-05-10 贵州健易测科技有限公司 一种用于对茶叶分级的图像处理方法及设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084210A (zh) * 2019-04-30 2019-08-02 电子科技大学 基于注意力金字塔网络的sar图像多尺度舰船检测方法
CN111179217A (zh) * 2019-12-04 2020-05-19 天津大学 一种基于注意力机制的遥感图像多尺度目标检测方法
CN111666836A (zh) * 2020-05-22 2020-09-15 北京工业大学 M-f-y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法
CN112215199A (zh) * 2020-10-28 2021-01-12 中国人民解放军战略支援部队航天工程大学 基于多感受野与密集特征聚合网络的sar图像舰船检测方法
CN112308019A (zh) * 2020-11-19 2021-02-02 中国人民解放军国防科技大学 基于网络剪枝和知识蒸馏的sar舰船目标检测方法
AU2020104006A4 (en) * 2020-12-10 2021-02-18 Naval Aviation University Radar target recognition method based on feature pyramid lightweight convolutional neural network
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN113567984A (zh) * 2021-07-30 2021-10-29 长沙理工大学 一种sar图像中人造小目标的检测方法及***
CN113657181A (zh) * 2021-07-23 2021-11-16 西北工业大学 一种基于平滑标签编码与特征增强的sar图像旋转目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472627B (zh) * 2019-07-02 2022-11-08 五邑大学 一种端到端的sar图像识别方法、装置及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084210A (zh) * 2019-04-30 2019-08-02 电子科技大学 基于注意力金字塔网络的sar图像多尺度舰船检测方法
CN111179217A (zh) * 2019-12-04 2020-05-19 天津大学 一种基于注意力机制的遥感图像多尺度目标检测方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN111666836A (zh) * 2020-05-22 2020-09-15 北京工业大学 M-f-y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法
CN112215199A (zh) * 2020-10-28 2021-01-12 中国人民解放军战略支援部队航天工程大学 基于多感受野与密集特征聚合网络的sar图像舰船检测方法
CN112308019A (zh) * 2020-11-19 2021-02-02 中国人民解放军国防科技大学 基于网络剪枝和知识蒸馏的sar舰船目标检测方法
AU2020104006A4 (en) * 2020-12-10 2021-02-18 Naval Aviation University Radar target recognition method based on feature pyramid lightweight convolutional neural network
CN113657181A (zh) * 2021-07-23 2021-11-16 西北工业大学 一种基于平滑标签编码与特征增强的sar图像旋转目标检测方法
CN113567984A (zh) * 2021-07-30 2021-10-29 长沙理工大学 一种sar图像中人造小目标的检测方法及***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Lightweight Channel Attention and Multiscale Feature Fusion Discrimination for Remote Sensing Scene Classification;HUIYAO WAN 等;《IEEE Access》;第9卷;全文 *
等离子体鞘层覆盖目标的SAR 成像研究;许飞 等;《2021年全国微波毫米波会议论文集(下册)》;全文 *

Also Published As

Publication number Publication date
US20230169623A1 (en) 2023-06-01
CN114119582A (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
CN114119582B (zh) 一种合成孔径雷达图像目标检测方法
CN112308019B (zh) 基于网络剪枝和知识蒸馏的sar舰船目标检测方法
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
Chen et al. A deep neural network based on an attention mechanism for SAR ship detection in multiscale and complex scenarios
CN112699847B (zh) 基于深度学习的人脸特征点检测方法
CN110188705B (zh) 一种适用于车载***的远距离交通标志检测识别方法
CN114565860B (zh) 一种多维度增强学习合成孔径雷达图像目标检测方法
CN112766087A (zh) 一种基于知识蒸馏的光学遥感图像舰船检测方法
CN109785344A (zh) 基于特征重标定的双通路残差网络的遥感图像分割方法
CN113643284B (zh) 基于卷积神经网络的极化合成孔径雷达图像舰船检测方法
Wan et al. AFSar: An anchor-free SAR target detection algorithm based on multiscale enhancement representation learning
CN112884742A (zh) 一种基于多算法融合的多目标实时检测、识别及跟踪方法
Zhang et al. Nearshore vessel detection based on Scene-mask R-CNN in remote sensing image
Xie et al. High-efficiency and low-energy ship recognition strategy based on spiking neural network in SAR images
Zhang et al. MSIF: Multisize inference fusion-based false alarm elimination for ship detection in large-scale SAR images
Li et al. LF-CNN: Deep Learning-Guided Small Sample Target Detection for Remote Sensing Classification.
Gui et al. A scale transfer convolution network for small ship detection in SAR images
CN115223017B (zh) 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法
Shen et al. HAMNet: hyperspectral image classification based on hybrid neural network with attention mechanism and multi-scale feature fusion
Li et al. A new algorithm of vehicle license plate location based on convolutional neural network
CN113989672B (zh) 一种基于平衡学习的sar图像船只检测方法
Chen et al. SAR ship detection under complex background based on attention mechanism
Jie et al. Target detection in sonar image based on faster RCNN
CN113902971A (zh) 基于多尺度融合轻量化深度学习卷积网络的目标检测方法
Yan et al. Optical remote sensing image waters extraction technology based on deep learning context-unet

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant