CN104392456A - 基于深度自编码器和区域图的sar图像分割方法 - Google Patents

基于深度自编码器和区域图的sar图像分割方法 Download PDF

Info

Publication number
CN104392456A
CN104392456A CN201410751944.2A CN201410751944A CN104392456A CN 104392456 A CN104392456 A CN 104392456A CN 201410751944 A CN201410751944 A CN 201410751944A CN 104392456 A CN104392456 A CN 104392456A
Authority
CN
China
Prior art keywords
layer
coding
depth
aggregation zone
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410751944.2A
Other languages
English (en)
Other versions
CN104392456B (zh
Inventor
刘芳
石西建
李玲玲
焦李成
郝红侠
石俊飞
杨淑媛
段一平
张向荣
尚荣华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201410751944.2A priority Critical patent/CN104392456B/zh
Publication of CN104392456A publication Critical patent/CN104392456A/zh
Application granted granted Critical
Publication of CN104392456B publication Critical patent/CN104392456B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20152Watershed segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于深度自编码器和区域图的SAR图像分割方法,主要解决现有技术分割不够准确、不够细致的问题。其实现步骤是:1.根据初始素描模型得到SAR图像素描图,补全素描线段得到区域图,将区域图映射到原图得到聚集、匀质和结构区域;2.分别对聚集和匀质区域用不同深度自编码器训练,得到对应所有点的表示,级联编码层最后两层作为该点特征;3.分别对聚集和匀质区域构建字典,各点特征投影至相应字典并汇聚出各子区域的区域特征;4.分别对两类区域的子区域特征聚类;5.对结构区域在素描线段指导下使用超像素合并进行分割;6.合并各区域分割结果完成SAR图像分割。本发明具有分割准确、细致的优点,可用于目标识别。

Description

基于深度自编码器和区域图的SAR图像分割方法
技术领域
本发明属于图像处理技领域,特别涉及深度学习方法中的深度自编码器和SAR图像的区域图进行SAR图像分割的方法,可用于进一步对SAR图像的识别与分类。
背景技术
合成孔径雷达SAR就是利用雷达与目标的相对运动把尺寸较小的真实天线孔径用数据处理的方法合成一较大的等效天线孔径的雷达,其具有全天候全天时稳定的高分辨率成像的特点;而SAR图像则是通过雷达孔径合成的方式形成较大的雷达天线所成的图像,其特点导致其成为普遍应用于军事、农业、导航、地理等诸多领域非常有价值的图像。图像分割是按照其灰度、纹理、结构、聚集性等其他特征把图像分为具有独特性质互相连接且不相交的若干区域的技术和过程,是进一步对图像进行识别与分类的关键环节。SAR图像分割作为图像分割中的一个重要应用领域显得尤为重要。
传统的用于SAR图像分割方法中,有Kmeans、FCM、谱聚类等聚类算法,由于SAR图像本身独特的成像机理及其复制性,其所成图像中含有大量的相干斑噪声,导致其可分性极差,传统聚类算法的分割结果不够理想;还有一些半监督特征提取后进行的分割方法,分割结果优于前面所述的聚类分割算法,但它需要人机交互进行标签数据指导数据的划分,而SAR图源比较稀缺且覆盖范围广,所以标记过的数据很少,而标记新的代价又很高。受斑点噪声的影响,现有的SAR图像分割方法很难抑制其影响,很难获得理想的结果,无法满足SAR图像普遍应用的要求。为减少人工参与的程度,无监督特征学习方法成了特征提取方式的主流,用于SAR图像分割中的特征提取方式,使用无监督特征学习也成了发展必然。SAR图像分割中特征的选取很关键,既是无监督提取方式又能获得较好的特征很困难。
深度学习作为无监督特征学习方法中的新兴技术,在各领域的成功应用使其受到了强烈关注。深度学习能够学习数据本身固有特征,不仅可以无监督方式进行特征学习,而且学到的特征优于其他绝大部分是以假定其分布为基础提取的特征,在SAR图像分割领域引入深度学习方法理论上可以获得更好的SAR图像分割结果。然而在实际应用中,首先会因无法获取较为理想的训练数据而陷入困境,其次对学习到的特征很难应用到区域中进行分割表示,因此,如何有效结合深度学习方法应用到SAR图像分割中并获得非常理想的效果是个很困难的问题,而且本身基于这种技术的研究非常少。
发明内容
本发明的目的在于克服上述已有技术与方法的不足,提出了一种基于深度学习中深度自编码器和区域图的SAR图像分割方法,以提升SAR图像分割的效果。
实现本发明的技术方案是:根据初始素描模型得到SAR图像素描图,补全素描图中的素描线段得到区域图,将区域图映射到原图得到聚集、匀质和结构区域;分别对聚集和匀质区域使用不同的深度自编码器训练;用训练好的深度自编码器得到对应所有点的表示,级联编码层最后两层的表示作为该点的特征;根据词袋模型,分别对聚集和匀质区域构建字典,将各点特征投影至相应字典得到相应子区域特征;分别对两类区域的子区域特征聚类;将结构区域分割成超像素在素描线段指导下合并,并与匀质区域合并;将各区域的分割结果进行合并,完成SAR图像分割。具体步骤包括如下:
(1)根据初始素描模型得到SAR图像素描图,补全素描图中素描线段得到区域图,将区域图映射到原图得到聚集区域a、匀质区域b和结构区域c;
(2)根据聚集区域a和匀质区域b各自特性,分别对聚集区域a和匀质区域b构建两个不同的深度自编码器Sa和Sb;
(3)依照区域图中聚集区域a和匀质区域b的位置,分别在聚集区域a和匀质区域b上取样并训练相应的深度自编码器Sa和Sb;
(4)使用训练好的两个深度自编码器Sa和Sb,得到对应区域类型中的区域所有点各自的多层编码层表示,并级联每个点的最后两层编码层表示作为该点的特征;
(5)根据词袋模型,分别由聚集区域a和匀质区域b的所有点的特征构建聚集区域a和匀质区域b的字典,各点特征投影至相应字典并汇聚出各个子区域的区域特征;
(6)分别对聚集区域a和匀质区域b的所有子区域特征进行聚类,得到聚集区域a和匀质区域b的分割结果;
(7)将结构区域c使用分水岭算法分割成许多超像素,并在素描图中的素描线指导下对超像素进行一次合并,得到线目标和边界,再对其他超像素进行二次合并,并把二次合并后的超像素与匀质区域b的子区域进行三次合并,三次合并后剩余的超像素为独立目标,完成对结构区域c的分割;
(8)将聚集区域a、匀质区域b和结构区域c的分割结果进行合并,得到最终的SAR图像分割结果。
本发明与现有技术相比具有如下优点:
1.本发明充分结合区域图,可以有效提取聚集区域,而且在聚集区域和匀质区域均使用深度自编码器学习特征,可以提取数据更为本质的特征,进而获得更加准确的分割结果。
2.本发明使用深度自编码器学到的特征结合词袋模型进行投影得到区域特征,并使用层次聚类方法进行聚类,可以获得较好的区域一致性。
3.本发明对结构区域结合素描线段信息使用超像素合并的方法,不仅可以提取线目标区域,而且可以获得较好的边缘一致性。
实验表明,本发明将深度自编码器应用到SAR图像分割中,并结合区域图、词袋模型及超像素合并获得了分割较为准确、区域一致性及边缘一致性较好的分割结果。
附图说明
图1是本发明的实现总流程图;
图2是本发明中对SAR图像聚集区域和匀质区域进行分割的子流程图;
图3是本发明中用于仿真实验的SAR图像原图;
图4是本发明中基于素描模型提取的素描图;
图5是本发明中由素描图得到的区域图;
图6是本发明中使用的两个深度自编码器的结构图;
图7是本发明中对SAR图像聚集区域分割的结果图;
图8是本发明中对SAR图像匀质区域分割的结果图;
图9是本发明中对SAR图像结构区域使用超像素合并的结果图;
图10是用本发明对SAR图像分割的最终结果图。
具体实施方式
以下结合实施例附图对本发明做进一步描述。
参照图1-2,本发明详细的实施步骤如下:
步骤1,获取SAR图像的区域图。
(1.1)输入一幅如图3所示的SAR图像,根据初始素描模型得到该SAR图像的素描图,如图4所示,该初始素描模型是源于计算机视觉理论,是一种使用视觉基元对图像进行抽象表示的模型,可用于提取图像的素描图;
(1.2)使用射线法对素描图中的素描线段进行补全得到区域图,如图5所示,该射线法是对素描图中所有素描线段分别发射射线进而寻找区域边界的方法,可用于区域图提取;
(1.3)将区域图映射到原图得到聚集区域a、匀质区域b和结构区域c。
步骤2,根据聚集区域a和匀质区域b各自特性,分别构建两个不同的深度自编码器Sa和Sb,如图6所示。
(2.1)设定聚集区域a的深度自编码器Sa训练时的输入窗口大小为21*21,对应输入层节点数为441;
(2.2)设定匀质区域b的深度自编码器Sb训练时的输入窗口大小为15*15,对应输入层节点数为225;
(2.3)设定所述深度自编码器Sa和深度自编码器Sb中编码层的隐层数均为6,对应解码层的隐层数也均为6;
(2.4)设定深度自编码器Sa的编码层各隐层抽象窗口大小分别为25*25、19*19、15*15、13*13、9*9、5*5,其分别对应各层节点数为:625、361、225、169、81、25;
(2.5)设定深度自编码器Sb的编码层各隐层抽象窗口大小分别为19*19、13*13、11*11、9*9、7*7、5*5,其分别对应各层节点数为:361、169、121、81、49、25;
(2.6)对于深度自编码器Sa的解码层部分,用编码层最后一层与解码层第一层作为解码层与编码层的公共层,用编码层倒数第二层节点数作为解码层第二层节点数,用编码层倒数第三层节点数作为解码层第三层节点数,依次类推,得到解码层的各层节点数分别为25、81、169、225、361、625;
(2.7)对于深度自编码器Sb的解码层部分,用编码层最后一层与解码层第一层作为解码层与编码层的公共层,用编码层倒数第二层节点数作为解码层第二层节点数,用编码层倒数第三层节点数作为解码层第三层节点数,依次类推,得到解码层的各层节点数分别为25、49、81、121、169、361。
步骤3,依照区域图中聚集区域a和匀质区域b的位置,分别在聚集区域a和匀质区域b上取样并训练相应的深度自编码器Sa和Sb。
(3.1)在聚集区域a中使用21*21的窗口,以每隔4个点划窗取样;
(3.2)在匀质区域b中使用15*15的窗口,以每隔6个点划窗取样;
(3.3)将取到的聚集区域a中的样本输入到深度自编码器Sa的输入层,将取到的匀质区域b中的样本输入到深度自编码器Sb的输入层,再由两个深度自编码器均采用如下过程生成其各层之间的初始权值:
(3.3a)由输入层与编码层的第一层构成一个限制玻尔兹曼机RBM网络,使用基于对比散度的RBM快速学习算法得到该RBM网络的权值,作为输入层与编码层的第一层之间的初始权值;
(3.3b)用编码层的第一层与编码层的第二层构成一个新的RBM网络,使用基于对比散度的RBM快速学习算法得到该RBM网络的权值,作为这两层之间的初始权值,依次向上生成新的RBM网络,最终得到所有编码层每两层之间的初始权值;
(3.3c)用编码层最后一层与倒数第二层之间初始权值的转置作为解码层的第一层与第二层之间的初始权值,用编码层倒数第二层与倒数第三层之间初始权值的转置作为解码层的第二层与第三层之间的初始权值,依次类推,得到所有解码层每两层之间的初始权值;
(3.4)将生成初始权值后的这两个深度自编码器,均采用BP算法迭代调整其各自网络的权值。
步骤4,使用训练好的两个深度自编码器Sa和Sb,得到对应区域类型中的区域所有点各自的多层编码层表示,并级联每个点的最后两层编码层表示作为该点的特征。
(4.1)对聚集区域a中的所有点,结合各点周围上下左右各10个点,组成该点对应的21*21窗口大小的样本;
(4.2)对匀质区域b中的所有点,结合各点周围上下左右各7个点,组成该点对应的15*15窗口大小的样本;
(4.3)将得到的聚集区域a中的各点对应的样本输入到深度自编码器Sa的输入层,根据训练好的深度自编码器Sa的各层之间的权值,得到该点对应样本的多层编码层表示,将这些表示中的最后两层编码层表示级联,得到一个106维的向量作为该点特征;
(4.4)将得到的匀质区域b中的各点对应的样本输入到深度自编码器Sb的输入层,根据训练好的深度自编码器Sb的各层之间的权值,得到该点对应样本的多层编码层表示,将这些表示中的最后两层编码层表示级联,得到一个74维的向量作为该点特征。
步骤5,根据词袋模型,分别由聚集区域a和匀质区域b的所有点的特征构建聚集区域a和匀质区域b的字典,并由相应字典得到聚集区域a和匀质区域b的各子区域特征。
所述的词袋模型,包括提取特征、构造视觉字典、向视觉字典投影量化图像特征并利用词频表示图像等过程。
本步骤根据该词袋模型,具体过程如下:
(5.1)对聚集区域a中的各个子区域,选取其中距离特征均值最近的20个特征作为字典原子,所有子区域选取的字典原子共同构成聚集区域a的字典;
(5.2)对匀质区域b中的各个子区域,选取其中距离特征均值最近的10个特征作为字典原子,所有子区域选取的字典原子共同构成匀质区域b的字典;
(5.3)将聚集区域a中的所有点的特征使用局部约束线性编码向聚集区域a的字典进行投影,得到聚集区域a中所有点的稀疏编码;
(5.4)将匀质区域b中的所有点的特征使用局部约束线性编码向聚集区域a的字典进行投影,得到匀质区域b中所有点的稀疏编码;
(5.5)分别对聚集区域a和匀质区域b中的各个子区域,将子区域内所有点的稀疏编码汇聚成编码矩阵,取编码矩阵中每一维的最高分量得到的向量作为该子区域的区域特征。
步骤6,分别对聚集区域a和匀质区域b的所有子区域特征进行聚类。
(6.1)对聚集区域a的所有子区域特征使用层次聚类方法进行聚类,得到聚集区域a的分割结果,如图7所示;
(6.2)对匀质区域b的所有子区域特征使用层次聚类方法进行聚类,得到匀质区域b的分割结果,如图8所示。
步骤7,对结构区域c进行分割。
(7.1)使用分水岭算法将该SAR图像进行过分割,得到该图像的许多超像素:
(7.1a)计算出图像的梯度,得到图像的梯度图;
(7.1b)对图像的梯度图使用分水岭变换,得到图像的标注;
(7.1c)根据图像的标注将图像的结构区域c分割成许多超像素;
(7.2)在素描图中的素描线指导下对超像素进行一次合并:
(7.2a)在素描图的素描线中,将平行且距离小于7个像素的两条素描线确定为一类线目标素描线,将一类线目标素描线之间的超像素进行合并作为一类线目标;
(7.2b)在一般素描线中,对两边属于同一类子区域的素描线确定为二类线目标素描线,将二类线目标素描线两边各扩一个像素作为二类线目标,其他素描线作为刻画边界的素描线;
(7.3)对其他超像素进行二次合并,是对除了线目标和边界以外的各个超像素中,将其相邻且灰度均值之差小于25的超像素进行合并,并迭代合并至不存在相邻且灰度均值之差小于25的两个超像素为止,结果如图9所示;
(7.4)对二次合并后的各个超像素进行三次合并,将各个超像素分别合并到与该超像素的灰度均值的差最小且小于25的匀质区域b的子区域中,剩余超像素为独立目标。
步骤8,将聚集区域a、匀质区域b和结构区域c的分割结果进行合并,得到最终的SAR图像分割结果,如图10所示。
从图10可见,使用本发明的方法将原SAR图像分割为了10类,得到的分割结果较为准确、细致、区域一致性和边缘一致性较好。
以上描述仅是本发明的一个具体实例,并不构成对本发明的任何限制。显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (9)

1.一种基于深度自编码器和区域图的SAR图像分割方法,包括如下步骤:
(1)根据初始素描模型得到SAR图像素描图,补全素描图中素描线段得到区域图,将区域图映射到原图得到聚集区域a、匀质区域b和结构区域c;
(2)根据聚集区域a和匀质区域b各自特性,分别对聚集区域a和匀质区域b构建两个不同的深度自编码器Sa和Sb;
(3)依照区域图中聚集区域a和匀质区域b的位置,分别在聚集区域a和匀质区域b上取样并训练相应的深度自编码器Sa和Sb;
(4)使用训练好的两个深度自编码器Sa和Sb,得到对应区域类型中的区域所有点各自的多层编码层表示,并级联每个点的最后两层编码层表示作为该点的特征;
(5)根据词袋模型,分别由聚集区域a和匀质区域b的所有点的特征构建聚集区域a和匀质区域b的字典,各点特征投影至相应字典并汇聚出各个子区域的区域特征;
(6)分别对聚集区域a和匀质区域b的所有子区域特征进行聚类,得到聚集区域a和匀质区域b的分割结果;
(7)将结构区域c使用分水岭算法分割成许多超像素,并在素描图中的素描线指导下对超像素进行一次合并,得到线目标和边界,再对其他超像素进行二次合并,并把二次合并后的超像素与匀质区域b的子区域进行三次合并,三次合并后剩余的超像素为独立目标,完成对结构区域c的分割;
(8)将聚集区域a、匀质区域b和结构区域c的分割结果进行合并,得到最终的SAR图像分割结果。
2.根据权利要求1所述的SAR图像分割方法,其中步骤(2)所述的根据聚集区域a和匀质区域b各自特性,分别对聚集区域a和匀质区域b构建两个不同的深度自编码器Sa和Sb,按如下步骤进行:
(2.1)设定聚集区域a的深度自编码器Sa训练时的输入窗口大小为21*21,对应输入层节点数为441;
(2.2)设定匀质区域b的深度自编码器Sb训练时的输入窗口大小为15*15,对应输入层节点数为225;
(2.3)设定深度自编码器Sa和深度自编码器Sb中编码层的隐层数均为6,对应解码层的隐层数也均为6;
(2.4)设定深度自编码器Sa的编码层各隐层抽象窗口大小分别为25*25、19*19、15*15、13*13、9*9、5*5,其分别对应各层节点数为:625、361、225、169、81、25;
(2.5)设定深度自编码器Sb的编码层各隐层抽象窗口大小分别为19*19、13*13、11*11、9*9、7*7、5*5,其分别对应各层节点数为:361、169、121、81、49、25;
(2.6)对于深度自编码器Sa的解码层部分,用编码层最后一层与解码层第一层作为解码层与编码层的公共层,用编码层倒数第二层节点数作为解码层第二层节点数,用编码层倒数第三层节点数作为解码层第三层节点数,依次类推,得到解码层的各层节点数分别为25、81、169、225、361、625;
(2.7)对于深度自编码器Sb的解码层部分,用编码层最后一层与解码层第一层作为解码层与编码层的公共层,用编码层倒数第二层节点数作为解码层第二层节点数,用编码层倒数第三层节点数作为解码层第三层节点数,依次类推,得到解码层的各层节点数分别为25、49、81、121、169、361。
3.根据权利要求1所述的SAR图像分割方法,其中步骤(3)所述的依照区域图中聚集区域a和匀质区域b的位置,分别在聚集区域a和匀质区域b上取样并训练相应的深度自编码器Sa和Sb,按如下步骤进行:
(3.1)在聚集区域a中使用21*21的窗口,以每隔4个点划窗取样;
(3.2)在匀质区域b中使用15*15的窗口,以每隔6个点划窗取样;
(3.3)将取到的聚集区域a中的样本输入到深度自编码器Sa的输入层,将取到的聚集区域b中的样本输入到深度自编码器Sb的输入层,再由两个深度自编码器均采用如下过程生成其各层之间的初始权值:
(3.3a)由输入层与编码层的第一层构成一个限制玻尔兹曼机RBM网络,使用基于对比散度的RBM快速学习算法得到该RBM网络的权值,作为输入层与编码层的第一层之间的初始权值;
(3.3b)用编码层的第一层与编码层的第二层构成一个新的RBM网络,使用基于对比散度的RBM快速学习算法得到该RBM网络的权值,作为这两层之间的初始权值,依次向上生成新的RBM网络,最终得到所有编码层每两层之间的初始权值;
(3.3c)用编码层最后一层与倒数第二层之间初始权值的转置作为解码层的第一层与第二层之间的初始权值,用编码层倒数第二层与倒数第三层之间初始权值的转置作为解码层的第二层与第三层之间的初始权值,依次类推,得到所有解码层每两层之间的初始权值;
(3.4)将生成初始权值后的这两个深度自编码器,均采用BP算法迭代调整其各自网络的权值。
4.根据权利要求1所述的SAR图像分割方法,其中步骤(4)所述的使用训练好的两个深度自编码器Sa和Sb,得到对应区域类型中的区域所有点各自的多层编码层表示,并级联每个点的最后两层编码层表示作为该点的特征,按如下步骤进行:
(4.1)对聚集区域a中的所有点使用21*21的窗口划窗取样,作为该点对应样本;
(4.2)对匀质区域b中的所有点使用15*15的窗口划窗取样,作为该点对应样本;
(4.3)将得到的聚集区域a中的各点对应的样本输入到深度自编码器Sa的输入层,根据训练好的深度自编码器Sa的各层之间的权值,得到该点对应样本的多层编码层表示,将这些表示中的最后两层编码层表示级联,得到一个106维的向量作为该点特征;
(4.4)将得到的匀质区域b中的各点对应的样本输入到深度自编码器Sb的输入层,根据训练好的深度自编码器Sb的各层之间的权值,得到该点对应样本的多层编码层表示,将这些表示中的最后两层编码层表示级联,得到一个74维的向量作为该点特征。
5.根据权利要求1所述的SAR图像分割方法,其中步骤(5)所述的根据词袋模型,分别由聚集区域a和匀质区域b的所有点的特征构建聚集区域a和匀质区域b的字典,各点特征投影至相应字典并汇聚出各个子区域的区域特征,按如下步骤进行:
(5.1)对聚集区域a中的各个子区域,选取其中距离特征均值最近的20个特征作为字典原子,所有子区域选取的字典原子共同构成聚集区域a的字典;
(5.2)对匀质区域b中的各个子区域,选取其中距离特征均值最近的10个特征作为字典原子,所有子区域选取的字典原子共同构成匀质区域b的字典;
(5.3)将聚集区域a中的所有点的特征使用局部约束线性编码向聚集区域a的字典进行投影,得到聚集区域a中所有点的稀疏编码;
(5.4)将匀质区域b中的所有点的特征使用局部约束线性编码向聚集区域a的字典进行投影,得到匀质区域b中所有点的稀疏编码;
(5.5)分别对聚集区域a和匀质区域b中的各个子区域,将子区域内所有点的稀疏编码汇聚成编码矩阵,取编码矩阵中每一维的最高分量得到的向量作为该子区域的区域特征。
6.根据权利要求1所述的SAR图像分割方法,其中步骤(7)所述将结构区域c使用分水岭算法分割成许多超像素,按如下步骤进行:
(6.1)计算出图像的梯度,得到图像的梯度图;
(6.2)对图像的梯度图使用分水岭变换,得到图像的标注;
(6.3)根据图像的标注将图像的结构区域c分割成许多超像素。
7.根据权利要求1所述的SAR图像分割方法,其中步骤(7)所述的在素描图中的素描线指导下对超像素进行一次合并,得到线目标和边界,按如下步骤进行:
(7.1)在素描图的素描线中,将平行且距离小于7个像素的两条素描线确定为一类线目标素描线,将一类线目标素描线之间的超像素进行合并作为一类线目标;
(7.2)在一般素描线中,对两边属于同一类子区域的素描线确定为二类线目标素描线,将二类线目标素描线两边各扩一个像素作为二类线目标,其他素描线作为刻画边界的素描线。
8.根据权利要求1所述的SAR图像分割方法,其中步骤(7)所述对其他超像素进行二次合并,是对除了线目标和边界以外的各个超像素中,将其相邻且灰度均值之差小于25的超像素进行合并,并迭代合并至不存在相邻且灰度均值之差小于25的两个超像素为止。
9.根据权利要求1所述的SAR图像分割方法,其中步骤(7)所述的把二次合并后的超像素与匀质区域b的子区域进行三次合并,是将二次合并后的各个超像素,分别合并到与该超像素的灰度均值的差最小且小于25的匀质区域b的子区域中。
CN201410751944.2A 2014-12-09 2014-12-09 基于深度自编码器和区域图的sar图像分割方法 Active CN104392456B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410751944.2A CN104392456B (zh) 2014-12-09 2014-12-09 基于深度自编码器和区域图的sar图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410751944.2A CN104392456B (zh) 2014-12-09 2014-12-09 基于深度自编码器和区域图的sar图像分割方法

Publications (2)

Publication Number Publication Date
CN104392456A true CN104392456A (zh) 2015-03-04
CN104392456B CN104392456B (zh) 2017-05-17

Family

ID=52610354

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410751944.2A Active CN104392456B (zh) 2014-12-09 2014-12-09 基于深度自编码器和区域图的sar图像分割方法

Country Status (1)

Country Link
CN (1) CN104392456B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469123A (zh) * 2015-12-30 2016-04-06 华东理工大学 一种基于k平面回归的缺失数据补全方法
CN105550705A (zh) * 2015-12-11 2016-05-04 杭州电子科技大学 一种基于改进自训练学习的脑电信号识别方法
CN105608692A (zh) * 2015-12-17 2016-05-25 西安电子科技大学 基于反卷积网络和稀疏分类的极化sar图像分割方法
CN105701516A (zh) * 2016-01-20 2016-06-22 福州大学 一种基于属性判别的自动图像标注方法
CN107341511A (zh) * 2017-07-05 2017-11-10 西安电子科技大学 基于超像素与稀疏自编码器的极化sar图像分类方法
CN108681999A (zh) * 2018-05-22 2018-10-19 浙江理工大学 基于深度卷积神经网络模型的sar图像目标形状生成方法
CN109214235A (zh) * 2017-06-29 2019-01-15 沈阳新松机器人自动化股份有限公司 室外场景分类方法及***
CN109635303A (zh) * 2018-12-19 2019-04-16 中国科学技术大学 特定领域意义改变词的识别方法
CN110517759A (zh) * 2019-08-29 2019-11-29 腾讯科技(深圳)有限公司 一种待标注图像确定的方法、模型训练的方法及装置
CN110807777A (zh) * 2019-10-08 2020-02-18 哈尔滨工程大学 一种基于卷积神经网络的海洋哺乳动物图像分割方法
CN111178196A (zh) * 2019-12-19 2020-05-19 东软集团股份有限公司 一种细胞分类的方法、装置及设备
CN111967526A (zh) * 2020-08-20 2020-11-20 东北大学秦皇岛分校 基于边缘映射和深度学习的遥感图像变化检测方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050238209A1 (en) * 2004-04-21 2005-10-27 Fuji Xerox Co., Ltd. Image recognition apparatus, image extraction apparatus, image extraction method, and program
CN103530689A (zh) * 2013-10-31 2014-01-22 中国科学院自动化研究所 一种基于深度学习的聚类方法
US20140079297A1 (en) * 2012-09-17 2014-03-20 Saied Tadayon Application of Z-Webs and Z-factors to Analytics, Search Engine, Learning, Recognition, Natural Language, and Other Utilities
CN103955936A (zh) * 2014-05-13 2014-07-30 西北工业大学 一种基于堆栈式去噪自编码机的显著性物体检测方法
CN103955702A (zh) * 2014-04-18 2014-07-30 西安电子科技大学 基于深度rbf网络的sar图像地物分类方法
CN104077599A (zh) * 2014-07-04 2014-10-01 西安电子科技大学 基于深度神经网络的极化sar图像分类方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050238209A1 (en) * 2004-04-21 2005-10-27 Fuji Xerox Co., Ltd. Image recognition apparatus, image extraction apparatus, image extraction method, and program
US20140079297A1 (en) * 2012-09-17 2014-03-20 Saied Tadayon Application of Z-Webs and Z-factors to Analytics, Search Engine, Learning, Recognition, Natural Language, and Other Utilities
CN103530689A (zh) * 2013-10-31 2014-01-22 中国科学院自动化研究所 一种基于深度学习的聚类方法
CN103955702A (zh) * 2014-04-18 2014-07-30 西安电子科技大学 基于深度rbf网络的sar图像地物分类方法
CN103955936A (zh) * 2014-05-13 2014-07-30 西北工业大学 一种基于堆栈式去噪自编码机的显著性物体检测方法
CN104077599A (zh) * 2014-07-04 2014-10-01 西安电子科技大学 基于深度神经网络的极化sar图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHOUHAN LIN 等: "Spectral-Spatial Classification of Hyperspectral Image Using Autoencoders", 《2013 9TH INTERNATIONAL CONFERENCE ON INFORMATION,COMMUNICATIONS AND SIGNAL PROCESSING(ICICS)》 *
钱民: "基于机器学习方法的***病理切片图像识别", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550705A (zh) * 2015-12-11 2016-05-04 杭州电子科技大学 一种基于改进自训练学习的脑电信号识别方法
CN105550705B (zh) * 2015-12-11 2018-11-23 杭州电子科技大学 一种基于改进自训练学习的脑电信号识别方法
CN105608692A (zh) * 2015-12-17 2016-05-25 西安电子科技大学 基于反卷积网络和稀疏分类的极化sar图像分割方法
CN105608692B (zh) * 2015-12-17 2018-05-04 西安电子科技大学 基于反卷积网络和稀疏分类的极化sar图像分割方法
CN105469123A (zh) * 2015-12-30 2016-04-06 华东理工大学 一种基于k平面回归的缺失数据补全方法
CN105701516A (zh) * 2016-01-20 2016-06-22 福州大学 一种基于属性判别的自动图像标注方法
CN105701516B (zh) * 2016-01-20 2019-01-22 福州大学 一种基于属性判别的自动图像标注方法
CN109214235A (zh) * 2017-06-29 2019-01-15 沈阳新松机器人自动化股份有限公司 室外场景分类方法及***
CN107341511A (zh) * 2017-07-05 2017-11-10 西安电子科技大学 基于超像素与稀疏自编码器的极化sar图像分类方法
CN108681999B (zh) * 2018-05-22 2022-05-31 浙江理工大学 基于深度卷积神经网络模型的sar图像目标形状生成方法
CN108681999A (zh) * 2018-05-22 2018-10-19 浙江理工大学 基于深度卷积神经网络模型的sar图像目标形状生成方法
CN109635303A (zh) * 2018-12-19 2019-04-16 中国科学技术大学 特定领域意义改变词的识别方法
WO2021036695A1 (zh) * 2019-08-29 2021-03-04 腾讯科技(深圳)有限公司 一种待标注图像确定的方法、模型训练的方法及装置
CN110517759A (zh) * 2019-08-29 2019-11-29 腾讯科技(深圳)有限公司 一种待标注图像确定的方法、模型训练的方法及装置
CN110807777A (zh) * 2019-10-08 2020-02-18 哈尔滨工程大学 一种基于卷积神经网络的海洋哺乳动物图像分割方法
CN110807777B (zh) * 2019-10-08 2023-02-14 哈尔滨工程大学 一种基于卷积神经网络的海洋哺乳动物图像分割方法
CN111178196A (zh) * 2019-12-19 2020-05-19 东软集团股份有限公司 一种细胞分类的方法、装置及设备
CN111178196B (zh) * 2019-12-19 2024-01-23 东软集团股份有限公司 一种细胞分类的方法、装置及设备
CN111967526A (zh) * 2020-08-20 2020-11-20 东北大学秦皇岛分校 基于边缘映射和深度学习的遥感图像变化检测方法及***
CN111967526B (zh) * 2020-08-20 2023-09-22 东北大学秦皇岛分校 基于边缘映射和深度学习的遥感图像变化检测方法及***

Also Published As

Publication number Publication date
CN104392456B (zh) 2017-05-17

Similar Documents

Publication Publication Date Title
CN104392456A (zh) 基于深度自编码器和区域图的sar图像分割方法
Shi et al. Road detection from remote sensing images by generative adversarial networks
CN110443842B (zh) 基于视角融合的深度图预测方法
Yang et al. Building extraction at scale using convolutional neural network: Mapping of the united states
JP6395158B2 (ja) シーンの取得画像を意味的にラベル付けする方法
Zhang et al. Boundary-constrained multi-scale segmentation method for remote sensing images
CN108596055B (zh) 一种复杂背景下高分辨遥感图像的机场目标检测方法
Zhong et al. An adaptive subpixel mapping method based on MAP model and class determination strategy for hyperspectral remote sensing imagery
CN108734711A (zh) 对图像进行语义分割的方法
CN110598564B (zh) 基于OpenStreetMap的高空间分辨率遥感影像迁移学习分类方法
Singh et al. Semantic segmentation of satellite images using deep-unet
Veeravasarapu et al. Adversarially tuned scene generation
Attarzadeh et al. Object-based rule sets and its transferability for building extraction from high resolution satellite imagery
CN116797787B (zh) 基于跨模态融合与图神经网络的遥感影像语义分割方法
CN114820655A (zh) 可靠区域作为注意力机制监督的弱监督建筑物分割方法
Li et al. 3DCentripetalNet: Building height retrieval from monocular remote sensing imagery
CN104408731A (zh) 基于区域图和统计相似性编码的sar图像分割方法
Gao et al. Road extraction from remote sensing images by multiple feature pyramid network
Wu et al. Improved mask R-CNN-based cloud masking method for remote sensing images
CN110852176A (zh) 一种基于Mask-RCNN的高分三号SAR图像道路检测方法
JP2016099980A (ja) 画像セグメンテーション方法、装置、及びプログラム
Ouzounis et al. Interactive collection of training samples from the max-tree structure
Hou et al. BFFNet: A bidirectional feature fusion network for semantic segmentation of remote sensing objects
Gupta et al. A robust and efficient image de-fencing approach using conditional generative adversarial networks
Chen et al. Hyperspectral remote sensing IQA via learning multiple kernels from mid-level features

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant