CN113256645A - 一种基于改进密度聚类的彩色图像分割方法 - Google Patents

一种基于改进密度聚类的彩色图像分割方法 Download PDF

Info

Publication number
CN113256645A
CN113256645A CN202110388649.5A CN202110388649A CN113256645A CN 113256645 A CN113256645 A CN 113256645A CN 202110388649 A CN202110388649 A CN 202110388649A CN 113256645 A CN113256645 A CN 113256645A
Authority
CN
China
Prior art keywords
image
dimensional
matrix
color
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110388649.5A
Other languages
English (en)
Other versions
CN113256645B (zh
Inventor
张淼
陈爱军
卢男凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Jiliang University
Original Assignee
China Jiliang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Jiliang University filed Critical China Jiliang University
Priority to CN202110388649.5A priority Critical patent/CN113256645B/zh
Publication of CN113256645A publication Critical patent/CN113256645A/zh
Application granted granted Critical
Publication of CN113256645B publication Critical patent/CN113256645B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进密度聚类的彩色图像分割方法,基本过程包括图像颜色空间映射为三维矩阵、密度聚类和聚类结果映射为分割图像三个步骤。首先,将原始图像的颜色信息转换为三维矩阵。然后,三维矩阵经过一次三维卷积运算得到核心对象矩阵,根据核心对象矩阵进行聚类簇生成,最后将得到的聚类簇映射为分割图像。该方法的核心思想在于三维卷积优化的密度聚类方法,实现了密度聚类的线性时间复杂度O(m),其中m为获取的核心对象个数。本发明提出了一种通用的彩色图像分割方法,尤其适用于大尺寸图像分割,该方法在时间和空间复杂度上具有较大优势。

Description

一种基于改进密度聚类的彩色图像分割方法
技术领域
本发明涉及一种图像处理领域中通用的彩色图像分割方法,尤其涉及一种机器学习领域中基于三维卷积运算优化的改进密度聚类方法。
背景技术
在图像处理领域中,图像分割是图像分析之前对图像进行预处理的关键步骤之一,通过图像分割可以提取图像中感兴趣区域,消除无关紧要的背景部分,以便于后续对感兴趣区域的进一步处理分析,因此图像分割效果对图像分析处理结果有着直接影响。
图像分割方法根据输入图像类型可以大致分为灰度图像分割方法和彩色图像分割方法两大类,而彩色图像相较于灰度图像包含的信息更加丰富,因此彩色图像分割方法对于图像中区域的提取和划分具有更加优越的效果,与此同时算法的复杂性和实现难度也同等增加。目前主流的彩色图像分割方法大部分来自于灰度图像分割方法在各种颜色空间的扩展,如直方图阈值法、基于区域的方法等,也有部分结合现今的前沿技术实现,典型方法如深度学习领域的神经网络方法、遗传算法,机器学习领域中的聚类方法等。
本发明提出的彩色图像分割方法正是基于典型的密度聚类算法DBSCAN(Density-Based Spatial Clustering of Applications with Noise)实现的。DBSCAN算法无需指定分类的类别数,能够发现数据中的噪声点,并且可以发现任意形状的聚类簇,这些优点使得DBSCAN算法很适合应用在图像处理领域,但是朴素DBSCAN算法时间复杂度为O(n2),空间复杂度为O(n),其中n为样本点个数,如果使用距离索引的方法实现,那么空间复杂度会达到O(n2),时间复杂度会有所降低,而一幅图像中像素点个数通常在百万级别以上,在时间要求上朴素DBSCAN算法远远无法满足。为了解决该问题,相关学者基于R*树将DBSCAN算法时间复杂度优化到O(n·logn),而这应用在图像分割中时间复杂度仍旧无法满足要求。国内研究方面,汪鹏等人将PB-DBSCAN(Pixel-Based DBSCAN)方法应用在GPS数据去噪上,实现了DBSCAN方法的线性时间复杂度O(n),然而该方法在图像分割中并不适用,也无法实现线性复杂度。
因此,本发明针对图像颜色空间的特点提出了一种基于改进密度聚类的彩色图像分割方法,该方法实现了密度聚类方法的线性复杂度O(m),其中m为获取的核心对象个数,优于O(n),其中n为样本点个数。
发明内容
本发明针对图像颜色空间的特点提出了一种基于三维卷积优化的密度聚类方法,并应用在图像处理领域,实现了彩色图像的快速分割。
为达到上述目的,本发明采用如下技术方案:
具体按照下述步骤实施:
步骤1:读取原始彩色图像,将图像的颜色信息映射为三维矩阵H;
步骤2:根据输入图像的颜色特点构建三维卷积核K;
步骤3:对获取的三维矩阵H和构建的三维卷积核K进行三维卷积运算,得到卷积结果C;
步骤4:卷积结果C经过线性整流单元运算后得到核心对象矩阵O,遍历核心对象矩阵O构建核心对象字典D;
步骤5:在核心对象字典D中按序选择一个核心对象作为种子,以该种子为起点迭代生成聚类簇,重复该过程直至字典D中所有核心对象都被访问,完成所有聚类簇的生成;
步骤6:根据原始图像中像素点的位置信息,将生成的聚类簇映射为分割图像。
步骤1中所述的图像颜色空间映射为三维矩阵的方法是:将彩色图像的三个通道与三维矩阵的三个维度一一对应,则图像中像素点的颜色值对应于三维矩阵中的一个位置,该位置的值表示图像中该颜色出现的次数;根据上述规则,遍历图像每个像素点,像素点颜色值对应的矩阵位置值加1,最终得到二维彩色图像映射成的三维颜色矩阵
Figure BDA0003015609790000031
其中m1,m2,m3表示图像颜色空间的尺寸。
步骤2中所述的三维卷积核的构建方法是:三维卷积核被定义为一个r1×r2×r3的三维矩阵
Figure BDA0003015609790000032
卷积核中每个元素的值均为1,卷积核定义了同属一类样本点的邻域范围;在使用时,根据图像颜色空间的特点设计合适的卷积核形状可以达到最佳聚类效果。
步骤3中所述的三维矩阵的快速卷积方法是:三维卷积过程分解为一次一维卷积过程和多次二维卷积过程,同时二维卷积过程被分解为两个方向的一维卷积过程,所有的一维卷积运算基于动态规划思想实现,相较于朴素卷积方法,所述的快速卷积方法时间复杂度降低为O(m1×m2×m3),最终得到卷积结果
Figure BDA0003015609790000041
步骤4中所述的核心对象的获取方法是:卷积结果
Figure BDA0003015609790000042
经过线性整流单元后可以得到核心对象矩阵
Figure BDA0003015609790000043
按序遍历该三维矩阵,若矩阵元素的值不为-1,其位置坐标即为核心对象,遍历结束可以生成核心对象的字典D,字典D中的核心对象具有有序性。
步骤5中所述的聚类簇的生成方法是:创建核心对象队列Q,将核心对象字典D中第一个未访问元素加入队列Q,队列中的队首元素出队,在核心对象矩阵
Figure BDA0003015609790000044
找到该核心对象,在其邻域范围内搜索其他核心对象加入队列Q,标记该核心对象已访问,并且邻域范围内的所有样本点加入该聚类簇,迭代上述过程直至队列Q为空,实现一个聚类簇的生成;重复上述过程直至核心对象字典D中的所有核心对象都被访问,完成聚类过程。
步骤6中所述的聚类结果映射为分割图像的方法是:图像分割结果与各聚类簇对应,为了将聚类簇转化成分割图像,新建空白灰度图像,提取任一聚类簇,遍历原始图像中所有像素点,如果该像素点的颜色值在聚类簇中,则空白图像对应位置灰度值置为0,否则为255,遍历结束可以得到该聚类簇对应的二值化分割图像。
本发明的有益效果是:本发明所公开的一种基于改进密度聚类的彩色图像分割方法,将原始图像的颜色空间映射为一个三维矩阵,通过三维卷积计算出三维矩阵中的核心对象,卷积过程基于动态规划思想优化,极大减少了卷积运算的时间复杂度,对于颜色空间(m1,m2,m3)计算核心对象所需时间为O(m1·m2·m3)。然后对核心对象进行聚类,该部分时间复杂度取决于卷积核尺寸(r1,r2,r3)和核心对象个数m,为
Figure BDA0003015609790000051
最终改进密度聚类算法的时间复杂度为
Figure BDA0003015609790000052
在图像的颜色空间和卷积核尺寸确定的情况下,m1·m2·m3和r1·r2·r3为常数,本方法时间复杂度为O(m)。最后再根据聚类结果对原始图像进行分割。综上,该方法适用于通用彩色图像的分割,尤其在大尺寸彩色图像的分割上具有较大时间优势。
附图说明
图1是本发明的彩色图像分割整体流程图。
图2是本发明的待分割彩色原始图像。
图3是本发明的核心对象获取流程图。
图4是本发明的三维卷积核示意图。
图5是本发明的三维矩阵分层卷积示意图。
图6是本发明的一维卷积运算示意图。
图7是本发明的二维卷积运算步骤分解图。
图8是本发明的线性整流函数曲线图。
图9是本发明的聚类簇生成流程图。
图10是本发明的原始图像分割结果。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明,实施例对RGB图像进行分割。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
实施例,请参照图1至图9:图1示意性地给出了本发明所公开基于改进密度聚类的彩色图像分割方法整体流程;图2示意性给出了本发明的待分割彩色原始图像;图3示意性给出了本发明的核心对象获取流程图;图4示意性给出了本发明的三维卷积核示意图;图5示意性给出了本发明的三维矩阵分层卷积示意图;图6示意性给出了本发明的一维卷积运算示意图;图7示意性给出了本发明的二维卷积运算步骤分解图;图8示意性的给出了本发明的线性整流函数曲线图;图9示意性给出了本发明的聚类簇生成流程图;图10示意性给出了本发明的原始图像分割结果。
依据图1所示流程,对输入彩色图像依据以下步骤进行分割:
(1)为了说明本发明提出的彩色图像分割方法流程,不失一般性的,选择如图2所示的胶囊彩色图像作为示例,图像尺寸为1741×1057,记为Io。首先,根据RGB颜色空间构建对应的三维矩阵H256×256×256,遍历图像中的每个像素点,若第i个像素的颜色值为(ri,gi,bi),则矩阵运算如式(1)所示:
Figure BDA0003015609790000061
其中,
Figure BDA0003015609790000062
表示三维矩阵H第(ri,gi,bi)位置的值,其初始值为0。
(2)对三维矩阵H256×256×256进行密度聚类,主要可以分为两个大步骤——获取核心对象和生成聚类簇。获取核心对象的过程通过三维卷积运算实现,其基本思路如图3所示。
对于实施例,首先构建如图4所示的三维卷积核K7×7×6,卷积核的定义与DBSCAN算法中的ε-邻域概念对应,卷积核尺寸对应ε参数,不同之处在于通过设计合适的卷积核形状可以优化聚类效果,若减小卷积核某一个维度的尺寸,则聚类时在对应维度可以获得更加细分的效果。
(3)三维矩阵的分层卷积方法如图5所示,三维矩阵H256×256×256的三个方向X、Y、Z,在Z方向将三维矩阵分解成多个二维矩阵,第z层二维矩阵记为
Figure BDA0003015609790000076
对每个二维矩阵进行二维卷积运算,最终所有二维卷积运算的结果合并为三维矩阵T256×256×256,然后在T256×256×256的Z方向再进行一次一维卷积运算,即可得到三维卷积结果C256×256×256,公式表示为(3)、(4):
Figure BDA0003015609790000071
Figure BDA0003015609790000072
其中,
Figure BDA0003015609790000073
表示第z层二维矩阵
Figure BDA0003015609790000074
的卷积结果,
Figure BDA0003015609790000075
表示三维矩阵H第x,y位置对应的一列卷积结果,K7×7表示三维卷积核K7×7×6在XY方向的二维卷积核,K6表示三维卷积核K7×7×6在Z方向的一维卷积核。
同样,二维卷积过程被分解为一维卷积运算实现,而一维卷积运算基于动态规划思想实现,一维卷积时第i位置的卷积范围与第i-1位置卷积范围有重叠部分,如图6所示,据此根据第i-1位置卷积结果可以计算出第i位置的卷积结果。二维卷积分解步骤如图7所示,首先对二维矩阵
Figure BDA0003015609790000081
在y方向进行一维卷积,其状态转移方程如式(5)所示:
Figure BDA0003015609790000082
式中,矩阵A表示矩阵
Figure BDA0003015609790000083
在y方向的一维卷积值,Ry表示卷积核K在y方向的半径。
同样,对y方向卷积结果A在x方向再次进行一维卷积,其状态转移方程与公式(5)类似,如式(6)所示:
Figure BDA0003015609790000084
式中,矩阵T表示矩阵
Figure BDA0003015609790000085
二维卷积结果,Rx表示卷积核K在x方向的半径。
矩阵H256×256×256和卷积核K7×7×6进行三维卷积运算后得到卷积结果为矩阵C256×256×256,矩阵中各元素的值表示该位置对应邻域范围内的像素点个数。
(4)将卷积结果C256×256×256通过一个线性整流单元ReLu计算得出核心对象矩阵O256×256×256,线性整流函数定义如式(7)所示,其曲线如图8所示,其中阈值参数MinPts的值需要事先设定,该参数用于筛选出核心对象,即在矩阵C256×256×256中大于等于MinPts的元素值为核心对象,实施例中MinPts=2500。
Figure BDA0003015609790000091
按序遍历核心对象矩阵O256×256×256,矩阵元素值不为0的为核心对象,加入字典,字典的键为矩阵坐标(i,j,k),对应的值赋为0,表示该核心对象未访问,遍历结束得到字典D。由于按序遍历矩阵,因此字典D具有有序性,键(i,j,k)对应的键值对D(i,j,k)用大小关系表示其在字典D中的出现次序,如式(8)所示,该特性有助于优化生成聚类簇的时间复杂度。
D(i,j,k)>D(i+r,j,k)>D(i,j+r,k)>D(i,j,k+r),r∈N+ (8)
(5)聚类簇生成流程如图9所示,初始化聚类簇标签tag=0,取字典D中的一个未访问核心对象d加入队列Q,队列Q用于遍历所有属于同一类的核心对象,将队列Q中的队首元素q出队,q的实际值是一个三维坐标(qi,qj,qk),在核心对象矩阵O256×256×256中q对应的ε-邻域范围记为Nε(q),将矩阵O256×256×256邻域Nε(q)范围中所有元素值赋为tag,并将未访问核心对象加入队列Q,重复上述过程直至队列Q为空,此时一个聚类簇生成结束,将tag加1,在字典D中寻找下一个未访问核心对象,重复上述过程直至字典D中所有核心对象均被访问,完成所有聚类簇的生成,核心对象矩阵O256×256×256经过上述计算成为聚类结果矩阵,记为ω256×256×256,矩阵中未被访问到的元素为默认值-1,即为噪声点。
根据字典D中核心对象的有序性,若当前核心对象为(qi,qj,qk),则范围Nv={(x,y,z)|x≤qi,y≤qj,z≤qk}内的所有核心对象必然已经访问过,可以排除在邻域的搜索范围外,平均减小搜索范围约1/8,由此邻域内搜索范围的集合S表示为式(9)所示:
S(p)=Nε(p)-Nv(p) (9)
(6)为了将聚类结果映射为分割图像,根据聚类簇个数新建空白图像数组Mat,其中Mati表示第i个聚类簇对应的分割图像,遍历原始图像Io中的每一个像素点p,p在图像中的位置为(r,c),颜色值为(p1,p2,p3),进行如式(10)操作:
Figure BDA0003015609790000101
其中,ω表示聚类结果矩阵,label表示聚类簇标签。
最终,对实施例的图像分割结果如图10所示。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。

Claims (7)

1.一种基于改进密度聚类的彩色图像分割方法,其特征在于:具体按照下述步骤实施:
步骤1:读取原始彩色图像,将图像的颜色信息映射为三维矩阵H;
步骤2:根据输入图像的颜色特点构建三维卷积核K;
步骤3:对获取的三维矩阵H和构建的三维卷积核K进行三维卷积运算,得到卷积结果C;
步骤4:卷积结果C经过线性整流单元运算后得到核心对象矩阵O,遍历核心对象矩阵O构建核心对象字典D;
步骤5:在核心对象字典D中按序选择一个核心对象作为种子,以该种子为起点迭代生成聚类簇,重复该过程直至字典D中所有核心对象都被访问,完成所有聚类簇的生成;
步骤6:根据原始图像中像素点的位置信息,将生成的聚类簇映射为分割图像。
2.根据权利要求1所述的基于改进密度聚类的彩色图像分割方法,其特征在于:所述步骤1中,将彩色图像的三个通道与三维矩阵的三个维度一一对应,则图像中像素点的颜色值对应于三维矩阵中的一个位置,该位置的值表示图像中该颜色出现的次数;根据上述规则,遍历图像每个像素点,像素点颜色值对应的矩阵位置值加1,最终得到二维彩色图像映射成的三维颜色矩阵
Figure FDA0003015609780000011
其中m1,m2,m3表示图像颜色空间的尺寸。
3.根据权利要求1所述的基于改进密度聚类的彩色图像分割方法,其特征在于:所述的步骤2中,三维卷积核被定义为一个r1×r2×r3的三维矩阵
Figure FDA0003015609780000021
卷积核中每个元素的值均为1,卷积核定义了同属一类样本点的邻域范围;在使用时,根据图像颜色空间的特点设计合适的卷积核形状可以达到最佳聚类效果。
4.根据权利要求1所述的基于改进密度聚类的彩色图像分割方法,其特征在于:所述的步骤3中,三维卷积过程分解为一次一维卷积过程和多次二维卷积过程,同时二维卷积过程被分解为两个方向的一维卷积过程,所有的一维卷积运算基于动态规划思想实现,相较于朴素卷积方法,所述的快速卷积方法时间复杂度降低为O(m1×m2×m3),得到卷积结果
Figure FDA0003015609780000022
5.根据权利要求1所述的基于改进密度聚类的彩色图像分割方法,其特征在于:所述的步骤4中,卷积结果
Figure FDA0003015609780000023
经过线性整流单元运算后得到核心对象矩阵
Figure FDA0003015609780000024
按序遍历该三维矩阵,若矩阵元素的值不为-1,其位置坐标即为核心对象,遍历结束可以生成核心对象的字典D,字典D中的核心对象具有有序性。
6.根据权利要求1所述的基于改进密度聚类的彩色图像分割方法,其特征在于:所述的步骤5中,创建核心对象队列Q,将核心对象字典D中第一个未访问元素加入队列Q,队列中的队首元素出队,在核心对象矩阵
Figure FDA0003015609780000025
找到该核心对象,在其邻域范围内搜索其他核心对象加入队列Q,标记该核心对象已访问,并且邻域范围内的所有样本点加入该聚类簇,迭代上述过程直至队列Q为空,实现一个聚类簇的生成;重复上述过程直至核心对象字典D中的所有核心对象都被访问,完成聚类过程。
7.根据权利要求1所述的基于改进密度聚类的彩色图像分割方法,其特征在于:所述的步骤6中,图像分割结果与各聚类簇对应,为了将聚类簇转化成分割图像,新建空白灰度图像,提取任一聚类簇,遍历原始图像中所有像素点,如果该像素点的颜色值在聚类簇中,则空白图像对应位置灰度值置为0,否则为255,遍历结束可以得到该聚类簇对应的二值化分割图像。
CN202110388649.5A 2021-04-12 2021-04-12 一种基于改进密度聚类的彩色图像分割方法 Active CN113256645B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110388649.5A CN113256645B (zh) 2021-04-12 2021-04-12 一种基于改进密度聚类的彩色图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110388649.5A CN113256645B (zh) 2021-04-12 2021-04-12 一种基于改进密度聚类的彩色图像分割方法

Publications (2)

Publication Number Publication Date
CN113256645A true CN113256645A (zh) 2021-08-13
CN113256645B CN113256645B (zh) 2023-07-28

Family

ID=77220736

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110388649.5A Active CN113256645B (zh) 2021-04-12 2021-04-12 一种基于改进密度聚类的彩色图像分割方法

Country Status (1)

Country Link
CN (1) CN113256645B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102622753A (zh) * 2012-02-28 2012-08-01 西安电子科技大学 基于密度可达测度的半监督谱聚类sar图像分割方法
CN105184772A (zh) * 2015-08-12 2015-12-23 陕西师范大学 一种基于超像素的自适应彩色图像分割方法
CN106447676A (zh) * 2016-10-12 2017-02-22 浙江工业大学 一种基于快速密度聚类算法的图像分割方法
CN106503743A (zh) * 2016-10-31 2017-03-15 天津大学 一种数量多且维数高的图像局部特征点自适应聚类方法
CN109961440A (zh) * 2019-03-11 2019-07-02 重庆邮电大学 一种基于深度图的三维激光雷达点云目标分割方法
CN110796667A (zh) * 2019-10-22 2020-02-14 辽宁工程技术大学 基于改进小波聚类的彩色图像分割方法
CN110910390A (zh) * 2019-11-11 2020-03-24 大连理工大学 一种基于深度畸变卷积的全景三维彩色点云语义分割方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102622753A (zh) * 2012-02-28 2012-08-01 西安电子科技大学 基于密度可达测度的半监督谱聚类sar图像分割方法
CN105184772A (zh) * 2015-08-12 2015-12-23 陕西师范大学 一种基于超像素的自适应彩色图像分割方法
CN106447676A (zh) * 2016-10-12 2017-02-22 浙江工业大学 一种基于快速密度聚类算法的图像分割方法
CN106503743A (zh) * 2016-10-31 2017-03-15 天津大学 一种数量多且维数高的图像局部特征点自适应聚类方法
CN109961440A (zh) * 2019-03-11 2019-07-02 重庆邮电大学 一种基于深度图的三维激光雷达点云目标分割方法
CN110796667A (zh) * 2019-10-22 2020-02-14 辽宁工程技术大学 基于改进小波聚类的彩色图像分割方法
CN110910390A (zh) * 2019-11-11 2020-03-24 大连理工大学 一种基于深度畸变卷积的全景三维彩色点云语义分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PYTHON图像识别: "三维卷积详解", <HTTPS://BLOG.CSDN.NET/QQ_28949847/ARTICLE/DETAILS/107046266> *
Z. LU等: "Bolt 3D Point Cloud Segmentation and Measurement Based on DBSCAN Clustering", 《2021 CHINA AUTOMATION CONGRESS (CAC)》, pages 420 - 425 *

Also Published As

Publication number Publication date
CN113256645B (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
CN106777318B (zh) 基于协同训练的矩阵分解跨模态哈希检索方法
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
US11816188B2 (en) Weakly supervised one-shot image segmentation
Ezugwu et al. A comparative performance study of hybrid firefly algorithms for automatic data clustering
CN110866896A (zh) 基于k-means与水平集超像素分割的图像显著性目标检测方法
CN111260660B (zh) 一种基于元学习的3d点云语义分割迁移方法
Cai et al. Improving sampling-based image matting with cooperative coevolution differential evolution algorithm
CN112241478A (zh) 一种基于图神经网络的大规模数据可视化降维方法
CN108921853B (zh) 基于超像素和免疫稀疏谱聚类的图像分割方法
CN114723583A (zh) 基于深度学习的非结构化电力大数据分析方法
Chaibou et al. Adaptive strategy for superpixel-based region-growing image segmentation
Chai et al. A one-to-many conditional generative adversarial network framework for multiple image-to-image translations
CN113657522A (zh) 一种多视图三维模型聚类方法
Kumar et al. A hybrid cluster technique for improving the efficiency of colour image segmentation
CN113705674A (zh) 一种非负矩阵分解聚类方法、装置及可读存储介质
CN111860668A (zh) 一种针对原始3d点云处理的深度卷积网络的点云识别方法
CN116188428A (zh) 一种桥接多源域自适应的跨域组织病理学图像识别方法
CN116109656A (zh) 一种基于无监督学习的交互式图像分割方法
CN113256645A (zh) 一种基于改进密度聚类的彩色图像分割方法
CN116958624A (zh) 指定材质的识别方法、装置、设备、介质及程序产品
CN115761502A (zh) 基于混合卷积的sar图像变化检测方法
Zhao et al. An automatic density clustering segmentation method for laser scanning point cloud data of buildings
CN115661504A (zh) 基于迁移学习和视觉词包的遥感样本分类方法
CN111126395B (zh) R-cnn网络中选择性搜索算法的优化方法、存储介质
CN113283469A (zh) 基于视图的三维模型检索的图嵌入无监督特征学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant