CN107423741A - 一种基于视觉仿生与力场作用的图像自适应聚类方法 - Google Patents
一种基于视觉仿生与力场作用的图像自适应聚类方法 Download PDFInfo
- Publication number
- CN107423741A CN107423741A CN201710470315.6A CN201710470315A CN107423741A CN 107423741 A CN107423741 A CN 107423741A CN 201710470315 A CN201710470315 A CN 201710470315A CN 107423741 A CN107423741 A CN 107423741A
- Authority
- CN
- China
- Prior art keywords
- sub
- pixel
- color
- current
- gravity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明一种基于视觉仿生与力场作用的图像自适应聚类方法,包括以下步骤:步骤1,任选一张图像作为待分析图像Img,将待分析图像Img生成CIE‑Laba颜色空间下的颜色图Img2;步骤2,将CIE‑Laba颜色空间下的颜色图Img2的每个波段划分成d个子空间,即得到dn个颜色子区域空间,其中n为颜色图Img2的波段数;步骤3,计算dn个颜色子区域空间中每个子区域的稳定重心,并将每个子区域的稳定重心作为聚类中心;本发明提出并实现了用一种基于视觉仿生技术和力场作用的自适应聚类方法,该方法高效、简洁、易于实现,可用于各种数据分析的初步认知。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于视觉仿生技术和力场作用的自适应聚类方法。
背景技术
图像分析是目前火热的机器视觉与人工智能中最为底层的技术手段。作为最基本的图像分析方法,图像聚类作为初步分析被广泛的应用于各种图像分割、分类、认知当中。其中,聚类分析指将物理或抽象对象的集合分组成为由类似的对象组成的多个类的分析过程。聚类分析的目标就是在相似的基础上收集数据来分类。在不同的应用领域,很多聚类技术都得到了发展,这些技术方法被用作描述数据,衡量不同数据源间的相似性,以及把数据源分类到不同的簇中。多年以来,聚类分析方法一直以其高速、简洁、效果好等优势被广泛的应用于各种各样的数据分析领域当中。
但是,聚类分析发展多年以来,始终需要较好的先验信息才能获取较为完善的分析结果。然而在很多实际数据分析应用当中,初始先验信息的获取本身就是一个悖论问题:即分析数据是为了得到信息,而没有信息又难以分析数据。
针对这个缺陷,很多学者都进行了大量的研究工作,发展了许多完全自动的聚类方法。但改进方法为了估计先验信息,付出了大量繁复计算的代价,舍弃了聚类算法本身高效的优势,导致难以应用于广泛的实际数据分析工作当中。
发明内容
针对现有技术中的缺陷和不足,本发明的目的在于提出一种基于视觉仿生技术和力场作用的自适应聚类方法。从而能够自动根据场景的不同,模拟人眼视觉自适应的对图像进行感知,然后通过引力、斥力相互作用进行聚类分析,快速、高效的得到分析结果。
本发明为了实现上述技术思路采用以下技术方案:
一种基于视觉仿生与力场作用的图像自适应聚类方法,包括以下步骤:
步骤1,任选一张图像作为待分析图像Img,将待分析图像Img生成 CIE-Laba颜色空间下的颜色图Img2;
步骤2,将CIE-Laba颜色空间下的颜色图Img2的每个波段划分成d个子空间,即得到dn个颜色子区域空间,其中n为颜色图Img2的波段数;
步骤3,计算dn个颜色子区域空间中每个子区域的稳定重心,并将每个子区域的稳定重心作为聚类中心;
包括:
步骤31,从dn个颜色子区域空间中任选一个子区域作为当前子区域,设该当前子区域的重心为像素i,当前子区域的相邻子区域为3a-1个, i=1,2,...,M,a=1,2,3,M为颜色子区域空间中的像素总数;
步骤311,从3a-1个相邻子区域中任选一个子区域作为当前相邻子区域, a=1,2,3;
设像素j为当前相邻子区域的任一像素;其中,j=1,2,...,M,i≠j;
步骤311-1,若像素i和像素j之间的可移动性MOij≤1,则当前子区域的重心相对于当前相邻子区域为稳定重心,执行步骤312;
步骤311-2,若像素i和像素j之间的可移动性MOij>1,将像素j划入到当前子区域中得到修正后的当前子区域,则修正后的当前子区域的重心相对于当前相邻子区域为稳定重心;
步骤312,将当前子区域相对于当前相邻子区域的稳定重心作为像素i,重复步骤311,直至3a-1个相邻子区域都被作为当前相邻子区域,得到当前子区域的稳定重心;
步骤32,重复步骤31,直至dn个子区域都被作为当前子区域,得到每个子区域的稳定重心。
进一步地,通过式(1)得到像素i和像素j之间的可移动性MOij:
MOij=Gij/Rj (1)
其中,Gij为像素i,j间的引力大小,kg为引力系数,mi, mj分别表示像素i,j的质量,disij是像素i,j之间的距离;
通过式(2)得到像素i在颜色子区域空间中受到的斥力Ri:
Ri=km×mi (2)
其中,km表示斥力系数,mi表示像素i的质量。
进一步地,像素i和像素j之间的可移动性
进一步地,步骤2中将CIE-Laba颜色空间下的颜色图Img2的每个波段划分成6个子空间,颜色图Img2的波段数为3,即得到216个颜色子区域空间。
进一步地,步骤311中维度a为3。
与现有技术相比,本发明具有以下技术效果:
(1)采用基于立场的自聚类方法,实现了完全无监督自适应聚类,完全不需要任何先验信息,即可全自动的实现对图像中的目标进行聚类分析;
(2)采用瑞利判据作为视觉仿生的理论依据,能够获得非常符合人眼视觉观察感受的聚类分析结果。
附图说明
图1稳定的重心与聚类分布情况图。
图2(a)为不稳定的重心与聚类分布情况图;图2(b)为重新计算出稳定重心后的聚类分布情况图。
具体实施方式
本发明提出并实现了用一种基于视觉仿生技术和力场作用的自适应聚类方法,该方法高效、简洁、易于实现,可用于各种数据分析的初步认知。
下面通过附图和实施例对本发明作进一步说明。
实施例1
本实施例提供了一种基于视觉仿生与力场作用的图像自适应聚类方法,包括以下步骤:
步骤1,任选一张图像作为待分析图像Img,将待分析图像Img生成 CIE-Laba颜色空间下的颜色图Img2;
本实施例中,根据图像本身的纬度,将图像Img进行基于主成分分析的降维处理,形成三通道的彩色图Img1;
再根据国际照明协会(法语简称CIE)规定的方法,对彩色图像进行变换,生成CIE-Lab空间的彩色图Img2;
步骤2,将CIE-Laba颜色空间下的颜色图Img2的每个波段划分成d个子空间,即得到dn个颜色子区域空间,其中n为颜色图Img2的波段数;
本实施例中,根据瑞利判据,数字化模仿人眼视觉对于灰度反差的辨识能力,对色彩空间的每个波段进行划分,从而形成dn个划分区域;
本实施例中,d取6,n取3;
具体包括:
步骤21,根据瑞利判据,人眼所能分辨的最小灰度差,其暗区域与亮区域之间的亮度差别为0.735,由此,通过式(3)得到满足暗区域与亮区域之间的亮度差别为0.735时的对比度Ic:
步骤22,为了使得每一个划分出的区域都必须相对于人眼足够显眼,通过式(4)计得到将每一个波段将其划分为d=6个空间后,每一个划分出的区域都相对于人眼足够显眼。
步骤23,将CIE-lab颜色空间下的颜色图Img2的每个波段划分为6个子空间,即可形成共63=216个颜色子区域空间。
步骤3,计算dn个颜色子区域空间中每个子区域的稳定重心,并将每个子区域的稳定重心作为聚类中心;
包括:
步骤31,从dn个颜色子区域空间中任选一个子区域作为当前子区域,设该当前子区域的重心为像素i,当前子区域的相邻子区域为3a-1个,i=1,2,...,M,a=1,2,3,M为颜色子区域空间中的像素总数;本实施例中,a 取3。
步骤311,从3a-1个相邻子区域中任选一个子区域作为当前相邻子区域, a=1,2,3;
设像素j为当前相邻子区域的任一像素;其中,j=1,2,...,M,i≠j;
步骤312,若像素i和像素j之间的可移动性MOij≤1,则当前子区域的重心相对于当前相邻子区域为稳定重心;
如图1所示为当前子区域的重心相对于当前相邻子区域为稳定重心时两个子区域的聚类分布情况,从图1中可以看出两个重心的引力范围不相交。
若像素i和像素j之间的可移动性MOij>1,将像素j划入到当前子区域中得到修正后的当前子区域,则修正后的当前子区域的重心相对于当前相邻子区域为稳定重心;
如图2(a)所示为当前子区域的重心相对于当前相邻子区域为不稳定重心时个子区域的聚类分布情况,两个重心之间的引力范围相交;
如图2(b)所示为经过重新计算修正后的当前子区域的重心,且该重心为稳定重心时的聚类分布情况。
步骤312,将修正后的当前子区域的重心作为像素i,重复步骤311,直至3a-1个相邻子区域都被作为当前相邻子区域,得到当前子区域的稳定重心;
步骤32,重复步骤31,直至dn个子区域都被作为当前子区域,得到每个子区域的稳定重心。
本实施例中,通过式(1)得到像素i和像素i之间的可移动性MOij:
MOij=Gij/Rj (1)
其中,Gij为像素i,j间的引力大小,kg为引力系数, mi,mj分别表示像素i,j的质量,disij是像素i,j之间的距离;
通过式(2)得到像素i在颜色子区域空间中受到的斥力Ri:
Ri=km×mi (2)
其中,km表示斥力系数,mi表示像素i的质量。
实施例2
本实施例在实施例1的基础上,像素i和像素j之间的可移动性
在理想状况下,可移动性为1。因此可根据已知的相对质量和已知的最终聚类结果在空间中的距离,反算力场系数的具体取值;
其中,为力场系数;mi表示像素i的质量;disij是理想状况下像素i,j 之间的距离;MOij表示像素i和像素j之间的可移动性;
将力场系数代入实施例1中,可得到。
Claims (5)
1.一种基于视觉仿生与力场作用的图像自适应聚类方法,其特征在于,包括以下步骤:
步骤1,任选一张图像作为待分析图像Img,将待分析图像Img生成CIE-Laba颜色空间下的颜色图Img2;
步骤2,将CIE-Laba颜色空间下的颜色图Img2的每个波段划分成d个子空间,即得到dn个颜色子区域空间,其中n为颜色图Img2的波段数;
步骤3,计算dn个颜色子区域空间中每个子区域的稳定重心,并将每个子区域的稳定重心作为聚类中心;
包括:
步骤31,从dn个颜色子区域空间中任选一个子区域作为当前子区域,设该当前子区域的重心为像素i,当前子区域的相邻子区域为3a-1个,i=1,2,...,M,a=1,2,3,M为颜色子区域空间中的像素总数;
步骤311,从3a-1个相邻子区域中任选一个子区域作为当前相邻子区域,a=1,2,3;
设像素j为当前相邻子区域的任一像素;其中,j=1,2,...,M,i≠j;
步骤311-1,若像素i和像素j之间的可移动性MOij≤1,则当前子区域的重心相对于当前相邻子区域为稳定重心,执行步骤312;
步骤311-2,若像素i和像素j之间的可移动性MOij>1,将像素j划入到当前子区域中得到修正后的当前子区域,则修正后的当前子区域的重心相对于当前相邻子区域为稳定重心;
步骤312,将当前子区域相对于当前相邻子区域的稳定重心作为像素i,重复步骤311,直至3a-1个相邻子区域都被作为当前相邻子区域,得到当前子区域的稳定重心;
步骤32,重复步骤31,直至dn个子区域都被作为当前子区域,得到每个子区域的稳定重心。
2.如权利要求1所述的基于视觉仿生与力场作用的图像自适应聚类方法,其特征在于,通过式(1)得到像素i和像素j之间的可移动性MOij:
MOij=Gij/Rj (1)
其中,Gij为像素i,j间的引力大小,kg为引力系数,mi,mj分别表示像素i,j的质量,disij是像素i,j之间的距离;
通过式(2)得到像素i在颜色子区域空间中受到的斥力Ri:
Ri=km×mi (2)
其中,km表示斥力系数,mi表示像素i的质量。
3.如权利要求2所述的基于视觉仿生与力场作用的图像自适应聚类方法,其特征在于,像素i和像素j之间的可移动性
4.如权利要求1所述的基于视觉仿生与力场作用的图像自适应聚类方法,其特征在于,步骤2中将CIE-Laba颜色空间下的颜色图Img2的每个波段划分成6个子空间,颜色图Img2的波段数为3,即得到216个颜色子区域空间。
5.如权利要求1所述的基于视觉仿生与力场作用的图像自适应聚类方法,其特征在于,步骤311中维度a为3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710470315.6A CN107423741B (zh) | 2017-06-20 | 2017-06-20 | 一种基于视觉仿生与力场作用的图像自适应聚类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710470315.6A CN107423741B (zh) | 2017-06-20 | 2017-06-20 | 一种基于视觉仿生与力场作用的图像自适应聚类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107423741A true CN107423741A (zh) | 2017-12-01 |
CN107423741B CN107423741B (zh) | 2020-05-05 |
Family
ID=60427337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710470315.6A Active CN107423741B (zh) | 2017-06-20 | 2017-06-20 | 一种基于视觉仿生与力场作用的图像自适应聚类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107423741B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171279A (zh) * | 2018-01-28 | 2018-06-15 | 北京工业大学 | 一种多视角视频自适应乘积Grassmann流形子空间聚类方法 |
CN109511642A (zh) * | 2018-11-29 | 2019-03-26 | 陕西师范大学 | 一种基于图像和聚类分析的草原灭鼠方法及*** |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102184216A (zh) * | 2011-05-04 | 2011-09-14 | 武汉大学 | 基于数据场划分网格的自动聚类方法 |
CN102521605A (zh) * | 2011-11-25 | 2012-06-27 | 河海大学 | 一种高光谱遥感图像波段选择方法 |
CN104463183A (zh) * | 2013-09-13 | 2015-03-25 | 株式会社理光 | 聚类中心选取方法和*** |
CN105046276A (zh) * | 2015-07-14 | 2015-11-11 | 西安电子科技大学 | 基于低秩表示的高光谱图像波段选择方法 |
US20160342830A1 (en) * | 2015-05-18 | 2016-11-24 | Honda Motor Co., Ltd. | Operation estimation apparatus, robot, and operation estimation method |
CN106384354A (zh) * | 2016-09-14 | 2017-02-08 | 哈尔滨工业大学 | 基于slic算法的超像素分割方法 |
CN106485686A (zh) * | 2015-08-17 | 2017-03-08 | 西安电子科技大学 | 一种基于万有引力的谱聚类图像分割算法 |
CN106682811A (zh) * | 2016-11-23 | 2017-05-17 | 广西中烟工业有限责任公司 | 一种基于密度聚类与力引导算法的市场网络可视化方法 |
-
2017
- 2017-06-20 CN CN201710470315.6A patent/CN107423741B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102184216A (zh) * | 2011-05-04 | 2011-09-14 | 武汉大学 | 基于数据场划分网格的自动聚类方法 |
CN102521605A (zh) * | 2011-11-25 | 2012-06-27 | 河海大学 | 一种高光谱遥感图像波段选择方法 |
CN104463183A (zh) * | 2013-09-13 | 2015-03-25 | 株式会社理光 | 聚类中心选取方法和*** |
US20160342830A1 (en) * | 2015-05-18 | 2016-11-24 | Honda Motor Co., Ltd. | Operation estimation apparatus, robot, and operation estimation method |
CN105046276A (zh) * | 2015-07-14 | 2015-11-11 | 西安电子科技大学 | 基于低秩表示的高光谱图像波段选择方法 |
CN106485686A (zh) * | 2015-08-17 | 2017-03-08 | 西安电子科技大学 | 一种基于万有引力的谱聚类图像分割算法 |
CN106384354A (zh) * | 2016-09-14 | 2017-02-08 | 哈尔滨工业大学 | 基于slic算法的超像素分割方法 |
CN106682811A (zh) * | 2016-11-23 | 2017-05-17 | 广西中烟工业有限责任公司 | 一种基于密度聚类与力引导算法的市场网络可视化方法 |
Non-Patent Citations (4)
Title |
---|
GREGORY A. WILKIN 等: "K-Means Clustering Algorithms: Implementation and Comparison", 《 SECOND INTERNATIONAL MULTI-SYMPOSIUMS ON COMPUTER AND COMPUTATIONAL SCIENCES (IMSCCS 2007)》 * |
张晓民 等: "一种基于代表点质量的万有引力聚类算法", 《南开大学学报(自然科学版)》 * |
董袁泉: "猫群算法仿生计算在图像聚类分析中的应用", 《微型机与应用》 * |
顾俊凯 等: "基于LiDAR数据的城市道路提取与重建", 《测绘科学》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108171279A (zh) * | 2018-01-28 | 2018-06-15 | 北京工业大学 | 一种多视角视频自适应乘积Grassmann流形子空间聚类方法 |
CN108171279B (zh) * | 2018-01-28 | 2021-11-05 | 北京工业大学 | 一种多视角视频自适应乘积Grassmann流形子空间聚类方法 |
CN109511642A (zh) * | 2018-11-29 | 2019-03-26 | 陕西师范大学 | 一种基于图像和聚类分析的草原灭鼠方法及*** |
Also Published As
Publication number | Publication date |
---|---|
CN107423741B (zh) | 2020-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107452010B (zh) | 一种自动抠图算法和装置 | |
WO2019154035A1 (zh) | 一种在视频中植入广告的方法及计算机设备 | |
CN105096259B (zh) | 深度图像的深度值恢复方法和*** | |
CN106997597B (zh) | 一种基于有监督显著性检测的目标跟踪方法 | |
CN107993238A (zh) | 一种基于注意力模型的头肩部分图像分割方法及装置 | |
TWI396143B (zh) | 照片分割方法及系統及照片之影像配合方法 | |
CN109584251A (zh) | 一种基于单目标区域分割的舌体图像分割方法 | |
CN107564022B (zh) | 基于贝叶斯融合的视频显著性检测方法 | |
CN103942751B (zh) | 一种视频关键帧提取方法 | |
CN110443763B (zh) | 一种基于卷积神经网络的图像阴影去除方法 | |
CN107145845A (zh) | 基于深度学习及多特征点融合的行人检测方法 | |
CN110363201A (zh) | 基于协同学习的弱监督语义分割方法及*** | |
CN104063713B (zh) | 一种基于随机蕨分类器的半自主在线学习方法 | |
US20180357819A1 (en) | Method for generating a set of annotated images | |
CN110084782B (zh) | 基于图像显著性检测的全参考图像质量评价方法 | |
CN109891880A (zh) | 通过机器学习技术改进2d至3d的自动转换质量的方法 | |
CN104143186B (zh) | 一种slic超像素分块优化方法 | |
CN104504722B (zh) | 一种利用灰色点校正图像颜色的方法 | |
CN110119688A (zh) | 一种利用视觉注意力协同网络的图像情感分类方法 | |
CN110533026A (zh) | 基于计算机视觉的电竞图像数字与图标信息获取方法 | |
Hu et al. | AGNet: Attention-guided network for surgical tool presence detection | |
KR20120005654A (ko) | 자동 구름 정보 산출방법 | |
CN112488229A (zh) | 一种基于特征分离和对齐的域自适应无监督目标检测方法 | |
CN110110778A (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
CN110910319A (zh) | 一种基于大气散射模型的手术视频实时去雾增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |