CN102511049A - 基于拓扑知觉组织理论的形状图像分类方法 - Google Patents
基于拓扑知觉组织理论的形状图像分类方法 Download PDFInfo
- Publication number
- CN102511049A CN102511049A CN2010800037256A CN201080003725A CN102511049A CN 102511049 A CN102511049 A CN 102511049A CN 2010800037256 A CN2010800037256 A CN 2010800037256A CN 201080003725 A CN201080003725 A CN 201080003725A CN 102511049 A CN102511049 A CN 102511049A
- Authority
- CN
- China
- Prior art keywords
- features
- global
- local
- topological
- edge points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 230000008520 organization Effects 0.000 title claims abstract description 14
- 230000014509 gene expression Effects 0.000 claims abstract description 16
- 230000008447 perception Effects 0.000 claims description 7
- 238000007499 fusion processing Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 abstract description 14
- 230000008569 process Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 7
- 241000256844 Apis mellifera Species 0.000 description 5
- 230000001149 cognitive effect Effects 0.000 description 5
- 230000004438 eyesight Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000019771 cognition Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2137—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on criteria of topology preservation, e.g. multidimensional scaling or self-organising maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/478—Contour-based spectral representations or scale-space representations, e.g. by Fourier analysis, wavelet analysis or curvature scale-space [CSS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Image Analysis (AREA)
Abstract
一种基于拓扑直觉组织理论的形状图像分类方法,包括步骤:提取形状图像的边缘点S1;构建拓扑空间,计算提取的边缘点在拓扑空间中的表达S2;根据边缘点在拓扑空间中的表达来提取全局特征S3;根据边缘点在欧氏空间中的表达来提取局部特征S4;融合全局特征和局部特征,根据全局特征的匹配程度来调节局部特征在融合过程中的权重S5;根据融合后的特征分类形状图像S6。本发明适用于智能视觉监控***,帮助监控***分类场景中的目标,使得监控***能真正理解场景中正在发生什么,而且可以根据不同的目标类别采取不同的安全级别。适用于自动驾驶***,判断交通标志的类别,从而让自动驾驶***更佳智能化。
Description
基于拓扑知觉组织理论的形状图像分类方法 技术领域
本发明涉及模式识别, 特别是涉及基于认知心理学的目标识别。 背景技术
形状图像识别是智能视频监控和自动驾驶***中的一项关键技术。能 够帮助智能视频监控***对感兴趣目标进行分类,能够帮助自动驾驶*** 识别特征场景中的标志。
当前的形状图像识别方法侧重于形状图像的局部特征,比如尺度不变 的特征变换算法(SIFT)。这些方法对局部特征明显的目标能够较好的识 别, 但是对于局部特征不明显的目标则往往会失败。
全局特征在形状图像识别中起着重要的作用,但是当前的形状图像识 别算法大多数只利用了局部特征, 而忽略了全局特征, 一些全局特征, 比 如基于注意机制的全局特征很难应用于形状图像识别。换句话说, 在形状 图像识别算法中, 还很少有较鲁棒的全局特征。
形状识别的另一项关键技术在于全局特征与局部特征的融合,在这方 面, 大部分特征融合算法只是把形状图像的特征向量简单的合并, 效果也 一般, 而且没有认知学方面的理论依据支撑。
值得注意的一个现象是, 在认知视觉心理学领域, 关于局部特征和全 局特征之间关系的讨论在过去的几十年中都非常活跃。一方面, 早期的特 征分析理论认为, 视觉感知是从局部到全局进行的, 特别地, 由 Marr提 出的可计算视觉模型认为视觉信息的基元是事物的局部几何属性, Treisman 的特征整合理论认为原始的视觉特征是由分离的特征图来表达 的, 然后被整合成一张显著图。 Biederman 的局部识别理论 ( recognition-by-components , 也叫 RBC理论) 认为目标的识别起源于把 目标分离成由各种基本形状组成的基元。而在另一方面, 早期的全局理论 认为目标的认知过程是从全局到局部的, 比如著名的格式塔心理学理论。 顺着这条思路, 近年来, 有一种理论在认知视觉心理学领域取得了重大突 破。 由陈霖教授提出的拓扑知觉组织理论 (Computational perceptual
organization theory, 也被称为 TPO理论) 认为, 全局特征优先于局部特 征, 全局特征比局部特征更重要, 并且全局特征是由其拓扑不变性来决定 的。 拓扑知觉组织理论被一系列的神经生理学、 心理学、 医学影像分析实 验证明是符合生物视觉***的工作机理的。 下面分析两个有趣的实验。
如图 9所示, 在测试蜜蜂对形状图像的识别实验中, 陈霖教授先把蜜 蜂训练成寻找 "0"形图像 (通过糖水引诱) , 然后把糖水去掉再测试蜜 蜂对图像形状的识别。结果显示,密封选择了和 "0形"拓扑相似的菱形。 这个实验证明了, 对于蜜蜂这种视觉体系非常初级的生物种群, 在识别形 状图像的过程中, 拓扑不变性依然起着最基本的作用。
在另一个著名的实验中, 陈霖教授等人验证了, 在人眼视觉体系中, 拓扑不变性仍然发挥了着重要的作用。 如图 10所示, 在该实验中, 被试 者要求每次对两张图片进行判断是相同还是不同,每次显示的时间非常短 (比如 0.01 秒) , 然后统计判断的正确率。 结果显示, 对拓扑相似的形 状的区分正确率远远低于拓扑不相似的形状,这说明人眼很难把拓扑相似 的形状分开, 换句话说, 拓扑相似的形状在人眼视觉体系中是表达相似性 的基本要素。
拓扑知觉组织理论虽然在认知视觉心理学上取得了重大的突破,但是 该理论是建立在大量的心理学、 生理学、 医学影像实验的基础上, 没有严 格的数学描述和可计算模型。
当前的形状图像识别方法侧重于形状图像的局部特征,而忽略了其全 局特征。这些方法对局部特征明显的目标能够较好的识别, 但是对于局部 特征不明显的目标则往往会失败。 发明内容
本发明的目的是提供一种有效地提取形状图像全局特征的方法,并将 全局特征和局部特征进行融合以更加准确的描述形状图像。
为实现上述目的, 一种基于拓扑知觉组织理论的形状图像分类方法, 包括步骤:
提取形状图像的边缘点 S1 ;
构建拓扑空间, 计算提取的边缘点在拓扑空间中的表达 S2 ;
根据边缘点在拓扑空间中的表达来提取全局特征 S3;
根据边缘点在欧氏空间中的表达来提取局部特征 S4;
融合全局特征和局部特征,根据全局特征的匹配程度来调节局部特征 在融合过程中的权重 S5 ;
根据融合后的特征分类形状图像 S6。
本发明适用于智能视觉监控***, 帮助监控***分类场景中目标, 使 得监控***能真正理解场景中正在发生什么,而且可以根据不同的目标类 别采取不同的安全级别。适用于自动驾驶***, 判断交通标志的类别, 从 而让自动驾驶***更加智能化。 附图说明
图 1是基于拓扑知觉组织理论的形状图像识别方法的***框图; 图 2是示例图: 说明欧式空间在表达语义特征的能力较弱;
图 3 示例图: 说明测地距离能够较好的表达语义特征;
图 4是示例图: 说明容忍度的作用;
图 5是示例图: 说明全局特征提取, 绿色实线表示测地距离, 红色虚 线表示欧式距离, 我们采用测地距离和欧式距离的比来提取全局特征; 图 6是本发明构建的数据库的示意图;
图 7是在本发明构建的数据库上本发明的效果其中,相同形状代表相 同的拓扑形状, 它们聚集在一起。 相同的形状里允许有不同的大小, 代表 同种拓扑结构中不同的几何信息;
图 8是在本发明构建的数据库上, SIFT方法的效果。 相同形状 (具 体形状说明见图 7.) 代表相同的拓扑形状, 它们聚集很杂乱, 说明 SIFT 特征区分不同拓扑结构的能力很弱;
图 9是现有技术测试蜜蜂对形状图像的识别;
图 10是现有技术对拓扑相似的实验图。 具体实施方式
下面结合附图详细说明本发明技术方案中所涉及的各个细节问题。应 指出的是, 所描述的实施例仅旨在便于对本发明的理解, 而对其不起任何
000684 限定作用。
基于拓扑知觉组织理论, 本发明实现了一个目标识别***。 图 1示出 基于拓扑知觉组织理论的形状图像识别方法的流程图。首先提取图像中形 状的边缘点,然后根据这些边缘点之间的测地距离构建这些边缘点在拓扑 空间中的表达, 然后提取图像中形状的全局特征和局部特征, 然后将提取 到的全局特征和局部特征进行融合,最后将融合后的特征用于形状图像分 类。
下面结合附图对本发明的方法涉及的关键步骤进行逐一详细说明。 步骤 S1 : 提取形状图像的边缘点。 本发明采用了 Canny算法来提取 形状图像的边缘点。
步骤 S2: 构建拓扑空间, 计算提取的边缘点在拓扑空间中的表达。 相对于大多数的计算机视觉算法所采用的欧式空间,拓扑空间不仅具有强 大的认知学依据, 也能在计算机视觉的算法中得到更好的解释。下面我们 进行分析。
首先, 人眼视觉***采用的不是欧式空间, 而是将欧式空间做了某种 转换。 比如两条在真实外部空间中平行的直线, 在人眼看来就是两条相交 的直线 (其交点在计算机视觉中被称之为 "消失点" ) 。 再比如, 在两个 欧式距离很近的点, 在图 2的 " S"形状中, 相聚很近的两个点 (红色叉 形) 在表达 " S "形状的含义时, 其实是很远的, 更确切的说, 这两个红 色叉形的距离是用他们的最短连接距离 (测地距离) 来表达的。
其次, 在计算机视觉中, 如果仅仅依赖于欧式空间, 会导致很多算法 的失效, 这样的直观例子也很多, 比如在图 3中, 构成图 3中四个图形的 小黑点的欧式空间位置是完全一样的,但是他们所表达的语义是完全不同 的。这个例子充分的说明了, 只采用欧式空间是很难表达人眼视觉***所 能表达的语义信息的。其根本原因在于我们上面所分析的, 人眼视觉*** 所采用的空间并不是一个欧式空间。
我们定义拓扑空间如下:
d' = G(d') ( 1 ) 其中 G是计算测地距离的算法,比如可以采用常用的 Floyd- Warshall 算
法。 ^采用如下公式计算:
oo, otherwise ' 其中, 在拓扑知觉组织理论中指容忍度(tolerance ) , 相当于人眼 的最小可分辨距离。 d (i, j) 表示点 i和点 j的欧式距离。
为了展示容忍度的作用, 请参考图 4。 在图 4中, 我们分析人眼是怎 样形成对三角形的认知。 如果只看图 4(a), 我们会认为这是一个被分离的 三角形, 但是我们为什么会认为这是一个"三角形 "呢? 因为人眼可以允 许有一定的容忍度, 从而把离散的点连接起来, 随着容忍度的不断增加, 图 4(b)、 (c)、 (d)变得越来越像三角形。 步骤 S3 : 根据边缘点在拓扑空间中的表达来提取全局特征。 我们采用 d * (i, j)和 d (i, j)的比做为投票来构建统计分布直方图, 以此作为形状 图像的全局特征。 该直方图定义如下: , )
其中 n 是边缘点的个数, "^和"^是直方图第 k个方格(bin )的上 界和下界。
图 5 给出了一个采用测地距离和欧式距离的比作为全局特征的示例 图。值得注意的是, 这是一种非常简单的全局特征提取方法, 相当于在欧 式空间中统计像素亮度的分布图。我们之所以采用如此简单的全局特征提 取方法就是为了突出我们提出的拓扑空间的有效性。换句话说, 如果我们 在拓扑空间中采用简单的方法所取得的效果比在欧式空间中釆用较高级 方法更好, 那就充分说明了效果的提升是由拓扑空间引起的。
步骤 S4: 根据边缘点在欧氏空间中的表达来提取局部特征。 我们采 用 SIFT特征来提取形状图像的局部特征。
步骤 S5: 融合全局特征和局部特征, 根据全局特征的匹配程度来调 节局部特征在融合过程中的权重。在融合过程中, 我们先计算全局特征的 匹配分数(即形状图像之间全局特征直方图距离的倒数)并归一化, 然后 采用归一化后的全局特征匹配分数的倒数作为局部特征的权重,所以最终 两张形状图像之间的距离釆用下面的公式来计算:
diS final
+ a x dislocal) > ( 5 ) 其中, disg, 是形状图像之间全局特征直方图距离,反映全局的匹配程度, 是形状图像之间的局部特征直方图距离,反映局部的匹配程度。《是 局部特征的权衡, 与全局特征直方图距离呈正比(即与全局匹配程度呈反 比) 。 步骤 S6: 根据融合后的特征来描述形状图像。 根据步骤 S1-S5, 我们 可以得到任意两张形状图像之间的距离,采用这些距离我们用常见的聚类 算法, 就可以得到这些形状图像的分类结果。 实施例:
为了详细说明该发明的具体实施方式, 我们构建了一个示例数据库 (参见图 6) 。 通过实施我们的方法, 我们测试基于拓扑知觉组织理论的 形状图像识别方法在这些形状图像上的分类效果。 步骤如下:
步骤 S1 : 采用 Canny算法提取形状图像的边缘点;
步骤 S2: 采用公式 (1 ) 和公式 (2) 构建拓扑空间, 计算提取的边 缘点在拓扑空间中的表达;
步骤 S3 : 采用公式 (3 ) 和公式 (4) , 根据边缘点在拓扑空间中的 表达来提取全局特征;
步骤 S4: 根据边缘点在欧氏空间中的表达来提取 SIFT特征作为局部 特征;
步骤 S5 : 采用公式 (5 ) 融合全局特征和局部特征, 即根据全局特征 的匹配程度来调节局部特征在融合过程中的权重;
步骤 S6: 根据融合后的特征来分类形状图像, 具体地, 在本实施例
子中,我们采用 K-means算法把同类型图像聚在一起,把不同类型图像分 开。 图 7和图 8给出了我们方法在这些形状图像上的分类结果, 同时给了 SIFT方法的对比结果。
总之, 本发明提出了一种基于拓扑知觉组织理论的形状图像识别方 法。 本发明易于实现、 性能稳定。本发明能够提高智能监控***对监控场 景的理解能力, 能够提高自动驾驶***对环境的适应能力。
以上所述, 仅为本发明中的具体实施方式, 但本发明的保护范围并不 局限于此, 任何熟悉该技术的人在本发明所揭露的技术范围内, 可理解想 到的变换或替换, 都应涵盖在本发明的包含范围之内, 因此, 本发明的保 护范围应该以权利要求书的保护范围为准。
Claims (7)
- 权 利 要 求1 . 一种基于拓扑知觉组织理论的形状图像分类方法, 包括步骤- 提取形状图像的边缘点 S1 ;构建拓扑空间, 计算提取的边缘点在拓扑空间中的表达 S2;根据边缘点在拓扑空间中的表达来提取全局特征 S3 ;根据边缘点在欧氏空间中的表达来提取局部特征 S4;融合全局特征和局部特征,根据全局特征的匹配程度来调节局部特征 在融合过程中的权重 S5 ;根据融合后的特征分类形状图像 S6。2. 按权利要求 1所述的方法, 其特征在于所述拓扑空间由下式定义:d' = G(d') 其中, ^是计算测地距离的算法, ^釆用如下公式计算:其中, 在拓扑知觉组织理论中指容忍度, d ( i , j ) 表示点 i和点 j 的欧式距离。3. 根据权利要求 1所述的方法, 其特征在于按下式提取全局特征: h(k) = θ(ϊ, j), if L{k)≤ θ(ΐ, j) < U(k)其中 n 是边缘点的个数, 和 是直方图第 k个方格的上界和下 界。4. 根据权利要求不 1所述的方法,其特征在于采用 SIFT特征算法提 取局部特征。5. 根据权利要求 1所述的方法, 其特征在于所述步骤 S5包括: 计算全局特征的匹配分数并归一化;采用归一化后的全局匹配分数的倒数作为局部特征的权重。6. 根据权利要求 5所述的方法, 其特征在于采用下式计算最终两张 形状图像之间的距离:disf,na, =∑ idisglobal + a x dislocal ) 其中, disghhal 是形状图像之间全局特征直方图距离,反映全局的匹配程度, 是形状图像之间的局部特征直方图距离,反映局部的匹配程度, "是 局部特征的权衡, 与全局特征直方图距离呈正比。7. 根据权利要求 1所述的方法, 其特征在于所述步骤 S6包括: 采用 K-means算法把同类型图像聚在一起, 把不同类型图像分开。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2010/000684 WO2011140679A1 (zh) | 2010-05-13 | 2010-05-13 | 基于拓扑知觉组织理论的形状图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102511049A true CN102511049A (zh) | 2012-06-20 |
CN102511049B CN102511049B (zh) | 2013-07-17 |
Family
ID=44913821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010800037256A Active CN102511049B (zh) | 2010-05-13 | 2010-05-13 | 基于拓扑知觉组织理论的形状图像分类方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8732172B2 (zh) |
CN (1) | CN102511049B (zh) |
WO (1) | WO2011140679A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106156798A (zh) * | 2016-07-25 | 2016-11-23 | 河海大学 | 基于环形空间金字塔和多核学习的场景图像分类方法 |
CN109543708A (zh) * | 2018-10-11 | 2019-03-29 | 上海交通大学 | 融合拓扑特征的面向图数据的模式识别方法 |
CN117623735A (zh) * | 2023-12-01 | 2024-03-01 | 广东雅诚德实业有限公司 | 高强度抗污日用陶瓷的生产方法 |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9268765B1 (en) * | 2012-07-30 | 2016-02-23 | Weongozi Inc. | Systems, methods and computer program products for neurolinguistic text analysis |
US8942515B1 (en) * | 2012-10-26 | 2015-01-27 | Lida Huang | Method and apparatus for image retrieval |
CN104111960A (zh) * | 2013-04-22 | 2014-10-22 | 阿里巴巴集团控股有限公司 | 一种页面的匹配方法和装置 |
CN103336945B (zh) * | 2013-06-10 | 2017-11-10 | 黑龙江大学 | 融合局部特征与全局特征的指静脉识别方法 |
US10110868B2 (en) | 2016-12-22 | 2018-10-23 | Aestatix LLC | Image processing to determine center of balance in a digital image |
CN107766791A (zh) * | 2017-09-06 | 2018-03-06 | 北京大学 | 一种基于全局特征和粗粒度局部特征的行人再识别方法及装置 |
CN111931873B (zh) * | 2020-09-28 | 2020-12-22 | 支付宝(杭州)信息技术有限公司 | 图像识别方法和装置 |
CN113392766A (zh) * | 2021-06-16 | 2021-09-14 | 哈尔滨理工大学 | 一种基于注意力机制的人脸表情识别方法 |
CN114170607A (zh) * | 2021-12-08 | 2022-03-11 | 成都理工大学 | 一种视觉拓扑认知模型的构建方法、手写汉字识别方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101196979A (zh) * | 2006-12-22 | 2008-06-11 | 四川川大智胜软件股份有限公司 | 利用数字图像处理技术识别车辆类型的方法 |
US20090304285A1 (en) * | 2006-07-17 | 2009-12-10 | Panasonic Corporation | Image processing device and image processing method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3103793B2 (ja) * | 1997-03-11 | 2000-10-30 | 株式会社モノリス | オブジェクトの構造グラフ生成装置、それを利用することの可能なデータ変換装置およびシステム |
CA2520551C (en) | 2003-03-27 | 2013-10-15 | Green Vision Systems Ltd. | Generating intra-particle crystallographic parameter maps and histograms of a chemically pure crystalline particulate substance |
CN100593172C (zh) | 2008-04-18 | 2010-03-03 | 首都师范大学 | 一种基于显微图像的微生物识别***及方法 |
US8718340B2 (en) | 2008-09-03 | 2014-05-06 | Trustees Of The University Of Pennsylvania | System and method for accurate and rapid identification of diseased regions on biological images with applications to disease diagnosis and prognosis |
CN101702197A (zh) * | 2009-10-26 | 2010-05-05 | 宁波大学 | 一种道路交通标志的检测方法 |
-
2010
- 2010-05-13 US US13/142,650 patent/US8732172B2/en not_active Expired - Fee Related
- 2010-05-13 CN CN2010800037256A patent/CN102511049B/zh active Active
- 2010-05-13 WO PCT/CN2010/000684 patent/WO2011140679A1/zh active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090304285A1 (en) * | 2006-07-17 | 2009-12-10 | Panasonic Corporation | Image processing device and image processing method |
CN101196979A (zh) * | 2006-12-22 | 2008-06-11 | 四川川大智胜软件股份有限公司 | 利用数字图像处理技术识别车辆类型的方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106156798A (zh) * | 2016-07-25 | 2016-11-23 | 河海大学 | 基于环形空间金字塔和多核学习的场景图像分类方法 |
CN106156798B (zh) * | 2016-07-25 | 2019-10-25 | 河海大学 | 基于环形空间金字塔和多核学习的场景图像分类方法 |
CN109543708A (zh) * | 2018-10-11 | 2019-03-29 | 上海交通大学 | 融合拓扑特征的面向图数据的模式识别方法 |
CN109543708B (zh) * | 2018-10-11 | 2021-05-25 | 上海交通大学 | 融合拓扑特征的面向图数据的模式识别方法 |
CN117623735A (zh) * | 2023-12-01 | 2024-03-01 | 广东雅诚德实业有限公司 | 高强度抗污日用陶瓷的生产方法 |
CN117623735B (zh) * | 2023-12-01 | 2024-05-14 | 广东雅诚德实业有限公司 | 高强度抗污日用陶瓷的生产方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102511049B (zh) | 2013-07-17 |
US20130046762A1 (en) | 2013-02-21 |
WO2011140679A1 (zh) | 2011-11-17 |
US8732172B2 (en) | 2014-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102511049A (zh) | 基于拓扑知觉组织理论的形状图像分类方法 | |
WO2021022970A1 (zh) | 一种基于多层随机森林的零部件识别方法及*** | |
EP3410351B1 (en) | Learning program, learning method, and object detection device | |
CN110084139B (zh) | 一种基于多分支深度学习的车辆重识别方法 | |
CN108921083B (zh) | 基于深度学习目标检测的非法流动摊贩识别方法 | |
WO2017190574A1 (zh) | 一种基于聚合通道特征的快速行人检测方法 | |
KR20160143494A (ko) | 현저성 정보 취득 장치 및 현저성 정보 취득 방법 | |
EP2575077A2 (en) | Road sign detecting method and road sign detecting apparatus | |
Varghese et al. | An efficient algorithm for detection of vacant spaces in delimited and non-delimited parking lots | |
Saleh et al. | Traffic signs recognition and distance estimation using a monocular camera | |
WO2022227480A1 (zh) | 行为识别方法、装置、设备、存储介质、计算机程序及程序产品 | |
CN104463232A (zh) | 一种基于hog特征和颜色直方图特征的密度人群计数的方法 | |
Sikirić et al. | Classifying traffic scenes using the GIST image descriptor | |
CN109993032A (zh) | 一种共享单车目标识别方法、装置及相机 | |
Wang et al. | A hybrid method of vehicle detection based on computer vision for intelligent transportation system | |
Zang et al. | Traffic lane detection using fully convolutional neural network | |
Barodi et al. | An enhanced artificial intelligence-based approach applied to vehicular traffic signs detection and road safety enhancement | |
WO2020022329A1 (ja) | 物体検出認識装置、方法、及びプログラム | |
CN111339834B (zh) | 车辆行驶方向的识别方法、计算机设备及存储介质 | |
CN111582278B (zh) | 人像分割方法、装置及电子设备 | |
CN105574490A (zh) | 基于车前灯图像特征的车辆品牌识别方法和*** | |
KhabiriKhatiri et al. | Road Traffic Sign Detection and Recognition using Adaptive Color Segmentation and Deep Learning | |
Brkić et al. | Generative modeling of spatio-temporal traffic sign trajectories | |
Yang et al. | Deep Traffic Light Perception with Spatiotemporal Analysis for Autonomous Driving | |
Kortli et al. | High-reliability vehicle detection and lane collision warning system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |