CN105426914B - 一种面向位置识别的图像相似度检测方法 - Google Patents
一种面向位置识别的图像相似度检测方法 Download PDFInfo
- Publication number
- CN105426914B CN105426914B CN201510807729.4A CN201510807729A CN105426914B CN 105426914 B CN105426914 B CN 105426914B CN 201510807729 A CN201510807729 A CN 201510807729A CN 105426914 B CN105426914 B CN 105426914B
- Authority
- CN
- China
- Prior art keywords
- image
- block
- super
- pixel
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种面向位置识别的图像相似度检测方法,属于图像识别技术领域。本发明首先对图像进行超像素分割,结合CNN模型生成图像的特征图,并计算每个超像素块的描述向量;然后将待检测图像划分成均匀的图像块,根据图像块包含的超像素块计算每个图像块描述向量,构成图像的描述矩阵;利用得到的每个图像块描述向量计算待检测两幅图像中对应图像块之间的相似度,各对应图像块相似度的均值即为本发明所求的两幅图像之间相似度。本发明具有较高的鲁棒性,即使同一场景内容发生了变化,都能够有效准确的识别,同时还能够及时准确的从序列影像中找到最相似图像。
Description
技术领域
本发明涉及一种面向位置识别的图像相似度检测方法,属于图像识别技术领域。
背景技术
图像相似度检测是土相匹配、图像检索、模式识别中的核心环节,在SLAM(Simultaneous Localizations and Mapping)应用中,需要进行闭合环路检测,就是通过首尾图像的相似度检测判断是否为同一场景来完成;零位,在机器人自主导航定位中,当机器人第二次来到某一环境中,机器人需要确定自己在环境中的位置,然而在室内、高达建筑物周围、低下洞穴等一些特殊场景中定位设备无法使用时,就需要使用机器人内部传感确定位置,此时可以利用图像相似度检测的方法找出与机器人第一次到达该环境时的同一场景进行定位。
计算两幅图像的相似度的关键是为图像构建一个可以描述图像本质特征的向量或者矩阵。总的来说,构建像描述向量的方法可以分为两类:一种方法是将图像作为一个整体进行描述,例如图像颜色直方图,图像聚合向量以及GIST。图像直方图可以看作是图像的全局特征,由于其易于窃诘获取和理解,因此广泛的应用描述图像。但是图像直方图并未考虑像素之间的空间位置关系,不同的图像可能有相似的直方图。另外,用直方图描述图像缺乏鲁棒性,当图像的分辨率、环境光照发生变化、场景中部分物体消失或者新物体出现时,图像直方图也会发生明显的变化。
第二种方法是采用局部特征描述图像,例如SIFT(Scale Invariant FeatureTransform),SURF(Speed-Up Robust Feature),描述图像中若干包含特征点的图像块,进而达到描述图像的目的。典型的方法是采用BoW(bag-of words)模型,将图像的所有特征点描述向量向词汇表做投影,最终为图像构建一个反映图像包含词汇情况的描述向量。BoW模型在图像识别分类、目标识别记忆基于图像内容的图像检索(CBIR(Content-based imageretrieval))任务中都取得了很好的效果。 FAB-MAP(Fast Appearance Based Mapping)是一项位置识别和地图构建的技术,广泛的应用于闭合环路检测问题,其中BoW模型用于为测试视频的每一帧构建描述向量。首先提取测试视频所有帧上的特征点,计算每一个特征点描述向量;采用K-means方法对提取的所有特征向量进行聚类构建词汇表;将每一帧上的特征点向词汇表上做投影为每一帧构建描述向量。这种采用BoW模型构建图像帧描述向量的方法一般会消耗大量的时间和内存,用于构建词汇表的特征数目有时会过于庞大,使得采用K-means进行聚类的过程难以完成。
发明内容
本发明的目的是提供一种面向位置识别的图像相似度检测方法,以解决目前图像相似度检测鲁棒性低、计算量大的问题。
本发明为解决上述技术问题提供了一种面向位置识别的图像相似度检测方法,该检测方法包括以下步骤:
1)对待检测的原始图像进行超像素分割,得到超像素块;
2)利用卷积神经网络模型生成待检测原始图像的特征图,将每个超像素块映射到每层的特征图上计算每个超像素块的描述向量;
3)将待检测原始图像进行划分成均匀的图像块,根据图像块包含的超像素块计算每个图像块描述向量;
4)利用得到的每个图像块描述向量计算待检测两幅图像中对应图像块之间的相似度,各对应图像块相似度的均值即为图像之间相似度。
所述步骤2)每个超像素块描述向量的计算过程如下:
A.将卷积 神经网络模型作用于原始图像生成若干中间层,选取M个输出层中的所有特征图作为待检测原始图像的特征图,并将其调整至原始图像大小;
B.计算原始图像上每一个超像素块在每一个底层卷积输出层特征图上对应区域中所有像素的信息熵,为每个超像素块产生维数为底层卷积输出层特征图个数的描述向量;
C.计算原始图像上每一个超像素块在每一个较高卷积输出层特征图上对应区域中所有像素的平均值,为每个超像素块产生维数为较高卷积输出层特征图个数的描述向量;
D.综合步骤B和C中得到的描述向量即为每个超像素块描述向量。
所述步骤B中对应区域中所有像素的信息熵H为:
pi=ni/total
其中pi为每个bins发生的概率,bins为统计区域中像素最大值与最小值之间等间隔划分的像素区间,ni为统计区域中落在每个bins中的像素个数,total 为区域像素总数。
所述步骤3)中每个图像块描述向量为:
其中num为图像块中包含的超像素块数目,weighti为第i块超像素的权重,为第i块超像素的描述向量。
所述每个超像素块的权重weight为:
其中sp_num为超像素块在图像块区域中包含的像素个数,total_num为图像块区域中的像素总数。
所述步骤4)中各图像块之间相似度pat_simi为:
其中为图像块1的归一化的描述向量,为图像块2的归一化的描述向量。
所述步骤1)是采用线性迭代聚类的方法进行超像素分割。
所述图像块相似度 计算时可将图像包含的图像块描述向量组成描述矩阵,用第一幅图像的描述矩阵与第二幅图像描述矩阵的转置点乘,得到相似矩阵S,其中S的第i行第j列的元素Sij表述第一幅图像上第i个图像块与第二幅图像上第j个图像块之间的相似度,S中每个对角线元素即为对应图像块的相似度。
本发明的有益效果是:本发明首先对图像进行超像素分割,结合CNN模型生成图像的特征图,并计算每个超像素块的描述向量;然后将待检测图像划分成均匀的图像块,根据图像块包含的超像素块计算每个图像块描述向量,构成图像的描述矩阵;利用得到的每个图像块描述向量计算待检测两幅图像中对应图像块之间的相似度,各对应图像块相似度的均值即为本发明所求的两幅图像之间相似度。本发明具有较高的鲁棒性,且计算量小,易实现,即使同一场景内容发生了变化,都能够有效准确的识别,同时还能够及时准确的从序列影像中找到最相似图像。
附图说明
图1是超像素块描述向量的计算流程图;
图2-a是实验例1中来自同一场景的1#图像;
图2-b是实验例1中来自同一场景的2#图像;
图2-c是实验例1中来自同一场景图像对的相似矩阵示意图;
图3-a是实验例1中来自不同场景的1#图像;
图3-b是实验例1中来自不同场景的2#图像;
图3-c是实验例1中来自不同场景图像对的相似矩阵示意图;
图4是实验例2中所选取的测试图像;
图5是实验例2利用本发明所找到的最相似的一帧图像;
图6是实验例2中得到相似度曲线。
具体实施方式
下面结合附图对本发明的具体实施方式做进一步的说明。
本发明首先对待检测的原始图像进行超像素分割,得到超像素块;然后利用卷积神经网络模型生成待检测原始图像的特征图,将每个超像素块映射到每层的特征图上计算每个超像素块的描述向量;将待检测原始图像进行划分成均匀的图像块,根据图像块包含的超像素块计算每个图像块描述向量;最后利用得到的每个图像块描述向量计算待检测两幅图像中对应图像块之间的相似度,各对应图像块相似度的均值即为图像之间相似度。该方法的具体实施步骤如下:
1.对待检测图像进行超像素分割
超像素就是图像中由一系列位置相邻且颜色、亮度、纹理等特征相似的像素点组成的小区域,这些小区域大多保留了进一步进行图像分割的有效信息,且一般不会破环图像中的物体的边界信息。对于一幅图像而言,单一的像素点并不具有实际意义,人类都是从许多像素点组合而成的一区域来获取图像的相关信息。因此,只有将若干性质相同的像素组合在一起对人类才是有意义的。同时,由于超像素数目远远小于像素个数,直接对超像素进行表达也大大提高了计算效率。本实施例采用简单线性迭代聚类(SLSC)的方法进行超像素分割,以产生紧凑、规则的超像素块,且产生的超像素块保留物体的边界信息。
2.利用卷积神经网络计算超像素块的描述向量
卷积神经网络(CNNs)是一种多层次的网络结构模型,它通过多个阶段训练而成,通常每个阶段包括卷积操作、非线性转化和池化三个部分,底层的输入时高层的输出,最底层的输入就是最原始的图像,越高层的信息越抽象,语义信息越丰富,每一层都包含大量的特征图,每个特征图从不同的方面反映图像信息。一个L层的CNNs模型看作一些列的线性运算、非线性运算(如sigmoid、tanh 函数运算)、和池化操作(pool)组成、该过程可以定义为:
Fl=Pool(tanh(Wl*Fl-1+bl)) (1)
其中Fl为第l层输出,l∈1,…,L,bl为l层的偏置参数,Wl为l层的卷积核。源图像可被看作为F0。
为了获取每一层的特征图,本发明对特征图进行上采样,使得每一层的特征图与源图像具有相同尺寸,堆叠所有的特征图形成一个三维矩阵F,F∈RN×H×W,其中H为图像高度,W为图像宽度,N为特征图的数量,F可表达为:
F=[up(F1),up(F2),…,up(FL)] (2)
其中up为上采样操作,Nl是l层特征图个数,对于图像上任意一个像素,其描述可以表示为p∈RN。
利用所用特征图的信息对每个超像素块进行描述,使超像素块具有更强的表达能力,由于一些特征图之间存在着冗余信息,会降低计算效率,本实施例仅选择部分卷积层的特征图用于构建超像素块的描述向量,在提高计算效率的同时也确保特征描述的质量。超像素块描述向量的构建过程如图1所示,具体过程如下:
A.将卷积 神经网络模型作用于原始图像生成若干中间层,选取M个输出层中的所有特征图作为待检测原始图像的特征图,并将其调整至原始图像大小。
选择CNN(卷积神经网络)模型作用于图像生成若干中间层,选取若干卷积输出层(本实施例中选取第5、13、16层)中的所有特征图(共64+256+256=576 个特征图),并将576层特征图重新调整至原始图像大小。其中1-64层的特征图属于底层卷积输出层,保留着图像的边界信息,65至576层特征图属于较高卷积输出层,具有较强的抽象语义信息。
B.计算原始图像上每一个超像素块在每一个底层卷积输出层特征图上对应区域中所有像素的信息熵,为每个超像素块产生维数为底层卷积输出层特征图个数的描述向量。
本实施例中底层卷积输出层为1-64层,计算1-64层特征图上对应区域中所有像素的信息熵。统计区域中像素值的最大和最小值,等间隔划分若干bins,统计区域中落在每个bins中的像素个数ni,i=1,2,3…,bins,计算每个bins发生的概率pi=ni/total,(total为区域像素总数);并依据得到的概率计算区域所有像素的信息熵H。
找到原始图像上每一个超像素块在每层特征图上的对应区域,(每一层特征图都调整至原始图像大小,原始图像上的每一个超像素块区域直接映射到特征图即可),计算原始图像上每一个超像素块在特征图上的对应区域中所有像素的信息熵,为每个超像素块产生64维的描述向量。
C.计算原始图像上每一个超像素块在每一个较高卷积输出层特征图上对应区域中所有像素的平均值,为每个超像素块产生维数为较高卷积输出层特征图个数的描述向量。
本实施例中,较高卷积输出层为65至576层特征图,用区域平均的方法进行统计,即计算每一个超像素块在特征图上的对应区域中所有像素的平均值,为每个超像素块产生512维的描述向量。
D.通过上述计算,最终可以产生一个576维的向量来描述每一个超像素块。
3.将图像划分为均匀尺寸的图像块,根据每个图像块中包含的超像素块计算每个图像块的描述向量。
本实施例可将图像划分为均匀尺寸的4×4图像块,统计每个图像块中所包含的超像素块,按照超像素块在图像块区域中所占的区域面积,即超像素块所包含的像素个数占图像块包含的像素总数的比重,赋予每个超像素块相应的权值 weight。
其中,sp_num为超像素块在图像块区域中包含的像素个数,total_num为图像块区域中的像素总数。
根据得到的每个超像素块的权值weight计算每个图像块的描述向量
其中num为图像块中包含的超像素块数目,weighti为第i块超像素的权重,为第i块超像素的描述向量。
通过上述步骤可得到每个图像块的576维描述向量,对各图像块向量进行归一化操作,得到最终描述相应的图像块。
4.根据得到图像块描述向量计算两幅图像对应图像块的相似度,各对应图像块相似度的平均值即为所求的两幅图像的相似度。
两幅图像之间的相似度可采用对应图像块的相似度来表示,图像块之间的相似程度可通过对应描述向量之间的夹角余弦(cos)来反映,且余弦值越大,图像块越相似,若图像块完全一致则余弦值为1。由于图像块描述向量都进行了归一化操作,其模长均为1,则图像块描述向量点乘即为其夹角余弦。
在实际计算中,可直接将图像包含的图像块描述向量组成描述矩阵,用第一幅图像的描述矩阵与第二幅图像描述矩阵的转置点乘,得到16*16维的相似矩阵 S,其中S的第i行第j列的元素Sij表述第一幅图像上第i个图像块与第二幅图像上第j个图像块之间的相似度,S中16个对角线元素即为对应图像块的相似度。
两幅图像之间的相似度Simi可通过计算各对应图像块相似度的平均值获取,本实施例中的两幅图像之间的相似度Simi为:
通过上述过程,得到Simi即为本发明所求图像相似度。
实验分析
实验例1
该实验例的目的是验证本发明的鲁棒性。本发明分别选取了内容发生局部变化的同一场景图像对和来自不同场景的图像对进行相似度计算。所选择的两组代表性图像对分别如图2-a、图2-b、图3-a和图3-b所示。其中图2-a和图2-b 中的图像对来自同一场景,只是图像内容发生了局部变化;图3-a和图3-b中图像对来自不同的场景。利用本发明将图像划分为4×4的图像块,计算图像块间的相似度,组成相似矩阵分别如图2-c和图3-c所示,相似矩阵中对角线上的元素为对应图像块的相似度,利用公式(7)计算两组图像对的相似度分别为0.9434、 0.5254。
根据上述结果可知,对于来自同一场景的图像对,得到的相似度明显高于不同场景的图像对。对于同一场景的图像对,其相似矩阵中对角线上的元素明显高于非对角线元素,图2-b中的图像对发生了局部变化(即图2(b)中出现了一个箱子),使得局部发生变化的图像块的对角线元素值明显低于其他图像块的值,根据相似矩阵的数据,可检测同一场景图像对中发生变化的大概位置。而对于来自不同场景的图像对,其对角线元素值相对较低,且与非对角线元素值没有明显的差异,计算所得的图像对相似度也较低。
实验例2
该实验例的目的是验证本发明在实际应用中的稳定性和可行性。利用本发明的相似度检测方法从所拍摄视频中搜索与测试图像最相似的一帧,观察结果是否可接受。下面一个室内场景为例进行实验,所设计的实验步骤如下:
(1)随意围绕该场景拍摄场景视频(实验中所拍场景为2395帧的视频)。
(2)预先处理该场景视频,为每一帧计算图像描述矩阵,即图像块描述向量组成的16×576维的矩阵,并存储(实验中生成了2395×16×576维的三维矩阵)。
(3)重新来到该场景,随意拍摄一张测试图像,要求所拍摄的图像内容包含在视频捕捉的场景范围内,计算该测试图像的描述矩阵。
(4)遍历步骤2中预先存储的三维矩阵,利用本文算法找到与测试图像最相似的一帧。
(5)重新拍摄场景图像,按照公式3、4找到对应的最相似帧。
其中的一幅测试图像如图4所示,图5为从视频中找到的与图4测试图像最相似的一帧,图6为拍摄的2395帧视频中的每一帧与该测试图像的相似度曲线。另外,在检测时间上,视频中2395帧的图像描述向量是预先构建的,不计入检测耗时,耗时主要包括,计算测试图像的描述矩阵以及遍历视频帧找到最相似图像两部分,该过程耗时0.75秒(本文实验环境为64位Linux Debian7.5,Intel(R) Core(TM)i7-3632QM [email protected]处理器,4G内存)。
实验结果表明从视频中找到与测试图像最相似的图像为第566帧,相似度曲线表明566帧附近的图像与测试图像依然有很高的相似度,这是因为视频中临近帧一般具有相同的内容。但是第566帧与测试图像相似度最高(0.82),且明显高于其它数值,检测结果基本正确且耗时也较少。
综上,本发明具有较高的鲁棒性,即使同一场景内容发生了变化,都能够有效准确的识别,同时还能够及时准确的从序列影像中找到最相似图像。
Claims (2)
1.一种面向位置识别的图像相似度检测方法,其特征在于,该检测方法包括以下步骤:
1)对待检测的原始图像进行超像素分割,得到超像素块;
2)利用卷积神经网络模型生成待检测原始图像的特征图,将每个超像素块映射到每层的特征图上计算每个超像素块的描述向量;
3)将待检测原始图像进行划分成均匀的图像块,根据图像块包含的超像素块计算每个图像块描述向量;
4)利用得到的每个图像块描述向量计算待检测两幅图像中对应图像块之间的相似度,各对应图像块相似度的均值即为图像之间相似度;
所述步骤2)每个超像素块描述向量的计算过程如下:
A.将卷积 神经网络模型作用于原始图像生成若干中间层,选取M个输出层中的所有特征图作为待检测原始图像的特征图,并将其调整至原始图像大小;
B.计算原始图像上每一个超像素块在每一个底层卷积输出层特征图上对应区域中所有像素的信息熵,为每个超像素块产生维数为底层卷积输出层特征图个数的描述向量;
C.计算原始图像上每一个超像素块在每一个较高卷积输出层特征图上对应区域中所有像素的平均值,为每个超像素块产生维数为较高卷积输出层特征图个数的描述向量;
D.综合步骤B和C中得到的描述向量即为每个超像素块描述向量;
所述步骤B中对应区域中所有像素的信息熵H为:
pi=ni/total
其中pi为每个bins发生的概率,bins为统计区域中像素最大值与最小值之间等间隔划分的像素区间,ni为统计区域中落在每个bins中的像素个数,total 为区域像素总数;
所述步骤3)中每个图像块描述向量为:
其中num为图像块中包含的超像素块数目,weighti为第i块超像素的权重,为第i块超像素的描述向量;
所述每个超像素块的权重weight为:
其中sp_num为超像素块在图像块区域中包含的像素个数,total_num为图像块区域中的像素总数;
所述步骤4)中各图像块之间相似度pat_simi为:
其中为图像块1的归一化的描述向量,为图像块2的归一化的描述向量;
所述步骤1)是采用线性迭代聚类的方法进行超像素分割。
2.根据权利要求1所述的面向位置识别的图像相似度检测方法,其特征在于,所述图像块相似 度计算时可将图像包含的图像块描述向量组成描述矩阵,用第一幅图像的描述矩阵与第二幅图像描述矩阵的转置点乘,得到相似矩阵S,其中S的第i行第j列的元素Sij表述第一幅图像上第i个图像块与第二幅图像上第j个图像块之间的相似度,S中每个对角线元素即为对应图像块的相似度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510807729.4A CN105426914B (zh) | 2015-11-19 | 2015-11-19 | 一种面向位置识别的图像相似度检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510807729.4A CN105426914B (zh) | 2015-11-19 | 2015-11-19 | 一种面向位置识别的图像相似度检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105426914A CN105426914A (zh) | 2016-03-23 |
CN105426914B true CN105426914B (zh) | 2019-03-15 |
Family
ID=55505112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510807729.4A Active CN105426914B (zh) | 2015-11-19 | 2015-11-19 | 一种面向位置识别的图像相似度检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105426914B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105956597A (zh) * | 2016-05-04 | 2016-09-21 | 浙江大学 | 一种基于卷积神经网络的双目立体匹配方法 |
US20200082262A1 (en) * | 2016-12-21 | 2020-03-12 | Intel Corporation | Camera re-localization by enhanced neural regression using middle layer features in autonomous machines |
CN106709462A (zh) * | 2016-12-29 | 2017-05-24 | 天津中科智能识别产业技术研究院有限公司 | 一种室内定位方法及其装置 |
CN107330357A (zh) * | 2017-05-18 | 2017-11-07 | 东北大学 | 基于深度神经网络的视觉slam闭环检测方法 |
CN109214235A (zh) * | 2017-06-29 | 2019-01-15 | 沈阳新松机器人自动化股份有限公司 | 室外场景分类方法及*** |
CN107330127B (zh) * | 2017-07-21 | 2020-06-05 | 湘潭大学 | 一种基于文本图片检索的相似文本检测方法 |
CN107992848B (zh) * | 2017-12-19 | 2020-09-25 | 北京小米移动软件有限公司 | 获取深度图像的方法、装置及计算机可读存储介质 |
CN110322472A (zh) * | 2018-03-30 | 2019-10-11 | 华为技术有限公司 | 一种多目标跟踪方法以及终端设备 |
CN108829826B (zh) * | 2018-06-14 | 2020-08-07 | 清华大学深圳研究生院 | 一种基于深度学习和语义分割的图像检索方法 |
CN109271870B (zh) * | 2018-08-21 | 2023-12-26 | 平安科技(深圳)有限公司 | 行人重识别方法、装置、计算机设备及存储介质 |
CN109409418B (zh) * | 2018-09-29 | 2022-04-15 | 中山大学 | 一种基于词袋模型的回环检测方法 |
CN110334226B (zh) * | 2019-04-25 | 2022-04-05 | 吉林大学 | 融合特征分布熵的深度图像检索方法 |
CN110866532B (zh) * | 2019-11-07 | 2022-12-30 | 浙江大华技术股份有限公司 | 对象的匹配方法和装置、存储介质及电子装置 |
CN112907644B (zh) * | 2021-02-03 | 2023-02-03 | 中国人民解放军战略支援部队信息工程大学 | 一种面向机器地图的视觉定位方法 |
CN113139589B (zh) * | 2021-04-12 | 2023-02-28 | 网易(杭州)网络有限公司 | 图片相似度检测方法、装置、处理器及电子装置 |
CN113657415B (zh) * | 2021-10-21 | 2022-01-25 | 西安交通大学城市学院 | 一种面向示意图的对象检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012148619A1 (en) * | 2011-04-27 | 2012-11-01 | Sony Corporation | Superpixel segmentation methods and systems |
CN104408405A (zh) * | 2014-11-03 | 2015-03-11 | 北京畅景立达软件技术有限公司 | 人脸表示和相似度计算方法 |
CN104504055A (zh) * | 2014-12-19 | 2015-04-08 | 常州飞寻视讯信息科技有限公司 | 基于图像相似度的商品相似计算方法及商品推荐*** |
CN105005987A (zh) * | 2015-06-23 | 2015-10-28 | 中国人民解放军国防科学技术大学 | 基于广义gamma分布的SAR图像超像素生成方法 |
-
2015
- 2015-11-19 CN CN201510807729.4A patent/CN105426914B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012148619A1 (en) * | 2011-04-27 | 2012-11-01 | Sony Corporation | Superpixel segmentation methods and systems |
CN104408405A (zh) * | 2014-11-03 | 2015-03-11 | 北京畅景立达软件技术有限公司 | 人脸表示和相似度计算方法 |
CN104504055A (zh) * | 2014-12-19 | 2015-04-08 | 常州飞寻视讯信息科技有限公司 | 基于图像相似度的商品相似计算方法及商品推荐*** |
CN105005987A (zh) * | 2015-06-23 | 2015-10-28 | 中国人民解放军国防科学技术大学 | 基于广义gamma分布的SAR图像超像素生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105426914A (zh) | 2016-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105426914B (zh) | 一种面向位置识别的图像相似度检测方法 | |
CN107609601B (zh) | 一种基于多层卷积神经网络的舰船目标识别方法 | |
Xie et al. | Multilevel cloud detection in remote sensing images based on deep learning | |
CN108549873A (zh) | 三维人脸识别方法和三维人脸识别*** | |
CN104090972B (zh) | 用于三维城市模型检索的图像特征提取和相似性度量方法 | |
CN103839277B (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN111951384B (zh) | 一种基于单张人脸图片的三维人脸重建方法和*** | |
CN110378997A (zh) | 一种基于orb-slam2的动态场景建图与定位方法 | |
CN109101981B (zh) | 一种街景场景下基于全局图像条纹码的回环检测方法 | |
CN111951381B (zh) | 一种基于单张人脸图片的三维人脸重建*** | |
CN101694691A (zh) | 一种人脸图像合成方法及装置 | |
CN105574545B (zh) | 街道环境图像多视角语义切割方法及装置 | |
CN110309835A (zh) | 一种图像局部特征提取方法及装置 | |
CN106844739A (zh) | 一种基于神经网络协同训练的遥感图像变化信息检索方法 | |
WO2023273337A1 (zh) | 一种基于代表特征的遥感图像中的密集目标检测方法 | |
CN106250918B (zh) | 一种基于改进的推土距离的混合高斯模型匹配方法 | |
CN105740917B (zh) | 带有标签学习的遥感图像的半监督多视图特征选择方法 | |
Zhu et al. | Rapid ship detection in SAR images based on YOLOv3 | |
CN105320963B (zh) | 面向高分遥感图像的大尺度半监督特征选择方法 | |
CN116824485A (zh) | 一种基于深度学习的开放场景伪装人员小目标检测方法 | |
Jain et al. | Analyzing and improving neural networks by generating semantic counterexamples through differentiable rendering | |
Zhao et al. | Robust real-time object detection based on deep learning for very high resolution remote sensing images | |
CN113011359B (zh) | 一种基于图像的同时检测平面结构和生成平面描述的方法及应用 | |
Li et al. | Lightweight automatic identification and location detection model of farmland pests | |
CN114067128A (zh) | 一种基于语义特征的slam回环检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |