CN103744903B - 一种基于草图的场景图像检索方法 - Google Patents

一种基于草图的场景图像检索方法 Download PDF

Info

Publication number
CN103744903B
CN103744903B CN201310726931.5A CN201310726931A CN103744903B CN 103744903 B CN103744903 B CN 103744903B CN 201310726931 A CN201310726931 A CN 201310726931A CN 103744903 B CN103744903 B CN 103744903B
Authority
CN
China
Prior art keywords
image
sketch
error
matching error
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310726931.5A
Other languages
English (en)
Other versions
CN103744903A (zh
Inventor
陈雪锦
张孝
谈建超
侯丹彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN201310726931.5A priority Critical patent/CN103744903B/zh
Publication of CN103744903A publication Critical patent/CN103744903A/zh
Application granted granted Critical
Publication of CN103744903B publication Critical patent/CN103744903B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于草图的场景图像检索方法,该方法包括:基于GFHOG特征,将带有n个检索目标的草图图像与图像库中每一图像进行相似性的计算,筛选出与草图图像相似性结果大于阈值的图像集;对所述草图图像中的n个检索目标及图像集中当前图像对应的目标进行定位,并计算所述两个图像中对应目标的目标匹配误差;根据两个图像中目标的位置分别建立局部坐标系,从而基于误差函数,获得草图图像与图像集中当前图像的场景位置匹配误差;根据所述目标匹配误差与所述场景位置匹配误差获得草图图像与图像集中当前图像的场景匹配误差,将所述草图图像与图像集中每一图像的场景匹配误差按照大小排序获得检索结果。通过采用本发明公开的方法实现了多目标的快速检索。

Description

一种基于草图的场景图像检索方法
技术领域
本发明涉及图像检索技术领域,尤其涉及一种基于草图的场景图像检索方法。
背景技术
近些年,随着英特网(Internet)以及图像采集设备(数码相机、智能手机)等技术的飞速发展,数字图像已深深融入人们的生活当中,用户可以通过图像采集设备或网络获取大量的数字图像。在这么庞大的数据量面前,一套有效的图像搜索机制显得尤为重要。图像数据描述的复杂性也为图像检索造成了巨大困难。
基于内容的图像检索为从大规模数字图像数据库中搜索出特定内容的图像提供了有效的方法。大多传统和一般图像检索的方式是利用一些增加元数据(metadata)的方法,例如:字幕、关键词或是图像的说明,如此一来就可以通过注解词完成检索。人工的图像注解是费时、费力并且昂贵;为了解决这个问题,已经有大量的研究在做自动图像注解方面上。此外,越来越多的社会网络应用和语义网已经产生了数个以网络为基底发展的图像注解工具。
互联网络上传统的搜索引擎,包括Google、Yahoo以及MSN都推出相应的图片搜索功能,但是这种搜索主要是基于图片的文件名建立索引来实现查询功能(也许利用了网页上的文字信息)。这种从查询文字、文件名,最终到图片查询的机制并不是基于内容的图像检索。基于内容的图像检索指的是查询条件本身就是一个图像,或者是对于图像内容的描述,它建立索引的方式是通过提取底层特征,然后通过计算比较这些特征和查询条件之间的距离,来决定两个图片的相似程度。
基于草图的图像检索是基于内容的图像检索的一种查询模式(Query bysketch)。如图1所示,用户在类似笔画的接口上进行简单的绘制作为标准进行查询。由计算机利用特征描述子对输入草图的特征进行描述,常用的包括:质心距离描述子、投影长度描述子、区域统计描述子和球谐和函数描述子。但是,上述特征描述子只能用于检索简单图像,而无法用于草图中包括多个检索目标的图像检索。
发明内容
本发明的目的是提供一种基于草图的场景图像检索方法,实现了多目标的快速检索。
本发明的目的是通过以下技术方案实现的:
一种基于草图的场景图像检索方法,该方法包括:
基于梯度场的梯度方向直方图GFHOG特征,将带有n个检索目标的草图图像与图像库中每一图像进行相似性的计算,筛选出与草图图像相似性结果大于阈值的图像集;
利用计算机视觉算法对所述草图图像中的n个检索目标及图像集中当前图像对应的目标进行定位,并计算所述草图图像中每一检索目标与所述图像集中当前图像对应目标的目标匹配误差;
根据所述草图图像中的n个检索目标及图像集中当前图像对应目标的位置分别建立局部坐标系,再利用误差函数,获得草图图像与图像集中当前图像的场景位置匹配误差;
根据所述目标匹配误差与所述场景位置匹配误差获得草图图像与图像集中当前图像的场景匹配误差,将所述草图图像与图像集中每一图像的场景匹配误差按照大小排序获得检索结果。
由上述本发明提供的技术方案可以看出,根据草图中各个检索目标的特征从图像库中来筛选出包含这些特征的图像集,再利用各个检索目标的位置关系及其相似度来实现多目标的快速检索。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明背景技术提供的草图图像的示意图;
图2为本发明实施例一提供的一种基于草图的场景图像检索方法的流程图;
图3为本发明实施例一提供的一种以一边界盒中心为基准建立局部坐标系的示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
本发明实施例所述的场景图像是指图像中包含多个前景目标,各个目标有特定的空间位置关系;同时,在利用草图图像进行场景图像检索时,草图图像中也包含多个检索目标。此时,可以各个检索目标与图像前景目标的相似度以及位置关系的相似度来检索场景图像。
在基于场景图像的检索中由于要对场景中每个目标进行定位,采用上述的组合描述子只能表示图像的全局信息,而没有表述图像局部特征的能力;因此,本发明实施例在基于场景的图像检索中采用了GFHOG(梯度场的梯度方向直方图Gradient Field Histogramof Oriented Gradient)特征描述子。GFHOG特征描述子有较好的表示局部特征的能力,同时也能兼顾的表示相邻点的描述子之间的影响。
实施例一
图2为本发明实施例一提供的一种基于草图的场景图像检索方法的流程图。如图2所示,该方法主要包括:
步骤21、基于梯度场的梯度方向直方图GFHOG特征,将带有n个检索目标的草图图像与图像库中每一图像进行相似性的计算,筛选出与草图图像相似性结果大于阈值的图像集。
本发明实施例中需要预先提取图像库中每一图像的GFHOG特征,主要包括:梯度场GF的计算及梯度方向直方图HOG特征的提取。
其中,梯度场的计算包括:利用边缘检测算法(例如,canny边缘检测算法)提取图像的边缘,并计算边缘各点在梯度方向场中的梯度方向;将梯度场的指导向量场设为零,建立泊松方程;将所述泊松方程转化为线性方程组,并求解出各个非边缘点在梯度方向场中的梯度方向。
HOG特征的提取包括:在预设的不同窗口尺度下提取梯度场计算后的图像边缘点的HOG特征。示例性的,对边缘像素点为中心以及水平或竖直相邻的w个像素点的像素的3*3邻域统计梯度方向直方图(w=5,10,15),梯度方向被平均分为9个bin(区域),从而每个梯度点得到一个9*9*3=243维的特征向量。这样每个点的特征不仅统计了这一个点的梯度方向特征,也统计了其周围相邻像素的梯度方向特征。
当获取到用户输入的带有n(n≥1)个检索目标的草图图像后,也采用上述方法提取GFHOG特征。
当完成图像GFHOG特征的提取之后,需要建立对应的词频直方图来进行相似度的计算。具体的步骤如下:利用聚类算法(例如,K-means(K-均值)聚类)对提取GFHOG特征后的图像聚类,获得GFHOG特征的聚类中心;根据所述GFHOG特征的聚类中心获得对应的词频直方图;其中,草图图像的词频直方图表示为HS,图像库中图像的词频直方图表示为HI
再利用相似度算法对草图图像与图像库中图像的相似度进行计算。示例性的,本发明实施例采用的相似度度量为直方图交叉距离,其计算公式为:
其中:ωij=1-|HS(i)-HI(j)|,HS(i)表示草图图像的词频直方图中,视觉单词i的频率;HI(j)表示图像库中图像的词频直方图中,视觉单词j的频率。
逐一计算草图图像与图像库中每一图像的相似度后,筛选出与草图图像相似性结果大于阈值的图像集。本发明实施例不对该阈值的大小做出限定,用户可以根据实际的需求或经验来进行相应的设定。
步骤22、利用计算机视觉算法对所述草图图像中的n个检索目标及图像集中当前图像对应的目标进行定位,并计算所述草图图像中每一检索目标与所述图像集中当前图像对应目标的目标匹配误差。
本发明实施例对草图图像和图像集的GFHOG特征做计算机视觉识别,例如,RANSAC(随机抽样一致)来获取草图目标的定位。假定草图在目标图像中的对应关系满足刚性变换(尺度、旋转以及平移变换),则可以用一个仿射变换矩阵T来表示特征点对应关系。
具体的:首先,利用最近邻计算草图图像的边缘点在图像集中当前图像的对应点,其公式为:
在步骤21中对每一个图像的边缘点都计算了其GFHOG特征。此时,可以利用欧氏距离,对草图的每一个边缘点的GFHOG特征在图像集中每一图像的GFHOG特征中最近的点坐标进行计算。是草图中所有的边缘点坐标,表示图像集中当前图像与草图图像每一边缘点GFHOG特征欧式距离最近的点坐标;
其次,提取上述的任意两组对应点,则可以通过解线性方程组计算出表示点与点之间对应关系的仿射变换矩阵T;再利用仿射变换矩阵T计算误差能量函数E(T),具体的:每一仿射变换矩阵T均可计算出一个误差能量函数E(T),通过多次取点后将使得误差能量函数E(T)最小的仿射变换矩阵T作为两者目标的对应变换关系;同时,对草图做T变换就可以定位草图图像在图像集中当前图像的位置。
其中,误差能量函数E(T)的计算公式为:
当利用使得所述误差能量函数E(T)最小的仿射变换矩阵T进行草图图像中检索目标及图像集中当前图像对应目标的定位后,则将该最小的误差能量函数E(T)作为定位该仿射变换矩阵T对应目标的目标匹配误差。
步骤23、根据所述草图图像中的n个检索目标及图像集中当前图像对应目标的位置分别建立局部坐标系,再利用误差函数,获得草图图像与图像集中当前图像的场景位置匹配误差。
本发明实施例中的场景位置匹配误差是基于局部坐标系与误差函数计算而来。如图3所示,包括如下步骤:
首先,利用边界盒(bounding box)限定草图图像中每一检索目标及图像集中当前图像对应目标的范围。为了便于在图中表示,本实施例中的n设为3。
然后,以草图图像某一检索目标对应边界盒(边界盒编号为object1-n)的中心点作为基准点,与其余n-1个检索目标对应的边界盒的中心点相连,完成草图图像局部坐标系的建立;获得n-1个连接线对应的向量,记为v1,v2...vn-1
再以图像集中当前图像与所述草图图像某一检索目标对应的目标所处的边界盒(边界盒编号为object1’-n’)的中心点作为基准点,与其余n-1个目标对应的边界盒的中心点相连,完成图像集中当前图像局部坐标系的建立;该图像集中当前图像n-1个连接线对应的向量,记为v'1,v'2...v'n-1。其中,向量v'1,v'2...v'n-1所表示的连接线与向量v1,v2...vn-1所表示的连接线一一对应。
最后,利用所述局部坐标系中的向量v1,v2...vn-1与向量v'1,v'2...v'n-1建立误差函数,从而获得场景位置匹配误差,其公式为:
步骤24、根据所述目标匹配误差与所述场景位置匹配误差获得草图图像与图像集中当前图像的场景匹配误差,将所述草图图像与图像集中每一图像的场景匹配误差按照大小排序获得检索结果。
可以采用如下公式进行计算:
Eerror=Eobject1+...+Eobjectn+Eposition
其中,Eerror表示草图图像与图像集中当前图像的场景匹配误差,Eposition表示草图图像与图像集中当前图像的场景位置匹配误差,Eobject1-Eobjectn表示草图图像的1至n个检索目标与图像集中当前图像对应的1至n个目标的目标匹配误差。
将草图图像与图像集中每一图像均采用上述步骤进行处理,获得对应的场景匹配误差,再将所述草图图像与图像集中每一图像的场景匹配误差按照大小排序获得检索结果。
本发明实施例根据草图中各个检索目标的特征从图像库中来筛选出包含这些特征的图像集,再利用各个检索目标的位置关系及其相似度来实现多目标的快速检索。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例可以通过软件实现,也可以借助软件加必要的通用硬件平台的方式来实现。基于这样的理解,上述实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (6)

1.一种基于草图的场景图像检索方法,其特征在于,该方法包括:
基于梯度场的梯度方向直方图GFHOG特征,将带有n个检索目标的草图图像与图像库中每一图像进行相似性的计算,筛选出与草图图像相似性结果大于阈值的图像集;
利用计算机视觉算法对所述草图图像中的n个检索目标及图像集中当前图像对应的目标进行定位,并计算所述草图图像中每一检索目标与所述图像集中当前图像对应目标的目标匹配误差;
根据所述草图图像中的n个检索目标及图像集中当前图像对应目标的位置分别建立局部坐标系,再利用误差函数,获得草图图像与图像集中当前图像的场景位置匹配误差;
根据所述目标匹配误差与所述场景位置匹配误差获得草图图像与图像集中当前图像的场景匹配误差,将所述草图图像与图像集中每一图像的场景匹配误差按照大小排序获得检索结果;
所述利用计算机视觉算法对所述草图图像中的n个检索目标及图像集中当前图像对应的目标进行定位,并计算所述草图图像中每一检索目标与所述图像集中当前图像对应目标的目标匹配误差包括:
基于草图图像与图像集中当前图像的GFHOG特征并利用计算机视觉算法进行目标的定位;具体的:利用最近邻计算草图图像的边缘点在图像集中当前图像的对应点,其公式为:
P m S → P n I = { p i = 1 , ... , m , p s = 1 , ... , n } ;
其中,表示草图图像边缘点的坐标;表示图像集中当前图像与草图图像每一边缘点GFHOG特征欧式距离最近的点坐标;
提取任意两组对应点,并通过求解线性方程组计算出表示点与点之间对应关系的仿射变换矩阵T;
利用仿射变换矩阵T计算误差能量函数,其公式为:
E ( T ) = Σ { p s , p i } | p s - Tp i | 2 + | p i - T - 1 p s | 2 ;
利用使得所述误差能量函数E(T)最小的仿射变换矩阵T进行草图图像中检索目标及图像集中当前图像对应目标的定位;并将该最小的误差能量函数E(T)作为定位该仿射变换矩阵T对应目标的目标匹配误差。
2.根据权利要求1所述的方法,其特征在于,提取草图图像与图像库中图像GFHOG特征的步骤包括:梯度场GF的计算及梯度方向直方图HOG特征的提取;
其中,梯度场的计算包括:利用边缘检测算法提取图像的边缘,并计算边缘各点在梯度方向场中的梯度方向;将梯度场的指导向量场设为零,建立泊松方程;将所述泊松方程转化为线性方程组,并求解出各个非边缘点在梯度方向场中的梯度方向;
HOG特征的提取包括:在预设的不同窗口尺度下提取梯度场计算后的图像边缘点的HOG特征。
3.根据权利要求1所述的方法,其特征在于,所述将带有n个检索目标的草图图像与图像库中每一图像进行相似性的计算包括:
利用聚类算法对提取GFHOG特征后的图像聚类,获得GFHOG特征的聚类中心;
根据所述GFHOG特征的聚类中心获得对应的词频直方图;其中,草图图像的词频直方图表示为HS,图像库中图像的词频直方图表示为HI
根据所述草图图像的词频直方图HS与图像库中图像的词频直方图HI进行相似性的计算。
4.根据权利要求3所述的方法,其特征在于,
利用直方图交叉距离进行相似性的计算,其公式为:
d ( H I , H S ) = Σ i = 1 k Σ j = 1 k ω i j m i n ( H S ( i ) - H I ( j ) ) ;
其中:ωij=1-|HS(i)-HI(j)|,HS(i)表示草图图像的词频直方图中,视觉单词i的频率;HI(j)表示图像库中图像的词频直方图中,视觉单词j的频率。
5.根据权利要求1所述的方法,其特征在于,获得草图图像与图像集中当前图像的场景位置匹配误差的步骤包括:
利用边界盒限定草图图像中每一检索目标及图像集中当前图像对应目标的范围;
以草图图像某一检索目标对应边界盒的中心点作为基准点,与其余n-1个检索目标对应的边界盒的中心点相连,完成草图图像局部坐标系的建立;获得n-1个连接线对应的向量,记为v1,v2...vn-1
以图像集中当前图像与所述草图图像某一检索目标对应的目标所处的边界盒的中心点作为基准点,与其余n-1个目标对应的边界盒的中心点相连,完成图像集中当前图像局部坐标系的建立;该图像n-1个连接线对应的向量,记为v′1,v'2...v'n-1
利用所述局部坐标系中的向量v1,v2...vn-1与向量v′1,v'2...v'n-1建立误差函数,从而获得场景位置匹配误差,其公式为:
E p o s i t i o n = ( 1 + | v 2 - | v 1 | | v 1 ′ | v 2 ′ | 2 + ... + | v n - 1 - | v 1 | | v 1 ′ | v n - 1 ′ | 2 ) .
6.根据权利要求1-5任一项所述的方法,其特征在于,根据所述目标匹配误差与所述场景位置匹配误差获得草图图像与图像集中当前图像的场景匹配误差Eerror包括:
Eerror=Eobject1+...+Eobjectn+Eposition
其中,Eposition表示草图图像与图像集中当前图像的场景位置匹配误差,Eobject1-Eobjectn表示草图图像的1至n个检索目标与图像集中当前图像对应的1至n个目标的目标匹配误差。
CN201310726931.5A 2013-12-25 2013-12-25 一种基于草图的场景图像检索方法 Expired - Fee Related CN103744903B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310726931.5A CN103744903B (zh) 2013-12-25 2013-12-25 一种基于草图的场景图像检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310726931.5A CN103744903B (zh) 2013-12-25 2013-12-25 一种基于草图的场景图像检索方法

Publications (2)

Publication Number Publication Date
CN103744903A CN103744903A (zh) 2014-04-23
CN103744903B true CN103744903B (zh) 2017-06-27

Family

ID=50501921

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310726931.5A Expired - Fee Related CN103744903B (zh) 2013-12-25 2013-12-25 一种基于草图的场景图像检索方法

Country Status (1)

Country Link
CN (1) CN103744903B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778242B (zh) * 2015-04-09 2018-07-13 复旦大学 基于图像动态分割的手绘草图图像检索方法及***
CN105808665B (zh) * 2015-12-17 2019-02-22 北京航空航天大学 一种新的基于手绘草图的图像检索方法
CN106874350B (zh) * 2016-12-27 2020-09-25 合肥阿巴赛信息科技有限公司 一种基于草图和距离场的钻戒检索方法和***
CN107402974B (zh) * 2017-07-01 2021-01-26 南京理工大学 基于多种二进制HoG描述符的草图检索方法
CN111563181B (zh) * 2020-05-12 2023-05-05 海口科博瑞信息科技有限公司 数字图像文件查询方法、装置及可读存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6813395B1 (en) * 1999-07-14 2004-11-02 Fuji Photo Film Co., Ltd. Image searching method and image processing method
CN102156715A (zh) * 2011-03-23 2011-08-17 中国科学院上海技术物理研究所 面向医学影像数据库的基于多病灶区域特征的检索***
CN102236717B (zh) * 2011-07-13 2012-12-26 清华大学 一种基于草图特征提取的图像检索方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Photo search by face positions and facial attributes on touch devices";Yu-Heng Lei et al.;《International Conference on Multimedea》;20111231;第651页第1栏第1段-第654页第2栏第2段、图1-3、表1 *
"SPM kernel( histogram intersection)";NaNaLab;《http://blog.csdn.net/love_yanhaina/article/details/9270185》;20130708;第1页第1行-第2页第2行 *
"基于手绘草图的图像检索研究";谭清华;《中国优秀硕士学位论文全文数据库 信息科技辑》;20130930;第16页第1段-第17页最后1段、第21页第1段-第25页最后1段、第27页第2段-第32页最后1段、图3.4 *

Also Published As

Publication number Publication date
CN103744903A (zh) 2014-04-23

Similar Documents

Publication Publication Date Title
CN103927387B (zh) 图像检索***及其相关方法和装置
US9449026B2 (en) Sketch-based image search
CN103336957B (zh) 一种基于时空特征的网络同源视频检测方法
Wang et al. Object detection using clustering algorithm adaptive searching regions in aerial images
CN103744903B (zh) 一种基于草图的场景图像检索方法
CN107369183A (zh) 面向mar的基于图优化slam的跟踪注册方法及***
CN104966081B (zh) 书脊图像识别方法
AU2018202767B2 (en) Data structure and algorithm for tag less search and svg retrieval
Tabia et al. Compact vectors of locally aggregated tensors for 3D shape retrieval
CN107562742A (zh) 一种图像数据处理方法及装置
CN106127748B (zh) 一种图像特征样本数据库及其建立方法
JP6211407B2 (ja) 画像検索システム、画像検索装置、検索サーバ装置、画像検索方法、及び画像検索プログラム
Meng et al. Object instance search in videos via spatio-temporal trajectory discovery
JP4937395B2 (ja) 特徴ベクトル生成装置、特徴ベクトル生成方法及びプログラム
CN104809731A (zh) 一种基于梯度二值化的旋转尺度不变场景匹配方法
CN105069144A (zh) 一种搜索相似图片的方法
Seidl et al. Automated classification of petroglyphs
CN103995864B (zh) 一种图像检索方法和装置
CN113298871B (zh) 地图生成方法、定位方法及其***、计算机可读存储介质
CN104778272B (zh) 一种基于区域挖掘和空间编码的图像位置估计方法
Kim et al. Classification and indexing scheme of large-scale image repository for spatio-temporal landmark recognition
Panda et al. Offline mobile instance retrieval with a small memory footprint
CN104965928A (zh) 一种基于形状匹配的汉字图像检索方法
Proenca et al. SHREC’15 Track: Retrieval of Oobjects captured with kinect one camera
CN109857886A (zh) 一种基于极小极大值博弈理论视图逼近的三维模型检索方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170627