CN106503270B - 一种基于多视点及二部图匹配的3d目标检索方法 - Google Patents

一种基于多视点及二部图匹配的3d目标检索方法 Download PDF

Info

Publication number
CN106503270B
CN106503270B CN201611128389.3A CN201611128389A CN106503270B CN 106503270 B CN106503270 B CN 106503270B CN 201611128389 A CN201611128389 A CN 201611128389A CN 106503270 B CN106503270 B CN 106503270B
Authority
CN
China
Prior art keywords
matrix
max
bipartite graph
viewpoints
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611128389.3A
Other languages
English (en)
Other versions
CN106503270A (zh
Inventor
纪荣嵘
张岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiamen University
Original Assignee
Xiamen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiamen University filed Critical Xiamen University
Priority to CN201611128389.3A priority Critical patent/CN106503270B/zh
Publication of CN106503270A publication Critical patent/CN106503270A/zh
Application granted granted Critical
Publication of CN106503270B publication Critical patent/CN106503270B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

一种基于多视点及二部图匹配的3D目标检索方法,涉及3D目标检索。1)视点提取:从网络中查找相似的图像;2)特征提取:对查找的图像提取特征;3)视点特征聚类:对于网络中已经找到的图像提取代表性视点;4)二部图匹配:对于每一种特征,建立待查找模型与数据库中模型的二部图;5)多特征融合:通过建立的二部图,计算数据库中每个模型与待查找模型的相似度;6)初次排序:根据计算的相似度,对数据库中的模型进行排序;7)重排序:请用户对排序结果进行评价,根据用户的评价重新对数据库中的模型排序。可应对多特征情况,无需考虑3D模型与2D模型的转换问题,视点选择的自由度较大,可通过用户的反馈信息对检索结果进行合理调整。

Description

一种基于多视点及二部图匹配的3D目标检索方法
技术领域
本发明涉及3D目标检索,尤其是涉及一种基于多视点及二部图匹配的3D目标检索方法。
背景技术
随着图形硬件、计算机技术以及3D技术的发展——3D重建、3D模型,在3D电影、3D图形学、CAD制图和3D结构设计的广泛应用,因而对于3D目标检索技术的高效的提出了更高的要求。一般来说,3D目标检索技术根据被检索的目标的数据组织形式可以分为两类,基于模型(model based)的3D目标检索技术和基于视点(view based)的3D目标检索技术。但是由于在实际应用中获得3D目标的模型(model)是十分困难的。当然可以利用视点信息重建出3D目标的模型,但是这样做不仅会有很大的时间开销,而且重建出的模型往往与物体的真实样貌有较大的偏差。这就使得基于模型的3D目标检索技术有很大的局限性。与之相对的,基于视点的3D目标检索技术,不仅获取信息更为便利,而且运算效率高。同时由于前人在2D图像技术已经积累了大量的经验,这就使得基于视点的3D目标检索技术要优于基于模型的3D目标检索技术。在基于视点的3D目标检索的基础上,基于二部图匹配和特征融合可大幅度提高目标检索的性能。另外,现有技术无法处理用户的反馈信息,无法处理多特征的情况,检索效率低,无法处理用户的反馈信息,并存在以下技术问题:
1、当3D物体的深度信息丢失,或者根本没有相应的3D模型(只有视点信息)时,如何对目标进行检索。
2、如何利用同一3D物体提取的多个特征。
3、当用户可以对部分检索的结果提供反馈信息时如何对检索的结果进行修正。
发明内容
本发明的目的在于提供一种基于多视点及二部图匹配的3D目标检索方法。
本发明包括以下步骤:
1)视点提取:从网络中查找相似的图像;
2)特征提取:对查找的图像提取特征;
3)视点特征聚类:对于网络中已经找到的图像提取代表性视点;
4)二部图匹配:对于每一种特征,建立待查找模型与数据库中模型的二部图;
5)多特征融合:通过建立的二部图,计算数据库中每个模型与待查找模型的相似度;
6)初次排序:根据计算的相似度,对数据库中的模型进行排序;
7)重排序:请用户对排序结果进行评价,根据用户的评价重新对数据库中的模型排序。
在步骤1)中,所述视点提取的具体方法可为:将3D目标投影到2D平面上,或给真实场景中的物体拍照。
在步骤2)中,所述特征提取的具体方法可为:对图像提取BoVW特征、椭圆傅里叶特征和Zernike矩特征。
在步骤3)中,所述视点特征聚类的具体方法可为:假设对某个物体共有n0个视点,每个视点的特征分别为
Figure BDA0001175659780000021
那么视点特征的聚类是把这些视点以“算法1”方式划分为多个类别,聚类的目的是用少数几个视点特征代表所有的视点特征;
所述算法2为凝聚层次聚类即HAC算法,表示如下:
(1)计算每两个视点之间的距离:若两个视点之间的距离小于给定的阈值,则将这两个视点合并成一个簇,则原有的n0个视点经过合并,形成了n1个簇;所述阈值是一个数字,可为0.75;所述簇是视点的集合,是将若干个视点看成是一个整体;
(2)计算每两个簇之间的距离:若两个簇之间的距离小于给定的阈值,则将这两个簇合并成一个簇,原有的n1个视点经过合并,形成n2个簇;所述两个簇之间的距离是两个簇中视点的平均值之间的距离;所述阈值可为0.75;所述合并是集合运算中的“并”运算;
(3)重复步骤(2),直至任意两个簇的距离都大于给定的阈值;所述阈值可为0.75;
(4)计算每个簇中视点的平均值,一个平均特征值代表一个簇,所有的簇代表当前的物体,即,经过凝聚层次聚类,将从前的n0个视点数量减少。
在步骤4)中,所述二部图匹配的具体方法可为:
通常认为两个物体之间的视点应该是一一对应的,而不是一对多的关系,这就需要对二部图进行优化,即二部图匹配,其主要目的是二部图的匹配是把视点特征之间有用的关系保留,去除无用的关系;
所述二部图匹配可采用KM算法,采用贪婪的算法求解二部图匹配问题,具体方法如下:
输入:二部图的边的矩阵ET(no*nq维)
输出:二部图的关联矩阵X(no*nq维)
X=zeros(no,nq)//关联矩阵X初始化为与ET同样大小的全0矩阵,即X与ET中元素的排列方式相同,且元素值全为0。
nmin=min{nq,no}//求矩阵的行数与列数中的最小值,若矩阵的行数大于列数,则nmin为矩阵的行数;否则为列数。
For i=1:nmin//贪婪地求解关联矩阵X,这里的For代表循环,i为循环的元素,1:nmin为循环的范围(等价于1,2,3,4,…,nmin)
Figure BDA0001175659780000031
//找到边的矩阵ET中的最大值的坐标(imax,jmax),其中ET(i,j)即为矩阵第i行第j列的元素值,
Figure BDA0001175659780000032
即为找到当前矩阵ET中元素值最大的元素的位置,
Figure BDA0001175659780000033
即为将找到的当前矩阵ET中元素值最大的元素的位置赋值给(imax,jmax)
X(imax,jmax)=1//将X矩阵中第imax行第jmax列的元素值赋值为1
ET(imax,:)=-INF//将ET矩阵中的imax行置为负无穷大,其中“:”符号代表所有元素,即ET(imax,:)表示第imax行中的所有元素,-INF代表负无穷大
ET(:,jmax)=-INF//将ET矩阵中的jmax列置为负无穷大,ET(:,jmax)表示第jmax行中的所有元素
End。
在步骤5)中,所述多特征融合的具体方法可为:采用的融合手段为简单的线性加权,即将得到的三种特征的二部图以一定的比例相加,即Emix=λ1EBoVW/SIFT2EFourier3EZernike,其中λ1=0.014,λ2为0.98,λ3为0.006,EBoVW/SIFT,EFourier,EZernike分别为通过BoVW特征、椭圆傅里叶特征和Zernike矩特征建立的优化过的二部图。
在步骤6)中,所述初次排序的具体方法可为:对于融合后的二部图矩阵,将其中的所有元素(所有数字)相加所得到的值(值越小说明越相似)作为判断查询目标与数据库目标相似程度的依据。并根据这个值对数据库中的目标进行由小到大的排序。
在步骤7)中,所述重排序的具体方法可为:通过获取用户相关反馈信息(userrelevant feedback),让用户手动对得到的每组检索结果的前10个结果的做标记,标记出其中与查询目标同类和不同类的样本。将融合得到的特征对前100个查询得到的目标做重排序,重排序以当前目标到正例目标的最小距离,基于反馈调节的重排序算法如下所示:
输入:反馈信息矩阵RF(numq*10维),RF中元素为1代表相应的反馈结果是正例,为0代表结果是负例
已获得的检索结果矩阵Result(numq*100维)
查询目标的个数numq
输出:重排序的结果RResult
For i=1:numq
npos=sum(RF(i,:))//统计正例个数,其中sum为求和符号,RF(i,:)表示矩阵RF中第i行的所有元素,sum(RF(i,:))表示将矩阵RF中第i行的所有元素的值加在一起;
计算第i个样本到任一正例样本的距离,取其中的最小值的倒数作为新的Score(正例到正例的距离为正无穷大)
用新的Score排序前100个样本
根据新的排序结果重排Result矩阵
结束。
本发明具有以下优点:
1、多特征的提取及融合:分别提取了Zernike矩和BoVW/SIFT特征联合表达目标的区域形状特征,并且提取了基于边界的傅里叶特征建模目标的轮廓特性,通过二部图匹配和特征融合提高检索性能。
2、基于反馈的重排序算法:对于给定的排序结果,由用户手动标记目标的相关程度,计算待排序目标到相关目标的距离;取其中的最小值作为待排序目标到相关目标的距离;根据待排序目标到相关目标的距离对目标进行重排序。引入用户反馈信息后,性能得到了更高提升。
本发明旨在通过二部图匹配、融合多个特征,使各个特征彼此互补,从而探索基于视点的3D目标的本质特性,解决了以往方法无法处理多特征的情况,并大幅度提升了目标检索的性能。除此之外,本发明也加入了用户信息反馈模块,进一步提升了目标检索的效率以及性能。具体来说,本发明分别通过提取Zernike矩和BoVW/SIFT特征联合表达目标的区域形状特征,并且通过提取基于边界的傅里叶特征建模目标的轮廓特性。再经过贪婪检索(即贪婪的二部图匹配)和特征融合提高目标检索的性能。进一步地,当引入用户反馈信息后,性能得到了更高提升。
现有的3D目标检索技术根据被检索的目标的数据组织形式可以分为两类,基于模型(model based)的3D目标检索技术和基于视点(view based)的3D目标检索技术。但是由于在实际应用中获得3D目标的模型(model)是十分困难的。(当然可以利用视点信息重建出3D目标的模型,但是这样做不仅会有很大的时间开销,而且重建出的模型往往与物体的真实样貌有较大的偏差。)这就使得基于模型的3D目标检索技术有很大的局限性。与之相对的,基于视点的3D目标检索技术,不仅获取信息更为便利,而且运算效率也十分的高。同时由于前人在2D图像技术已经积累了大量的经验,这就使得基于视点的3D目标检索技术要优于基于模型的3D目标检索技术。在基于视点的3D目标检索的基础上,基于二部图匹配和特征融合可大幅度提高目标检索的性能。另外,现有技术无法处理用户的反馈信息,我们在其中加入基于用户反馈的重排序算法,大大提高了3D目标检索的效率以及性能。
与现有技术方案的技术角度对比有以下几点:
本发明可以应对多特征情况,且时间复杂度相同(即运算时间大体相等),本发明无需考虑3D模型与2D模型的转换问题,即视点选择的自由度较大,本发明可以通过用户的反馈信息对检索结果进行合理调整(即调整后性能提升)。
具体实施方式
给定由3D模型组成的数据集,数据集中的每个3D模型都已经提取了足够多的视点以及对应的特征。对于某个想要查找的模型:
1)视点提取:从网络中查找相似的图像;
2)特征提取:对查找的图像提取特征;
3)视点特征聚类:对于网络中已经找到的图像提取代表性视点;
4)二部图匹配:对于每一种特征,建立待查找模型与数据库中模型的二部图;
5)多特征融合:通过建立的二部图,计算数据库中每个模型与待查找模型的相似度;
6)初次排序:根据计算的相似度,对数据库中的模型进行排序;
7)重排序:请用户对排序结果进行评价,根据用户的评价重新对数据库中的模型排序。
以下给出具体实施例。
本发明实施例包括以下步骤:
1)视点提取,具体方法为:将3D目标投影到2D平面上,或给真实场景中的物体拍照;
2)特征提取,具体方法为:对图像提取BoVW特征、椭圆傅里叶特征和Zernike矩特征
3)视点特征聚类,具体方法为:假设对某个物体共有n0个视点,每个视点的特征分别为
Figure BDA0001175659780000061
那么视点特征的聚类是把这些视点以“算法1”方式划分为多个类别。聚类的目的是用少数几个视点特征代表所有的视点特征;
所述算法3为凝聚层次聚类即HAC算法,表示如下:
(1)计算每两个视点之间的距离:若两个视点之间的距离小于给定的阈值,则将这两个视点合并成一个簇,则原有的n0个视点经过合并,形成了n1个簇;所述阈值是一个数字,可为0.75;所述簇是视点的集合,是将若干个视点看成是一个整体;
(2)计算每两个簇之间的距离:若两个簇之间的距离小于给定的阈值,则将这两个簇合并成一个簇,原有的n1个视点经过合并,形成n2个簇;所述两个簇之间的距离是两个簇中视点的平均值之间的距离;所述阈值可为0.75;所述合并是集合运算中的“并”运算;
(3)重复步骤(2),直至任意两个簇的距离都大于给定的阈值;所述阈值可为0.75;
(4)计算每个簇中视点的平均值,一个平均特征值代表一个簇,所有的簇代表当前的物体,即,经过凝聚层次聚类,将从前的n0个视点数量减少;
4)二部图匹配:通常认为两个物体之间的视点应该是一一对应的,而不是一对多的关系,这就需要对二部图进行优化,即二部图匹配,其主要目的是二部图的匹配是把视点特征之间有用的关系保留,去除无用的关系;
所述二部图匹配可采用KM算法,采用贪婪的算法求解二部图匹配问题,具体方法如下:
输入:二部图的边的矩阵ET(no*nq维)
输出:二部图的关联矩阵X(no*nq维)
X=zeros(no,nq)//关联矩阵X初始化为与ET同样大小的全0矩阵,即X与ET中元素的排列方式相同,且元素值全为0。
nmin=min{nq,no}//求矩阵的行数与列数中的最小值,若矩阵的行数大于列数,则nmin为矩阵的行数;否则为列数。
For i=1:nmin//贪婪地求解关联矩阵X,这里的For代表循环,i为循环的元素,1:nmin为循环的范围(等价于1,2,3,4,…,nmin)
Figure BDA0001175659780000071
//找到边的矩阵ET中的最大值的坐标(imax,jmax),其中ET(i,j)即为矩阵第i行第j列的元素值,
Figure BDA0001175659780000072
即为找到当前矩阵ET中元素值最大的元素的位置,
Figure BDA0001175659780000073
即为将找到的当前矩阵ET中元素值最大的元素的位置赋值给(imax,jmax)
X(imax,jmax)=1//将X矩阵中第imax行第jmax列的元素值赋值为1
ET(imax,:)=-INF//将ET矩阵中的imax行置为负无穷大,其中“:”符号代表所有元素,即ET(imax,:)表示第imax行中的所有元素,-INF代表负无穷大
ET(:,jmax)=-INF//将ET矩阵中的jmax列置为负无穷大,ET(:,jmax)表示第jmax行中的所有元素
End;
5)多特征融合:采用的融合手段为简单的线性加权,即将得到的三种特征的二部图以一定的比例相加,即Emix=λ1EBoVW/SIFT2EFourier3EZernike,其中λ1=0.014,λ2为0.98,λ3为0.006,EBoVW/SIFT,EFourier,EZernike分别为通过BoVW特征、椭圆傅里叶特征和Zernike矩特征建立的优化过的二部图;
6)初次排序。具体方法如下:对于融合后的二部图矩阵,将其中的所有元素(所有数字)相加所得到的值(值越小说明越相似)作为判断查询目标与数据库目标相似程度的依据。并根据这个值对数据库中的目标进行由小到大的排序;
7)重排序。具体方法如下:通过获取用户相关反馈信息(user relevantfeedback),让用户手动对得到的每组检索结果的前10个结果的做标记,标记出其中与查询目标同类和不同类的样本。将融合得到的特征对前100个查询得到的目标做重排序,重排序以当前目标到正例目标的最小距离,基于反馈调节的重排序算法如下所示:
输入:反馈信息矩阵RF(numq*10维),RF中元素为1代表相应的反馈结果是正例,为0代表结果是负例
已获得的检索结果矩阵Result(numq*100维)
查询目标的个数numq
输出:重排序的结果RResult
For i=1:numq
npos=sum(RF(i,:))//统计正例个数,其中sum为求和符号,RF(i,:)表示矩阵RF中第i行的所有元素,sum(RF(i,:))表示将矩阵RF中第i行的所有元素的值加在一起;
计算第i个样本到任一正例样本的距离,取其中的最小值的倒数作为新的Score(正例到正例的距离为正无穷大)
用新的Score排序前100个样本
根据新的排序结果重排Result矩阵
结束。

Claims (5)

1.一种基于多视点及二部图匹配的3D目标检索方法,其特征在于包括以下步骤:
1)视点提取:从网络中查找相似的图像;
2)特征提取:对查找的图像提取特征;
3)视点特征聚类:对于网络中已经找到的图像提取代表性视点;
所述视点特征聚类的具体方法为:假设对某个物体共有n0个视点,每个视点的特征分别为那么视点特征的聚类是把这些视点以“算法1”方式划分为多个类别,聚类的目的是用少数几个视点特征代表所有的视点特征;
所述算法1为凝聚层次聚类即HAC算法,表示如下:
(1)计算每两个视点之间的距离:若两个视点之间的距离小于给定的阈值,则将这两个视点合并成一个簇,则原有的n0个视点经过合并,形成了n1个簇;所述阈值是一个数字,为0.75;所述簇是视点的集合,是将若干个视点看成是一个整体;
(2)计算每两个簇之间的距离:若两个簇之间的距离小于给定的阈值,则将这两个簇合并成一个簇,原有的n1个视点经过合并,形成n2个簇;所述两个簇之间的距离是两个簇中视点的平均值之间的距离;所述阈值可为0.75;所述合并是集合运算中的“并”运算;
(3)重复步骤(2),直至任意两个簇的距离都大于给定的阈值;所述阈值可为0.75;
(4)计算每个簇中视点的平均值,一个平均特征值代表一个簇,所有的簇代表当前的物体,即,经过凝聚层次聚类,将从前的n0个视点数量减少;
4)二部图匹配:对于每一种特征,建立待查找模型与数据库中模型的二部图;
所述二部图匹配的具体方法为:
所述二部图匹配采用KM算法,采用贪婪的算法求解二部图匹配问题,具体步骤如下:
输入:二部图的边的矩阵ET(no*nq维)
输出:二部图的关联矩阵X(no*nq维)
X=zeros(no,nq)//关联矩阵X初始化为与ET同样大小的全0矩阵,即X与ET中元素的排列方式相同,且元素值全为0;
nmin=min{nq,no}//求矩阵的行数与列数中的最小值,若矩阵的行数大于列数,则nmin为矩阵的行数;否则为列数;
For i=1:nmin//贪婪地求解关联矩阵X,这里的For代表循环,i为循环的元素,1:nmin为循环的范围(等价于1,2,3,4,…,nmin)
Figure FDA0002225406160000021
//找到边的矩阵ET中的最大值的坐标(imax,jmax),其中ET(i,j)即为矩阵第i行第j列的元素值,
Figure FDA0002225406160000022
即为找到当前矩阵ET中元素值最大的元素的位置,即为将找到的当前矩阵ET中元素值最大的元素的位置赋值给(imax,jmax)
X(imax,jmax)=1//将X矩阵中第imax行第jmax列的元素值赋值为1
ET(imax,:)=-INF//将ET矩阵中的imax行置为负无穷大,其中“:”符号代表所有元素,即ET(imax,:)表示第imax行中的所有元素,-INF代表负无穷大
ET(:,jmax)=-INF//将ET矩阵中的jmax列置为负无穷大,ET(:,jmax)表示第jmax列 中的所有元素
End;
5)多特征融合:通过建立的二部图,计算数据库中每个模型与待查找模型的相似度;
6)初次排序:根据计算的相似度,对数据库中的模型进行排序;
7)重排序:请用户对排序结果进行评价,根据用户的评价重新对数据库中的模型排序;
所述重排序的具体方法为:通过获取用户相关反馈信息,让用户手动对得到的每组检索结果的前10个结果的做标记,标记出其中与查询目标同类和不同类的样本;将融合得到的特征对前100个查询得到的目标做重排序,重排序以当前目标到正例目标的最小距离,基于反馈调节的重排序算法如下所示:
输入:反馈信息矩阵RF(numq*10维),RF中元素为1代表相应的反馈结果是正例,为0代表结果是负例
已获得的检索结果矩阵Result(numq*100维)
查询目标的个数numq
输出:重排序的结果RResult
For i=1:numq
npos=sum(RF(i,:))//统计正例个数,其中sum为求和符号,RF(i,:)表示矩阵RF中第i行的所有元素,sum(RF(i,:))表示将矩阵RF中第i行的所有元素的值加在一起;
计算第i个样本到任一正例样本的距离,取其中的最小值的倒数作为新的Score,正例到正例的距离为正无穷大
用新的Score排序前100个样本
根据新的排序结果重排Result矩阵
结束。
2.如权利要求1所述一种基于多视点及二部图匹配的3D目标检索方法,其特征在于在步骤1)中,所述视点提取的具体方法为:将3D目标投影到2D平面上,或给真实场景中的物体拍照。
3.如权利要求1所述一种基于多视点及二部图匹配的3D目标检索方法,其特征在于在步骤2)中,所述特征提取的具体方法为:对图像提取BoVW特征、椭圆傅里叶特征和Zernike矩特征。
4.如权利要求1所述一种基于多视点及二部图匹配的3D目标检索方法,其特征在于在步骤5)中,所述多特征融合的具体方法为:采用的融合手段为简单的线性加权,即将得到的三种特征的二部图以一定的比例相加,即Emix=λ1EBoVW/SIFT2EFourier3EZernike,其中λ1=0.014,λ2为0.98,λ3为0.006,EBoVW/SIFT,EFourier,EZernike分别为通过BoVW特征、椭圆傅里叶特征和Zernike矩特征建立的优化过的二部图。
5.如权利要求1所述一种基于多视点及二部图匹配的3D目标检索方法,其特征在于在步骤6)中,所述初次排序的具体方法为:对于融合后的二部图矩阵,将其中的所有元素相加所得到的值作为判断查询目标与数据库目标相似程度的依据,值越小说明越相似,并根据这个值对数据库中的目标进行由小到大的排序。
CN201611128389.3A 2016-12-09 2016-12-09 一种基于多视点及二部图匹配的3d目标检索方法 Active CN106503270B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611128389.3A CN106503270B (zh) 2016-12-09 2016-12-09 一种基于多视点及二部图匹配的3d目标检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611128389.3A CN106503270B (zh) 2016-12-09 2016-12-09 一种基于多视点及二部图匹配的3d目标检索方法

Publications (2)

Publication Number Publication Date
CN106503270A CN106503270A (zh) 2017-03-15
CN106503270B true CN106503270B (zh) 2020-02-14

Family

ID=58330769

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611128389.3A Active CN106503270B (zh) 2016-12-09 2016-12-09 一种基于多视点及二部图匹配的3d目标检索方法

Country Status (1)

Country Link
CN (1) CN106503270B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112700008B (zh) * 2021-01-06 2022-06-28 青岛弯弓信息技术有限公司 一种云组态平台的模型匹配处理方法及***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101599077A (zh) * 2009-06-29 2009-12-09 清华大学 一种三维对象检索的方法
CN104298758A (zh) * 2014-10-22 2015-01-21 天津大学 一种多视角目标检索的方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101599077A (zh) * 2009-06-29 2009-12-09 清华大学 一种三维对象检索的方法
CN104298758A (zh) * 2014-10-22 2015-01-21 天津大学 一种多视角目标检索的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
3D object retrieval with multi-feature collaboration and bipartite graph matching;Yan Zhang 等;《Neurocomputing》;20160626;第195卷;第40-49页 *
Learning-Based Bipartite Graph Matching for View-Based 3D Model Retrieval;Ke Lu 等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20140725;第23卷(第10期);第4553-4563页 *

Also Published As

Publication number Publication date
CN106503270A (zh) 2017-03-15

Similar Documents

Publication Publication Date Title
Li et al. SHREC’13 track: large scale sketch-based 3D shape retrieval
Sattler et al. Large-scale location recognition and the geometric burstiness problem
CN107229757B (zh) 基于深度学习和哈希编码的视频检索方法
CN110188225B (zh) 一种基于排序学习和多元损失的图像检索方法
Srivastava et al. A review: color feature extraction methods for content based image retrieval
CN106682233A (zh) 一种基于深度学习与局部特征融合的哈希图像检索方法
CN103226585B (zh) 面向图像检索的自适应哈希重排方法
CN110457515B (zh) 基于全局特征捕捉聚合的多视角神经网络的三维模型检索方法
CN107085731B (zh) 一种基于rgb-d融合特征与稀疏编码的图像分类方法
CN109101981B (zh) 一种街景场景下基于全局图像条纹码的回环检测方法
CN104216974B (zh) 基于词汇树分块聚类的无人机航拍图像匹配的方法
CN109635140B (zh) 一种基于深度学习和密度峰值聚类的图像检索方法
CN107577758B (zh) 一种基于多区域交叉权值的图像卷积特征的生成方法
CN112800980B (zh) 一种基于多层次特征的sar目标识别方法
CN105868706A (zh) 一种基于稀疏自编码的三维模型识别方法
CN104732534B (zh) 一种图像中显著目标的抠取方法及***
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
CN104298758A (zh) 一种多视角目标检索的方法
CN103942778A (zh) 一种主成分特征曲线分析的快速视频关键帧提取方法
CN111414958B (zh) 一种视觉词袋金字塔的多特征图像分类方法及***
CN101599077B (zh) 一种三维对象检索的方法
CN111797269A (zh) 基于多级视图关联卷积网络的多视图三维模型检索方法
Gao et al. SHREC’15 Track: 3D object retrieval with multimodal views
CN111125396A (zh) 一种单模型多分支结构的图像检索方法
CN106951501B (zh) 一种基于多图匹配的三维模型检索方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant