CN110569386A - 基于手绘草图集成描述子的三维模型检索方法 - Google Patents
基于手绘草图集成描述子的三维模型检索方法 Download PDFInfo
- Publication number
- CN110569386A CN110569386A CN201910869044.0A CN201910869044A CN110569386A CN 110569386 A CN110569386 A CN 110569386A CN 201910869044 A CN201910869044 A CN 201910869044A CN 110569386 A CN110569386 A CN 110569386A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- sketch
- view
- descriptor
- dimensional model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
Landscapes
- Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出了一种基于手绘草图集成描述子的三维模型检索方法,该方法首先对三维模型按照固定投影的方法获取62幅视图集。在视图集中选取轮廓特征最长的24幅二维视图作为三维模型的最优特征视图集。然后,构建融合全局视图特征和二维形状分布的集成描述子。接着对手绘草图进行降噪处理,利用集成描述子提取手绘草图和二维视图的特征。最后利用欧式距离计算草图与二维视图的相似性,检索出与草图近似的二维视图对应的三维模型。此方法首先利用多视图固定投影的方法来解决三维模型降维时特征丢失的问题;其次采用手绘草图降噪方法提高草图精度;最后利用区域特征(全局视图特征)与边界轮廓特征(二维形状分布)结合的集成描述子解决了单一特征描述子特征描述不全的问题。
Description
技术领域:
本发明属于计算机图形学领域,尤其涉及了一种基于手绘草图集成描述子的三维模型检索方法。
背景技术:
随着3D扫描与建模技术的发展,三维模型在日常生活中的应用也越来越普及,并逐渐成为各领域工作者设计图形方案的首选形式。因此,设计有效的检索***帮助用户从大型三维模型数据库中找到所需的三维模型已经成为计算机图形学领域中的研究热点。检索三维模型最常用方法是基于实例的方法,用户提供现有三维模型作为查询输入,检索***可以从数据库中返回类似的三维模型。然而考虑到普通用户未必拥有适当的三维模型,所以另一种方法是使用二维手绘草图作为查询输入,用户可以通过快速绘制二维草图来描述目标三维模型。但是,二维手绘草图仅仅是粗滤且简单的表示,仅包含原始三维模型的部分信息。因此,实现基于二维手绘草图的检索比基于实例的检索更具有挑战性。基于手绘草图检索三维模型的方法总体上可分为两类:基于草图重建的三维模型检索方法和基于草图匹配三维模型投影视图的检索方法。现有常见的三维模型重建方法,需要使用几何学的知识来重建三维模型或者直接绘制三维模型草图,检索方法效率不高,且复杂模型的检索效果不够理想。因此,本发明采用基于草图匹配三维模型投影视图的检索方法。基于草图匹配三维模型投影视图的检索方法主要存在三个问题。1.手绘草图噪声太多的问题。2.三维模型投影为二维视图的问题。3.视图的有效特征描述符的提取问题。针对上述问题,本发明采用固定投影的方式获取三维模型特征,并根据最佳特征选取最优视图集。采用判断曲率值等方法进行草图降噪。结合全局视图特征和二维形状分布得到集成特征描述子,解决了单一描述子辨识度不高的问题。
发明内容:
本发明针对现有技术的不足之处,提供了一种基于手绘草图集成描述子的三维模型检索方法。该方法首先对三维模型选取一定角度进行固定投影,从获取的视图集甄选出一部分特征明显的视图作为最优视图集。其次对手绘草图进行人工降噪,采用判断曲率值大小和计算闭合曲线上采样点偏移角度累加和的大小等方法。然后提取草图与二维视图的集成特征,该特征由全局视图特征和二维形状分布进行加权获得。最后利用欧式距离计算草图与二维视图的相似度作为检索条件。此方法保证了三维模型在投影降维时,特征不冗余并且降低特征损失,而且利用集成描述子解决了单一描述子辨识度不高的问题。
1.以下结合附图和具体实施案例,对本发明的具体实施方式作进一步地详细说明。
步骤1:使用固定投影方法对三维模型进行投影,将多个虚拟摄像机投影呈现的62张图像作为视图集,并采取特征最显著的24张视图作为最优视图集。
步骤2:本发明对草图进行降噪处理,包括删除冗余笔画和闭合检查等。
步骤3:对二维视图进行特征提取,特征描述符包括全局视图特征和形状区域特征,全局视图特征包含Zernike矩和傅里叶描述符,形状区域特征包括二维形状分布,该特征描述符本发明中称之为集成描述子。
步骤4:在检索模型时,以二维草图作为输入,经过降噪处理,利用集成描述子提取草图特征,提取待查询数据库中三维模型对应的特征,计算草图与三维模型对应特征的欧式距离。最终将相似度最高的8个模型作为检索结果输出到检索列表。
2.根据权利要求1所述的基于手绘草图集成描述子的三维模型检索方法,其特征在于,所述步骤1的具体步骤为。
步骤1-1对数据库中的每个三维模型进行处理。模型的中心设置在三维坐标系的中心,将虚拟摄像机放在该模型上方。
步骤1-2将模型以每步30度,在经度和纬度方向上旋转360度,生成62张视图。
步骤1-3在62张视图上,使用轮廓长度作为测量二维视图所包含信息量的指标。选取其中轮廓长度最长的24张视图作为最优视图集。
3.根据权利要求1所述的基于手绘草图集成描述子的三维模型检索方法,其特征在于,所述步骤2的具体步骤为。
步骤2-1采用判断曲率值的方法消除冗余笔画,笔画L采样后可表示为L={pi|0<=i<n}。假定一个曲率值记录绘制笔画的首部和尾部。计算L的最小外包矩阵的对角线长度length,计算笔画中曲率最大的点。若该点的曲率大于0.8,并且到达首部或者尾部的长度小于length*0.1,则从这个点开始删除直到首部或者尾部。
步骤2-2在用户绘制一个封闭曲线时,可能会造成起点与终点交叉或者分离的情况。闭合曲线上任意采样点的偏移角度累加和是2π,如果大于2π,则出现交叉情况,如果小于2π,则出现分离情况。若是交叉情况,则记录交叉点,删除交叉点到两端点的冗余线段。若是分离情况,则计算两端点的中间结点,将中间结点作为两端点的闭合中点。
4.根据权利要求1所述的基于手绘草图集成描述子的三维模型检索方法,其特征在于,所述步骤3的具体步骤为。
步骤3-1提取二维视图的Zernike矩,定义一组在单位圆上的复值函数集Vnm(x,y),表示在单位圆内的任何平方可积函数。其计算公式:
Vnm(x,y)=Vnm(ρ,θ)=Rnm(ρ)exp(jmθ)
其中,ρ表示原点到点(x,y)的矢量长度,θ是矢量ρ与x轴逆时针方向的夹角,j是复数单位,n,m是Zernike矩的维数,f(x,y)的Zernike矩,其计算公式:
步骤3-2提取二维视图的傅里叶描述符。在进行傅里叶变换之前,需要将其转换为一维形状表示,计算外轮廓边界点{P{xi,yi}|i=1,...,N}的重心,其计算公式:
根据重心定义重心距离,其计算公式:
r(i)=([x(i)-xc]2+[y(i)-yc]2)1/2
对r(i)进行离散傅里叶变换得到傅里叶系数,其计算公式:
傅里叶系数R(n)除以第一个系数R(0)就得到了傅里叶描述符,其计算公式:
步骤3-3采用D2形状描述符来描述二维视图的形状区域特征,其计算公式:
(xi,yi)和(xj,yj)为二维视图上的任意两个随机点,d为两点之间的距离。统计随机点对之间的距离,构建二维形状分布直方图。
步骤3-4融合全局视图特征描述符DG和二维形状分布特征DD作为集成描述子D,其中DG包括Zernike矩DZ和傅里叶描述符DF,其计算公式:
DG=DZ+DF
D=DG+DD
5.根据权利要求1所述的基于手绘草图集成描述子的三维模型检索方法,其特征在于,所述步骤4的具体步骤为。
步骤4-1利用欧式距离计算特征X=(x1x2...xn)与Y=(y1y2...yn)之间的距离,根据检索到的二维视图找到对应的三维模型,其计算公式:
步骤4-2最终将相似度最高的8个模型作为检索结果输出到检索列表。
有益效果:
1.本发明采用固定投影的方式来实现三维模型的降维操作,并通过选取特征最显著的24幅视图作为三维模型的主要特征,该方法在保证三维模型特征数据量不冗余的情况下,获取三维模型更多更显著的特征。
2.本发明采用的草图降噪方法能够优化草图特征,避免一些不必要的特征对检索结果造成影响。
3.本发明融合全局视图特征和形状区域特征构建新的集成描述子,对区域特征和边界轮廓特征具有更高的辨识度。
附图说明:
图1是本发明的总体流程示意图。
图2是本发明的三维模型的二维投影过程。
图3是本发明特征提取案例。
图4是本发明手绘草图冗余笔画消除的过程。
图5是本发明手绘草图闭合检查的过程。
图6是本发明的手绘草图检索***。
具体实施方式:
以下结合附图对本发明作进一步说明,但本发明的保护范围并不仅限于此。
如图1所示,本发明利用手绘草图检索三维模型方法,包括线下数据处理阶段和在线检索阶段。
步骤1:线下数据处理阶段步骤如下。
步骤1-1在ImagNet-40数据集中抽取500个三维模型进行渲染,如图2所示,将每个三维模型的中心设置在三维坐标系的中心,并将虚拟摄像机放在该模型上方。然后,将模型以每步30度,在经度和纬度方向上旋转360度,以生成62张视图。在62张视图上,使用轮廓长度作为测量二维视图包含信息多少的指标。选取其中轮廓长度最长的24张视图作为最优视图集。
步骤1-2提取每一个二维视图的全局视图特征和二维形状特征,全局视图特征包括Zernike矩和傅里叶描述符,如图3所示,取三维模型的二维视图为例。
步骤1-3对二维视图,提取它的Zernike矩,取其中特征明显的前24维,并采用标准矩的方法归一化到(0,1)范围内。具体方法为:定义一组在单位圆上的复值函数集Vnm(x,y),表示在单位圆内的任何平方可积函数。其计算公式:
Vnm(x,y)=Vnm(ρ,θ)=Rnm(ρ)exp(jmθ)
其中,ρ表示原点到点(x,y)的矢量长度,θ是矢量ρ与x轴逆时针方向的夹角,j是复数单位,n,m是Zernike矩的维数,f(x,y)的Zernike矩,其计算公式:
计算图3二维视图Zernike矩的特征向量为[0.0218969,0.0406058,0.0400054,0.0117482,0.150082,0.0193659,0.0353753,0.127825,0.00517922,0.0347436,0.186192,0.0383599,0.0159012,0.0171871,0.0487334,0.00180063,0.00215753,0.00215032,0.0947592,0.0150598,0.00369286,0.0145497,0.0142396,0.0583898]。
步骤1-4提取二维视图的傅里叶描述符。在进行傅里叶变换之前,需要将其转换为一维形状表示,计算外轮廓边界点{P{xi,yi}|i=1,...,N}的重心,其计算公式:
根据重心定义重心距离,其计算公式:
r(i)=([x(i)-xc]2+[y(i)-yc]2)1/2
对r(i)进行离散傅里叶变换得到傅里叶系数,其计算公式:
傅里叶系数R(n)除以第一个系数R(0)就得到了傅里叶描述符,其计算公式:
计算图3二维视图傅里叶描述符的特征向量为[0.188536,0.114522,0.0810066,0.0755489,0.0929832,0.0838755,0.0567791,0.032828,0.025864,0.0251861,0.0417195,0.043868,0.0391767,0.0254108,0.0172115,0.0156172,0.0155372,0.0243294]。
步骤1-5采用D2形状描述符描述二维视图的形状区域特征,以10维直方图的形式表示出来,其计算公式:
(xi,yi)和(xj,yj)为二维视图上的任意两个随机点,d为两点之间的距离。统计随机点对之间的距离,构建二维形状分布直方图。得到二维形状分布的特征向量为[0.0470942,0.127255,0.0701403,0.0681363,0.0951904,0,0,0.308617,0.158317,0.125251]。
步骤1-6全局视图特征描述符DG为Zernike矩DZ和傅里叶描述符DF的向量累加和。集成描述子D是全局视图特征描述符DG和二维形状分布特征DD的向量和。其计算公式:
DG=DZ+DF
D=DG+DD
本发明用集成描述子提取图3视图的集成特征向量为X=[0.0218969,0.0406058,0.0400054,0.0117482,0.150082,0.0193659,0.0353753,0.127825,0.00517922,0.0347436,0.186192,0.0383599,0.0159012,0.0171871,0.0487334,0.00180063,0.00215753,0.00215032,0.0947592,0.0150598,0.00369286,0.0145497,0.0142396,0.0583898,0.188536,0.114522,0.0810066,0.0755489,0.0929832,0.0838755,0.0567791,0.032828,0.025864,0.0251861,0.0417195,0.043868,0.0391767,0.0254108,0.0172115,0.0156172,0.0155372,0.0243294,0.0470942,0.127255,0.0701403,0.0681363,0.0951904,0,0,0.308617,0.158317,0.125251]。
步骤1-7循环步骤1-3到1-6的操作将所有三维模型的集成特征保存入库。
步骤2:在线检索阶段步骤如下。
步骤2-1如图6所示,在检索界面手绘二维草图,进行草图降噪,主要包括删除冗余笔画以及曲线闭合检查等。
步骤2-2采用判断曲率值的方法消除冗余笔画。笔画L采样后可表示为L={pi|0<=i<n}。假定一个曲率值记录绘制笔画的首部和尾部。计算L的最小外包矩阵的对角线长度length,计算笔画中曲率最大的点。若该点的曲率大于0.8,并且到达首部或者尾部的长度小于length*0.1,则从这个点开始删除直到首部或者尾部,如图4所示。
步骤2-3闭合检查是用户绘制一个封闭曲线时,可能会造成起点与终点交叉或者分离的情况。如图5所示,闭合曲线上采样点偏移角度累加和一定是2π。若和大于2π,则出现图5左边图像的交叉情况,记录交叉点p,删除p到两端点的冗余线段。若和小于2π,则出现图5中间图像的分离情况,计算两端点的中间结点p,将p作为两端点的闭合中点。
步骤2-4利用集成描述子提取降噪后手绘草图的特征向量,得到向量Y=[0.0242119,0.0392128,0.0411554,0.0142483,0.155713,0.0203451,0.0354143,0.142415,0.00517922,0.0347436,0.186192,0.0383599,0.0159012,0.0171871,0.0487334,0.00412053,0.00321723,0.00321012,0.1047652,0.0211197,0.00449136,0.0154957,0.0202636,0.0723788,0.218536,0.124522,0.1010126,0.0415489,0.1228832,0.0538755,0.1067791,0.023838,0.034864,0.0131861,0.0147195,0.023868,0.0314217,0.0254108,0.0172115,0.0216162,0.0205732,0.0303184,0.0439042,0.167522,0.0630303,0.0761633,0.0991540,0.008827,0.006517,0.268167,0.12381750.152131]
步骤2-5对手绘草图的特征X=(x1x2...xn)与三维模型库中投影视图特征Y=(y1y2...yn)进行相似性比较,其计算公式:
如图6所示,将相似度最高的8个模型作为检索结果输出到检索界面。
以上所述是结合附图对本发明的实施例进行的详细介绍,以上的具体实施方式只是用于帮助理解本发明的方法。对于本技术领域的普通技术人员,依据本发明的思想,在具体实施方式及应用范围内均可有所变更和修改,故本发明书不应理解为对本发明的限制。
Claims (5)
1.基于手绘草图集成描述子的三维模型检索方法,包括以下几个步骤。
步骤1:使用固定投影方法对三维模型进行投影,将多个虚拟摄像机投影呈现的62张图像作为视图集,并采取特征最显著的24张视图作为最优视图集。
步骤2:本发明对草图进行降噪处理,包括删除冗余笔画和闭合检查等。
步骤3:对二维视图进行特征提取,特征描述符包括全局视图特征和形状区域特征,全局视图特征包含Zernike矩和傅里叶描述符,形状区域特征包括二维形状分布,该特征描述符本发明中称之为集成描述子。
步骤4:在检索模型时,以二维草图作为输入,经过降噪处理,利用集成描述子提取草图特征,提取待查询数据库中三维模型对应的特征,计算草图与三维模型对应特征的欧式距离。最终将相似度最高的8个模型作为检索结果输出到检索列表。
2.根据权利要求1所述的基于手绘草图集成描述子的三维模型检索方法,其特征在于,所述步骤1的具体步骤为。
步骤1-1 对数据库中的每个三维模型进行处理。模型的中心设置在三维坐标系的中心,将虚拟摄像机放在该模型上方。
步骤1-2 将模型以每步30度,在经度和纬度方向上旋转360度,生成62张视图。
步骤1-3 在62张视图上,使用轮廓长度作为测量二维视图所包含信息量的指标。选取其中轮廓长度最长的24张视图作为最优视图集。
3.根据权利要求1所述的基于手绘草图集成描述子的三维模型检索方法,其特征在于,所述步骤2的具体步骤为。
步骤2-1 采用判断曲率值的方法消除冗余笔画,笔画L采样后可表示为L={pi|0<=i<n}。假定一个曲率值记录绘制笔画的首部和尾部。计算L的最小外包矩阵的对角线长度length,计算笔画中曲率最大的点。若该点的曲率大于0.8,并且到达首部或者尾部的长度小于length*0.1,则从这个点开始删除直到首部或者尾部。
步骤2-2 在用户绘制一个封闭曲线时,可能会造成起点与终点交叉或者分离的情况。闭合曲线上任意采样点的偏移角度累加和是2π,如果大于2π,则出现交叉情况,如果小于2π,则出现分离情况。若是交叉情况,则记录交叉点,删除交叉点到两端点的冗余线段。若是分离情况,则计算两端点的中间结点,将中间结点作为两端点的闭合中点。
4.根据权利要求1所述的基于手绘草图集成描述子的三维模型检索方法,其特征在于,所述步骤3的具体步骤为。
步骤3-1 提取二维视图的Zernike矩,定义一组在单位圆上的复值函数集Vnm(x,y),表示在单位圆内的任何平方可积函数。其计算公式:
Vnm(x,y)=Vnm(ρ,θ)=Rnm(ρ)exp(jmθ)
其中,ρ表示原点到点(x,y)的矢量长度,θ是矢量ρ与x轴逆时针方向的夹角,j是复数单位,n,m是Zernike矩的维数,f(x,y)的Zernike矩,其计算公式:
步骤3-2 提取二维视图的傅里叶描述符。在进行傅里叶变换之前,需要将其转换为一维形状表示,计算外轮廓边界点{P{xi,yi}|i=1,...,N}的重心,其计算公式:
根据重心定义重心距离,其计算公式:
r(i)=([x(i)-xc]2+[y(i)-yc]2)1/2
对r(i)进行离散傅里叶变换得到傅里叶系数,其计算公式:
傅里叶系数R(n)除以第一个系数R(0)就得到了傅里叶描述符,其计算公式:
步骤3-3 采用D2形状描述符来描述二维视图的形状区域特征,其计算公式:
(xi,yi)和(xj,yj)为二维视图上的任意两个随机点,d为两点之间的距离。统计随机点对之间的距离,构建二维形状分布直方图。
步骤3-4 融合全局视图特征描述符DG和二维形状分布特征DD作为集成描述子D,其中DG包括Zernike矩DZ和傅里叶描述符DF,其计算公式:
DG=DZ+DF
D=DG+DD
5.根据权利要求1所述的基于手绘草图集成描述子的三维模型检索方法,其特征在于,所述步骤4的具体步骤为。
步骤4-1 利用欧式距离计算特征X=(x1x2...xn)与Y=(y1y2...yn)之间的距离,根据检索到的二维视图找到对应的三维模型,其计算公式:
步骤4-2 最终将相似度最高的8个模型作为检索结果输出到检索列表。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910869044.0A CN110569386A (zh) | 2019-09-16 | 2019-09-16 | 基于手绘草图集成描述子的三维模型检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910869044.0A CN110569386A (zh) | 2019-09-16 | 2019-09-16 | 基于手绘草图集成描述子的三维模型检索方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110569386A true CN110569386A (zh) | 2019-12-13 |
Family
ID=68780046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910869044.0A Pending CN110569386A (zh) | 2019-09-16 | 2019-09-16 | 基于手绘草图集成描述子的三维模型检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110569386A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113032613A (zh) * | 2021-03-12 | 2021-06-25 | 哈尔滨理工大学 | 一种基于交互注意力卷积神经网络的三维模型检索方法 |
CN114969419A (zh) * | 2022-06-06 | 2022-08-30 | 金陵科技学院 | 自驱动多视图特征引导的基于草图的三维模型检索方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006058292A2 (en) * | 2004-11-29 | 2006-06-01 | Purdue Research Foundation | Methods for retrieving shapes and drawings |
CN101004748A (zh) * | 2006-10-27 | 2007-07-25 | 北京航空航天大学 | 基于二维草图的三维模型检索方法 |
CN101799937A (zh) * | 2010-03-23 | 2010-08-11 | 南京大学 | 一种采用草图创建三维模型的方法 |
CN108829701A (zh) * | 2018-04-25 | 2018-11-16 | 鹰霆(天津)科技有限公司 | 一种基于草图的3d模型检索方法 |
-
2019
- 2019-09-16 CN CN201910869044.0A patent/CN110569386A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006058292A2 (en) * | 2004-11-29 | 2006-06-01 | Purdue Research Foundation | Methods for retrieving shapes and drawings |
CN101004748A (zh) * | 2006-10-27 | 2007-07-25 | 北京航空航天大学 | 基于二维草图的三维模型检索方法 |
CN101799937A (zh) * | 2010-03-23 | 2010-08-11 | 南京大学 | 一种采用草图创建三维模型的方法 |
CN108829701A (zh) * | 2018-04-25 | 2018-11-16 | 鹰霆(天津)科技有限公司 | 一种基于草图的3d模型检索方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113032613A (zh) * | 2021-03-12 | 2021-06-25 | 哈尔滨理工大学 | 一种基于交互注意力卷积神经网络的三维模型检索方法 |
CN113032613B (zh) * | 2021-03-12 | 2022-11-08 | 哈尔滨理工大学 | 一种基于交互注意力卷积神经网络的三维模型检索方法 |
CN114969419A (zh) * | 2022-06-06 | 2022-08-30 | 金陵科技学院 | 自驱动多视图特征引导的基于草图的三维模型检索方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5131072B2 (ja) | 三次元モデル検索装置、三次元モデル検索方法及びプログラム | |
CN110019914B (zh) | 一种支持三维场景交互的三维模型数据库检索方法 | |
JP2009080796A5 (zh) | ||
CN106844620B (zh) | 一种基于视图的特征匹配三维模型检索方法 | |
Keceli et al. | Combining 2D and 3D deep models for action recognition with depth information | |
Li et al. | FEATURE MATCHING OF MULTI-VIEW 3D MODELS BASED ON HASH BINARY ENCODING. | |
CN110569386A (zh) | 基于手绘草图集成描述子的三维模型检索方法 | |
Lu et al. | Learning-based bipartite graph matching for view-based 3D model retrieval | |
CN105678349B (zh) | 一种视觉词汇的上下文描述子生成方法 | |
CN114693923A (zh) | 一种基于上下文和注意力的三维点云语义分割方法 | |
CN106951501B (zh) | 一种基于多图匹配的三维模型检索方法 | |
Gao et al. | Efficient view-based 3-D object retrieval via hypergraph learning | |
Trevithick et al. | What You See is What You GAN: Rendering Every Pixel for High-Fidelity Geometry in 3D GANs | |
Di Ruberto | Generalized hough transform for shape matching | |
CN113225300B (zh) | 一种基于图像的大数据分析方法 | |
Wang et al. | Hypergraph based feature fusion for 3-D object retrieval | |
Mhamdi et al. | A local approach for 3D object recognition through a set of size functions | |
CN109272013B (zh) | 基于学习的相似性度量方法 | |
Li et al. | View-wised discriminative ranking for 3D object retrieval | |
Dyana et al. | Combining features for shape and motion trajectory of video objects for efficient content based video retrieval | |
Kang et al. | Sketch-based shape retrieval using orientation histogram with Gabor filters | |
Ansary et al. | A Bayesian approach for 3D models retrieval based on characteristic views | |
Chai et al. | A real-time acquisition method of local change features of 3D animation considering product design | |
WO2023071577A1 (zh) | 特征提取模型训练方法、图片搜索方法、装置及设备 | |
Ni et al. | Research on image segmentation algorithm based on fuzzy clustering and spatial pyramid |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20191213 |