CN111125395B - 一种基于双分支深度学习的cad图纸检索方法及*** - Google Patents
一种基于双分支深度学习的cad图纸检索方法及*** Download PDFInfo
- Publication number
- CN111125395B CN111125395B CN201911039339.1A CN201911039339A CN111125395B CN 111125395 B CN111125395 B CN 111125395B CN 201911039339 A CN201911039339 A CN 201911039339A CN 111125395 B CN111125395 B CN 111125395B
- Authority
- CN
- China
- Prior art keywords
- legend
- branch
- cadrawing
- double
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种基于双分支深度学习的CAD图纸检索方法,包括CAD图纸标注,双支深度卷积网络构建,包括获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支;进行损失函数设置,三元测试组的构建,训练样本的构建,包括从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;对每组图例进行锚图例、正图例和负图例的分配;空间映射,根据训练样本对双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;对于任意待检索CAD图纸,利用训练好的双支深度卷积网络实现空间映射,获取匹配结果。
Description
技术领域
本发明涉及通信技术领域,尤其是涉及一种基于双分支深度学习的CAD图纸检索方法及***。
背景技术
凭借强大的图形处理能力与简洁的实操性,计算机辅助设计(CAD)技术已经被广泛应用于建筑工程、化工设计等各个领域。作为CAD技术的核心组成部分,CAD图纸也越来越多的成为工程开发、产品设计的重要组成部分。面对种类繁多,需求巨大的CAD图纸数据,如何快速、精准的查找到满足用户特定需求的设计图纸,日渐成为各领域研发和创新面临的重大问题和挑战。
现有检索识别技术大多依赖于CAD图纸的几何特征和拓扑特征,忽略了局部显著特征对图纸检索识别的重要影响,另外常用的基于深度学习的图像检索技术通常将整个CAD图纸图像作为输入,直接获取视觉特征,在识别效率和精度上都有所欠缺。这是由于CAD图纸种类繁多,不同类别的图纸,如室内装修CAD图纸和工场建造CAD图纸,具有明显的类间视觉差异;相同类别的不同CAD图纸具有个体化的类内视觉差异。本专利充分利用类间与类内的差异特点与联系,设计双支深度卷积网络,分别实现类内与类间两个层次的特征提取,根据多层次特征,实现CAD图纸更快速,更准确的检索。
发明内容
为解决上述现有技术的问题,本发明提供一种双分支深度学习的CAD图纸检索方法及***。
本发明的技术方案提供一种基于双分支深度学习的CAD图纸检索方法,包括如下步骤:
步骤1,CAD图纸标注,包括对CAD图纸库中各图纸数据进行预先标注,将图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别;
步骤2,双支深度卷积网络构建,包括获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支,共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合后,进行双层全连接映射输入到损失函数中;
步骤3,损失函数设置,包括设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚图例,posi是anci的正图例,即与imgi具有相同IDi的图像,neg是与imgi具有不同IDi的图像,称为负图例,通过优化空间构建损失函数L如下,
步骤4,三元测试组的构建,包括设定对于任意的三元图例组,锚图例的选取是任意、无约束的,剩余两个图例进行正图例和负图例的分配;
步骤5,训练样本的构建,包括从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;根据步骤4对每组图例进行锚图例、正图例和负图例的分配;
步骤6,空间映射,根据步骤4所得训练样本对步骤2所得双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;
步骤7,检索实现,包括对于任意待检索CAD图纸,利用步骤6训练好的双支深度卷积网络实现空间映射,获取匹配结果。
而且,步骤4中,设定正图例和负图例的分配方式如下,
对于三元组图例<CADrawingj1,CADrawingj2,CADrawingj3>,设任意选取其中图例CADrawingj1作为锚图例,
对图例CADrawingj2与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj12,CADrawingj3与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj13;
当时,选取max(Siftnumj12,Siftnumj13)对应的图例作为正图例,选取min(Siftnumj12,Siftnumj13)对应的图例作为负图例;其它情况下,CADrawingj2,CADrawingj3任意选取作为正或负图例;其中θ是控制三元组距离度量的常参数,θ越大表示选取的正负图例视觉特征差别越大。
本发明提供一种基于双分支深度学习的CAD图纸检索***,包括如下模块:
CAD图纸标注模块,用于对CAD图纸库中各图纸数据进行预先标注,将图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别;
双支深度卷积网络构建模块,用于获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支,共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合后,进行双层全连接映射输入到损失函数中;
损失函数模块,用于设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚图例,posi是anci的正图例,即与imgi具有相同IDi的图像,neg是与imgi具有不同IDi的图像,称为负图例,通过优化空间构建损失函数L如下,
三元测试组构建模块,用于设定对于任意的三元图例组,锚图例的选取是任意、无约束的,剩余两个图例进行正图例和负图例的分配;
训练样本构建模块,用于从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;根据三元测试组构建模块的设定对每组图例进行锚图例、正图例和负图例的分配;
空间映射模块,用于根据训练样本构建模块所得训练样本对构建所得双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;
检索实现模块,用于包括对于任意待检索CAD图纸,利用空间映射模块训练好的双支深度卷积网络实现空间映射,获取匹配结果。
而且,三元测试组构建模块中,设定正图例和负图例的分配方式如下,
对于三元组图例<CADrawingj1,CADrawingj2,CADrawingj3>,设任意选取其中图例CADrawingj1作为锚图例,
对图例CADrawingj2与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj12,CADrawingj3与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj13;
当时,选取max(Siftnumj12,Siftnumj13)对应的图例作为正图例,选取min(Siftnumj12,Siftnumj13)对应的图例作为负图例;其它情况下,CADrawingj2,CADrawingj3任意选取作为正或负图例;其中θ是控制三元组距离度量的常参数,θ越大表示选取的正负图例视觉特征差别越大。
现有CAD图纸检索方法多是依赖传统的手工提取特征的方式,实现对象检索,这种方法过分依赖于特征的选择,提取的特征也难以完全表达跨场景跨类型的CAD图纸。本方案将深度卷积网络框架引入到CAD图纸检索领域中,设计构造具有二分支架构的深度卷积网络:其中一个分支负责高层特征(类间特征)的提取;另一个分支负责底层特征(类内特征)的提取。最终利用三元组损失函数对网络进行监督学习,实现端对端多层次的深度特征的提取与目标检索。分层特征的构建与获取,从根本上提升了检索识别效率。同时借助针对CAD图纸检测的三元组损失函数的设计与构建,进一步提升了检索的辨识粒度,大幅度地提升了检索结果的准确度。
附图说明
图1为本发明构建的双支深度卷积网络结构示意图。
图2为本发明实施例的流程图。
具体实施方式
为了更好地理解本发明的技术方案,下面结合附图和实施例对本发明做进一步的详细说明。
参见图2,本发明实施例提供的一种基于深度学习的CAD图纸检索方法,包括以下步骤:
1)CAD图纸标注。具体实施时,可以利用已有的CAD图纸库,或者预先收集CAD图纸样本数据,并对各图纸数据进行预先标注,图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别(如室内装修类,室外场景类等)。
2)双支深度卷积网络构建。VGG网络是最常用的基于深度学习的识别模型之一,在目标识别任务中具有优秀的性能和出众的表现,,本专利提出在VGG网络结构的基础上构建双支深度学习模型,以实现更高效能的检索模型。双支网络结构如附图1所示,卷积层1-卷积层3作为共享层,获取样本的浅层深度特征,类间特征提取作为网络的一支,根据图纸种类Class作为标签,通过卷积层4_1,卷积层5_1和两个全连接层(全连接层6_1和全连接层7_1)获取图纸的类别特征Attribute_feature,以实现类别识别;类似,类内特征利用相似的结构,通过卷积层4_2,卷积层5_2和两个全连接层(全连接层6_2和全连接层7_2)获取图纸的类内特征Sample_feature,以实现实例聚类;共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合(拼接)后,进行双层全连接映射输入到损失函数中。其中,卷积层1、卷积层2、卷积层5_1、卷积层5_2带有池化层。
3)损失函数设计。深度学习中,常用的分类方法是利用softmax等函数直接输出样本的类别,这种方式一定程度上限制了图像检中对检索对象的辨识粒度,本发明提出利用三元组损失函数训练深度网络,提升检索辨识能力。
具体步骤:设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚(Anchor)图例,即图像imgi本身,posi是anci的正(Positive)图例,即与imgi具有相同ID(IDi)的图像(imgi本身除外),neg是与imgi具有不同ID(IDi)的图像,称为负(Negative)图例,通过优化空间构建函数L:
其中,函数对网络进行训练时,f(·)表示训练使用的是步骤2)构建的双支深度卷积网络(深度学习模型),N表示某一类图样本的样本数量,α是用来控制样本信息传递的边界参数,实施例优选设置的默认取值是0.5。通过L的最大化实现网络的训练和优化。
4)三元测试组的构建。
对于任意的三元图例组<CADrawingj1,CADrawingj2,CADrawingj3>,anc的选取是任意、无约束的,剩余两个图例根据下述步骤进行pos图例和neg图例的分配。
具体步骤:对于三元组图例<CADrawingj1,CADrawingj2,CADrawingj3>,任意选取其中一个图例作为anc,如选取图例CADrawingj1作为anc。对图例CADrawingj2与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj12,CADrawingj3与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj13。当时,选取max(Siftnumj12,Siftnumj13)对应的图例作为pos图例,选取min(Siftnumj12,Siftnumj13)对应的图例作为neg图例;其它情况下,CADrawingj2,CADrawingj3可以任意选取作为pos或neg图例。其中θ是控制三元组距离度量的常参数,θ越大表示选取的正负图例视觉特征差别越大,实施例优选设置的默认选取0.3。
5)训练样本的构建。从CAD图纸库中以随机抽取的方式,选取M组具有不同构成的三元图例组,每组图例中保证至少有两个图例是属于同一对象或类别,表示为根据步骤4对每组图例CADrawingk1,CADrawingk2,CADrawingk3进行<anc,pos,neg>的分配,将<anc,pos,neg>作为输入,maxL作为优化标准,对网络进行训练。
6)空间映射。根据步骤5)所得M组三元组,步骤2)选取的深度卷积网络(深度学习模型)可得充分的训练,输出图例的特征表达向量,将CAD图纸从原始的图像空间映射到特征表达向量空间{Vec},可表示为:对于CAD图纸样本CADrawingl,f(CADrawingl)→Vecl,其中f(·)表示训练使用的是步骤2)构建的深度卷积网络(深度学习模型)。在{Vec}中,向量之间的欧式距离可以直接反应向量之间的相似程度。
实施例中,对步骤5所得M组三元组,输入到步骤2)中提出的双支深度卷积网络中,进行组内向量优化(类内距离尽可能小,类间距离尽可能大),最后得到的是每个图纸的向量化表达,向量之间的距离直接表示了对应图纸间的相似度。
7)实现检索。对于任意待检索CAD图纸CADrawingjc,利用训练好的深度网络f(·)实现空间映射:f(CADrawingjc)→Vecjc,根据优选采用的匹配指标Top-5 Match,即在{Vec}中选取距离Vecjc最近的5个向量,这五个向量对应的CAD图纸即是CADrawingjc的TOP-5最优匹配。
具体实施时,可采用软件方式实现流程的自动运行。运行流程的装置也应当在本发明的保护范围内。本发明实施例提供一种基于双分支深度学习的CAD图纸检索***,包括如下模块:
CAD图纸标注模块,用于对CAD图纸库中各图纸数据进行预先标注,将图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别;
双支深度卷积网络构建模块,用于获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支,共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合后,进行双层全连接映射输入到损失函数中;
损失函数模块,用于设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚图例,posi是anci的正图例,即与imgi具有相同IDi的图像,neg是与imgi具有不同IDi的图像,称为负图例,通过优化空间构建损失函数L如下,
三元测试组构建模块,用于设定对于任意的三元图例组,锚图例的选取是任意、无约束的,剩余两个图例进行正图例和负图例的分配;
训练样本构建模块,用于从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;根据三元测试组构建模块的设定对每组图例进行锚图例、正图例和负图例的分配;
空间映射模块,用于根据训练样本构建模块所得训练样本对构建所得双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;
检索实现模块,用于包括对于任意待检索CAD图纸,利用空间映射模块训练好的双支深度卷积网络实现空间映射,获取匹配结果。
具体模块实现可参见相应步骤,本发明不予赘述。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替换。
Claims (4)
1.一种基于双分支深度学习的CAD图纸检索方法,其特征在于,包括如下步骤:
步骤1,CAD图纸标注,包括对CAD图纸库中各图纸数据进行预先标注,将图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别;
步骤2,双支深度卷积网络构建,包括获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支,共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合后,进行双层全连接映射输入到损失函数中;
步骤3,损失函数设置,包括设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚图例,posi是anci的正图例,即与imgi具有相同IDi的图像,negi是与imgi具有不同IDi的图像,称为负图例,通过优化空间构建损失函数L如下,
步骤4,三元测试组的构建,包括设定对于任意的三元图例组,锚图例的选取是任意、无约束的,剩余两个图例进行正图例和负图例的分配;
步骤5,训练样本的构建,包括从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;根据步骤4对每组图例进行锚图例、正图例和负图例的分配;
步骤6,空间映射,根据步骤4所得训练样本对步骤2所得双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;
步骤7,检索实现,包括对于任意待检索CAD图纸,利用步骤6训练好的双支深度卷积网络实现空间映射,获取匹配结果。
2.根据权利要求1所述的基于双分支深度学习的CAD图纸检索方法,其特征在于:步骤4中,设定正图例和负图例的分配方式如下,
对于三元组图例<CADrawingj1,CADrawingj2,CADrawingj3>,设任意选取其中图例CADrawingj1作为锚图例,
对图例CADrawingj2与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj12,CADrawingj3与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj13;
3.一种基于双分支深度学习的CAD图纸检索***,其特征在于,包括如下模块:
CAD图纸标注模块,用于对CAD图纸库中各图纸数据进行预先标注,将图纸CADrawingi标注格式定义为(imgi,Classi,IDi),其中imgi表示图纸的序号,每个图纸的imgi唯一且各不相同;IDi表示该图纸对应的实体身份,一个IDi能够对应多个imgi;Classi表示该实体的隶属类别;
双支深度卷积网络构建模块,用于获取样本浅层深度特征的共享层、类间特征提取分支和类内特征分支,共享层分别连接类间特征提取分支和类内特征分支,最后将两类特征融合后,进行双层全连接映射输入到损失函数中;
损失函数模块,用于设以三元测试组<anci,posi,negi>作为网络输入,其中anci是图像imgi的锚图例,posi是anci的正图例,即与imgi具有相同IDi的图像,negi是与imgi具有不同IDi的图像,称为负图例,通过优化空间构建损失函数L如下,
三元测试组构建模块,用于设定对于任意的三元图例组,锚图例的选取是任意、无约束的,剩余两个图例进行正图例和负图例的分配;
训练样本构建模块,用于从CAD图纸库中以随机抽取的方式,选取具有不同构成的三元图例组作为训练样本,每组图例中保证至少有两个图例是属于同一对象或类别;根据三元测试组构建模块的设定对每组图例进行锚图例、正图例和负图例的分配;
空间映射模块,用于根据训练样本构建模块所得训练样本对构建所得双支深度卷积网络进行训练,将CAD图纸从原始的图像空间映射到特征表达向量空间;
检索实现模块,用于包括对于任意待检索CAD图纸,利用空间映射模块训练好的双支深度卷积网络实现空间映射,获取匹配结果。
4.根据权利要求3所述的基于双分支深度学习的CAD图纸检索***,其特征在于:三元测试组构建模块中,设定正图例和负图例的分配方式如下,
对于三元组图例<CADrawingj1,CADrawingj2,CADrawingj3>,设任意选取其中图例CADrawingj1作为锚图例,
对图例CADrawingj2与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj12,CADrawingj3与CADrawingj1做SIFT特征点匹配,匹配点个数记为Siftnumj13;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911039339.1A CN111125395B (zh) | 2019-10-29 | 2019-10-29 | 一种基于双分支深度学习的cad图纸检索方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911039339.1A CN111125395B (zh) | 2019-10-29 | 2019-10-29 | 一种基于双分支深度学习的cad图纸检索方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111125395A CN111125395A (zh) | 2020-05-08 |
CN111125395B true CN111125395B (zh) | 2021-07-20 |
Family
ID=70495462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911039339.1A Active CN111125395B (zh) | 2019-10-29 | 2019-10-29 | 一种基于双分支深度学习的cad图纸检索方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111125395B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111951263A (zh) * | 2020-08-26 | 2020-11-17 | 桂林电子科技大学 | 一种基于卷积神经网络的机械零件图纸检索方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3234871B1 (en) * | 2014-12-17 | 2020-11-25 | Google LLC | Generating numeric embeddings of images |
CN106951911B (zh) * | 2017-02-13 | 2021-06-29 | 苏州飞搜科技有限公司 | 一种快速的多标签图片检索***及实现方法 |
CN107330100B (zh) * | 2017-07-06 | 2020-04-03 | 北京大学深圳研究生院 | 基于多视图联合嵌入空间的图像-文本双向检索方法 |
US11017556B2 (en) * | 2017-10-04 | 2021-05-25 | Nvidia Corporation | Iterative spatio-temporal action detection in video |
CN110188225B (zh) * | 2019-04-04 | 2022-05-31 | 吉林大学 | 一种基于排序学习和多元损失的图像检索方法 |
CN110263644B (zh) * | 2019-05-21 | 2021-08-10 | 华南师范大学 | 基于三胞胎网络的遥感图像分类方法、***、设备及介质 |
-
2019
- 2019-10-29 CN CN201911039339.1A patent/CN111125395B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111125395A (zh) | 2020-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110414368B (zh) | 一种基于知识蒸馏的无监督行人重识别方法 | |
CN109002834B (zh) | 基于多模态表征的细粒度图像分类方法 | |
WO2022252274A1 (zh) | 基于PointNet网络点云分割及虚拟环境生成方法和装置 | |
CN106127785B (zh) | 基于流形排序和随机游走的图像显著性检测方法 | |
CN108288088A (zh) | 一种基于端到端全卷积神经网络的场景文本检测方法 | |
CN112907602B (zh) | 一种基于改进k-近邻算法的三维场景点云分割方法 | |
CN110399800B (zh) | 基于深度学习vgg16框架的车牌检测方法及***、存储介质 | |
CN112633350A (zh) | 一种基于图卷积的多尺度点云分类实现方法 | |
CN112016601B (zh) | 基于知识图谱增强小样本视觉分类的网络模型构建方法 | |
CN112347970A (zh) | 一种基于图卷积神经网络的遥感影像地物识别方法 | |
CN113378736B (zh) | 基于变换一致性正则化的遥感影像半监督语义分割方法 | |
CN112330699B (zh) | 一种基于重叠区域对齐的三维点云分割方法 | |
CN113033454A (zh) | 一种城市视频摄像中建筑物变化的检测方法 | |
CN115147599A (zh) | 一种面向遮挡和截断场景的多几何特征学习的物体六自由度位姿估计方法 | |
CN115482387A (zh) | 基于多尺度类别原型的弱监督图像语义分割方法及*** | |
CN113129284A (zh) | 一种基于5g云边协同的外观检测方法及实现*** | |
CN111125395B (zh) | 一种基于双分支深度学习的cad图纸检索方法及*** | |
CN116310466A (zh) | 基于局部无关区域筛选图神经网络的小样本图像分类方法 | |
Jiang et al. | Extracting 3-D structural lines of building from ALS point clouds using graph neural network embedded with corner information | |
CN112669452B (zh) | 一种基于卷积神经网络多分支结构的物体定位方法 | |
CN116108549B (zh) | 一种绿色建筑构件组合虚拟装配***及方法 | |
CN104778272A (zh) | 一种基于区域挖掘和空间编码的图像位置估计方法 | |
CN115359304B (zh) | 一种面向单幅图像特征分组的因果不变性学习方法及*** | |
Li et al. | Few-shot meta-learning on point cloud for semantic segmentation | |
Zhou et al. | Training convolutional neural network for sketch recognition on large-scale dataset. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |