CN113420173A - 基于四元组深度学习的少数民族服饰图像检索方法 - Google Patents

基于四元组深度学习的少数民族服饰图像检索方法 Download PDF

Info

Publication number
CN113420173A
CN113420173A CN202110690350.5A CN202110690350A CN113420173A CN 113420173 A CN113420173 A CN 113420173A CN 202110690350 A CN202110690350 A CN 202110690350A CN 113420173 A CN113420173 A CN 113420173A
Authority
CN
China
Prior art keywords
minority
image
quadruple
model
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202110690350.5A
Other languages
English (en)
Inventor
谢武
崔梦银
张径舟
卢阳
李玉婷
王兴宇
谢建丰
陈金龙
强保华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202110690350.5A priority Critical patent/CN113420173A/zh
Publication of CN113420173A publication Critical patent/CN113420173A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于四元组深度学习的少数民族服饰检索的方法,该方法通过图像增强可以使少数民族服饰图像达到视觉上好的效果,同时通过构建基于四元组损失函数的基本网络模型,来扩大类内差异,减少类间差异。本发明方法是在三元组损失函数的基础上提出的,在三元组损失函数的基础上加上高度相似的样本形成四元组,即锚点、正样本、负样本、高度相似样本。四元组损失函数在少数民族服饰图像检索提出,能够更好的缩小类内之间的方差,来扩大异类之间的方差,从而提高图像检索的准确率。

Description

基于四元组深度学习的少数民族服饰图像检索方法
技术领域
本发明涉及少数民族服饰图像检索领域,具体是一种基于四元组深度学习的少数民族服饰图像检索方法。
背景技术
在计算机视觉中,三元组损失函数在图像检索领域已得到广泛的应用,三元组损失函数主要由锚点、正样本和负样本三个训练样本构成。三元组损失函数应用在深度神经网络中可以使生成的图像表示保存更多的语义特征。为了使不同类之间的样本被推倒至更远的距离,同类之间的样本距离更近,在训练网格的过程中要保证正样本至锚点的距离要小于负样本到锚点的距离。但是三元组应用在深度神经网络中忽略了异同类之间的联系及同类之间的差异性,导致高度相似的样本被视为同类,最终检索出的图像准确率较低。
发明内容
本发明的目的是为了提高少数民族图像检索的准确率,而提出一种基于四元组深度学习的少数民族服饰图像检索方法,该方法通过四元组损失函数扩大类间的方差,缩小类内之间的方差,进一步提高少数民族服饰图像检索的精度。
实现本发明目的的技术方案是:
基于四元组深度学习的少数民族服饰图像检索方法,包括如下步骤:
(1)少数民族服饰图像数据集的处理:采集少数民族服饰图片,并对图片进行归一化处理成CNN模型需要的数据输入格式;
(2)少数民族服饰图像数据增强:通过带颜色恢复的多尺度Retinex算法对少数民族服饰图像数据集进行增强以获得高质量的图像;
(3)划分少数民族服饰图像数据集:按照8∶1∶1的比例将数据集拆分成训练集、验证集和检索测试集;
(4)模型的构建:通过四元组损失函数,构建卷积神经网络的模型;
(5)模型的训练和特征数据库的构建:通过步骤(4)构建好的模型,对少数民族服饰图像进行一系列的卷积、池化和全连接操作,提取少数民族服饰图像的特征,并构建特征向量数据库;
(6)模型的测试:使用训练好的模型在检索测试集上进行检索,并评估该模型的泛化能力及检索准确度。
步骤(2)所述带颜色恢复的多尺度Retinex算法(MSRCR)是:
对各个单尺度加权输出相加称为MSR,MSR的数学公式可表示为:
Figure BDA0003126513220000021
{logIi(m,n)-log[Ii(m,n)*Mj(m,n)]}
式中N表示尺度的使用数量,I表示(R,G,B)中的颜色通道,Mj(m,n)代表环绕功能;环绕函数可表示为:
Figure BDA0003126513220000022
式中σj表示高斯分布的标准差,在MSRCR需要引进RGB三通道引入权重,将MSR输出乘以颜色恢复功能已达到目标;颜色恢复因子可表示为:
Figure BDA0003126513220000023
式中N表示光谱带的数量,f()是色彩映射空间的函数,ai(m,n)表示第i个光谱带的色彩恢复系数;得到MSRCR的公式如下:
Ri(m,n)=ai(m,n)RMSR(m,n)
步骤(4)所述四元组损失函数是在三元组损失函数基础上得出的,比三元组多了一个高度相似样本,其中四元组的组成部分是锚点(qry),正样本(pos),负样本(neg),高度相似样本(hig);三元损失函数可表示为如下:
Figure BDA0003126513220000024
上式中:f(x)表示输入图像x的特征向量,a表示控制损失产生的条件,I[b]=max(b,0);四元组损失函数可表示为如下:
Figure BDA0003126513220000025
其中a1,a2,a3表示不同的距离间隔;在四元组损失函数学习特征时还需要满足如下的约束条件:
Figure BDA0003126513220000031
Figure BDA0003126513220000032
Figure BDA0003126513220000033
构建好四元组损失函数后,将损失函数应用在基本的网络模型中,以少数民族服饰图像四元组的形式输入图像输入到共享基础网络中,通过少数民族服饰图像的监督学习四元组,在欧几里德空间中理想分布,提高图像检索的准确率。
步骤(5)所述模型的训练和特征数据库的构建,包括如下步骤:
①通过将步骤(3)中划分的训练集以四元组的形式输入,使用迁移学习的方法对少数民族服饰图像的数据集上的预训练权重初始化步骤(4)构建的网络模型;
②根据步骤(2)增强后的少数民族图像数据集对模型中的参数进行调整,同时记录不同网络模型的精度,选取出好的模型为最终的少数民族服饰检索的特征提取模型;
③使用训练好的模型提取网络模型的倒数第二层的全连接层的特征作为少数民族服饰图像的特征表示,得到4096维的图像特征表示向量,特征提取进行完成图像特征数据库的构建。
步骤(6)模型的测试方式如下:将步骤(3)中的少数民族测试集作为查询的图像,使用训练好的模型提取该少数民族图像的特征,使用汉明距离与步骤(5)构建好的特征数据库中的所有特征进行相似度度量,并按照相似度大小返回检索的结果;最后在少数民族服饰数据集上对四元组损失和三元组损失的MAP学***均检索准确率高。
本发明的有益效果是:解决了在少数民族服饰检索的方法中不同民族之间存在服饰的整体形状及颜色或花纹相似,人们易于将它们视为同一个民族的服饰问题。此外,在同一民族之间存在服饰之间的颜色不同及纹理等不同,人们反而将它们视为不同的民族服饰,使得图像检索成为一种困难。本发明图像检索方法是在三元组损失函数的基础上提出的,在三元组损失函数的加上高度相似的样本形成四元组,即锚点、正样本、负样本、高度相似样本。四元组损失函数在少数民族服饰图像检索提出,能够更好的缩小小类内之间的方差,来扩大异类之间的方差,从而提高图像检索的准确率。
附图说明
图1为本发明的少数民族服饰图像检索的一般流程图。
图2为本发明中利用MSRCR算法增强后的效果图。
图3为本发明中基于四元组损失函数构建的网络模型。
图4为本发明三元组损失和四元组损失MAP曲线比较。
具体实施方式
下面结合附图和实施对本发明作进一步的阐述。
实施例:
如图1所示,本发明一种基于四元组深度学习的少数民族服饰图像检索方法,图1中描述了完成少数民族服饰检索的整个流程,其中通过图像增强可以使少数民族服饰图像达到视觉上好的效果,此外,另一方面,通过构建基于四元组损失函数的基本网络模型,来扩大类内差异,减少类间差异。具体来说分为三个阶段:数据增强、模型训练和模型测试。主要包含如下步骤:
(1)少数民族服饰图像数据集的处理,采集少数民族服饰图片,并对图片进行归一化处理成CNN模型需要的数据输入格式;
(2)少数民族服饰图像数据增强:由于在拍摄的过程中受到光线暗等因素的影响导致图像的分辨率低的问题,为了解决此问题,所以采用MSRCR算法:
在数据增强领域,MSR算法被广泛的使用,为了解决使用MSR进行增强后图像存在图像变灰的问题,对MSR算法基础进一步的改进得到MSRCR算法;对各个单尺度加权输出的相加称为MSR;MSR的数学公式可表示为:
Figure BDA0003126513220000041
{logIi(m,n)-log[Ii(m,n)*Mj(m,n)]}
其中N表示尺度的使用数量,I表示(R,G,B)中的颜色通道,Mj(m,n)代表环绕功能。环绕函数可表示为:
Figure BDA0003126513220000042
其中σj表示高斯分布的标准差。MSR算法能够提供整体再现和动态范围压缩功能的结果,使得经过MSR算法进行像增强后,原图像的大部分细节依然存在,但是它在色彩上出现颜色变成灰色的问题,为了解决此问题,利用MSRCR进行图像的增强。在MSRCR需要引进RGB三通道引入权重,将MSR输出乘以颜色恢复功能已达到目标。颜色恢复因子可表示为:
Figure BDA0003126513220000051
其中N表示光谱带的数量,f()是色彩映射空间的函数,ai(m,n)表示第i个光谱带的色彩恢复系数。最终可得到MSRCR的公式如下:
Ri(m,n)=ai(m,n)RMSR(m,n)
使用此算法生成的效果图,如图2所示;
(3)划分少数民族服饰图像数据集:将数据集按照8∶1∶1的比例拆分成训练集、验证集和检索测试集;
(4)模型的构建:通过将基本的网络模型中的损失函数替换为四元组损失函数构建卷积神经网络的模型。
四元组的损失函数是在三元组损失函数基础上得出的,比三元组多了一个高度相似样本,其中四元组的组成部分是锚点(qry),正样本(pos),负样本(neg),高度相似样本(hig)。三元损失函数可表示为如下:
Figure BDA0003126513220000052
上式中的f(x)表示输入图像x的特征向量,a表示控制损失产生的条件,I[b]=max(b,0)。四元组损失函数可表示为如下:
Figure BDA0003126513220000053
其中a1,a2表示不同的距离间隔。在四元组损失函数学习特征时还需要满足如下的约束条件:
Figure BDA0003126513220000061
Figure BDA0003126513220000062
Figure BDA0003126513220000063
构建好四元组损失函数后,将损失函数应用在基本的网络模型中,输入图像以少数民族服饰图像四元组的形式输入到共享基础网络中(如图3所示);目的是通过少数民族服饰的监督学习四元组在欧几里德空间中的理想分布,提高图像检索的准确率。
(5)模型的训练和特征数据库的构建。通过构建好的网络模型,对少数民族服饰图像进行一系列的卷积、池化和全连接操作,提取少数民族服饰图像的特征,并构建特征向量数据库。详细步骤如下:
①通过将步骤(3)中划分的训练集以四元组的形式输入,使用迁移学习的方法,少数民族服饰图像的数据集上的预训练权重初始化步骤(4)构建的网络模型;
②根据步骤(2)增强后的少数民族图像数据集对模型中的参数进行调整,同时记录不同网络模型的精度,选取出好的模型为最终的少数民族服饰检索的特征提取模型;
③使用训练好的模型提取网络模型的倒数第二层的全连接层的特征作为少数民族服饰图像的特征表示,得到4096维的图像特征表示向量。特征提取进行完成图像特征数据库的构建;
(6)模型测试:将步骤(3)中的少数民族测试集作为查询的图像,使用训练好的模型提取该少数民族服饰图像的特征,使用汉明距离与步骤(5)构建好的特征数据库中的所有特征进行相似度度量,并按照相似度大小返回检索的结果;最后在少数民族服饰数据集上对四元组损失和三元组损的MAP学***均检索准确率MAP获得了大约2.3%的提升(如图4所示)。通过四元组损失函数有效的减少类内之间的差异,扩大类间的差异,提高少数民族服饰图像检索的准确率。

Claims (5)

1.基于四元组深度学习的少数民族服饰图像检索方法,其特征是:包括如下步骤:
(1)少数民族服饰图像数据集的处理:采集少数民族服饰图片,并对图片进行归一化处理成CNN模型需要的数据输入格式;
(2)少数民族服饰图像数据增强:通过带颜色恢复的多尺度Retinex算法对少数民族服饰图像数据集进行增强以获得高质量的图像;
(3)划分少数民族服饰图像数据集:按照8∶1∶1的比例将数据集拆分成训练集、验证集和检索测试集;
(4)模型的构建:通过四元组损失函数,构建卷积神经网络的模型;
(5)模型的训练和特征数据库的构建:通过步骤(4)构建好的模型,对少数民族服饰图像进行一系列的卷积、池化和全连接操作,提取少数民族服饰图像的特征,并构建特征向量数据库;
(6)模型的测试:使用训练好的模型在检索测试集上进行检索,并评估该模型的泛化能力及检索准确度。
2.根据权利要求1所述的少数民族服饰图像检索方法,其特征是:步骤(2)所述带颜色恢复的多尺度Retinex算法是:
对各个单尺度加权输出相加称为MSR,MSR的数学公式可表示为:
Figure FDA0003126513210000011
{logIi(m,n)-log[Ii(m,n)*Mj(m,n)]}
式中N表示尺度的使用数量,I表示(R,G,B)中的颜色通道,Mj(m,n)代表环绕功能;环绕函数可表示为:
Figure FDA0003126513210000012
式中σj表示高斯分布的标准差,在MSRCR需要引进RGB三通道引入权重,将MSR输出乘以颜色恢复功能已达到目标;颜色恢复因子可表示为:
Figure FDA0003126513210000013
式中N表示光谱带的数量,f()是色彩映射空间的函数,ai(m,n)表示第i个光谱带的色彩恢复系数;得到MSRCR的公式如下:
Ri(m,n)=ai(m,n)RMSR(m,n)。
3.根据权利要求1所述的少数民族服饰图像检索方法,其特征是:步骤(4)所述四元组损失函数是在三元组损失函数基础上得出的,比三元组多了一个高度相似样本,其中四元组的组成部分是锚点(qry),正样本(pos),负样本(neg),高度相似样本(hig);三元损失函数可表示为如下:
Figure FDA0003126513210000021
上式中:f(x)表示输入图像x的特征向量,a表示控制损失产生的条件,I[b]=max(b,0);四元组损失函数可表示为如下:
Figure FDA0003126513210000022
其中a1,a2,a3表示不同的距离间隔;在四元组损失函数学习特征时还需要满足如下的约束条件:
Figure FDA0003126513210000023
Figure FDA0003126513210000024
Figure FDA0003126513210000025
构建好四元组损失函数后,将损失函数应用在基本的网络模型中,以少数民族服饰图像四元组的形式输入图像输入到共享基础网络中,通过少数民族服饰图像的监督学习四元组,在欧几里德空间中理想分布,提高图像检索的准确率。
4.根据权利要求1所述的少数民族服饰图像检索方法,其特征是:步骤(5)所述模型的训练和特征数据库的构建,包括如下步骤:
①通过将步骤(3)中划分的训练集以四元组的形式输入,使用迁移学习的方法对少数民族服饰图像的数据集上的预训练权重初始化步骤(4)构建的网络模型;
②根据步骤(2)增强后的少数民族图像数据集对模型中的参数进行调整,同时记录不同网络模型的精度,选取出好的模型为最终的少数民族服饰检索的特征提取模型;
③使用训练好的模型提取网络模型的倒数第二层的全连接层的特征作为少数民族服饰图像的特征表示,得到4096维的图像特征表示向量,特征提取进行完成图像特征数据库的构建。
5.根据权利要求1所述的少数民族服饰图像检索方法,其特征是:步骤(6)模型的测试方式如下:将步骤(3)中的少数民族测试集作为查询的图像,使用训练好的模型提取该少数民族图像的特征,使用汉明距离与步骤(5)构建好的特征数据库中的所有特征进行相似度度量,并按照相似度大小返回检索的结果;最后在少数民族服饰数据集上对四元组损失和三元组损失的MAP学***均检索准确率高。
CN202110690350.5A 2021-06-22 2021-06-22 基于四元组深度学习的少数民族服饰图像检索方法 Withdrawn CN113420173A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110690350.5A CN113420173A (zh) 2021-06-22 2021-06-22 基于四元组深度学习的少数民族服饰图像检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110690350.5A CN113420173A (zh) 2021-06-22 2021-06-22 基于四元组深度学习的少数民族服饰图像检索方法

Publications (1)

Publication Number Publication Date
CN113420173A true CN113420173A (zh) 2021-09-21

Family

ID=77789821

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110690350.5A Withdrawn CN113420173A (zh) 2021-06-22 2021-06-22 基于四元组深度学习的少数民族服饰图像检索方法

Country Status (1)

Country Link
CN (1) CN113420173A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140826A (zh) * 2021-12-03 2022-03-04 北京交通大学 一种基于相机特征分离的目标重识别方法
CN115690844A (zh) * 2022-10-31 2023-02-03 哈尔滨商业大学 一种基于深度学习模型的少数民族服饰分类方法和***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110033007A (zh) * 2019-04-19 2019-07-19 福州大学 基于深度姿态预估和多特征融合的行人衣着属性识别方法
CN110210567A (zh) * 2019-06-06 2019-09-06 广州瑞智华创信息科技有限公司 一种基于卷积神经网络的服装图像分类与检索方法及***
CN110309770A (zh) * 2019-06-28 2019-10-08 华侨大学 一种基于四元组损失度量学习的车辆再辨识方法
CN111428738A (zh) * 2020-04-08 2020-07-17 青岛海尔智能技术研发有限公司 用于衣物图像检索的方法及装置、设备
US20200242153A1 (en) * 2019-01-29 2020-07-30 Samsung Electronics Co., Ltd. Method, apparatus, electronic device and computer readable storage medium for image searching
CN111914109A (zh) * 2020-07-29 2020-11-10 厦门大学 一种基于深度度量学习的服装检索技术
US20200372350A1 (en) * 2019-05-22 2020-11-26 Electronics And Telecommunications Research Institute Method of training image deep learning model and device thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200242153A1 (en) * 2019-01-29 2020-07-30 Samsung Electronics Co., Ltd. Method, apparatus, electronic device and computer readable storage medium for image searching
CN110033007A (zh) * 2019-04-19 2019-07-19 福州大学 基于深度姿态预估和多特征融合的行人衣着属性识别方法
US20200372350A1 (en) * 2019-05-22 2020-11-26 Electronics And Telecommunications Research Institute Method of training image deep learning model and device thereof
CN110210567A (zh) * 2019-06-06 2019-09-06 广州瑞智华创信息科技有限公司 一种基于卷积神经网络的服装图像分类与检索方法及***
CN110309770A (zh) * 2019-06-28 2019-10-08 华侨大学 一种基于四元组损失度量学习的车辆再辨识方法
CN111428738A (zh) * 2020-04-08 2020-07-17 青岛海尔智能技术研发有限公司 用于衣物图像检索的方法及装置、设备
CN111914109A (zh) * 2020-07-29 2020-11-10 厦门大学 一种基于深度度量学习的服装检索技术

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
侯进辉: "基于深度学习的车辆再识别研究", 《中国优秀博硕士学位论文全文数据库(硕士) 工程科技Ⅱ辑》 *
刘英波: "洗车店内车牌图像定位研究", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *
吴帆 等: "一种基于卷积神经网络的多特征服装图像检索方法", 《湖南工程学院学报(自然科学版)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114140826A (zh) * 2021-12-03 2022-03-04 北京交通大学 一种基于相机特征分离的目标重识别方法
CN114140826B (zh) * 2021-12-03 2024-05-31 北京交通大学 一种基于相机特征分离的目标重识别方法
CN115690844A (zh) * 2022-10-31 2023-02-03 哈尔滨商业大学 一种基于深度学习模型的少数民族服饰分类方法和***

Similar Documents

Publication Publication Date Title
CN110020682B (zh) 一种基于小样本学习的注意力机制关系对比网络模型方法
CN110096968B (zh) 一种基于深度模型优化的超高速静态手势识别方法
CN110532900B (zh) 基于U-Net和LS-CNN的人脸表情识别方法
CN108734723B (zh) 一种基于自适应权重联合学习的相关滤波目标跟踪方法
Shao et al. Feature learning for image classification via multiobjective genetic programming
CN106228185B (zh) 一种基于神经网络的通用图像分类识别***及方法
CN110399821B (zh) 基于人脸表情识别的顾客满意度获取方法
CN111832546B (zh) 一种轻量级自然场景文本识别方法
CN112528928B (zh) 一种基于自注意力深度网络的商品识别方法
CN109101938B (zh) 一种基于卷积神经网络的多标签年龄估计方法
CN106504064A (zh) 基于深度卷积神经网络的服装分类与搭配推荐方法及***
CN111696101A (zh) 一种基于SE-Inception的轻量级茄科病害识别方法
CN109741341A (zh) 一种基于超像素和长短时记忆网络的图像分割方法
CN114187450A (zh) 一种基于深度学习的遥感图像语义分割方法
CN111984817B (zh) 一种基于自注意力机制加权的细粒度图像检索方法
CN113420173A (zh) 基于四元组深度学习的少数民族服饰图像检索方法
CN112733602B (zh) 关系引导的行人属性识别方法
CN114565048A (zh) 基于自适应特征融合金字塔网络的三阶段害虫图像识别方法
CN113920516B (zh) 一种基于孪生神经网络的书法字骨架匹配方法及***
CN113032613A (zh) 一种基于交互注意力卷积神经网络的三维模型检索方法
CN111709433A (zh) 一种多特征融合图像识别算法
CN114758224A (zh) 一种基于深度学习的垃圾分类检测方法
CN114187590A (zh) 同色系背景下目标果实识别方法及***
CN111695507B (zh) 一种基于改进VGGNet网络和PCA的静态手势识别方法
CN109299295B (zh) 蓝印花布图像数据库搜索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20210921

WW01 Invention patent application withdrawn after publication