CN109948029A - 基于神经网络自适应的深度哈希图像搜索方法 - Google Patents
基于神经网络自适应的深度哈希图像搜索方法 Download PDFInfo
- Publication number
- CN109948029A CN109948029A CN201910071846.7A CN201910071846A CN109948029A CN 109948029 A CN109948029 A CN 109948029A CN 201910071846 A CN201910071846 A CN 201910071846A CN 109948029 A CN109948029 A CN 109948029A
- Authority
- CN
- China
- Prior art keywords
- neural network
- recognition
- network
- map value
- searching method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了强化学习及深度学习领域的一种基于神经网络自适应的深度哈希图像搜索方法,首先在数据集中对大规模图像进行分类标记,然后通过定义搜索空间,利用循环神经网络抽样得到多组卷积神经网络结构模型,随后分别将抽样得到的卷积神经网络在哈希损失函数的约束下训练并得到mAP值,然后利用传回的mAP值,使用强化学习中的策略梯度方法同时通过反向传播来更新循环神经网络的参数,在达到目标迭代数目后,最后选取了最终的神经网络结构,本发明解决了在大规模图像检索过程中,传统深度哈希方法应用图像分类卷积神经网络而不是适应于深度哈希任务的神经网络所导致的性能欠佳的问题,有效提高了神经网络结构的设计效率,减少了计算开销。
Description
技术领域
本发明涉及一种网络搜索方法,具体的说是一种基于神经网络自适应的深度哈希图像搜索方法,属于强化学习及深度学习领域。
背景技术
现代互联网面临海量的图像数据,需要对大规模的图像数据进行快速检索。传统的图像检索方法存在检索速度慢和消耗大量存储空间的问题。哈希算法实现了图像的二值化,利用哈希码来快速检索图像,在大大减少了时间和存储空间的损耗的同时,也拥有较高的精度。但传统的哈希方法通常通过手工提取图像特征,无法实现端到端的优化,在图像检索的精度方面有所欠缺。深度学习的提出解决了这一问题,它通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习采用特征学习和分层特征提取的高效算法来替代手工获取特征,同时可端到端更新自身网络参数进行优化。
随着深度学习的发展,结合了深度学习和传统哈希方法的深度哈希方法已成为被广泛使用的大规模图像检索方法,它利用设计的卷积神经网络架构提取图像特征,在保有原来检索速度快的优点的同时大幅提高了图像检索的精度。但是已存在的深度哈希算法主要使用已有的针对其他图像任务设计而成的深度学习网络架构,而没有对适应于哈希检索任务的网络架构进行探索。传统的卷积神经网络架构如AlexNet、VGGNet往往由专家设计并通过多次实验得到最优架构,这通常需要遍历所有可能的网络组成结构。在耗费大量时间和计算资源的同时,还不能根据特定任务设计特定的自适应网络结构来提升性能。
深度强化学习为寻找优秀的卷积神经网络架构提供了理论基础。传统的强化学习受限于较小的动作空间和样本空间,且一般处于离散的情境下。然而复杂的、更加接近实际情况的任务则往往有着很大的状态空间和连续的动作空间。当输入数据具有很高维度时,传统的强化学习很难处理,深度强化学习将深度学习可接受高维输入这一优点与强化学习结合起来。深度强化学习中的神经网络自适应方法避免了穷举问题,大大减少了消耗的时间和计算资源。与此同时,循环神经网络的发展解决了模型单一化的问题,它具有记忆性并且参数共享,因此能以很高的效率对序列的非线性特征进行学习。这为探索多样的卷积神经网络结构提供了可能。循环神经网络通过时间序列产生卷积神经网络模型,确保了组成卷积神经网络的组件之间的联系,而非将不同组件作为独立的个体来设计卷积神经网络。通过定义不同的搜索空间,使用神经网络自适应方法可以从多方面、多角度探索更适合深度哈希的网络架构。
综上所述,现有技术中对于如何利用神经网络自适应高效率、高精度的优点解决适应于深度哈希检索网络的搜索问题尚没有公开的披露。
发明内容
本发明的目的在于提供一种基于神经网络自适应的深度哈希图像搜索方法,主要用于解决在大规模图像检索过程中,传统深度哈希方法应用图像分类卷积神经网络而不是适应于深度哈希的神经网络的问题,以较低的计算开销训练搜索得到适应于深度哈希任务的卷积神经网络,同时性能优于传统深度哈希方法。
为了达到以上的目的,本发明提供了一种基于神经网络自适应的深度哈希图像搜索方法,其特征在于,包括以下步骤:
步骤1:在数据集中对大规模图像进行分类标记;
步骤2:定义搜索空间;
步骤3:通过循环神经网络抽样得到多组卷积神经网络结构模型;
步骤4:分别将抽样得到的卷积神经网络在哈希损失函数的约束下训练至收敛,在验证集上得到mAP值(平均精度值);
步骤5:利用传回的mAP值(平均精度值),使用强化学习中的策略梯度方法同时通过反向传播来更新循环神经网络的参数;
步骤6:重复步骤3至5进行迭代,直到达到目标迭代轮数,选取最终神经网络,在训练集上训练至收敛。
作为本发明的进一步限定,步骤1中,数据集中的每张图片都有对应的类别标记,对不同的图片打上不同的标记。
作为本发明的进一步限定,步骤2中,定义一个搜索空间,其中包含了3 ×3卷积核、5×5卷积核、跨层连接、最大池化层、平均池化层等结构。
作为本发明的进一步限定,步骤3中,循环神经网络的每个时序都会输出一组概率向量,每个概率向量包含了在这一步操作中选取搜索空间中某种组成结构的概率,根据这一概率向量进行随机抽样得到对应卷积神经网络的组成结构进而搭建整体网络结构。
作为本发明的进一步限定,步骤4中,分别将抽样得到的卷积神经网络在训练集上训练至收敛,然后在验证集上得到mAP值,将它作为强化学习中策略梯度的奖赏值返回至循环神经网络,在之后的迭代过程中,如果遇到了相同的结构,则会利用权值共享直接在验证集上得到mAP值返回来减少训练时间。
作为本发明的进一步限定,步骤5中,利用传回的mAP值,通过策略梯度方法和反向传播来更新循环神经网络的参数,在更新完成后,在每个时序分别产生新的概率向量,根据新的概率向量随机抽样得到新的多组网络结构,其中反向传播遵循的梯度公式为:
其中T表示控制器时序的总数,同时也表示子网络的总层数,J(θ)表示mAP 值(平均精度值)的数学期望值,表示梯度,θ表示控制器的参数分布,at表示t时序时的抽样结果,P(a1:T;θ)表示根据控制器的参数产生的1到T时序的概率分布,R表示返回的mAP值(平均精度值),E表示在概率分布P下的数学期望。
作为本发明的进一步限定,步骤6中,设置总迭代轮数,重复步骤3至5,直到达到目标迭代轮数后,在抽取的网络中选取一个在验证集上mAP指标最高的网络结构,最后将这一网络结构在训练集上训练至收敛。
与现有技术相比,本发明具有以下有益技术效果:
1、解决了很多传统深度哈希方法直接使用图像分类任务的神经网络结构,而非根据具体哈希任务设计自适应网络的问题;
2、解决了在设计传统神经网络结构时需要穷举所有可能的网络结构进行实验的问题,有效提高了神经网络结构的设计效率,减少了计算开销;
3、循环神经网络的应用解决了以往设计神经网络结构时模型结构单一化的问题,它通过时间序列产生卷积神经网络模型,确保了组成卷积神经网络的组件之间的联系,为探索多样的卷积神经网络结构提供了可能。
附图说明
图1为本方法的***框架图。
图2为本方法的控制器(循环神经网络)结构图。
图3为本方法的子网络(卷积神经网络)结构图。
图4为本方法的整体流程图。
具体实施方式
以下结合说明书附图对发明做进一步的详细说明。
本方法的***框架图如图1所示,整个方法过程可以分为通过控制器(循环神经网络)生成子网络(卷积神经网络),子网络返回mAP指标(平均精度值)更新控制器参数进行迭代优化的过程;具体框架分别如图2和图3所示,其中第一步到第三步采用如图2所示的方式,其中N表示组件的总数;第四步到第六步采用如图3所示的方式,其中N表示组件的总数;整体流程图如图4 所示。
第一步,在数据库中对大规模图像进行分类标记;
数据集中的每张图片都有对应的类别标记,对不同的图片打上不同的标记。
第二步,定义搜索空间;
人为定义搜索空间及生成的卷积神经网络层数,搜索空间可由不同尺寸的卷积核组件如3×3、5×5构成,也可以由不同尺寸的最大池化层、平均池化层组件构成,同时加入跨层连接组件,以解决网络退化和梯度消失的问题;首先考虑到优秀的卷积神经网络结构必须具有参数少、复杂度小的特点,通过借鉴 AlexNet、VGGNet、ResNet等网络的设计思想,多采用了小卷积核,如(3×3卷积核、5×5卷积核)等结构,并考虑使用最大池化、平均池化等不携带参数的减采样结构来优化卷积神经网络模型,每一个卷积神经网络组件都由一个特定的独热向量所映射得到。
第三步,通过循环神经网络抽样得到多组卷积神经网络结构模型;
需要说明的是,本发明的重点在于通过控制器(循环神经网络)来得到子网络(卷积神经网络),再通过子网络返回的mAP指标(平均精度值)来更新控制器参数以生成更优的子网络;循环神经网络的每个时序生成一个概率向量,通过这一概率向量进行随机抽样,在搜索空间中选取网络结构的组成部分,表示在该时序对应的子网络层结构组成部分;在控制器的结构选取中,考虑到子网络模型组件的前后关系,必须解决梯度消失的问题,采用了LSTM这一长短期记忆模型来生成子网络结构。
第四步,分别将抽样得到的卷积神经网络在哈希损失函数的约束下训练至收敛,在验证集上得到mAP值(平均精度值);
定义抽样的卷积神经网络数量,将抽样得到的卷积神经网络分别在大规模图像数据集的验证集上训练至收敛,然后选取其中mAP值(平均精度值)最高的网络在训练集上训练至收敛。在测试集上得到mAP值(平均精度值)返回至控制器(循环神经网络)。在卷积神经网络的训练过程中,通过构建性能优异的深度哈希目标函数来优化性能,同时考虑到收敛速度快、精度高的要求,采用了ADAM优化器,得到对应的深度哈希指标mAP值(平均精度值)。
第五步,利用传回的mAP值(平均精度值),利用强化学习中的策略梯度方法通过反向传播来更新循环神经网络的参数;
把RNN每一层根据输出的预测值进行的抽样记为一个动作,而动作的选取是由控制器(循环神经网络)的参数分布所决定的,要生成更好的模型,就要通过抽样模型训练后返回的mAP值(平均精度值)来更新控制器的参数,那其实就是寻找控制器的最优参数使mAP值(平均精度值)的数学期望值最大;这里采用强化学习中的策略梯度方法,即通过所有可能动作的组合求梯度的期望值来更新参数;
假设共有k个模型,那么它的梯度就是
其中T表示控制器时序的总数,同时也表示子网络的总层数,J(θ)表示mAP值 (平均精度值)的数学期望值,表示梯度,θ表示控制器的参数分布,at表示t 时序时的抽样结果,P(a1:T;θ)表示根据控制器的参数产生的1到T时序的概率分布, R表示返回的mAP值(平均精度值);
在实际操作过程中不可能将所有模型穷举出来,为了解决这个问题,采样 m个模型取平均值来逼近结果,这里的采样是根据P(a1:T;θ)这一概率分布进行的蒙特卡洛采样,本质的思想就是通过对一个事件的m次实验的结果取平均进行一个无偏估计,即在多次重复下,估计量的均值约等于真实值,采用估计量来近似表示事件的期望值。通过这种方法,可以得到循环网络反向传播时的近似梯度。
第六步,重复迭代至目标轮数,得到最终的卷积神经网络;
重复步骤三至五进行迭代,在每一次迭代过程后,循环神经网络抽样生成卷积神经网络的过程中,性能优异的卷积神经网络结构被抽样的概率将会提升,性能差的卷积神经网络结构被抽样的概率将会下降,所以将以更大的概率采样得到性能更优的网络结构;直到达到目标迭代轮数,选取在验证集中mAP指标 (平均精度值)最优的最终的卷积神经网络,在深度哈希损失函数的约束下在训练集上训练至收敛。至此,得到了性能优异的适应于深度哈希算法的卷积神经网络结构。
本发明最终将提出的基于神经网络自适应的深度哈希方法用于多个数据集中,以验证算法的有效性;所得的深度哈希卷积神经网络结构也可以迁移至其他图像处理任务中去(如图像分类)。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。
Claims (7)
1.一种基于神经网络自适应的深度哈希图像搜索方法,其特征在于,包括以下步骤:
步骤1:在数据集中对大规模图像进行分类标记;
步骤2:定义搜索空间;
步骤3:通过循环神经网络抽样得到多组卷积神经网络结构模型;
步骤4:分别将抽样得到的卷积神经网络在哈希损失函数的约束下训练至收敛,在验证集上得到mAP值;
步骤5:利用传回的mAP值,使用强化学习中的策略梯度方法同时通过反向传播来更新循环神经网络的参数;
步骤6:重复步骤3至5进行迭代,直到达到目标迭代轮数,选取最终神经网络,在训练集上训练至收敛。
2.根据权利要求1所述的基于神经网络自适应的深度哈希图像搜索方法,其特征在于,步骤1中,数据集中的每张图片都有对应的类别标记,对不同的图片打上不同的标记。
3.根据权利要求1所述的基于神经网络自适应的深度哈希图像搜索方法,其特征在于,步骤2中,定义一个搜索空间,其中包含了3×3卷积核、5×5卷积核、跨层连接、最大池化层、平均池化层等结构。
4.根据权利要求1所述的基于神经网络自适应的深度哈希图像搜索方法,其特征在于,步骤3中,循环神经网络的每个时序都会输出一组概率向量,每个概率向量包含了在这一步操作中选取搜索空间中某种组成结构的概率,根据这一概率向量进行随机抽样得到对应卷积神经网络的组成结构进而搭建整体网络结构。
5.根据权利要求1所述的基于神经网络自适应的深度哈希图像搜索方法,其特征在于,步骤4中,分别将抽样得到的卷积神经网络在训练集上训练至收敛,然后在验证集上得到mAP值,将它作为强化学习中策略梯度的奖赏值返回至循环神经网络,在之后的迭代过程中,如果遇到了相同的结构,则会利用权值共享直接在验证集上得到mAP值返回来减少训练时间。
6.根据权利要求1所述的基于神经网络自适应的深度哈希图像搜索方法,其特征在于,步骤5中,利用传回的mAP值,通过策略梯度方法和反向传播来更新循环神经网络的参数,在更新完成后,在每个时序分别产生新的概率向量,根据新的概率向量随机抽样得到新的多组网络结构,其中反向传播遵循的梯度公式为:
其中T表示控制器时序的总数,同时也表示子网络的总层数,J(θ)表示mAP值(平均精度值)的数学期望值,表示梯度,θ表示控制器的参数分布,at表示t时序时的抽样结果,P(a1:T;θ)表示根据控制器的参数产生的1到T时序的概率分布,R表示返回的mAP值(平均精度值),E表示在概率分布P下的数学期望。
7.根据权利要求1所述的基于神经网络自适应的深度哈希图像搜索方法,其特征在于,步骤6中,设置总迭代轮数,重复步骤3至5,直到达到目标迭代轮数后,在抽取的网络中选取一个在验证集上mAP指标最高的网络结构,最后将这一网络结构在训练集上训练至收敛。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910071846.7A CN109948029B (zh) | 2019-01-25 | 2019-01-25 | 基于神经网络自适应的深度哈希图像搜索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910071846.7A CN109948029B (zh) | 2019-01-25 | 2019-01-25 | 基于神经网络自适应的深度哈希图像搜索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109948029A true CN109948029A (zh) | 2019-06-28 |
CN109948029B CN109948029B (zh) | 2022-10-14 |
Family
ID=67007447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910071846.7A Active CN109948029B (zh) | 2019-01-25 | 2019-01-25 | 基于神经网络自适应的深度哈希图像搜索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109948029B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674326A (zh) * | 2019-08-06 | 2020-01-10 | 厦门大学 | 一种基于多项式分布学习的神经网络结构检索方法 |
CN110705695A (zh) * | 2019-10-10 | 2020-01-17 | 北京百度网讯科技有限公司 | 搜索模型结构的方法、装置、设备和存储介质 |
CN111191785A (zh) * | 2019-12-20 | 2020-05-22 | 沈阳雅译网络技术有限公司 | 一种基于拓展搜索空间的结构搜索方法 |
CN111275172A (zh) * | 2020-01-21 | 2020-06-12 | 复旦大学 | 一种基于搜索空间优化的前馈神经网络结构搜索方法 |
CN111340221A (zh) * | 2020-02-25 | 2020-06-26 | 北京百度网讯科技有限公司 | 神经网络结构的采样方法和装置 |
CN111582476A (zh) * | 2020-05-09 | 2020-08-25 | 北京百度网讯科技有限公司 | 自动量化策略搜索方法、装置、设备以及存储介质 |
CN111582475A (zh) * | 2020-04-28 | 2020-08-25 | 中国科学院空天信息创新研究院 | 一种基于自动化轻量级神经网络的数据处理方法及装置 |
CN111667057A (zh) * | 2020-06-05 | 2020-09-15 | 北京百度网讯科技有限公司 | 用于搜索模型结构的方法和装置 |
CN112381215A (zh) * | 2020-12-17 | 2021-02-19 | 之江实验室 | 一种面向自动机器学习的自适应搜索空间生成方法与装置 |
CN112529160A (zh) * | 2020-12-09 | 2021-03-19 | 南京大学 | 一种摄像器材记录的视频图像数据的高维模仿学习方法 |
CN112579842A (zh) * | 2020-12-18 | 2021-03-30 | 北京百度网讯科技有限公司 | 模型搜索方法、装置、电子设备、存储介质和程序产品 |
CN112633591A (zh) * | 2020-12-30 | 2021-04-09 | 成都艾特能电气科技有限责任公司 | 一种基于深度强化学习的空间搜索方法及设备 |
CN112784969A (zh) * | 2021-02-01 | 2021-05-11 | 东北大学 | 一种基于抽样的卷积神经网络加速学习方法 |
CN112966812A (zh) * | 2021-02-25 | 2021-06-15 | 中国人民解放军战略支援部队航天工程大学 | 一种通信信号调制识别的自动神经网络结构搜索方法 |
CN113031441A (zh) * | 2021-03-03 | 2021-06-25 | 北京航空航天大学 | 基于强化学习的旋转机械诊断网络自动搜索方法 |
CN113627472A (zh) * | 2021-07-05 | 2021-11-09 | 南京邮电大学 | 基于分层深度学习模型的智慧园林食叶害虫识别方法 |
CN113780542A (zh) * | 2021-09-08 | 2021-12-10 | 北京航空航天大学杭州创新研究院 | 一种面向fpga的多目标网络结构的构建方法 |
CN114528975A (zh) * | 2022-01-20 | 2022-05-24 | 珠高智能科技(深圳)有限公司 | 深度学习模型训练方法、***及介质 |
CN116363817A (zh) * | 2023-02-02 | 2023-06-30 | 淮阴工学院 | 一种化工厂危险区域入侵预警方法及*** |
CN117874277A (zh) * | 2024-03-11 | 2024-04-12 | 山东省计算中心(国家超级计算济南中心) | 一种基于无监督域自适应哈希的图像检索方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980641A (zh) * | 2017-02-09 | 2017-07-25 | 上海交通大学 | 基于卷积神经网络的无监督哈希快速图片检索***及方法 |
CN109165306A (zh) * | 2018-08-09 | 2019-01-08 | 长沙理工大学 | 基于多任务哈希学习的图像检索方法 |
-
2019
- 2019-01-25 CN CN201910071846.7A patent/CN109948029B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106980641A (zh) * | 2017-02-09 | 2017-07-25 | 上海交通大学 | 基于卷积神经网络的无监督哈希快速图片检索***及方法 |
CN109165306A (zh) * | 2018-08-09 | 2019-01-08 | 长沙理工大学 | 基于多任务哈希学习的图像检索方法 |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674326A (zh) * | 2019-08-06 | 2020-01-10 | 厦门大学 | 一种基于多项式分布学习的神经网络结构检索方法 |
CN110705695A (zh) * | 2019-10-10 | 2020-01-17 | 北京百度网讯科技有限公司 | 搜索模型结构的方法、装置、设备和存储介质 |
CN110705695B (zh) * | 2019-10-10 | 2022-11-18 | 北京百度网讯科技有限公司 | 搜索模型结构的方法、装置、设备和存储介质 |
CN111191785A (zh) * | 2019-12-20 | 2020-05-22 | 沈阳雅译网络技术有限公司 | 一种基于拓展搜索空间的结构搜索方法 |
CN111191785B (zh) * | 2019-12-20 | 2023-06-23 | 沈阳雅译网络技术有限公司 | 用于命名实体识别的基于拓展搜索空间的结构搜索方法 |
CN111275172A (zh) * | 2020-01-21 | 2020-06-12 | 复旦大学 | 一种基于搜索空间优化的前馈神经网络结构搜索方法 |
CN111275172B (zh) * | 2020-01-21 | 2023-09-01 | 复旦大学 | 一种基于搜索空间优化的前馈神经网络结构搜索方法 |
CN111340221B (zh) * | 2020-02-25 | 2023-09-12 | 北京百度网讯科技有限公司 | 神经网络结构的采样方法和装置 |
CN111340221A (zh) * | 2020-02-25 | 2020-06-26 | 北京百度网讯科技有限公司 | 神经网络结构的采样方法和装置 |
CN111582475A (zh) * | 2020-04-28 | 2020-08-25 | 中国科学院空天信息创新研究院 | 一种基于自动化轻量级神经网络的数据处理方法及装置 |
CN111582476A (zh) * | 2020-05-09 | 2020-08-25 | 北京百度网讯科技有限公司 | 自动量化策略搜索方法、装置、设备以及存储介质 |
CN111667057B (zh) * | 2020-06-05 | 2023-10-20 | 北京百度网讯科技有限公司 | 用于搜索模型结构的方法和装置 |
CN111667057A (zh) * | 2020-06-05 | 2020-09-15 | 北京百度网讯科技有限公司 | 用于搜索模型结构的方法和装置 |
CN112529160A (zh) * | 2020-12-09 | 2021-03-19 | 南京大学 | 一种摄像器材记录的视频图像数据的高维模仿学习方法 |
CN112381215B (zh) * | 2020-12-17 | 2023-08-11 | 之江实验室 | 一种面向自动机器学习的自适应搜索空间生成方法与装置 |
CN112381215A (zh) * | 2020-12-17 | 2021-02-19 | 之江实验室 | 一种面向自动机器学习的自适应搜索空间生成方法与装置 |
CN112579842A (zh) * | 2020-12-18 | 2021-03-30 | 北京百度网讯科技有限公司 | 模型搜索方法、装置、电子设备、存储介质和程序产品 |
CN112633591A (zh) * | 2020-12-30 | 2021-04-09 | 成都艾特能电气科技有限责任公司 | 一种基于深度强化学习的空间搜索方法及设备 |
CN112784969A (zh) * | 2021-02-01 | 2021-05-11 | 东北大学 | 一种基于抽样的卷积神经网络加速学习方法 |
CN112784969B (zh) * | 2021-02-01 | 2024-05-14 | 东北大学 | 用于图像特征提取的卷积神经网络加速学习方法 |
CN112966812A (zh) * | 2021-02-25 | 2021-06-15 | 中国人民解放军战略支援部队航天工程大学 | 一种通信信号调制识别的自动神经网络结构搜索方法 |
CN113031441A (zh) * | 2021-03-03 | 2021-06-25 | 北京航空航天大学 | 基于强化学习的旋转机械诊断网络自动搜索方法 |
CN113627472A (zh) * | 2021-07-05 | 2021-11-09 | 南京邮电大学 | 基于分层深度学习模型的智慧园林食叶害虫识别方法 |
CN113627472B (zh) * | 2021-07-05 | 2023-10-13 | 南京邮电大学 | 基于分层深度学习模型的智慧园林食叶害虫识别方法 |
CN113780542B (zh) * | 2021-09-08 | 2023-09-12 | 北京航空航天大学杭州创新研究院 | 一种面向fpga的多目标网络结构的构建方法 |
CN113780542A (zh) * | 2021-09-08 | 2021-12-10 | 北京航空航天大学杭州创新研究院 | 一种面向fpga的多目标网络结构的构建方法 |
CN114528975A (zh) * | 2022-01-20 | 2022-05-24 | 珠高智能科技(深圳)有限公司 | 深度学习模型训练方法、***及介质 |
CN116363817A (zh) * | 2023-02-02 | 2023-06-30 | 淮阴工学院 | 一种化工厂危险区域入侵预警方法及*** |
CN116363817B (zh) * | 2023-02-02 | 2024-01-02 | 淮阴工学院 | 一种化工厂危险区域入侵预警方法及*** |
CN117874277A (zh) * | 2024-03-11 | 2024-04-12 | 山东省计算中心(国家超级计算济南中心) | 一种基于无监督域自适应哈希的图像检索方法 |
CN117874277B (zh) * | 2024-03-11 | 2024-05-10 | 山东省计算中心(国家超级计算济南中心) | 一种基于无监督域自适应哈希的图像检索方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109948029B (zh) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109948029A (zh) | 基于神经网络自适应的深度哈希图像搜索方法 | |
CN112308158B (zh) | 一种基于部分特征对齐的多源领域自适应模型及方法 | |
CN106203625B (zh) | 一种基于多重预训练的深层神经网络训练方法 | |
CN111291836B (zh) | 一种生成学生网络模型的方法 | |
CN109376242B (zh) | 基于循环神经网络变体和卷积神经网络的文本分类方法 | |
CN104850890B (zh) | 基于实例学习和Sadowsky分布的卷积神经网络参数调整方法 | |
CN109992779B (zh) | 一种基于cnn的情感分析方法、装置、设备及存储介质 | |
CN104751842B (zh) | 深度神经网络的优化方法及*** | |
CN110175628A (zh) | 一种基于自动搜索与知识蒸馏的神经网络剪枝的压缩算法 | |
CN104598611B (zh) | 对搜索条目进行排序的方法及*** | |
CN106022392B (zh) | 一种深度神经网络样本自动取舍的训练方法 | |
CN111079795A (zh) | 基于cnn的分片多尺度特征融合的图像分类方法 | |
CN109034034A (zh) | 一种基于强化学习算法优化卷积神经网络的静脉识别方法 | |
CN106777402B (zh) | 一种基于稀疏神经网络的图像检索文本方法 | |
CN111898689A (zh) | 一种基于神经网络架构搜索的图像分类方法 | |
CN109741341A (zh) | 一种基于超像素和长短时记忆网络的图像分割方法 | |
CN109977250A (zh) | 融合语义信息和多级相似性的深度哈希图像检索方法 | |
CN113190688A (zh) | 基于逻辑推理和图卷积的复杂网络链接预测方法及*** | |
CN110070116A (zh) | 基于深度树状训练策略的分段式选择集成图像分类方法 | |
CN110516537A (zh) | 一种基于自步学习的人脸年龄估计方法 | |
CN114912357A (zh) | 基于用户模型学习的多任务强化学习用户运营方法及*** | |
Zhang et al. | Lottery jackpots exist in pre-trained models | |
CN114399018B (zh) | 一种基于轮转操控策略麻雀优化的EfficientNet陶瓷碎片分类方法 | |
CN108805280A (zh) | 一种图像检索的方法和装置 | |
CN110188621A (zh) | 一种基于ssf-il-cnn的三维人脸表情识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |