CN114706798B - 基于注意力机制的固态硬盘数据预取方法 - Google Patents
基于注意力机制的固态硬盘数据预取方法 Download PDFInfo
- Publication number
- CN114706798B CN114706798B CN202210637618.3A CN202210637618A CN114706798B CN 114706798 B CN114706798 B CN 114706798B CN 202210637618 A CN202210637618 A CN 202210637618A CN 114706798 B CN114706798 B CN 114706798B
- Authority
- CN
- China
- Prior art keywords
- data
- solid state
- state disk
- address
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0862—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with prefetch
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0866—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0877—Cache access modes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1016—Performance improvement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1056—Simplification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/20—Employing a main memory using a specific memory technology
- G06F2212/202—Non-volatile memory
- G06F2212/2022—Flash memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/21—Employing a record carrier using a specific recording technology
- G06F2212/214—Solid state disk
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于注意力机制的固态硬盘数据预取方法,可以筛选出固态硬盘上被频繁读取的地址,减小了需要建模的空间;同时,本发明采用基于注意力机制的神经网络,能学习访问差值序列中的重要信息,忽略不重要的信息;此外,本发明首次使用表格记录并查找地址和它对应的数据量,使得预测数据量的操作简单、方便、快捷,同时能够对预取数据量进行准确预测。
Description
技术领域
本发明属于数据预取技术领域,具体涉及一种基于注意力机制的固态硬盘数据预取方法的设计。
背景技术
现有的固态硬盘数据预取方法有三种,第一种是基于行为的预取方法,该方法的缺点是依靠预先定义好的、固定不变的规则对硬盘数据进行预取,因此,该方法无法应对访问模式复杂多变的情形;第二种是基于机器学习的预取方法,该方法使用机器学习算法学习硬盘访问轨迹,但是机器学习算法的学习能力有限,在面对巨大的硬盘地址空间时无法进行准确的预取;第三种是基于深度学习的预取方法,该方法的不足在于使用长短时记忆网络预测硬盘地址和数据量,不能充分学习访问序列中的重要信息,也没有挖掘地址与数据量之间的关系。
现有的固态硬盘数据预取方法或是使用固定的规则,或是使用人工智能方法,但随着现有固态硬盘的容量越来越大,访问模式越来越复杂,固态硬盘上的数据预取需要更加有效的方法。
发明内容
本发明的目的是提供一种基于注意力机制的固态硬盘数据预取方法,以解决现有的固态硬盘数据预取方法针对巨大的硬盘地址空间难以建模,难以学习访问序列中的重要信息,无法对预取数据量进行准确预测的问题。
本发明的技术方案为:基于注意力机制的固态硬盘数据预取方法,包括以下步骤:
S1、采集固态硬盘访问轨迹数据,删除其中的写操作记录,筛选得到读操作记录,读操作记录包括操作地址和在本地址读取的数据量。
S2、统计在每个操作地址最常读取的数据量,生成一个地址-数据量表格。
S3、对读操作记录的操作地址求一阶差分,将地址序列转化为差值序列。
S4、将差值序列中前N个最频繁出现的差值分为N个类,其余差值归为同一类。
S5、将分类后的差值按顺序划分为若干个长度为32的序列,得到处理好的差值序列。
S6、将处理好的差值序列输入到基于注意力机制的神经网络中进行学习,输出得到预测差值。
S7、判断预测差值是否属于前N类最频繁出现的差值,若是则进入步骤S9,否则进入步骤S8。
S8、不对固态硬盘数据进行预取,结束预取流程。
S9、将预测差值与对应的操作地址相加,得到预测地址。
S10、判断预测地址是否在读操作记录里出现过,若是则进入步骤S11,否则进入步骤S8。
S11、根据预测地址,从地址-数据量表格中查询对应的数据量。
S12、在固态硬盘中查找预测地址并在预测地址读取对应的数据量送入缓存区,结束预取流程。
进一步地,步骤S6中的基于注意力机制的神经网络包括依次连接的嵌入层、注意力机制模块、第一层规范化模块、前馈网络、第二层规范化模块和线性层,嵌入层的输出还与注意力机制模块的输出残差连接,第一层规范化模块的输出还与前馈网络的输出残差连接。
进一步地,嵌入层用于将处理好的差值序列转化为向量表示。
进一步地,注意力机制模块用于根据向量表示计算注意力分数。
进一步地,计算注意力分数包括以下步骤:
A1、根据向量表示X计算得到三个新的向量:
其中Query表示查询向量,Key表示关键向量,Value表示内容向量,W Q 、W K 和W V 分别为Query、Key和Value对应的随机初始化的矩阵。
A2、根据Query、Key和Value进行自注意力计算,得到注意力分数A:
其中Softmax[·]表示Softmax函数,T表示向量的转置,d_k表示Key的维度。
进一步地,第一层规范化模块和第二层规范化模块用于计算残差连接后每个序列的平均值和方差,将数据规范化处理。
进一步地,前馈网络用于将经过第一层规范化模块规范化后的数据投影到更大的空间。
进一步地,线性层使用一个全连接网络将神经网络计算结果转化为分类概率,并将分类概率最高的差值作为神经网络输出的预测差值。
本发明的有益效果是:
(1)不同于现有的固态硬盘数据预取方法中建模所有地址或者建模一部分地址的方法,本发明可以筛选出固态硬盘上被频繁读取的地址,减小了需要建模的空间。
(2)本发明区别于现有基于长短时记忆网络的固态硬盘数据预取方法,采用基于注意力机制的神经网络,能学习访问差值序列中的重要信息,忽略不重要的信息。
(3)本发明首次使用表格记录并查找地址和它对应的数据量,使得预测数据量的操作简单、方便、快捷,同时能够对预取数据量进行准确预测。
附图说明
图1所示为本发明实施例提供的基于注意力机制的固态硬盘数据预取方法流程图。
图2所示为本发明实施例提供的基于注意力机制的神经网络结构示意图。
具体实施方式
现在将参考附图来详细描述本发明的示例性实施方式。应当理解,附图中示出和描述的实施方式仅仅是示例性的,意在阐释本发明的原理和精神,而并非限制本发明的范围。
本发明实施例提供了一种基于注意力机制的固态硬盘数据预取方法,如图1所示,包括以下步骤S1~S12:
S1、采集固态硬盘访问轨迹数据,删除其中的写操作记录,筛选得到读操作记录,读操作记录包括操作地址和在本地址读取的数据量。
S2、统计在每个操作地址最常读取的数据量,生成一个地址-数据量表格。
S3、对读操作记录的操作地址求一阶差分,将地址序列转化为差值序列。
S4、将差值序列中前N个最频繁出现的差值分为N个类,其余差值归为同一类。本发明实施例中N取1000,因为前1000个最频繁出现的差值已经可以覆盖大部分数据,达到了减少建模空间,但不太影响预测结果的效果。
S5、将分类后的差值按顺序划分为若干个长度为32的序列,得到处理好的差值序列。本发明实施例中,在序列长度为32时,后续神经网络模型能很好地学习到序列的访问模式;当序列长度过长时,神经网络模型无法拟合;当序列长度过短时,神经网络模型访问模式不明显。
S6、将处理好的差值序列输入到基于注意力机制的神经网络中进行学习,输出得到预测差值。
S7、判断预测差值是否属于前N类最频繁出现的差值,若是则进入步骤S9,否则进入步骤S8。
S8、不对固态硬盘数据进行预取,结束预取流程。
S9、将预测差值与对应的操作地址相加,得到预测地址。
S10、判断预测地址是否在读操作记录里出现过,若是则进入步骤S11,否则进入步骤S8。
S11、根据预测地址,从地址-数据量表格中查询对应的数据量。
S12、在固态硬盘中查找预测地址并在预测地址读取对应的数据量送入缓存区,结束预取流程。
如图2所示,本发明实施例中,基于注意力机制的神经网络包括依次连接的嵌入层、注意力机制模块、第一层规范化模块、前馈网络、第二层规范化模块和线性层,嵌入层的输出还与注意力机制模块的输出残差连接,第一层规范化模块的输出还与前馈网络的输出残差连接。
其中,嵌入层用于将处理好的差值序列转化为向量表示,这样做有利于减少数据的维度,方便后续计算。
注意力机制模块用于根据向量表示计算注意力分数。注意力机制模块能够计算出序列中每个变量与所有其他变量的关联,即注意力分数。使用这些注意力分数,可以获得一个加权的表示,它代表了序列中需要关注的信息。
本发明实施例中,计算注意力分数包括以下步骤A1~A2:
A1、根据向量表示X计算得到三个新的向量:
其中Query表示查询向量,Key表示关键向量,Value表示内容向量,W Q 、W K 和W V 分别为Query、Key和Value对应的随机初始化的矩阵。
本发明实施例中,Query、Key和Value三个向量之间的具体关系为:
假设需要查询一篇文章,会在搜索框输入该文章的关键字,如果搜索不到,会再换一个关键字,直到搜到为止,那么可以搜到的关键字就是最适合查找目标文章的关键字,这个最适合查找目标文章的关键字就是查询向量Query。
接下来搜索引擎拿到输入的关键字Query之后,就会把Query和库里面的文章对比,搜索引擎为了节省资源加快对比速度,提前把库里面的文章进行了处理提取了关键信息,使得搜索命中率最高的关键信息就是最适合接收查找的关键信息,这个最适合接收查找的关键信息就是关键向量Key。
在确定查询向量Query和关键向量Key后,再加权计算搜索结果也就是内容向量Value就可以得到注意力分数。
A2、根据Query、Key和Value进行自注意力计算,得到注意力分数A:
其中Softmax[·]表示Softmax函数,T表示向量的转置,d_k表示Key的维度。
本发明实施例中,注意力机制模块使用的是带有掩码的多头注意力机制,多头注意力机制是多个注意力机制的组合,每一个头都能学习到不同的特征;掩码阻止网络查看未来的信息,本发明实施例用一个上三角矩阵来实现掩码。
第一层规范化模块和第二层规范化模块用于计算残差连接后每个序列的平均值和方差,将数据规范化处理,便于后续计算。
前馈网络用于将经过第一层规范化模块规范化后的数据投影到更大的空间,在这个空间里可以更方便地提取需要的信息。
线性层使用一个全连接网络将神经网络计算结果转化为分类概率,并将分类概率最高的差值作为神经网络输出的预测差值。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (8)
1.基于注意力机制的固态硬盘数据预取方法,其特征在于,包括以下步骤:
S1、采集固态硬盘访问轨迹数据,删除其中的写操作记录,筛选得到读操作记录,所述读操作记录包括操作地址和在本地址读取的数据量;
S2、统计在每个操作地址最常读取的数据量,生成一个地址-数据量表格;
S3、对读操作记录的操作地址求一阶差分,将地址序列转化为差值序列;
S4、将差值序列中前N个最频繁出现的差值分为N个类,其余差值归为同一类;
S5、将分类后的差值按顺序划分为若干个长度为32的序列,得到处理好的差值序列;
S6、将处理好的差值序列输入到基于注意力机制的神经网络中进行学习,输出得到预测差值;
S7、判断预测差值是否属于前N类最频繁出现的差值,若是则进入步骤S9,否则进入步骤S8;
S8、不对固态硬盘数据进行预取,结束预取流程;
S9、将预测差值与对应的操作地址相加,得到预测地址;
S10、判断预测地址是否在读操作记录里出现过,若是则进入步骤S11,否则进入步骤S8;
S11、根据预测地址,从地址-数据量表格中查询对应的数据量;
S12、在固态硬盘中查找预测地址并在预测地址读取对应的数据量送入缓存区,结束预取流程。
2.根据权利要求1所述的固态硬盘数据预取方法,其特征在于,所述步骤S6中的基于注意力机制的神经网络包括依次连接的嵌入层、注意力机制模块、第一层规范化模块、前馈网络、第二层规范化模块和线性层,所述嵌入层的输出还与注意力机制模块的输出残差连接,所述第一层规范化模块的输出还与前馈网络的输出残差连接。
3.根据权利要求2所述的固态硬盘数据预取方法,其特征在于,所述嵌入层用于将处理好的差值序列转化为向量表示。
4.根据权利要求3所述的固态硬盘数据预取方法,其特征在于,所述注意力机制模块用于根据向量表示计算注意力分数。
6.根据权利要求2所述的固态硬盘数据预取方法,其特征在于,所述第一层规范化模块和第二层规范化模块用于计算残差连接后每个序列的平均值和方差,将数据规范化处理。
7.根据权利要求6所述的固态硬盘数据预取方法,其特征在于,所述前馈网络用于将经过第一层规范化模块规范化后的数据投影到更大的空间。
8.根据权利要求2所述的固态硬盘数据预取方法,其特征在于,所述线性层使用一个全连接网络将神经网络计算结果转化为分类概率,并将分类概率最高的差值作为神经网络输出的预测差值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210637618.3A CN114706798B (zh) | 2022-06-08 | 2022-06-08 | 基于注意力机制的固态硬盘数据预取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210637618.3A CN114706798B (zh) | 2022-06-08 | 2022-06-08 | 基于注意力机制的固态硬盘数据预取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114706798A CN114706798A (zh) | 2022-07-05 |
CN114706798B true CN114706798B (zh) | 2022-08-12 |
Family
ID=82178050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210637618.3A Active CN114706798B (zh) | 2022-06-08 | 2022-06-08 | 基于注意力机制的固态硬盘数据预取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114706798B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0109655A2 (en) * | 1982-11-17 | 1984-05-30 | Nec Corporation | Instruction prefetching device with prediction of a branch destination address |
CN103123595A (zh) * | 2009-10-26 | 2013-05-29 | 美国索尼电脑娱乐有限责任公司 | 使用即时数据分块的文件输入/输出调度 |
CN104572504A (zh) * | 2015-02-02 | 2015-04-29 | 浪潮(北京)电子信息产业有限公司 | 一种实现数据预读的方法及装置 |
CN106250064A (zh) * | 2016-08-19 | 2016-12-21 | 深圳大普微电子科技有限公司 | 固态硬盘控制装置和基于学习的固态硬盘数据存取方法 |
CN112199304A (zh) * | 2019-07-08 | 2021-01-08 | 华为技术有限公司 | 数据预取方法及装置 |
CN112334984A (zh) * | 2019-03-21 | 2021-02-05 | 因美纳有限公司 | 基于人工智能的测序元数据生成 |
CN114330637A (zh) * | 2020-09-25 | 2022-04-12 | 辉达公司 | 使用鲁棒的时序组合的神经网络训练 |
-
2022
- 2022-06-08 CN CN202210637618.3A patent/CN114706798B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0109655A2 (en) * | 1982-11-17 | 1984-05-30 | Nec Corporation | Instruction prefetching device with prediction of a branch destination address |
CN103123595A (zh) * | 2009-10-26 | 2013-05-29 | 美国索尼电脑娱乐有限责任公司 | 使用即时数据分块的文件输入/输出调度 |
CN104572504A (zh) * | 2015-02-02 | 2015-04-29 | 浪潮(北京)电子信息产业有限公司 | 一种实现数据预读的方法及装置 |
CN106250064A (zh) * | 2016-08-19 | 2016-12-21 | 深圳大普微电子科技有限公司 | 固态硬盘控制装置和基于学习的固态硬盘数据存取方法 |
CN112334984A (zh) * | 2019-03-21 | 2021-02-05 | 因美纳有限公司 | 基于人工智能的测序元数据生成 |
CN112199304A (zh) * | 2019-07-08 | 2021-01-08 | 华为技术有限公司 | 数据预取方法及装置 |
CN114330637A (zh) * | 2020-09-25 | 2022-04-12 | 辉达公司 | 使用鲁棒的时序组合的神经网络训练 |
Non-Patent Citations (1)
Title |
---|
层次混合存储***中缓存和预取技术研究;刘洋;《中国博士学位论文全文数据库 (信息科技辑)》;20150215;I137-6 * |
Also Published As
Publication number | Publication date |
---|---|
CN114706798A (zh) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xu et al. | Deep adversarial metric learning for cross-modal retrieval | |
US6925433B2 (en) | System and method for context-dependent probabilistic modeling of words and documents | |
US9489455B2 (en) | Method and apparatus for multi-dimensional content search and video identification | |
Jain et al. | Online metric learning and fast similarity search | |
Minnen et al. | Detecting subdimensional motifs: An efficient algorithm for generalized multivariate pattern discovery | |
CN106897371B (zh) | 中文文本分类***及方法 | |
CN110968272B (zh) | 基于时间序列预测的海量小文件存储性能优化方法及*** | |
CN112789626A (zh) | 可扩展和压缩的神经网络数据储存*** | |
Laguna et al. | Design of hardware-friendly memory enhanced neural networks | |
CN113011194B (zh) | 融合关键词特征和多粒度语义特征的文本相似度计算方法 | |
Lin et al. | Effective feature space reduction with imbalanced data for semantic concept detection | |
EP4060526A1 (en) | Text processing method and device | |
CN115048539B (zh) | 基于动态记忆力的社交媒体数据在线检索方法及*** | |
Nie et al. | Classification-enhancement deep hashing for large-scale video retrieval | |
Yang et al. | Deep reinforcement hashing with redundancy elimination for effective image retrieval | |
CN115795065A (zh) | 基于带权哈希码的多媒体数据跨模态检索方法及*** | |
Kan et al. | Local semantic correlation modeling over graph neural networks for deep feature embedding and image retrieval | |
Jafari et al. | Experimental analysis of locality sensitive hashing techniques for high-dimensional approximate nearest neighbor searches | |
Li et al. | Multi-scale global context feature pyramid network for object detector | |
Köksal et al. | Improving automated Turkish text classification with learning‐based algorithms | |
CN114706798B (zh) | 基于注意力机制的固态硬盘数据预取方法 | |
CN116993513A (zh) | 金融风控模型解释方法、装置及计算机设备 | |
Soltanian et al. | Spatio-temporal VLAD encoding of visual events using temporal ordering of the mid-level deep semantics | |
CN114610960A (zh) | 基于item2vec和向量聚类的实时推荐方法 | |
CN110717015B (zh) | 一种基于神经网络的多义词识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |