CN110168525A - 快速数据库搜索***和方法 - Google Patents

快速数据库搜索***和方法 Download PDF

Info

Publication number
CN110168525A
CN110168525A CN201780063107.2A CN201780063107A CN110168525A CN 110168525 A CN110168525 A CN 110168525A CN 201780063107 A CN201780063107 A CN 201780063107A CN 110168525 A CN110168525 A CN 110168525A
Authority
CN
China
Prior art keywords
vector
quantization
code book
residual error
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780063107.2A
Other languages
English (en)
Other versions
CN110168525B (zh
Inventor
S.库马
D.M.西姆查
A.T.苏雷什
R.郭
X.于
D.霍尔特曼-瑞丝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of CN110168525A publication Critical patent/CN110168525A/zh
Application granted granted Critical
Publication of CN110168525B publication Critical patent/CN110168525B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2453Query optimisation
    • G06F16/24534Query rewriting; Transformation
    • G06F16/24537Query rewriting; Transformation of operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • G06F16/2237Vectors, bitmaps or matrices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

实现提供了用于计算高维向量之间的内积的高效***。示例方法包括聚类被表示为向量的数据库项,为每个聚类选择聚类中心,以及将聚类中心存储为第一层码本中的条目。该方法还包括,对于每个数据库项,基于该数据库项被指派到的聚类的聚类中心来计算残差,并将残差投影到子空间中。该方法还包括为每个子空间确定用于该子空间的第二层码本中的条目,并将第一层码本中的条目、以及用于每个子空间的第二层码本中的相应条目存储为数据库项的量化的向量。该条目能够被用于对由查询向量表示的项进行分类,或者响应于查询向量而提供数据库项。

Description

快速数据库搜索***和方法
对相关申请的交叉引用
本申请是2016年10月11日提交的标题为“HIERARCHICAL QUANTIZATION FOR FASTINNER PRODUCT SEARCH”的美国申请No.15/290,198的继续并要求其优先权,该申请的公开内容通过引用整体并入本文。
背景技术
搜索非常大的高维数据库是一项可能涉及大量处理和存储器资源的具有挑战性的任务。许多搜索任务涉及计算查询向量与数据库向量集合的内积,以找到具有最大(largest)或最大(maximum)内积(例如,最高相似性)的数据库实例。这是最大内积搜索(MIPS)问题。但是,经由线性扫描计算内积需要O(nd)时间和存储器,当数据库向量的数量(n)和维数(d)大时,这是负担不起的。
发明内容
实现提供内积的快速近似,其比蛮力(brute-force)方法快几个数量级,同时保持高准确度和小存储器占用。该方法包括数据库项的分层量化,该层级包括至少两个层。在一些实现中,第一层是向量量化(VQ),第二层是乘积量化(PQ)。在一些实现中,***可以在量化层之间的残差上执行变换,优选地是正交变换(本领域技术人员将知道保持向量的长度和它们之间的角度)。在一些实现中,在积量化之前可能存在若干层向量量化。可以使用其它分层组合。
在一个实现中,***可以经由向量量化来量化数据库向量(例如,在向量空间中密集的高维点中表示的数据库项)。换句话说,数据库项可以被聚类(成向量空间中的数据库项的组)并且为每个聚类确定的聚类中心(例如质心、最接近质心的向量或其它平均中心位置)并输入到码本(VQ码本或第一层码本)。然后经由表示VQ码本中对应条目的VQ码字将每个数据库项映射到其相应的聚类。然后,***可以确定数据库项的残差,残差是数据库项被映射到的聚类中心(即,项映射到的VQ码本中的条目)与数据库向量之间的差。残差具有比数据库项小得多的“直径”(方差的测量),这导致量化误差的显著减少。然后,***可以经由学习(正交)变换来变换残差。学习到的变换降低了积量化的每个子空间内的方差,这大大降低了量化误差并导致更高的最终召回(数据库向量到搜索向量的正确最近邻居在前t个位置中排名的查询的更高比例)。最后,可以将变换的残差提交给积量化,其中每个变换的残差被投影到子空间中,并且残差的每个子空间(或块)被指派PQ码本(使用PQ码字)中用于该子空间的条目。在这里,子空间可以是残差的向量空间的细分。投影可以简单地是将残差的向量空间划分为块,例如将残差向量的元素划分为元素的集合或块,从而定义子空间。
PQ码本也可以称为第二层码本。换句话说,对于每个子空间,生成聚类,并且每个经变换的残差映射到用于子空间的聚类之一。每个子空间具有其自己的PQ码字(即,不同的聚类指派)。数据库项的最终量化的表示是用于每层的码字(例如,VQ码本的条目)和用于每个子空间的PQ码字的串联(concatenation)。在具有附加层(例如,附加向量量化层)的实现中,附加VQ码字将在第一VQ码字之后串联。通过最小化数据库上的量化误差,可以通过变换来联合学习VQ码本和PQ码本。
在查询时,***计算查询向量与每个VQ码字之间的内积,并且***基于内积计算的结果选择与查询最相似的VQ码字中的一个或多个。然后,***可以计算查询的残差,例如,查询向量与最类似于查询的VQ码字之间的差。如果选择了多于一个VQ码字,那么***可以为每个选择的VQ码字生成残差查询向量。然后,***可以用学习到的变换来变换残差查询向量(或多个向量)。在一些实现中,***可以将经变换的残差提交给另一个层(例如,附加向量量化)。***可以将经变换的残差查询向量投影到子空间中,并将查询向量投影与映射到相同VQ码字的量化数据库条目进行比较,一次一个PQ子空间。例如,***可以选择具有相同VQ码字的任何量化的数据库项并且,对于查询的第一块(PQ子空间),确定每个选择的量化的数据库项的第一子空间的聚类标识符(即,PQ码字),并使用那个标识符来识别子空间中的PQ码本中的聚类中心。然后,***可以执行查询的块与用于量化的数据项的PQ码本条目之间的点积。点积的结果是子空间的相似性得分,并且查询与数据库项之间的相似性是所有子空间的点积的总和。对于映射到为查询选择的VQ码字的任何数据库项,***可以重复这个操作。因此,***仅对于完整数据库向量的一部分执行内积,从而改善查询响应时间。
可以使用随机梯度下降来联合学习VQ和PQ码本以及变换。在每次迭代时,在一小批数据上计算量化误差的梯度,以便将数据点固定指派给码字。在执行下降步骤后,重新计算针对数据点的码字指派。可以通过从 采样并经由正交矩阵的Cayley表征参数化来初始化变换。
根据一个总体方面,例如用于查询数据库的计算机***包括至少一个处理器和存储量化的项的数据库的存储器。每个量化的项包括第一码本中的第一条目和第二码本中的多个第二条目,其中多个第二条目中的每一个表示k个子空间的相应子空间。存储器还包括在由至少一个处理器执行时使***执行操作的指令。操作可以包括从第一码本中确定与查询向量最相似的聚类中心,从聚类中心和查询向量(例如,从它们之间的差)计算残差向量,使用学习到的变换来变换残差向量,并将经变换的残差向量投影到k个子空间中。对于具有与查询向量确定的聚类中心对应的第一索引的每个量化的项,操作还可以包括:对于每个子空间,计算量化的项和经变换的残差向量之间的内积,并通过对内积进行求和来计算量化的项与查询之间的相似性得分。操作还可以包括响应于查询而提供具有最高相似性得分的项。
在一些实现中,子空间的数量k远小于数据的维度d,例如小10倍或更多倍;这有助于降低搜索复杂性。例如,k可以是16。操作还可以包括:对于每个子空间,计算经变换的残差向量和第二码本中的每个聚类中心之间的内积;并将计算出的内积存储在码本查找表寄存器内存储装置中。这可以促进指令级并行性,如下面进一步描述的。优选地,每个子空间具有对应的寄存器。数据库可以有数百万个量化的项。
在一些实现中,可以用两个码本共同学习变换,这是高效的并且可以提供良好的结果。但是,在初始化第二码本和执行联合学习之前,第一码本可以经历初始化和(整数)x个学习时期,这可以促进高效学习。
根据一个方面,一种例如对数据库中的项进行索引以用于后续近似搜索的方法包括聚类被表示为高维向量的数据库项的数据存储,并为每个聚类选择聚类中心并将该聚类中心存储为第一层码本中的条目。该方法还可以包括,对于每个数据库项,基于数据库项被指派到的聚类的聚类中心来计算残差,将残差投影到子空间中,为每个子空间确定第二层码本中用于该子空间的条目,并第一层码本中的条目、以及用于每个子空间的第二层码本中的相应条目存储为用于数据库项的量化的向量。
量化的向量可以用于使用最大内积搜索来确定响应数据库项。该方法还可以包括在将残差投影到子空间之前使用学习到的旋转来变换残差;可以用第一和第二层码本的参数来联合训练学习到的旋转。
该方法还可以包括:基于内积运算,从第一码本中确定与查询向量最相似的t个聚类;基于聚类的聚类中心,为t个聚类中的每一个计算查询向量的残差;将查询的每个残差投影到子空间中;对于指派给t个聚类之一的每个数据库项,确定与查询向量的最大内积得分,最大内积得分基于在数据库项的残差和指派给数据库项的聚类的查询的残差之间计算的内积的子空间之上的总和;并且基于最大内积得分从指派给t个聚类之一的数据库项中识别与查询向量最相似的数据库项。与查询向量最相似的数据库项可以用于对由查询向量表示的项进行分类和/或响应于查询向量而提供项。
根据一个方面,一种例如搜索数据库的方法可以包括使用向量量化将数据库中的向量划分为m个分区,使得每个向量具有指派的向量量化码字并且针对每个向量计算相应的残差,残差是向量与和向量量化码字对应的聚类中心之间的差。该方法还可以包括将积量化应用于每个残差,为每个残差产生用于k个子空间中的每一个的乘积量化码字,为每个向量存储指派的向量量化码字和用于向量的残差的k个积量化码字,并使用向量量化码字来选择数据库向量中与查询向量最相似的一部分。该方法还可以包括,对于该部分中的每个数据库向量,使用积量化码字来从所述与查询向量最相似的部分中确定数据库向量。
在另一方面,一种包含在计算机可读存储设备上的计算机程序产品包括指令,所述指令在由在基板中形成的至少一个处理器执行时使计算设备执行本文公开的任何公开的方法、操作或处理。
可以实现本文描述的主题的一个或多个实现,以便实现以下优点中的一个或多个。作为一个示例,实现在大的、密集的、高维数据集上提供快速最大内积搜索。此类数据集常常与推荐或分类***相关联,例如查找与查询图像、视频或产品类似的图像、视频或产品。这种问题的另一个示例是分类模型,该分类模型在给定目标词的情况下使用内积计算附近词的概率。搜索避免对数据集的完全扫描,同时在现代CPU体系架构上提供高性能的同时最小程度地减少召回。实现包括向量量化和积量化的分层组合,其以低等待时间(例如,更快的处理时间)大大减少了针对大的、密集的、高维数据集近似内积的误差。作为另一个示例,码本和变换可以被端到端地联合训练,这导致在表示数据集时的较低近似误差,从而改善了召回。一些实现提供寄存器内查找表来计算查询的子空间和量化的数据库项之间的内积,其利用现代处理器的指令级并行能力并且提供对存储器中查找的显著改进。在一些实现中,搜索的最终复杂度是其中k是子空间的数量,m是向量量化器的数量(例如,VQ码本中的条目的数量),t是为查询向量选择的VQ码字的数量,并且n是数据库项的数量。因此,当k远小于数据维度d并且t远小于m时,搜索的复杂性比蛮力搜索快得多。此外,所公开的实现的存储器占用空间将是这远小于蛮力的存储器占用空间(即,)。
在附图和以下描述中阐述一个或多个实现的细节。根据说明书和附图以及权利要求,其它特征将是显而易见的。
附图说明
图1图示了根据所公开主题的示例***。
图2图示了根据所公开主题的、表示搜索项的数据库向量的分层量化的框图。
图3图示了根据实现的、用于对数据库项执行分层量化的示例处理的流程图。
图4图示了根据实现的、使用分层量化和最大内积搜索的示例查询处理的流程图。
图5图示了根据所公开主题的、用于联合学习正交变换和用于分层量化的码本的示例处理的流程图。
图6A至6D是图示各种实现的益处的图。
图7示出了可以用于实现所描述的技术的计算机设备的示例。
图8示出了可以用于实现所描述的技术的分布式计算机设备的示例。
各个附图中的相同标号指示相同的元件。
具体实施方式
图1是根据示例实现的可伸缩推理***的框图。***100可以用于分层量化项的数据库并用查询向量计算内积以查找相关数据库项以供在如推荐***、机器学习算法中的分类以及使用最近邻居计算的其它***之类的应用中使用。***100联合学习用于分层级别的码本,并减少执行内积搜索所需的处理时间,同时仍保持高质量的结果。图1中***100的描绘被描述为基于服务器的搜索***。但是,可以使用其它配置和应用。例如,可以在客户端设备上执行一些操作。此外,虽然***100被描述为搜索***,但是所公开的实现的方法和技术可以用于例如使用最大内积的任何任务,诸如在具有大量(例如,数百万个)输出节点的神经网络的最后一层中执行的分类。因此,实现不限于搜索***,而是可以在解决MIPS问题的任何***中使用。
可伸缩推理***100可以是采用多个不同设备的形式的一个或多个计算设备,例如标准服务器、一组这样的服务器,或机架服务器***,诸如服务器110。此外,***100可以在个人计算机(例如膝上型计算机)中实现。服务器110可以是计算机设备700的示例(如图7中所描绘的)或计算机设备800(如图8中所描绘的)。
虽然未在图1中示出,但是服务器110可以包括在基板中形成的一个或多个处理器,基板被配置为执行一个或多个机器可执行指令或者软件、固件或其组合的块。处理器可以是基于半导体的——即,处理器可以包括可以执行数字逻辑的半导体材料。处理器还可以包括能够执行数据级并行化的寄存器,例如,单指令多数据(SIMD)寄存器。服务器110还可以包括操作***以及被配置为或者临时、永久、半永久或者其组合地存储一条或多条数据的一个或多个计算机存储器,例如主存储器。存储器可以包括以可以由一个或多个处理器读取和/或执行的格式存储信息的任何类型的存储设备。存储器可以包括易失性存储器、非易失性存储器或其组合,并且存储在由一个或多个处理器执行时执行某些操作的模块。在一些实现中,模块可以存储在外部存储设备中并加载到服务器110的存储器中。
模块可以包括量化引擎126和查询引擎120。量化引擎126可以分层量化数据库项132的数据库并且,在该处理中,为层级中的每个级别生成码本,例如VQ码本134、PQ码本136。分层量化的结果是量化的数据库项130。在图1的示例中,VQ码本134表示层级中的第一层,并且PQ码本136表示第二层。在具有多于两层的实现中,量化引擎126可以生成附加的码本,例如,每层一个。因此,例如,如果***100使用两个向量量化层,接着是一个积量化层,那么***100可以为附加向量量化层生成第二VQ码本。结果得到的量化数据库项130和码本(例如,VQ码本134和PQ码本136)具有比数据库项132的数据库更小的存储器占用空间。数据库项132可以是向量的数据库。向量可以被认为是具有d维度的浮点数的数组,或者换言之,具有d个位置的数组。诸如查询182之类的查询也可以表述为维度d的向量。当d大并且数据库条目的数量大(例如,数万或甚至数百万)时,查询向量和数据库向量之间的内积的计算是缓慢且处理器密集的。量化使得能够近似内积,但会引入量化误差。误差越大,结果越不准确。
为了在保持高准确度级别的同时实现更快的计算时间,量化引擎126可以量化数据库项132。量化引擎126可以首先对数据库项132执行向量量化,以向每个数据库项指派VQ码本134中的条目。因此,每个数据库项132具有相应的VQ码字,该码字识别VQ码本134中的条目。然后,量化引擎126可以确定每个数据库项的残差向量,残差向量是数据库项向量与聚类中心(例如,与数据库项映射到的VQ码本134中的条目对应的向量)之间的差。然后,量化引擎126可以使用正交变换,例如使用学习到的旋转,来变换残差。正交变换(学习到的旋转)减小了后续积量化的每个子空间中的方差,这产生了显著更低的量化误差和更高的召回率。然后,量化引擎126可以经由积量化进一步量化旋转的残差向量,或者换句话说,将经变换的残差投影到子空间中,并将每个子空间映射到为子空间生成的PQ码本中的条目。因此,经变换的残差的每个子空间具有相应的PQ码字,用于子空间的PQ码字识别用于那个子空间的PQ码本中的条目。***可以将VQ码字和用于每个子空间的相应PQ码字存储为量化的数据库项130中的量化的数据库项。
图2图示了示例数据库项132和量化的数据库项130。在图2的示例中,数据库项132包括n个条目或n个不同的数据库项。数据库项132中的每个数据库项(例如,数据库向量(DBV)1、DBV 2等)具有d维,或者换言之,d个元素。量化引擎126可以首先使用VQ码本134经由向量量化来量化数据库项132。在向量量化中,每个数据库向量被指派来自VQ码本134的VQ码字。VQ码字表示VQ码本134中的具体条目,并且VQ码本134中的每个条目是聚类中心,或者换句话说,是最佳地表示聚类的数据点。因此,实际上,向量量化将每个数据库项与聚类相关联。VQ码本134由量化引擎126学习和生成,并且数据库项的指派可以与VQ码本134的生成同时发生。VQ码本134可以具有M个条目,其可以在学习VQ码本134时确定或者可以作为参数提供。因此,数据库项132可以被划分为M个分区。量化引擎126将用于每个数据库项的VQ码字存储为量化的数据库项130中的量化的数据库项的第一部分。这表示分层量化中的第一层。
量化引擎可以使用VQ码字和VQ码本134来为每个数据库项生成残差。残差可以被定义为数据库向量与和数据库向量相关联的聚类中心之间的差。可以通过从聚类中心向量中减去数据库向量来计算差(或者反过来)。因此,量化引擎126可以使用向量量化来获得残差数据集(例如,数据库项残差232),其具有比原始向量(例如,数据库项132)小得多的直径。换句话说,数据库项残差232仍然具有d维,但是向量中浮点数的值内的方差减小。量化引擎126可以仅临时存储这些残差232,因为它们在层级的另一个层中被进一步量化。当使用积量化(第二层)进一步量化时,较小直径产生量化误差的显著降低。
在一些实现中,量化引擎126可以使用学习到的旋转来旋转数据库项残差232。学习到的旋转可以用于实现信息到由通过积量化生成的各种子空间的最佳分布。可以优化学习到的旋转以使用随机梯度下降来减少误差。可以与VQ码本134和PQ码本136联合学习旋转以最小化量化误差。因此,学习到的旋转提供了比随机旋转更小的量化误差。但是,在一些实现中,可以不执行旋转或随机旋转。如果数据库项残差向量232经历学习到的旋转,那么将其称为经变换的或经变换的残差。在一些实现中,经变换的残差可以经历另一个轮向量量化,从而将层添加到层级。在每次向量量化之后,***可以再次计算残差,其可以经历积量化。
然后,量化引擎126将可以被变换的数据库项残差232投影到K个子空间中。子空间可以被定义为来自每个残余数据库项向量的元素块,其出现在相同的向量位置处。在一些实现中,d可被K整除,使得每个块包括相同数量的元素。这种实现在图2中示出,其中每个子空间是六个元素的块。在一些实现中,即使d可被K整除,直接除也可能导致其中每个子空间中的元素的数量不相等的子空间。在一些实现中,除法可以基于向量的随机或学习到的投影。在一些实现中,可以通过为每个第一mod(d,K)子空间指派额外的维度来生成可变大小的子空间。在这样的实现中,每个块中的元素的数量可以不相等。在图2所示的示例中,投影或除法产生K个子空间或块,每个子空间具有n行六个元素。
一旦将经变换的残差向量投影到子空间中,量化引擎126就可以生成PQ码本136。PQ码本136可以包括每个子空间一个码本。因此,使用图2的示例,PQ码本136包括K个PQ码本。在一些实现中,每个子空间的PQ码本可以统称为用于数据库项132的PQ码本。每个PQ码本可以包括用于J个聚类中的每一个的条目。当生成PQ码本136时可以确定聚类的数量J,或者可以将数量J作为参数传递给量化引擎126。例如,参数可以指示量化引擎126应当为每个码本生成16个聚类,或者为每个码本生成256个聚类。在一些实现中,聚类的数量(即,J的值)可以取决于寄存器(例如,SIMD寄存器)的尺寸。换句话说,为了改善计算时间,聚类的数量可以限于***中的寄存器可以执行的并行查找的数量。生成聚类时,每个聚类都将具有聚类中心。聚类中心是码本中用于那个聚类的条目。例如,在图2中,子空间K(即,块(K))具有来自n个向量中的每一个的六个元素(经变换的残差)。量化引擎126可以将六个元素的n个向量中的每一个聚类成J个聚类中的一个。当然,聚类中心不需要匹配数据库向量子空间,但可以表示作为聚类中心的六个元素。为了便于讨论,第k个子空间的码本可以用S(k)表示。因为每个码本具有J个条目,所以码本中的第j个条目可以表示为
在一些实现中,***可以联合地利用变换(例如,旋转)来学习VQ码本和PQ码本的聚类中心。量化引擎126可以使用基于欧几里德距离或k均值的常规聚类算法并使用随机梯度下降,其中在每次迭代时,在小批量数据上计算量化误差的梯度以用于数据点到码字的固定指派。在执行下降步骤后,将重新计算数据库项的码字指派。以这种方式,将码字指派给数据库项可以与学习码本同时进行。为了在保持正交性的同时优化残差的正交变换,量化引擎126可以通过正交矩阵的Cayley表征来对变换进行参数化,正交矩阵由R=(1-A)(I+A)-1表示,其中A是偏斜对称矩阵,即A=-AT,并且I是尺寸为d x d的单位矩阵。偏斜对称矩阵A的参数是d(d-1)/2,因此计算变换矩阵R可以涉及在每次迭代时涉及d x d矩阵求逆。如果d是高维的(例如,大于数千),那么***可以限制A的参数的数量。这权衡了容量和计算成本。
在一些实现中,量化引擎126可以使用来自数据库项132的数据库的随机样本来初始化VQ码本134,并且可以使用独立样本的集合的残差(例如,在向量量化之后)来初始化PQ码本。为了允许向量量化层有机会划分空间,量化引擎126可以在初始化PQ码本136并进行完全联合训练之前仅优化几个时期的向量量化误差。量化引擎126可以通过从采样来初始化偏斜对称矩阵A的参数。
在一些实现中,***可以经由M维(对于VQ码本)或J维(对于PQ码本)的一个热指派向量将数据库向量指派给码本中的条目。除了表示聚类指派的位置之外,用于向量x(例如,αx)的一个热指派向量或用于向量x的第k个子空间的一个热指派向量(例如,)可以全为零。在一些实现中,用于x的指派向量(例如,αx)可以是量化的数据库项。换句话说,在一些实现中,指派向量可以是码字。因此,指派向量和码本的点积可以提供向量x(或向量x的第k个子空间)的聚类中心(例如,量化)。在一些实现中,量化的数据库项中的信息可以是指向码本条目的指针。量化引擎126可以通过串联来自不同级别的码字来生成量化的数据库项。在图2的示例中,首先是VQ码字,然后是用于K个子空间中的每一个的PQ码字。如果***100使用附加层,那么可以按量化的次序串联来自每个附加层的码字(或多个字字)。例如,如果***在积量化之前执行另一个层向量量化,那么用于第二层向量量化的码字将跟在用于积量化的码字之前的第一向量量化层的码字后面。量化引擎126可以存储量化的数据库项130、VQ码本134、PQ码本136和学习到的变换矩阵R,以供查询引擎120使用。
一旦量化引擎126已经生成码本,学习到了旋转,并且生成了量化的向量(例如,量化的数据库项130),***100就准备好使用VQ码本134、PQ码本136、学习到的变换矩阵R和量化的数据库项130来响应查询。因此,模块可以包括查询引擎120。查询引擎120可以被配置为使用码本和量化的数据库项130来识别响应于查询182的数据库项132并且响应于查询182提供结果184。查询引擎120可以包括使用常规技术从查询182创建查询向量的模块或引擎。查询引擎120可以确定查询与来自VQ码本134的哪些聚类最接近。在一些实现中,这可以包括计算查询向量和每个聚类中心之间的内积并选择具有最大内积的聚类中心。在一些实现中,查询引擎120可以选择多于一个聚类中心为“最接近”,例如,选择具有最高内积的前t个聚类。因此,查询引擎120可以确定用于查询182的VQ码字(或多个码字)。查询引擎120可以通过将查询向量的比较限制到仅共享VQ码字的那些量化数据库项来使用VQ码字(或多个码字)以减少内积搜索的计算时间。因此,不是将查询向量与每个数据库项进行比较,而是仅考虑共享VQ码字的那些数据库项。当然,如果查询引擎120选择多个VQ码字,那么与附加VQ码字对应的量化的数据库项也将包括在与查询182的比较中。
然后,***例如通过从与VQ码字对应的聚类中心中减去查询向量来计算查询182的残差。如果***100已经变换了量化的数据库项,那么查询引擎120还可以变换残差查询向量。***可以将残差查询向量投影到子空间中。查询残差被投影到的子空间匹配数据库项132被投影到的子空间。因此,残差查询向量可以具有K个子空间。
在一些实现中,查询引擎120可以生成查找表138。查找表138可以存储每个子空间中的每个聚类中心和查询向量的对应子空间的内积的结果。因此,***可以预先计算每个PQ码本中的每个数据点和对应的残差查询向量子空间之间的内积,并将结果存储在查找表138中。这可以产生表或数据库,其中可以通过知道用于任何特定子空间(例如,哪个子空间中的哪个聚类)的PQ码字来访问内积的结果。在一些实现中,查找表138可以存储在寄存器中,例如,存储在SIMD寄存器中。在一些实现中,每个子空间可以具有存储在寄存器中的查找表138,从而给出K个查找表。查询引擎120可以使用查找表138来大大加速搜索,甚至在存储器表中也是如此。但是,使用寄存器中的表可能意味着基于寄存器的容量选择J,例如16或32。
然后,查询引擎120可以确定与所选择的VQ码字相关联的每个量化的数据库项和查询的内积。为了实现这一点,查询引擎120可以针对每个被检查的量化的数据库向量确定每个子空间中的PQ码本指派(即,PQ码字),并确定由那个子空间中的PQ码本指派表示的数据点和残差查询向量的对应子空间的内积。在使用查找表138的实现中,***可以在表中查找PQ码本条目和子空间。因此——查询引擎120可以使用对查找表138的查找,而不是执行查询和用于数据库项的PQ码本条目之间的内积操作。如上面所指示的,在一些实现中,查找表138可以存储在寄存器中,并且***可以存储用于寄存器中的数据库项的对应PQ码字。以这种方式,***可以在一个CPU周期中执行16次并行(或32次并行)查找。在其它实现中,***可以执行内积。查询引擎120可以将数据库项和查询之间的内积近似为量化的数据库项的PQ部分(第二部分,或第二层部分)和查询之间在每个子空间中的内积的结果的总和。换句话说,使用图2的示例,查询和DBV 1之间的近似内积是量化的搜索项1的量化的块(1)到量化的块(K)和残差查询向量之间的内积的总和。这可以表示为
其中S(k)是第k个子空间的查找表,并且是用于数据库项x的第k个子空间的PQ码字。
一旦查询引擎120使用上述近似确定了具有最高内积的数据库项,搜索就已经确定了响应于该查询的数据库项。在一些实现中,查询引擎120可以包括排名引擎,该排名引擎按照相似性得分(即,最高内积)对结果184进行排序。查询引擎120可以提供结果184以供客户端设备(诸如客户端170)显示。当然,响应数据库项可以用于其它目的,诸如分类。
可伸缩推理***100可以通过网络160与(一个或多个)客户端170通信。客户端170可以允许用户向查询引擎120提供查询182并接收结果184,结果184包括使用量化的数据库项基于与搜索查询的近似内积响应于查询而找到的数据库项。网络160可以是例如互联网或者网络160可以是使用例如网关设备、网桥、交换机等实现的有线或无线局域网(LAN)、广域网(WAN)等。经由网络160,可伸缩推理***100可以与客户端170通信或从客户端170发送数据。在一些实现中,客户端170可以包括应用,诸如执行查询引擎120的一些或全部功能的搜索应用175。例如,与数据库项132相比,量化的数据库项130不占用太多存储器,并且可以具有适合于在客户端上(诸如在数据存储180中)存储的尺寸。数据存储180可以包括任何类型的非易失性存储器,诸如闪存、SD、RAM、盘等。服务器110可以将量化的数据库项130、VQ码本134和PQ码本136发送到客户端170,并且搜索应用175可以执行上面关于查询引擎120描述的动作。在一些实现中,客户端170可以是另一个服务器或***。客户端170可以是计算设备800或计算设备700的另一个示例。
在一些实现中,可伸缩推理***100可以与提供对数据库项132的更新的其它计算设备通信或包括提供对数据库项132的更新的其它计算设备。可伸缩推理***100表示一个示例配置,并且其它配置是可能的。此外,***100的部件可以以与所示不同的方式组合或分布。例如,在一些实现中,查询引擎120和量化引擎126中的一个或多个可以组合成单个模块或引擎。此外,查询引擎120、量化引擎126的部件或特征可以分布在两个或更多个模块或引擎之间,或甚至分布在多个计算设备上。例如,数据库项132和/或量化的数据库项130可以分布在多个计算设备上。
图3图示了根据实现的、用于使用分层量化来准备项的数据库用于快速最大内积搜索(MIPS)的示例处理300的流程图。处理300可以由可伸缩推理***(诸如图1的***100)执行。处理300是由图1的量化引擎126执行的单个数据库项的分层量化的示例。应该理解的是,***还可以同时对所有数据库向量执行处理300,并且处理300可以与生成或学习用于量化的码本同时执行,如关于图5更详细地描述的。处理300可以由***周期性地执行,使得生成的量化的数据库项和码本保持最新。例如,***可以每天执行一次处理300、每周执行一次、每小时执行一次等,这取决于用新项更新项的数据库的频率。
处理300可以从可伸缩推理***为每个数据库项(即,每个数据库向量)指派向量量化(VQ)码本中的条目开始(305)。换句话说,***可以为每个数据库项指派VQ码字。VQ码字指向VQ码本中的条目,该条目包含(或指向)聚类中心。因此,VQ码字也可以称为聚类标识符。聚类中心是与数据库项向量具有相同维度的向量,并且最能代表聚类中的数据库项。可以经由学习处理生成VQ码本,该学习处理还可以执行数据库项到VQ码本条目的映射。将相应的VQ码字指派给数据库项是分层量化中的第一级,并且用于每个数据库项的VQ码字是量化的数据库项的第一级部分。形式上,向量量化可以表示为其返回用于x的向量量化码字,是具有m个条目的向量量化码本(例如,码本134),并且Ui是第i个条目。
***可以计算每个数据库项的残差向量(310)。残差向量是数据库项向量与和该数据库项的VQ码字对应的聚类中心之间的差。真实世界数据常常是可聚类的,聚类的直径大大低于作为整体的数据集的直径。因此,***可以使用向量量化来获得具有小得多的直径的残差数据集,从而当利用积量化进行量化时产生量化误差的显著减小。因此,分层量化利用非常适合于近似低维分量的向量量化,以及非常适合于从残差中捕获高维数据的积量化。
在一些实现中,***可以对残余向量执行学习到的旋转或变换(315)。在一些实现中,与码本一起学习旋转。如图6C所证明的,学习到的旋转提供了更好的召回。学习到的旋转可以是应用于向量量化的残差的矩阵在一些实现中,变换可以是随机的,但是固定的,置换。换句话说,置换是随机生成的,但是一旦生成置换,它就是固定的并且可以应用于所有数据库向量和所有查询向量。但是,随机变换不产生与学习到的旋转相同的召回。在一些实现中,步骤315是可选的,并且残差向量保持不变。
***可以将每个残差向量投影到子空间中(320)。在一些实现中,每个子空间可以具有来自向量的相等数量的元素。在一些实现中,子空间可以不具有相等数量的元素。子空间也可以称为块。***可以为子空间指派用于该子空间的积量化(PQ)码本中的条目(325)。在一些实现中,指派可以作为通过聚类处理生成PQ码本的一部分而发生。因此,用于特定子空间的PQ码本包括用于每个聚类的条目,其中聚类中心作为条目。聚类中心具有与子空间中残差向量的部分相同数量的元素。
换句话说,每个子空间具有PQ码本,并且每个码本具有J个条目。J的值可以取决于提供给生成PQ码本的过程的参数,或者该过程可以基于数据确定值。在一些实现中,J的值可以取决于寄存器(例如,SIMD寄存器或其它寄存器)的容量。例如,J的值可以是16,使得单个寄存器可以保存用于子空间k的整个PQ码本(例如,S(k))。每个数据库向量子空间可以被映射到或指派给用于该子空间的码本中的J个条目之一。用于子空间k的PQ码本中的具体条目j被表示为在一些实现中,指派可以作为生成码本的一部分而发生。例如,当使用聚类时,可以将每个残余向量子空间指派给聚类之一,因为聚类是从用于子空间的残差向量生成的。
***可以通过将VQ码字与用于每个子空间的每个PQ码字串联来为每个数据库向量生成量化的向量(330)。VQ码字可以是用于层级的第一级的码字,并且PQ码字(每个子空间一个)可以用于层级的第二级。因此,在分层量化中,数据库向量x可以由下式近似
其中返回用于x的VQ码字,是具有m个码字的向量量化码本,矩阵是应用于向量量化的残差的学习到的旋转,并且积量化器由下式给出:
通过将经旋转的残差rx划分到K个子空间1到K中而获得的码字的串联,以及通过向量量化器独立地量化子空间以最小化量化误差: 其中是用于第k个子空间(具有j个条目)的PQ码本。x的最终量化的表示通过串联φVQ(x)的索引和k=1,...,K的K个索引来给出。这个表示,即,量化的数据库项,具有log2 m+K log2 j的总位速率,其中m是VQ码本中的条目的数量,j是每个PQ码本中的条目的数量,并且K是子空间的数量。***可以将每个量化的数据库项与VQ码本、PQ码本和学习到的旋转R一起存储在数据存储、数据库或其它存储器中。然后,处理300结束,生成的结构可以用于以高效的方式和准确的方式近似查询项和数据库项之间的最大内积。
虽然图3图示了具有两个层的层级,但是***可以在层级中包括多于两个层。例如,***可以根据需要和/或由数据支持来执行一个或多个附加向量量化层或一个或多个附加积量化层。每个附加层将向量化的数据库项添加附加码字。此外,每层接收在前一层中计算出的残差。
图4图示了根据所公开的主题的、用于使用分层量化来识别响应数据库项的示例处理400的流程图。处理400可以由可伸缩推理***(诸如图1的***100)执行。可以在每次接收到查询时执行处理400,以便确定具有和查询向量的最大内积的数据库项。具有最高内积的那些项对查询的响应最快,或者换句话说,最像查询。查询向量还可以表示要分类的项,例如,作为具有大量输出节点的神经网络的最后一层的一部分。
处理400可以从***确定查询向量和VQ码本中的每个条目的内积开始(405)。这提供了与查询最相似的VQ码字。***可以选择最相似的VQ码本条目(基于内积计算的结果)并计算查询的残差(410),例如,作为查询向量与选择的VQ码本条目之间的差。在一些实现中,***可以选择多于一个“最相似的”VQ码本条目,例如,选择t个最相似的条目(例如,t=2或t=5等等,并且t<m)。在这样的实现中,***可以为每个选择的VQ码本条目生成残差,使得每个选择的向量量化条目具有相应的残差查询向量。
***可以变换残差查询向量(415)。在使用变换的实现中,变换或旋转与图3的步骤315中使用的变换或旋转相同。可伸缩推理***还可以将残差查询向量(或多个向量)投影到子空间(420)中。以与数据库项向量的投影相同的方式完成查询向量的投影,作为图3中步骤320的一部分。然后,***可以可选地生成查找表(425)。查找表可以对于每个PQ码本的每个条目包括一个条目。为了生成表,***可以对于每个子空间(即,每个PQ码本)执行子空间中残差查询向量的元素和子空间中每个PQ码本条目的元素之间的内积。因此,如果码本具有J个条目,那么查找表将具有用于那个子空间的J个条目。作为下面的步骤435的一部分,***可以使用查找表来加速与量化的数据库项的内积的计算,但是查找表的使用是可选的。在一些实现中,查找表存储在寄存器中,并且J的值受寄存器的特点约束,例如,是16或32。
然后,***可以计算共享在步骤410中选择的VQ码字(VQ码本条目)的每个量化的数据库项的相似性得分。因而,***可以选择共享VQ码字的量化的数据库项(430),并且为每个子空间计算那个子空间中的残差查询元素和用于该子空间的量化的数据库项元素之间的内积(435),这由子空间中的PQ码本条目指派(例如,图2的量化的块1或量化的块(K))表示。在一些实现中,***可以从量化的数据库项的子空间中确定PQ码本条目,确定PQ码本条目的数据点(例如,聚类中心),并计算残差查询子空间和数据点之间的内积。在使用查找表的实现中,***可以确定量化的数据库项子空间的PQ码本条目,并在查找表中查找用于那个PQ码本条目的内积结果。***可以通过对如在步骤435中计算的每个子空间的内积求和来计算用于数据库项的相似性得分(440)。相似性得分是量化的数据库项和查询之间的近似内积。如果将查询和数据库项向量投影到K个子空间中,那么***可以对K个值求和,每个值表示针对子空间的内积计算。***可以重复步骤430至440(445,是),直到已经为映射到与残差查询向量相同的VQ码字的每个数据库项计算出相似性得分(445,否)。
在使用码本查找表的实现中,步骤430至440也可以表述为
其中k是K个子空间的第k个子空间,j是PQ码本中J个条目的第j个条目,是经旋转的残差查询向量,其中作为第k个子向量并且是作为残差查询向量和PQ码本条目之间的内积的查找表条目(例如, 其中是用于第k个子空间的PQ码本的第j个条目)。当码本查找表存储在寄存器中时,***可以利用中央处理器(CPU)的指令级并行化能力。例如,***可以使用一个寄存器(例如,SIMD寄存器)来保持查找表v(k),并且使用另一个寄存器来保持用于给定的量化的数据库项的PQ码字的索引。在这样的实现中,在一个CPU周期中,***可以使用寄存器指令来执行若干并行查找,例如16个并行查找(PSHUFB,SSSE3)或32个并行查找(VPSHUFB,AVX2)。这表示对存储器中码本查找表的显著改进,存储器中码本查找表仅具有每个CPU周期一次查找的吞吐量。
如果***选择多个VQ码字作为与查询向量“最相似”,那么***可以对其它VQ码字重复步骤425至445。然后,***可以返回具有最高相似性得分的数据库项,例如,识别数据库项或数据库向量本身的标识符(450)。如图4中所示,VQ码字用于减少例如经由内积操作为其比较查询向量的数据库项的数量。这减少了处理时间,从而改进了***的响应性,同时残差的积量化提供了高准确度。由***执行的搜索的复杂性可以表述为其中k是子空间的数量,m是向量量化器的数量(例如,VQ码本中的条目的数量),t是为查询向量选择的VQ码字的数量,并且n是数据库项的数量。
在一些实现中,***可以使用精确的点积计算来重新评分最高得分数据库项。换句话说,***可以为具有最高相似性得分的项计算精确点积,并使用该精确点积来确定将呈现给查询请求器的数据库项。例如,***可以使用N个项作为查询请求器的搜索结果,并计算查询向量和使用量化向量确定的前10*N个(例如具有最高相似性得分的那10*N个)数据库项的数据库向量之间的精确点积。然后,***可以使用具有最高实际点积的前N个数据库项。这提高了搜索结果的准确性,但是比计算所有数据库项的点积需要更少的时间来确定。***可以提供搜索结果,该搜索结果包括关于那些项的信息以供显示给提供查询的用户。然后,处理400结束,识别出了响应最快的项。
图5图示了根据所公开的主题的、用于联合学习正交变换和用于分层量化的码本的示例处理500的流程图。处理500可以由可伸缩推理***(诸如图1的***100)执行。处理500训练和优化依赖任务的目标函数,以预测每个分层的层中的聚类以及从来自数据库的随机样本开始的可选的学习到的旋转。为了联合训练参数(码本和正交变换),***使用随机梯度下降,其中在每次迭代时,在小批量数据上计算量化误差的梯度,用于数据点(数据库项)到码字的固定指派。在执行下降步骤后,重新计算针对数据点的码字指派。换句话说,处理500使用迭代处理在求解每层的码本和将数据库项到码本条目的指派之间交替。处理500可以作为图3的处理300的一部分或与其同时执行。
处理500可以从可伸缩推理***为每个VQ码本条目指派随机数据库向量开始(505)。***可以使用小批量数据上的随机梯度下降来优化几个时期的向量量化误差(510)。这允许向量量化在初始化PQ码本条目和进行完全联合训练之前分割空间的机会。***可以通过以下方式初始化PQ码本条目:从向量量化为独立样本集合生成残差,将残差投影到子空间中,并且从残差的相应子空间指派PQ码本值中的条目(515)。***还可以通过使用来自 的采样填充偏斜对称矩阵来初始化旋转矩阵。
然后,***可以使用小批量(例如,2000项)数据上的随机梯度下降来优化向量量化误差、变换误差和积量化误差(525)。这可以包括找出被违反的约束的集合(但不一定是所有被违反的约束),使用梯度下降调整对于检测到的违反的码本指派,以便违反不再显示为具有大于具有最大点积的数据库项的近似。当使用分层的层(即,使用码本和变换)生成的近似点积指示第一量化的数据库项与查询之间的值大于第二量化的数据库项与查询之间的值时,发生被违反的约束,但第二数据库项(即,原始数据库项向量)实际上具有与查询的最高点积。换句话说,近似指示第一数据库项具有比第二数据库项更高的相似性,但查询和第二项的实际内积最相似(具有最大内积)。作为一个示例,***可以使用在Kingma等人的“Adam:A method for stochastic optimization”,CoRR,abs/1412.6980,2014中描述的Adam优化算法来优化参数。
***可以确定是否需要上述步骤的附加迭代(530)。如果在步骤525中未发现违反,那么迭代可以完成。如果迭代达到设定的数量(例如,30),那么迭代可以完成。如果迭代未完成(530,否),那么***可以通过查找违反、调整指派和调整码本来继续调整参数。如果迭代完成(530,是),那么处理500结束,从而生成VQ码本、PQ码本和学习到的变换。当***在层级中包括附加层时,以类似方式联合学习附加码本。
图6A至6D图示了使用分层量化的实现的益处。在图6A至6D的示例中,跨四个基准数据库比较分层量化和其它量化处理的评估。表1图示了四个数据库的特点:
数据集 维度(d) 尺寸(n)
movielens 150 10,681
netflix 300 17,770
word2vec_text8 200 71,291
word2vec_wiki 500 3,519,681
表1
图6A图示了不同距离计算的效率的比较。具体而言,图6A图示了在数据库的线性搜索中每个查询花费的时间(以μs为单位)。在图6A中,使用寄存器内码本查找表(LUT16)的分层量化与1)二进制码的Hamming距离(使用XOR和POPCNT指令;以及2)到积量化码的不对称距离(PQ,使用存储器中的查找表)进行比较。所有三者都使用相同数量的位(64):Hamming使用64位二进制码,PQ使用8个子空间,每个子空间有256个量化器,并且LUT16使用16个子空间,每个子空间有16个量化器。定时包括距离计算和前N选择。在图6A的示例中,计算在3.5GHz Haswell机器上利用单线程完成,并且CPU缩放被关闭。如图所示,LUT16优于PQ和Hamming,并且分层量化(LUT16)明显快于具有存储器中查找表的PQ(在较大的数据库中为5倍)并且比Hamming距离计算略快。
图6B图示了在所有四个数据库上取回(retrieving)前10个邻居时的精确度/召回曲线。图6B比较使用寄存器中的码本查找表(分层)的分层量化与四种基线方法:签署的ALSH、简单LSH、复合量化和QUIPS。签署的ALSH在Shrivastava等人的“An Improved schemefor asymmetric LSH”,CoRR abs/1410.5410,2014中描述,LSH在Neyshabur等人的“Asimpler and better LSH for maximum inner product search(MIPS)”,arXiv preprintarXiv:1410.5518,2014中描述,复合量化在Du等人的“Inner product similarity searchusing compositional codes”,CoRR,abs/1406.4966,2014中描述,并且QUIPS在Guo等人的“Quantization based fast inner product search”,ArXiv preprint arXiv:1509.01469,2015中描述。在生成曲线时,使用蛮力搜索生成基础真实(ground-truth)MIPS结果,并与固定位速率设置中的基线方法和分层量化的结果进行比较。图6B图示了分层量化倾向于明显优于所有四种基线方法,在越大的数据库上具有越好的性能。因此分层量化是高度可伸缩的。
图6C图示了用于取回前10个邻居的召回@N,从而比较具有和不具有最大数据库(例如,word2vec_wiki)上的残差的学习到的旋转的分层量化。图6C图示了学习到的旋转对召回的显著提升。图6D图示了在最大数据库上搜索VQ分区的不同部分时用于取回前10个邻居的召回@N。使用分层量化的***使用向量量化将数据库分割成m个分区,并且仅搜索共享(例如,在图4的步骤410)为查询项选择的相同VQ码字的那些数据库项。因此,***搜索数据库的一小部分。这加快处理时间,但会影响召回。图6D图示了在不同搜索分数(fraction)t/m下的最大数据集的召回曲线(其中t是为查询项选择的VQ码字的数量,并且m是VQ码本中的分区的总数)。如图6D所示,当搜索分数为1/4(25%)时实际上没有召回损失,并且当搜索分数为1/16(6.25%)时损失小于2%。因此可以调整所选分区的数量(t)以有利于速度(较低的t)或召回(较高的t),但是图6D图示了t可以远低于m并且仍然获得准确的结果。
图7示出了可以与这里描述的技术一起使用的通用计算机设备700的示例,其可以是图1的服务器110和/或客户端170。计算设备700旨在表示计算设备的各种示例形式,诸如膝上型计算机、台式机、工作站、个人数字助理、蜂窝电话、智能电话、平板电脑、服务器和其它计算设备,包括可穿戴设备。这里示出的部件、它们的连接和关系以及它们的功能仅仅意味着是示例,并不意味着限制本文档中描述和/或要求保护的发明的实现。
计算设备700包括经由接口708连接的处理器702、存储器704、存储设备706和扩展端口710。在一些实现中,计算设备700可以包括经由接口708连接的收发器746、通信接口744和GPS(全球定位***)接收器模块748以及其它部件。设备700可以通过通信接口744无线通信,通信接口744可以在必要时包括数字信号处理电路***。部件702、704、706、708、710、740、744、746和748中的每一个可以适当地安装在公共主板上或以其它方式安装。
处理器702可以处理指令以供在计算设备700内执行,包括存储在存储器704中或存储设备706上的指令,以在外部输入/输出设备(诸如显示器716)上显示GUI的图形信息。显示器716可以是监视器或平板触摸屏显示器。在一些实现中,可以适当地使用多个处理器和/或多个总线以及多个存储器和多种类型的存储器。而且,可以连接多个计算设备700,其中每个设备提供必要操作的部分(例如,作为服务器组、一组刀片服务器或多处理器***)。
存储器704存储计算设备700内的信息。在一个实现中,存储器704是易失性存储器单元。在另一个实现中,存储器704是非易失性存储器单元。存储器704还可以是另一种形式的计算机可读介质,诸如磁盘或光盘。在一些实现中,存储器704可以包括通过扩展接口提供的扩展存储器。
存储设备706能够为计算设备700提供大容量存储。在一个实现中,存储设备706可以是或包括计算机可读介质,诸如软盘设备、硬盘设备、光盘设备或带设备、闪存或其它类似的固态存储设备,或设备的阵列,包括存储区域网络中的设备或其它配置。计算机程序产品可以有形地在这样的计算机可读介质中实施。计算机程序产品还可以包括在执行时执行一种或多种方法(诸如上面描述的那些方法)的指令。计算机或机器可读介质是诸如存储器704、存储设备706或处理器702上的存储器之类的存储设备。
接口708可以是管理计算设备700的带宽密集型操作的高速控制器或者管理较低带宽密集型操作的低速控制器,或这些控制器的组合。可以提供外部接口740,以便能够使设备700与其它设备进行近区域通信。在一些实现中,控制器708可以耦合到存储设备706和扩展端口714。可以包括各种通信端口(例如,USB、蓝牙、以太网、无线以太网)的扩展端口可以例如通过网络适配器耦合到一个或多个输入/输出设备,诸如键盘、指示设备、扫描仪或联网设备(诸如交换机或路由器)。
计算设备700可以以多种不同的形式实现,如图中所示。例如,它可以被实现为标准服务器730,或者在一组这样的服务器中多次实现。它也可以作为机架服务器***的一部分来实现。此外,它可以在诸如膝上型计算机722之类的个人计算机或者智能电话736中实现。整个***可以由彼此通信的多个计算设备700组成。其它配置也是可能的。
图8示出了可以与这里描述的技术一起使用的通用计算机设备800的示例,其可以是图1的服务器110。计算设备800旨在表示大规模数据处理设备的各种示例形式,诸如服务器、刀片服务器、数据中心、大型机和其它大规模计算设备。计算设备800可以是具有通过一个或多个通信网络互连的多个处理器的分布式***,可能包括网络附连的存储节点。这里示出的部件、它们的连接和关系以及它们的功能仅仅意味着是示例,并不意味着限制本文档中描述和/或要求保护的发明的实现。
分布式计算***800可以包括任何数量的计算设备880。计算设备880可以包括通过局域网或广域网、专用光链路、调制解调器、网桥、路由器、交换机、有线或无线网络等进行通信的服务器或机架服务器、大型机等。
在一些实现中,每个计算设备可以包括多个机架。例如,计算设备880a包括多个机架858a-858n。每个机架可以包括一个或多个处理器,诸如处理器852a-852n和862a-862n。处理器可以包括数据处理器、网络附连的存储设备以及其它计算机控制的设备。在一些实现中,一个处理器可以作为主处理器操作并控制调度和数据分发任务。处理器可以通过一个或多个机架开关858互连,并且一个或多个机架可以通过开关878连接。交换机878可以处理多个连接的计算设备800之间的通信。
每个机架可以包括存储器(诸如存储器854和存储器864),以及存储装置(诸如856和866)。存储器856和866可以提供大容量存储装置,并且可以包括易失性或非易失性存储装置(诸如网络附连的盘、软盘、硬盘、光盘、磁带、闪存或其它类似的固态存储器设备),或者设备的阵列,包括存储区域网络中的设备或其它配置。存储装置856或866可以在多个处理器、多个机架或多个计算设备之间共享,并且可以包括存储可由一个或多个处理器执行的指令的计算机可读介质。存储器854和864可以包括例如一个或多个易失性存储器单元、一个或多个非易失性存储器单元和/或其它形式的计算机可读介质,诸如磁盘或光盘、闪存、高速缓存、随机存取存储器(RAM)、只读存储器(ROM)及其组合。诸如存储器854之类的存储器也可以在处理器852a-852n之间共享。诸如索引之类的数据结构可以存储在例如存储器856和存储器854之间。计算设备800可以包括未示出的其它部件,诸如控制器、总线、输入/输出设备、通信模块等。
诸如***100之类的整个***可以由彼此通信的多个计算设备800组成。例如,设备880a可以与设备880b、880c和880d通信,并且这些可以被统称为***100。作为另一个示例,图1的***100可以包括一个或多个计算设备800。其中一些计算设备可以在地理上彼此靠近定位,而其它计算设备可以在地理上位于远处。***800的布局仅仅是示例,并且***可以采用其它布局或配置。
根据一个方面,一种计算机***包括至少一个处理器和存储量化的项的数据库的存储器。每个量化的项包括第一码本中的第一条目和第二码本中的多个第二条目,其中多个第二条目中的每一个表示k个子空间的相应子空间。存储器还包括在由至少一个处理器执行时使***执行操作的指令。操作可以包括从第一码本中确定与查询向量最相似的条目,从第一码本中的该条目和查询向量计算残差向量,使用学习到的变换变换残差向量,并将经变换的残差向量投影到k个子空间中。对于具有与第一码本中与查询向量最相似的条目匹配的第一条目的每个量化的项,操作还可以包括:为每个子空间计算量化的项和经变换的残差向量的内积,并通过对内积进行求和来计算量化的项和查询之间的相似性得分。操作还可以包括响应于查询而提供具有最高相似性得分的项。
这些和其它方面可以包括下列特征中的一个或多个。例如,k可以是16并且操作还可以包括:对于每个子空间,计算经变换的残差向量和第二码本中的每个条目之间的内积,并将计算出的内积存储在码本查找表寄存器内存储装置中。每个子空间可以具有对应的寄存器。作为另一个示例,可以与第一码本和第二码本联合学习变换。在一些实现中,第一码本可以在初始化第二码本和执行联合学习之前经历初始化和x个学习时期。作为另一个示例,残差可以是第一码本中的条目与查询向量之间的差。数据库可以大,例如,具有数百万个量化的项。
根据一个方面,一种方法包括聚类被表示为高维向量的数据库项的数据存储并为每个聚类选择聚类中心,并将聚类中心存储为第一层码本中的条目。该方法还可以包括,对于每个数据库项,基于数据库项被指派到的聚类的聚类中心来计算残差,将残差投影到子空间中,并且对于每个子空间确定第二层码本中用于该子空间的条目,并且第一层码本中的条目以及用于每个子空间的第二层码本中的相应条目存储为数据库项的量化的向量。
这些和其它方面可以包括以下特征中的一个或多个。例如,量化的向量可以用于使用最大内积搜索来确定响应数据库项。作为另一个示例,该方法还可以包括在将残差投影到子空间中之前使用学习到的旋转来变换残差。作为另一个示例,该方法可以包括:基于内积运算从第一码本中确定与查询向量最相似的t个聚类,并且对于t个聚类中的每一个基于该聚类的聚类中心来计算查询向量的残差。该方法还可以包括将查询的每个残差投影到子空间中,并且对于指派给t个聚类之一的每个数据库项确定与查询向量的最大内积得分。最大内积得分基于在数据库项的残差和指派给数据库项的聚类的查询的残差之间计算的内积在子空间上的总和。该方法还可以包括基于最大内积得分从指派给t个聚类之一的数据库项中识别与查询向量最相似的数据库项。在一些实现中,与查询向量最相似的数据库项用于对由查询向量表示的项进行分类,或者响应于查询向量而提供数据库项。作为另一个示例,该方法可以包括在将残差投影到子空间中之前使用学习到的旋转来变换残差,其中用第一层码本和第二层码本的参数来联合训练学习到的旋转。
根据一个方面,一种方法可以包括使用向量量化将数据库中的向量分割成m个分区,使得每个向量具有指派的向量量化码字,并且针对每个向量计算相应的残差,残差是向量与和向量量化码字对应的聚类中心之间的差。该方法还可以包括将积量化应用于每个残差,从而为每个残差产生用于k个子空间中的每一个的积量化码字,为每个向量存储指派的向量量化码字和用于向量的残差的k个积量化码字,并使用向量量化码字来选择数据库向量中与查询向量最相似的一部分。该方法还可以包括,对于该部分中的每个数据库向量,使用积量化码字从该与查询向量最相似的部分确定数据库向量。
这些和其它方面可以包括以下特征中的一个或多个。例如,该方法还可以包括在应用积量化之前使用学习到的旋转来变换残差。学习到的旋转可以与用于向量量化的码本和用于积量化的码本联合学习。作为另一个示例,使用向量量化码字来选择数据库向量的一部分可以包括在查询向量和每个聚类中心之间执行内积以产生每个聚类中心的相似性值;以及选择具有最高相似性值的聚类中心。该部分是数据库中具有与t个聚类中心之一对应的向量量化码字的向量。作为另一个示例,相应残差是第一相应残差,向量量化码字是第一向量量化码字,并且该方法还可以包括使用第二向量量化将第一相应残差分割为多个第二分区,因此每个向量具有指派的第二向量量化码字,以及对于第一相应残差中的每一个计算第二相应残差,第二残差是第一相应残差与和第二向量量化码字对应的聚类中心之间的差。可以将积量化应用于第二相应残差,并且将第二向量量化码字与第一向量量化码字和k个积量化码字一起存储。
各种实现可以包括在可编程***上可执行和/或可解释的一个或多个计算机程序中的实现,该可编程***包括至少一个可编程处理器,其可以是特殊的或通用的,被耦合成从存储***、至少一个输入设备和至少一个输出设备接收数据和指令以及向存储***、至少一个输入设备和至少一个输出设备发送数据和指令。
这些计算机程序(也称为程序、软件、软件应用或代码)包括用于可编程处理器的机器指令,并且可以用高级过程和/或面向对象的编程语言来实现,和/或在汇编/机器语言中实现。如本文所使用的,术语“机器可读介质”、“计算机可读介质”是指用于向可编程处理器提供机器指令和/或数据的任何非瞬态计算机程序产品、装置和/或设备(例如,磁盘、光盘、存储器(包括读取存取存储器)、可编程逻辑器件(PLD))。
这里描述的***和技术可以在包括后端部件的计算***(例如,作为数据服务器)或包括中间件部件的计算***(例如,应用服务器)或包括前端部件的计算***(例如,具有图形用户界面或Web浏览器的客户端计算机,用户可以通过该浏览器与这里描述的***和技术的实现交互)中实现,或者包括这种后端、中间件或前端部件的任意组合的计算***中实现。***的部件可以通过任何形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”)、广域网(“WAN”)和互联网。
计算***可以包括客户端和服务器。客户端和服务器一般彼此远离,并且通常通过通信网络进行交互。客户端和服务器的关系凭借在相应计算机上运行并且彼此具有客户端-服务器关系的计算机程序而产生。
已经描述了许多实现方式。但是,在不脱离本发明的精神和范围的情况下,可以进行各种修改。此外,图中描绘的逻辑流程不需要所示的特定次序或顺序次序来实现期望的结果。此外,可以提供其它步骤,或者可以从所描述的流程中消除步骤,并且可以将其它部件添加到所描述的***或从所描述的***中移除。因而,其它实现在以下权利要求的范围内。

Claims (20)

1.一种计算机***,包括:
至少一个处理器;以及
存储器,存储:
量化的项的数据库,所述量化的项中的每个量化的项包括第一码本的第一索引,随后是第二码本的多个第二索引,其中所述多个第二索引中的每个第二索引表示k个子空间中的相应子空间,以及
指令,在由所述至少一个处理器执行时使所述***:
从所述第一码本确定与查询向量最相似的聚类中心,
从所述聚类中心和所述查询向量计算残差向量,
使用学习到的变换来变换所述残差向量,
将所述经变换的残差向量投影到所述k个子空间中,
对于具有与为所述查询向量确定的所述聚类中心对应的第一索引的每个量化的项:
为每个子空间计算所述量化的项和所述经变换的残差向量之间的内积,以及
通过对所述内积进行求和来计算所述量化的项和所述查询之间的相似性得分,以及
响应于所述查询而提供具有最高相似性得分的项。
2.如权利要求1所述的***,其中k为16。
3.如权利要求2所述的***,其中所述存储器还存储指令,所述指令在由所述至少一个处理器执行时使所述***:
对于每个子空间,计算所述经变换的残差向量和所述第二码本中的每个聚类中心之间的内积;以及
将计算出的所述内积存储在码本查找表寄存器内存储装置中。
4.如权利要求3所述的***,其中每个子空间具有对应的寄存器。
5.如前述权利要求中任一项所述的***,其中与所述第一码本和所述第二码本联合学习所述变换。
6.如权利要求5所述的***,其中在初始化所述第二码本和执行联合学习之前所述第一码本经历初始化和x个学习时期。
7.如前述权利要求中任一项所述的***,其中所述残差是所述聚类中心与所述查询向量之间的差。
8.一种方法,包括:
聚类被表示为高维向量的数据库项的数据存储;
为每个聚类选择聚类中心,并将所述聚类中心存储为第一层码本中的条目;以及
对于每个数据库项:
基于所述数据库项被指派到的聚类的聚类中心来计算残差,
将所述残差投影到子空间中,
对于所述子空间中的每个子空间,确定用于所述子空间的第二层码本中条目,以及
将所述第一层码本中的条目、以及用于所述子空间中的每个子空间的第二层码本的相应条目存储为所述数据库项的量化的向量。
9.如权利要求8所述的方法,其中所述量化的向量用于使用最大内积搜索来确定响应数据库项。
10.如权利要求8或9所述的方法,还包括:在将所述残差投影到子空间中之前,使用学习到的旋转来变换所述残差。
11.如权利要求8-10中任一项所述的方法,还包括:
基于内积运算从所述第一码本中确定与查询向量最相似的t个聚类;
对于所述t个聚类中的每一个聚类,基于所述聚类的聚类中心来计算所述查询向量的残差;
将所述查询的每个残差投影到所述子空间中;
对于指派给所述t个聚类之一的每个数据库项,确定与所述查询向量的最大内积得分,所述最大内积得分基于在所述数据库项的残差与指派给所述数据库项的聚类的查询的残差之间计算的内积在所述子空间上的总和;以及
基于所述最大内积得分从指派给所述t个聚类之一的数据库项中识别与所述查询向量最相似的数据库项。
12.如权利要求11所述的方法,还包括:使用与所述查询向量最相似的数据库项对由所述查询向量表示的项进行分类。
13.如权利要求11或12所述的方法,还包括:使用与所述查询向量最相似的所述数据库项来响应于所述查询向量而提供数据库项。
14.如权利要求8-13中任一项所述的方法,还包括:
在将所述残差投影到子空间中之前使用学习到的旋转来变换所述残差,
其中用所述第一层码本和所述第二层码本的参数来联合训练所述学习到的旋转。
15.一种方法,包括:
使用向量量化将数据库中的向量分割成m个分区,使得每个向量具有指派的向量量化码字;
针对所述向量中的每个向量,计算相应残差,所述残差是所述向量与和所述向量量化码字对应的聚类中心之间的差;
将积量化应用于所述残差中的每个残差,从而为每个残差产生用于k个子空间中的每一个子空间的积量化码字;
为每个向量存储所述指派的向量量化码字和用于所述向量的所述残差的k个积量化码字;
使所述用向量量化码字来选择所述数据库向量中与查询向量最相似的一部分;以及
对于所述部分中的所述数据库向量中的每个数据库向量,使用所述积量化码字从与所述查询向量最相似的部分确定数据库向量。
16.如权利要求15所述的方法,还包括:在应用积量化之前使用学习到的旋转来变换所述残差。
17.如权利要求16所述的方法,其中所述学习到的旋转是与用于所述向量量化的码本和用于所述积量化的码本联合学习的。
18.如权利要求15-17中任一项所述的方法,其中使用所述向量量化码字来选择所述数据库向量的一部分包括:
在所述查询向量和每个聚类中心之间执行内积,以产生每个聚类中心的相似性值;以及
选择具有最高相似性值的t个聚类中心,
其中所述部分是所述数据库中具有与所述t个聚类中心之一对应的向量量化码字的向量。
19.如权利要求15-18中任一项所述的方法,所述相应残差是第一相应残差,所述向量量化码字是第一向量量化码字,并且所述方法还包括:
使用第二向量量化将所述第一相应残差分割为多个第二分区,因此每个向量具有指派的第二向量量化码字;以及
对于所述第一相应残差中的每一个第一相应残差,计算第二相应残差,所述第二残差是所述第一相应残差与和所述第二向量量化码字对应的聚类中心之间的差,
其中将所述积量化应用于所述第二相应残差,并且将所述第二向量量化码字与所述第一向量量化码字和所述k个积量化码字一起存储。
20.一种计算机程序产品,包括指令,所述指令在由至少一个处理器执行时使计算设备实现权利要求8至19中任一项所述的方法。
CN201780063107.2A 2016-10-11 2017-09-20 快速数据库搜索***和方法 Active CN110168525B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/290,198 2016-10-11
US15/290,198 US10719509B2 (en) 2016-10-11 2016-10-11 Hierarchical quantization for fast inner product search
PCT/US2017/052517 WO2018071148A1 (en) 2016-10-11 2017-09-20 Fast database search systems and methods

Publications (2)

Publication Number Publication Date
CN110168525A true CN110168525A (zh) 2019-08-23
CN110168525B CN110168525B (zh) 2022-03-01

Family

ID=59997498

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780063107.2A Active CN110168525B (zh) 2016-10-11 2017-09-20 快速数据库搜索***和方法

Country Status (4)

Country Link
US (1) US10719509B2 (zh)
EP (1) EP3526689A1 (zh)
CN (1) CN110168525B (zh)
WO (1) WO2018071148A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021081913A1 (zh) * 2019-10-31 2021-05-06 北京欧珀通信有限公司 向量查询方法、装置、电子设备及存储介质
CN113159211A (zh) * 2021-04-30 2021-07-23 杭州好安供应链管理有限公司 用于相似图像检索的方法、计算设备和计算机存储介质
CN113495965A (zh) * 2020-04-08 2021-10-12 百度在线网络技术(北京)有限公司 一种多媒体内容检索方法、装置、设备及存储介质
CN113656373A (zh) * 2021-08-16 2021-11-16 百度在线网络技术(北京)有限公司 构建检索数据库的方法、装置、设备以及存储介质
WO2022052468A1 (en) * 2020-09-08 2022-03-17 Huawei Technologies Co., Ltd. Methods and systems for product quantization-based compression of matrix
US11960455B2 (en) 2021-08-16 2024-04-16 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for building database for retrieval, device and storage medium

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6190041B2 (ja) * 2014-03-31 2017-08-30 株式会社日立国際電気 安否確認システム及び秘匿化データの類似検索方法
CN108241745B (zh) * 2018-01-08 2020-04-28 阿里巴巴集团控股有限公司 样本集的处理方法及装置、样本的查询方法及装置
US20190244080A1 (en) * 2018-02-02 2019-08-08 Wisconsin Alumni Research Foundation Neural Network Processor with On-Chip Convolution Kernel Storage
US11120070B2 (en) * 2018-05-21 2021-09-14 Microsoft Technology Licensing, Llc System and method for attribute-based visual search over a computer communication network
CN110727769B (zh) * 2018-06-29 2024-04-19 阿里巴巴(中国)有限公司 语料库生成方法及装置、人机交互处理方法及装置
CN109543069B (zh) * 2018-10-31 2021-07-13 北京达佳互联信息技术有限公司 视频推荐方法、装置和计算机可读存储介质
US11354287B2 (en) * 2019-02-07 2022-06-07 Google Llc Local orthogonal decomposition for maximum inner product search
CN111221915B (zh) * 2019-04-18 2024-01-09 西安睿德培欣教育科技有限公司 基于CWK-means的在线学习资源质量分析方法
US11775589B2 (en) * 2019-08-26 2023-10-03 Google Llc Systems and methods for weighted quantization
US11494734B2 (en) * 2019-09-11 2022-11-08 Ila Design Group Llc Automatically determining inventory items that meet selection criteria in a high-dimensionality inventory dataset
JP2021149613A (ja) * 2020-03-19 2021-09-27 株式会社野村総合研究所 自然言語処理装置およびプログラム
CN112116436B (zh) * 2020-10-14 2023-07-25 中国平安人寿保险股份有限公司 一种智能推荐方法、装置、计算机设备及可读存储介质
CN112418298B (zh) * 2020-11-19 2021-12-03 北京云从科技有限公司 数据检索方法、装置以及计算机可读存储介质
US11886445B2 (en) * 2021-06-29 2024-01-30 United States Of America As Represented By The Secretary Of The Army Classification engineering using regional locality-sensitive hashing (LSH) searches
CN117609488B (zh) * 2024-01-22 2024-03-26 清华大学 小重量码字的搜索方法、装置、计算机存储介质及终端

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5194950A (en) * 1988-02-29 1993-03-16 Mitsubishi Denki Kabushiki Kaisha Vector quantizer
JP3224955B2 (ja) * 1994-05-27 2001-11-05 株式会社東芝 ベクトル量子化装置およびベクトル量子化方法
JP3387750B2 (ja) * 1996-09-02 2003-03-17 株式会社リコー シェーディング処理装置
US6404925B1 (en) * 1999-03-11 2002-06-11 Fuji Xerox Co., Ltd. Methods and apparatuses for segmenting an audio-visual recording using image similarity searching and audio speaker recognition
WO2001046858A1 (fr) * 1999-12-21 2001-06-28 Matsushita Electric Industrial Co., Ltd. Creation d'un indice vectoriel, recherche de vecteurs similaires et dispositifs correspondants
US7152065B2 (en) 2003-05-01 2006-12-19 Telcordia Technologies, Inc. Information retrieval and text mining using distributed latent semantic indexing
WO2007132313A2 (en) * 2006-05-12 2007-11-22 Nokia Corporation Feedback frame structure for subspace tracking precoding
US8077994B2 (en) * 2008-06-06 2011-12-13 Microsoft Corporation Compression of MQDF classifier using flexible sub-vector grouping
US8737504B2 (en) * 2009-10-05 2014-05-27 Samsung Electronics Co., Ltd. Method and system for feedback of channel information
US9264713B2 (en) * 2012-07-11 2016-02-16 Qualcomm Incorporated Rotation of prediction residual blocks in video coding with transform skipping
US9710493B2 (en) 2013-03-08 2017-07-18 Microsoft Technology Licensing, Llc Approximate K-means via cluster closures
CN104918046B (zh) * 2014-03-13 2019-11-05 中兴通讯股份有限公司 一种局部描述子压缩方法和装置
JP6443858B2 (ja) 2014-11-20 2018-12-26 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 算出装置、算出方法、学習装置、学習方法、及びプログラム
US9721186B2 (en) * 2015-03-05 2017-08-01 Nant Holdings Ip, Llc Global signatures for large-scale image recognition
US10255323B1 (en) 2015-08-31 2019-04-09 Google Llc Quantization-based fast inner product search
WO2017077076A1 (en) * 2015-11-06 2017-05-11 Thomson Licensing Method and apparatus for generating codebooks for efficient search

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021081913A1 (zh) * 2019-10-31 2021-05-06 北京欧珀通信有限公司 向量查询方法、装置、电子设备及存储介质
CN113495965A (zh) * 2020-04-08 2021-10-12 百度在线网络技术(北京)有限公司 一种多媒体内容检索方法、装置、设备及存储介质
WO2022052468A1 (en) * 2020-09-08 2022-03-17 Huawei Technologies Co., Ltd. Methods and systems for product quantization-based compression of matrix
US11914670B2 (en) 2020-09-08 2024-02-27 Huawei Technologies Co., Ltd. Methods and systems for product quantization-based compression of a matrix
CN113159211A (zh) * 2021-04-30 2021-07-23 杭州好安供应链管理有限公司 用于相似图像检索的方法、计算设备和计算机存储介质
CN113656373A (zh) * 2021-08-16 2021-11-16 百度在线网络技术(北京)有限公司 构建检索数据库的方法、装置、设备以及存储介质
WO2023019933A1 (zh) * 2021-08-16 2023-02-23 百度在线网络技术(北京)有限公司 构建检索数据库的方法、装置、设备以及存储介质
US11960455B2 (en) 2021-08-16 2024-04-16 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for building database for retrieval, device and storage medium

Also Published As

Publication number Publication date
EP3526689A1 (en) 2019-08-21
US20180101570A1 (en) 2018-04-12
US10719509B2 (en) 2020-07-21
WO2018071148A1 (en) 2018-04-19
CN110168525B (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
CN110168525A (zh) 快速数据库搜索***和方法
Acun et al. Understanding training efficiency of deep learning recommendation models at scale
CN111149117B (zh) 机器学习和深度学习模型的基于梯度的自动调整
US8380643B2 (en) Searching multi-dimensional data using a parallelization framework comprising data partitioning and short-cutting via early out
US11392596B2 (en) Efficient inner product operations
JP2019522850A (ja) ディープニューラルネットワーク用のアクセラレータ
CN104392250A (zh) 一种基于MapReduce的图像分类方法
Naim et al. Community detection on the GPU
Canny et al. Machine learning at the limit
EP3115908A1 (en) Method and apparatus for multimedia content indexing and retrieval based on product quantization
Kruliš et al. Efficient extraction of feature signatures using multi-gpu architecture
JP2020187417A (ja) 物性予測装置及び物性予測方法
Abd Elrahman et al. D-SmartML: a distributed automated machine learning framework
CN115168281A (zh) 一种基于禁忌搜索算法的神经网络片上映射方法和装置
EP3115909A1 (en) Method and apparatus for multimedia content indexing and retrieval based on product quantization
US11709783B1 (en) Tensor data distribution using grid direct-memory access (DMA) controller
Ayodele Comparing the digital annealer with classical evolutionary algorithm
Wei et al. A general metric and parallel framework for adaptive image fusion in clusters
Mitra et al. Alleviating resource requirements for spatial deep learning workloads
CN109614581A (zh) 基于对偶局部学习的非负矩阵分解聚类方法
EP3971787A1 (en) Spatial tiling of compute arrays with shared control
CN109446408A (zh) 检索相似数据的方法、装置、设备及计算机可读存储介质
CN110325984A (zh) 在图形中进行层次社区检测的***和方法
CN111527734B (zh) 节点流量占比预测方法及装置
US20240143525A1 (en) Transferring non-contiguous blocks of data using instruction-based direct-memory access (dma)

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant