CN113554145A - 确定神经网络的输出的方法、电子设备和计算机程序产品 - Google Patents
确定神经网络的输出的方法、电子设备和计算机程序产品 Download PDFInfo
- Publication number
- CN113554145A CN113554145A CN202010340845.0A CN202010340845A CN113554145A CN 113554145 A CN113554145 A CN 113554145A CN 202010340845 A CN202010340845 A CN 202010340845A CN 113554145 A CN113554145 A CN 113554145A
- Authority
- CN
- China
- Prior art keywords
- vector
- projection
- binary
- neural network
- binary sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 81
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000004590 computer program Methods 0.000 title claims abstract description 16
- 239000013598 vector Substances 0.000 claims abstract description 124
- 238000012545 processing Methods 0.000 claims description 24
- 238000003860 storage Methods 0.000 claims description 24
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000009826 distribution Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 19
- 238000012549 training Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本公开的实施例涉及用于确定神经网络的输出的方法、电子设备和计算机程序产品。一种用于确定神经网络的输出的方法包括获取由神经网络的至少一个隐藏层输出的特征向量、以及与该神经网络的多个候选输出相关联的多个权重向量,多个候选输出的相应概率基于多个权重向量和特征向量来确定;将多个权重向量分别转换成多个二进制序列,并且将特征向量转换成目标二进制序列;从多个二进制序列中确定与目标二进制序列最相似的二进制序列;以及基于该二进制序列,从多个候选输出中确定该神经网络的输出。本公开的实施例能够对神经网络的输出层进行压缩,以提高输出层的运算效率。
Description
技术领域
本公开的实施例总体涉及机器学习领域,具体涉及用于确定神经网络的输出的方法、电子设备和计算机程序产品。
背景技术
在机器学习应用中,可以基于训练数据集来训练神经网络模型,然后利用经训练的神经网络模型来执行推理任务。以图像分类应用为例,可以基于标注有图像类别的训练图像来训练神经网络模型。然后,推理任务可以利用经训练的神经网络来确定输入图像的类别。
当把复杂的深度神经网络(DNN)部署到计算资源和/或存储资源有限的设备上时,可以通过应用模型压缩技术来节省推理任务所消耗的存储资源和运算时间。传统的DNN压缩技术都集中在压缩诸如卷积层(也称为“隐藏层”)等特征提取层上。然而,在诸如上述图像分类应用这样的应用中,输入图像的类别可能是大量候选类别之一,这可能导致DNN的输出层的运算量巨大。
发明内容
本公开的实施例提供了用于确定神经网络的输出的方法、电子设备和计算机程序产品。
在本公开的第一方面,提供了一种用于确定神经网络的输出的方法。该方法包括:获取由神经网络的至少一个隐藏层输出的特征向量、以及与该神经网络的多个候选输出相关联的多个权重向量,多个候选输出的相应概率基于多个权重向量和特征向量来确定;将多个权重向量分别转换成多个二进制序列,并且将特征向量转换成目标二进制序列;从多个二进制序列中确定与目标二进制序列最相似的二进制序列;以及基于该二进制序列,从多个候选输出中确定该神经网络的输出。
在本公开的第二方面,提供了一种电子设备。该电子设备包括至少一个处理单元和至少一个存储器。至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。该指令当由至少一个处理单元执行时使得装置执行动作,该动作包括:获取由神经网络的至少一个隐藏层输出的特征向量、以及与该神经网络的多个候选输出相关联的多个权重向量,多个候选输出的相应概率基于多个权重向量和特征向量来确定;将多个权重向量分别转换成多个二进制序列,并且将特征向量转换成目标二进制序列;从多个二进制序列中确定与目标二进制序列最相似的二进制序列;以及基于该二进制序列,从多个候选输出中确定该神经网络的输出。
在本公开的第三方面,提供了一种计算机程序产品。该计算机程序产品被有形地存储在非瞬态计算机存储介质中并且包括机器可执行指令。该机器可执行指令在由设备执行时使该设备执行根据本公开的第一方面所描述的方法的任意步骤。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了本公开的实施例能够在其中被实施的示例环境的框图;
图2示出了根据本公开的实施例的示例深度神经网络的示意图;
图3示出了根据本公开的实施例的用于确定神经网络的输出的示例方法的流程图;
图4示出了根据本公开的实施例的将输入向量转换成二进制序列的示意图;以及
图5示出了可以用来实施本公开内容的实施例的示例电子设备的框图。
在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如本文所使用的,“神经网络”能够处理输入并且提供相应输出,其通常包括输入层和输出层以及在输入层与输出层之间的一个或多个隐藏层。在深度学习应用中使用的神经网络通常包括许多隐藏层,从而延长网络的深度,因此也被称为“深度神经网络”。神经网络的各个层按顺序相连,从而前一层的输出被提供作为后一层的输入,其中输入层接收神经网络的输入,而输出层的输出作为神经网络的最终输出。神经网络的每个层包括一个或多个节点(也称为处理节点或神经元),每个节点处理来自上一层的输入。在本文中,术语“神经网络”、“网络”和“神经网络模型”可替换地使用。
在机器学习应用中,可以基于训练数据集来训练神经网络模型,然后利用经训练的神经网络模型来执行推理任务。以图像分类应用为例,可以基于标注有图像类别的训练图像来训练神经网络模型。例如,所标注的图像类别可以指示训练图像描述的是何种对象(诸如,人、动物、植物等)。然后,推理任务可以利用经训练的神经网络来确定输入图像的类别,例如识别输入图像描述的是何种对象(诸如,人、动物、植物等)。
当把复杂的深度神经网络(DNN)部署到计算资源和/或存储资源有限的设备上时,可以通过应用模型压缩技术来节省推理任务所消耗的存储资源和运算时间。传统的DNN压缩技术都集中在压缩诸如卷积层(也称为“隐藏层”)等特征提取层上。然而,在诸如上述图像分类应用这样的应用中,输入图像的类别可能是大量候选类别之一,这可能导致DNN的输出层的运算量巨大。
本公开的实施例提出了一种用于确定神经网络的输出的方案,以解决上述问题和其他潜在问题中的一个或多个。该方案将神经网络的输出层执行的运算转换成最大内积搜索(MIPS)问题,并且利用局部敏感哈希(LSH)算法来得到MIPS问题的近似解。以此方式,该方案能够对神经网络的输出层进行压缩,节省神经网络的输出层所消耗的存储资源和运算时间,从而提高输出层的运算效率。
图1示出了本公开的实施例能够在其中被实现的示例环境100的框图。应当理解,仅出于示例性的目的描述环境100的结构和功能,而不暗示对于本公开的范围的任何限制。例如,本公开的实施例还可以被应用到与环境100不同的环境中。
如图1所示,环境100包括设备120,其部署有经训练的神经网络121。设备120可以接收输入数据110,并且利用神经网络121来生成输出结果130。以图像分类应用为例,可以基于标注有图像类别的训练图像来训练神经网络121。例如,所标注的图像类别可以指示训练图像所描述的对象类型,诸如,人、动物、植物等。输入数据110可以是输入图像,并且输出结果130可以指示该输入图像的类别,例如该输入图像描述的对象类型,诸如,人、动物、植物等。
图2示出了根据本公开的实施例的神经网络121的示意图。如图2所示,神经网络121可以包括输入层210,隐藏层220-1、220-2和220-3(统称为或单独称为“隐藏层220”或者“特征提取层220”),以及输出层230。神经网络121的各个层按顺序相连,其中前一层的输出被提供作为后一层的输入。神经网络的每个层包括一个或多个节点(也称为处理节点或神经元),每个节点处理来自上一层的输入。输入层210可以接收神经网络121的输入数据110。以图像分类应用为例,输入层210接收的输入数据110可以是输入图像。输出层230可以包括多个输出节点,以输出输入图像属于不同类别的相应概率,例如该输入图像涉及人的概率、该输入图像涉及动物的概率、该输入图像涉及植物的概率等等。假设在输出层230的多个输出节点输出的多个概率中,该输入图像涉及人的概率最高,则神经网络121的输出结果130可以指示该输入图像描述的对象是人。
在一些实施例中,如图1所示的设备120可以是物联网(IoT)中的边缘设备或终端设备,其具有有限的计算资源和/或存储资源。为了节省神经网络121执行推理任务时所消耗的存储资源和运算时间,设备120可以对神经网络121进行压缩。例如,设备120可以对神经网络121的一个或多个隐藏层220和/或输出层230进行压缩。
在一些实施例中,为了对神经网络121的输出层230进行压缩,设备120可以将神经网络121的输出层230执行的运算转换成最大内积搜索(MIPS)问题,并且利用局部敏感哈希(LSH)算法来得到MIPS问题的近似解。
具体地,假设神经网络121的最后一个隐藏层220-3输出的特征向量被表示为x=[x1,…,xd],其中d表示该特征向量的维度并且d≥1。第j个输出节点输出的概率被表示为zj,其中wj表示与第j个输出节点相关联的权重向量并且该权重向量的维度为d。神经网络121的输出层230所执行的操作可以被视为求解以下MIPS问题:也即,找到使最大化的输出节点j。
LSH是一种基于哈希的算法,用于识别近似最近的相邻点。在普通最近邻问题中,空间中可以存在多个点(也称为训练集),并且目标是针对给定新点来识别训练集中最接近该给定新点的点。这种过程的复杂度通常是线性的,即O(N),其中N是训练集中的点数。近似最近邻算法试图将这种复杂性降低到亚线性(小于线性)。通过减少查找相似项目所需的比较次数,可以实现亚线性复杂度。LSH的工作原理是:如果在特征空间中存在彼此靠近的两个点,则它们很可能具有相同的哈希值(数据的简化表示)。LSH与传统哈希算法的主要区别在于,传统哈希算法试图避免冲突,但LSH的目的是使相似点的冲突最大化。在传统哈希算法中,对输入的微小扰动将显著改变输入的哈希值。然而,在LSH中,微小扰动将被忽略,以便容易识别主要内容。哈希冲突使得相似项具有相同哈希值的概率较高。
在一些实施例中,设备120可以利用LSH算法来得到上述MIPS问题的近似解,从而节省神经网络121的输出层230所消耗的存储资源和运算时间,从而提高输出层230的运算效率。
图3示出了根据本公开的实施例的用于确定神经网络的输出的示例方法300的流程图。方法300例如可以由如图1所示的设备120来执行。应当理解,方法300还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。以下结合图1和图2来详细描述方法300。
如图3所示,在框310处,设备120获取由神经网络121的至少一个隐藏层220输出的特征向量以及与神经网络121的多个候选输出相关联的多个权重向量。多个候选输出的相应概率基于多个权重向量和特征向量的乘积来确定。
在一些实施例中,设备120可以从神经网络121的输出层230之前的最后一个隐藏层220-3获取特征向量x=[x1,…,xd],其中d表示该特征向量的维度并且d≥1。针对神经网络121的输出层230的多个输出节点中的每个输出节点j,设备120可以获取与该输出节点j相关联的权重向量wj,其维度也为d。
在框320处,设备120将多个权重向量分别转换成多个二进制序列,并且将该特征向量转换成目标二进制序列。
在一些实施例中,针对多个权重向量中的每个权重向量wj,设备120可以对该权重向量wj进行归一化:其中||P(wj)||=1。设备120可以将经归一化的权重向量投影到维度为k的空间中,以得到维度为k的投影向量,其中k小于d。也即,设备120可以将d维权重向量降维成k维投影向量。在一些实施例中,设备120可以通过将投影矩阵与经归一化的权重向量相乘,来生成维度为k的投影向量。该投影矩阵可以是k行d列的矩阵,用于将d维向量投影到k维空间中。在一些实施例中,该投影矩阵中的k×d个元素可以独立地从高斯分布(例如,均值为0且方差为1)中提取。然后,设备120可以将投影向量中的k个投影值中的每个投影值转换成一个二进制数(即,0或1),从而得到与权重向量wj相对应的二进制序列。在一些实施例中,如果投影值超过预定阈值(例如,0),则设备120可以将该投影值转换成1;如果该投影值未超过预定阈值(例如,0),则设备120可以将该投影值转换成0。
类似地,设备120可以对该特征向量x=[x1,…,xd]进行归一化:其中||Q(x)||=1。设备120可以将经归一化的特征向量投影到维度为k的空间中,以得到维度为k的投影向量,其中k小于d。也即,设备120可以将d维特征向量降维成k维投影向量。然后,设备120可以将该投影向量的k个投影值中的每个投影值转换成一个二进制数(即,0或1),从而得到与该特征向量相对应的二进制序列。例如,如果投影值超过预定阈值(例如,0),则设备120可以将该投影值转换成1;如果该投影值未超过预定阈值(例如,0),则设备120可以将该投影值转换成0。
图4示出了根据本公开的实施例的将输入向量转换成二进制序列的示意图。如图4所示,输入向量410可以是经归一化的权重向量wj或特征向量x。输入向量410可以被输入到随机投影模块420,从而被转换成二进制序列430。随机投影模块420例如可以被实现在如图1所示的设备120中。
在一些实施例,随机投影模块420可以通过将投影矩阵与输入向量410进行点乘,来生成包括k个投影值的投影向量。该投影矩阵可以是k行d列的矩阵,每一行可以被视为维度为d的随机向量。如图4所示,该投影矩阵例如可以包括随机向量421-1、421-2……421-k(统称为或单独称为“随机向量421”)。每个随机向量421与输入向量410进行点乘,可以得到一个投影值。在一些实施例,针对k个投影值中的每个投影值,如果该投影值超过预定阈值(例如,0),则随机投影模块420可以将该投影值转换成1;如果该投影值未超过预定阈值(例如,0),则随机投影模块420可以将该投影值转换成0。以此方式,随机投影模块420能够将d维输入向量410转换成长度为k的二进制序列430。在本文中,该二进制序列430也被称为输入向量410的哈希值。
返回参考图3,在框330处,设备120从与多个权重向量对应的多个二进制序列中确定与目标二进制序列最相似的二进制序列。在一些实施例中,设备120可以确定多个二进制序列中的每个二进制序列与目标二进制序列的欧式距离。设备120可以从多个二进制序列中确定与目标二进制序列最相似的二进制序列,其中该二进制序列与目标二进制序列的欧式距离最小。
在框340处,设备120基于所确定的二进制序列,从神经网络的多个候选输出中确定该神经网络的输出。在一些实施例中,设备120可以从多个权重向量中确定与该二进制序列相对应的权重向量。设备120可以从多个候选输出(也即,多个输出节点)中选择与该权重向量相关联的候选输出,作为神经网络121的输出130。
从以上描述能够看出,本公开的实施例提出了一种用于确定神经网络的输出的方案。该方案将神经网络的输出层执行的运算转换成最大内积搜索(MIPS)问题,并且利用局部敏感哈希(LSH)算法来得到MIPS问题的近似解。该方案能够降低要使用LSH搜索的样本的特征维度(即,从d维降至k维),并且能够在亚线性复杂度下得到MIPS问题的近似解。
实验数据表明,该方案能够在少量精度损失的情况下显著降低神经网络的输出层的运算量,从而节省神经网络的输出层所消耗的存储资源和运算时间并且提高神经网络的运算效率。因此,该方案使得复杂的神经网络(例如,DNN)能够被部署到计算资源和/或存储资源有限的设备上,例如IoT中的边缘设备或终端设备。
图5示出了可以用来实施本公开内容的实施例的示例电子设备500的框图。例如,如图1所示的设备120可以由电子设备500实施。如图5所示,设备500包括中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的计算机程序指令或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序指令,来执行各种适当的动作和处理。在RAM 503中,还可存储设备500操作所需的各种程序和数据。CPU 501、ROM 502以及RAM503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法300,可由处理单元501执行。例如,在一些实施例中,方法300可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序被加载到RAM 503并由CPU 501执行时,可以执行上文描述的方法300的一个或多个动作。
本公开可以是方法、装置、***和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是——但不限于——电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (19)
1.一种用于确定神经网络的输出的方法,包括:
获取由神经网络的至少一个隐藏层输出的特征向量、以及与所述神经网络的多个候选输出相关联的多个权重向量,所述多个候选输出的相应概率基于所述多个权重向量和所述特征向量来确定;
将所述多个权重向量分别转换成多个二进制序列,并且将所述特征向量转换成目标二进制序列;
从所述多个二进制序列中确定与所述目标二进制序列最相似的二进制序列;以及
基于所述二进制序列,从所述多个候选输出中确定所述神经网络的输出。
2.根据权利要求1所述的方法,其中所述多个权重向量包括第一权重向量,并且将所述多个权重向量分别转换成所述多个二进制序列包括:
对包括第一数目个权重值的所述第一权重向量进行归一化;
通过将经归一化的所述第一权重向量投影到具有第二数目个维度的空间中,来生成包括所述第二数目个投影值的第一投影向量,所述第二数目小于所述第一数目;以及
通过将所述第一投影向量中的每个投影值转换成二进制数,来生成与所述第一权重向量相对应的第一二进制序列。
3.根据权利要求2所述的方法,其中生成所述第一投影向量包括:
通过将投影矩阵与经归一化的所述第一权重向量相乘来生成所述第一投影向量,所述投影矩阵用于将具有所述第一数目个维度的向量投影到所述空间中。
4.根据权利要求3所述的方法,其中所述投影矩阵中的元素服从高斯分布。
5.根据权利要求2所述的方法,其中将所述第一投影向量中的每个投影值转换成二进制数包括:
如果所述投影值超过预定阈值,将所述投影值转换成第一二进制数;以及
如果所述投影值未超过所述预定阈值,将所述投影值转换成与所述第一二进制数不同的第二二进制数。
6.根据权利要求2所述的方法,其中将所述特征向量转换成目标二进制序列包括:
对包括所述第一数目个特征值的所述特征向量进行归一化;
通过将经归一化的所述特征向量投影到所述空间中来生成第二投影向量,所述第二投影向量包括所述第二数目个投影值;以及
通过将所述第二投影向量中的每个投影值转换成二进制数,来生成所述目标二进制序列。
7.根据权利要求1所述的方法,其中从所述多个二进制序列中确定与所述目标二进制序列最相似的所述二进制序列包括:
确定所述多个二进制序列中的每个二进制序列与所述目标二进制序列的欧式距离;以及
从所述多个二进制序列中确定与所述目标二进制序列具有最小欧式距离的所述二进制序列。
8.根据权利要求1所述的方法,其中从所述多个候选输出中确定所述神经网络的所述输出包括:
从所述多个权重向量中确定与所述二进制序列相对应的权重向量;以及
从所述多个候选输出中选择与所述权重向量相关联的候选输出,作为所述神经网络的所述输出。
9.根据权利要求1所述的方法,其中所述神经网络是部署在物联网设备中的深度神经网络。
10.一种电子设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述电子设备执行动作,所述动作包括:
获取由神经网络的至少一个隐藏层输出的特征向量、以及与所述神经网络的多个候选输出相关联的多个权重向量,所述多个候选输出的相应概率基于所述多个权重向量和所述特征向量来确定;
将所述多个权重向量分别转换成多个二进制序列,并且将所述特征向量转换成目标二进制序列;
从所述多个二进制序列中确定与所述目标二进制序列最相似的二进制序列;以及
基于所述二进制序列,从所述多个候选输出中确定所述神经网络的输出。
11.根据权利要求10所述的电子设备,其中所述多个权重向量包括第一权重向量,并且将所述多个权重向量分别转换成所述多个二进制序列包括:
对包括第一数目个权重值的所述第一权重向量进行归一化;
通过将经归一化的所述第一权重向量投影到具有第二数目个维度的空间中,来生成包括所述第二数目个投影值的第一投影向量,所述第二数目小于所述第一数目;以及
通过将所述第一投影向量中的每个投影值转换成二进制数,来生成与所述第一权重向量相对应的第一二进制序列。
12.根据权利要求11所述的电子设备,其中生成所述第一投影向量包括:
通过将投影矩阵与经归一化的所述第一权重向量相乘来生成所述第一投影向量,所述投影矩阵用于将具有所述第一数目个维度的向量投影到所述空间中。
13.根据权利要求12所述的电子设备,其中所述投影矩阵中的元素服从高斯分布。
14.根据权利要求11所述的电子设备,其中将所述第一投影向量中的每个投影值转换成二进制数包括:
如果所述投影值超过预定阈值,将所述投影值转换成第一二进制数;以及
如果所述投影值未超过所述预定阈值,将所述投影值转换成与所述第一二进制数不同的第二二进制数。
15.根据权利要求11所述的电子设备,其中将所述特征向量转换成目标二进制序列包括:
对包括所述第一数目个特征值的所述特征向量进行归一化;
通过将经归一化的所述特征向量投影到所述空间中来生成第二投影向量,所述第二投影向量包括所述第二数目个投影值;以及
通过将所述第二投影向量中的每个投影值转换成二进制数,来生成所述目标二进制序列。
16.根据权利要求10所述的电子设备,其中从所述多个二进制序列中确定与所述目标二进制序列最相似的所述二进制序列包括:
确定所述多个二进制序列中的每个二进制序列与所述目标二进制序列的欧式距离;以及
从所述多个二进制序列中确定与所述目标二进制序列具有最小欧式距离的所述二进制序列。
17.根据权利要求10所述的电子设备,其中从所述多个候选输出中确定所述神经网络的所述输出包括:
从所述多个权重向量中确定与所述二进制序列相对应的权重向量;以及
从所述多个候选输出中选择与所述权重向量相关联的候选输出,作为所述神经网络的所述输出。
18.根据权利要求10所述的电子设备,其中所述神经网络是部署在物联网设备中的深度神经网络。
19.一种计算机程序产品,所述计算机程序产品被有形地存储在非瞬态计算机存储介质中并且包括机器可执行指令,所述机器可执行指令在由设备执行时使所述设备执行根据权利要求1-9中的任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010340845.0A CN113554145B (zh) | 2020-04-26 | 2020-04-26 | 确定神经网络的输出的方法、电子设备和计算机程序产品 |
US16/892,796 US20210334647A1 (en) | 2020-04-26 | 2020-06-04 | Method, electronic device, and computer program product for determining output of neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010340845.0A CN113554145B (zh) | 2020-04-26 | 2020-04-26 | 确定神经网络的输出的方法、电子设备和计算机程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113554145A true CN113554145A (zh) | 2021-10-26 |
CN113554145B CN113554145B (zh) | 2024-03-29 |
Family
ID=78129924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010340845.0A Active CN113554145B (zh) | 2020-04-26 | 2020-04-26 | 确定神经网络的输出的方法、电子设备和计算机程序产品 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210334647A1 (zh) |
CN (1) | CN113554145B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023184353A1 (zh) * | 2022-03-31 | 2023-10-05 | 华为技术有限公司 | 一种数据处理方法以及相关设备 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005076010A2 (en) * | 2004-02-06 | 2005-08-18 | Council Of Scientific And Industrial Research | Computational method for identifying adhesin and adhesin-like proteins of therapeutic potential |
CN101310294A (zh) * | 2005-11-15 | 2008-11-19 | 伯纳黛特·加纳 | 神经网络的训练方法 |
CN103558042A (zh) * | 2013-10-28 | 2014-02-05 | 中国石油化工股份有限公司 | 一种基于全状态信息的机组故障快速诊断方法 |
CN107463932A (zh) * | 2017-07-13 | 2017-12-12 | 央视国际网络无锡有限公司 | 一种使用二进制瓶颈神经网络来抽取图片特征的方法 |
CN107924472A (zh) * | 2015-06-03 | 2018-04-17 | 英乐爱有限公司 | 通过脑部计算机介面的图像分类 |
CN109617845A (zh) * | 2019-02-15 | 2019-04-12 | 中国矿业大学 | 一种基于深度学习的无线通信解调器的设计及解调方法 |
CN109711358A (zh) * | 2018-12-28 | 2019-05-03 | 四川远鉴科技有限公司 | 神经网络训练方法、人脸识别方法及***和存储介质 |
CN109711160A (zh) * | 2018-11-30 | 2019-05-03 | 北京奇虎科技有限公司 | 应用程序检测方法、装置及神经网络*** |
CN109948742A (zh) * | 2019-03-25 | 2019-06-28 | 西安电子科技大学 | 基于量子神经网络的手写体图片分类方法 |
CN110163042A (zh) * | 2018-04-13 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 图像识别方法及装置 |
US20190286982A1 (en) * | 2016-07-21 | 2019-09-19 | Denso It Laboratory, Inc. | Neural network apparatus, vehicle control system, decomposition device, and program |
CN110391873A (zh) * | 2018-04-20 | 2019-10-29 | 伊姆西Ip控股有限责任公司 | 用于确定数据传送方式的方法、装置以及计算机程序产品 |
US20190340763A1 (en) * | 2018-05-07 | 2019-11-07 | Zebra Medical Vision Ltd. | Systems and methods for analysis of anatomical images |
US10572795B1 (en) * | 2015-05-14 | 2020-02-25 | Hrl Laboratories, Llc | Plastic hyper-dimensional memory |
CN110874636A (zh) * | 2018-09-04 | 2020-03-10 | 杭州海康威视数字技术股份有限公司 | 一种神经网络模型压缩方法、装置和计算机设备 |
WO2020077232A1 (en) * | 2018-10-12 | 2020-04-16 | Cambridge Cancer Genomics Limited | Methods and systems for nucleic acid variant detection and analysis |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8150723B2 (en) * | 2009-01-09 | 2012-04-03 | Yahoo! Inc. | Large-scale behavioral targeting for advertising over a network |
US8510236B1 (en) * | 2010-05-07 | 2013-08-13 | Google Inc. | Semi-supervised and unsupervised generation of hash functions |
US10885277B2 (en) * | 2018-08-02 | 2021-01-05 | Google Llc | On-device neural networks for natural language understanding |
SG10202004573WA (en) * | 2020-04-03 | 2021-11-29 | Avanseus Holdings Pte Ltd | Method and system for solving a prediction problem |
-
2020
- 2020-04-26 CN CN202010340845.0A patent/CN113554145B/zh active Active
- 2020-06-04 US US16/892,796 patent/US20210334647A1/en active Pending
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005076010A2 (en) * | 2004-02-06 | 2005-08-18 | Council Of Scientific And Industrial Research | Computational method for identifying adhesin and adhesin-like proteins of therapeutic potential |
CN101310294A (zh) * | 2005-11-15 | 2008-11-19 | 伯纳黛特·加纳 | 神经网络的训练方法 |
CN103558042A (zh) * | 2013-10-28 | 2014-02-05 | 中国石油化工股份有限公司 | 一种基于全状态信息的机组故障快速诊断方法 |
US10572795B1 (en) * | 2015-05-14 | 2020-02-25 | Hrl Laboratories, Llc | Plastic hyper-dimensional memory |
CN107924472A (zh) * | 2015-06-03 | 2018-04-17 | 英乐爱有限公司 | 通过脑部计算机介面的图像分类 |
US20190286982A1 (en) * | 2016-07-21 | 2019-09-19 | Denso It Laboratory, Inc. | Neural network apparatus, vehicle control system, decomposition device, and program |
CN107463932A (zh) * | 2017-07-13 | 2017-12-12 | 央视国际网络无锡有限公司 | 一种使用二进制瓶颈神经网络来抽取图片特征的方法 |
CN110163042A (zh) * | 2018-04-13 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 图像识别方法及装置 |
CN110391873A (zh) * | 2018-04-20 | 2019-10-29 | 伊姆西Ip控股有限责任公司 | 用于确定数据传送方式的方法、装置以及计算机程序产品 |
US20190340763A1 (en) * | 2018-05-07 | 2019-11-07 | Zebra Medical Vision Ltd. | Systems and methods for analysis of anatomical images |
CN110874636A (zh) * | 2018-09-04 | 2020-03-10 | 杭州海康威视数字技术股份有限公司 | 一种神经网络模型压缩方法、装置和计算机设备 |
WO2020077232A1 (en) * | 2018-10-12 | 2020-04-16 | Cambridge Cancer Genomics Limited | Methods and systems for nucleic acid variant detection and analysis |
CN109711160A (zh) * | 2018-11-30 | 2019-05-03 | 北京奇虎科技有限公司 | 应用程序检测方法、装置及神经网络*** |
CN109711358A (zh) * | 2018-12-28 | 2019-05-03 | 四川远鉴科技有限公司 | 神经网络训练方法、人脸识别方法及***和存储介质 |
CN109617845A (zh) * | 2019-02-15 | 2019-04-12 | 中国矿业大学 | 一种基于深度学习的无线通信解调器的设计及解调方法 |
CN109948742A (zh) * | 2019-03-25 | 2019-06-28 | 西安电子科技大学 | 基于量子神经网络的手写体图片分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113554145B (zh) | 2024-03-29 |
US20210334647A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10643124B2 (en) | Method and device for quantizing complex artificial neural network | |
WO2019236164A1 (en) | Method and apparatus for determining user intent | |
CN108629414B (zh) | 深度哈希学习方法及装置 | |
US20200394511A1 (en) | Low-Resource Entity Resolution with Transfer Learning | |
CN110188210B (zh) | 一种基于图正则化与模态独立的跨模态数据检索方法及*** | |
CN112633309A (zh) | 基于贝叶斯优化的查询高效的黑盒对抗攻击 | |
US20180039824A1 (en) | Clustering large database of images using multilevel clustering approach for optimized face recognition process | |
CN111930894A (zh) | 长文本匹配方法及装置、存储介质、电子设备 | |
CN115244587A (zh) | 高效基础事实注释 | |
CN114429633B (zh) | 文本识别方法、模型的训练方法、装置、电子设备及介质 | |
CN113642583A (zh) | 用于文本检测的深度学习模型训练方法及文本检测方法 | |
Liu et al. | End-to-end binary representation learning via direct binary embedding | |
CN113743443B (zh) | 一种图像证据分类和识别方法及装置 | |
CN112948584B (zh) | 短文本分类方法、装置、设备以及存储介质 | |
CN113554145B (zh) | 确定神经网络的输出的方法、电子设备和计算机程序产品 | |
CN113947701A (zh) | 训练方法、对象识别方法、装置、电子设备以及存储介质 | |
CN116361567B (zh) | 应用于云办公的数据处理方法及*** | |
CN116189208A (zh) | 用于文本识别的方法、装置、设备和介质 | |
US20150186797A1 (en) | Data reduction in nearest neighbor classification | |
US20230034322A1 (en) | Computer-implemented method, device, and computer program product | |
CN112257726B (zh) | 目标检测训练方法、***、电子设备及计算机可读存储介质 | |
WO2022074840A1 (ja) | ドメイン特徴抽出器学習装置、ドメイン予測装置、学習方法、学習装置、クラス識別装置及びプログラム | |
CN114882334A (zh) | 用于生成预训练模型的方法、模型训练方法及装置 | |
CN116361449A (zh) | 多标签分类方法、装置、设备及计算机可读存储介质 | |
CN113569094A (zh) | 视频推荐方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |