CN107861916A - 一种用于针对神经网络执行非线性运算的方法和装置 - Google Patents

一种用于针对神经网络执行非线性运算的方法和装置 Download PDF

Info

Publication number
CN107861916A
CN107861916A CN201711103463.0A CN201711103463A CN107861916A CN 107861916 A CN107861916 A CN 107861916A CN 201711103463 A CN201711103463 A CN 201711103463A CN 107861916 A CN107861916 A CN 107861916A
Authority
CN
China
Prior art keywords
piecewise interval
function
input value
intercept
nonlinear
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711103463.0A
Other languages
English (en)
Inventor
韩银和
许浩博
王颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Computing Technology of CAS
Original Assignee
Institute of Computing Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Computing Technology of CAS filed Critical Institute of Computing Technology of CAS
Priority to CN201711103463.0A priority Critical patent/CN107861916A/zh
Publication of CN107861916A publication Critical patent/CN107861916A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Complex Calculations (AREA)

Abstract

本发明提供一种用于在神经网络中执行非线性函数运算的方法,包括:1)根据所述非线性函数的输入值的范围,划分多个分段区间;2)针对所述多个分段区间中的每一个,将其两个端点值分别作为所述非线性函数的自变量,计算获得与所述分段区间对应的两个因变量;3)将所述计算获得的与所述分段区间对应的所述两个因变量和所述两个自变量作为与所述分段区间对应的线性函数上的两点,计算与每个分段区间对应的线性函数的斜率和截距;4)针对所述多个分段区间中的每一个,存储与其对应的斜率和截距,以用于执行所述非线性函数运算。

Description

一种用于针对神经网络执行非线性运算的方法和装置
技术领域
本发明涉及神经网络的数据处理。
背景技术
随着人工智能的发展,越来越多的研究开始关注对采用神经网络模型进行计算的神经网络处理器的改进。神经网络模型模仿动物的神经***,逐层地对输入的信息进行处理以趋近于期望获得的结果。在神经网络模型中,每一层的每一个数据均需要经过非线性的激活函数进行处理,例如sigmoid函数,这使得在神经网络模型的完整计算过程中包含有极大量的非线性运算。
这里的非线性函数属于一种函数形式,其绘制在坐标平面上表现为曲线或折线的形式。在非线性函数的计算中通常包含乘法运算、除法运算、指数运算、三角函数运算或者它们的组合。对于这样一系列复杂的运算通常需要采用算术逻辑单元等具有非常高的复杂度的电路部件来完成相应的处理过程。
对于神经网络而言,在执行sigmoid函数时,非线性运算以非常高的频率出现,若是神经网络处理器仍采用传统的逻辑电路来逐一地执行上述每一个非线性运算,则会直接制约神经网络处理器的计算效率,并且会需要消耗大量的能耗来执行上述运算。
发明内容
因此,本发明的目的在于克服上述现有技术的缺陷,提供一种用于在神经网络中执行非线性函数运算的方法,包括:
1)根据所述非线性函数的输入值的范围,划分多个分段区间;
2)针对所述多个分段区间中的每一个,将其两个端点值分别作为所述非线性函数的自变量,计算获得与所述分段区间对应的两个因变量;
3)将所述计算获得的与所述分段区间对应的所述两个因变量和所述两个自变量作为与所述分段区间对应的线性函数上的两点,计算与每个分段区间对应的线性函数的斜率和截距;
4)针对所述多个分段区间中的每一个,存储与其对应的斜率和截距,以用于执行所述非线性函数运算。
优选地,根据所述方法,其中步骤3)还包括:
若所述非线性函数为凹函数,则计算其与所述线性函数之间的最大误差,并采用当前截距减去所述最大误差的一半的结果以作为新的截距。
优选地,根据所述方法,其中步骤1)包括:
针对神经网络的各层网络,统计在该层网络中激活函数的输入值的范围,以作为针对该层网络的所述需要处理的输入值的范围。
优选地,根据所述方法,其中与所述非线性运算对应的非线性函数包括:f(x)=tanh(x)、f(x)=max(0,x)。
优选地,根据所述方法,其中还包括:
5)在执行所述非线性函数运算时,根据所述非线性函数的输入值所处的分段区间,将执行由与所述分段区间对应的斜率和截距所确定的线性函数的运算所获得的结果作为所述非线性运算的结果。
一种基于上述的方法,执行神经网络中非线性函数运算的方法,包括:
A1)将所述非线性函数的输入值与存储的各个分段区间的端点值进行比较,确定所述非线性函数的输入值所处的分段区间;
A2)获得存储的与所述非线性运算的输入值所处的分段区间对应的线性函数的斜率a和截距b,将所述非线性运算的输入值作为线性函数y=ax+b的自变量,计算相应的因变量以作为所述非线性函数运算的输出值。
一种用于神经网络处理器执行非线性函数运算的计算装置,包括:
查找表单元,用于存储通过上述方法获得的所述多个分段区间中的每一个的所述两个端点值、以及与每个分段区间对应的线性函数的斜率和截距;
匹配单元,用于根据所述非线性函数的输入值、以及所述查找表单元所存储的分段区间的端点值,将所述非线性函数的输入值匹配到相应的分段区间;
计算单元,用于根据由所述匹配单元匹配确定的所述分段区间、以及所述查找表单元所存储的与所述分段区间对应的线性函数的斜率和截距,将所述非线性函数的输入值作为所述线性函数的因变量,执行所述线性函数的运算。
一种在神经网络的计算过程中执行激活函数运算的方法,包括:
B1)针对神经网络执行计算的当前的网络层,确定其所使用的激活函数,并且统计所述激活函数的输入值的范围;
B2)根据所获得的所述激活函数的输入值的范围、以及设置的分辨率,将所述激活函数的输入值的范围划分多个分段区间;
B3)针对所述多个分段区间中的每一个,将其两个端点值和分别作为与所述激活函数的自变量,计算获得对应的两个因变量,并且将所述两个自变量和所述两个因变量作为与所述分段区间对应的线性函数上的两点,计算所述线性函数的斜率和截距,针对所述分段区间存储计算获得的所述斜率和所述截距;
B4)将所述激活函数的输入值与存储的各个分段区间的所述端点值进行比较,确定所述输入值所处的分段区间,并据此确定与所述分段区间对应的斜率和截距;
B5)将所述激活函数的所述输入值作为与所确定的斜率和截距对应的线性函数的自变量,计算相应的因变量以作为所述激活函数的输出值。
优选地,根据所述方法,其中步骤B3)包括:
若所述激活函数为凹函数,则计算其与所述线性函数之间的最大误差,并采用当前截距减去所述最大误差的一半的结果以作为新的截距。
一种计算机可读存储介质,其中存储有计算机程序,所述计算机程序在被执行时用于实现如上述任意一项所述的方法。
与现有技术相比,本发明的优点在于:
本发明提供了一种基于分段近似的非线性函数计算方法,利用近似计算的思想,采用分段线性的方法,将函数分为若干区间,在每一区间内采用线性近似的方式计算函数值,省去了复杂函数中幂运算、除法运算和三角函数运算等复杂函数计算,节省了能量损耗,尤其适用于低功耗高能效的应用场景。并且,本发明所提供的方法,采用查找表代替复杂运算,并动态加载查找表,在提高计算速率的同时减少了电路面积开销,仅需设置少量的加法器和乘法器便可以完成各种非线性运算。
附图说明
以下参照附图对本发明实施例作进一步说明,其中:
图1是根据本发明的一个实施例的基于查找表来实现针对神经网络中非线性运算的计算方法的流程图;
图2是根据本发明的一个实施例的用于神经网络处理器执行非线性运算的计算电路的模块图;
图3是根据本发明的一个实施例针对图2所述计算电路中的计算单元的结构示意图。
具体实施方式
下面结合附图和具体实施方式对本发明作详细说明。
如背景技术中所介绍地,在神经网络模型中存在大量非线性函数,例如,局部相应归一化层的计算、批处理计算、激活函数等。其中,激活函数是神经网络中非常重要的组成部分,激活函数为神经网络加入了非线性描述,使得神经网络模型能够更好地适应数据的非线性特征。常用的激活函数包括sigmoid函数f(x)=tanh(x),ReLU函数,f(x)=max(0,x)等。对于神经网络而言,其每一个网络层的每一个数据均需要经过激活函数进行处理,这使得神经网络处理器需要执行大量的非线性运算。
在传统的神经网络处理器中采用大量的逻辑电路来执行上述非线性运算,若是能够减少所使用的电路器件,例如减少所使用的加法器、乘法器、寄存器等,则能够降低电路的面积和处理器的能耗。
基于上述考虑,发明人提出可以将对于各种非线性函数的运算近似地看作是无数个较小区间内的线性运算,在神经网络处理器需要执行非线性运算时,根据输入的值所落入的小区间对输入的值执行线性运算以获得近似的计算结果。发明人认为,上述将非线性运算转化为在相应小区间内的线性运算的方式尤其适合于针对神经网络的计算。这是由于,神经网络模型的算法本身对于计算所产生的中间结果存在一定的容错性,其会对中间结果进行进一步地加工处理,即便在计算过程中的某些运算结果并不完全准确,也不会影响最终输出的计算结果。
参考图1,根据本发明的一个实施例,提供了一种基于查找表来实现针对神经网络中非线性运算的计算方法。
首先介绍所述查找表的构建方法,包括:
步骤S1,确定非线性函数的自变量的取值范围,将所述取值范围划分为多个分段区间,并将各个分段区间的端点存入所述查找表。
这里,可以根据经验值估计所述自变量的取值范围,也可以根据实际的使用情况对所述自变量的大小进行统计。例如,采用6西格玛准则,统计数据总量中99.99966%的数值的范围。
在划分分段区间时,可以根据***对分辨率的需求来设置各个分段区间的粒度大小,例如针对高分辨率的需求设置较小的分段粒度。
在划分区间时,可以均匀地将所述自变量的取值范围划分为多个分段区间,例如将取值范围[0,100]均匀地划分为100等份,设置的分段粒度为1,[0,1)、[1,2)…[99,100]。也可以根据自变量数据的分布密度来划分不同大小的分段区间,例如针对自变量的分布密度较高的部分设置较小的分段区间以获得较多数量的分段区间。
步骤S2,针对每个分段区间,将其两个端点x0和x1作为所述非线性函数的自变量,计算获得对应的因变量y0和y1。例如,假设所述非线性函数为并且
步骤S3,针对每个分段区间,将(x0,y0)和(x1,y1)当作是直线y=ax+b上的两点,计算参数a和b。
这里的参数a和b分别为线性函数y=ax+b的斜率和截距,通过将两点(x0,y0)和(x1,y1)带入到所述线性函数中,可以计算获得所述斜率和截距。y0=ax0+b并且y1=ax1+b,由此可以计算获得斜率和截距
步骤S4,若所述非线性函数为凹函数,则针对每个分段区间计算在所述分段区间内非线性函数的和步骤S2求得的直线y=ax+b之间的最大误差Emax,并且将(b-Emax/2)作为新的b值。
这里的误差计算方法可以采用任意恰当的现有技术,例如在曲线拟合中常用的最小二乘法计算所述非线性函数与所述直线上各点之间的最大距离以作为所述最大误差Emax
步骤S5,针对每个分段区间,将与其对应的斜率a和截距b存入所述查找表中。
在基于查找表来实现针对神经网络中非线性运算的计算时,所述查找表中所存储的各个分段区间的端点值以及针对各个分段区间的线性函数的斜率和截距将被用于在神经网络处理器执行所述非线性运算,根据输入值所处的分段区间,将执行由与所述分段区间对应的斜率和截距所确定的线性函数的运算所获得的结果作为所述非线性运算的结果。
可以看到,在上述实施例中建立了用于神经网络处理器执行非线性运算的查找表,其将输入值的范围划分为多个分段区间,并且利用诸如激活函数等非线性函数的单调性和凹凸性来调整针对各个分段区间的线性函数的参数,针对每个分段区间在查找表中存储与之对应的端点值以及与之对应的线性函数的参数,以用于神经网络执行非线性运算。
针对上述方法,本发明还提供了一种用于神经网络处理器的相应的计算电路。参考图2,根据本发明的一个实施例,所述计算电路包括:匹配单元、查找表单元和计算单元。
其中,查找表单元用于存储所述非线性函数的各个分段区间的端点值、以及针对每个分段区间的线性函数的斜率a和截距b。这里可以以参数对(a,b)的形式进行存储,针对每一个分段区间均存储其两个端点值以及相应的参数对(a,b)。
匹配单元用于根据所述查找表单元中存储的各个分段区间的端点值,将所述非线性函数的输入值匹配至对应的分段区间,并且根据所确定的对应的分段区间在所述查找表单元中查找获得与所述分段区间对应的参数对(a,b)。可以理解,在本发明中的查找表内可以只记录区间端点及其对应的近似线性函数值,因此需要将函数输入值和与其对应的分段区间进行匹配,以根据所述特定的分段区间进一步地在查找表单元中查找与所述分段区间对应的线性函数的斜率和截距。
计算单元用于根据匹配单元所确定的线性函数的斜率和截距,完成线性函数的计算过程。在本发明的一个实施例中,参考图3,在计算单元中包括一个乘法单元和一个加法单元,其中,乘法单元用于完成线性函数计算过程中的乘法操作,加法单元用于完成线性函数计算过程中的加法操作。乘法单元接收来自计算单元外部的查找表单元中的参数a和来自计算单元外部匹配单元输出的函数输入值x,并将参数a和函数输入值x作为乘数和被乘数进行乘法操作,得到乘积p;加法单元接收来自乘法单元的输出结果p和来自计算单元外部查找表中的参数b,并将数值p和数值a相加,得到计算结果。通过上述计算单元,可以利用从匹配单元中获得的针对非线性函数的输入值x的分段区间,从查找表单元中获得对应的参数对(a,b),由计算单元根据线性函数的参数(a,b)执行乘法和加法运算,以计算得到近似于所述非线性函数的函数值,并输出所述函数值。
根据上述实施例所提供的用于神经网络处理器的查找表结构,可以采用查表计算的方法代替神经网络中的非线性计算,通过在神经网络计算过程中动态加载查找表内容实现不同的计算函数,同时提高了处理器对于多种计算函数的普适性。
并且,本发明还提供了一种在神经网络处理器的使用过程中动态地加载用于执行非线性运算的参数的方法。所述方法一方面可以通过动态更新查找表实现不同函数的运算,另一方面还可以针对同一神经网络模型中不同网络层,在计算不同网络层时动态更新不同参数。
根据本发明的一个实施例,针对激活函数的计算电路的工作流程包括:
步骤1,根据神经网络模型算法确定激活函数类型。
步骤2,训练神经网络得到网络模型中各项参数,并统计每层网络中激活函数输入值的范围,采用6西格玛准侧,记录数据总量99.99966%的数值的范围。
步骤3,确定神经网络网络层。
步骤4,将函数计算范围内划分为若干区间,区间划分方法需要综合考虑查找表空间大小和计算分辨率等因素。
步骤5,加载当前层激活函数查找表参数。
步骤6,采用本发明提供的查找表区间构建方法确定各个区间内线性函数的参数a和b,并载入至查找表中。
步骤7,当需要进行激活函数计算是,将函数输入值x接入至匹配单元中,得到与输入值对应的函数区间。
步骤8,根据函数区间在查找表中得到函数区间内的线性函数参数a和参数b。
步骤9,将函数输入值、线性函数参数a和线性函数参数b输入至计算单元中,完成计算。
步骤10,当完成当前层的计算后,重新更新参数a和b,进入下一网络层。
通过本发明的上述实施例可以看出,本发明提供了一种基于分段近似的非线性函数计算方法,利用近似计算的思想,采用分段线性的方法,将函数分为若干区间,在每一区间内采用线性近似的方式计算函数值,省去了复杂函数中幂运算、除法运算和三角函数运算等复杂函数计算,节省了能量损耗,尤其适用于低功耗高能效的应用场景。并且,本发明所提供的方法,采用查找表代替复杂运算,并动态加载查找表,在提高计算速率的同时减少了电路面积开销。
需要说明的是,上述实施例中介绍的各个步骤并非都是必须的,本领域技术人员可以根据实际需要进行适当的取舍、替换、修改等。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管上文参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种用于在神经网络中执行非线性函数运算的方法,包括:
1)根据所述非线性函数的输入值的范围,划分多个分段区间;
2)针对所述多个分段区间中的每一个,将其两个端点值分别作为所述非线性函数的自变量,计算获得与所述分段区间对应的两个因变量;
3)将所述计算获得的与所述分段区间对应的所述两个因变量和所述两个自变量作为与所述分段区间对应的线性函数上的两点,计算与每个分段区间对应的线性函数的斜率和截距;
4)针对所述多个分段区间中的每一个,存储与其对应的斜率和截距,以用于执行所述非线性函数运算。
2.根据权利要求1所述的方法,其中步骤3)还包括:
若所述非线性函数为凹函数,则计算其与所述线性函数之间的最大误差,并采用当前截距减去所述最大误差的一半的结果以作为新的截距。
3.根据权利要求1所述的方法,其中步骤1)包括:
针对神经网络的各层网络,统计在该层网络中激活函数的输入值的范围,以作为针对该层网络的所述需要处理的输入值的范围。
4.根据权利要求1-3中任意一项所述的方法,其中与所述非线性运算对应的非线性函数包括:f(x)=tanh(x)、f(x)=max(0,x)。
5.根据权利要求1-3中任意一项所述的方法,其中还包括:
5)在执行所述非线性函数运算时,根据所述非线性函数的输入值所处的分段区间,将执行由与所述分段区间对应的斜率和截距所确定的线性函数的运算所获得的结果作为所述非线性运算的结果。
6.一种基于权利要求1-4中任意一项所述的方法,执行神经网络中非线性函数运算的方法,包括:
A1)将所述非线性函数的输入值与存储的各个分段区间的端点值进行比较,确定所述非线性函数的输入值所处的分段区间;
A2)获得存储的与所述非线性运算的输入值所处的分段区间对应的线性函数的斜率a和截距b,将所述非线性运算的输入值作为线性函数y=ax+b的自变量,计算相应的因变量以作为所述非线性函数运算的输出值。
7.一种用于神经网络处理器执行非线性函数运算的计算装置,包括:
查找表单元,用于存储通过权利要求1-4中任意一项方法获得的所述多个分段区间中的每一个的所述两个端点值、以及与每个分段区间对应的线性函数的斜率和截距;
匹配单元,用于根据所述非线性函数的输入值、以及所述查找表单元所存储的分段区间的端点值,将所述非线性函数的输入值匹配到相应的分段区间;
计算单元,用于根据由所述匹配单元匹配确定的所述分段区间、以及所述查找表单元所存储的与所述分段区间对应的线性函数的斜率和截距,将所述非线性函数的输入值作为所述线性函数的因变量,执行所述线性函数的运算。
8.一种在神经网络的计算过程中执行激活函数运算的方法,包括:
B1)针对神经网络执行计算的当前的网络层,确定其所使用的激活函数,并且统计所述激活函数的输入值的范围;
B2)根据所获得的所述激活函数的输入值的范围、以及设置的分辨率,将所述激活函数的输入值的范围划分多个分段区间;
B3)针对所述多个分段区间中的每一个,将其两个端点值和分别作为与所述激活函数的自变量,计算获得对应的两个因变量,并且将所述两个自变量和所述两个因变量作为与所述分段区间对应的线性函数上的两点,计算所述线性函数的斜率和截距,针对所述分段区间存储计算获得的所述斜率和所述截距;
B4)将所述激活函数的输入值与存储的各个分段区间的所述端点值进行比较,确定所述输入值所处的分段区间,并据此确定与所述分段区间对应的斜率和截距;
B5)将所述激活函数的所述输入值作为与所确定的斜率和截距对应的线性函数的自变量,计算相应的因变量以作为所述激活函数的输出值。
9.根据权利要求8所述的方法,其中步骤B3)包括:
若所述激活函数为凹函数,则计算其与所述线性函数之间的最大误差,并采用当前截距减去所述最大误差的一半的结果以作为新的截距。
10.一种计算机可读存储介质,其中存储有计算机程序,所述计算机程序在被执行时用于实现如权利要求1-6、8、9中任意一项所述的方法。
CN201711103463.0A 2017-11-10 2017-11-10 一种用于针对神经网络执行非线性运算的方法和装置 Pending CN107861916A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711103463.0A CN107861916A (zh) 2017-11-10 2017-11-10 一种用于针对神经网络执行非线性运算的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711103463.0A CN107861916A (zh) 2017-11-10 2017-11-10 一种用于针对神经网络执行非线性运算的方法和装置

Publications (1)

Publication Number Publication Date
CN107861916A true CN107861916A (zh) 2018-03-30

Family

ID=61701314

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711103463.0A Pending CN107861916A (zh) 2017-11-10 2017-11-10 一种用于针对神经网络执行非线性运算的方法和装置

Country Status (1)

Country Link
CN (1) CN107861916A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108804883A (zh) * 2018-04-27 2018-11-13 北京奇艺世纪科技有限公司 一种混淆代码的运行方法和装置
CN108898216A (zh) * 2018-05-04 2018-11-27 中国科学院计算技术研究所 应用于神经网络的激活处理装置
CN108920748A (zh) * 2018-05-22 2018-11-30 复旦大学 一种具有高灵活性与精度的非线性运算电路结构
CN108921288A (zh) * 2018-05-04 2018-11-30 中国科学院计算技术研究所 神经网络激活处理装置和基于该装置的神经网络处理器
CN109542912A (zh) * 2018-12-04 2019-03-29 北京锐安科技有限公司 区间数据存储方法、装置、服务器及存储介质
CN109657788A (zh) * 2018-12-18 2019-04-19 北京中科寒武纪科技有限公司 数据处理方法、装置及相关产品
CN109871941A (zh) * 2019-02-18 2019-06-11 北京中科寒武纪科技有限公司 数据处理方法、装置及相关产品
CN110058841A (zh) * 2019-04-22 2019-07-26 南京大学 面向具有对称性的非线性函数通用计算装置和方法
CN110210612A (zh) * 2019-05-14 2019-09-06 北京中科汇成科技有限公司 一种基于自适应分段线性逼近曲线的集成电路加速方法及***
CN110866595A (zh) * 2018-08-28 2020-03-06 北京嘉楠捷思信息技术有限公司 一种集成电路中激活函数运算方法、装置及电路
CN113378013A (zh) * 2021-06-30 2021-09-10 北京思朗科技有限责任公司 一种数据处理方法、装置和***
CN114567396A (zh) * 2022-02-28 2022-05-31 哲库科技(北京)有限公司 无线通信方法、非线性函数的拟合方法、终端及设备
CN114969631A (zh) * 2022-05-26 2022-08-30 Oppo广东移动通信有限公司 基带芯片、信道估计方法、数据处理方法及设备

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108804883A (zh) * 2018-04-27 2018-11-13 北京奇艺世纪科技有限公司 一种混淆代码的运行方法和装置
CN108804883B (zh) * 2018-04-27 2020-06-19 北京奇艺世纪科技有限公司 一种混淆代码的运行方法和装置
CN108898216A (zh) * 2018-05-04 2018-11-27 中国科学院计算技术研究所 应用于神经网络的激活处理装置
CN108921288A (zh) * 2018-05-04 2018-11-30 中国科学院计算技术研究所 神经网络激活处理装置和基于该装置的神经网络处理器
CN108920748A (zh) * 2018-05-22 2018-11-30 复旦大学 一种具有高灵活性与精度的非线性运算电路结构
CN108920748B (zh) * 2018-05-22 2023-01-06 复旦大学 一种具有高灵活性与精度的非线性运算电路结构
CN110866595A (zh) * 2018-08-28 2020-03-06 北京嘉楠捷思信息技术有限公司 一种集成电路中激活函数运算方法、装置及电路
CN110866595B (zh) * 2018-08-28 2024-04-26 嘉楠明芯(北京)科技有限公司 一种集成电路中激活函数运算方法、装置及电路
CN109542912A (zh) * 2018-12-04 2019-03-29 北京锐安科技有限公司 区间数据存储方法、装置、服务器及存储介质
CN109657788A (zh) * 2018-12-18 2019-04-19 北京中科寒武纪科技有限公司 数据处理方法、装置及相关产品
CN111126581A (zh) * 2018-12-18 2020-05-08 中科寒武纪科技股份有限公司 数据处理方法、装置及相关产品
CN109871941B (zh) * 2019-02-18 2020-02-21 中科寒武纪科技股份有限公司 数据处理方法、装置及相关产品
CN109871941A (zh) * 2019-02-18 2019-06-11 北京中科寒武纪科技有限公司 数据处理方法、装置及相关产品
CN110058841A (zh) * 2019-04-22 2019-07-26 南京大学 面向具有对称性的非线性函数通用计算装置和方法
CN110058841B (zh) * 2019-04-22 2023-03-28 南京大学 面向具有对称性的非线性函数通用计算装置和方法
CN110210612A (zh) * 2019-05-14 2019-09-06 北京中科汇成科技有限公司 一种基于自适应分段线性逼近曲线的集成电路加速方法及***
CN110210612B (zh) * 2019-05-14 2021-04-16 北京中科汇成科技有限公司 基于自适应分段线性逼近曲线的集成电路加速方法及***
CN113378013A (zh) * 2021-06-30 2021-09-10 北京思朗科技有限责任公司 一种数据处理方法、装置和***
CN113378013B (zh) * 2021-06-30 2023-10-27 上海思朗科技有限公司 一种数据处理方法、装置和***
CN114567396A (zh) * 2022-02-28 2022-05-31 哲库科技(北京)有限公司 无线通信方法、非线性函数的拟合方法、终端及设备
CN114969631A (zh) * 2022-05-26 2022-08-30 Oppo广东移动通信有限公司 基带芯片、信道估计方法、数据处理方法及设备
CN114969631B (zh) * 2022-05-26 2024-05-10 Oppo广东移动通信有限公司 基带芯片、信道估计方法、数据处理方法及设备

Similar Documents

Publication Publication Date Title
CN107861916A (zh) 一种用于针对神经网络执行非线性运算的方法和装置
CN110070178A (zh) 一种卷积神经网络计算装置及方法
CN107729984A (zh) 一种适用于神经网络激活函数的计算装置及方法
CN110688088B (zh) 一种面向神经网络的通用非线性激活函数计算装置和方法
CN105844330A (zh) 神经网络处理器的数据处理方法及神经网络处理器
CN107862374A (zh) 基于流水线的神经网络处理***和处理方法
CN109934331A (zh) 用于执行人工神经网络正向运算的装置和方法
CN106126481A (zh) 一种计算引擎和电子设备
CN107479856A (zh) 反正切函数数据结构及建立方法、函数值获取方法和装置
Alawad et al. Stochastic-based deep convolutional networks with reconfigurable logic fabric
CN109615068A (zh) 一种对模型中的特征向量进行量化的方法和装置
CN107203808A (zh) 一种二值卷积装置及相应的二值卷积神经网络处理器
CN107589935A (zh) 一种非线性函数计算装置及方法
CN101833691A (zh) 一种基于fpga的最小二乘支持向量机串行结构实现方法
CN109993279A (zh) 一种基于查找表计算的双层同或二值神经网络压缩方法
CN108304925A (zh) 一种池化计算装置及方法
CN108256644A (zh) 微处理器电路以及执行神经网络运算的方法
CN113283587A (zh) 一种Winograd卷积运算加速方法及加速模块
CN111383157A (zh) 图像处理方法、装置、车载运算平台、电子设备及***
CN112668871A (zh) 多轮群体决策中专家权重动态分配方法
CN104933110B (zh) 一种基于MapReduce的数据预取方法
CN113034343B (zh) 参数自适应的高光谱图像分类gpu并行方法
CN107590105B (zh) 面向非线性函数的计算装置及方法
CN114298319A (zh) 联合学习贡献值的确定方法、装置、电子设备及存储介质
CN110555519B (zh) 一种基于符号随机计算的低复杂度卷积神经网络架构

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180330