CN108021981A - 一种神经网络训练方法及装置 - Google Patents

一种神经网络训练方法及装置 Download PDF

Info

Publication number
CN108021981A
CN108021981A CN201610930411.XA CN201610930411A CN108021981A CN 108021981 A CN108021981 A CN 108021981A CN 201610930411 A CN201610930411 A CN 201610930411A CN 108021981 A CN108021981 A CN 108021981A
Authority
CN
China
Prior art keywords
parameter
updated
transformation
grad
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610930411.XA
Other languages
English (en)
Inventor
陈云霁
庄毅敏
郭崎
陈天石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cambricon Technologies Corp Ltd
Beijing Zhongke Cambrian Technology Co Ltd
Original Assignee
Beijing Zhongke Cambrian Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhongke Cambrian Technology Co Ltd filed Critical Beijing Zhongke Cambrian Technology Co Ltd
Priority to CN201610930411.XA priority Critical patent/CN108021981A/zh
Publication of CN108021981A publication Critical patent/CN108021981A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)

Abstract

本发明提供了一种神经网络训练装置及方法,用于对神经网络中的参数进行训练,方法首先采用非线性函数对所述参数进行非线性变换,得到变换参数,然后对变换参数转换进行位宽转换,得到低位宽变换参数,接着,通过神经网络反向过程,获取低位宽变换参数的待更新梯度值,根据非线性函数和所述低位宽变换参数的待更新梯度值,得到非线性变换前参数的待更新梯度值,最后根据参数的待更新梯度值,对参数进行更新。本发明使得训练后的参数具有较低的位宽并且精度损失较小。

Description

一种神经网络训练方法及装置
技术领域
本发明属于神经网络技术领域,具体涉及一种神经网络训练方法及装置。
背景技术
多层神经网络由于其具有较高的识别准确度和较好的可并行性,受到学术界和工业界越来越广泛的关注,在模式识别、图像处理和自然语言处理等多个领域也有着越来越多的应用。
神经网络由于其庞大的模型参数数据,使之难以应用于嵌入式***,研究人员通过多种方式减少存储这些模型参数所需的存储空间,最常用的是采用低精度的数据表示方法存储数据,例如采用16位浮点型数据表示方法,16位定点型数据表示方法,更有甚者采用1bit的二值数据表示方法。相比于原精度的浮点数据表示方法,采用低精度的数据表示方法可以减少数据存储空间,然而由于神经网络模型参数数据数值范围非常广,采用低精度的数据表示方法会带来极大的精度损失,影响神经网络的性能。
发明内容
(一)要解决的技术问题
本发明的目的在于,提供一种神经网络训练方法及装置,用于对神经网络中的参数进行训练,以使得训练后的参数具有低位宽并且精度损失较小。
(二)技术方案
本发明提供一种神经网络训练方法,用于对神经网络中的参数进行训练,方法包括:
S1,采用非线性函数对参数进行非线性变换,得到变换参数;
S2,对变换参数转换进行低位宽转换,得到低位宽变换参数;
S3,通过神经网络反向过程,获取低位宽变换参数的待更新梯度值,根据非线性函数和所述低位宽变换参数的待更新梯度值,得到非线性变换前参数的待更新梯度值;
S4,根据参数的待更新梯度值,对参数进行更新。
进一步,步骤S3中,低位宽变换参数的待更新梯度值Δy为:
其中,η为神经网络的学习率,为神经网络反向过程的损失函数,非线性变换函数为y=f(x),x为非线性变换前的参数,y为非线性变换后的权值或偏置参数;
非线性变换前所述参数的待更新梯度值为:
Δx=f′(x)Δy;
步骤S4中,对参数进行更新的表达式为:
xnew=x-Δx。
进一步,非线性函数为双曲正切系列函数或者sigmoid系列函数。
进一步,参数包括神经网络的权值和偏置。
进一步,对更新后的参数重复执行步骤S1~S4,直到参数小于一预定阈值时,训练完成。
本发明还提供一种神经网络训练装置,用于对神经网络中的参数进行训练,装置包括:
非线性变换模块,用于采用非线性函数对参数进行非线性变换,得到变换参数;
低位宽转换模块,用于对变换参数转换进行低位宽转换,得到低位宽变换参数;
反向梯度变换模块,用于通过神经网络反向过程,获取低位宽变换参数的待更新梯度值,根据非线性函数和所述低位宽变换参数的待更新梯度值,得到非线性变换前参数的待更新梯度值;
更新模块,用于根据参数的待更新梯度值,对参数进行更新。
进一步,反向梯度变换模块中,低位宽变换参数的待更新梯度值Δy为:
其中,η为神经网络的学习率,为神经网络反向过程的损失函数,非线性变换函数为y=f(x),x为非线性变换前的参数,y为非线性变换后的权值或偏置参数;
非线性变换前所述参数的待更新梯度值为:
Δx=f′(x)Δy;
更新模块对所述参数进行更新的表达式为:
xnew=x-Δx。
进一步,非线性函数为双曲正切系列函数或者sigmoid系列函数。
进一步,参数包括神经网络的权值和偏置。
进一步,非线性变换模块、低位宽转换模块、反向梯度变换模块及更新模块对更新后的参数反复进行训练,直到参数小于一预定阈值时,训练完成。
(三)有益效果
本发明具有以下优点:
1、由于非线性变换函数对参数的数据范围和数据精度可控,在后续进行低位宽转换时,能够很好的保留数据原本的精度,从而保证神经网络的性能。
2、由于训练获得的参数具有较低的位宽,故参数所需的存储空间大大减少。
3、训练获得的参数可以用于专用的神经网络加速器,由于采用较低精度的参数,故可以减少对加速器传输带宽的要求,并且低精度的数据可以减少硬件的面积开销,例如减小运算器的大小,从而可以优化硬件的面积功耗比。
附图说明
图1为本发明提供的神经网络训练方法的流程图。
图2是本发明提供神经网络训练装置的结构示意图。
具体实施方式
本发明提供一种神经网络训练装置及方法,用于对神经网络中的参数进行训练,方法首先采用非线性函数对所述参数进行非线性变换,得到变换参数,然后对变换参数转换进行位宽转换,得到低位宽变换参数,接着,通过神经网络反向过程,获取低位宽变换参数的待更新梯度值,根据非线性函数和所述低位宽变换参数的待更新梯度值,得到非线性变换前参数的待更新梯度值,最后根据参数的待更新梯度值,对参数进行更新。本发明使得训练后的参数具有较低的位宽并且精度损失较小。
图1为本发明提供的神经网络训练方法的流程图,如图1所示,方法包括:
S1,采用非线性函数对参数进行非线性变换,得到变换参数。
在本步骤中所采用非线性变换函数不唯一,可根据实际使用的需求选择不同的非线性函数,可以是双曲正切系列函数、sigmoid系列函数等。
例如,针对于采用8位浮点表示方法的神经网络,由于8位浮点表示方法所能表示的数据范围较小,而一般采用高精度数据表示方法的神经网络参数数据范围都比较大,若将原全精度数据通过位宽转换成低精度数据,对数据本身会带来的精度损失会影响神经网络的性能。故可以采用双曲正切系列的函数做非线性变换。
双曲正切系列函数可以是如下形式,以神经网络一个卷积层的权值数据为例,则w为变换前的权值数据,p_w为变换后的权值数据,Maxw为该层所有权值数据的最大值,A与B为常数参量。其中,A用于控制变换后的数据范围,B用于控制变换后的数据分布,调参原理如下,由于变换将数据缩放到了[-1,1]范围内,则通过调节A可以将变换后的数据缩放到[-A,A]范围内,通过调节B可以使得数据处于tan(x)函数的不同函数段,B很小时,则待转换数据大部分落在tan(x)函数的线性段,B很大时,则待转化数据大部分落在tan(x)函数饱和段,B取一个适中的值,可以使待转化数据大部分处于非线性段,从而改变数据原本的分布情况,而不改变数据之间的相对大小关系。故,本发明中非线性变换的目的是使得数据的范围和数据的分布可控。
在其他场景,根据需要,可以采用其他非线性函数或者函数参数,例如针对于采用16位浮点表示方法的神经网络,由于16位浮点可表示数据范围相对较大,因此,需要更多关注的精度损失可能为个别数据超出16位浮点表示范围带来的精度损失,故可以设计非线性函数使得这部分数据出去饱和段,而其他数据处于非线性段或线性段。
另外,本发明所指的参数为神经网络的权值和偏置,其中,神经网络为多层神经网络时,参数即为每一层神经网络的权值和偏置。
S2,对变换参数转换进行低位宽转换,得到低位宽变换参数。
一般地,神经网络的参数为浮点数,本步骤中,将原全精度浮点数经过非线性变换后转为低精度的低位宽浮点数。此处低位宽浮点数中“低位”表示存储一个数据所需的比特数小于全精度浮点所需的比特位数,“宽”表示数据在统计意义上较均匀分布在该数据表示法所能表示的指数范围内。例如,假设有一堆数据,分布在[-5,5]之间,并且集中分布在[-1.5,1.5]范围内,那么,采用一种非线性变换tanh(x),对于[-1.5,1.5]范围内的数据,处于该变换斜率较大的线性段,能够将密集的数据分布拉散开,而对于[-5,-1.5]和[1.5,5]范围的数据,处于该变换曲率较大的非线性段,能够将原本松散的数据变得密集,由此可以使得数据的分布更加均匀。并且,该变换使得数据范围缩放到[-1,1]区域内。
S3,通过神经网络反向过程,获取低位宽变换参数的待更新梯度值,根据非线性函数和低位宽变换参数的待更新梯度值,得到非线性变换前参数的待更新梯度值。
在本步骤中,设非线性变换采用的非线性变换函数为y=f(x),此处x为变换前的权值或偏置参数,y为变换后的权值或偏置参数。反向过程的损失函数为则反向过程计算得的梯度为此梯度为y的梯度,由链式法则可获得x的梯度,通过x的梯度更新非线性变换前的权值和偏置参数。具体地,通过神经网络的反向过程计算后可得到y的待更新梯度其中η为神经网络的学习率,通过返向梯度变换模块计算获得x的带更新梯度值即反向梯度模块通过计算Δx=f′(x)Δy获得x的待更新梯度值。
S4,根据参数的待更新梯度值,对参数进行更新。
在本步骤中,对参数进行更新的表达式为:
xnew=x-Δx。
接着,对更新后的参数重复执行步骤S1~S4,直到参数小于一预定阈值时,训练完成。
图2是本发明提供神经网络训练装置的结构示意图,如图2所示,网络训练装置包括:
非线性变换模块,用于采用非线性函数对参数进行非线性变换,得到变换参数;
非线性变换模块所采用非线性变换函数不唯一,可根据实际使用的需求选择不同的非线性函数,可以是双曲正切系列函数、sigmoid系列函数等。
例如,针对于采用8位浮点表示方法的神经网络,由于8位浮点表示方法所能表示的数据范围较小,而一般采用高精度数据表示方法的神经网络参数数据范围都比较大,若将原全精度数据通过位宽转换成低精度数据,对数据本身会带来的精度损失会影响神经网络的性能。故可以采用双曲正切系列的函数做非线性变换。
双曲正切系列函数可以是如下形式,以神经网络一个卷积层的权值数据为例,则w为变换前的权值数据,p_w为变换后的权值数据,Maxw为该层所有权值数据的最大值,A与B为常数参量。其中,A用于控制变换后的数据范围,B用于控制变换后的数据分布,调参原理如下,由了变换将数据缩放到了[-1,1]范围内,则通过调节A可以将变换后的数据缩放到[-A,A]范围内,通过调节B可以使得数据处于tan(x)函数的不同函数段,B很小时,则待转换数据大部分落在tan(x)函数的线性段,B很大时,则待转化数据大部分落在tan(x)函数饱和段,B取一个适中的值,可以使待转化数据大部分处于非线性段,从而改变数据原本的分布情况,而不改变数据之间的相对大小关系。故,本发明中非线性变换的目的是使得数据的范围和数据的分布可控。
在其他场景,根据需要,可以采用其他非线性函数或者函数参数,例如针对于采用16位浮点表示方法的神经网络,由于16位浮点可表示数据范围相对较大,因此,需要更多关注的精度损失可能为个别数据超出16位浮点表示范围带来的精度损失,故可以设计非线性函数使得这部分数据出去饱和段,而其他数据处于非线性段或线性段。
另外,本发明所指的参数为神经网络的权值和偏置,其中,神经网络为多层神经网络时,参数即为每一层神经网络的权值和偏置。
低位宽转换模块,用于对变换参数转换进行低位宽转换,得到低位宽变换参数。
一般地,神经网络的参数为浮点数,低位宽转换模块的作用是将原全精度浮点数经过非线性变换后转为低精度的低位宽浮点数。此处低位宽浮点数中“低位”表示存储一个数据所需的比特数小于全精度浮点所需的比特位数,“宽”表示数据在统计意义上较均匀分布在该数据表示法所能表示的指数范围内。例如,假设有一堆数据,分布在[-5,5]之间,并且集中分布在[-1.5,1.5]范围内,那么,采用一种非线性变换tanh(x),对于[-1.5,1.5]范围内的数据,处于该变换斜率较大的线性段,能够将密集的数据分布拉散开,而对于[-5,-1.5]和[1.5,5]范围的数据,处于该变换曲率较大的非线性段,能够将原本松散的数据变得密集,由此可以使得数据的分布更加均匀。并且,该变换使得数据范围缩放到[-1,1]区域内。
反向梯度变换模块,用于通过神经网络反向过程,获取低位宽变换参数的待更新梯度值,根据非线性函数和所述低位宽变换参数的待更新梯度值,得到非线性变换前参数的待更新梯度值;
在反向梯度变换模块中,设非线性变换采用的非线性变换函数为y=f(x),此处x为变换前的权值或偏置参数,y为变换后的权值或偏置参数。反向过程的损失函数为则反向过程计算得的梯度为此梯度为y的梯度,由链式法则可获得x的梯度,通过x的梯度更新非线性变换前的权值和偏置参数。具体地,通过神经网络的反向过程计算后可得到y的待更新梯度其中η为神经网络的学习率,通过返向梯度变换模块计算获得x的带更新梯度值即反向梯度模块通过计算Δx=f′(x)Δy获得x的待更新梯度值。
更新模块,用于根据参数的待更新梯度值,对参数进行更新。
更新模块,对参数进行更新的表达式为:
xnew=x-Δx。
本发明提供的神经网络训练装置,对更新后的参数重复执行步骤S1~S4,直到参数小于一预定阈值时,训练完成。
实施例一
本实施例的神经网络支持16位浮点数据表示方法,并且,本实施例采用非线性变换函数为双曲正切系列函数:
以神经网络一个卷积层的权值数据为例,w为变换前的权值数据,p_w为变换后的权值数据,Maxw为该层所有权值数据的最大值,A与B为常数参量,A用于控制变换后的数据范围,B用于控制变换后的数据分布。通过调节A与B,能够将分布不均的数据在指数域上较为均匀分布,能够将数据映射到指定范围内。
具体地,当B=3时,非线性函数即为由于权值或偏置数据相对于其最大值都比较小,因此将数据映射到[-1,1]范围内,同时大部分数据都集中在0值附近,该函数形式可以充分利用函数的非线性段将数据分布较少的区间压缩使数据密集化,同时利用函数线性段将0值附近数据分布较多的区间拉伸使数据散开。
对神经网络每一层的权值和偏置,通过非线性变换模块做非线性变换,获得变换后的权值和偏置,即其中y为变换后的权值或偏置,x为变换前的权值或偏置,Maxx为所有x的最大值。同时,保留变换前的权值和偏置的数据。
变换后的权值和偏置数据以及各层输入数据通过低位宽浮点数据转换模块,转换成所需的16位浮点数据,低精度浮点数据转换可以采用直接截断的方法,即对于原全精度的数据,截取16位浮点表示方法所能表示的精度部分,超出该精度的部分直接舍去。
转换后的16位浮点数据用于神经网络训练,通过神经网络反向过程获得待更新梯度值Δy。
梯度值通过反向梯度变换模块计算的非线性变换前的权值和偏置的待更新梯度值,即并用该梯度值完成非线性变换前的权值和偏置的更新,即xnew=x-Δx。
重复上述步骤直至训练完成。
实施例二
实施例二与实施例一的区别在于,本实施例采用Sigmoid系列非线性变换函数:
以神经网络一个卷积层的权值数据为例,则w为变换前的权值数据,p_w为变换后的权值数据,A与B为常数参量,A用于控制变换后的数据范围,B用于控制变换后的数据分布。通过调节A与B,能够将分布不均的数据在指数域上较为均匀分布,能够将数据映射到指定范围内。假设该神经网络的权值参数数据大小一般在10-4量级,可以采用非线性函数该函数形式可以充分利用函数的非线性段和线性段使得数据范围较均匀的分布。
对神经网络每一层的权值和偏置,通过非线性变换模块做非线性变换,获得变换后的权值和偏置,即其中y为变换后的权值或偏置,x为变换前的权值或偏置。同时,保留变换前的权值和偏置的数据。
变换后的权值和偏置数据以及各层输入数据通过低位宽转换,得到16位浮点数据,低精度浮点数据转换可以采用直接截断的方法,即对于原全精度的数据,截取16位浮点表示方法所能表示的精度部分,超出该精度的部分直接舍去。
转换后的16位浮点数据用于神经网络训练,通过神经网络反向过程获得待更新梯度值Δy。
梯度值通过反向梯度变换模块计算的非线性变换前的权值和偏置的待更新梯度值,即并用该梯度值完成非线性变换前的权值和偏置的更新,即xnew=x-Δx。
重复上述步骤直至训练完成。
本发明经过训练后的神经网络可用于神经网络加速器、语音识别装置、图像识别装置及自动导航装置等。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种神经网络训练方法,用于对神经网络中的参数进行训练,其特征在于,方法包括:
S1,采用非线性函数对所述参数进行非线性变换,得到变换参数;
S2,对所述变换参数转换进行低位宽转换,得到低位宽变换参数;
S3,通过神经网络反向过程,获取所述低位宽变换参数的待更新梯度值,根据所述非线性函数和所述低位宽变换参数的待更新梯度值,得到非线性变换前所述参数的待更新梯度值;
S4,根据所述参数的待更新梯度值,对所述参数进行更新。
2.根据权利要求1所述的神经网络训练方法,其特征在于,所述步骤S3中,所述低位宽变换参数的待更新梯度值△y为:
其中,η为神经网络的学习率,为神经网络反向过程的损失函数,非线性变换函数为y=f(x),x为非线性变换前的参数,y为非线性变换后的权值或偏置参数;
所述非线性变换前所述参数的待更新梯度值为:
Δx=f′(x)Δy;
所述步骤S4中,对所述参数进行更新的表达式为:
xnew=x-Δx。
3.根据权利要求1所述的神经网络训练方法,其特征在于,所述非线性函数为双曲正切系列函数或者sigmoid系列函数。
4.根据权利要求1所述的神经网络训练方法,其特征在于,所述参数包括神经网络的权值和偏置。
5.根据权利要求1所述的神经网络训练方法,其特征在于,对更新后的参数重复执行步骤S1~S4,直到所述参数小于一预定阈值时,训练完成。
6.一种神经网络训练装置,用于对神经网络中的参数进行训练,其特征在于,装置包括:
非线性变换模块,用于采用非线性函数对所述参数进行非线性变换,得到变换参数;
低位宽转换模块,用于对所述变换参数转换进行低位宽转换,得到低位宽变换参数;
反向梯度变换模块,用于通过神经网络反向过程,获取所述低位宽变换参数的待更新梯度值,根据所述非线性函数和所述低位宽变换参数的待更新梯度值,得到非线性变换前所述参数的待更新梯度值;
更新模块,用于根据所述参数的待更新梯度值,对所述参数进行更新。
7.根据权利要求6所述的神经网络训练装置,其特征在于,所述反向梯度变换模块中,所述低位宽变换参数的待更新梯度值△y为:
其中,η为神经网络的学习率,为神经网络反向过程的损失函数,非线性变换函数为y=f(x),x为非线性变换前的参数,y为非线性变换后的权值或偏置参数;
所述非线性变换前所述参数的待更新梯度值为:
Δx=f′(x)△y;
所述更新模块对所述参数进行更新的表达式为:
xnew=x-Δx。
8.根据权利要求6所述的神经网络训练装置,其特征在于,所述非线性函数为双曲正切系列函数或者sigmoid系列函数。
9.根据权利要求6所述的神经网络训练装置,其特征在于,所述参数包括神经网络的权值和偏置。
10.根据权利要求6所述的神经网络训练装置,其特征在于,非线性变换模块、低位宽转换模块、反向梯度变换模块及更新模块对更新后的参数反复进行训练,直到所述参数小于一预定阈值时,训练完成。
CN201610930411.XA 2016-10-31 2016-10-31 一种神经网络训练方法及装置 Pending CN108021981A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610930411.XA CN108021981A (zh) 2016-10-31 2016-10-31 一种神经网络训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610930411.XA CN108021981A (zh) 2016-10-31 2016-10-31 一种神经网络训练方法及装置

Publications (1)

Publication Number Publication Date
CN108021981A true CN108021981A (zh) 2018-05-11

Family

ID=62069626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610930411.XA Pending CN108021981A (zh) 2016-10-31 2016-10-31 一种神经网络训练方法及装置

Country Status (1)

Country Link
CN (1) CN108021981A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108566537A (zh) * 2018-05-16 2018-09-21 中国科学院计算技术研究所 用于对视频帧进行神经网络运算的图像处理装置
CN108647660A (zh) * 2018-05-16 2018-10-12 中国科学院计算技术研究所 一种使用神经网络芯片处理图像的方法
CN109800865A (zh) * 2019-01-24 2019-05-24 北京市商汤科技开发有限公司 神经网络生成及图像处理方法和装置、平台、电子设备
CN110162558A (zh) * 2019-04-01 2019-08-23 阿里巴巴集团控股有限公司 结构化数据处理方法及装置
US11360977B2 (en) * 2019-04-01 2022-06-14 Sap Se Selectively allowing query optimization in query processing

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108566537A (zh) * 2018-05-16 2018-09-21 中国科学院计算技术研究所 用于对视频帧进行神经网络运算的图像处理装置
CN108647660A (zh) * 2018-05-16 2018-10-12 中国科学院计算技术研究所 一种使用神经网络芯片处理图像的方法
CN109800865A (zh) * 2019-01-24 2019-05-24 北京市商汤科技开发有限公司 神经网络生成及图像处理方法和装置、平台、电子设备
CN109800865B (zh) * 2019-01-24 2021-03-23 北京市商汤科技开发有限公司 神经网络生成及图像处理方法和装置、平台、电子设备
CN110162558A (zh) * 2019-04-01 2019-08-23 阿里巴巴集团控股有限公司 结构化数据处理方法及装置
US11360977B2 (en) * 2019-04-01 2022-06-14 Sap Se Selectively allowing query optimization in query processing

Similar Documents

Publication Publication Date Title
CN108021981A (zh) 一种神经网络训练方法及装置
Wen et al. Memristor-based design of sparse compact convolutional neural network
CN107609641A (zh) 稀疏神经网络架构及其实现方法
CN109685198A (zh) 用于量化神经网络的参数的方法和装置
Zadorozhnyi et al. Growing network: models following nonlinear preferential attachment rule
CN106845640A (zh) 基于深度卷积神经网络的层内非均匀的等间隔定点量化方法
CN106897734A (zh) 基于深度卷积神经网络的层内非均匀的k平均聚类定点量化方法
CN108009594B (zh) 一种基于变分组卷积的图像识别方法
CN107705556A (zh) 一种基于支持向量机和bp神经网络结合的交通流预测方法
CN106548192A (zh) 基于神经网络的图像处理方法、装置和电子设备
CN109388779A (zh) 一种神经网络权重量化方法和神经网络权重量化装置
CN112819157B (zh) 神经网络训练的方法及装置、智能行驶控制的方法及装置
CN110400275A (zh) 一种基于全卷积神经网络和特征金字塔的颜色校正方法
CN108805257A (zh) 一种基于参数范数的神经网络量化方法
CN107506350A (zh) 一种识别信息的方法和设备
CN105958945A (zh) 一种高斯白噪声信号源的产生方法及装置
CN106777302A (zh) 空间地理坐标的转换方法及装置
CN109325590A (zh) 用于实现计算精度可变的神经网络处理器的装置
CN108491891A (zh) 一种基于决策树局部相似性的多源在线迁移学习方法
CN107479856A (zh) 反正切函数数据结构及建立方法、函数值获取方法和装置
DE102018110947A1 (de) Verlustskalierung für tiefes neuronales netzwerktraining mit verringerter präzision
CN108182316A (zh) 一种基于人工智能的电磁仿真方法及其电磁大脑
CN108984995A (zh) 一种计算数值模拟的生态园林景观设计方法
CN106570935A (zh) 植被分布模拟方法及装置
CN106779062A (zh) 一种基于残差网络的多层感知机人工神经网络

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100190 room 644, comprehensive research building, No. 6 South Road, Haidian District Academy of Sciences, Beijing

Applicant after: Zhongke Cambrian Technology Co., Ltd

Address before: 100190 room 644, scientific research complex, No. 6, South Road, Academy of Sciences, Haidian District, Beijing

Applicant before: Beijing Zhongke Cambrian Technology Co., Ltd.

CB02 Change of applicant information
RJ01 Rejection of invention patent application after publication

Application publication date: 20180511

RJ01 Rejection of invention patent application after publication