CN108763612A - 一种神经网络的池化层加速运算的方法与电路 - Google Patents

一种神经网络的池化层加速运算的方法与电路 Download PDF

Info

Publication number
CN108763612A
CN108763612A CN201810284999.5A CN201810284999A CN108763612A CN 108763612 A CN108763612 A CN 108763612A CN 201810284999 A CN201810284999 A CN 201810284999A CN 108763612 A CN108763612 A CN 108763612A
Authority
CN
China
Prior art keywords
pond
layer
computing module
module
register
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810284999.5A
Other languages
English (en)
Other versions
CN108763612B (zh
Inventor
韩军
蔡宇杰
曾晓洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN201810284999.5A priority Critical patent/CN108763612B/zh
Publication of CN108763612A publication Critical patent/CN108763612A/zh
Application granted granted Critical
Publication of CN108763612B publication Critical patent/CN108763612B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于集成电路设计技术领域,具体为一种神经网络的池化层加速运算的方法与电路。本发明是将二维的池化运算分解为两次一维池化运算:宽度方向一维池化运算与高度方向一维池化运算;电路结构包括五部分:用于图层分割与数据读取的图层分割模块、用于进行宽度方向的池化运算的横向池化运算模块、用于进行高度方向的池化运算的纵向池化运算模块以及负责数据回写的输出控制模块。本发明相比传统方法减少了运算量;该电路中所有的模块均是对数据流进行处理,因此不需要过多的片上缓存来存储临时结果,节省了芯片面积。同时,电路使用脉动阵列结构,使每个时钟周期所有的硬件单元都处于工作状态,提高了硬件单元使用率,从而提高了电路的工作效率。

Description

一种神经网络的池化层加速运算的方法与电路
技术领域
本发明属于集成电路设计技术领域,具体涉及神经网络的池化层加速运算的方法与电路。
背景技术
上世纪60年代,Hubel等人通过对猫视觉皮层细胞的研究,提出了感受野这个概念,到80年代,Fukushima在感受野概念的基础之上提出了神经认知机的概念,可以看作是卷积神经网络的第一个实现网络,神经认知机将一个视觉模式分解成许多子模式(特征),然后进入分层递阶式相连的特征平面进行处理,它试图将视觉***模型化,使其能够在即使物体有位移或轻微变形的时候,也能完成识别。
卷积神经网络是多层感知机的变种。由生物学家休博尔和维瑟尔在早期关于猫视觉皮层的研究发展而来。视觉皮层的细胞存在一个复杂的构造。这些细胞对视觉输入空间的子区域非常敏感,我们称之为感受野,以这种方式平铺覆盖到整个视野区域。这些细胞可以分为两种基本类型,简单细胞和复杂细胞。简单细胞最大程度响应来自感受野范围内的边缘刺激模式。复杂细胞有更大的接受域,它对来自确切位置的刺激具有局部不变性。卷积神经网络结构包括:卷积层,池化层,全连接层。每一层有多个特征图,每个特征图通过一种卷积滤波器提取输入的一种特征,每个特征图有多个神经元。
卷积神经网络由于其巨大的计算量,因此如何在移动终端上进行本地运算也成了一项挑战,神经网络加速芯片的设计成了热点。
本发明提出了一种高效率的加速池化运算的电路结构。本发明通过将二维的池化运算分解为两次一维池化运算(宽度方向与高度方向),规避了传统算法需要片上缓存、控制电路复杂以及存在冗余运算的问题。从而提高了硬件的复用效率,减少芯片面积,这也意味着电路在单位面积下可以获得更高的运算吞吐率。
发明内容
本发明的目的在于针对神经网络计算量大的问题,提供提出一种高效率的加速池化层运算的方法与电路,以提高硬件复用效率,减少芯片面积。
本发明提供的针对神经网络的池化层加速运算的方法,是将二维的池化运算分解为两次一维池化运算,即宽度方向一维池化运算与高度方向一维池化运算。这样可规避传统算法需要片上缓存、控制电路复杂以及存在冗余运算的问题。
设输入特征图层的高为H,宽度为W;池化算子的高为KH,宽KW;池化运算高度方向的步幅为SH, 宽度方向的步幅为SW。因此,输出特征图层的高为floor((H-KH)/SH)+1,宽为floor((W-KW)/SW)+1,分别记作Hout与Wout。其中floor()表示向下的取整运算。
通常的池化运算流程的伪代码如下所示:
for i = 0 : Hout-1
for j = 0 : Wout-1
Feature_Out(i,j) = OP( Feature_In(SH*i : SH*i+ KH-1, SW *j :SW*j+ KW-1) )
其中,OP表示对一个高为KH,宽KW的矩阵(图2中的橙框)进行的池化运算,可选的池化运算有“取最大值”,“取最小值”以及“取均值”。OP运算的输出为一个标量,这个标量为输出特征图层第i行第j列的数值。
常用的池化运算的运算流程在硬件化时存在三个劣势:
劣势1:在计算输出图层的过程中,需要对输入图层中的每一个数据进行KH* KW次的重复读取。通常的做法是做一块片上缓存来缓存输入图层,从而减少对外部存储器(DRAM)的数据访问量,但这么做也意味着更大的芯片面积;
劣势2:二维运算(池化)比起一维运算而言需要更复杂的控制逻辑;
劣势3:在SH<KH或SW<KW的情况下,多次OP运算的矩阵框会出现重叠现象。因此会对重叠部分的数据进行多次“求最大值”、“求最小值”或“求均值”的冗余运算,从而降低了运算的效率。
将二维的池化运算分解为两次一维池化运算(宽度方向与高度方向),可以避免冗余运算。因此相比于传统方法,本发明方法可以减少运算量,并且更利于电路实现。
本发明将二维的池化运算分解为两次一维池化运算(宽度方向与高度方向),具体流程为:
设输入特征图层的高为H,宽度为W;池化算子的高为KH,宽KW;池化运算高度方向的步幅为SH, 宽度方向的步幅为SW。因此,输出特征图层的高为floor((H-KH)/SH)+1,宽为floor((W-KW)/SW)+1,分别记作Hout与Wout
首先,进行宽度方向上的池化运算,输出结果为一个高为H,宽为Wout的临时矩阵,记作Ftp。其中Ftp的第i行第j列的数据是输入特征图层第i行,第SW *j列至第SW*j+ KW-1列的数据(长度为KW的行向量)在进行“求最大值”、“求最小值”或“求均值”运算后的结果,如图3(a)所示。
接着,进行高度方向的池化运算,这一步运算的输入为上一步的运算结果——临时矩阵Ftp。在对Ftp进行高度方向的池化运算之后,可得到一个高为Hout,宽为Wout的矩阵,这个矩阵就是输出特征图层Fout。其中,Fout的第i行第j列的数据是临时矩阵Ftp第j列,第SH *i行至第SH*i+ KH-1行的数据(长度为KH的列向量)在进行“求最大值”、“求最小值”或“求均值”运算后的结果,如图3(b)所示。
将二维的池化运算分解为两次一维池化运算能够成立的原因在于OP运算的“可传递性”。即KH*KW个数的最大值/最小值/均值,等于将这KH*KW个数分成KH个集合(每个集合含KW个数),并将每个集合分别求最大值/最小值/均值,得道KH个数,并将这KH个数求最大值/最小值/均值的结果。
相应于上述方法,本发明还提供神经网络的池化层加速运算的电路,其包括图层分割模块、横向池化运算模块、纵向池化运算模块以及输出控制模块;其中:
所述图层分割模块,根据输入图层的宽度信息,将图层按宽度方向进行分割,使得分割后的图层能够放进纵向池化运算模块中进行运算(纵向池化运算模块对输入图层的最大宽度有一个限制,因此需要将宽度方向上特别大的输入图层进行分割)。这里的分割仅仅是逻辑上的分割,并不需要对输入图层进行额外的运算,只影响对DRAM中的数据读取的顺序。图层分割模块将分割后的输入特征的数据流送往横向池化运算模块;
所述横向池化运算模块,用于宽度方向上的池化运算,来自图层分割模块的数据流在完成横向的池化运算后,被送往纵向池化运算模块;
所述纵向池化运算模块,用于对数据流进行高度方向上的池化运算。在该模块中,设有一个寄存器阵列,用来缓存来自横向池化运算模块的数据,这个寄存器阵列的大小决定了能处理的最大输入图层的宽度;
所述输出控制模块,用于将池化运算的结果写回外部存储器。
本发明中,图层分割模块、横向池化运算模块、纵向池化运算模块和输出控制模块均使用脉动阵列结构,使每个时钟周期所有的硬件单元都处于工作状态,可提高硬件单元使用率,减少芯片面积,从而提高电路的工作效率。
本发明的有益效果在于:通过将二维的池化运算分解为两次一维池化运算(宽度方向与高度方向),规避了传统算法需要片上缓存、控制电路复杂以及存在冗余运算的问题。从而提高了硬件的复用效率,减少芯片面积,这也意味着电路在单位面积下可以获得更高的运算吞吐率。
附图说明
图1电路基本框图。
图2为传统池化运算的示意图。
图3为将二维的池化运算分解为两次一维池化运算(宽度方向与高度方向)的示意图。
图4为横向池化运算模块的电路图。
图5为纵向池化运算模块。
具体实施方式
本发明中,高效率的加速池化运算的电路的基本框图如图1所示。该设计的工作过程如下:
池化运算的输入特征图层存储在外部存储器(DRAM)中。首先,图层分割模块会根据输入图层的宽度信息,将图层按宽度方向进行分割,从而使得分割后的图层能够放进纵向池化运算模块中进行运算(纵向池化运算模块对输入图层的最大宽度有一个限制,因此需要将宽度方向上特别大的输入图层进行分割)。这里的分割仅仅是逻辑上的分割,并不需要对输入图层进行额外的运算,只影响了对DRAM中的数据读取的顺序。图层分割模块会将切割后的输入特征的数据流送往横向池化运算模块。横向池化运算模块负责宽度方向上的池化运算,来自图层分割模块的数据流在完成横向的池化运算后会被送往纵向池化运算模块。纵向池化运算模块对数据流进行高度方向上的池化运算,并将池化运算的结果(输出特征图层)送给输出控制模块。输出控制模块负责将池化运算的结果写回外部存储器。
其中,横向池化运算模块的电路图如图4所示,包括4组寄存器与4个OP(取最大值/最小值或均值)运算。来自图层分割模块的输入特征流进入横向池化运算模块后,会产生4个的输出,分别对应于KW=2,3,4,5这四种情况。KW>5的池化运算在卷积神经网络中暂不常见,因此本实施例仅采用4组寄存器,用于存储KW=2,3,4,5这四种情况的运算数据。这4个输出经多路选择器选择后送给纵向运算模块,横向池化运算模块的输出对应于临时矩阵Ftp。由电路图可知横向池化运算模块所需的逻辑资源是相当少的,仅为4组寄存器与4个OP(取最大值/最小值或均值)运算。
其中,纵向池化运算模块的电路图如图5所示,其主要包括一寄存器阵列,该寄存器阵列由4行寄存器组构成,每个寄存器组有Wmax个寄存器,Wmax代表此池化电路最大所支持的输入特征的宽度。图层分割模块将实际的输入图层按宽度方向进行分割,使得每一片的宽度均不大于Wmax。4*Wmax+1个寄存器构成了一条“移位寄存器链”的结构,并且每个寄存器的输入端均有一个多路选择器,通过控制多路选择器的选择信号便可实现对每一行寄存器组中位于 “移位寄存器链”中的寄存器数目进行控制。每一行寄存器组中位于 “移位寄存器链”中的寄存器数目应和当前进行池化运算的特征宽度相等。来自横向池化模块的数据流经纵向池化运算模块后,会产生四个输出,分别对应于KH=2,3,4,5这四种情况。KH>5的池化运算在卷积神经网络中暂不常见,因此本实施例仅采用了4行寄存器组。这4个输出经多路选择器选择后送给输出控制模块,纵向池化运算模块的输出对应于输出特征图层Fout

Claims (5)

1.一种神经网络池化层加速运算的方法,其特征在于,是将二维的池化运算分解为两次一维池化运算:宽度方向一维池化运算与高度方向一维池化运算。
2.根据权利要求1所述的方法,其特征在于,所述将二维的池化运算分解为两次一维池化运算,具体流程为:
设输入特征图层的高为H,宽度为W;池化算子的高为KH,宽KW;池化运算高度方向的步幅为SH, 宽度方向的步幅为SW;输出特征图层的高为floor((H-KH)/SH)+1,宽为floor((W-KW)/SW)+1,分别记作Hout与Wout
首先,进行宽度方向上的池化运算,输出结果为一个高为H、宽为Wout的临时矩阵,记作Ftp;其中Ftp的第i行第j列的数据是输入特征图层第i行、第SW *j列至第SW*j+ KW-1列的数据即长度为KW的行向量在进行“求最大值”、“求最小值”或“求均值”运算后的结果;
接着,进行高度方向的池化运算,这一步运算的输入为上一步的运算结果——临时矩阵Ftp;在对Ftp进行高度方向的池化运算之后,得到一个高为Hout、宽为Wout的矩阵,这个矩阵就是输出特征图层Fout;其中,Fout的第i行第j列的数据是临时矩阵Ftp第j列、第SH *i行至第SH*i+ KH-1行的数据即长度为KH的列向量在进行“求最大值”、“求最小值”或“求均值”运算后的结果。
3.一种基于权利要求1或2所述方法的神经网络池化层加速运算的电路,其特征在于,包括图层分割模块、横向池化运算模块、纵向池化运算模块以及输出控制模块;其中:
所述图层分割模块,根据输入图层的宽度信息,将图层按宽度方向进行分割,使得分割后的图层能够放进纵向池化运算模块中进行运算,图层分割模块将分割后的输入特征的数据流送往横向池化运算模块;
所述横向池化运算模块,用于宽度方向上的池化运算,来自图层分割模块的数据流在完成横向的池化运算后,被送往纵向池化运算模块;
所述纵向池化运算模块,用于对数据流进行高度方向上的池化运算;在该模块中,设有一个寄存器阵列,用来缓存来自横向池化运算模块的数据,这个寄存器阵列的大小决定能处理的最大输入图层的宽度;
所述输出控制模块,用于将池化运算的结果写回外部存储器。
4.根据权利要求3所述方法的电路,其特征在于,所述横向池化运算模块,包括4组寄存器与4个OP运算,OP为取最大值、最小值或均值;来自图层分割模块的输入特征流进入横向池化运算模块后,产生4个的输出,分别对应于KW=2,3,4,5这四种情况;4组寄存器用于存储KW为2、3、4、5这四种情况的运算数据;这4个输出经多路选择器选择后送给纵向运算模块,横向池化运算模块的输出对应于临时矩阵Ftp
5. 根据权利要求4所述方法的电路,其特征在于,所述纵向池化运算模块,主要包括一寄存器阵列,该寄存器阵列由4行寄存器组构成,每个寄存器组有Wmax个寄存器,Wmax代表此池化电路最大所支持的输入特征的宽度;图层分割模块将实际的输入图层按宽度方向进行分割,使得每一片的宽度均不大于Wmax;4*Wmax+1个寄存器构成了一条“移位寄存器链”的结构,并且每个寄存器的输入端均有一个多路选择器,通过控制多路选择器的选择信号实现对每一行寄存器组中位于 “移位寄存器链”中的寄存器数目的控制;每一行寄存器组中位于 “移位寄存器链”中的寄存器数目应和当前进行池化运算的特征宽度相等;来自横向池化模块的数据流经纵向池化运算模块后,产生四个输出,分别对应于KH=2、3、4、5这四种情况;这4个输出经多路选择器选择后送给输出控制模块,纵向池化运算模块的输出对应于输出特征图层Fout
CN201810284999.5A 2018-04-02 2018-04-02 一种神经网络的池化层加速运算的电路 Active CN108763612B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810284999.5A CN108763612B (zh) 2018-04-02 2018-04-02 一种神经网络的池化层加速运算的电路

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810284999.5A CN108763612B (zh) 2018-04-02 2018-04-02 一种神经网络的池化层加速运算的电路

Publications (2)

Publication Number Publication Date
CN108763612A true CN108763612A (zh) 2018-11-06
CN108763612B CN108763612B (zh) 2022-11-18

Family

ID=63980622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810284999.5A Active CN108763612B (zh) 2018-04-02 2018-04-02 一种神经网络的池化层加速运算的电路

Country Status (1)

Country Link
CN (1) CN108763612B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815790A (zh) * 2018-12-12 2019-05-28 中国科学院西安光学精密机械研究所 用于遥感目标检测的门控轴聚检测网络及方法
CN110490312A (zh) * 2019-07-10 2019-11-22 福州瑞芯微电子股份有限公司 一种池化计算方法和电路
CN110826687A (zh) * 2019-08-30 2020-02-21 安谋科技(中国)有限公司 数据处理方法及其装置、介质和***
CN111191780A (zh) * 2020-01-03 2020-05-22 珠海亿智电子科技有限公司 均值池化累加电路、装置以及方法
CN112905530A (zh) * 2021-03-29 2021-06-04 上海西井信息科技有限公司 片上架构、池化计算加速器阵列、单元以及控制方法
CN113743587A (zh) * 2021-09-09 2021-12-03 苏州浪潮智能科技有限公司 一种卷积神经网络池化计算方法、***、及存储介质
CN113988001A (zh) * 2021-11-09 2022-01-28 中国电子科技集团公司第三十八研究所 一种深度学习模型中最大池化层运算电路装置
CN114265801A (zh) * 2021-12-21 2022-04-01 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算多行输出方法
CN114332800A (zh) * 2022-03-09 2022-04-12 西南石油大学 一种用于自动驾驶的街道场景解析语义分割方法
CN114372012A (zh) * 2021-12-21 2022-04-19 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出***和方法
CN114936633A (zh) * 2022-06-15 2022-08-23 北京爱芯科技有限公司 用于转置运算的数据处理单元及图像转置运算方法
CN115049885A (zh) * 2022-08-16 2022-09-13 之江实验室 一种存算一体卷积神经网络图像分类装置及方法
CN117273102A (zh) * 2023-11-23 2023-12-22 深圳鲲云信息科技有限公司 用于池化加速器的装置及方法和芯片电路及计算设备
WO2024119862A1 (zh) * 2022-12-05 2024-06-13 北京航天自动控制研究所 一种神经网络加速***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080095235A1 (en) * 2006-10-20 2008-04-24 Motorola, Inc. Method and apparatus for intra-frame spatial scalable video coding
CN104106079A (zh) * 2011-09-09 2014-10-15 帕那莫夫公司 图像处理***和方法
CN107229904A (zh) * 2017-04-24 2017-10-03 东北大学 一种基于深度学习的目标检测与识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080095235A1 (en) * 2006-10-20 2008-04-24 Motorola, Inc. Method and apparatus for intra-frame spatial scalable video coding
CN104106079A (zh) * 2011-09-09 2014-10-15 帕那莫夫公司 图像处理***和方法
CN107229904A (zh) * 2017-04-24 2017-10-03 东北大学 一种基于深度学习的目标检测与识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
周林勇等: "卷积神经网络池化方法研究", 《计算机工程》 *
姜杭毅等: "二维可分解算子对图象的卷积运算", 《电信科学》 *
林似水等: "联合LBP与SOM的多分辨率织物疵点检测", 《微型机与应用》 *
汤踊等: "深度学习在输电线路中部件识别与缺陷检测的研究", 《电子测量技术》 *
黄东运等: "基于可分解的卷积核和快速傅立叶变换FFT的指纹图像增强算法", 《自动化与信息工程》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109815790B (zh) * 2018-12-12 2021-02-19 中国科学院西安光学精密机械研究所 用于遥感目标检测的门控轴聚检测网络***及方法
CN109815790A (zh) * 2018-12-12 2019-05-28 中国科学院西安光学精密机械研究所 用于遥感目标检测的门控轴聚检测网络及方法
CN110490312A (zh) * 2019-07-10 2019-11-22 福州瑞芯微电子股份有限公司 一种池化计算方法和电路
CN110826687B (zh) * 2019-08-30 2023-11-21 安谋科技(中国)有限公司 数据处理方法及其装置、介质和***
CN110826687A (zh) * 2019-08-30 2020-02-21 安谋科技(中国)有限公司 数据处理方法及其装置、介质和***
CN111191780A (zh) * 2020-01-03 2020-05-22 珠海亿智电子科技有限公司 均值池化累加电路、装置以及方法
CN111191780B (zh) * 2020-01-03 2024-03-19 珠海亿智电子科技有限公司 均值池化累加电路、装置以及方法
CN112905530A (zh) * 2021-03-29 2021-06-04 上海西井信息科技有限公司 片上架构、池化计算加速器阵列、单元以及控制方法
CN113743587A (zh) * 2021-09-09 2021-12-03 苏州浪潮智能科技有限公司 一种卷积神经网络池化计算方法、***、及存储介质
CN113743587B (zh) * 2021-09-09 2024-02-13 苏州浪潮智能科技有限公司 一种卷积神经网络池化计算方法、***、及存储介质
CN113988001A (zh) * 2021-11-09 2022-01-28 中国电子科技集团公司第三十八研究所 一种深度学习模型中最大池化层运算电路装置
CN114265801B (zh) * 2021-12-21 2023-07-25 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算多行输出方法
CN114265801A (zh) * 2021-12-21 2022-04-01 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算多行输出方法
CN114372012A (zh) * 2021-12-21 2022-04-19 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出***和方法
CN114372012B (zh) * 2021-12-21 2024-02-20 中国科学院深圳先进技术研究院 一种通用、可配置的高能效池化计算单行输出***和方法
CN114332800B (zh) * 2022-03-09 2022-07-22 西南石油大学 一种用于自动驾驶的街道场景解析语义分割方法
CN114332800A (zh) * 2022-03-09 2022-04-12 西南石油大学 一种用于自动驾驶的街道场景解析语义分割方法
CN114936633A (zh) * 2022-06-15 2022-08-23 北京爱芯科技有限公司 用于转置运算的数据处理单元及图像转置运算方法
CN115049885A (zh) * 2022-08-16 2022-09-13 之江实验室 一种存算一体卷积神经网络图像分类装置及方法
WO2024119862A1 (zh) * 2022-12-05 2024-06-13 北京航天自动控制研究所 一种神经网络加速***
CN117273102A (zh) * 2023-11-23 2023-12-22 深圳鲲云信息科技有限公司 用于池化加速器的装置及方法和芯片电路及计算设备
CN117273102B (zh) * 2023-11-23 2024-05-24 深圳鲲云信息科技有限公司 用于池化加速器的装置及方法和芯片电路及计算设备

Also Published As

Publication number Publication date
CN108763612B (zh) 2022-11-18

Similar Documents

Publication Publication Date Title
CN108763612A (zh) 一种神经网络的池化层加速运算的方法与电路
CN111178519B (zh) 卷积神经网络加速引擎、卷积神经网络加速***及方法
CN111242289B (zh) 一种规模可扩展的卷积神经网络加速***与方法
CN108416434A (zh) 针对神经网络的卷积层与全连接层进行加速的电路结构
Yin et al. A high energy efficient reconfigurable hybrid neural network processor for deep learning applications
CN108108809B (zh) 一种针对卷积神经元网络进行推理加速的硬件架构及其工作方法
JP6715900B2 (ja) ニューラルネットワークのパラメータを適応させるための方法および装置
CN105528191B (zh) 数据累加装置、方法及数字信号处理装置
CN106875011B (zh) 二值权重卷积神经网络加速器的硬件架构及其计算流程
CN108170640B (zh) 神经网络运算装置及应用其进行运算的方法
CN106203617A (zh) 一种基于卷积神经网络的加速处理单元及阵列结构
CN108416437A (zh) 用于乘加运算的人工神经网络的处理***及方法
CN107153522A (zh) 一种面向人工神经网络计算的动态精度可配近似乘法器
CN110163338B (zh) 具有运算阵列的芯片运算方法、装置、终端及芯片
KR20180107869A (ko) 머신 러닝을 수행하는 전자 장치 및 머신 러닝 수행 방법
CN110222818A (zh) 一种用于卷积神经网络数据存储的多bank行列交织读写方法
CN110674927A (zh) 一种用于脉动阵列结构的数据重组方法
CN112215345B (zh) 一种基于Tensorcore的卷积神经网络运转方法和装置
CN114781632A (zh) 基于动态可重构脉动张量运算引擎的深度神经网络加速器
CN107957977A (zh) 一种计算方法及相关产品
CN110070182B (zh) 适合人工智能的平台芯片及其制造和设计方法
CN115238863A (zh) 一种卷积神经网络卷积层的硬件加速方法、***及应用
CN114281301B (zh) 支持内部数据乒乓的高密度存内计算乘加单元电路
CN105955896A (zh) 一种可重构dbf算法硬件加速器及控制方法
CN109427035A (zh) 半导体设备和图像识别***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant