CN108537331A - 一种基于异步逻辑的可重构卷积神经网络加速电路 - Google Patents
一种基于异步逻辑的可重构卷积神经网络加速电路 Download PDFInfo
- Publication number
- CN108537331A CN108537331A CN201810296728.1A CN201810296728A CN108537331A CN 108537331 A CN108537331 A CN 108537331A CN 201810296728 A CN201810296728 A CN 201810296728A CN 108537331 A CN108537331 A CN 108537331A
- Authority
- CN
- China
- Prior art keywords
- asynchronous
- circuit
- convolutional neural
- neural networks
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Logic Circuits (AREA)
Abstract
本发明为一种基于异步逻辑的可重构卷积神经网络加速电路,包括基本运算单元PE(Processing Element)、由PE组成的运算阵列以及可配置的池化单元PU(Pooling Unit)三个组成部分。首先该电路采用可重构电路的基本架构,能够针对不同的卷积神经网络模型将运算阵列进行重构;其次该电路整体基于异步逻辑,使用异步电路中的Click单元产生的局部时钟取代同步电路中的全局时钟并使用多个Click单元级联起来形成的异步流水线结构;最后该电路使用异步全连通的Mesh网络来实现数据的复用,通过降低访问内存的次数来减少功耗。本发明电路一方面在架构上具有灵活、并行度和数据复用率高等优点,同时又比同步逻辑实现的加速电路具有功耗优势,能在较低功耗下大大提高卷积神经网络的运算速度。
Description
技术领域
本发明属于集成电路设计技术领域,特别涉及一种基于异步逻辑的可重构卷积神经网络加速电路。
背景技术
近年来,卷积神经网络(Convolutional Neural Network,CNN)成为图像识别领域中最有效的一种模型。由于在传统的计算平台(如CPU、GPU)进行卷积神经网络的运算存在速度慢、功耗大、能效低等一系列问题,卷积神经网络加速电路的设计是目前的一个研究热点。
由于卷积神经网络具有以下特点:不同模型的层数存在差异、同一模型的不同层的计算参数存在差异、卷积层运算量大。如果采用传统的专用集成电路(ASIC)的方式,能获得最大的能效,但只能实现某种特定的卷积神经网络模型且无法更改,因此其通用性受到严重限制。如果采用FPGA进行卷积神经网络的优化,则以牺牲能效的方式扩展了通用性,但此方法对每个不同的卷积神经网络,都需要重新开发并设计新的硬件电路。因此如何保证电路能够运行尽可能多的卷积神经网络模型并维持高能效是目前一个研究难点。
另外目前绝大多数的卷积神经网络加速电路都是基于同步逻辑,即存在一个全局时钟(Global Clock)来统一指挥协调加速电路的工作。由于时钟树的存在,同步加速电路在能效上具有一定的局限性。同时,随着工艺的进步以及各种电子产品对功耗越来越高的约束,同步电路遇到了低功耗等性能瓶颈。
发明内容
为了克服上述现有技术的缺点,本发明的目的在于提供一种基于异步逻辑的可重构卷积神经网络加速电路,能在较低功耗下大大提高卷积神经网络的运算速度。
为了实现上述目的,本发明采用的技术方案是:
一种基于异步逻辑的可重构卷积神经网络加速电路,其特征在于,采用可重构电路的基本架构,从而针对不同的卷积神经网络模型将计算单元阵列进行重构,包括:
片外DRAM,存储输入数据;
控制器,接受主机处理器提供的配置信息,并在每次运算之前将其写入计算单元阵列,配置信息决定了计算单元阵列的调度方法以及数据的复用方法;
输入缓存器,从片外DRAM读取待处理数据;
输入寄存器,从输入缓存器读取待处理数据;
计算单元阵列,从输入寄存器读取待处理数据进行处理;
输出缓冲器,接收计算单元阵列的处理结果,将输出数据发送至片外DRAM;
其中,组成计算单元阵列的各电路模块间通过“请求”、“应答”信号实现握手通信,使电路整体基于异步逻辑。
所述配置信息,根据不同的CNN模型进行配置,或根据同一CNN模型的不同层进行配置。
所述电路整体基于异步逻辑,是通过使用异步电路中的Click单元产生的局部时钟取代同步电路中的全局时钟并使用多个Click单元级联起来形成异步流水线结构的方式实现的。
电路使用异步全连通的Mesh网络来实现数据的复用,通过降低访问内存的次数来减少功耗。
所述计算单元阵列由可配置的池化单元(PU,Pooling Unit)和若干基本运算单元(PE,Processing Element)组成,所述基本运算单元的运算结果输入到所述可配置的池化单元。
所述基本运算单元的控制部分是由异步电路的click单元构成的三级异步流水线,每一级的click单元之间,根据其数据通路之间的组合逻辑延迟进行延迟匹配从而完成整个基本运算单元的自定时性。
所述基本运算单元的工作过程是:首先当请求信号到来时,基本运算单元根据配置信息决定输入数据的来源,同时读入权重值,接着在下一个click单元的控制下输入数据被读入乘法器,完成乘法运算,同时该输入数据被缓存,使得下次运算时,其它基本运算单元能够复用该数据。
所述可配置的池化单元,首先接收运算阵列的每一个基本运算单元的请求信号request,并利用Muller C单元做完成性检测,自动使得每一个基本运算单元完成乘法运算之后才会开始下一步运算。
与现有技术相比,本发明采用动态可重构的架构,即同一个可重构处理器可以针对不同的CNN模型以及同一模型的不同层进行配置,通过实时改变配置信息来改变运算阵列中运算单元的使用模式,例如将其拆分成一些小的运算模块以提高并行度;其次,本发明电路采用异步逻辑,异步逻辑(电路)无时钟,它通过模块间“请求”、“应答”信号来实现握手,从而实现电路模块之间的正常通信。异步电路以其高速、低能耗、低***集成复杂性、规范的网络接口和高抗电磁干扰性的优点,在低功耗电路设计中具有很强的竞争力;最后该电路使用异步全连通的Mesh网络来实现数据的复用,通过降低访问内存的次数来减少功耗。
因此,本发明电路一方面在架构上具有灵活、并行度和数据复用率高等优点,同时又比同步逻辑实现的加速电路具有功耗优势,能在较低功耗下大大提高卷积神经网络的运算速度。
附图说明
图1为本发明的顶层架构示意图。
图2为本发明设计的基本单元PE的结构示意图。
图3为本发明设计的由基本运算单元PE构成的运算阵列示意图。
图4为本发明设计的可重构的池化单元PU的结构示意图。
图5为传统卷积核移动方式(a)与应用本发明电路的“卷池一体”的计算模式中卷积核的移动方式(b)。
图6为池化方法公式示意图。
图7为本发明数据复用方法示意图。
具体实施方式
下面结合附图和实施例详细说明本发明的实施方式。
如图1所示,输入数据存储在片外DRAM中,在每次运算之前,控制器首先将配置信息写入计算单元阵列中,配置信息决定了计算单元阵列的调度方法以及数据的复用方法等。由于该配置所需时间短,使得动态配置成为可能,既可以根据不同的CNN模型进行配置,也可以根据同一模型的不同层进行配置。待处理数据被读进输入缓存器和输入寄存器(Mesh架构),随后进入计算单元阵列中进行处理,最终通过输出缓冲器得到输出数据。
基于异步逻辑的基本运算单元(PE)如图2所示,该PE的控制部分是由异步电路的click单元构成的三级异步流水线,每一级的click单元之间,根据其数据通路之间的组合逻辑延迟进行延迟匹配从而完成整个PE的“自定时性”,即一次request信号到来之后,click会产生本地控制信号,而这些本地控制信号用以控制数据的流动,本地控制信号产生的间隔与对应的组合逻辑的延迟几乎保持一致,这样使得电路的处理速度大大加快。而当有多个request信号时,PE工作在异步流水的状态下,数据输出的吞吐率就能得到保障。当有仅有1个request信号时,电路不受到关键路径(critical path)的影响,运算速度快。也就是说,无论是处理一次request信号的到来(非流水线模式),还是多次request信号(流水线模式),该电路都具有优势。另外,没有request信号时,整个PE单元处于被关断的状态,无动态功耗。
具体地,图2中,在第一个click单元设置方向选择触发器(DFF1),方向选择触发器在第一个click单元产生的局部时钟的作用下能够将输入的方向信息输出给多路选择器并暂存,该方向信息决定了这一次运算该PE单元接收被乘数的方向;同时利用数据选择器,根据输入的方向信息决定该PE单元接收的被乘数。在第二个click单元设置被乘数触发器(DFF2),被乘数触发器在第二个click单元产生的局部时钟的作用下能够将输入的被乘数输出给乘法器进行乘法运算。在第三个click单元设置被乘数暂存触发器(DFF3),被乘数暂存触发器在第三个click单元产生的局部时钟的作用下能够将本次输入的被乘数暂存,以便于下一次运算能够将该被乘数传递给邻近单元。另外,乘数暂存触发器(DFF4)在权重读入请求信号的作用下,将权重数据读入并暂存,将其作为乘数。最终由乘法器执行16位有符号被乘数和16位有符号乘数(权重)的乘法,产生结果为16位有符号数。
每一个PE单元都能将操作数进行存储,并能够将其传输到与之相连的任何一个PE单元,这样就完成了输入数据的大量复用,大大减少了对片外存储器的访问,节约了功耗。PE的工作过程是:首先当请求信号到来时,PE根据配置信息决定输入数据的来源,同时读入权重值,接着在下一个click的控制下输入数据读入乘法器,完成乘法运算,同时该输入数据被缓存,以便下次运算其它PE单元可以复用该数据。
由PE组成的5*5计算单元阵列和输入寄存器阵列(两者合二为一,整个阵列兼有计算和存储的功能)如图3所示,该阵列组成了一个全连通的5*5的mesh网络(其中示出的乘法器,仍是PE单元的乘法器)。可以根据不同的CNN模型来对阵列进行配置,其中的PE单元既可以独立工作,整个阵列也可以协同工作。由于异步电路的“事件驱动”特点,当一个PE单元没有请求信号到来时,整个单元是被完全关断的,这一定程度上降低了功耗。整个阵列的运算结果会输入到可重构的池化单元PU。
图4为可重构的池化单元PU。该单元首先接收运算阵列的每一个PE的请求信号request(表明一次乘法运算已经完成),并利用Muller C单元做完成性检测,这样自动使得每一个PE完成乘法运算之后才会开始下一步运算。该单元可以通过更改配置信息来决定池化的方式及尺寸。整个运算阵列均可以通过配置信息来决定参与运算的PE、数据的流动方向、池化的类型和尺寸。
具体地,图4中,Muller C单元为异步电路的一个基本单元,作用是当全部输入信号发生变化时,Muller C单元的输出才能发生变化。该Muller C单元接收所有PE单元传来的请求信号request,该信号表明一次乘法运算已经完成,当所有PE的请求信号都到来时,说明所有PE都已经完成乘法运算,此时Muller C单元会向右边的click单元输出一个请求信号request。
PE单元的乘法结果经过第一个加法器(左侧加法器)之后,加法结果经过Relu函数模块,该模块完成卷积神经网络中的Relu操作,具体Relu的数学含义由具体的卷积神经网络模型决定。图中第一个触发器(DFF1)负责缓存一次Relu的结果,该结果即为一次卷积的结果。第二个加法器(右侧加法器)负责实现多次卷积结果的累加,结果输出给选择器。
同时利用比较器(MAX)比较当前产生的卷积结果与之前缓存的卷积结果的大小,数值大的输出给选择器。
选择器通过配置的池化类型信息(pooling_type)决定输出,当需要最大值池化时,输出比较器结果,当需要平均值池化时,输出第二个加法器结果。
第二个触发器(DFF2)负责缓存选择器的输出,缓存的数同时用于下一次的加法以实现累加,以及下一次的最大值比较以实现寻找到最大值。
计数器负责根据池化尺寸决定输出的时间节点。每卷积一次,计数结果加1,当计数器计数结果达到池化尺寸时,产生一个脉冲。举例,例如实现2x2的池化,即4次卷积结果产生1次池化结果,那么当计数结果达到4时,产生一个脉冲。第三个触发器(DFF3)在计数器产生的脉冲作用下,输出池化结果。
为了减少中间数据的存取,本发明电路进行运算时使用一种“卷池一体”的计算模式。如下图5所示比较了传统CNN中卷积核的移动方式和“卷池一体”模式下的卷积核移动方式(图5以5*5输入数据,2*2卷积,2*2池化为例,实际的卷积和池化尺寸由具体的模型决定)。卷积核每移动一次就是整个运算阵列完成一次乘加运算,即产生了一次卷积的结果,多次卷积的结果经池化产生一次池化结果,通常的池化方法为均值池化和最大值池化,相应的公式如下所示。
Aij为输入的图像的第i行第j列的像素值,即被乘数。
Wij为为输入的卷积核的第i行第j列的权重值,即乘数。图6为该公具体展开的说明,更好理解。
在传统的加速电路的架构下,如图5(a),卷积核需要从左至右,从上到下按照顺序在输入数据上滑动,计算出卷积结果后再进行池化,而在本项目设计的架构中,如图5(b),卷积核滑动的方向是根据每一次的池化结果产生的方向进行移动,这样可以不用保留中间的卷积结果。同时每一次移动之后的计算中都存在大量的数据复用的情况,用异步Mesh网络实现输入数据复用,具体数据复用方法如下图7所示,图7中黑色箭头表示了下一次计算数据的移动方式,如果箭头的尾部来源于其它PE单元则证明下一次不需要从运算阵列以外的存储器获得数据,只需要将紧邻的PE单元的被乘数转入需要这个数的PE单元即可。
以上两点使得数据的存取次数大大减少,达到降低功耗的目的。
Claims (8)
1.一种基于异步逻辑的可重构卷积神经网络加速电路,其特征在于,采用可重构电路的基本架构,从而针对不同的卷积神经网络模型将计算单元阵列进行重构,包括:
片外DRAM,存储输入数据;
控制器,接受主机处理器提供的配置信息,并在每次运算之前将其写入计算单元阵列,配置信息决定了计算单元阵列的调度方法以及数据的复用方法;
输入缓存器,从片外DRAM读取待处理数据;
输入寄存器,从输入缓存器读取待处理数据;
计算单元阵列,从输入寄存器读取待处理数据进行处理;
输出缓冲器,接收计算单元阵列的处理结果,将输出数据发送至片外DRAM;
其中,组成计算单元阵列的各电路模块间通过“请求”、“应答”信号实现握手通信,使电路整体基于异步逻辑。
2.根据权利要求1所述基于异步逻辑的可重构卷积神经网络加速电路,其特征在于,所述配置信息,根据不同的CNN模型进行配置,或根据同一CNN模型的不同层进行配置。
3.根据权利要求1所述基于异步逻辑的可重构卷积神经网络加速电路,其特征在于,所述电路整体基于异步逻辑,是通过使用异步电路中的Click单元产生的局部时钟取代同步电路中的全局时钟并使用多个Click单元级联起来形成异步流水线结构的方式实现的。
4.根据权利要求1所述基于异步逻辑的可重构卷积神经网络加速电路,其特征在于,电路使用异步全连通的Mesh网络来实现数据的复用,通过降低访问内存的次数来减少功耗。
5.根据权利要求1所述基于异步逻辑的可重构卷积神经网络加速电路,其特征在于,所述计算单元阵列由可配置的池化单元(PU,Pooling Unit)和若干基本运算单元(PE,Processing Element)组成,所述基本运算单元的运算结果输入到所述可配置的池化单元。
6.根据权利要求5所述基于异步逻辑的可重构卷积神经网络加速电路,其特征在于,所述基本运算单元的控制部分是由异步电路的click单元构成的三级异步流水线,每一级的click单元之间,根据其数据通路之间的组合逻辑延迟进行延迟匹配从而完成整个基本运算单元的自定时性。
7.根据权利要求6所述基于异步逻辑的可重构卷积神经网络加速电路,其特征在于,所述基本运算单元的工作过程是:首先当请求信号到来时,基本运算单元根据配置信息决定输入数据的来源,同时读入权重值,接着在下一个click单元的控制下输入数据读入乘法器,完成乘法运算,同时该输入数据被缓存,使得下次运算时,其它基本运算单元能够复用该数据。
8.根据权利要求6所述基于异步逻辑的可重构卷积神经网络加速电路,其特征在于,所述可配置的池化单元,首先接收运算阵列的每一个基本运算单元的请求信号request,并利用Muller C单元做完成性检测,自动使得每一个基本运算单元完成乘法运算之后才会开始下一步运算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810296728.1A CN108537331A (zh) | 2018-04-04 | 2018-04-04 | 一种基于异步逻辑的可重构卷积神经网络加速电路 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810296728.1A CN108537331A (zh) | 2018-04-04 | 2018-04-04 | 一种基于异步逻辑的可重构卷积神经网络加速电路 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108537331A true CN108537331A (zh) | 2018-09-14 |
Family
ID=63481707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810296728.1A Pending CN108537331A (zh) | 2018-04-04 | 2018-04-04 | 一种基于异步逻辑的可重构卷积神经网络加速电路 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108537331A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447241A (zh) * | 2018-09-29 | 2019-03-08 | 西安交通大学 | 一种面向物联网领域的动态可重构卷积神经网络加速器架构 |
CN109550249A (zh) * | 2018-11-28 | 2019-04-02 | 腾讯科技(深圳)有限公司 | 一种目标对象的控制方法以及相关装置 |
CN109815619A (zh) * | 2019-02-18 | 2019-05-28 | 清华大学 | 一种将同步电路转化为异步电路的方法 |
CN110378469A (zh) * | 2019-07-11 | 2019-10-25 | 中国人民解放军国防科技大学 | 基于异步电路的scnn推理装置及其pe单元、处理器及计算机设备 |
CN110555512A (zh) * | 2019-07-30 | 2019-12-10 | 北京航空航天大学 | 一种二值卷积神经网络数据重用方法及装置 |
CN110619387A (zh) * | 2019-09-12 | 2019-12-27 | 复旦大学 | 一种基于卷积神经网络的通道扩展方法 |
CN110705701A (zh) * | 2019-09-05 | 2020-01-17 | 福州瑞芯微电子股份有限公司 | 一种高并行度的卷积运算方法和电路 |
CN111191775A (zh) * | 2018-11-15 | 2020-05-22 | 南京博芯电子技术有限公司 | 一种“三明治”结构的加速卷积神经网络的存储器 |
CN111199277A (zh) * | 2020-01-10 | 2020-05-26 | 中山大学 | 一种卷积神经网络加速器 |
CN111859797A (zh) * | 2020-07-14 | 2020-10-30 | Oppo广东移动通信有限公司 | 一种数据处理方法及装置、存储介质 |
CN111931927A (zh) * | 2020-10-19 | 2020-11-13 | 翱捷智能科技(上海)有限公司 | 一种在npu中减少计算资源占用的方法及装置 |
CN112732436A (zh) * | 2020-12-15 | 2021-04-30 | 电子科技大学 | 一种多核处理器-单图形处理器的深度强化学习加速方法 |
CN112966813A (zh) * | 2021-03-15 | 2021-06-15 | 神思电子技术股份有限公司 | 一种卷积神经网络输入层装置及其工作方法 |
CN113407239A (zh) * | 2021-06-09 | 2021-09-17 | 中山大学 | 一种基于异步单轨的流水线处理器 |
CN114722751A (zh) * | 2022-06-07 | 2022-07-08 | 深圳鸿芯微纳技术有限公司 | 运算单元的构架选择模型训练方法和构架选择方法 |
CN116700431A (zh) * | 2023-08-04 | 2023-09-05 | 深圳时识科技有限公司 | 事件驱动的时钟生成方法及装置、芯片及电子设备 |
WO2024103639A1 (zh) * | 2022-11-14 | 2024-05-23 | 清华大学 | 支持在线学习的气体识别方法、装置、设备、介质和产品 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101394270A (zh) * | 2008-09-27 | 2009-03-25 | 上海交通大学 | 基于模块化路由的无线网状网络链路层加密方法 |
CN102253921A (zh) * | 2011-06-14 | 2011-11-23 | 清华大学 | 一种动态可重构处理器 |
CN102402415A (zh) * | 2011-10-21 | 2012-04-04 | 清华大学 | 一种动态可重构阵列内数据缓存的装置及方法 |
CN102541809A (zh) * | 2011-12-08 | 2012-07-04 | 清华大学 | 一种动态可重构处理器 |
CN107066239A (zh) * | 2017-03-01 | 2017-08-18 | 智擎信息***(上海)有限公司 | 一种实现卷积神经网络前向计算的硬件结构 |
CN107092462A (zh) * | 2017-04-01 | 2017-08-25 | 何安平 | 一种基于fpga的64位异步乘法器 |
CN107169560A (zh) * | 2017-04-19 | 2017-09-15 | 清华大学 | 一种自适应可重构的深度卷积神经网络计算方法和装置 |
CN107239824A (zh) * | 2016-12-05 | 2017-10-10 | 北京深鉴智能科技有限公司 | 用于实现稀疏卷积神经网络加速器的装置和方法 |
CN107332789A (zh) * | 2017-07-27 | 2017-11-07 | 兰州大学 | 基于click控制器的全异步人工神经元网络的通讯方法 |
CN107341544A (zh) * | 2017-06-30 | 2017-11-10 | 清华大学 | 一种基于可分割阵列的可重构加速器及其实现方法 |
CN107451659A (zh) * | 2017-07-27 | 2017-12-08 | 清华大学 | 用于位宽分区的神经网络加速器及其实现方法 |
CN107590085A (zh) * | 2017-08-18 | 2018-01-16 | 浙江大学 | 一种具有多级缓存的动态可重构阵列数据通路及其控制方法 |
CN107836001A (zh) * | 2015-06-29 | 2018-03-23 | 微软技术许可有限责任公司 | 硬件加速器上的卷积神经网络 |
-
2018
- 2018-04-04 CN CN201810296728.1A patent/CN108537331A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101394270A (zh) * | 2008-09-27 | 2009-03-25 | 上海交通大学 | 基于模块化路由的无线网状网络链路层加密方法 |
CN102253921A (zh) * | 2011-06-14 | 2011-11-23 | 清华大学 | 一种动态可重构处理器 |
CN102402415A (zh) * | 2011-10-21 | 2012-04-04 | 清华大学 | 一种动态可重构阵列内数据缓存的装置及方法 |
CN102541809A (zh) * | 2011-12-08 | 2012-07-04 | 清华大学 | 一种动态可重构处理器 |
CN107836001A (zh) * | 2015-06-29 | 2018-03-23 | 微软技术许可有限责任公司 | 硬件加速器上的卷积神经网络 |
CN107239824A (zh) * | 2016-12-05 | 2017-10-10 | 北京深鉴智能科技有限公司 | 用于实现稀疏卷积神经网络加速器的装置和方法 |
CN107066239A (zh) * | 2017-03-01 | 2017-08-18 | 智擎信息***(上海)有限公司 | 一种实现卷积神经网络前向计算的硬件结构 |
CN107092462A (zh) * | 2017-04-01 | 2017-08-25 | 何安平 | 一种基于fpga的64位异步乘法器 |
CN107169560A (zh) * | 2017-04-19 | 2017-09-15 | 清华大学 | 一种自适应可重构的深度卷积神经网络计算方法和装置 |
CN107341544A (zh) * | 2017-06-30 | 2017-11-10 | 清华大学 | 一种基于可分割阵列的可重构加速器及其实现方法 |
CN107451659A (zh) * | 2017-07-27 | 2017-12-08 | 清华大学 | 用于位宽分区的神经网络加速器及其实现方法 |
CN107332789A (zh) * | 2017-07-27 | 2017-11-07 | 兰州大学 | 基于click控制器的全异步人工神经元网络的通讯方法 |
CN107590085A (zh) * | 2017-08-18 | 2018-01-16 | 浙江大学 | 一种具有多级缓存的动态可重构阵列数据通路及其控制方法 |
Non-Patent Citations (2)
Title |
---|
张佳乐: "Soc可重构计算部件之异步可重构计算阵列设计", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
王灿: "基于Delay-Insensitive编码的GALS多核互联研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447241A (zh) * | 2018-09-29 | 2019-03-08 | 西安交通大学 | 一种面向物联网领域的动态可重构卷积神经网络加速器架构 |
CN109447241B (zh) * | 2018-09-29 | 2022-02-22 | 西安交通大学 | 一种面向物联网领域的动态可重构卷积神经网络加速器架构 |
CN111191775B (zh) * | 2018-11-15 | 2023-10-27 | 南京博芯电子技术有限公司 | 一种“三明治”结构的加速卷积神经网络的存储器 |
CN111191775A (zh) * | 2018-11-15 | 2020-05-22 | 南京博芯电子技术有限公司 | 一种“三明治”结构的加速卷积神经网络的存储器 |
US11351458B2 (en) | 2018-11-28 | 2022-06-07 | Tencent Technology (Shenzhen) Company Limited | Method for controlling target object, apparatus, device, and storage medium |
CN109550249A (zh) * | 2018-11-28 | 2019-04-02 | 腾讯科技(深圳)有限公司 | 一种目标对象的控制方法以及相关装置 |
CN109550249B (zh) * | 2018-11-28 | 2022-04-29 | 腾讯科技(深圳)有限公司 | 一种目标对象的控制方法、装置及设备 |
CN109815619A (zh) * | 2019-02-18 | 2019-05-28 | 清华大学 | 一种将同步电路转化为异步电路的方法 |
CN110378469A (zh) * | 2019-07-11 | 2019-10-25 | 中国人民解放军国防科技大学 | 基于异步电路的scnn推理装置及其pe单元、处理器及计算机设备 |
CN110555512A (zh) * | 2019-07-30 | 2019-12-10 | 北京航空航天大学 | 一种二值卷积神经网络数据重用方法及装置 |
CN110555512B (zh) * | 2019-07-30 | 2021-12-03 | 北京航空航天大学 | 一种二值卷积神经网络数据重用方法及装置 |
CN110705701A (zh) * | 2019-09-05 | 2020-01-17 | 福州瑞芯微电子股份有限公司 | 一种高并行度的卷积运算方法和电路 |
CN110705701B (zh) * | 2019-09-05 | 2022-03-29 | 瑞芯微电子股份有限公司 | 一种高并行度的卷积运算方法和电路 |
CN110619387A (zh) * | 2019-09-12 | 2019-12-27 | 复旦大学 | 一种基于卷积神经网络的通道扩展方法 |
CN110619387B (zh) * | 2019-09-12 | 2023-06-20 | 复旦大学 | 一种基于卷积神经网络的通道扩展方法 |
CN111199277A (zh) * | 2020-01-10 | 2020-05-26 | 中山大学 | 一种卷积神经网络加速器 |
CN111199277B (zh) * | 2020-01-10 | 2023-05-23 | 中山大学 | 一种卷积神经网络加速器 |
CN111859797A (zh) * | 2020-07-14 | 2020-10-30 | Oppo广东移动通信有限公司 | 一种数据处理方法及装置、存储介质 |
CN111931927B (zh) * | 2020-10-19 | 2021-02-19 | 翱捷智能科技(上海)有限公司 | 一种在npu中减少计算资源占用的方法及装置 |
CN111931927A (zh) * | 2020-10-19 | 2020-11-13 | 翱捷智能科技(上海)有限公司 | 一种在npu中减少计算资源占用的方法及装置 |
CN112732436A (zh) * | 2020-12-15 | 2021-04-30 | 电子科技大学 | 一种多核处理器-单图形处理器的深度强化学习加速方法 |
CN112966813A (zh) * | 2021-03-15 | 2021-06-15 | 神思电子技术股份有限公司 | 一种卷积神经网络输入层装置及其工作方法 |
CN113407239A (zh) * | 2021-06-09 | 2021-09-17 | 中山大学 | 一种基于异步单轨的流水线处理器 |
CN113407239B (zh) * | 2021-06-09 | 2023-06-13 | 中山大学 | 一种基于异步单轨的流水线处理器 |
CN114722751B (zh) * | 2022-06-07 | 2022-09-02 | 深圳鸿芯微纳技术有限公司 | 运算单元的构架选择模型训练方法和构架选择方法 |
CN114722751A (zh) * | 2022-06-07 | 2022-07-08 | 深圳鸿芯微纳技术有限公司 | 运算单元的构架选择模型训练方法和构架选择方法 |
WO2024103639A1 (zh) * | 2022-11-14 | 2024-05-23 | 清华大学 | 支持在线学习的气体识别方法、装置、设备、介质和产品 |
CN116700431A (zh) * | 2023-08-04 | 2023-09-05 | 深圳时识科技有限公司 | 事件驱动的时钟生成方法及装置、芯片及电子设备 |
CN116700431B (zh) * | 2023-08-04 | 2024-02-02 | 深圳时识科技有限公司 | 事件驱动的时钟生成方法及装置、芯片及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537331A (zh) | 一种基于异步逻辑的可重构卷积神经网络加速电路 | |
CN109784489B (zh) | 基于fpga的卷积神经网络ip核 | |
CN106940815B (zh) | 一种可编程卷积神经网络协处理器ip核 | |
CN109284817B (zh) | 深度可分离卷积神经网络处理架构/方法/***及介质 | |
CN108108809B (zh) | 一种针对卷积神经元网络进行推理加速的硬件架构及其工作方法 | |
Tanomoto et al. | A CGRA-based approach for accelerating convolutional neural networks | |
CN109086867A (zh) | 一种基于fpga的卷积神经网络加速*** | |
CN107657581A (zh) | 一种卷积神经网络cnn硬件加速器及加速方法 | |
CN104899182A (zh) | 一种支持可变分块的矩阵乘加速方法 | |
Kim et al. | A 125 GOPS 583 mW network-on-chip based parallel processor with bio-inspired visual attention engine | |
CN108764466A (zh) | 基于现场可编程门阵列的卷积神经网络硬件及其加速方法 | |
CN111210019B (zh) | 一种基于软硬件协同加速的神经网络推断方法 | |
CN110163358A (zh) | 一种计算装置及方法 | |
CN111105023B (zh) | 数据流重构方法及可重构数据流处理器 | |
CN109284824A (zh) | 一种基于可重构技术的用于加速卷积和池化运算的装置 | |
Huang et al. | IECA: An in-execution configuration CNN accelerator with 30.55 GOPS/mm² area efficiency | |
Zong-ling et al. | The design of lightweight and multi parallel CNN accelerator based on FPGA | |
Liu et al. | A cloud server oriented FPGA accelerator for LSTM recurrent neural network | |
CN111178492A (zh) | 计算装置及相关产品、执行人工神经网络模型的计算方法 | |
WO2022095675A1 (zh) | 神经网络稀疏化的装置、方法及相关产品 | |
CN109710562A (zh) | 一种基于selectmap的可配置且高速的fpga配置电路及实现方法 | |
Bai et al. | An OpenCL-based FPGA accelerator with the Winograd’s minimal filtering algorithm for convolution neuron networks | |
Liang et al. | Design of 16-bit fixed-point CNN coprocessor based on FPGA | |
CN111143208B (zh) | 基于处理器技术辅助fpga实现ai算法的验证方法 | |
Yu et al. | Implementation of convolutional neural network with co-design of high-level synthesis and verilog HDL |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180914 |
|
RJ01 | Rejection of invention patent application after publication |