CN108805272A - 一种基于fpga的通用卷积神经网络加速器 - Google Patents

一种基于fpga的通用卷积神经网络加速器 Download PDF

Info

Publication number
CN108805272A
CN108805272A CN201810413101.XA CN201810413101A CN108805272A CN 108805272 A CN108805272 A CN 108805272A CN 201810413101 A CN201810413101 A CN 201810413101A CN 108805272 A CN108805272 A CN 108805272A
Authority
CN
China
Prior art keywords
buffer area
convolutional calculation
characteristic pattern
convolution
convolutional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810413101.XA
Other languages
English (en)
Inventor
陆生礼
泮雯雯
庞伟
范雪梅
李宇峰
杨文韬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University - Wuxi Institute Of Technology Integrated Circuits
Southeast University
Original Assignee
Southeast University - Wuxi Institute Of Technology Integrated Circuits
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University - Wuxi Institute Of Technology Integrated Circuits, Southeast University filed Critical Southeast University - Wuxi Institute Of Technology Integrated Circuits
Priority to CN201810413101.XA priority Critical patent/CN108805272A/zh
Publication of CN108805272A publication Critical patent/CN108805272A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Complex Calculations (AREA)

Abstract

本发明公开了一种基于FPGA的通用卷积神经网络加速器,包括MCU、AXI4总线接口、地址生成器、状态控制器、特征图缓存区、卷积核缓存区、卷积计算器以及分段式结果缓存区。卷积加速器采用FPGA实现,并包含N个卷积计算子单元,特征图缓存区和卷积核缓存区分别包含N个特征图子缓存区和N个卷积核子缓存区,每一个卷积计算子单元对应配置一个特征图子缓存区和一个卷积核子缓存区。卷积计算器读取特征图缓存区和卷积核缓存区中的数据进行卷积计算,并将相邻卷积计算子单元的计算结果进行多级累加,分段式结果缓存区用于存放卷积计算器输出的各级累加结果。本发明能够支持各种卷积神经网络结构,通用性好,对片上存储资源需求较少,通信开销小。

Description

一种基于FPGA的通用卷积神经网络加速器
技术领域
本发明涉及电子信息和深度学习技术领域,特别涉及了一种通用卷积神经网络加速器。
背景技术
近年来,深度神经网络近来受到了广泛的关注,特别是卷积神经网络模型已经在计算机视觉上得到了广泛的应用,例如图像分类、人脸检测识别、文字识别等,2013年MITTechnology Review杂志将以卷积神经网络为代表的深度学习评为十大突破性技术之首。卷积神经网络算法受到人类视觉***的启发,利用卷积操作作为模拟神经元的感受野。深度神经网络的计算非常密集,在检测识别等任务中达到数十GOPS。除了计算密集,神经网络具有数百万甚至近亿的参数需要存储,因此利用深度神经网络进行实时检测识别只能依靠高性能多核CPU(Central Processing Unit,中央处理器)和GPU(Graphic ProcessingUnit,图形处理器)来完成,但对于功耗及体积受限的设备特别是移动设备(例如机器人、消费电子产品、智能汽车等)要移植神经网络模型几乎不可能。因此,使用通用器件,构建专用加速电路来满足卷积神经网路计算及存储需求是一条可行之路。
目前,除了GPU以外,主流的加速硬件有FPGA、ASIC(Application SpecificIntegrated Circuit,专用集成电路)。ASIC虽然具有高性能低功耗的优点,但其需要根据具体的应用而进行专用设计,设计灵活性低且前期开发成本高。而近年来基于FPGA高层综合工具的研发,给FPGA设计带来很大便利,高层综合工具在不影响性能的情况下大幅度地降低了研发周期。FPGA作为适用不同功能的可编程标准器件,没有如此高额的研发成本,并且具有一定的灵活性。另外FPGA小巧灵活,功耗低,并行性等优点十分适合神经网络任务,因此将FPGA应用于移动工作平台来实现卷积神经网络的卷积计算是有效的解决方案。
发明内容
为了解决上述背景技术提出的技术问题,本发明旨在提供一种基于FPGA的通用卷积神经网络加速器,能够支持各种卷积神经网络结构,通用性好,对片上存储资源需求较少,通信开销小。
为了实现上述技术目的,本发明的技术方案为:
一种基于FPGA的通用卷积神经网络加速器,包括MCU、AXI4总线接口、地址生成器、状态控制器、特征图缓存区、卷积核缓存区、卷积计算器以及分段式结果缓存区;卷积计算器采用FPGA实现,并包含N个卷积计算子单元,特征图缓存区和卷积核缓存区分别包含N个特征图子缓存区和N个卷积核子缓存区,每一个卷积计算子单元对应配置一个特征图子缓存区和一个卷积核子缓存区;MCU与外部存储器相连,用于读取外部存储器的输入数据,并将卷积计算结果发送给外部存储器;特征图缓存区和卷积核缓存区用于缓存通过AXI4总线接口从MCU读取的特征图和卷积核数据;地址生成器用于生成特征图缓存区的读取地址,按照该地址读取特征图缓存区中的数据送入卷积计算器;卷积计算器用于读取特征图缓存区和卷积核缓存区中的数据进行卷积计算,并将相邻卷积计算子单元的计算结果进行多级累加;分段式结果缓存区包含个结果子缓存区,用于存放卷积计算器输出的各级累加结果,并通过AXI4总线接口将各级累加结果传送至MCU;状态控制器用于控制整个加速器的工作状态,实现各个工作状态的转换。
基于上述技术方案的优选方案,所述特征图缓存区和卷积核缓存区的写地址由状态控制器累加产生,卷积核缓存区的读地址通过每4个时钟累加一次产生。
基于上述技术方案的优选方案,所述地址产生器的产生规则按照卷积矩阵展开,根据特征图大小、卷积核大小和卷积窗口偏移产生特征图缓存区的读地址。
基于上述技术方案的优选方案,在卷积计算器中,将相邻卷积计算子单元的计算结果进行log2N级累加,分别将第2、3、4、5、……、log2N次的累加结果存入分段式结果缓存区。
基于上述技术方案的优选方案,所述分段式结果缓存区包含个结果子缓存区,被分为个一组、个一组、个一组、个一组、……、1个一组,依次对应存放第2、3、4、5、……、log2N次的累加结果。
基于上述技术方案的优选方案,卷积计算器为通用定点数计算器,待计算数据并行进入卷积计算器,每个时钟共计N组卷积核、特征图进入卷积计算器,采用DSP作为运算单元做乘累加计算,卷积计算器在第十个时钟输出卷积计算结果,其中前九个时钟执行乘累加计算,第十个时钟加上偏置后发送给后续的多级累加器。
基于上述技术方案的优选方案,所述AXI4总线接口将多个数据拼接成一个数据发送,提高运算速度。
采用上述技术方案带来的有益效果:
本发明缩短了FPGA与MCU的通信时间,加快了数据传输,运用地址产生器有效地避免了重复数据的发送,进一步减少了数据流时间。同时根据FPGA的片上存储空间安排合理地规划了分块特征图大小,将资源利用率达到最大。改进了计算结果缓存机制,更具有通用性,不再受网络层数约束,也减少了不必要的中间值缓存。
本发明在基于Yolo算法的路况检测应用中得到验证,在100MHz的工作频率下,并行度N为64的条件下,数据精度为16位定点数,对640pixels×640pixels的实时检测速度可达到3~4FPS。
附图说明
图1是本发明的结构示意图;
图2是本发明数据缓存区结构示意图;
图3是本发明卷积计算器工作示意图;
图4是本发明卷积结果累加示意图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
如图1所示本发明设计的通用卷积神经网络加速器结构,并行度N以64为例,其工作方法如下。
MCU预先从外部存储器里读取16位的输入特征图、卷积核及偏置,并按顺序将4个16位参数拼接成一个64位数据通过直接存取控制器、AXI4总线送入到数据缓存区(即特征图缓存区、卷积核缓存区)。
参照图2,待计算数据的缓存顺序受状态控制器控制,先缓存特征图数据,根据每片缓存器的大小设置分块特征图为42*42,位宽为16位。由于AXI4总线位宽设置为64位,故SRAM的读写位宽为1:4的比例,选取单双口RAM作为特征图子缓存区,写位宽为64位,写深度为441,读位宽为16位,读深度为1764。特征图缓存区由64个上述缓存区组成,故一次数据传输可接受42*42*64个特征图参数。接受完特征图数据后状态控制器跳转到缓存卷积核参数模式,卷积核大小为3*3,每个卷积核匹配一个偏置参数,故缓存到卷积核缓存区一共有10个16位参数,由于AXI4总线是以64位传输,故补2个字节的0,一共有12个16位参数,卷积核缓存区读写位宽均为64位,深度为3。卷积核缓存区由64个上述缓存区组成,与特征图缓存区一一匹配。
数据缓存结束后状态控制器跳入计算模式,启动地址产生器,故根据卷积窗口偏移Stride产生例如:0、1、2、42、43、44、84、85、86;1、2、3、43、44、45、85、86、87;…;1677、1678、1679、1719、1720、1721、1761、1762、1763的地址。同时控制缓存区读使能从特征图、卷积核缓存区里同时读取卷积核参数和特征图数据送入卷积计算器进行卷积运算。
参照图3,待计算数据并行进入卷积运算器,每个时钟共计64组卷积核、特征图进入卷积器计算,对于大小为3*3的卷积计算,卷积器共需十个时钟计算出结果,其中前九个时钟执行乘累加,第十个时钟加上偏置后发送结果至后续累加器,将逐级累加结果缓存至所述分段式卷积结果缓存区。
参照图4,一共有64个卷积计算子单元(Processing Convolution Unit,简称PCU),PCU在第十个时钟加上偏置后输出结果至后续累加器,将逐级累加结果缓存至所述分段式卷积结果缓存区。分段式卷积结果缓存区由31个FIFO组成,其中31个FIFO依次分为、16个一组、8个一组、4个一组、2个一组、1个一组,以存放所述卷积计算单元的计算逐级累加结果,分段式卷积结果缓存区的写使能由所述卷积计算器给出,读出逻辑由所述状态控制器控制。分段式卷积结果缓存区的读写数据位数分别由AXI4总线写数据位宽和定点卷积计算位宽确定,在本实施例中,AXI4读写数据位宽均为64位,定点卷积运算为16位,故在写入计算结果FIFO时按16位写数据,64位读数据操作。逐级累加是在第十一个时钟将相邻两个PCU的计算结果相加得到32个一级累加值;接着在第十二个时钟将这32个一级累加值的两个相邻值送入二级累加器,得到16个二级累加值存入FIFO;以此类推,一共有六级累加,最后输出一个累加值,相当于64个PCU卷积计算结果累加。
计算结束后状态控制器跳转到发送状态,根据CPU指令读取相应FIFO数据根据指令要求是否执行RELU操作后将数据通告AXI4总线发送回MCU存入外部存储器。
相比较于直接加速卷积运算,将卷积运算展开为向量的乘累加操作可以弱化网络结构对加速器结构不匹配带来的影响。本实施例中控制上述步骤的状态控制器状态转换条件如下:
初始化时状态机进入等待状态,等待MCU指令信号(ram_flag),当ram_flag为001时,进入写卷积核状态;当ram_flag为010时,进入写特征图状态;当数据和缓存结束后MCU发送计算开始指令,状态机跳入卷积计算状态;当计算结束后跳入计算结果发送状态;当send状态结束时,返回等待状态,等待下一次数据写入。
写特征图:一旦进入该状态,所有的特征图RAM使能端有效,当AXI4总线上的数据有效信号有效时,开始接收数据,RAM的写地址开始从0累加,每次累加到441后清零从0重新累加,指示在缓存下一个分块特征图数据,一共缓存64个特征图RAM。完成后等待MCU指令信号ram_flag,当ram_flag为1XX时则进入计算状态。
写卷积核:一旦进入该状态,所有的卷积核RAM使能有效,当AXI4总线上的数据有效信号有效时,开始接收数据,RAM的写地址开始从0累加,每次累加到3后清零从0重新累加,指示在缓存下一个卷积核数据,一共缓存64个卷积核RAM。完成后等待MCU指令信号ram_flag,当ram_flag为1XX时则进入计算状态。
卷积计算:一旦进入该状态,开始从特征图RAM和卷积核RAM并行读出数据,卷积核RAM的读地址从0开始每隔4时钟加1,累加到3后重新开始,特征图RAM的读地址由地址产生器产生,根据读地址从各自RAM中读取相应数据,每累加到9次,则停止一个时钟,以与PCU输出数据同步。当特征图RAM的读地址为1763时,标志所有数据均已计算完成,此时两组读地址复位,下个时钟将进入计算结果发送状态。
计算结果发送:发送数据选取根据layer(来自外部处理器)的指示,会按所需数据为多少个卷积结果累加和从对应的FIFO中取数据,再根据RELU(来自外部处理器)信号是否作RELU操作后将数据发送至总线。
实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

Claims (7)

1.一种基于FPGA的通用卷积神经网络加速器,其特征在于:包括MCU、AXI4总线接口、地址生成器、状态控制器、特征图缓存区、卷积核缓存区、卷积计算器以及分段式结果缓存区;卷积计算器采用FPGA实现,并包含N个卷积计算子单元,特征图缓存区和卷积核缓存区分别包含N个特征图子缓存区和N个卷积核子缓存区,每一个卷积计算子单元对应配置一个特征图子缓存区和一个卷积核子缓存区;MCU与外部存储器相连,用于读取外部存储器的输入数据,并将卷积计算结果发送给外部存储器;特征图缓存区和卷积核缓存区用于缓存通过AXI4总线接口从MCU读取的特征图和卷积核数据;地址生成器用于生成特征图缓存区的读取地址,按照该地址读取特征图缓存区中的数据送入卷积计算器;卷积计算器用于读取特征图缓存区和卷积核缓存区中的数据进行卷积计算,并将相邻卷积计算子单元的计算结果进行多级累加;分段式结果缓存区包含个结果子缓存区,用于存放卷积计算器输出的各级累加结果,并通过AXI4总线接口将各级累加结果传送至MCU;状态控制器用于控制整个加速器的工作状态,实现各个工作状态的转换。
2.根据权利要求1所述基于FPGA的通用卷积神经网络加速器,其特征在于:所述特征图缓存区和卷积核缓存区的写地址由状态控制器累加产生,卷积核缓存区的读地址通过每4个时钟累加一次产生。
3.根据权利要求1所述基于FPGA的通用卷积神经网络加速器,其特征在于:所述地址产生器的产生规则按照卷积矩阵展开,根据特征图大小、卷积核大小和卷积窗口偏移产生特征图缓存区的读地址。
4.根据权利要求1所述基于FPGA的通用卷积神经网络加速器,其特征在于:在卷积计算器中,将相邻卷积计算子单元的计算结果进行log2N级累加,分别将第2、3、4、5、……、log2N次的累加结果存入分段式结果缓存区。
5.根据权利要求4所述基于FPGA的通用卷积神经网络加速器,其特征在于:所述分段式结果缓存区包含个结果子缓存区,被分为个一组、个一组、个一组、个一组、……、1个一组,依次对应存放第2、3、4、5、……、log2N次的累加结果。
6.根据权利要求1所述基于FPGA的通用卷积神经网络加速器,其特征在于:卷积计算器为通用定点数计算器,待计算数据并行进入卷积计算器,每个时钟共计N组卷积核、特征图进入卷积计算器,采用DSP作为运算单元做乘累加计算,卷积计算器在第十个时钟输出卷积计算结果,其中前九个时钟执行乘累加计算,在第十个时钟加上偏置后发送给后续的多级累加器。
7.根据权利要求1-6中任意一项所述基于FPGA的通用卷积神经网络加速器,其特征在于:所述AXI4总线接口将多个数据拼接成一个数据发送,提高运算速度。
CN201810413101.XA 2018-05-03 2018-05-03 一种基于fpga的通用卷积神经网络加速器 Pending CN108805272A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810413101.XA CN108805272A (zh) 2018-05-03 2018-05-03 一种基于fpga的通用卷积神经网络加速器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810413101.XA CN108805272A (zh) 2018-05-03 2018-05-03 一种基于fpga的通用卷积神经网络加速器

Publications (1)

Publication Number Publication Date
CN108805272A true CN108805272A (zh) 2018-11-13

Family

ID=64093618

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810413101.XA Pending CN108805272A (zh) 2018-05-03 2018-05-03 一种基于fpga的通用卷积神经网络加速器

Country Status (1)

Country Link
CN (1) CN108805272A (zh)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109146067A (zh) * 2018-11-19 2019-01-04 东北大学 一种基于FPGA的Policy卷积神经网络加速器
CN109598338A (zh) * 2018-12-07 2019-04-09 东南大学 一种基于fpga的计算优化的卷积神经网络加速器
CN109934339A (zh) * 2019-03-06 2019-06-25 东南大学 一种基于一维脉动阵列的通用卷积神经网络加速器
CN110097174A (zh) * 2019-04-22 2019-08-06 西安交通大学 基于fpga和行输出优先的卷积神经网络实现方法、***及装置
CN110147251A (zh) * 2019-01-28 2019-08-20 腾讯科技(深圳)有限公司 用于计算神经网络模型的架构、芯片及计算方法
CN110334801A (zh) * 2019-05-09 2019-10-15 苏州浪潮智能科技有限公司 一种卷积神经网络的硬件加速方法、装置、设备及***
CN110928693A (zh) * 2020-01-23 2020-03-27 飞诺门阵(北京)科技有限公司 一种计算设备及资源分配方法
CN110991634A (zh) * 2019-12-04 2020-04-10 腾讯科技(深圳)有限公司 人工智能加速器、设备、芯片及数据处理方法
CN111104124A (zh) * 2019-11-07 2020-05-05 北京航空航天大学 基于Pytorch框架的卷积神经网络在FPGA上的快速部署方法
CN111416743A (zh) * 2020-03-19 2020-07-14 华中科技大学 一种卷积网络加速器、配置方法及计算机可读存储介质
CN111860540A (zh) * 2020-07-20 2020-10-30 深圳大学 基于fpga的神经网络图像特征提取***
WO2020258528A1 (zh) * 2019-06-25 2020-12-30 东南大学 一种可配置的通用卷积神经网络加速器
CN112508184A (zh) * 2020-12-16 2021-03-16 重庆邮电大学 一种基于卷积神经网络的快速图像识别加速器设计方法
CN112801285A (zh) * 2021-02-04 2021-05-14 南京微毫科技有限公司 一种基于fpga的高资源利用率cnn加速器及其加速方法
CN113095471A (zh) * 2020-01-09 2021-07-09 北京君正集成电路股份有限公司 一种提高检测模型效率的方法
CN113869494A (zh) * 2021-09-28 2021-12-31 天津大学 基于高层次综合的神经网络卷积fpga嵌入式硬件加速器
CN114638352A (zh) * 2022-05-18 2022-06-17 成都登临科技有限公司 一种处理器架构、处理器及电子设备
CN115481721A (zh) * 2022-09-02 2022-12-16 浙江大学 一种针对卷积神经网络的新型Psum计算电路
US11706076B2 (en) 2020-01-23 2023-07-18 Novnet Computing System Tech Co., Ltd. Computer system with computing devices, communication device, task processing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110029471A1 (en) * 2009-07-30 2011-02-03 Nec Laboratories America, Inc. Dynamically configurable, multi-ported co-processor for convolutional neural networks
CN106875012A (zh) * 2017-02-09 2017-06-20 武汉魅瞳科技有限公司 一种基于fpga的深度卷积神经网络的流水化加速***
CN107392309A (zh) * 2017-09-11 2017-11-24 东南大学—无锡集成电路技术研究所 一种基于fpga的通用定点数神经网络卷积加速器硬件结构
CN107657581A (zh) * 2017-09-28 2018-02-02 中国人民解放军国防科技大学 一种卷积神经网络cnn硬件加速器及加速方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110029471A1 (en) * 2009-07-30 2011-02-03 Nec Laboratories America, Inc. Dynamically configurable, multi-ported co-processor for convolutional neural networks
CN106875012A (zh) * 2017-02-09 2017-06-20 武汉魅瞳科技有限公司 一种基于fpga的深度卷积神经网络的流水化加速***
CN107392309A (zh) * 2017-09-11 2017-11-24 东南大学—无锡集成电路技术研究所 一种基于fpga的通用定点数神经网络卷积加速器硬件结构
CN107657581A (zh) * 2017-09-28 2018-02-02 中国人民解放军国防科技大学 一种卷积神经网络cnn硬件加速器及加速方法

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109146067B (zh) * 2018-11-19 2021-11-05 东北大学 一种基于FPGA的Policy卷积神经网络加速器
CN109146067A (zh) * 2018-11-19 2019-01-04 东北大学 一种基于FPGA的Policy卷积神经网络加速器
CN109598338B (zh) * 2018-12-07 2023-05-19 东南大学 一种基于fpga的计算优化的卷积神经网络加速器
CN109598338A (zh) * 2018-12-07 2019-04-09 东南大学 一种基于fpga的计算优化的卷积神经网络加速器
CN110147251A (zh) * 2019-01-28 2019-08-20 腾讯科技(深圳)有限公司 用于计算神经网络模型的架构、芯片及计算方法
CN109934339B (zh) * 2019-03-06 2023-05-16 东南大学 一种基于一维脉动阵列的通用卷积神经网络加速器
CN109934339A (zh) * 2019-03-06 2019-06-25 东南大学 一种基于一维脉动阵列的通用卷积神经网络加速器
CN110097174A (zh) * 2019-04-22 2019-08-06 西安交通大学 基于fpga和行输出优先的卷积神经网络实现方法、***及装置
CN110097174B (zh) * 2019-04-22 2021-04-20 西安交通大学 基于fpga和行输出优先的卷积神经网络实现方法、***及装置
CN110334801A (zh) * 2019-05-09 2019-10-15 苏州浪潮智能科技有限公司 一种卷积神经网络的硬件加速方法、装置、设备及***
WO2020258528A1 (zh) * 2019-06-25 2020-12-30 东南大学 一种可配置的通用卷积神经网络加速器
CN111104124A (zh) * 2019-11-07 2020-05-05 北京航空航天大学 基于Pytorch框架的卷积神经网络在FPGA上的快速部署方法
CN111104124B (zh) * 2019-11-07 2021-07-20 北京航空航天大学 基于Pytorch框架的卷积神经网络在FPGA上的快速部署方法
CN110991634A (zh) * 2019-12-04 2020-04-10 腾讯科技(深圳)有限公司 人工智能加速器、设备、芯片及数据处理方法
CN110991634B (zh) * 2019-12-04 2022-05-10 腾讯科技(深圳)有限公司 人工智能加速器、设备、芯片及数据处理方法
WO2021109699A1 (zh) * 2019-12-04 2021-06-10 腾讯科技(深圳)有限公司 人工智能加速器、设备、芯片及数据处理方法
CN113095471B (zh) * 2020-01-09 2024-05-07 北京君正集成电路股份有限公司 一种提高检测模型效率的方法
CN113095471A (zh) * 2020-01-09 2021-07-09 北京君正集成电路股份有限公司 一种提高检测模型效率的方法
CN110928693B (zh) * 2020-01-23 2021-01-15 飞诺门阵(北京)科技有限公司 一种计算设备及资源分配方法
CN110928693A (zh) * 2020-01-23 2020-03-27 飞诺门阵(北京)科技有限公司 一种计算设备及资源分配方法
US11706076B2 (en) 2020-01-23 2023-07-18 Novnet Computing System Tech Co., Ltd. Computer system with computing devices, communication device, task processing device
CN111416743A (zh) * 2020-03-19 2020-07-14 华中科技大学 一种卷积网络加速器、配置方法及计算机可读存储介质
CN111860540A (zh) * 2020-07-20 2020-10-30 深圳大学 基于fpga的神经网络图像特征提取***
CN111860540B (zh) * 2020-07-20 2024-01-12 深圳大学 基于fpga的神经网络图像特征提取***
CN112508184B (zh) * 2020-12-16 2022-04-29 重庆邮电大学 一种基于卷积神经网络的快速图像识别加速器设计方法
CN112508184A (zh) * 2020-12-16 2021-03-16 重庆邮电大学 一种基于卷积神经网络的快速图像识别加速器设计方法
CN112801285B (zh) * 2021-02-04 2024-01-26 南京微毫科技有限公司 一种基于fpga的高资源利用率cnn加速器及其加速方法
CN112801285A (zh) * 2021-02-04 2021-05-14 南京微毫科技有限公司 一种基于fpga的高资源利用率cnn加速器及其加速方法
CN113869494A (zh) * 2021-09-28 2021-12-31 天津大学 基于高层次综合的神经网络卷积fpga嵌入式硬件加速器
CN114638352A (zh) * 2022-05-18 2022-06-17 成都登临科技有限公司 一种处理器架构、处理器及电子设备
CN115481721A (zh) * 2022-09-02 2022-12-16 浙江大学 一种针对卷积神经网络的新型Psum计算电路

Similar Documents

Publication Publication Date Title
CN108805272A (zh) 一种基于fpga的通用卷积神经网络加速器
CN109598338B (zh) 一种基于fpga的计算优化的卷积神经网络加速器
CN110390385B (zh) 一种基于bnrp的可配置并行通用卷积神经网络加速器
CN107392309A (zh) 一种基于fpga的通用定点数神经网络卷积加速器硬件结构
WO2020258528A1 (zh) 一种可配置的通用卷积神经网络加速器
US11544191B2 (en) Efficient hardware architecture for accelerating grouped convolutions
CN103336758B (zh) 一种采用带有局部信息的压缩稀疏行的稀疏矩阵存储方法及基于该方法的SpMV实现方法
US8131659B2 (en) Field-programmable gate array based accelerator system
US20210216871A1 (en) Fast Convolution over Sparse and Quantization Neural Network
CN110321997B (zh) 高并行度计算平台、***及计算实现方法
CN111626403B (zh) 一种基于cpu-fpga内存共享的卷积神经网络加速器
CN115880132B (zh) 图形处理器、矩阵乘法任务处理方法、装置及存储介质
WO2021173201A1 (en) Vector reductions using shared scratchpad memory
KR20200108774A (ko) 순환 큐 기반의 명령어 메모리를 포함하는 메모리 장치 및 그 동작방법
CN111625546B (zh) 一种数据写入方法、装置、设备、介质
CN111768458A (zh) 一种基于卷积神经网络的稀疏图像处理方法
CN111783933A (zh) 一种对深度卷积神经网络计算加速的、结合主存储器的数据载入装置的硬件电路设计及方法
CN113313244B (zh) 面向加法网络的近存储神经网络加速器及其加速方法
CN111047037B (zh) 数据处理方法、装置、设备及存储介质
CN117234720A (zh) 动态可配置的存算融合数据缓存结构、处理器及电子设备
CN115860080B (zh) 计算核、加速器、计算方法、装置、设备、介质及***
CN112988621A (zh) 一种张量数据的数据载入装置及方法
CN112183732A (zh) 卷积神经网络加速方法、装置和计算机设备
US20210056403A1 (en) Neural network internal data fast access memory buffer
Diamantopoulos et al. A system-level transprecision FPGA accelerator for BLSTM using on-chip memory reshaping

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181113