CN109784489A - 基于fpga的卷积神经网络ip核 - Google Patents

基于fpga的卷积神经网络ip核 Download PDF

Info

Publication number
CN109784489A
CN109784489A CN201910038533.1A CN201910038533A CN109784489A CN 109784489 A CN109784489 A CN 109784489A CN 201910038533 A CN201910038533 A CN 201910038533A CN 109784489 A CN109784489 A CN 109784489A
Authority
CN
China
Prior art keywords
kernel
feature vector
input feature
neural networks
pond
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910038533.1A
Other languages
English (en)
Other versions
CN109784489B (zh
Inventor
常瀛修
廖立伟
曹健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yu Dunshan
SCHOOL OF SOFTWARE AND MICROELECTRONICS PEKING UNIVERSITY
Original Assignee
Yu Dunshan
SCHOOL OF SOFTWARE AND MICROELECTRONICS PEKING UNIVERSITY
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yu Dunshan, SCHOOL OF SOFTWARE AND MICROELECTRONICS PEKING UNIVERSITY filed Critical Yu Dunshan
Priority to CN201910038533.1A priority Critical patent/CN109784489B/zh
Publication of CN109784489A publication Critical patent/CN109784489A/zh
Application granted granted Critical
Publication of CN109784489B publication Critical patent/CN109784489B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了基于FPGA的卷积神经网络IP核,其目的是在现场可编程逻辑阵列(FPGA)上实现卷积神经网络的运算加速。本发明根据卷积神经网络的基本模型,其具体架构包含卷积运算IP核、池化运算IP核、全连接运算IP核、冒泡法卷积层、冒泡法池化层、全连接层、特征图存储模块和参数存储模块。本发明各类IP核支持不同规模的卷积神经网络构建,根据所需的网络模型,实例化不同种类和数量的IP核。通过实例化IP核构建不同的神经网络层,充分利用FPGA的并行性实现卷积神经网络运算加速。通过Verilog HDL语言设计IP核实现不同FPGA移植。本发明极大提升卷积神经网络运算速度和效率,降低其处理功耗。

Description

基于FPGA的卷积神经网络IP核
技术领域
本发明涉及卷积神经网络硬件加速领域,具体涉及基于FPGA的卷积神经网络IP核的设计。
背景技术
伴随着机器学习、深度学习和人工智能近几年的兴起和完善,人工神经网络(Artificial Neural Network,ANN)不断发展,作为生物科学和计算机科学交叉渗透的人工智能领域,正在被学术界和商业界关注。早期的人工神经网络类似于仿生神经***结构,在20世纪中期就提出了模拟人类大脑神经元结构的计算结构。将人类神经元结构的树突分支模拟为多个输入数据,轴突模拟为单个输出数据,通过一定的数据变换即线性加权,实现轴突的神经信号输出。
通过手动设置阈值以及各种线性加权的权重较为繁琐,且未必能达到最好的结果,20世纪70年代研究者认为感知机模型无法解决线性不可分问题,且当时计算能力低下无法实现多层神经网络模型,神经网络的研究进入低潮。
20世纪80年代末,为了解决神经网络复杂的计算问题和线性不可分问题,研究者提出反向传播算法,使得神经网络的计算时间大大降低。直至今天,反向传播算法仍然是神经网络训练的主流算法。由于当时的计算资源还是不够充足,深层神经网络的训练仍然十分困难。
1989年,研究者提出第一个具有真正意义上的卷积神经网络(ConvolutionalNeural Network,CNN)LeNet-5,卷积神经网络逐渐成为各种深度神经网络中应用最广泛的一种。随着神经网络算法的发展,卷积神经网络被广泛应用于图像及模式识别,目标探测和语义分割等领域。
由于卷积神经网络应用广泛,逐渐得到学术界和商业界的重视,其特点在图像处理方面,尤其对于图像尺寸的缩放、提取特征图等方面具有鲜明的优势。为契合工业界的应用,卷积神经网络的学习能力和分类能力不断提升,导致卷积神经网络结构日趋复杂,需大规模和深层次的网络利用大量的样本训练神经网络的参数,因此其训练过程的计算量十分庞大。大规模和深层次的卷积神经网海量的训练参数,需要较高的存储资源、高吞吐量的数据处理和高度的并行性,因此基于传统计算机结构的控制理论并不能发挥卷积神经网络的特点。NVIDIA的CUDA(Compute Unified Device Architecture)和Google的TensorFlow框架的发展,支持GPU高性能数值计算,在一定程度上缓解了通用架构CPU的计算压力,但其研究制造成本、能效比等无法满足低功耗、高性能的需求,且囿于体积、其便携性难以支持卷积神经网络在终端上的应用场景。
现场可编程逻辑阵列(Field Programmable Gate Array,FPGA)是作为专用集成电路(Application Specific Integrated Circuit,ASIC)领域中半定制集成电路而出现的。FPGA结合了ASIC的高性能、高集成度和用户可编程器件的灵活性,其特点在于可重构性、较高的性能和集成度、硬件升级空间大。由于FPGA可重构性,在目前没有通用的卷积神经网络专用芯片架构下,FPGA契合卷积神经网络高性能数值计算,避免通用架构CPU、GPU单线程处理的低能效比。且FPGA产品上市速度快,在神经网络结构日新月异的今天,可以较快的投入市场,避免了ASIC芯片只能针对特定的算法设计的较差的灵活性。
现有的FPGA加速方案大致如下:1、采用低功耗的高性能加速器设计,通过堆叠少量的处理单元(Processing Unit,PE)提高访存带宽,但存在流水线较少导致数据的吞吐量较低,甚至存在卷积过程中冗余的流水线设计。2、采用较小的处理单元(ProcessingElement,PE)搭建不同尺寸的卷积核,避免计算瓶颈的问题,但导致卷积计算延迟时间较长,峰值计算性能被有所限制。3、设计频域处理的加速器,使用可变尺寸的OaA卷积核减少卷积次数并提高不同层级卷积核的通用性,但其OaA由固定尺寸的FFT组成,导致卷积处理过程需要0填充FFT边缘,并且平铺卷积核导致卷积延迟时间较长。4、采用混合神经网络处理器实现神经网络加速,通过16×16的可重构异构PE,按照需求和配置处理不同的神经网络,并且采用自适应的位宽配置降低功耗提高效率。可重构计算平台主要原因在于目前市面上较少的通用神经网络处理器,基本是针对一种神经网络或神经网络模型设计一种加速器。可重构计算平台可以适应目前大多数的神经网络或神经网络模型,包括CNN、FCN、RNN等,提高了计算平台的能效比。该可重构计算平台固化的神经网络包含CNN、FCN、RNN占用较大的逻辑资源,因此无法更有效地降低平台计算过程功耗,可扩展性较低,对FPGA资源及性能要求较高,导致研发成本增加。
综上所述,卷积神经网络及其终端应用市场非常广阔,尽管卷积神经网络为应对不同的应用场景转换其网络模型,但卷积神经网络的基本组成部分如卷积、池化、全连接和激活函数等没有太多的变化,因此FPGA可应对不同场景的卷积神经网络。一方面,针对卷积神经网络设计的IP核包含卷积神经网络的基本组成部分,且通过Verilog HDL语言进行设计,易于部署于不同FPGA和嵌入式***,可移植性强。另一方面,硬件设计、修改及调试对于软件工程师和不熟悉硬件的算法工程师是一个门槛,对企业可能增加成本、延长工时。为解决此类门开,削减企业和研究者的工时成本,针对卷积神经网络设计的IP核包含可调用接口,方便使用者构建不同的卷积神经网络模型于不同的FPGA,支持卷积神经网络的硬件加速具有重要意义。
发明内容
本发明提供一种基于FPGA的卷积神经网络IP核,其目的是在FPGA快速便捷构建卷积神经网络的硬件结构,实现卷积神经网络的前馈运算加速,降低软件和算法工程师硬件设计门槛,便于算法及各终端产品开发验证。
本发明的预期应用场景要求FPGA作为加速器硬件平台,可重配置卷积神经网络模型,包含卷积、池化、全连接、激活函数以及卷积神经网络特征图的数据流。在提高运算性能和效率的同时,具有低功耗特性。FPGA具有标准的接口配置,支持卷积神经网络的扩展。
为实现上述目的,本发明采用如下技术方案:
基于FPGA的卷积神经网络IP核,其特征在于,具体IP核和组成模块包含卷积运算IP核、池化运算IP核、全连接运算IP核、冒泡法卷积层、冒泡法池化层、全连接层、特征图存储模块和参数存储模块。
所述各IP核构成的神经网络层与参数存储模块和特征图存储模块内部互连,共同构成的硬件结构与所需的卷积神经网络算法结构保持一致。
所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的卷积运算IP核,包含输入特征图缓存器、权值参数缓存器、乘法器、加法器和激活函数模块;
1)卷积运算IP核每个时钟周期按行逐个读取特征图内特征点形成数据流。输入特征图缓存器为可配置深度的寄存器组,用于移位缓存输入特征图的数据流,其根据输入特征图的行列数修改寄存器组深度,支持不同规模的卷积神经网络,且固定地址区间的输入特征图数据与乘法器连接。
2)权值参数缓存器为可配置深度的寄存器组,用于移位缓存权值参数,当寄存器组被权值参数填满后固定不变。权值参数缓存器的硬件结构与输入特征图缓存器相同,即相同固定地址区间的权值参数数据与乘法器连接。
3)与输入特征图缓存器和权值参数缓存器固定地址区间连接的乘法器与加法器组成一个乘法-加法对,特征图内特征点和对应的权值参数共同构成完整的卷积运算。
4)卷积运算IP核采用常见的ReLU激活函数,激活函数模块为MUX多路选择器,等同于公式f(x)=max(0,x)。
所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的池化运算IP核,包含输入特征图缓存器和比较器;
1)输入特征图缓存器为可配置深度的寄存器组,用于移位缓存输入特征图数据流,可根据输入特征图的行列数修改寄存器组深度以支持不同规模的卷积神经网络,且固定地址区间的输入特征图数据与比较器连接。
2)比较器的输入端口与输入特征图缓存器的4个固定地址区间连接,输出端口为此4个数据中的最大值。
所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的全连接运算IP核,包含计数器、累加器、乘法器和加法器;
1)乘法器分别输入一一对应的输入节点数据和权值参数,完成输入节点和权值参数的乘法运算。
2)累加器由一个寄存器和一个加法器构成,乘法器的运算结果输入累加器的寄存器并与下一个时钟周期的乘法结果累加,构成乘累加运算。
3)计数器控制乘累加运算的迭代周期,一个迭代周期为所有的输入节点与其对应的权值参数完成乘累加运算,得到一个输出节点的数据。完成一个迭代周期后计数器控制乘累加结果与输出节点对应的偏值参数相加。
所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的冒泡法卷积层,包含冒泡法控制器和卷积运算IP核;
1)冒泡法控制器的三个时钟序列分别为读输入特征图序列、读权值参数序列和卷积过程序列。读输入特征图序列和读权值参数序列的等待区间为输入特征图数据和权值参数数据分别进入卷积运算IP核输入特征图缓存器和权值参数缓存器的时间,该区间卷积结果无效。读权值参数序列的保持区间为权值参数数据填满权值参数缓存器并保持固定的时间,该区间内输入特征图数据流通过输入特征图缓存器,此过程实际为卷积处理过程,该区间卷积结果部分有效。卷积过程序列的等待区间与输入特征图序列和读权值参数序列相同。卷积运算过程的有效区间表示输出特征图的数据有效,即卷积核未跨行产生的有效结果;无效区间表示输出特征图的数据无效,即卷积核跨行产生的无效结果。假设卷积过程为液体,无效区间为气体,则卷积过程的有效结果相当于从液体中排出多余气体,故称为冒泡法。
2)通过堆叠与输入特征图深度相同个数的卷积运算IP核构成该卷积层的单个卷积核,实例化该卷积层所需的卷积核,与冒泡法控制器共同构成冒泡法卷积层。
所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的冒泡法池化层,包含冒泡法控制器和池化运算IP核;
1)冒泡法控制器的四个时钟序列分别为读输入特征图序列、列有效序列、行有效序列和池化过程序列。四个时钟序列的等待区间为输入特征图数据进入池化运算IP核输入特征图缓存器的时间,该区间池化结果无效。列有效序列每个有效的池化结果相隔一个无效的池化结果,表示池化滤波列步长为2;行有效序列每段有效行的结果相隔一段无效行的结果,表示池化滤波行步长为2。假设池化过程为液体,列有效序列和行有效序列的无效池化结果为气体,则池化过程相当于从液体中排出多余气体,与冒泡法卷积层控制器类似,故称为冒泡法。
2)通过堆叠与输入特征图深度相同个数的池化运算IP核构成池化层的单个池化核,与冒泡法控制器共同构成冒泡法池化层。
所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的全连接层,包含全连接层控制器和全连接运算IP核;
1)全连接层控制器包含权值参数读地址器、偏置参数读地址器、计数器和输入特征图读地址器。输入特征图读地址器和权值参数读地址器每个时钟周期输出一个地址信号,分别读取一一对应的输入节点和权值参数数据进入全连接运算IP核。偏置参数读地址器通过计数器控制,完成第一个输出节点的乘累加后读取第一个输出节点对应的偏置参数。
2)全连接层控制器的控制端口与特征图存储模块和参数存储模块对应端口点对点连接,与全连接运算IP核共同构成全连接层。
所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的特征图存储模块包含对应各维度的全局特征图缓存,内部结构由移位缓存器构成。缓存器深度为特征图行×列所有特征点个数,缓存器的个数为三维特征图的深度。特征图存储模块的输入端口与各层控制器对应的地址端口点对点连接,输出端口与各神经网络层IP核输入端口连接。
所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的参数存储模块包含该卷积神经网络模型的全局权值参数和偏置参数,与各神经网络层内部互联。
附图说明
图1为本发明的基于FPGA的卷积神经网络IP核的***结构图;
图2为本发明的卷积运算IP核硬件结构及内外部组成模块图;
图3为本发明的冒泡法卷积层的时序控制逻辑示意图;
图4为本发明的冒泡法卷积层硬件结构及内外部组成模块图;
图5为本发明的池化运算IP核硬件结构及内外部组成模块图;
图6为本发明的冒泡法池化层的时序控制逻辑示意图;
图7为本发明的冒泡法池化层硬件结构及内外部组成模块图;
图8为本发明的全连接神经网络结构示意图;
图9为本发明的全连接运算IP核硬件结构示意图;
图10为本发明的全连接层控制器硬件结构及内外部组成模块图;
图11为本发明的全连接层硬件结构及内外部组成模块图;
图12为FPGA运行时功率测量结果示意图;
具体实施方式
本发明通过分析卷积神经网络的基本特征,调研目前国内外的研究现状并分析其优劣,结合FPGA高并行性、高能效比和可重构性,从卷积神经网络计算密集的卷积、池化和全连接3个方面设计基于FPGA的卷积神经网络IP核对卷积神经网络的前馈传播进行运算加速。使用Verilog HDL语言设计的IP核可有效使用最少的逻辑资源构建所需的硬件结构,并且易于移植到不同类型的FPGA。
首先给出如下基本单位定义以便后续具体实施方式及数学式说明:
表1本发明的CNN基本单位定义
参照图1,基于FPGA的卷积神经网络IP核构成的神经网络加速器,其具体IP核和组成模块包含卷积运算IP核、池化运算IP核、全连接运算IP核、冒泡法卷积层、冒泡法池化层、全连接层、特征图存储模块和参数存储模块。
图2,具体描述了卷积运算IP核的内部硬件结构及外部组成模块的连接方式。
卷积运算IP核,包含输入特征图缓存器、权值参数缓存器、乘法器、加法器和激活函数模块。在卷积运算工作前,首先将训练好的CNN的所有参数存储于BRAM的参数存储模块,提高参数的访存效率。手动修改卷积运算IP核内的参数(parameter)IC和CR使其符合目前卷积层的尺寸要求。当卷积运算开始,特征图存储模块内特征点像素值以数据流的形式按行逐个通过卷积运算IP核内的输入特征图缓存器。若为第一层卷积层,数据流为经过二值化和按比例缩放的摄像头采集实时图像数据流。CC对应输入特征图缓存器的浅色阴影部分,浅色阴影部分的个数在缓冲器中为CR个,两个相邻的浅色阴影部分相隔IC-CC个单位寄存器。可配置输入特征图缓存器的深度为(CR-1)×IC+CC,通过修改IC适应不同输入特征图尺寸从而支持不同规模的卷积神经网络搭建。
同理,参数存储模块的权值参数也以数据流的形式进入IP核内的权值参数缓存器,其缓存器的结构与输入特征图缓存器保持一致。权值参数按照每隔CC个有效权值参数填充(IC-CC)个0进行存储,在卷积过程中顺序读取。
权值参数缓存器存储完数据后保持不变,输入特征图缓存器移位继续缓存所有输入特征图数据流,两条移位缓存器固定地址区间:{IC×0+0,IC×0+1,...,IC×0+(CR-1)},{IC×1+0,IC×1+1,...,IC×1+(CR-1)},...,{IC×(CR-1)+0,IC×(CR-1)+1,...,IC×(CR-1)+(CR-1)}。大括号内地址个数为卷积核的列个数,大括号的个数为行个数。两条移位缓存器固定地址区间连接乘加单元可以构成抽象的卷积运算IP核。
卷积过程为输入特征图的第一个特征点数据进入输入特征图缓存器至最后一个特征点数据进入缓存器,即卷积核从特征图左上角至右下角移位扫描整幅输入特征图。
冒泡法卷积层需要搭配冒泡法控制器,结合图3对冒泡法时序控制逻辑进行详细说明:
参照图3(a),冒泡法控制器的三个时钟序列分别为读输入特征图序列,读权值参数序列和卷积过程序列。三个时钟序列的等待区间为输入特征图数据和权值参数数据分别进入卷积运算IP核内的输入特征图缓存器和权值参数缓存器的时间,区间内的卷积结果无效,该过程延迟时钟周期:clkwait=(CR-1)×IC+CC-1。读权值参数序列的保持区间为权值参数数据填满权值参数缓存器并保持固定的时间,该区间内输入特征图数据流通过输入特征图缓存器,此过程实际为卷积处理过程,该区间卷积结果部分有效。
卷积过程序列的有效区间表示输出特征图的数据有效,对应图3(b)空白的有效输出特征图数据并即时存储,该过程延迟时钟周期:clkVal=IC-CC+1。卷积过程序列的无效区间表示输出特征图的数据无效,即图3(b)卷积核跨行产生的无效数据,对应图3(b)灰色的无效输出特征图数据并被滤去,该过程延迟时钟周期:clkUnval=CC-1。假设卷积过程为液体,无效区间为气体,则卷积过程的有效结果相当于从液体中排出多余气体,故称为冒泡法。总的卷积延迟时钟周期:clkconv Tolal clkwait+Convolutional process=clkwait+{[(IC-CC+1)+(CC-1)]×(IR-CR)+(IC-CC+1)}=IC×IR。
参照图4,特征图存储模块已寄存当前卷积层的输入特征图,其深度为ID。通过实例化ID个通用卷积运算IP核构建虚线框单个卷积核硬件结构,再实例化该卷积层的n个卷积核增加通道数量,实现卷积核并行卷积运算。实例化的卷积运算IP核、卷积核和冒泡法控制器构建不同规模的CNN卷积层。经过卷积运算的特征图仍存储于特征图存储模块。
参照图5,池化运算IP核的硬件结构与卷积运算IP核相似,首先将特征图存储模块中存储的上一层输出特征图数据以数据流形式读入池化运算IP核的输入特征图缓存器,缓存器为可配置深度的寄存器组,深度为IC×(CR-1)+CC。手动修改池化运算IP核的参数IC和CR适应不同输入特征图尺寸从而支持不同规模的卷积神经网络搭建。
输入特征图数据流持续流入输入特征图缓存器时,实现了池化运算IP核的滑动平移。本发明定义池化过滤器的尺寸为2×2,步长为2,因此移位缓存器的固定地址区间:{IC×0+0,IC×0+1},{IC×1+0,IC×1+1}与比较器的输入端口连接。比较器将4个数据最大值作为输出特征图的特征点存储于特征图存储模块。
冒泡法池化层需要搭配冒泡法控制器,结合图6对池化层的冒泡法时序控制逻辑进行详细说明:
参照图6,池化层的冒泡法时序控制逻辑有4个时钟序列,分别为读输入特征图序列、列有效序列、行有效序列和池化过程序列。池化层需要从特征图存储模块中按行逐列读取输入特征图的数据进入池化运算IP核。4个时钟序列内等待区间表示输入特征图的数据流正在填满池化运算IP核内的缓存器,延迟时钟周期:clkwait=(CR-1)×IC+CC-1。
结合图6,读输入特征图序列阴影区间表示输入特征图数据已填满池化运算IP核的缓存器,池化过程开始。冒泡法控制器使输入特征图按一个时钟周期输入一个数据逐列逐行进入池化运算IP核的缓存器,此过程实际上导致过滤器的覆盖部分移动步长为1,与本发明不符。因此,列有效序列对池化的输出数据进行取舍,从输入特征图数据填满池化运算IP核的缓存器开始,第一个结果为输出特征图的有效数据,下一个时钟周期进入缓存器后得到的结果为无效数据,依次类推。列有效序列阴影区间表示输出特征图的列有效数据。
池化过滤器步长为2,当缓存器按照原始时钟周期移位存储数据时,过滤器的覆盖部分的跨行后的步长实际为1,因此跨行后下一行的输出特征图数据为无效数据,参照图6行有效序列内的空白区域。
池化过程序列与卷积过程序列类似,结合图6,将池化过程视为液体,将列有效序列中无效数据和行有效序列中的无效数据即空白区间视为气体,池化过程相当于将液体中的空气排出的过程,因此称为冒泡法。池化过程序列的阴影区间表示有效数据,存入特征图存储模块中。
冒泡法池化层的硬件结构参照图7,冒泡法池化层包含一个池化核和一个冒泡法控制器。实例化ID个池化运算IP核构建池化过滤器,实例化冒泡法控制器控制池化过滤器对输入特征图处理。池化过滤器在CNN只有1个,但构建池化过滤器的池化运算IP核数量并不固定,原因在于池化层一般跟随卷积层,特征图通过卷积层后产生的输出特征图深度并不固定,因此需人为修改池化过滤器内的池化运算IP核的个数。
实例化的池化运算IP核、池化过滤器和冒泡法控制器构建不同规模的CNN池化层。经过池化运算的特征图仍存储于特征图存储模块。
CNN模型最后一层通常为全连接层,全连接层的算法模型参照图8。图8(a)表示单层全连接神经网络,有n个输入节点和m个输出节点。x代表输入节点的数值,y代表输出节点的数值。图8(b)以y1输出节点为例,任意一个输出节点的数值结果根据下式计算:
CNN前馈过程中,全连接层起到“分类器”的作用。卷积层、池化层等操作是将原始数据映射到特征空间,全连接层将学到的“分布式特征表示”映射到样本标记空间。全连接层的结果通过softmax函数进行概率分布计算,即可得到有效的图像分类,该分类可实现最终的图像识别。
图9,具体描述了全连接运算IP核的内部硬件结构。
全连接运算IP核负责权值参数和输入节点数据的运算,并将运算结果通过Outnode端口输出,结果为输出节点的数值。全连接运算IP核包含计数器、累加器、乘法器和加法器。每一个输入节点与任何一个输出节点均有一一对应的权值参数,每个输出节点均有一一对应的偏置参数。结合图8(b),第一个输出节点的数值由n个输入节点和n×m个权值参数的前n个参数进行一一对应的乘加计算并与偏置相加,同理第二个输入节点数值仍然由n个输入节点和n×m个权值参数的第二组n个参数进行运算并与偏置相加。
参照图9,输入节点的n个数据需要进行m次循环读取,权值参数数据进行顺序读取,可以保证每个输入节点的数据和权值参数一一对应。第一个时钟周期全连接运算IP核分别通过f data和w_data端口输入第一对输入节点数据x1和权值参数w1,x1和w1首先进行乘法计算将结果输入累加器暂存;第二个时钟周期输入x2和w2进行乘法计算并与累加器中x1×w1的结果进行累加,累加结果暂存于累加器中。以此类推,当n个时钟周期后累加器完成了n次乘法累加运算,计数器控制门开关打开输出累加结果再与偏置参数(Bias)相加,最后的结果通过Outnode端口输出。该结果由下式计算得到:
y1=x1×w1+x2×w2+…+xn×wn+bias1
n个时钟周期可以得到输出节点中第一个节点的结果。同理,第二个输出节点需要重新读入输入节点数据和权值参数,经过n个时钟周期计算完成第二个输出节点的结果。由于输出节点个数为m个,因此需要n×m个时钟周期才可得到所有输出节点的结果。
全连接运算IP核负责输入节点数据和对应权值参数并计算,最后m个输出节点数据只需要判断数据的大小,最终完成全连接层前馈过程。
参照图10,具体描述了全连接层控制器的硬件结构,结合图8对全连接层控制器的时序控制逻辑进行详细描述:
全连接层控制器负责输入节点的数据、权值参数和偏置参数访存等操作。全连接层控制器的硬件结构参照图10所示。输入特征图读地址器和权值参数读地址器每个时钟周期输出一个地址信号,分别从特征图存储模块和参数存储模块各读取一个数据同时进入全连接运算IP核。偏置参数读地址器需要通过计数器控制,当读完第一个输出节点所有输入节点参数和权值参数后读取第一个输出节点对应的偏置参数。
结合图8,假设全连接层的输入节点个数为n个,输出节点个数为m个,输入特征图读地址器循环周期为n个时钟周期,权值参数读地址器循环周期为n×m个时钟周期,偏置参数读地址器为每n个时钟周期读一个数据。全连接层完成计算所需时间为n×m个时钟周期。
参照图11,实例化的全连接运算IP核、全连接层控制器构建不同规模的CNN池化层。图11(a)是单层全连接神经网络原理图,图11(b)是该层全连接神经网络硬件结构图。其中x1,x2,...,xn表示全连接层有n个输入节点,y1表示多个输出节点的其中一个,w1,w2,...,wn表示计算y1输出节点的权值参数。
CNN网络结构中全连接层的上一层通常为池化层或卷积层,因此需要将二维或三维的输出特征图转化为一维的数据流进行存储。全连接层控制需从特征图存储模块中循环读取n个输入特征图的数据并通过f_data端口进入全连接运算IP核。同时全连接层的n×m个权值参数和m个偏置参数分别修改为(n×m,1)和(m,1)的一维矩阵形式,全连接层控制器从参数存储器中顺序读取权值参数和偏置参数数据,分别通过w_data和Bias端口进入全连接运算IP核。
全连接神经网络在训练过程中需要softmax层进行概率分布计算,但在CNN前馈过程中,只需要分辨结果的大小,即可将不同的图片进行分类,因此硬件结构中不需要softmax层。
通过以上步骤,使用基于FPGA的卷积神经网络IP核可构建任意规模的卷积神经网络硬件结构对卷积神经网络前馈过程进行加速,但仍需要周边模块支持该卷积神经网络加速器。周边模块包括特征图存储模块和参数存储模块。
特征图存储模块缓存各维度的全局特征图,内部结构由可配置深度的寄存器组组成的移位缓存器构成。单个移位缓存器缓存三维特征图中一个单位深度的二维特征图,缓存器深度为特征图行×列所有特征点个数,缓存器的个数为三维特征图的深度。特征图存储模块的输入端口与各层控制器对应的地址端口点对点连接,输出端口与各神经网络层IP核输入端口连接。
参数存储模块由只读存储器构成,将PC端训练完成的各神经网络层的权值参数、偏置参数作为只读存储器的初始文件存储于参数存储模块,其输入端口与各层控制器对应的地址端口连接访问数据,输出端口与各层IP核对应数据输入端口连接读出数据。
搭建完成的卷积神经网络硬件加速器需要外部设备微控制单元(MicroController Unit,MCU)对卷积过程调控。结合图1,对MCU控制***进行详细描述:
表2MCU控制状态
状态 说明
IDLE 空闲状态,也是MCU内状态机的初始状态
Start 开始状态,控制各卷积层及特征图存储模块内寄存器数据归零
Conv1 第一层卷积层使能信号拉高,进行卷积运算
Pool1 第一层卷积层使能信号拉低,跟随第一层卷积层的池化层使能信号拉高,进行池化运算
FCN 神经网络内卷积层和池化层的使能信号拉低,全连接层使能信号拉高,进行全连接运算
表3表示MCU状态跳转条件及汇编指令协议
现态 次胎 跳转条件
IDLE Start FPGA外部Switcher拉高,表示图像开始进入卷积神经网络加速器
Start Conv1 片上存储完成图像二值化并存储,汇编指令为[00...0001],位宽为神经网络层个数
Conv1 Pool1 经过IC×IR个时钟周期完成卷积运算,汇编指令为[00...0010]
Pool1 Conv2 经过IC×IR个时钟周期完成卷积运算,汇编指令为[00...0100]
Conv2 Pool2 经过IC×IR个时钟周期完成卷积运算,汇编指令为[00...1000]
... ... ...
Poolx FCN 完成最后一层池化层运算后,进行全连接层运算,汇编指令为[10...0000]
本发明以MNIST手写数字集作为验证数据集,CNN模型结构由表4表示。分别在E3-1230 V2 CPU、NVIDIA Quadro 4000 GPU和De2i-150 FPGA上原型验证其延迟时间、性能和效率。
表4CNN模型
神经网络层 1 2 3 4 5
ID 1 3 3 6 -
n 3 1 6 1 -
IC=IR 28 24 12 8 -
CC=CR 5 2 5 2 -
步长 1 2 1 2 -
状态 卷积 最大值池化 卷积 最大值池化 全连接
表5各硬件平台卷积神经网络前馈过程延迟时间对比
神经网络层 本设计 GPU CPU
第一层(占用率) 7.84×10<sup>-6</sup>s(31.0%) 8.52×10<sup>-3</sup>s(31.4%) 1.13×10<sup>-2</sup>s(30.4%)
第二层(占用率) 5.76×10<sup>-6</sup>s(22.8%) 6.63×10<sup>-3</sup>s(24.4%) 1.25×10<sup>-2</sup>s(33.7%)
第三层(占用率) 1.44×10<sup>-6</sup>s(5.7%) 9.00×10<sup>-3</sup>s(33.2%) 0.74×10<sup>-2</sup>s(19.9%)
第四层(占用率) 0.64×10<sup>-6</sup>s(2.5%) 2.58×10<sup>-3</sup>s(9.5%) 0.56×10<sup>-2</sup>s(15.1%)
第五层(占用率) 96×10<sup>-6</sup>s(38.0%) 0.40×10<sup>-3</sup>s(1.5%) 0.03×10<sup>-2</sup>s(0.9%)
耗时 25.28×10<sup>-6</sup>s(100%) 27.13×10<sup>-3</sup>s(100%) 3.71×10<sup>-2</sup>s(100%)
比例 1.00x 1073.18x 1468.35x
表6基于FPGA的卷积神经网络IP核构成的加速器性能
表7基于FPGA的卷积神经网络IP核构成的加速器功耗及效率
参照图12,基于FPGA的卷积神经网络IP核构建的硬件加速器在FPGA上实测功率。采用TECMAN公司的TM9型号微型电力检测仪测量功率。单张图片进行图像识别时FPGA的功率为1.69W,与表7中的数据对应。

Claims (9)

1.基于FPGA的卷积神经网络IP核,其特征在于,具体IP核和组成模块包含卷积运算IP核、池化运算IP核、全连接运算IP核、冒泡法卷积层、冒泡法池化层、全连接层、特征图存储模块和参数存储模块;所述各IP核构成的神经网络层与参数存储模块和特征图存储模块内部互连,共同构成的硬件结构与所需的卷积神经网络算法结构保持一致。
2.根据权利要求1所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的卷积运算IP核,包含输入特征图缓存器、权值参数缓存器、乘法器、加法器和激活函数模块:
1)卷积运算IP核每个时钟周期按行逐个读取特征图内特征点形成数据流;输入特征图缓存器为可配置深度的寄存器组,用于移位缓存输入特征图的数据流,其根据输入特征图的行列数修改寄存器组深度,支持不同规模的卷积神经网络,且固定地址区间的输入特征图数据与乘法器连接;
2)权值参数缓存器为可配置深度的寄存器组,用于移位缓存权值参数,当寄存器组被权值参数填满后固定不变;权值参数缓存器的硬件结构与输入特征图缓存器相同,即相同固定地址区间的权值参数数据与乘法器连接;
3)与输入特征图缓存器和权值参数缓存器固定地址区间连接的乘法器与加法器组成一个乘法-加法对,特征图内特征点和对应的权值参数构成完整的卷积运算;
4)卷积运算IP核采用常见的ReLU激活函数,激活函数模块为MUX多路选择器,等同于公式f(x)=max(0,x)。
3.根据权利要求1所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的池化运算IP核,包含输入特征图缓存器和比较器:
1)输入特征图缓存器为可配置深度的寄存器组,用于移位缓存输入特征图数据流,可根据输入特征图的行列数修改寄存器组深度以支持不同规模的卷积神经网络,且固定地址区间的输入特征图数据与比较器连接;
2)比较器的输入端口与输入特征图缓存器的4个固定地址区间连接,输出端口为此4个数据中的最大值。
4.根据权利要求1所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的全连接运算IP核,包含计数器、累加器、乘法器和加法器:
1)乘法器分别输入一一对应的输入节点数据和权值参数,完成输入节点和权值参数的乘法运算;
2)累加器由一个寄存器和一个加法器构成,乘法器的运算结果输入累加器的寄存器并与下一个时钟周期的乘法结果累加,组成乘累加运算;
3)计数器控制乘累加运算的迭代周期,完成一个迭代周期后计数器控制乘累加结果与输出节点对应的偏值参数相加。
5.根据权利要求1所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的冒泡法卷积层,包含冒泡法控制器和卷积运算IP核:
1)1)冒泡法控制器的三个时钟序列分别为读输入特征图序列、读权值参数序列和卷积过程序列;读输入特征图序列和读权值参数序列的等待区间为输入特征图数据和权值参数数据分别进入卷积运算IP核输入特征图缓存器和权值参数缓存器的时间,该区间卷积结果无效;读权值参数序列的保持区间为权值参数数据填满权值参数缓存器并保持固定的时间,该区间内输入特征图数据流通过输入特征图缓存器,此过程实际为卷积处理过程,该区间卷积结果部分有效;卷积过程序列的等待区间与输入特征图序列和读权值参数序列相同;卷积运算过程的有效区间表示输出特征图的数据有效,即卷积核未跨行产生的有效结果;无效区间表示输出特征图的数据无效,即卷积核跨行产生的无效结果;假设卷积过程为液体,无效区间为气体,则卷积过程的有效结果相当于从液体中排出多余气体,故称为冒泡法;
2)通过堆叠与输入特征图深度相同个数的卷积运算IP核构成该卷积层的单个卷积核,实例化该卷积层所需的卷积核,与冒泡法控制器共同构成冒泡法卷积层。
6.根据权利要求1所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的冒泡法池化层,包含冒泡法控制器和池化运算IP核:
1)冒泡法控制器的四个时钟序列分别为读输入特征图序列、列有效序列、行有效序列和池化过程序列;四个时钟序列的等待区间为输入特征图数据进入池化运算IP核输入特征图缓存器的时间,该区间池化结果无效;列有效序列每个有效的池化结果相隔一个无效的池化结果,表示池化滤波列步长为2;行有效序列每段有效行的结果相隔一段无效行的结果,表示池化滤波行步长为2;假设池化过程为液体,列有效序列和行有效序列的无效池化结果为气体,则池化过程相当于从液体中排出多余气体,与冒泡法卷积层控制器类似,故称为冒泡法;
2)通过堆叠与输入特征图深度相同个数的池化运算IP核构成池化层的单个池化核,与冒泡法控制器共同构成冒泡法池化层。
7.根据权利要求1所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的全连接层,包含全连接层控制器和全连接运算IP核:
1)全连接层控制器包含权值参数读地址器、偏置参数读地址器、计数器和输入特征图读地址器;输入特征图读地址器和权值参数读地址器每个时钟周期输出一个地址信号,分别读取一一对应的输入节点和权值参数数据进入全连接运算IP核;偏置参数读地址器通过计数器控制,完成第一个输出节点的乘累加后读取第一个输出节点对应的偏置参数;
2)全连接层控制器的控制端口与特征图存储模块和参数存储模块对应端口点对点连接,与全连接运算IP核共同构成全连接层。
8.根据权利要求1所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的特征图存储模块包含对应各维度的全局特征图缓存,内部结构由移位缓存器构成;缓存器深度为特征图行×列所有特征点个数,缓存器个数为三维特征图的深度,特征图存储模块的输入端口与各层控制器对应的地址端口点对点连接,输出端口与各神经网络层IP核输入端口连接。
9.根据权利要求1所述的基于FPGA的卷积神经网络IP核,其特征在于,所述的参数存储模块包含该卷积神经网络模型的全局权值参数和偏置参数,与各神经网络层内部互联。
CN201910038533.1A 2019-01-16 2019-01-16 基于fpga的卷积神经网络ip核 Active CN109784489B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910038533.1A CN109784489B (zh) 2019-01-16 2019-01-16 基于fpga的卷积神经网络ip核

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910038533.1A CN109784489B (zh) 2019-01-16 2019-01-16 基于fpga的卷积神经网络ip核

Publications (2)

Publication Number Publication Date
CN109784489A true CN109784489A (zh) 2019-05-21
CN109784489B CN109784489B (zh) 2021-07-30

Family

ID=66500538

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910038533.1A Active CN109784489B (zh) 2019-01-16 2019-01-16 基于fpga的卷积神经网络ip核

Country Status (1)

Country Link
CN (1) CN109784489B (zh)

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263925A (zh) * 2019-06-04 2019-09-20 电子科技大学 一种基于fpga的卷积神经网络前向预测的硬件加速实现架构
CN110399591A (zh) * 2019-06-28 2019-11-01 苏州浪潮智能科技有限公司 基于卷积神经网络的数据处理方法和装置
CN110472442A (zh) * 2019-08-20 2019-11-19 厦门理工学院 一种自动检测硬件木马ip核
CN110489077A (zh) * 2019-07-23 2019-11-22 福州瑞芯微电子股份有限公司 一种神经网络加速器的浮点乘法运算电路和方法
CN110543939A (zh) * 2019-06-12 2019-12-06 电子科技大学 一种基于fpga的卷积神经网络后向训练的硬件加速实现架构
CN110717588A (zh) * 2019-10-15 2020-01-21 百度在线网络技术(北京)有限公司 用于卷积运算的装置和方法
CN110780923A (zh) * 2019-10-31 2020-02-11 合肥工业大学 应用于二值化卷积神经网络的硬件加速器及其数据处理方法
CN110782022A (zh) * 2019-10-31 2020-02-11 福州大学 一种面向可编程逻辑器件移动终端的小型神经网络的实现方法
CN110929860A (zh) * 2019-11-07 2020-03-27 深圳云天励飞技术有限公司 一种卷积加速运算方法、装置、存储介质及终端设备
CN110991632A (zh) * 2019-11-29 2020-04-10 电子科技大学 一种基于fpga的异构神经网络计算加速器设计方法
CN111210019A (zh) * 2020-01-16 2020-05-29 电子科技大学 一种基于软硬件协同加速的神经网络推断方法
CN111242289A (zh) * 2020-01-19 2020-06-05 清华大学 一种规模可扩展的卷积神经网络加速***与方法
CN111242295A (zh) * 2020-01-20 2020-06-05 清华大学 一种可配置池化算子的方法及电路
CN111325327A (zh) * 2020-03-06 2020-06-23 四川九洲电器集团有限责任公司 基于嵌入式平台的通用卷积神经网络运算架构与使用方法
CN111339027A (zh) * 2020-02-25 2020-06-26 中国科学院苏州纳米技术与纳米仿生研究所 可重构的人工智能核心与异构多核芯片的自动设计方法
CN111427838A (zh) * 2020-03-30 2020-07-17 电子科技大学 基于zynq动态更新卷积神经网络的分类***及方法
CN111563582A (zh) * 2020-05-06 2020-08-21 哈尔滨理工大学 一种在fpga上实现及优化加速卷积神经网络的方法
CN111582451A (zh) * 2020-05-08 2020-08-25 中国科学技术大学 图像识别层间并行流水线型二值化卷积神经网络阵列架构
CN111797982A (zh) * 2020-07-31 2020-10-20 北京润科通用技术有限公司 基于卷积神经网络的图像处理***
CN111860781A (zh) * 2020-07-10 2020-10-30 逢亿科技(上海)有限公司 基于fpga实现的卷积神经网络特征解码***
CN111914999A (zh) * 2020-07-30 2020-11-10 云知声智能科技股份有限公司 一种减小神经网络加速器计算带宽的方法和设备
CN111931925A (zh) * 2020-08-10 2020-11-13 西安电子科技大学 基于fpga的二值化神经网络的加速***
CN112100118A (zh) * 2020-08-05 2020-12-18 中科驭数(北京)科技有限公司 神经网络计算方法、装置和存储介质
WO2021017378A1 (zh) * 2019-08-01 2021-02-04 上海安路信息科技有限公司 基于fpga的卷积参数加速装置、数据读写方法
CN112346704A (zh) * 2020-11-23 2021-02-09 华中科技大学 一种用于卷积神经网络的全流水线型乘加单元阵列电路
TWI719512B (zh) * 2019-06-24 2021-02-21 瑞昱半導體股份有限公司 使用像素通道置亂的卷積神經網路的演算方法與系統
CN112435270A (zh) * 2020-12-31 2021-03-02 杭州电子科技大学 一种便携式烧伤深度鉴定设备及其设计方法
CN112506087A (zh) * 2019-09-16 2021-03-16 阿里巴巴集团控股有限公司 Fpga加速***和方法、电子设备以及计算机可读存储介质
CN112732638A (zh) * 2021-01-22 2021-04-30 上海交通大学 基于ctpn网络的异构加速***及方法
CN112905213A (zh) * 2021-03-26 2021-06-04 中国重汽集团济南动力有限公司 一种基于卷积神经网络实现ecu刷写参数优化的方法及***
CN112926733A (zh) * 2021-03-10 2021-06-08 之江实验室 一种语音关键词检测专用芯片
CN112949107A (zh) * 2019-12-10 2021-06-11 通用汽车环球科技运作有限责任公司 用于应力分布预测的复合神经网络架构
CN112966807A (zh) * 2019-12-13 2021-06-15 上海大学 基于存储资源受限fpga的卷积神经网络实现方法
CN113065647A (zh) * 2021-03-30 2021-07-02 西安电子科技大学 加速神经网络的计算-存储通信***及通信方法
CN113301221A (zh) * 2021-03-19 2021-08-24 西安电子科技大学 一种深度网络相机图像处理方法、***及应用
CN113298237A (zh) * 2021-06-23 2021-08-24 东南大学 一种基于fpga的卷积神经网络片上训练加速器
CN113344179A (zh) * 2021-05-31 2021-09-03 哈尔滨理工大学 基于fpga的二值化卷积神经网络算法的ip核
US11170300B2 (en) 2020-01-23 2021-11-09 UMNAI Limited Explainable neural net architecture for multidimensional data
CN113762480A (zh) * 2021-09-10 2021-12-07 华中科技大学 一种基于一维卷积神经网络的时间序列处理加速器
CN113762491A (zh) * 2021-08-10 2021-12-07 南京工业大学 一种基于fpga的卷积神经网络加速器
CN113778940A (zh) * 2021-09-06 2021-12-10 电子科技大学 基于fpga的高精度可重构相位调整ip核
CN114781629A (zh) * 2022-04-06 2022-07-22 合肥工业大学 基于并行复用的卷积神经网络的硬件加速器及并行复用方法
CN115145839A (zh) * 2021-03-31 2022-10-04 广东高云半导体科技股份有限公司 一种深度卷积加速器及其实现加速深度卷积的方法
WO2023131252A1 (zh) * 2022-01-06 2023-07-13 深圳鲲云信息科技有限公司 基于数据流架构的图像尺寸调整结构、调整方法及图像缩放方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150294219A1 (en) * 2014-04-11 2015-10-15 Google Inc. Parallelizing the training of convolutional neural networks
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核
CN108229670A (zh) * 2018-01-05 2018-06-29 中国科学技术大学苏州研究院 基于fpga的深度神经网络加速平台
CN108665059A (zh) * 2018-05-22 2018-10-16 中国科学技术大学苏州研究院 基于现场可编程门阵列的卷积神经网络加速***
CN109032781A (zh) * 2018-07-13 2018-12-18 重庆邮电大学 一种卷积神经网络算法的fpga并行***
CN109086867A (zh) * 2018-07-02 2018-12-25 武汉魅瞳科技有限公司 一种基于fpga的卷积神经网络加速***
US20190213689A1 (en) * 2017-04-11 2019-07-11 Alibaba Group Holding Limited Image-based vehicle damage determining method and apparatus, and electronic device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150294219A1 (en) * 2014-04-11 2015-10-15 Google Inc. Parallelizing the training of convolutional neural networks
CN106940815A (zh) * 2017-02-13 2017-07-11 西安交通大学 一种可编程卷积神经网络协处理器ip核
US20190213689A1 (en) * 2017-04-11 2019-07-11 Alibaba Group Holding Limited Image-based vehicle damage determining method and apparatus, and electronic device
CN108229670A (zh) * 2018-01-05 2018-06-29 中国科学技术大学苏州研究院 基于fpga的深度神经网络加速平台
CN108665059A (zh) * 2018-05-22 2018-10-16 中国科学技术大学苏州研究院 基于现场可编程门阵列的卷积神经网络加速***
CN109086867A (zh) * 2018-07-02 2018-12-25 武汉魅瞳科技有限公司 一种基于fpga的卷积神经网络加速***
CN109032781A (zh) * 2018-07-13 2018-12-18 重庆邮电大学 一种卷积神经网络算法的fpga并行***

Cited By (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263925B (zh) * 2019-06-04 2022-03-15 电子科技大学 一种基于fpga的卷积神经网络前向预测的硬件加速实现装置
CN110263925A (zh) * 2019-06-04 2019-09-20 电子科技大学 一种基于fpga的卷积神经网络前向预测的硬件加速实现架构
CN110543939B (zh) * 2019-06-12 2022-05-03 电子科技大学 一种基于fpga的卷积神经网络后向训练的硬件加速实现装置
CN110543939A (zh) * 2019-06-12 2019-12-06 电子科技大学 一种基于fpga的卷积神经网络后向训练的硬件加速实现架构
TWI719512B (zh) * 2019-06-24 2021-02-21 瑞昱半導體股份有限公司 使用像素通道置亂的卷積神經網路的演算方法與系統
CN110399591A (zh) * 2019-06-28 2019-11-01 苏州浪潮智能科技有限公司 基于卷积神经网络的数据处理方法和装置
CN110489077A (zh) * 2019-07-23 2019-11-22 福州瑞芯微电子股份有限公司 一种神经网络加速器的浮点乘法运算电路和方法
CN110489077B (zh) * 2019-07-23 2021-12-31 瑞芯微电子股份有限公司 一种神经网络加速器的浮点乘法运算电路和方法
WO2021017378A1 (zh) * 2019-08-01 2021-02-04 上海安路信息科技有限公司 基于fpga的卷积参数加速装置、数据读写方法
CN110472442A (zh) * 2019-08-20 2019-11-19 厦门理工学院 一种自动检测硬件木马ip核
CN112506087B (zh) * 2019-09-16 2024-07-23 阿里巴巴集团控股有限公司 Fpga加速***和方法、电子设备以及计算机可读存储介质
CN112506087A (zh) * 2019-09-16 2021-03-16 阿里巴巴集团控股有限公司 Fpga加速***和方法、电子设备以及计算机可读存储介质
US11556614B2 (en) 2019-10-15 2023-01-17 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Apparatus and method for convolution operation
CN110717588A (zh) * 2019-10-15 2020-01-21 百度在线网络技术(北京)有限公司 用于卷积运算的装置和方法
CN110717588B (zh) * 2019-10-15 2022-05-03 阿波罗智能技术(北京)有限公司 用于卷积运算的装置和方法
CN110780923B (zh) * 2019-10-31 2021-09-14 合肥工业大学 应用于二值化卷积神经网络的硬件加速器及其数据处理方法
CN110782022A (zh) * 2019-10-31 2020-02-11 福州大学 一种面向可编程逻辑器件移动终端的小型神经网络的实现方法
CN110780923A (zh) * 2019-10-31 2020-02-11 合肥工业大学 应用于二值化卷积神经网络的硬件加速器及其数据处理方法
CN110929860B (zh) * 2019-11-07 2020-10-23 深圳云天励飞技术有限公司 一种卷积加速运算方法、装置、存储介质及终端设备
CN110929860A (zh) * 2019-11-07 2020-03-27 深圳云天励飞技术有限公司 一种卷积加速运算方法、装置、存储介质及终端设备
CN110991632A (zh) * 2019-11-29 2020-04-10 电子科技大学 一种基于fpga的异构神经网络计算加速器设计方法
CN110991632B (zh) * 2019-11-29 2023-05-23 电子科技大学 一种基于fpga的异构神经网络计算加速器设计方法
CN112949107A (zh) * 2019-12-10 2021-06-11 通用汽车环球科技运作有限责任公司 用于应力分布预测的复合神经网络架构
CN112966807A (zh) * 2019-12-13 2021-06-15 上海大学 基于存储资源受限fpga的卷积神经网络实现方法
CN112966807B (zh) * 2019-12-13 2022-09-16 上海大学 基于存储资源受限fpga的卷积神经网络实现方法
CN111210019B (zh) * 2020-01-16 2022-06-24 电子科技大学 一种基于软硬件协同加速的神经网络推断方法
CN111210019A (zh) * 2020-01-16 2020-05-29 电子科技大学 一种基于软硬件协同加速的神经网络推断方法
CN111242289A (zh) * 2020-01-19 2020-06-05 清华大学 一种规模可扩展的卷积神经网络加速***与方法
CN111242295A (zh) * 2020-01-20 2020-06-05 清华大学 一种可配置池化算子的方法及电路
US11816587B2 (en) 2020-01-23 2023-11-14 UMNAI Limited Explainable neural net architecture for multidimensional data
US11170300B2 (en) 2020-01-23 2021-11-09 UMNAI Limited Explainable neural net architecture for multidimensional data
CN111339027B (zh) * 2020-02-25 2023-11-28 中国科学院苏州纳米技术与纳米仿生研究所 可重构的人工智能核心与异构多核芯片的自动设计方法
CN111339027A (zh) * 2020-02-25 2020-06-26 中国科学院苏州纳米技术与纳米仿生研究所 可重构的人工智能核心与异构多核芯片的自动设计方法
CN111325327A (zh) * 2020-03-06 2020-06-23 四川九洲电器集团有限责任公司 基于嵌入式平台的通用卷积神经网络运算架构与使用方法
CN111325327B (zh) * 2020-03-06 2022-03-08 四川九洲电器集团有限责任公司 基于嵌入式平台的通用卷积神经网络运算架构与使用方法
CN111427838A (zh) * 2020-03-30 2020-07-17 电子科技大学 基于zynq动态更新卷积神经网络的分类***及方法
CN111563582A (zh) * 2020-05-06 2020-08-21 哈尔滨理工大学 一种在fpga上实现及优化加速卷积神经网络的方法
CN111582451B (zh) * 2020-05-08 2022-09-06 中国科学技术大学 图像识别层间并行流水线型二值化卷积神经网络阵列架构
CN111582451A (zh) * 2020-05-08 2020-08-25 中国科学技术大学 图像识别层间并行流水线型二值化卷积神经网络阵列架构
CN111860781A (zh) * 2020-07-10 2020-10-30 逢亿科技(上海)有限公司 基于fpga实现的卷积神经网络特征解码***
CN111914999A (zh) * 2020-07-30 2020-11-10 云知声智能科技股份有限公司 一种减小神经网络加速器计算带宽的方法和设备
CN111914999B (zh) * 2020-07-30 2024-04-19 云知声智能科技股份有限公司 一种减小神经网络加速器计算带宽的方法和设备
CN111797982A (zh) * 2020-07-31 2020-10-20 北京润科通用技术有限公司 基于卷积神经网络的图像处理***
CN112100118B (zh) * 2020-08-05 2021-09-10 中科驭数(北京)科技有限公司 神经网络计算方法、装置和存储介质
CN112100118A (zh) * 2020-08-05 2020-12-18 中科驭数(北京)科技有限公司 神经网络计算方法、装置和存储介质
CN111931925B (zh) * 2020-08-10 2024-02-09 西安电子科技大学 基于fpga的二值化神经网络的加速***
CN111931925A (zh) * 2020-08-10 2020-11-13 西安电子科技大学 基于fpga的二值化神经网络的加速***
CN112346704A (zh) * 2020-11-23 2021-02-09 华中科技大学 一种用于卷积神经网络的全流水线型乘加单元阵列电路
CN112346704B (zh) * 2020-11-23 2021-09-17 华中科技大学 一种用于卷积神经网络的全流水线型乘加单元阵列电路
CN112435270B (zh) * 2020-12-31 2024-02-09 杭州电子科技大学 一种便携式烧伤深度鉴定设备及其设计方法
CN112435270A (zh) * 2020-12-31 2021-03-02 杭州电子科技大学 一种便携式烧伤深度鉴定设备及其设计方法
CN112732638A (zh) * 2021-01-22 2021-04-30 上海交通大学 基于ctpn网络的异构加速***及方法
CN112732638B (zh) * 2021-01-22 2022-05-06 上海交通大学 基于ctpn网络的异构加速***及方法
CN112926733A (zh) * 2021-03-10 2021-06-08 之江实验室 一种语音关键词检测专用芯片
CN112926733B (zh) * 2021-03-10 2022-09-16 之江实验室 一种语音关键词检测专用芯片
CN113301221A (zh) * 2021-03-19 2021-08-24 西安电子科技大学 一种深度网络相机图像处理方法、***及应用
CN112905213B (zh) * 2021-03-26 2023-08-08 中国重汽集团济南动力有限公司 一种基于卷积神经网络实现ecu刷写参数优化的方法及***
CN112905213A (zh) * 2021-03-26 2021-06-04 中国重汽集团济南动力有限公司 一种基于卷积神经网络实现ecu刷写参数优化的方法及***
CN113065647B (zh) * 2021-03-30 2023-04-25 西安电子科技大学 加速神经网络的计算-存储通信***及通信方法
CN113065647A (zh) * 2021-03-30 2021-07-02 西安电子科技大学 加速神经网络的计算-存储通信***及通信方法
CN115145839A (zh) * 2021-03-31 2022-10-04 广东高云半导体科技股份有限公司 一种深度卷积加速器及其实现加速深度卷积的方法
CN115145839B (zh) * 2021-03-31 2024-05-14 广东高云半导体科技股份有限公司 一种深度卷积加速器及其实现加速深度卷积的方法
CN113344179A (zh) * 2021-05-31 2021-09-03 哈尔滨理工大学 基于fpga的二值化卷积神经网络算法的ip核
CN113344179B (zh) * 2021-05-31 2022-06-14 哈尔滨理工大学 基于fpga的二值化卷积神经网络算法的ip核
CN113298237A (zh) * 2021-06-23 2021-08-24 东南大学 一种基于fpga的卷积神经网络片上训练加速器
CN113298237B (zh) * 2021-06-23 2024-05-14 东南大学 一种基于fpga的卷积神经网络片上训练加速器
CN113762491B (zh) * 2021-08-10 2023-06-30 南京工业大学 一种基于fpga的卷积神经网络加速器
CN113762491A (zh) * 2021-08-10 2021-12-07 南京工业大学 一种基于fpga的卷积神经网络加速器
CN113778940B (zh) * 2021-09-06 2023-03-07 电子科技大学 基于fpga的高精度可重构相位调整ip核
CN113778940A (zh) * 2021-09-06 2021-12-10 电子科技大学 基于fpga的高精度可重构相位调整ip核
CN113762480B (zh) * 2021-09-10 2024-03-19 华中科技大学 一种基于一维卷积神经网络的时间序列处理加速器
CN113762480A (zh) * 2021-09-10 2021-12-07 华中科技大学 一种基于一维卷积神经网络的时间序列处理加速器
WO2023131252A1 (zh) * 2022-01-06 2023-07-13 深圳鲲云信息科技有限公司 基于数据流架构的图像尺寸调整结构、调整方法及图像缩放方法和装置
CN114781629B (zh) * 2022-04-06 2024-03-05 合肥工业大学 基于并行复用的卷积神经网络的硬件加速器及并行复用方法
CN114781629A (zh) * 2022-04-06 2022-07-22 合肥工业大学 基于并行复用的卷积神经网络的硬件加速器及并行复用方法

Also Published As

Publication number Publication date
CN109784489B (zh) 2021-07-30

Similar Documents

Publication Publication Date Title
CN109784489A (zh) 基于fpga的卷积神经网络ip核
Feng et al. Computer vision algorithms and hardware implementations: A survey
CN111967468B (zh) 一种基于fpga的轻量级目标检测神经网络的实现方法
CN106951395B (zh) 面向压缩卷积神经网络的并行卷积运算方法及装置
CN108537331A (zh) 一种基于异步逻辑的可重构卷积神经网络加速电路
CN108256628B (zh) 基于多播片上网络的卷积神经网络硬件加速器及其工作方法
CN106228240A (zh) 基于fpga的深度卷积神经网络实现方法
CN110175671A (zh) 神经网络的构建方法、图像处理方法及装置
CN107341544A (zh) 一种基于可分割阵列的可重构加速器及其实现方法
CN111210019B (zh) 一种基于软硬件协同加速的神经网络推断方法
CN106940815A (zh) 一种可编程卷积神经网络协处理器ip核
CN108256636A (zh) 一种基于异构计算的卷积神经网络算法设计实现方法
CN107239824A (zh) 用于实现稀疏卷积神经网络加速器的装置和方法
Tsai et al. Implementation of FPGA-based accelerator for deep neural networks
CN109409511A (zh) 一种用于动态可重构阵列的卷积运算数据流调度方法
CN113051216B (zh) 一种基于FPGA加速的MobileNet-SSD目标检测装置及方法
Chang et al. A memory-optimized and energy-efficient CNN acceleration architecture based on FPGA
Peemen et al. The neuro vector engine: Flexibility to improve convolutional net efficiency for wearable vision
Duan et al. Energy-efficient architecture for FPGA-based deep convolutional neural networks with binary weights
Li et al. Fsa: A fine-grained systolic accelerator for sparse cnns
Lin et al. High utilization energy-aware real-time inference deep convolutional neural network accelerator
CN114359662A (zh) 一种基于异构fpga和融合多分辨率的卷积神经网络的实现方法
CN117217274B (zh) 向量处理器、神经网络加速器、芯片及电子设备
Wang et al. An FPGA-based online reconfigurable CNN edge computing device for object detection
Jiang et al. Hardware implementation of depthwise separable convolution neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant