CN112200305A - 一种神经网络加速协处理器、处理***及处理方法 - Google Patents

一种神经网络加速协处理器、处理***及处理方法 Download PDF

Info

Publication number
CN112200305A
CN112200305A CN202011069950.1A CN202011069950A CN112200305A CN 112200305 A CN112200305 A CN 112200305A CN 202011069950 A CN202011069950 A CN 202011069950A CN 112200305 A CN112200305 A CN 112200305A
Authority
CN
China
Prior art keywords
instruction
data
coprocessor
input
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011069950.1A
Other languages
English (en)
Inventor
张树华
仝杰
张鋆
赵传奇
王辰
张明皓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Corp of China SGCC
China Electric Power Research Institute Co Ltd CEPRI
Electric Power Research Institute of State Grid Jiangsu Electric Power Co Ltd
Original Assignee
State Grid Corp of China SGCC
China Electric Power Research Institute Co Ltd CEPRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Corp of China SGCC, China Electric Power Research Institute Co Ltd CEPRI filed Critical State Grid Corp of China SGCC
Priority to CN202011069950.1A priority Critical patent/CN112200305A/zh
Publication of CN112200305A publication Critical patent/CN112200305A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/22Microcontrol or microprogram arrangements
    • G06F9/28Enhancement of operational speed, e.g. by using several microcontrol devices operating in parallel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/38Concurrent instruction execution, e.g. pipeline or look ahead
    • G06F9/3877Concurrent instruction execution, e.g. pipeline or look ahead using a slave processor, e.g. coprocessor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Advance Control (AREA)

Abstract

一种神经网络加速协处理器、处理***及处理方法,该***包括协处理器,还包括主处理器和存储器;主处理器,用于发送拓展指令;所述存储器,用于存储数据;协处理器,用于接收主处理器所发送的拓展指令,根据接收到的拓展指令,从存储器中读取输入数据,对输入数据进行神经网络计算,得到输出数据,将所述输出数据存入存储器通过设置协处理器,由协处理器来处理卷积神经网络中的耗时操作,主处理器通过拓展指令,控制协处理器对输入数据进行神经网络计算,降低了CPU的利用率,与纯软件相比,提升卷积运算效率达到20倍以上。

Description

一种神经网络加速协处理器、处理***及处理方法
技术领域
本发明涉及人工智能和芯片设计领域,具体涉及一种神经网络加速协处理器、处理***及处理方法。
背景技术
卷积层是卷积神经网络中的核心计算模块,通常卷积层计算量在整个卷积网络计算中占比超过90%。图1展示的是卷积计算一幅输出特征图的过程,每幅输入特征图对应一个卷积核,输入图中不同颜色的虚线框对应着不同的输出,每一个输出是由不同输入图相同位置和卷积核乘积累加而得到。每一个输出是输入的局部信息处理结果,反映了局部的特征信息,同一输入特征图使用相同卷积核进行特征处理,这是卷积网络中的权重共享机制。卷积层可以完成对输入特征图的局部特征提取,通过卷积核在输入特征图上滑动计算完成整个输入特征图的处理。
卷积层的计算公式如公式1,
Figure BDA0002711927070000011
其中out(f0,x,y)表示第f0幅输出特征图中x,y位置对应的值,W是卷积核权重矩阵,而in表示输入特征图,b表示卷积层的偏置,K是卷积核尺寸,S是卷积核的滑动步长,可以看到一个卷积层输出是由N通道输入特征图中相应区域和卷积核进行乘加累加得到。
从公式1可以看出,卷积中包含大量乘加操作,计算量非常大,通过纯软件的方式去实现,运算效率很低,需要开发一种神经网络加速算法以及外协硬件处理器,与AI指令配合实现算法加速。
发明内容
本发明实施例提供一种神经网络加速协处理器、处理***及处理方法,用以解决当前通过纯软件的方式去处理卷积层计算的运算效率非常低的问题。
本发明一方面的实施例提供一种神经网络加速协处理器,包括控制模块、地址产生模块、乘累加模块和输出饱和模块;
所述地址产生模块用于为输入数据和对应输出数据匹配存储地址;
所述乘累加模块用于进行神经网络卷积运算;
所述输出饱和模块用于限定输出数据的范围,输出运算结果;
所述控制模块用于接收主处理器发送的扩展指令,根据扩展指令控制地址产生模块对输入和对应输出数据匹配地址,按照匹配地址从存储器中读取数据,控制乘累加模块对读取的数据进行卷积计算,控制输出饱和模块输出计算结果,并将输出结果按照匹配的输出数据地址存入存储器中。
优选的,所述扩展指令包括用于初始化卷积参数的配置指令和用于执行卷积运算的运算指令;
所述配置指令为单周期指令,用于配置输入、输出数据的地址、参数和卷积核的参数;
所述运算指令为可变的多周期指令,该指令执行周期数由一级指令中设定的卷积运算的参数决定。
在上述任意一项实施例中优选的,所述配置指令包括下述第一至第六指令;
第一指令用于设定输入、输出张量通道数;
第二指令用于设定输入、输出张量尺寸;
第三指令用于设定卷积核的尺寸和步长;
第四指令用于设定填充大小和滤波器权重数据起始地址;
第五指令用于设定输入、输出数据的起始地址;
第六指令用于设定偏移量和偏差数据起始地址。
在上述任意一项实施例中优选的,还包括控制模块将扩展指令进行解码,根据解码后的扩展指令读取操作数,并将读取的操作数写入寄存器中;所述操作数用于传输输入数据数据在存储器中的存放地址;根据操作数指向的存放地址,从存储器中读取输入数据。
本发明还提供一种神经网络加速处理***,包括上述协处理器,还包括主处理器和存储器;所述
存储器,用于存储数据;
主处理器,用于发送拓展指令;
协处理器,用于接收主处理器所发送的拓展指令,根据接收到的拓展指令,从存储器中读取输入数据,对输入数据进行神经网络计算,得到输出数据,将所述输出数据存入存储器。
本发明还提供一种神经网络加速处理方法,应用于上述处理***,包括以下步骤:
主处理器向协处理器发送扩展指令;
协处理器接收主处理器所发送的扩展指令,根据接收到的扩展指令,从存储器中读取输入数据,对读取的输入数据进行神经网络运算,得到输出数据,将所述输出数据写入存储器中;
主处理器从存储器中读取由协处理器存储的输出数据,完成神经网络算法处理。
在上述任意一项实施例中优选的,主处理器向协处理器发送扩展指令,控制协处理器进行初始化卷积参数的配置和卷积运算的执行;
在所述初始化卷积参数配置中包括单周期配置输入、输出数据的地址、参数和卷积核的参数;所述卷积运算的执行周期由一级指令中设定的卷积运算的参数决定。
在上述任意一项实施例中优选的,在对初始化卷积参数进行配置时,包括如下操作:
设定输入、输出张量通道数;设定输入、输出张量尺寸;设定卷积核的尺寸和步长;设定填充大小和滤波器权重数据起始地址;设定输入、输出数据的起始地址;设定偏移量和偏差数据起始地址。
在上述任意一项实施例中优选的,还包括将每一条扩展指令按照如下编码格式进行编写:
a、指令的第一比特区间为Opcode编码段;b、设定三个比特位,用于控制是否需要读源寄存器和写目标寄存器。
在上述任意一项实施例中优选的,在根据接收到的扩展指令,从存储器中读取输入数据时,还包括所述协处理器将扩展指令进行解码,根据解码后的扩展指令读取操作数,并将读取的操作数写入寄存器中;所述操作数用于传输输入数据数据在存储器中的存放地址;根据操作数指向的存放地址,从存储器中读取输入数据。
有益效果
1、本申请提供的神经网络加速处理方法、协处理器及处理***,处理神经网络时,设置协处理器,由协处理器来处理卷积神经网络中的耗时操作,主处理器通过拓展指令,控制协处理器对输入数据进行神经网络计算,降低了CPU的利用率,与纯软件相比,提升卷积运算效率达到20倍以上;
2、本申请通过扩展指令配置协处理器时,简化了协处理器指令集扩展的方式,设置7条扩展指令,进行参数的初始化和卷积运算的执行,算法简单,提高了***的鲁棒稳定性,满足算法灵活多变的计算要求。
3、本申请的协处理器在对扩展指令进行解码时,会直接将操作数读出来送到寄存器中,利用操作数进行地址传递,相比于直接读写数据地址,读写速度更快,缓冲结构利用率更高。
4、本申请采用的扩展指令编码格式,利用指令的第一比特区间(低七位)作为Opcode编码段,利用该编码段每个指令组和额外的编码空间,可以编码出更多协处理器指令,极大的提高了协处理器的可扩展性。
附图说明
构成本申请的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本申请背景技术中提出的卷积神经网络模型输入输出特征的示意图;
图2为本申请实施例提供的神经网络加速协处理器的结构框图;
图3为本申请实施例提供的神经网络处理***的结构框图;
图4为本申请实施例提供的神经网络加速处理方法的流程图;
图5为本申请实施例中卷积计算协处理器执行流程示意图;
图6为本申请另一个示例的数据加速计算示意图;
具体实施方式
下面将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
以下详细说明均是示例性的说明,旨在对本发明提供进一步的详细说明。除非另有指明,本发明所采用的所有技术术语与本申请所属领域的一般技术人员的通常理解的含义相同。本发明所使用的术语仅是为了描述具体实施方式,而并非意图限制根据本发明的示例性实施方式。
如图2所示,本发明一方面的实施例提供一种神经网络加速协处理器,包括控制模块301、地址产生模块302、乘累加模块303和输出饱和模块304;
所述地址产生模块302用于为输入数据和对应输出数据匹配存储地址;
所述乘累加模块303用于进行神经网络卷积运算;
所述输出饱和模块304用于限定输出数据的范围,输出运算结果;
所述控制模块301用于接收主处理器发送的扩展指令,根据扩展指令控制地址产生模块对输入和对应输出数据匹配地址,按照匹配地址从存储器中读取数据,控制乘累加模块对读取的数据进行卷积计算,控制输出饱和模块输出计算结果,并将输出结果按照匹配的输出数据地址存入存储器中。
其中,扩展指令包括用于初始化卷积参数的配置指令和用于执行卷积运算的运算指令;进一步,配置指令为单周期指令,用于配置输入、输出数据的地址、参数和卷积核的参数;
运算指令为可变的多周期指令,该指令执行周期数由一级指令中设定的卷积运算的参数决定。
所述配置指令包括下述第一至第六指令;
第一指令用于设定输入、输出张量通道数;
第二指令用于设定输入、输出张量尺寸;
第三指令用于设定卷积核的尺寸和步长;
第四指令用于设定填充大小和滤波器权重数据起始地址;
第五指令用于设定输入、输出数据的起始地址;
第六指令用于设定偏移量和偏差数据起始地址。
如图5所示,在本实施例中,对于卷积运算协处理器的实现定义了7条扩展指令,其中6条配置指令分别为设定输入输出张量通道数的INIT_CH、设定输入输出张量尺寸的INIT_IM、设定滤波器核尺寸和步长的INIT_FS、设定填充大小和滤波器权重数据起始地址INIT_PW、设定输入输出数据的起始地址的INIT_IMADDR和设定偏移量和偏差数据起始地址的INIT_BIAS;用来初始化卷积参数的指令;用来参数初始化的几条指令都是单周期指令,当收到相应的指令时,会直接将操作数读出来送到寄存器中,以备后续计算使用。
具体为控制模块将扩展指令进行解码,根据解码后的扩展指令读取操作数,并将读取的操作数写入寄存器中;所述操作数用于传输输入数据数据在存储器中的存放地址;根据操作数指向的存放地址,从存储器中读取输入数据。
运算指令采用LOOP指令是用来执行卷积运算的指令。执行卷积运算的LOOP指令是一个可变的多周期指令,该指令执行周期数由卷积运算相关参数决定。
各指令的具体定义如表1所示。
Figure BDA0002711927070000071
Figure BDA0002711927070000081
表1卷积协处理器指令列表
在上表中,Opcode指的是编码段,使用编码custom-0、custom-1、custom-2和custom-3指令组。xs1、xs2和xd比特位分别用于控制是否需要读源寄存器和写目标寄存器。funct7区间,可作为额外的编码空间,用于编码更多的指令,因此一种Custom指令组可以使用funct7区间编码出128条指令。
在本实施例中,通过设置协处理器,由协处理器接收到扩展指令后,处理卷积神经网络中的耗时操作,对输入数据进行神经网路卷积计算,灵活地对卷积神经网络的卷积、池化和激活操作进行结合运算,能够适应于多种轻量化卷积神经网络。
如图3所示,本发明还提供一种神经网络加速处理***,包括上述协处理器3,还包括主处理器1和存储器2;所述存储器2,用于存储数据;主处理器1,用于发送拓展指令;协处理器3,用于接收主处理器所发送的拓展指令,根据接收到的拓展指令,从存储器中读取输入数据,对输入数据进行神经网络计算,得到输出数据,将所述输出数据存入存储器。
如图4所示,本发明还提供一种神经网络加速处理方法,应用于上述处理***,包括以下步骤:
S1、主处理器向协处理器发送扩展指令;
S2、协处理器接收主处理器所发送的扩展指令,根据接收到的扩展指令,从存储器中读取输入数据,对读取的输入数据进行神经网络运算,得到输出数据,将所述输出数据写入存储器中;
S3、主处理器从存储器中读取由协处理器存储的输出数据,完成神经网络算法处理。
其中,在S1或S2中,扩展指令包括用于初始化卷积参数的配置指令和用于执行卷积运算的运算指令;配置指令为单周期指令,用于配置输入、输出数据的地址、参数和卷积核的参数;运算指令为可变的多周期指令,该指令执行周期数由一级指令中设定的卷积运算的参数决定。
在配置时,包括如下操作:设定输入、输出张量通道数;设定输入、输出张量尺寸;设定卷积核的尺寸和步长;设定填充大小和滤波器权重数据起始地址;设定输入、输出数据的起始地址;设定偏移量和偏差数据起始地址。
如上表1所示,在本实施例中,对于卷积运算协处理器的实现定义了7条扩展指令,其中6条配置指令分别为设定输入输出张量通道数的INIT_CH、设定输入输出张量尺寸的INIT_IM、设定滤波器核尺寸和步长的INIT_FS、设定填充大小和滤波器权重数据起始地址INIT_PW、设定输入输出数据的起始地址的INIT_IMADDR和设定偏移量和偏差数据起始地址的INIT_BIAS;用来初始化卷积参数的指令;用来参数初始化的几条指令都是单周期指令,当收到相应的指令时,会直接将操作数读出来送到寄存器中,以备后续计算使用。运算指令采用LOOP指令是用来执行卷积运算的指令。执行卷积运算的LOOP指令是一个可变的多周期指令,该指令执行周期数由卷积运算相关参数决定。
如上表所示,扩展指令的编码格式,包括1、指令的第一比特区间为Opcode编码段;2、设定三个比特位,用于控制是否需要读源寄存器和写目标寄存器。具体为,在上表中,Opcode指的是编码段,使用编码custom-0、custom-1、custom-2和custom-3指令组。一般采用第一比特位至第6比特位,为第一比特区间作为Opcode编码段,xs1、xs2和xd比特位分别用于控制是否需要读源寄存器和写目标寄存器。funct7区间,可作为额外的编码空间,用于编码更多的指令,因此一种Custom指令组可以使用funct7区间编码出128条指令。
将本方法应用在上述***进行测试时,得出如图6所示的实施例,Cifar-10数据集是由Hinton的两个徒弟Alex Krizhevsky和Ilya Sutskever为了便于普通物体识别而收集的数据集。该数据集共包含10类图像集,分别是飞机、汽车、鸟、猫、鹿、狗、青蛙、马、船和卡车,总共包含60000张图片,其中,每类图像集包含6000张图片。数据集中的每张图片像素大小为32*32,通道数为RGB3通道。
处理结果如下表所示,
处理阶段 基于协处理器 纯软件 加速比
卷积 4675254 94595789 20.23
表2为处理结果列表
在本实施例中,通过在卷积计算阶段的对比,当前纯软件的处理方法需要94595789个cycle,而通过本发明实施例提供的基于协处理器的处理方法需要4675254个cycle,加速比为20.23。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
由技术常识可知,本发明可以通过其它的不脱离其精神实质或必要特征的实施方案来实现。因此,上述公开的实施方案,就各方面而言,都只是举例说明,并不是仅有的。所有在本发明范围内或在等同于本发明的范围内的改变均被本发明包含。

Claims (10)

1.一种神经网络加速协处理器,其特征在于,包括控制模块、地址产生模块、乘累加模块和输出饱和模块;
所述控制模块用于接收主处理器发送的扩展指令,根据扩展指令控制地址产生模块对输入和对应输出数据匹配地址,按照匹配地址从存储器中读取数据,控制乘累加模块对读取的数据进行卷积计算,控制输出饱和模块输出计算结果,并将输出结果按照匹配的输出数据地址存入存储器中;
所述地址产生模块用于为输入数据和对应输出数据匹配存储地址;
所述乘累加模块用于进行神经网络卷积运算;
所述输出饱和模块用于限定输出数据的范围,输出运算结果。
2.根据权利要求1所述的协处理器,其特征在于,所述扩展指令包括用于初始化卷积参数的配置指令和用于执行卷积运算的运算指令;
所述配置指令为单周期指令,用于配置输入、输出数据的地址、参数和卷积核的参数;
所述运算指令为可变的多周期指令,该指令执行周期数由一级指令中设定的卷积运算的参数决定。
3.根据权利要求2所述的协处理器,其特征在于,所述配置指令包括下述第一至第六指令;
第一指令用于设定输入、输出张量通道数;
第二指令用于设定输入、输出张量尺寸;
第三指令用于设定卷积核的尺寸和步长;
第四指令用于设定填充大小和滤波器权重数据起始地址;
第五指令用于设定输入、输出数据的起始地址;
第六指令用于设定偏移量和偏差数据起始地址。
4.根据权利要求1所述的协处理器,其特征在于,还包括控制模块将扩展指令进行解码,根据解码后的扩展指令读取操作数,并将读取的操作数写入寄存器中;所述操作数用于传输输入数据数据在存储器中的存放地址;根据操作数指向的存放地址,从存储器中读取输入数据。
5.一种神经网络加速处理***,其特征在于,包括上述权利要求1-4中任意一项包括的协处理器,还包括主处理器和存储器;
所述存储器,用于存储数据;
所述主处理器,用于发送拓展指令;
所述协处理器,用于接收主处理器所发送的拓展指令,根据接收到的拓展指令,从存储器中读取输入数据,对输入数据进行神经网络计算,得到输出数据,将所述输出数据存入存储器。
6.一种神经网络加速处理方法,其特征在于,应用于上述权利要求5中所述的处理***,包括以下步骤:
主处理器向协处理器发送扩展指令;
协处理器接收主处理器所发送的扩展指令,根据接收到的扩展指令,从存储器中读取输入数据,对读取的输入数据进行神经网络运算,得到输出数据,将所述输出数据写入存储器中;
主处理器从存储器中读取由协处理器存储的输出数据,完成神经网络算法处理。
7.根据权利要求6所述的加速处理方法,其特征在于:主处理器向协处理器发送扩展指令,控制协处理器进行初始化卷积参数的配置和卷积运算的执行;
在所述初始化卷积参数配置中包括单周期配置输入、输出数据的地址、参数和卷积核的参数;所述卷积运算的执行周期由一级指令中设定的卷积运算的参数决定。
8.根据权利要求7所述的加速处理方法,其特征在于:在对初始化卷积参数进行配置时,包括如下操作:
设定输入、输出张量通道数;
设定输入、输出张量尺寸;
设定卷积核的尺寸和步长;
设定填充大小和滤波器权重数据起始地址;
设定输入、输出数据的起始地址;
设定偏移量和偏差数据起始地址。
9.根据权利要求8所述的加速处理方法,其特征在于,还包括将每一条扩展指令按照如下编码格式进行编写:
a、指令的第一比特区间为Opcode编码段;
b、设定三个比特位,用于控制是否需要读源寄存器和写目标寄存器。
10.根据权利要求6所述的加速处理方法,其特征在于,在根据接收到的扩展指令,从存储器中读取输入数据时,还包括
所述协处理器将扩展指令进行解码,根据解码后的扩展指令读取操作数,并将读取的操作数写入寄存器中;所述操作数用于传输输入数据数据在存储器中的存放地址;根据操作数指向的存放地址,从存储器中读取输入数据。
CN202011069950.1A 2020-09-30 2020-09-30 一种神经网络加速协处理器、处理***及处理方法 Pending CN112200305A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011069950.1A CN112200305A (zh) 2020-09-30 2020-09-30 一种神经网络加速协处理器、处理***及处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011069950.1A CN112200305A (zh) 2020-09-30 2020-09-30 一种神经网络加速协处理器、处理***及处理方法

Publications (1)

Publication Number Publication Date
CN112200305A true CN112200305A (zh) 2021-01-08

Family

ID=74013636

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011069950.1A Pending CN112200305A (zh) 2020-09-30 2020-09-30 一种神经网络加速协处理器、处理***及处理方法

Country Status (1)

Country Link
CN (1) CN112200305A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113283593A (zh) * 2021-05-25 2021-08-20 思澈科技(上海)有限公司 一种卷积运算协处理器及基于该处理器的快速卷积方法
CN113743599A (zh) * 2021-08-08 2021-12-03 苏州浪潮智能科技有限公司 一种卷积神经网络的运算装置及服务器
WO2023123648A1 (zh) * 2021-12-29 2023-07-06 杭州万高科技股份有限公司 基于Cortex-M处理器的卷积神经网络加速方法、***和介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113283593A (zh) * 2021-05-25 2021-08-20 思澈科技(上海)有限公司 一种卷积运算协处理器及基于该处理器的快速卷积方法
CN113283593B (zh) * 2021-05-25 2023-09-12 思澈科技(上海)有限公司 一种卷积运算协处理器及基于该处理器的快速卷积方法
CN113743599A (zh) * 2021-08-08 2021-12-03 苏州浪潮智能科技有限公司 一种卷积神经网络的运算装置及服务器
CN113743599B (zh) * 2021-08-08 2023-08-25 苏州浪潮智能科技有限公司 一种卷积神经网络的运算装置及服务器
WO2023123648A1 (zh) * 2021-12-29 2023-07-06 杭州万高科技股份有限公司 基于Cortex-M处理器的卷积神经网络加速方法、***和介质

Similar Documents

Publication Publication Date Title
KR102166775B1 (ko) 스파스 연결용 인공 신경망 계산 장치와 방법
CN112840356B (zh) 运算加速器、处理方法及相关设备
US11308398B2 (en) Computation method
US10860917B2 (en) Apparatus and method for performing a forward operation of artificial neural networks
CN112200305A (zh) 一种神经网络加速协处理器、处理***及处理方法
CN111860812B (zh) 一种用于执行卷积神经网络训练的装置和方法
CN113139648B (zh) 执行神经网络模型的pim架构的数据布局优化
EP3754503A1 (en) Allocation system, method and apparatus for machine learning, and computer device
EP3844610B1 (en) Method and system for performing parallel computation
CN114450699A (zh) 由处理单元实现的方法、可读存储介质和处理单元
CN1853164B (zh) 用于开发dsp编译器构件块的组合方法
US20230196113A1 (en) Neural network training under memory restraint
CN111045728B (zh) 一种计算装置及相关产品
CN113743599A (zh) 一种卷积神经网络的运算装置及服务器
CN111353591A (zh) 一种计算装置及相关产品
KR20190089685A (ko) 데이터를 처리하는 방법 및 장치
CN113052303A (zh) 用于控制神经网络电路的数据输入和输出的设备
CN113807998A (zh) 图像处理方法、目标检测装置、机器视觉设备和存储介质
CN115328440A (zh) 一种基于2d脉动阵列的通用稀疏矩阵乘法实现方法及装置
CN114595811A (zh) 用于执行深度学习操作的方法和设备
CN112906877A (zh) 用于执行神经网络模型的存储器架构中的数据布局有意识处理
US20230305844A1 (en) Implementing specialized instructions for accelerating dynamic programming algorithms
US20230051344A1 (en) Optimization of memory use for efficient neural network execution
TW202416185A (zh) 核心執行的深度融合
CN117519790A (zh) 数据处理的方法、装置以及ai芯片

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20210409

Address after: 100192 Beijing city Haidian District Qinghe small Camp Road No. 15

Applicant after: CHINA ELECTRIC POWER RESEARCH INSTITUTE Co.,Ltd.

Applicant after: STATE GRID CORPORATION OF CHINA

Applicant after: STATE GRID JIANGSU ELECTRIC POWER Research Institute

Address before: 100192 Beijing city Haidian District Qinghe small Camp Road No. 15

Applicant before: CHINA ELECTRIC POWER RESEARCH INSTITUTE Co.,Ltd.

Applicant before: STATE GRID CORPORATION OF CHINA