CN106529670A - 一种基于权重压缩的神经网络处理器、设计方法、芯片 - Google Patents
一种基于权重压缩的神经网络处理器、设计方法、芯片 Download PDFInfo
- Publication number
- CN106529670A CN106529670A CN201610958305.2A CN201610958305A CN106529670A CN 106529670 A CN106529670 A CN 106529670A CN 201610958305 A CN201610958305 A CN 201610958305A CN 106529670 A CN106529670 A CN 106529670A
- Authority
- CN
- China
- Prior art keywords
- weight
- data
- memory element
- neural network
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提出一种基于权重压缩的神经网络处理器、设计方法、芯片,该处理器包括至少一个存储单元,用于存储操作指令与参与计算的数据;至少一个存储单元控制器,用于对所述存储单元进行控制;至少一个计算单元,用于执行神经网络的计算操作;控制单元,与所述存储单元控制器与所述计算单元相连,用于经由所述存储单元控制器获得所述存储单元存储的指令,并且解析所述指令以控制所述计算单元;至少一个权重检索单元,用于对权重进行检索,其中每个所述权重检索单元与所述计算单元相连,保证被压缩的权重与对应数据正确运算。本发明降低了神经网络处理器中权重资源的占用,提高了运算速度,提升了能量效率。
Description
技术领域
本发明涉及神经网络模型计算的硬件加速领域,特别涉及一种基于权重压缩的神经网络处理器、设计方法、芯片。
背景技术
深度学习是机器学习领域的重要分支,在近些年来取得了重大突破。采用深度学习算法训练的神经网络模型自提出以来在图像识别、语音处理、智能机器人等应用领域上取得了令人瞩目的成果。
深度神经网络通过建立模型模拟人类大脑的神经连接结构,在处理图像、声音和文本等信号时,通过多个变换阶段分层对数据特征进行描述。伴随神经网络复杂度的不断提高,神经网络技术在实际应用过程中存在占用资源多、运算速度慢、能量消耗大等问题,因此该技术在嵌入式设备或低开销数据中心等领域应用时存在严重的能效问题和运算速度瓶颈。采用硬件加速替代传统软件计算的方法成为了提高神经网络计算效率的一种行之有效方式。主流的硬件加速方式包括通用图形处理器、专用处理器芯片和现场可编程逻辑阵列(FPGA)等。
在现有神经网络技术中,神经网络模型根据训练集,按照样本顺序进行多轮训练得到神经网络权重值。神经网络权重具有一定的稀疏性,存在大量数值为0的权重,这些权重与数据经过乘法和加法等运算后对运算结果不产生数值上的影响。这些神经网络中权重为0的权重值与深度神经网络的固有特性有关,由多次训练得到,且不易从算法角度消除。这些数值为0的权重在存储、载入和运算等过程会占用大量片上资源、消耗多余的工作时间,难以满足神经网络处理器的性能要求。
因此无论在学术界还是工业界,针对上述神经网络中数值为0元素,开展了大量研究。文献“Albericio J,Judd P,Hetherington T,et al.Cnvlutin:ineffectual-neuron-free deep neural network computing[C]//Computer Architecture(ISCA),2016ACM/IEEE 43rd Annual International Symposium on.IEEE,2016:1-13.”通过在片上提供大规模的存储单元实现大规模并行计算并以此为基础实现了对数据元素的压缩,但是依赖片上大规模的存储单元,来满足在并行计算的需求,不适用于嵌入式设备;文献“Chen Y H,Emer J,Sze V.Eyeriss:A Spatial Architecture for Energy-Efficient Dataflow forConvolutional Neural Networks[J].2016.”通过共享数据和权重实现数据重用并采用电源门控的方法关闭元素0的计算,可以有效提高能量效率,但是该方法只能降低运算功耗无法跳过数据0进而加快计算速度。
发明“一种神经网络加速器及其运算方法”,该发明适用于神经网络算法领域,提供了一种神经网络加速器及其运算方法,该神经网络加速器包括片内存储介质、片内地址索引模块、核心计算模块以及多ALU装置,片内存储介质,用于存储外部传来的数据或用于存储计算过程中产生的数据;片内数据索引模块,用于执行运算时根据输入的索引映射至正确的存储地址;核心计算模块用于执行神经网络运算;多ALU装置用于从核心计算模块或片内存储介质获取输入数据执行核心计算模块无法完成的非线性运算。该发明在神经网络加速器中引入多ALU设计,从而提升非线性运算的运算速度,使得神经网络加速器更加高效。本发明与该发明的最大区别是在神经网络加速器中引入了权重压缩存储结构,提高了神经网络运算速度并降低了能量损耗。
发明“加速深度神经网络算法的加速芯片的运算装置及方法”,该发明提供一种加速深度神经网络算法的加速芯片的运算装置及方法,所述装置包括:向量加法处理器模块,进行向量的加法或减法、和/或深度神经网络算法中的pooling层算法的向量化的运算;向量函数值运算器模块,深度神经网络算法中的非线性求值的向量化运算;向量乘加器模块,进行向量的乘加运算;所述三个模块执行可编程指令,互相交互以计算神经网络的神经元值和网络输出结果、以及、代表输入层神经元对输出层神经元作用强度的突触权重变化量;所述三个模块中均设置有中间值存储区域,并对主存储器进行读取与写入操作。由此,能够减少对主存储器的中间值读取和写入次数,降低加速器芯片的能量消耗,避免数据处理过程中的数据缺失和替换问题。本发明与该发明的最大区别是在神经网络加速器中引入了权重压缩存储结构,提高了神经网络运算速度并降低了能量损耗。
发明内容
针对现有神经网络处理器的上述缺陷,本发明提出一种基于权重压缩的神经网络处理器、设计方法、芯片,该***在现有神经网络处理器***中引入权重检索结构,进而提升了神经网络加速的运算速度及能量损耗。
本发明提出一种基于权重压缩的神经网络处理器,包括:
至少一个存储单元,用于存储操作指令与参与计算的数据;
至少一个存储单元控制器,用于对所述存储单元进行控制;
至少一个计算单元,用于执行神经网络的计算操作;
控制单元,与所述存储单元控制器与所述计算单元相连,用于经由所述存储单元控制器获得所述存储单元存储的指令,并且解析所述指令以控制所述计算单元;
至少一个权重检索单元,用于对权重进行检索,其中每个所述权重检索单元与所述计算单元相连,保证被压缩的权重与对应数据正确运算。
所述存储单元包括输入数据存储单元、输出数据存储单元、权重存储单元、指令存储单元。
所述输入数据存储单元用于存储所述参与计算的数据,所述参与计算的数据包括原始特征图数据与参与中间层计算的数据;所述输出数据存储单元包括计算获得的神经元响应值;所述权重存储单元用于存储已经训练好的神经网络权重;所述指令存储单元用于存储参与计算的指令信息。
通过片下离线压缩的方法对所述参与计算的数据进行重编码,通过权重压缩格式实现权重压缩。
所述权重压缩格式包括<权重,偏移量>。
所述权重压缩格式中的权重为神经网络权重在被压缩前的原始值,所述偏移量为一组权重值中当前非零权重的相对位置。
在权重压缩过程中,经过重新编码获得的权重值序列将不保留数值为零的元素,只保留非零元素。
所述计算单元从与其相关联的所述输入数据存储单元中获得数据以进行计算,并且向与其相关联的所述输出数据存储单元写入数据。
本发明还提出一种设计所述基于权重压缩的神经网络处理器的设计方法,包括:
步骤1,所述控制单元对所述存储单元进行寻址,读取并解析下一步需要执行的指令;
步骤2,根据解析出的指令获得存储地址,并从所述存储单元中获取所述参与计算的数据与权重;
步骤3,将所述参与计算的数据与权重分别从所述输入存储单元与所述权重存储单元载入至所述计算单元;
步骤4,所述计算单元执行神经网络运算中的运算操作,其中通过所述权重检索单元保证了被压缩的数据可以与权重数据正确计算;
步骤5,将神经网络计算结果存储在所述输出存储单元中。
本发明还提出一种包括所述基于权重压缩的神经网络处理器的芯片。
由以上方案可知,本发明的优点在于:
本发明针对神经网络处理器中存在的运算速度差、能量效率低这一问题,通过离线压缩的方式,在片外将神经网络权重压缩为权重压缩格式,降低了神经网络处理器中权重资源的占用,提高了运算速度,提升了能量效率。
附图说明
图1为本发明提供的神经网络处理器结构框图;
图2为本发明提出的一种权重压缩存储格式图;
图3为本发明单计算单元实施例中权重压缩单元示意图;
图4为本发明多运算单元实施例中权重压缩单元示意图;
图5为本发明计算单元的结构示意图;
图6为本发明提出的神经网络处理器进行神经网络运算的流程图。
具体实施方式
在对神经网络处理器研究时,发现神经网络权重具有一定的稀疏性,存在大量数值为0的权重,这些权重与数据经过乘法和加法等运算后对运算结果不产生数值上的影响,这些数值为0的权重在存储、载入和运算等过程会占用大量片上资源、消耗多余的工作时间,难以满足神经网络处理器的性能要求。
经过对现有神经网络处理器的计算结构进行分析发现,可以对神经网络权重值进行压缩,实现加快运算速度、降低能量损耗的目的,现有技术提供了神经网络加速器基本架构,本发明在现有技术基础上提出一种权重压缩存储格式,权重数据经过重编码后,在存储、传输和计算过程中采用权重压缩存储格式,并在神经网络计算单元增加权重检索结构,确保了被压缩后的权重可以和数据元素正确运算。
为实现上述目的,本发明提出一种基于权重压缩的神经网络处理器,包括:
至少一个存储单元,用于存储操作指令和参与计算的数据;
至少一个计算单元,用于执行神经网络计算;以及控制单元,与至少一个存储单元控制器和所述至少一个计算单元相连,用于经由所述至少一个存储单元控制器获得所述至少一个存储单元存储的指令,并且解析该指令以控制所述至少一个计算单元;
至少一个权重检索单元,其中每个权重检索单元与所述至少一个计算单元相连,保证被压缩的权重与对应数据正确运算;
根据本发明的神经网络处理器***,所述权重为已经训练好的神经网络权重。
根据本发明的神经网络处理器,所述神经网络处理器进行神经网络计算时,已经训练好的神经网络权重会在片外被压缩为权重压缩格式,并存储在存储单元中。
本发明采用离线压缩的方式在片下将神经网络权重压缩为权重压缩格式,并通过输入接口传输至片上的存储单元。
为了使本发明的目的、技术方案、设计方法及优点更加清楚明了,以下结合附图通过具体实施例对本发明进一步详细说明,应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明旨在提供一种基于权重压缩的神经网络处理器,其在神经网络处理***中引入权重检索单元并采用权重压缩存储格式存储神经网络权重,从而减少片上存储开销,降低运算电路规模并提高运算效率,使得神经网络处理***性能更高高效。
本发明提供的神经网络处理基于存储-控制-计算的结构;
存储结构用于存储参与计算的数据及处理器操作指令;
控制结构包括译码电路,用于解析操作指令,生成控制信号以控制片上数据的调度与存储以及神经网络计算过程;
计算结构包括算术逻辑单元,用于参与该处理器中的神经网络计算操作,压缩数据在计算结构中实现计算操作。
本发明还提出一种包含基于权重压缩的神经网络处理器的芯片
图1为本发明提供的一种神经网络处理器101,该***架构由六个部分构成,包括输入数据存储单元102、控制单元103、输出数据存储单元104、权重存储单元105、指令存储单元106、计算单元107。
输入数据存储单元102用于存储参与计算的数据,该数据包括原始特征图数据和参与中间层计算的数据;输出数据存储单元104包括计算得到的神经元响应值;权重存储单元105用于存储已经训练好的神经网络权重;指令存储单元106存储参与计算的指令信息,指令被解析来实现神经网络计算。
控制单元103分别与输出数据存储单元104、权重存储单元105、指令存储单元106、计算单元107相连,控制单元103获得保存在指令存储单元106中的指令并且解析该指令,控制单元103可根据解析指令得到的控制信号控制计算单元进行神经网络计算。
计算单元107用于根据控制单元103产生的控制信号来执行相应的神经网络计算。计算单元107与一个或多个存储单元相关联,计算单元107可以从与其相关联的输入数据存储单元102中的数据存储部件获得数据以进行计算,并且可以向该相关联的输出数据存储单元104写入数据。计算单元107完成神经网络算法中的大部分运算,即向量乘加操作等,此外,由于载入到计算单元107中参与计算的权重格式为权重压缩格式,因此在计算单元107中还应包括权重检索子单元,该子单元用于保证被压缩的权重可以与权重正确计算。
图2为本发明提出的一种权重压缩格式,通过片下离线压缩的方法对原始数据进行重编码,进而实现权重压缩。该权重压缩格式包括<权重,偏移量>两部分组成,权重为神经网络权重在被压缩前的原始值,偏移量为一组权重值中当前非零权重的相对位置。在压缩过程中,经过重新编码得到权重值序列将不保留数值为零的元素,只保留非零元素,该方法保证了只有非零权重值参与神经网络计算,通过权重压缩,有效减少了数据中权重数量,减少了神经网络计算量,提高了***整体运算速度。
通过图3详细描述该权重压缩过程。将权重进行分组,每组内的元素数由计算单元的规模决定。现以每组权重包含四个元素为例详细描述权重压缩过程,在第一组权重中,数值为1.5和2.5的元素分别为第0个和第1个元素,因此在重新编码后,该组权重保留了两个非零元素,标示元素位置的偏移量分别为0和1;在第二组的原始权重数据中包含三个非零元素,在该组数据中为第0个、第3个和第4个元素,因此偏移量分别为0、3和4。在第三组权重值中,包含3和4两个非零元素,偏移量分别为2和3。
当计算单元资源足够时,即同时拥有多个计算单元时,多个不同队列的权重值可同时载入到不同计算单元中,不同队列中相同次序位置的元素并行工作,互不影响,分组方式与单个计算单元相同,各个队列中处于相同相对位置的元素被划分为一个组,在计算过程中,每个队列内不同队列的数据并行载入到计算单元中。
为方便描述,图4以两个计算单元为例阐述多计算单元情形,图4中包含两个权重队列,每个队列权重分别接入至相应的计算单元中,各个计算单元独立工作。根据计算单元容量大小,权重被分为四组,在每组权重内,各个队列的权重值依据相同的组内元素长度分别压缩。
以权重压缩格式存储权重具有两点优势,首先只存储权重中的非零元素,会大大减少内存占用;其次,只将非零元素载入到计算单元中,提升了计算速度并提高了计算单元利用率。
图5是计算单元结构示意图,描述了权重与数据进行卷积神经网络计算时的对应关系,在该计算过程中,数据共享到各个计算单元中,不同的权重值接入到各个计算单元中,各个计算单元并行工作。
图6是本发明一种神经网络计算过程的流程图,该方法包括:
步骤S1,控制单元对存储单元寻址,读取并解析下一步需要执行的指令;
步骤S2,根据解析指令得到的存储地址从存储单元中获取输入数据;
步骤S3,将数据和权重分别从输入存储单元和权重存储单元载入至计算单元;
步骤S4,计算单元执行神经网络运算中的运算操作,其中数据检索结构保证了被压缩的数据可以与权重数据正确计算;
步骤S5,将以神经网络计算结果存储在输出存储单元中。
综上所述,本发明针对神经网络处理器中存在的运算速度差、能量效率低这一问题,通过离线压缩的方式,在片外将神经网络权重压缩为权重压缩格式,降低了神经网络处理器中权重资源的占用,提高了运算速度,提升了能量效率。
应当理解,虽然本说明书是按照各个实施例描述的,但并非每个实施例仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
以上所述仅为本发明示意性的具体实施方式,并非用以限定本发明的范围。任何本领域的技术人员,在不脱离本发明的构思和原则的前提下所作的等同变化、修改与结合,均应属于本发明保护的范围。
Claims (10)
1.一种基于权重压缩的神经网络处理器,其特征在于,包括:
至少一个存储单元,用于存储操作指令与参与计算的数据;
至少一个存储单元控制器,用于对所述存储单元进行控制;
至少一个计算单元,用于执行神经网络的计算操作;
控制单元,与所述存储单元控制器与所述计算单元相连,用于经由所述存储单元控制器获得所述存储单元存储的指令,并且解析所述指令以控制所述计算单元;
至少一个权重检索单元,用于对权重进行检索,其中每个所述权重检索单元与所述计算单元相连,保证被压缩的权重与对应数据正确运算。
2.如权利要求1所述的基于权重压缩的神经网络处理器,其特征在于,所述存储单元包括输入数据存储单元、输出数据存储单元、权重存储单元、指令存储单元。
3.如权利要求2所述的基于权重压缩的神经网络处理器,其特征在于,所述输入数据存储单元用于存储所述参与计算的数据,所述参与计算的数据包括原始特征图数据与参与中间层计算的数据;所述输出数据存储单元包括计算获得的神经元响应值;所述权重存储单元用于存储已经训练好的神经网络权重;所述指令存储单元用于存储参与计算的指令信息。
4.如权利要求1所述的基于权重压缩的神经网络处理器,其特征在于,通过片下离线压缩的方法对所述参与计算的数据进行重编码,通过权重压缩格式实现权重压缩。
5.如权利要求4所述的基于权重压缩的神经网络处理器,其特征在于,所述权重压缩格式包括<权重,偏移量>。
6.如权利要求5所述的基于权重压缩的神经网络处理器,其特征在于,所述权重压缩格式中的权重为神经网络权重在被压缩前的原始值,所述偏移量为一组权重值中当前非零权重的相对位置。
7.如权利要求4所述的基于权重压缩的神经网络处理器,其特征在于,在权重压缩过程中,经过重新编码获得的权重值序列将不保留数值为零的元素,只保留非零元素。
8.如权利要求2所述的基于权重压缩的神经网络处理器,其特征在于,所述计算单元从与其相关联的所述输入数据存储单元中获得数据以进行计算,并且向与其相关联的所述输出数据存储单元写入数据。
9.一种设计如权利要求1-8任意一项所述基于权重压缩的神经网络处理器的设计方法,其特征在于,包括:
步骤1,所述控制单元对所述存储单元进行寻址,读取并解析下一步需要执行的指令;
步骤2,根据解析出的指令获得存储地址,并从所述存储单元中获取所述参与计算的数据与权重;
步骤3,将所述参与计算的数据与权重分别从所述输入存储单元与所述权重存储单元载入至所述计算单元;
步骤4,所述计算单元执行神经网络运算中的运算操作,其中通过所述权重检索单元保证了被压缩的数据可以与权重数据正确计算;
步骤5,将神经网络计算结果存储在所述输出存储单元中。
10.一种包括如权利要求1-8任意一项所述基于权重压缩的神经网络处理器的芯片。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610958305.2A CN106529670B (zh) | 2016-10-27 | 2016-10-27 | 一种基于权重压缩的神经网络处理器、设计方法、芯片 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610958305.2A CN106529670B (zh) | 2016-10-27 | 2016-10-27 | 一种基于权重压缩的神经网络处理器、设计方法、芯片 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106529670A true CN106529670A (zh) | 2017-03-22 |
CN106529670B CN106529670B (zh) | 2019-01-25 |
Family
ID=58325737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610958305.2A Active CN106529670B (zh) | 2016-10-27 | 2016-10-27 | 一种基于权重压缩的神经网络处理器、设计方法、芯片 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106529670B (zh) |
Cited By (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016175A (zh) * | 2017-03-23 | 2017-08-04 | 中国科学院计算技术研究所 | 适用神经网络处理器的自动化设计方法、装置及优化方法 |
CN107086910A (zh) * | 2017-03-24 | 2017-08-22 | 中国科学院计算技术研究所 | 一种针对神经网络处理的权重加解密方法和*** |
CN107092961A (zh) * | 2017-03-23 | 2017-08-25 | 中国科学院计算技术研究所 | 一种基于模式频率统计编码的神经网络处理器及设计方法 |
CN107103113A (zh) * | 2017-03-23 | 2017-08-29 | 中国科学院计算技术研究所 | 面向神经网络处理器的自动化设计方法、装置及优化方法 |
CN107103358A (zh) * | 2017-03-24 | 2017-08-29 | 中国科学院计算技术研究所 | 基于自旋转移力矩磁存储器的神经网络处理方法及*** |
CN107423816A (zh) * | 2017-03-24 | 2017-12-01 | 中国科学院计算技术研究所 | 一种多计算精度神经网络处理方法和*** |
CN107491811A (zh) * | 2017-09-01 | 2017-12-19 | 中国科学院计算技术研究所 | 用于加速神经网络处理器的方法和***及神经网络处理器 |
CN107578098A (zh) * | 2017-09-01 | 2018-01-12 | 中国科学院计算技术研究所 | 基于脉动阵列的神经网络处理器 |
CN107622305A (zh) * | 2017-08-24 | 2018-01-23 | 中国科学院计算技术研究所 | 用于神经网络的处理器和处理方法 |
CN107679621A (zh) * | 2017-04-19 | 2018-02-09 | 北京深鉴科技有限公司 | 人工神经网络处理装置 |
CN107729995A (zh) * | 2017-10-31 | 2018-02-23 | 中国科学院计算技术研究所 | 用于加速神经网络处理器的方法和***及神经网络处理器 |
CN107800700A (zh) * | 2017-10-27 | 2018-03-13 | 中国科学院计算技术研究所 | 一种路由器和片上网络传输***及方法 |
CN107844829A (zh) * | 2017-10-31 | 2018-03-27 | 中国科学院计算技术研究所 | 用于加速神经网络处理器的方法和***及神经网络处理器 |
CN107918794A (zh) * | 2017-11-15 | 2018-04-17 | 中国科学院计算技术研究所 | 基于计算阵列的神经网络处理器 |
CN107944555A (zh) * | 2017-12-07 | 2018-04-20 | 广州华多网络科技有限公司 | 神经网络压缩和加速的方法、存储设备和终端 |
CN107977704A (zh) * | 2017-11-10 | 2018-05-01 | 中国科学院计算技术研究所 | 权重数据存储方法和基于该方法的神经网络处理器 |
CN108171328A (zh) * | 2018-03-02 | 2018-06-15 | 中国科学院计算技术研究所 | 一种卷积运算方法和基于该方法的神经网络处理器 |
CN108205704A (zh) * | 2017-09-27 | 2018-06-26 | 深圳市商汤科技有限公司 | 一种神经网络芯片 |
CN108334945A (zh) * | 2018-01-30 | 2018-07-27 | 中国科学院自动化研究所 | 深度神经网络的加速与压缩方法及装置 |
CN108416425A (zh) * | 2018-02-02 | 2018-08-17 | 浙江大华技术股份有限公司 | 一种卷积方法及装置 |
CN108510058A (zh) * | 2018-02-28 | 2018-09-07 | 中国科学院计算技术研究所 | 神经网络中的权重存储方法以及基于该方法的处理器 |
CN108647774A (zh) * | 2018-04-23 | 2018-10-12 | 福州瑞芯微电子股份有限公司 | 一种优化稀疏性矩阵运算的神经网络方法和电路 |
CN108734288A (zh) * | 2017-04-21 | 2018-11-02 | 上海寒武纪信息科技有限公司 | 一种运算方法及装置 |
CN108764454A (zh) * | 2018-04-28 | 2018-11-06 | 中国科学院计算技术研究所 | 基于小波变换压缩和/或解压缩的神经网络处理方法 |
CN109146069A (zh) * | 2017-06-16 | 2019-01-04 | 上海寒武纪信息科技有限公司 | 运算装置、运算方法和芯片 |
CN109325590A (zh) * | 2018-09-14 | 2019-02-12 | 中国科学院计算技术研究所 | 用于实现计算精度可变的神经网络处理器的装置 |
CN109492761A (zh) * | 2018-10-30 | 2019-03-19 | 深圳灵图慧视科技有限公司 | 实现神经网络的fpga加速装置、方法和*** |
CN109543140A (zh) * | 2018-09-20 | 2019-03-29 | 中国科学院计算技术研究所 | 一种卷积神经网络加速器 |
CN109557996A (zh) * | 2017-09-22 | 2019-04-02 | 株式会社东芝 | 运算装置 |
CN109726805A (zh) * | 2017-10-30 | 2019-05-07 | 上海寒武纪信息科技有限公司 | 利用黑盒模拟器进行神经网络处理器设计的方法 |
CN109791628A (zh) * | 2017-12-29 | 2019-05-21 | 清华大学 | 神经网络模型分块压缩方法、训练方法、计算装置及*** |
CN109886416A (zh) * | 2019-02-01 | 2019-06-14 | 京微齐力(北京)科技有限公司 | 集成人工智能模块的***芯片及机器学习方法 |
CN110045960A (zh) * | 2018-01-16 | 2019-07-23 | 腾讯科技(深圳)有限公司 | 基于芯片的指令集处理方法、装置及存储介质 |
CN110046702A (zh) * | 2018-01-17 | 2019-07-23 | 联发科技股份有限公司 | 神经网络计算加速器及其执行的方法 |
US10387298B2 (en) | 2017-04-04 | 2019-08-20 | Hailo Technologies Ltd | Artificial neural network incorporating emphasis and focus techniques |
CN110334716A (zh) * | 2019-07-04 | 2019-10-15 | 北京迈格威科技有限公司 | 特征图处理方法、图像处理方法及装置 |
CN110428047A (zh) * | 2018-05-01 | 2019-11-08 | 半导体组件工业公司 | 神经网络***以及用于实施神经网络的加速器 |
CN110546611A (zh) * | 2017-04-17 | 2019-12-06 | 微软技术许可有限责任公司 | 通过跳过处理操作来减少神经网络处理器中的功耗 |
CN110832507A (zh) * | 2017-07-07 | 2020-02-21 | 三菱电机株式会社 | 数据处理装置、数据处理方法以及压缩数据 |
CN111095302A (zh) * | 2017-09-21 | 2020-05-01 | 高通股份有限公司 | 稀疏深度卷积网络权重的压缩 |
CN111105018A (zh) * | 2019-10-21 | 2020-05-05 | 深圳云天励飞技术有限公司 | 一种数据处理方法及装置 |
CN111582464A (zh) * | 2017-12-29 | 2020-08-25 | 中科寒武纪科技股份有限公司 | 神经网络处理方法、计算机***及存储介质 |
CN111656360A (zh) * | 2017-07-21 | 2020-09-11 | 森田公司 | 稀疏性利用的***和方法 |
CN111767996A (zh) * | 2018-02-27 | 2020-10-13 | 上海寒武纪信息科技有限公司 | 集成电路芯片装置及相关产品 |
CN111858196A (zh) * | 2020-06-12 | 2020-10-30 | 海光信息技术有限公司 | 一种计算单元检测方法、并行处理器及电子设备 |
CN112119593A (zh) * | 2019-07-25 | 2020-12-22 | 深圳市大疆创新科技有限公司 | 一种数据的处理方法、***、编码器及解码器 |
CN112396157A (zh) * | 2019-08-12 | 2021-02-23 | 美光科技公司 | 神经网络计算中与数据存储装置通信的***、方法及设备 |
WO2021104179A1 (zh) * | 2019-11-25 | 2021-06-03 | 北京灵汐科技有限公司 | 片上存储资源的存储格式的控制方法及装置 |
CN113011577A (zh) * | 2019-12-20 | 2021-06-22 | 阿里巴巴集团控股有限公司 | 处理单元、处理器核、神经网络训练机及方法 |
CN113688983A (zh) * | 2021-08-09 | 2021-11-23 | 上海新氦类脑智能科技有限公司 | 脉冲神经网络中减少权重储存的卷积运算实现方法、电路及终端 |
US11221929B1 (en) | 2020-09-29 | 2022-01-11 | Hailo Technologies Ltd. | Data stream fault detection mechanism in an artificial neural network processor |
US11238334B2 (en) | 2017-04-04 | 2022-02-01 | Hailo Technologies Ltd. | System and method of input alignment for efficient vector operations in an artificial neural network |
US11237894B1 (en) | 2020-09-29 | 2022-02-01 | Hailo Technologies Ltd. | Layer control unit instruction addressing safety mechanism in an artificial neural network processor |
US11263077B1 (en) | 2020-09-29 | 2022-03-01 | Hailo Technologies Ltd. | Neural network intermediate results safety mechanism in an artificial neural network processor |
TWI769807B (zh) * | 2021-05-04 | 2022-07-01 | 國立清華大學 | 基於記憶體內運算單元之軟硬體協同之壓縮運算方法及其系統 |
US11544545B2 (en) | 2017-04-04 | 2023-01-03 | Hailo Technologies Ltd. | Structured activation based sparsity in an artificial neural network |
US11551028B2 (en) | 2017-04-04 | 2023-01-10 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network |
US11588499B2 (en) | 2018-11-05 | 2023-02-21 | Samsung Electronics Co., Ltd. | Lossless compression of neural network weights |
US11615297B2 (en) | 2017-04-04 | 2023-03-28 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network compiler |
US11811421B2 (en) | 2020-09-29 | 2023-11-07 | Hailo Technologies Ltd. | Weights safety mechanism in an artificial neural network processor |
US11874900B2 (en) | 2020-09-29 | 2024-01-16 | Hailo Technologies Ltd. | Cluster interlayer safety mechanism in an artificial neural network processor |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009176110A (ja) * | 2008-01-25 | 2009-08-06 | Seiko Epson Corp | 並列演算装置および並列演算方法 |
CN105184366A (zh) * | 2015-09-15 | 2015-12-23 | 中国科学院计算技术研究所 | 一种时分复用的通用神经网络处理器 |
CN105260776A (zh) * | 2015-09-10 | 2016-01-20 | 华为技术有限公司 | 神经网络处理器和卷积神经网络处理器 |
CN105512723A (zh) * | 2016-01-20 | 2016-04-20 | 南京艾溪信息科技有限公司 | 一种用于稀疏连接的人工神经网络计算装置和方法 |
-
2016
- 2016-10-27 CN CN201610958305.2A patent/CN106529670B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009176110A (ja) * | 2008-01-25 | 2009-08-06 | Seiko Epson Corp | 並列演算装置および並列演算方法 |
CN105260776A (zh) * | 2015-09-10 | 2016-01-20 | 华为技术有限公司 | 神经网络处理器和卷积神经网络处理器 |
CN105184366A (zh) * | 2015-09-15 | 2015-12-23 | 中国科学院计算技术研究所 | 一种时分复用的通用神经网络处理器 |
CN105512723A (zh) * | 2016-01-20 | 2016-04-20 | 南京艾溪信息科技有限公司 | 一种用于稀疏连接的人工神经网络计算装置和方法 |
Cited By (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107016175B (zh) * | 2017-03-23 | 2018-08-31 | 中国科学院计算技术研究所 | 适用神经网络处理器的自动化设计方法、装置及优化方法 |
CN107092961A (zh) * | 2017-03-23 | 2017-08-25 | 中国科学院计算技术研究所 | 一种基于模式频率统计编码的神经网络处理器及设计方法 |
CN107103113A (zh) * | 2017-03-23 | 2017-08-29 | 中国科学院计算技术研究所 | 面向神经网络处理器的自动化设计方法、装置及优化方法 |
CN107016175A (zh) * | 2017-03-23 | 2017-08-04 | 中国科学院计算技术研究所 | 适用神经网络处理器的自动化设计方法、装置及优化方法 |
CN107103113B (zh) * | 2017-03-23 | 2019-01-11 | 中国科学院计算技术研究所 | 面向神经网络处理器的自动化设计方法、装置及优化方法 |
WO2018171717A1 (zh) * | 2017-03-23 | 2018-09-27 | 中国科学院计算技术研究所 | 面向神经网络处理器的自动化设计方法和*** |
WO2018171715A1 (zh) * | 2017-03-23 | 2018-09-27 | 中国科学院计算技术研究所 | 适用神经网络处理器的自动化设计方法及*** |
CN107086910A (zh) * | 2017-03-24 | 2017-08-22 | 中国科学院计算技术研究所 | 一种针对神经网络处理的权重加解密方法和*** |
CN107103358A (zh) * | 2017-03-24 | 2017-08-29 | 中国科学院计算技术研究所 | 基于自旋转移力矩磁存储器的神经网络处理方法及*** |
CN107423816A (zh) * | 2017-03-24 | 2017-12-01 | 中国科学院计算技术研究所 | 一种多计算精度神经网络处理方法和*** |
US11521048B2 (en) | 2017-03-24 | 2022-12-06 | Institute Of Computing Technology, Chinese Academy Of Sciences | Weight management method and system for neural network processing, and neural network processor |
WO2018171663A1 (zh) * | 2017-03-24 | 2018-09-27 | 中国科学院计算技术研究所 | 针对神经网络处理的权重管理方法、***及神经网络处理器 |
US11216717B2 (en) | 2017-04-04 | 2022-01-04 | Hailo Technologies Ltd. | Neural network processor incorporating multi-level hierarchical aggregated computing and memory elements |
US11461614B2 (en) | 2017-04-04 | 2022-10-04 | Hailo Technologies Ltd. | Data driven quantization optimization of weights and input data in an artificial neural network |
US11263512B2 (en) | 2017-04-04 | 2022-03-01 | Hailo Technologies Ltd. | Neural network processor incorporating separate control and data fabric |
US11551028B2 (en) | 2017-04-04 | 2023-01-10 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network |
US10387298B2 (en) | 2017-04-04 | 2019-08-20 | Hailo Technologies Ltd | Artificial neural network incorporating emphasis and focus techniques |
US11354563B2 (en) | 2017-04-04 | 2022-06-07 | Hallo Technologies Ltd. | Configurable and programmable sliding window based memory access in a neural network processor |
US11461615B2 (en) | 2017-04-04 | 2022-10-04 | Hailo Technologies Ltd. | System and method of memory access of multi-dimensional data |
US11544545B2 (en) | 2017-04-04 | 2023-01-03 | Hailo Technologies Ltd. | Structured activation based sparsity in an artificial neural network |
US11514291B2 (en) | 2017-04-04 | 2022-11-29 | Hailo Technologies Ltd. | Neural network processing element incorporating compute and local memory elements |
US11615297B2 (en) | 2017-04-04 | 2023-03-28 | Hailo Technologies Ltd. | Structured weight based sparsity in an artificial neural network compiler |
US11238334B2 (en) | 2017-04-04 | 2022-02-01 | Hailo Technologies Ltd. | System and method of input alignment for efficient vector operations in an artificial neural network |
US11238331B2 (en) | 2017-04-04 | 2022-02-01 | Hailo Technologies Ltd. | System and method for augmenting an existing artificial neural network |
US11675693B2 (en) | 2017-04-04 | 2023-06-13 | Hailo Technologies Ltd. | Neural network processor incorporating inter-device connectivity |
CN110546611A (zh) * | 2017-04-17 | 2019-12-06 | 微软技术许可有限责任公司 | 通过跳过处理操作来减少神经网络处理器中的功耗 |
CN110546611B (zh) * | 2017-04-17 | 2023-05-02 | 微软技术许可有限责任公司 | 通过跳过处理操作来减少神经网络处理器中的功耗 |
CN107679621A (zh) * | 2017-04-19 | 2018-02-09 | 北京深鉴科技有限公司 | 人工神经网络处理装置 |
US10902315B2 (en) | 2017-04-19 | 2021-01-26 | Xilinx, Inc. | Device for implementing artificial neural network with separate computation units |
CN107679621B (zh) * | 2017-04-19 | 2020-12-08 | 赛灵思公司 | 人工神经网络处理装置 |
CN108734288A (zh) * | 2017-04-21 | 2018-11-02 | 上海寒武纪信息科技有限公司 | 一种运算方法及装置 |
CN109376852A (zh) * | 2017-04-21 | 2019-02-22 | 上海寒武纪信息科技有限公司 | 运算装置及运算方法 |
CN109146069B (zh) * | 2017-06-16 | 2020-10-13 | 上海寒武纪信息科技有限公司 | 运算装置、运算方法和芯片 |
CN109146069A (zh) * | 2017-06-16 | 2019-01-04 | 上海寒武纪信息科技有限公司 | 运算装置、运算方法和芯片 |
CN110832507A (zh) * | 2017-07-07 | 2020-02-21 | 三菱电机株式会社 | 数据处理装置、数据处理方法以及压缩数据 |
CN111656360A (zh) * | 2017-07-21 | 2020-09-11 | 森田公司 | 稀疏性利用的***和方法 |
CN111656360B (zh) * | 2017-07-21 | 2024-02-20 | 森田公司 | 稀疏性利用的***和方法 |
CN107622305A (zh) * | 2017-08-24 | 2018-01-23 | 中国科学院计算技术研究所 | 用于神经网络的处理器和处理方法 |
CN107578098A (zh) * | 2017-09-01 | 2018-01-12 | 中国科学院计算技术研究所 | 基于脉动阵列的神经网络处理器 |
CN107491811A (zh) * | 2017-09-01 | 2017-12-19 | 中国科学院计算技术研究所 | 用于加速神经网络处理器的方法和***及神经网络处理器 |
CN111095302A (zh) * | 2017-09-21 | 2020-05-01 | 高通股份有限公司 | 稀疏深度卷积网络权重的压缩 |
CN111095302B (zh) * | 2017-09-21 | 2024-05-28 | 高通股份有限公司 | 稀疏深度卷积网络权重的压缩 |
CN109557996A (zh) * | 2017-09-22 | 2019-04-02 | 株式会社东芝 | 运算装置 |
CN108205704B (zh) * | 2017-09-27 | 2021-10-29 | 深圳市商汤科技有限公司 | 一种神经网络芯片 |
CN108205704A (zh) * | 2017-09-27 | 2018-06-26 | 深圳市商汤科技有限公司 | 一种神经网络芯片 |
CN107800700A (zh) * | 2017-10-27 | 2018-03-13 | 中国科学院计算技术研究所 | 一种路由器和片上网络传输***及方法 |
CN107800700B (zh) * | 2017-10-27 | 2020-10-27 | 中国科学院计算技术研究所 | 一种路由器和片上网络传输***及方法 |
CN109726805B (zh) * | 2017-10-30 | 2021-02-09 | 上海寒武纪信息科技有限公司 | 利用黑盒模拟器进行神经网络处理器设计的方法 |
CN109726805A (zh) * | 2017-10-30 | 2019-05-07 | 上海寒武纪信息科技有限公司 | 利用黑盒模拟器进行神经网络处理器设计的方法 |
CN107729995A (zh) * | 2017-10-31 | 2018-02-23 | 中国科学院计算技术研究所 | 用于加速神经网络处理器的方法和***及神经网络处理器 |
CN107844829A (zh) * | 2017-10-31 | 2018-03-27 | 中国科学院计算技术研究所 | 用于加速神经网络处理器的方法和***及神经网络处理器 |
JP2021503644A (ja) * | 2017-11-10 | 2021-02-12 | 中国科学院▲計▼算技▲術▼研究所Institute Of Computing Technology,Chinese Academy Of Sciences | 重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ |
CN107977704A (zh) * | 2017-11-10 | 2018-05-01 | 中国科学院计算技术研究所 | 权重数据存储方法和基于该方法的神经网络处理器 |
US11531889B2 (en) | 2017-11-10 | 2022-12-20 | Institute Of Computing Technology, Chinese Academy Of Sciences | Weight data storage method and neural network processor based on the method |
CN107977704B (zh) * | 2017-11-10 | 2020-07-31 | 中国科学院计算技术研究所 | 权重数据存储方法和基于该方法的神经网络处理器 |
JP7052034B2 (ja) | 2017-11-10 | 2022-04-11 | 中国科学院▲計▼算技▲術▼研究所 | 重みデータの保存方法及びこの方法をベースとするニューラルネットワークプロセッサ |
CN107918794A (zh) * | 2017-11-15 | 2018-04-17 | 中国科学院计算技术研究所 | 基于计算阵列的神经网络处理器 |
CN107944555A (zh) * | 2017-12-07 | 2018-04-20 | 广州华多网络科技有限公司 | 神经网络压缩和加速的方法、存储设备和终端 |
CN107944555B (zh) * | 2017-12-07 | 2021-09-17 | 广州方硅信息技术有限公司 | 神经网络压缩和加速的方法、存储设备和终端 |
CN111582464A (zh) * | 2017-12-29 | 2020-08-25 | 中科寒武纪科技股份有限公司 | 神经网络处理方法、计算机***及存储介质 |
CN111582464B (zh) * | 2017-12-29 | 2023-09-29 | 中科寒武纪科技股份有限公司 | 神经网络处理方法、计算机***及存储介质 |
CN109791628A (zh) * | 2017-12-29 | 2019-05-21 | 清华大学 | 神经网络模型分块压缩方法、训练方法、计算装置及*** |
CN109791628B (zh) * | 2017-12-29 | 2022-12-27 | 清华大学 | 神经网络模型分块压缩方法、训练方法、计算装置及*** |
CN110045960A (zh) * | 2018-01-16 | 2019-07-23 | 腾讯科技(深圳)有限公司 | 基于芯片的指令集处理方法、装置及存储介质 |
CN110046702B (zh) * | 2018-01-17 | 2023-05-26 | 联发科技股份有限公司 | 神经网络计算加速器及其执行的方法 |
CN110046702A (zh) * | 2018-01-17 | 2019-07-23 | 联发科技股份有限公司 | 神经网络计算加速器及其执行的方法 |
CN108334945B (zh) * | 2018-01-30 | 2020-12-25 | 中国科学院自动化研究所 | 深度神经网络的加速与压缩方法及装置 |
CN108334945A (zh) * | 2018-01-30 | 2018-07-27 | 中国科学院自动化研究所 | 深度神经网络的加速与压缩方法及装置 |
CN108416425B (zh) * | 2018-02-02 | 2020-09-29 | 浙江大华技术股份有限公司 | 一种卷积运算方法及装置 |
CN108416425A (zh) * | 2018-02-02 | 2018-08-17 | 浙江大华技术股份有限公司 | 一种卷积方法及装置 |
CN111767996B (zh) * | 2018-02-27 | 2024-03-05 | 上海寒武纪信息科技有限公司 | 集成电路芯片装置及相关产品 |
CN111767996A (zh) * | 2018-02-27 | 2020-10-13 | 上海寒武纪信息科技有限公司 | 集成电路芯片装置及相关产品 |
CN108510058A (zh) * | 2018-02-28 | 2018-09-07 | 中国科学院计算技术研究所 | 神经网络中的权重存储方法以及基于该方法的处理器 |
CN108510058B (zh) * | 2018-02-28 | 2021-07-20 | 中国科学院计算技术研究所 | 神经网络中的权重存储方法以及基于该方法的处理器 |
CN108171328B (zh) * | 2018-03-02 | 2020-12-29 | 中国科学院计算技术研究所 | 一种神经网络处理器和采用其执行的卷积运算方法 |
CN108171328A (zh) * | 2018-03-02 | 2018-06-15 | 中国科学院计算技术研究所 | 一种卷积运算方法和基于该方法的神经网络处理器 |
CN108647774A (zh) * | 2018-04-23 | 2018-10-12 | 福州瑞芯微电子股份有限公司 | 一种优化稀疏性矩阵运算的神经网络方法和电路 |
CN108647774B (zh) * | 2018-04-23 | 2020-11-20 | 瑞芯微电子股份有限公司 | 一种优化稀疏性矩阵运算的神经网络方法和电路 |
CN108764454A (zh) * | 2018-04-28 | 2018-11-06 | 中国科学院计算技术研究所 | 基于小波变换压缩和/或解压缩的神经网络处理方法 |
US11687759B2 (en) | 2018-05-01 | 2023-06-27 | Semiconductor Components Industries, Llc | Neural network accelerator |
CN110428047A (zh) * | 2018-05-01 | 2019-11-08 | 半导体组件工业公司 | 神经网络***以及用于实施神经网络的加速器 |
CN109325590B (zh) * | 2018-09-14 | 2020-11-03 | 中国科学院计算技术研究所 | 用于实现计算精度可变的神经网络处理器的装置 |
CN109325590A (zh) * | 2018-09-14 | 2019-02-12 | 中国科学院计算技术研究所 | 用于实现计算精度可变的神经网络处理器的装置 |
CN109543140A (zh) * | 2018-09-20 | 2019-03-29 | 中国科学院计算技术研究所 | 一种卷积神经网络加速器 |
CN109543140B (zh) * | 2018-09-20 | 2020-07-10 | 中国科学院计算技术研究所 | 一种卷积神经网络加速器 |
CN109492761A (zh) * | 2018-10-30 | 2019-03-19 | 深圳灵图慧视科技有限公司 | 实现神经网络的fpga加速装置、方法和*** |
US11588499B2 (en) | 2018-11-05 | 2023-02-21 | Samsung Electronics Co., Ltd. | Lossless compression of neural network weights |
CN109886416A (zh) * | 2019-02-01 | 2019-06-14 | 京微齐力(北京)科技有限公司 | 集成人工智能模块的***芯片及机器学习方法 |
CN110334716A (zh) * | 2019-07-04 | 2019-10-15 | 北京迈格威科技有限公司 | 特征图处理方法、图像处理方法及装置 |
CN110334716B (zh) * | 2019-07-04 | 2022-01-11 | 北京迈格威科技有限公司 | 特征图处理方法、图像处理方法及装置 |
WO2021012278A1 (zh) * | 2019-07-25 | 2021-01-28 | 深圳市大疆创新科技有限公司 | 一种数据的处理方法、***、编码器及解码器 |
CN112119593A (zh) * | 2019-07-25 | 2020-12-22 | 深圳市大疆创新科技有限公司 | 一种数据的处理方法、***、编码器及解码器 |
CN112396157A (zh) * | 2019-08-12 | 2021-02-23 | 美光科技公司 | 神经网络计算中与数据存储装置通信的***、方法及设备 |
CN111105018B (zh) * | 2019-10-21 | 2023-10-13 | 深圳云天励飞技术有限公司 | 一种数据处理方法及装置 |
CN111105018A (zh) * | 2019-10-21 | 2020-05-05 | 深圳云天励飞技术有限公司 | 一种数据处理方法及装置 |
US11455108B2 (en) | 2019-11-25 | 2022-09-27 | Lynxi Technologies Co., Ltd. | Method and device for controlling storage format of on-chip storage resource |
WO2021104179A1 (zh) * | 2019-11-25 | 2021-06-03 | 北京灵汐科技有限公司 | 片上存储资源的存储格式的控制方法及装置 |
CN113011577A (zh) * | 2019-12-20 | 2021-06-22 | 阿里巴巴集团控股有限公司 | 处理单元、处理器核、神经网络训练机及方法 |
CN113011577B (zh) * | 2019-12-20 | 2024-01-05 | 阿里巴巴集团控股有限公司 | 处理单元、处理器核、神经网络训练机及方法 |
CN111858196A (zh) * | 2020-06-12 | 2020-10-30 | 海光信息技术有限公司 | 一种计算单元检测方法、并行处理器及电子设备 |
US11874900B2 (en) | 2020-09-29 | 2024-01-16 | Hailo Technologies Ltd. | Cluster interlayer safety mechanism in an artificial neural network processor |
US11811421B2 (en) | 2020-09-29 | 2023-11-07 | Hailo Technologies Ltd. | Weights safety mechanism in an artificial neural network processor |
US11263077B1 (en) | 2020-09-29 | 2022-03-01 | Hailo Technologies Ltd. | Neural network intermediate results safety mechanism in an artificial neural network processor |
US11221929B1 (en) | 2020-09-29 | 2022-01-11 | Hailo Technologies Ltd. | Data stream fault detection mechanism in an artificial neural network processor |
US11237894B1 (en) | 2020-09-29 | 2022-02-01 | Hailo Technologies Ltd. | Layer control unit instruction addressing safety mechanism in an artificial neural network processor |
TWI769807B (zh) * | 2021-05-04 | 2022-07-01 | 國立清華大學 | 基於記憶體內運算單元之軟硬體協同之壓縮運算方法及其系統 |
CN113688983A (zh) * | 2021-08-09 | 2021-11-23 | 上海新氦类脑智能科技有限公司 | 脉冲神经网络中减少权重储存的卷积运算实现方法、电路及终端 |
Also Published As
Publication number | Publication date |
---|---|
CN106529670B (zh) | 2019-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106529670A (zh) | 一种基于权重压缩的神经网络处理器、设计方法、芯片 | |
CN106447034B (zh) | 一种基于数据压缩的神经网络处理器、设计方法、芯片 | |
CN106650924B (zh) | 一种基于时间维和空间维数据流压缩的处理器、设计方法 | |
CN110516801B (zh) | 一种高吞吐率的动态可重构卷积神经网络加速器 | |
Liang et al. | FP-BNN: Binarized neural network on FPGA | |
CN107169560B (zh) | 一种自适应可重构的深度卷积神经网络计算方法和装置 | |
CN106529668B (zh) | 加速深度神经网络算法的加速芯片的运算装置及方法 | |
CN107578098A (zh) | 基于脉动阵列的神经网络处理器 | |
CN108280514A (zh) | 基于fpga的稀疏神经网络加速***和设计方法 | |
CN106355244A (zh) | 卷积神经网络的构建方法及*** | |
CN108665059A (zh) | 基于现场可编程门阵列的卷积神经网络加速*** | |
CN108932548A (zh) | 一种基于fpga的稀疏度神经网络加速*** | |
CN109325591A (zh) | 面向Winograd卷积的神经网络处理器 | |
CN109447241B (zh) | 一种面向物联网领域的动态可重构卷积神经网络加速器架构 | |
CN110390383A (zh) | 一种基于幂指数量化的深度神经网络硬件加速器 | |
CN107609641A (zh) | 稀疏神经网络架构及其实现方法 | |
CN107423816B (zh) | 一种多计算精度神经网络处理方法和*** | |
CN109190756A (zh) | 基于Winograd卷积的运算装置及包含该装置的神经网络处理器 | |
CN109472356A (zh) | 一种可重构神经网络算法的加速装置及方法 | |
CN109376843A (zh) | 基于fpga的脑电信号快速分类方法、实现方法及装置 | |
CN107491811A (zh) | 用于加速神经网络处理器的方法和***及神经网络处理器 | |
CN101625735A (zh) | 基于ls-svm分类和回归学习递归神经网络的fpga实现方法 | |
CN110163359A (zh) | 一种计算装置及方法 | |
CN114218875A (zh) | 一种用于流场预测的加速方法及装置 | |
CN107085562A (zh) | 一种基于高效复用数据流的神经网络处理器及设计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230109 Address after: 518063 14th Floor, West Tower, Baidu International Building, No. 8, Haitian 1st Road, Binhai Community, Yuehai Street, Nanshan District, Shenzhen, Guangdong Patentee after: Zhongke Times (Shenzhen) Computer System Co.,Ltd. Address before: 100080 No. 6 South Road, Zhongguancun Academy of Sciences, Beijing, Haidian District Patentee before: Institute of Computing Technology, Chinese Academy of Sciences |