CN105681628B - 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法 - Google Patents
一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法 Download PDFInfo
- Publication number
- CN105681628B CN105681628B CN201610003960.2A CN201610003960A CN105681628B CN 105681628 B CN105681628 B CN 105681628B CN 201610003960 A CN201610003960 A CN 201610003960A CN 105681628 B CN105681628 B CN 105681628B
- Authority
- CN
- China
- Prior art keywords
- input
- restructural
- convolution
- output
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/21—Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
- H04N5/213—Circuitry for suppressing or minimising impulsive noise
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/73—Colour balance circuits, e.g. white balance circuits or colour temperature control
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Complex Calculations (AREA)
Abstract
本发明公开一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法;本发明所公开的可重构卷积神经网络处理器,包括总线接口、前处理单元、可重构硬件控制器、SRAM、SRAM控制模块、输入缓存模块、输出缓存模块、存储器、数据存储器控制器和卷积网络运算单元;其资源少、速度快、能适用于常用的卷积神经网络架构。本发明能够实现卷积神经网络,处理速度快,易于移植,资源消耗少,能够恢复被雨滴、灰尘污染的图像或者视频,还能作为前处理操作为后续的图像识别或者分类提供帮助。
Description
技术领域
本发明涉及图像处理领域,特别涉及一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法。
背景技术
图像雨滴和灰尘的去除对于图像处理应用有重要意义,特别是视频监控和导航***。它可用于恢复被雨滴、灰尘污染的图像或者视频,还可作为前处理操作为后续的图像识别或者分类提供帮助。
当前的去除图像噪声的方法大都利用高斯滤波、中值滤波、双边滤波等方式完成,这些方法处理效果不好,常常不能满足特定图像处理应用的需求。因此需要一个效果更好的方法来去除图像噪声,卷积神经网络的方法成为一个不错的选择。
当前的深度学习网络大都在GPU上运行,但是GPU价格昂贵,功耗高,并不适合大规模的广泛应用。而在CPU上运行速度慢,运行大规模的深度学习网络效率低,无法满足性能需求。
可以看出目前技术对于应用卷积神经网络,主要存在的问题有:处理器面积大,成本高,功耗大,性能差等问题。因此这就需要一个低功耗、面积小、处理效果好的可重构卷积神经网络处理器。
发明内容
本发明的目的在于提供一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法,硬件资源消耗低、面积小,能恢复被雨滴、灰尘污染的图像或者视频。
为了实现上述目的,本发明采用如下技术方案:
一种卷积网络运算单元,包括2个可重构分离卷积模块、非线性激活函数单元和乘累加器单元;
第一个可重构分离卷积模块的输出为非线性激活函数单元的输入,非线性激活函数单元的输出为乘累加器单元的输入,乘累加器单元的输出为第二个可重构分离卷积模块的输入;
图像信号和配置网络参数信号输入到第一个可重构分离卷积模块;第一个可重构分离卷积模块完成16×16卷积运算;非线性激活函数单元完成卷积神经网络中激活函数的运算;乘累加器单元完成卷积神经网络中的连接层的运算;第二个可重构分离卷积模块同时完成4个8×8卷积运算;
所述乘累加器单元包括若干乘累加器和若干寄存器;其中乘累加器用于计算上一层卷积网络的输出值与权重参数乘积的和;寄存器将上一层卷积网络的结果输入到乘累加器中。
进一步的,所述可重构分离卷积模块包括16个4×4可重构一维卷积模块和第一寄存器组;第一寄存器组将图像信号和卷积网络参数输入到可重构一维卷积模块;可重构分离卷积模块可完成1个16×16卷积或者同时完成4个8×8卷积运算;4×4可重构一维卷积模块包括4个第一选择器、4个第一2输入乘法器、第一4输入加法器、4个第二2输入乘法器和第二4输入加法器;4个第一选择器的输出端连接对应的4个第一2输入乘法器的输入端,4个第一2输入乘法器的另外一个输入端为神经网络的权重;4个第一2输入乘法器的输出端连接第一4输入加法器的输入端;4个第二2输入乘法器的输入为第一4输入加法器的输出和神经网络的权重;第二4输入加法器的输入为4个第二2输入乘法器的输出。
进一步的,所述非线性激活函数单元包括QD产生器和运算器组;其中QD产生器的输入为可重构分离卷积的输出,运算器组的输入为QD产生器的输出;QD产生器用于产生激活函数所需的参数;运算器组用于计算激活函数最终的结果值;
所述QD产生器包含一个第一除法器;输入信号输入到第一除法器,第一除法器输出商Q和余数D;所述运算器组包含移位寄存器、2个第一加法器和第二除法器;移位寄存器输出和 为2个第一加法器的输入;2个第一加法器的输出为第二除法器的输入;移位寄存器、第一加法器和第二除法器依次连接;
一种可重构卷积神经网络处理器,包括总线接口、前处理单元、可重构硬件控制器、SRAM、SRAM控制模块、输入缓存模块、输出缓存模块、存储器、数据存储器控制器和若干权利要求1至3中任一项所述的卷积网络运算单元;总线接口连接前处理单元、数据存储器控制器、可重构硬件控制器和输入缓存、输出缓存;存储器连接数据存储器控制器;输入缓存连接可重构硬件控制器和SRAM控制模块;卷积网络运算单元连接输入缓存模块、输出缓存模块;
所述的前处理单元的输入为图像或者视频信号;完成白平衡、噪声过滤等前处理操作;
所述的输入缓存模块、输出缓存模块分别用于缓存卷积网络运算单元的输入和输出;
所述的可重构硬件控制器对卷积网络运算模块进行配置,控制其运算过程;在运算过程中或者结束时发送中断请求完成与外部***的交互;
所述的SRAM控制模块用于控制卷积网络权重参数的传输。
进一步的,包括512个卷积网络运算单元,实现基于卷积神经网络的图像去噪处理。
进一步的,所述一种可重构卷积神经网络处理器实现一个3层卷积神经网络,用于去除图像或者视频中附着的雨滴和灰尘;所述的卷积神经网络第一层由512个16×16卷积构成,第二层为神经网络连接层,第三层由512个8×8卷积构成。
一种可重构卷积神经网络处理器实现图像去噪处理的方法,包括:
在图像去噪处理的过程中,随机减少卷积个数,减少硬件资源的消耗,提高处理速度;
或者,在图像去噪处理的过程中将16×16卷积运算单元和8×8卷积运算单元分别分成16个和4个4×4的卷积模板,对每个4×4的卷积采用一维卷积。
相对于现有技术,本发明具有以下有益效果:卷积网络运算单元利用可重构技术,可完成16×16卷积或者同时完成4个8×8卷积运算,提高硬件性能和灵活性。本发明利用深度学习的方法,实现了可去除图像雨滴和灰尘的去噪处理,处理效果满足需求。本发明在不影响处理效果的前提下,随机减少卷积网络的模板个数,而且还利用分块一维卷积的方法,硬件资源消 耗大大减少,处理速度大大提高。此处理器可实现3层的卷积神经网络,能够为后续更高层次的图像识别、分类提供特征。相对于GPU价格昂贵,功耗高,面积大。CPU运行速度慢,运行大规模的深度学习网络效率低。本发明采用可重构技术和上述减少模板个数和分块一维卷积的方法,实现的可重构卷积神经网络处理器的资源消耗低、易于硬件实现,能够恢复被雨滴、灰尘污染的图像或者视频。
附图说明
图1是卷积网络运算单元的结构示意图;
图2是非线性激活函数单元的结构示意图;
图3是第一4×4可重构一维卷积模块的结构示意图;
图4是可重构分离卷积模块的结构示意图;
图5是可重构卷积神经网络处理器的结构示意图;
具体实施方式
下面结合附图说明和具体实施方式对本发明做详细说明。
参照图1,本发明中可重构卷积神经网络处理器中所使用的卷积网络运算单元包括2个可重构分离卷积模块、非线性激活函数单元和乘累加器单元;第一个可重构分离卷积模块的输出为非线性激活函数单元的输入,非线性激活函数单元的输出为乘累加器单元的输入,乘累加器单元的输出为第二个可重构分离卷积模块的输入;
图像信号和配置网络参数信号输入到第一个可重构分离卷积模块;第一个可重构分离卷积模块完成16×16卷积运算;非线性激活函数单元完成卷积神经网络中激活函数的运算;乘累加器单元完成卷积神经网络中的连接层的运算;第二个可重构分离卷积模块同时完成4个8×8卷积运算;
请参阅图2所示,非线性激活函数单元包括QD产生器和运算器组;其中QD产生器的输入为可重构分离卷积的输出,运算器组的输入为QD产生器的输出;QD产生器用于产生激活函数所需的参数;运算器组用于计算激活函数最终的结果。
本发明神经网络的激活函数为双曲正切函数
通过定义域扩展和泰勒级数展开,得到
其中|D|<ln2
QD产生器包含一个第一除法器,输入信号输入到第一除法器,第一除法器除以定值0.69,输出商Q和余数D;所述运算器组包含移位寄存器、2个第一加法器和第二除法器;移位寄存器输出和为2个第一加法器的输入;2个第一加法器的输出为第二除法器的输入;移位寄存器、第一加法器和第二除法器依次连接;
请参阅图3所示,4×4可重构一维卷积模块包括4个第一选择器MUX,4个第一2输入乘法器,第一4输入加法器,4个第二2输入乘法器,第二4输入加法器。第一选择器的两个输入为图像信号和前一级结果;4个第一选择器的输出端连接对应的4个第一2输入乘法器的一个输入端,4个第一2输入乘法器的另外一个输入端为神经网络的权重;4个第一2输入乘法器的输出端连接第一4输入加法器的输入端;4个第二2输入乘法器的输入为第一4输入加法器的输出和神经网络的权重;第二4输入加法器的输入为4个第二2输入乘法器的输出。
请参阅图4所示,可重构分离卷积模块包括第一寄存器组、16个4×4可重构一维卷积模块、4个4输入第一加法器和1个4输入第二加法器。利用可重构技术,可重构分离卷积模块可完成16×16或者同时完成4个8×8卷积运算。图像信号和配置信号输入到第一寄存器组。第一4×4卷积1的输入为1-4行图像信号,第一4×4卷积5的输入为5-8行图像信号。
当卷积模板为16×16时,第一4×4卷积3的输入为第一4×4卷积2的输出,第一4×4卷积7的输入为第一4×4卷积6的输出,第一4×4卷积11的输入为第一4×4卷积10的输出,第一4×4卷积15的输入为第一4×4卷积14的输出。第一4×4卷积9的输入为9-12行图像信号,第一4×4卷积13的输入为13-16行图像信号。可重构分离卷积模块输出为第二加法器的结果。
当卷积模块为8×8时,第一4×4卷积3的输入为1-4行图像信号,第一4×4卷积7的输入为1-4行图像信号,第一4×4卷积11的输入为1-4行图像信号,第一4×4卷积15的输入为1-4行图像信号。第一4×4卷积9的输入为1-4行图像信号,第一4×4卷积13的输入为5-8行图像信号。可重构分离卷积模块输出为4个第一加法器的结果。一个可重构分离卷积模块可同时完成4个8×8卷积运算。
请参阅图5所示,本发明一种可重构卷积神经网络处理器包括总线接口、前处理单元、可重构硬件控制器、SRAM、SRAM控制模块、输入缓存、输出缓存、存储器、数据存储器控制器和若干卷积网络运算单元;总线接口连接前处理单元、数据存储器控制器、可重构硬件控制器和输入缓存、输出缓存;存储器连接数据存储器控制器;输入缓存连接可重构硬件控制器和SRAM控制模块;卷积网络运算单元连接输入缓存模块、输出缓存模块。
前处理单元的输入为图像或者视频信号;完成白平衡、噪声过滤等前处理操作;输入缓存模块、输出缓存分别用于缓存卷积网络运算单元的输入和输出。可重构硬件控制器对卷积网络运算单元进行配置,控制其运算过程;在运算过程中或者结束时发送中断请求完成与外部***的交互;SRAM控制模块用于控制卷积网络权重参数的传输。
一个实现去除图像雨滴和灰尘的卷积神经网络中,包括512个卷积网络运算单元。为了减少资源,提高处理速度,本发明在具体实现过程中采用了以下两种方法:(1)随机减少卷积个数的方法:在不影响处理效果的前提下减少卷积网络运算单元的个数,减少硬件资源的消耗,提高处理速度;(2)分块一维卷积的方法:将16×16和8×8的卷积模板分别分成16个和4个4×4的卷积模板,对每个4×4的卷积采用一维卷积的方式。
参照图5,可重构16×16卷积运算单元包括16个4×4可重构一维卷积模块(1,2,3,…,16)、行存模块和寄存器;行存模块输入为图像或者视频信号,寄存器组的输入为行存模块的输出,4×4可重构一维卷积模块的输入为寄存器组的输出;行存模块用于保存图像;寄存器用于保存行存串行输入的图像数据,将图像数据输入到4×4可重构一维卷积模块。
可重构8×8卷积运算单元包括4个4×4可重构一维卷积模块(1,2,3,4)、行存模块和寄 存器;行存模块输入为乘累加器的输出,寄存器组的输入为行存模块的输出,4×4可重构一维卷积模块的输入为寄存器组的输出。
Claims (6)
1.一种卷积网络运算单元,其特征在于:包括2个可重构分离卷积模块、非线性激活函数单元和乘累加器单元;
第一个可重构分离卷积模块的输出为非线性激活函数单元的输入,非线性激活函数单元的输出为乘累加器单元的输入,乘累加器单元的输出为第二个可重构分离卷积模块的输入;
图像信号和配置网络参数信号输入到第一个可重构分离卷积模块;第一个可重构分离卷积模块完成16×16卷积运算;非线性激活函数单元完成卷积神经网络中激活函数的运算;乘累加器单元完成卷积神经网络中的连接层的运算;第二个可重构分离卷积模块同时完成4个8×8卷积运算;
所述乘累加器单元包括若干乘累加器和若干寄存器;其中乘累加器用于计算上一层卷积网络的输出值与权重参数乘积的和;寄存器将上一层卷积网络的结果输入到乘累加器中;
所述可重构分离卷积模块包括16个4×4可重构一维卷积模块和第一寄存器组;第一寄存器组用于将图像信号或前一级输出和卷积网络参数输入到可重构一维卷积模块;可重构分离卷积模块用于完成1个16×16卷积或者同时完成4个8×8卷积运算;
4×4可重构一维卷积模块包括4个第一选择器、4个第一2输入乘法器、第一4输入加法器、4个第二2输入乘法器和第二4输入加法器;4个第一选择器的输出端连接对应的4个第一2输入乘法器的输入端,4个第一2输入乘法器的另外一个输入端为神经网络的权重;4个第一2输入乘法器的输出端连接第一4输入加法器的输入端;4个第二2输入乘法器的输入为第一4输入加法器的输出和神经网络的权重;第二4输入加法器的输入为4个第二2输入乘法器的输出。
2.根据权利要求1所述的一种卷积网络运算单元,其特征在于:所述非线性激活函数单元包括QD产生器和运算器组;其中QD产生器的输入为可重构分离卷积的输出,运算器组的输入为QD产生器的输出;QD产生器用于产生激活函数所需的参数;运算器组用于计算激活函数最终的结果值;
所述QD产生器包含一个第一除法器;输入信号输入到第一除法器,第一除法器输出商Q和余数D;所述运算器组包含移位寄存器、2个第一加法器和第二除法器;移位寄存器输出和为2个第一加法器的输入;2个第一加法器的输出为第二除法器的输入;移位寄存器、第一加法器和第二除法器依次连接。
3.一种可重构卷积神经网络处理器,其特征在于:包括总线接口、前处理单元、可重构硬件控制器、SRAM、SRAM控制模块、输入缓存模块、输出缓存模块、存储器、数据存储器控制器和若干权利要求1至2中任一项所述的卷积网络运算单元;总线接口连接前处理单元、数据存储器控制器、可重构硬件控制器和输入缓存、输出缓存;存储器连接数据存储器控制器;输入缓存连接可重构硬件控制器和SRAM控制模块;卷积网络运算单元连接输入缓存模块、输出缓存模块;
所述的前处理单元的输入为图像或者视频信号;完成白平衡、噪声过滤等前处理操作;
所述的输入缓存模块、输出缓存模块分别用于缓存卷积网络运算单元的输入和输出;
所述的可重构硬件控制器对卷积网络运算模块进行配置,控制其运算过程;在运算过程中或者结束时发送中断请求完成与外部***的交互;
所述的SRAM控制模块用于控制卷积网络权重参数的传输。
4.根据权利要求3所述的一种可重构卷积神经网络处理器,其特征在于:包括512个卷积网络运算单元,实现基于卷积神经网络的图像去噪处理。
5.根据权利要求3所述的一种可重构卷积神经网络处理器,其特征在于:所述一种可重构卷积神经网络处理器实现一个3层卷积神经网络,用于去除图像或者视频中附着的雨滴和灰尘;所述的卷积神经网络第一层由512个16×16卷积构成,第二层为神经网络连接层,第三层由512个8×8卷积构成。
6.权利要求3所述的一种可重构卷积神经网络处理器实现图像去噪处理的方法,其特征在于:包括:
在图像去噪处理的过程中,随机减少卷积个数,减少硬件资源的消耗,提高处理速度;
或者,在图像去噪处理的过程中将16×16卷积运算单元和8×8卷积运算单元分别分成16个和4个4×4的卷积模板,对每个4×4的卷积采用一维卷积。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610003960.2A CN105681628B (zh) | 2016-01-05 | 2016-01-05 | 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610003960.2A CN105681628B (zh) | 2016-01-05 | 2016-01-05 | 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105681628A CN105681628A (zh) | 2016-06-15 |
CN105681628B true CN105681628B (zh) | 2018-12-07 |
Family
ID=56298840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610003960.2A Active CN105681628B (zh) | 2016-01-05 | 2016-01-05 | 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105681628B (zh) |
Families Citing this family (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203617B (zh) * | 2016-06-27 | 2018-08-21 | 哈尔滨工业大学深圳研究生院 | 一种基于卷积神经网络的加速处理单元及阵列结构 |
CN106203621B (zh) * | 2016-07-11 | 2019-04-30 | 北京深鉴智能科技有限公司 | 用于卷积神经网络计算的处理器 |
CN108604369B (zh) * | 2016-07-27 | 2020-10-27 | 华为技术有限公司 | 一种去除图像噪声的方法、装置、设备及卷积神经网络 |
CN106250103A (zh) * | 2016-08-04 | 2016-12-21 | 东南大学 | 一种卷积神经网络循环卷积计算数据重用的*** |
US10810484B2 (en) | 2016-08-12 | 2020-10-20 | Xilinx, Inc. | Hardware accelerator for compressed GRU on FPGA |
US10621486B2 (en) | 2016-08-12 | 2020-04-14 | Beijing Deephi Intelligent Technology Co., Ltd. | Method for optimizing an artificial neural network (ANN) |
US10936941B2 (en) | 2016-08-12 | 2021-03-02 | Xilinx, Inc. | Efficient data access control device for neural network hardware acceleration system |
CN107229967B (zh) * | 2016-08-22 | 2021-06-15 | 赛灵思公司 | 一种基于fpga实现稀疏化gru神经网络的硬件加速器及方法 |
US10802992B2 (en) | 2016-08-12 | 2020-10-13 | Xilinx Technology Beijing Limited | Combining CPU and special accelerator for implementing an artificial neural network |
US10762426B2 (en) | 2016-08-12 | 2020-09-01 | Beijing Deephi Intelligent Technology Co., Ltd. | Multi-iteration compression for deep neural networks |
US10643124B2 (en) | 2016-08-12 | 2020-05-05 | Beijing Deephi Intelligent Technology Co., Ltd. | Method and device for quantizing complex artificial neural network |
US10984308B2 (en) | 2016-08-12 | 2021-04-20 | Xilinx Technology Beijing Limited | Compression method for deep neural networks with load balance |
US10832123B2 (en) | 2016-08-12 | 2020-11-10 | Xilinx Technology Beijing Limited | Compression of deep neural networks with proper use of mask |
US10698657B2 (en) | 2016-08-12 | 2020-06-30 | Xilinx, Inc. | Hardware accelerator for compressed RNN on FPGA |
CN106331433B (zh) * | 2016-08-25 | 2020-04-24 | 上海交通大学 | 基于深度递归神经网络的视频去噪方法 |
KR20180034853A (ko) * | 2016-09-28 | 2018-04-05 | 에스케이하이닉스 주식회사 | 합성곱 신경망의 연산 장치 및 방법 |
IE87469B1 (en) * | 2016-10-06 | 2024-01-03 | Google Llc | Image processing neural networks with separable convolutional layers |
JP2018067154A (ja) * | 2016-10-19 | 2018-04-26 | ソニーセミコンダクタソリューションズ株式会社 | 演算処理回路および認識システム |
US10733505B2 (en) * | 2016-11-10 | 2020-08-04 | Google Llc | Performing kernel striding in hardware |
CN106529669A (zh) | 2016-11-10 | 2017-03-22 | 北京百度网讯科技有限公司 | 用于处理数据序列的方法和装置 |
CN108073550A (zh) * | 2016-11-14 | 2018-05-25 | 耐能股份有限公司 | 缓冲装置及卷积运算装置与方法 |
CN108073977A (zh) * | 2016-11-14 | 2018-05-25 | 耐能股份有限公司 | 卷积运算装置及卷积运算方法 |
US10417560B2 (en) * | 2016-12-01 | 2019-09-17 | Via Alliance Semiconductor Co., Ltd. | Neural network unit that performs efficient 3-dimensional convolutions |
US10438115B2 (en) * | 2016-12-01 | 2019-10-08 | Via Alliance Semiconductor Co., Ltd. | Neural network unit with memory layout to perform efficient 3-dimensional convolutions |
CN108241484B (zh) * | 2016-12-26 | 2021-10-15 | 上海寒武纪信息科技有限公司 | 基于高带宽存储器的神经网络计算装置和方法 |
US10140574B2 (en) * | 2016-12-31 | 2018-11-27 | Via Alliance Semiconductor Co., Ltd | Neural network unit with segmentable array width rotator and re-shapeable weight memory to match segment width to provide common weights to multiple rotator segments |
CN106909970B (zh) * | 2017-01-12 | 2020-04-21 | 南京风兴科技有限公司 | 一种基于近似计算的二值权重卷积神经网络硬件加速器计算装置 |
CN106843809B (zh) * | 2017-01-25 | 2019-04-30 | 北京大学 | 一种基于nor flash阵列的卷积运算方法 |
CN106940815B (zh) * | 2017-02-13 | 2020-07-28 | 西安交通大学 | 一种可编程卷积神经网络协处理器ip核 |
CN108629406B (zh) * | 2017-03-24 | 2020-12-18 | 展讯通信(上海)有限公司 | 用于卷积神经网络的运算装置 |
CN108804974B (zh) * | 2017-04-27 | 2021-07-02 | 深圳鲲云信息科技有限公司 | 目标检测算法的硬件架构的资源估算、配置方法及*** |
CN108804973B (zh) * | 2017-04-27 | 2021-11-09 | 深圳鲲云信息科技有限公司 | 基于深度学习的目标检测算法的硬件架构及其执行方法 |
CN107248144B (zh) * | 2017-04-27 | 2019-12-10 | 东南大学 | 一种基于压缩型卷积神经网络的图像去噪方法 |
CN107256424B (zh) * | 2017-05-08 | 2020-03-31 | 中国科学院计算技术研究所 | 三值权重卷积网络处理***及方法 |
CN107169563B (zh) | 2017-05-08 | 2018-11-30 | 中国科学院计算技术研究所 | 应用于二值权重卷积网络的处理***及方法 |
CN109117945B (zh) * | 2017-06-22 | 2021-01-26 | 上海寒武纪信息科技有限公司 | 处理器及其处理方法、芯片、芯片封装结构及电子装置 |
CN107480782B (zh) * | 2017-08-14 | 2020-11-10 | 电子科技大学 | 一种片上学习神经网络处理器 |
CN107609641B (zh) * | 2017-08-30 | 2020-07-03 | 清华大学 | 稀疏神经网络架构及其实现方法 |
CN107862374B (zh) * | 2017-10-30 | 2020-07-31 | 中国科学院计算技术研究所 | 基于流水线的神经网络处理***和处理方法 |
CN107844826B (zh) * | 2017-10-30 | 2020-07-31 | 中国科学院计算技术研究所 | 神经网络处理单元及包含该处理单元的处理*** |
CN108304923B (zh) * | 2017-12-06 | 2022-01-18 | 腾讯科技(深圳)有限公司 | 卷积运算处理方法及相关产品 |
CN107909148B (zh) * | 2017-12-12 | 2020-10-20 | 南京地平线机器人技术有限公司 | 用于执行卷积神经网络中的卷积运算的装置 |
CN108038815B (zh) * | 2017-12-20 | 2019-12-17 | 深圳云天励飞技术有限公司 | 集成电路 |
CN108256628B (zh) * | 2018-01-15 | 2020-05-22 | 合肥工业大学 | 基于多播片上网络的卷积神经网络硬件加速器及其工作方法 |
CN108154194B (zh) * | 2018-01-18 | 2021-04-30 | 北京工业大学 | 一种用基于张量的卷积网络提取高维特征的方法 |
CN110147872B (zh) * | 2018-05-18 | 2020-07-17 | 中科寒武纪科技股份有限公司 | 编码存储装置及方法、处理器及训练方法 |
CN108846420B (zh) * | 2018-05-28 | 2021-04-30 | 北京陌上花科技有限公司 | 网络结构以及客户端 |
CN108764336A (zh) * | 2018-05-28 | 2018-11-06 | 北京陌上花科技有限公司 | 用于图像识别的深度学习方法及装置、客户端、服务器 |
CN109343826B (zh) * | 2018-08-14 | 2021-07-13 | 西安交通大学 | 一种面向深度学习的可重构处理器运算单元 |
CN110874632B (zh) * | 2018-08-31 | 2024-05-03 | 嘉楠明芯(北京)科技有限公司 | 图像识别处理方法和装置 |
CN109409512B (zh) * | 2018-09-27 | 2021-02-19 | 西安交通大学 | 一种可灵活配置的神经网络计算单元、计算阵列及其构建方法 |
TWI766193B (zh) * | 2018-12-06 | 2022-06-01 | 神盾股份有限公司 | 卷積神經網路處理器及其資料處理方法 |
CN109711533B (zh) * | 2018-12-20 | 2023-04-28 | 西安电子科技大学 | 基于fpga的卷积神经网络加速*** |
CN109472356A (zh) * | 2018-12-29 | 2019-03-15 | 南京宁麒智能计算芯片研究院有限公司 | 一种可重构神经网络算法的加速装置及方法 |
CN109784483B (zh) * | 2019-01-24 | 2022-09-09 | 电子科技大学 | 基于fd-soi工艺的二值化卷积神经网络内存内计算加速器 |
CN111626399B (zh) * | 2019-02-27 | 2023-07-28 | 中国科学院半导体研究所 | 卷积神经网络计算装置、数据计算方法 |
CN110070178B (zh) * | 2019-04-25 | 2021-05-14 | 北京交通大学 | 一种卷积神经网络计算装置及方法 |
CN111008697B (zh) * | 2019-11-06 | 2022-08-09 | 北京中科胜芯科技有限公司 | 一种卷积神经网络加速器实现架构 |
TWI734598B (zh) * | 2020-08-26 | 2021-07-21 | 元智大學 | 影像雨紋去除方法 |
RU2764395C1 (ru) | 2020-11-23 | 2022-01-17 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для совместного выполнения дебайеризации и устранения шумов изображения с помощью нейронной сети |
CN113591025B (zh) * | 2021-08-03 | 2024-06-14 | 深圳思谋信息科技有限公司 | 特征图的处理方法、装置、卷积神经网络加速器和介质 |
CN115841416B (zh) * | 2022-11-29 | 2024-03-19 | 白盒子(上海)微电子科技有限公司 | 一种用于自动驾驶领域的可重构智能图像处理器架构 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4644488A (en) * | 1983-10-12 | 1987-02-17 | California Institute Of Technology | Pipeline active filter utilizing a booth type multiplier |
US4937774A (en) * | 1988-11-03 | 1990-06-26 | Harris Corporation | East image processing accelerator for real time image processing applications |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8442927B2 (en) * | 2009-07-30 | 2013-05-14 | Nec Laboratories America, Inc. | Dynamically configurable, multi-ported co-processor for convolutional neural networks |
-
2016
- 2016-01-05 CN CN201610003960.2A patent/CN105681628B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4644488A (en) * | 1983-10-12 | 1987-02-17 | California Institute Of Technology | Pipeline active filter utilizing a booth type multiplier |
US4937774A (en) * | 1988-11-03 | 1990-06-26 | Harris Corporation | East image processing accelerator for real time image processing applications |
Non-Patent Citations (4)
Title |
---|
A Deep Convolutional Neural Network Based on Nested Residue Number System;Hiroki Nakahara etal;《Field Programmable Logic and Applications (FPL)》;20150904;全文 * |
A Massively Parallel Coprocessor for Conv-olutional Neural Networks;Murugan Sankaradas etal;《2009 20th IEEE International Conference on Application-specific Systems, Architectures and Processors》;20090709;全文 * |
A reconfigurable interconnected filter for face recognition based on convolution neural network;Shefa A. Dawwd;《Design and Test Workshop (IDT)》;20091117;全文 * |
卷积神经网络的FPGA并行加速方案设计;方睿等;《计算机工程与应用》;20150415(第8期);第2-4章,图1-4 * |
Also Published As
Publication number | Publication date |
---|---|
CN105681628A (zh) | 2016-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105681628B (zh) | 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法 | |
CN111684473B (zh) | 提高神经网络阵列的性能 | |
US10943167B1 (en) | Restructuring a multi-dimensional array | |
CN106529670B (zh) | 一种基于权重压缩的神经网络处理器、设计方法、芯片 | |
CN105930902B (zh) | 一种神经网络的处理方法、*** | |
CN110533164B (zh) | 一种面向卷积神经网络加速器的Winograd卷积拆分方法 | |
CN107463990A (zh) | 一种卷积神经网络的fpga并行加速方法 | |
CN108733348B (zh) | 融合向量乘法器和使用其进行运算的方法 | |
CN110321997B (zh) | 高并行度计算平台、***及计算实现方法 | |
CN106203617A (zh) | 一种基于卷积神经网络的加速处理单元及阵列结构 | |
CN111626403B (zh) | 一种基于cpu-fpga内存共享的卷积神经网络加速器 | |
CN110163362A (zh) | 一种计算装置及方法 | |
CN113033794B (zh) | 基于深度可分离卷积的轻量级神经网络硬件加速器 | |
CN110276447A (zh) | 一种计算装置及方法 | |
CN109284824A (zh) | 一种基于可重构技术的用于加速卷积和池化运算的装置 | |
CN109472734B (zh) | 一种基于fpga的目标检测网络及其实现方法 | |
Duan et al. | Energy-efficient architecture for FPGA-based deep convolutional neural networks with binary weights | |
Xiao et al. | FPGA-based scalable and highly concurrent convolutional neural network acceleration | |
CN114519425A (zh) | 一种规模可扩展的卷积神经网络加速*** | |
CN102970545A (zh) | 一种基于二维离散小波变换算法的静态图像压缩方法 | |
CN105955896A (zh) | 一种可重构dbf算法硬件加速器及控制方法 | |
Yin et al. | FPGA-based high-performance CNN accelerator architecture with high DSP utilization and efficient scheduling mode | |
CN112988229B (zh) | 基于异构计算的卷积神经网络资源优化配置方法 | |
CN111886605B (zh) | 针对多个输入数据集的处理 | |
Jiang et al. | Hardware implementation of depthwise separable convolution neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |