CN109313663B - 人工智能计算辅助处理装置、方法、存储介质、及终端 - Google Patents

人工智能计算辅助处理装置、方法、存储介质、及终端 Download PDF

Info

Publication number
CN109313663B
CN109313663B CN201880002144.7A CN201880002144A CN109313663B CN 109313663 B CN109313663 B CN 109313663B CN 201880002144 A CN201880002144 A CN 201880002144A CN 109313663 B CN109313663 B CN 109313663B
Authority
CN
China
Prior art keywords
matrix
zero
processed
data
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880002144.7A
Other languages
English (en)
Other versions
CN109313663A (zh
Inventor
肖梦秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Corerain Technologies Co Ltd
Original Assignee
Shenzhen Corerain Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Corerain Technologies Co Ltd filed Critical Shenzhen Corerain Technologies Co Ltd
Publication of CN109313663A publication Critical patent/CN109313663A/zh
Application granted granted Critical
Publication of CN109313663B publication Critical patent/CN109313663B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Complex Calculations (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种人工智能计算辅助处理装置,包括:多个存储模块,存储有待处理数据矩阵;内存,设有零矩阵;控制模块,用于将所述待处理数据矩阵从所述存储模块中取出,并置于所述内存零矩阵中,以令所述待处理数据矩阵能够以其任意一个第一矩阵元素为中心构成尺寸为W*W的待卷积矩阵,供卷积核矩阵按照预设步长进行卷积计算;其中,W为所述卷积核矩阵的尺寸。本发明通过硬件结构搭建补零操作体系,且在内存中预设有零矩阵,供待处理数据矩阵置入即可实现补零操作,无需计算补零的数量或者补零的位置等参数,大大降低了***的计算量,提升了补零操作的效率,加快了图像处理等操作的响应速度。

Description

人工智能计算辅助处理装置、方法、存储介质、及终端
技术领域
本发明涉及人工智能领域,特别是涉及人工智能计算辅助处理方法、装置、可读计算机存储介质、及终端。
背景技术
现今,随着人工智能产业的发展,各种人工智能领域的技术随之兴起。其中,卷积神经网络已然成为众多人工智能领域的研究热点。
早在20世纪60年代,就有科学家在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络。随后,又有更多的科研工作者投入到卷积神经网络的研究中。
通常,为使卷积提取特征值后的矩阵大小与卷积之前的原数据矩阵大小一致,需对原数据矩阵进行补零操作。
但是,现有技术中的补零操作通常都只能通过软件技术进行补零,CPU的计算量非常大,进而导致补零效率非常低。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种工智能计算辅助处理方法、装置、可读计算机存储介质、及终端,用于解决现有技术中补零操作效率低、计算量大等技术问题。
为实现上述目的及其他相关目的,本发明提供一种人工智能计算辅助处理装置,包括:多个存储模块,存储有待处理数据矩阵;内存,设有零矩阵;控制模块,用于将所述待处理数据矩阵从所述存储模块中取出,并置于所述内存零矩阵中,以令所述待处理数据矩阵能够以其任意一个第一矩阵元素为中心构成尺寸为W*W的待卷积矩阵,供卷积核矩阵按照预设步长进行卷积计算;其中,W为所述卷积核矩阵的尺寸。
于本发明的一实施例中,所述待处理数据矩阵包括n*m矩阵,所述零矩阵包括N*M零矩阵;其中,
Figure BDA0001879104270000011
于本发明的一实施例中,所述将所述待处理数据矩阵从所述存储模块中取出,并置于所述内的零矩阵中,具体包括:所述控制模块将所述n*m矩阵从所述存储模块中取出并置于所述内存的N*M零矩阵中以形成填充矩阵;其中,所述填充矩阵包括:第1至第
Figure BDA0001879104270000021
行,第/>
Figure BDA0001879104270000022
至第N行为零;第1至第/>
Figure BDA0001879104270000023
列,第/>
Figure BDA0001879104270000024
至第M列为零;其他区域为所述n*m矩阵。
于本发明的一实施例中,所述将所述待处理数据矩阵从所述存储模块中取出,并置于所述内的零矩阵中,具体方式包括:所述n*m矩阵分为多个尺寸相同的分块矩阵;所述控制模块依次取出各所述分块矩阵,并按照预设放置条件将各所述分块矩阵填入所述N*M零矩阵中。
于本发明的一实施例中,所述预设放置条件包括:所述控制模块根据所述内存中的预设起始地址以及所述分块矩阵的尺寸,依次将各所述分块矩阵置入所述N*M零矩阵中。
于本发明的一实施例中,所述存储模块包括双存储模块。
于本发明的一实施例中,所述人工智能计算辅助处理装置包括:乘法器,用于将每个所述待卷积矩阵分别与卷积核相乘,得到相应的乘法结果矩阵;其中,各所述乘法结果矩阵与各所述第一矩阵元素对位;加法器,用于将每个所述乘法结果矩阵中的第二矩阵元素相加,得到相应的卷积结果值;其中,各所述卷积结果值与各所述第一矩阵元素对位,以组成尺寸为n*m的卷积结果矩阵。
为实现上述目的及其他相关目的,本发明提供一种人工智能计算辅助处理方法,应用于控制模块,所述方法包括:从存储模块中取出n*m矩阵;将所述n*m矩阵置于内存的N*M零矩阵中,以令所述n*m矩阵能够以其任意一个第一矩阵元素为中心构成尺寸为W*W的待卷积矩阵,供与所述卷积核进行卷积计算;其中,
Figure BDA0001879104270000025
W为卷积核的阶数。
于本发明的一实施例中,所述控制模块从所述存储模块中将所述n*m矩阵取出,具体包括:所述n*m矩阵分为多个尺寸相同的分块矩阵;所述控制模块依次取出各所述分块矩阵。
于本发明的一实施例中,所述将所述n*m矩阵置于内存的N*M零矩阵中,具体包括:所述控制模块根据起始地址以及所述分块矩阵的尺寸,依次将各所述分块矩阵填入所述N*M零矩阵中。
为实现上述目的及其他相关目的,本发明提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现所述人工智能计算辅助处理方法。
为实现上述目的及其他相关目的,本发明提供一种人工智能计算辅助处理终端,,包括:处理器及存储器;所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行所述人工智能计算辅助处理方法。
如上所述,本发明的人工智能计算辅助处理方法、装置、可读计算机存储介质、及终端,具有以下有益效果:本发明提供的人工智能计算辅助处理方法及装置,通过硬件结构搭建补零操作体系,且在内存中预设有零矩阵,供待处理数据矩阵置入即可实现补零操作,无需计算补零的数量或者补零的位置等参数,大大降低了***的计算量,提升了补零操作的效率,加快了图像处理等操作的响应速度。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
附图说明
图1显示为本发明一实施例中的人工智能计算辅助处理装置的示意图。
图2显示为本发明一实施例中的人工智智能计算辅助处理过程的示意图。
图3显示为本发明一实施例中的人工智智能计算辅助处理过程的示意图。
图4显示为本发明一实施例中的人工智智能计算辅助处理过程的示意图。
图5显示为本发明一实施例中的人工智智能计算辅助处理过程的示意图。
图6显示为本发明一实施例中的人工智智能计算辅助处理过程的示意图。
图7显示为本发明一实施例中的人工智智能计算辅助处理装置的示意图。
图8显示为本发明一实施例中的人工智智能计算辅助处理方法的示意图。
元件标号说明
11 存储模块
12 内存
13 控制模块
M1 待处理数据矩阵
M2 卷积核矩阵
M3 零矩阵
M4 填充矩阵
M401~M425 待卷积矩阵
M501~M505 乘法结果矩阵
M6 卷积结果矩阵
M7 待处理数据矩阵
M8 零矩阵
71 存储模块
72 内存
R1 矩形虚线框
R2 矩形虚线框
R3 矩形虚线框
S801~S802 步骤
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
本发明提供一种人工智能计算辅助处理装置,用于对待处理数据矩阵进行补零操作。
如图1所示,展示本发明一实施例中的人工智能计算辅助处理装置。所述人工智能计算辅助处理装置包括多个存储模块11、内存12、以及控制模块13。其中,所述多个存储模块11存储有n*m矩阵,n和m均为大于等于1的自然数。所述内存12中存储有N*M零矩阵;所述控制模块13用于取出所述n*m矩阵并置于所述N*M零矩阵中。
优选的,所述存储模块11为双存储模块;所述双存储模块具体包括两个存储模块,当其中一个存储模块在扫描输出时另一个存储模块在处理数据;到下一个周期时,处理完数据的存储模块开始扫描输出,而原先在扫描输出的存储模块开始处理数据。也即,所述两个存储模块总是处于其中一个在扫描而另一个在处理数据的状态,其效果为最终输出的每一帧数据看似都经历了处理和扫描输出这两个步骤,而其实是通过两个存储器协同合作共同完成的,从而达到了成倍提升数据传输和处理效率的技术效果。
优选的,所述控制模块通过DMA方式实现数据传输。具体的,所述DMA全称为DirectMemory Access,意为直接内存访问,是一种不经过CPU即可直接从内存存取数据的控制器。在DMA模式下,CPU只需向控制模块下达指令,让控制模块处理数据的传送,待数据栓送完毕再将信息反馈至CPU,这样就大幅降低了CPU的资源占有率,大大节省了***资源。
所述N*M零矩阵,是由(N*M)个零值组成的矩阵。具体的,
Figure BDA0001879104270000051
Figure BDA0001879104270000052
所述W为W*W阶卷积核矩阵的阶数。其中,所述卷积核矩阵是一种权重矩阵,用于对矩阵数据进行加权平均计算,其作用相当于卷积计算中的过滤器。通常来说,所述权重矩阵的阶数取奇数,便于通过奇数阶矩阵的中心元素确定矩阵的位置。
具体的,所述控制模块将所述n*m阶矩阵从所述存储模块中取出,并置于所述内存的N*M零矩阵中以形成填充矩阵。所述填充矩阵的第1至第
Figure BDA0001879104270000053
行,第/>
Figure BDA0001879104270000054
至第N行为零;第1至第/>
Figure BDA0001879104270000055
列,第/>
Figure BDA0001879104270000056
至第M列为零;其他区域为所述n*m矩阵。
将所述n*m矩阵从所述存储模块11中取出置入所述内存12中的N*M零矩阵中以形成填充矩阵,从而使所述n*m矩阵能够以其任意一个矩阵元素为中心都能构成尺寸为W*W的待卷积矩阵。下面以具体的实施例说明所述n*m矩阵与W*W阶卷积核进行卷积计算的过程。
如图2~6所示,展示本发明一实施例中人工智智能计算辅助处理过程的示意图。其中:
图2展示的是该实施例中的待处理数据矩阵M1和卷积核矩阵M2。其中,所述待处理数据矩阵为5*5阶矩阵,卷积核矩阵为3*3阶矩阵,各矩阵中的数值即为该矩阵的矩阵元素。
图3展示的是该实施例中的零矩阵M3。所述零矩阵设于内存中,且根据
Figure BDA0001879104270000057
Figure BDA0001879104270000058
n=5,W=3可知:所述零矩阵为7*7阶矩阵。
图4展示的是该实施例中的填充矩阵M4。所述填充矩阵由所述待处理数据矩阵M1置入所述零矩阵M3之后形成。根据填充矩阵的第1至第
Figure BDA0001879104270000059
行,第/>
Figure BDA00018791042700000510
至第N行为零;第1至第/>
Figure BDA00018791042700000511
列,第/>
Figure BDA00018791042700000512
至第M列为零;其他区域为所述n*m阶矩阵可知:所述填充矩阵M4的第1、第7行、第1列、以及第7列均为0,第2~6行以及第2~6列的区域用于放置所述待处理数据矩阵M1,所述填充矩阵M4实则为所述待处理数据矩阵M1进行补零操作后的矩阵。/>
图4中的矩形虚线框R1代表的是以矩阵元素18为中心构成的3*3阶待卷积矩阵M401,位于图4的右侧。将所述矩形虚线框R1以步长1向右移动,依次得到以所述填充矩阵M4的第一行中各矩阵元素为中心的待卷积矩阵M401~M405。按照与第一行同样的方法依次对第二行至第七行执行同样的操作,从而最终得到数量为25个的待卷积矩阵M401~M425。
需要说明的是,所述待卷积矩阵M401~M425与所述待处理数据矩阵M1中的各个矩阵元素相互对位。此外,所述矩形虚线框R1虽于该实施例中移动的步长为1,也即每次只移动一个矩阵元素的距离,但本发明对所述虚线框移动的步长并不做限定。
图5展示的是该实施例中各所述待卷积矩阵与卷积核矩阵相乘的示意图。所述人工智能计算辅助处理装置包括一未图示的乘法器,用于将所述卷积核矩阵分别与每个所述待卷积矩阵进行乘法运算。具体而言,所述待卷积矩阵中的矩阵元素与所述卷积核矩阵中对位的矩阵元素进行相乘,得到相应的乘法结果矩阵M501~M525。需要说明的是,所述乘法结果矩阵M501~M525与所述待处理数据矩阵M1中各个矩阵元素是对位的。
图6展示的是该实施例中各乘法结果矩阵进行加法运算的示意图。所述人工智能计算辅助处理装置包括一未图示的加法器,用于将所述乘法结果矩阵M501~M525中的每个矩阵进行如下操作:将所述乘法结果矩阵中的矩阵元素进行相加,得到相应的卷积结果值。举例来说,将乘法结果矩阵M501中的矩阵元素相加得到卷积结果值32,以此类推将全部25个结果矩阵进行加法运算,并最终得到卷积结果矩阵M6。
从上述具体实施例可知,本发明提供的人工智能计算辅助处理装置将存储模块中的n*m矩阵与卷积核进行卷积计算后,输出阶数为n*m的卷积结果矩阵。
值得注意的是,本发明提供的人工智能计算辅助处理装置则通过硬件结构搭建补零操作体系;此外,本发明在内存中预设有零矩阵,供待处理数据矩阵置入即可实现补零操作,无需计算补零的数量或者补零的位置等参数。本发明与现有技术通过软件经CPU运行处理实现补零的操作方式相比,大大降低了***的计算量,提升了补零操作的效率,加快了图像处理等操作的响应速度。
可选的,在一实施例中,所述n*m矩阵分为多个尺寸相同的分块矩阵,所述控制模块将所述n*m矩阵从所述存储模块中取出并置于所述内存的N*M零矩阵中的具体方式包括:所述控制模块依次取出各所述分块矩阵,并按照预设放置条件将各所述分块矩阵填入所述N*M零矩阵中,下面以一具体的实施例予以说明。
如图7所示,展示本发明一实施例中人工智能计算辅助处理装置的示意图。所述处理装置包括存储模块71,内设有待处理数据矩阵M7。所述待处理数据矩阵M7为4*4矩阵,以2*2矩阵为分块矩阵,可分为4个分块矩阵,图7中用矩形虚线框R2代表其中一个分块矩阵。
所述处理装置包括内存72,内设有零矩阵M8,所述零矩阵M8为6*6矩阵。所述零矩阵M8中用于存放所述待处理数据矩阵M7的区域起始于第二行第二列的矩阵元素,其存储地址为0x00220000。未图示的控制模块以该存储地址作为起始地址,将所述待处理数据矩阵M7的第一个分块矩阵置入矩形虚线框R3中。
所述控制模块依照所述初始地址以及所述分块矩阵的尺寸,依次将各个分块矩阵放置于所述零矩阵M8中相应的位置。举例来说,所述控制模块将第一个分块矩阵置入所述零矩阵M8之后,又以存储地址为0x00220004为起始地址,将第二个分块矩阵置入所述零矩阵M8中;以此类推,直至将全部的待处理数据矩阵置入所述零矩阵M8中。
本发明提供的人工智能计算辅助处理方法,通过控制模块从存储模块取出数据,且将待处理数据矩阵分为多个尺寸相同的分块矩阵,从而大幅提升了取出数据的效率,加快了***的响应速度。
本发明还提供一种人工智能计算辅助处理方法,应用于控制模块,具体包括:
S801:从存储模块中取出待处理数据矩阵;
S802:将所述待处理数据矩阵置于内存中的零矩阵中,以令所述待处理数据矩阵能够以其任意一个第一矩阵元素为中心构成尺寸为W*W的待卷积矩阵,供卷积核矩阵按照预设步长进行卷积计算;其中,W为所述卷积核矩阵的尺寸。
所述人工智能计算辅助处理方法的实施方式与所述人工智能计算辅助处理装置的实施方式类似,故不再赘述。
本领域普通技术人员可以理解:实现上述人工智能计算辅助处理方法实施例的全部或部分步骤可以通过计算机程序相关的硬件来完成。前述的计算机程序可以存储于一计算机可读存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
本发明还提供一种人工智能计算辅助处理终端,包括:处理器及存储器。所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行所述人工智能计算辅助处理方法。
上述提到的存储器可能包含随机存取存储器(RandomAccessMemory,简称RAM),也可能还包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器(CentralProcessingUnit,简称CPU)、网络处理器(NetworkProcessor,简称NP)等;还可以是数字信号处理器(DigitalSignalProcessing,简称DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-ProgrammableGateArray,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
综上所述,本发明提供的人工智能计算辅助处理方法及装置,通过硬件结构搭建补零操作体系,且在内存中预设有零矩阵,供待处理数据矩阵置入即可实现补零操作,无需计算补零的数量或者补零的位置等参数,大大降低了***的计算量,提升了补零操作的效率,加快了图像处理等操作的响应速度。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (6)

1.一种人工智能计算辅助处理装置,其特征在于,包括:
多个存储模块,存储有待处理数据矩阵;
内存,设有零矩阵;
控制模块,用于将所述待处理数据矩阵从所述存储模块中取出,并置于所述内存零矩阵中,以令所述待处理数据矩阵能够以其任意一个第一矩阵元素为中心构成尺寸为W*W的待卷积矩阵,供卷积核矩阵按照预设步长进行卷积计算;其中,W为所述卷积核矩阵的尺寸;
所述待处理数据矩阵包括n*m矩阵,所述零矩阵包括N*M零矩阵;
其中,
Figure FDA0004037431580000011
所述将所述待处理数据矩阵从所述存储模块中取出,并置于所述零矩阵中,具体包括:
所述控制模块将所述n*m矩阵从所述存储模块中取出并置于所述内存的N*M零矩阵中以形成填充矩阵;其中,所述填充矩阵包括:
第1至第
Figure FDA0004037431580000012
行,第/>
Figure FDA0004037431580000013
至第N行为零;第1至第/>
Figure FDA0004037431580000014
列,第
Figure FDA0004037431580000015
至第M列为零;其他区域为所述n*m矩阵;
或者,所述将所述待处理数据矩阵从所述存储模块中取出,并置于所述零矩阵中,具体方式包括:
所述n*m矩阵分为多个尺寸相同的分块矩阵;所述控制模块依次取出各所述分块矩阵,并按照预设放置条件将各所述分块矩阵填入所述N*M零矩阵中,所述预设放置条件包括:所述控制模块根据所述内存中的预设起始地址以及所述分块矩阵的尺寸,依次将各所述分块矩阵置入所述N*M零矩阵中。
2.根据权利要求1所述的人工智能计算辅助处理装置,其特征在于,所述存储模块包括双存储模块。
3.根据权利要求1所述的人工智能计算辅助处理装置,其特征在于,包括:
乘法器,用于将每个所述待卷积矩阵分别与卷积核相乘,得到相应的乘法结果矩阵;其中,各所述乘法结果矩阵与各所述第一矩阵元素对位;
加法器,用于将每个所述乘法结果矩阵中的第二矩阵元素相加,得到相应的卷积结果值;其中,各所述卷积结果值与各所述第一矩阵元素对位,以组成尺寸为n*m的卷积结果矩阵。
4.一种人工智能计算辅助处理方法,其特征在于,应用于控制模块,所述方法包括:
从存储模块中取出待处理数据矩阵;
将所述待处理数据矩阵置于内存中的零矩阵中,以令所述待处理数据矩阵能够以其任意一个第一矩阵元素为中心构成尺寸为W*W的待卷积矩阵,供卷积核矩阵按照预设步长进行卷积计算;其中,W为所述卷积核矩阵的尺寸;
所述待处理数据矩阵包括n*m矩阵,所述零矩阵包括N*M零矩阵;
其中,
Figure FDA0004037431580000021
所述将所述待处理数据矩阵从所述存储模块中取出,并置于所述零矩阵中,具体包括:
所述n*m矩阵分为多个尺寸相同的分块矩阵,供所述控制模块依次取出各所述分块矩阵,并按照预设放置条件将各所述分块矩阵填入所述N*M零矩阵中,所述预设放置条件包括:所述控制模块根据所述内存中的预设起始地址以及所述分块矩阵的尺寸,依次将各所述分块矩阵置入所述N*M零矩阵中;
或者,所述将所述待处理数据矩阵从所述存储模块中取出,并置于所述零矩阵中,具体包括:
所述控制模块根据起始地址以及所述分块矩阵的尺寸,依次将各所述分块矩阵填入所述N*M零矩阵中以形成填充矩阵,所述填充矩阵包括:
第1至第
Figure FDA0004037431580000022
行,第/>
Figure FDA0004037431580000023
至第N行为零;第1至第/>
Figure FDA0004037431580000024
列,第
Figure FDA0004037431580000025
至第M列为零;其他区域为所述n*m矩阵。
5.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求4所述的人工智能计算辅助处理方法。
6.一种人工智能计算辅助处理终端,其特征在于,包括:处理器及存储器;
所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行如权利要求4所述的人工智能计算辅助处理方法。
CN201880002144.7A 2018-01-15 2018-01-15 人工智能计算辅助处理装置、方法、存储介质、及终端 Active CN109313663B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/072662 WO2019136750A1 (zh) 2018-01-15 2018-01-15 人工智能计算辅助处理装置、方法、存储介质、及终端

Publications (2)

Publication Number Publication Date
CN109313663A CN109313663A (zh) 2019-02-05
CN109313663B true CN109313663B (zh) 2023-03-31

Family

ID=65221779

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880002144.7A Active CN109313663B (zh) 2018-01-15 2018-01-15 人工智能计算辅助处理装置、方法、存储介质、及终端

Country Status (2)

Country Link
CN (1) CN109313663B (zh)
WO (1) WO2019136750A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11481471B2 (en) * 2019-08-16 2022-10-25 Meta Platforms, Inc. Mapping convolution to a matrix processor unit
CN112825151A (zh) * 2019-11-20 2021-05-21 上海商汤智能科技有限公司 数据处理方法、装置及设备
CN111257913B (zh) * 2019-11-29 2024-04-30 交通运输部长江通信管理局 北斗卫星信号捕获方法以及装置
CN114730331A (zh) * 2019-12-18 2022-07-08 华为技术有限公司 数据处理装置和数据处理方法
CN111553224A (zh) * 2020-04-21 2020-08-18 中国电子科技集团公司第五十四研究所 一种大型遥感影像分块分配方法
CN112561943B (zh) * 2020-12-23 2022-11-22 清华大学 一种基于脉动阵列卷积运算数据复用的图像处理方法
CN117574036B (zh) * 2024-01-16 2024-04-12 北京壁仞科技开发有限公司 运算装置、操作方法和机器可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1777082A (zh) * 2005-12-08 2006-05-24 西安电子科技大学 基于预编码的并行卷积ldpc码的编码器及其快速编码方法
CN101192833A (zh) * 2006-11-28 2008-06-04 华为技术有限公司 一种低密度校验码ldpc并行编码的装置及方法
WO2011116785A1 (en) * 2010-03-23 2011-09-29 Max-Planck-Gesellschaft Zur Förderung Der... Method and device for reconstructing a sequence of mr images using a regularized nonlinear inverse reconstruction process
CN104104394A (zh) * 2014-06-13 2014-10-15 哈尔滨工业大学 基于mls序列获取随机解调***感知矩阵的信号重构方法及***
CN105334542A (zh) * 2015-10-23 2016-02-17 中南大学 任意密度分布复杂地质体重力场快速、高精度正演方法
CN106447030A (zh) * 2016-08-30 2017-02-22 深圳市诺比邻科技有限公司 卷积神经网络的计算资源优化方法及***
CN107451654A (zh) * 2017-07-05 2017-12-08 深圳市自行科技有限公司 卷积神经网络的加速运算方法、服务器及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6134571A (en) * 1998-04-29 2000-10-17 Hewlett-Packard Company Implicit DST-based filter operating in the DCT domain
CN1145267C (zh) * 2001-03-09 2004-04-07 华为技术有限公司 一种高效卷积编码方法
CN104574277A (zh) * 2015-01-30 2015-04-29 京东方科技集团股份有限公司 图像插值方法和图像插值装置
CN107301668B (zh) * 2017-06-14 2019-03-15 成都四方伟业软件股份有限公司 一种基于稀疏矩阵、卷积神经网络的图片压缩方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1777082A (zh) * 2005-12-08 2006-05-24 西安电子科技大学 基于预编码的并行卷积ldpc码的编码器及其快速编码方法
CN101192833A (zh) * 2006-11-28 2008-06-04 华为技术有限公司 一种低密度校验码ldpc并行编码的装置及方法
WO2011116785A1 (en) * 2010-03-23 2011-09-29 Max-Planck-Gesellschaft Zur Förderung Der... Method and device for reconstructing a sequence of mr images using a regularized nonlinear inverse reconstruction process
CN104104394A (zh) * 2014-06-13 2014-10-15 哈尔滨工业大学 基于mls序列获取随机解调***感知矩阵的信号重构方法及***
CN105334542A (zh) * 2015-10-23 2016-02-17 中南大学 任意密度分布复杂地质体重力场快速、高精度正演方法
CN106447030A (zh) * 2016-08-30 2017-02-22 深圳市诺比邻科技有限公司 卷积神经网络的计算资源优化方法及***
CN107451654A (zh) * 2017-07-05 2017-12-08 深圳市自行科技有限公司 卷积神经网络的加速运算方法、服务器及存储介质

Also Published As

Publication number Publication date
CN109313663A (zh) 2019-02-05
WO2019136750A1 (zh) 2019-07-18

Similar Documents

Publication Publication Date Title
CN109313663B (zh) 人工智能计算辅助处理装置、方法、存储介质、及终端
CN111247527B (zh) 在卷积神经网络模型中确定特征图像的方法和装置
US10394929B2 (en) Adaptive execution engine for convolution computing systems
CN107862650B (zh) 加速计算二维图像cnn卷积的方法
EP3093757B1 (en) Multi-dimensional sliding window operation for a vector processor
CN109416755B (zh) 人工智能并行处理方法、装置、可读存储介质、及终端
KR102470027B1 (ko) 다수 컨벌루션 윈도우 중의 이미지 데이터를 추출하는 방법, 장치, 기기 및 컴퓨터 판독 가능한 저장매체
US20210012141A1 (en) Method of performing data processing operation
CN109313723B (zh) 人工智能卷积处理方法、装置、可读存储介质、及终端
CN110738317A (zh) 基于fpga的可变形卷积网络运算方法、装置和***
CN114764615A (zh) 卷积运算的实现方法、数据处理方法及装置
US11874898B2 (en) Streaming-based artificial intelligence convolution processing method and apparatus, readable storage medium and terminal
US20230267740A1 (en) Video data processing method and system, and relevant assemblies
CN109635940B (zh) 一种基于卷积神经网络的图像处理方法及图像处理装置
CN116090518A (zh) 基于脉动运算阵列的特征图处理方法、装置以及存储介质
CN115563443A (zh) 卷积运算方法及装置、卷积处理方法、设备与存储介质
CN114741650A (zh) 张量计算装置、数据处理器、张量计算方法、存储介质
CN115480919A (zh) 卷积优化运算方法、装置、计算机设备及存储介质
CN114662647A (zh) 处理用于神经网络的层的数据
CN110930290B (zh) 一种数据处理方法及装置
CN111831207B (zh) 一种数据处理方法、装置及其设备
CN109766515B (zh) 矩阵分解处理装置及方法
TWI788257B (zh) 記憶體內計算巨集排列的方法、電腦可讀介質及電子裝置
CN117851742B (zh) 数据存储方法、数据处理方法、数据存储器、数据处理器
CN112712461A (zh) 一种图像反卷积处理方法、装置及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant