CN110837891B - 基于simd架构的自组织映射方法及*** - Google Patents

基于simd架构的自组织映射方法及*** Download PDF

Info

Publication number
CN110837891B
CN110837891B CN201911014330.5A CN201911014330A CN110837891B CN 110837891 B CN110837891 B CN 110837891B CN 201911014330 A CN201911014330 A CN 201911014330A CN 110837891 B CN110837891 B CN 110837891B
Authority
CN
China
Prior art keywords
neurons
neuron
winning
weight
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911014330.5A
Other languages
English (en)
Other versions
CN110837891A (zh
Inventor
李丽
张衡
傅玉祥
黄延
何国强
何书专
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201911014330.5A priority Critical patent/CN110837891B/zh
Publication of CN110837891A publication Critical patent/CN110837891A/zh
Application granted granted Critical
Publication of CN110837891B publication Critical patent/CN110837891B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明涉及基于一种SIMD架构的自组织映射方法及***,包括:距离计算模块,通过计算输入向量和对应竞争层神经元权值向量的曼哈顿距离,找到距离最小的最佳匹配竞争层神经元;学习率和领域半径计算模块,通过移位操作实现学习率和领域半径的更新;合作模块,在竞争中获胜的神经元不是单独被激励的,而是通过确定获胜神经元为中心的领域,领域内的神经元共同被激励;权值更新模块,在获胜神经元领域半径内部的神经元对应权重得到更新,将计算好的权重存回片上SRAM。本发明支持样本任意分类与任意特征的运算,能够实现低复杂度与高精度的要求。

Description

基于SIMD架构的自组织映射方法及***
技术领域
本发明涉及一种非监督神经网络算法的硬件实现,具体来说是一种基于SIMD架构的自组织映射算法的硬件实现,可以将输入数据在低维的空间表示,还可以用于数据可视化和聚类等应用中。
背景技术
自组织映射(SOM)算法作为一种聚类和高维可视化的无监督学习算法,是通过模拟人脑对信号处理的特点而发展起来的一种人工神经网络。SOM算法是Teuvo Kohonen于1981年提出,现在已成为应用最广泛的自组织神经网络方法,其中的WTA(Winner TakesAll)竞争机制反映了自组织映射学习算法最根本的特征。
SOM算法以其所具有的诸如拓扑结构保持、概率分布保持、无导师学习及可视化等特性,拥有很好的聚类效果,从而受到广泛的关注,各种关于SOM算法应用研究的成果不断涌现,现已被广泛应用于语音识别、图像处理、分类聚类、组合优化(如TSP问题)、数据分析和预测等众多信息处理领域。
自组织神经网络的结构及其学习规则与其他神经网络相比有自己的特点。在网络结构上,自组织神经网络是输入层和竞争层构成的两层网络;两层之间神经元实现双向连接,自组织神经网络没有隐藏层。竞争层可以是一维、二维或三维阵列,输入层为样本特征数量。
在SOM网络模型中,每一个权系数向量都可以看作是输入向量在神经网络中的一种内部表示,或者说它是输入向量的映像,SOM网络模型的自组织功能的目的就是通过调整权系数,使神经网络收敛于一种表示形态。在这一表示形态中,每一个神经元只对某种输入模式特别匹配或特别敏感。换而言之,SOM的目的就是使神经元的权系数的形态表示可以间接模仿输入模式。
发明内容
发明目的:提供一种基于SIMD架构的自组织映射方法,以在有限的资源下,实现自组织映射算法较好的聚类效果,提升算法的训练速度和决策速度。
技术方案:一种基于SIMD架构的自组织映射方法,包括如下步骤:
S1:将初始化权重W、输入神经元按照规律存入存储单元,并且初始化领域h、学习率以及网络的最大训练次数;
S2:从总样本中取出一个样本作为网络输入,从存储单元上取出对应的输入特征和权重;
S3:计算输入神经元到所有竞争层神经元的曼哈顿距离,并根据最小距离确定获胜神经元的位置坐标,计算输入到坐标为(i,j)的竞争层神经元的距离,且找出最小距离值,确定获胜神经元的计算公式
Figure BDA0002245202000000021
S4:从存储单元中取出输入和权重,调整获胜神经元及其领域内的神经元的网络权重,权重的公式为Wi(n+1)=Wi(n)+η(n)hj,i(n)(X-Wi(n)),将更新的权重重新存放到存储单元中,覆盖更新前的权重;
S5:当未计算完所有学习样本,重复S2-S5的步骤,否则执行S6;
S6:调整学习率函数和领域函数,学习率
Figure BDA0002245202000000022
其中η0为初始学习率;领域半径为
Figure BDA0002245202000000023
其中
Figure BDA0002245202000000024
S7:当前训练次数若没有达到设置的最大训练次数,返回S2,否则终止循环,学习过程结束。
在进一步的实施例中,包括如下步骤:所述数据存储单元包括8N个子单元,其中4N个子单元存储输入神经元数据,随机生成的权重在另外2N个子单元中乒乓存储,训练得到的获胜神经元存储在另外2N个子单元中,下一次训练获得的获胜神经元覆盖上次获胜的神经元数据。
在进一步的实施例中,包括如下步骤:需要D个批次才能够遍历整个输入样本,总的训练次数为K,则权重需要乒乓操作的次数为D×K。
在进一步的实施例中,包括如下步骤:在计算资源和存储资源固定的情况下,使用同一套资源,采用一个控制器控制多个处理器,对分别执行相同操作的运算,实现空间上的并行操作。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述所述方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述所述的方法的步骤。
一种基于SIMD架构的自组织映射***,包括:
数据存储模块,包括若干预定深度的存储单元,所述存储单元包括若干子单元,分别用于存储输入神经元数据、随机生成的权重和训练后的获胜神经元数据;
距离计算模块,用于从所述存储单元中分别取出每次输入神经元数据和对应的权重,通过计算输入神经元与竞争层每一个神经元对应的权值曼哈顿距离和,通过冒泡排序法计算出最小距离,获得获胜神经元的坐标,最后将其存入存储模块中;
学习率与领域半径计算模块,计算均使用移位运算操作,采用两个寄存器存储,每次计算结果重新写回原来的寄存器;
权值更新模块和合作模块,从存储单元中取出神经元数据和权重并进行更新操作,更新后的权重按照乒乓存储的存入存储单元。
在进一步的实施例中,所述数据存储单元包括8N个子单元,其中4N个子单元存储输入神经元数据,随机生成的权重在另外2N个子单元中乒乓存储,训练得到的获胜神经元存储在另外2N个子单元中,下一次训练获得的获胜神经元覆盖上次获胜的神经元数据。
有益效果:
第一,本发明学习率和领域半径计算都是用移位运算,大大降低了运算资源和运算时间。
第二,由于学习率和领域半径都是随着训练次数而逐渐收敛,因此能够更好的提高聚类效果。
第三,计算输入神经元与竞争层每一个神经元对应的曼哈顿距离和,通过冒泡排序法选出获胜神经元,可以节约运算资源和提高计算速度。
第四,本发明推理环节和训练过程均采用同一套资源,并且采用多路并行计算能够提高运算资源和存储资源利用率。
综上所述,本发明可以有效地节约运算资源和提高计算速度,有着广泛的应用前景,针对不同的场合有良好的应用价值。
附图说明
图1是本发明中自组织映射算法硬件实现架构图。
图2是自组织映射算法网络结构图。
图3是本发明中数据排列示意图。
图4是本发明中硬件模块示意图。
图5是本发明中计算单元设计示意图。
图6是本发明中权值更新具体流程图。
图7是本发明中自组织映射算法的硬件实现流程图。
具体实施方式
SOM通常包括以下三个环节:
竞争环节:即对获胜神经元的选择。根据WTA(Winner Takes All)的原则,计算每个输入向量的判别函数值,比较其中距离最小的,并以此为依据得到作为竞争胜利者的神经元。
合作环节,也叫协同环节:在竞争中获胜的神经元不是单独被激励的,而是首先确定一个以获胜神经元为中心的邻域,在获胜神经元的领域半径内,邻域内的所有神经元按照一定规则共同被激励。
自适应环节:在获胜神经元邻域中对所有神经元的权值适当调节以增加它们关于该输入模式的判别函数值。即使输出层神经元的权值向量随输入向量改变。
SOM网络能将任意维输入模式在输出层映射成一维、二维或三维图形,并保持其拓扑结构不变;网络通过对输入模式的反复学习可以使权重向量空间与输入模式的概率分布趋于一致,即概率保持性。网络的竞争层各神经元竞争对输入模式的响应机会,获胜神经元有关的各权重朝着更有利于它竞争的方向调整“即以获胜神经元为圆心,对近邻的神经元表现出兴奋性侧反馈,而对远邻的神经元表现出抑制性侧反馈,近邻者相互激励,远邻者相互抑制”。一般而言,近邻是指从发出信号的神经元为圆心,在随着训练次数增加不断减小的领域半径之内的竞争层神经元;远邻是指半径在领域半径之外的竞争层神经元。比远邻更远的神经元则表现弱激励作用,由于这种交互作用的曲线类似于墨西哥人带的帽子,因此也称这种交互方式为“墨西哥帽”。
SOM算法的学习步骤如下:
1、初始化,将网络权值赋予[0,1]之间随机值,设置学习率的初始值、邻域半径以及总的学习次数T。
2、采样,从数据集中随机选取一个输入模式,归一化后输入到神经网络中。
3、竞争,计算所有神经元与输入模式间的距离,找到输入模式对应的获胜神经元。
4、协同,按照神经网络的邻域函数,确定邻域范围。
5、自适应,更新邻域内神经元的权值。
6、判断是否所有的样本都输入到神经网络之中,如果是则跳转到7,否则跳转到2。
7、更新学习率和邻域函数。
8、停止条件,判断迭代次数n是否超过T,如果是则算法结束,否则跳转到2。
一种基于SIMD架构的自组织映射算法的硬件实现,
本发明加速核包括距离计算模块、学习率和领域半径计算模块、合作模块、权值更新模块和数据存储模块。
该设计架构在计算资源和存储资源固定的情况下,算法的推理环节和训练环节使用同一套资源,并且采用多路并行计算尽可能利用运算资源。在硬件实现设计过程中,推理过程和训练过程均采用全流水的设计方式,支持竞争层神经元为一维或二维的图形。
该设计架构所述片上SRAM存储器设定存储资源分为8N个bank,每个bank的深度为M,分配4N个bank存储所有输入神经元的数据,随机生成的权重在另外2N个bank中进行乒乓存取;将最后依次训练得到的获胜神经元存储到另外2N个bank上,下一次训练获得的获胜神经元覆盖上一次获胜神经元的数据。将权重存放在2N个bank中,需要D次计算才能够遍历整个输入样本,总的训练次数为K,则权重需要乒乓操作的次数为D×K。距离计算模块从bank中分别取出每次输入神经元数据和对应的权重,然后通过计算输入神经元与竞争层每一个神经元对应的权值曼哈顿距离和,通过冒泡排序法计算出最小距离,获得获胜神经元的坐标,最后将其存入bank中。
学习率和领域半径计算模块随着训练次数的变化而降低,学习率与领域半径计算都使用移位运算操作,学习率和领域半径用两个寄存器存储,每次计算结果重新写回原来的寄存器。
权值更新模块分别从bank中取出输入神经元和权重,权重为Wi(n+1)=Wi(n)+η(n)hj,i(n)(X-Wi(n)),根据合作模块方式,在领域半径之内的hj,i(n)为1,在领域半径之外的hj,i(n)为0,将更新的权重按照乒乓存储的存入bank中。
合作模块计算获胜神经元与其它竞争层神经元的欧式距离,在获胜神经元领域半径之内的竞争层神经元按照一定规则共同激励。
根据本发明的一个方面,提供一种基于SIMD架构的自组织映射算法的硬件实现,本发明加速核包括:数据存储模块、距离计算模块、学习率与领域半径计算模块、权值更新模块和合作模块。
在计算资源和存储资源固定的情况下,算法的推理环节和训练环节使用同一套资源,SIMD架构可以采用一个控制器控制多个处理器,对分别执行相同操作的运算可以实现空间上的并行操作。
具体地,所述片上数据存储模块设定存储资源分为32N个bank,每个bank的深度为M,分配16N个bank存储所有输入神经元的数据,随机生成的权重在另外8N个bank中进行乒乓存取;将最后依次训练得到的获胜神经元存储到另外8N个bank中,下一次训练获得的获胜神经元覆盖上一次获胜神经元的数据,将权重存放在8N个bank中,需要D个批次(batch)才能够遍历整个输入样本,总的训练次数为K,则权重需要乒乓操作的次数为D×K。
距离计算模块是通过该输入与竞争层中各竞争神经元的曼哈顿距离判断得到的,与输入的曼哈顿距离最小的竞争神经元即为获胜神经元,求解曼哈顿距离只需要使用加法器得到距离之差,然后通过比较器判断大小得到,在存储资源设定为32N个bank情况下可以进行8N路并行计算,结果通过冒泡排序方法得到获胜神经元。
学习率和领域半径计算模块随着训练次数的变化而降低,学习率
Figure BDA0002245202000000061
其中η0为初始学习率;领域半径为
Figure BDA0002245202000000062
其中
Figure BDA0002245202000000063
学习率与领域半径计算都使用移位运算操作,每迭代一次右移一位,学习率和领域半径用两个寄存器存储,每次计算结果重新写回原来的寄存器。
权值更新模块分别从bank中取出输入神经元和权重,权重为Wi(n+1)=Wi(n)+η(n)hj,i(n)(X-Wi(n)),根据合作模块流程,将更新的权重按照乒乓存储方式存入bank中,在存储资源设定为32N个bank情况下,可以实现16N路并行计算。
合作模块计算获胜神经元与其它竞争层神经元的欧式距离,可以去除欧式距离根号,对领域半径进行平方计算,从而减少逻辑资源和运算时间,在存储资源设定为32N个bank情况下,实现8N路并行计算,在获胜神经元领域半径之内的竞争层神经元按照一定规则共同被激励。
图1所示的硬件架构是本发明的一个实例,该实例实现了自组织映射算法的构建,包括控制模块、距离计算模块、学习率和领域半径计算模块、合作模块和权值更新模块,以及数据的搬运和存储。
图2所示是自组织映射算法的网络结构图,其中输入层每一个圈代表一种特征,竞争层每一个圈代表一种分类,但是实际分类情况是小于竞争层圈数量。每个输入对于竞争层神经元都有权重。
图3所示是数据排列示意图,存储资源设定为32N个bank,每个bank的深度为M,分配16N个bank存储所有输入神经元的数据,随机生成的权重在另外8N个bank中进行乒乓存取。
图4所示是硬件模块示意图,过程如下:
S1:在收到开始信号之后,地址生成模块产生源数据地址,控制器根据信号读取源数据;
S2:训练单元进行训练,进行多次迭代得到更新好的权重,控制器将训练好的权重保存到SRAM上;
S3:推理单元根据训练好的权重,来对源数据进行分类;
图5所示合作模块的计算单元设计示意图过程如下:
S1:计算获胜神经元的领域半径,领域半径通过移位操作进行更新;
S2:给竞争层神经元固定的坐标位置,通过8路并行计算获胜神经元与竞争层神经元的欧式距离的平方;
S3:将获胜神经元与竞争层神经元的欧式距离的平方与获胜神经元的领域半径的平方比较,在领域半径之内的,这个神经元将按照规律更新权重;
图6所示权值更新具体过程如下:
S1:从bank中取出输入神经元和权重用于权值更新;
S2:通过合作模块得到需要更新权值的竞争层神经元,按照Wi(n+1)=Wi(n)+η(n)hj,i(n)(X-Wi(n))更新权重,权重更新通过16路并行计算;
S3:将更新的权重重新存放到bank中,覆盖更新前的权重;
实施例1
通过以上各个模块的叙述,图7所示自组织映射算法的硬件实现过程如下:
S1:将初始化权重W、输入神经元按照规律存入SRAM,并且初始化领域h、学习率以及网络的最大训练次数;
S2:先从总样本中取出一个样本作为网络输入,从SRAM上取出对应的输入特征和权重;
S3:计算输入神经元到所有竞争层神经元的曼哈顿距离,并根据最小距离确定获胜神经元的位置坐标。计算输入到坐标为(i,j)的竞争层神经元的距离,且找出最小距离值,确定获胜神经元的计算公式
Figure BDA0002245202000000081
S4:从SRAM中取出输入和权重,调整获胜神经元及其领域内的神经元的网络权重,权重的公式为Wi(n+1)=Wi(n)+η(n)hj,i(n)(X-Wi(n)),将更新的权重重新存放到bank中,覆盖更新前的权重;
S5:当未计算完所有学习样本,重复S2-S5的步骤,否则执行S6;
S6:调整学习率函数和领域函数,学习率
Figure BDA0002245202000000082
其中η0为初始学习率;领域半径为
Figure BDA0002245202000000083
其中
Figure BDA0002245202000000084
S7:当前训练次数若没有达到设置的最大训练次数,返回S2,否则终止循环,学习过程结束。
本发明基于SIMD架构的自组织映射算法支持任意样本分类和任意样本大小的运算,降低了传统硬件实现方式的源数据计算量,权衡计算和存储资源实现最大化多路并行,可以有效地节约运算资源和提高计算速度。作为机器学习领域典型的聚类算法,有着广泛的应用前景,针对不同的场合有良好的应用价值。
以上详细描述了本发明的优选实施方式,但是,本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换,这些等同变换均属于本发明的保护范围。

Claims (5)

1.基于SIMD架构的自组织映射方法,其特征在于,在计算资源和存储资源固定的情况下,使用同一套资源,采用一个控制器控制多个处理器,对分别执行相同操作的运算,实现空间上的并行操作;包括如下步骤:
S1:将初始化权重W、输入神经元按照规律存入存储单元,并且初始化领域h、学习率以及网络的最大训练次数;所述存储单元包括8N个子单元,其中4N个子单元存储输入神经元数据,随机生成的权重在另外2N个子单元中乒乓存储,训练得到的获胜神经元存储在另外2N个子单元中,下一次训练获得的获胜神经元覆盖上次获胜的神经元数据;
S2:从总样本中取出一个样本作为网络输入,从存储单元上取出对应的输入特征和权重;
S3:计算输入神经元到所有竞争层神经元的曼哈顿距离,并根据最小距离确定获胜神经元的位置坐标,计算输入到坐标为(i,j)的竞争层神经元的距离,且找出最小距离值,确定获胜神经元的计算公式
Figure DEST_PATH_IMAGE001
S4:从存储单元中取出输入和权重,调整获胜神经元及其领域内的神经元的网络权重,权重的公式为
Figure DEST_PATH_IMAGE002
,将更新的权重重新存放到存储单元中,覆盖更新前的权重;
S5:当未计算完所有学习样本,重复S2-S5的步骤,否则执行S6;
S6:调整学习率函数和领域函数,学习率
Figure DEST_PATH_IMAGE003
,其中
Figure DEST_PATH_IMAGE004
为初始学习率;领域半径为
Figure DEST_PATH_IMAGE005
,其中
Figure DEST_PATH_IMAGE006
S7:当前训练次数若没有达到设置的最大训练次数,返回S2,否则终止循环,学习过程结束。
2.根据权利要求1所述的基于SIMD架构的自组织映射方法,其特征在于,包括如下步骤:需要D个批次才能够遍历整个输入样本,总的训练次数为K,则权重需要乒乓操作的次数为D×K。
3.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至2中任一项所述方法的步骤。
4.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至2中任一项所述的方法的步骤。
5.基于SIMD架构的自组织映射***,其特征在于,包括:
数据存储模块,包括若干预定深度的存储单元,所述存储单元包括8N个子单元,其中4N个子单元存储输入神经元数据,随机生成的权重在另外2N个子单元中乒乓存储,训练得到的获胜神经元存储在另外2N个子单元中,下一次训练获得的获胜神经元覆盖上次获胜的神经元数据;
距离计算模块,用于从所述存储单元中分别取出每次输入神经元数据和对应的权重,通过计算输入神经元与竞争层每一个神经元对应的权值曼哈顿距离和,通过冒泡排序法计算出最小距离,获得获胜神经元的坐标,最后将其存入存储模块中;
学习率与领域半径计算模块,计算均使用移位运算操作,采用两个寄存器存储,每次计算结果重新写回原来的寄存器;
权值更新模块和合作模块,从存储单元中取出神经元数据和权重并进行更新操作,更新后的权重按照乒乓存储的存入存储单元。
CN201911014330.5A 2019-10-23 2019-10-23 基于simd架构的自组织映射方法及*** Active CN110837891B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911014330.5A CN110837891B (zh) 2019-10-23 2019-10-23 基于simd架构的自组织映射方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911014330.5A CN110837891B (zh) 2019-10-23 2019-10-23 基于simd架构的自组织映射方法及***

Publications (2)

Publication Number Publication Date
CN110837891A CN110837891A (zh) 2020-02-25
CN110837891B true CN110837891B (zh) 2022-05-17

Family

ID=69575598

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911014330.5A Active CN110837891B (zh) 2019-10-23 2019-10-23 基于simd架构的自组织映射方法及***

Country Status (1)

Country Link
CN (1) CN110837891B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112015854B (zh) * 2020-07-17 2023-07-18 河海大学常州校区 一种基于自组织映射神经网络的异构数据属性关联方法
CN113705858B (zh) * 2021-08-02 2023-07-11 西安交通大学 多目标区域的最短路径规划方法、***、设备及存储介质
CN114637720B (zh) * 2021-12-13 2024-04-30 西安电子科技大学 一种基于增长型环形som神经网络的片上光网络映射方法
KR20240080015A (ko) * 2022-11-29 2024-06-05 한국전자기술연구원 NoC 구조 기반의 경량 인공지능 연산 처리 장치 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009099008A (ja) * 2007-10-18 2009-05-07 Seiko Epson Corp 並列演算装置および並列演算方法
CN103019656A (zh) * 2012-12-04 2013-04-03 中国科学院半导体研究所 可动态重构的多级并行单指令多数据阵列处理***
CN104823482A (zh) * 2013-09-27 2015-08-05 华为技术有限公司 一种终端的切换方法和基站及***
CN108734274A (zh) * 2017-04-24 2018-11-02 英特尔公司 用于深度神经网络的计算优化机制
CN108805798A (zh) * 2017-05-05 2018-11-13 英特尔公司 用于深度学习框架的细粒度计算通信执行

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9449257B2 (en) * 2012-12-04 2016-09-20 Institute Of Semiconductors, Chinese Academy Of Sciences Dynamically reconstructable multistage parallel single instruction multiple data array processing system
US10732621B2 (en) * 2016-05-09 2020-08-04 Strong Force Iot Portfolio 2016, Llc Methods and systems for process adaptation in an internet of things downstream oil and gas environment
CN106529060B (zh) * 2016-11-15 2021-09-03 中国电力科学研究院有限公司 一种负荷序列建模方法及***
CN108170147B (zh) * 2017-12-31 2020-10-16 南京邮电大学 一种基于自组织神经网络的无人机任务规划方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009099008A (ja) * 2007-10-18 2009-05-07 Seiko Epson Corp 並列演算装置および並列演算方法
CN103019656A (zh) * 2012-12-04 2013-04-03 中国科学院半导体研究所 可动态重构的多级并行单指令多数据阵列处理***
CN104823482A (zh) * 2013-09-27 2015-08-05 华为技术有限公司 一种终端的切换方法和基站及***
CN108734274A (zh) * 2017-04-24 2018-11-02 英特尔公司 用于深度神经网络的计算优化机制
CN108805798A (zh) * 2017-05-05 2018-11-13 英特尔公司 用于深度学习框架的细粒度计算通信执行

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A Pipelined Speculative SIMD Architecture for SOM ANN;0.Hammami 等;《Proceedings of International Conference on Neural Networks (ICNN"97)》;20020806;985-990 *
Multi-port SRAM with Multi-bank for Self-organizing Maps Neural Network;FengweiAn;《 14th IEEE International Conference on Solid-State and Integrated Circuit Technology (ICSICT)》;20181206;1-3 *
Parallel FPGA Implementation of Self-Organizing Maps;K. Ben Khalifa 等;《The 16th International Conference on Microelectronics, 2004. ICM 2004》;20050531;709-712 *
基于SOM算法的高维数据可视化;石丽红;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20140215(第(2014)02期);I138-606 *
用Norm Matrix实现自组织映射网络的可视化;郭景峰 等;《小型微型计算机***》;20131115;第34卷(第11期);2630-2634 *

Also Published As

Publication number Publication date
CN110837891A (zh) 2020-02-25

Similar Documents

Publication Publication Date Title
CN110837891B (zh) 基于simd架构的自组织映射方法及***
Ojha et al. Metaheuristic design of feedforward neural networks: A review of two decades of research
Liao et al. On the importance of normalisation layers in deep learning with piecewise linear activation units
Abraham Adaptation of fuzzy inference system using neural learning
Smith Neural networks for combinatorial optimization: a review of more than a decade of research
Huang et al. Orthogonal least squares algorithm for training cascade neural networks
Khan et al. Artificial neural network (ANNs)
Dozono et al. Convolutional self organizing map
CN114511021A (zh) 基于改进乌鸦搜索算法的极限学习机分类算法
Ajibade et al. A hybrid chaotic particle swarm optimization with differential evolution for feature selection
CN108983180A (zh) 一种群智能高精度的雷达海杂波预报***
Salimi et al. Extended mixture of MLP experts by hybrid of conjugate gradient method and modified cuckoo search
Fortier et al. DOSI: Training artificial neural networks using overlapping swarm intelligence with local credit assignment
CN113762370A (zh) 一种结合高斯随机场的深度网络集合生成方法
Szepesvári et al. Topology learning solved by extended objects: a neural network model
Espinós Longa et al. Swarm Intelligence in Cooperative Environments: Introducing the N-Step Dynamic Tree Search Algorithm
Wong et al. R-POPTVR: a novel reinforcement-based POPTVR fuzzy neural network for pattern classification
Weng et al. Optimal in-place self-organization for cortical development: Limited cells, sparse coding and cortical topography
CN111860755A (zh) 基于支持向量机回归的改进粒子群算法
Maksim et al. Development of a software library for game artificial intelligence
Zarth et al. Optimization of neural networks weights and architecture: A multimodal methodology
Iacob et al. Delay-Sensitive Local Plasticity in Echo State Networks
CN113705858B (zh) 多目标区域的最短路径规划方法、***、设备及存储介质
Fall et al. Neural networks with dynamic structure using a GA-based learning method
Prieto et al. Simulation and hardware implementation of competitive learning neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant