CN106919980A - 一种基于神经节分化的增量式目标识别*** - Google Patents

一种基于神经节分化的增量式目标识别*** Download PDF

Info

Publication number
CN106919980A
CN106919980A CN201710055128.1A CN201710055128A CN106919980A CN 106919980 A CN106919980 A CN 106919980A CN 201710055128 A CN201710055128 A CN 201710055128A CN 106919980 A CN106919980 A CN 106919980A
Authority
CN
China
Prior art keywords
neuromere
sample
hidden layer
ganglionic
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710055128.1A
Other languages
English (en)
Other versions
CN106919980B (zh
Inventor
王元庆
胡晶晶
王冉
詹伶俐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN201710055128.1A priority Critical patent/CN106919980B/zh
Publication of CN106919980A publication Critical patent/CN106919980A/zh
Application granted granted Critical
Publication of CN106919980B publication Critical patent/CN106919980B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2111Selection of the most significant subset of features by using evolutionary computational techniques, e.g. genetic algorithms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Physiology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于神经节分化的增量式目标识别***,由低隐藏层、神经节层、高隐藏层和分类器构成,神经节层位于低隐藏层和高隐藏层之间;神经节层的神经节提取样本特征规律,通过神经节的激活和分化,在高隐藏层形成对应的独立的特征集,形成对样本的特征记忆;高隐藏层的特征集的数量可变;新增神经节对新样本形成新的记忆,自适应地更新高隐藏层的特征集,实现增量式的目标识别;所述的神经节是指用于表征一组分布规律相似的样本的神经网络结点,当输入样本特征参数大于激活阈值时,神经节被激活,该神经节在高隐藏层形成独立的特征集;被激活的神经节的活性小于阈值时,该神经节将凋亡;特征不同的样本激活不同的神经节,并新增神经节。

Description

一种基于神经节分化的增量式目标识别***
技术领域
本发明属于目标识别领域,特别是一种基于神经节分化的增量式目标识别***。
背景技术
早期的深度神经网络是端到端的,网络结构在训练过程保持不变,训练过程即学习网络参数的过程。训练集是完备且网络深度足够时,理论上可以表达任意复杂的原始数据。而在许多实际应用中,并不能一次性获取完整的数据集,因此学习算法也需要是一个持续的过程。例如以图搜图、拍照购物等软件产品中,预先获取已有商品图像集,通过深度神经网络为输入图像找到最接近的前若干项作为推荐结果。但当输入新研发的、全新外观的产品图像时,尽管原有网络的训练算法、推荐算法很完善,既不能得到合适的推荐,也无法将其作为新样本完善数据集。
传统神经网络每接受一个新样本都需要更新全局参数:如果新样本是噪声,则已有网络不加区分地拟合噪声,从而破坏了已有网络;如果新样本属于新的类型(例如之前的样本都是动物,新样本是车辆),则需要自底向上改变所有网络参数,这种全局调整的内存消耗和时间消耗通常是巨大的。为了避免在海量数据下的重复学习,网络在新增样本时并不需要刷新所有的知识,而是仅更新由新增样本所引起的局部参数。
增量学习算法可以使***具备上述动态学习的能力,而各种形式的增量学习算法已在各领域不同场景下的获得研究。最经典的聚类算法有以下两个固有缺陷:网络层数或网络结点数等参数需要预先定义;网络对噪声敏感。图像的非监督任务中关于增量算法的研究工作相对较少,一个重要原因是原始数据的信息量高度冗余从而难以在聚类中达到满意的准确率。
发明内容
本发明目的是,解决如下技术问题,现有识别方法存在网络结构固化、仅适用于静态数据集、海量数据环境下进行重复学习、抗噪能力差的情况。提出一种基于神经节分化的增量式目标识别***。
本发明技术方案,一种基于神经节分化的增量式目标识别***,由低隐藏层、神经节层、高隐藏层和分类器构成,神经节层位于低隐藏层和高隐藏层之间;神经层的神经节提取样本特征规律,通过神经节的激活和分化,在高隐藏层形成对应的独立的特征集,形成对样本的特征记忆;高隐藏层的特征集的数量可变,特征集的数量与神经层中分化的神经节数量相对应;新增神经节可以对新样本形成新的记忆,自适应地更新高隐藏层的特征集,实现增量式的目标识别;
所述的神经节是指用于表征一组分布规律相似的样本的神经网络结点,当输入样本特征参数大于激活阈值时,神经节被激活,该神经节在高隐藏层形成独立的特征集;被激活的神经节的活性小于阈值时,该神经节将凋亡,不在高隐藏层形成特征集;特征不同的样本激活不同的神经节,并新增神经节,自适应地更新高隐藏层的特征集;
神经节的激活是指样本的分布状态符合神经节的内在特征,参与神经节对应的特征集的训练;所述的分化是指自适应新增神经节的过程,若干样本融入神经节,增加了该神经节的活性;
神经节的凋亡是指在一定的范围内(一定时间、数量或者其他因素)没有新的样本激活该神经节,该样本的相对活性下降,在神经节层被去除。神经节被激活不一定分化,也可能会凋亡;
所述神经节层以压缩编码后的特征图数据代替原始数据为输入:
在数据集上训练若干层低隐藏层以获取局部滤波器,并将通用局部特征作用于样本,编码得到每个样本的特征图,输入神经节层;记低隐藏层共计L层,参数分别为W1、W2、…WL,记预处理后的可操作数据为V,则V经由第一隐藏层W1编码后得到H1,H1通过空间池化得到pH1,pH1经由第二隐藏层W2编码后得到H2,直至得到pHL作为神经节层的输入数据。
进一步,确定神经节个数的方法包括如下步骤:
记神经节Ge表征一组分布规律相似的样本集,其中下标e∈[1,2,…,|G|],|G|表示神经节个数;计算每个样本点的显著度γi,其中i∈[1,2,…,|V|],|V|表示样本个数,并按升序排序,寻找显著度远高于其他样本点的边界值τ,显著度高于边界值τ的样本点为神经节点,并记神经节的个数为N。
进一步,所述神经节层活动具体包括:
提取样本特征图分布规律,使输入样本刺激不同神经节并分别处理;如果新样本激活某任意已知神经节,则仅更新该已知神经节参数,而不需要更新所有网络参数;如果是噪声,则新样本在神经节层被标记为噪点而不会进入任何神经节,以保护已有网络;如果属于未知神经节,则分化新神经节并使该样本参与该神经节对应的特征集的训练。
进一步,判断样本点是否激活已知神经节的方法包括如下步骤:
记Lg表示神经节g的标号,g∈[G1,G2,…,GN],N为神经节个数;如果存在至少一个神经节g,使得当前样本点v到它的距离小于截断距离dc,则样本点v属于已知神经节,且神经节标签Lv为:
其中运算符表示使函数f(x)取得最小值时自变量x的取值,dvg表示样本点v与神经节g之间的距离,dc为截断距离。
进一步,判断样本点是否为噪声的方法包括如下步骤:
如果当前样本点到任何已知神经节中心点的距离均大于截断距离dc,则判断当前样本点为噪点。
进一步,判断样本点是否属于未知神经节的方法包括如下步骤:
如果当前样本点是噪点,但是显著度γi大于边界值τ,或高于非神经节点的显著度,则当前样本点属于未知神经节,并更新边界值、分化出新神经节。
根据权利要求1所述的一种基于神经节分化的增量式目标识别***,其特征在于,整合各神经节的特征集,将所有样本用统一的整合后的特征集编码,得到的特征图及样本标签作为分类器输入,完成分类器模型的学习并将待识别样本输入分类器完成预测。
进一步的,滤波器的整合方法为:
样本的低隐藏层数据pHL不再需要经历神经节层,而是在所有神经节训练得到的各自特征WL+1 c拼接的WL+1 new=[WL+1 1,WL+1 2,…,WL+1 N]上映射出维度统一的高隐藏层数据HL+1,并输入随后的分类器,其中下标L+1表示一层高隐藏层,上标表示神经节的标号。
本发明将输入数据激活不同神经节并分别处理:如果新样本是噪声,则新样本在弱聚类层被标记为噪点而不会进入任何神经节,也不会继续送入高层训练,从而保护了已有网络;如果新样本激活未知神经节(例如之前的样本都是动物,新样本是车辆),则自动分化新的神经节,并形成独立特征集;如果新样本激活已知神经节,也不需要刷新所有的知识,而是仅更新对应神经节的局部参数。所述方法具体包括以下步骤:
步骤1,样本预处理:对数据集中的所有样本进行去噪、白化及归一化预处理(也可包括一些图像增强处理),生成可操作数据;其中的归一化处理为必选操作,其他可适当选择处理。
记输入的原始样本为X,Xij表示图像的第i行第j列数据值。归一化预处理分为两步,首先进行减法归一化,也即:Yij=Xij-∑pqwpq·Xi+p,j+q,其中wpq为高斯加权窗的第p行第q列权值,并满足条件∑pqwpq=1;再对Yij进行除法归一化,也即:其中
步骤2,通用局部特征训练:在数据集上训练若干层低隐藏层,以获取局部滤波器(也可采用离线训练好的局部特征);
步骤3,特征图编码:将通用局部特征作用于样本,编码得到每个样本的特征图;
步骤4,神经节分化具体包括如下步骤:
首先计算各样本点之间的距离dij。本发明所涉及样本为任意尺寸,而不同于传统识别方法中的固定尺寸,而一般的距离度量方法要求维度一致,因此设计了一种空间金字塔池化算法已解决上述矛盾。
记第L隐藏层编码后的数据为其中表示实数空间,R、C、T分别表示该数据的长、宽、通道数;并记金字塔分块尺寸为n,则分块窗长宽分别为分块窗横纵方向移动步长为其中分别表示向下取整运算和向上取整运算。将分块窗在pHL的每个通道上移动并计算池化值,则得到固定维度的输出注意Λ的维度仅由金字塔分块尺寸和通道数决定,而与样本数据的长宽尺寸无关,这样不同维度的样本数据就转换成了相同维度,继而可以方便的计算距离。
其次确定神经节个数。分别计算所有样本点的显著度γi,并按升序排序,寻找显著度远高于其他样本点的边界值τ,显著度高于边界值τ的样本点为神经节中心点,并记当前分支个数为N个。
然后判断新样本点的属性。记Lg表示神经节g的标号,g∈[G1,G2,…,GN],N为神经节个数;如果存在至少一个神经节g,使得当前样本点v到它的距离小于截断距离dc,则样本点v属于已知神经节,且神经节标签Lv为:其中运算符表示使函数f(x)取得最小值时自变量x的取值。
如果当前样本点到任何神经节的距离均大于截断距离dc,则当前样本点是噪点。如果当前样本点是噪点,但显著度γi大于边界值τ,或高于非神经节点的显著度,则当前样本点属于未知神经节,更新边界值,分化新神经节并训练。
步骤5,各神经节高层隐藏层训练,在步骤4中确定每个样本点的归属,对分化得到的不同神经节分别在各自的样本集合中训练高层特征集。
步骤2和步骤5中的隐藏层可以采用卷积策略通过深度学习进行训练,卷积核的尺寸和个数可以依情况而定,但步骤2中的卷积核不宜过大,步骤5中各分支的卷积核不宜过多。
步骤6,分类器训练及预测:首先整合步骤5得到的各神经节的特征集,将所有样本用统一的整合后的特征集编码,得到的特征图及其样本标签作为分类器输入,完成分类器模型的学习并将待识别样本输入分类器完成预测。
步骤3和步骤6中特征图编码具体为:记低隐藏层共计L层,参数分别为W1、W2、…WL,记预处理后的可操作数据为V,则V经由第一隐藏层W1编码后得到H1,H1通过非线性激活、空间池化等变换得到pH1,pH1经由第二隐藏层W2编码后得到H2,直至得到pHL作为聚类层的输入数据。
高隐藏层共计一层,也即低隐藏层数据pHL不再需要经历聚类阶段,而是在所有神经节训练得到的各自特征WL+1 c(下标L+1表示一层高隐藏层,上标c表示第c个神经节)拼接的WL+1 new=[WL+1 1,WL+1 2,…,WL+1 N]上映射出维度统一的高隐藏层数据HL+1,并输入随后的分类器。
本发明提供了一种增量式目标识别***,其边识别边在线学习,并以无监督的方式实现网络结构的生长。本发明克服了现有识别方法网络结构固化、海量数据环境下进行重复学习的缺陷,适用于及时识别各种目标,尤其是新出现的未知类别目标。
具体来说,用增强技术和归一化方法对样本进行预处理,以提高识别率;用压缩表征后的隐藏层数据代替高度冗余数据输入神经节层,以保证新网络的增量特性;用带卷积特性的深度学习网络训练各隐藏层,以获取适用于局部的滤波器;最终每个样本经过整合后的维度统一的滤波器编码并送入分类器,以给出决策结果。
有益效果,本结构能够边识别边学习,可以增量式地决定网络的结构和局部参数。面对动态更新的数据库,本结构自动标注噪声样本,而能保护已学习过的知识;本方法自适应确定样本所属神经节,而能仅更新局部参数,避免重复学习;本方法能检测未知目标类型,以及当训练数据相同时,检测效果优于其他相关传统网络。进一步地,本方法的金字塔空间池化设计使得***适用于尺寸任意的目标数据集。
附图说明
图1为本发明结构示意图;
图2为本发明中目标预处理步骤子流程图;
图3为本发明中局部特征训练步骤示意图。
具体实施方式
为使本发明更清晰易懂,兹以具体实施例,并配合附图做详细说明如下。
如图1所示,本发明公开了一种基于神经节分化的增量式目标识别***,其边识别边在线学习,并以无监督的方式实现网络结构的生长。该方法包含如下步骤:
步骤1,图像预处理:对数据集中的所有图像进行灰度化、归一化及白化预处理,如图2所示。
首先将彩色图像I由原来的RGB三通道按照[0.2989,0.5870,0.1140]比例加权灰度化得到图像X。
接下来进行减法归一化,也即:Yij=Xij-∑pqwpq·Xi+p,j+q,其中wpq为高斯加权窗的第p行第q列权值,并满足条件∑pqwpq=1;再对Yij进行除法归一化,也即:其中
最后将Z变换到频域并与陷波滤波器H做内积后做傅里叶反变换得到可是层V,V最终输入第一隐藏层进行后续训练。
步骤2和步骤5中的隐藏层采用卷积策略通过深度学习进行训练,每层卷积层后紧邻着池化层,池化尺度均为2×2。低隐藏层共计两层:第一隐藏层的卷积核尺寸为10×10,个数为48个;第二隐藏层的卷积核尺寸为8×8,个数为96个。高隐藏层每个神经节只有一层,卷积核尺寸为20×20,个数为20个。
记第l隐藏层的输出为pHl,维度为M×N×K,基向量为g;第l+1隐藏层为Hl+1,维度为P×Q×R,基向量为b;两者之间的滤波器为Wl+1,维度为Nw×Nw×K×R。由较低层到较高层编码方式为:
其中σ表示S-型激活函数,*表示卷积运算符,矩阵上方的波浪号表示将矩阵先水平翻转再垂直翻转而其他维度保持不变,Φ(x)表示池化操作。
对应的,由较高层到较低层解码方式为:
其中Ψ(x)表示按照某种正态分布采样,I表示相同维度的单位矩阵。
步骤3和步骤6中图像的特征图编码具体为:记低隐藏层参数分别为W1、W2,记预处理后的可视层数据为V,则V经由第一隐藏层W1编码后得到H1,H1通过池化得到pH1,pH1经由第二隐藏层W2编码后得到H2,池化后的pH2作为聚类层的输入数据。高隐藏层共计一层,也即低隐藏层数据pH2不再需要经历聚类阶段,而是在所有神经节训练得到的各自特征W3 c(下标3表示第三隐藏层,上标c表示第c个神经节)拼接的W3 new=[W3 1,W3 2,…,W3 N]上映射出维度统一的高隐藏层数据H3,并输入随后的分类器。
步骤4中所述金字塔空间池化方法具体为:
记第二隐藏层编码后的数据为其中表示实数空间,R、C、96分别表示该数据的长、宽、通道数;并记金字塔分块尺寸为n,则分块窗长宽分别为分块窗横纵方向移动步长为其中分别表示向下取整运算和向上取整运算。将分块窗在pH2的每个通道上移动并计算池化值,则得到固定维度的输出注意Λ的维度仅由金字塔分块尺寸和通道数决定,而与样本数据的长宽尺寸无关,这样不同维度的样本数据就转换成了相同维度,继而可以方便的计算距离。金字塔分块尺寸n×n为四组值9×9、7×7、5×5、3×3,因此最终得到的向量维度为164×96,统一维度后的距离计算算法采用CW-SSIW指数。
步骤4中所述确定特征图空间划分个数方法具体为:
分别计算所有样本点的局部密度ρ:
其中dij表示第i个样本点与第j个样本点之间的距离,dc为截断距离(实验中取值为0.007),i、j表示样本点的序号,|V|表示样本点数,ξ表示开关函数。
所有样本点的局部半径r:
每个样本点的显著度γi=ρiri,并按升序排序,寻找显著度远高于其他样本点的边界值τ,显著度高于边界值τ的样本点为神经节中心点,并记当前分支个数为N个。
然后判断新样本点的属性。记Lg表示神经节g的标号,g∈[G1,G2,…,GN],N为神经节个数;如果存在至少一个神经节g,使得当前样本点v到它的距离小于截断距离dc,则样本点v属于已知神经节,且神经节标签Lv为:其中运算符表示使函数f(x)取得最小值时自变量x的取值。如果当前样本点到任何神经节的距离均大于截断距离dc,则当前样本点是噪点。如果当前样本点是噪点,但显著度γi大于边界值τ,或高于非神经节点的显著度,则当前样本点属于未知神经节,更新边界值,分化新神经节并训练。
步骤5,各分支高层隐藏层训练,在步骤4中确定每个样本点的归属,对分化得到的不同神经节分别在各自的样本集合中训练高层滤波器。
步骤6,有监督的分类器训练及预测:首先整合步骤5得到的各分支的滤波器,将所有样本用统一的整合后的滤波器编码,得到的图像特征图及其标签作为输入完成softmax分类器的参数学习,并将待识别图像输入softmax分类器完成预测。
为方便起见,记softmax分类器的输入数据由m个已标记的样本构成:{(x1,y1),…,(xm,ym)},其中表示特征向量x是N+1维的实数,x0=1对应截距项,标签项yi∈{1,2,...,K}表示实际上共有K个类别。
对于给定的测试样本对应的输入x,假设函数hθ(x)为:
其中是分类器模型的参数。
进一步地,代价函数为:
其中函数g(x)当且仅当x表达式为真时取值为1,其他情况下为0。对于J(θ)的最小化问题目前还没有闭式解法,因此我们使用L-BFGS迭代求解,其中梯度公式为:
其中符号本身是一个向量,它的第l个元素是J(θ)对θj的第l个分量的偏导数。
本发明在Caltech-101、ORL Face公共数据集上与其他方法进行了比较。Caltech-101数据集中步骤4所述增量能力的测试过程模拟如下:在1-150序列中,输入样本随机取自溜冰鞋、烛台、双筒望远镜、加菲猫和非洲瞪羚;从第151序列开始,测试环境发生变化,输入样本随机取自鸭嘴兽、野猫、章鱼、剪刀和史努比;从第301序列开始,测试环境再次改变,以此类推。其中,每个环境中的10%图像随机取自剩余数据集作为环境噪声。
下表中对比了本发明及相关方法的结构在Caltech-101库识别任务中的表现,表格中Conv代表卷积层,括号内数字代表卷积核的尺寸、个数,其中本发明的第三卷积层的卷积核个数自适应确定。实验中IDNN***的卷积层数总计3层,因此在表格最后一行对比了各个网络在Conv3层(LCC网络中对应SP2层)的识别准确率。
下表中对比了本发明及相关网络在ORL数据库非监督聚类任务中的表现,以归一化互信息NMI为评价标准。
本发明公开的一种基于神经节分化的增量式目标识别***,以上所述仅是本发明的优选实施方案,具体实现该技术方案的方法和途径很多,在不脱离本发明原理的前提下还可以做出若干改进和润饰。因此,本发明的保护范围当视权利要求书所界定者为准。

Claims (10)

1.一种基于神经节分化的增量式目标识别***,其特征在于由低隐藏层、神经节层、高隐藏层和分类器构成,神经节层位于低隐藏层和高隐藏层之间;神经节层的神经节提取样本特征规律,通过神经节的激活和分化,在高隐藏层形成对应的独立的特征集,形成对样本的特征记忆;高隐藏层的特征集的数量可变,特征集的数量与神经层中分化的神经节数量相对应;新增神经节可以对新样本形成新的记忆,自适应地更新高隐藏层的特征集,实现增量式的目标识别;
所述的神经节是指用于表征一组分布规律相似的样本的神经网络结点,当输入样本特征参数大于激活阈值时,神经节被激活,该神经节在高隐藏层形成独立的特征集;被激活的神经节的活性小于阈值时,该神经节将凋亡,不在高隐藏层形成特征集;特征不同的样本激活不同的神经节,并新增神经节,自适应地更新高隐藏层的特征集;
神经节的激活是指样本的分布状态符合神经节的内在特征,参与神经节对应的特征集的训练;所述的分化是指自适应新增神经节的过程,若干样本融入神经节,增加了该神经节的活性;
神经节的凋亡是指在一定的范围内(一定时间、数量或者其他因素)没有新的样本激活该神经节,该样本的相对活性下降,在神经节层被去除;神经节被激活不一定分化,也可能会凋亡;
所述神经节层以压缩编码后的特征图数据代替原始数据为输入:
在数据集上训练若干层低隐藏层以获取局部滤波器,并将通用局部特征作用于样本,编码得到每个样本的特征图,输入神经节层;记低隐藏层共计L层,参数分别为W1、W2、…WL,记预处理后的可操作数据为V,则V经由第一隐藏层W1编码后得到H1,H1通过空间池化得到pH1,pH1经由第二隐藏层W2编码后得到H2,直至得到pHL作为神经节层的输入数据。
2.根据权利要求1所述的一种基于神经节分化的增量式目标识别***,其特征在于,确定神经节个数的方法如下步骤:
记神经节Ge表征一组分布规律相似的样本集,其中下标e∈[1,2,…,|G|],|G|表示神经节个数;计算每个样本点的显著度γi,其中i∈[1,2,…,|V|],|V|表示样本个数,并按升序排序,寻找显著度远高于其他样本点的边界值τ,显著度高于边界值τ的样本点为神经节点,并记神经节的个数为N。
3.根据权利要求1所述的一种基于神经节分化的增量式目标识别***,其特征在于,所述神经节层活动具体包括:
提取样本特征图分布规律,使输入样本刺激不同神经节并分别处理;如果新样本激活某任意已知神经节,则仅更新该已知神经节参数,而不需要更新所有网络参数;如果是噪声,则新样本在神经节层被标记为噪点而不会进入任何神经节,以保护已有网络;如果属于未知神经节,则分化新神经节并使该样本参与该神经节对应的特征集的训练。
4.根据权利要求3所述的一种基于神经节分化的增量式目标识别***,其特征在于,判断样本点是否激活已知神经节的方法包括如下步骤:
记Lg表示神经节g的标号,g∈[G1,G2,…,GN],N为神经节个数;如果存在至少一个神经节g,使得当前样本点v到它的距离小于截断距离dc,则样本点v属于已知神经节,且神经节标签Lv为:
L v = L argmind v g g : d v g < d c ,
其中运算符表示使函数f(x)取得最小值时自变量x的取值,dvg表示样本点v与神经节g之间的距离,dc为截断距离。
5.根据权利要求3所述的一种基于神经节分化的增量式目标识别***,其特征在于,判断样本点是否为噪声的方法包括如下步骤:
如果当前样本点到任何已知神经节中心点的距离均大于截断距离dc,则判断当前样本点为噪点。
6.根据权利要求3所述的一种基于神经节分化的增量式目标识别***,其特征在于,判断样本点是否属于未知神经节的方法包括如下步骤:
如果当前样本点是噪点,但是显著度γi大于边界值τ,或高于非神经节点的显著度,则当前样本点属于未知神经节,并更新边界值、分化出新神经节。
7.根据权利要求1所述的一种基于神经节分化的增量式目标识别***,其特征在于,整合各神经节的特征集,将所有样本用统一的整合后的特征集编码,得到的特征图及样本标签作为分类器输入,完成分类器模型的学习并将待识别样本输入分类器完成预测。
8.根据权利要求1所述的一种基于神经节分化的增量式目标识别***,其特征在于,滤波器的整合方法为:
样本的低隐藏层数据pHL不再需要经历神经节层,而是在所有神经节训练得到的各自特征WL+1 c拼接的WL+1 new=[WL+1 1,WL+1 2,…,WL+1 N]上映射出维度统一的高隐藏层数据HL+1,并输入随后的分类器,其中下标L+1表示一层高隐藏层,上标表示神经节的标号。
9.根据权利要求1所述的一种基于神经节分化的增量式目标识别***,其特征在于,低隐藏层数据pHL不再需要经历聚类阶段,而是在所有神经节训练得到的各自特征WL+1 c(下标L+1表示一层高隐藏层,上标c表示第c个神经节)拼接的WL+1 new=[WL+1 1,WL+1 2,…,WL+1 N]上映射出维度统一的高隐藏层数据HL+1,并输入随后的分类器。
10.根据权利要求1所述的一种基于神经节分化的增量式目标识别***,其特征在于,将输入数据激活不同神经节并分别处理:如果新样本是噪声,则新样本在弱聚类层被标记为噪点而不会进入任何神经节,也不会继续送入高层训练,从而保护了已有网络;如果新样本激活未知神经节(例如之前的样本都是动物,新样本是车辆),则自动分化新的神经节,并形成独立特征集;如果新样本激活已知神经节,也不需要刷新所有的知识,而是仅更新对应神经节的局部参数;所述方法具体包括以下步骤:
步骤1,样本预处理:对数据集中的所有样本进行去噪、白化及归一化预处理(也可包括一些图像增强处理),生成可操作数据;其中的归一化处理为必选操作,其他可适当选择处理;
记输入的原始样本为X,Xij表示图像的第i行第j列数据值;归一化预处理分为两步,首先进行减法归一化,也即:Yij=Xij-∑pqwpq·Xi+p,j+q,其中wpq为高斯加权窗的第p行第q列权值,并满足条件∑pqwpq=1;再对Yij进行除法归一化,也即:Zij=Yij/max(c,θij),其中c=mean(θij);
步骤2,通用局部特征训练:在数据集上训练若干层低隐藏层,以获取局部滤波器(也可采用离线训练好的局部特征);
步骤3,特征图编码:将通用局部特征作用于样本,编码得到每个样本的特征图;
步骤4,神经节分化具体包括如下步骤:
首先计算各样本点之间的距离dij;本发明所涉及样本为任意尺寸,而不同于传统识别方法中的固定尺寸,而一般的距离度量方法要求维度一致,因此设计了一种空间金字塔池化算法已解决上述矛盾;
记第L隐藏层编码后的数据为其中表示实数空间,R、C、T分别表示该数据的长、宽、通道数;并记金字塔分块尺寸为n,则分块窗长宽分别为分块窗横纵方向移动步长为其中分别表示向下取整运算和向上取整运算;将分块窗在pHL的每个通道上移动并计算池化值,则得到固定维度的输出注意Λ的维度仅由金字塔分块尺寸和通道数决定,而与样本数据的长宽尺寸无关,这样不同维度的样本数据就转换成了相同维度,继而可以方便的计算距离;
其次确定神经节个数;分别计算所有样本点的显著度γi,并按升序排序,寻找显著度远高于其他样本点的边界值τ,显著度高于边界值τ的样本点为神经节中心点,并记当前分支个数为N个;
然后判断新样本点的属性;记Lg表示神经节g的标号,g∈[G1,G2,…,GN],N为神经节个数;如果存在至少一个神经节g,使得当前样本点v到它的距离小于截断距离dc,则样本点v属于已知神经节,且神经节标签Lv为:其中运算符表示使函数f(x)取得最小值时自变量x的取值;
如果当前样本点到任何神经节的距离均大于截断距离dc,则当前样本点是噪点;如果当前样本点是噪点,但显著度γi大于边界值τ,或高于非神经节点的显著度,则当前样本点属于未知神经节,更新边界值,分化新神经节并训练;
步骤5,各神经节高层隐藏层训练,在步骤4中确定每个样本点的归属,对分化得到的不同神经节分别在各自的样本集合中训练高层特征集;
步骤2和步骤5中的隐藏层可以采用卷积策略通过深度学习进行训练,卷积核的尺寸和个数可以依情况而定,但步骤2中的卷积核不宜过大,步骤5中各分支的卷积核不宜过多;
步骤6,分类器训练及预测:首先整合步骤5得到的各神经节的特征集,将所有样本用统一的整合后的特征集编码,得到的特征图及其样本标签作为分类器输入,完成分类器模型的学习并将待识别样本输入分类器完成预测;
步骤3和步骤6中特征图编码具体为:记低隐藏层共计L层,参数分别为W1、W2、…WL,记预处理后的可操作数据为V,则V经由第一隐藏层W1编码后得到H1,H1通过非线性激活、空间池化等变换得到pH1,pH1经由第二隐藏层W2编码后得到H2,直至得到pHL作为聚类层的输入数据。
CN201710055128.1A 2017-01-24 2017-01-24 一种基于神经节分化的增量式目标识别*** Active CN106919980B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710055128.1A CN106919980B (zh) 2017-01-24 2017-01-24 一种基于神经节分化的增量式目标识别***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710055128.1A CN106919980B (zh) 2017-01-24 2017-01-24 一种基于神经节分化的增量式目标识别***

Publications (2)

Publication Number Publication Date
CN106919980A true CN106919980A (zh) 2017-07-04
CN106919980B CN106919980B (zh) 2020-02-07

Family

ID=59453429

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710055128.1A Active CN106919980B (zh) 2017-01-24 2017-01-24 一种基于神经节分化的增量式目标识别***

Country Status (1)

Country Link
CN (1) CN106919980B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107622283A (zh) * 2017-09-28 2018-01-23 上海理工大学 一种基于深度学习的增量式物体识别方法
CN109064454A (zh) * 2018-07-12 2018-12-21 上海蝶鱼智能科技有限公司 产品缺陷检测方法及***
WO2019066718A1 (en) * 2017-09-28 2019-04-04 Agency For Science, Technology And Research DEEP REPRESENTATIVE SELF ASSESSMENT UNITS
WO2019085379A1 (zh) * 2017-10-30 2019-05-09 北京深鉴智能科技有限公司 深度学习softmax分类器的硬件实现电路及其控制方法
CN109766954A (zh) * 2019-01-31 2019-05-17 北京市商汤科技开发有限公司 一种目标对象处理方法、装置、电子设备及存储介质
CN110390355A (zh) * 2019-07-01 2019-10-29 东北大学 基于进化模糊最大最小神经网络的管道新缺陷识别方法
CN110443363A (zh) * 2018-05-04 2019-11-12 北京市商汤科技开发有限公司 图像特征学习方法及装置
CN111667069A (zh) * 2020-06-10 2020-09-15 中国工商银行股份有限公司 预训练模型压缩方法、装置和电子设备
CN112396084A (zh) * 2019-08-19 2021-02-23 ***通信有限公司研究院 数据处理方法、装置、设备及存储介质
CN112988082A (zh) * 2021-05-18 2021-06-18 南京优存科技有限公司 基于nvm进行ai计算的芯片***及其运行方法
CN113960553A (zh) * 2021-10-14 2022-01-21 电子科技大学 一种一维像识别中的高斯权值分布特征提取方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7313550B2 (en) * 2002-03-27 2007-12-25 Council Of Scientific & Industrial Research Performance of artificial neural network models in the presence of instrumental noise and measurement errors
CN101826166A (zh) * 2010-04-27 2010-09-08 青岛大学 一种新的神经网络模式识别方法
CN104778448A (zh) * 2015-03-24 2015-07-15 孙建德 一种基于结构自适应卷积神经网络的人脸识别方法
CN105046272A (zh) * 2015-06-29 2015-11-11 电子科技大学 一种基于简洁非监督式卷积网络的图像分类方法
CN105426919A (zh) * 2015-11-23 2016-03-23 河海大学 基于显著性指导非监督特征学习的图像分类方法
CN105469142A (zh) * 2015-11-13 2016-04-06 燕山大学 一种基于样本增量驱动的神经网络增量型前馈算法
CN106326899A (zh) * 2016-08-18 2017-01-11 郑州大学 一种基于高光谱图像和深度学习算法的烟叶分级方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7313550B2 (en) * 2002-03-27 2007-12-25 Council Of Scientific & Industrial Research Performance of artificial neural network models in the presence of instrumental noise and measurement errors
CN101826166A (zh) * 2010-04-27 2010-09-08 青岛大学 一种新的神经网络模式识别方法
CN104778448A (zh) * 2015-03-24 2015-07-15 孙建德 一种基于结构自适应卷积神经网络的人脸识别方法
CN105046272A (zh) * 2015-06-29 2015-11-11 电子科技大学 一种基于简洁非监督式卷积网络的图像分类方法
CN105469142A (zh) * 2015-11-13 2016-04-06 燕山大学 一种基于样本增量驱动的神经网络增量型前馈算法
CN105426919A (zh) * 2015-11-23 2016-03-23 河海大学 基于显著性指导非监督特征学习的图像分类方法
CN106326899A (zh) * 2016-08-18 2017-01-11 郑州大学 一种基于高光谱图像和深度学习算法的烟叶分级方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107622283A (zh) * 2017-09-28 2018-01-23 上海理工大学 一种基于深度学习的增量式物体识别方法
US11657270B2 (en) 2017-09-28 2023-05-23 Agency For Science, Technology And Research Self-assessing deep representational units
WO2019066718A1 (en) * 2017-09-28 2019-04-04 Agency For Science, Technology And Research DEEP REPRESENTATIVE SELF ASSESSMENT UNITS
WO2019085379A1 (zh) * 2017-10-30 2019-05-09 北京深鉴智能科技有限公司 深度学习softmax分类器的硬件实现电路及其控制方法
CN110443363A (zh) * 2018-05-04 2019-11-12 北京市商汤科技开发有限公司 图像特征学习方法及装置
CN109064454A (zh) * 2018-07-12 2018-12-21 上海蝶鱼智能科技有限公司 产品缺陷检测方法及***
CN109766954A (zh) * 2019-01-31 2019-05-17 北京市商汤科技开发有限公司 一种目标对象处理方法、装置、电子设备及存储介质
US11403489B2 (en) 2019-01-31 2022-08-02 Beijing Sensetime Technology Development Co., Ltd. Target object processing method and apparatus, electronic device, and storage medium
CN110390355A (zh) * 2019-07-01 2019-10-29 东北大学 基于进化模糊最大最小神经网络的管道新缺陷识别方法
CN112396084A (zh) * 2019-08-19 2021-02-23 ***通信有限公司研究院 数据处理方法、装置、设备及存储介质
CN111667069A (zh) * 2020-06-10 2020-09-15 中国工商银行股份有限公司 预训练模型压缩方法、装置和电子设备
CN111667069B (zh) * 2020-06-10 2023-08-04 中国工商银行股份有限公司 预训练模型压缩方法、装置和电子设备
CN112988082A (zh) * 2021-05-18 2021-06-18 南京优存科技有限公司 基于nvm进行ai计算的芯片***及其运行方法
CN112988082B (zh) * 2021-05-18 2021-08-03 南京优存科技有限公司 基于nvm进行ai计算的芯片***及其运行方法
CN113960553A (zh) * 2021-10-14 2022-01-21 电子科技大学 一种一维像识别中的高斯权值分布特征提取方法

Also Published As

Publication number Publication date
CN106919980B (zh) 2020-02-07

Similar Documents

Publication Publication Date Title
CN106919980A (zh) 一种基于神经节分化的增量式目标识别***
CN107798349B (zh) 一种基于深度稀疏自编码机的迁移学习方法
CN109271522A (zh) 基于深度混合模型迁移学习的评论情感分类方法及***
CN107885853A (zh) 一种基于深度学习的组合式文本分类方法
CN112364779A (zh) 信号处理与深-浅网络多模型融合的水声目标识别方法
CN109934158B (zh) 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法
CN107871136A (zh) 基于稀疏性随机池化的卷积神经网络的图像识别方法
CN102622515B (zh) 一种天气预测方法
CN109034034A (zh) 一种基于强化学习算法优化卷积神经网络的静脉识别方法
Zhang et al. Bilateral sensitivity analysis: a better understanding of a neural network
CN108171318A (zh) 一种基于模拟退火—高斯函数的卷积神经网络集成方法
CN111986193B (zh) 一种遥感影像变化检测方法、电子设备及存储介质
CN110570035B (zh) 同时建模时空依赖性和每日流量相关性的人流量预测***
CN109871892A (zh) 一种基于小样本度量学习的机器人视觉认知***
CN112560948B (zh) 数据偏差下的眼底图分类方法及成像方法
CN114548591B (zh) 一种基于混合深度学习模型和Stacking的时序数据预测方法及***
CN112733602B (zh) 关系引导的行人属性识别方法
CN108073978A (zh) 一种人工智能超深度学习模型的构成方法
CN114330541A (zh) 道路交通事故风险预测深度学习算法
Oja Self-organizing maps and computer vision
CN108073979A (zh) 一种导入人工智能超深度学习用于图像识别的方法
CN105718858A (zh) 一种基于正负广义最大池化的行人识别方法
Wang et al. Kernel-based deep learning for intelligent data analysis
CN114818789A (zh) 一种基于数据增强的船舶辐射噪声识别方法
Li et al. Diffusion Probabilistic Model Based End-to-End Latent Fingerprint Synthesis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant