CN113191480A - 一种用于神经网络的池化方法及装置 - Google Patents

一种用于神经网络的池化方法及装置 Download PDF

Info

Publication number
CN113191480A
CN113191480A CN202010039300.6A CN202010039300A CN113191480A CN 113191480 A CN113191480 A CN 113191480A CN 202010039300 A CN202010039300 A CN 202010039300A CN 113191480 A CN113191480 A CN 113191480A
Authority
CN
China
Prior art keywords
elements
mean value
determining
matrix
pooling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010039300.6A
Other languages
English (en)
Inventor
范坤
陈迈越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Horizon Robotics Technology Research and Development Co Ltd
Original Assignee
Beijing Horizon Robotics Technology Research and Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Horizon Robotics Technology Research and Development Co Ltd filed Critical Beijing Horizon Robotics Technology Research and Development Co Ltd
Priority to CN202010039300.6A priority Critical patent/CN113191480A/zh
Publication of CN113191480A publication Critical patent/CN113191480A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Processing (AREA)

Abstract

公开了一种用于神经网络的池化方法、装置、计算机可读存储介质及电子设备,该方法包括:将图像输入神经网络的卷积层,得到特征图;根据预设池化步长,获取所述特征图在预设数据窗口下的矩阵元素;根据所述矩阵元素中的噪声元素,确定所述矩阵元素的第一均值集合;根据所述矩阵元素的第一均值集合,确定所述矩阵元素的池化输出值。本公开的技术方案通过考虑数据窗口内的噪声元素,以降低池化过程引入噪声元素的可能性,从而提高池化输出值的准确性,进而提高神经网络的精度。

Description

一种用于神经网络的池化方法及装置
技术领域
本申请涉及深度学习技术领域,且更具体地,涉及一种用于神经网络的池化方法及装置。
背景技术
神经网络是人工智能领域具有高发展水平的感知模型之一,因其广泛的应用和出色的表现使其成为了学术界和工业界的研究热点。神经网络通过模拟人类大脑的神经连接结构来建立模型,为大规模数据(例如图像、视频或音频)处理任务带来了突破性进展。神经网络的计算过程一般可分为卷积、激活、池化等步骤,其中,神经网络的各层次特征图通常需要进行池化操作,以降低特征图的尺寸,从而减少计算量。
目前,主要通过最大池化对特征图进行池化操作。
但是,最大池化对异常值不敏感,比如,对于数据窗口内的4个元素:1,2,1,255,此时,最大池化就会用最大值255代替这个数据窗口内的4个元素,但是这种情况下255很有可能是一个白噪点,使用255替代这个数据窗口内的元素就会引入这个白噪点,从而降低神经网络的精度。
发明内容
为了解决上述技术问题,提出了本申请。本申请的实施例提供了一种用于神经网络的池化方法、装置、计算机可读存储介质及电子设备,通过考虑数据窗口内的噪声元素,以降低池化过程引入噪声元素的可能性,从而提高池化输出值的准确性,进而提高神经网络的精度。
根据本申请的一个方面,提供了一种用于神经网络的池化方法,包括:
将图像输入神经网络的卷积层,得到特征图;
根据预设池化步长,获取所述特征图在预设数据窗口下的矩阵元素;
根据所述矩阵元素中的噪声元素,确定所述矩阵元素的第一均值集合;
根据所述矩阵元素的第一均值集合,确定所述矩阵元素的池化输出值。
根据本申请的第二方面,提供了一种用于神经网络的池化装置,包括:
特征提取模块,用于将图像输入神经网络的卷积层,得到特征图;
获取模块,用于根据预设池化步长,获取所述特征图在预设数据窗口下的矩阵元素;
计算模块,用于根据所述矩阵元素中的噪声元素,确定所述矩阵元素的第一均值集合;
输出模块,用于根据所述矩阵元素的第一均值集合,确定所述矩阵元素的池化输出值。
根据本申请的第三方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述的用于神经网络的池化方法。
根据本申请的第四方面,提供了一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述的用于神经网络的池化方法。
与现有技术相比,本申请提供的一种用于神经网络的池化方法、装置、计算机可读存储介质及电子设备,至少包括以下有益效果:
本实施例通过考虑数据窗口内的噪声元素,以降低池化过程引入噪声元素的可能性,从而提高池化输出值的准确性,进而提高神经网络的精度。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本申请一个或多个实施例适用的一种应用场景的示意图。
图2是本申请一示例性实施例提供的用于神经网络的池化方法的流程示意图。
图3是本申请一示例性实施例提供的用于神经网络的池化方法中步骤203的流程示意图。
图4是本申请一示例性实施例提供的用于神经网络的池化方法中步骤2032的流程示意图。
图5是本申请一示例性实施例提供的用于神经网络的池化方法中步骤20322的流程示意图。
图6是本申请一示例性实施例提供的用于神经网络的池化方法中步骤204的流程示意图。
图7是本申请一示例性实施例提供的用于神经网络的池化装置的结构示意图一。
图8是本申请一示例性实施例提供的用于神经网络的池化装置的结构示意图二。
图9是本申请一示例性实施例提供的用于神经网络的池化装置的结构示意图二中集合确定单元7032的结构示意图。
图10是本申请一示例性实施例提供的电子设备的结构图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
随着近年来人工智能的发展,基于深度学习的神经网络在解决抽象问题上得到了广泛的应用,深度神经网络可以通过多个变换阶段分层对数据特征进行描述,从而建立一种由大量节点通过网状互连构成的运算模型,这些节点通常被称为神经元。一般来说,神经网络的计算量较大,且计算过程复杂,利用池化可对神经网络的计算进行收敛。因此,池化对减少神经网络的计算量具有重要意义。
目前,主要通过最大池化的方法来降低特征图的尺寸以减小计算量。
但是,最大池化容易引入异常值,从而降低神经网络的精度。
本公开通过考虑数据窗口下矩阵元素内的噪声元素,以降低池化过程引入噪声元素的可能性,从而提高池化输出值的准确性,进而提高神经网络的精度。
示例性方法
图2是本申请一示例性实施例提供的用于神经网络的池化方法的流程示意图。
本实施例可应用在电子设备上,具体可以应用于服务器或一般计算机上。如图2所示,本申请一示例性实施例提供的用于神经网络的池化方法至少包括如下步骤:
步骤201,将图像输入神经网络的卷积层,得到特征图。
电子设备可通过其具备的摄像机等图像采集设备获取输入神经网络的图像。或者,电子设备还可从与其相连接的外部存储设备中获取输入神经网络的图像。其中,上述外部存储设备可包括软盘、移动硬盘、U盘等,此处不作限定。或者,其他具有图像采集能力的外部设备采集图像,并将采集的图像发送给电子设备,从而使得电子设备获取输入神经网络的图像。例如,道路上斑马线附近的摄像头拍摄行人监控图像,并将行人监控图像发送给电子设备。
图像包括若干个像素点以及每个像素点对应的像素值。本发明对图像内容不做限定。将图像输入神经网络的卷积层,卷积层通过卷积核对该图像进行卷积,以从不同位置探测图像中的特征,即对下一层的神经元来说,它们从不同的位置去探测了上一层神经元的特征,从而输出特征图(feature map),即通过卷积核的感受视野扫描生成的下一层神经元的矩阵。显而易见的,图像的特征图的个数和卷积核的个数相同,对于任意一个特征图,该特征图中包括若干个像素点及每个像素点经过卷积后的像素值,这里不对卷积的次数不做限制,可以是一次卷积,也可以是两次卷积。
需要说明的是,神经网络通常为卷积神经网络,卷积神经网络包括但不限于卷积层和池化层,本实施例对卷积层和池化层的层数不做限定。
步骤202,根据根据预设池化步长,获取所述特征图在预设数据窗口下的矩阵元素。
池化步长和预设数据窗口的大小为整数。池化步长表示预设数据窗口在图像上的滑动步长,可以包括水平方向和竖直方向的池化步长,例如,池化步长为2*2,即水平方向和竖直方向的池化步长均为2(即2个像素点)。预设数据窗口的大小为每次池化的池化区域的大小,矩阵元素为池化区域内像素点的像素值。例如,数据窗口的大小为2*2,即每次对2*2的池化区域进行池化,即池化区域包括4个像素点,矩阵元素为池化区域内4个像素点分别对应的像素值,矩阵元素的个数和预设数据窗口的大小相同。
具体地,将若干个特征图输入神经网络内的池化层,池化层可根据池化步长和预设数据窗口对每个特征图进行降维,输出的特征图个数不变。具体地,针对每个特征图,预设数据窗口按照池化步长对特征图进行扫描,每次扫描可获取预设数据窗口内的若干个矩阵元素。
请参考图1,输入的是特征图,特征图的大小为4*4,特征图中包括16个像素点以及每个像素点的像素值,16个像素点为图1中X1至X16所在的正方形,其中,X1至X16分别表示其所在像素点对应的像素值,在这里,数据窗口的大小为2*2,池化步长为2*2,按照从左到右,从上到下的顺序通过数据窗口依次扫描输入的特征图,则第一次扫描得到的矩阵元素包括X1、X2、X5、X6,第二次扫描得到的矩阵元素包括X3、X4、X7、X8,第三次扫描得到的矩阵元素包括X9、X10、X13、X14,第四次扫描得到的矩阵元素包括X11、X12、X15、X16。池化层的数据窗口大小和池化步长需要结合实际场景确定。
步骤203,根据所述矩阵元素中的噪声元素,确定所述矩阵元素的第一均值集合。
噪声元素为矩阵元素中的异常值,异常值指的是过大或过小的矩阵元素,若在池化过程中引入噪声元素,则容易降低神经网络的精度。在这里,根据矩阵元素中的噪声元素,比如可以删除噪声元素、对噪声元素加权等数据处理,确定矩阵元素的第一均值集合,该第一均值集合考虑到噪声元素,从而确保数据的参考价值。显而易见的,第一均值集合包括一个或多个数据,这些数据指示了矩阵元素的均值信息。
需要说明的是,为了便于数据处理及减少池化层的计算量,将矩阵元素中的最大值和/或最小值确定为噪声元素,无需对矩阵元素进行异常值检测。
步骤204,根据所述矩阵元素的第一均值集合,确定所述矩阵元素的池化输出值。
根据矩阵元素的第一均值集合,确定出矩阵元素的池化输出值。第一均值集合包括多个数据时,需要对这些数据进行融合,融合方式不限,从而确定出池化输出值。上述池化方法考虑到噪声元素,从而提高了神经网络的精度。
本实施例通过考虑数据窗口内的噪声元素,以降低池化过程引入噪声元素的可能性,从而提高池化输出值的准确性,进而提高神经网络的精度。
图3示出了如图2所示的实施例中根据所述矩阵元素中的噪声元素,确定所述矩阵元素的第一均值集合步骤的流程示意图。
如图3所示,在上述图2所示实施例的基础上,本申请一个示例性实施例中,步骤203所示根据所述矩阵元素中的噪声元素,确定所述矩阵元素的第一均值集合步骤,具体可以包括如下步骤:
步骤2031,计算所述矩阵元素中噪声元素之外的元素的第一均值。
计算矩阵元素中噪声元素之外的元素的第一均值,从而降低引入噪声元素的可能性,进而确保第一均值的准确性。请参考图1,以上述第一次扫描得到的矩阵元素包括X1、X2、X5、X6为例进行说明,第一均值A=[(X1+X2+X5+X6)-max(X1,X2,X5,X6)-min(X1,X2,X5,X6)]/2,其中,max(X1,X2,X5,X6)和min(X1,X2,X5,X6)指示了噪声元素。
步骤2032,根据所述第一均值,确定所述矩阵元素的第一均值集合。
第一均值集合包括但不限于第一均值,从而使得第一均值集合保留了噪声元素之外的矩阵元素的均值信息。
本实施例通过矩阵元素中噪声元素之外的元素的均值,确定第一均值集合,从而确保第一均值集合的参考价值。
图4示出了如图3所示的实施例中根据所述第一均值,确定所述矩阵元素的第一均值集合步骤的流程示意图。
如图4所示,在上述图3所示实施例的基础上,本申请一个示例性实施例中,步骤2032所示根据所述第一均值,确定所述矩阵元素的第一均值集合步骤,具体可以包括如下步骤:
步骤20321,确定所述矩阵元素中任意两个相邻元素之间的差值,所述两个相邻元素满足预设条件。
元素之间的差值能够反映出元素之间的差异。具体地,确定矩阵元素中任意两个相邻元素之间的差值,两个相邻元素满足预设条件可以包括:两个相邻元素为行元素、列元素和对角线元素中的任意一项。显而易见的,两个相邻元素可以在水平方向上相邻即左右相邻,可以在垂直方向上相邻即上下相邻,也可以在对角线方向上相邻。请参考图1,以X1为例进行说明,与X1相邻的矩阵元素可以是X2、X5和X6。其中,X1和X2为行元素,在水平方向上相邻即左右相邻;X1和X5为列元素,在垂直方向上相邻即上下相邻;X1和X6为对角线元素,在对角线方向上相邻。
需要说明的是,差值的数量是根据数据窗口的大小确定的,其中,比如,数据窗口的大小为X*Y,则有X行Y列的矩阵元素,每行元素有(X-1)组相邻元素,则水平方向上中共有(X-1)*Y数量个差值,相应的,垂直方向上共有(Y-1)*X数量个差值,对角线方向上共有2*(X-1)*(Y-1)个差值。举例来说,数据窗口的大小为2*2,请参考图1,每行元素中有一组相邻元素,即水平方向上有两个差值,分别为X1-X2、X5-X6,每列元素中有一组相邻元素,即垂直方向上有两个差值,分别为X1-X5、X2-X6,每条对角线中的对角线元素中有一组相邻元素,即对角线方向上有两个差值,分别为X1-X6、X1-X5。
还需要说明的是,两个相邻元素做差时对元素顺序不做限定,请参考图1,以上述两个相邻元素为X1和X2为例进行说明,该差值可以是X1-X2,也可以是X2-X1。
步骤20322,根据各个所述差值,确定第二均值集合。
第二均值集合中的数据可以是从若干个差值中随机选择的一个或多个差值,可以是若干个差值的均值,可以是若干个差值中的中值,也可以是若干个差值中的最大值等,本发明对此不做限定。在这里,这些差值对应的两个相邻元素可以是行元素、列元素和对角线元素中的任意一项,也可以是任意多项。即这些差值对应的两个相邻元素可以是水平方向、垂直方向和对角线方向中的任意一个方向或多个方向。请参考图1,以上述第一次扫描得到的矩阵元素包括X1、X2、X5、X6为例进行说明,这些差值包括X1-X2、X5-X6、X1-X5、X2-X6、X1-X6、X2-X5中的任意一项或多项,其中,X1-X2、X5-X6为水平方向上的差值,X1-X5、X2-X6为垂直方向上的差值,X1-X6、X2-X5为对角线方向上的差值。
步骤20323,根据所述第一均值和第二均值集合,确定所述矩阵元素的第一均值集合。
利用第一均值和第二均值集合形成第一均值集合,从而较多的保留特征图中的信息,进而提高神经网络的精度和稳定性。相对于现有技术中的均值池化的池化方法,本实施例提供的用于神经网络的池化方法降低了特征图的信息丢失的可能性,同时降低噪声元素的影响,从而提高了神经网络的稳定性和精度。
本实施例通过相邻元素之间的差值,确定第二均值集合,利用第二均值集合和第一均值形成第一均值集合,较多的保留了特征图的信息,同时降低噪声元素的影响,进而提高神经网络的精度和稳定性。
图5示出了如图4所示的实施例中根据所述第一均值,确定所述矩阵元素的第一均值集合步骤的流程示意图。
如图5所示,在上述图4所示实施例的基础上,本申请一个示例性实施例中,步骤20322所示根据各个所述差值,确定第二均值集合步骤,具体可以包括如下步骤:
步骤203221,确定各个所述差值分别对应的绝对值。
考虑到相邻元素之间的差值可能会出现负数,而池化计算过程中不应当出现负值,因此,需要确定若干个差值分别对应的绝对值,从而确保这些差值的参考价值。
在这里,各个差值对应的两个相邻元素为行元素、列元素和对角线元素中的任意一项。以行元素为例进行说明,请参考图1,以上述第一次扫描得到的矩阵元素包括X1、X2、X5、X6为例进行说明,行元素对应的若干个差值包括X1-X2、X5-X6,显而易见的,各个差值的数量不大于水平方向上所有差值的个数。
步骤203222,将各个所述差值分别对应的绝对值的均值确定为第二均值。
确定各个差值分别对应的绝对值的均值,将该均值确定为第二均值。需要说明的是,第二均值指示了水平方向、垂直方向和对角线方向中任一方向上两个相邻元素差值的均值。
步骤203223,根据所述第二均值,确定第二均值集合。
当相邻元素均为行元素时,确定行元素对应的第二均值,即水平方向上的信息;当相邻元素均为列元素时,确定列元素对应的第二均值,即垂直方向上的信息;当相邻元素均为对角线元素时,确定对角线元素对应的第二均值,即对角线方向上的信息。此时,第二均值集合包括但不限于行元素、列元素、对角线元素分别对应的第二均值中的任意一项或多项,即水平方向、垂直方向、对角线方向分别对应的第二均值中的任意一项或多项。显而易见的,第二均值集合更多的保留了特征图中的信息,从而提高神经网络的精度和稳定性。
请参考图1,以上述第一次扫描得到的矩阵元素包括X1、X2、X5、X6为例进行说明,行元素对应的第二均值B=(∣X1-X2∣+∣X5-X6∣)/2;列元素对应的第二均值C=(∣X1-X5∣+∣X2-X6∣)/2;对角线对应的第二均值D=(∣X1-X6∣+∣X2-X5∣)/2。
本实施例通过确定各个差值的绝对值的均值,从而确定第二均值集合,更多的保留特征图中的信息,从而提高神经网络的精度和稳定性。
图6示出了如图1所示的实施例中根据所述矩阵元素的第一均值集合,确定所述矩阵元素的池化输出值步骤的流程示意图。
如图6所示,在上述图1所示实施例的基础上,本申请一个示例性实施例中,步骤204所示根据所述矩阵元素的第一均值集合,确定所述矩阵元素的池化输出值步骤,具体可以包括如下步骤:
步骤2041,获取所述第一均值集合中每个均值各自对应的权重值。
第一均值集合包括若干个均值,为了提高池化的准确性,获取每个均值各自对应的权重值。
步骤2042,根据所述第一均值集合中每个均值各自对应的权重值,对所述第一均值集合中的均值进行加权求和,确定所述矩阵元素的池化输出值。
根据第一均值集合中每个均值各自对应的权重值,对所述第一均值集合中的均值进行加权求和,从而确定矩阵元素的池化输出值,该池化输出值更多的保留了特征图中的信息,且能更为准确的反映特征图中的信息,从而提高神经网络的精度和稳定性。
请参考图1,以上述第一次扫描得到的矩阵元素包括X1、X2、X5、X6为例进行说明,假设第一均值集合包括前述第一均值A、行元素对应的第二均值B和列元素对应的第二均值C,则Y1=αA+βB+γC,其中,α可以为1,β和γ的取值范围均为0到1,按照上述池化方法,以从左到右,从上到下的顺序通过数据窗口依次扫描特征图,即可输出Y1、Y2、Y3、Y4等池化输出值。
本实施例通过权重值对第一均值集合中的均值进行加权求和,该池化输出值更多的保留了特征图中的信息,且能更为准确的反映特征图中的信息,从而提高神经网络的精度和稳定性。
示例性装置
基于与本申请方法实施例相同的构思,本申请实施例还提供了用于神经网络的池化装置。
图7示出了本申请一示例性实施例提供的用于神经网络的池化装置的结构示意图一。
如图7所示,本申请一示例性实施例提供的用于神经网络的池化装置,包括:
特征提取模块701,用于将图像输入神经网络的卷积层,得到特征图;
获取模块702,用于根据预设池化步长,获取所述特征图在预设数据窗口下的矩阵元素;
计算模块703,用于根据所述矩阵元素中的噪声元素,确定所述矩阵元素的第一均值集合;
输出模块704,用于根据所述矩阵元素的第一均值集合,确定所述矩阵元素的池化输出值。
图8是本申请一示例性实施例提供的用于神经网络的池化装置的结构示意图二。
如图8所示,在一个示例性实施例中,所述计算模块703包括:
计算单元7031,用于计算所述矩阵元素中噪声元素之外的元素的第一均值;
集合确定单元7032,用于根据所述第一均值,确定所述矩阵元素的第一均值集合。
如图8所示,在一个示例性实施例中,所述输出模块704包括:
获取单元7041,用于获取所述第一均值集合中每个均值各自对应的权重值;
输出单元7042,用于根据所述第一均值集合中每个均值各自对应的权重值,对所述第一均值集合中的均值进行加权求和,确定所述矩阵元素的池化输出值。
图9是本申请一示例性实施例提供的用于神经网络的池化装置的结构示意图二中集合确定单元7032的结构示意图。
如图9所示,在一个示例性实施例中,所述集合确定单元7032包括:
差值确定子单元70321,用于计算所述矩阵元素中噪声元素之外的元素的第一均值;
第一集合确定子单元70322,用于根据所述第一均值,确定所述矩阵元素的第一均值集合;
第二集合确定子单元70323,用于根据所述第一均值和第二均值集合,确定所述矩阵元素的第一均值集合。
在一个示例性实施例中,所述第一集合确定子单元70322用于执行以下步骤:
确定各个所述差值分别对应的绝对值;
将各个所述差值分别对应的绝对值的均值确定为第二均值;
根据所述第二均值,确定第二均值集合。
示例性电子设备
图10图示了根据本申请实施例的电子设备的框图。
如图10所示,电子设备100包括一个或多个处理器101和存储器102。
处理器101可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备100中的其他组件以执行期望的功能。
存储器102可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器101可以运行所述程序指令,以实现上文所述的本申请的各个实施例的用于神经网络的池化方法以及/或者其他期望的功能。
在一个示例中,电子设备100还可以包括:输入装置103和输出装置104,这些组件通过总线***和/或其他形式的连接机构(未示出)互连。
当然,为了简化,图10中仅示出了该电子设备100中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备100还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的用于神经网络的池化方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的用于神经网络的池化方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、***的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、***。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (10)

1.一种用于神经网络的池化方法,包括:
将图像输入神经网络的卷积层,得到特征图;
根据预设池化步长,获取所述特征图在预设数据窗口下的矩阵元素;
根据所述矩阵元素中的噪声元素,确定所述矩阵元素的第一均值集合;
根据所述矩阵元素的第一均值集合,确定所述矩阵元素的池化输出值。
2.根据权利要求1所述的方法,其中,所述根据所述矩阵元素中的噪声元素,确定所述矩阵元素的第一均值集合,包括:
计算所述矩阵元素中噪声元素之外的元素的第一均值;
根据所述第一均值,确定所述矩阵元素的第一均值集合。
3.根据权利要求2所述的方法,所述根据所述第一均值,确定所述矩阵元素的第一均值集合,包括:
确定所述矩阵元素中任意两个相邻元素之间的差值,所述两个相邻元素满足预设条件;
根据各个所述差值,确定第二均值集合;
根据所述第一均值和第二均值集合,确定所述矩阵元素的第一均值集合。
4.根据权利要求3所述的方法,其中,所述根据各个所述差值,确定第二均值集合,包括:
确定各个所述差值分别对应的绝对值;
将各个所述差值分别对应的绝对值的均值确定为第二均值;
根据所述第二均值,确定第二均值集合。
5.根据权利要求4所述的方法,所述两个相邻元素满足预设条件包括:所述两个相邻元素为所述矩阵元素中的行元素、列元素和对角线元素中的任意一项;
所述第二均值集合包括:所述矩阵元素中的行元素、列元素和对角线元素中的任意一项或多项对应的所述第二均值。
6.根据权利要求1所述的方法,其中,所述根据所述矩阵元素的第一均值集合,确定所述矩阵元素的池化输出值,包括:
获取所述第一均值集合中每个均值各自对应的权重值;
根据所述第一均值集合中每个均值各自对应的权重值,对所述第一均值集合中的均值进行加权求和,确定所述矩阵元素的池化输出值。
7.根据权利要求1至6中任一项所述的方法,其中,所述噪声元素包括所述矩阵元素中的最大值和/或最小值。
8.一种用于神经网络的池化装置,包括:
特征提取模块,用于将图像输入神经网络的卷积层,得到特征图;
获取模块,用于根据预设池化步长,获取所述特征图在预设数据窗口下的矩阵元素;
计算模块,用于根据所述矩阵元素中的噪声元素,确定所述矩阵元素的第一均值集合;
输出模块,用于根据所述矩阵元素的第一均值集合,确定所述矩阵元素的池化输出值。
9.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-7任一所述的用于神经网络的池化方法。
10.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1-7任一所述的用于神经网络的池化方法。
CN202010039300.6A 2020-01-14 2020-01-14 一种用于神经网络的池化方法及装置 Pending CN113191480A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010039300.6A CN113191480A (zh) 2020-01-14 2020-01-14 一种用于神经网络的池化方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010039300.6A CN113191480A (zh) 2020-01-14 2020-01-14 一种用于神经网络的池化方法及装置

Publications (1)

Publication Number Publication Date
CN113191480A true CN113191480A (zh) 2021-07-30

Family

ID=76972436

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010039300.6A Pending CN113191480A (zh) 2020-01-14 2020-01-14 一种用于神经网络的池化方法及装置

Country Status (1)

Country Link
CN (1) CN113191480A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107766292A (zh) * 2017-10-30 2018-03-06 中国科学院计算技术研究所 一种神经网络处理方法及处理***
CN108932536A (zh) * 2018-07-18 2018-12-04 电子科技大学 基于深度神经网络的人脸姿态重建方法
CN109829506A (zh) * 2019-02-18 2019-05-31 南京旷云科技有限公司 图像处理方法、装置、电子设备和计算机存储介质
CN110309906A (zh) * 2019-05-23 2019-10-08 北京百度网讯科技有限公司 图像处理方法、装置、机器可读存储介质及处理器
CN110390650A (zh) * 2019-07-23 2019-10-29 中南大学 基于密集连接和生成对抗网络的oct图像去噪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107766292A (zh) * 2017-10-30 2018-03-06 中国科学院计算技术研究所 一种神经网络处理方法及处理***
CN108932536A (zh) * 2018-07-18 2018-12-04 电子科技大学 基于深度神经网络的人脸姿态重建方法
CN109829506A (zh) * 2019-02-18 2019-05-31 南京旷云科技有限公司 图像处理方法、装置、电子设备和计算机存储介质
CN110309906A (zh) * 2019-05-23 2019-10-08 北京百度网讯科技有限公司 图像处理方法、装置、机器可读存储介质及处理器
CN110390650A (zh) * 2019-07-23 2019-10-29 中南大学 基于密集连接和生成对抗网络的oct图像去噪方法

Similar Documents

Publication Publication Date Title
JP7058373B2 (ja) 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体
WO2019201035A1 (zh) 对图像中的对象节点的识别方法、装置、终端及计算机可读存储介质
TWI726422B (zh) 二維碼識別方法、裝置及設備
WO2021073493A1 (zh) 图像处理方法及装置、神经网络的训练方法、合并神经网络模型的图像处理方法、合并神经网络模型的构建方法、神经网络处理器及存储介质
US10885660B2 (en) Object detection method, device, system and storage medium
US10733705B2 (en) Information processing device, learning processing method, learning device, and object recognition device
CN111428805B (zh) 显著性物体的检测方法、模型、存储介质及电子设备
JP2017004350A (ja) 画像処理装置、画像処理方法、及びプログラム
CN113891072B (zh) 基于亿级像素数据的视频监测与异常分析***与方法
CN113343958B (zh) 一种文本识别方法、装置、设备及介质
CN109313806A (zh) 图像处理装置、图像处理***、图像处理方法和程序
CN111226226A (zh) 基于运动的对象检测方法及其对象检测装置和电子设备
CN112597918A (zh) 文本检测方法及装置、电子设备、存储介质
CN112001923A (zh) 一种视网膜图像分割方法及装置
CN111414913B (zh) 一种文字识别方法以及识别装置、电子设备
CN114139630A (zh) 姿态识别方法、装置、存储介质和电子设备
CN116229262A (zh) 一种建筑信息模型的建模方法及装置
CN113191480A (zh) 一种用于神经网络的池化方法及装置
CN111507252A (zh) 人体跌倒检测装置、方法、电子终端及存储介质
CN107977923B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN108875467B (zh) 活体检测的方法、装置及计算机存储介质
CN111709338B (zh) 一种用于表格检测的方法、装置及检测模型的训练方法
US11704546B2 (en) Operation processing apparatus that calculates addresses of feature planes in layers of a neutral network and operation processing method
US10938999B2 (en) Image processing apparatus that performs filter operation on group of regions in an image, image processing method and non-transitory computer- readable storage medium
JP2021125137A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination