CN109657784A - 神经网络创建方法和装置、图像处理方法和电子设备 - Google Patents

神经网络创建方法和装置、图像处理方法和电子设备 Download PDF

Info

Publication number
CN109657784A
CN109657784A CN201811591916.3A CN201811591916A CN109657784A CN 109657784 A CN109657784 A CN 109657784A CN 201811591916 A CN201811591916 A CN 201811591916A CN 109657784 A CN109657784 A CN 109657784A
Authority
CN
China
Prior art keywords
network
neural network
subelement
weighting
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811591916.3A
Other languages
English (en)
Inventor
张祥雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Megvii Technology Co Ltd
Beijing Maigewei Technology Co Ltd
Original Assignee
Beijing Maigewei Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Maigewei Technology Co Ltd filed Critical Beijing Maigewei Technology Co Ltd
Priority to CN201811591916.3A priority Critical patent/CN109657784A/zh
Publication of CN109657784A publication Critical patent/CN109657784A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供一种神经网络创建方法、创建装置、使用神经网络处理输入图像的图像处理方法、电子设备以及计算机可读存储介质。所述神经网络创建方法,包括:配置多个初始网络单元,所述多个初始网络单元的每个至少包括具有相同的输入端和输出端的多个网络子单元,以及与所述多个网络子单元的所述输出端连接的加权选通单元;配置初始神经网络,所述初始神经网络至少包括所述多个初始网络单元;基于所述神经网络的目标任务,训练所述初始神经网络,直到满足预定训练结束条件;以及对于所述多个初始网络单元中的每一个,通过所述加权选通单元选择一个网络子单元,并且移除其他网络子单元和所述加权选通单元,以获得创建的神经网络。

Description

神经网络创建方法和装置、图像处理方法和电子设备
技术领域
本公开涉及图像处理领域,更具体地,本公开涉及一种神经网络创建方法、创建装置、使用神经网络处理输入图像的图像处理方法、电子设备以及计算机可读存储介质。
背景技术
神经网络是一种大规模、多参数优化的工具。依靠大量的训练数据,神经网络能够学习出数据中难以总结的隐藏特征,从而完成多项复杂的任务,如人脸检测、图像语义分割、物体检测、动作追踪、自然语言翻译等。神经网络已被人工智能界广泛应用。
当前,神经网络模型设计主要由诸如每秒数十亿次浮点运算(FLOPs)的计算复杂度的间接度量指导。然而,例如处理速度这样的直接度量还取决于其他因素,诸如存储器访问成本和平台特性等。也就是说,在进行神经网络创建时,除了考虑FLOPs外,还需要评估关于目标平台的直接度量。通过对影响神经网络模型实际执行速度的原因进行理论分析和实验验证,可以提出高效率神经网络的设计原则。因此,需要能够根据高效率神经网络的设计原则,创建适合不同平台和使用场景的神经网络。
发明内容
鉴于上述问题而提出了本公开。本公开提供了一种神经网络创建方法、创建装置、使用神经网络处理输入图像的图像处理方法、电子设备以及计算机可读存储介质。
根据本公开的一个方面,提供了一种神经网络创建方法,包括:配置多个初始网络单元,所述多个初始网络单元的每个至少包括具有相同的输入端和输出端的多个网络子单元,以及与所述多个网络子单元的所述输出端连接的加权选通单元;配置初始神经网络,所述初始神经网络至少包括所述多个初始网络单元;基于所述神经网络的目标任务,训练所述初始神经网络,直到满足预定训练结束条件;以及对于所述多个初始网络单元中的每一个,通过所述加权选通单元选择一个网络子单元,并且移除其他网络子单元和所述加权选通单元,以获得创建的神经网络。
根据本公开的另一个方面,提供了一种神经网络创建装置,包括:配置模块,用于配置多个初始网络单元,所述多个初始网络单元的每个至少包括具有相同的输入端和输出端的多个网络子单元,以及与所述多个网络子单元的所述输出端连接的加权选通单元;配置初始神经网络,所述初始神经网络至少包括所述多个初始网络单元;训练模块,用于基于所述神经网络的目标任务,训练所述初始神经网络,直到满足预定训练结束条件;以及创建模块,用于对于所述多个初始网络单元中的每一个,通过所述加权选通单元选择一个网络子单元,并且移除其他网络子单元和所述加权选通单元,以获得创建的神经网络。
根据本公开的又一个方面,提供了一种使用神经网络处理输入图像的图像处理方法,所述神经网络包含输入层、中间层和输出层,所述图像处理方法包括:创建所述神经网络;经由所述输入层接收所述输入图像;经由所述中间层提取所述输入图像的图像特征;以及经由所述输出层输出对于所述输入图像的处理结果,其中,创建所述神经网络包括:使用如上所述的神经网络创建方法,以创建所述神经网络。
根据本公开的再一个方面,提供了一种电子设备,包括:存储器,用于存储计算机可读指令;以及处理器,用于运行所述计算机可读指令,执行如上所述神经网络创建方法或图像处理方法。
根据本公开的再一个方面,提供了一种计算机可读存储介质,用于存储计算机可读指令,当所述计算机可读指令由计算机执行时,使得所述计算机执行如上所述神经网络创建方法或图像处理方法。
如下将详细描述的,根据本公开的实施例的神经网络创建方法在高效率神经网络的总体设计原则下,充分利用目标任务数据,自动挑选适合该目标任务数据并且符合的高效率神经网络的总体设计原则的神经网络模型结构。因此,根据本公开的实施例的神经网络创建方法避免了手工设计模型的局限性,同时还具备了执行的高效性。
要理解的是,前面的一般描述和下面的详细描述两者都是示例性的,并且意图在于提供要求保护的技术的进一步说明。
附图说明
通过结合附图对本发明实施例进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显。附图用来提供对本发明实施例的进一步理解,并且构成说明书的一部分,与本发明实施例一起用于解释本发明,并不构成对本发明的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是图示根据本公开的实施例的神经网络创建方法的流程图;
图2是图示根据本公开的实施例的初始神经网络的示意图;
图3A是图示使用根据本公开的实施例的神经网络创建方法的初始网络单元的一个示意图;
图3B是图示使用根据本公开的实施例的神经网络创建方法创建的网络单元的一个示意图;
图4A是图示使用根据本公开的实施例的神经网络创建方法的初始网络单元的另一个示意图;
图4B是图示使用根据本公开的实施例的神经网络创建方法创建的网络单元的另一个示意图;
图5是图示根据本公开的实施例的图像处理方法的流程图;
图6是图示根据本公开的实施例的图像处理方法的示意图;
图7是图示根据本公开的实施例的神经网络创建装置的框图;
图8是图示根据本公开的实施例的电子设备的硬件框图;以及
图9是图示根据本公开的实施例的计算机可读存储介质的示意图。
具体实施方式
为了使得本公开的目的、技术方案和优点更为明显,下面将参照附图详细描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
首先,参照图1到图4B描述根据本公开的实施例的神经网络创建方法。
图1是图示根据本公开的实施例的神经网络创建方法的流程图。如图1所示,根据本公开的实施例的神经网络创建方法包括以下步骤。
在步骤S101中,配置多个初始网络单元。
在步骤S102中,配置至少包括多个初始网络单元的初始神经网络。
以下,具体参照图2和图3A描述根据本公开的实施例的初始神经网络。
图2是图示根据本公开的实施例的初始神经网络的示意图。如图2所示,初始神经网络至少包括多个初始网络单元MB1、MB2…MBn,并且多个初始网络单元MB1、MB2…MBn顺序连接。需要注意的是,图2所示的初始神经网络仅仅是示意性的,根据本公开的实施例的初始神经网络不限于此,而是可以根据具体任务需求包括任意数量的其他单元,例如包括其他卷积、池化、全连接等网络单元穿插连接在多个初始网络单元之间,以构成完整的训练网络。
图3A是图示使用根据本公开的实施例的神经网络创建方法的初始网络单元的一个示意图。
如图3A所示,多个初始网络单元MB1、MB2…MBm的每个MB至少包括具有相同的输入端301和输出端302的多个网络子单元B1、B2…Bn,以及与所述多个网络子单元B1、B2…Bn的所述输出端302连接的加权选通单元303。所述加权选通单元302为所述多个网络子单元B1、B2…Bn中的每一个提供对应的加权选通系数。
返回参照图1,在步骤S101和S102中配置了初始神经网络以及其中的多个初始网络单元之后,在步骤S103中,基于所述神经网络的目标任务,训练所述初始神经网络,直到满足预定训练结束条件。在本公开的一个实施例中,训练所述初始神经网络包括调整所述加权选通单元302为所述多个网络子单元B1、B2…Bn中的每一个提供对应的加权选通系数。需要理解的是,训练所述初始神经网络还包括其他卷积、池化、全连接单元以及多个网络子单元B1、B2…Bn自身的所有参数。在本公开的一个实施例中,预定训练结束条件取决于目标任务,例如在所述神经网络用于执行分类任务的情况下,预定训练结束条件可以是交叉熵损失函数收敛。
在步骤S103中训练到满足预定训练结束条件时,在步骤S104中,对于所述多个初始网络单元中的每一个,通过所述加权选通单元选择一个网络子单元,并且移除其他网络子单元和所述加权选通单元,以获得创建的神经网络。
在本公开的一个实施例中,通过所述加权选通单元303选择一个网络子单元表示为:
其中,Bi表示所述多个网络子单元中每一个网络子单元的输出值,Softmax表示加权选通函数,di表示所述每一个网络子单元的加权选通系数,T表示温度参数,i是1到n之间的自然数,n是所述多个网络子单元的个数。
在步骤S103的训练过程中,在开始训练时,T初始化为一个比较小的值(例如,0.1),并且随着训练逐步增大T。当T很大时,由上述表达式中Softmax函数的性质可知,只要每一个网络子单元的加权选通系数di不严格相等,那么最大的di对应的Softmax函数值趋近于1,其他的则趋近于0。也就是说,在训练结束后,通过加权选通单元303选择一个网络子单元包括:保留其中对应的加权选通系数最大的一个网络子单元。
图3B是图示使用根据本公开的实施例的神经网络创建方法创建的网络单元的一个示意图。利用图1所示的根据本公开的实施例的神经网络创建方法创建的神经网络的网络单元例如如图3B所示,通过对如图3A所示的初始单元执行利用目标任务数据集的训练,保留其中对应的加权选通系数d2最大的一个网络子单元B2,同时移除其他网络子单元B1、B3…Bn以及加权选通单元303,以获得创建的网络单元。同样地,对于如图2所示的所述多个初始网络单元MB1、MB2…MBm中的每一个,通过所述加权选通单元选择一个网络子单元,并且移除其他网络子单元和所述加权选通单元,可以获得创建的神经网络。
此外,在步骤S104中选择一个网络子单元后,还可以继续在目标任务数据上训练,执行模型的微调以得到最终输出的神经网络。
以上参照图3A和3B描述的是根据本公开的实施例的神经网络创建方法创建的网络单元的一般性示例。在图3A和3B所示的一般性示例,对于初始网络单元MB1、MB2…MBm并没有给出具体的限制。图4A和图4B则进一步图示了根据本公开的实施例的神经网络创建方法在高效率神经网络的设计原则下的应用。
如图4A所示,要创建的神经网络为第二代通道重排网络(Shuffle Net),其中一个网络子单元需要满足第二代通道重排网络的预设规则。在第二代通道重排网络的一个网络单元中,首先通过通道分割单元401将通道分割为两路,一路不做任何处理,另一路则包括需要创建和训练的具有相同的输入端402和输出端403的多个网络子单元B1、B2…Bn,以及与所述多个网络子单元B1、B2…Bn的所述输出端403连接的加权选通单元404。此后,两路再通过通道拼接单元405将两路拼接到一起,通过通道重排单元406进行信息融合得到输出。
在此示例中,多个网络子单元B1、B2…Bn的每一个都满足第二代通道重排网络的预设规则。具体地,每一个网络子单元满足以下一个或多个条件:所述一个网络子单元的输入和输出通道数差异小于预设阈值,例如为输入和输出通道数相同的“平衡”卷积单元;所述一个网络子单元执行深度可分离卷积;所述一个网络子单元执行池化;所述一个网络子单元执行神经元激活。
通过利用参照图1所述的根据本公开的实施例的神经网络创建方法,如图4B所示,通过对如图4A所示的初始单元执行利用目标任务数据集的训练,保留其中对应的加权选通系数d2最大的一个网络子单元B2,同时移除其他网络子单元B1、B3…Bn以及加权选通单元404,以获得创建的网络单元。
由于多个网络子单元B1、B2…Bn的每一个都满足第二代通道重排网络的预设规则,那么如此创建的包括网络子单元B2的网络单元MB必然满足第二代通道重排网络的预设规则,并且最终由多个如此创建的网络单元MB构成的神经网络也一定满足第二代通道重排网络的预设规则。通过参照图1到图4B描述的根据本公开的实施例的神经网络创建方法,在高效率神经网络(例如,第二代通道重排网络)的总体设计原则下,实现了自动创建适合该目标任务数据并且符合的高效率神经网络的总体设计原则的神经网络模型结构。
以上,描述了根据本公开的实施例的神经网络创建方法。以下,将参照图5和图6进一步描述根据本公开的实施例的图像处理方法。图5是图示根据本公开的实施例的图像处理方法的流程图;图6是图示根据本公开的实施例的图像处理方法的示意图。
如图5所示,在步骤S501中,创建神经网络。根据本公开的实施例的图像处理方法可以利用如上参照图1到图4B描述的神经网络创建方法,以创建所述神经网络。
进一步地,如图5和图6所示,在步骤S502中,经由输入层61接收输入图像600。如图6示意性示出的,在步骤S501中创建的卷积神经网络60包含输入层61、中间层62和输出层63。
在步骤S503中,经由中间层62提取所述输入图像600的图像特征。如图6示意性示出的,中间层62可以包括多个级联的子层,多个子层包括但不限于卷积层、池化层、激活层等。
在步骤S504中,经由输出层63输出对于所述输入图像600的处理结果601。示例性地,该处理结果可以为分类结果,如图6示意性示出的,输出层63例如通过全局池化、全连接等处理后输出分类结果601。根据本公开的实施例的图像处理方法不限于执行图像中的目标分类,而是还包括目标对象检测、分割、目标对象的运动预测以及目标对象的相似度比对等。示例性地,经由神经网络***的输出层输出的处理结果还可以是目标对象的位置信息、图像分割结果、目标对象的运动预测结果、目标对象的相似度等。
图7是图示根据本公开的实施例的神经网络创建装置的框图。如图7所示的根据本公开的实施例的神经网络创建装置70可以用于执行如图1所示的根据本公开的实施例的神经网络创建方法。如图7所示,根据本公开的实施例的神经网络创建装置70包括配置模块701、训练模块702和创建模块703。本领域的技术人员理解:这些单元模块可以单独由硬件、单独由软件或者由其组合以各种方式实现,并且本公开不限于它们的任何一个。
配置模块701用于配置多个初始网络单元,所述多个初始网络单元的每个至少包括具有相同的输入端和输出端的多个网络子单元,以及与所述多个网络子单元的所述输出端连接的加权选通单元;配置初始神经网络,所述初始神经网络至少包括所述多个初始网络单元。
训练模块702用于基于所述神经网络的目标任务,训练所述初始神经网络,直到满足预定训练结束条件。
创建模块703用于对于所述多个初始网络单元中的每一个,通过所述加权选通单元选择一个网络子单元,并且移除其他网络子单元和所述加权选通单元,以获得创建的神经网络。
在本公开的一个实施例中,加权选通单元为所述多个网络子单元中的每一个提供对应的加权选通系数。所述训练模块702调整所述加权选通系数,并且所述创建模块703保留其中所述对应的加权选通系数最大的一个网络子单元。
在本公开的一个实施例中,所述一个网络子单元满足以下一个或多个条件:所述一个网络子单元的输入和输出通道数差异小于预设阈值;所述一个网络子单元执行深度可分离卷积;所述一个网络子单元执行池化;所述一个网络子单元执行神经元激活。
在本公开的一个实施例中,所述神经网络为第二代通道重排网络,所述一个网络子单元满足第二代通道重排网络的预设规则。
图8是图示根据本公开的实施例的电子设备的硬件框图。如图8所示,根据本公开实施例的电子设备80包括存储器801和处理器802。电子设备80中的各组件通过总线***和/或其它形式的连接机构(未示出)互连。
所述存储器801用于存储计算机可读指令。具体地,存储器801可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。
所述处理器802可以是中央处理单元(CPU)、图形处理单元(GPU)或者具有数据处理能力和/或指令执行能力的其它形式的处理单元,并且可以控制电子设备80中的其它组件以执行期望的功能。在本公开的一个实施例中,所述处理器802用于运行所述存储器801中存储的所述计算机可读指令,使得所述电子设备80执行参照图1描述的神经网络创建方法或参照图5描述的图像处理方法。
此外,需要理解的是,图8所示的电子设备80的组件和结构只是示例性的,而非限制性的,根据需要,电子设备80也可以具有其他组件和结构。例如,图像采集装置和输出装置等(未示出)。图像采集装置可以用于采集用于图像处理的待处理图像,并且将所拍摄的图像存储在存储器801中以供其它组件使用。当然,也可以利用其他图像采集设备采集所述待处理图像,并且将采集的图像发送给电子设备80,电子设备80可以将接收到的图像存储到存储器801中。输出装置可以向外部(例如用户)输出各种信息,例如图像信息以及图像处理结果。输出装置可以包括显示器、扬声器、投影仪、网卡等中的一个或多个。
图9是图示根据本公开的实施例的计算机可读存储介质的示意图。如图9所示,根据本公开实施例的计算机可读存储介质900其上存储有计算机可读指令901。当所述计算机可读指令901由处理器运行时,执行参照图1描述的神经网络创建方法或参照图5描述的图像处理方法。
以上,参照附图描述了根据本公开的实施例的神经网络创建方法、创建装置、使用神经网络处理输入图像的图像处理方法、电子设备以及计算机可读存储介质。根据本公开的实施例的神经网络创建方法在高效率神经网络的总体设计原则下,充分利用目标任务数据,自动挑选适合该目标任务数据并且符合的高效率神经网络的总体设计原则的神经网络模型结构。因此,根据本公开的实施例的神经网络创建方法避免了手工设计模型的局限性,同时还具备了执行的高效性。
本公开的说明书和权利要求书及附图中的术语“第一”、“第二”和“第三”等是用于区别不同对象,而不是用于描述特定顺序。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本公开中涉及的器件、装置、设备、***的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、***。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
另外,如在此使用的,在以“至少一个”开始的项的列举中使用的“或”指示分离的列举,以便例如“A、B或C的至少一个”的列举意味着A或B或C,或AB或AC或BC,或ABC(即A和B和C)。此外,措辞“示例的”不意味着描述的例子是优选的或者比其他例子更好。
还需要指出的是,在本公开的***和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
可以不脱离由所附权利要求定义的教导的技术而进行对在此所述的技术的各种改变、替换和更改。此外,本公开的权利要求的范围不限于以上所述的处理、机器、制造、事件的组成、手段、方法和动作的具体方面。可以利用与在此所述的相应方面进行基本相同的功能或者实现基本相同的结果的当前存在的或者稍后要开发的处理、机器、制造、事件的组成、手段、方法或动作。因而,所附权利要求包括在其范围内的这样的处理、机器、制造、事件的组成、手段、方法或动作。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (13)

1.一种神经网络创建方法,包括:
配置多个初始网络单元,所述多个初始网络单元的每个至少包括具有相同的输入端和输出端的多个网络子单元,以及与所述多个网络子单元的所述输出端连接的加权选通单元;
配置初始神经网络,所述初始神经网络至少包括所述多个初始网络单元;
基于所述神经网络的目标任务,训练所述初始神经网络,直到满足预定训练结束条件;以及
对于所述多个初始网络单元中的每一个,通过所述加权选通单元选择一个网络子单元,并且移除其他网络子单元和所述加权选通单元,以获得创建的神经网络。
2.如权利要求1所述的神经网络创建方法,其中,所述加权选通单元为所述多个网络子单元中的每一个提供对应的加权选通系数,
其中,所述训练所述初始神经网络包括:
调整所述加权选通系数,
其中,所述通过所述加权选通单元选择一个网络子单元包括:
保留其中所述对应的加权选通系数最大的一个网络子单元。
3.如权利要求1或2所述的神经网络创建方法,其中,所述一个网络子单元满足以下一个或多个条件:
所述一个网络子单元的输入和输出通道数差异小于预设阈值;
所述一个网络子单元执行深度可分离卷积;
所述一个网络子单元执行池化;
所述一个网络子单元执行神经元激活。
4.如权利要求1或2所述的神经网络创建方法,其中,所述神经网络为第二代通道重排网络,所述一个网络子单元满足第二代通道重排网络的预设规则。
5.如权利要求2所述的神经网络创建方法,其中,所述通过所述加权选通单元选择一个网络子单元表示为:
其中,Bi表示所述多个网络子单元中每一个网络子单元的输出值,di表示所述每一个网络子单元的加权选通系数,T表示温度参数,i是1到n之间的自然数,n是所述多个网络子单元的个数,
其中,所述训练所述初始神经网络还包括:随着训练逐步增大T。
6.一种神经网络创建装置,包括:
配置模块,用于配置多个初始网络单元,所述多个初始网络单元的每个至少包括具有相同的输入端和输出端的多个网络子单元,以及与所述多个网络子单元的所述输出端连接的加权选通单元;配置初始神经网络,所述初始神经网络至少包括所述多个初始网络单元;
训练模块,用于基于所述神经网络的目标任务,训练所述初始神经网络,直到满足预定训练结束条件;以及
创建模块,用于对于所述多个初始网络单元中的每一个,通过所述加权选通单元选择一个网络子单元,并且移除其他网络子单元和所述加权选通单元,以获得创建的神经网络。
7.如权利要求6所述的神经网络创建装置,其中,所述加权选通单元为所述多个网络子单元中的每一个提供对应的加权选通系数,
其中,所述训练模块调整所述加权选通系数,并且
其中,所述创建模块保留其中所述对应的加权选通系数最大的一个网络子单元。
8.如权利要求6或7所述的神经网络创建装置,其中,所述一个网络子单元满足以下一个或多个条件:
所述一个网络子单元的输入和输出通道数差异小于预设阈值;
所述一个网络子单元执行深度可分离卷积;
所述一个网络子单元执行池化;
所述一个网络子单元执行神经元激活。
9.如权利要求6或7所述的神经网络创建装置,其中,所述神经网络为第二代通道重排网络,所述一个网络子单元满足第二代通道重排网络的预设规则。
10.如权利要求7所述的神经网络创建装置,其中,所述通过所述加权选通单元选择一个网络子单元表示为:
其中,Bi表示所述多个网络子单元中每一个网络子单元的输出值,di表示所述每一个网络子单元的加权选通系数,T表示温度参数,i是1到n之间的自然数,n是所述多个网络子单元的个数,
其中,所述创建模块随着训练逐步增大T。
11.一种使用神经网络处理输入图像的图像处理方法,所述神经网络包含输入层、中间层和输出层,所述图像处理方法包括:
创建所述神经网络;
经由所述输入层接收所述输入图像;
经由所述中间层提取所述输入图像的图像特征;以及
经由所述输出层输出对于所述输入图像的处理结果,
其中,创建所述神经网络包括:使用如权利要求1到5的任一项所述的神经网络创建方法,以创建所述神经网络。
12.一种电子设备,包括:
存储器,用于存储计算机可读指令;以及
处理器,用于运行所述计算机可读指令,执行如权利要求1到5的任一项所述神经网络创建方法或如权利要求11所述的图像处理方法。
13.一种计算机可读存储介质,用于存储计算机可读指令,当所述计算机可读指令由计算机执行时,使得所述计算机执行如权利要求1到5的任一项所述神经网络创建方法或如权利要求11所述的图像处理方法。
CN201811591916.3A 2018-12-25 2018-12-25 神经网络创建方法和装置、图像处理方法和电子设备 Pending CN109657784A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811591916.3A CN109657784A (zh) 2018-12-25 2018-12-25 神经网络创建方法和装置、图像处理方法和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811591916.3A CN109657784A (zh) 2018-12-25 2018-12-25 神经网络创建方法和装置、图像处理方法和电子设备

Publications (1)

Publication Number Publication Date
CN109657784A true CN109657784A (zh) 2019-04-19

Family

ID=66116240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811591916.3A Pending CN109657784A (zh) 2018-12-25 2018-12-25 神经网络创建方法和装置、图像处理方法和电子设备

Country Status (1)

Country Link
CN (1) CN109657784A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414570A (zh) * 2019-07-04 2019-11-05 北京迈格威科技有限公司 图像分类模型生成方法、装置、设备和存储介质
CN110517180A (zh) * 2019-07-24 2019-11-29 北京旷视科技有限公司 基于高精度神经网络的图像处理方法、装置及电子设备
CN111523657A (zh) * 2020-04-26 2020-08-11 云知声智能科技股份有限公司 神经网络加速器创建方法及装置、电子设备和存储介质
CN113011384A (zh) * 2021-04-12 2021-06-22 重庆邮电大学 一种基于轻量化卷积的无锚框目标检测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1100541A (zh) * 1993-06-14 1995-03-22 莫托罗拉公司 神经网络及其使用方法
CN1150847A (zh) * 1994-05-02 1997-05-28 摩托罗拉公司 使用神经网络的计算机和使用该神经网络的方法
US8665697B1 (en) * 2009-12-23 2014-03-04 Kbc Research Foundation Pvt. Ltd. Subchannel formation in OFDMA systems
CN108108768A (zh) * 2017-12-29 2018-06-01 清华大学 基于卷积神经网络的光伏玻璃缺陷分类方法及装置
CN108288075A (zh) * 2018-02-02 2018-07-17 沈阳工业大学 一种改进ssd的轻量化小目标检测方法
CN108734712A (zh) * 2017-04-18 2018-11-02 北京旷视科技有限公司 背景分割的方法、装置及计算机存储介质
CN108875752A (zh) * 2018-03-21 2018-11-23 北京迈格威科技有限公司 图像处理方法和装置、计算机可读存储介质
CN108875904A (zh) * 2018-04-04 2018-11-23 北京迈格威科技有限公司 图像处理方法、图像处理装置和计算机可读存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1100541A (zh) * 1993-06-14 1995-03-22 莫托罗拉公司 神经网络及其使用方法
CN1150847A (zh) * 1994-05-02 1997-05-28 摩托罗拉公司 使用神经网络的计算机和使用该神经网络的方法
US8665697B1 (en) * 2009-12-23 2014-03-04 Kbc Research Foundation Pvt. Ltd. Subchannel formation in OFDMA systems
CN108734712A (zh) * 2017-04-18 2018-11-02 北京旷视科技有限公司 背景分割的方法、装置及计算机存储介质
CN108108768A (zh) * 2017-12-29 2018-06-01 清华大学 基于卷积神经网络的光伏玻璃缺陷分类方法及装置
CN108288075A (zh) * 2018-02-02 2018-07-17 沈阳工业大学 一种改进ssd的轻量化小目标检测方法
CN108875752A (zh) * 2018-03-21 2018-11-23 北京迈格威科技有限公司 图像处理方法和装置、计算机可读存储介质
CN108875904A (zh) * 2018-04-04 2018-11-23 北京迈格威科技有限公司 图像处理方法、图像处理装置和计算机可读存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KOHEI YAMAMOTO等: "PCAS: Pruning Channels with Attention Statistics for Deep Network Compression", 《ARXIV:1806.05382V2》 *
NINGNING MA等: "ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design", 《ECCV 2018》 *
亢凯: "基于归一化像素差异特征和深度学习的监控视频人脸检测***设计与实现", 《中国硕士学位论文全文数据库(信息科技辑)》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414570A (zh) * 2019-07-04 2019-11-05 北京迈格威科技有限公司 图像分类模型生成方法、装置、设备和存储介质
CN110414570B (zh) * 2019-07-04 2022-01-28 北京迈格威科技有限公司 图像分类模型生成方法、装置、设备和存储介质
CN110517180A (zh) * 2019-07-24 2019-11-29 北京旷视科技有限公司 基于高精度神经网络的图像处理方法、装置及电子设备
CN110517180B (zh) * 2019-07-24 2023-09-19 北京旷视科技有限公司 基于高精度神经网络的图像处理方法、装置及电子设备
CN111523657A (zh) * 2020-04-26 2020-08-11 云知声智能科技股份有限公司 神经网络加速器创建方法及装置、电子设备和存储介质
CN111523657B (zh) * 2020-04-26 2023-06-20 云知声智能科技股份有限公司 神经网络加速器创建方法及装置、电子设备和存储介质
CN113011384A (zh) * 2021-04-12 2021-06-22 重庆邮电大学 一种基于轻量化卷积的无锚框目标检测方法
CN113011384B (zh) * 2021-04-12 2022-11-25 重庆邮电大学 一种基于轻量化卷积的无锚框目标检测方法

Similar Documents

Publication Publication Date Title
CN109992779B (zh) 一种基于cnn的情感分析方法、装置、设备及存储介质
CN109657784A (zh) 神经网络创建方法和装置、图像处理方法和电子设备
Gavai et al. MobileNets for flower classification using TensorFlow
US20200143248A1 (en) Machine learning model training method and device, and expression image classification method and device
CN105981008B (zh) 学习深度人脸表示
CN109857860A (zh) 文本分类方法、装置、计算机设备及存储介质
JP7376731B2 (ja) 画像認識モデル生成方法、装置、コンピュータ機器及び記憶媒体
CN108875904A (zh) 图像处理方法、图像处理装置和计算机可读存储介质
CN108875752A (zh) 图像处理方法和装置、计算机可读存储介质
CN111489412A (zh) 用于使用神经网络生成基本逼真图像的语义图像合成
US20170004399A1 (en) Learning method and apparatus, and recording medium
CN107844784A (zh) 人脸识别方法、装置、计算机设备和可读存储介质
CN108140032A (zh) 自动视频概括
CN108416065A (zh) 基于层级神经网络的图像-句子描述生成***及方法
CN111127390B (zh) 基于迁移学习的x射线影像处理方法及***
JP7257756B2 (ja) 画像識別装置、画像識別方法、学習装置、及びニューラルネットワーク
CN108090498A (zh) 一种基于深度学习的纤维识别方法及装置
Wu et al. Centroid transformers: Learning to abstract with attention
CN111316290B (zh) 用于通过对特征本体的深度学习来进行交互式表示学习迁移的***和方法
CN109271516A (zh) 一种知识图谱中实体类型分类方法及***
CN111079833A (zh) 图像识别方法、装置以及计算机可读存储介质
DE102022106057A1 (de) Authentifikatorintegriertes generatives adversariales netzwerk (gan) zur sicheren deepfake-erzeugung
CN111860528A (zh) 基于改进U-Net网络的图像分割模型及训练方法
CN109711136A (zh) 存储设备、验证码图片生成方法和装置
CN110321964A (zh) 识别模型更新方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190419