CN110070171A - 基于神经网络的分类方法、装置、终端及可读介质 - Google Patents

基于神经网络的分类方法、装置、终端及可读介质 Download PDF

Info

Publication number
CN110070171A
CN110070171A CN201910251875.1A CN201910251875A CN110070171A CN 110070171 A CN110070171 A CN 110070171A CN 201910251875 A CN201910251875 A CN 201910251875A CN 110070171 A CN110070171 A CN 110070171A
Authority
CN
China
Prior art keywords
self
competition
organizing
neutral net
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910251875.1A
Other languages
English (en)
Inventor
周翊民
孙菁聪
庞昊然
胡静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Advanced Technology of CAS
Original Assignee
Shenzhen Institute of Advanced Technology of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Advanced Technology of CAS filed Critical Shenzhen Institute of Advanced Technology of CAS
Priority to CN201910251875.1A priority Critical patent/CN110070171A/zh
Publication of CN110070171A publication Critical patent/CN110070171A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明实施例公开了一种基于神经网络的分类方法、装置、终端及计算机可读介质,其中,所述方法包括:获取待分类的多媒体文件;将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果;根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。采用本发明实施例,可提高多媒体文件分类的准确性和分类效率。

Description

基于神经网络的分类方法、装置、终端及可读介质
技术领域
本发明涉及机器学习技术领域,具体涉及一种基于神经网络的分类方法、装置、终端及计算机可读介质。
背景技术
在现有的机器学习算法中,可以通过机器学习对各类数据进行标注和分类,例如,可以有监督的神经网络模型或者其他分类器来对数据进行分类。但是,在上述分类方法中,首先需要人为创建标签,需要花费大量的标注成本,因此,在对无标签的多任务分类问题中,多采用无监督的机器学习算法。无监督学习直接从数据本身得到数据的性质,然后总结数据或对数据进行分组分类;也就是说,上述数据本身的性质可用于数据驱动的决策。但是,无监督方法的分类能力较弱,尤其是针对相似程度较高的图像、音频、视频等多媒体文件之间,其出错率较高。
也就是说,在对图像、音频、视频等无标签的多媒体文件进行分类时,无监督学习算法的分类能力较弱,存在分类的准确性不足的问题。
发明内容
基于此,在本实施例中,提出了一种基于神经网络的分类方法、装置、终端及计算机可读介质,可以对图像、音频、视频等多媒体文件进行分类,且不需要事先进行标注,提高了多媒体文件分类的准确性和分类效率。
本发明解决上述技术问题的技术方案如下:
本发明第一方面提供一种基于神经网络的分类方法,包括:
获取待分类的多媒体文件;
将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果;
根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。
可选的,所述将所述待分类的多媒体文件分别输入多个自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的子分类结果的步骤,还包括:
将所述待分类的多媒体文件输入所述自组织竞争神经网络模型,通过所述自组织竞争神经网络模型的第一级网络输出粗分类结果,通过所述自组织竞争神经网络模型的第二级网络输出细分类结果;
将所述细分类结果作为所述备选分类结果。
可选的,所述通过所述自组织竞争神经网络模型的第一层输出粗分类结果的步骤,还包括:
计算所述待分类的多媒体文件与所述自组织竞争神经网络模型的第一层网络包含的多个竞争神经元之间的距离值,根据所述计算得到的距离值确定所述粗分类结果;
所述通过所述自组织竞争神经网络模型的第二级网络输出细分类结果的步骤,还包括:
计算所述待分类的多媒体文件与所述自组织竞争神经网络模型的第二层网络包含的多个竞争神经元之间的距离值,根据所述计算得到的距离值和所述粗分类结果确定所述细分类结果。
可选的,所述根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果的步骤,还包括:
统计所述多个自组织神经网络模型输出的备选分类结果输出的备选分类结果的出现次数,确定出现次数最多的备份分类结果作为所述目标分类结果。
可选的,所述方法还包括:
获取用于训练的多媒体样本文件集,所述多媒体样本文件集包括多个多媒体样本文件;
利用预设的自组织竞争神经网络对所述多媒体样本文件集进行深度学习和训练,构建自组织竞争神经网络模型。
可选的,所述自组织竞争神经网络包括输入层和竞争层,所述竞争层包含多个竞争神经元;
所述利用预设的自组织竞争神经网络对所述多媒体样本文件集进行深度学习和训练,构建自组织竞争神经网络模型的步骤,还包括:
将所述多个多媒体样本文件作为输入层,并对多媒体样本文件进行归一化处理,获取与所述多媒体样本文件对应的输入向量;对所述竞争层包含的多个竞争神经元的权值进行初始化;
计算所述输入向量与所述竞争神经元之间的距离值,根据所述距离值确定距离值最小的竞争神经元作为获胜竞争神经元;
根据所述计算得到的距离值对所述获胜竞争神经元和其他竞争神经元的权值进行调整;
判断所述调整后的竞争神经元的权值是否满足预设的训练停止条件;若是,确定所述自组织竞争神经网络模型的训练完成,输出调整之后的竞争神经元的权值;若否,循环执行所述计算所述输入向量与所述竞争神经元之间的距离值,根据所述距离值确定距离值最小的竞争神经元作为获胜竞争神经元,根据所述计算得到的距离值对所述获胜竞争神经元和其他竞争神经元的权值进行调整的步骤。
在本发明的第二方面,提出了一种基于神经网络的分类装置,所述装置包括:
文件获取模块,用于获取待分类的多媒体文件;
层叠式分类模块,用于将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果;
并行式分类模块,用于根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。
可选的,所述层叠式分类模块还用于将所述待分类的多媒体文件输入所述自组织竞争神经网络模型,通过所述自组织竞争神经网络模型的第一级网络输出粗分类结果,通过所述自组织竞争神经网络模型的第二级网络输出细分类结果,将所述细分类结果作为所述备选分类结果。
可选的,所述层叠式分类模块还用于计算所述待分类的多媒体文件与所述自组织竞争神经网络模型的第一层网络包含的多个竞争神经元之间的距离值,根据所述计算得到的距离值确定所述粗分类结果;计算所述待分类的多媒体文件与所述自组织竞争神经网络模型的第二层网络包含的多个竞争神经元之间的距离值,根据所述计算得到的距离值和所述粗分类结果确定所述细分类结果。
可选的,所述并行式分类模块还用于统计所述多个自组织神经网络模型输出的备选分类结果输出的备选分类结果的出现次数,确定出现次数最多的备份分类结果作为所述目标分类结果。
可选的,上述装置还包括模型训练模块,用于获取用于训练的多媒体样本文件集,所述多媒体样本文件集包括多个多媒体样本文件;利用预设的自组织竞争神经网络对所述多媒体样本文件集进行深度学习和训练,构建自组织竞争神经网络模型。
可选的,所述自组织竞争神经网络包括输入层和竞争层,所述竞争层包含多个竞争神经元;所述模型训练模块还用于将所述多个多媒体样本文件作为输入层,并对多媒体样本文件进行归一化处理,获取与所述多媒体样本文件对应的输入向量;对所述竞争层包含的多个竞争神经元的权值进行初始化;计算所述输入向量与所述竞争神经元之间的距离值,根据所述距离值确定距离值最小的竞争神经元作为获胜竞争神经元;根据所述计算得到的距离值对所述获胜竞争神经元和其他竞争神经元的权值进行调整;判断所述调整后的竞争神经元的权值是否满足预设的训练停止条件;若是,确定所述自组织竞争神经网络模型的训练完成,输出调整之后的竞争神经元的权值;若否,循环执行所述计算所述输入向量与所述竞争神经元之间的距离值,根据所述距离值确定距离值最小的竞争神经元作为获胜竞争神经元,根据所述计算得到的距离值对所述获胜竞争神经元和其他竞争神经元的权值进行调整。
在本发明的第三方面,还提出了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行以下步骤:
获取待分类的多媒体文件;
将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果;
根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。
在本发明的第四方面,还提出了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行以下步骤:
获取待分类的多媒体文件;
将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果;
根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。
实施本发明实施例,将具有如下有益效果:
采用了上述基于神经网络的分类方法、装置、终端及计算机可读介质之后,在对无标签的多媒体文件进行分类时,结合了自组织竞争神经网络的强分类优势、以及并行神经网络的整体分类优势,分别通过多个并行的层叠式的自组织竞争神经网络对待分类的多媒体文件进行分类,然后在多个层叠式的自组织竞争神经网络输出的分类结果中选择最优的结果作为最终的分类结果并输出。也就是说,采用了上述基于神经网络的分类方法、装置、终端及计算机可读介质之后,在不需要事先对上述无标签的多媒体文件进行标注的前提下,提高了无标签的多媒体文件分类的准确性,提高了无标签的多媒体文件分类的分类效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1为一个实施例中一种基于神经网络的分类方法的流程示意图;
图2为一个实施例中备选分类结果计算的流程示意图;
图3为一个实施例中层叠式神经网络的模型示意图;
图4为一个实施例中层叠式神经网络的模型示意图;
图5为一个实施例中并行式神经网络的模型示意图;
图6为一个实施例中并行式神经网络的模型示意图;
图7为一个实施例中自组织竞争神经网络模型构建的流程示意图;
图8为一个实施例中自组织竞争神经网络模型构建的流程示意图;
图9为一个实施例中一种基于神经网络的分类装置的结构示意图;
图10为一个实施例中运行上述基于神经网络的分类方法的计算机设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本实施例中,特提出了一种基于神经网络的分类方法,该方法的实现可依赖于计算机程序,该计算机程序可运行于基于冯诺依曼体系的计算机***之上,该计算机程序可以是对多媒体文件进行分类的应用程序。该计算机***可以是运行上述计算机程序的例如智能手机、平板电脑、个人电脑等计算机设备。
在本实施例中,进行分类的目标是无标签的多媒体文件,例如,图像、音频、视频等,且,这些多媒体文件或事先进行模型训练的多媒体样本文件也不包含相应的分类标签。需要说明的是,在本实施例中,上述基于神经网络的分类方法可以不限于多媒体文件,还可以是其他任意的需要进行分类的数据、或文件、或任务。
一般来讲,对于有标签的数据分类,可以通过标签和对应的数据之间的对应关系来对相应的机器学习模型进行训练,然后通过训练完成的机器学习模型来对需要分类的数据进行分类(即为有监督的机器学习算法)。但是,对于无标签的数据进行分类时,需要人为首先对数据进行标注,然后按照有监督的机器学习算法来进行分类;或者,采用无监督的学习算法(不需要事先对数据进行分类标注)来对数据进行聚类和分类。
在本实施例中,在需要对多媒体文件进行分类时,获取对应的需要进行分类的待分类的多媒体文件,然后将其输入多个并行的训练好的自组织竞争神经网络模型,然后由各个自组织竞争神经网络模型输出一个分类结果(备选目标结果),然后,在多个备选目标结果中确定最优的分类结果作为目标分类结果。
具体的,如图1所示,在一个实施例中,提供了一种基于神经网络的分类方法,具体包括如下步骤S102-S106:
步骤S102:获取待分类的多媒体文件。
步骤S104:将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果。
也就是说或,在需要对多媒体文件进行分类时,首先将该待分类的多媒体文件输入多个并行的训练好的自组织竞争神经网络模型,其中,训练好的自组织竞争神经网络模型的为通过相同类型的待分类文件(多媒体文件)对自组织竞争神经网络模型进行训练,并且完成了训练的自组织竞争神经网络模型。
自组织(竞争型)神经网络即为自组织特征映射(SOM,Self-organizing featureMap),是一种自组织(竞争型)神经网络,其结构及其学习规则与其他神经网络相比有自己的特点。在网络结构上,它一般是由输入层和竞争层构成的两层网络;两层之间各神经元实现双向连接,而且网络没有隐含层。竞争层各神经元之间还存在横向连接。竞争型神经网络构成的基本思想是网络的竞争层各神经元竞争对输入模式响应的机会,最后仅有一个神经元成为竞争的胜者。这一获胜神经元则表示对输入向量的分类。
具体的,所述自组织竞争神经网络包括输入层和竞争层,所述竞争层包含多个竞争神经元;输入层即为输入的待分类的多媒体文件(也称为输入向量),竞争层即为神经网络的网络层,包含了多个竞争神经元。通过自组织竞争神经网络模型计算备选分类结果的过程即为确定与输入向量最相近的竞争神经元的过程。
进一步的,在一个具体的实施例中,如图2所示,前述步骤S104:将所述待分类的多媒体文件分别输入多个自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的子分类结果,还包括步骤S1041-S1042:
步骤S1041:将所述待分类的多媒体文件输入所述自组织竞争神经网络模型;
步骤S1042:通过所述自组织竞争神经网络模型的第一级网络输出粗分类结果;
步骤S1043:通过所述自组织竞争神经网络模型的第二级网络输出细分类结果;
步骤S1044:将所述细分类结果作为所述备选分类结果。
也就是说,在本实施例中,在自组织竞争神经网络分为两层,第一层用于对输入向量进行粗分类,第二层用于对输入向量进行细分类,通过两层网络进行分类,可以最大程度的避免无匹配,减少计算时间。将第一级网络完成粗分类后送入第二级网络,第二级网络负责进行细分类任务,然后输出最终的分类结果,即为备选分类结果。具体可参见如图3所示的计算流程。
在本实施例中,采用两层的层叠式神经网络,提高了分类效率和分类的准确性。需要说明的是,在本实施例中,此处采用的层叠式神经网络不仅可以是包含了第一级网络和第二级网络的双层神经网络模型,还可以是包含了3级(可参见图4)或3级以上的层级网络的神经网络模型,在本实施例中不做限制,均属于本发明实施例的保护范围。
其中,每一个输出分类结果(包括粗分类结果和细分类结果)的过程,是计算输入向量(待分类的多媒体文件)与竞争层的多个竞争神经元之间的距离值,并根据计算得到的距离值来确定其对应的分类结果的过程;其中,与输入向量距离值最小的竞争神经元即为获胜竞争神经元。
具体的,上述通过所述自组织竞争神经网络模型的第一层输出粗分类结果的步骤,还包括:计算所述待分类的多媒体文件与所述自组织竞争神经网络模型的第一层网络包含的多个竞争神经元之间的距离值,根据所述计算得到的距离值确定所述粗分类结果;上述通过所述自组织竞争神经网络模型的第二级网络输出细分类结果的步骤,还包括:计算所述待分类的多媒体文件与所述自组织竞争神经网络模型的第二层网络包含的多个竞争神经元之间的距离值,根据所述计算得到的距离值和所述粗分类结果确定所述细分类结果。
步骤S106:据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。
前述多个并行的自组织神经网络模型分别输出了一个对应的备选分类结果,在本实施例中,最终的目标分类结果由前述多个备选分类结果来确定。例如,对备选分类结果进行评价来确定最优的分类结果,或者,按照备选分类结果的出现次数来确定最优的分类结果。具体可如图5、图6所示的计算流程。
在一个具体的实施例中,步骤S106中具体为:
统计所述多个自组织神经网络模型输出的备选分类结果输出的备选分类结果的出现次数,确定出现次数最多的备份分类结果作为所述目标分类结果。
也就是说,在前述多个并行的自组织神经网络模型各自输出备选分类结果之后,需要对所有的自组织神经网络模型各自输出备选分类结果进行频次统计,确定出现次数最多的备份分类结果,并将出现次数最多的备选分类结果作为最终的目标分类结果。
需要说明的是,在步骤S102之前,还需要对自组织竞争神经网络模型进行模型训练,以确定自组织竞争神经网络模型中的相关参数等。
具体的,如图7所示,上述对自组织竞争神经网络模型进行训练的过程包括如下步骤:
步骤S202:获取用于训练的多媒体样本文件集,所述多媒体样本文件集包括多个多媒体样本文件;
步骤S204:利用预设的自组织竞争神经网络对所述多媒体样本文件集进行深度学习和训练,构建自组织竞争神经网络模型。
在进行模型训练时,通过多媒体样本文件集来对模型进行训练,以构建可完成分类问问的自组织竞争神经网络模型。
自组织(竞争型)神经网络即为自组织特征映射(SOM,Self-organizing featureMap),是一种自组织(竞争型)神经网络,其结构及其学习规则与其他神经网络相比有自己的特点。在网络结构上,它一般是由输入层和竞争层构成的两层网络;两层之间各神经元实现双向连接,而且网络没有隐含层。竞争层各神经元之间还存在横向连接。竞争型神经网络构成的基本思想是网络的竞争层各神经元竞争对输入模式响应的机会,最后仅有一个神经元成为竞争的胜者。这一获胜神经元则表示对输入模式的分类。
具体的,所述自组织竞争神经网络包括输入层和竞争层,所述竞争层包含多个竞争神经元;输入层即为输入的多媒体文件(多媒体样本文件或待分类的多媒体文件),竞争层即为神经网络的网络层,包含了多个竞争神经元。
如图8所示,步骤S204还包括步骤S2041-S1045:
步骤S1041:将所述多个多媒体样本文件作为输入层,并对多媒体样本文件进行归一化处理,获取与所述多媒体样本文件对应的输入向量;对所述竞争层包含的多个竞争神经元的权值进行初始化;
步骤S1042:计算所述输入向量与所述竞争神经元之间的距离值,根据所述距离值确定距离值最小的竞争神经元作为获胜竞争神经元;
步骤S1043:根据所述计算得到的距离值对所述获胜竞争神经元和其他竞争神经元的权值进行调整;
步骤S1044:判断所述调整后的竞争神经元的权值是否满足预设的训练停止条件;
若是,执行步骤S1045:确定所述自组织竞争神经网络模型的训练完成,输出调整之后的竞争神经元的权值;
若否,循环执行步骤S1042-S1045。
具体的,首先对输入层的多个多媒体样本文件进行归一化处理,转换成对应的输入向量。并且,在模型训练之前,还需要对竞争层包含的多个竞争神经元的权值进行初始化(该权值在模型训练的过程中会不断调整)。
然后计算输入向量与每一个竞争神经元之间的距离值(该距离值的计算可以根据输入向量来选择对应的距离值计算方法),根据距离值来判断是否满足相应的分类条件(预设的训练停止条件,例如,神经网络的学习率小于预设的阈值),若是,则输出分类结果,若否,则需要对竞争神经元对应的权值进行调整,且对权值进行调整的过程中是根据距离值的大小来进行调整的,然后重新开始距离值的计算和权值的调整,直至满足相应的分类条件(预设的训练停止条件)。
进一步的,如图9所示,在本实施例中,还提出了一种基于神经网络的分类装置,所述装置包括:
文件获取模块102,用于获取待分类的多媒体文件;
层叠式分类模块104,用于将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果;
并行式分类模块106,用于根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。
可选的,所述层叠式分类模块104还用于将所述待分类的多媒体文件输入所述自组织竞争神经网络模型,通过所述自组织竞争神经网络模型的第一级网络输出粗分类结果,通过所述自组织竞争神经网络模型的第二级网络输出细分类结果,将所述细分类结果作为所述备选分类结果。
可选的,所述层叠式分类模块104还用于计算所述待分类的多媒体文件与所述自组织竞争神经网络模型的第一层网络包含的多个竞争神经元之间的距离值,根据所述计算得到的距离值确定所述粗分类结果;计算所述待分类的多媒体文件与所述自组织竞争神经网络模型的第二层网络包含的多个竞争神经元之间的距离值,根据所述计算得到的距离值和所述粗分类结果确定所述细分类结果。
可选的,所述并行式分类模块106还用于统计所述多个自组织神经网络模型输出的备选分类结果输出的备选分类结果的出现次数,确定出现次数最多的备份分类结果作为所述目标分类结果。
可选的,上述装置还包括模型训练模块108,用于获取用于训练的多媒体样本文件集,所述多媒体样本文件集包括多个多媒体样本文件;利用预设的自组织竞争神经网络对所述多媒体样本文件集进行深度学习和训练,构建自组织竞争神经网络模型。
可选的,所述自组织竞争神经网络包括输入层和竞争层,所述竞争层包含多个竞争神经元;所述模型训练模块108还用于将所述多个多媒体样本文件作为输入层,并对多媒体样本文件进行归一化处理,获取与所述多媒体样本文件对应的输入向量;对所述竞争层包含的多个竞争神经元的权值进行初始化;计算所述输入向量与所述竞争神经元之间的距离值,根据所述距离值确定距离值最小的竞争神经元作为获胜竞争神经元;根据所述计算得到的距离值对所述获胜竞争神经元和其他竞争神经元的权值进行调整;判断所述调整后的竞争神经元的权值是否满足预设的训练停止条件;若是,确定所述自组织竞争神经网络模型的训练完成,输出调整之后的竞争神经元的权值;若否,循环执行所述计算所述输入向量与所述竞争神经元之间的距离值,根据所述距离值确定距离值最小的竞争神经元作为获胜竞争神经元,根据所述计算得到的距离值对所述获胜竞争神经元和其他竞争神经元的权值进行调整。
图10示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是服务器。如图10所示,该计算机设备包括通过***总线连接的处理器、存储器和网络接口。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作***,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现短文本过滤方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行基于神经网络的分类方法。网络接口用于与外部进行通信。本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的基于神经网络的分类方法可以实现为一种计算机程序的形式,计算机程序可在如图10所示的计算机设备上运行。计算机设备的存储器中可存储组成短文本过滤装置的各个程序模板。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
获取待分类的多媒体文件;
将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果;
根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。
一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如下步骤:
获取待分类的多媒体文件;
将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果;
根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。
需要说明的是,上述基于神经网络的分类方法、基于神经网络的分类装置、终端和计算机可读存储介质属于同一个发明构思,基于神经网络的分类、基于神经网络的分类装置、计算机设备和计算机可读存储介质中涉及的内容可相互适用。
实施本发明实施例,将具有如下有益效果:
采用了上述基于神经网络的分类方法、装置、终端及计算机可读介质之后,在对无标签的多媒体文件进行分类时,结合了自组织竞争神经网络的强分类优势、以及并行神经网络的整体分类优势,分别通过多个并行的层叠式的自组织竞争神经网络对待分类的多媒体文件进行分类,然后在多个层叠式的自组织竞争神经网络输出的分类结果中选择最优的结果作为最终的分类结果并输出。也就是说,采用了上述基于神经网络的分类方法、装置、终端及计算机可读介质之后,在不需要事先对上述无标签的多媒体文件进行标注的前提下,提高了无标签的多媒体文件分类的准确性,提高了无标签的多媒体文件分类的分类效率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于神经网络的分类方法,其特征在于,所述方法包括:
获取待分类的多媒体文件;
将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果;
根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。
2.根据权利要求1所述的基于神经网络的分类方法,其特征在于,所述将所述待分类的多媒体文件分别输入多个自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的子分类结果的步骤,还包括:
将所述待分类的多媒体文件输入所述自组织竞争神经网络模型,通过所述自组织竞争神经网络模型的第一级网络输出粗分类结果,通过所述自组织竞争神经网络模型的第二级网络输出细分类结果;
将所述细分类结果作为所述备选分类结果。
3.根据权利要求2所述的基于神经网络的分类方法,其特征在于,所述通过所述自组织竞争神经网络模型的第一层输出粗分类结果的步骤,还包括:
计算所述待分类的多媒体文件与所述自组织竞争神经网络模型的第一层网络包含的多个竞争神经元之间的距离值,根据所述计算得到的距离值确定所述粗分类结果;
所述通过所述自组织竞争神经网络模型的第二级网络输出细分类结果的步骤,还包括:
计算所述待分类的多媒体文件与所述自组织竞争神经网络模型的第二层网络包含的多个竞争神经元之间的距离值,根据所述计算得到的距离值和所述粗分类结果确定所述细分类结果。
4.根据权利要求1所述的基于神经网络的分类方法,其特征在于,所述根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果的步骤,还包括:
统计所述多个自组织神经网络模型输出的备选分类结果输出的备选分类结果的出现次数,确定出现次数最多的备份分类结果作为所述目标分类结果。
5.根据权利要求1所述的基于神经网络的分类方法,其特征在于,所述方法还包括:
获取用于训练的多媒体样本文件集,所述多媒体样本文件集包括多个多媒体样本文件;
利用预设的自组织竞争神经网络对所述多媒体样本文件集进行深度学习和训练,构建自组织竞争神经网络模型。
6.根据权利要求5所述的基于神经网络的分类方法,其特征在于,所述自组织竞争神经网络包括输入层和竞争层,所述竞争层包含多个竞争神经元;
所述利用预设的自组织竞争神经网络对所述多媒体样本文件集进行深度学习和训练,构建自组织竞争神经网络模型的步骤,还包括:
将所述多个多媒体样本文件作为输入层,并对多媒体样本文件进行归一化处理,获取与所述多媒体样本文件对应的输入向量;对所述竞争层包含的多个竞争神经元的权值进行初始化;
计算所述输入向量与所述竞争神经元之间的距离值,根据所述距离值确定距离值最小的竞争神经元作为获胜竞争神经元;
根据所述计算得到的距离值对所述获胜竞争神经元和其他竞争神经元的权值进行调整;
判断所述调整后的竞争神经元的权值是否满足预设的训练停止条件;
若是,确定所述自组织竞争神经网络模型的训练完成,输出调整之后的竞争神经元的权值;
若否,循环执行所述计算所述输入向量与所述竞争神经元之间的距离值,根据所述距离值确定距离值最小的竞争神经元作为获胜竞争神经元,根据所述计算得到的距离值对所述获胜竞争神经元和其他竞争神经元的权值进行调整的步骤。
7.一种基于神经网络的分类装置,其特征在于,所述装置包括:
文件获取模块,用于获取待分类的多媒体文件;
层叠式分类模块,用于将所述待分类的多媒体文件分别输入多个并行的训练好的自组织竞争神经网络模型,获取所述多个自组织竞争神经网络模型输出的备选分类结果;
并行式分类模块,用于根据所述备选分类结果,确定与所述待分类的多媒体文件对应的目标分类结果。
8.根据权利要求7所述的基于神经网络的分类装置,其特征在于,所述层叠式分类模块还用于将所述待分类的多媒体文件输入所述自组织竞争神经网络模型,通过所述自组织竞争神经网络模型的第一级网络输出粗分类结果,通过所述自组织竞争神经网络模型的第二级网络输出细分类结果,将所述细分类结果作为所述备选分类结果;
所述并行式分类模块还用于统计所述多个自组织神经网络模型输出的备选分类结果输出的备选分类结果的出现次数,确定出现次数最多的备份分类结果作为所述目标分类结果。
9.一种终端,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至6中任一项所述方法的步骤。
10.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至6中任一项所述方法的步骤。
CN201910251875.1A 2019-03-29 2019-03-29 基于神经网络的分类方法、装置、终端及可读介质 Pending CN110070171A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910251875.1A CN110070171A (zh) 2019-03-29 2019-03-29 基于神经网络的分类方法、装置、终端及可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910251875.1A CN110070171A (zh) 2019-03-29 2019-03-29 基于神经网络的分类方法、装置、终端及可读介质

Publications (1)

Publication Number Publication Date
CN110070171A true CN110070171A (zh) 2019-07-30

Family

ID=67366870

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910251875.1A Pending CN110070171A (zh) 2019-03-29 2019-03-29 基于神经网络的分类方法、装置、终端及可读介质

Country Status (1)

Country Link
CN (1) CN110070171A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111984803A (zh) * 2020-08-20 2020-11-24 北京达佳互联信息技术有限公司 多媒体资源处理方法、装置、计算机设备及存储介质
CN113033683A (zh) * 2021-03-31 2021-06-25 中南大学 一种基于静态与动态联合分析的工业***工况监测方法和***
CN114048854A (zh) * 2021-10-15 2022-02-15 中邮通建设咨询有限公司 一种深度神经网络大数据内部数据文件的管理方法
CN114167287A (zh) * 2021-11-23 2022-03-11 格林美股份有限公司 一种基于神经网络的电池组分选方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101667252A (zh) * 2009-10-15 2010-03-10 哈尔滨工业大学 基于art2a-dwnn的通信信号调制方式的分类识别方法
CN102651088A (zh) * 2012-04-09 2012-08-29 南京邮电大学 基于A_Kohonen神经网络的恶意代码分类方法
CN107007290A (zh) * 2017-03-27 2017-08-04 广州视源电子科技股份有限公司 基于时域及相空间的脑电放松度识别方法及装置
CN108154190A (zh) * 2018-01-12 2018-06-12 上海海事大学 一种基于som神经网络的岸桥电机状态聚类分析方法
CN109190646A (zh) * 2018-06-25 2019-01-11 北京达佳互联信息技术有限公司 一种基于神经网络的数据预测方法、装置及神经网络***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101667252A (zh) * 2009-10-15 2010-03-10 哈尔滨工业大学 基于art2a-dwnn的通信信号调制方式的分类识别方法
CN102651088A (zh) * 2012-04-09 2012-08-29 南京邮电大学 基于A_Kohonen神经网络的恶意代码分类方法
CN107007290A (zh) * 2017-03-27 2017-08-04 广州视源电子科技股份有限公司 基于时域及相空间的脑电放松度识别方法及装置
CN108154190A (zh) * 2018-01-12 2018-06-12 上海海事大学 一种基于som神经网络的岸桥电机状态聚类分析方法
CN109190646A (zh) * 2018-06-25 2019-01-11 北京达佳互联信息技术有限公司 一种基于神经网络的数据预测方法、装置及神经网络***

Non-Patent Citations (13)

* Cited by examiner, † Cited by third party
Title
FLAVIUS L.GORGONIO等: "Parallel self-organizing maps with application in clustering distributed data", 《2008 IEEE INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IEEE WORLD CONGRESS ON COMPUTATIONAL INTELLIGENCE)》 *
HAPPINESS UGOCHI DIKE等: "Unsupervised Learning Based On Artificial Neural Network: A Review", 《PROCEEDINGS OF THE 2018 IEEE INTERNATIONAL CONFERENCE ON CYBORG AND BIONIC SYSTEMS》 *
IREN VALOVA等: "A parallel growing architecture for self-organizing maps with unsupervised learning", 《ELSEVIER》 *
LI WEIGANG: "A Study of Parallel Self-Organizing Map", 《RESEARCHGATE》 *
MING-HSUAN YANG等: "A Data Partition Method for Parallel Self-organizingMap", 《INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS》 *
万江: "基于SOM基因聚类的基因数据组织样本聚类", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *
刘建文等: "基于自 组织映射的北京主体功能区识别研究", 《测绘与空间地理信息》 *
刘飞荣: "SOM算法的改进及其在中文文本聚类的应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
吴建生: "自组织特征映射神经网络及其应用", 《柳州师专学报》 *
吴雪茹: "基于自组织网络的故障诊断算法改进及可视化研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 *
王艳华: "SOM研究的若干新进展", 《福建电脑》 *
范迎迎: "遥感影像分类的并行化及智能化研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
郑天宇等: "层叠式 SOM 神经网络星图识别算法及FPGA验证", 《红外技术》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111984803A (zh) * 2020-08-20 2020-11-24 北京达佳互联信息技术有限公司 多媒体资源处理方法、装置、计算机设备及存储介质
CN113033683A (zh) * 2021-03-31 2021-06-25 中南大学 一种基于静态与动态联合分析的工业***工况监测方法和***
CN114048854A (zh) * 2021-10-15 2022-02-15 中邮通建设咨询有限公司 一种深度神经网络大数据内部数据文件的管理方法
CN114048854B (zh) * 2021-10-15 2022-12-06 中邮通建设咨询有限公司 一种深度神经网络大数据内部数据文件的管理方法
CN114167287A (zh) * 2021-11-23 2022-03-11 格林美股份有限公司 一种基于神经网络的电池组分选方法、装置及电子设备

Similar Documents

Publication Publication Date Title
CN110070171A (zh) 基于神经网络的分类方法、装置、终端及可读介质
Tuli et al. Are convolutional neural networks or transformers more like human vision?
CN107742107A (zh) 人脸图像分类方法、装置及服务器
CN110162593A (zh) 一种搜索结果处理、相似度模型训练方法及装置
CN104112143A (zh) 基于加权超球支持向量机算法的图像分类方法
CN107291822A (zh) 基于深度学习的问题分类模型训练方法、分类方法及装置
US10699161B2 (en) Tunable generative adversarial networks
CN110188795A (zh) 图像分类方法、数据处理方法和装置
CN111598190B (zh) 图像目标识别模型的训练方法、图像识别方法及装置
CN109376615A (zh) 用于提升深度学习网络预测性能的方法、装置及存储介质
CN109919304A (zh) 神经网络搜索方法、装置、可读存储介质和计算机设备
CN110096641A (zh) 基于图像分析的图文匹配方法、装置、设备及存储介质
CN108665005A (zh) 一种利用dcgan提高基于cnn图像识别性能的方法
CN110309847A (zh) 一种模型压缩方法及装置
CN109801260A (zh) 牲畜个数的识别方法及装置
CN109918501A (zh) 新闻文章分类的方法、装置、设备及存储介质
CN109767312A (zh) 一种信用评估模型训练、评估方法与装置
CN109272500A (zh) 基于自适应卷积神经网络的织物分类方法
CN110009628A (zh) 一种针对连续二维图像中多形态目标的自动检测方法
CN109145871A (zh) 心理行为识别方法、装置与存储介质
CN109829478A (zh) 一种基于变分自编码器的问题分类方法和装置
CN108596264A (zh) 一种基于深度学习的社区发现方法
CN107330452A (zh) 聚类方法和装置
CN110059765A (zh) 一种矿物智能识别分类***与方法
CN109978074A (zh) 基于深度多任务学习的图像美感和情感联合分类方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190730