CN117273085A - 一种基于卷积神经网络的信息归类方法 - Google Patents
一种基于卷积神经网络的信息归类方法 Download PDFInfo
- Publication number
- CN117273085A CN117273085A CN202311532327.9A CN202311532327A CN117273085A CN 117273085 A CN117273085 A CN 117273085A CN 202311532327 A CN202311532327 A CN 202311532327A CN 117273085 A CN117273085 A CN 117273085A
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- modal
- information
- language
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 20
- 238000013528 artificial neural network Methods 0.000 claims abstract description 85
- 230000004927 fusion Effects 0.000 claims abstract description 61
- 238000007781 pre-processing Methods 0.000 claims abstract description 48
- 238000013519 translation Methods 0.000 claims abstract description 43
- 238000006243 chemical reaction Methods 0.000 claims abstract description 37
- 238000004458 analytical method Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 132
- 239000010410 layer Substances 0.000 claims description 62
- 238000012549 training Methods 0.000 claims description 30
- 230000005540 biological transmission Effects 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 22
- 238000010219 correlation analysis Methods 0.000 claims description 18
- 238000013507 mapping Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 11
- 238000005065 mining Methods 0.000 claims description 10
- 230000007547 defect Effects 0.000 claims description 9
- 238000005457 optimization Methods 0.000 claims description 9
- 230000003213 activating effect Effects 0.000 claims description 3
- 239000011229 interlayer Substances 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 3
- 230000010365 information processing Effects 0.000 claims description 2
- 238000007405 data analysis Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 4
- 238000007726 management method Methods 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000032683 aging Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000002346 layers by function Substances 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本公开提供了一种基于卷积神经网络的信息归类方法,涉及信息归类技术领域,该方法包括:读取初始信息库;将初始信息库传输至联邦中台;针对各个数据模态,搭建N个神经网络卷积通道;执行初始信息库的预处理,确定预处理信息库;执行语种转换与模态特征分析,建立多模态数据关系网络;执行融合学习,生成一体化信息归类模块;配置信息归类更新策略与信息推理预测策略,执行基于目标信息体系的信息管理。通过本公开可以解决现有技术中存在由于多语种的翻译效率和精确度较低,导致翻译质量和多语种数据分析程度较低的技术问题,实现提高多语种的翻译效率和精确度的目标,达到提高翻译质量和多语种数据分析程度的技术效果。
Description
技术领域
本公开涉及信息归类技术领域,具体涉及一种基于卷积神经网络的信息归类方法。
背景技术
随着互联网技术的发展,数据体量与数据形式也越来越繁多。目前,在翻译领域,由于语种数据繁多、数据规模过大、句子标注质量不高等因素,使得机器翻译过程中词对齐、短语抽取、翻译映射以及词序调整等问题难以被有效解决。同时目前很多机器翻译任务并不具备丰富的平行资源,容易在训练阶段导致过拟合问题,从而影响泛化性。再者,多模态信息抽取难以跨模态建模,使得信息获取完善程度较低。
综上所述,现有技术中存在由于多语种的翻译效率和精确度较低,导致翻译质量和多语种数据分析程度较低的技术问题。
发明内容
本公开提供了一种基于卷积神经网络的信息归类方法,用以解决现有技术中存在由于多语种的翻译效率和精确度较低,导致翻译质量和多语种数据分析程度较低的技术问题。
根据本公开的第一方面,提供了一种基于卷积神经网络的信息归类方法,包括:基于接口端,读取接入云处理器中的初始信息库,所述初始信息库包括多域的本地源数据;将所述初始信息库传输至联邦中台,其中,信息传输存在基于差异化传输条件的多元并行信道;针对各个数据模态,搭建N个神经网络卷积通道,其中,各神经网络卷积通道内嵌有差异化数据处理算法;基于所述N个神经网络卷积通道,执行所述初始信息库的预处理,确定预处理信息库;结合多模态语言处理模型,对所述预处理信息库执行语种转换与模态特征分析,建立多模态数据关系网络,其中,所述多模态语言处理模型包括机器翻译区块、特征提取区块与模态关联区块;执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习,生成一体化信息归类模块,所述一体化信息归类模块内嵌有具备时效更新性的目标信息体系;配置信息归类更新策略与信息推理预测策略,结合所述一体化信息归类模块,执行基于所述目标信息体系的信息管理。
根据本公开的第二方面,提供了一种基于卷积神经网络的信息归类***,包括:初始信息库获得模块,所述初始信息库获得模块用于基于接口端,读取接入云处理器中的初始信息库,所述初始信息库包括多域的本地源数据;信息传输模块,所述信息传输模块用于将所述初始信息库传输至联邦中台,其中,信息传输存在基于差异化传输条件的多元并行信道;神经网络卷积通道获得模块,所述神经网络卷积通道获得模块用于针对各个数据模态,搭建N个神经网络卷积通道,其中,各神经网络卷积通道内嵌有差异化数据处理算法;预处理信息库获得模块,所述预处理信息库获得模块用于基于所述N个神经网络卷积通道,执行所述初始信息库的预处理,确定预处理信息库;多模态数据关系网络建立模块,所述多模态数据关系网络建立模块用于结合多模态语言处理模型,对所述预处理信息库执行语种转换与模态特征分析,建立多模态数据关系网络,其中,所述多模态语言处理模型包括机器翻译区块、特征提取区块与模态关联区块;融合学习模块,所述融合学习模块用于执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习,生成一体化信息归类模块,所述一体化信息归类模块内嵌有具备时效更新性的目标信息体系;信息管理模块,所述信息管理模块用于配置信息归类更新策略与信息推理预测策略,结合所述一体化信息归类模块,执行基于所述目标信息体系的信息管理。
本公开中提供的一个或多个技术方案,至少具有如下技术效果或优点:根据本公开采用的通过基于接口端,读取接入云处理器中的初始信息库,所述初始信息库包括多域的本地源数据;将所述初始信息库传输至联邦中台,其中,信息传输存在基于差异化传输条件的多元并行信道;针对各个数据模态,搭建N个神经网络卷积通道,其中,各神经网络卷积通道内嵌有差异化数据处理算法;基于所述N个神经网络卷积通道,执行所述初始信息库的预处理,确定预处理信息库;结合多模态语言处理模型,对所述预处理信息库执行语种转换与模态特征分析,建立多模态数据关系网络,其中,所述多模态语言处理模型包括机器翻译区块、特征提取区块与模态关联区块;执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习,生成一体化信息归类模块,所述一体化信息归类模块内嵌有具备时效更新性的目标信息体系;配置信息归类更新策略与信息推理预测策略,结合所述一体化信息归类模块,执行基于所述目标信息体系的信息管理,解决了现有技术中存在由于多语种的翻译效率和精确度较低,导致翻译质量和多语种数据分析程度较低的技术问题,实现提高多语种的翻译效率和精确度的目标,达到提高翻译质量和多语种数据分析程度的技术效果。
应当理解,本部分所描述的内容并非旨在标示本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其他特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本公开或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本公开实施例提供的一种基于卷积神经网络的信息归类方法的流程示意图。
图2为本公开实施例一种基于卷积神经网络的信息归类方法中神经网络卷积通道的生成逻辑示意图。
图3为本公开实施例提供的一种基于卷积神经网络的信息归类***的结构示意图。
附图标记说明:初始信息库获得模块11,信息传输模块12,神经网络卷积通道获得模块13,预处理信息库获得模块14,多模态数据关系网络建立模块15,融合学习模块16,信息管理模块17。
具体实施方式
以下结合附图对本公开的示范性实施例作出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
实施例一
本公开实施例提供的一种基于卷积神经网络的信息归类方法,兹参照图1作说明。
本公开实施例提供的方法中包括:
基于接口端,读取接入云处理器中的初始信息库,所述初始信息库包括多域的本地源数据。
具体地,接口端为待进行数据传输的端口。云处理器为根据云服务器进行数据存储和数据处理的处理器。进一步地,将多域的接口端连接云处理器,通过接口端读取接入云处理器中的初始信息库,其中,初始信息库包括多域的本地源数据。多域的本地源数据包括多个语种区域的数据。
将所述初始信息库传输至联邦中台,其中,信息传输存在基于差异化传输条件的多元并行信道。
具体地,多元并行信道为初始信息库的传输通道,多元并行信道存在差异化传输条件。其中,通过多元并行信道将初始信息库传输至云处理器的联邦中台。举例而言,差异化传输条件为多域的表征本地数据的多个语种的差异或跨语种的多模态数据源等。
针对各个数据模态,搭建N个神经网络卷积通道,其中,各神经网络卷积通道内嵌有差异化数据处理算法。
具体地,针对各个数据模态,搭建与各个数据模态对应的N个神经网络卷积通道。其中,每个神经网络卷积通道具有层级关联的多数据处理层。进一步地,各个数据模态的模态类型不同,因此基于模态类型不同,各神经网络卷积通道内嵌有差异化数据处理算法。例如,数据模态可以包括图像模态、文本模态、语音模态等的数据。
基于所述N个神经网络卷积通道,执行所述初始信息库的预处理,确定预处理信息库。
具体地,获取初始信息库中数据的对应的数据模态。根据各数据模态获取对应的神经网络卷积通道,在对应的神经网络卷积通道中执行初始信息库中对应的数据的预处理,根据预处理结果确定预处理信息库。举例而言,对初始信息库进行数据优化后,当图像噪声过大,存在降噪必要性时,先基于算法执行初始信息库的源数据缺陷处理,进一步基于自然语言处理的层级进行数据处理,例如有效数据的抽取等。
结合多模态语言处理模型,对所述预处理信息库执行语种转换与模态特征分析,建立多模态数据关系网络,其中,所述多模态语言处理模型包括机器翻译区块、特征提取区块与模态关联区块。
具体地,通过多模态语言处理模型对预处理信息库执行语种转换与模态特征分析,建立多模态数据关系网络。其中,通过构建区域化语种差异库连接多模态语言处理模型,确定映射的多个语种转换序列在区域化语种差异库的区域特征。根据区域特征在多模态语言处理模型中机器翻译区块进行语种和模态的转换处理。进一步地,通过多模态语言处理模型中特征提取区块对转换语种进行特征提取与映射关联,确定关联特征组。通过多模态语言处理模型中模态关联区块对关联特征组进行相关性分析,获得多模态数据关系网络。
执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习,生成一体化信息归类模块,所述一体化信息归类模块内嵌有具备时效更新性的目标信息体系。
具体地,将N个神经网络卷积通道自适应地与多模态数据关系网络进行匹配,确定多个融合节点。针对多个融合节点,配置节点融合方式。进一步地,基于映射的多个融合节点的节点融合方式,执行多模态数据关系网络与N个神经网络卷积通道的融合学习,生成一体化信息归类模块。一体化信息归类模块内嵌有具备时效更新性的目标信息体系,因此一体化信息归类模块具有实时目标信息体系。
配置信息归类更新策略与信息推理预测策略,结合所述一体化信息归类模块,执行基于所述目标信息体系的信息管理。
具体地,结合一体化信息归类模块配置信息归类更新策略与信息推理预测策略,执行基于目标信息体系的信息管理。其中,结合知识图谱和自然语言处理技术,进行基于知识的推理和推断。例如,在医疗领域中辅助做出诊断和治疗方案。
其中,通过本实施例可以解决现有技术中存在由于多语种的翻译效率和精确度较低,导致翻译质量和多语种数据分析程度较低的技术问题,实现提高多语种的翻译效率和精确度的目标,达到提高翻译质量和多语种数据分析程度的技术效果。
本公开实施例提供的方法中还包括:
读取第一数据模态,挖掘第一模态算法集。
训练基于所述第一模态算法集的多数据处理层,其中,所述第一模态算法集合与所述第一模态算法集一一对应。
层间关联所述多数据处理层,生成第一神经网络卷积通道。
完成第N数据模态的算法挖掘与通道训练,获取所述N个神经网络卷积通道。
如图2所示,具体地,从各个数据模态中随机进行数据模态的提取,获得任一数据模态作为第一数据模态。进一步地,挖掘第一数据模态的预处理功能层,获得第一模态算法集,第一模态算法集包括多数据处理层。多数据处理层与第一模态算法集一一对应。举例而言,以图像模态为例,多数据处理层可能包括图像降噪处理层、图像灰度化处理层、图像增强处理层等算法训练的处理层。
进一步地,对多数据处理层进行训练。将第一数据模态对应的数据作为训练数据集。在训练数据集中随机选取第一组训练数据,并根据第一组训练数据对多数据处理层进行监督训练,获得多数据处理层的第一输出结果。然后将第一输出结果与第一组训练数据的输出准确率进行比对。当比对结果满足时,则进行第二组训练数据的监督训练。当比对结果不满足时,则计算第一输出结果与第一组训练数据的输出准确率偏差,并根据输出准确率偏差对多数据处理层进行优化,然后进行第二组训练数据的监督训练。通过训练数据集进行迭代监督训练,直到多数据处理层的输出结果趋于收敛状态时,然后通过验证数据集对多数据处理层进行输出验证。获取验证准确率指标,例如:设置验证准确率指标为输出结果准确率是96%时,验证通过。则获得训练完成的多数据处理层。
进一步地,对多个多数据处理层进行层间关联。其中,对第一数据模态进行数据预处理时依次流转各个多数据处理层,判定是否需要执行该多数据处理层的算法的处理需求,若不需要执行该多数据处理层的算法的处理需求,进行该多数据处理层的空轮,直接流转至下一多数据处理层。进一步地,根据多数据处理层的层间关联的关系,生成第一神经网络卷积通道。
进一步地,根据第一数据模态生成第一神经网络卷积通道的方法,完成第N数据模态的算法挖掘与通道训练,获取N个神经网络卷积通道。
其中,针对各个数据模态,搭建N个神经网络卷积通道,以提高通过N个神经网络卷积通道进行数据处理的精确度。
本公开实施例提供的方法中还包括:
识别所述初始信息库,确定映射归属的目标数据模态。
遍历所述N个神经网络卷积通道,激活所述目标数据模态对应的目标神经网络卷积通道。
基于所述目标神经网络卷积通道,执行所述初始信息库的步进式层级处理,输出预处理信息库。
其中,执行所述初始信息库的步进式层级处理,还包括:
进行所述多数据处理层的预执行决策。
若所述初始信息库满足第一数据处理层的缺陷阈值,生成层级预处理指令。
若所述初始信息库不满足第一数据处理层的缺陷阈值,生成层级空轮指令。
具体地,识别初始信息库,确定初始信息库映射归属的目标数据模态。例如,初始信息库包括图像模态的多域的本地源数据,获取目标数据模态为图像模态。
进一步地,依次访问N个神经网络卷积通道,从N个神经网络卷积通道中匹配获得目标数据模态对应的目标神经网络卷积通道,并对目标神经网络卷积通道进行激活。
进一步地,基于目标神经网络卷积通道中层间关联的多数据处理层,执行对初始信息库在多数据处理层中的步进式层级处理,输出预处理信息库。其中,对初始信息库进行数据预处理时依次流转各个多数据处理层,判定是否需要执行该多数据处理层的算法的处理需求,若不需要执行该多数据处理层的算法的处理需求,进行该多数据处理层的空轮,直接流转至下一多数据处理层。
进一步地,执行初始信息库的步进式层级处理,还需进行多数据处理层的预执行决策,用于判断该多数据处理层是否需要进行空轮。进一步地,若初始信息库满足第一数据处理层的缺陷阈值,表示判定需要执行该多数据处理层的层算法的处理需求,则生成层级预处理指令。进一步地,若初始信息库不满足第一数据处理层的缺陷阈值,表示判定不需要执行该多数据处理层的层算法的处理需求,则生成层级空轮指令。进一步地,根据层级预处理指令在该多数据处理层对初始信息库进行数据处理,根据层级空轮指令在该多数据处理层对初始信息库进行该层级的空轮,流转至下一处理层的多数据处理层。
其中,执行初始信息库的预处理,以提高获得预处理信息库的准确度。
本公开实施例提供的方法中还包括:
构建区域化语种差异库,建立所述区域化语种差异库与所述机器翻译区块的连接。
确定映射对应的多个语种转换序列,训练所述机器翻译区块,其中,各语种转换序列包括第一语种与第二语种。
遍历所述区域化语种差异库,对所述第一语种与所述第二语种进行区域特征匹配。
结合所述区域特征,于所述机器翻译区块中进行语种转换与模态转换处理。
具体地,构建区域化语种差异库,建立区域化语种差异库与多模态语言处理模型中机器翻译区块的连接。其中,区域化语种差异库根据多区域的多语种作为数据来源构建。当多区域的同语种可能存在语义等的差异,进而进行语种转换翻译时,以提高翻译准确度。
进一步地,确定初始信息库的映射对应的多个语种转换序列,训练机器翻译区块,其中,各语种转换序列包括第一语种与第二语种。
进一步地,依次访问区域化语种差异库,对第一语种与第二语种进行区域特征匹配。例如,当第一语种与第二语种是多区域的同语种时,可能存在语义等的差异,依次访问区域化语种差异库,对第一语种与第二语种进行语种差异等的区域特征匹配。
进一步地,结合第一语种与第二语种的区域特征,于机器翻译区块中进行从第一语种至第二语种的语种转换与从第一语种至第二语种的模态转换处理。
其中,对预处理信息库执行语种转换以提高翻译准确度。
本公开实施例提供的方法中还包括:
结合所述特征提取区块,针对转换语种进行信息特征提取与映射关联,确定基于语种差异与模态差异的关联特征组。
结合所述模态关联区块,执行基于所述关联特征组的组内相关性分析与组间相关性分析,确定初始多模态数据关系网络。
对所述初始多模态数据关系网络执行实体消歧与共指消解,生成所述多模态数据关系网络。
具体地,通过多模态语言处理模型的特征提取区块,针对转换语种进行信息特征提取与映射关联,确定基于语种差异与模态差异的关联特征组。例如,转换语种为第一语种和第二语种。其中,关联特征组包括转换语种和信息特征的映射关联关系。信息特征包括语种差异和模态差异。
进一步地,通过多模态语言处理模型的模态关联区块,执行基于关联特征组的组内相关性分析与组间相关性分析,获得组内相关性分析结果和组间相关性分析结果,确定初始多模态数据关系网络。其中,组内相关性分析是对关联特征组中转换语种之间进行语种和模态的相关性分析,获得组内相关性分析结果。组间相关性分析是对各关联特征组中各转换语种之间进行语种和模态的相关性分析,获得组间相关性分析结果。
进一步地,对初始多模态数据关系网络执行实体消歧与共指消解,生成多模态数据关系网络。其中,实体消歧用于解决同名实体产生歧义问题,例如,实际的语言环境中存在某个实体名称对应于多个命名实体对象。共指消解用于识别指向同一个实体的不同表述。
其中,执行模态特征分析以提高获得多模态数据关系网络的效率和准确性。
本公开实施例提供的方法中还包括:
进行所述多模态数据关系网络与所述N个神经网络卷积通道的自适应匹配,确定多个融合节点,包括融合位置-融合区域。
针对所述多个融合节点,配置节点融合方式。
基于映射的所述多个融合节点与所述节点融合方式,执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习。
具体地,将N个神经网络卷积通道自适应地与多模态数据关系网络进行匹配,确定多个融合节点,其中,融合节点包括与多模态数据关系网络和N个神经网络卷积通道对应的融合位置-融合区域。
进一步地,针对多个融合节点,配置节点融合方式,进而获得映射的多个融合节点与节点融合方式。例如,节点融合方式可以包括特征融合、决策融合、模型融合等。
进一步地,基于映射的多个融合节点与节点融合方式,执行多模态数据关系网络与N个神经网络卷积通道的融合学习,进而缩小多模态间的异质性差异,同时保持各模态特定语义的完整性,并在深度学习模型中取得最优的性能。
其中,执行多模态数据关系网络与N个神经网络卷积通道的融合学习,可以使信息可以更完善、更准确。
本公开实施例提供的方法中还包括:
配置泛化增量模块,并设定增量激活条件。
监测各功能构件的处理态势,判定是否满足所述增量激活条件,若满足,分析构件功能劣势。
将待优化功能构件迁移至所述泛化增量模块中,基于所述构件功能劣势进行已有功能优化与新增分支训练,生成优化功能构件。
对所述优化功能构件进行遣返。
具体地,针对各功能构件,即上述存在的所有模型、通道、模块配置泛化增量模块,并设定增量激活条件。增量激活条件是本领域技术人员根据实际情况进行自定义设置。
进一步地,监测各功能构件的处理态势,判定各功能构件的处理态势是否满足增量激活条件,若判定各功能构件的处理态势满足增量激活条件,分析构件功能劣势。当监测各功能构件的处理态势处理过程中,若当前的机制功能无法满足处理需求,将其迁移至增量模块中进行增量学习,再进行反馈处理。
进一步地,根据构件功能劣势对应获得待优化功能构件。将待优化功能构件迁移至泛化增量模块中,基于待优化功能构件的构件功能劣势进行已有功能优化与新增分支训练,生成优化功能构件。
进一步地,对优化功能构件进行遣返,完成目标信息体系的信息管理。
其中,对各功能构件进行处理态势的监测并进行增量学习,以提高获得信息的精确程度。
进一步地,调用接口端读取多域的多模态数据,汇聚至联邦中台中,基于构建的多模态数据关系网络与N个神经网络卷积通道融合学习,进行基于多语种、多模态的数据转换,确定模态数据源的多语种转换和多语种数据源的多模态数据转换,例如,多语种数据源的多模态数据转换指针对多语种数据源的同模态与跨模态数据之间的转换,如,二维图像转换为三维图像等;图片模态数据转换为文本模态数据等。并对多语种、多模态的数据进行特征相关性分析,确定基于数据纲量相关性的关联体系,即,数据关系网络作为跨语言的多模态数据的归类底层架构。
进一步地,融合学习N个神经网络卷积通道与多模态数据关系网络,确定进行数据处理的一体化信息归类模块,即一体化信息归类机制,同时,可针对后续的新增的多语种、多模态数据基于一体化信息归类机制直接进行处理与归属,提高处理精确度和效率。
进一步地,搭建获得的多模态语言处理模型集成了多算法、多结构,以适应基于语种与模态差异的多元化的数据处理需求。同时,配置泛化增量模块,针对本实施例的各功能构件的处理态势,当存在泛化增量模型的执行机制不满足处理态势,即不满足处理需求时,对各功能构件进行迁移学习,以进行时效更新,即,进行各功能构件的机制的自我学习。
实施例二
基于与前述实施例中一种基于卷积神经网络的信息归类方法同样的发明构思,兹参照图3作说明,本公开还提供了一种基于卷积神经网络的信息归类***,所述***包括:
初始信息库获得模块11,所述初始信息库获得模块11用于基于接口端,读取接入云处理器中的初始信息库,所述初始信息库包括多域的本地源数据。
信息传输模块12,所述信息传输模块12用于将所述初始信息库传输至联邦中台,其中,信息传输存在基于差异化传输条件的多元并行信道。
神经网络卷积通道获得模块13,所述神经网络卷积通道获得模块13用于针对各个数据模态,搭建N个神经网络卷积通道,其中,各神经网络卷积通道内嵌有差异化数据处理算法。
预处理信息库获得模块14,所述预处理信息库获得模块14用于基于所述N个神经网络卷积通道,执行所述初始信息库的预处理,确定预处理信息库。
多模态数据关系网络建立模块15,所述多模态数据关系网络建立模块15用于结合多模态语言处理模型,对所述预处理信息库执行语种转换与模态特征分析,建立多模态数据关系网络,其中,所述多模态语言处理模型包括机器翻译区块、特征提取区块与模态关联区块。
融合学习模块16,所述融合学习模块16用于执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习,生成一体化信息归类模块,所述一体化信息归类模块内嵌有具备时效更新性的目标信息体系。
信息管理模块17,所述信息管理模块17用于配置信息归类更新策略与信息推理预测策略,结合所述一体化信息归类模块,执行基于所述目标信息体系的信息管理。
进一步地,所述***还包括:
第一模态算法集挖掘模块,所述第一模态算法集挖掘模块用于读取第一数据模态,挖掘第一模态算法集。
多数据处理层训练模块,所述多数据处理层训练模块用于训练基于所述第一模态算法集的多数据处理层,其中,所述多数据处理层与所述第一模态算法集一一对应。
第一神经网络卷积通道获得模块,所述第一神经网络卷积通道获得模块用于层间关联所述多数据处理层,生成第一神经网络卷积通道。
N个神经网络卷积通道获得模块,所述N个神经网络卷积通道获得模块用于完成第N数据模态的算法挖掘与通道训练,获取所述N个神经网络卷积通道。
进一步地,所述***还包括:
目标数据模态获得模块,所述目标数据模态获得模块用于识别所述初始信息库,确定映射归属的目标数据模态。
N个神经网络卷积通道遍历模块,所述N个神经网络卷积通道遍历模块用于遍历所述N个神经网络卷积通道,激活所述目标数据模态对应的目标神经网络卷积通道。
预处理信息库输出模块,所述预处理信息库输出模块用于基于所述目标神经网络卷积通道,执行所述初始信息库的步进式层级处理,输出预处理信息库。
步进式层级处理模块,所述步进式层级处理模块用于其中,执行所述初始信息库的步进式层级处理,还包括:
进行所述多数据处理层的预执行决策。
层级预处理指令生成模块,所述层级预处理指令生成模块用于若所述初始信息库满足第一数据处理层的缺陷阈值,生成层级预处理指令。
层级空轮指令获得模块,所述层级空轮指令获得模块用于若所述初始信息库不满足第一数据处理层的缺陷阈值,生成层级空轮指令。
进一步地,所述***还包括:
区域化语种差异库构建模块,所述区域化语种差异库构建模块用于构建区域化语种差异库,建立所述区域化语种差异库与所述机器翻译区块的连接。
机器翻译区块训练模块,所述机器翻译区块训练模块用于确定映射对应的多个语种转换序列,训练所述机器翻译区块,其中,各语种转换序列包括第一语种与第二语种。
区域化语种差异库遍历模块,所述区域化语种差异库遍历模块用于遍历所述区域化语种差异库,对所述第一语种与所述第二语种进行区域特征匹配。
语种转换模块,所述语种转换模块用于结合所述区域特征,于所述机器翻译区块中进行语种转换与模态转换处理。
进一步地,所述***还包括:
信息特征提取模块,所述信息特征提取模块用于结合所述特征提取区块,针对转换语种进行信息特征提取与映射关联,确定基于语种差异与模态差异的关联特征组。
初始多模态数据关系网络获得模块,所述初始多模态数据关系网络获得模块用于结合所述模态关联区块,执行基于所述关联特征组的组内相关性分析与组间相关性分析,确定初始多模态数据关系网络。
多模态数据关系网络获得模块,所述多模态数据关系网络获得模块用于对所述初始多模态数据关系网络执行实体消歧与共指消解,生成所述多模态数据关系网络。
进一步地,所述***还包括:
自适应匹配模块,所述自适应匹配模块用于进行所述多模态数据关系网络与所述N个神经网络卷积通道的自适应匹配,确定多个融合节点,包括融合位置-融合区域。
节点融合方式配置模块,所述节点融合方式配置模块用于针对所述多个融合节点,配置节点融合方式。
融合学习模块,所述融合学习模块用于基于映射的所述多个融合节点与所述节点融合方式,执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习。
进一步地,所述***还包括:
增量激活条件设定模块,所述增量激活条件设定模块用于配置泛化增量模块,并设定增量激活条件。
构件功能劣势分析模块,所述构件功能劣势分析模块用于监测各功能构件的处理态势,判定是否满足所述增量激活条件,若满足,分析构件功能劣势。
优化功能构件生成模块,所述优化功能构件生成模块用于将待优化功能构件迁移至所述泛化增量模块中,基于所述构件功能劣势进行已有功能优化与新增分支训练,生成优化功能构件。
优化功能构件遣返模块,所述优化功能构件遣返模块用于对所述优化功能构件进行遣返。
前述实施例一中的一种基于卷积神经网络的信息归类方法具体实例同样适用于本实施例的一种基于卷积神经网络的信息归类***,通过前述对一种基于卷积神经网络的信息归类方法的详细描述,本领域技术人员可以清楚地知道本实施例中一种基于卷积神经网络的信息归类***,所以为了说明书的简洁,在此不再详述。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述得比较简单,相关之处参见方法部分说明即可。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合和替代。任何在本公开的精神和原则之内所做的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (8)
1.一种基于卷积神经网络的信息归类方法,其特征在于,所述方法包括:
基于接口端,读取接入云处理器中的初始信息库,所述初始信息库包括多域的本地源数据;
将所述初始信息库传输至联邦中台,其中,信息传输存在基于差异化传输条件的多元并行信道;
针对各个数据模态,搭建N个神经网络卷积通道,其中,各神经网络卷积通道内嵌有差异化数据处理算法;
基于所述N个神经网络卷积通道,执行所述初始信息库的预处理,确定预处理信息库;
结合多模态语言处理模型,对所述预处理信息库执行语种转换与模态特征分析,建立多模态数据关系网络,其中,所述多模态语言处理模型包括机器翻译区块、特征提取区块与模态关联区块;
执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习,生成一体化信息归类模块,所述一体化信息归类模块内嵌有具备时效更新性的目标信息体系;
配置信息归类更新策略与信息推理预测策略,结合所述一体化信息归类模块,执行基于所述目标信息体系的信息管理。
2.如权利要求1所述的方法,其特征在于,针对各个数据模态,搭建N个神经网络卷积通道,该方法包括:
读取第一数据模态,挖掘第一模态算法集;
训练基于所述第一模态算法集的多数据处理层,其中,所述多数据处理层与所述第一模态算法集一一对应;
层间关联所述多数据处理层,生成第一神经网络卷积通道;
完成第N数据模态的算法挖掘与通道训练,获取所述N个神经网络卷积通道。
3.如权利要求2所述的方法,其特征在于,执行所述初始信息库的预处理,该方法包括:
识别所述初始信息库,确定映射归属的目标数据模态;
遍历所述N个神经网络卷积通道,激活所述目标数据模态对应的目标神经网络卷积通道;
基于所述目标神经网络卷积通道,执行所述初始信息库的步进式层级处理,输出预处理信息库;
其中,执行所述初始信息库的步进式层级处理,还包括:
进行所述多数据处理层的预执行决策;
若所述初始信息库满足第一数据处理层的缺陷阈值,生成层级预处理指令;
若所述初始信息库不满足第一数据处理层的缺陷阈值,生成层级空轮指令。
4.如权利要求1所述的方法,其特征在于,对所述预处理信息库执行语种转换,该方法包括:
构建区域化语种差异库,建立所述区域化语种差异库与所述机器翻译区块的连接;
确定映射对应的多个语种转换序列,训练所述机器翻译区块,其中,各语种转换序列包括第一语种与第二语种;
遍历所述区域化语种差异库,对所述第一语种与所述第二语种进行区域特征匹配;
结合所述区域特征,于所述机器翻译区块中进行语种转换与模态转换处理。
5.如权利要求4所述的方法,其特征在于,执行模态特征分析,该方法包括:
结合所述特征提取区块,针对转换语种进行信息特征提取与映射关联,确定基于语种差异与模态差异的关联特征组;
结合所述模态关联区块,执行基于所述关联特征组的组内相关性分析与组间相关性分析,确定初始多模态数据关系网络;
对所述初始多模态数据关系网络执行实体消歧与共指消解,生成所述多模态数据关系网络。
6.如权利要求1所述的方法,其特征在于,执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习,该方法包括:
进行所述多模态数据关系网络与所述N个神经网络卷积通道的自适应匹配,确定多个融合节点,包括融合位置-融合区域;
针对所述多个融合节点,配置节点融合方式;
基于映射的所述多个融合节点与所述节点融合方式,执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习。
7.如权利要求1所述的方法,其特征在于,该方法包括:
配置泛化增量模块,并设定增量激活条件;
监测各功能构件的处理态势,判定是否满足所述增量激活条件,若满足,分析构件功能劣势;
将待优化功能构件迁移至所述泛化增量模块中,基于所述构件功能劣势进行已有功能优化与新增分支训练,生成优化功能构件;
对所述优化功能构件进行遣返。
8.一种基于卷积神经网络的信息归类***,其特征在于,用于实施权利要求1-7中任意一项所述的一种基于卷积神经网络的信息归类方法,所述***包括:
初始信息库获得模块,所述初始信息库获得模块用于基于接口端,读取接入云处理器中的初始信息库,所述初始信息库包括多域的本地源数据;
信息传输模块,所述信息传输模块用于将所述初始信息库传输至联邦中台,其中,信息传输存在基于差异化传输条件的多元并行信道;
神经网络卷积通道获得模块,所述神经网络卷积通道获得模块用于针对各个数据模态,搭建N个神经网络卷积通道,其中,各神经网络卷积通道内嵌有差异化数据处理算法;
预处理信息库获得模块,所述预处理信息库获得模块用于基于所述N个神经网络卷积通道,执行所述初始信息库的预处理,确定预处理信息库;
多模态数据关系网络建立模块,所述多模态数据关系网络建立模块用于结合多模态语言处理模型,对所述预处理信息库执行语种转换与模态特征分析,建立多模态数据关系网络,其中,所述多模态语言处理模型包括机器翻译区块、特征提取区块与模态关联区块;
融合学习模块,所述融合学习模块用于执行所述多模态数据关系网络与所述N个神经网络卷积通道的融合学习,生成一体化信息归类模块,所述一体化信息归类模块内嵌有具备时效更新性的目标信息体系;
信息管理模块,所述信息管理模块用于配置信息归类更新策略与信息推理预测策略,结合所述一体化信息归类模块,执行基于所述目标信息体系的信息管理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311532327.9A CN117273085B (zh) | 2023-11-17 | 2023-11-17 | 一种基于卷积神经网络的信息归类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311532327.9A CN117273085B (zh) | 2023-11-17 | 2023-11-17 | 一种基于卷积神经网络的信息归类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117273085A true CN117273085A (zh) | 2023-12-22 |
CN117273085B CN117273085B (zh) | 2024-03-01 |
Family
ID=89214608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311532327.9A Active CN117273085B (zh) | 2023-11-17 | 2023-11-17 | 一种基于卷积神经网络的信息归类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117273085B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070005363A1 (en) * | 2005-06-29 | 2007-01-04 | Microsoft Corporation | Location aware multi-modal multi-lingual device |
US20130304684A1 (en) * | 2012-05-10 | 2013-11-14 | Yan M. Yufik | Systems and methods for a computer understanding multi modal data streams |
CN108182441A (zh) * | 2017-12-29 | 2018-06-19 | 华中科技大学 | 平行多通道卷积神经网络、构建方法及图像特征提取方法 |
CN111488744A (zh) * | 2020-04-12 | 2020-08-04 | 北京花兰德科技咨询服务有限公司 | 多模态语言信息ai翻译方法、***和终端 |
CN112540682A (zh) * | 2020-11-30 | 2021-03-23 | 山东智慧译百信息技术有限公司 | 一基于机器翻译结果的智能翻译输入法 |
CN112926641A (zh) * | 2021-02-22 | 2021-06-08 | 山东大学 | 基于多模态数据的三阶段特征融合旋转机械故障诊断方法 |
CN116756690A (zh) * | 2023-06-24 | 2023-09-15 | 复旦大学 | 一种跨语言多模态信息融合方法及装置 |
-
2023
- 2023-11-17 CN CN202311532327.9A patent/CN117273085B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070005363A1 (en) * | 2005-06-29 | 2007-01-04 | Microsoft Corporation | Location aware multi-modal multi-lingual device |
US20130304684A1 (en) * | 2012-05-10 | 2013-11-14 | Yan M. Yufik | Systems and methods for a computer understanding multi modal data streams |
CN108182441A (zh) * | 2017-12-29 | 2018-06-19 | 华中科技大学 | 平行多通道卷积神经网络、构建方法及图像特征提取方法 |
CN111488744A (zh) * | 2020-04-12 | 2020-08-04 | 北京花兰德科技咨询服务有限公司 | 多模态语言信息ai翻译方法、***和终端 |
CN112540682A (zh) * | 2020-11-30 | 2021-03-23 | 山东智慧译百信息技术有限公司 | 一基于机器翻译结果的智能翻译输入法 |
CN112926641A (zh) * | 2021-02-22 | 2021-06-08 | 山东大学 | 基于多模态数据的三阶段特征融合旋转机械故障诊断方法 |
CN116756690A (zh) * | 2023-06-24 | 2023-09-15 | 复旦大学 | 一种跨语言多模态信息融合方法及装置 |
Non-Patent Citations (3)
Title |
---|
CAGLAYAN O ET AL: "Cross-lingual Visual Pre-training for Multimodal Machine Translation", 《COMPUTATION AND LANGUAGE》, pages 1 - 4 * |
孟先艳 等: "基于双向长短时记忆单元和卷积神经网络的多语种文本分类方法", 计算机应用研究, vol. 37, no. 9, pages 2669 - 2673 * |
赵勤博 等: "跨语种多模态信息分拣技术与应用", 《火力与指挥控制》, vol. 48, no. 10, pages 73 - 83 * |
Also Published As
Publication number | Publication date |
---|---|
CN117273085B (zh) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111651974B (zh) | 一种隐式篇章关系分析方法和*** | |
CN111324696B (zh) | 实体抽取方法、实体抽取模型的训练方法、装置及设备 | |
US11016740B2 (en) | Systems and methods for virtual programming by artificial intelligence | |
US20200341755A1 (en) | Automatic identification of appropriate code reviewers using machine learning | |
CN113065358B (zh) | 面向银行咨询服务基于多粒度对齐的文本对语义匹配方法 | |
CN112883193A (zh) | 一种文本分类模型的训练方法、装置、设备以及可读介质 | |
US20220100772A1 (en) | Context-sensitive linking of entities to private databases | |
CN114385178A (zh) | 基于抽象语法树结构信息增强的代码生成方法 | |
CN113886571A (zh) | 实体识别方法、装置、电子设备及计算机可读存储介质 | |
US20220100967A1 (en) | Lifecycle management for customized natural language processing | |
CN114327483A (zh) | 图张量神经网络模型建立方法及源代码语义识别方法 | |
CN113920379B (zh) | 一种基于知识辅助的零样本图像分类方法 | |
Zhang et al. | Joint model of entity recognition and relation extraction based on artificial neural network | |
JP2020135689A (ja) | モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム | |
CN114757210A (zh) | 翻译模型的训练方法、语句翻译方法、装置、设备、程序 | |
CN116974626B (zh) | 分析序列图生成方法、装置、设备和计算机可读存储介质 | |
CN117273085B (zh) | 一种基于卷积神经网络的信息归类方法 | |
CN116861269A (zh) | 工程领域的多源异构数据融合及分析方法 | |
CN116644180A (zh) | 文本匹配模型的训练方法、训练***和文本标签确定方法 | |
CN112417869B (zh) | 一种产品模型描述对比方法及*** | |
CN114925681A (zh) | 知识图谱问答问句实体链接方法、装置、设备及介质 | |
Xu | Research on neural network machine translation model based on entity tagging improvement | |
CN114386436A (zh) | 文本数据的分析方法、模型训练方法、装置及计算机设备 | |
CN113988083A (zh) | 一种用于航运新闻摘要生成的事实性信息编码与评估方法 | |
Eisenstadt et al. | Autocompletion of Design Data in Semantic Building Models using Link Prediction and Graph Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |