CN101930561A - 一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置 - Google Patents
一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置 Download PDFInfo
- Publication number
- CN101930561A CN101930561A CN2010101799954A CN201010179995A CN101930561A CN 101930561 A CN101930561 A CN 101930561A CN 2010101799954 A CN2010101799954 A CN 2010101799954A CN 201010179995 A CN201010179995 A CN 201010179995A CN 101930561 A CN101930561 A CN 101930561A
- Authority
- CN
- China
- Prior art keywords
- neural network
- word
- gram
- document
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Information Transfer Between Computers (AREA)
Abstract
本发明涉及文本处理技术领域,是一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置。利用N-Gram技术对邮件分词加上自定义词语特征项并结合反向神经网络实现对垃圾邮件的判断和过滤。所述装置包括:首先,利用Markov链和N-Gram技术处理邮件,提取出邮件样本特征,经过权重计算和特征选择得到样本邮件词语-文档空间;其次,用自定义的词语特征项匹配邮件样本,生成自定义特征-文档空间,将两种方法生成的文档特征合并生成新的邮件向量空间;再次,构造反向神经网络模型,根据邮件训练样本空间的特征项生成与网络神经元对应的特征向量,并用邮件训练样本向量空间训练网络模型,得到训练好的邮件分类器;最后,邮件测试样本根据上面生成的神经元对应特征向量生成测试样本向量空间,并测试训练好的邮件分类器对邮件类别判断的准确率。使用本发明提供的实施例可以对垃圾邮件进行判断,从而过滤垃圾邮件。
Description
技术领域
本发明涉及互联网技术,具体涉及一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置。
背景技术
随着互联网的广泛应用,电子邮件以其快速简单廉价的优点受到人们的青睐,成为一种高效的大众传播媒介。与此同时,大量无用邮件涌入人们的邮箱,给他们的学习和生活带来灾难。垃圾邮件是用户最讨厌的,因为他们浪费了用户的时间,金钱,以及网络带宽,同时,弄乱用户的邮箱,有些邮件甚至是有害的,如包含色情内容或病毒等的。据有关研究报告,全世界电子邮件中每天有超过10%都是垃圾邮件。因此,找到一种有效拦截过滤垃圾邮件的方法是很有必要的。
反垃圾邮件技术上可以分成两类:“根源阻断”和“存在发现”。“根源阻断”是指通过防止垃圾邮件的产生来减少垃圾邮件。目前,主流的反垃圾邮件技术是“存在发现”,即对已经产生的垃圾邮件进行过滤。反垃圾邮件的发现可以通过邮件的内容特征或者其它特征(如行为特征)来实现,其中基于内容的垃圾邮件过滤技术是研究的重点。
使用神经网络来进行垃圾邮件过滤是具有其自身优势的。这是因为:首先,垃圾邮件的过滤最核心的步骤是对用户所接收到的邮件进行区分,把它们分成垃圾邮件和非垃圾邮件两大类,这一过程从本质上来说就是一个分类过程,而分类正是神经网络的一个主要应用方向;其次,神经网络的智能化和自适应性使网络能随邮件内容的变化进行自我学习,且具有很强的泛化能力,使其能实现对垃圾邮件的有效过滤。使用神经网络去进行分类,用户只要根据自身情况对一系列邮件是否为垃圾邮件给出期望判断结果,剩余的工作即可由神经网络自动完成,定制出符合要求的邮件过滤器。
发明内容
本发明实施例的目的是提供一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置。使用基于N-Gram分词模型的反向神经网络垃圾邮件过滤技术能够很好的判断、过滤垃圾邮件。为了解决现有技术存在的问题,本发明的实施方式提出了一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置,该装置包括:
(1)邮件分词;
(2)词语-文档空间生成,;
(3)自定义特征-文档空间生成;
(4)反向神经网络模型构造;
(5)测试邮件向量空间生成;
(6)测试邮件的判断、过滤。
从本发明实施例提供的以上技术方案可以看出,本发明实施例利用Markov链和N-gram分词法则对邮件样本进行分词,绕过了中文分词技术;增加了自定义特征项,与分词生成的特征组合,使邮件特征描述更为完善;利用反向神经网络具有智能型和自学习性的特点,能更有效地对邮件进行判断、过滤。
附图说明
图1为本发明词语-文档空间生成示意图;
图2为本发明自定义特征-文档空间生成示意图;
图3为本发明反向神经网络过滤器训练测试流程图。
具体实施方式
为使本发明的目的、技术方案、及优点更加清楚明白,以下参照附图并举实施例,对本发明进一步详细说明。
如图1所示,本发明词语-文档空间生成示意图,它的具体流程包括:
步骤101、样本邮件N-Gram分词
邮件内容分词分为中文邮件分词和英文邮件分词。在英文的行文中,词与词之间以空格作为自然分界符,以标点符号作为语义分界符,所以英文分词的处理过程相对简单:对英文邮件正文去掉标点符号后直接从头开始扫描,两个空格之间认定为一个单词,一次扫描到正文结尾便可以得到此封英文邮件的单词列表。相对于英文分词,中文分词则要困难许多,因为中文中词与词之间没有明确的分界符。由于中文分词技术的不成熟,而且还需要庞大的词典库的支持,为了绕过中文分词技术,本发明采用Markov链和N-Gram技术对邮件取特征项,采用单个(Uni-gram)、两个(Bio-gram)、三个(Tri-gram)和四个(Quad-gram)四种取词方法,实现邮件文本的切分,得到邮件样本词语列表。
步骤102、词语-文档矩阵权重赋值
将整个文本邮件样本集合看成一个矩阵,包含n个文档,用到了m个词语,构造“词语—文档矩阵”Wm×n=[wij]=(doc1,doc2,...,docn)=(t1,t2,...,tm),矩阵分为行和列,文本邮件训练集合中的所有出现的词语对应ti,文档邮件集中的每一份邮件对应docj,其中wij表示词语i在文档j中出现的频数,有时wij还加入了权重,这样就生成了词语—文档矩阵。给每个项赋权重时,考虑文本中越重要的项权重越大,采用一种比较普遍的方法,也就是用文本的统计信息(词频、词之间的同现频率等)来计算项的权重,TF-IDF函数计算特征值的权重,其公式如:wi(d)=tfi(d)·idf(d),其中,tfi(d)(Term Frequency)表示项ti在doc中的出现频率,idf(d)(Inverse Document Frequency)表示项ti的逆向文档频率,该函数有多种计算方法,目前常用的为:wi(d)=tfi(d)×log(N/ni+0.01),这里,N为训练文本的总数,ni为训练文本集中出现t的文本数。根据香农信息学理论,如果项在所有文本中出现的频率越高,那么它所包含的信息嫡就越少;如果项的出现较为集中,只在少量文本中有较高的出现频率,那么它就会拥有较高的信息嫡。上述公式就是基于这个思想的一种实现。
步骤103、特征项选择
考虑到偶尔出现的字或组合对分类没有很大帮助,而且N-Gram方法会造成巨大的维数空间,随着特征项的数量增加,学习算法的复杂度会增加,学习的时间也会显著增加。在文本的过滤与分类中,还存在过拟合问题,即过多的特征项数量会对学习算法的能力产生负面影响,降低学习算法的分类精确度。对此,可采用zipf法则来提取特征项,降低向量空间的维数。由作为词素形态的字计算N-Gram的发生频率,可以把适当的频率值取做门限,而并不影响使用N-Gram方法统计分类文档。根据这种思路,把出现频次少于门限值的单元的频次清除为0,根据观察,消除发生次数在3以内的字或组合可以有效的达到降维的目的而并不影响分类质量,因此本方案给出的建议门限值为3,专利用户也可以根据实际测试效果适当调整该参数。
步骤104、词语-文档空间生成
通过步骤103的特征选择,剔除了邮件训练样本中出现频率较低的词语,将剩下的词语作为特征项,遍历邮件训练样本生成词语-文档向量空间。
如图2所示,本发明自定义特征-文档空间生成示意图,它的具体流程包括:
步骤201、自定义词语特征生成
上面分词生成的词语通过特征选择会剔除一部分出现频率较低、对表现文本性质无用的词语,但是可能一些能很好的表现邮件的性质的词语因为仅在单封或几封邮件中出现也被剔除了,为了避免这种情况的发生,本发明通过引入用户自定义特征来弥补自动分词方法可能造成的信息损失,方法是根据用户经验的累积,定期更新***关键字词汇表,将自定义词语写成一个词语特征列表,利用自定义词语作为邮件的有效词语表来对邮件进行特征匹配。
步骤202、邮件预处理
用上面的自定义词语特征对邮件进行预处理,依次读取存放在ham和spam文件夹下的邮件样本,同时读取词语特征列表进行匹配,若邮件有击中某个词语特征,则将词语特征名写入邮件日志文件中。日志文件参数如下:第一个参数为邮件类别,spam文件夹下的文件即标记为1,ham文件夹下的文件即标记为0;后面即为邮件击中的所有词语特征名,以逗号间隔。
步骤203、自定义邮件向量空间生成
读取词语特征列表写入数组,对词语特征按词语特征名字母排序,生成新数组,同时对词语特征和其所在位置生成一个一一对应的关系,即知道词语特征名可知其在数组中的位置,给出数字即可知道该位置上是哪个词语特征。
读入邮件原始信息,根据特征词汇表遍历每封邮件进行模式匹配,对每行的词语特征同样按字母排序。对每行邮件样本列表,按行将邮件标记位写入邮件期望值向量,其标记0和1分别表示正常邮件和垃圾邮件类别;同时对照上面生成的词语特征集数组,若邮件有击中某个词语特征,则在其对应的数组位置写入1,其余位置写0,这样得到了自定义特征-文档空间,行向量表示一封邮件,列向量表示自定义词语特征。如图3所示,本发明反向神经网络过滤器训练测试流程图,它的具体流程包括:
步骤301、邮件训练样本向量空间生成
读入邮件训练样本,如上面描述的分别得到词语-文档空间和自定义特征-文档空间,这里不再阐述。将两种方法得到的特征组合作为邮件训练样本的全部特征生成一个新的邮件向量空间。
步骤302、神经元对应特征向量生成
邮件训练样本向量空间中,每一个关键词语与反向神经网络一个输入神经元关联,每一个文档与一个输出神经元相关联,一个查询通过激活与期望的关键词对应的神经元而进入该神经网络,而后神经网络计算输出信号,那些所激活的输出神经元就是与所期望得到的文档相关联。因此,这里需要输出神经网络输入神经元对应特征向量,以便测试邮件样本匹配生成向量空间。
步骤303、反向神经网络模型构造
BP(Back Propagation)网络模型即误差反向传播神经网络,是神经网络模型中使用最广泛的一类。从结构上讲,BP网络是一种多层前向网络,分为输入层,隐层和输出层。层与层之间采用全连接方式,同层节点之间没有任何耦合。
对于输入信息,要先前向传播到隐含层的节点上,经过各单元的激活函数(又称作用函数、转换函数或映射函数等)运算后,把隐含节点的输出信息传播到输出接点,给出网络输出结果。网络的学习过程由信号的正向传播和误差的反向传播两个过程组成。在正向传播时,输入样本从输入层传入,经各隐层逐层处理后,传向输出层,每层的神经元的状态只影响到下一层神经网络,如果输出层的实际输出与期望的输出不符,则转入误差的反向传播阶段;将输出误差沿原来的连接通路逐层反传,将误差分摊给各层的所有神经元,获得各层单元的误差信号,此误差信号即作为修正各单元权值的依据,通过修改各层神经元的权值,逐次地向输入层传播去进行计算,再经过正向传播过程,这两个过程反复运用,一直进行到网络输出的误差减少到用户可接受的程度,或进行到预先设定的学习次数为止,网络的学习训练过程就结束。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。
BP神经网络包括节点输出、作用函数、误差计算和自学习四种模型,输入向量为X=(x1,x2,...,xi,...,xn)T,分析各层信号之间的数学关系。
(1)对于节点输出有:
隐节点输出:Oj=f(∑Wij×Xi-θj) (1)
输出节点输出:Yk=f(∑Vjk×Oj-θk) (2)
其中f为非线形作用函数;θ为神经单元阈值;W为输入层到隐层之间的权值矩阵,V为隐层到输出层之间的权值矩阵。
(2)对于作用函数有:
作用函数是反映下层输入对上层节点刺激脉冲强度的函数又称变换函数,一般取为(0,1)内连续取值单极性Sigmoid函数:
f(x)=1/(1+e-x) (3)
(3)对于误差计算函数有:
当神经网络期望输出与计算输出不等时,存在输出误差函数E:
E=1/2×∑(ti-Oi)2 (4)
其中,ti表示节点i的期望输出值;Oi表示节点i的计算输出值。网络误差展开至隐层和输入层时是各层权值W、T的函数,因此调整权值可改变误差E。调整权值的原则是使误差不断地减小,因此应使权值的调整量与误差的梯度下降成正比,BP算法又被称为误差的梯度下降算法。
(4)对于自学习过程有:
神经网络的学习过程,即连接下层节点和上层节点之间的权重矩阵W的设定和误差修正过程。三层前馈网的BP学习算法各层权值调整公式如下:
对于输出层,Y本层输入信号,δo为输出层误差信号,η为学习率,则
ΔV=ηδoY (5)
对于隐层,X为本层输入信号,δy为隐层输出的误差信号,η为学习率,则
ΔW=ηδyX (6)
其中输入层误差信号与网络的期望输出与实际输出之差有关,直接反映了输出误差,而隐层的误差信号是从输入层反传过来的。
通过步骤301的邮件处理,我们得到邮件训练样本向量空间,列向量为对应文档,行向量为文档的特征项。BP网络的输入节点对应邮件训练样本的特征项,对每一封邮件训练样本我们都有期望输出,0为正常邮件,1为垃圾邮件。创建一个三层BP神经网络,分别为输入层、一个隐含层、输出层。输入层节点个数与数据处理得到的矩阵行向量个数相同,输出节点个数为1个。BP神经网络隐含层神经元的数目对网络性能有很大影响,需要不断调试才能确定,根据Kolmogorov’s原理,隐含层节点初始数目可以在8到20之间选取,最佳数目需要通过实验的误差比较来确定。因网络输出函数要求要在[0,1]之间,选定tansig()和logsig()分别为隐含层和输出层神经元传递函数,设定期望误差最小值为0.001,网路在训练过程中只要误差小于这个值就认为网络训练已经达到要求,设定最大循环次数为1000,以防网络训练的误差值在很久一段时间内不能小于预先设定的误差值而造成训练时间过久或不收敛,在训练过程中会根据网络收敛情况对这些训练参数做适当调整,以满足网络拟合要求。
步骤304、训练好的神经网络
将邮件样本数据,即包含期望输出结果的输入数据输入到网络中,计算相应的输出,然后根据期望的输出来进行网络中权值、阈值的修正,直到输出与期望输出的误差达到我们的要求为止,这时我们得到构造好的邮件过滤器,并将训练好的权值等参数储存到文件中。
步骤305、邮件测试样本向量空间生成
根据步骤302生成的特征向量,读取邮件测试样本对特征向量进行匹配,若测试邮件有击中某个特征向量,则在特征向量相应位置写1,否则写0,这样生成了邮件测试样本向量空间,其行向量为文档特征项,列向量为对应文档,且特征项与神经网络输入节点一一对应。
步骤306、测试邮件判断、过滤
神经网络的运行方法分为训练和测试。网络的训练是网络的学习过程,运行是给训练好的网络输入数据,得到输出结果,用于评价已经训练好的网络的性能。同样对每一封测试邮件我们都有期望输出,0为感兴趣的邮件;1为垃圾邮件。读取测试邮件向量空间矩阵输入神经网络模型,运算输出结果,规定输出小于0.5分类为0,即正常邮件,大于0.5分类为1,即垃圾邮件,将计算输出结果与期望输出比较,一致则表示邮件判断正确,否则即为判断错误,由此可知网络对邮件的判断性能。
以上对本发明实施例一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置进行了详细介绍,以上实施例的说明只是用于帮助理解本发明的方法及其思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (7)
1.一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置,其特征在于,包括步骤:
邮件分词;
词语-文档空间生成;
自定义特征-文档空间生成;
反向神经网络模型构造;
测试邮件向量空间生成;
测试邮件的判断、过滤。
2.如权利要求1所述的一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置,其特征在于,所述邮件分词包括:
邮件内容分词分为中文邮件分词和英文邮件分词,在英文的行文中,词与词之间以空格作为自然分界符,以标点符号作为语义分界符,对英文邮件正文去标点符号后直接从头开始扫描,两个空格之间认定为一个单词,一次扫描到正文结尾便可以得到此封邮件的单词列表;而中文中词与词之间没有明确的分界符,且中文分词技术不成熟,需要庞大的词库支持,为了绕过中文分词技术,本发明采用Markov链和N-Gram技术提取词语特征,得到邮件词语列表。
3.如权利要求1所述的一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置,其特征在于,所述词语-文档空间生成包括:
将整个文本邮件样本集合看成一个矩阵,所使用的文本邮件样本集合中的所有出现的词语对应ti,文档邮件集中的每一份邮件对应docj,这样就生成了词语-文档矩阵Wm×n=[wij]=(doc1,doc2,...,docn)=(t1,t2,..,tm),其中wij表示词语i在文档j中出现的频数,有时wij还加入了权重;给每个项赋权重时,考虑文本中越重要的项权重越大,采用TF-IDF函数计算特征值的权值,考虑到N-Gram方法会造成巨大的维数空间,影响学习算法的分类精确度,采用zipf法则来提取特征项,降低向量空间的维数。
4.如权利要求1所述的一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置,其特征在于,所述自定义特征-文档空间生成包括:
用上面的方法提取的文本特征,可能在特征选择时某些能很好的表现邮件性质的词语被剔除了,无法完全表现文档的特性,因此本发明增加了自定义词语特征项,作为邮件的有效词语表来对邮件样本集合进行匹配,将邮件按照特征词表,转换为对应的特征向量,即用1和0分别表示某个特征词在邮件中出现和没有出现,得到的自定义特征向量,作为附加邮件特征,和权力要求3所述的词语-文档矩阵进行特征组合生成新的邮件向量空间。
5.如权利要求1所述的一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置,其特征在于,所述神经网络模型构造包括:
创建一个三层BP神经网络,分别为输入层、一个隐含层、输出层,输入层节点个数与数据处理得到的邮件样本特征数个数相同,输出节点个数为1个,隐含层节点数目对网络性能有很大影响,最佳数目需要通过实验比较不断调试来确定;生成和网络神经元对应的邮件特征向量;设置网络模型初始学习函数、训练函数和训练参数等;将邮件样本数据,即包含期望输出结果的输入数据(垃圾邮件期望值为1,正常邮件期望值为0)输入到网络中,计算相应的输出,然后根据期望的输出来进行网络中权值、阈值的修正,直到输出与期望输出的误差达到我们的要求为止,这时我们得到构造好的神经网络邮件过滤器,并将训练好的权值储存到文件中。
6.如权利要求1所述的一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置,其特征在于,所述测试邮件向量空间生成包括:
邮件测试样本根据权利要求5中生成的网络神经元对应特征向量进行匹配,将邮件按照特征词表,转换为对应的特征向量,即用1和0分别表示某个特征词在邮件中出现和没有出现,生成测试邮件向量空间。
7.如权利要求1所述的一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置,其特征在于,所述对测试邮件进行判断、过滤包括:
读取测试邮件向量矩阵输入神经网络模型,运算输出结果,规定输出小于0.5分类为0,即正常邮件,大于0.5分类为1,即垃圾邮件,将计算输出结果与期望输出比较,一致则表示邮件判断正确,否则即为判断错误。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010101799954A CN101930561A (zh) | 2010-05-21 | 2010-05-21 | 一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010101799954A CN101930561A (zh) | 2010-05-21 | 2010-05-21 | 一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101930561A true CN101930561A (zh) | 2010-12-29 |
Family
ID=43369723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010101799954A Pending CN101930561A (zh) | 2010-05-21 | 2010-05-21 | 一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101930561A (zh) |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020167A (zh) * | 2012-11-26 | 2013-04-03 | 南京大学 | 一种计算机中文文本分类方法 |
CN103123634A (zh) * | 2011-11-21 | 2013-05-29 | 北京百度网讯科技有限公司 | 一种版权资源识别方法及装置 |
CN103186845A (zh) * | 2011-12-29 | 2013-07-03 | 盈世信息科技(北京)有限公司 | 一种垃圾邮件过滤方法 |
CN104050556A (zh) * | 2014-05-27 | 2014-09-17 | 哈尔滨理工大学 | 一种垃圾邮件的特征选择方法及其检测方法 |
CN105574538A (zh) * | 2015-12-10 | 2016-05-11 | 小米科技有限责任公司 | 分类模型训练方法及装置 |
CN106528530A (zh) * | 2016-10-24 | 2017-03-22 | 北京光年无限科技有限公司 | 一种确定句子类型的方法及装置 |
CN107273357A (zh) * | 2017-06-14 | 2017-10-20 | 北京百度网讯科技有限公司 | 基于人工智能的分词模型的修正方法、装置、设备和介质 |
CN108021806A (zh) * | 2017-11-24 | 2018-05-11 | 北京奇虎科技有限公司 | 一种恶意安装包的识别方法和装置 |
CN108647206A (zh) * | 2018-05-04 | 2018-10-12 | 重庆邮电大学 | 基于混沌粒子群优化cnn网络的中文垃圾邮件识别方法 |
CN108694202A (zh) * | 2017-04-10 | 2018-10-23 | 上海交通大学 | 基于分类算法的可配置垃圾邮件过滤***及过滤方法 |
CN108897894A (zh) * | 2018-07-12 | 2018-11-27 | 电子科技大学 | 一种问题生成方法 |
CN109213988A (zh) * | 2017-06-29 | 2019-01-15 | 武汉斗鱼网络科技有限公司 | 基于N-gram模型的弹幕主题提取方法、介质、设备及*** |
CN109564636A (zh) * | 2016-05-31 | 2019-04-02 | 微软技术许可有限责任公司 | 使用一个神经网络来训练另一个神经网络 |
CN109657231A (zh) * | 2018-11-09 | 2019-04-19 | 广东电网有限责任公司 | 一种长短信精简方法及*** |
CN109783603A (zh) * | 2018-12-13 | 2019-05-21 | 平安科技(深圳)有限公司 | 基于自编码神经网络的文本生成方法、装置、终端及介质 |
CN109800852A (zh) * | 2018-11-29 | 2019-05-24 | 电子科技大学 | 一种多模态的垃圾邮件识别方法 |
CN110532562A (zh) * | 2019-08-30 | 2019-12-03 | 联想(北京)有限公司 | 神经网络训练方法、成语误用检测方法、装置和电子设备 |
CN110705289A (zh) * | 2019-09-29 | 2020-01-17 | 重庆邮电大学 | 一种基于神经网络和模糊推理的中文分词方法、***及介质 |
CN111353588A (zh) * | 2016-01-20 | 2020-06-30 | 中科寒武纪科技股份有限公司 | 用于执行人工神经网络反向训练的装置和方法 |
CN111428487A (zh) * | 2020-02-27 | 2020-07-17 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、歌词生成方法、装置、电子设备及介质 |
CN111563143A (zh) * | 2020-07-20 | 2020-08-21 | 上海二三四五网络科技有限公司 | 一种新词的确定方法及装置 |
CN112771523A (zh) * | 2018-08-14 | 2021-05-07 | 北京嘀嘀无限科技发展有限公司 | 用于检测生成域的***和方法 |
CN113111167A (zh) * | 2020-02-13 | 2021-07-13 | 北京明亿科技有限公司 | 基于深度学习模型的接处警文本车辆型号提取方法和装置 |
CN113111168A (zh) * | 2020-02-13 | 2021-07-13 | 北京明亿科技有限公司 | 基于深度学习模型接处警文本户籍地信息提取方法和装置 |
CN113111164A (zh) * | 2020-02-13 | 2021-07-13 | 北京明亿科技有限公司 | 基于深度学习模型接处警文本居住地信息提取方法和装置 |
CN113343229A (zh) * | 2021-06-30 | 2021-09-03 | 重庆广播电视大学重庆工商职业学院 | 一种基于人工智能的网络安全防护***及方法 |
-
2010
- 2010-05-21 CN CN2010101799954A patent/CN101930561A/zh active Pending
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103123634A (zh) * | 2011-11-21 | 2013-05-29 | 北京百度网讯科技有限公司 | 一种版权资源识别方法及装置 |
CN103123634B (zh) * | 2011-11-21 | 2016-04-27 | 北京百度网讯科技有限公司 | 一种版权资源识别方法及装置 |
CN103186845A (zh) * | 2011-12-29 | 2013-07-03 | 盈世信息科技(北京)有限公司 | 一种垃圾邮件过滤方法 |
CN103186845B (zh) * | 2011-12-29 | 2016-06-08 | 盈世信息科技(北京)有限公司 | 一种垃圾邮件过滤方法 |
CN103020167A (zh) * | 2012-11-26 | 2013-04-03 | 南京大学 | 一种计算机中文文本分类方法 |
CN103020167B (zh) * | 2012-11-26 | 2016-09-28 | 南京大学 | 一种计算机中文文本分类方法 |
CN104050556A (zh) * | 2014-05-27 | 2014-09-17 | 哈尔滨理工大学 | 一种垃圾邮件的特征选择方法及其检测方法 |
CN104050556B (zh) * | 2014-05-27 | 2017-06-16 | 哈尔滨理工大学 | 一种垃圾邮件的特征选择方法及其检测方法 |
CN105574538A (zh) * | 2015-12-10 | 2016-05-11 | 小米科技有限责任公司 | 分类模型训练方法及装置 |
CN105574538B (zh) * | 2015-12-10 | 2020-03-17 | 小米科技有限责任公司 | 分类模型训练方法及装置 |
CN111353588B (zh) * | 2016-01-20 | 2024-03-05 | 中科寒武纪科技股份有限公司 | 用于执行人工神经网络反向训练的装置和方法 |
CN111353588A (zh) * | 2016-01-20 | 2020-06-30 | 中科寒武纪科技股份有限公司 | 用于执行人工神经网络反向训练的装置和方法 |
CN109564636B (zh) * | 2016-05-31 | 2023-05-02 | 微软技术许可有限责任公司 | 使用一个神经网络来训练另一个神经网络 |
CN109564636A (zh) * | 2016-05-31 | 2019-04-02 | 微软技术许可有限责任公司 | 使用一个神经网络来训练另一个神经网络 |
CN106528530A (zh) * | 2016-10-24 | 2017-03-22 | 北京光年无限科技有限公司 | 一种确定句子类型的方法及装置 |
CN108694202A (zh) * | 2017-04-10 | 2018-10-23 | 上海交通大学 | 基于分类算法的可配置垃圾邮件过滤***及过滤方法 |
US10664659B2 (en) | 2017-06-14 | 2020-05-26 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method for modifying segmentation model based on artificial intelligence, device and storage medium |
CN107273357B (zh) * | 2017-06-14 | 2020-11-10 | 北京百度网讯科技有限公司 | 基于人工智能的分词模型的修正方法、装置、设备和介质 |
CN107273357A (zh) * | 2017-06-14 | 2017-10-20 | 北京百度网讯科技有限公司 | 基于人工智能的分词模型的修正方法、装置、设备和介质 |
CN109213988A (zh) * | 2017-06-29 | 2019-01-15 | 武汉斗鱼网络科技有限公司 | 基于N-gram模型的弹幕主题提取方法、介质、设备及*** |
CN109213988B (zh) * | 2017-06-29 | 2022-06-21 | 武汉斗鱼网络科技有限公司 | 基于N-gram模型的弹幕主题提取方法、介质、设备及*** |
CN108021806B (zh) * | 2017-11-24 | 2021-10-22 | 北京奇虎科技有限公司 | 一种恶意安装包的识别方法和装置 |
CN108021806A (zh) * | 2017-11-24 | 2018-05-11 | 北京奇虎科技有限公司 | 一种恶意安装包的识别方法和装置 |
CN108647206B (zh) * | 2018-05-04 | 2021-11-12 | 重庆邮电大学 | 基于混沌粒子群优化cnn网络的中文垃圾邮件识别方法 |
CN108647206A (zh) * | 2018-05-04 | 2018-10-12 | 重庆邮电大学 | 基于混沌粒子群优化cnn网络的中文垃圾邮件识别方法 |
CN108897894A (zh) * | 2018-07-12 | 2018-11-27 | 电子科技大学 | 一种问题生成方法 |
CN112771523A (zh) * | 2018-08-14 | 2021-05-07 | 北京嘀嘀无限科技发展有限公司 | 用于检测生成域的***和方法 |
CN109657231A (zh) * | 2018-11-09 | 2019-04-19 | 广东电网有限责任公司 | 一种长短信精简方法及*** |
CN109800852A (zh) * | 2018-11-29 | 2019-05-24 | 电子科技大学 | 一种多模态的垃圾邮件识别方法 |
CN109783603B (zh) * | 2018-12-13 | 2023-05-26 | 平安科技(深圳)有限公司 | 基于自编码神经网络的文本生成方法、装置、终端及介质 |
CN109783603A (zh) * | 2018-12-13 | 2019-05-21 | 平安科技(深圳)有限公司 | 基于自编码神经网络的文本生成方法、装置、终端及介质 |
CN110532562A (zh) * | 2019-08-30 | 2019-12-03 | 联想(北京)有限公司 | 神经网络训练方法、成语误用检测方法、装置和电子设备 |
CN110532562B (zh) * | 2019-08-30 | 2021-07-16 | 联想(北京)有限公司 | 神经网络训练方法、成语误用检测方法、装置和电子设备 |
CN110705289A (zh) * | 2019-09-29 | 2020-01-17 | 重庆邮电大学 | 一种基于神经网络和模糊推理的中文分词方法、***及介质 |
CN113111164A (zh) * | 2020-02-13 | 2021-07-13 | 北京明亿科技有限公司 | 基于深度学习模型接处警文本居住地信息提取方法和装置 |
CN113111168A (zh) * | 2020-02-13 | 2021-07-13 | 北京明亿科技有限公司 | 基于深度学习模型接处警文本户籍地信息提取方法和装置 |
CN113111167A (zh) * | 2020-02-13 | 2021-07-13 | 北京明亿科技有限公司 | 基于深度学习模型的接处警文本车辆型号提取方法和装置 |
CN113111167B (zh) * | 2020-02-13 | 2024-07-19 | 北京明亿科技有限公司 | 基于深度学习模型的接处警文本车辆型号提取方法和装置 |
CN111428487B (zh) * | 2020-02-27 | 2023-04-07 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、歌词生成方法、装置、电子设备及介质 |
CN111428487A (zh) * | 2020-02-27 | 2020-07-17 | 支付宝(杭州)信息技术有限公司 | 模型训练方法、歌词生成方法、装置、电子设备及介质 |
CN111563143A (zh) * | 2020-07-20 | 2020-08-21 | 上海二三四五网络科技有限公司 | 一种新词的确定方法及装置 |
CN113343229A (zh) * | 2021-06-30 | 2021-09-03 | 重庆广播电视大学重庆工商职业学院 | 一种基于人工智能的网络安全防护***及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101930561A (zh) | 一种基于N-Gram分词模型的反向神经网络垃圾邮件过滤装置 | |
Vateekul et al. | A study of sentiment analysis using deep learning techniques on Thai Twitter data | |
CN109670039B (zh) | 基于三部图和聚类分析的半监督电商评论情感分析方法 | |
CN110222163B (zh) | 一种融合cnn与双向lstm的智能问答方法及*** | |
CN107025284A (zh) | 网络评论文本情感倾向的识别方法及卷积神经网络模型 | |
CN109145112A (zh) | 一种基于全局信息注意力机制的商品评论分类方法 | |
CN109977416A (zh) | 一种多层次自然语言反垃圾文本方法及*** | |
CN106844632B (zh) | 基于改进支持向量机的产品评论情感分类方法及装置 | |
CN110083700A (zh) | 一种基于卷积神经网络的企业舆情情感分类方法及*** | |
CN107092596A (zh) | 基于attention CNNs和CCR的文本情感分析方法 | |
CN108388554B (zh) | 基于协同过滤注意力机制的文本情感识别*** | |
CN107247702A (zh) | 一种文本情感分析处理方法和*** | |
CN108319666A (zh) | 一种基于多模态舆情分析的供电服务评估方法 | |
CN112364638B (zh) | 一种基于社交文本的人格识别方法 | |
CN109471946B (zh) | 一种中文文本的分类方法及*** | |
CN107944014A (zh) | 一种基于深度学习的中文文本情感分析方法 | |
CN107451278A (zh) | 基于多隐层极限学习机的中文文本分类方法 | |
CN111680160A (zh) | 一种用于文本情感分类的深度迁移学习方法 | |
CN111339754A (zh) | 基于案件要素句子关联图卷积的案件舆情摘要生成方法 | |
CN107688576B (zh) | 一种cnn-svm模型的构建及倾向性分类方法 | |
CN111552803A (zh) | 一种基于图小波网络模型的文本分类方法 | |
CN106096005A (zh) | 一种基于深度学习的垃圾邮件过滤方法及*** | |
Shanmugavadivel et al. | An analysis of machine learning models for sentiment analysis of Tamil code-mixed data | |
CN111078833A (zh) | 一种基于神经网络的文本分类方法 | |
CN108573068A (zh) | 一种基于深度学习的文本表示与分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20101229 |