CN103970729B - 一种基于语义类的多主题提取方法 - Google Patents
一种基于语义类的多主题提取方法 Download PDFInfo
- Publication number
- CN103970729B CN103970729B CN201410178218.6A CN201410178218A CN103970729B CN 103970729 B CN103970729 B CN 103970729B CN 201410178218 A CN201410178218 A CN 201410178218A CN 103970729 B CN103970729 B CN 103970729B
- Authority
- CN
- China
- Prior art keywords
- concept
- semantic category
- semantic
- text
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 239000013598 vector Substances 0.000 claims abstract description 62
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 42
- 230000007547 defect Effects 0.000 claims abstract description 6
- 239000000203 mixture Substances 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 18
- 230000006872 improvement Effects 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 9
- 238000003064 k means clustering Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000005192 partition Methods 0.000 claims description 4
- 206010008190 Cerebrovascular accident Diseases 0.000 claims description 3
- 208000006011 Stroke Diseases 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims 1
- 238000004064 recycling Methods 0.000 abstract description 3
- 230000035945 sensitivity Effects 0.000 abstract description 3
- 238000000605 extraction Methods 0.000 description 9
- 238000004821 distillation Methods 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 241000196324 Embryophyta Species 0.000 description 3
- 241000208340 Araliaceae Species 0.000 description 2
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 2
- 235000003140 Panax quinquefolius Nutrition 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 235000008434 ginseng Nutrition 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003447 ipsilateral effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种基于语义类的多主题提取方法,包含以下步骤:首先使用传统方法对文档进行预处理后初步得到由特征词组成的向量;其次利用《知网》词义与概念间的对应关系对同义词进行归并,根据语义类与上下文语境的相关性对多义词进行排歧,构造概念向量模型表示该文档;接着根据概念与语义类的一一对应关系,把概念模型转换成语义类模型;再利用《知网》中概念的相关语义信息计算概念相似度进而得到语义类相似度,通过“预设种子”的方法改进K‑means算法对语义类进行聚类,形成多个主题语义类簇;最后根据语义类与概念及概念与词的对应关系,逆向得到多个子主题词集。该方法考虑了语义信息,克服K‑means算法对初始中心的敏感性和时空开销不稳定等缺陷,提高了提取主题的质量。
Description
技术领域
本发明涉及文本信息提取技术领域,特别是涉及一种基于语义类的多主题提取方法。
背景技术
自人类社会进入信息时代以来,各种电子文本大量涌现,这些海量文本中存在着大量多主题文本,包含着多方面丰富的主题信息,例如:一篇关于***总理访问欧洲的报道,既属于政治类新闻,又属于经济类新闻。随着科学技术的发展,学科之间融合度越来越高,大多数研究都跨越多个学科领域,许多科技文本内容都从不同侧面包含了多个主题,如一篇关于生物基因信息挖掘的文本,既包含计算机科学方面的主题又包含生物医学领域主题。因此,现实世界中存在大量多主题文本,如何从这些文本中提取有价值的反映不同方面的多个子主题信息,在信息检索、图书情报和信息安全等领域有着非常广泛的应用。
国外对文本主题提取研究起于上世纪50年代,目前比较成熟的主题提取方法是基于统计模型的方法,该方法主要是利用词频统计信息提取主题,后来研究人员加入了对标题、位置、句法结构和线索词等要素的考虑,能够从英文文本中提取高质量的主题。国内对主题提取的研究起于上世纪80年代后期,然而,由于汉语言的复杂性,许多成功的英文主题提取方法不适用于中文。
目前,国内应用广泛的还是基于统计的方法,该方法在向量空间模型(VSM)下,前提假设是向量之间两两正交,即构成文本的词汇之间毫无联系,这显然与文本中词汇语义与上下文相关的现实不符,又由于中文词汇量很大,在VSM下,必然存在向量高维、稀疏、忽略词汇语义及上下文背景等问题,同时提取过程受到同义词和多义词的干扰,因而在质量和效率上表现欠佳。目前关于主题提取的研究热点集中在如何增加语义信息上,虽然有很多学者提出了各种基于语义的主题提取方法,但仍然没有达到应用级别的突破性进展。另外,提取多主题和单主题提取在算法上有很大差别,从一篇文本中识别多个子主题词,仅使用传统基于词频统计的方法无法实现。廖涛等人提出的复杂网络中的社区划分算法能够提取多主题,但未涉及词的语义信息,是一个纯粹的统计方法,提取的多主题质量不高。
因此,针对现有的以词频统计为依据的传统文本处理技术,一篇文本只能提出单个主题的问题,同时考虑了传统文本处理方法面对向量高维、稀疏以及缺乏词义信息、上下文信息所导致的算法效率低和提取主题词质量不高的问题,需要提供一种基于语义类的多主题提取方法。
发明内容
本发明要解决的技术问题是,为了解决传统文本处理技术以词频统计为依据,一篇文本只能提出单个主题的问题,同时考虑了传统文本处理方法面对向量高维、稀疏以及缺乏词义信息、上下文信息所导致的算法效率低和提取主题词质量不高的问题,提供了一种基于语义类的多主题提取方法,该方法利用《知网》语义知识库,对表示文本的特征词进行一一映射,把该文本表示成概念模型,并且在映射过程中同义词自动归并到了同一概念中,实现了向量降维;根据语义类与上下文语境的相关性对文中出现的多义词进行排歧。
本发明的目的在于提供一种基于语义类的多主题提取方法,包括以下步骤:
Step1:向量模型表示:对文本进行预处理,以得到由特征词组成的向量,并通过向量空间模型将所述预处理后的文本表示成特征词组成的向量;具体为:
Step1-1:使用分词***对待处理文本T进行分词,接着,进行去停、去噪,之后,得到所述文本的初级向量空间模型T’={C1,C2,…,Cn},其中C1,C2,…,Cn表示n个由特征词组成的向量,所述去停是指过滤文本中出现的停用词,所述去噪是指过滤文本中出现的无实际意义的词汇;
Step1-2:从初级向量空间模型中进一步提取特征向量,以得到该文本的高级向量空间模型T”={C1,C2,…,Cm},其中m<=n;
Step2:概念模型映射:基于以概念来表达自然语言词汇语义且以树形结构来表示概念间语义关系的语义知识库,利用词义与所述概念之间的对应关系对所述预处理后的组成文本的特征词进行概念映射,在概念映射过程中,文本中的同义词自动进行归并,接着,根据语义类与上下文语境的相关性对文中出现的多义词进行排歧,之后,将所述经过归并和排歧后的文本的向量空间模型映射成概念空间模型;具体为:
Step2-1:对待处理文本T对应的高级向量空间模型T”中所有特征词依次查询语义知识库,进行概念映射;
Step2-1-1:查询知识库,若T”的特征词Cm对应唯一的概念,则Cm为单义词或同义词,直接获取Cm的概念,转至步骤Setp2-2;
Step2-1-2:查询知识库,若T”的特征词Cm对应多个概念,则特征词Cm为多义词,则需对多义词Cm进行词义排歧,选择出适合该文上下文语境的概念;具体为:
Step2-1-2-1:查询知识库,多义词Cm对应多个概念,描述概念语义的基本义原集够成了一个语义类,因而多义词Cm对应多个语义类,从而可获得描述基本义原集的词组,所述词组成为一组反映语义类语义相关的词组;
Step2-1-2-2:计算多义词Cm每一个语义类成员词在该文中的信息量,所述成员词wi在该文中所含的信息量H(wi)计算公式如下:
H(wi)=-TF(wi,ST)×log[p(wi)],
其中,TF(wi,ST)表示词wi在文本中出现的频率,ST表示文本,P(wi)为词wi的概率分布;
Step2-1-2-3:计算多义词Cm每一个语义类的权值,它的第i个语义类Li权值为:
其中,n为语义类Li成员词在文中出现个数,语义类权值越大,该语义类成员词对文本语义的贡献越大;
Step2-1-2-4:为多义词Cm选择符合该文上下文语义语境的最优概念,公式如下:
Step2-2:得到文本T对应概念向量G={(G1,C1),(G2,C2),…(Gq,Cq)};
Step2-3:进一步按照概念进行整理输出文本T对应概念向量G={(G1,(C1,...,Ci)),(G2,(C2,...,Cj)),…,(Gq,(Cq,...,Ck))},其中(Cq,...,Ck)为概念Gq在文中对应出现的词;
Step3:语义类模型转换:根据语义知识库中概念的表示方式及语义类的定义,二者具有一一对应关系,以将概念模型表示的文本转换成语义类模型;具体为:
根据Step2得到的待处理文本T的概念向量G={(G1,(C1,...,Ci)),(G2,(C2,...,Cj)),…,(Gq,(Cq,...,Ck))},查询所述语义知识库,将T转换成语义类模型,T的每个分量用五元组表示;
进一步,所述五元组的形式为(Li,wi,(C1,...,Ck),Gi,(C1,...,Ci))表示,其中,Li为语义类,wi为Li的权值,(C1,...,Ck,C1,...,Ci)为Li的成员词,Gi为Li对应的概念;
进一步,所述语义类权值wi根据Step2-1-2-2词在文中信息量的公式计算上述语义类Li所有成员词信息量,接着,根据Step2-1-2-3语义类权值计算公式计算Li权值;
Step4:多主题词提取:使用改进的K-means算法对所述表示为语义类模型的文本的所有语义类进行聚类,形成多个主题语义类簇,对形成的多个主题语义类簇,根据语义类与概念的对应关系及概念和原文本特征词对应关系,逆向得到多个主题特征词集,以提取单个中文文本中的多主题词。
进一步地,所述改进的K-means算法进一步包括如下步骤:
通过对待处理文本中的语义类进行聚类,形成多个主题语义类簇;
选用经典K-means聚类算法,通过预设种子方法对其进行改进。
进一步地,所述选用经典K-means聚类算法,通过预设种子方法对其进行改进,进一步包括如下步骤:
微主题现象描述:一个语义类是由文中的一个词或几个同义词及这些词在语义知识库中对应的基本义原集中的词组成,而基本义原集描述了概念的主要语义,因此,语义类的成员词语义之间相关性极强,它们的共同反映了一个微主题;
根据微主题现象,文中会出现若干个微主题,选用文中出现的信息量最强的前K个微主题,作为“预设种子”,成为K-means算法的初始中心,用于克服K-means算法对初始中心的敏感性和时空开销不稳定等缺陷;
其中微主题的信息量由语义类的权值反映,将待处理文本表示成所述语义模型后,权值最大语义类的前K个语义类即为信息量最大的前K个微主题。
进一步地,所述步骤Step4进一步包括如下步骤:
Step4-1:从待处理文本T的语义类模型中选择语义类权值目最大的前K个语义类作为聚类的初始类中心;
Step4-2:计算待处理文本T中其他语义类与K个类中心的相似度,将所剩语义类一一分配到对应的相似度最大的类中,其中,计算所述文本T中其他语义类与K个类中心的相似度包括:计算语义类与语义类之间的相似度和计算语义类与语义类集之间的相似度;
Step4-3:重新计算各类的中心点,类别LL的中心点通过以下公式计算:
其中wi为语义类权值,n为语义类集包含语义类的个数;
Step4-4:重复步骤Step4-2和Step4-3直到类的中心点不再改变,得到K个类别的语义类集:{{Ф1},{Ф2},…,{Фk}};
Step4-5:选择包含语义类个数最多的前k1个语义类集合,得到组成k1个子主题的语义类集合:{{Ф1},{Ф2},…,{Фk1}},由语义类与概念及概念与特征词的对应关系逆向得到k1子主题关键词汇集合:{(c11,c12,…,c1i),(c21,c22,…,c2j),…(ck11,ck12,…,ck1t)}。
进一步地,该方法还包括:
通过计算义原距离得到概念相似度,用概念相似度来代表对应语义类的相似度;
语义类与语义类类别相似度由计算概念与概念集相似度代表。
进一步地,所述语义类与语义类类别相似度由计算概念与概念集相似度代表,包括如下步骤:
假设两个义原在义原树层次体系中的路径距离为d,距离d的计算过程如下:
设义原集中的任意一个义原为wi,Li为义原wi在概念树中的深度,a为距离初始阈值,b为满足不等式max(L)<a/b的一个正实数,则wi与其父节点的距离为:
d(wi,parent(wi))=a-Li·b
任意两个义原wi,wj之间的距离定义为:
d(wi,wj)=ωk·[a-max(Li,Lj)·b]
其中,ωk表示第k种关系对应的权重,取ωk≥1,
任意两个义原(wi,wj)之间的语义相似度如下:
其中,距离d是wi和wj在义原层次体系中的路径长度,是一个正整数,θ是一个可调节的参数;
概念U和V分别由各自的义原组(pu1,pu2,…,pun)和(pv1,pv2,…,pvm)描述,则U、V相似度为:
其中,
概念U由义原组(p1,p2,…,pn)表示,概念集G由概念集合{G11,G21,…Gm1}组成,概念U和概念集G的相似度定义为U和G中所有概念相似度的最大值:
Sim(U,G)=Max{Sim(U,Gi)|Gi∈G}。
本发明提供了一种基于概念向量模型的多主题提取方法,该方法利用语义知识库,通过词义与概念的对应关系对同义词进行归并,挖掘同一语境中词义和语义类的映射关系,对多义词进行排歧,构造概念向量表示文本;语义相似度通过计算概念相似度来表达,本多主题词提取算法中利用改进K-means算法对文本概念进行聚类得到多个子主题簇,再利用概念和原文本关键词对应关系,逆向得到多个主题关键词集。其中,通过“预设种子”方法改进K-means算法,以弥补传统K-means算法中K个初始中心选择的随机性所引起的时空开销不稳定、结果波动较大的缺陷。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
图1示出了根据本发明技术方案的基于语义类的多主题提取方法的流程示意图;
图2示出了根据本发明技术方案的基于语义类的多主题提取方法的以《知网》作为语义知识库的流程示意图;
图3示出了根据本发明技术方案的基于语义类的多主题提取方法的以《知网》作为语义知识库关于多义词“水分”的语义类示意图;
图4示出了根据本发明技术方案的基于语义类的多主题提取方法的不同k值下准确率、召回率和F1变化的曲线示意图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当可以称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文本中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
《知网》介绍:《知网》是一个以汉语和英语词汇所代表的概念为描述对象,以揭示概念与概念之间以及概念所具有的属性之间的关系为基本内容的常识知识库。在《知网》中,词汇语义描述被定义为概念。每一个词可以表达为几个概念,概念是由一种知识表示语言(DEF)来描述,这种用来描述概念的“词汇”又叫义原,相比词汇的规模,义原的数量很少。《知网》定义了1500多个义原,分为三类:基本义原、语法义原和关系义原,DEF中基本义原反映了概念的主要语义,例如:词汇“爱好者”,在《知网》中用DEF的基本义原为:DEF={Human|人,*Fondof|喜欢,#WhileAway|休闲},所表达的意思是:“爱好者”是个人,这个人喜欢某个东西,本词语是和休闲相关,描述某个概念的基本义原的几个“词汇”之间存在语义相关性。在《知网》中,如果某个词只有一个意思,那么这个词对应唯一的概念,而多义词往往对应多个概念。
概念向量介绍:传统的向量空间模型(VSM)以组成文本的词汇为向量分量表示该文本,认为各分量是正交的,即:词汇之间互不相关,显然,这和现实情况不符。众所周知,文本中各个词汇之间存在着复杂的语义联系,VSM模型下的统计主题词提取方法无法正确处理同义词和多义词,造成同义词语义贡献度少计、多义词语义贡献度多计的现象,且汉语词汇量很大,造成向量高维和稀疏问题,严重影响主题提取的质量和效率。借助《知网》语义知识库,将VSM模型转换成概念向量空间模型来表示文本,通过语义知识库概念的树形层次体系组织结构,来处理词汇之间语义联系,其构建过程首先对文本进行分词和预处理后得到文本的特征词集,文本中所包含词汇含义分三种情况:单义词、同义词和多义词,概念映射过程通过查询《知网》语义知识库,单义词和同义词直接得到其唯一的用知识表示语言——DEF描述的概念;并且在所述映射过程中文本中出现的同义词被自动归并到相应的概念中,汉语中同义词非常多,同义词归并,实现了进一步的降维;多义词对应多个概念,在该文本中的具体含义往往和上下文语境有关,根据这个语言特性,提出利用语义类来进行多义词排歧。
为了找到某个多义词在文本中的具体含义(即:对应概念),作如下定义:
定义1:某文本中出现词汇{c1,c2,…,cm},(m>=1),在《知网》中有对应的概念为Gi,描述的Gi的基本义原集为{y1,y2,…,yn},(n>=1)则称词集{c1,c2,…,cm,y1,y2,…,ym为一个语义类。
语义类与概念一一相对应,概念在《知网》中通过DEF定义,描述概念主要语义的是基本义原,基本义原由一组义原描述,这组义原是一组语义相关的“词”,因而语义类是一组语义相关的词,这组词由两部分构成:第一部分是某概念的基本义原集成员词;第二部分是该概念在该文中对应所有词。
某个语义类和文本语境相符时,文本中很可能出现多个该语义类成员词,这些词语义相关,且对该文语义贡献较大,利用这一点可以消除词汇歧义。图3示出了根据本发明技术方案的基于概念向量模型的多主题提取方法的以《知网》作为语义知识库关于多义词“水分”的语义类示意图。如图3所示,多义词“水分”,在《知网》中对应两个概念,第一个概念对应的语义类成员词(即:基本义原集)为{“植物”、“土壤”、“阳光”、“生长”},此处“水分”的含义是指“物体内含有的水”,第二个概念对应的语义类成员词包含{“经济”、“数据”、“增长”、“报告”}中“水分”的含义是指“夹杂不真实成分”。
由于汉语的复杂性,同一篇文本中一词多义和同义词的情况非常多,单纯的机械词频统计无法处理涉及词汇语义的问题,这是影响文本主题提取质量的一个重要因素。为了解决多义词排歧和同义词识别问题,本发明利用《知网》将同义词归并到同一概念上,对某个含有多个语义类的多义词,找出该词符合文本上下文语境的语义类。定位多义词在文本中最佳语义类的思路是:如果某个语义类所属成员词汇在文中出现权值之和越大,说明该语义类比其他语义类更符合文章主题,则该语义类是该多义词的在此文中最合适的语义类。词汇wi在文中所含的信息量H(wi)计算公式如下:
H(wi)=-TF(wi,ST)×log[p(wi)] (1)
其中TF(wi,ST)表示词汇wi在文本中出现的频率,ST表示文本,P(wi)为词wi的概率分布。
定义2:对于多义词c,它的第i个语义类Li权值为:
其中,n为某个语义类Li成员词在文中出现的个数。语义类权值越大,该语义类成员词对文章主题的贡献越大。
定义3:多义词c,在《知网》中对应多个语义类,选择符合该文上下文语境的最优语义类公式如下:
概念相似度计算原理:相似度是衡量两个词汇语义关系的一个重要指标,涉及到词语的词法、句法、语义甚至语用等方方面面的信息。其中,对词语相似度影响最大的是词的语义。在《知网》中,词汇被描述为概念,词汇的相似度计算就转化为对概念的相似度计算。词语距离与词语相似度之间有着密切的关系。两个词语的距离越大,其相似度越低;反之,两个词语的距离越小,其相似度越大。
《知网》通过多个义原来描述概念,义原之间存在着各种复杂的关系,如:上下位关系、同义关系、对义关系等。其中,最重要的是上下位关系,所有的义原根据上下位关系构成了一个树状的义原层次体系,所以可以通过计算义原距离得到概念的距离进而获得概念的相似度。假设两个义原在义原树层次体系中的路径距离为d,d的计算过程如下:
设义原集中的任意一个义原为wi,Li为义原wi在概念树中的深度,a为距离初始阈值,b为满足不等式max(L)<a/b的一个正实数,则wi与其父节点的距离定义为:
d(wi,parent(wi))=a-Li·b (4)
任意两个义原wi,wj之间的距离定义为:
d(wi,wj)=ωk·[a-max(Li,Lj)·b] (5)
其中,ωk表示第k种关系对应的权重,通常取ωk≥1。可以验证,上述定义符合对距离函数的数学要求,公式(4)、(5)反映出义原在义原层次树中的位置越深,二者之间的距离越小,即越相似。
定义4:任意两个义原(wi,wj)之间的语义相似度如下:
其中d是wi和wj在义原层次体系中的路径长度,是一个正整数。θ是一个可调节的参数。
定义5:设概念U和V分别由义原组(pu1,pu2,…,pun)和(pv1,pv2,…,pvm)描述,则U、V相似度为:
其中:
定义6:概念U由义原组(p1,p2,…,pn)表示,概念集G由概念集合{G11,G21,…Gm1}组成,概念U和概念集G的相似度定义为U和G中所有概念相似度的最大值:
Sim(U,G)=Max{Sim(U,Gi)|Gi∈G} (8)
图1示出了根据本发明技术方案的基于语义类的多主题提取方法的流程示意图。如图1所示,本发明的目的在于提供一种基于语义类的多主题提取方法,包括以下步骤:
Step1:向量模型表示:对文本进行预处理,以得到由特征词组成的向量,并通过向量空间模型将所述预处理后的文本表示成特征词组成的向量;
Step2:概念模型映射:基于以概念来表达自然语言词汇语义且以树形结构来表示概念间语义关系的语义知识库,利用词义与所述概念之间的对应关系对所述预处理后的组成文本的特征词进行概念映射,在概念映射过程中,文本中的同义词自动进行归并,接着,根据语义类与上下文语境的相关性对文中出现的多义词进行排歧,之后,将所述经过归并和排歧后的文本的向量空间模型映射成概念空间模型;
Step3:语义类模型转换:根据语义知识库中概念的表示方式及语义类的定义,二者具有一一对应关系,以将概念模型表示的文本转换成语义类模型;
Step4:多主题词提取:使用改进的K-means算法对所述表示为语义类模型的文本的所有语义类进行聚类,形成多个主题语义类簇,对形成的多个主题语义类簇,根据语义类与概念的对应关系及概念和原文本特征词对应关系,逆向得到多个主题特征词集,以提取单个中文文本中的多主题词。
进一步地,所述步骤Step1可以包括如下步骤:
Step1-1:使用分词***对待处理文本T进行分词,接着,进行去停、去噪,之后,得到所述文本的初级向量空间模型T’={C1,C2,…,Cn},其中C1,C2,…,Cn表示n个由特征词组成的向量,所述去停是指过滤文本中出现的停用词,所述去噪是指过滤文本中出现的无实际意义的词汇;
Step1-2:从初级向量空间模型中进一步提取特征向量,以得到该文本的高级向量空间模型T”={C1,C2,…,Cm},其中m<=n。
进一步地,所述步骤Step2可以包括如下步骤:
文本中所包含词汇含义分三种情况:单义词、同义词和多义词;
概念映射过程通过查询所述语义知识库实现,其中:
查询知识库,判断当文本中所包含的词汇是单义词时,直接得到其唯一对应的概念;
查询知识库,判断当文本中所包含的词汇是同义词时,直接得到其唯一对应的概念,在这个过程中,通过将该文本中出现的同义词自动归并到同一个概念中,以实现向量降维;
查询知识库,判断当文本中所包含的词汇是多义词时,该多义词对应多个概念,概念与语义类一一对应,根据语义类成员词在该文本中的信息量计算语义类权值,选取权值最大的语义类对应概念作为所述多义词适合本文上下文语境的概念,从而实现多义词排歧。
进一步地,所述查询知识库,判断当文本中所包含的词汇是多义词时,该多义词对应多个概念,概念与语义类一一对应,根据语义类成员词在该文本中信息量计算语义类权值,选取权值最大的语义类对应概念作为所述多义词适合本文上下文语境的概念,从而实现多义词排歧,包括如下步骤:
在所述语义知识库中,概念的语义主要由基本义原集描述,基本义原集又由一组语义相关的词来描述,描述某概念基本义原集的词构成了一个语义类;
判断多义词对应多个概念,计算所述概念对应语义类的所有成员词在所述处理文本中的信息量,加权计算得到每一个语义类的权值;
选择权值最大的语义类对应的概念作为所述多义词适合本文上下文语境的概念,从而实现多义词排歧。
进一步地,所述步骤Step2可以包括如下步骤:
Step2-1:对待处理文本T对应的高级向量空间模型T”中所有特征词依次查询语义知识库,进行概念映射;
Step2-1-1:查询知识库,若T”的特征词Cm对应唯一的概念,则Cm为单义词或同义词,直接获取Cm的概念,转至步骤Setp2-2;
Step2-1-2:查询知识库,若T”的特征词Cm对应多个概念,则特征词Cm为多义词,则需对多义词Cm进行词义排歧,选择出适合该文上下文语境的概念;
Step2-2:得到文本T对应概念向量G={(G1,C1),(G2,C2),…(Gq,Cq)};
Step2-3:进一步按照概念进行整理输出文本T对应概念向量G={(G1,(C1,...,Ci)),(G2,(C2,...,Cj)),…,(Gq,(Cq,...,Ck))},其中(Cq,...,Ck)为概念Gq在文中对应出现的词。
进一步地,所述步骤Step2-1-2可以包括如下步骤:
Step2-1-2-1:查询知识库,多义词Cm对应多个概念,描述概念语义的基本义原集够成了一个语义类,因而多义词Cm对应多个语义类,从而可获得描述基本义原集的词组,所述词组成为一组反映语义类语义相关的词组;
Step2-1-2-2:计算多义词Cm每一个语义类成员词在该文中的信息量,所述成员词wi在该文中所含的信息量H(wi)计算公式如下:
H(wi)=-TF(wi,ST)×log[p(wi)],
其中,TF(wi,ST)表示词wi在文本中出现的频率,ST表示文本,P(wi)为词wi的概率分布;
Step2-1-2-3:计算多义词Cm每一个语义类的权值,它的第i个语义类Li权值为:
其中,n为语义类Li成员词在文中出现个数,语义类权值越大,该语义类成员词对文本语义的贡献越大;
Step2-1-2-4:为多义词Cm选择符合该文上下文语义语境的最优概念,公式如下:
进一步地,所述步骤Step3可以包括如下步骤:
根据Step2得到的待处理文本T的概念向量G={(G1,(C1,...,Ci)),(G2,(C2,...,Cj)),…,(Gq,(Cq,...,Ck))},查询所述语义知识库,将T转换成语义类模型,T的每个分量用五元组表示;
进一步,所述五元组的形式为(Li,wi,(C1,...,Ck),Gi,(C1,...,Ci))表示,其中,Li为语义类,wi为Li的权值,(C1,...,Ck,C1,...,Ci)为Li的成员词,Gi为Li对于的概念;
进一步,所述语义类权值wi根据Step2-1-2-2词在文中信息量的公式计算上述语义类Li所有成员词信息量,接着,根据Step2-1-2-3语义类权值计算公式计算Li权值。
进一步地,所述改进的K-means算法可以包括如下步骤:
通过对待处理文本中的语义类进行聚类,形成多个主题语义类簇;
选用经典K-means聚类算法,通过预设种子方法对其进行改进。
进一步地,所述选用经典K-means聚类算法,通过预设种子方法对其进行改进,可以包括如下步骤:
微主题现象描述:一个语义类是由文中的一个词或几个同义词及这些词在语义知识库中对应的基本义原集中的词组成,而基本义原集描述了概念的主要语义,因此,语义类的成员词语义之间相关性极强,它们的共同反映了一个微主题;
根据微主题现象,文中会出现若干个微主题,选用文中出现的信息量最强的前K个微主题,作为“预设种子”,成为K-means算法的初始中心,用于克服K-means算法对初始中心的敏感性和时空开销不稳定等缺陷;
其中微主题的信息量由语义类的权值反映,将待处理文本表示成所述语义模型后,权值最大语义类的前K个语义类即为信息量最大的前K个微主题。
进一步地,所述步骤Step4可以包括如下步骤:
Step4-1:从待处理文本T的语义类模型中选择语义类权值目最大的前K个语义类作为聚类的初始类中心;
Step4-2:计算待处理文本T中其他语义类与K个类中心的相似度,将所剩语义类一一分配到对应的相似度最大的类中,其中,计算所述文本T中其他语义类与K个类中心的相似度包括:计算语义类与语义类之间的相似度和计算语义类与语义类集之间的相似度;
Step4-3:重新计算各类的中心点,类别LL的中心点通过以下公式计算:
其中wi为语义类权值,n为语义类集包含语义类的个数;
Step4-4:重复步骤Step4-2和Step4-3直到类的中心点不再改变,得到K个类别的语义类集:{{Ф1},{Ф2},…,{Фk}};
Step4-5:选择包含语义类个数最多的前k1个语义类集合,得到组成k1个子主题的语义类集合:{{Ф1},{Ф2},…,{Фk1}},由语义类与概念及概念与特征词的对应关系逆向得到k1子主题关键词汇集合:{(c11,c12,…,c1i),(c21,c22,…,c2j),…(ck11,ck12,…,ck1t)}。
进一步地,所述基于语义类的多主题提取方法还包括:
通过计算义原距离得到概念相似度,用概念相似度来代表对应语义类的相似度;
语义类与语义类类别相似度由计算概念与概念集相似度代表。
进一步地,所述语义类与语义类类别相似度由计算概念与概念集相似度代表,可以包括如下步骤:
所述语义知识库通过多个义原来描述概念,并且义原根据上下位关系构成了一个树状的义原层次体系;
通过计算义原在树状层次体系中的距离得到义原之间的相似度;
概念的语义由一组义原描述,由义原的相似度可计算概念之间的相似度;
通过计算某概念与概念集中所有概念的相似度,选取和该概念相似度最大的值,作为该概念与概念集的相似度。
进一步地,所述通过计算义原距离得到概念的距离进而获得概念的相似度,可以包括如下步骤:
假设两个义原在义原树层次体系中的路径距离为d,距离d的计算过程如下:
设义原集中的任意一个义原为wi,Li为义原wi在概念树中的深度,a为距离初始阈值,b为满足不等式max(L)<a/b的一个正实数,则wi与其父节点的距离为:
d(wi,parent(wi))=a-Li·b
任意两个义原wi,wj之间的距离定义为:
d(wi,wj)=ωk·[a-max(Li,Lj)·b]
其中,ωk表示第k种关系对应的权重,通常取ωk≥1,
任意两个义原(wi,wj)之间的语义相似度如下:
其中,距离d是wi和wj在义原层次体系中的路径长度,是一个正整数,θ是一个可调节的参数;
概念U和V分别由各自的义原组(pu1,pu2,…,pun)和(pv1,pv2,…,pvm)描述,则U、V相似度为:
其中,
概念U由义原组(p1,p2,…,pn)表示,概念集G由概念集合{G11,G21,…Gm1}组成,概念U和概念集G的相似度定义为U和G中所有概念相似度的最大值:
Sim(U,G)=Max{Sim(U,Gi)|Gi∈G}。
本发明提供了一种基于概念向量模型的多主题提取方法,该方法利用《知网》语义知识库,通过词义与概念的对应关系对同义词进行归并,挖掘同一语境中词义和语义类的映射关系,对多义词进行排歧,构造概念向量表示文本;语义相似度通过计算概念相似度来表达,本多主题词提取算法中利用改进K-means算法对文本概念进行聚类得到多个子主题簇,再利用概念和原文本关键词对应关系,逆向得到多个主题关键词集。其中,通过“预设种子”方法改进K-means算法,以弥补传统K-means算法中K个初始中心选择的随机性所引起的时空开销不稳定、结果波动较大的缺陷。
下面结合图2进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
图2示出了根据本发明技术方案的基于概念向量模型的多主题提取方法的以《知网》作为语义知识库的流程示意图。如图2所示,首先,输入待处理文本T;接着,预处理文本T,例如,使用ICTCLAS分词***进行分词,去停、去噪后使用信息增益(IG)初步提取特征;接着,用向量空间模型表示文本T;接着,把文本T映射为的概念空间模型,例如,单义词、同义词直接映射;对多义词根据语义类与上下文语境的相关性对多义词进行词义排歧;接着,利用改进的K-means算法对概念进行聚类,例如,通过预设“种子”的方法改进K-means算法;通过概念语义进行相似度计算;接着,根据概念与词的对应关系逆向得到多个子主题词集。
图3示出了根据本发明技术方案的基于概念向量模型的多主题提取方法的以《知网》作为语义知识库关于多义词“水分”的语义类示意图。如图3所示,多义词“水分”,在《知网》中对应两个概念,第一个概念对应的语义类成员词(即:基本义原集)为{“植物”、“土壤”、“阳光”、“生长”},此处“水分”的含义是指“物体内含有的水”,第二个概念对应的语义类成员词包含{“经济”、“数据”、“增长”、“报告”}中“水分”的含义是指“夹杂不真实成分”。
实验及结果分析:本发明实验数据来自复旦大学自然语言处理实验室的公开的标准语料库共包含20个类别,19637篇文本,但均未标注主题,考虑到工作量因素,本文实验从该语料库5个类别中选择篇幅较长、多主题特征较为明显的500篇文本,经从事汉语言工作的专业人员进行主题句标注,作为实验样本。实验结果评判采用通用的准确率(P)、召回率(R)和综合指标F1。
参数估计:为了得到所述改进的k-means算法中初始聚类簇参数k的最恰当的值,根据测试样本的实际篇幅长短、文本结构等情况,经汉语专业人士分析,每篇样本抽取子主题个数k1的值取3,并人工为每篇样本标注了3个子主题作为标准值,在k1=3的情况下实验分析k取值,图4反映出k在不同取值下准确率(P)、召回率(R)和F1的变化情况。
图4示出了根据本发明技术方案的基于概念向量模型的多主题提取方法的不同k值下准确率、召回率和F1变化的曲线示意图。如图4所示,每篇样本抽取3个子主题的情况下,改进的k-means算法,随着k值的增大提取主题的准确率不断提高,而召回率在降低,这是由于k值增大导致聚类簇细化,所以准确率逐渐上升;算法召回率一般是确定的,但在本实验中,随着k值的增大类别不断细化,在选取前3个(k1=3)最大子主题的时,引起了召回率下降;为了找到最合适的k值,分析图3的F1指标情况,从综合指标F1的趋势上看,F1的最高点出现在k=7时,所以算法2在本实验样本对象下最适合的取值是k=7,需要说明的是k的取值是和要处理的文本的有关。
算法测试:为了测试通过“预设种子”的方法改进K-means算法提取多主题的质量,实验样本仍然为预备的500篇文本,采用上述参数估计实验中获得的结果,取k=7,子主题个数k1为3,首先采用传统K-means算法,随即产生k个初始中心的方法实验5次,和改进的K-means提取主题结果统计如表1所示:
表1 K-means和改进K-means多主题提取结果统计
从表1数据可以看出,传统K-means在5次随即产生初始中心的情况下,结果的准确率、召回率以及综合指标F1值都非常不稳定,算法耗时变化较大,这是由于传统的K-means算法对初始聚类中心较敏感,导致结果和耗时随不同的初始输入波动较大。为消除这种缺陷,本发明根据主题提取特点,每个主题往往包含多个具有相同语义概念的词汇,按照概念在文中对应词汇的数量所暗含文本多个主题语义中心信息,预设出可能性最大的K个初始中心,从而改进K-means,不但提取的主题质量较高,算法的执行效率也有较大的提高。
本技术领域技术人员可以理解,本发明中已经讨论过的各种操作、方法、流程中的步骤、措施、方案可以被交替、更改、组合或删除。进一步地,具有本发明中已经讨论过的各种操作、方法、流程中的其他步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。进一步地,现有技术中的具有与本发明中公开的各种操作、方法、流程中的步骤、措施、方案也可以被交替、更改、重排、分解、组合或删除。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (6)
1.一种基于语义类的多主题提取方法,其特征在于,包括以下步骤:
Step1:向量模型表示:对文本进行预处理,以得到由特征词组成的向量,并通过向量空间模型将所述预处理后的文本表示成特征词组成的向量;具体为:
Step1-1:使用分词***对待处理文本T进行分词,接着,进行去停、去噪,之后,得到所述文本的初级向量空间模型T’={C1,C2,…,Cn},其中C1,C2,…,Cn表示n个由特征词组成的向量,所述去停是指过滤文本中出现的停用词,所述去噪是指过滤文本中出现的无实际意义的词汇;
Step1-2:从初级向量空间模型中进一步提取特征向量,以得到该文本的高级向量空间模型T”={C1,C2,…,Cm},其中m<=n;
Step2:概念模型映射:基于以概念来表达自然语言词汇语义且以树形结构来表示概念间语义关系的语义知识库,利用词义与所述概念之间的对应关系对所述预处理后的组成文本的特征词进行概念映射,在概念映射过程中,文本中的同义词自动进行归并,接着,根据语义类与上下文语境的相关性对文中出现的多义词进行排歧,之后,将所述经过归并和排歧后的文本的向量空间模型映射成概念空间模型;具体为:
Step2-1:对待处理文本T对应的高级向量空间模型T”中所有特征词依次查询语义知识库,进行概念映射;
Step2-1-1:查询知识库,若T”的特征词Cm对应唯一的概念,则Cm为单义词或同义词,直接获取Cm的概念,转至步骤Setp2-2;
Step2-1-2:查询知识库,若T”的特征词Cm对应多个概念,则特征词Cm为多义词,则需对多义词Cm进行词义排歧,选择出适合该文上下文语境的概念;具体为:
Step2-1-2-1:查询知识库,多义词Cm对应多个概念,描述概念语义的基本义原集够成了一个语义类,因而多义词Cm对应多个语义类,从而可获得描述基本义原集的词组,所述词组成为一组反映语义类语义相关的词组;
Step2-1-2-2:计算多义词Cm每一个语义类成员词在该文中的信息量,所述成员词wi在该文中所含的信息量H(wi)计算公式如下:
H(wi)=-TF(wi,ST)×log[p(wi)],
其中,TF(wi,ST)表示词wi在文本中出现的频率,ST表示文本,P(wi)为词wi的概率分布;
Step2-1-2-3:计算多义词Cm每一个语义类的权值,它的第i个语义类Li权值为:
其中,n为语义类Li成员词在文中出现个数,语义类权值越大,该语义类成员词对文本语义的贡献越大;
Step2-1-2-4:为多义词Cm选择符合该文上下文语义语境的最优概念,公式如下:
Step2-2:得到文本T对应概念向量G={(G1,C1),(G2,C2),…(Gq,Cq)};
Step2-3:进一步按照概念进行整理输出文本T对应概念向量G={(G1,(C1,...,Ci)),(G2,(C2,...,Cj)),…,(Gq,(Cq,...,Ck))},其中(Cq,...,Ck)为概念Gq在文中对应出现的词;
Step3:语义类模型转换:根据语义知识库中概念的表示方式及语义类的定义,二者具有一一对应关系,以将概念模型表示的文本转换成语义类模型;具体为:
根据Step2得到的待处理文本T的概念向量G={(G1,(C1,...,Ci)),(G2,(C2,...,Cj)),…,(Gq,(Cq,...,Ck))},查询所述语义知识库,将T转换成语义类模型,T的每个分量用五元组表示;
进一步,所述五元组的形式为(Li,wi,(C1,...,Ck),Gi,(C1,...,Ci))表示,其中,Li为语义类,wi为Li的权值,(C1,...,Ck,C1,...,Ci)为Li的成员词,Gi为Li对应的概念;
进一步,所述语义类权值wi根据Step2-1-2-2词在文中信息量的公式计算上述语义类Li所有成员词信息量,接着,根据Step2-1-2-3语义类权值计算公式计算Li权值;
Step4:多主题词提取:使用改进的K-means算法对所述表示为语义类模型的文本的所有语义类进行聚类,形成多个主题语义类簇,对形成的多个主题语义类簇,根据语义类与概念的对应关系及概念和原文本特征词对应关系,逆向得到多个主题特征词集,以提取单个中文文本中的多主题词。
2.根据权利要求1所述的基于语义类的多主题提取方法,其特征在于,所述改进的K-means算法进一步包括如下步骤:
通过对待处理文本中的语义类进行聚类,形成多个主题语义类簇;
选用经典K-means聚类算法,通过预设种子方法对其进行改进。
3.根据权利要求2所述的基于语义类的多主题提取方法,其特征在于,所述选用经典K-means聚类算法,通过预设种子方法对其进行改进,进一步包括如下步骤:
微主题现象描述:一个语义类是由文中的一个词或几个同义词及这些词在语义知识库中对应的基本义原集中的词组成,而基本义原集描述了概念的主要语义,因此,语义类的成员词语义之间相关性极强,它们的共同反映了一个微主题;
根据微主题现象,文中会出现若干个微主题,选用文中出现的信息量最强的前K个微主题,作为“预设种子”,成为K-means算法的初始中心,用于克服K-means算法对初始中心的敏感性和时空开销不稳定等缺陷;
其中微主题的信息量由语义类的权值反映,将待处理文本表示成所述语义模型后,权值最大语义类的前K个语义类即为信息量最大的前K个微主题。
4.根据权利要求1所述的基于语义类的多主题提取方法,其特征在于,所述步骤Step4进一步包括如下步骤:
Step4-1:从待处理文本T的语义类模型中选择语义类权值目最大的前K个语义类作为聚类的初始类中心;
Step4-2:计算待处理文本T中其他语义类与K个类中心的相似度,将所剩语义类一一分配到对应的相似度最大的类中,其中,计算所述文本T中其他语义类与K个类中心的相似度包括:计算语义类与语义类之间的相似度和计算语义类与语义类集之间的相似度;
Step4-3:重新计算各类的中心点,类别LL的中心点通过以下公式计算:
其中wi为语义类权值,n为语义类集包含语义类的个数;
Step4-4:重复步骤Step4-2和Step4-3直到类的中心点不再改变,得到K个类别的语义类集:{{Ф1},{Ф2},…,{Фk}};
Step4-5:选择包含语义类个数最多的前k1个语义类集合,得到组成k1个子主题的语义类集合:{{Ф1},{Ф2},…,{Фk1}},由语义类与概念及概念与特征词的对应关系逆向得到k1子主题关键词汇集合:{(c11,c12,…,c1i),(c21,c22,…,c2j),…(ck11,ck12,…,ck1t)}。
5.根据权利要求1所述的基于语义类的多主题提取方法,其特征在于,还包括:
通过计算义原距离得到概念相似度,用概念相似度来代表对应语义类的相似度;
语义类与语义类类别相似度由计算概念与概念集相似度代表。
6.根据权利要求5所述的基于语义类的多主题提取方法,其特征在于,所述语义类与语义类类别相似度由计算概念与概念集相似度代表,包括如下步骤:
假设两个义原在义原树层次体系中的路径距离为d,距离d的计算过程如下:
设义原集中的任意一个义原为wi,Li为义原wi在概念树中的深度,a为距离初始阈值,b为满足不等式max(L)<a/b的一个正实数,则wi与其父节点的距离为:
d(wi,parent(wi))=a-Li·b
任意两个义原wi,wj之间的距离定义为:
d(wi,wj)=ωk·[a-max(Li,Lj)·b]
其中,ωk表示第k种关系对应的权重,取ωk≥1,
任意两个义原(wi,wj)之间的语义相似度如下:
其中,距离d是wi和wj在义原层次体系中的路径长度,是一个正整数,θ是一个可调节的参数;
概念U和V分别由各自的义原组(pu1,pu2,…,pun)和(pv1,pv2,…,pvm)描述,则U、V相似度为:
其中,
概念U由义原组(p1,p2,…,pn)表示,概念集G由概念集合{G11,G21,…Gm1}组成,概念U和概念集G的相似度定义为U和G中所有概念相似度的最大值:
Sim(U,G)=Max{Sim(U,Gi)|Gi∈G}。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410178218.6A CN103970729B (zh) | 2014-04-29 | 2014-04-29 | 一种基于语义类的多主题提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410178218.6A CN103970729B (zh) | 2014-04-29 | 2014-04-29 | 一种基于语义类的多主题提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103970729A CN103970729A (zh) | 2014-08-06 |
CN103970729B true CN103970729B (zh) | 2016-08-24 |
Family
ID=51240247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410178218.6A Expired - Fee Related CN103970729B (zh) | 2014-04-29 | 2014-04-29 | 一种基于语义类的多主题提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103970729B (zh) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104298709A (zh) * | 2014-09-05 | 2015-01-21 | 上海中和软件有限公司 | 基于句间关联图的文本主题挖掘方法 |
CN105718440B (zh) * | 2014-12-03 | 2019-01-29 | 南开大学 | 基于聚合加权矩阵压缩算法的文本语义表示方法 |
CA2970168A1 (en) | 2014-12-10 | 2016-06-16 | Kyndi, Inc. | Weighted subsymbolic data encoding |
CN104484411B (zh) * | 2014-12-16 | 2017-12-22 | 中国科学院自动化研究所 | 一种基于词典的语义知识库的构建方法 |
US11238362B2 (en) * | 2016-01-15 | 2022-02-01 | Adobe Inc. | Modeling semantic concepts in an embedding space as distributions |
CN105955948B (zh) * | 2016-04-22 | 2018-07-24 | 武汉大学 | 一种基于单词语义相似度的短文本主题建模方法 |
CN107515877B (zh) * | 2016-06-16 | 2021-07-20 | 百度在线网络技术(北京)有限公司 | 敏感主题词集的生成方法和装置 |
CN106844328B (zh) * | 2016-08-23 | 2020-04-21 | 华南师范大学 | 一种大规模文档主题语义分析方法及*** |
CN106708969B (zh) * | 2016-12-02 | 2020-01-10 | 山西大学 | 文献资源主题聚类共现潜在语义向量空间模型语义核方法 |
CN107153672A (zh) * | 2017-03-22 | 2017-09-12 | 中国科学院自动化研究所 | 基于言语行为理论的用户交互意图识别方法及*** |
CN108804410B (zh) * | 2017-05-05 | 2022-03-29 | 北京数洋智慧科技有限公司 | 一种基于人工智能文本语义相似度分析的语义解释方法 |
CN107105349A (zh) * | 2017-05-17 | 2017-08-29 | 东莞市华睿电子科技有限公司 | 一种视频推荐方法 |
CN107436916B (zh) * | 2017-06-15 | 2021-04-27 | 百度在线网络技术(北京)有限公司 | 智能提示答案的方法及装置 |
CN107832288B (zh) * | 2017-09-27 | 2020-06-16 | 中国科学院自动化研究所 | 中文词语语义相似度的度量方法及装置 |
CN107633472A (zh) * | 2017-10-31 | 2018-01-26 | 广州努比互联网科技有限公司 | 一种基于教学事件流和即时讨论的互联网学习方法 |
CN110196905A (zh) * | 2018-02-27 | 2019-09-03 | 株式会社理光 | 一种生成词表示的方法、装置及计算机可读存储介质 |
JP7006402B2 (ja) * | 2018-03-14 | 2022-01-24 | 富士通株式会社 | クラスタリングプログラム、クラスタリング方法およびクラスタリング装置 |
CN108766581A (zh) * | 2018-05-07 | 2018-11-06 | 上海市公共卫生临床中心 | 健康医疗数据的关键信息挖掘方法及辅助诊断*** |
CN108804641B (zh) * | 2018-06-05 | 2021-11-09 | 鼎易创展咨询(北京)有限公司 | 一种文本相似度的计算方法、装置、设备和存储介质 |
CN109033307B (zh) * | 2018-07-17 | 2021-08-31 | 华北水利水电大学 | 基于crp聚类的词语多原型向量表示及词义消歧方法 |
CN109710921B (zh) * | 2018-12-06 | 2023-05-26 | 深圳市中农易讯信息技术有限公司 | 词语相似度的计算方法、装置、计算机设备及存储介质 |
JP7323308B2 (ja) * | 2019-03-20 | 2023-08-08 | 株式会社Screenホールディングス | 同義語判定方法、同義語判定プログラム、および、同義語判定装置 |
CN110442863B (zh) * | 2019-07-16 | 2023-05-05 | 深圳供电局有限公司 | 一种短文本语义相似度计算方法及其***、介质 |
CN110457325B (zh) * | 2019-08-12 | 2022-05-03 | 北京百度网讯科技有限公司 | 用于输出信息的方法和装置 |
CN110929529B (zh) * | 2019-11-29 | 2023-04-18 | 长沙理工大学 | 一种基于同义词词林语义相似度的文本聚类方法 |
CN113326411B (zh) * | 2020-02-28 | 2024-05-03 | ***通信集团福建有限公司 | 一种网络行为知识增强方法、装置及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101079024A (zh) * | 2006-06-19 | 2007-11-28 | 腾讯科技(深圳)有限公司 | 一种专业词表动态生成***和方法 |
CN102945228A (zh) * | 2012-10-29 | 2013-02-27 | 广西工学院 | 一种基于文本分割技术的多文档文摘方法 |
CN103020111A (zh) * | 2012-10-29 | 2013-04-03 | 苏州大学 | 基于词汇树层次语义模型的图像检索方法 |
-
2014
- 2014-04-29 CN CN201410178218.6A patent/CN103970729B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101079024A (zh) * | 2006-06-19 | 2007-11-28 | 腾讯科技(深圳)有限公司 | 一种专业词表动态生成***和方法 |
CN102945228A (zh) * | 2012-10-29 | 2013-02-27 | 广西工学院 | 一种基于文本分割技术的多文档文摘方法 |
CN103020111A (zh) * | 2012-10-29 | 2013-04-03 | 苏州大学 | 基于词汇树层次语义模型的图像检索方法 |
Non-Patent Citations (5)
Title |
---|
一种高效中文文本聚类算法;马甲林 等;《计算机工程与科学》;20130228;第35卷(第2期);第103-108页 * |
基于概念簇的文本分类算法;马甲林 等;《图书情报工作》;20130831;第57卷(第15期);摘要10-25行 * |
基于概念簇的文本分类算法;马甲林 等;《图书情报工作》;20130831;第57卷(第15期);第1节,第2.1节 * |
基于自适应聚类的中文多文档自动文摘研究;肖华松;《中国优秀硕士学位论文全文数据库信息科技辑》;20081015(第10期);第1节,第2,1节 * |
概念向量文本蕨类算法;白秋产 等;《计算工程与应用》;20111231;第47卷(第35期);第155-157页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103970729A (zh) | 2014-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103970729B (zh) | 一种基于语义类的多主题提取方法 | |
CN104391942B (zh) | 基于语义图谱的短文本特征扩展方法 | |
CN104008090A (zh) | 一种基于概念向量模型的多主题提取方法 | |
CN103970730A (zh) | 一种从单个中文文本中提取多主题词的方法 | |
CN102945228B (zh) | 一种基于文本分割技术的多文档文摘方法 | |
CN103399901B (zh) | 一种关键词抽取方法 | |
CN102419778B (zh) | 一种挖掘查询语句子话题并聚类的信息搜索方法 | |
CN107122413A (zh) | 一种基于图模型的关键词提取方法及装置 | |
CN106919689A (zh) | 基于术语释义知识单元的专业领域知识图谱动态构建方法 | |
CN104699766A (zh) | 一种融合词语关联关系和上下文语境推断的隐式属性挖掘方法 | |
CN110298033A (zh) | 关键词语料标注训练提取工具 | |
CN106021272A (zh) | 基于分布式表达词向量计算的关键词自动提取方法 | |
CN103823890B (zh) | 一种针对特定群体的微博热点话题检测方法及装置 | |
CN109670039A (zh) | 基于三部图和聚类分析的半监督电商评论情感分析方法 | |
CN102663139A (zh) | 一种情感词典构建方法及*** | |
CN105654144B (zh) | 一种基于机器学习的社交网络本体构建方法 | |
CN107562919B (zh) | 一种基于信息检索的多索引集成软件构件检索方法及*** | |
CN103049569A (zh) | 基于向量空间模型的文本相似性匹配方法 | |
CN105975475A (zh) | 基于中文短语串的细粒度主题信息抽取方法 | |
CN109376352A (zh) | 一种基于word2vec和语义相似度的专利文本建模方法 | |
CN105095430A (zh) | 构建词语网络及抽取关键词的方法和装置 | |
CN112183059B (zh) | 一种中文结构化事件抽取方法 | |
CN106055560A (zh) | 一种基于统计机器学习方法的分词字典数据采集方法 | |
CN105718585A (zh) | 文档与标签词语义关联方法及其装置 | |
CN109299248A (zh) | 一种基于自然语言处理的商业情报收集方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160824 |
|
CF01 | Termination of patent right due to non-payment of annual fee |