CN108845982B - 一种基于词的关联特征的中文分词方法 - Google Patents
一种基于词的关联特征的中文分词方法 Download PDFInfo
- Publication number
- CN108845982B CN108845982B CN201711293044.8A CN201711293044A CN108845982B CN 108845982 B CN108845982 B CN 108845982B CN 201711293044 A CN201711293044 A CN 201711293044A CN 108845982 B CN108845982 B CN 108845982B
- Authority
- CN
- China
- Prior art keywords
- word
- candidate
- words
- quaternary
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及一种基于词的关联特征的中文分词方法,属于信息处理技术领域。本发明从文本库中选出需要处理的文本,并对文本库进行预处理,包括去符号并使其形成语句,利用去符号后的语句构建语料库。采用前后拼接词的分词方法,对步骤a1中的语料库进行分词,形成分词碎片。采用二元切分前后词拼接,三元切分前后词拼接,四元切分前后词拼接方法,形成一个二元候选词库,三元候选词库和四元候选词库。对统计好了的词频的候选词设定一个词频门限,并对其进行判决,满足此判决的保留,形成新的语料库。
Description
技术领域
本发明涉及一种基于词的关联特征的中文分词方法,属于信息处理技术领域。
背景技术
中文分词技术属于自然语言处理技术范畴,对于一句话,人可以通过自己的知识来明白哪些是词,哪些不是词,但如何让计算机也能理解?其处理过程就是分词算法。
现有的分词算法可分为三大类:基于理解的分词方法、基于字符串匹配的分词方法和传统的基于统计的分词方法。
基于理解的分词方法,是通过让计算机模拟人对句子的理解,达到识别词的效果。其基本思想就是在分词的同时进行句法、语义分析,利用句法信息和语义信息来处理歧义现象。它通常包括三个部分:分词子***、句法语义子***、总控部分。在总控部分的协调下,分词子***可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断,即它模拟了人对句子的理解过程。这种分词方法需要使用大量的语言知识和信息。由于汉语语言知识的笼统、复杂性,难以将各种语言信息组织成机器可直接读取的形式,因此目前基于理解的分词***还处在试验阶段。
基于字符串匹配的分词方法,又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与一个“充分大的”机器词典中的词条进行配,若在词典中找到某个字符串,则匹配成功(识别出一个词)。按照扫描方向的不同,串匹配分词方法可以分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,可以分为最大(最长)匹配和最小(最短)匹配;按照是否与词性标注过程相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。常用的几种机械分词方法有:(1)正向最大匹配法(由左到右的方向);(2)逆向最大匹配法(由右到左的方向);(3)最少切分(使每一句中切出的词数最小)。还可以将这三种机械分词方法相互组合,例如,可以将正向最大匹配方法和逆向最大匹配方法结合起来构成双向匹配法。由于汉语单字成词的特点,正向最小匹配和逆向最小匹配一般很少使用。一般说来,逆向匹配的切分精度略高于正向匹配,遇到的歧义现象也较少。实际使用的分词***,都是把机械分词作为一种初分手段,还需通过利用各种其它的语言信息来进一步提高切分的准确率。一种提高方法是改进扫描方式,称为特征扫描或标志切分,优先在待分析字符串中识别和切分出一些带有明显特征的词,以这些词作为断点,可将原字符串分为较小的串再来进机械分词,从而减少匹配的错误率。另一种提高方法是将分词和词类标注结合起来,利用丰富的词类信息对分词决策提供帮助,并且在标注过程中又反过来对分词结果进行检验、调整,从而极大地提高切分的准确率。
上述基于字符串匹配的分词方法,也就是机械分词方法中,不管是正向最大匹配法、逆向最大匹配法还是最少切分,这些最大匹配法的目的是试图在每分一个词时都尽量使其与词典中的词匹配长度最长。最大匹配法的优点是原理简单,易于实现,缺点是最大匹配长度不易确定,若太大则时间复杂度上升,太小则有些超过该长度的词无法匹配,降低了分词的准确率。最大匹配法的评价原则是“长词优先”。然而现有的最大匹配法不论顺向还是逆向,增字或减字,都是在局部范围进行最大匹配,即每次最大匹配的范围都是最先i个或最后i 个字符,这样并没有充分体现“长词优先”的原则。
基于传统统计的分词方法的原理是,从形式上看,词是稳定的字的组合,因此在上下文中,相邻的字同时出现的次数越多,就越有可能构成一个词。因此字与字相邻共现的频率或概率能够较好的反映成词的可信度。可以对语料中相邻共现的各个字的组合的频度进行统计,计算它们的互现信息。定义两个字的互现信息,计算两个汉字X、Y的相邻共现概率。互现信息体现了汉字之间结合关系的紧密程度。当紧密程度高于某一个阈值时,便可认为此字组可能构成了一个词。这种方法只需对语料中的字组频度进行统计,不需要切分词典,因而又叫做无词典分词法或统计取词方法。但这种方法也有一定的局限性,会经常抽出一些共现频度高、但并不是词的常用字组,例如“这一”、“之一”、“有的”、“我的”、“许多的”等,并且对常用词的识别精度差,时空开销大。
发明内容
本发明要解决的技术问题是提供一种基于词的关联特征的中文分词方法,用以解决现有技术中无法从大规模语料中有效识别并提取词的缺陷,实现计算机***在大规模语料中有效识别并提取词。
本发明的技术方案是:一种基于词的关联特征的中文分词方法:
a、从文本库中选出需要处理的文本,并对文本库进行预处理,包括去符号并使其形成语句,利用去符号后的语句构建语料库;
b、采用前后拼接词的分词方法,对步骤1中的语料库进行分词,形成分词碎片;
c、采用二元切分前后词拼接方法、三元切分前后词拼接方法、四元切分前后词拼接方法,形成二元候选词库、三元候选词库和四元候选词库;
d、对二元候选词库、三元候选词库和四元候选词库中的二元候选词,三元候选词,四元候选词进行词频统计;
e、对统计好词频的候选词设定一个词频门限,并对其进行判决,满足此门限的候选词保留,形成新的语料库,若不满足此门限的候选词则删除;
f、计算出步骤5处理后的语料库中的候选词的自由度和凝合度,并给定所有候选词一个统一的自由度和凝合度的门限,并进行判决,满足判决的候选词保留,若不满足此判决的候选词则删除;
g、采用分词过滤方法,在对筛选出来的三元候选词和四元候选词进行进一步的过滤,形成新的词库。
所述前后拼接词方法是指对一句中文从第一个字开始进行连续的切割分词,将其所有成词词语切割出来,具体为:
对于一个中文文本所包含的文本内容假设为:
{ai,ai+1,ai+2,ai+3,ai+4,ai+5.......ai-1+n,ai+n},其中,ai表示为文本中的一个字符,n∈N;
采用二元切分前后词拼接方法对文本集合进行二元切分拼接处理,得到处理结果二元文本片段集合,为:{(aiai+1),(ai+1ai+2),(ai+2ai+3),(ai+3ai+4),ai+5.......(ai-1+nai+n)};
采用三元切分前后词拼接方法对文本集合进行三元切分拼接处理,得到处理结果三元文本片段集合,为:{(aiai+1),(ai+1ai+2),(ai+2ai+3),(ai+3ai+4),ai+5.......(ai-1+nai+n)};
采用四元切分前后词拼接方法对文本集合进行四元切分拼接处理,得到处理结果四元文本片段集合,为:{(aiai+1ai+2ai+3),(ai+1ai+2ai+3ai+4),(ai+2ai+3ai+4ai+5).......(ai-3+ nai-2+nai-1+nai+n)}。
所述自由度是指:当一个文本片段出现在各种不同的文本集中,且具有左邻字集合和右邻字集合,左邻字集合是指出现在文本片段左边相邻的字符的集合,右邻字集合是指出现在文本片段右边相邻的字符的集合,通过计算左邻字集合和右邻字集合的信息熵获取一个文本片段的信息熵,取左邻字集合和右邻字集合中较小信息熵作为自由度。
所述自由度为得到的文本片段集合中,当一个文本片段能够出现在各种不同的文本集中,且具有左邻字集合和右邻字集合,通过计算左邻字集合和右邻字集合的信息熵获取一个文本片段的信息熵H,即,H=min{s′,s″} H表示候选词的自由度,S′表示候选词的右熵,s″为候选词的左熵,取左邻字集合和右邻字集合中较小信息熵作为自由度。
所述凝合度是指在一个文本中,一个新词单独出现的概率高于其组合词的概率的乘积,即P(AB)>P(A)P(B),令取最小的M为凝合度,其中AB表示一个新词,P(AB)表示新词在文本中出现的概率,A和B分别指代一个组合词,P(A) 和P(B)分别代表组合词在文本中出现的概率。
所述统计候选词的凝合度是通过计算语料中候选词的独立概率和联合概率的比值得到,具体步骤为:
(1)由候选词的概率和候选词的组合概率的比值得到两元候选词凝合度M2:
其中,M2表示候选词的凝合度,si表示两元候选词的第一个字在语料库中出现的概率, Ni表示两元候选词第一个字在语料中出现的次数,Ni+1表示两元候选词第二个字在语料中出现的次数,Ni,i+1表示两元候选词在语料库中出现的次数,表示语料中总字数,si+1表示两元候选词第二个字在语料库中出现的概率,p(i,i+1)表示两元候选词语在语料中出现的概率;
(2)由候选词的概率和候选词的组合概率的比值得到三元候选词凝合度M3:
其中,M3表示候选词的凝合度,Si表示三元候选词的第一个字在语料库中出现的概率, si+1,i+2表示三元候选词的后两个字同时在语料库中出现的概率,si,i+1表示三元候选词的前两个字同时在语料库中出现的概率,si+2表示三元候选词的最后一个字在语料库中出现的概率,Ni表示三元候选词的第一个字在语料库中出现的次数,Ni+2表示三元候选词的第三个字在语料库中出现的次数,Ni+1,i+2表示三元候选词的后两个字在语料库中出现的次数,Ni,i+1表示三元候选词的前两个字在语料库中出现的次数,Ni,i+1,i+2表示三元候选词在语料库中出现的次数,P(i,i+1,i+2)表示三元候选词语在语料中出现的概率;
(3)由候选词的概率和候选词的组合概率的比值得到四元候选词凝合度M4:
其中,M4表示候选词的凝合度,Si表示四元候选词的第一个字在语料库中出现的概率, Si+1,i+2,i+3表示四元候选词的后三个字同时在语料库中出现的概率,Si,i+1,i+2表示四元候选词的前三个字同时在语料库中出现的概率,Si,i+1,表示四元候选词的前两个字在语料库中出现的概率,Si+2,i+3表示四元候选词的后两个字在语料库中出现的概率,Ni表示四元候选词的第一个字在语料库中出现的次数,Ni+3表示四元候选词的第四个字在语料库中出现的次数, Ni,i+1表示四元候选词的前两个字在语料库中出现的次数,Ni+2,i+3表示四元候选词的后两个字在语料库中出现的次数,Ni+1,i+2,i+3,表示四元候选词的后三个字在语料库中出现的次数, Ni+1,i+2,i+3,表示四元候选词的前三个字在语料库中出现的次数,P(i,i+1,i+2,i+3)表示四元候选词在语料库中出现的概率。
所述三元候选词的过滤方法是:对于三元候选词,若后两个字符是存在于二元候选词库中,判断第一个字是否与左邻接字构成一个词,若前两个字符是存在于二元候选词库中,判断最后一个字是否与右邻接字构成一个词,确定三元候选词是否候选词;
其中,(Ai-1AiAi+1)属于三元候选词,Ai-2是三元候选词的左邻字集,Ai+2是三元候选词的右邻接字,{A0....Ai....AN.},是语料库中字符集和,{(A0,A1)...(Ai,Ai+1)...(Ai-2,Ai-1)},是二元候选词集合。
所述四元候选词的过滤方法是:对可能成词的四元候选词,首先,进行分割,前两个字为一个分词片段,后两个字为另一个分词片段,并分别对分词片段与已分好的二元词库进行匹配,匹配中的则作为预选词,然后,在对四元词的中间两个字进行分割,并与已分好的二元词库进行匹配,匹配不中的则作为预选词,如果两个条件都满足,则作为分词的结果:
其中,{Ai-2,(Ai-1AiAi+1)Ai+2}.表示四元候选词,{(Ai-2,Ai-1),(Ai,Ai+1)}表示由四元候选词分出来的前后两各词,{(A0A1)...(AiAi+1)...(ANAN+1)}表示二元词库,{(Ai-1,Ai)}表示四元候选词中间词。
本发明的有益效果是:本发明所提供的方法的正确性和有效性比较高,***可以高效地进行分词,本发明设计到的,凝合度,自由度,三元和四元分词方法可以很好的解决传统的基于统计模型的分词方法所出现的问题。
附图说明
图1是本发明的流程示意图;
具体实施方式
下面结合附图和具体实施方式,对本发明作进一步说明。
实施例1:如图1所示,一种基于词的关联特征的中文分词方法:
a、从文本库中选出需要处理的文本,并对文本库进行预处理,包括去符号并使其形成语句,利用去符号后的语句构建语料库;
b、采用前后拼接词的分词方法,对步骤1中的语料库进行分词,形成分词碎片;
c、采用二元切分前后词拼接方法、三元切分前后词拼接方法、四元切分前后词拼接方法,形成二元候选词库、三元候选词库和四元候选词库;
d、对二元候选词库、三元候选词库和四元候选词库中的二元候选词,三元候选词,四元候选词进行词频统计;
e、对统计好词频的候选词设定一个词频门限,并对其进行判决,满足此门限的候选词保留,形成新的语料库,若不满足此门限的候选词则删除;
f、计算出步骤5处理后的语料库中的候选词的自由度和凝合度,并给定所有候选词一个统一的自由度和凝合度的门限,并进行判决,满足判决的候选词保留,若不满足此判决的候选词则删除;
g、采用分词过滤方法,在对筛选出来的三元候选词和四元候选词进行进一步的过滤,形成新的词库。
所述前后拼接词方法是指对一句中文从第一个字开始进行连续的切割分词,将其所有成词词语切割出来,具体为:
对于一个中文文本所包含的文本内容假设为:
{ai,ai+1,ai+2,ai+3,ai+4,ai+5.......ai-1+n,ai+n},其中,ai表示为文本中的一个字符,n∈N;
采用二元切分前后词拼接方法对文本集合进行二元切分拼接处理,得到处理结果二元文本片段集合,为:{(aiai+1),(ai+1ai+2),(ai+2ai+3),(ai+3ai+4),ai+5.......(ai-1+nai+n)};
采用三元切分前后词拼接方法对文本集合进行三元切分拼接处理,得到处理结果三元文本片段集合,为:{(aiai+1),(ai+1ai+2),(ai+2ai+3),(ai+3ai+4),ai+5.......(ai-1+nai+n)};
采用四元切分前后词拼接方法对文本集合进行四元切分拼接处理,得到处理结果四元文本片段集合,为:{(aiai+1ai+2ai+3),(ai+1ai+2ai+3ai+4),(ai+2ai+3ai+4ai+5).......(ai-3+ nai-2+nai-1+nai+n)}。
所述自由度是指:当一个文本片段出现在各种不同的文本集中,且具有左邻字集合和右邻字集合,左邻字集合是指出现在文本片段左边相邻的字符的集合,右邻字集合是指出现在文本片段右边相邻的字符的集合,通过计算左邻字集合和右邻字集合的信息熵获取一个文本片段的信息熵,取左邻字集合和右邻字集合中较小信息熵作为自由度。
所得到的文本片段集合中,文本片段的左邻字集合是指:出现在文本片段左边相邻的字符的集合,例如文本片段(ai+1ai+2)在文本集合{ai,ai+1,ai+2,ai+3,ai+4,ai+ 5.......ai-1+n,ai+n}中左邻字集合为{ai},文本片段的右邻字集合是指:出现在文本片段右边相邻的字符的集合,例如文本片段(ai+1ai+2)在文本集合{ai,ai+1,ai+2,ai+3,ai+4,ai+5.......ai-1+n,ai+n}中右邻字集合为 {ai+3}。
所述自由度为得到的文本片段集合中,当一个文本片段能够出现在各种不同的文本集中,且具有左邻字集合和右邻字集合,通过计算左邻字集合和右邻字集合的信息熵获取一个文本片段的信息熵H,即,H=min{s′,s″} H表示候选词的自由度,S′表示候选词的右熵,s″为候选词的左熵,取左邻字集合和右邻字集合中较小信息熵作为自由度。
所述候选词的自由度是通过计算并选择候选词左右邻字集信息熵小者为候选词的自由度。
H=min{s′,s″}
其中,H表示候选词的自由度,s'表示候选词的右熵;
其中,bi属于候选词的右邻字集,nbi表示bi出现在候选词右边的频数,k表示候选词的右邻字集中字元素个数,s″为候选词的左熵;
其中,mi属于候选词的左邻字集,nmi表示mi出现在候选词左边的频数,M表示候选词的左邻字集中字元素个数。
所述凝合度是指在一个文本中,一个新词单独出现的概率高于其组合词的概率的乘积,即P(AB)>P(A)P(B),令取最小的M为凝合度,其中AB表示一个新词,P(AB)表示新词在文本中出现的概率,A和B分别指代一个组合词,P(A)和P(B) 分别代表组合词在文本中出现的概率。
所述统计候选词的凝合度是通过计算语料中候选词的独立概率和联合概率的比值得到,具体步骤为:
(1)由候选词的概率和候选词的组合概率的比值得到两元候选词凝合度M2:
其中,M2表示候选词的凝合度,si表示两元候选词的第一个字在语料库中出现的概率, Ni表示两元候选词第一个字在语料中出现的次数,Ni+1表示两元候选词第二个字在语料中出现的次数,Ni,i+1表示两元候选词在语料库中出现的次数,表示语料中总字数,Si+1表示两元候选词第二个字在语料库中出现的概率,p(i,i+1)表示两元候选词语在语料中出现的概率;
(2)由候选词的概率和候选词的组合概率的比值得到三元候选词凝合度M3:
其中,M3表示候选词的凝合度,Si表示三元候选词的第一个字在语料库中出现的概率, si+1,i+2表示三元候选词的后两个字同时在语料库中出现的概率,si,i+1表示三元候选词的前两个字同时在语料库中出现的概率,si+2表示三元候选词的最后一个字在语料库中出现的概率,Ni表示三元候选词的第一个字在语料库中出现的次数,Ni+2表示三元候选词的第三个字在语料库中出现的次数,Ni+1,i+2表示三元候选词的后两个字在语料库中出现的次数,Ni,i+1表示三元候选词的前两个字在语料库中出现的次数,Ni,i+1,i+2表示三元候选词在语料库中出现的次数,P(i,i+1,i+2)表示三元候选词语在语料中出现的概率;
(3)由候选词的概率和候选词的组合概率的比值得到四元候选词凝合度M4:
其中,M4表示候选词的凝合度,Si表示四元候选词的第一个字在语料库中出现的概率, Si+1,i+2,i+3表示四元候选词的后三个字同时在语料库中出现的概率,Si,i+1,i+2表示四元候选词的前三个字同时在语料库中出现的概率,Si,i+1,表示四元候选词的前两个字在语料库中出现的概率,Si+2,i+3表示四元候选词的后两个字在语料库中出现的概率,Ni表示四元候选词的第一个字在语料库中出现的次数,Ni+3表示四元候选词的第四个字在语料库中出现的次数, Ni,i+1表示四元候选词的前两个字在语料库中出现的次数,Ni+2,i+3表示四元候选词的后两个字在语料库中出现的次数,Ni+1,i+2,i+3,表示四元候选词的后三个字在语料库中出现的次数, Ni+1,i+2,i+3,表示四元候选词的前三个字在语料库中出现的次数,P(i,i+1,i+2,i+3)表示四元候选词在语料库中出现的概率。
所述三元候选词的过滤方法是:对于三元候选词,若后两个字符是存在于二元候选词库中,判断第一个字是否与左邻接字构成一个词,若前两个字符是存在于二元候选词库中,判断最后一个字是否与右邻接字构成一个词,确定三元候选词是否候选词;
其中,(Ai-1AiAi+1)属于三元候选词,Ai-2是三元候选词的左邻字集,Ai+2是三元候选词的右邻接字,{A0....Ai....AN.},是语料库中字符集和,{(A0,A1)...(Ai,Ai+1)...(Ai-2,Ai-1)},是二元候选词集合。
所述四元候选词的过滤方法是:对可能成词的四元候选词,首先,进行分割,前两个字为一个分词片段,后两个字为另一个分词片段,并分别对分词片段与已分好的二元词库进行匹配,匹配中的则作为预选词,然后,在对四元词的中间两个字进行分割,并与已分好的二元词库进行匹配,匹配不中的则作为预选词,如果两个条件都满足,则作为分词的结果:
其中,{Ai-2,(Ai-1AiAi+1)Ai+2}.表示四元候选词,{(Ai-2,Ai-1),(Ai,Ai+1)}表示由四元候选词分出来的前后两各词,{(A0A1)...(AiAi+1)...(ANAN+1)}表示二元词库,{(Ai-1,Ai)}表示四元候选词中间词。
实施例2:如图1所示,从文本库中选出需要处理的文本,并对文本库进行预处理,包括去符号并使其形成语句,利用去符号后的语句构建语料库。
采用前后拼接词的分词方法,对步骤a1中的语料库进行分词,形成分词碎片。
采用二元切分前后词拼接,三元切分前后词拼接,四元切分前后词拼接方法,形成一个二元候选词库,三元候选词库和四元候选词库。
对统计好了的词频的候选词设定一个词频门限,并对其进行判决,满足此判决的保留,形成新的语料库。
统计候选词的凝合度及候选词的自由度;本实施例中,所述统计候选词的凝合度可以通过计算语料中候选词的独立概率和联合概率比值获得;所述候选词的自由度可以通过计算并选择候选词左右邻字集信息熵最小者为候选词的自由度。
将所述候选词的凝合度与候选词的自由度与设定的门限值进行比较。
提取大于门限值的候选词,作为候选词库。
在本实施例中,收集了四大名著中小说《西游记》。在统计出的词库中,若成词的文本片段分布充足,那么相对于不成词的片段其凝合程度会较高,且自由度更大。如果将字的左右邻字看作随机变量,那么一个字的左右邻字集的信息熵就反映了这个字左右邻字的随机性,熵值越大说明该字的左邻字集合或右邻字集合越丰富,我们取左右邻字集中较小的熵作为自由度。
在本实施例中,对于成词的片段其凝合程度会较高,说明词与词的之间关系程度就更高,在计算凝合度时,我们取凝合度较小的作为最终的凝合度。
我们把通过自由度和凝合度统计出的词库作为候选词库,在通过三元分词过滤方法和四元分词过滤方法,对三元候选词库和四元候选词库进行处理,最终得到的作为词库。
三元分词过滤方法和四元分词过滤方法解决了从主观上看似是词而实际上不是词的问题,从而提高了三元词库和四元词库的有效性。
以上结合附图对本发明的具体实施方式作了详细说明,但是本发明并不限于上述实施方式,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下作出各种变化。
Claims (7)
1.一种基于词的关联特征的中文分词方法,其特征在于:
a、从文本库中选出需要处理的文本,并对文本库进行预处理,包括去符号并使其形成语句,利用去符号后的语句构建语料库;
b、采用前后拼接词的分词方法,对步骤a中的语料库进行分词,形成分词碎片;
c、对分词碎片采用二元切分前后词拼接方法生成二元候选词库、三元切分前后词拼接方法生成三元候选词库、四元切分前后词拼接方法生成四元候选词库;
d、对二元候选词库、三元候选词库和四元候选词库中的二元候选词、三元候选词、四元候选词分别进行词频统计;
e、对词频统计好的候选词设定一个词频门限,并进行判决,满足词频门限的候选词保留,形成新的语料库,不满足词频门限的候选词则删除;
f、计算出步骤e处理后的语料库中的候选词的自由度和凝合度,并给定所有候选词一个统一的自由度门限和凝合度门限,并进行判决,满足自由度门限和凝合度门限的候选词保留,不满足自由度门限和凝合度门限的候选词则删除;
g、采用分词过滤方法,在对筛选出来的三元候选词和四元候选词进行进一步的过滤,形成新的词库;
计算候选词的凝合度是通过计算语料中候选词的概率和组合概率的比值得到,具体步骤为:
(1)由二元候选词的概率和二元候选词的组合概率的比值得到二元候选词凝合度M2:
其中,S2i表示二元候选词的第一个字在语料库中出现的概率,S2i+1表示二元候选词第二个字在语料库中出现的概率,p(2i,2i+1)表示二元候选词在语料库中出现的概率;
(2)由三元候选词的概率和三元候选词的组合概率的比值得到三元候选词凝合度M3:
其中,S3i表示三元候选词的第一个字在语料库中出现的概率,S3i+1,3i+2表示三元候选词的后两个字同时在语料库中出现的概率,S3i,3i+1表示三元候选词的前两个字同时在语料库中出现的概率,S3i+2表示三元候选词的最后一个字在语料库中出现的概率,P(3i,3i+1,3i+2)表示三元候选词在语料库中出现的概率;
(3)由四元候选词的概率和四元候选词的组合概率的比值得到四元候选词凝合度M4:
其中,S4i表示四元候选词的第一个字在语料库中出现的概率,S4i+1,4i+2,4i+3表示四元候选词的后三个字同时在语料库中出现的概率,S4i,4i+1,4i+2表示四元候选词的前三个字同时在语料库中出现的概率,S4i,4i+1表示四元候选词的最前两个字在语料库中出现的概率,S4i+2,4i+3表示四元候选词的最后两个字在语料库中出现的概率,P(4i,4i+1,4i+2,4i+3)表示四元候选词在语料库中出现的概率。
2.根据权利要求1所述的基于词的关联特征的中文分词方法,其特征在于:所述前后拼接词的分词方法是指对一句中文从第一个字开始进行连续的切割分词,将其所有成词词语切割出来,具体为:
对于一个中文文本所包含的文本内容假设为:
文本集合{ai,ai+1,ai+2,ai+3,ai+4,ai+5.......ai-1+n,ai+n},其中,ai表示为文本中的一个字符,n∈N;
采用二元切分前后词拼接方法对文本集合进行二元切分拼接处理,得到处理结果二元文本片段集合,为:{(aiai+1),(ai+1ai+2),(ai+2ai+3),(ai+3ai+4),(ai+4ai+5)......(ai-1+nai+n)};
采用三元切分前后词拼接方法对文本集合进行三元切分拼接处理,得到处理结果三元文本片段集合,为:{(aiai+1ai+2),(ai+1ai+2ai+3),(ai+2ai+3ai+4),(ai+3ai+4ai+5)......(ai-2+nai-1+nai+n)};
采用四元切分前后词拼接方法对文本集合进行四元切分拼接处理,得到处理结果四元文本片段集合,为:{(aiai+1ai+2ai+3),(ai+1ai+2ai+3ai+4),(ai+2ai+3ai+4ai+5).......(ai-3+nai-2+ nai-1+nai+n)}。
3.根据权利要求1所述的基于词的关联特征的中文分词方法,其特征在于:所述自由度是指:当一个文本片段出现在各种不同的文本集中,且具有左邻字集合和右邻字集合,左邻字集合是指出现在文本片段左边相邻的字符的集合,右邻字集合是指出现在文本片段右边相邻的字符的集合,通过计算左邻字集合和右邻字集合的信息熵获取一个文本片段的信息熵,取左邻字集合和右邻字集合中最小信息熵作为自由度。
7.根据权利要求1所述的基于词的关联特征的中文分词方法,其特征在于:所述四元候选词的过滤方法是:对可能成词的四元候选词需要满足两个条件,条件1,首先,进行分割,前两个字为一个分词片段,后两个字为另一个分词片段,并分别对两个分词片段与已分好的二元词库进行匹配,两个分词片段都匹配中的则作为四元候选词的预选词,条件2,然后,再对四元词的中间两个字进行分割,并与已分好的二元词库进行匹配,中间两个字与已分好的二元词库匹配不中的则作为四元候选词的预选词,将满足两个条件的四元候选词的预选词作为分词的结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711293044.8A CN108845982B (zh) | 2017-12-08 | 2017-12-08 | 一种基于词的关联特征的中文分词方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711293044.8A CN108845982B (zh) | 2017-12-08 | 2017-12-08 | 一种基于词的关联特征的中文分词方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108845982A CN108845982A (zh) | 2018-11-20 |
CN108845982B true CN108845982B (zh) | 2021-08-20 |
Family
ID=64211732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711293044.8A Active CN108845982B (zh) | 2017-12-08 | 2017-12-08 | 一种基于词的关联特征的中文分词方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108845982B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858011B (zh) * | 2018-11-30 | 2022-08-19 | 平安科技(深圳)有限公司 | 标准词库分词方法、装置、设备及计算机可读存储介质 |
CN110334345A (zh) * | 2019-06-17 | 2019-10-15 | 首都师范大学 | 新词发现方法 |
CN110287488A (zh) * | 2019-06-18 | 2019-09-27 | 上海晏鼠计算机技术股份有限公司 | 一种基于大数据和中文特征的中文文本分词方法 |
CN110287493B (zh) * | 2019-06-28 | 2023-04-18 | 中国科学技术信息研究所 | 风险短语识别方法、装置、电子设备及存储介质 |
CN110442861B (zh) * | 2019-07-08 | 2023-04-07 | 万达信息股份有限公司 | 一种基于真实世界统计的中文专业术语与新词发现的方法 |
CN111125329B (zh) * | 2019-12-18 | 2023-07-21 | 东软集团股份有限公司 | 一种文本信息筛选方法、装置及设备 |
CN112711944B (zh) * | 2021-01-13 | 2023-03-10 | 深圳前瞻资讯股份有限公司 | 一种分词方法、***、分词器生成方法及*** |
CN116431930A (zh) * | 2023-06-13 | 2023-07-14 | 天津联创科技发展有限公司 | 科技成果转化数据查询方法、***、终端及存储介质 |
CN116541527B (zh) * | 2023-07-05 | 2023-09-29 | 国网北京市电力公司 | 一种基于模型集成和数据扩充的公文分类方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622341A (zh) * | 2012-04-20 | 2012-08-01 | 北京邮电大学 | 基于Bootstrapping技术的领域本体概念自动获取方法 |
CN105488098A (zh) * | 2015-10-28 | 2016-04-13 | 北京理工大学 | 一种基于领域差异性的新词提取方法 |
CN105955950A (zh) * | 2016-04-29 | 2016-09-21 | 乐视控股(北京)有限公司 | 新词发现方法及装置 |
CN106126495A (zh) * | 2016-06-16 | 2016-11-16 | 北京捷通华声科技股份有限公司 | 一种基于大规模语料提词方法和装置 |
CN107180025A (zh) * | 2017-03-31 | 2017-09-19 | 北京奇艺世纪科技有限公司 | 一种新词的识别方法及装置 |
-
2017
- 2017-12-08 CN CN201711293044.8A patent/CN108845982B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102622341A (zh) * | 2012-04-20 | 2012-08-01 | 北京邮电大学 | 基于Bootstrapping技术的领域本体概念自动获取方法 |
CN105488098A (zh) * | 2015-10-28 | 2016-04-13 | 北京理工大学 | 一种基于领域差异性的新词提取方法 |
CN105955950A (zh) * | 2016-04-29 | 2016-09-21 | 乐视控股(北京)有限公司 | 新词发现方法及装置 |
CN106126495A (zh) * | 2016-06-16 | 2016-11-16 | 北京捷通华声科技股份有限公司 | 一种基于大规模语料提词方法和装置 |
CN107180025A (zh) * | 2017-03-31 | 2017-09-19 | 北京奇艺世纪科技有限公司 | 一种新词的识别方法及装置 |
Non-Patent Citations (1)
Title |
---|
基于改进的正向最大匹配中文分词算法研究;王惠仙 等;《贵州大学学报(自然科学版)》;20111031;第28卷(第5期);第112-119页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108845982A (zh) | 2018-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108845982B (zh) | 一种基于词的关联特征的中文分词方法 | |
US10949709B2 (en) | Method for determining sentence similarity | |
CN104765769B (zh) | 一种基于词矢量的短文本查询扩展及检索方法 | |
CN104572622B (zh) | 一种术语的筛选方法 | |
CN108984526A (zh) | 一种基于深度学习的文档主题向量抽取方法 | |
CN108710611B (zh) | 一种基于词网络和词向量的短文本主题模型生成方法 | |
CN106598940A (zh) | 基于全局优化关键词质量的文本相似度求解算法 | |
CN112818694A (zh) | 一种基于规则和改进预训练模型的命名实体识别方法 | |
CN109947951B (zh) | 一种可自动更新的用于金融文本分析的情感字典构建方法 | |
CN109271524B (zh) | 知识库问答***中的实体链接方法 | |
CN109829151B (zh) | 一种基于分层狄利克雷模型的文本分割方法 | |
CN105787121B (zh) | 一种基于多故事线的微博事件摘要提取方法 | |
CN110134934A (zh) | 文本情感分析方法和装置 | |
CN110674296B (zh) | 一种基于关键词的资讯摘要提取方法及*** | |
CN106598941A (zh) | 一种全局优化文本关键词质量的算法 | |
CN112069307B (zh) | 一种法律法条引用信息抽取*** | |
CN107688630A (zh) | 一种基于语义的弱监督微博多情感词典扩充方法 | |
CN107818173B (zh) | 一种基于向量空间模型的中文虚假评论过滤方法 | |
CN111061873B (zh) | 一种基于Attention机制的多通道的文本分类方法 | |
CN107038155A (zh) | 基于改进的小世界网络模型实现文本特征的提取方法 | |
CN110347812A (zh) | 一种面向司法文本的搜索排序方法及*** | |
CN111858900B (zh) | 问句语义解析规则模板的生成方法、装置、设备及存储介质 | |
CN110929022A (zh) | 一种文本摘要生成方法及*** | |
CN110489759B (zh) | 基于词频的文本特征加权及短文本相似性计算方法、***和介质 | |
CN116453013A (zh) | 视频数据的处理方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |