CN105740226A - 使用树形神经网络和双向神经网络实现中文分词 - Google Patents
使用树形神经网络和双向神经网络实现中文分词 Download PDFInfo
- Publication number
- CN105740226A CN105740226A CN201610037336.4A CN201610037336A CN105740226A CN 105740226 A CN105740226 A CN 105740226A CN 201610037336 A CN201610037336 A CN 201610037336A CN 105740226 A CN105740226 A CN 105740226A
- Authority
- CN
- China
- Prior art keywords
- sentence
- term memory
- long term
- neural networks
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000011218 segmentation Effects 0.000 title claims abstract description 21
- 230000002146 bilateral effect Effects 0.000 title abstract 3
- 238000002372 labelling Methods 0.000 claims abstract 2
- 230000007787 long-term memory Effects 0.000 claims description 31
- 230000007935 neutral effect Effects 0.000 claims description 21
- 238000003062 neural network model Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 2
- 230000015654 memory Effects 0.000 abstract description 3
- 238000004590 computer program Methods 0.000 abstract 1
- 239000011159 matrix material Substances 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000035800 maturation Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
本发明涉及树形神经网络和双向神经网络实现中文分词的方法、***、装置及计算机程序。方法包括将输入句子中的每个字转换成字向量作为第一输入序列,将所述的第一输入序列作为三层长短期记忆神经网络即树形神经网络的输入,同时以句向量作为每层隐藏层的初始化值,产生第二输入序列,将所述的第二输入序列传递给双向长短期记忆神经网络,同时以句向量作为隐藏层初始化值,产生第三输入序列,将所述的第三输入序列传递给logSoftMax层即多分类层,最终生成分词标记序列。
Description
技术领域
本发明属于自然语言处理领域,涉及使用树形神经网络和双向神经网络实现中文分词的方法。
背景技术
常用的传统中文分词技术包括逐词遍历法、基于字典词库匹配的分词方法、全切分和基于词的频度统计的分词方法等,这些方法都是以算法为基础的方式。传统方法中还有两个比较有名的基于模型的分词方法,隐马尔可夫模型,条件随机场模型,这两个模型都是通过已经序列,求出目标序列,其中条件随机场模型效果优于隐马尔可夫模型。随着计算机计算能力的提升和神经网络模型的成熟,这里提出一种使用树形神经网络双向神经网络实现中文分词的方法。
发明内容
本发明的目的在于至少在一定程度上提出一种基于神经网络实现中文分词的方法。说明了如何通过输入的句子生成对应的分词标记序列。
为了实现以上目的,本发明采用的技术方案是:获得输入句子,将句子中的每个字转换成字向量作为第一输入,将第一输入传递给三层长短期记忆神经网络即树形神经网络产生第二输入,从而实现短语、语义信息的提取,将第二输入传递给双向长短期记忆神经网络,并用特殊的方式来初始化隐藏层的初始输入,产生第三输入,从而实现字上下文信息的提取,将第三输入传递给logSoftMax层即多分类层,获得最终的分词标记序列。为了能够获得树形信息,需要对每个网络单独训练,再对整个神经网络进行训练。
在以下附图和说明中描述了本说明书中所述主题的一些实施例的细节。依据说明、附图和权利要求书,使用树形和双向神经网络实现中文分词的方法的其他特征、方面和优点会是显而易见。
附图说明
图1示出了整个神经网络结构
图2示出了部分三层长短期记忆神经网络
图3示出了一个双向-长短期记忆神经网络
具体实施方式
下面将结合本发明中的附图,对整个技术方案即整个神经网络进行清晰,完整的解释。
本发明的内容在于提供一种基于神经网络进行中文分词的技术解决方案,包括四个部分,把句子转换成向量部分,训练三层长短期记忆神经网络即树形神经网络部分,训练双向长短期记忆神经网络部分,训练整个神经网络。
图1示出了从输入句子到最终的句子分词标记序列输出的整个流程。其中输入句子到输入序列是将句子转换成词向量的***的示例。在其中可以实施下述的***、组件和技术。
将单词转换成词向量,词向量有两种方式可以获得,1)把词向量作为参数,包含在神经网络当中,训练整个神经网络的同时就可以获得词向量。但通过这种方式而获得的词向量,相似汉字这间的关系并不明显,甚至没有必然的联系。2)利用比较成熟的神经网络预先训练出词向量库,如word2vec,GloVe,这两个神经网络算法训练出来的词向量,相似词或同类词之间存在一定的线性关系或明显的非线性关系,通过一个词的词向量可以找到它相似的词。为了使得词向量更具有语义,本发明采用Glove训练出300维的词向量库。
统计语料中字的个数N,使用oneHot(oneHot表示一个维度为N,只有其中一个位置为1其他为0的向量)表示每个字,通过oneHot找到字对应的向量,最终将句子转换成向量表示。
图2显示了部分三层长短期记忆神经网络,每一层长短期记忆神经网络,由100个标准的LSTM(长短期记忆)节点组成。标准的LSTM主要处理可变长序列,解决长距离依赖问题,它包括三个门:输入门、忘记门、输出门。使用多层长短期记忆神经网络就相当于形成了一个树形神经网络。
为了使用三层长短期记忆神经网络具有树形的功能,训练这层网络的输入是句向量,目标是这个输入句子对应的语法解析树的序列表示,例如:input={″使用树形神经网络和双向神经网络实现中文分词″},target={″(ROOT(IP(VP(VP(VV使用)(NP(NP(NN树形)(NN神经)(NN网络))(CC和)(NP(ADJP(JJ双向))(NP(NN神经)(NN网络)))))(VP(VV实现)(NP(NN中文)(NN分词))))))″},单独训练的时候,需要在这层网络添加一个线性转换层和一个logSoftMax层,使得100个节点的标准的LSTM的输出能与树形的序列表示对应,相当于编码与解码。传统的长短期记忆神经网络的隐藏层的初始化状态为全0或生成很小的随机数,对于这三层长短期记忆神经网络的初始状态,本发明采用sentence2vec(一个将句子转换成句向量的神经网络算法)生成代表输入句子的句向量,句向量通过乘以矩阵参数转换成与隐藏层相同维度的向量,矩阵参数通过训练整个神经网络获得。
图3显示了双向长短期记忆(BIDIRECTIONAL-LSTM)神经网络。一个双向-长短期记忆神经网络包括一个由前向后传递的循环递归-长短期记忆神经网络和一个由后向前的循环递归-长短记忆神经网络构成,每个循环递归-长短期记忆神经网络由指定长度即块数的LSTM记忆单元构成,这里采用的序列长度最长是100。每个单元包括输入门、忘记门和输出门,即标准的LSTM记忆单元。双向-长短期记忆神经网络,能捕捉到每个词左右两边的信息,所以更好地获得语义。通常标准的BIDIRECTIONAL-LSTM两端隐藏层的初始化状态为全0或生成很小的随机数,同上面三层长短期记忆神经网络一样,本发明采用sentence2vec(一个将句子转换成句向量的神经网络算法)生成代表输入句子的句向量,句向量通过乘以矩阵参数转换成与隐藏层相同维度的向量,矩阵参数通过训练整个神经网络获得。
图1中的输出序列,在输出序列中设置logsoftMax层即分类层,每个输出都产生一个列向量,列向量的维度为4,这个4表示BEMS标志,其中B指Begin词首,E指End词尾,M指Middle词中,S指单字词,取出其中最大的概率值,找到对应位置的标志,这个标志就是输入句子对应位置的字的标志了。对所有的输出做同样的操作,最终获得分词标记序列。
为了单独训练双向长短期记忆(BIDIRECTIONAL-LSTM)神经网络和logsoftMax层即分类层,将输入句子通过前面训练好的三层长短期记忆神经网络的输入作为双向长短期记忆(BIDIRECTIONAL-LSTM)神经网络的输入,目标是这个句子对应的分词标记序列。
上面是对整个神经网络结构和处理过程的完整解释。最终需要训练整个神经网络,才可以使用,输入为一个句子,目标是一个分词标记序列,如:input={″使用树形神经网络和双向神经网络实现中文分词″},target={″BEBEBEBESBEBEBEBEBEBE″}.使用时,只需要输入一个句子,就可以输出分词标记序列。
尽管本说明书包含一些特定实现方式细节,但这些不应视为对任何发明的或者所要求的范围的限制,只是用于特定实施例的特征的说明。凡依据本发明的思路所作的同等同效变化,均应涵盖于本发明的保护范围内。
Claims (10)
1.一种使用树形双向神经网络实现中文分词的方法,包括以下步骤:获得输入句子,所述输入句子包括符合语法顺序的多个输入;使用语言模型将所述的句子中每个字转换成字向量作为第一输入序列,将所述的第一输入序列传递给三层长短期记忆神经网络即树形神经网络,同时根据所述的输入句子生成句向量作为三层长短期记忆神经网络中每层隐藏层的初始化输入,训练三层长短期记忆神经网络,产生第二输入序列,再将第二输入序列传递给双向长短期记忆神经网络,同时根据所述的输入句子生成句向量作为双向长短期记忆神经网络隐藏层的初始化输入,产生第三输入序列,将所述的第三输入序列传递给logSoftMax层即多分类层,以产生所述输入句子的分词标记序列。
2.根据权利要求1所述的方法,其中所述输入句子是不超过指定长度的可变长度输入句子。
3.根据权利要求1所述的方法,其中所述的语言模型指的是将字或词转换成词向量的神经网络模型。
4.根据权利要求1到3任意一项所述的方法,其中处理所述输入句子包括:将所述输入句子中的未识别项替换成指定标记以产生经过修改的输入句子。
5.根据权利要求1其中所述的句向量指的是通过成熟的神经网络模型将所述的输入句子转换得到的向量表示。
6.根据权利要求1所述的方法,其中所述的隐藏层的初始化输入包括双向长短期记忆神经网络隐藏层由前向后的初始化状态及由后向前的初始化状态,及三层长短期记忆神经网络每层的初始化状态,都采用所述句子的句向量。
7.根据权利要求1至6任意一项所述的方法,进一步包括:使用随机梯度下降训练所述三层长短期记忆神经网络和双向长短期记忆神经网络。
8.根据权利要求1到7任意一项所述的方法,其中所述输入句子是符合语法的句子,并且分词标记序列是由4种标签组合的字符串。
9.根据权利要求8所述的4个标签组合是指BMES,其中B指Begin表示词首,E指End表示词尾,M指Middle表示词中,S指Single表示单个词。
10.根据权利要求1所述的方法,其中训练三层长短期记忆神经网络指的是添加额外的线性转换和logSoftMax层,以所述句子的向量表示作为输入,以所述句子的语法解析树的序列表示作为目标,训练网络参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610037336.4A CN105740226A (zh) | 2016-01-15 | 2016-01-15 | 使用树形神经网络和双向神经网络实现中文分词 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610037336.4A CN105740226A (zh) | 2016-01-15 | 2016-01-15 | 使用树形神经网络和双向神经网络实现中文分词 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105740226A true CN105740226A (zh) | 2016-07-06 |
Family
ID=56246271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610037336.4A Pending CN105740226A (zh) | 2016-01-15 | 2016-01-15 | 使用树形神经网络和双向神经网络实现中文分词 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105740226A (zh) |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372107A (zh) * | 2016-08-19 | 2017-02-01 | 中兴通讯股份有限公司 | 自然语言文句库的生成方法及装置 |
CN106919646A (zh) * | 2017-01-18 | 2017-07-04 | 南京云思创智信息科技有限公司 | 中文文本摘要生成***及方法 |
CN107145483A (zh) * | 2017-04-24 | 2017-09-08 | 北京邮电大学 | 一种基于嵌入式表示的自适应中文分词方法 |
CN107193865A (zh) * | 2017-04-06 | 2017-09-22 | 上海奔影网络科技有限公司 | 人机交互中自然语言意图理解方法及装置 |
CN107463928A (zh) * | 2017-07-28 | 2017-12-12 | 顺丰科技有限公司 | 基于ocr和双向lstm的文字序列纠错算法、***及其设备 |
CN107480680A (zh) * | 2017-07-28 | 2017-12-15 | 顺丰科技有限公司 | 基于OCR和Bi‑LSTM的识别图像中文字信息的方法、***及设备 |
CN107608970A (zh) * | 2017-09-29 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 词性标注模型生成方法和装置 |
CN107797986A (zh) * | 2017-10-12 | 2018-03-13 | 北京知道未来信息技术有限公司 | 一种基于lstm‑cnn的混合语料分词方法 |
CN107844475A (zh) * | 2017-10-12 | 2018-03-27 | 北京知道未来信息技术有限公司 | 一种基于lstm的分词方法 |
CN107894976A (zh) * | 2017-10-12 | 2018-04-10 | 北京知道未来信息技术有限公司 | 一种基于Bi‑LSTM的混合语料分词方法 |
CN107894975A (zh) * | 2017-10-12 | 2018-04-10 | 北京知道未来信息技术有限公司 | 一种基于Bi‑LSTM的分词方法 |
CN107943783A (zh) * | 2017-10-12 | 2018-04-20 | 北京知道未来信息技术有限公司 | 一种基于lstm‑cnn的分词方法 |
CN107967252A (zh) * | 2017-10-12 | 2018-04-27 | 北京知道未来信息技术有限公司 | 一种基于Bi-LSTM-CNN的分词方法 |
CN107977354A (zh) * | 2017-10-12 | 2018-05-01 | 北京知道未来信息技术有限公司 | 一种基于Bi-LSTM-CNN的混合语料分词方法 |
CN107992467A (zh) * | 2017-10-12 | 2018-05-04 | 北京知道未来信息技术有限公司 | 一种基于lstm的混合语料分词方法 |
CN108090070A (zh) * | 2016-11-22 | 2018-05-29 | 北京高地信息技术有限公司 | 一种中文实体属性抽取方法 |
CN108595428A (zh) * | 2018-04-25 | 2018-09-28 | 杭州闪捷信息科技股份有限公司 | 基于双向循环神经网络进行分词的方法 |
WO2018232699A1 (zh) * | 2017-06-22 | 2018-12-27 | 腾讯科技(深圳)有限公司 | 一种信息处理的方法及相关装置 |
CN109388806A (zh) * | 2018-10-26 | 2019-02-26 | 北京布本智能科技有限公司 | 一种基于深度学习及遗忘算法的中文分词方法 |
CN109685137A (zh) * | 2018-12-24 | 2019-04-26 | 上海仁静信息技术有限公司 | 一种题目分类方法、装置、电子设备及存储介质 |
CN109781094A (zh) * | 2018-12-24 | 2019-05-21 | 上海交通大学 | 基于循环神经网络的地磁定位*** |
CN109791731A (zh) * | 2017-06-22 | 2019-05-21 | 北京嘀嘀无限科技发展有限公司 | 一种预估到达时间的方法和*** |
CN109800438A (zh) * | 2019-02-01 | 2019-05-24 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109871843A (zh) * | 2017-12-01 | 2019-06-11 | 北京搜狗科技发展有限公司 | 字符识别方法和装置、用于字符识别的装置 |
CN109948149A (zh) * | 2019-02-28 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 一种文本分类方法及装置 |
CN110019784A (zh) * | 2017-09-29 | 2019-07-16 | 北京国双科技有限公司 | 一种文本分类方法及装置 |
CN110473534A (zh) * | 2019-07-12 | 2019-11-19 | 南京邮电大学 | 一种基于深度神经网络的老年人看护对话*** |
CN110750986A (zh) * | 2018-07-04 | 2020-02-04 | 普天信息技术有限公司 | 基于最小信息熵的神经网络分词***及训练方法 |
CN111160009A (zh) * | 2019-12-30 | 2020-05-15 | 北京理工大学 | 一种基于树状网格记忆神经网络的序列特征提取方法 |
US10769522B2 (en) | 2017-02-17 | 2020-09-08 | Wipro Limited | Method and system for determining classification of text |
US11200269B2 (en) | 2017-06-15 | 2021-12-14 | Microsoft Technology Licensing, Llc | Method and system for highlighting answer phrases |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101566998A (zh) * | 2009-05-26 | 2009-10-28 | 华中师范大学 | 一种基于神经网络的中文问答*** |
CN105068998A (zh) * | 2015-07-29 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 基于神经网络模型的翻译方法及装置 |
CN105185374A (zh) * | 2015-09-11 | 2015-12-23 | 百度在线网络技术(北京)有限公司 | 韵律层级标注方法和装置 |
-
2016
- 2016-01-15 CN CN201610037336.4A patent/CN105740226A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101566998A (zh) * | 2009-05-26 | 2009-10-28 | 华中师范大学 | 一种基于神经网络的中文问答*** |
CN105068998A (zh) * | 2015-07-29 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 基于神经网络模型的翻译方法及装置 |
CN105185374A (zh) * | 2015-09-11 | 2015-12-23 | 百度在线网络技术(北京)有限公司 | 韵律层级标注方法和装置 |
Non-Patent Citations (1)
Title |
---|
XINCHI CHEN等: "Long Short-Term Memory Neural Networks for Chinese Word Segmentation", 《PROCEEDINGS OF THE 2015 CONFERENCE ON EMPIRICAL METHODS IN NATURAL LANGUAGE PROCESSING》 * |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372107B (zh) * | 2016-08-19 | 2020-01-17 | 中兴通讯股份有限公司 | 自然语言文句库的生成方法及装置 |
CN106372107A (zh) * | 2016-08-19 | 2017-02-01 | 中兴通讯股份有限公司 | 自然语言文句库的生成方法及装置 |
CN108090070A (zh) * | 2016-11-22 | 2018-05-29 | 北京高地信息技术有限公司 | 一种中文实体属性抽取方法 |
CN108090070B (zh) * | 2016-11-22 | 2021-08-24 | 湖南四方天箭信息科技有限公司 | 一种中文实体属性抽取方法 |
CN106919646A (zh) * | 2017-01-18 | 2017-07-04 | 南京云思创智信息科技有限公司 | 中文文本摘要生成***及方法 |
CN106919646B (zh) * | 2017-01-18 | 2020-06-09 | 南京云思创智信息科技有限公司 | 中文文本摘要生成***及方法 |
US10769522B2 (en) | 2017-02-17 | 2020-09-08 | Wipro Limited | Method and system for determining classification of text |
CN107193865A (zh) * | 2017-04-06 | 2017-09-22 | 上海奔影网络科技有限公司 | 人机交互中自然语言意图理解方法及装置 |
CN107193865B (zh) * | 2017-04-06 | 2020-03-10 | 上海奔影网络科技有限公司 | 人机交互中自然语言意图理解方法及装置 |
CN107145483A (zh) * | 2017-04-24 | 2017-09-08 | 北京邮电大学 | 一种基于嵌入式表示的自适应中文分词方法 |
CN107145483B (zh) * | 2017-04-24 | 2018-09-04 | 北京邮电大学 | 一种基于嵌入式表示的自适应中文分词方法 |
US11200269B2 (en) | 2017-06-15 | 2021-12-14 | Microsoft Technology Licensing, Llc | Method and system for highlighting answer phrases |
CN109791731A (zh) * | 2017-06-22 | 2019-05-21 | 北京嘀嘀无限科技发展有限公司 | 一种预估到达时间的方法和*** |
WO2018232699A1 (zh) * | 2017-06-22 | 2018-12-27 | 腾讯科技(深圳)有限公司 | 一种信息处理的方法及相关装置 |
US10789415B2 (en) | 2017-06-22 | 2020-09-29 | Tencent Technology (Shenzhen) Company Limited | Information processing method and related device |
US11079244B2 (en) | 2017-06-22 | 2021-08-03 | Beijing Didi Infinity Technology And Development Co., Ltd. | Methods and systems for estimating time of arrival |
CN107480680A (zh) * | 2017-07-28 | 2017-12-15 | 顺丰科技有限公司 | 基于OCR和Bi‑LSTM的识别图像中文字信息的方法、***及设备 |
CN107463928A (zh) * | 2017-07-28 | 2017-12-12 | 顺丰科技有限公司 | 基于ocr和双向lstm的文字序列纠错算法、***及其设备 |
CN110019784B (zh) * | 2017-09-29 | 2021-10-15 | 北京国双科技有限公司 | 一种文本分类方法及装置 |
CN107608970A (zh) * | 2017-09-29 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 词性标注模型生成方法和装置 |
CN110019784A (zh) * | 2017-09-29 | 2019-07-16 | 北京国双科技有限公司 | 一种文本分类方法及装置 |
CN107608970B (zh) * | 2017-09-29 | 2024-04-26 | 百度在线网络技术(北京)有限公司 | 词性标注模型生成方法和装置 |
CN107943783A (zh) * | 2017-10-12 | 2018-04-20 | 北京知道未来信息技术有限公司 | 一种基于lstm‑cnn的分词方法 |
CN107894975A (zh) * | 2017-10-12 | 2018-04-10 | 北京知道未来信息技术有限公司 | 一种基于Bi‑LSTM的分词方法 |
CN107967252A (zh) * | 2017-10-12 | 2018-04-27 | 北京知道未来信息技术有限公司 | 一种基于Bi-LSTM-CNN的分词方法 |
CN107894976A (zh) * | 2017-10-12 | 2018-04-10 | 北京知道未来信息技术有限公司 | 一种基于Bi‑LSTM的混合语料分词方法 |
CN107977354A (zh) * | 2017-10-12 | 2018-05-01 | 北京知道未来信息技术有限公司 | 一种基于Bi-LSTM-CNN的混合语料分词方法 |
CN107844475A (zh) * | 2017-10-12 | 2018-03-27 | 北京知道未来信息技术有限公司 | 一种基于lstm的分词方法 |
CN107797986B (zh) * | 2017-10-12 | 2020-12-11 | 北京知道未来信息技术有限公司 | 一种基于lstm-cnn的混合语料分词方法 |
CN107992467A (zh) * | 2017-10-12 | 2018-05-04 | 北京知道未来信息技术有限公司 | 一种基于lstm的混合语料分词方法 |
CN107797986A (zh) * | 2017-10-12 | 2018-03-13 | 北京知道未来信息技术有限公司 | 一种基于lstm‑cnn的混合语料分词方法 |
CN109871843A (zh) * | 2017-12-01 | 2019-06-11 | 北京搜狗科技发展有限公司 | 字符识别方法和装置、用于字符识别的装置 |
CN109871843B (zh) * | 2017-12-01 | 2022-04-08 | 北京搜狗科技发展有限公司 | 字符识别方法和装置、用于字符识别的装置 |
CN108595428A (zh) * | 2018-04-25 | 2018-09-28 | 杭州闪捷信息科技股份有限公司 | 基于双向循环神经网络进行分词的方法 |
CN110750986A (zh) * | 2018-07-04 | 2020-02-04 | 普天信息技术有限公司 | 基于最小信息熵的神经网络分词***及训练方法 |
CN110750986B (zh) * | 2018-07-04 | 2023-10-10 | 普天信息技术有限公司 | 基于最小信息熵的神经网络分词***及训练方法 |
CN109388806B (zh) * | 2018-10-26 | 2023-06-27 | 北京布本智能科技有限公司 | 一种基于深度学习及遗忘算法的中文分词方法 |
CN109388806A (zh) * | 2018-10-26 | 2019-02-26 | 北京布本智能科技有限公司 | 一种基于深度学习及遗忘算法的中文分词方法 |
CN109781094A (zh) * | 2018-12-24 | 2019-05-21 | 上海交通大学 | 基于循环神经网络的地磁定位*** |
CN109685137A (zh) * | 2018-12-24 | 2019-04-26 | 上海仁静信息技术有限公司 | 一种题目分类方法、装置、电子设备及存储介质 |
CN109800438B (zh) * | 2019-02-01 | 2020-03-31 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109800438A (zh) * | 2019-02-01 | 2019-05-24 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109948149A (zh) * | 2019-02-28 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 一种文本分类方法及装置 |
CN110473534A (zh) * | 2019-07-12 | 2019-11-19 | 南京邮电大学 | 一种基于深度神经网络的老年人看护对话*** |
CN111160009A (zh) * | 2019-12-30 | 2020-05-15 | 北京理工大学 | 一种基于树状网格记忆神经网络的序列特征提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105740226A (zh) | 使用树形神经网络和双向神经网络实现中文分词 | |
CN107168957A (zh) | 一种中文分词方法 | |
CN111177394B (zh) | 基于句法注意力神经网络的知识图谱关系数据分类方法 | |
CN108280064B (zh) | 分词、词性标注、实体识别及句法分析的联合处理方法 | |
CN104484343B (zh) | 一种对微博进行主题发现与追踪的方法 | |
CN109101235A (zh) | 一种软件程序的智能解析方法 | |
CN104699797B (zh) | 一种网页数据结构化解析方法和装置 | |
CN109213975B (zh) | 一种基于字符层级卷积变分自编码的推特文本表示方法 | |
CN111538848A (zh) | 一种融合多源信息的知识表示学习方法 | |
CN105938485A (zh) | 一种基于卷积循环混合模型的图像描述方法 | |
CN110597998A (zh) | 一种结合句法分析的军事想定实体关系抽取方法及装置 | |
WO2014140977A9 (en) | Improving entity recognition in natural language processing systems | |
CN106874410A (zh) | 基于卷积神经网络的中文微博文本情绪分类方法及其*** | |
CN109359297A (zh) | 一种关系抽取方法及*** | |
CN111709249B (zh) | 多语种模型的训练方法、装置、电子设备和存储介质 | |
CN112749253B (zh) | 一种基于文本关系图的多文本摘要生成方法 | |
CN106919557A (zh) | 一种结合主题模型的文档向量生成方法 | |
JP2019530119A (ja) | エンドツーエンドモデリング方法及びシステム | |
JP2018067199A (ja) | 要約生成装置、テキスト変換装置、方法、及びプログラム | |
CN110196928A (zh) | 完全并行化具有领域扩展性的端到端多轮对话***及方法 | |
CN112560456A (zh) | 一种基于改进神经网络的生成式摘要生成方法和*** | |
CN103701470B (zh) | 一种流智能预测差异压缩算法及相应的控制装置 | |
CN111104797B (zh) | 一种基于对偶的序列到序列生成的论文网络表示学习方法 | |
CN108874978B (zh) | 一基于分层适应性分段网络解决会议内容摘要任务的方法 | |
CN116486300A (zh) | 一种基于特征变化的端到端视频文本生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
DD01 | Delivery of document by public notice | ||
DD01 | Delivery of document by public notice |
Addressee: Nanjing University Document name: the First Notification of an Office Action |
|
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160706 |