CN105786782A - 一种词向量的训练方法和装置 - Google Patents

一种词向量的训练方法和装置 Download PDF

Info

Publication number
CN105786782A
CN105786782A CN201610179115.0A CN201610179115A CN105786782A CN 105786782 A CN105786782 A CN 105786782A CN 201610179115 A CN201610179115 A CN 201610179115A CN 105786782 A CN105786782 A CN 105786782A
Authority
CN
China
Prior art keywords
word
term vector
corpus
training
vocabulary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610179115.0A
Other languages
English (en)
Other versions
CN105786782B (zh
Inventor
邢宁
刘明荣
许静芳
常晓夫
王晓伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sogou Information Service Co Ltd
Original Assignee
Beijing Sogou Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sogou Technology Development Co Ltd filed Critical Beijing Sogou Technology Development Co Ltd
Priority to CN201610179115.0A priority Critical patent/CN105786782B/zh
Publication of CN105786782A publication Critical patent/CN105786782A/zh
Application granted granted Critical
Publication of CN105786782B publication Critical patent/CN105786782B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了一种词向量的训练方法和装置,其中,所述方法包括:抓取互联网网页,获取训练语料,保存在语料库中;对语料库中的每个训练语料分别作分词处理,得到每个训练语料对应的有序词集合;根据预先收集的用户查询日志构建词表;将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量。本发明提供了一种词向量的训练方法和装置,使得训练得到的词向量能够很好地适用于搜索业务中,并且能够实现快速迭代的高质量词向量的训练。

Description

一种词向量的训练方法和装置
技术领域
本发明涉及互联网技术领域,特别是涉及一种词向量的训练方法和装置。
背景技术
在互联网应用中,很重要的一个问题是如何将自然语言转换成计算机能够理解的数据表达形式。而解决该问题最重要的一步就是寻找一种方法将自然语言符号数据化。目前常用的是深度学习(DeepLearning,DL)方法,在DL中采用的是“Distributedrepresentation”分散式表示方法,将每个词表示为一种低维实数向量,该向量就是词对应的词向量。词向量就是由此诞生的,可以理解的是,词向量就是用于表达自然语言中词的向量,以适用于互联网应用。例如,词向量可以用在很多自然语言学习处理(NaturalLearningProcessing,NLP)相关的工作中,如聚类、语义分析等等。
目前,人们使用Word2vec工具通过单机模型利用DL方法,通过对收集到的语料进行训练以得到词表中词对应的向量空间中的向量。这种词向量训练方法采用的是单机模式,其训练速率较低,尤其是很难适用于数据量非常庞大的业务场景中。另外这种词向量训练方法是普适性的训练方法,其并没有考虑特定业务场景的特殊性,所以在特定的业务场景下其训练效果并不好。
发明内容
为了解决上述技术问题,本发明提供了一种词向量的训练方法和装置,使得训练得到的词向量能够很好地适用于搜索业务中,并且能够实现快速迭代的高质量词向量的训练。
本发明实施例公开了如下技术方案:
本发明第一方面提供了一种词向量的训练方法,所述方法包括:
抓取互联网网页,获取训练语料,保存在语料库中;
对语料库中的每个训练语料作分词处理,得到每个训练语料对应的有序词集合;
根据预先收集的用户查询日志构建词表;
将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;
配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量;
其中,所述词向量训练包括:各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,并对各节点训练得到的词表中各词的训练词向量进行同步后,触发下一周期训练。
可选的,所述对语料库中的每个训练语料作分词处理,包括:
利用分词工具和预先建立的分词词库,对每个训练语料作分词处理;所述分词词库是根据预先收集的用户查询日志和输入法词库构建而成的。
可选的,所述根据预先收集的用户查询日志构建词表,包括:
提取预先收集的用户查询日志中包含的词,并统计每个词的词频;
获取高频词,构建生成词表。
可选的,在所述获取高频词之后,所述方法还包括:
利用命名实体词库对所述高频词进行合并处理后,再执行所述构建生成词表的步骤。
可选的,所述各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,并对各节点训练得到的词表中各词的训练词向量进行同步后,触发下一周期训练,包括:
步骤1、配置所述分布式词向量学习模型中的各节点对应的所述词表中各词的词向量为初始化词向量;
步骤2、各节点针对分配到的每个训练语料对应的有序词集合中包括的与所述词表匹配的词,对所述词的初始化词向量进行训练,得到本周期所述词的训练词向量;
步骤3、判断是否满足预设判定条件,如果是,进入步骤5;如果否,进入步骤4;
步骤4:依据各节点本周期训练得到的所述词的训练词向量,并行同步更新所述词的本周期的初始化词向量,作为所述词的下一周期的初始化词向量,进入步骤2;
步骤5、依据所述训练词向量,得到所述词表中对应词的词向量。
可选的,所述对分配到的每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,包括:
对分配到的每一训练语料,遍历所述训练语料对应的有序词集合中的所有词,将每个词分别与所述词表进行匹配,如果当前词在所述词表中匹配到相同的词,对该词进行训练,得到该词对应的词向量。
可选的,所述依据各节点当前周期训练得到的所述词表中各词的词向量,并行同步更新各词的当前周期的初始化词向量,作为所述词表中各词下一周期的初始化词向量包括:
采用下述公式实现同步更新:
w ′ = w - η ( Σ 1 N Δ w ) ;
其中,w′是指某一节点对应的所述词表中某词下一周期的初始词向量;w是指该节点对应词表中该词当前周期的初始化词向量;η是指预设系数;Δw通过对该节点对应词表中该词当前周期训练得到的词向量与该词当前周期的初始化词向量求差得到;N为所述学习模型的节点数。
可选的,所述方法还包括:
配置所述分布式词向量学习模型中的各节点,使得各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表未匹配的词进行词向量训练,对各节点训练得到的所述未匹配的词的训练词向量进行同步,触发下一周期训练,使得各个节点周期性训练得到所述未匹配的词的词向量,并将所述未匹配的词对应的词向量保存入所述词表中;其中,所述未匹配的词属于预设类别。
本发明第二方面提供了一种词向量的训练装置,所述装置包括:
语料库建立单元,用于抓取互联网网页,获取训练语料,保存在语料库中;
分词单元,用于对语料库中的每个训练语料作分词处理,得到每个训练语料对应的有序词集合;
词表构建单元,用于根据预先收集的用户查询日志构建词表;
语料分发单元,用于将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;
第一配置单元,用于配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量;其中,所述词向量训练包括:各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,并对各节点训练得到的词表中各词的训练词向量进行同步后,触发下一周期训练。
本发明第三方面提供了一种词向量的训练装置,所述装置包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
抓取互联网网页,获取训练语料,保存在语料库中;
对语料库中的每个训练语料作分词处理,得到每个训练语料对应的有序词集合;
根据预先收集的用户查询日志构建词表;
将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;
配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量;
其中,所述词向量训练包括:各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,并对各节点训练得到的词表中各词的训练词向量进行同步后,触发下一周期训练。
可选的,所述处理器还用于执行所述一个或者一个以上程序包含用于进行以下操作的指令:
利用分词工具和预先建立的分词词库,对每个训练语料作分词处理;所述分词词库是根据预先收集的用户查询日志和输入法词库构建而成的。
可选的,所述处理器还用于执行所述一个或者一个以上程序包含用于进行以下操作的指令:
提取预先收集的用户查询日志中包含的词,并统计每个词的词频;
获取高频词,构建生成词表。
可选的,所述处理器还用于执行所述一个或者一个以上程序包含用于进行以下操作的指令:
利用命名实体词库对所述高频词进行合并处理后,再执行所述构建生成词表的指令。
可选的,所述处理器还用于执行所述一个或者一个以上程序包含用于进行以下操作的指令:
指令1、配置所述分布式词向量学习模型中的各节点对应的所述词表中各词的词向量为初始化词向量;
指令2、各节点针对分配到的每个训练语料对应的有序词集合中包括的与所述词表匹配的词,对所述词的初始化词向量进行训练,得到本周期所述词的训练词向量;
指令3、判断是否满足预设判定条件,如果是,进入指令5;如果否,进入指令4;
指令4:依据各节点本周期训练得到的所述词的训练词向量,并行同步更新所述词的本周期的初始化词向量,作为所述词的下一周期的初始化词向量,进入指令2;
指令5、依据所述训练词向量,得到所述词表中对应词的词向量。
可选的,所述处理器还用于执行所述一个或者一个以上程序包含用于进行以下操作的指令:
对分配到的每一训练语料,遍历所述训练语料对应的有序词集合中的所有词,将每个词分别与所述词表进行匹配,如果当前词在所述词表中匹配到相同的词,对该词进行训练,得到该词对应的词向量。
可选的,所述处理器还用于执行所述一个或者一个以上程序包含用于进行以下操作的指令:
采用下述公式实现同步更新:
w ′ = w - η ( Σ 1 N Δ w ) ;
其中,w′是指某一节点对应的所述词表中某词下一周期的初始词向量;w是指该节点对应词表中该词当前周期的初始化词向量;η是指预设系数;Δw通过对该节点对应词表中该词当前周期训练得到的词向量与该词当前周期的初始化词向量求差得到;N为所述学习模型的节点数。
可选的,所述处理器还用于执行所述一个或者一个以上程序包含用于进行以下操作的指令:
配置所述分布式词向量学习模型中的各节点,使得各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表未匹配的词进行周期性训练,得到所述未匹配的词的训练词向量;其中,所述未匹配的词属于预设类别
对各节点训练得到的所述未匹配的词的训练词向量进行同步,得到所述未匹配的词对应的词向量,并保存入所述词表中。
与现有技术相比,本发明提供的技术方案具备如下有益效果:
本发明提供的上述技术方案,首先,抓取互联网网页,获取训练语料,保存在语料库中;这种语料库的建立方式很好地利用了互联网网页资源的高实时性、高代表性、资源丰富覆盖面广的优势,能够获取到海量级的、覆盖面较广的语料。
然后,对语料库中的每个训练语料分别作分词处理,得到每个训练语料对应的有序词集合;以及,根据预先收集的用户查询日志构建词表;本发明摒弃了传统的基于训练语料构建词表的方式,提出了根据用户查询日志构建词表的方式;由于用户查询日志能够表征用户实际搜索需求,因此,以用户查询日志中包含的查询词构建生成的词表就能够很好地适应于搜索业务。
最后,本发明将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量。本发明为了解决大规模语料训练缓慢的问题,摒弃传统的单机多线程训练方法,而采用分布式词向量学习模型,通过多节点并行训练,以提高训练速率,从而能够快速的迭代出高质量的词向量。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种词向量的训练方法的流程图;
图2是本发明实施例提供的分布式词向量训练示意图;
图3是本发明实施例提供的一种词向量的训练装置的结构图;
图4是本发明实施例提供的一种词向量的训练装置的硬件结构图;
图5是本发明实施例提供的服务器的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种词向量的训练方法和装置,本发明分析了词向量的特殊应用背景的因素,提出了根据用户查询日志构建特定的词表的技术思路,使得训练得到的词向量能够很好地适用于搜索业务中,并且,本发明摒弃传统的单机多线程训练方法而提出了采用分布式词向量学习方法,能够实现快速迭代的高质量词向量的训练。
请参阅图1,图1是本发明实施例提供的一种词向量的训练方法的流程图,如图1所示,该方法包括:步骤101-步骤105:
步骤101:抓取互联网网页,获取训练语料,保存在语料库中;
具体的,抓取互联网网页,将抓取到的每个网页内容作为每个训练语料,保存在语料库中。
语料,是指在语言的实际使用中真实出现过的语言材料;语料通常储存在语料库中,语料库是以电子计算机为载体承载语料的数据库;真实语料一般需要经过加工(分析和处理),才能够成为有用的资源。
目前,中国语料库有四种类型,分别是现代汉语通用语料库、《***》标注语料库、用于语言教学和研究的现代汉语语料库、面向语音信息处理的现代汉语语料库等。因此,人们需要语料时,就会从这些已建立好的语料库中直接获取语料。
但这些语料库的内容较为固定,更新较慢;而由于互联网的开放性和创新性,使得该领域产生的语言材料每天都在成倍的增长,因此,如果仍旧仅从已有的这些语料库中获取语料,则获取得到的语料数量较少,并且覆盖面较窄,这些语料不能够表征互联网领域中语言的实际使用情况。
基于此,为了使得获取得到的语料能够更好地适用于互联网领域,特别是应用于搜索领域,如搜索引擎中,本发明实施例中,通过抓取互联网网页的方式来获取训练语料。
更具体的,本发明还提供以下可实现方式:
利用搜索引擎抓取互联网新闻类网页、网络社区网页和/或博客网页等,将抓取到的网页内容作为训练语料。
由于互联网新闻类网页、网络社区网页、博客网页都是已经有可靠性认证的网页,这一类网页承载的信息都是可信度较高的信息,因此直接从这一类网页来获取训练语料,能够提高训练语料的质量。
当然,本发明的实现可以但不局限于新闻类网页、网络社区类以及博客网页,还可以是科普性网页、论文网站的网页等具有可靠性认证类的网页。再者,为了进一步扩充训练语料,也还可以从前述已建立好的语料库中获取训练语料。本发明实施例提供的这种获取语料的方式,很好地利用了互联网网页资源的高实时性、高代表性、资源丰富覆盖面广的优势,能够获取到海量级的、覆盖面较广的训练语料。
步骤102:对语料库中的每个训练语料分别作分词处理得到每个训练语料对应的有序词集合;其中,所述有序词集合为一有顺序的词构成的集合。
本发明实施例中,从互联网网页抓取得到的训练语料一般为句子或文章。由于词向量的训练是以词为训练数据。因此,在获取得到训练语料时,还需要对训练语料作分词处理得到每个语料对应的有顺序的词的集合。具体的,假设训练语料为一文章,文章是由至少一个句子构成的,对该训练语料包括的每个句子依次进行分词处理,将每个句子都划分成一串有序排列的词的集合,且划分后的词仍然依照原文章中各句子的排列顺序依次排列。例如,某训练语料为“我喜欢北京。北京是我国的政治经济文化中心”,对该训练语料进行分词处理后得到的有序词集合可以为“我/喜欢/北京/北京/是/我国/的/政治/经济/文化/中心”。
而分词处理主要是依赖于分词词库实现的,分词词库的质量直接决定了分词处理的质量。分词词库也被称为分词词典,为了便于描述,本发明利用分词词库来描述。目前,通常采用的分词词库是通过《新华词典》或者其他类似的出版书籍为基础而建立的词库。但,快速发展的中文互联网每天都会有新的词、新的事物产生,而这些分词词库并未能够及时地囊括互联网中产生的新的词,这样,如果直接利用这些词库对从互联网中获取的语料进行分词处理,其分词效果就不太好。
基于此,本发明构建了特别适用于互联网场景的分词词库,主要是根据用户查询(query)日志和输入法词库中的词来构建生成分词词库。可以理解的是,用户只要使用互联网,一般都会产生用户查询日志,因此,几乎每天、每时甚至每分钟每秒钟,网络中都会产生用户查询日志,该用户查询日志中记录有查询词。同时,由于输入法本身建立有对应的输入法词库,该输入法词库中记录有常用的词;另外,输入法自身也会通过收集用户输入过程中产生的新的词定期地更新输入法词库。可以看出:用户查询日志和输入法词库都是紧随用户的实际网络操作行为而更新的,因此,本发明提出利用用户查询日志和输入法词库来建立分词词库,该分词词库能够与互联网发展同步,能够反应网络实际语言情况,可以较好地适应于互联网应用场景中。
具体是,步骤102可以通过以下方式实现:
利用分词工具和预先建立的分词词库,针对每个训练语料作分词处理得到与每个训练语料对应的有序词集合;其中,所述有序词集合为一有顺序的词构成的集合;所述分词词库是根据预先收集的用户查询日志和输入法词库构建而成的。
本发明实施例中,经过分词处理后,一个训练语料对应着一个有序词集合。所谓有序词集合是指按照训练语料中记载的文本信息的语序,对文本信息作分词处理后得到的有固定顺序关系的词的集合。例如:训练语料是一篇博客文章,则按照该博客文章记载的文本信息的段落顺序、每个段落文本的语句顺序、以及每个句子中各词语的排列顺序,依次对该文本信息进行分词处理得到有顺序的词的集合。举个例子,训练语料中记载的文本信息是“我爱北京天安门”,按照文本信息的语序作分词处理得到该训练语料对应的有序词集合就是:(我/爱/北京/天安门)。
步骤103:根据预先收集的用户查询日志构建词表。
传统的构建词表的方法是从训练语料中选择一些词,利用选择的词构建生成词表,但这些词表是普适性的,没有代表性,不能针对性地适应于搜索场景中。本发明考虑到词向量的应用场景,为了使得词向量能够针对性地适应于搜索场景中(如搜索引擎),本发明提出了根据用户查询日志构建词表的方案。与现有技术中一般的词表相比,本发明根据用户查询日志提取能够覆盖绝大多数搜索需求的特有词表,基于该词表训练出的词向量能够更加符合搜索场景的需求。
另外,考虑到互联网时代中文词数量是海量级的,任何训练都不可能覆盖所有的词,且从训练时间成本考虑,也没有必要覆盖所有的词。因此,为了构建适当大小的词表,并且使得词表尽可能覆盖绝大多数查询需求,本发明提出了以下构建方式:提取预先收集的用户查询日志中包含的词,并统计每个词的词频;获取高频词,并构建生成词表。
其中,所述获取高频词具体可以包括:将词频小于预设阈值的词筛除掉得到剩余的词,即为高频词。
通过该构建方式,基于用户查询日志和预设阈值,可以构建出大小适当的词表,根据词频大小所选择的词能够覆盖绝大多数查询需求。这样,本发明就能够保证训练质量的同时,适当地减小训练的数据量。
在上述构建方式的基础上,本发明还考虑到在生成词表的过程中,很可能会将一个实体名词分成多个词而加入词表中。例如,地名“牡丹江”被分词为“牡丹”、“江”;再例如,机构名“爱奇艺”被分词为“爱”、“奇艺”等情况。为了解决实体名词被分词出错的问题;关于词表的构建方式,本发明还提出了更优选的方案。该优选方案具体是在上述获取高频词之后,以及在所述构建生成词表之前,还可以包括如下步骤:利用命名实体词库对所述高频词进行合并处理后,再执行所述构建生成词表的步骤。
其中,命名实体词库中包含各种实体名词,如人名、地名、机构名等用于描述实体名称的词。
利用命名实体词库对词进行实体合并。例如,对于分词得到的“爱”“奇艺”,结合实体词“爱奇艺”,对前述两个分词进行合并,使得词表的词更符合事实、更加精准。
经过步骤101-103处理得到模型训练所需要的训练数据,接着执行步骤104。
步骤104:将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点。
在现有常规的训练方法中,一般是使用单机模型,但是本发明的训练方法中,用于实现词向量训练的训练语料的数据量非常庞大,常规的单机模型已经不能满足训练的需求。因此,本发明提出了分布式词向量学习模型,利用分布式技术来提高训练速度,满足模型训练的快速迭代。
步骤104主要是为分布式词向量学***均分配,使得学习模型中各节点需要承担的训练数据是均等的;也可以对语料库中的训练语料进行随机分配,使得学习模型中各节点需要承担的训练数据是不等的。参见图2示出的本发明实施例提供的分布式词向量训练示意图;该分布式词向量学习模型包括N个节点,其中,每个节点均可以是指能够独立进行模型训练的设备,例如计算机。
在实现时,步骤104可以是将语料库中的每个训练语料对应的有序词集合作为一份独立的训练数据,将语料库中包括的各训练语料随机地分配给分布式词向量学***均分配训练数据,也可以根据实际情况适应性地为每个节点分配训练数据。
当然,步骤104也可以是按照预设的分配规则来实现训练数据的分配过程;例如预设的分配规则是按照训练语料的排序顺序,将所有语料适应性地分配给所有节点;使得所有节点分配到的训练数据大小基本一致。当然,具体的分配规则可以根据实际需求设定,并不局限于上述示例。
步骤104主要目的是将获取到的语料库中包括的训练语料适当地分配给分布式词向量学习模型中的各节点,使得分布式词向量学习模型中的多个节点并行工作,共同训练完所有的训练语料。
步骤105:配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量;
其中,所述词向量训练包括:各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,并对各节点训练得到的词表中各词的训练词向量进行同步后,触发下一周期训练。
具体的,分布式词向量学习模型开始工作时,首先要执行初始化配置操作,对每个节点对应的词表中包括的词设置初始化词向量。在训练起始阶段,各节点对应的词表中包括的词对应的初始化词向量都是相同的。继而,各节点分别以该初始化词向量为基础对词表中包括的词开始进行训练,得到训练后的词向量;然后,对各节点对应词表中各词对应的训练后的词向量进行同步,并进行下一周期的训练,直至训练得到所述词表中的各词对应的词向量。
其中,同步过程为:对所述词表中的每个词,分别计算各节点训练后获取的该词对应的词向量与初始化词向量之间的差值,并依据计算得到的所有节点对应的差值,获取该词对应的向量调整值(一般可以为所有节点对应差值的平均值);对所述词表中的每个词,分别利用所述词表中各词对应的向量调整值对该词对应的初始化向量值进行调整,并将调整后的向量值作为该词下一周期训练的初始值;即为,在后续的训练周期内,各节点均以上一周期训练结束后得到的词表中各词对应的调整后的词向量作为初始值进行训练。
在实现时,步骤105可以按照如下方式实现,该方式包括步骤1051-步骤1055;
步骤1051,配置所述分布式词向量学习模型中的各节点对应的所述词表中各词的词向量为初始化词向量。
初始化所述分布式词向量学习模型中的每个节点对应的词表各词对应的词向量,配置各节点对应的所述词表中各词的词向量为初始化词向量,使所有节点对应的词表中各词都按照统一的初始词向量开始训练。
需要说明的是,所述分布式词向量学习模型中的每个节点对应的词表是相同的,均为步骤103中生成的词表。
在实现时,步骤1051可以有以下两种初始化方式:
一种是,在任意一个节点上随机初始化词向量,然后在将初始化词向量并行同步至每个节点。另一种是,将分布式词向量学习模型中的每个节点的词向量并行同步初始化词向量为零向量。
在实现时,可以采用MPI(MessagePassingInterface,信息传递接口)接口实现并行同步处理。MPI接口是较为通用的并行编程接口,能够提供高效、可扩展、统一的并行编程环境。当然,本发明也可以采用其他接口实现分布式词向量学习模型中各节点间的并行同步处理。
具体的,利用MPI接口通过万兆网卡将初始化词向量同步到每个节点。经过步骤1051利用并行同步处理,使得所有节点配置有相同的初始化词向量。
步骤1052,各节点针对分配到的每个训练语料对应的有序词集合中包括的与所述词表匹配的词,对所述词的初始化词向量进行训练,得到当前周期所述词的训练词向量。
步骤1053,依据各节点当前周期训练得到的所述词的训练词向量,并行同步更新所述词的当前周期的初始化词向量,作为所述词的下一周期的初始化词向量。
以此方式周期性更新节点的初始化词向量,从而实现周期性训练。每个周期训练结束时,判断是否满足预设判断定条件,以确定是否停止训练。
步骤1054、判断是否满足预设判定条件,如果是,进入步骤1055;如果否,进入步骤1052。
步骤1055、依据所述词的下一周期的初始化词向量,得到所述词表中对应词的词向量。
在实现时,每个节点将接收到的训练语料对应的有序词集合作为训练数据,对每一训练语料,分别遍历所述有序词集合中包括的所有词,仅针对词表中包括的词进行训练;每周期训练结束,同步更新每个节点对应词表中各词对应的初始词向量,使所有节点开始下一个周期的训练过程。
首先,所述遍历所述有序词集合中包括的所有词,仅针对词表中包括的词进行训练具体为,遍历训练语料对应的有序词中的每个词,将每个词分别与所述词表进行匹配,如果当前词在所述词表中匹配到相同的词,则对该词进行训练,得到该词对应的词向量;如果当前词在所述词表中没有匹配到相同的词,则摈弃该词,对该词的下一个词进行匹配;直到对所述训练语料对应的有序词集合中的每个词完成匹配为止。
其次,所述并行同步为,每个节点通过SGD(StochasticGradientDescent,随机梯度下降)算法计算出来的累计梯度更新量Δw,该累计梯度更新量Δw是某一节点对应词表中某一个词在当前周期训练得到的词向量与当前周期的初始词向量的差值。根据各个节点中该词对应的累计梯度更新量计算下一周期该词对应的初始化词向量,然后,并行同步更新每个节点中该词对应的初始化词向量作为该词在下一周期的初始化词向量。
在实现时,可以按照如下公式1计算下一周期的初始词向量w′;
公式1
其中,公式中的w′是指词表中某词下一周期的初始词向量;w是指该词当前周期的初始化词向量;η是指预设系数,Δw是指该词在当前周期的累计梯度更新量,其中Δw可以通过对该词当前周期训练得到的词向量与该词当前周期的初始化词向量求差得到,N为所述学习模型的节点数。
其中,η的大小决定了节点训练更新速率,η一般取值为小于1的数值;例如:可以设置为1/N,1/2N等数值;优选的,可以设置η=1/N,则下一周期的初始化词向量等于当前周期的初始化词向量与N个节点的累计梯度更新量的平均值之间的差值。
节点周期性的更新初始化词向量,以每次更新后的初始化词向量为基础开始对词表中各词一个周期的训练,这样,周期性地训练直到所有节点满足预设训练条件时为止。
其中,预设判定条件可以是训练迭代次数达到预设迭代次数;预设判定条件也可以是所述词表中超过阈值数目的词对应的累计梯度更新量都小于预设更新值。当然,预设判定条件也可以设置为其他内容,在本发明中设置预设判定条件的目的是为了衡量所有节点的训练结果是否都趋于一致,是否能够达到训练目的。
当所有节点训练结果满足预设判定条件时,此时,分布式词向量学习模型中的所有节点终止训练;然后,根据所有节点最后一个周期训练得到的训练词向量,按照上述公式1计算得到下一周期的初始化词向量,将计算得到的该初始化词向量作为所述词表的词对应的词向量。
在本发明中,各个节点训练的初始化词向量都是并行同步更新的,但各个节点内的SGD过程都是异步更新的,将这种更新方式称之为半异步更新,本发明提出的这种半异步的分布式词向量学习模型可以在保证算法收敛性的同时,减小频繁同步带来的网络通信时间消耗,以加速模型的训练。
在针对上述词表中词进行学习训练之外,本发明更加充分利用了语料,还提出了对数字类、英语类、人名类等特定类别词的训练,以训练得到对应的词向量,这些类别的词对应的词向量能够更加优化搜索业务。
具体的,本发明提供了一种可选的方案,该方案是在上述图1所示方法的基础上增加如下步骤:
配置所述分布式词向量学习模型中的各节点,使得各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表未匹配的词进行词向量训练,对各节点训练得到的所述未匹配的词的训练词向量进行同步,触发下一周期训练,使得各个节点周期性训练得到所述未匹配的词的词向量,并将所述未匹配的词对应的词向量保存入所述词表中;其中,所述未匹配的词属于预设类别。
在实现时,当分布式词向量学习模型中的节点遍历语料对应的有顺序的词的集合中词,发现词不属于词表,但归属于某一预设类别时,对该词进行训练。这样,就能够充分利用语料中的词,训练挖掘出对搜索业务有价值的词对应的词向量。
这里需要说明的是,上述示例中描述的各个节点采用SGD算法,但本发明在实现时,各个节点可以采用上述SGD算法,也可以采用支持向量机、逻辑回归、神经网络等其他算法进行训练。
下面通过示例对上述方法的实现过程进行示例化说明。
例如:用户查询日志为“世界搞笑电影前十名”;
根据该用户查询日志构建的词表包括:“世界”、“搞笑电影”、“前十名”;
按照本发明提供的上述方法,将大规模语料输入到分布式词向量学习模型中,进行训练得到的结果,即词表中词对应的词向量(5维的实数向量)。
“世界”(0.004003,0.004419,-0.003830,-0.003278,0.001367)
“搞笑电影”(-0.043665,0.018578,0.138403,0.004431,-0.139117)
“前十名”(-0.337518,0.224568,0.018613,0.222294,-0.057880)。
在实际训练时,根据不同的需求可以设置不同的向量维度,上述示例中仅以维度为5为例,但本发明的实施并不限定于此维度。
通过上述实施例可以看出,本发明提供的词向量的训练方法,首先,抓取互联网网页,获取训练语料,保存在语料库中;这种语料库的建立方式很好地利用了互联网网页资源的高实时性、高代表性、资源丰富覆盖面广的优势,能够获取到海量级的、覆盖面较广的语料。
然后,对语料库中的每个训练语料分别作分词处理,得到每个训练语料对应的有序词集合;以及,根据预先收集的用户查询日志构建词表;本发明摒弃了传统的基于训练语料构建词表的方式,提出了根据用户查询日志构建词表的方式;由于用户查询日志能够表征用户实际搜索需求,因此,以用户查询日志中包含的查询词构建生成的词表就能够很好地适应于搜索业务。
最后,本发明将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量。本发明为了解决大规模语料训练缓慢的问题,摒弃传统的单机多线程训练方法,而采用分布式词向量学习模型,通过多节点并行训练,以提高训练速率,从而能够快速的迭代出高质量的词向量。
与上述方法相对应的,本发明还提供了对应的装置。具体参见图3,图3是本发明实施例提供的一种词向量的训练装置的结构图。如图3所示,该装置可以包括:语料库建立单元201、分词单元202、词表构建单元203、语料分发单元204和第一配置单元205;下面结合该装置的工作原理对各单元的连接关系和具体功能作解释说明。
语料库建立单元201,用于抓取互联网网页,获取训练语料,保存在语料库中;
分词单元202,用于对语料库中的每个训练语料分别作分词处理,得到每个训练语料对应的有序词集合;
词表构建单元203,用于根据预先收集的用户查询日志构建词表;
语料分发单元204,用于将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;
第一配置单元205,用于配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量;其中,所述词向量训练包括:各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,并对各节点训练得到的词表中各词的训练词向量进行同步后,触发下一周期训练。
在实现时,所述分词单元202可以包括:分词处理子单元。
所述分词处理子单元,用于利用分词工具和预先建立的分词词库,对每个训练语料分别作分词处理;所述分词词库是根据预先收集的用户查询日志和输入法词库构建而成的。
在实现时,所述词表构建单元203可以包括:第一提取子单元和第一构建子单元。
第一提取子单元,用于提取预先收集的用户查询日志中包含的词,并统计每个词的词频;
第一构建子单元,用于获取高频词,构建生成词表。
在实现时,所述词表构建单元203也可以包括:第二提取子单元、合并子单元和第二构建子单元。
第二提取子单元,用于提取预先收集的用户查询日志中包含的词,并统计每个词的词频;
合并子单元,用于利用命名实体词库对高频词进行合并处理;
第二构建子单元,用于利用合并处理后的高频词构建生成词表。
在实现时,所述第一配置单元205,包括:配置子单元、训练子单元、判断子单元、同步更新子单元以及词向量计算子单元。
配置子单元,用于配置所述分布式词向量学习模型中的各节点对应的所述词表中各词的词向量为初始化词向量;
训练子单元,用于配置各节点针对分配到的每个训练语料对应的有序词集合中包括的与所述词表匹配的词,对所述词的初始化词向量进行训练,得到本周期所述词的训练词向量;
判断子单元,用于判断是否满足预设判定条件,如果是,执行词向量计算子单元;如果否,执行同步更新子单元;
同步更新子单元,用于依据各节点本周期训练得到的所述词的训练词向量,并行同步更新所述词的本周期的初始化词向量,作为所述词的下一周期的初始化词向量,进入所述训练子单元;
词向量计算子单元,用于依据所述训练词向量,得到所述词表中对应词的词向量。
可选的,所述训练子单元包括:遍历匹配子单元和词向量训练子单元。
遍历匹配子单元,用于对分配到的每一训练语料,遍历所述训练语料对应的有序词集合中的所有词,将每个词分别与所述词表进行匹配;
词向量训练子单元,用于当所述遍历匹配子单元的匹配结果为是时,对该词进行训练,得到该词对应的词向量。
可选的,同步更新子单元,用于采用下述公式实现同步更新:
w ′ = w - η ( Σ 1 N Δ w ) ;
其中,w′是指某一节点对应的所述词表中某词下一周期的初始词向量;w是指该节点对应词表中该词当前周期的初始化词向量;η是指预设系数;Δw通过对该节点对应词表中该词当前周期训练得到的词向量与该词当前周期的初始化词向量求差得到;N为所述学习模型的节点数。
可选的,所述装置还可以包括:
第二配置单元,用于配置所述分布式词向量学习模型中的各节点,使得各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表未匹配的词进行词向量训练,对各节点训练得到的所述未匹配的词的训练词向量进行同步,触发下一周期训练,使得各个节点周期性训练得到所述未匹配的词的词向量,并将所述未匹配的词对应的词向量保存入所述词表中;其中,所述未匹配的词属于预设类别。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
另外,本发明还提供了另一种词向量的训练装置,下面结合图4对该装置进行解释说明。
图4是本发明实施例提供的一种词向量的训练装置的硬件结构图,图4示出的装置300可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图4,装置300可以包括以下一个或多个组件:处理组件302,存储器304,电源组件306,多媒体组件308,音频组件310,输入/输出(I/O)的接口312,传感器组件314,以及通信组件316。
处理组件302通常控制装置300的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件302可以包括一个或多个处理器320来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件302可以包括一个或多个模块,便于处理组件302和其他组件之间的交互。例如,处理组件302可以包括多媒体模块,以方便多媒体组件308和处理组件302之间的交互。
存储器304被配置为存储各种类型的数据以支持在设备300的操作。这些数据的示例包括用于在装置300上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器304可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件306为装置300的各种组件提供电力。电源组件306可以包括电源管理***,一个或多个电源,及其他与为装置300生成、管理和分配电力相关联的组件。
多媒体组件308包括在所述装置300和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件308包括一个前置摄像头和/或后置摄像头。当设备300处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件310被配置为输出和/或输入音频信号。例如,音频组件310包括一个麦克风(MIC),当装置300处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器304或经由通信组件316发送。在一些实施例中,音频组件310还包括一个扬声器,用于输出音频信号。
I/O接口312为处理组件302和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件314包括一个或多个传感器,用于为装置300提供各个方面的状态评估。例如,传感器组件314可以检测到设备300的打开/关闭状态,组件的相对定位,例如所述组件为装置300的显示器和小键盘,传感器组件314还可以检测装置300或装置300一个组件的位置改变,用户与装置300接触的存在或不存在,装置300方位或加速/减速和装置300的温度变化。传感器组件314可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件314还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件314还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件316被配置为便于装置300和其他设备之间有线或无线方式的通信。装置300可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件316经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件316还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置300可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器304,上述指令可由装置300的处理器320执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行一种词向量的训练方法,所述处理器执行以下操作的指令:
抓取互联网网页,获取训练语料,保存在语料库中;
对语料库中的每个训练语料分别作分词处理,得到每个训练语料对应的有序词集合;
根据预先收集的用户查询日志构建词表;
将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;
配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量;
其中,所述词向量训练包括:各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,并对各节点训练得到的词表中各词的训练词向量进行同步后,触发下一周期训练。
图5是本发明实施例中服务器的结构示意图。该服务器1900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(centralprocessingunits,CPU)1922(例如,一个或一个以上处理器)和存储器1932,一个或一个以上存储应用程序1942或数据1944的存储介质1930(例如一个或一个以上海量存储设备)。其中,存储器1932和存储介质1930可以是短暂存储或持久存储。存储在存储介质1930的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1922可以设置为与存储介质1930通信,在服务器1900上执行存储介质1930中的一系列指令操作。
服务器1900还可以包括一个或一个以上电源1926,一个或一个以上有线或无线网络接口1950,一个或一个以上输入输出接口1958,一个或一个以上键盘1956,和/或,一个或一个以上操作***1941,例如WindowsServerTM,MacOSXTM,UnixTM,LinuxTM,FreeBSDTM等等。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备)执行本发明各个实施例或者实施例的某些部分所述的方法。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备及***实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的设备及***实施例仅仅是示意性的,其中作为分离组件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的组件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (10)

1.一种词向量的训练方法,其特征在于,所述方法包括:
抓取互联网网页,获取训练语料,保存在语料库中;
对语料库中的每个训练语料分别作分词处理,得到每个训练语料对应的有序词集合;
根据预先收集的用户查询日志构建词表;
将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;
配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量;
其中,所述词向量训练包括:各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,并对各节点训练得到的词表中各词的训练词向量进行同步后,触发下一周期训练。
2.根据权利要求1所述的方法,其特征在于,所述对语料库中的每个训练语料分别作分词处理,包括:
利用分词工具和预先建立的分词词库,对每个训练语料分别作分词处理;所述分词词库是根据预先收集的用户查询日志和输入法词库构建而成的。
3.根据权利要求1所述的方法,其特征在于,所述根据预先收集的用户查询日志构建词表,包括:
提取预先收集的用户查询日志中包含的词,并统计每个词的词频;
获取高频词,构建生成词表。
4.根据权利要求3所述的方法,其特征在于,在所述获取高频词之后,所述方法还包括:
利用命名实体词库对所述高频词进行合并处理后,再执行所述构建生成词表的步骤。
5.根据权利要求1所述的方法,其特征在于,所述配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量,包括:
步骤1、配置所述分布式词向量学习模型中的各节点对应的所述词表中各词的词向量为初始化词向量;
步骤2、各节点针对分配到的每个训练语料对应的有序词集合中包括的与所述词表匹配的词,对所述词的初始化词向量进行训练,得到当前周期所述词的训练词向量;
步骤3:依据各节点当前周期训练得到的所述词的训练词向量,并行同步更新所述词的当前周期的初始化词向量,作为所述词的下一周期的初始化词向量;
步骤4、判断是否满足预设判定条件,如果是,进入步骤5;如果否,进入步骤2;
步骤5、依据所述词的下一周期的初始化词向量,得到所述词表中对应词的词向量。
6.根据权利要求5所述的方法,其特征在于,所述对分配到的每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,包括:
对分配到的每一训练语料,遍历所述训练语料对应的有序词集合中的所有词,将每个词分别与所述词表进行匹配,如果当前词在所述词表中匹配到相同的词,对该词进行训练,得到该词对应的词向量。
7.根据权利要求5所述的方法,其特征在于,所述依据各节点当前周期训练得到的所述词的训练词向量,并行同步更新所述词的当前周期的初始化词向量,作为所述词的下一周期的初始化词向量,包括:
采用下述公式实现同步更新:
w ′ = w - η ( Σ 1 N Δ w ) ;
其中,w′是指某一节点对应的所述词表中某词下一周期的初始词向量;w是指该节点对应词表中该词当前周期的初始化词向量;η是指预设系数;Δw通过对该节点对应词表中该词当前周期训练得到的词向量与该词当前周期的初始化词向量求差得到;N为所述学习模型的节点数。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
配置所述分布式词向量学习模型中的各节点,使得各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表未匹配的词进行词向量训练,对各节点训练得到的所述未匹配的词的训练词向量进行同步,触发下一周期训练,使得各个节点周期性训练得到所述未匹配的词的词向量,并将所述未匹配的词对应的词向量保存入所述词表中;其中,所述未匹配的词属于预设类别。
9.一种词向量的训练装置,其特征在于,所述装置包括:
语料库建立单元,用于抓取互联网网页,获取训练语料,保存在语料库中;
分词单元,用于对语料库中的每个训练语料分别作分词处理,得到每个训练语料对应的有序词集合;
词表构建单元,用于根据预先收集的用户查询日志构建词表;
语料分发单元,用于将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;
第一配置单元,用于配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量;其中,所述词向量训练包括:各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,并对各节点训练得到的词表中各词的训练词向量进行同步后,触发下一周期训练。
10.一种词向量的训练装置,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
抓取互联网网页,获取训练语料,保存在语料库中;
对语料库中的每个训练语料分别作分词处理,得到每个训练语料对应的有序词集合;
根据预先收集的用户查询日志构建词表;
将所述语料库中保存的各训练语料分发至分布式词向量学习模型中的各节点;
配置所述分布式词向量学习模型对所述词表中的各词进行周期性的词向量训练,得到所述词表中各词对应的词向量;
其中,所述词向量训练包括:各节点分别根据分配到的训练语料,对每个训练语料对应的有序词集合中包括的与所述词表匹配的词进行训练,并对各节点训练得到的词表中各词的训练词向量进行同步后,触发下一周期训练。
CN201610179115.0A 2016-03-25 2016-03-25 一种词向量的训练方法和装置 Active CN105786782B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610179115.0A CN105786782B (zh) 2016-03-25 2016-03-25 一种词向量的训练方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610179115.0A CN105786782B (zh) 2016-03-25 2016-03-25 一种词向量的训练方法和装置

Publications (2)

Publication Number Publication Date
CN105786782A true CN105786782A (zh) 2016-07-20
CN105786782B CN105786782B (zh) 2018-10-19

Family

ID=56390898

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610179115.0A Active CN105786782B (zh) 2016-03-25 2016-03-25 一种词向量的训练方法和装置

Country Status (1)

Country Link
CN (1) CN105786782B (zh)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106776534A (zh) * 2016-11-11 2017-05-31 北京工商大学 词向量模型的增量式学习方法
CN106874643A (zh) * 2016-12-27 2017-06-20 中国科学院自动化研究所 基于词向量自动构建知识库实现辅助诊疗的方法和***
CN107015969A (zh) * 2017-05-19 2017-08-04 四川长虹电器股份有限公司 可自我更新的语义理解***与方法
CN107239443A (zh) * 2017-05-09 2017-10-10 清华大学 一种词向量学习模型的训练方法及服务器
CN107451295A (zh) * 2017-08-17 2017-12-08 四川长虹电器股份有限公司 一种基于文法网络获取深度学习训练数据的方法
CN107577659A (zh) * 2017-07-18 2018-01-12 阿里巴巴集团控股有限公司 词向量处理方法、装置以及电子设备
CN107577658A (zh) * 2017-07-18 2018-01-12 阿里巴巴集团控股有限公司 词向量处理方法、装置以及电子设备
CN107766565A (zh) * 2017-11-06 2018-03-06 广州杰赛科技股份有限公司 对话角色区分方法与***
CN108024005A (zh) * 2016-11-04 2018-05-11 北京搜狗科技发展有限公司 信息处理方法、装置、智能终端、服务器和***
CN108111478A (zh) * 2017-11-07 2018-06-01 中国互联网络信息中心 一种基于语义理解的网络钓鱼识别方法和装置
CN108170663A (zh) * 2017-11-14 2018-06-15 阿里巴巴集团控股有限公司 基于集群的词向量处理方法、装置以及设备
CN108170667A (zh) * 2017-11-30 2018-06-15 阿里巴巴集团控股有限公司 词向量处理方法、装置以及设备
CN108231146A (zh) * 2017-12-01 2018-06-29 华南师范大学 一种基于深度学习的医疗记录模型构建方法、***及装置
CN108345580A (zh) * 2017-01-22 2018-07-31 阿里巴巴集团控股有限公司 一种词向量处理方法及装置
CN108509422A (zh) * 2018-04-04 2018-09-07 广州荔支网络技术有限公司 一种词向量的增量学习方法、装置和电子设备
CN108520018A (zh) * 2018-03-22 2018-09-11 大连理工大学 一种基于词向量的文学作品创作年代判定方法
CN108628813A (zh) * 2017-03-17 2018-10-09 北京搜狗科技发展有限公司 处理方法和装置、用于处理的装置
CN109388689A (zh) * 2017-08-08 2019-02-26 中国电信股份有限公司 词库生成方法和装置
CN109543175A (zh) * 2018-10-11 2019-03-29 北京诺道认知医学科技有限公司 一种查找同义词的方法及装置
CN109587019A (zh) * 2018-12-12 2019-04-05 珠海格力电器股份有限公司 一种家电设备的语音控制方法、装置、存储介质及***
WO2019080615A1 (zh) * 2017-10-23 2019-05-02 阿里巴巴集团控股有限公司 基于集群的词向量处理方法、装置以及设备
CN109726386A (zh) * 2017-10-30 2019-05-07 ***通信有限公司研究院 一种词向量模型生成方法、装置和计算机可读存储介质
CN109933778A (zh) * 2017-12-18 2019-06-25 北京京东尚科信息技术有限公司 分词方法、装置以及计算机可读存储介质
CN110023930A (zh) * 2016-11-29 2019-07-16 微软技术许可有限责任公司 利用神经网络和在线学习的语言数据预测
CN110019830A (zh) * 2017-09-20 2019-07-16 腾讯科技(深圳)有限公司 语料处理、词向量获取方法及装置、存储介质及设备
CN110191005A (zh) * 2019-06-25 2019-08-30 北京九章云极科技有限公司 一种告警日志处理方法及***
CN110197188A (zh) * 2018-02-26 2019-09-03 北京京东尚科信息技术有限公司 业务场景预测、分类的方法、***、设备和存储介质
CN110266675A (zh) * 2019-06-12 2019-09-20 成都积微物联集团股份有限公司 一种基于深度学习的xss攻击自动化检测方法
CN110633352A (zh) * 2018-06-01 2019-12-31 北京嘀嘀无限科技发展有限公司 一种语义检索的方法及装置
CN112256517A (zh) * 2020-08-28 2021-01-22 苏州浪潮智能科技有限公司 基于lstm-dssm的虚拟化平台的日志分析方法及装置
CN112862662A (zh) * 2021-03-12 2021-05-28 云知声智能科技股份有限公司 一种分布式训练transformer-xl语言模型的方法和设备
CN113961664A (zh) * 2020-07-15 2022-01-21 上海乐言信息科技有限公司 基于深度学习的数值词处理方法、***、终端及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020164A (zh) * 2012-11-26 2013-04-03 华北电力大学 一种基于多语义分析和个性化排序的语义检索方法
CN103218444A (zh) * 2013-04-22 2013-07-24 中央民族大学 基于语义的藏文网页文本分类方法
CN104462051A (zh) * 2013-09-12 2015-03-25 腾讯科技(深圳)有限公司 分词方法及装置
US20150088875A1 (en) * 2009-04-15 2015-03-26 Lexisnexis, A Division Of Reed Elsevier Inc. System and Method For Ranking Search Results Within Citation Intensive Document Collections
CN104615589A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 训练命名实体识别模型的方法、命名实体识别方法及装置
CN104699763A (zh) * 2015-02-11 2015-06-10 中国科学院新疆理化技术研究所 多特征融合的文本相似性度量***
CN104933183A (zh) * 2015-07-03 2015-09-23 重庆邮电大学 一种融合词向量模型和朴素贝叶斯的查询词改写方法
US20160070748A1 (en) * 2014-09-04 2016-03-10 Crimson Hexagon, Inc. Method and apparatus for improved searching of digital content

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150088875A1 (en) * 2009-04-15 2015-03-26 Lexisnexis, A Division Of Reed Elsevier Inc. System and Method For Ranking Search Results Within Citation Intensive Document Collections
CN103020164A (zh) * 2012-11-26 2013-04-03 华北电力大学 一种基于多语义分析和个性化排序的语义检索方法
CN103218444A (zh) * 2013-04-22 2013-07-24 中央民族大学 基于语义的藏文网页文本分类方法
CN104462051A (zh) * 2013-09-12 2015-03-25 腾讯科技(深圳)有限公司 分词方法及装置
US20160070748A1 (en) * 2014-09-04 2016-03-10 Crimson Hexagon, Inc. Method and apparatus for improved searching of digital content
CN104699763A (zh) * 2015-02-11 2015-06-10 中国科学院新疆理化技术研究所 多特征融合的文本相似性度量***
CN104615589A (zh) * 2015-02-15 2015-05-13 百度在线网络技术(北京)有限公司 训练命名实体识别模型的方法、命名实体识别方法及装置
CN104933183A (zh) * 2015-07-03 2015-09-23 重庆邮电大学 一种融合词向量模型和朴素贝叶斯的查询词改写方法

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108024005A (zh) * 2016-11-04 2018-05-11 北京搜狗科技发展有限公司 信息处理方法、装置、智能终端、服务器和***
CN108024005B (zh) * 2016-11-04 2020-08-21 北京搜狗科技发展有限公司 信息处理方法、装置、智能终端、服务器和***
CN106776534B (zh) * 2016-11-11 2020-02-11 北京工商大学 词向量模型的增量式学习方法
CN106776534A (zh) * 2016-11-11 2017-05-31 北京工商大学 词向量模型的增量式学习方法
CN110023930A (zh) * 2016-11-29 2019-07-16 微软技术许可有限责任公司 利用神经网络和在线学习的语言数据预测
CN110023930B (zh) * 2016-11-29 2023-06-23 微软技术许可有限责任公司 利用神经网络和在线学习的语言数据预测
CN106874643A (zh) * 2016-12-27 2017-06-20 中国科学院自动化研究所 基于词向量自动构建知识库实现辅助诊疗的方法和***
CN106874643B (zh) * 2016-12-27 2020-02-28 中国科学院自动化研究所 基于词向量自动构建知识库实现辅助诊疗的方法和***
US10878199B2 (en) 2017-01-22 2020-12-29 Advanced New Technologies Co., Ltd. Word vector processing for foreign languages
CN108345580B (zh) * 2017-01-22 2020-05-15 创新先进技术有限公司 一种词向量处理方法及装置
CN108345580A (zh) * 2017-01-22 2018-07-31 阿里巴巴集团控股有限公司 一种词向量处理方法及装置
CN108628813B (zh) * 2017-03-17 2022-09-23 北京搜狗科技发展有限公司 处理方法和装置、用于处理的装置
CN108628813A (zh) * 2017-03-17 2018-10-09 北京搜狗科技发展有限公司 处理方法和装置、用于处理的装置
CN107239443A (zh) * 2017-05-09 2017-10-10 清华大学 一种词向量学习模型的训练方法及服务器
CN107015969A (zh) * 2017-05-19 2017-08-04 四川长虹电器股份有限公司 可自我更新的语义理解***与方法
CN107577658A (zh) * 2017-07-18 2018-01-12 阿里巴巴集团控股有限公司 词向量处理方法、装置以及电子设备
CN107577659A (zh) * 2017-07-18 2018-01-12 阿里巴巴集团控股有限公司 词向量处理方法、装置以及电子设备
CN109388689A (zh) * 2017-08-08 2019-02-26 中国电信股份有限公司 词库生成方法和装置
CN107451295B (zh) * 2017-08-17 2020-06-30 四川长虹电器股份有限公司 一种基于文法网络获取深度学习训练数据的方法
CN107451295A (zh) * 2017-08-17 2017-12-08 四川长虹电器股份有限公司 一种基于文法网络获取深度学习训练数据的方法
CN110019830B (zh) * 2017-09-20 2022-09-23 腾讯科技(深圳)有限公司 语料处理、词向量获取方法及装置、存储介质及设备
CN110019830A (zh) * 2017-09-20 2019-07-16 腾讯科技(深圳)有限公司 语料处理、词向量获取方法及装置、存储介质及设备
US10769383B2 (en) 2017-10-23 2020-09-08 Alibaba Group Holding Limited Cluster-based word vector processing method, device, and apparatus
WO2019080615A1 (zh) * 2017-10-23 2019-05-02 阿里巴巴集团控股有限公司 基于集群的词向量处理方法、装置以及设备
TWI721310B (zh) * 2017-10-23 2021-03-11 開曼群島商創新先進技術有限公司 基於集群的詞向量處理方法、裝置以及設備
CN109726386A (zh) * 2017-10-30 2019-05-07 ***通信有限公司研究院 一种词向量模型生成方法、装置和计算机可读存储介质
CN109726386B (zh) * 2017-10-30 2023-05-09 ***通信有限公司研究院 一种词向量模型生成方法、装置和计算机可读存储介质
CN107766565A (zh) * 2017-11-06 2018-03-06 广州杰赛科技股份有限公司 对话角色区分方法与***
CN108111478A (zh) * 2017-11-07 2018-06-01 中国互联网络信息中心 一种基于语义理解的网络钓鱼识别方法和装置
US10846483B2 (en) 2017-11-14 2020-11-24 Advanced New Technologies Co., Ltd. Method, device, and apparatus for word vector processing based on clusters
WO2019095836A1 (zh) * 2017-11-14 2019-05-23 阿里巴巴集团控股有限公司 基于集群的词向量处理方法、装置以及设备
CN108170663A (zh) * 2017-11-14 2018-06-15 阿里巴巴集团控股有限公司 基于集群的词向量处理方法、装置以及设备
CN108170667B (zh) * 2017-11-30 2020-06-23 阿里巴巴集团控股有限公司 词向量处理方法、装置以及设备
WO2019105134A1 (zh) * 2017-11-30 2019-06-06 阿里巴巴集团控股有限公司 词向量处理方法、装置以及设备
CN108170667A (zh) * 2017-11-30 2018-06-15 阿里巴巴集团控股有限公司 词向量处理方法、装置以及设备
TWI701588B (zh) * 2017-11-30 2020-08-11 香港商阿里巴巴集團服務有限公司 詞向量處理方法、裝置以及設備
CN108231146A (zh) * 2017-12-01 2018-06-29 华南师范大学 一种基于深度学习的医疗记录模型构建方法、***及装置
CN109933778B (zh) * 2017-12-18 2024-03-05 北京京东尚科信息技术有限公司 分词方法、装置以及计算机可读存储介质
CN109933778A (zh) * 2017-12-18 2019-06-25 北京京东尚科信息技术有限公司 分词方法、装置以及计算机可读存储介质
CN110197188A (zh) * 2018-02-26 2019-09-03 北京京东尚科信息技术有限公司 业务场景预测、分类的方法、***、设备和存储介质
CN108520018A (zh) * 2018-03-22 2018-09-11 大连理工大学 一种基于词向量的文学作品创作年代判定方法
CN108509422A (zh) * 2018-04-04 2018-09-07 广州荔支网络技术有限公司 一种词向量的增量学习方法、装置和电子设备
CN108509422B (zh) * 2018-04-04 2020-01-24 广州荔支网络技术有限公司 一种词向量的增量学习方法、装置和电子设备
CN110633352A (zh) * 2018-06-01 2019-12-31 北京嘀嘀无限科技发展有限公司 一种语义检索的方法及装置
CN109543175A (zh) * 2018-10-11 2019-03-29 北京诺道认知医学科技有限公司 一种查找同义词的方法及装置
CN109587019A (zh) * 2018-12-12 2019-04-05 珠海格力电器股份有限公司 一种家电设备的语音控制方法、装置、存储介质及***
CN110266675A (zh) * 2019-06-12 2019-09-20 成都积微物联集团股份有限公司 一种基于深度学习的xss攻击自动化检测方法
CN110191005A (zh) * 2019-06-25 2019-08-30 北京九章云极科技有限公司 一种告警日志处理方法及***
CN113961664A (zh) * 2020-07-15 2022-01-21 上海乐言信息科技有限公司 基于深度学习的数值词处理方法、***、终端及介质
CN112256517B (zh) * 2020-08-28 2022-07-08 苏州浪潮智能科技有限公司 基于lstm-dssm的虚拟化平台的日志分析方法及装置
CN112256517A (zh) * 2020-08-28 2021-01-22 苏州浪潮智能科技有限公司 基于lstm-dssm的虚拟化平台的日志分析方法及装置
CN112862662A (zh) * 2021-03-12 2021-05-28 云知声智能科技股份有限公司 一种分布式训练transformer-xl语言模型的方法和设备

Also Published As

Publication number Publication date
CN105786782B (zh) 2018-10-19

Similar Documents

Publication Publication Date Title
CN105786782A (zh) 一种词向量的训练方法和装置
CN107851092A (zh) 个人实体建模
CN108780463A (zh) 社交图的生成和管理
CN109196496A (zh) 未知词预测器和内容整合的翻译器
CN110175223A (zh) 一种实现问题生成的方法及装置
KR20160124182A (ko) 연락처들을 그룹화하기 위한 방법 및 장치
CN115114395B (zh) 内容检索及模型训练方法、装置、电子设备和存储介质
WO2018204076A1 (en) Personalized user-categorized recommendations
CN108304376B (zh) 文本向量的确定方法、装置、存储介质及电子装置
CN111738010B (zh) 用于生成语义匹配模型的方法和装置
US20170212886A1 (en) Configurable Generic Language Understanding Models
CN104298785A (zh) 一种众搜资源搜索方法
CN110175515B (zh) 一种基于大数据的人脸识别算法
CN108304412A (zh) 一种跨语言搜索方法和装置、一种用于跨语言搜索的装置
WO2023197872A1 (zh) 书籍搜索方法、装置、设备和存储介质
CN110032616A (zh) 一种文档阅读情况的采集方法及装置
CN112995757B (zh) 视频剪裁方法及装置
CN112862021B (zh) 一种内容标注方法和相关装置
CN109871128B (zh) 一种题型识别方法及装置
CN112712056A (zh) 视频语义分析方法、装置、存储介质及电子设备
CN107707759A (zh) 终端控制方法、装置以及***、存储介质
CN112328783A (zh) 一种摘要确定方法和相关装置
WO2024036616A1 (zh) 一种基于终端的问答方法及装置
CN110968246A (zh) 中文智能手写输入识别方法及装置
CN109446356A (zh) 一种多媒体文件检索方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20170821

Address after: 100084. Room 9, floor 02, cyber building, building 9, building 1, Zhongguancun East Road, Haidian District, Beijing

Applicant after: Beijing Sogou Information Service Co., Ltd.

Address before: 100084 Beijing, Zhongguancun East Road, building 1, No. 9, Sohu cyber building, room 9, room, room 01

Applicant before: Sogo Science-Technology Development Co., Ltd., Beijing

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant