CN103810282B - 一种罗杰斯特‑正态模型话题提取方法 - Google Patents

一种罗杰斯特‑正态模型话题提取方法 Download PDF

Info

Publication number
CN103810282B
CN103810282B CN201410056958.2A CN201410056958A CN103810282B CN 103810282 B CN103810282 B CN 103810282B CN 201410056958 A CN201410056958 A CN 201410056958A CN 103810282 B CN103810282 B CN 103810282B
Authority
CN
China
Prior art keywords
node
computing node
document
topic
parameter server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410056958.2A
Other languages
English (en)
Other versions
CN103810282A (zh
Inventor
朱军
陈键飞
王紫
张钹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Real AI Technology Co Ltd
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201410056958.2A priority Critical patent/CN103810282B/zh
Publication of CN103810282A publication Critical patent/CN103810282A/zh
Application granted granted Critical
Publication of CN103810282B publication Critical patent/CN103810282B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/313Selection or weighting of terms for indexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种罗杰斯特‑正态模型话题提取方法,包括:S1:参数服务器将计数矩阵分布式存储在计算节点上,将训练集中的所有文档分发给计算节点;S2:对文档中的每个单词对应的话题进行吉布斯采样;S3:采样本文档的特征向量;S4:计算本节点中每个文档的特征向量的和、平方和及均值和协方差所服从的后验分布,从后验分布中采样每个文档的特征向量的均值和协方差;S5:判断迭代次数是否到预定常数,如果是,则停止迭代,执行S6,否则迭代次数加1,执行S2、S3、S4;S6:对本计算节点的文档依次执行S2、S3,对S3中所采样的特征向量做软最大值变换,输出本计算节点中的每个文档中每个话题占该文档的比例。通过该方法,能够提高话题提取的速度。

Description

一种罗杰斯特-正态模型话题提取方法
技术领域
本发明涉及数据挖掘技术领域,尤其涉及一种罗杰斯特-正态模型话题提取方法。
背景技术
隐式话题模型在挖掘文档语义信息和处理复杂的文档结构方面都体现出了明显的优势,利用隐式话题模型挖掘大规模文档中的语义结构需要解决的问题主要是:文档数量十分庞大,需要在分布式计算环境中可用的算法;模型的灵活性,如提取话题的相关性。
如今应用隐式话题模型的数据已经从小规模的文本集发展到大规模的社会网络、乃至整个互联网。传统的单机学习方法无法适应大数据的要求,需要快速、并且可以在分布式计算环境下运行的算法。
现有技术中,利用关联话题模型,通过采用非共轭罗杰斯特正态模型,提取话题相关性,在关联话题模型中,罗杰斯特正态模型的学习算法使用变分法,通过数值算法多次迭代进行求解。
通过上述描述可见,关联话题模型中的罗杰斯特正态模型的学习算法使用变分法,通过数值算法多次迭代进行求解,效率较低,速度低。
发明内容
本发明提供了一种罗杰斯特-正态模型话题提取方法,能够提高话题提取的速度。
本发明提供了一种罗杰斯特-正态模型话题提取方法,该方法包括:
S1:参数服务器将训练集中话题与单词对应关系的计数矩阵分布式存储在计算节点上,参数服务器将训练集中的所有文档分发给所述计算节点,每个计算节点保存所述计数矩阵和参数服务器发来的文档;
S2:计算节点对本计算节点中的文档中的每个单词对应的话题根据本计算节点存储的计数矩阵进行吉布斯采样;
S3:计算节点根据本计算节点所采样的文档中的每个单词的话题采样本文档的特征向量;
S4:计算节点计算本节点中每个文档的特征向量的和、平方和,利用所述和、平方和计算所有所述特征向量的均值和协方差所服从的后验分布,并从后验分布中采样每个文档的特征向量的均值和协方差;
S5:计算节点中,判断迭代次数是否达到预定常数,如果是,则停止迭代,执行S6,如果否,则迭代次数加1,依次执行S2、S3、S4;
S6:计算节点中,对本计算节点的文档依次执行S2、S3,对S3中所采样的特征向量做软最大值变换,输出本计算节点中的每个文档中每个话题所占该文档的比例。
进一步地,所述方法进一步包括:
计算节点将所述话题的后验分布拆分成本节点存储的所述计数矩阵的项和先验的项,通过引入增广均匀分布随机变量采样,当从所述计数矩阵的项采样时只采样非零元。
进一步地,所述计算节点根据本计算节点所采样的文档中的每个单词的话题采样本文档的特征向量,进一步包括:
S31:对所述特征向量的每一维引入增广变量;
S32:从当前特征向量下的每一维增广变量的条件分布中利用高斯分布近似采样该增广变量;
S33:从给定所述特征向量的其他所有维以及增广变量后,特征向量的某一维的条件分布中依次采样所述特征向量的每一维;
S34:判断所述循环次数是否到达预设循环次数,如果否,则循环次数加1,依次执行S32、S33。
进一步地,所述预设循环次数为8次。
进一步地,所述步骤S32,包括:从当前特征向量下的任一维增广变量的条件分布中利用经过变换的Polya-Gamma(1,z)分布近似采样该增广变量。
进一步地,所述方法还包括:在任一话题的后验分布中将隐式话题-单词分布矩阵通过积分去掉。
进一步地,所述方法还包括:
计算节点记录本计算节点的计数矩阵的增量,周期性地将该计数矩阵的每一行与该行对应的参数服务器进行同步,其中,所述参数服务器是分布式服务器,该计数矩阵的不同行存储在不同的节点上。
进一步地,所述计算节点记录本计算节点的计数矩阵的增量,周期性地将该计数矩阵的每一行与这一行对应的参数服务器进行同步,具体包括:
按照所述行的编号计算存储器的参数服务器,将该行在本计算节点上的增量发送到参数服务器;
参数服务器根据发来的增量更新参数服务器中的计数矩阵,将参数服务器上对应的行与计算节点上的所述行的差发送回所述计算节点;
计算节点根据接收到的差值更新本计算节点上的该行。
通过本发明提供的一种罗杰斯特-正态模型话题提取方法,通过分布式计算处理大规模数据,并能够提高话题提取的速度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种罗杰斯特-正态模型话题提取方法流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种罗杰斯特-正态模型话题提取方法,参见图1,该方法包括:
S1:参数服务器将训练集中话题与单词对应关系的计数矩阵分布式存储在计算节点上,参数服务器将训练集中的所有文档分发给所述计算节点,每个计算节点保存所述计数矩阵和参数服务器发来的文档;
S2:计算节点对本计算节点中的文档中的每个单词对应的话题根据本计算节点存储的计数矩阵进行吉布斯采样;
S3:计算节点根据本计算节点所采样的文档中的每个单词的话题采样本文档的特征向量;
S4:计算节点计算本节点中每个文档的特征向量的和、平方和,利用所述和、平方和计算所有所述特征向量的均值和协方差所服从的后验分布,并从后验分布中采样每个文档的特征向量的均值和协方差;
S5:计算节点中,判断迭代次数是否达到预定常数,如果是,则停止迭代,执行S6,如果否,则迭代次数加1,依次执行S2、S3、S4;
S6:计算节点中,对本计算节点的文档依次执行S2、S3,对S3中所采样的特征向量做软最大值变换,输出本计算节点中的每个文档中每个话题所占该文档的比例。
本发明实施例提供的一种罗杰斯特-正态模型话题提取方法,通过分布式计算处理大规模数据,并能够提高话题提取的速度。
其中,在一个话题提取的***中,包括一个参数服务器和至少一个计算节点,参数服务器用于为计算节点分配训练集中的待提取的文档,并将计数矩阵发送给计算节点;计算节点保存参数服务器分配的训练集中所有文档中的一部分文档,并对保存的文档进行话题提取。
在步骤S1中,参数服务器将训练集中话题与单词对应关系的计数矩阵分布式存储在计算节点上,参数服务器将训练集中的所有文档分发给所述计算节点,每个计算节点保存所述计数矩阵和参数服务器发来的文档。
其中,D为文档数目,Nd为第d篇文档的长度,wdn∈[1,V]为第d篇文档的第n个词的编号,V为单词表的大小,zdn∈[1,K]为第d篇文档的第n个词的话题编号,K为话题数目;#A表示集合A的元素数目。
在步骤S2中,计算节点对本计算节点中的文档中的每个单词对应的话题zdn根据本计算节点存储的计数矩阵进行吉布斯采样。
在步骤S3中,计算节点根据本计算节点所采样的文档中的每个单词的话题zdn采样本文档的特征向量其中为文档d特征向量的第k维。
在步骤S4中,计算节点计算本节点中每个文档的特征向量的和、平方和,利用所述和、平方和计算所述特征向量的均值和协方差所服从的后验分布,并从后验分布中采样每个文档的特征向量的均值μ和协方差Σ;
在步骤S6中,计算节点中,对本计算节点的文档依次执行S2、S3,对S3中所采样的特征向量做软最大值变换,输出本计算节点中的每个文档中每个话题所占的比例其中软最大值变换定义为变换后
进一步地,该方法包括:计算节点将所述话题的后验分布拆分成本节点存储的所述计数矩阵的项和先验的项,通过引入增广均匀分布随机变量采样,当从所述计数矩阵的项采样时只采样非零元。
步骤S3具体包括:
S31:对所述特征向量的每一维引入增广变量;
S32:从当前特征向量下的每一维增广变量的条件分布中利用高斯分布近似采样该增广变量;
S33:从给定所述特征向量的其他所有维以及增广变量后,特征向量的某一维的条件分布中依次采样所述特征向量的每一维;
具体地,采样特征向量的第i维~P(特征向量的第i维|增广变量的第i维,特征变量除了i的维度)。
S34:判断所述循环次数是否到达预设循环次数,如果否,则循环次数加1,依次执行S32、S33。
其中,预设循环次数优选为8次。步骤S32也可以通过以下方法实现:从当前特征向量下的任一维增广变量的条件分布中利用经过变换的Polya-Gamma(1,z)分布近似采样该增广变量。
另外,为了提高话题提取的速度,优选地,在任一话题的后验分布中将隐式话题-单词分布矩阵通过积分去掉。
该方法对计数矩阵采用周期性异步增量更新方法进行维护,具体包括:计算节点记录本计算节点的计数矩阵的增量,周期性地将该计数矩阵的每一行与该行对应的参数服务器进行同步,其中,所述参数服务器是分布式服务器,该计数矩阵的不同行存储在不同的节点上。
其中,所述计算节点记录本计算节点的计数矩阵的增量,周期性地将该计数矩阵的每一行与这一行对应的参数服务器进行同步,具体包括:
按照所述行的编号计算存储器的参数服务器,将该行在本计算节点上的增量发送到参数服务器;
参数服务器根据发来的增量更新参数服务器中的计数矩阵,将参数服务器上对应的行与计算节点上的所述行的差发送回所述计算节点;
计算节点根据接收到的差值更新本计算节点上的该行。
该方法采样方法具体包括:
a:计算节点中,在采用吉布斯采样的方法对给定所有单词对应的话题以及特征向量后,对文档中某个话题的后验分布进行采样。
其中, 为预先设定的先验β=(0.01,…,0.01)。
b:利用话题与单词对应关系的计数矩阵的稀疏性依次计算每个话题的概率。
其中
从条件分布中采样的方法是:
u~U(0,1),
其中Mult(A)是以向量A为参数的多项分布;
c:对特征向量的每一维引入增广变量
d:从当前特征向量下的任一维增广变量的条件分布中利用高斯分布或经过变换的Polya-Gamma(1,z)分布近似采样该增广变量
其中 为Polya-Gamma分布。
e:从给定所述特征向量的其他所有维以及增广变量后,特征向量的某一维的条件分布中依次采样所述特征向量的每一维;
其中
f:重复步骤d和步骤e直到重复次数达到预设循环次数S=8。
g:在每个计算节点上分别计算该计算节点上所有文档的特征向量的均值和协方差,利用这些信息计算训练集中所有文档的特征向量的均值和协方差。
h:利用训练集中所有文档的特征向量的均值和协方差计算其后验分布的参数,并根据该参数采样出新的均值和协方差。若μ,Σ的先验分布是Normal-Inverse-Wishart分布则其后验分布是
其中,ρ′=ρ+D,κ′=κ+D,样本均值样本方差
需要说明的是:计算节点在提取话题的过程中会对本计算节点中的计数矩阵进行更新,并将更新通知给参数服务器,参数服务器根据所有计算节点发来的更新内容对参数服务器中存储的计数矩阵进行更新,更新完成后,将更新后的最新版本的计数矩阵发送给所有的计算节点,计算节点接收该最新版本的计数矩阵实现对本计算节点中计数矩阵的更新。另外,本发明实施例提供的方法中,使用罗杰斯特-正态先验,得到了话题的相关性。
通过上述描述可见,本发明实施例提供的一种罗杰斯特-正态模型话题提取方法,本发明利用分布式计算,能够处理大规模文档,通过数据增广的方式,得到了精确的吉布斯采样算法,提高了计算效率和精度,能够提高话题提取的速度。
需要说明的是,在本文中,诸如第一和第二之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同因素。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储在计算机可读取的存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质中。
最后需要说明的是:以上所述仅为本发明的较佳实施例,仅用于说明本发明的技术方案,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所做的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (7)

1.一种罗杰斯特-正态模型话题提取方法,其特征在于,该方法包括:
S1:参数服务器将训练集中话题与单词对应关系的计数矩阵分布式存储在计算节点上,参数服务器将训练集中的所有文档分发给所述计算节点,每个计算节点保存所述计数矩阵和参数服务器发来的文档;
S2:计算节点对本计算节点中的文档中的每个单词对应的话题根据本计算节点存储的计数矩阵进行吉布斯采样;
S3:计算节点根据本计算节点所采样的文档中的每个单词的话题采样本文档的特征向量;
S4:计算节点计算本节点中每个文档的特征向量的和、平方和,利用所述和、平方和计算所有所述特征向量的均值和协方差所服从的后验分布,并从后验分布中采样每个文档的特征向量的均值和协方差;
S5:计算节点中,判断迭代次数是否达到预定常数,如果是,则停止迭代,执行S6,如果否,则迭代次数加1,依次执行S2、S3、S4;
S6:计算节点中,对本计算节点的文档依次执行S2、S3,对S3中所采样的特征向量做软最大值变换,输出本计算节点中的每个文档中每个话题所占该文档的比例。
2.根据权利要求1所述的方法,其特征在于,所述方法进一步包括:
计算节点将所述话题的后验分布拆分成本节点存储的所述计数矩阵的项和先验的项,通过引入增广均匀分布随机变量采样,当从所述计数矩阵的项采样时只采样非零元。
3.根据权利要求1所述的方法,其特征在于,所述计算节点根据本计算节点所采样的文档中的每个单词的话题采样本文档的特征向量,进一步包括:
S31:对所述特征向量的每一维引入增广变量;
S32:从当前特征向量下的每一维增广变量的条件分布中利用高斯分布近似采样该增广变量;
S33:从给定所述特征向量的其他所有维以及增广变量后,特征向量的某一维的条件分布中依次采样所述特征向量的每一维;
S34:判断循环次数是否到达预设循环次数,如果否,则循环次数加1,依次执行S32、S33。
4.根据权利要求3所述的方法,其特征在于,所述预设循环次数为8次。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:在任一话题的后验分布中将隐式话题-单词分布矩阵通过积分去掉。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
计算节点记录本计算节点的计数矩阵的增量,周期性地将该计数矩阵的每一行与该行对应的参数服务器进行同步,其中,所述参数服务器是分布式服务器,该计数矩阵的不同行存储在不同的节点上。
7.根据权利要求6所述的方法,其特征在于,所述计算节点记录本计算节点的计数矩阵的增量,周期性地将该计数矩阵的每一行与这一行对应的参数服务器进行同步,具体包括:
按照所述行的编号计算存储器的参数服务器,将该行在本计算节点上的增量发送到参数服务器;
参数服务器根据发来的增量更新参数服务器中的计数矩阵,将参数服务器上对应的行与计算节点上的所述行的差发送回所述计算节点;
计算节点根据接收到的差值更新本计算节点上的该行。
CN201410056958.2A 2014-02-19 2014-02-19 一种罗杰斯特‑正态模型话题提取方法 Active CN103810282B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410056958.2A CN103810282B (zh) 2014-02-19 2014-02-19 一种罗杰斯特‑正态模型话题提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410056958.2A CN103810282B (zh) 2014-02-19 2014-02-19 一种罗杰斯特‑正态模型话题提取方法

Publications (2)

Publication Number Publication Date
CN103810282A CN103810282A (zh) 2014-05-21
CN103810282B true CN103810282B (zh) 2017-02-15

Family

ID=50707052

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410056958.2A Active CN103810282B (zh) 2014-02-19 2014-02-19 一种罗杰斯特‑正态模型话题提取方法

Country Status (1)

Country Link
CN (1) CN103810282B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105868186A (zh) * 2016-06-01 2016-08-17 清华大学 简单高效的话题提取方法
CN111259081A (zh) * 2020-02-04 2020-06-09 杭州数梦工场科技有限公司 一种数据同步方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8463648B1 (en) * 2012-05-04 2013-06-11 Pearl.com LLC Method and apparatus for automated topic extraction used for the creation and promotion of new categories in a consultation system
CN103207856A (zh) * 2013-04-03 2013-07-17 同济大学 一种本体概念及层次关系生成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8463648B1 (en) * 2012-05-04 2013-06-11 Pearl.com LLC Method and apparatus for automated topic extraction used for the creation and promotion of new categories in a consultation system
CN103207856A (zh) * 2013-04-03 2013-07-17 同济大学 一种本体概念及层次关系生成方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Generalized Relational Topic Models with Data Augmentation;Ning Chen et al.;《Processing of the Twenty-Third International Joint Conference on Artifical Intelligence》;20131231;1273-1279 *
Gibbs Max-Margin Topic Models with Fast Sampling Algorithms;Jun Zhu et al.;《Processing of the 30th International Conference in Machine Learning》;20131231;124-132 *
Scalale Inference for Logistic-Normal Topic Models;Jianfei Chen et al.;《Advances in Neural Information Processing Systems 26 (NIPS 2013)》;20131231;1-9 *

Also Published As

Publication number Publication date
CN103810282A (zh) 2014-05-21

Similar Documents

Publication Publication Date Title
US10290066B2 (en) Method and device for modeling a long-time-scale photovoltaic output time sequence
CN110969250B (zh) 一种神经网络训练方法及装置
Huang et al. Prediction of wind power by chaos and BP artificial neural networks approach based on genetic algorithm
CN111027732B (zh) 一种多风电场出力场景的生成方法及***
CN104809139B (zh) 代码文件查询方法和装置
CN108509422B (zh) 一种词向量的增量学习方法、装置和电子设备
JP6172317B2 (ja) 混合モデル選択の方法及び装置
US20210182357A1 (en) System and method for model parameter optimization
Kock Oracle efficient variable selection in random and fixed effects panel data models
CN103810282B (zh) 一种罗杰斯特‑正态模型话题提取方法
CN107515854B (zh) 基于带权时序文本网络的时序社区以及话题的检测方法
Ding et al. Dirichlet process mixture models with shrinkage prior
CN114821337B (zh) 基于时相一致性伪标签的半监督sar图像建筑区提取方法
Wang et al. Copula estimation of distribution algorithms based on exchangeable Archimedean copula
JP6745507B2 (ja) パラメータ推定装置、方法、及びプログラム
Farkaš et al. Maximizing memory capacity of echo state networks with orthogonalized reservoirs
JP6993250B2 (ja) コンテンツ特徴量抽出装置、方法、及びプログラム
Rehman et al. [Retracted] Embedded Estimation Sequential Bayes Parameter Inference for the Ricker Dynamical System
Wu Binomial matrix factorization for discrete collaborative filtering
JP2016207171A (ja) パラメータ推定方法、評価値推定方法、装置、及びプログラム
Withers et al. The distribution of the maximum of a first order moving average: the continuous case
Kim et al. Hot deck imputation for multivariate missing data
CN111008271B (zh) 一种基于神经网络的关键信息提取方法及***
CN114116995B (zh) 基于增强图神经网络的会话推荐方法、***及介质
JP5538354B2 (ja) トピックモデル学習方法、装置、及びプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210527

Address after: 100084 a1901, 19th floor, building 8, yard 1, Zhongguancun East Road, Haidian District, Beijing

Patentee after: Beijing Ruili Wisdom Technology Co.,Ltd.

Address before: 100084 mailbox, 100084-82 Tsinghua Yuan, Beijing, Haidian District, Beijing

Patentee before: TSINGHUA University

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20140521

Assignee: Beijing Intellectual Property Management Co.,Ltd.

Assignor: Beijing Ruili Wisdom Technology Co.,Ltd.

Contract record no.: X2023110000073

Denomination of invention: A Topic Extraction Method for Rogers Normal Model

Granted publication date: 20170215

License type: Common License

Record date: 20230531