CN108647200A - 对话意图分类方法及装置、设备和存储介质 - Google Patents
对话意图分类方法及装置、设备和存储介质 Download PDFInfo
- Publication number
- CN108647200A CN108647200A CN201810297475.XA CN201810297475A CN108647200A CN 108647200 A CN108647200 A CN 108647200A CN 201810297475 A CN201810297475 A CN 201810297475A CN 108647200 A CN108647200 A CN 108647200A
- Authority
- CN
- China
- Prior art keywords
- information
- term vector
- classification
- probability
- vector information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种对话意图分类方法及装置、设备和存储介质,该方法包括:导入预先训练获得的词向量模型;对输入的对话信息进行分词,得到分词信息;将分词信息输入词向量模型,得到词向量信息和N元词向量信息;计算词向量信息和N元词向量信息的求和平均值;根据求和平均值计算对话信息属于各意图类别的概率;根据概率最高的意图类别生成分类结果并输出。本发明利用根据对话信息生成的词向量信息和N元词向量信息的求和平均值计算对话信息属于各意图类别的概率,实现了对于对话信息的对话意图进行自动精确分类,从而使聊天机器人进行准确智能回复具备可行性,进而实现了节约人力成本。
Description
技术领域
本申请涉及在线通讯技术领域,具体涉及一种对话意图分类方法及装置、设备和存储介质。
背景技术
当前招聘过程中,特别是校园招聘过程中,HR通常需要人工解答大量重复的招聘相关问题,导致需要耗费较高的人力成本,造成人力浪费;又例如在展览会、招商会等场景,同样存在类似的人力成本较高的问题。
发明内容
鉴于现有技术中的上述缺陷或不足,期望提供一种对在线对话信息的对话意图进行自动精确分类的对话意图分类方法及装置、设备和存储介质。
第一方面,本发明提供一种对话意图分类方法,包括:
导入预先训练获得的词向量模型;
对输入的对话信息进行分词,得到分词信息;
将分词信息输入词向量模型,得到词向量信息和N元词向量信息;
计算词向量信息和N元词向量信息的求和平均值;
根据求和平均值计算对话信息属于各意图类别的概率;
根据概率最高的意图类别生成分类结果并输出。
第二方面,本发明提供一种对话意图分类装置,包括模型导入单元、分词单元、词向量生成单元、求和平均单元、概率计算单元和分类单元。
模型导入单元配置用于导入预先训练获得的词向量模型;
分词单元配置用于对输入的对话信息进行分词,得到分词信息;
词向量生成单元配置用于将分词信息输入词向量模型,得到词向量信息和N元词向量信息;
求和平均单元配置用于计算词向量信息和N元词向量信息的求和平均值;
概率计算单元配置用于根据求和平均值计算对话信息属于各意图类别的概率;
分类单元配置用于根据概率最高的意图类别生成分类结果并输出。
第三方面,本发明还提供一种设备,包括一个或多个处理器和存储器,其中存储器包含可由该一个或多个处理器执行的指令以使得该一个或多个处理器执行根据本发明各实施例提供的对话意图分类方法。
第四方面,本发明还提供一种存储有计算机程序的存储介质,该计算机程序使计算机执行根据本发明各实施例提供的对话意图分类方法。
本发明诸多实施例提供的对话意图分类方法及装置、设备和存储介质利用根据对话信息生成的词向量信息和N元词向量信息的求和平均值计算对话信息属于各意图类别的概率,实现了对于对话信息的对话意图进行自动精确分类,从而使聊天机器人进行准确智能回复具备可行性,进而实现了节约人力成本。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1为本发明一实施例提供的一种对话意图分类方法的流程图。
图2为图1所示方法的一种实施方式中S50的流程图。
图3为本发明一实施例提供的一种对话意图分类装置的结构示意图。
图4为图3所示装置的一种实施方式的结构示意图。
图5为本发明一实施例提供的一种设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1为本发明一实施例提供的一种对话意图分类方法的流程图。
如图1所示,在本实施例中,本发明提供一种对话意图分类方法,包括:
S10:导入预先训练获得的词向量模型;
S20:对输入的对话信息进行分词,得到分词信息;
S30:将分词信息输入词向量模型,得到词向量信息和N元词向量信息;
S40:计算词向量信息和N元词向量信息的求和平均值;
S50:根据求和平均值计算对话信息属于各意图类别的概率;
S60:根据概率最高的意图类别生成分类结果并输出。
具体地,在本实施例中,上述方法的应用场景为校园招聘在线咨询对话,获取的对话信息为招聘对话信息,词向量模型具体配置为fastText词向量模型。
在更多实施例中,还可以将上述方法应用于展会在线咨询对话、招商会在线咨询对话等不同应用场景,并获取相应的对话信息;以及,根据实际需求将词向量模型配置为本领域其它常用的词向量模型,只要能根据分词信息生成词向量信息和N元词向量信息,进而求取求和平均值和各意图类别的概率,即可实现相同的技术效果。
在步骤S10中,导入预先训练好的fastText词向量模型。具体地,在本实施例中,该模型在训练过程中采用hierarchical softmax算法,当类别数为K,词嵌入向量的大小为d时,计算复杂度可以从O(Kd)降为O(d log2(K)),从而加快训练过程,缩短训练需要耗费的时间。
在步骤S20中,对输入的对话信息进行分词。具体地,在本实施例中,对话信息通过在线输入,采用jieba分词器对输入的对话信息进行分词。在更多实施例中,还可以通过语音输入后进行语音识别等不同方式进行输入,并可以采用本领域常用的其它分词器进行分词。
例如,对于对话信息“薪酬待遇怎么样”,通过分词,得到分词信息(薪酬,待遇,怎么样);又例如,对于对话信息“你是机器人吗”,通过分词,得到分词信息(你,是,机器人,吗)。
在步骤S30中,将步骤S20生成的分词信息输入步骤S10导入的词向量模型,得到词向量信息和N元词向量信息。具体地,在本实施例中,N元词向量信息具体配置为二元词向量信息(Bi-Gram)。例如,对于分词信息(薪酬,待遇,怎么样),输入词向量模型后可以得到词向量信息(wa1,wa2,wa3),以及二元词向量信息(wa12,wa23);对于分词信息(你,是,机器人,吗),输入词向量模型后可以得到词向量信息(wb1,wb2,wb3,wb4),以及二元词向量信息(wb12,wb23,wb34)。在更多实施例中,还可以根据实际需求将N元词向量信息配置为三元词向量信息(Tri-Gram)等不同元数的词向量信息。
在步骤S40中,计算词向量信息和N元词向量信息的求和平均值。例如,对于词向量信息(wa1,wa2,wa3),以及二元词向量信息(wa12,wa23),可以计算出第一求和平均值:
ha=(wa1+wa2+wa3+wa12+wa23)/5;
又例如,对于词向量信息(wb1,wb2,wb3,wb4),以及二元词向量信息(wb12,wb23,wb34),可以计算出第二求和平均值:
hb=(wb1+wb2+wb3+wb4+wb12+wb23+wb34)/7;
在更多实施例中,还可根据实际的分类效果对上述求和平均的计算方式进行动态调整,例如为词向量信息和N元词向量信息配置不同的权重,等等。
在步骤S50中,根据步骤S40计算出的求和平均值计算对话信息属于各意图类别的概率。具体地,在本实施例中,步骤S50采用图2所示的方法计算概率。
图2为图1所示方法的一种实施方式中S50的流程图。如图2所示,在本实施例中,步骤S50包括:
S501:根据求和平均值计算输出向量信息;
S502:根据输出向量信息和softmax函数计算对话信息属于各意图类别的概率。
具体地,步骤S501中采用sigmoid函数计算输出向量信息,例如,根据第一求和平均值ha计算第一输出向量信息za:
za=sigmoid(W0ha);
其中,W0为隐层到输出层的权重;
又例如,根据第二求和平均值hb计算第二输出向量信息zb:
zb=sigmoid(W0hb);
在更多实施例中,步骤S501还可以采用本领域常用的其它输出函数来计算输出向量信息。
步骤S502中,根据步骤S501计算出的输出向量信息,采用softmax函数计算对话信息属于各意图类别的概率。例如,根据第一输出向量信息za计算出对话信息“薪酬待遇怎么样”属于闲聊类别的概率为0.08,属于招聘问答类别的概率为0.92;又例如,根据第二输出向量信息zb计算出对话信息“你是机器人吗”属于闲聊类别的概率为0.95,属于招聘问答类别的概率为0.05。在更多实施例中,还可以采用本领域常用的其它分类函数进行概率计算。
在步骤S60中,根据概率最高的意图类别生成分类结果并输出。例如,对于对话信息“薪酬待遇怎么样”,生成分类结果“招聘问答”并输出;对于对话信息“你是机器人吗”,生成分类结果“闲聊”并输出。
上述实施例利用根据对话信息生成的词向量信息和N元词向量信息的求和平均值计算对话信息属于各意图类别的概率,实现了对于对话信息的对话意图进行自动精确分类,从而使聊天机器人进行准确智能回复具备可行性,进而实现了节约人力成本。
图3为本发明一实施例提供的一种对话意图分类装置的结构示意图。图3所示的装置可对应执行图1所示的方法。
如图3所示,在本实施例中,本发明提供一种对话意图分类装置,包括模型导入单元10、分词单元20、词向量生成单元30、求和平均单元40、概率计算单元50和分类单元60。
模型导入单元10配置用于导入预先训练获得的词向量模型;
分词单元20配置用于对输入的对话信息进行分词,得到分词信息;
词向量生成单元30配置用于将分词信息输入词向量模型,得到词向量信息和N元词向量信息;
求和平均单元40配置用于计算词向量信息和N元词向量信息的求和平均值;
概率计算单元50配置用于根据求和平均值计算对话信息属于各意图类别的概率;
分类单元60配置用于根据概率最高的意图类别生成分类结果并输出。
图3所示装置的对话意图分类原理可参考图1所示的方法,此处不再赘述。
图4为图3所示装置的一种实施方式的结构示意图。图4所示的装置可对应执行图2所示的方法。
如图4所示,在一优选实施例中,概率计算单元50包括第一运算子单元501和第二运算子单元502。
第一运算子单元501配置用于根据求和平均值计算输出向量信息;
第二运算子单元502配置用于根据输出向量信息和softmax函数计算对话信息属于各意图类别的概率。
图4所示装置的分类原理可参考图2所示的方法,此处不再赘述。
图5为本发明一实施例提供的一种设备的结构示意图。
如图5所示,作为另一方面,本申请还提供了一种设备500,包括一个或多个中央处理单元(CPU)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储部分508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM503中,还存储有设备500操作所需的各种程序和数据。CPU501、ROM502以及RAM503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
以下部件连接至I/O接口505:包括键盘、鼠标等的输入部分506;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。驱动器510也根据需要连接至I/O接口505。可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器510上,以便于从其上读出的计算机程序根据需要被安装入存储部分508。
特别地,根据本公开的实施例,上述任一实施例描述的对话意图分类方法可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,所述计算机程序包含用于执行对话意图分类方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装,和/或从可拆卸介质511被安装。
作为又一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例的装置中所包含的计算机可读存储介质;也可以是单独存在,未装配入设备中的计算机可读存储介质。计算机可读存储介质存储有一个或者一个以上程序,该程序被一个或者一个以上的处理器用来执行描述于本申请的对话意图分类方法。
附图中的流程图和框图,图示了按照本发明各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这根据所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以通过执行规定的功能或操作的专用的基于硬件的***来实现,或者可以通过专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元或模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元或模块也可以设置在处理器中,例如,各所述单元可以是设置在计算机或移动智能设备中的软件程序,也可以是单独配置的硬件装置。其中,这些单元或模块的名称在某种情况下并不构成对该单元或模块本身的限定。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离本申请构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (12)
1.一种对话意图分类方法,其特征在于,包括:
导入预先训练获得的词向量模型;
对输入的对话信息进行分词,得到分词信息;
将所述分词信息输入所述词向量模型,得到词向量信息和N元词向量信息;
计算所述词向量信息和所述N元词向量信息的求和平均值;
根据所述求和平均值计算所述对话信息属于各意图类别的概率;
根据概率最高的意图类别生成分类结果并输出。
2.根据权利要求1所述的方法,其特征在于,所述根据所述求和平均值计算所述对话信息属于各意图类别的概率包括:
根据所述求和平均值计算输出向量信息;
根据所述输出向量信息和softmax函数计算所述对话信息属于各意图类别的概率。
3.根据权利要求1所述的方法,其特征在于,所述词向量模型为fastText词向量模型。
4.根据权利要求3所述的方法,其特征在于,所述fastText词向量模型通过hierarchical softmax算法训练获得。
5.根据权利要求1所述的方法,其特征在于,所述分词通过jieba分词器进行。
6.一种对话意图分类装置,其特征在于,包括:
模型导入单元,配置用于导入预先训练获得的词向量模型;
分词单元,配置用于对输入的对话信息进行分词,得到分词信息;
词向量生成单元,配置用于将所述分词信息输入所述词向量模型,得到词向量信息和N元词向量信息;
求和平均单元,配置用于计算所述词向量信息和所述N元词向量信息的求和平均值;
概率计算单元,配置用于根据所述求和平均值计算所述对话信息属于各意图类别的概率;
分类单元,配置用于根据概率最高的意图类别生成分类结果并输出。
7.根据权利要求6所述的装置,其特征在于,所述概率计算单元包括:
第一运算子单元,配置用于根据所述求和平均值计算输出向量信息;
第二运算子单元,配置用于根据所述输出向量信息和softmax函数计算所述对话信息属于各意图类别的概率。
8.根据权利要求6所述的装置,其特征在于,所述词向量模型为fastText词向量模型。
9.根据权利要求8所述的装置,其特征在于,所述fastText词向量模型通过hierarchical softmax算法训练获得。
10.根据权利要求6所述的装置,其特征在于,所述分词单元配置用于通过jieba分词器进行所述分词。
11.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行如权利要求1-5中任一项所述的方法。
12.一种存储有计算机程序的存储介质,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810297475.XA CN108647200A (zh) | 2018-04-04 | 2018-04-04 | 对话意图分类方法及装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810297475.XA CN108647200A (zh) | 2018-04-04 | 2018-04-04 | 对话意图分类方法及装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108647200A true CN108647200A (zh) | 2018-10-12 |
Family
ID=63745464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810297475.XA Pending CN108647200A (zh) | 2018-04-04 | 2018-04-04 | 对话意图分类方法及装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108647200A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109615458A (zh) * | 2018-11-02 | 2019-04-12 | 深圳壹账通智能科技有限公司 | 客户管理方法、装置、终端设备及计算机可读存储介质 |
CN110196930A (zh) * | 2019-05-22 | 2019-09-03 | 山东大学 | 一种多模态客服自动回复方法及*** |
CN111833871A (zh) * | 2020-07-07 | 2020-10-27 | 信雅达***工程股份有限公司 | 基于意图识别的智能外呼***及其方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170125013A1 (en) * | 2015-10-29 | 2017-05-04 | Le Holdings (Beijing) Co., Ltd. | Language model training method and device |
CN107193865A (zh) * | 2017-04-06 | 2017-09-22 | 上海奔影网络科技有限公司 | 人机交互中自然语言意图理解方法及装置 |
CN107491541A (zh) * | 2017-08-24 | 2017-12-19 | 北京丁牛科技有限公司 | 文本分类方法及装置 |
-
2018
- 2018-04-04 CN CN201810297475.XA patent/CN108647200A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170125013A1 (en) * | 2015-10-29 | 2017-05-04 | Le Holdings (Beijing) Co., Ltd. | Language model training method and device |
CN107193865A (zh) * | 2017-04-06 | 2017-09-22 | 上海奔影网络科技有限公司 | 人机交互中自然语言意图理解方法及装置 |
CN107491541A (zh) * | 2017-08-24 | 2017-12-19 | 北京丁牛科技有限公司 | 文本分类方法及装置 |
Non-Patent Citations (1)
Title |
---|
范涛: "Facebook:FastText 理解和在query意图识别的应用", 《HTTPS://BLOG.CSDN.NET/HERO_FANTAO/ARTICLE/DETAILS/69487744》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109615458A (zh) * | 2018-11-02 | 2019-04-12 | 深圳壹账通智能科技有限公司 | 客户管理方法、装置、终端设备及计算机可读存储介质 |
CN110196930A (zh) * | 2019-05-22 | 2019-09-03 | 山东大学 | 一种多模态客服自动回复方法及*** |
CN110196930B (zh) * | 2019-05-22 | 2021-08-24 | 山东大学 | 一种多模态客服自动回复方法及*** |
CN111833871A (zh) * | 2020-07-07 | 2020-10-27 | 信雅达***工程股份有限公司 | 基于意图识别的智能外呼***及其方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111353033B (zh) | 一种训练文本相似度模型的方法和*** | |
CN108647239A (zh) | 对话意图识别方法及装置、设备和存储介质 | |
Vo et al. | Sentiment analysis of news for effective cryptocurrency price prediction | |
Hickish et al. | Investigating Bayesian Optimization for rail network optimization | |
CN108647200A (zh) | 对话意图分类方法及装置、设备和存储介质 | |
CN111783873B (zh) | 基于增量朴素贝叶斯模型的用户画像方法及装置 | |
CN113159355A (zh) | 数据预测方法、装置、物流货量预测方法、介质、设备 | |
CN116188061B (zh) | 商品销量预测方法、装置、电子设备及存储介质 | |
CN112925911B (zh) | 基于多模态数据的投诉分类方法及其相关设备 | |
CN110046303A (zh) | 一种基于需求匹配平台实现的信息推荐方法及装置 | |
CN110955770A (zh) | 一种智能对话*** | |
Windiatmoko et al. | Developing FB chatbot based on deep learning using RASA framework for university enquiries | |
Usmani et al. | Predicting market performance with hybrid model | |
Okhunov et al. | Tools to support the Development and Promotion of Innovative Projects | |
CN111353728A (zh) | 一种风险分析方法和*** | |
CN116757835A (zh) | ***客户贷中交易风险监控方法及装置 | |
CN112348590A (zh) | 一种物品价值确定方法、装置、电子设备和存储介质 | |
CN112102062A (zh) | 一种基于弱监督学习的风险评估方法、装置及电子设备 | |
CN117076672A (zh) | 文本分类模型的训练方法、文本分类方法及装置 | |
Zhang et al. | Improved procedures for training primal wasserstein gans | |
CN109961801A (zh) | 智能服务评价方法、计算机可读存储介质和终端设备 | |
US20200286104A1 (en) | Platform for In-Memory Analysis of Network Data Applied to Profitability Modeling with Current Market Information | |
CN113688222A (zh) | 基于上下文语义理解的保险销售任务话术推荐方法、***以及设备 | |
Nishitha et al. | Stock price prognosticator using machine learning techniques | |
Arputhamary et al. | Performance Improved Holt-Winter’s (PIHW) Prediction Algorithm for Big Data Environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181012 |