CN111897955B - 基于编解码的评语生成方法、装置、设备和存储介质 - Google Patents
基于编解码的评语生成方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN111897955B CN111897955B CN202010671508.XA CN202010671508A CN111897955B CN 111897955 B CN111897955 B CN 111897955B CN 202010671508 A CN202010671508 A CN 202010671508A CN 111897955 B CN111897955 B CN 111897955B
- Authority
- CN
- China
- Prior art keywords
- comment
- training
- sentences
- word
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 140
- 239000011159 matrix material Substances 0.000 claims description 35
- 239000013598 vector Substances 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 9
- 230000000873 masking effect Effects 0.000 claims description 8
- 230000002829 reductive effect Effects 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 6
- 230000010354 integration Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000001788 irregular Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Educational Technology (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- General Engineering & Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Databases & Information Systems (AREA)
- Game Theory and Decision Science (AREA)
- Artificial Intelligence (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Primary Health Care (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种基于编解码的评语生成方法、装置、终端设备和存储介质。接收初始点评项对应的文字语料;对所述文字语料中的语句进行分类,确定至少一种点评类别及其对应的语句;将每种点评类别对应的语句按设定格式分别输入文本生成模型进行文本预测,输出每种点评类别对应的点评句子,所述文本生成模型预先基于编解码训练得到;将所述点评句子按所述点评类别的排序进行组合,生成所述初始点评项对应的评语。通过对初始点评项的分类,将每种分类分别输入预先基于编码器和解码器训练得到的文本生成模型,再按类别排序组合得到评语,能够丰富评语维度,根据初始点评项的框架生成针对性的评语,并对评语表达的逻辑进行有效梳理。
Description
技术领域
本发明实施例涉及文字处理技术领域,尤其涉及基于编解码的评语生成方法、装置、终端设备和存储介质。
背景技术
学生评语是老师对学生在一段时间内学习情况的评价,例如“你思维灵活,求知欲强,富于质疑精神,这很好。人无完人,金无足赤,多理解别人,多找找自己的缺点,也许会有更好的发展。记住了彩虹只是瞬间的美丽,而把握今天才是永恒的改变。”
在教学活动网络化、电子化日益成熟的发展趋势下,开始出现自动生成学生评语的方案,以保证有针对性的评语表述的同时简化教师评语编辑的工作量。
在已有的机器生成学生评语的方法中,一般的做法是先设计好评语维度,比如学业水平,思想品德等,对每个维度构造一定数量的评语模板,然后每个维度随机挑选一句评语模板拼接成一段评语。
另外一种可选的方法是,构造点评项-评语模板之间的对应关系,针对学生的若干个点评项,每个点评项都在对应模板中选择一个评语。
发明人在实现现有的机器生成学生评语的方法时发现,现有的机器生成学生评语的方法存在数据生成的成本(前期模板构建成本或后期教师调整成本)较高,并且高度模板化的评语多样性不足,不能体现学生的个性化学习情况,对学生的激励效果也有所欠缺。
发明内容
本发明提供了一种基于编解码的评语生成方法、装置、终端设备和存储介质,以解决现有技术机器生成学生评语成本过高和多样性不足的技术问题。
第一方面,本发明实施例提供了一种基于编解码的评语生成方法,包括:
接收初始点评项对应的文字语料;
对所述文字语料中的语句进行分类,确定至少一种点评类别及其对应的语句;
将每种点评类别对应的语句按设定格式分别输入文本生成模型进行文本预测,输出每种点评类别对应的点评句子,所述文本生成模型预先基于编解码训练得到;
将所述点评句子按所述点评类别的排序进行整合,生成所述初始点评项对应的评语。
第二方面,本发明实施例还提供了一种基于编解码的评语生成装置,包括:
语料接收单元,用于接收初始点评项对应的文字语料;
语句分类单元,用于对所述文字语料中的语句进行分类,确定至少一种点评类别及其对应的语句;
分类预测单元,用于将每种点评类别对应的语句按设定格式分别输入文本生成模型进行文本预测,输出每种点评类别对应的点评句子,所述文本生成模型预先基于编解码训练得到;
句子整合单元,用于将所述点评句子按所述点评类别的排序进行整合,生成所述初始点评项对应的评语。
第三方面,本发明实施例还提供了一种终端设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的基于编解码的评语生成方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面所述的基于编解码的评语生成方法。
上述基于编解码的评语生成方法、装置、终端设备和存储介质,接收初始点评项对应的文字语料;对所述文字语料中的语句进行分类,确定至少一种点评类别及其对应的语句;将每种点评类别对应的语句按设定格式分别输入文本生成模型进行文本预测,输出每种点评类别对应的点评句子,所述文本生成模型预先基于编解码训练得到;将所述点评句子按所述点评类别的排序进行组合,生成所述初始点评项对应的评语。通过对初始点评项的分类,将每种分类分别输入预先基于编码器和解码器训练得到的文本生成模型,再按类别排序组合得到评语,相较于现有技术较高的数据生成成本和基于有限数量模板生成的套路化评语,能够丰富评语维度,根据初始点评项的框架生成针对性的评语达成良好的激励效果,并对评语表达的逻辑进行有效梳理。
附图说明
图1为本发明实施例一提供的一种基于编解码的评语生成方法的流程图;
图2为文本生成模型的结构示意图;
图3为通用的编解码方案的观测关系的示意图;
图4为本方案中的编解码的观测关系的示意图;
图5为本发明实施例二提供的一种基于编解码的评语生成装置的结构示意图;
图6为本发明实施例三提供的一种终端设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
需要注意的是,由于篇幅所限,本申请说明书没有穷举所有可选的实施方式,本领域技术人员在阅读本申请说明书后,应该能够想到,只要技术特征不互相矛盾,那么技术特征的任意组合均可以构成可选的实施方式。
例如,在实施例一的一个实施方式中,记载了一个技术特征:通过TF-IDF和SVM进行评语关键字的分类,在实施例一的另一个实施方式中,记载了另一个技术特征:编码器的transformer模块的自注意力机制采用掩码处理。由于以上两个技术特征不互相矛盾,本领域技术人员在阅读本申请说明书后,应该能够想到,同时具有这两个特征的实施方式也是一种可选的实施方式。
另外需要注意的是,本方案的实施形态也不是实施例一中记载的所有技术特征的集合,其中某些技术特征的描述是为了方案的优化实现,实施例一中记载的若干技术特征的组合如果可以实现本方案的设计初衷,其即可作为一种未独立的实施方式,当然也可以作为一种具体的产品形态。
下面对各实施例进行详细说明。
实施例一
图1为本发明实施例一提供的一种基于编解码的评语生成方法的流程图。实施例中提供的基于编解码的评语生成方法可以由用于评语生成的各种操作设备执行,该操作设备可以通过软件和/或硬件的方式实现,该操作设备可以是两个或多个物理实体构成,也可以是一个物理实体构成
具体的,参考图1,该基于编解码的评语生成方法具体包括:
步骤S101:接收初始点评项对应的文字语料。
文字语料,即用文字表征的语言材料,是构成语料库的基本单元。初始点评项是点评人输入的一组或多组评语关键字,每组评语关键字包括多个文字组成,以语句的形式表达,用于对点评对象进行尽可能核心的点评表达,例如“学习认真、书写较差、作业完成及时、运动不足”,评语关键字组成一个点评对象对应的初始点评项的文字语料,各个点评关键字之间没有或只有较少自然语言的起承转折,对应的,这种点评表达的可读性和逻辑性较差。
在本方案的实施过程中,文字语料中具体各个初始点评项的接收来源可以是点评人根据对点评对象的了解针对性组织文字输入的评语关键字;也可以是从预设的评语关键字集合中选中的一个或多个评语关键字,具体的将评语关键字集合中的内容全部显示于同一页面并在该页面中进行选中评语关键字集合,或者将评语关键子集合根据点评类别设定为多个子集合,所有的点评类别和每个点评类别对应的评语关键字集合作为两级菜单(必要时也可以设置更多级菜单),通过在菜单的操作接收完成对文字语料的接收;还可以是手动输入和评语关键字集合选中的组合,即可以接收手动输入的评语关键字,也可以是从评语关键字集合中选中的评语关键字。
步骤S102:对所述文字语料中的语句进行分类,确定至少一种点评类别及其对应的语句。
在具体的分类过程中,如果在接收文字语料时,已经预先完成对该评语关键字(即语句)的分类,则可以直接读取预先的分类完成对语句的分类。
点评人实际在进行点评的过程中,很多时候需要根据自身对点评对象的了解实时组织文字输入,这种文字语料的生成方式通常无法直接对语句进行分类,此时,可以通过既定的文本处理方式进行语句的分类。
具体来说,首先需要划分点评类别,不同类型的点评对象,点评重点和点评维度通常会有所变化,例如针对学生的点评,可以根据学习情况、思想品德、课堂表现等维度进行分类。通过文本处理方式进行语句的分类,还需要基于点评类别进行评语语料库的建设,即搜集常用的点评用词,根据点评类别添加分类标签后录入到评语语料库。
在接收到点评人自己组织文字输入的文字语料之后,需要对文字语料进行分词得到多个点评词,在分词的基础上,通过TF-IDF(Term Frequency-Inverse DocumentFrequency,词频-逆文件频率)进行每组评语关键字(即每个语句)的点评项特征提取。具体来说:
其中,ni表示每组评语关键字中词i出现的频率,∑knk表示每组评语关键字中词的个数。
其中,D表示评语语料库中点评词的总个数,Di表示文字语料中点评词i在文字语料中出现的次数。在具体实施过程中,评语语料库是根据很多点评数据构造得到,IDF的作用是统计当前组评语关键字的词在评语语料库中的重要性,Di表示当前组评语关键字的词在评语语料库中出现的次数,出现次数越多,说明这个词在很多组评语关键字中都会出现(比如高频词“的、地”),那么这个词在这组评语关键字中区分性就不大,相应地IDF值就会比较小;如果当前组评语关键字的某个词在评语语料库中只出现一次,那么说明这个词能够很好地表征该组评语关键字,IDF值相应就比较大。因为评语语料库是预先构造好的,所以在输入新的一组评语关键字时,该组评语关键字中的词可能出现不在评语语料库中的情况,此时Di就为0,计算没有意义,为了规避这种情况,所以分母+1。
因此,评语关键字中每个词的TF-IDF值计算如下:
TFIDF=TF×IDF
计算TF-IDF值得到每组评语关键字的特征后,使用SVM(Support VectorMachine,支持向量机)对每组评语关键字进行分类,SVM目的是找到一个最优的超平面,将不同类别的评语关键字尽可能地分开。
通过以上算法对评语关键字进行分类后,就可以从不同维度生成评语,一方面可以丰富评语内容,另一方面也可以降低后续评语生成模型的难度,让生成结果更加可控。
步骤S103:将每种点评类别对应的语句按设定格式分别输入文本生成模型进行文本预测,输出每种点评类别对应的点评句子,所述文本生成模型预先基于编解码训练得到。
本方案中的文本生成模型如图2所示,其中,下方输入中的S1表示一组评语关键字;S2表示点评句子,训练阶段输入的是真实的评语,真实评语根据用于测试的评语关键字人为生成,是以评语关键字为主干的完整点评表达,测试阶段输入为零向量;SOS、SEP和EOS分别表示起始符、分割符和终止符三个操作符。
具体来说,所述文本生成模型通过步骤S1031-S1034训练得到:
步骤S1031:生成初始文本生成模型,所述初始文本生成模型包括编码器和解码器。
在本方案文本生成模型的搭建中,编码器的transformer模块的自注意力机制采用掩码处理。常用的模型学习方法是基于掩码的语言模型(masked LM),即对点评句子S2随机选择一定比例的字进行掩码处理,文本生成模型的任务是学习到这些被掩蔽掉的字,以此来训练网络参数。但是在本方案涉及到的场景中,输入的一个点评类别是很多词经常一起出现,因此,本方案将字掩码改进为词掩码,具体做法是先对评语关键字分词,对分词后的若干个词组,按一定比例随机选择,从而赋予文本生成模型更强的学习能力,特别是对于词组的学习。
原生的transformer模块使用的是双向的自注意力机制,会导致评语句子S2出现数据泄露的问题,即在生成评语的时候模型就看到了评语内容,但是在真实预测阶段这部分内容是没有的,所以需要对自注意力机制做掩码处理,训练出文本生成模型对掩码部分的准确预测。
在具体设计文本生成模型时,所述transformer模块包括自注意力矩阵和掩码矩阵,所述掩码矩阵的大小与所述自注意力矩阵相同;所述掩码矩阵的行列均为点评项与评语句子的拼接,所述掩码矩阵中将所述点评项所在的行与所述评语句子所在的列构成的小矩阵中的参数预设为趋近于负无穷的数,并将所述评语句子所在的行与所述评语句子所在的列构成的小矩阵预设为上三角矩阵,其中非零参数预设为趋近于负无穷的数。
具体来说,所述掩码处理通过以下公式实现:
Q=K=V∈Rn×d
n=len(SU+len(S2)+3
其中,Q、K和V均表示单个训练样本对应的编码;M表示掩码矩阵,M∈Rn×n,n表示输入长度,len(S1)表示所述训练点评项的样本内容的长度,len(S2)表示所述训练点评项对应的目标训练评语的词掩码的样本内容,d表示每个字符的向量维度,dk表示K的字符向量维度。
所述掩码矩阵具体为:
其中,-inf表示一个趋近负无穷的数。
该掩码矩阵是忽略输入数据中的操作符的表达,即只有S1和S2的表达。假设前三行表示S1,后三行表示S2;同样地,假设前三列表示S1,后三列表示S2,-inf表示一个趋近负无穷的数,将M矩阵叠加到QKT后再经过softmax函数,相当于将-inf对应的部分转化为零。因此文本生成模型在处理S1的某个词时,只能观测到S1的内容,观测不到S2的内容;处理S2某个词的时候,可以观测到S1的内容以及S2对应词左边的内容,而右边的内容观测不到。通过这种mask的方式,可以防止训练阶段的数据泄露,让训练与预测两阶段的数据保持一致,从而更好地完成评语生成任务。
另外,在本方案的解码器中,使用一层全连接层做解码,并经过softmax函数,针对句子S2中被掩蔽掉的词组使用最大似然估计计算损失。在图2所示的文本生成模型中,解码器中的全连接通过实线表达。另外,整个文本生成模型中的实线表示当前词可以被下一层中的任意一个词观测到,虚线表示当前词只能被当前词之后的词观测到。
基于以上文本生成模型中部分掩码的设计,进一步参考图3和图4,假设“学习努力”是输入,“你学习很努力”是需要预测的,通常基于编解码的方案的观测关系如图3所示,本方案中的文本生成模型的观测关系如图4所示。在本方案中,当当前词是“学习努力”时,彼此是互相可以看到的(双向的);当当前词是“你学习很努力”时,比如是“很”字,它只能观测到“学习努力”和“你学习”的内容,观测不到后面的内容。
步骤S1032:根据训练点评项以及所述训练点评项对应的目标训练评语的词掩码结果确定训练样本,基于多个训练样本生成训练集,同一个所述训练样本中的所述训练点评项中的语句属于相同的点评类别。
具体来说,所述根据训练点评项以及所述训练点评项对应的目标训练评语的词掩码结果确定训练样本,包括:
计算所述训练点评项以及所述训练点评项对应的目标训练评语的词掩码的字向量、句子位置编码、字位置编码和点评项位置编码;
叠加对应的字向量、句子位置编码、字位置编码和点评项位置编码,得到所述训练点评项的样本内容,以及所述训练点评项对应的目标训练评语的词掩码的样本内容;
将所述样本内容按所述设定格式组织得到训练样本。
本方案中的文本生成模型,在训练阶段和测试阶段,模型的输入均可表示为两个维度的复合。模型的输入整体是【SOS,S1,SEP,S2,EOS】五个部分的拼接输入,每个部分的编码包括字向量、句子位置编码、字位置编码和点评项位置编码共四个部分。编码的前三个部分跟预训练模型Bert的输入一致,最后一个部分是为了区分不同点评类别,因为输入是一个个独立的点评项,模型不能识别到点评项之间的区别,因此本方案添加一个点评项位置编码来区分不同点评项(即不同组的评语关键字),使得模型在学习时候将点评项识别为一个整体,防止不同点评项在训练过程中产生交叉干扰的输出结果,从而提高模型的在训练过程对点评项的逻辑关系的学习能力。
例如某次点评接收到的文字语料为“拖欠作业,早读声音响亮,书写不工整”,分类时将“拖欠作业书写不工整”分为第一类,将“早读声音响亮”分为第二类,在输入到文本生成模型时,两类分别输入,对应分别进行一次训练或得到一句评语。“拖欠作业书写不工整”就是S1的内容,对于文本生成模型,S1对应的编码用于表示【拖欠作业书写不工整】,每个字都是S1的构成部分,针对该S1,句子位置编码是【000000000】,点评项位置编码是【000011111】,其中字向量在文本生成模型内计算得到,字位置编码在现有技术有通用的公式计算,在此不做具体阐述。
步骤S1033:将所述训练集输入所述初始文本生成模型进行模型训练。
步骤S1034:当训练得到的中间模型的模型损失不再下降时,将该中间模型作为文本生成模型,所述模型损失通过所述中间模型对应的目标训练评语和生成的评语计算得到。
通常来说,在初始文本生成模型的基础上需要多次训练才能确定最终的文本生成模型。在本方案中,将训练集中的每个训练样本训练之后得到的模型定义为中间模型。在具体操作过程中,下一次训练可以是在上一次训练得到的中间模型的基础上继续训练。以上多次训练过程只是输入的训练样本不同,具体的训练过程相同。随着训练的持续,从训练样本中学习到的信息越来越完善,模型中的参数变化越来越小,最终生成的评语达到接近目标训练评语的极致,即训练过程中某个中间模型的模型损失不再下降时,将该中间模型作为文本生成模型。整体而言,本方案中的模型损失用于判断中间模型的训练进度的判断,在具体实施时,模型损失具体可以通过计算目标训练评语中被掩码部分的词掩码前后的交叉熵实现,当模型损失不再下降时,判断中间模型的训练进度达到预期,停止训练并将当前中间模型作为最终的文本生成模型。当然,也可以使用现有技术中的其他模型损失,在此不做具体阐述。
在实际使用该文本生成模型时,每种点评类别对应的点评句子实际是未知的,此时将所述每种点评类别对应的点评句子在所述设定格式中初始化为零向量。也就是说,将每种点评类别对应的评语关键字作为S1的输入,预测阶段是没有评语句子的,因此预测的第一步是将S2的每个字都初始化为零向量,结合S1,S2输入到模型中,便可以得到学生评语了。可选的,我们可以每一步预测只生成一个字,并且把该预测结果添加到下一步预测的输入中,一步步生成评语。
步骤S104:将所述点评句子按所述点评类别的排序进行整合,生成所述初始点评项对应的评语。
点评句子按点评类别生成,在进行评语生成时,可以根据点评重点和一般的表述规律对点评句子的表述顺序进行重新整理。例如对学生的点评,按同学相处、学习态度、学习成绩、表现缺点等依次进行描述。在前述点评类别的分类基础上,按序进行整理得到最终的评语。
例如老师针对某个学生的初始点评如下:“拖欠作业课堂表现表扬准时上学作业书写不工整数学作业错误过多朴雅少年拖欠英语作业早读声音响亮”,该初始点评只是高效率地提供了对学生评价的实质性内容,但是语句表达的可读性和逻辑性都较差。
如果直接使用现有的自然语言生成算法生成评语,得到的结果如下:“你是一个聪明的孩子,在课堂上表现优秀,作业书写不工整,数学书写错误,课堂书写也不够响亮,早读声音响亮。”可以看到,现有方案难以区分学生不同维度的表现,容易造成逻辑混乱。
使用本方案得到的点评结果如下:“你是一个朴雅的少年,在课堂上表现得很出色。每天早读时,你的声音总是那么响亮。你的作业书写不够工整,数学错误过多,拖欠英语作业。”可以看到,使用本方案,可以把不同维度的点评项区分开,如上述点评项按课堂表现,朗读,作业等方面分别进行描述,使学生评语维度更加丰富;另一方面,使用经过改进后的生成方案,对不同点评项进行区分,以及掩码方式由字掩码扩大为词组掩码,可以更加适配学生评语场景,生成的评语更加通顺,逻辑更加合理,可以一定程度上减少出现上述“课堂书写也不够响亮”等逻辑混乱的情况。
上述,接收初始点评项对应的文字语料;对所述文字语料中的语句进行分类,确定至少一种点评类别及其对应的语句;将每种点评类别对应的语句按设定格式分别输入文本生成模型进行文本预测,输出每种点评类别对应的点评句子,所述文本生成模型预先基于编解码训练得到;将所述点评句子按所述点评类别的排序进行组合,生成所述初始点评项对应的评语。通过对初始点评项的分类,将每种分类分别输入预先基于编码器和解码器训练得到的文本生成模型,再按类别排序组合得到评语,能够丰富评语维度,根据初始点评项的框架生成针对性的评语,并对评语表达的逻辑进行有效梳理。
实施例二
图5为本发明实施例二提供的一种基于编解码的评语生成装置的结构示意图。参考图5,该基于编解码的评语生成装置包括:语料接收单元201、语句分类单元202、分类预测单元203和句子组合单元204。
其中,语料接收单元201,用于接收初始点评项对应的文字语料;语句分类单元202,用于对所述文字语料中的语句进行分类,确定至少一种点评类别及其对应的语句;分类预测单元203,用于将每种点评类别对应的语句按设定格式分别输入文本生成模型进行文本预测,输出每种点评类别对应的点评句子,所述文本生成模型预先基于编解码训练得到;句子组合单元204,用于将所述点评句子按所述点评类别的排序进行组合,生成所述初始点评项对应的评语。
在上述实施例的基础上,所述文本生成模型通过以下步骤训练得到:
生成初始文本生成模型,所述初始文本生成模型包括编码器和解码器;
根据训练点评项以及所述训练点评项对应的目标训练评语的词掩码结果确定训练样本,基于多个训练样本生成训练集,同一个所述训练样本中的所述训练点评项中的语句属于相同的点评类别;
将所述训练集输入所述初始文本生成模型进行模型训练;
当训练得到的中间模型的模型损失不再下降时,将该中间模型作为文本生成模型,所述模型损失通过所述中间模型对应的目标训练评语和生成的评语计算得到。
在上述实施例的基础上,所述根据训练点评项以及所述训练点评项对应的目标训练评语的词掩码结果确定训练样本,包括:
计算所述训练点评项以及所述训练点评项对应的目标训练评语的词掩码的字向量、句子位置编码、字位置编码和点评项位置编码;
叠加对应的字向量、句子位置编码、字位置编码和点评项位置编码,得到所述训练点评项的样本内容,以及所述训练点评项对应的目标训练评语的词掩码的样本内容;
将所述样本内容按所述设定格式组织得到训练样本。
在上述实施例的基础上,所述编码器的transformer模块的自注意力机制采用掩码处理。
在上述实施例的基础上,所述transformer模块包括自注意力矩阵和掩码矩阵,所述掩码矩阵的大小与所述自注意力矩阵相同;所述掩码矩阵的行列均为点评项与评语句子的拼接,所述掩码矩阵中将所述点评项所在的行与所述评语句子所在的列构成的小矩阵中的参数预设为趋近于负无穷的数,并将所述评语句子所在的行与所述评语句子所在的列构成的小矩阵预设为上三角矩阵,其中非零参数预设为趋近于负无穷的数。
在上述实施例的基础上,所述掩码处理通过以下公式实现:
Q=K=V∈Rn×d
n=len(SU+len(S2)+3
其中,Q、K和V均表示单个训练样本对应的编码;M表示掩码矩阵,M∈Rn×n,n表示输入长度,len(S1)表示所述训练点评项的样本内容的长度,len(S2)表示所述训练点评项对应的目标训练评语的词掩码的样本内容,d表示每个字符的向量维度,dk表示K的字符向量维度。
在上述实施例的基础上,所述掩码矩阵具体为:
其中,-inf表示一个趋近负无穷的数。
在上述实施例的基础上,所述每种点评类别对应的点评句子在所述设定格式中初始化为零向量。
本发明实施例提供的基于编解码的评语生成装置包含在基于编解码的评语生成设备中,且可用于执行上述实施例一中提供的任一基于编解码的评语生成方法,具备相应的功能和有益效果。
实施例三
图6为本发明实施例三提供的一种终端设备的结构示意图,该终端设备是前文所述基于编解码的评语生成设备的一种具体的硬件呈现方案。如图6所示,该终端设备包括处理器310、存储器320、输入装置330、输出装置340以及通信装置350;终端设备中处理器310的数量可以是一个或多个,图6中以一个处理器310为例;终端设备中的处理器310、存储器320、输入装置330、输出装置340以及通信装置350可以通过总线或其他方式连接,图6中以通过总线连接为例。
存储器320作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的基于编解码的评语生成方法对应的程序指令/模块(例如,基于编解码的评语生成装置中的语料接收单元201、语句分类单元202、分类预测单元203和句子组合单元204)。处理器310通过运行存储在存储器320中的软件程序、指令以及模块,从而执行终端设备的各种功能应用以及数据处理,即实现上述的基于编解码的评语生成方法。
存储器320可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器320可进一步包括相对于处理器310远程设置的存储器,这些远程存储器可以通过网络连接至终端设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置330可用于接收输入的数字或字符信息,以及产生与终端设备的用户设置以及功能控制有关的键信号输入。输出装置340可包括显示屏等显示设备。
上述终端设备包含基于编解码的评语生成装置,可以用于执行任意基于编解码的评语生成方法,具备相应的功能和有益效果。
实施例四
本发明实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行本申请任意实施例中提供的基于编解码的评语生成方法中的相关操作,且具备相应的功能和有益效果。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。
因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (9)
1.基于编解码的评语生成方法,其特征在于,包括:
接收初始点评项对应的文字语料;
对所述文字语料中的语句进行分类,确定至少一种点评类别及其对应的语句;
将每种点评类别对应的语句按设定格式分别输入文本生成模型进行文本预测,输出每种点评类别对应的点评句子,所述文本生成模型预先基于编解码训练得到;
将所述点评句子按所述点评类别的排序进行整合,生成所述初始点评项对应的评语;
其中,所述文本生成模型通过以下步骤训练得到:
生成初始文本生成模型,所述初始文本生成模型包括编码器和解码器;
根据训练点评项以及所述训练点评项对应的目标训练评语的词掩码结果确定训练样本,基于多个训练样本生成训练集,同一个所述训练样本中的所述训练点评项中的语句属于相同的点评类别;
将所述训练集输入所述初始文本生成模型进行模型训练;
当训练得到的中间模型的模型损失不再下降时,将该中间模型作为文本生成模型,所述模型损失通过所述中间模型对应的目标训练评语和生成的评语计算得到;
其中,所述根据训练点评项以及所述训练点评项对应的目标训练评语的词掩码结果确定训练样本,包括:
计算所述训练点评项以及所述训练点评项对应的目标训练评语的词掩码的字向量、句子位置编码、字位置编码和点评项位置编码;
叠加对应的字向量、句子位置编码、字位置编码和点评项位置编码,得到所述训练点评项的样本内容,以及所述训练点评项对应的目标训练评语的词掩码的样本内容;
将所述样本内容按所述设定格式组织得到训练样本。
2.根据权利要求1所述的方法,其特征在于,所述编码器的transformer模块的自注意力机制采用掩码处理。
3.根据权利要求2所述的方法,其特征在于,所述transformer模块包括自注意力矩阵和掩码矩阵,所述掩码矩阵的大小与所述自注意力矩阵相同;所述掩码矩阵的行列均为点评项与评语句子的拼接,所述掩码矩阵中将所述点评项所在的行与所述评语句子所在的列构成的小矩阵中的参数预设为趋近于负无穷的数,并将所述评语句子所在的行与所述评语句子所在的列构成的小矩阵预设为上三角矩阵,其中非零参数预设为趋近于负无穷的数。
4.根据权利要求3所述的方法,其特征在于,所述掩码处理通过以下公式实现:
Q=K=V∈Rn×d
n=len(S1)+len(S2)+3
其中,Q、K和V均表示单个训练样本对应的编码;M表示掩码矩阵,M∈Rn×n,n表示输入长度,len(S1)表示所述训练点评项的样本内容的长度,len(S2)表示所述训练点评项对应的目标训练评语的词掩码的样本内容,d表示每个字符的向量维度,dk表示K的字符向量维度。
5.根据权利要求3或4所述的方法,其特征在于,所述掩码矩阵具体为:
其中,-inf表示一个趋近负无穷的数。
6.根据权利要求1所述的方法,其特征在于,所述每种点评类别对应的点评句子在所述设定格式中初始化为零向量。
7.基于编解码的评语生成装置,其特征在于,包括:
语料接收单元,用于接收初始点评项对应的文字语料;
语句分类单元,用于对所述文字语料中的语句进行分类,确定至少一种点评类别及其对应的语句;
分类预测单元,用于将每种点评类别对应的语句按设定格式分别输入文本生成模型进行文本预测,输出每种点评类别对应的点评句子,所述文本生成模型预先基于编解码训练得到;
句子整合单元,用于将所述点评句子按所述点评类别的排序进行整合,生成所述初始点评项对应的评语;
其中,所述文本生成模型通过以下步骤训练得到:
生成初始文本生成模型,所述初始文本生成模型包括编码器和解码器;
根据训练点评项以及所述训练点评项对应的目标训练评语的词掩码结果确定训练样本,基于多个训练样本生成训练集,同一个所述训练样本中的所述训练点评项中的语句属于相同的点评类别;
将所述训练集输入所述初始文本生成模型进行模型训练;
当训练得到的中间模型的模型损失不再下降时,将该中间模型作为文本生成模型,所述模型损失通过所述中间模型对应的目标训练评语和生成的评语计算得到。
其中,所述根据训练点评项以及所述训练点评项对应的目标训练评语的词掩码结果确定训练样本,包括:
计算所述训练点评项以及所述训练点评项对应的目标训练评语的词掩码的字向量、句子位置编码、字位置编码和点评项位置编码;
叠加对应的字向量、句子位置编码、字位置编码和点评项位置编码,得到所述训练点评项的样本内容,以及所述训练点评项对应的目标训练评语的词掩码的样本内容;
将所述样本内容按所述设定格式组织得到训练样本。
8.一种终端设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6任一所述的基于编解码的评语生成方法;
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6任一所述的基于编解码的评语生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010671508.XA CN111897955B (zh) | 2020-07-13 | 2020-07-13 | 基于编解码的评语生成方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010671508.XA CN111897955B (zh) | 2020-07-13 | 2020-07-13 | 基于编解码的评语生成方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111897955A CN111897955A (zh) | 2020-11-06 |
CN111897955B true CN111897955B (zh) | 2024-04-09 |
Family
ID=73192601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010671508.XA Active CN111897955B (zh) | 2020-07-13 | 2020-07-13 | 基于编解码的评语生成方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111897955B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115719628A (zh) * | 2022-11-16 | 2023-02-28 | 联仁健康医疗大数据科技股份有限公司 | 一种中医处方生成方法、装置、设备及存储介质 |
CN116957991B (zh) * | 2023-09-19 | 2023-12-15 | 北京渲光科技有限公司 | 三维模型补全方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102226802A (zh) * | 2011-04-15 | 2011-10-26 | 中国烟草总公司郑州烟草研究院 | 烟草加工过程感官偏离程度专家评价*** |
CN103886037A (zh) * | 2014-03-10 | 2014-06-25 | 华为技术有限公司 | 一种数据筛选的方法及装置 |
CN104731873A (zh) * | 2015-03-05 | 2015-06-24 | 北京汇行科技有限公司 | 一种评价信息生成方法和装置 |
CN108230085A (zh) * | 2017-11-27 | 2018-06-29 | 重庆邮电大学 | 一种基于用户评论的商品评价***及方法 |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110489755A (zh) * | 2019-08-21 | 2019-11-22 | 广州视源电子科技股份有限公司 | 文本生成方法和装置 |
CN111210308A (zh) * | 2020-01-03 | 2020-05-29 | 精硕科技(北京)股份有限公司 | 一种推广策略的确定方法、装置、计算机设备和介质 |
CN111241290A (zh) * | 2020-01-19 | 2020-06-05 | 车智互联(北京)科技有限公司 | 一种评论标签生成方法、装置和计算设备 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8156119B2 (en) * | 2009-01-19 | 2012-04-10 | Microsoft Corporation | Smart attribute classification (SAC) for online reviews |
US20180260860A1 (en) * | 2015-09-23 | 2018-09-13 | Giridhari Devanathan | A computer-implemented method and system for analyzing and evaluating user reviews |
CN108363790B (zh) * | 2018-02-12 | 2021-10-22 | 百度在线网络技术(北京)有限公司 | 用于对评论进行评估的方法、装置、设备和存储介质 |
-
2020
- 2020-07-13 CN CN202010671508.XA patent/CN111897955B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102226802A (zh) * | 2011-04-15 | 2011-10-26 | 中国烟草总公司郑州烟草研究院 | 烟草加工过程感官偏离程度专家评价*** |
CN103886037A (zh) * | 2014-03-10 | 2014-06-25 | 华为技术有限公司 | 一种数据筛选的方法及装置 |
CN104731873A (zh) * | 2015-03-05 | 2015-06-24 | 北京汇行科技有限公司 | 一种评价信息生成方法和装置 |
CN108230085A (zh) * | 2017-11-27 | 2018-06-29 | 重庆邮电大学 | 一种基于用户评论的商品评价***及方法 |
CN110196894A (zh) * | 2019-05-30 | 2019-09-03 | 北京百度网讯科技有限公司 | 语言模型的训练方法和预测方法 |
CN110489755A (zh) * | 2019-08-21 | 2019-11-22 | 广州视源电子科技股份有限公司 | 文本生成方法和装置 |
CN111210308A (zh) * | 2020-01-03 | 2020-05-29 | 精硕科技(北京)股份有限公司 | 一种推广策略的确定方法、装置、计算机设备和介质 |
CN111241290A (zh) * | 2020-01-19 | 2020-06-05 | 车智互联(北京)科技有限公司 | 一种评论标签生成方法、装置和计算设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111897955A (zh) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110717017B (zh) | 一种处理语料的方法 | |
US20170193393A1 (en) | Automated Knowledge Graph Creation | |
US20150113388A1 (en) | Method and apparatus for performing topic-relevance highlighting of electronic text | |
CN111738016A (zh) | 多意图识别方法及相关设备 | |
CN111897955B (zh) | 基于编解码的评语生成方法、装置、设备和存储介质 | |
US20180018392A1 (en) | Topic identification based on functional summarization | |
CN114443899A (zh) | 视频分类方法、装置、设备及介质 | |
CN110852047A (zh) | 一种文本配乐方法、装置、以及计算机存储介质 | |
CN112434142A (zh) | 一种标记训练样本的方法、服务器、计算设备及存储介质 | |
CN108090098A (zh) | 一种文本处理方法及装置 | |
Kathuria et al. | Real time sentiment analysis on twitter data using deep learning (Keras) | |
CN113627194B (zh) | 信息抽取方法及装置、通信消息分类方法及装置 | |
CN117501283A (zh) | 文本到问答模型*** | |
CN117252739B (zh) | 一种评卷方法、***、电子设备及存储介质 | |
CN113886580A (zh) | 一种情感评分方法、装置及电子设备 | |
CN117196042A (zh) | 一种教育元宇宙中学习目标的语义推理方法及终端 | |
CN110297965B (zh) | 课件页面的显示及页面集的构造方法、装置、设备和介质 | |
CN112632948A (zh) | 案件文书排序方法及相关设备 | |
CN110263148A (zh) | 智能简历筛选方法及装置 | |
CN115757723A (zh) | 文本处理方法及装置 | |
CN115186085A (zh) | 回复内容处理方法以及媒体内容互动内容的交互方法 | |
Ali et al. | Comparison Performance of Long Short-Term Memory and Convolution Neural Network Variants on Online Learning Tweet Sentiment Analysis | |
CN111143693A (zh) | 基于人工智能的特征处理模型的训练方法及装置 | |
CN115269851B (zh) | 文章分类方法、装置、电子设备、存储介质及程序产品 | |
KR102497112B1 (ko) | 학습 대상 지식의 구조화를 통한 논리 사고의 학습 솔루션 제공 방법, 장치 및 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |