CN115906824A - 一种文本细粒度情感分析方法、***、介质和计算设备 - Google Patents
一种文本细粒度情感分析方法、***、介质和计算设备 Download PDFInfo
- Publication number
- CN115906824A CN115906824A CN202211441031.1A CN202211441031A CN115906824A CN 115906824 A CN115906824 A CN 115906824A CN 202211441031 A CN202211441031 A CN 202211441031A CN 115906824 A CN115906824 A CN 115906824A
- Authority
- CN
- China
- Prior art keywords
- text
- fine
- grained
- data set
- emotion analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Machine Translation (AREA)
Abstract
本发明公开了一种文本细粒度情感分析方法、***、介质和计算设备,包括:获取评论文本数据集,对评论文本数据集进行预处理;采用BERT模型对预处理后的数据集中的评论文本进行词向量化;将评论文本词向量输入至BiLSTM+Attention模型中进行粗粒度情感分析,训练得到用于情感分析的神经网络模型;采用LDA主题模型对预处理后的数据集进行主题提取,得到主题‑属性词;筛选数据集中包含属性词的短句,并标注对应的主题;将标注有主题的短句集输入到训练好的神经网络模型中进行细粒度情感分析,得到各个主题的情感倾向。本发明基于Bert+BiLSTM+LDA的情感分析方法能够有效提高文本细粒度情感分析的准确率。
Description
技术领域
本发明属于自然语言处理技术领域,涉及一种文本细粒度情感分析方法,具体涉及一种基于BERT+BiLSTM+LDA的文本细粒度情感分析方法、***、介质和计算设备。
背景技术
随着互联网的快速发展和普及,社交网络渗透到了人们生活的方方面面,越来越多的用户在社交网络上发表自己的评论和观点;电商网站的发展,也使得越来越多的人在网上购买商品,同时发表自己对商品的评价和观点。人们在互联网上留下了海量的对商品、电影、图书等的文本评论,这些文本评论中蕴含着人们的情感倾向信息。文本评论中一般包含着多个方面上的情感倾向,以图书为例,就可能包含有对剧情和文笔等多个方面的评价,评论者可能对剧情的情感倾向为积极,对文笔为消极,分析文本评论对各个方面的情感倾向,就是文本细粒度情感分析,细粒度情感分析是自然语言处理领域的一个难点。
情感分析是自然语言处理领域的一个比较热门的方向,主要是分析文本中表达的观点、态度和喜好。按照分析的粒度划分,可划分为篇章级情感分析、句子级情感分析、属性级情感分析,其中属性级情感分析又称细粒度情感分析。细粒度情感分析主要可以分为两个步骤:对文本中描述的主题(方面)进行提取和识别,对各个主题的情感倾向进行情感分析;其中,在主题提取上一般采用机器学习的方法,如PageRank算法、LDA主题模型、基于HowNet的文本聚类等方法;对各个主题的情感倾向进行情感分析的方法主要是基于情感词典的方法、基于传统机器学习的方法。基于情感词典的方法通过查情感词典得到文本中情感词的情感分,再通过一定的情感值计算规则,得出文本的情感得分,从而判别文本的情感倾向;基于情感词典的方法大部分情况下都需要人工构造情感词典,并且情感分类时准确度也比较差。基于传统机器学习的方法主要通过朴素贝叶斯、支持向量机、K近邻等分类器模型进行情感分析。
而随着深度学习的发展,基于深度学习的方法也被广泛运用于情感分析问题上,并且比起基于情感词典的方法和基于传统机器学习的方法,准确度有了很大的提升;但在细粒度情感分析上,深度学习的方法运用还比较少,准确率还有进一步的提升空间。
发明内容
针对现有技术中存在的不足之处,本发明提供一种文本细粒度情感分析方法、***、介质和计算设备。
本发明公开了一种文本细粒度情感分析方法,包括:
获取评论文本数据集;
对所述评论文本数据集进行预处理,所述预处理包括数据清洗和数据标注;
采用BERT模型对预处理后的数据集中的评论文本进行词向量化,得到评论文本词向量;
将评论文本词向量输入至BiLSTM+Attention模型中进行粗粒度情感分析,训练得到用于情感分析的神经网络模型;
采用LDA主题模型对预处理后的数据集进行主题提取,得到主题-属性词;筛选数据集中包含属性词的短句,并标注对应的主题;
将标注有主题的短句集输入到训练好的神经网络模型中进行细粒度情感分析,得到各个主题的情感倾向。
作为本发明的进一步改进,采用网络爬虫技术获取评论文本数据集。
作为本发明的进一步改进,所述数据清洗包括去除无关性文本和重复评论文本,所述无关性文本包括但不限于缩略词、表情符号、重复出现的标点符号和意义不明的语句;
所述数据标注的方法包括但不限于用评论的评分信息对评论进行标注,0-2分标注为消极,3分标注为中立,4-5分标注为积极。
作为本发明的进一步改进,所述将评论文本词向量输入至BiLSTM+Attention模型中进行粗粒度情感分析,训练得到用于情感分析的神经网络模型;包括:
采用BiLSTM提取评论文本句子中每个词的隐含信息;
采用注意力机制将每个词的隐含信息进行加权融合,得到整个句子的隐含信息;
整个句子的隐含信息经过全连接层和softmax激活函数得到输出,预测整个句子的情感倾向,最终经过训练得到用于情感分析的神经网络模型。
作为本发明的进一步改进,所述采用LDA主题模型对预处理后的数据集进行主题提取,得到主题-属性词;筛选数据集中包含属性词的短句,并标注对应的主题;包括:
对预处理后的数据集进行分词处理;
将分词后的文本输入到LDA主题模型中,根据预设的主题个数进行主题提取,最终得到N个主题以及与其相关的M个属性词;
根据得到的属性词,筛选出具有属性词的短句,根据属性词给短句标注上对应的主题。
作为本发明的进一步改进,当一句评论中筛选出多个属性词时,需要对评论进行分割,得到多个具有属性词的短句。
本发明还公开了一种文本细粒度情感分析***,包括:
获取模块,用于获取评论文本数据集;
预处理模块,用于对所述评论文本数据集进行预处理,所述预处理包括数据清洗和数据标注;
词向量化模块,用于采用BERT模型对预处理后的数据集中的评论文本进行词向量化,得到评论文本词向量;
训练模块,用于将评论文本词向量输入至BiLSTM+Attention模型中进行粗粒度情感分析,训练得到用于情感分析的神经网络模型;
主题提取模块,用于采用LDA主题模型对预处理后的数据集进行主题提取,得到主题-属性词;筛选数据集中包含属性词的短句,并标注对应的主题;
分析模块,用于将标注有主题的短句集输入到训练好的神经网络模型中进行细粒度情感分析,得到各个主题的情感倾向。
本发明还公开了一种计算机可读存储介质,其上存储有可执行指令,所述指令在被处理器执行时使处理器执行上述文本细粒度情感分析方法。
本发明还公开了一种计算设备,包括:一个或多个存储器,存储有可执行指令;一个或多个处理器,执行所述可执行指令,用以实现上述文本细粒度情感分析方法。
与现有技术相比,本发明的有益效果为:
本发明引入深度学习中的相关技术进行细粒度情感分析,如采用BERT模型进行文本词向量化,生成的词向量蕴含着深层语义信息,并且也融合了上下文的信息;在BiLSTM模型后加入了注意力机制,将各个词的信息融合时,越重要的词会有更高的权重、融合更多信息;最终构建的基于Bert+BiLSTM+LDA的细粒度情感分析方法能够有效提高文本细粒度情感分析的准确率。
附图说明
图1为本发明一种实施例公开的文本细粒度情感分析方法的流程图;
图2为本发明一种实施例公开的Bert模型的结构图。
图3为本发明一种实施例公开的LSTM单个神经元的结构图。
图4为本发明一种实施例公开的BiLSTM的结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图对本发明做进一步的详细描述:
如图1所示,本发明提供一种文本细粒度情感分析方法,包括:
步骤1、获取评论文本数据集;
具体的:
采用网络爬虫技术爬取豆瓣读书中某图书的评论,构建评论文本数据集,每条评论文本作为一个句子或短句。
步骤2、对评论文本数据集进行预处理,预处理包括数据清洗和数据标注;
具体的:
数据清洗包括去除无关性文本和重复评论文本;其中,爬虫爬取到的原始数据会存在很多无关性文本,例如大量的缩略词、表情符号、重复出现的标点符号、意义不明的语句等,上述文本不包含情感倾向和有用的信息,只会对文本表达产生严重干扰,使情感分析难以准确,因此,需去除这些干扰性文本;另外,数据集中有些评论是重复的,因此需去除掉重复评论;
数据标注包括但不限于用评论的评分信息对评论进行标注,如0-2分标注为消极,3分标注为中立,4-5分标注为积极。
步骤3、采用BERT模型对预处理后的数据集中的评论文本进行词向量化,得到评论文本词向量;其中,
BERT模型全称为基于Transformer的双向编码器,是一个用于自然语言处理领域的非常强大的预训练模型;BERT模型的输入嵌入由三个嵌入组成:位置嵌入、片段嵌入和词嵌入组成,由于BERT可以将句子对作为输入,片段嵌入表示词在第一个句子还是第二个句子中,位置嵌入表示词在句子中的位置。BERT模型的结构如图2所示,有双向性的特点,双向指的是在训练过程中可以从所选文本的上下文都汲取信息;BERT的预训练过程主要包括两个任务:Masked Lauguage Model和Next Sentence Prediction,通过以上两个任务,可以使预训练模型的词向量输出能够准确的表示文本的结合上下文的深层语义信息,最终预训练好的BERT模型便可以作为词向量化器,将输入的词转化为包含了深层语义信息的词向量,并且由于BERT的双向性,生成的词向量都是结合上下文信息的、动态的,能够很好的解决一词多义问题。
步骤4、将评论文本词向量输入至BiLSTM+Attention模型中进行粗粒度情感分析,训练得到用于情感分析的神经网络模型;
具体包括:
步骤4-1:LSTM是具有记忆长短期信息的能力的神经网络,能够很好的解决长期依赖问题;BiLSTM是双向LSTM,由一个前向的LSTM和后向的LSTM组合而成,能够同时学习前向的和后向的信息;LSTM单个神经元的结构图和BiLSTM的结构图如图3和图4所示。
LSTM单个神经元的算法公式及解析如下:
计算遗忘门,选择要遗忘的信息:输入是前一个时刻的隐藏状态ht-1和当前时刻的输入词xt,输出为遗忘门的值ft,计算公式为:ft=σ(Wf×[ht-1,xt]+bf),其中,Wf和bf为权重矩阵和偏移向量。
计算输出门和当前时刻的隐层状态:输入为前一时刻的隐层状态ht-1,当前时刻的输入词xt和当前时刻的细胞状态Ct,输出为输出门ot,输出为输出门的值ot和当前时刻的隐层状态ht,计算公式为:ot=σ(Wo[ht-1,xt]+bo),ht=ot*tanh(Ct)。
BiLSTM对每个词序列分别采取前向和后向LSTM,然后将同一个时刻的输出进行拼接,拼接后的输出同时包含着前向和后向的信息,t时刻的输出的计算方法为:
其中,T表示时间序列长度,ht(t=1,2,…,T)为最终输出。
步骤4-2:将步骤4-1的输出输入到Attention层,Attention层可以将BiLSTM各个时刻的输出融合起来,融合时采用加权求和的方式,权重值由该时刻的隐向量表示的词的重要性决定,句子中重要性越高的词,就会有更高的权重值,这样在将句子中每个词的隐含信息融合起来的时候,会更加关注更加重要的词的信息,从而关注到表达情感倾向的重点词,从而提高情感分析的准确率。
具体的算法公式及解析如下:
ut=tanh(wsht+bs)
其中ht为BiLSTM在t时刻的输出,αt表示权重值。Ws和bs分别为权重矩阵和偏移向量,us是一个参数向量,这些都包含大量用于训练的参数,通过这些参数,可以让神经网络逐渐学会哪些词是更加重要的,从而会计算出更高的权重值。V是Attention层输出的向量,蕴含着整个句子的深层隐含信息。
步骤4-3:将步骤4-2的输出输入到一个全连接层中,使其映射为大小为3的向量,然后经过softmax激活函数,得到最后的输出,该输出是预测的概率分布,即预测的输入的句子的情感倾向为积极、中立、消极的概率。将整个神经网络模型进行训练,用于后续的情感分析。
步骤5、采用LDA主题模型对预处理后的数据集进行主题提取,得到主题-属性词;筛选数据集中包含属性词的短句,并标注对应的主题;其中,聚类在一起的属性词均为描述同一主题的词,具有上述属性词的短句就是在评论这一主题;
具体包括:
步骤5-1:采用jieba分词工具对步骤2预处理后的数据集进行分词处理,然后将处理好的文本输入到LDA主题模型中,将聚类后生成的主题个数设为5,最终得到5个主题,另外得到每个主题下的属性词,聚类在一起的属性词都是在描述同一主题,选取每个主题下频率最高的10个属性词,并根据这10个属性词推断出一个合适的主题词,最终得到5个主题词,每个主题词下面都得到了与其相关的10个属性词;其中,
LDA主题模型主要用于推测文档的主题分布,可以用来识别文本中潜在的主题信息。LDA模型认为主题可以由一个词汇分布来表示,而文章可以由主题分布来表示。根据LDA模型,想要生成某一篇文章,需要确定主题和词汇的分布,确定文档和主题的分布,然后根据文档和主题的分布随机生成一个主题,再根据这一主题通过主题和词汇的分布随机生成一个词,重复前面生成的词的过程,直到生成完整的一个文档。其中文档和主题的分布,是从Dirichlet分布α中取样生成文档的主题分布,而主题和词汇的分布,是从Dirichlet分布β中取样生成主题对应的词汇分布。
步骤5-2:根据步骤5-1得到的属性词,筛选出具有属性词的短句,若一句评论中出现多个属性词,则需要对评论进行分割,得到多个具有属性词的短句,并根据属性词给短句标注上对应的主题。
步骤6、将标注有主题的短句集输入到训练好的神经网络模型中进行细粒度情感分析,得到各个主题的情感倾向;其中,
对于每个评论,通过分割后得到的短句就可以得到该评论在其描述到的多个主题的情感倾向;而统计整个短句集中各个主题的情感倾向,也可以得出对图书各个主题、方面的评价情况,得出对图书全面的、***的评价。
本发明还提供一种文本细粒度情感分析***,包括:
获取模块,用于实现上述步骤1;
预处理模块,用于实现上述步骤2;
词向量化模块,用于实现上述步骤3;
训练模块,用于实现上述步骤4;
主题提取模块,用于实现上述步骤5;
分析模块,用于实现上述步骤6。
本发明还提供一种计算机可读存储介质,其上存储有可执行指令,指令在被处理器执行时使处理器执行上述文本细粒度情感分析方法。
本发明还提供一种计算设备,包括:一个或多个存储器,存储有可执行指令;一个或多个处理器,执行可执行指令,用以实现上述文本细粒度情感分析方法。
本发明的优点为:
本发明先通过BERT词向量化得到蕴含了深层语义信息的词向量,然后再将词向量化的文本输入到BiLSTM+attention模型中,可以进一步提取深层特征信息,从而有效提高之后对情感倾向的预测效果,通过LDA主题模型进行主题聚类,可以得到文本所描述的主题,从而可以在主题级别的粒度上进行情感分析,结合Bert+BiLSTM这一前沿的深度学习模型,最终使得文本细粒度情感分析的准确度有一定的提升。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种文本细粒度情感分析方法,其特征在于,包括:
获取评论文本数据集;
对所述评论文本数据集进行预处理,所述预处理包括数据清洗和数据标注;
采用BERT模型对预处理后的数据集中的评论文本进行词向量化,得到评论文本词向量;
将评论文本词向量输入至BiLSTM+Attention模型中进行粗粒度情感分析,训练得到用于情感分析的神经网络模型;
采用LDA主题模型对预处理后的数据集进行主题提取,得到主题-属性词;筛选数据集中包含属性词的短句,并标注对应的主题;
将标注有主题的短句集输入到训练好的神经网络模型中进行细粒度情感分析,得到各个主题的情感倾向。
2.如权利要求1所述的文本细粒度情感分析方法,其特征在于,采用网络爬虫技术获取评论文本数据集。
3.如权利要求1所述的文本细粒度情感分析方法,其特征在于,所述数据清洗包括去除无关性文本和重复评论文本,所述无关性文本包括但不限于缩略词、表情符号、重复出现的标点符号和意义不明的语句;
所述数据标注的方法包括但不限于用评论的评分信息对评论进行标注,0-2分标注为消极,3分标注为中立,4-5分标注为积极。
4.如权利要求1所述的文本细粒度情感分析方法,其特征在于,所述将评论文本词向量输入至BiLSTM+Attention模型中进行粗粒度情感分析,训练得到用于情感分析的神经网络模型;包括:
采用BiLSTM提取评论文本句子中每个词的隐含信息;
采用注意力机制将每个词的隐含信息进行加权融合,得到整个句子的隐含信息;
整个句子的隐含信息经过全连接层和softmax激活函数得到输出,预测整个句子的情感倾向,最终经过训练得到用于情感分析的神经网络模型。
5.如权利要求1所述的文本细粒度情感分析方法,其特征在于,所述采用LDA主题模型对预处理后的数据集进行主题提取,得到主题-属性词;筛选数据集中包含属性词的短句,并标注对应的主题;包括:
对预处理后的数据集进行分词处理;
将分词后的文本输入到LDA主题模型中,根据预设的主题个数进行主题提取,最终得到N个主题以及与其相关的M个属性词;
根据得到的属性词,筛选出具有属性词的短句,根据属性词给短句标注上对应的主题。
6.如权利要求5所述的文本细粒度情感分析方法,其特征在于,当一句评论中筛选出多个属性词时,需要对评论进行分割,得到多个具有属性词的短句。
7.一种实现如权利要求1-6中任一项所述的文本细粒度情感分析方法的文本细粒度情感分析***,其特征在于,包括:
获取模块,用于获取评论文本数据集;
预处理模块,用于对所述评论文本数据集进行预处理,所述预处理包括数据清洗和数据标注;
词向量化模块,用于采用BERT模型对预处理后的数据集中的评论文本进行词向量化,得到评论文本词向量;
训练模块,用于将评论文本词向量输入至BiLSTM+Attention模型中进行粗粒度情感分析,训练得到用于情感分析的神经网络模型;
主题提取模块,用于采用LDA主题模型对预处理后的数据集进行主题提取,得到主题-属性词;筛选数据集中包含属性词的短句,并标注对应的主题;
分析模块,用于将标注有主题的短句集输入到训练好的神经网络模型中进行细粒度情感分析,得到各个主题的情感倾向。
8.一种计算机可读存储介质,其特征在于,其上存储有可执行指令,所述指令在被处理器执行时使处理器执行根据权利要求1-6中任一项所述的文本细粒度情感分析方法。
9.一种计算设备,其特征在于,包括:一个或多个存储器,存储有可执行指令;一个或多个处理器,执行所述可执行指令,用以实现根据权利要求1-6中任一项所述的文本细粒度情感分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211441031.1A CN115906824A (zh) | 2022-11-17 | 2022-11-17 | 一种文本细粒度情感分析方法、***、介质和计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211441031.1A CN115906824A (zh) | 2022-11-17 | 2022-11-17 | 一种文本细粒度情感分析方法、***、介质和计算设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115906824A true CN115906824A (zh) | 2023-04-04 |
Family
ID=86487421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211441031.1A Pending CN115906824A (zh) | 2022-11-17 | 2022-11-17 | 一种文本细粒度情感分析方法、***、介质和计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115906824A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116432107A (zh) * | 2023-05-30 | 2023-07-14 | 江苏大学 | 一种细粒度情感分类方法 |
-
2022
- 2022-11-17 CN CN202211441031.1A patent/CN115906824A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116432107A (zh) * | 2023-05-30 | 2023-07-14 | 江苏大学 | 一种细粒度情感分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112001185B (zh) | 一种结合中文句法和图卷积神经网络的情感分类方法 | |
CN112001187B (zh) | 一种基于中文句法和图卷积神经网络的情感分类*** | |
CN112001186A (zh) | 一种利用图卷积神经网络和中文句法的情感分类方法 | |
Chang et al. | Research on detection methods based on Doc2vec abnormal comments | |
Wahid et al. | Cricket sentiment analysis from Bangla text using recurrent neural network with long short term memory model | |
CN112256866B (zh) | 一种基于深度学习的文本细粒度情感分析算法 | |
CN111339260A (zh) | 一种基于bert和qa思想的细粒度情感分析方法 | |
Bsir et al. | Enhancing deep learning gender identification with gated recurrent units architecture in social text | |
CN112434164B (zh) | 一种兼顾话题发现和情感分析的网络舆情分析方法及*** | |
Azim et al. | Text to emotion extraction using supervised machine learning techniques | |
CN112395417A (zh) | 基于深度学习的网络舆情演化仿真方法及*** | |
Kandhro et al. | Performance analysis of hyperparameters on a sentiment analysis model | |
Hasan et al. | Sentiment analysis using out of core learning | |
Jacob et al. | Data Intelligence and Cognitive Informatics: Proceedings of ICDICI 2023 | |
CN115129807A (zh) | 基于自注意的社交媒体主题评论的细粒度分类方法及*** | |
CN114443846A (zh) | 一种基于多层级文本异构图的分类方法、装置及电子设备 | |
Jayasudha et al. | A survey on sentimental analysis of student reviews using natural language processing (NLP) and text mining | |
CN115906824A (zh) | 一种文本细粒度情感分析方法、***、介质和计算设备 | |
Kadagadkai et al. | Summarization tool for multimedia data | |
Basri et al. | A deep learning based sentiment analysis on bang-lish disclosure | |
CN117291190A (zh) | 一种基于情感词典和lda主题模型的用户需求计算方法 | |
CN116108840A (zh) | 一种文本细粒度情感分析方法、***、介质和计算设备 | |
CN111414755A (zh) | 一种基于细粒度情感字典的网络情绪分析方法 | |
Hicham et al. | Enhancing arabic e-commerce review sentiment analysis using a hybrid deep learning model and fasttext word embedding | |
Zim et al. | Exploring word2vec embedding for sentiment analysis of bangla raw and romanized text |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |