CN115269768A - 要素文本处理方法、装置、电子设备和存储介质 - Google Patents
要素文本处理方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN115269768A CN115269768A CN202110476637.8A CN202110476637A CN115269768A CN 115269768 A CN115269768 A CN 115269768A CN 202110476637 A CN202110476637 A CN 202110476637A CN 115269768 A CN115269768 A CN 115269768A
- Authority
- CN
- China
- Prior art keywords
- description information
- model
- abstract
- vector
- rnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 26
- 239000013598 vector Substances 0.000 claims abstract description 162
- 238000012545 processing Methods 0.000 claims abstract description 63
- 238000000034 method Methods 0.000 claims abstract description 59
- 230000008569 process Effects 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 36
- 238000004590 computer program Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000006835 compression Effects 0.000 claims description 3
- 238000007906 compression Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 49
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 239000000470 constituent Substances 0.000 description 4
- 238000013136 deep learning model Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 241000288673 Chiroptera Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种要素文本处理方法、装置、电子设备和存储介质。其中方法包括:获取样本对象的多个描述信息和用要素类型标记的样本摘要;提取要素类型的要素向量特征和每个描述信息的描述向量特征;以要素向量特征和描述向量特征作为待训练的联合摘要模型的输入,以样本摘要作为联合摘要模型的输出,其中联合摘要模型包括第一模型和第二模型,且第一模型输出的每个描述信息与要素类型之间的相关度为第二模型的输入,进而根据第一模型的分类损失值和第二模型的解码损失值训练联合摘要模型,以对目标对象的商品描述信息进行处理生成与目标要素类型匹配的商品摘要。该方法生成的文本摘要可读性强,可以根据要素类型的不同生成对应的文本摘要。
Description
技术领域
本申请涉及人工智能技术领域中的深度学习、自然语言处理技术领域,尤其涉及一种要素文本处理方法、装置、电子设备和存储介质。
背景技术
文本摘要技术可以将给定的多个或单个文档进行概括,在保证能够反映原文档重要内容的情况下,尽可能生成简明扼要的文本摘要。该项技术在信息检索、自然语言处理等领域是一项重要的研究课题。
相关技术中,无法根据给定的要素类型,生成可读性强的文本摘要。
发明内容
本申请提供了一种用于要素文本处理的方法、装置、设备、存储介质以及计算机程序产品。
根据本申请的一方面,提供了一种要素文本处理方法,包括:
获取样本对象的多个描述信息,以及用要素类型标记的样本摘要;
提取所述要素类型的要素向量特征,以及每个所述描述信息的描述向量特征;
以所述要素向量特征和所述描述向量特征作为待训练的联合摘要模型的输入,以所述样本摘要作为所述联合摘要模型的输出,其中,所述联合摘要模型包括第一模型和第二模型,且所述第一模型输出的每个所述描述信息与所述要素类型之间的相关度为所述第二模型的输入,进而根据所述第一模型的分类损失值和所述第二模型的解码损失值训练所述联合摘要模型,以对目标对象的商品描述信息进行处理生成与目标要素类型匹配的商品摘要。
根据本申请的另一方面,提供了一种要素文本处理装置,包括:
第一获取模块,用于获取样本对象的多个描述信息,以及用要素类型标记的样本摘要;
提取模块,用于提取所述要素类型的要素向量特征,以及每个所述描述信息的描述向量特征;
第一处理模块,用于以所述要素向量特征和所述描述向量特征作为待训练的联合摘要模型的输入,以所述样本摘要作为所述联合摘要模型的输出,其中,所述联合摘要模型包括第一模型和第二模型,且所述第一模型输出的每个所述描述信息与所述要素类型之间的相关度为所述第二模型的输入,进而根据所述第一模型的分类损失值和所述第二模型的解码损失值训练所述联合摘要模型,以对目标对象的商品描述信息进行处理生成与目标要素类型匹配的商品摘要。
根据本申请的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器有可悲所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,已使所述至少一个处理器能够执行本申请的第一方面所述的要素文本处理方法。
根据本申请的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行本申请的第一方面所述的要素文本处理方法。
根据本申请的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据第一方面所述的要素文本处理方法。
上述提供的技术方案,至少具有如下有益技术效果:
该要素文本处理方法生成的文本可读性强,并且可以根据要素类型的不同生成对应的文本摘要。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一个实施例的要素文本处理方法的流程图;
图2是根据本申请第二实施例的要素文本处理方法的流程图;
图3是根据本申请第三实施例的要素文本处理方法的流程图;
图4是根据本申请实施例的词重叠率比较示意图;
图5是根据本申请第四实施例的联合摘要模型的结构示意图;
图6是根据本申请第四实施例的要素文本处理方法的流程图;
图7是根据本申请一个实施例的要素文本处理装置的结构框图;
图8是根据本申请另一个实施例的要素文本处理装置的结构框图;
图9是根据本申请又一个实施例的要素文本处理装置的结构框图;
图10是根据本申请又一个实施例的要素文本处理装置的结构框图;
图11是用来实现本申请实施例的要素文本处理方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请第一个实施例的要素文本处理方法的流程图。
如图1所示,该要素文本处理方法可以包括:
步骤101,获取样本对象的多个描述信息,以及用要素类型标记的样本摘要。
在本申请一些实施例中,对该联合摘要模型进行训练时,需要获取样本对象的多个描述信息,以及用要素类型标记的样本摘要。其中,样本对象可以根据不同的应用场景进行选择,本申请不做限制,例如:商品、新闻事件。
通常,一个样本对象可以对应至少一个描述信息,每个描述信息可以由一个或多个句子组成。该描述信息可以从不同的要素类型角度描述该样本对象,因此,一个描述信息与不同要素类型会有不同的相关度。可以理解地,该描述信息的语言风格往往是描述性的,而不是概括性的。
该描述信息的获取方法可以根据具体的应用场景进行选择,包括但不限于以下两种:
方法一,从网页中通过爬虫技术爬取样本对象相关的信息,作为描述信息。
方法二,人为摘取与样本对象相关的信息,作为描述信息。
与描述信息不同,样本对象对应的样本摘要往往是概括性的,可以理解地,一个样本对象可以对应多个要素类型,关于不同的要素类型可以有不同的样本摘要。举例而言,当样本对象为A手机,要素类型为外观时,对应的样本摘要可以为:采用一体化金属机身,触感细腻,握感舒适;当样本对象为A手机,要素类型为性能时,对应的样本摘要可以为:采用a芯片,运行流畅不卡顿,性能更加强悍。
其中,用要素类型标记样本摘要的方法可以根据具体的应用场景进行选择,包括但不限于以下两种:
方法一,使用人工打标的方式将样本摘要标记成对应的要素类型。
方法二,对多个样本摘要进行聚类处理,标记属于不同要素类型的样本摘要集合。可以理解地,经过聚类处理之后,可以得到多个样本摘要集合,每个样本摘要集合中的样本摘要可以理解为属于同一个要素类型,可以将同一个集合中的样本摘要标记为同一个要素类型。其中,用到的聚类处理方法包括但不限于:K均值法、基于密度的聚类法中的任一种。
步骤102,提取要素类型的要素向量特征,以及每个描述信息的描述向量特征。
可以理解地,当前要素类型和描述信息是文本信息,在本申请一些实施例中,需要将这些文本信息进行特征提取。即,提取要素类型对应的要素向量特征,提取每个描述信息对应的描述向量特征。上述两种向量特征的提取方法可以是相同的,也可以是不同的。
通常而言,向量特征的提取方法可以有多种,可以根据具体的应用场景进行选取,包括但不限于:Bags of words、TF-IDF(term frequency–inverse document frequency)中的任一种。
步骤103,以要素向量特征和描述向量特征作为待训练的联合摘要模型的输入,以样本摘要作为联合摘要模型的输出,其中,联合摘要模型包括第一模型和第二模型,且第一模型输出的每个描述信息与要素类型之间的相关度为第二模型的输入,进而根据第一模型的分类损失值和第二模型的解码损失值训练联合摘要模型,以对目标对象的商品描述信息进行处理生成与目标要素类型匹配的商品摘要。
可以理解地,训练之后的联合摘要模型可以根据输入的要素向量特征和对象的描述向量特征,输出样本摘要。其中,输入的要素向量对应的要素类型可以称为目标要素类型;该对象可以称为目标对象;输出的样本摘要可以称为商品摘要。
其中,联合摘要模型可以包括第一模型和第二模型,在本申请一些实施例中,第一模型可以为深度学习模型,该模型可以由至少一个、至少一种神经网络模型组成。可以根据应用场景的不同,可以选择不同结构的深度学习模型作为第一模型,本申请不做限制,例如:循环神经网络模型、卷积神经网络模型。第一模型的训练方法也有很多种,例如:可以将描述向量特征和要素向量特征作为输入,描述向量特征对应的描述信息与要素向量特征对应的要素向量特征之间的相关度作为输出,并且设定相应的分类损失函数对第一模型进行训练,所述分类损失函数包括但不限于:负对数似然损失函数、二分类交叉熵损失函数中的任一种。经过训练得到的第一模型可以输出每个描述信息与要素类型之间的相关度。
第二模型可以为深度学***均绝对误差损失函数中的任一种。经过训练得到的第二模型可以输出与目标要素类型匹配的文本摘要。
如上所述,联合摘要模型包括第一模型和第二模型。因此,第一模型和第二模型的输入、输出、训练过程,即为联合摘要模型的输入、输出、训练过程。可以理解地,可以将要素向量特征和描述向量特征作为待训练的联合摘要模型的输入,将样本摘要作为联合摘要模型的输出,根据第一模型的分类损失函数对应的分类损失值和第二模型的解码损失函数对应的解码损失值训练联合摘要模型。
根据本申请实施例的要素文本处理方法,获取要素类型及其对应的要素向量特征,获取描述信息及其对应的描述向量特征。将上述两种向量特征作为联合摘要模型的输入,样本摘要作为联合摘要模型的输出,训练所述联合摘要模型。经过训练的联合摘要模型可以对描述信息进行处理,生成文本摘要。
该方法可控性强,可以根据应用场景的不同设定不同的级别的目标要素类型,根据不同的目标要素类型控制模型生成不同的文本摘要,生成的文本摘要和目标要素类型相匹配。并且,由于该方法基于生成式摘要技术,而不是基于抽取式摘要技术,所以生成的文本摘要可读性强,符合人类的语言习惯。
本申请的第二个实施例中,基于上述实施例,为了获取更准确的向量特征,可以使用词汇映射表以及嵌入矩阵。可选地,步骤102可以为步骤201-202.
可以通过图2更清楚地说明,图2是根据本申请第二实施例的要素文本处理方法的流程图,包括:
步骤201,根据预设的词汇映射表对要素类型和每个描述信息的字符串进行转换,获取对应的要素类型数字编号和描述信息数字编号。
在本申请一些实施例中,可以存在词汇映射表,该词汇映射表可以将词转换为对应的数字编号。
通常而言,一个描述信息是由字符串组成的,可以对描述信息进行分词处理,得到每个描述信息对应的多个词。根据词汇映射表,可以将每个描述信息里的每个词转换为对应的描述信息数字编号;类似地,根据词汇映射表,可以将要素类型转换为对应的要素类型数字编号。
步骤202,根据预设的嵌入矩阵对要素类型数字编号和描述信息数字编号进行处理,生成要素向量特征以及每个描述信息的描述向量特征。
在本申请一些实施例中,可以预设嵌入矩阵,根据要素类型数字编号和描述信息数字编号,从嵌入矩阵选取对应的元素,生成对应的向量特征。可以理解地,根据要素类型数字编号生成的向量特征即为要素向量特征;根据描述信息数字编号生成的向量特征即为描述向量特征。
可以理解地,预设矩阵也可以为多个,可以预设要素嵌入矩阵和描述嵌入矩阵。可以根据要素类型数字编号,从要素嵌入矩阵选取对应的元素,生成对应的要素向量特征;可以根据描述信息数字编号,从描述嵌入矩阵选取对应的元素,生成对应的描述向量特征。
根据本申请实施例的要素文本处理方法,使用词汇映射表以及嵌入矩阵,获取了更加准确、可信的特征向量,可以使描述信息和要素类型的相关度计算更准确。最终生成的文本摘要与目标要素类型的关系更密切,可控性更强。
本申请的第三个实施例中,基于上述实施例,为了使得描述信息和要素类型之间的相关度更精准,在第一模型中设计了:RNN(Recurrent Neural Network,循环神经网络)词级编码器、RNN句级编码器和分类器;为了使得文本摘要更准确,在第二模型中设计了:RNN编码器和RNN解码器。可选地,第一模型的数据处理流程为步骤301-303;第二模型的数据处理流程为步骤304。
可以通过图3更清楚地说明,图3是根据本申请第三实施例的要素文本处理方法的流程图,包括:
步骤301,将每个描述信息的描述向量特征输入到RNN词级编码器进行编码处理,获取每个词编码的隐向量取平均作为每个描述信息的向量表示。
可以理解地,一个描述信息经过分词处理之后,可以对应多个词。其中,每个词可以有对应的描述向量特征。在本申请一些实施例中,可以将每个描述信息的描述向量特征输入RNN词级编码器,其中,RNN词级编码器的结构可以根据同的应用场景进行设计,本实施例不做限制,例如:可以为包括一个或多个循环神经元的单元。
经过RNN词级编码器后会得到描述向量特征对应的隐向量。该隐向量即为:描述信息对应的词经处理之后,获取的隐向量。将属于同一个描述信息的隐向量取平均,即得到当前描述信息对应的向量表示。同理,可以得到每个描述信息对应的向量表示。
步骤302,将每个描述信息的向量表示输入到RNN句级编码器进行编码处理,压缩获取每个描述信息的句级特征数值向量。
在本申请一些实施例中,可以将每个描述信息对应的向量表示输入到RNN句级编码器,RNN句级编码器会将该向量表示进行压缩,得到固定维度的数值向量,该数值向量即为句级特征数值向量。可以理解地,每个描述信息会对应一个句级特征数值向量。
其中,RNN句级编码器的结构可以根据同的应用场景进行设计,本实施例不做限制,例如:可以为包括一个或多个循环神经元的单元。
步骤303,将句级特征数值向量和要素向量特征输入到分类器,通过分类矩阵获取每个描述信息与要素类型之间的相关度。
在本申请一些实施例中,可以有一个分类器,该分类器的输入为句级特征数值向量和要素向量特征。该分类模型中还可以存在一个分类矩阵,可以将要素向量特征和每个句级特征数值向量分别联合,并通过同一个分类矩阵。该分类矩阵的元素可以是一些预设参数。
该分类矩阵的输出可以通过Sigmoid函数,得到相关度,该相关度取值范围为0~1。相关度的大小代表了每个描述信息与当前要素类型的相关程度,描述信息与要素类型越相关,相关度越接近于1,反之,则相关度接近0。
在本申请一些实施例中,基于上述实施例,还可以进行分类损失的计算。上述实施例还可以包括步骤一-步骤三:
步骤一,计算每个描述信息与样本摘要之间的词重叠率。
在本申请一些实施例中,可以计算每个描述信息与样本摘要重叠的词的个数,用重叠的词的个数除以描述信息中词的总个数,即可以得到描述信息与样本信息之间的词重叠率。
如图4所示,图4是根据本申请实施例的词重叠率比较示意图。
样本对象为A手机,样本摘要和多个描述信息如图4所示。从图中可以看出,该样本摘要的要素类型为性能;该多个描述信息的要素类型包括了拍照、性能两种。计算词重叠率,句1-句5的重叠率依次为:0.4、0、0、0.4、0.125。
步骤二,将词重叠率与预设的重叠率阈值进行比较生成表示描述信息与摘要之间相关性的标签矩阵。
在本申请一些实施例中,可以预设重叠率阈值,该阈值可以与词重叠率进行比较,大于等于重叠率阈值的描述信息可以赋予分类标签“1”,小于该阈值的可以赋予分类标签“0”。该分类标签表示了描述信息与摘要之间相关性,可以用于步骤303中的分类矩阵,该分类标签可以称为标签矩阵。
如图4所示,当重叠率阈值为0.35时,句1-句5被赋予的分类标签分别为:1、0、0、1、0。
步骤三,根据标签矩阵生成第一模型的分类损失值。
可以理解地,可以根据标签矩阵生成第一模型的分类损失值,并通过梯度反向传播进行模型学习。
通过步骤一-步骤三,可以准确、快速地获取描述信息与摘要之间相关性,生成标签矩阵。通过该标签矩阵生成的第一模型分类损失值,可以使第一模型生成的相关度更准确。
步骤304,将要素向量特征和描述向量特征相加获取合并向量特征,将合并向量特征输入到RNN编码器进行处理,将处理结果输入到RNN解码器,其中,第一模型输出的每个描述信息与要素类型之间的相关度为RNN解码器的输入。
在本申请一些实施例中,可以将要素向量特征和描述向量特征相加,获取合并向量特征,并将合并向量特征输入到RNN编码器进行处理,RNN编码器进行编码后得到描述信息对应的向量特征。
将RNN编码器的处理结果输入到RNN解码器,RNN解码器在每一步解码时刻会输入三个参数,分别为:上一时刻的隐状态、解码输出的对应嵌入向量、上下文向量。RNN解码器在每一步解码时刻会生成当前时刻的隐状态特征,该当前时刻的隐状态特征会与RNN编码器的每个输出计算词级注意力权重。
RNN解码器的输入还包括:第一模型输出的每个描述信息与要素类型之间的相关度,该相关度会作为描述信息对应的句级权重,与描述信息对应的每个词的词级注意力权重相乘并重新归一化,即,将句级注意力分配到对应的词级注意力上,生成更新词级注意力。从而,增加了与要素类别相关度较高的句子中的词的权重;降低了与要素类别相关度较低句子中的词的权重。
更新词级注意力与RNN编码器的编码输出进行加权求和会得到固定维度的上下文向量,并作为RNN解码器的输入之一,促使RNN解码器生成仅与当前要素类别一致的商品摘要输出。
其中,RNN编码器和RNN解码器的结构可以根据同的应用场景进行设计,本实施例不做限制,例如:可以包括一个或多个循环神经元。
在本申请一些实施例中,联合摘要模型的结构可以如图5所示,图5是根据本申请第四实施例的联合摘要模型的结构示意图。
在本实施例中,描述信息和要素信息经过嵌入矩阵的处理,分别得到对应的描述向量特征和要素向量特征。联合摘要模型包括第一模型和第二模型。
第一模型中,描述向量特征经过RNN词级编码器的处理,得到每个词编码的隐向量,并将每个描述信息中的词对应的隐向量取平均值,得到每个描述信息的向量表示。将该向量表示输入到RNN句级编码器进行编码处理,压缩获取每个描述信息的句级特征数值向量。将句级特征数值向量、要素向量特征以及标签矩阵输入到分类器,得到每个描述信息与要素类型之间的相关度。
第二模型中,将要素向量特征和描述向量特征相加获取合并向量特征,并输入到RNN编码器进行处理。将处理结果和第一模型得到的相关度输入到RNN解码器,得到样本摘要。
根据本申请实施例的要素文本处理方法,第一模型中,通过RNN词级编码器,在描述向量特征的基础上进一步丰富了每个词的语义表示。通过RNN句级编码器,加强了词语词、句子与句子间的信息交互和特征建模,让模型学习到丰富的特征表示。
第二模型中,通过将要素向量特征和描述向量特征相加,增强了每个描述信息中的词与要素特征的相关性。通过输入第一模型生成的相关度,增加了与要素类别相关度较高的句子中的词的权重;降低了与要素类别相关度较低句子中的词的权重。同时,也增加了模型的可控性。
本申请的第四个实施例中,基于上述实施例,可以使用该联合摘要模型处理商品的描述信息,从而得到对应的商品摘要。可选地,所述以对目标对象的商品描述信息进行处理生成与目标要素类型匹配的商品摘要的具体实现方式可以包括步骤601-603。
可以通过图6更清楚地说明,图6是根据本申请第四实施例的要素文本处理方法的流程图,包括:
步骤601,接收目标对象的商品描述信息。
可以理解地,该联合摘要模型经过训练之后,根据本申请实施例的要素文本处理方法,可以针对输入的商品描述信息以及目标要素类型,输出对应的商品摘要。
在本申请一些实施例中,目标对象包括但不限于:手机、电脑等商品。该商品会有较为详细的描述信息,在该商品描述信息中,通常包括了多种要素类型的描述。
步骤602,获取预设的至少一个目标要素类型。
在本申请一些实施例中,可以预设一个目标要素类型,该目标要素类型即为商品摘要对应的要素类型。
步骤603,将商品描述信息和至少一个目标要素类型输入到训练得到的联合摘要模型中,得到与每个目标要素类型对应的商品摘要。
在本申请一些实施例中,可以以商品描述信息和至少一个目标要素类型作为输入,将商品描述信息和至少一个目标要素类型输入到经过训练后的联合摘要模型中,该联合摘要模型可以输出与每个目标要素类型对应的商品摘要。
根据本申请实施例的要素文本处理方法,可以根据获得的目标对象的商品描述信息和目标要素类型,快速、高效地生成与目标要素类型相关且可读性强的商品摘要。
根据本申请的实施例,本申请还提出了一种要素文本处理装置。
图7是根据本申请一个实施例的要素文本处理装置的结构框图。如图7所示,该要素文本处理装置700可以包括:第一获取模块710,提取模块720,第一处理模块730,其中:
第一获取模块710,用于获取样本对象的多个描述信息,以及用要素类型标记的样本摘要;
提取模块720,用于提取要素类型的要素向量特征,以及每个描述信息的描述向量特征;
第一处理模块730,用于以要素向量特征和描述向量特征作为待训练的联合摘要模型的输入,以样本摘要作为联合摘要模型的输出,其中,联合摘要模型包括第一模型和第二模型,且第一模型输出的每个描述信息与要素类型之间的相关度为第二模型的输入,进而根据第一模型的分类损失值和第二模型的解码损失值训练联合摘要模型,以对目标对象的商品描述信息进行处理生成与目标要素类型匹配的商品摘要。
在本申请一些实施例中,如图8所示,图8是根据本申请另一个实施例的要素文本处理装置的结构框图,该要素文本处理装置800中,第一处理模块830包括:RNN词级编码器831,RNN句级编码器832,分类器833,其中:
将每个描述信息的描述向量特征输入到RNN词级编码器进行编码处理,获取每个词编码的隐向量取平均作为每个描述信息的向量表示;
将每个描述信息的向量表示输入到RNN句级编码器进行编码处理,压缩获取每个描述信息的句级特征数值向量;
将句级特征数值向量和要素向量特征输入到分类器,通过分类矩阵获取每个描述信息与要素类型之间的相关度。
其中,图8中810、820和图7中710、720具有相同功能和结构。
在本申请一些实施例中,如图9所示,图9是根据本申请又一个实施例的要素文本处理装置的结构框图,该要素文本处理装置900中,第一处理模块930还包括:RNN编码器934,RNN解码器935,其中:
将要素向量特征和描述向量特征相加获取合并向量特征,将合并向量特征输入到RNN编码器进行处理,将处理结果输入到RNN解码器,其中,分类器输出的每个描述信息与要素类型之间的相关度为RNN解码器的输入。
其中,图9中910、920和图8中810、820,图9中931-933和图8中831-833具有相同功能和结构。
在本申请一些实施例中,如图10所示,图10是根据本申请又一个实施例的要素文本处理装置的结构框图,该要素文本处理装置1000中,还包括:计算模块1040,第一生成模块1050,第二生成模块1060,其中:
计算模块1040,用于计算每个描述信息与样本摘要之间的词重叠率;
第一生成模块1050,用于将词重叠率与预设的重叠率阈值进行比较生成表示描述信息与摘要之间相关性的标签矩阵;
第二生成模块1060,用于根据标签矩阵生成第一模型的分类损失值。
其中,图10中1010-1030和图9中910-930具有相同功能和结构。
在本申请一些实施例中,第一处理模块730以对目标对象的商品描述信息进行处理生成与目标要素类型匹配的商品摘要的具体实现过程可如下:接收目标对象的商品描述信息;获取预设的至少一个目标要素类型;将商品描述信息和至少一个目标要素类型输入到训练得到联合摘要模型中,得到与每个目标要素类型对应的商品摘要。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处不做详细阐述说明。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图11示出了可以用来实施本申请的实施例的示例电子设备1100的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图11所示,设备1100包括计算单元1101,其可以根据存储在只读存储器(ROM)1102中的计算机程序或者从存储单元1108加载到随机访问存储器(RAM)1103中的计算机程序,来执行各种适当的动作和处理。在RAM 1103中,还可存储设备1100操作所需的各种程序和数据。计算单元1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
设备1100中的多个部件连接至I/O接口1105,包括:输入单元1106,例如键盘、鼠标等;输出单元1107,例如各种类型的显示器、扬声器等;存储单元1108,例如磁盘、光盘等;以及通信单元1109,例如网卡、调制解调器、无线通信收发机等。通信单元1109允许设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的各个方法和处理,例如要素文本处理方法。例如,在一些实施例中,要素文本处理方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1102和/或通信单元1109而被载入和/或安装到设备1100上。当计算机程序加载到RAM 1103并由计算单元1101执行时,可以执行上文描述的要素文本处理方法的一个或多个步骤。备选地,在其他实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行要素文本处理方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式***的服务器,或者是结合了区块链的服务器。
根据本申请实施例的要素文本处理方法,获取要素类型及其对应的要素向量特征,获取描述信息及其对应的描述向量特征。将上述两种向量特征作为联合摘要模型的输入,样本摘要作为联合摘要模型的输出,训练所述联合摘要模型。经过训练的联合摘要模型可以对描述信息进行处理,生成文本摘要。
该方法可控性强,可以根据应用场景的不同设定不同的级别的目标要素类型,根据不同的目标要素类型控制模型生成不同的文本摘要,生成的文本摘要和目标要素类型相匹配。并且,由于该方法基于生成式摘要技术,而不是基于抽取式摘要技术,所以生成的文本摘要可读性强,符合人类的语言习惯。
使用词汇映射表以及嵌入矩阵,获取了更加准确、可信的特征向量,可以使描述信息和要素类型的相关度计算更准确。最终生成的文本摘要与目标要素类型的关系更密切,可控性更强。
第一模型中,通过RNN词级编码层,在描述向量特征的基础上进一步丰富了每个词的语义表示。通过RNN句级编码层,加强了词语词、句子与句子间的信息交互和特征建模,让模型学习到丰富的特征表示。
第二模型中,通过将要素向量特征和描述向量特征相加,增强了每个描述信息中的词与要素特征的相关性。通过输入第一模型生成的相关度,增加了与要素类别相关度较高的句子中的词的权重;降低了与要素类别相关度较低句子中的词的权重。同时,也增加了模型的可控性。
根据本申请实施例的要素文本处理方法,可以根据获得的目标对象的商品描述信息和目标要素类型,快速、高效地生成与目标要素类型相关且可读性强的商品摘要。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (17)
1.一种要素文本处理方法,其特征在于,所述方法包括:
获取样本对象的多个描述信息,以及用要素类型标记的样本摘要;
提取所述要素类型的要素向量特征,以及每个所述描述信息的描述向量特征;
以所述要素向量特征和所述描述向量特征作为待训练的联合摘要模型的输入,以所述样本摘要作为所述联合摘要模型的输出,其中,所述联合摘要模型包括第一模型和第二模型,且所述第一模型输出的每个所述描述信息与所述要素类型之间的相关度为所述第二模型的输入,进而根据所述第一模型的分类损失值和所述第二模型的解码损失值训练所述联合摘要模型,以对目标对象的商品描述信息进行处理生成与目标要素类型匹配的商品摘要。
2.如权利要求1所述的方法,其特征在于,所述用要素类型标记的样本摘要包括:
对多个样本摘要进行聚类处理,标记属于不同要素类型的样本摘要集合。
3.如权利要求1所述的方法,其特征在于,所述提取所述要素类型的要素向量特征,以及每个所述描述信息的描述向量特征,包括:
根据预设的词汇映射表对所述要素类型和每个所述描述信息的字符串进行转换,获取对应的要素类型数字编号和描述信息数字编号;
根据预设的嵌入矩阵对所述要素类型数字编号和所述描述信息数字编号进行处理,生成要素向量特征以及每个所述描述信息的描述向量特征。
4.如权利要求1所述的方法,其特征在于,所述第一模型包括:RNN词级编码器、RNN句级编码器和分类器,其中,
将每个所述描述信息的描述向量特征输入到所述RNN词级编码器进行编码处理,获取每个词编码的隐向量取平均作为每个描述信息的向量表示;
将所述每个描述信息的向量表示输入到所述RNN句级编码器进行编码处理,压缩获取每个所述描述信息的句级特征数值向量;
将所述句级特征数值向量和所述要素向量特征输入到所述分类器,通过分类矩阵获取每个所述描述信息与所述要素类型之间的相关度。
5.如权利要求4所述的方法,其特征在于,所述第二模型包括:RNN编码器和RNN解码器,其中,
将所述要素向量特征和所述描述向量特征相加获取合并向量特征,将所述合并向量特征输入到所述RNN编码器进行处理,将处理结果输入到所述RNN解码器,其中,所述第一模型输出的每个所述描述信息与所述要素类型之间的相关度为所述RNN解码器的输入。
6.如权利要求1所述的方法,其特征在于,还包括:
计算每个所述描述信息与所述样本摘要之间的词重叠率;
将所述词重叠率与预设的重叠率阈值进行比较生成表示描述信息与摘要之间相关性的标签矩阵;
根据所述标签矩阵生成所述第一模型的分类损失值。
7.如权利要求1-6任一所述的方法,其特征在于,所述以对目标对象的商品描述信息进行处理生成与目标要素类型匹配的商品摘要,包括:
接收目标对象的商品描述信息;
获取预设的至少一个目标要素类型;
将所述商品描述信息和所述至少一个目标要素类型输入到训练得到的联合摘要模型中,得到与每个所述目标要素类型对应的商品摘要。
8.一种要素文本处理装置,其特征在于,所述装置包括:
第一获取模块,用于获取样本对象的多个描述信息,以及用要素类型标记的样本摘要;
提取模块,用于提取所述要素类型的要素向量特征,以及每个所述描述信息的描述向量特征;
第一处理模块,用于以所述要素向量特征和所述描述向量特征作为待训练的联合摘要模型的输入,以所述样本摘要作为所述联合摘要模型的输出,其中,所述联合摘要模型包括第一模型和第二模型,且所述第一模型输出的每个所述描述信息与所述要素类型之间的相关度为所述第二模型的输入,进而根据所述第一模型的分类损失值和所述第二模型的解码损失值训练所述联合摘要模型,以对目标对象的商品描述信息进行处理生成与目标要素类型匹配的商品摘要。
9.如权利要求8所述的装置,其特征在于,所述第一获取模块,用于:
对多个样本摘要进行聚类处理,标记属于不同要素类型的样本摘要集合。
10.如权利要求8所述的装置,其特征在于,所述提取模块,用于:
根据预设的词汇映射表对所述要素类型和每个所述描述信息的字符串进行转换,获取对应的要素类型数字编号和描述信息数字编号;
根据预设的嵌入矩阵对所述要素类型数字编号和所述描述信息数字编号进行处理,生成要素向量特征以及每个所述描述信息的描述向量特征。
11.如权利要求8所述的装置,其特征在于,所述第一处理模块包括:RNN词级编码器、RNN句级编码器和分类器,其中,
将每个所述描述信息的描述向量特征输入到所述RNN词级编码器进行编码处理,获取每个词编码的隐向量取平均作为每个描述信息的向量表示;
将所述每个描述信息的向量表示输入到所述RNN句级编码器进行编码处理,压缩获取每个所述描述信息的句级特征数值向量;
将所述句级特征数值向量和所述要素向量特征输入到所述分类器,通过分类矩阵获取每个所述描述信息与所述要素类型之间的相关度。
12.如权利要求11所述的装置,其特征在于,所述第一处理模块还包括:RNN编码器和RNN解码器,其中,
将所述要素向量特征和所述描述向量特征相加获取合并向量特征,将所述合并向量特征输入到所述RNN编码器进行处理,将处理结果输入到所述RNN解码器,其中,所述分类器输出的每个所述描述信息与所述要素类型之间的相关度为所述RNN解码器的输入。
13.如权利要求8所述的装置,其特征在于,还包括:
计算模块,用于计算每个所述描述信息与所述样本摘要之间的词重叠率;
第一生成模块,用于将所述词重叠率与预设的重叠率阈值进行比较生成表示描述信息与摘要之间相关性的标签矩阵;
第二生成模块,用于根据所述标签矩阵生成所述第一模型的分类损失值。
14.如权利要求8-13任一所述的装置,其特征在于,所述第一处理模块具体用于:
接收目标对象的商品描述信息;
获取预设的至少一个目标要素类型;
将所述商品描述信息和所述至少一个目标要素类型输入到训练得到的联合摘要模型中,得到与每个所述目标要素类型对应的商品摘要。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110476637.8A CN115269768A (zh) | 2021-04-29 | 2021-04-29 | 要素文本处理方法、装置、电子设备和存储介质 |
US18/286,906 US20240202499A1 (en) | 2021-04-29 | 2022-04-13 | Element text processing method and apparatus, electronic device, and storage medium |
JP2023564414A JP2024515199A (ja) | 2021-04-29 | 2022-04-13 | 要素テキスト処理方法、装置、電子機器及び記憶媒体 |
PCT/CN2022/086637 WO2022228127A1 (zh) | 2021-04-29 | 2022-04-13 | 要素文本处理方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110476637.8A CN115269768A (zh) | 2021-04-29 | 2021-04-29 | 要素文本处理方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115269768A true CN115269768A (zh) | 2022-11-01 |
Family
ID=83745338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110476637.8A Pending CN115269768A (zh) | 2021-04-29 | 2021-04-29 | 要素文本处理方法、装置、电子设备和存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240202499A1 (zh) |
JP (1) | JP2024515199A (zh) |
CN (1) | CN115269768A (zh) |
WO (1) | WO2022228127A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116189145B (zh) * | 2023-02-15 | 2024-06-11 | 清华大学 | 一种线形地图要素的提取方法、***和可读介质 |
CN117577348B (zh) * | 2024-01-15 | 2024-03-29 | 中国医学科学院医学信息研究所 | 一种循证医学证据的识别方法及相关装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10474709B2 (en) * | 2017-04-14 | 2019-11-12 | Salesforce.Com, Inc. | Deep reinforced model for abstractive summarization |
CN110390103B (zh) * | 2019-07-23 | 2022-12-27 | 中国民航大学 | 基于双编码器的短文本自动摘要方法及*** |
CN110489541B (zh) * | 2019-07-26 | 2021-02-05 | 昆明理工大学 | 基于案件要素及BiGRU的涉案舆情新闻文本摘要方法 |
CN111061862B (zh) * | 2019-12-16 | 2020-12-15 | 湖南大学 | 一种基于注意力机制生成摘要的方法 |
CN111831820B (zh) * | 2020-03-11 | 2022-07-19 | 昆明理工大学 | 基于案件要素指导及深度聚类的新闻与案件相关性分析方法 |
-
2021
- 2021-04-29 CN CN202110476637.8A patent/CN115269768A/zh active Pending
-
2022
- 2022-04-13 JP JP2023564414A patent/JP2024515199A/ja active Pending
- 2022-04-13 WO PCT/CN2022/086637 patent/WO2022228127A1/zh active Application Filing
- 2022-04-13 US US18/286,906 patent/US20240202499A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2024515199A (ja) | 2024-04-05 |
WO2022228127A1 (zh) | 2022-11-03 |
US20240202499A1 (en) | 2024-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110162749B (zh) | 信息提取方法、装置、计算机设备及计算机可读存储介质 | |
WO2020107878A1 (zh) | 文本摘要生成方法、装置、计算机设备及存储介质 | |
CN111931517B (zh) | 文本翻译方法、装置、电子设备以及存储介质 | |
CN111680159A (zh) | 数据处理方法、装置及电子设备 | |
CN112560479A (zh) | 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备 | |
CN113392209B (zh) | 一种基于人工智能的文本聚类方法、相关设备及存储介质 | |
CN112000792A (zh) | 自然灾害事件的抽取方法、装置、设备以及存储介质 | |
CN113434636B (zh) | 基于语义的近似文本搜索方法、装置、计算机设备及介质 | |
CN111753082A (zh) | 基于评论数据的文本分类方法及装置、设备和介质 | |
CN111737954A (zh) | 文本相似度确定方法、装置、设备和介质 | |
CN113987169A (zh) | 基于语义块的文本摘要生成方法、装置、设备及存储介质 | |
CN112507101A (zh) | 一种建立预训练语言模型的方法和装置 | |
WO2022228127A1 (zh) | 要素文本处理方法、装置、电子设备和存储介质 | |
CN110263304B (zh) | 语句编码方法、语句解码方法、装置、存储介质及设备 | |
KR20210034679A (ko) | 엔티티-속성 관계 식별 | |
CN113553412A (zh) | 问答处理方法、装置、电子设备和存储介质 | |
CN113705315A (zh) | 视频处理方法、装置、设备及存储介质 | |
CN112818091A (zh) | 基于关键词提取的对象查询方法、装置、介质与设备 | |
CN112906368B (zh) | 行业文本增量方法、相关装置及计算机程序产品 | |
CN115130470B (zh) | 一种文本关键词的生成方法、装置、设备及介质 | |
CN115860003A (zh) | 一种语义角色分析方法、装置、电子设备及存储介质 | |
CN114417891B (zh) | 基于粗糙语义的回复语句确定方法、装置及电子设备 | |
CN115048523A (zh) | 文本分类方法、装置、设备以及存储介质 | |
CN112100335B (zh) | 问题生成方法、模型训练方法、装置、设备和存储介质 | |
CN114491030A (zh) | 技能标签的抽取、候选短语分类模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |