CN117290515A - 文本标注模型的训练方法、文生图方法及装置 - Google Patents
文本标注模型的训练方法、文生图方法及装置 Download PDFInfo
- Publication number
- CN117290515A CN117290515A CN202311199753.5A CN202311199753A CN117290515A CN 117290515 A CN117290515 A CN 117290515A CN 202311199753 A CN202311199753 A CN 202311199753A CN 117290515 A CN117290515 A CN 117290515A
- Authority
- CN
- China
- Prior art keywords
- level
- text
- word
- tag
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000012549 training Methods 0.000 title claims abstract description 77
- 238000002372 labelling Methods 0.000 claims abstract description 160
- 230000011218 segmentation Effects 0.000 claims description 52
- 238000012545 processing Methods 0.000 claims description 41
- 238000010586 diagram Methods 0.000 claims description 23
- 238000004458 analytical method Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 6
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 239000004575 stone Substances 0.000 description 25
- 239000003607 modifier Substances 0.000 description 16
- 238000004891 communication Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 244000005700 microbiome Species 0.000 description 2
- 238000005065 mining Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000442 meristematic effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/117—Tagging; Marking up; Designating a block; Setting of attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了文本标注模型的训练方法、文生图方法及装置,涉及人工智能技术领域,尤其涉及自然语言处理、深度学习等领域。实现方案:获取第一样本文本及第一样本文本中各字符分别对应的多级参考标签;利用初始文本标注模型对第一样本文本进行标注,以获取预测标签序列;根据各字符分别对应的预测多级标签与多级参考标签之间的差异,对初始文本标注模型进行训练,以获取文本标注模型。由此,通过利用多级标签标注后的第一样本文本可以训练得到能够进行多级标签标注的文本标注模型,利用该文本标注模型对文生图的输入文本进行标注,基于多级标签标注后的输入文本生成图像,可以提高生成的图像与输入文本的描述的匹配度。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及自然语言处理、深度学习等领域,具体涉及一种文本标注模型的训练方法、文生图方法及装置。
背景技术
文生图是指基于文本描述生成相应的图像。相关技术中,可以利用分词模型、词性标注模型、专名标注模型对文本进行标注,但是利用这些模型标注的文本应用于文生图时,生成的图像与文本的描述的匹配度比较低。
发明内容
本申请提供了一种文本标注模型的训练方法、文生图方法及装置。具体方案如下:
根据本申请的一方面,提供了一种文本标注模型的训练方法,包括:
获取第一样本文本及第一样本文本中各字符分别对应的多级参考标签;
利用初始文本标注模型对第一样本文本进行标注,以获取预测标签序列,预测标签序列包括各字符分别对应的预测多级标签;
根据各字符分别对应的预测多级标签与多级参考标签之间的差异,对初始文本标注模型进行训练,以获取文本标注模型;
其中,文本标注模型用于对文生图模型的输入文本进行标注,文生图模型用于对标注后的输入文本进行处理以生成输入文本对应的图像。
根据本申请的另一方面,提供了一种文生图方法,包括:
获取目标文本;
利用文本标注模型对目标文本进行标注,以获取目标文本对应的序列标注结果,其中,文本标注模型是采用上述一方面实施例所述的方法训练得到的;
将目标文本及序列标注结果输入文生图模型进行处理,以生成目标文本对应的图像。
根据本申请的另一方面,提供了一种文本标注模型的训练装置,包括:
第一获取模块,用于获取第一样本文本及第一样本文本中各字符分别对应的多级参考标签;
第二获取模块,用于利用初始文本标注模型对第一样本文本进行标注,以获取预测标签序列,预测标签序列包括各字符分别对应的预测多级标签;
训练模块,用于根据各字符分别对应的预测多级标签与多级参考标签之间的差异,对初始文本标注模型进行训练,以获取文本标注模型;
其中,文本标注模型用于对文生图模型的输入文本进行标注,文生图模型用于对标注后的输入文本进行处理以生成输入文本对应的图像。
根据本申请的另一方面,提供了一种文生图装置,包括:
第一获取模块,用于获取目标文本;
第二获取模块,用于利用文本标注模型对目标文本进行标注,以获取目标文本对应的序列标注结果,其中,文本标注模型是采用上述训练方法训练得到的;
生成模块,用于将目标文本及序列标注结果输入文生图模型进行处理,以生成目标文本对应的图像。
根据本申请的另一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述一方面实施例所述的方法,或者能够执行上述另一方面实施例所述的方法。
根据本申请的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据上述一方面实施例所述的方法,或者执行根据上述另一方面实施例所述的方法。
根据本申请的另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现上述一方面实施例所述方法的步骤,或者执行时实现上述另一方面实施例所述方法的步骤。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请一实施例提供的文本标注模型的训练方法的流程示意图;
图2为本申请另一实施例提供的文本标注模型的训练方法的流程示意图;
图3为本申请另一实施例提供的文本标注模型的训练方法的流程示意图;
图4为本申请另一实施例提供的文本标注模型的训练方法的流程示意图;
图5为本申请一实施例提供的文生图方法的流程示意图;
图6为本申请一实施例提供的文本标注模型的训练装置的结构示意图;
图7为本申请一实施例提供的文生图装置的结构示意图;
图8是用来实现本申请实施例的文本标注模型的训练方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本申请实施例的文本标注模型的训练方法、文生图方法及装置。
图1为本申请一实施例提供的文本标注模型的训练方法的流程示意图。
本申请实施例的文本标注模型的训练方法,可以由本申请实施例的文本标注模型的训练装置执行,该装置可以配置于电子设备中,通过利用多级参考标签标注的样本文本,训练得到能够对文本进行多级标签的序列标注的文本标注模型。
其中,电子设备可以为任一具有计算能力的设备,例如可以为个人电脑、移动终端、服务器等,移动终端例如可以为车载设备、手机、平板电脑、个人数字助理、穿戴式设备等具有各种操作***、触摸屏和/或显示屏的硬件设备。
如图1所示,该文本标注模型的训练方法,包括:
步骤101,获取第一样本文本及所述第一样本文本中各字符分别对应的多级参考标签。
本申请中,第一样本文本可以是文生图所用的文本,第一样本文本可以是在检测到用户的文本提交操作时获取的,也可以是从文生图的文本集合中获取的,也可以是通过其他方式获取的,本申请对此不作限定。
本申请中,可以采用多级标签集合中的多级标签对第一样本文本进行标注,得到第一样本中每个字符对应的多级参考标签。其中,多级标签集合可以是基于多级标签体系获取的,多级标签体系可以是基于对文生图用户输入的文本或语句的进行需求分析得到的,多级标签体系中每一级包括至少一个标签。
比如,多级标签体系中一级标签包括主体词、限定词、修饰词、主题词、语法词等。每个一级标签具有至少一个二级标签,比如主题词对应的二级标签包括场景、景物、生物等,限定词对应的二级标签包括关系、角色限定、时间等,修饰词对应的二级标签可以包括风格、模式、艺术类型等,主题词对应的二级标签可以包括抽象概念、俗语等,语法词对应的二级标签可以包括助词、肯定词、代词、副词、肯定词等,一些二级标签可以具有至少一个三级标签,比如场景对应的三级标签包括工作、购物、会议、旅行等,生物对应的三级标签包括动物、植物、微生物等。
其中,主体词可以是指实体类词语,可以在图像中起到主体作用的词语,如一个物体、一个地点、一种建筑等实体;限定词可以是用于修饰“主体词”的词语,如样本文本为发光的鹅卵石,那么主体词是“鹅卵石”,限定词是“发光”;修饰词可以是用于修饰整个文生图画面的词,如朦胧美、科技感、怀旧风等;主题词可以是用于描述文生图画面的主题的词语,比如“白日依山尽”这种诗词。
本申请中,第一样本文本中每个字符对应的多级参考标签的级数可以相同,也可以相同,本申请多此不作限定。比如,第一样本文本为发光的石头,相应的标注为:发光(限定词_光)/的(语法词_助词)/石头(主体词_景物_石头)。
需要说明的是,上述多级标签体系仅为示例,不应当看作是对本申请的限定。
步骤102,利用初始文本标注模型对第一样本文本进行标注,以获取预测标签序列,预测标签序列包括各字符分别对应的预测多级标签。
本申请中,文本标注模型可以采用ERNIE(Enhanced Language Representationwith Informative Entities,通过知识融合增强表示)-CRF(Conditional RandomFields,条件随机场),或者可以采用BERT(Bidirectional Encoder Representationsfrom Transformers,基于Transformer的双向编码表示)-CRF,或者可以采用LSTM(LongShort-Term Memory,长短期记忆网络)等,或者也可以采用其他模型结构,本申请对此不作限定。
本申请中,可以将第一样本文本输入初始文本标注模型进行标注,以获取第一样本文本对应的预测标签序列,其中,预测标签序列中包括第一样本文本中各字符分别对应的预测多级标签。
步骤103,根据各字符分别对应的预测多级标签与多级参考标签之间的差异,对初始文本标注模型进行训练,以获取文本标注模型。
本申请中,针对每个字符,可以字符对应的预测多级标签与多级参考标签之间的差异,确定每个字符对应的损失,根据各字符对应的损失,确定模型损失,并根据模型损失对初始文本标注模型的参数进行调整,并对参数调整后的文本标注模型继续训练,直至满足模型训练结束的条件,得到文本标注模型。
其中,文本标注模型可以是序列标注模型,文本标注模型可以用于对文生图模型的输入文本进行标注,利用文本标注模型对输入文本进行标注得到标注后的输入文本,可以利用文生图模型对标注后的输入文本进行处理,以生成输入文本对应的图像。
比如,利用文本标注模型对文生图模型的某个输入文本进行标注,该输入文本中某分词的多级标签为“限定_时间_季节”,根据该标签可以确定限定了是哪个季节,那么文生图模型在基于该输入文本生成图像时,生成的图像中有相应季节的画面,从而提高了生成的图像与输入文本描述的画面的匹配度。
本申请中,模型训练结束条件可以是模型损失小于预设阈值,或者可以是训练次数达到预设次数等,模型训练结束条件可以根据实际需要设置,本申请对此不作限定
本申请实施例中,第一样本文本中各字符对应的标签为多级参考标签,将第一训练样本输入初始文本标注模型得到预测标签序列,根据预测标签序中各字符分别对应的预测多级标签与多级参考标签之间的差异,训练得到文本标注模型。由此,通过利用多级标签标注后的第一样本文本可以训练得到能够进行多级标签标注的文本标注模型,利用该文本标注模型对文生图的输入文本进行多级标签标注,从而基于多级标签标注后的输入文本生成图像,可以提高生成的图像与输入文本的描述的匹配度。
图2为本申请另一实施例提供的文本标注模型的训练方法的流程示意图。
如图2所示,该文本标注模型的训练方法包括:
步骤201,获取第一样本文本及所述第一样本文本中各字符分别对应的多级参考标签。
步骤202,利用初始文本标注模型对第一样本文本进行标注,以获取预测标签序列,预测标签序列包括各字符分别对应的预测多级标签。
本申请中,步骤201-步骤202可以参见本申请各实施例中任一实现方式,对此不作限定,也不再赘述。
步骤203,根据字符对应的预测多级标签与多级参考标签之间的差异,确定字符对应的第一子损失。
作为可能的一种实现方式,可以将预测多级标签与多级参考标签都整体看作一个标签,针对每个字符,可以根据字符对应的预测多级标签与多级参考标签之间的差异,确定字符对应的第一子损失。
作为另一种可能的实现方式,可以根据预测多级标签中每一级的预测标签与多级参考标签中同一级的参考标签之间的差异,确定每一级对应的第二子损失,可以将预测多级标签中各级分别对应的第二子损失之和,作为字符对应的第一子损失。由此,通过将预测多级标签与多级参考标签中同一级标签之间的差异,确定每一级的损失,再根据各级的损失确定字符对应的损失,从而可以提高了损失计算的准确性。
步骤204,根据各字符分别对应的第一子损失,确定第一模型损失。
本申请中,可以直接将第一样本文本中各字符分别对应的第一子损失之和,作为第一模型损失。或者,可以根据各字符的一级标签,确定字符的权重,对各字符分别对应的第一子损失进行加权求和,得到第一模型损失。比如,不同的一级标签对文生图的影响不同,影响越大,权重越大,如一级标签主题词、修饰词等的权重比语法词的权重高。
步骤205,根据第一模型损失,对初始文本标注模型进行训练,以获取文本标注模型。
本申请中,步骤205可以参见本申请各实施例中任一实现方式,对此不作限定,也不再赘述。
本申请实施例中,通过根据各字符分别对应的预测多级标签与多级参考标签之间的差异,确定各字符对应的第一子损失,再根据各字符对应的第一子损失,确定第一模型损失,从而基于第一模型损失对初始文本标注模型进行训练得到文本标注模型,提高了文本标注模型的准确性。
在本申请的一个实施例中,也可以通过以下方式训练得到文本标注模型:可以根据模型输出的每个字符属于多级参考标签的概率,确定第三子损失,并根据每个字符属于多级标签集合中每个多级标签的概率及每个多级标签转移到多级标签集合中每个多级标签的概率,确定第一样本文本中所有可能的标签序列中每个标签序列对应的分数,将所有可能的标签序列的分数之和确定为总分数,根据预测标签序列对应的分数与总分数之间的比值,确定第四子损失,根据第三子损失和第四子损失,确定第二模型损失,再根据第二模型损失,对初始文本标注模型的参数进行调整,对参数调整后的初始文本标注模型继续训练,直至满足训练结束的条件,得到文本标注模型。
本申请中,可以对第三子损失和第四子损失进行加权求和得到第二模型损失,权重可以根据实际需要设置,本申请对此不作限定。
以文本标注模型采用ERNIE-CRF模型为例,ERNIE对第一样本文本处理输出的特征向量,输入到CRF进行解码,可以得到第一样本文本对应的预测多级标签,其中,ERNIE可以用第一层输出的向量与最后一层输出的向量的平均值代替最后一层输出的向量,也即将第一层输出的向量与最后一层输出的向量的平均值输入到CRF中进行解码,从而可以提高模型预测结果的准确性,可以计算ERNIE的损失(对应上述第三子损失)与CRF损失(对应上述第四子损失),在每批第一样本文本内调整系数,使得每批第一样本文本内这两个损失以不同权重进行学习,其中,ERNIE的损失与CRF损失的计算如下公式:
loss1表示ERNIE的损失,N表示当前批次的第一样本文本的数量,比如N可以为1,yi表示字符在字符表中的位置,pi表示字符属于多级参考标签概率,loss2表示CRF损失,Syc表示预测多级标签序列的分数,n表示第一样本文本所有可能的标签序列的数量,表示第一样本文本所有可能的标签序列的分数之和,也即总分数。
如果N为多个,可以根据loss1和多个第二样本分别对应的loss2,确定第二模型损失。
本申请实施例中,通过根据每个字符属于多级参考标签概率得到第三子损失,并根据每个字符属于多级标签集合中每个多级标签的概率及每个多级标签对应的转移概率,确定第一样本文本所有可能的标签序列的分数的总分数,基于预测标签序列的分数与总分数得到第四子损失,从而可以以使预测多级标签为多级参考标签及使真实标签序列的分数在总分数的占比最高为目标,训练得到的文本标注模型,提高了文本标注模型的准确性。
图3为本申请另一实施例提供的文本标注模型的训练方法的流程示意图。
如图3所示,该文本标注模型的训练方法包括:
步骤301,获取第一样本文本。
本申请中,步骤301可以参见本申请各实施例中任一实现方式,对此不作限定,也不再赘述。
步骤302,对第一样本文本进行切词处理,以获取第一样本文本包含的第一分词。
本申请中,可以按照预设的规则对第一样本文进行切词处理,以获取第一样本文本包含的第一分词。其中,预测的规则比如词性为名词的分词与相邻的词性为动词的字符可以不用切分,比如“手拿”不用切分为手/拿,直接将“手拿”作为一个分词。
或者,也可以采用预先训练得到的分词模型对第一样本文本进行切词处理,得到第一样本文本包含的第一分词。
步骤303,将第一分词与预设图谱中的实体及实体之间的关系进行匹配,从多级标签集合中以确定出第一分词对应的多级参考标签。
本申请中,可以利用预设图谱的图谱特征,确定第一分词对应的多级参考标签。其中,预设图谱可以是知识图谱、概念图谱等,也可以采用其他的图谱,采用的预测图谱可以是一个也可以是多个,本申请对此不作限定。
作为一种实现方式,可以将第一分词与预设图谱中的实体和/或实体之间的关系进行匹配,如果第一分词中第一目标分词与预设图谱中的第一实体匹配,说明第一目标分词表示实体,但是实体在文生图的作用不同,可以进一步将第一实体的属性和/或第一实体与相邻实体之间的关系与第一候选多级标签进行匹配,以确定第一目标分词对应的多级参考标签。其中,第一候选多级标签可以是指多级标签集合中一级标签为第一预设标签的多级标签,第一预测标签可以是主体词、修饰词等。
比如,某第一样本文本中的分词“相机”与知识图谱中的实体“相机”匹配,可以进一步将知识图谱中“相机”的属性,比如用于摄像、艺术类型拍摄等及实体“相机”与相邻实体“A”之间的关系“手拿”与一级标签为主题词、修饰词的多级标签进行匹配,可以确定分词“相机”对应的多级标签可以是修饰词-艺术类型-摄像,其中,A表示人名。
如果第一分词中的第二目标分词与知识图谱中的实体均不匹配,可以将第二目标分词与预设图谱中实体之间的关系进行匹配,如果第二目标分词与预设图谱中某两个实体之间的关系匹配,可以将两个实体之间的关系的属性与第二候选多级标签进行匹配,根据匹配结果,确定第二目标分词对应的多级参考标签。其中,第二候选多级标签可以是指多级标签集合中一级标签为第二预设标签的多级标签,第二预设标签可以是限定词等。
比如,某第一样本文本中分词“手拿”与知识图谱中两个实体之间的关系“手托”匹配,可以根据“手托”的属性比如人的动作姿势进行匹配,确定“手拿”对应的多级参考标签为限定词-角色-动作姿势。
如果第一分词中的第三目标分词与预设图谱中的实体及实体之间的关系均不匹配,可以将第三目标分词与第三目标分词所属语句中实体的属性进行匹配,确定第三目标分词对应的多级参考标签。
比如,某第一样本文本中某语句为“一些发的光石头”,对于分词“一些”与知识图谱中的实体及实体之间的关系均不匹配,可以将该分词与该语句中实体“石头”的属性比如石头的数量、重量等进行匹配,可以确定该分词对应的多级参考标签为限定词-数量。
由此,通过将第一分词与预设图谱中的实体及实体之间的关系进行匹配,根据不同匹配结果,采用不同的方式确定第一分词的多级参考标签,从而实现了对第一样本文本的标注,提高了第一样本文本标注结果的准确性。
步骤304,根据第一分词对应的多级参考标签,对第一分词中的字符进行标注,以获取字符对应的多级参考标签。
本申请中,如果第一分词包含多个字符,可以将第一分词对应的多级参考标签,作为第一分词包含的每个字符对应的多级参考标签,然后对字符进行标注,从而可以获取字符对应的多级参考标签。
比如,某第一样本文本中各第一分词对应的多级参考标签如下所示:一些(限定词_数量)/发光(限定词_光)/的(语法词_助词)/石头(主体词_景物_石头),那么字符“一”和“些”对应的多级参考标签均为限定词_数量,字符“发”和“光”对应的多级参考标签均为限定词_光,字符“石头”和“头”对应的多级参考标签均为主体词_景物_石头。
本申请中,对于一些特殊的字符,可以根据预设规则确定这些字符对应的多级参考标签,比如标点符号对应的多级参考标签为语法词-w,修饰词后面字符“的”对应的多级参考标签为语法词-助词等。
步骤305,利用初始文本标注模型对第一样本文本进行标注,以获取预测标签序列,预测标签序列包括各字符分别对应的预测多级标签。
步骤306,根据各字符分别对应的预测多级标签与多级参考标签之间的差异,对初始文本标注模型进行训练,以获取文本标注模型。
本申请中,步骤305-步骤306可以参见本申请各实施例中任一实现方式,对此不作限定,也不再赘述。
本申请实施例中,可以对第一样本文本进行切词处理,得到第一样本文本包含的第一分词,通过将第一分词与预设图谱中的实体及实体之间的关系进行匹配,从多级标签集合中以确定出第一分词对应的多级参考标签,进而根据第一分词对应的多级参考标签,对第一分词中的字符进行标注,得到字符对应的多级参考标签。由此,通过利用预设知识图谱确定第一样本中各分词对应的多级参考标签,进而确定字符对应的多级参考标签,实现了对第一样本文本中各字符的自动标注,提高了标注结果的准确性。
在本申请的一个实施例中,也可以根据第一样本文本中各第一分词的词性,确定第一样本文本中各字符对应的多级参考标签。
本申请中,可以对第一样本文本进行切词处理,以获取第一样本文本包含的第一分词,并确定分词的词性,根据第一分词及第一分词的相邻分词的词性,从多级标签集合中确定出第一分词对应的多级参考标签,并根据第一分词对应的多级参考标签,对第一分词中的字符进行标注,以获取字符对应的多级参考标签。
其中,切词处理方式可以参见上述实施例,可以利用词性标注模型对分词进行词性标注,确定分词的词性。
在根据第一分词的词性及相邻分词的词性确定分词对应的多级参考标签时,可以根据预设的词性与一级标签的映射关系,确定第一分词对应的一级候选标签,根据第一分词的相邻分词的词性,从一级候选标签中确定出第一参考标签,再将第一分词与第三候选多级标签中除一级标签外其余层级的标签进行匹配,以确定其余层级的参考标签,将第一参考标签和其余层级的参考标签进行组合,可以确定第一分词对应的多级参考标签。其中,第三候选多级标签可以是指多级标签集合中一级标签为第一参考标签的多级标签。
由此,可以根据映射关系确定一级候选标签,再根据相邻分词的词性从一级候选标签中确定出第一参考标签,再根据第一分词与第三候选多级标签中其余层级的标签的匹配情况,确定其余层级的参考标签,从而确定第一分词对应的多级参考标签,实现了根据分词词性确定分词对应的多级参考标签,丰富了确定分词的多级参考标签的方式。
作为一种实现方式,可以根据第一分词的相邻分词的词性,确定第一分词在所属语句中的句子成分,根据第一分词在所属语句中的句子成分,从一级候选标签中确定出与句子成分匹配的第一参考标签。由此,可以根据第一分词的相邻分词的词性,确定第一分词在所属语句中的句子成分,进而根据第一分词在所属语句中的句子成分确定第一分词的一级参考标签,实现了根据第一分词的相邻分词的词性,确定第一分词的一级参考标签。
在确定其余层级的参考标签时,可以计算第一分词与第三候选多级标签中其余层级的标签的语义匹配度,将语义匹配度大于预设匹配度的标签,作为其余层级的参考标签。
比如,词性与一级标签的映射关系可以为名词对应主体词和修饰词、形容词对应修饰词、动词对应限定词等,某第一样本文本包括语句“一些发光的石头”,根据该映射关系,可以确定分词“石头”的一级候选标签为主体词和修饰词,根据“石头”的相邻分词“发光”和“的”,可以分词“石头”在该语句中为主语,“一些发光的”为定语,可以确定分词“石头”的第一参考标签为主体词,并计算“石头”与第三候选多级标签主体词-场景、主体词-景物、主体词-景物-石头、主体词-生物等中除主体词外的其他层级的标签的语义匹配度,可以确定二级标签为景物、三级标签为石头,由此可以确定分词“石头”对应的多级参考标签为主体词-景物-石头。
本申请实施例中,可以根据第一样本文本中的第一分词的词性及相邻分词的词性,从多级标签集合中确定第一分词对应的多级参考标签,并根据第一分词对应的多级参考标签,对第一分词中的字符进行标注,得到字符对应的多级参考标签,由此,通过利用第一分词及相邻分词的词性,确定第一分词对应的多级参考标签,进而确定字符对应的多级参考标签,实现了对第一样本文本中各字符的自动标注,提高了标注结果的准确性。
图4为本申请另一实施例提供的文本标注模型的训练方法的流程示意图。
如图4所示,该文本标注模型的训练方法包括:
步骤401,获取第二样本文本。
本申请中,第二样本文本可以是用于文生图的文本,第二样本文本的获取方式与获取第一样本文本的方式类似,故在此不再赘述。
步骤402,对第二样本文本进行文生图需求分析,以获取多级标签体系,多级标签体系中每一级包括至少一个标签。
其中,多级标签体系可以包括多个层级的标签,每一级可以包括至少一个标签,同一级包含的下属层级可以相同,也可以不同,本申请对此不作限定。
比如,一级标签为限定词,限定词包括的二级标签有:背景限定、关系、光、角色限定,而二级标签关系还包括三级标签处理动作,二级标签角色限定还包括三级标签动作姿势、年龄、情绪等,但二级标签光未有三级标签。
本申请中,可以对第二样本文本进行切词处理,以获取第二样本文本包含的第二分词,并对第二分词进行文生图需求分析,以获取文生图场景的需求信息,再根据需求信息,获取多级标签体系。由此,可以通过对用户的文生图需求进行挖掘分析,获取多级标签体系,使得多级标签体系中的多级标签可以体现文生图需求。
其中,对第二样本文本的切词处理方法,可以参见上述实施例中对第一样本文本的切词处理方法,故在此不再赘述。
作为一种实现方式,可以对第二分词分别进行句法分析和语义识别,以确定第二分词在第二样本文本中所属语句中的句子成分及第二分词的语义信息,并根据句子成分和语义信息,确定需求信息,再根据需求信息,获取多级标签体系。由此,可以通过根据第二分词在所属语句中的句子成分及分词的语义信息,确定需求信息,实现基于文生图的需求,获取多级标签体系。
其中,可以根据第二分词的词性及第二分词的相邻分词的词性,确定第二分词在所属语句中的句子成分,或者也可以利用模型确定第二分词在所属语句中的句子成分,可以利用语义识别模型识别第二分词的语义,得到第二分词的语义信息。
比如,某第二样本文本为“B手拿苹果”,其中,分词“B”为主语,分词“手拿”是谓语,分词“苹果”为宾语,以分词“手拿”为例,“手拿”是谓语,语义信息是动作,可以确定对B的动作限定的需求,从而可以确定一级标签有限定词,限定词包括的二级标签可以有角色限定,角色限定包括的三级标签有动作限定。
步骤403,根据多级标签体系,获取多级标签集合。
本申请中,可以将多级标签体系中的一级标签与一级标签下的二级标签进行组合,得到第一标签,如果第一标签中的二级标签具有三级标签,可以将第一标签与第三标签进行组合,得到第二标签,直至与最后一级标签组合,得到第N标签,并根据第一标签、第二标签、直至第N标签,获取多标签集合。其中,N可以为大于2的整数。由此,基于多级标签体系,可以得到包含多级标签的多级标签集合,利用该多级标签集合进行标注,可以实现对文生图的输入文本进行标注。
作为一个示例,如果第二标签中的三级标签具有四级标签,可以将第二标签与四级标签组合,得到第三标签,如果第三标签中的四级标签具有五级标签,可以将第三标签与五级标签组合,得到第四标签,可以根据第一标签、第二标签、第三标签和第四标签,得到多级标签集合。其中,多级标签集合中包括第一标签、第二标签、第三标签和第四标签。
比如,多级标签体系中一级标签包括主体词、限定词、修饰词、主题词、语法词等,主题词对应的二级标签包括场景、景物、生物等,限定词对应的二级标签包括关系、角色限定、时间等,修饰词对应的二级标签可以包括风格、模式、艺术类型等,主题词对应的二级标签可以包括抽象概念、俗语等,语法词对应的二级标签可以包括助词、肯定词、代词、副词、肯定词等,场景对应的三级标签包括工作、购物、会议、旅行等,生物对应的三级标签包括动物、植物、微生物等,那么第一标签可以有主体词-场景、主体词-景物、主体词-生物、限定词-关系、修饰词-风格、修饰词-模式、修饰词-艺术类型、限定词-角色限定、限定词-时间、主题词-抽象概念、主题词-俗语、语法词-助词、语法词-肯定词、语法词-代词、语法词-副词、语法词-肯定词,第二标签有主体词-场景-工作、主体词-场景-购物、主体词-场景-会议、主体词-场景-旅行等,根据第一标签和第二标签可以得到多级标签集合。
需要说明的是,上述多级标签体系和多级标签集合仅为示例,可以根据实际需要确定,本申请对此不作限定。
相关技术中,可以利用分词模型、词性标注模型、专名标注模型对文本进行标注,但是这些模型不能有效的解决文生图的文本理解相关问题,比如可控生成问题、文案润色问题等。
本申请中实施例中,可以通过对第二样本文本进行文生图需求分析,得到多级标签体系,基于多级标签体系获取多级标签集合,可以利用多级标签集合中的多级标签对第一样本文本进行标注,利用标注后的第一样本文本训练得到文本标注模型,从而利用文本标注模型对文生图的输入文本进行标注,可以实现根据文生图的具体需求来进行标注,对用户的需求进行理解,从而利用文本标注模型标注后的输入文本进行文生图,解决文生图的可控生成问题,使得文生图可控,提高了生成的图像与输入文本的描述的匹配度。
如果根据输入文本的标注结果发现缺少一些内容,可以对缺少的内容进行补充,对输入文本进行润色,从而提高文生图的效果。比如,根据文本标注模型的标注结果,可以确定输入文本中是否已有主体词,是否有修饰词,如果没有主体词和修饰词,那么可以补充一些主体词及补充一些修饰词等,利用补充的输入文本进行文生图。
图5为本申请一实施例提供的文生图方法的流程示意图。
如图5所示,该文生图方法包括:
步骤501,获取目标文本。
本申请中,目标文本可以是文生图用户输入的文本或语句,如果用户输入的是语音,可以对采集的语音进行语音识别,将语音转换为文本。
步骤502,利用文本标注模型对目标文本进行标注,以获取目标文本对应的序列标注结果。
其中,文本标注模型可以是利用上述文本标注模型训练方法训练得到,文本标注模型可以对文本进行序列标注。
本申请中,可以将目标文本输入文本标注模型进行标注,获取文本标注模型输出目标文本中各字符对应的多级标签,根据属于同一分词的字符对应的多级标签,可以确定目标文本中各分词对应的多级标签,从而得到目标文本对应的序列标注结果。
比如,目标文本为“沙滩上有一些发光的石头,还有五颜六色的鹅卵石,粉色背景,赛博朋克风格”,目标文本的标注结果为“沙滩上(语法词_位置方位)/有(语法词_肯定词)/一些(限定_数量)/发光(限定_光)/的(语法词_助词)/石头(主体_景物_石头)/,(语法词_w)/还有(语法词_肯定词)/五颜六色(修饰_模式_色调_多彩)/的(语法词_助词)/鹅卵石(主体_景物_石头)/,(语法词_w)/粉色背景(修饰_模式_色调_背景色调)/,(语法词_w)/赛博朋克风格(修饰_风格_流派)”。
步骤503,将目标文本及序列标注结果输入文生图模型进行处理,以生成目标文本对应的图像。
本申请中,可以将目标文本和目标文本的序列标注结果输入文生图模型进行处理,以生成目标文本对应的图像,从而实现基于文本生成图像。
进一步地,为了提高文生图的效果,如果根据目标文本的标注结果确定目标文本缺少一些内容,可以对目标文本进行补充,补充之后再输入文生图模型进行处理,或者如果目标文本的某些分词的标注结果不准确,可以对标注结果进行修正,再将目标文本和修正后的标注结果输入文生图模型进行处理,得到相应的图像。
本申请实施例中,通过利用文本标注模型可以对目标文本进行多级标签标注,从而利用文生图模型对多级标签标注后的目标文本处理生成图像,可以提高生成的图像与目标文本的描述的匹配度。
本申请实施例中,可以利用基于对文生图需求进行挖掘分析得到的多级标签体系标注的样本文本训练得到文本标注模型,利用文本标注模型可以对目标文本进行多级标签标注,可以实现根据文生图用户的需求对目标文本进行标注,从而利用文生图模型对多级标签标注后的目标文本处理生成图像,可以提高生成的图像与目标文本的描述的匹配度。
为了实现上述实施例,本申请实施例还提出一种文本标注模型的训练装置。图6为本申请一实施例提供的文本标注模型的训练装置的结构示意图。
如图6所示,该文本标注模型的训练装置600包括:
第一获取模块610,用于获取第一样本文本及第一样本文本中各字符分别对应的多级参考标签;
第二获取模块620,用于利用初始文本标注模型对第一样本文本进行标注,以获取预测标签序列,预测标签序列包括各字符分别对应的预测多级标签;
训练模块630,用于根据各字符分别对应的预测多级标签与多级参考标签之间的差异,对初始文本标注模型进行训练,以获取文本标注模型;
其中,文本标注模型用于对文生图模型的输入文本进行标注,文生图模型用于对标注后的输入文本进行处理以生成输入文本对应的图像。
可选地,训练模块630,用于:
根据字符对应的预测多级标签与多级参考标签之间的差异,确定字符对应的第一子损失;
根据各字符分别对应的第一子损失,确定第一模型损失;
根据第一模型损失,对初始文本标注模型进行训练,以获取文本标注模型。
可选地,训练模块630,用于:
根据预测多级标签中每一级的预测标签与多级参考标签中同一级的参考标签之间的差异,确定每一级对应的第二子损失;
根据预测多级标签中各级分别对应的第二子损失,确定第一子损失。
可选地,训练模块630,用于:
根据每个字符属于多级参考标签的概率,确定第三子损失;
根据每个字符属于多级标签集合中每个多级标签的概率及每个多级标签转移到多级标签集合中每个多级标签的概率,确定第一样本文本的所有可能的标签序列中每个标签序列对应的分数;
根据所有可能的标签序列的分数之和,确定总分数;
根据预测标签序列对应的分数与总分数,确定第四子损失;
根据第三子损失和第四子损失,确定第二模型损失;
根据第二模型损失,对初始文本标注模型进行训练,以获取文本标注模型。
可选地,第一获取模块610,用于:
获取第一样本文本;
对第一样本文本进行切词处理,以获取第一样本文本包含的第一分词;
将第一分词与预设图谱中的实体及实体之间的关系进行匹配,从多级标签集合中以确定出第一分词对应的多级参考标签;
根据第一分词对应的多级参考标签,对第一分词中的字符进行标注,以获取字符对应的多级参考标签。
可选地,第一获取模块610,用于:
在第一分词中的第一目标分词与预设图谱中的第一实体匹配的情况下,将第一实体的属性和/或第一实体与相邻实体之间的关系与第一候选多级标签进行匹配,以确定第一目标分词对应的多级参考标签;
在第一分词中的第二目标分词与预设图谱中的两个实体之间的关系匹配的情况下,将任意两个实体之间的关系的属性与第二候选多级标签进行匹配,以确定第二目标分词对应的多级参考标签;
在第一分词中的第三目标分词与预设图谱中的实体及实体之间的关系均不匹配的情况下,将第三目标分词与第三目标分词所属语句中实体的属性进行匹配,确定第三目标分词对应的多级参考标签;
其中,第一候选多级标签是指多级标签集合中一级标签为第一预设标签的多级标签,第二候选多级标签是指多级标签集合中一级标签为第二预设标签的多级标签。
可选地,第一获取模块610,用于:
获取第一样本文本;
对第一样本文本进行切词处理,以获取第一样本文本包含的第一分词,并确定分词的词性;
根据第一分词的词性及第一分词的相邻分词的词性,从多级标签集合中确定出第一分词对应的多级参考标签;
根据第一分词对应的多级参考标签,对第一分词中的字符进行标注,以获取字符对应的多级参考标签。
可选地,第一获取模块610,用于:
根据词性与一级标签的映射关系,确定第一分词对应的一级候选标签;
根据第一分词的相邻分词的词性,从一级候选标签中确定出第一参考标签;
将第一分词与第三候选多级标签中除一级标签外其余层级的标签进行匹配,以确定其余层级的参考标签,第三候选多级标签是指多级标签集合中一级标签为第一参考标签的多级标签;
根据第一参考标签和其余层级的参考标签,确定多级参考标签。
可选地,第一获取模块610,用于:
根据第一分词的相邻分词的词性,确定第一分词在所属语句中的句子成分;
从一级候选标签中确定出与句子成分匹配的第一参考标签。
可选地,该装置还可以包括:
第二获取模块,用于获取第二样本文本;
第三获取模块,用于对第二样本文本进行文生图需求分析,以获取多级标签体系,多级标签体系中每一级包括至少一个标签;
第四获取模块,用于根据多级标签体系,获取多级标签集合。
可选地,第四获取模块,用于:
将多级标签体系中的一级标签与一级标签下的二级标签进行组合,得到第一标签;
在第一标签中的二级标签具有三级标签的情况下,将第一标签与三级标签进行组合,得到第二标签,直至与最后一级标签组合,得到第N标签,其中,N为大于2的整数;
根据第一标签、第二标签,直至第N标签,获取多级标签集合。
可选地,第三获取模块,用于:
对第二样本文本进行切词处理,以获取第二样本文本包含的第二分词;
对第二分词进行文生图需求分析,以获取文生图场景的需求信息;
根据需求信息,获取多级标签体系。
可选地,第三获取模块,用于:
对第二分词分别进行句法分析和语义识别,以确定第二分词在所属语句中的句子成分及第二分词的语义信息;
根据句子成分和语义信息,确定需求信息;
根据需求信息,获取多级标签体系。
需要说明的是,前述文本标注模型的训练方法实施例的解释说明,也适用于该实施例的文本标注模型的训练装置,故在此不再赘述。
本申请实施例中,第一样本文本中各字符对应的标签为多级参考标签,将第一训练样本输入初始文本标注模型得到预测标签序列,根据预测标签序中各字符分别对应的预测多级标签与多级参考标签之间的差异,训练得到文本标注模型。由此,通过利用多级标签标注后的第一样本文本可以训练得到能够进行多级标签标注的文本标注模型,利用该文本标注模型对文生图的输入文本进行多级标签标注,从而基于多级标签标注后的输入文本生成图像,可以提高生成的图像与输入文本的描述的匹配度。
为了实现上述实施例,本申请实施例还提出一种文生图装置。图7为本申请一实施例提供的文生图装置的结构示意图。
如图7所示,该文生图装置700包括:
第一获取模块710,用于获取目标文本;
第二获取模块720,用于利用文本标注模型对所述目标文本进行标注,以获取所述目标文本对应的序列标注结果,其中,所述文本标注模型是采用上述实施例所述的方法训练得到的;
生成模块730,用于将所述目标文本及所述序列标注结果输入文生图模型进行处理,以生成所述目标文本对应的图像。
需要说明的是,前述文生图方法实施例的解释说明,也适用于该实施例的文生图装置,故在此不再赘述。
本申请实施例中,通过利用文本标注模型可以对目标文本进行多级标签标注,从而利用文生图模型对多级标签标注后的目标文本处理生成图像,可以提高生成的图像与目标文本的描述的匹配度。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了可以用来实施本申请的实施例的示例电子设备800的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,设备800包括计算单元801,其可以根据存储在ROM(Read-OnlyMemory,只读存储器)802中的计算机程序或者从存储单元808加载到RAM(Random AccessMemory,随机访问/存取存储器)803中的计算机程序,来执行各种适当的动作和处理。在RAM803中,还可存储设备800操作所需的各种程序和数据。计算单元801、ROM 802以及RAM 803通过总线804彼此相连。I/O(Input/Output,输入/输出)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元801可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元801的一些示例包括但不限于CPU(Central Processing Unit,中央处理单元)、GPU(Graphic Processing Units,图形处理单元)、各种专用的AI(Artificial Intelligence,人工智能)计算芯片、各种运行机器学习模型算法的计算单元、DSP(Digital SignalProcessor,数字信号处理器)、以及任何适当的处理器、控制器、微控制器等。计算单元801执行上文所描述的各个方法和处理,例如文本标注模型的训练方法。例如,在一些实施例中,文本标注模型的训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实施例中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由计算单元801执行时,可以执行上文描述的文本标注模型的训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行文本标注模型的训练方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、FPGA(Field Programmable Gate Array,现场可编程门阵列)、ASIC(Application-Specific Integrated Circuit,专用集成电路)、ASSP(Application Specific StandardProduct,专用标准产品)、SOC(System On Chip,芯片上***的***)、CPLD(ComplexProgrammable Logic Device,复杂可编程逻辑设备)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本申请的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、RAM、ROM、EPROM(Electrically Programmable Read-Only-Memory,可擦除可编程只读存储器)或快闪存储器、光纤、CD-ROM(Compact Disc Read-Only Memory,便捷式紧凑盘只读存储器)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode-Ray Tube,阴极射线管)或者LCD(Liquid Crystal Display,液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:LAN(LocalArea Network,局域网)、WAN(Wide Area Network,广域网)、互联网和区块链网络。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(VirtualPrivate Server,虚拟专用服务器)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式***的服务器,或者是结合了区块链的服务器。
需要说明的是,用于实现本申请的实施例的文生图方法的电子设备与上述电子设备的结构类似,故在此不再赘述。
根据本申请的实施例,本申请还提供了一种计算机程序产品,当计算机程序产品中的指令处理器执行时,执行本申请上述实施例提出的文本标注模型的训练方法或者文生图方法。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (31)
1.一种文本标注模型的训练方法,包括:
获取第一样本文本及所述第一样本文本中各字符分别对应的多级参考标签;
利用所述初始文本标注模型对所述第一样本文本进行标注,以获取预测标签序列,所述预测标签序列包括各所述字符分别对应的预测多级标签;
根据各所述字符分别对应的预测多级标签与多级参考标签之间的差异,对所述初始文本标注模型进行训练,以获取文本标注模型;
其中,所述文本标注模型用于对文生图模型的输入文本进行标注,所述文生图模型用于对标注后的输入文本进行处理以生成所述输入文本对应的图像。
2.如权利要求1所述的方法,其中,所述根据各所述字符分别对应的预测多级标签与多级参考标签之间的差异,对所述初始文本标注模型进行训练,以获取文本标注模型,包括:
根据所述字符对应的预测多级标签与多级参考标签之间的差异,确定所述字符对应的第一子损失;
根据各所述字符分别对应的第一子损失,确定第一模型损失;
根据所述第一模型损失,对所述初始文本标注模型进行训练,以获取所述文本标注模型。
3.如权利要求2所述的方法,其中,所述根据所述字符对应的预测多级标签与多级参考标签之间的差异,确定所述字符对应的第一子损失,包括:
根据所述预测多级标签中每一级的预测标签与所述多级参考标签中同一级的参考标签之间的差异,确定每一级对应的第二子损失;
根据所述预测多级标签中各级分别对应的第二子损失,确定所述第一子损失。
4.如权利要求1所述的方法,其中,所述根据各所述字符分别对应的预测多级标签与多级参考标签之间的差异,对所述初始文本标注模型进行训练,以获取文本标注模型,包括:
根据每个所述字符属于所述多级参考标签的概率,确定第三子损失;
根据每个所述字符属于多级标签集合中每个多级标签的概率及每个多级标签转移到所述多级标签集合中每个多级标签的概率,确定所述第一样本文本的所有可能的标签序列中每个标签序列对应的分数;
根据所有可能的标签序列的分数之和,确定总分数;
根据所述预测标签序列对应的分数与所述总分数,确定第四子损失;
根据所述第三子损失和所述第四子损失,确定所述第二模型损失;
根据所述第二模型损失,对所述初始文本标注模型进行训练,以获取所述文本标注模型。
5.如权利要求1所述的方法,其中,所述获取第一样本文本及所述第一样本文本中各字符分别对应的多级参考标签,包括:
获取所述第一样本文本;
对所述第一样本文本进行切词处理,以获取所述第一样本文本包含的第一分词;
将所述第一分词与预设图谱中的实体及实体之间的关系进行匹配,从多级标签集合中以确定出所述第一分词对应的多级参考标签;
根据所述第一分词对应的多级参考标签,对所述第一分词中的字符进行标注,以获取所述字符对应的多级参考标签。
6.如权利要求5所述的方法,其中,所述将所述第一分词与预设图谱中的实体及实体之间的关系进行匹配,以确定所述第一分词对应的多级参考标签,包括:
在所述第一分词中的第一目标分词与所述预设图谱中的第一实体匹配的情况下,将所述第一实体的属性和/或所述第一实体与相邻实体之间的关系与第一候选多级标签进行匹配,以确定所述第一目标分词对应的多级参考标签;
在所述第一分词中的第二目标分词与所述预设图谱中的两个实体之间的关系匹配的情况下,将所述任意两个实体之间的关系的属性与第二候选多级标签进行匹配,以确定所述第二目标分词对应的多级参考标签;
在所述第一分词中的第三目标分词与所述预设图谱中的实体及实体之间的关系均不匹配的情况下,将所述第三目标分词与所述第三目标分词所属语句中实体的属性进行匹配,确定所述第三目标分词对应的多级参考标签;
其中,所述第一候选多级标签是指所述多级标签集合中一级标签为第一预设标签的多级标签,所述第二候选多级标签是指所述多级标签集合中一级标签为第二预设标签的多级标签。
7.如权利要求1所述的方法,其中,所述获取第一样本文本及所述第一样本文本中各字符分别对应的多级参考标签,包括:
获取所述第一样本文本;
对所述第一样本文本进行切词处理,以获取所述第一样本文本包含的第一分词,并确定所述分词的词性;
根据所述第一分词的词性及所述第一分词的相邻分词的词性,从多级标签集合中确定出所述第一分词对应的多级参考标签;
根据所述第一分词对应的多级参考标签,对所述第一分词中的字符进行标注,以获取所述字符对应的多级参考标签。
8.如权利要求7所述的方法,其中,所述根据所述第一分词的词性及所述第一分词的相邻分词的词性,确定所述多级参考标签,包括:
根据词性与一级标签的映射关系,确定所述第一分词对应的一级候选标签;
根据所述第一分词的相邻分词的词性,从所述一级候选标签中确定出第一参考标签;
将所述第一分词与第三候选多级标签中除一级标签外其余层级的标签进行匹配,以确定所述其余层级的参考标签,所述第三候选多级标签是指所述多级标签集合中一级标签为所述第一参考标签的多级标签;
根据所述第一参考标签和所述其余层级的参考标签,确定所述多级参考标签。
9.如权利要求8所述的方法,其中,所述根据所述第一分词的相邻分词的词性,从所述一级候选标签中确定出第一参考标签,包括:
根据所述第一分词的相邻分词的词性,确定所述第一分词在所属语句中的句子成分;
从所述一级候选标签中确定出与所述句子成分匹配的所述第一参考标签。
10.如权利要求4-9中任一项所述的方法,还包括:
获取第二样本文本;
对所述第二样本文本进行文生图需求分析,以获取多级标签体系,所述多级标签体系中每一级包括至少一个标签;
根据所述多级标签体系,获取所述多级标签集合。
11.如权利要求10所述的方法,其中,所述根据所述多级标签体系,获取所述多级标签集合,包括:
将所述多级标签体系中的一级标签与所述一级标签下的二级标签进行组合,得到第一标签;
在所述第一标签中的二级标签具有三级标签的情况下,将所述第一标签与所述三级标签进行组合,得到第二标签,直至与最后一级标签组合,得到第N标签,其中,N为大于2的整数;
根据所述第一标签、所述第二标签,直至所述第N标签,获取多级标签集合。
12.如权利要求10所述的方法,其中,所述对所述第二样本文本进行文生图需求分析,以获取多级标签体系,包括:
对所述第二样本文本进行切词处理,以获取所述第二样本文本包含的第二分词;
对所述第二分词进行文生图需求分析,以获取文生图场景的需求信息;
根据所述需求信息,获取所述多级标签体系。
13.如权利要求12所述的方法,其中,所述对所述第二分词进行文生图需求分析,以获取文生图场景的需求信息,包括:
对所述第二分词分别进行句法分析和语义识别,以确定所述第二分词在所属语句中的句子成分及所述第二分词的语义信息;
根据所述句子成分和所述语义信息,确定所述需求信息;
根据所述需求信息,获取所述多级标签体系。
14.一种文生图方法,包括:
获取目标文本;
利用文本标注模型对所述目标文本进行标注,以获取所述目标文本对应的序列标注结果,其中,所述文本标注模型是采用权利要求1-13中任一项所述的方法训练得到的;
将所述目标文本及所述序列标注结果输入文生图模型进行处理,以生成所述目标文本对应的图像。
15.一种文本标注模型的训练装置,包括:
第一获取模块,用于获取第一样本文本及所述第一样本文本中各字符分别对应的多级参考标签;
第二获取模块,用于利用所述初始文本标注模型对所述第一样本文本进行标注,以获取预测标签序列,所述预测标签序列包括各所述字符分别对应的预测多级标签;
训练模块,用于根据各所述字符分别对应的预测多级标签与多级参考标签之间的差异,对所述初始文本标注模型进行训练,以获取文本标注模型;
其中,所述文本标注模型用于对文生图模型的输入文本进行标注,所述文生图模型用于对标注后的输入文本进行处理以生成所述输入文本对应的图像。
16.如权利要求15所述的装置,其中,所述训练模块,用于:
根据所述字符对应的预测多级标签与多级参考标签之间的差异,确定所述字符对应的第一子损失;
根据各所述字符分别对应的第一子损失,确定第一模型损失;
根据所述第一模型损失,对所述初始文本标注模型进行训练,以获取所述文本标注模型。
17.如权利要求16所述的装置,其中,所述训练模块,用于:
根据所述预测多级标签中每一级的预测标签与所述多级参考标签中同一级的参考标签之间的差异,确定每一级对应的第二子损失;
根据所述预测多级标签中各级分别对应的第二子损失,确定所述第一子损失。
18.如权利要求15所述的装置,其中,所述训练模块,用于:
根据每个所述字符属于所述多级参考标签的概率,确定第三子损失;
根据每个所述字符属于多级标签集合中每个多级标签的概率及每个多级标签转移到所述多级标签集合中每个多级标签的概率,确定所述第一样本文本的所有可能的标签序列中每个标签序列对应的分数;
根据所有可能的标签序列的分数之和,确定总分数;
根据所述预测标签序列对应的分数与所述总分数,确定第四子损失;
根据所述第三子损失和所述第四子损失,确定所述第二模型损失;
根据所述第二模型损失,对所述初始文本标注模型进行训练,以获取所述文本标注模型。
19.如权利要求15所述的装置,其中,所述第一获取模块,用于:
获取所述第一样本文本;
对所述第一样本文本进行切词处理,以获取所述第一样本文本包含的第一分词;
将所述第一分词与预设图谱中的实体及实体之间的关系进行匹配,从多级标签集合中以确定出所述第一分词对应的多级参考标签;
根据所述第一分词对应的多级参考标签,对所述第一分词中的字符进行标注,以获取所述字符对应的多级参考标签。
20.如权利要求19所述的装置,其中,所述第一获取模块,用于:
在所述第一分词中的第一目标分词与所述预设图谱中的第一实体匹配的情况下,将所述第一实体的属性和/或所述第一实体与相邻实体之间的关系与第一候选多级标签进行匹配,以确定所述第一目标分词对应的多级参考标签;
在所述第一分词中的第二目标分词与所述预设图谱中的两个实体之间的关系匹配的情况下,将所述任意两个实体之间的关系的属性与第二候选多级标签进行匹配,以确定所述第二目标分词对应的多级参考标签;
在所述第一分词中的第三目标分词与所述预设图谱中的实体及实体之间的关系均不匹配的情况下,将所述第三目标分词与所述第三目标分词所属语句中实体的属性进行匹配,确定所述第三目标分词对应的多级参考标签;
其中,所述第一候选多级标签是指所述多级标签集合中一级标签为第一预设标签的多级标签,所述第二候选多级标签是指所述多级标签集合中一级标签为第二预设标签的多级标签。
21.如权利要求15所述的装置,其中,所述第一获取模块,用于:
获取所述第一样本文本;
对所述第一样本文本进行切词处理,以获取所述第一样本文本包含的第一分词,并确定所述分词的词性;
根据所述第一分词的词性及所述第一分词的相邻分词的词性,从多级标签集合中确定出所述第一分词对应的多级参考标签;
根据所述第一分词对应的多级参考标签,对所述第一分词中的字符进行标注,以获取所述字符对应的多级参考标签。
22.如权利要求21所述的装置,其中,所述第一获取模块,用于:
根据词性与一级标签的映射关系,确定所述第一分词对应的一级候选标签;
根据所述第一分词的相邻分词的词性,从所述一级候选标签中确定出第一参考标签;
将所述第一分词与第三候选多级标签中除一级标签外其余层级的标签进行匹配,以确定所述其余层级的参考标签,所述第三候选多级标签是指所述多级标签集合中一级标签为所述第一参考标签的多级标签;
根据所述第一参考标签和所述其余层级的参考标签,确定所述多级参考标签。
23.如权利要求22所述的装置,其中,所述第一获取模块,用于:
根据所述第一分词的相邻分词的词性,确定所述第一分词在所属语句中的句子成分;
从所述一级候选标签中确定出与所述句子成分匹配的所述第一参考标签。
24.如权利要求18-23中任一项所述的装置,还包括:
第二获取模块,用于获取第二样本文本;
第三获取模块,用于对所述第二样本文本进行文生图需求分析,以获取多级标签体系,所述多级标签体系中每一级包括至少一个标签;
第四获取模块,用于根据所述多级标签体系,获取所述多级标签集合。
25.如权利要求24所述的装置,其中,所述第四获取模块,用于:
将所述多级标签体系中的一级标签与所述一级标签下的二级标签进行组合,得到第一标签;
在所述第一标签中的二级标签具有三级标签的情况下,将所述第一标签与所述三级标签进行组合,得到第二标签,直至与最后一级标签组合,得到第N标签,其中,N为大于2的整数;
根据所述第一标签、所述第二标签,直至所述第N标签,获取多级标签集合。
26.如权利要求24所述的装置,其中,所述第三获取模块,用于:
对所述第二样本文本进行切词处理,以获取所述第二样本文本包含的第二分词;
对所述第二分词进行文生图需求分析,以获取文生图场景的需求信息;
根据所述需求信息,获取所述多级标签体系。
27.如权利要求26所述的装置,其中,所述第三获取模块,用于:
对所述第二分词分别进行句法分析和语义识别,以确定所述第二分词在所属语句中的句子成分及所述第二分词的语义信息;
根据所述句子成分和所述语义信息,确定所述需求信息;
根据所述需求信息,获取所述多级标签体系。
28.一种文生图装置,包括:
第一获取模块,用于获取目标文本;
第二获取模块,用于利用文本标注模型对所述目标文本进行标注,以获取所述目标文本对应的序列标注结果,其中,所述文本标注模型是采用权利要求1-13中任一项所述的方法训练得到的;
生成模块,用于将所述目标文本及所述序列标注结果输入文生图模型进行处理,以生成所述目标文本对应的图像。
29.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-13中任一项所述的方法,或者能够执行权利要求14所述的方法。
30.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-13中任一项所述的方法,或者执行根据权利要求14所述的方法。
31.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现权利要求1-13中任一项所述方法的步骤,或者执行时实现权利要求14所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311199753.5A CN117290515A (zh) | 2023-09-15 | 2023-09-15 | 文本标注模型的训练方法、文生图方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311199753.5A CN117290515A (zh) | 2023-09-15 | 2023-09-15 | 文本标注模型的训练方法、文生图方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117290515A true CN117290515A (zh) | 2023-12-26 |
Family
ID=89251100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311199753.5A Pending CN117290515A (zh) | 2023-09-15 | 2023-09-15 | 文本标注模型的训练方法、文生图方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117290515A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117475038A (zh) * | 2023-12-28 | 2024-01-30 | 浪潮电子信息产业股份有限公司 | 一种图像生成方法、装置、设备及计算机可读存储介质 |
-
2023
- 2023-09-15 CN CN202311199753.5A patent/CN117290515A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117475038A (zh) * | 2023-12-28 | 2024-01-30 | 浪潮电子信息产业股份有限公司 | 一种图像生成方法、装置、设备及计算机可读存储介质 |
CN117475038B (zh) * | 2023-12-28 | 2024-04-19 | 浪潮电子信息产业股份有限公司 | 一种图像生成方法、装置、设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107680579B (zh) | 文本正则化模型训练方法和装置、文本正则化方法和装置 | |
WO2021121198A1 (zh) | 基于语义相似度的实体关系抽取方法、装置、设备及介质 | |
CN108984530A (zh) | 一种网络敏感内容的检测方法及检测*** | |
CN109657054A (zh) | 摘要生成方法、装置、服务器及存储介质 | |
CN110750959A (zh) | 文本信息处理的方法、模型训练的方法以及相关装置 | |
CN108647191B (zh) | 一种基于有监督情感文本和词向量的情感词典构建方法 | |
CN112507101B (zh) | 一种建立预训练语言模型的方法和装置 | |
CN111414561B (zh) | 用于呈现信息的方法和装置 | |
CN113220836A (zh) | 序列标注模型的训练方法、装置、电子设备和存储介质 | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
CN112580339B (zh) | 模型的训练方法、装置、电子设备及存储介质 | |
CN114841274B (zh) | 语言模型的训练方法、装置、电子设备和存储介质 | |
CN113641830B (zh) | 模型预训练方法、装置、电子设备和存储介质 | |
CN113779225B (zh) | 实体链接模型的训练方法、实体链接方法及装置 | |
CN113360001A (zh) | 输入文本的处理方法、装置、电子设备和存储介质 | |
CN110851601A (zh) | 基于分层注意力机制的跨领域情感分类***及方法 | |
CN112100384B (zh) | 一种数据观点抽取方法、装置、设备及存储介质 | |
CN115688920A (zh) | 知识抽取方法、模型的训练方法、装置、设备和介质 | |
CN117290515A (zh) | 文本标注模型的训练方法、文生图方法及装置 | |
CN114398943B (zh) | 样本增强方法及其装置 | |
CN114399772B (zh) | 样本生成、模型训练和轨迹识别方法、装置、设备和介质 | |
CN114417878A (zh) | 语义识别方法、装置、电子设备及存储介质 | |
CN112466277B (zh) | 韵律模型训练方法、装置、电子设备及存储介质 | |
CN117436438A (zh) | 情感分析方法、大语言模型的训练方法及装置 | |
CN117688946A (zh) | 基于大模型的意图识别方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |