CN110287357A - 一种基于条件生成对抗网络的图像描述生成方法 - Google Patents
一种基于条件生成对抗网络的图像描述生成方法 Download PDFInfo
- Publication number
- CN110287357A CN110287357A CN201910467500.9A CN201910467500A CN110287357A CN 110287357 A CN110287357 A CN 110287357A CN 201910467500 A CN201910467500 A CN 201910467500A CN 110287357 A CN110287357 A CN 110287357A
- Authority
- CN
- China
- Prior art keywords
- model
- sentence
- training
- picture
- description
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
一种基于条件生成对抗网络的图像描述生成方法,包括以下步骤:步骤一、网络构建,该条件生成对抗网络框架由一个生成模型和一个判别模型两部分组成,生成模型和判别模型结构类似,但是参数独立训练更新;步骤二、数据集预处理;步骤三、网络训练,过程如下:步骤3.1:用随机权值初始化生成模型和判别模型参数;步骤3.2:训练生成模型;步骤3.3:训练判别模型;步骤3.4:用RMSprop下降算法最小化损失函数;步骤四、精度测试,经过上述步骤的操作,即可实现对测试图片的描述生成。本发明提供一种鲁棒性较好、对训练数据要求较低的基于条件生成对抗训练的图像描述生成方法。
Description
技术领域
本发明涉及计算机视觉领域的多媒体大数据处理与分析,特别涉及一种条件生成对抗的图片描述生成方法,跨越了计算机视觉和自然语言处理两个领域。
背景技术
随着网络共享技术的发展,网络上有越来越多的图片能够被实时分享和接收。如何用机器来理解图像所表示的内容,并将其输出为一个语句连贯、语义正确的句子成为一个重点研究问题。近些年随着深度学习方法的快速发展,得益于深度特征对图像内容的精确表达,使用机器来自动生成描述取得了重大进展。但是这些方法在训练过程中存在梯度消失和图片特征在网络中有损失,生成的描述在语义丰富程度和内容准确性上依然存在缺陷,无法得到很好的效果。
发明内容
为了克服已有的图片描述生成技术的对训练数据要求高、生成描述单调、描述不够真实等不足,本发明提供一种鲁棒性较好、对训练数据要求较低的基于条件生成对抗训练的图像描述生成方法。
本发明解决其技术问题所采用的技术方案是:
一种基于条件生成对抗网络的图像描述生成方法,所述方法包括以下步骤:
步骤一、网络构建,过程如下:
步骤1.1:该条件生成对抗网络框架由一个生成模型和一个判别模型两部分组成,生成模型和判别模型结构类似,但是参数独立训练更新;
步骤1.2:生成模型的第一层为嵌入层,输出一个三维特征向量;
步骤1.3:生成模型的嵌入层后接一个全连接层;
步骤1.4:生成模型的第三层为一个全连接层;
步骤1.5:生成模型的第三个全连接层后接Relu激活函数
步骤1.6:生成模型后接一个GLU模块,包含三层卷积层;
步骤1.7:生成模型经过三层卷积层后通过一个全连接层;
步骤1.8:生成模型再经过最后一个全连接层将维度扩展;
步骤1.9:将生成模型的输出结果作为判别模型的输入;
步骤1.10:判别模型的第一层为嵌入层,把输入维度扩展;
步骤1.11:判别模型的嵌入层后接一个全连接层,输出一个三维特征向量;
步骤1.12:判别模型的第三层为一个全连接层;
步骤1.13:判别模型的第三个全连接层后接Relu激活函数
步骤1.14:判别模型后接一个GLU模块,包含三层卷积层;
步骤1.15:判别模型经过三层卷积层后通过一个全连接层;
步骤1.16:判别模型再经过最后一个全连接层改变输出维度;
步骤1.17:判别模型把计算出的描述句子相似性得分反馈到生成模型中;
步骤二、数据集预处理;
步骤三、网络训练,过程如下:
步骤3.1:用随机权值初始化生成模型和判别模型参数;
步骤3.2:训练生成模型;
步骤3.3:训练判别模型;
步骤3.4:用RMSprop下降算法最小化损失函数;
步骤四、精度测试,过程如下:
步骤4.1:将预处理好的测试数据集送入最优生成器模型;
步骤4.2:生成器针对给定的图片,通过生成模型生成对应的描述语句;
步骤4.3:比较问询图片的真实描述语句和生成器返回的描述语句的相关度,根据图像描述中的评价准则计算所有问询图片生成的描述语句;
步骤4.4:在测试数据上进行验证,生成测试图片的描述语句;
经过上述步骤的操作,即可实现对测试图片的描述生成。
进一步,所述步骤二中,数据预处理的过程如下:
步骤2.1:数据集中数据包含训练图片和图片的描述句子两部分,将图片提取特征输入到网络中;
步骤2.2:用在ImageNet上预训练好的VGG模型来提取图片特征;
步骤2.3:将图片以特征向量的形式输入对抗网络中。
再进一步,所述步骤3.2中,训练生成模型的过程如下:
步骤3.2.1:对于生成模型,不给他输入真实的句子描述,将一个与真实描述同纬度的随机噪声向量作为句子描述输入生成模型;
步骤3.2.2:将VGG网络提取出来的图片特征和随机向量送入一起生成模型;
步骤3.2.3:生成模型对输入的句子描述经过嵌入层和全连接层获得句子特征向量;
步骤3.2.4:将提取出来的图片特征经过全连接层和嵌入层,转换为与句子特征向量同维度;
步骤3.2.5:将句子特征和图片特征进行拼接,共同输入到GLU模块训练;
步骤3.2.6:将得到的向量通过两个全连接层得到生成句子描述特征向量;
步骤3.2.7:利用归一化指数函数将相似度转换为单词被选中的概率,生成描述语句。
更进一步,所述步骤3.3中,训练判别模型的过程如下:
步骤3.3.1:将生成器生成的描述句子和该图片特征作为判别器输入;
步骤3.3.2:判别模型对输入的句子描述经过嵌入层和全连接层获得句子特征向量;
步骤3.3.3:将句子特征和图片特征拼接,共同输入到GLU模块;
步骤3.3.4:将得到的向量通过两个全连接层得到生成句子描述特征向量;
步骤3.3.5:利用归一化指数函数将相似度转换为单词被选中的概率,生成描述语句;
步骤3.3.6:计算生成的句子描述和真实句子描述的真实性比较,得到一个句子得分,反馈给生成模型,作用于接下来生成模型对描述的生成。
本发明的有益效果主要表现在:本发明提出一种基于条件生成对抗的图像描述生成方法。在输入一张图片,并不给出该图片描述的情况下,生成模型和判别模型通过最大化最小化对抗训练来提高双方的性能:生成模型能够生成该图片的描述句子,判别模型能够最大程度的判断生成器输出的描述句子与真实句子描述是否相似。该方法解决了深度学习中面临的训练过程中需要大量有标注信息的问题,同时也是条件生成对抗网络在生成图像描述任务中的一次成功实现。
附图说明
图1是本发明用到的基于生成对抗网络的图像描述生成模型框架示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1,一种基于条件生成对抗网络的图像描述生成方法,所述方法包括条件生成对抗训练网络的构建、数据集预处理、网络训练和评价指标测试四个过程。
本实施案例中的图片来自MSCOCO数据集,包含训练集,验证集和测试集。在训练集上训练模型,并在测试集和验证集上验证训练结果。基于条件生成对抗网络的图像描述生成方法框架如图1所示,操作步骤包括网络的构建、数据集预处理、网络训练和图片检索测试四个过程。
所述基于条件生成对抗网络的图像描述生成方法包括以下步骤:
步骤一、网络构建,过程如下:
步骤1.1:该条件生成对抗网络框架由一个生成模型和一个判别模型两部分组成,生成模型和判别模型结构类似,但是参数独立更新;
步骤1.2:生成模型的第一层为嵌入层,神经元个数设为512,权值为W_1,定义为浮点型变量,无偏置;
步骤1.3:生成模型的第二层为全连接层,神经元个数设为512,权值为W_2,定义为浮点型变量,无偏置;
步骤1.4:生成模型的第三层为全连接层,神经元个数为512,权值为W_3,定义为浮点型变量,无偏置,后接Relu激活函数;
步骤1.5:生成模型的第三层后接一个GLU模块,该模块含三层卷积层,神经元个数为512,权值为W_4,卷积核大小为5,步长为1,零填充设置为2,定义为浮点型变量,无偏置;
步骤1.6:生成模型的卷积层后接一个全连接层,神经元个数为256,权值为W_5,定义为浮点型变量,无偏置;
步骤1.7:生成模型s的最后一层为全连接层,神经元个数为9221,权值为W_6,定义为浮点型变量,无偏置;
步骤1.8:判别模型的第一层为嵌入层,神经元个数设为512,权值为W_7,定义为浮点型变量,无偏置;
步骤1.9:判别模型的第二层为全连接层,神经元个数设为512,权值为W_8,定义为浮点型变量,无偏置;
步骤1.10:判别模型的第三层为全连接层,神经元个数为512,权值为W_9,定义为浮点型变量,无偏置,后接Relu激活函数;
步骤1.11:判别模型的第三层后接一个GLU模块,该模块含三层卷积层,神经元个数为512,权值为W_10,卷积核大小为5,步长为1,零填充设置为2,定义为浮点型变量,无偏置;
步骤1.12:判别模型的卷积层后接一个全连接层,神经元个数为256,权值为W_11,定义为浮点型变量,无偏置;
步骤1.13:判别模型的最后一层为全连接层,神经元个数为9221,权值为W_12,定义为浮点型变量,无偏置;
步骤1.14:判别模型把计算出的生成描述句子与真实句子相似性得分以生成器损失函数权值的形式反馈到生成模型中;
步骤二、数据集预处理,过程如下:
步骤2.1:数据被分为训练集113287张图片,测试集5000张图片和验证集500张图片三部分,对数据进行预处理,将数据集中的句子单词都转换成小写字母,丢弃掉非字母数字字符;
步骤2.2:用在ImageNet上预训练好的VGG模型,设定输出图片特征维度为4096维;
步骤2.3:用微调好的VGG网络模型提取训练集图片对应的特征向量,并将特征值再经过一个全连接层和一个嵌入层;
步骤三、网络训练,过程如下:
步骤3.1:用随机权值初始化生成模型和判别模型中的参数;为模型设置30个循环迭代,每次迭代完成后保存模型参数;
步骤3.2:训练生成模型;
步骤3.2.1:设定学习率为0.00005,经过15个循环学习率降低为原来的10%;
步骤3.2.2:将与图片描述句子相同维度的随机向量作为作为生成模型的句子输入送入到网络中;
步骤3.2.3:将提取的图片特征经过一个全连接层和嵌入层改变特征维度作为生成模型的图片输入,送入到网络中;
步骤3.2.4:确保图片特征向量的维度与经过第一个嵌入层后的句子特征向量维度相同,将两者拼接共同输入网络进行训练;
步骤3.2.5:生成模型利用三层GLU模块对输入图像和句子进行训练,针对每一张图片,生成模型对其生成描述语句,利用归一化指数函数将单词概率相似度转换为单词被选中的概率,根据概率大小从数据集中选择相概率高最高的单词,作为生成器的输出;
步骤3.3:训练判别模型;
步骤3.3.1:设定学习率为0.00005,经过15个循环学习率降低为原来的10%;
步骤3.3.2:将生成器返回的描述句子作为判别器的输入,并将该描述句子代表的图片一同输入到判别器中;
步骤3.3.3:将描述句子经过一个嵌入层改变维度,然后与图片特征拼接共同输入到判别模型;
步骤3.3.4:判别模型利用三层GLU模块对输入图像和句子进行训练,针对每一张图片,生成模型对其生成描述语句,利用归一化指数函数将单词概率相似度转换为单词被选中的概率,根据概率大小从数据集中选择相概率高最高的单词;
步骤3.3.5:将生成的描述语句与真实描述语句进行相关性评估,计算句子的得分,将判别器计算出的相似性得分反馈到生成器中,以损失函数权值形式直接作用于生成器的权值的优化;
步骤3.4:保存最优的生成器模型作为训练的输出;
步骤四、精度测试,过程如下:
步骤4.1:将预处理好的测试数据集图片送入最优生成器模型中;
步骤4.2:生成器针对给定的问询图片,对该图片生成描述语句;
步骤4.3:比较问询图片的真实描述语句和生成器返回的描述语句的相关度,根据图像描述中的评价准则计算所有问讯图片生成的描述语句;
步骤4.4:在测试数据上进行验证,生成测试图片的描述语句;
经过上述步骤的操作,即可实现对图片生成描述语句。
以上所述的具体描述,对发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例,用于解释本发明,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于条件生成对抗网络的图像描述生成方法,其特征在于,所述方法包括以下步骤:
步骤一、网络构建,过程如下:
步骤1.1:该条件生成对抗网络框架由一个生成模型和一个判别模型两部分组成,生成模型和判别模型结构类似,但是参数独立训练更新;
步骤1.2:生成模型的第一层为嵌入层,输出一个三维特征向量;
步骤1.3:生成模型的嵌入层后接一个全连接层;
步骤1.4:生成模型的第三层为一个全连接层;
步骤1.5:生成模型的第三个全连接层后接Relu激活函数;
步骤1.6:生成模型后接一个GLU模块,包含三层卷积层;
步骤1.7:生成模型经过三层卷积层后通过一个全连接层;
步骤1.8:生成模型再经过最后一个全连接层将维度扩展;
步骤1.9:将生成模型的输出结果作为判别模型的输入;
步骤1.10:判别模型的第一层为嵌入层,把输入维度扩展;
步骤1.11:判别模型的嵌入层后接一个全连接层,输出一个三维特征向量;
步骤1.12:判别模型的第三层为一个全连接层;
步骤1.13:判别模型的第三个全连接层后接Relu激活函数
步骤1.14:判别模型后接一个GLU模块,包含三层卷积层;
步骤1.15:判别模型经过三层卷积层后通过一个全连接层;
步骤1.16:判别模型再经过最后一个全连接层改变输出维度;
步骤1.17:判别模型把计算出的描述句子相似性得分反馈到生成模型中;
步骤二、数据集预处理;
步骤三、网络训练,过程如下:
步骤3.1:用随机权值初始化生成模型和判别模型参数;
步骤3.2:训练生成模型;
步骤3.3:训练判别模型;
步骤3.4:用RMSprop下降算法最小化损失函数
步骤四、精度测试,过程如下:
步骤4.1:将预处理好的测试数据集送入最优生成器模型;
步骤4.2:生成器针对给定的图片,通过生成模型生成对应的描述语句;
步骤4.3:比较问询图片的真实描述语句和生成器返回的描述语句的相关度,根据图像描述中的评价准则计算所有问询图片生成的描述语句;
步骤4.4:在测试数据上进行验证,生成测试图片的描述语句。
2.如权利要求1所述的一种基于条件生成对抗网络的图像描述生成方法,其特征在于,所述步骤二中,数据预处理的过程如下:
步骤2.1:数据集中数据包含训练图片和图片的描述句子两部分,将图片提取特征输入到网络中;
步骤2.2:用在ImageNet上预训练好的VGG模型来提取图片特征;
步骤2.3:将图片以特征向量的形式输入对抗网络中。
3.如权利要求1或2所述的一种基于条件生成对抗网络的图像描述生成方法,其特征在于,所述步骤3.2中,训练生成模型的过程如下:
步骤3.2.1:对于生成模型,不给他输入真实的句子描述,将一个与真实描述同纬度的随机噪声向量作为句子描述输入生成模型;
步骤3.2.2:将VGG网络提取出来的图片特征和随机向量送入一起生成模型;
步骤3.2.3:生成模型对输入的句子描述经过嵌入层和全连接层获得句子特征向量;
步骤3.2.4:将提取出来的图片特征经过全连接层和嵌入层,转换为与句子特征向量同维度;
步骤3.2.5:将句子特征和图片特征进行拼接,共同输入到GLU模块训练;
步骤3.2.6:将得到的向量通过两个全连接层得到生成句子描述特征向量;
步骤3.2.7:利用归一化指数函数将相似度转换为单词被选中的概率,生成描述语句。
4.如权利要求3所述的一种基于条件生成对抗网络的图像描述生成方法,其特征在于,所述步骤3.3中,训练判别模型的过程如下:
步骤3.3.1:将生成器生成的描述句子和该图片特征作为判别器输入;
步骤3.3.2:判别模型对输入的句子描述经过嵌入层和全连接层获得句子特征向量;
步骤3.3.3:将句子特征和图片特征拼接,共同输入到GLU模块;
步骤3.3.4:将得到的向量通过两个全连接层得到生成句子描述特征向量;
步骤3.3.5:利用归一化指数函数将相似度转换为单词被选中的概率,生成描述语句;
步骤3.3.6:计算生成的句子描述和真实句子描述的真实性比较,得到一个句子得分,反馈给生成模型,作用于接下来生成模型对描述的生成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910467500.9A CN110287357B (zh) | 2019-05-31 | 2019-05-31 | 一种基于条件生成对抗网络的图像描述生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910467500.9A CN110287357B (zh) | 2019-05-31 | 2019-05-31 | 一种基于条件生成对抗网络的图像描述生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110287357A true CN110287357A (zh) | 2019-09-27 |
CN110287357B CN110287357B (zh) | 2021-05-18 |
Family
ID=68003238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910467500.9A Active CN110287357B (zh) | 2019-05-31 | 2019-05-31 | 一种基于条件生成对抗网络的图像描述生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110287357B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105013A (zh) * | 2019-11-05 | 2020-05-05 | 中国科学院深圳先进技术研究院 | 对抗网络架构的优化方法、图像描述生成方法和*** |
CN111143617A (zh) * | 2019-12-12 | 2020-05-12 | 浙江大学 | 一种图片或视频文本描述自动生成方法及*** |
CN111159454A (zh) * | 2019-12-30 | 2020-05-15 | 浙江大学 | 基于Actor-Critic生成式对抗网络的图片描述生成方法及*** |
CN113220891A (zh) * | 2021-06-15 | 2021-08-06 | 北京邮电大学 | 基于无监督的概念到句子的生成对抗网络图像描述算法 |
CN113673349A (zh) * | 2021-07-20 | 2021-11-19 | 广东技术师范大学 | 基于反馈机制的图像生成中文文本方法、***及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563493A (zh) * | 2017-07-17 | 2018-01-09 | 华南理工大学 | 一种多生成器卷积合成图像的对抗网络算法 |
CN108446334A (zh) * | 2018-02-23 | 2018-08-24 | 浙江工业大学 | 一种无监督对抗训练的基于内容的图像检索方法 |
US10275473B2 (en) * | 2017-04-27 | 2019-04-30 | Sk Telecom Co., Ltd. | Method for learning cross-domain relations based on generative adversarial networks |
CN109711442A (zh) * | 2018-12-15 | 2019-05-03 | 中国人民解放军陆军工程大学 | 无监督逐层生成对抗特征表示学习方法 |
-
2019
- 2019-05-31 CN CN201910467500.9A patent/CN110287357B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10275473B2 (en) * | 2017-04-27 | 2019-04-30 | Sk Telecom Co., Ltd. | Method for learning cross-domain relations based on generative adversarial networks |
CN107563493A (zh) * | 2017-07-17 | 2018-01-09 | 华南理工大学 | 一种多生成器卷积合成图像的对抗网络算法 |
CN108446334A (zh) * | 2018-02-23 | 2018-08-24 | 浙江工业大学 | 一种无监督对抗训练的基于内容的图像检索方法 |
CN109711442A (zh) * | 2018-12-15 | 2019-05-03 | 中国人民解放军陆军工程大学 | 无监督逐层生成对抗特征表示学习方法 |
Non-Patent Citations (2)
Title |
---|
HJIMCE: "深度学习(五十)基于条件对抗网络的图片翻译", 《CSDN博客》 * |
唐贤伦等: "基于条件深度卷积生成对抗网络的图像识别方法", 《自动化学报》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111105013A (zh) * | 2019-11-05 | 2020-05-05 | 中国科学院深圳先进技术研究院 | 对抗网络架构的优化方法、图像描述生成方法和*** |
WO2021088935A1 (zh) * | 2019-11-05 | 2021-05-14 | 中国科学院深圳先进技术研究院 | 对抗网络架构的优化方法、图像描述生成方法和*** |
CN111105013B (zh) * | 2019-11-05 | 2023-08-11 | 中国科学院深圳先进技术研究院 | 对抗网络架构的优化方法、图像描述生成方法和*** |
CN111143617A (zh) * | 2019-12-12 | 2020-05-12 | 浙江大学 | 一种图片或视频文本描述自动生成方法及*** |
CN111159454A (zh) * | 2019-12-30 | 2020-05-15 | 浙江大学 | 基于Actor-Critic生成式对抗网络的图片描述生成方法及*** |
CN113220891A (zh) * | 2021-06-15 | 2021-08-06 | 北京邮电大学 | 基于无监督的概念到句子的生成对抗网络图像描述算法 |
CN113220891B (zh) * | 2021-06-15 | 2022-10-18 | 北京邮电大学 | 基于无监督的概念到句子的生成对抗网络图像描述方法 |
CN113673349A (zh) * | 2021-07-20 | 2021-11-19 | 广东技术师范大学 | 基于反馈机制的图像生成中文文本方法、***及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110287357B (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287357A (zh) | 一种基于条件生成对抗网络的图像描述生成方法 | |
CN111476294B (zh) | 一种基于生成对抗网络的零样本图像识别方法及*** | |
KR102085217B1 (ko) | 특허문서의 유사도 판단 방법, 장치 및 시스템 | |
Alonso et al. | Adversarial generation of handwritten text images conditioned on sequences | |
Lin et al. | Adversarial ranking for language generation | |
CN105975573B (zh) | 一种基于knn的文本分类方法 | |
CN106202518B (zh) | 基于chi和分类别关联规则算法的短文本分类方法 | |
CN109472024A (zh) | 一种基于双向循环注意力神经网络的文本分类方法 | |
Yang et al. | Multi-sentence auxiliary adversarial networks for fine-grained text-to-image synthesis | |
CN111930887B (zh) | 基于联合训练方式的多文档多答案机器阅读理解*** | |
CN111061861B (zh) | 一种基于XLNet的文本摘要自动生成方法 | |
CN108460019A (zh) | 一种基于注意力机制的新兴热点话题检测*** | |
CN110413791A (zh) | 基于cnn-svm-knn组合模型的文本分类方法 | |
CN109977199A (zh) | 一种基于注意力池化机制的阅读理解方法 | |
CN108446334A (zh) | 一种无监督对抗训练的基于内容的图像检索方法 | |
CN113837229B (zh) | 一种知识驱动型的文本到图像生成方法 | |
CN110059220A (zh) | 一种基于深度学习与贝叶斯概率矩阵分解的电影推荐方法 | |
CN107967497A (zh) | 基于卷积神经网络和极限学习机的手写体识别方法 | |
CN109948825A (zh) | 基于改进PSO与Adaboost结合的有利储层发育区预测方法 | |
CN109992703A (zh) | 一种基于多任务学习的差异化特征挖掘的可信度评估方法 | |
CN115222998B (zh) | 一种图像分类方法 | |
CN116127123B (zh) | 基于语义实例关系渐进式海洋遥感图文检索方法 | |
CN114841173B (zh) | 基于预训练模型的学术文本语义特征提取方法、***和存储介质 | |
CN111079374A (zh) | 字体生成方法、装置和存储介质 | |
CN115270752A (zh) | 一种基于多层次对比学习的模板句评估方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |