CN114399708A - 一种视频动作迁移深度学习***和方法 - Google Patents

一种视频动作迁移深度学习***和方法 Download PDF

Info

Publication number
CN114399708A
CN114399708A CN202111660869.5A CN202111660869A CN114399708A CN 114399708 A CN114399708 A CN 114399708A CN 202111660869 A CN202111660869 A CN 202111660869A CN 114399708 A CN114399708 A CN 114399708A
Authority
CN
China
Prior art keywords
image
quantization
source
video
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111660869.5A
Other languages
English (en)
Inventor
付彦伟
洪羽欣
钱学林
薛向阳
骆思勉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN202111660869.5A priority Critical patent/CN114399708A/zh
Publication of CN114399708A publication Critical patent/CN114399708A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种视频动作迁移深度学习***和方法,包括分别与***控制部连接的人物视频数据预处理部、视频特征量化部、视频特征重组部、动作迁移视频生成部,人物视频数据预处理部对源图像、参考图像进行预处理,提取源图像中源关键点信息和参考图像中参考关键点信息;视频特征量化部分别提取源图像、参考图像的深度特征,进行特征量化,获得源图像量化特征、参考图像量化特征;视频特征重组部根据源关键点、源图像量化特征、参考图像量化特征,预测出目标图像的量化特征;动作迁移视频生成部根据目标图像的量化特征,输出目标图像,***控制部存储程序并进行控制。本***用于实现动作迁移,保证目标图像的清晰度及分辨率。

Description

一种视频动作迁移深度学习***和方法
技术领域
本发明涉及计算机视觉技术领域,尤其是涉及一种视频动作迁移深度学习***和方法。
背景技术
随着视频时代的兴起,人像视频生成也成为计算机视觉领域中一项重要任务,在视频定向编辑、视频制作等领域有着广泛的应用场景,其中视频中的动作迁移任务,目的是使参考视频人物的动作迁移到源视频人物上,同时保留源视频人物的身份特征。该任务在动画、影视领域得到较大的关注,极具实际的应用价值。
目前,一些经典的方法是依赖于复杂的人体建模过程,如人体轮廓模型,人脸模型(Volker Blanz and Thomas Vetter.A morphable model for the synthesis of 3dfaces.In Proceedings of the 26th annual conference on Computer graphics andinteractive techniques,pages 187-194,1999.)等,在这些高度局限且复杂的模型上来完成动作迁移视频的生成。当应用场景转变时,这类经典方法难以迁移到新的数据集上。随着自动编码器,对抗生成网络等深度模型(David Berthelot,Thomas Schumm,and LukeMetz.Be-gan:Boundary equilibrium generative adversarial networks.arXivpreprint arXiv:1703.10717,2017.)的兴起,这类模型也被用于视频生成任务上,但这些方法并不能灵活的控制生成视频人物的动作以及外观。
另一方面,也有方法(Siarohin A,Lathuilière S,Tulyakov S,et al.Animatingarbitrary objects via deep motion transfer[C]Proceedings of the IEEE/CVFConference on Computer Vision and Pattern Recognition.2019:2377-2386.)利用预测动作光流并对源视频人物进行扭曲操作来实现动作的迁移,但在动作变换较大的情况下,该类方法容易产生出动作不真实、动作区域较模糊、视觉上不自然的动作迁移视频。
因此,如何在不需要复杂人体模型的情况下,实现大幅度动作迁移,是目前亟待解决的问题。
发明内容
本发明的目的是提供一种视频动作迁移深度学习***和方法,提取源图像关键点信息、参考图像关键点信息、源图像深度特征和参考图像深度特征,分别对源图像深度特征、参考图像深度特征进行量化,得到源图像全局量化特征、参考图像全局量化特征,在源图像全局量化特征基础上,对参考图像深度特征进行再次量化,得到参考图像局部量化特征,在参考图像全局量化特征基础上,对源图像深度特征进行再次量化,得到源图像局部量化特征,将源图像人物关键点坐标、源图像全局量化特征、参考图像局部量化特征进行预测,得到目标图像量化特征,对目标图像量化特征进行解码,得到目标图像。根据人体关键点信息、量化特征重建图像,保证目标图像的清晰度及分辨率。
第一方面,本发明的上述发明目的通过以下技术方案得以实现:
一种视频动作迁移深度学习***,包括分别与***控制部连接的人物视频数据预处理部、视频特征量化部、视频特征重组部、动作迁移视频生成部,人物视频数据预处理部用于对源图像数据、参考图像数据进行预处理,提取源图像中源关键点信息和参考图像中参考关键点信息;视频特征量化部用于分别提取源图像、参考图像的深度特征,并进行特征量化操作,获得源图像量化特征、参考图像量化特征;视频特征重组部用于根据源关键点、源图像量化特征、参考图像量化特征,预测出目标图像的量化特征;动作迁移视频生成部用于根据目标图像的量化特征,输出目标图像,***控制部用于存储程序并进行控制。
本发明进一步设置为:还包括分别与***控制部连接的输入控制部、视频显示部、***通信部,***通信部用于不同结构部之间的数据交互,输入控制部用于提供图像数据输入,视频显示部用于输出目标图像的动作视频。
第二方面,本发明的上述发明目的通过以下技术方案得以实现:
一种视频动作迁移深度学习方法,建立视频动作迁移模型,从同一段视频中抽取二个不同帧图像作为源图像与参考图像,进行预处理,分别提取源图像的源关键点信息、参考图像的参考关键点信息、源图像深度特征、参考图像深度特征,分别对源图像深度特征、参考图像深度特征进行量化,得到源图像量化特征、参考图像量化特征,根据源关键点信息、参考关键点信息、源图像量化特征、参考图像量化特征进行预测,得到目标图像量化特征,根据目标图像量化特征生成目标图像;基于视频动作迁移模型的各参数,对不同来源的迁移源图像与迁移参考图像,采用与建模相同的过程,进行动作迁移。
本发明进一步设置为:对源图像深度特征进行量化,得到源图像全局量化特征,对参考图像深度特征进行量化,得到参考图像全局量化特征;基于参考图像全局量化特征,对源图像深度特征进行再次量化,得到源图像局部量化特征;基于源图像全局量化特征,对参考图像深度特征进行再次量化,得到参考图像局部量化特征。
本发明进一步设置为:计算源图像深度特征中的每个特征在参考图像全局量化特征中的最小欧式距离,得到源图像局部量化特征;计算参考图像深度特征中的每个特征在源图像全局量化特征中的最小欧式距离,得到参考图像局部量化特征。
本发明进一步设置为:根据源关键点信息、参考关键点信息、源图像全局量化特征、参考图像局部量化特征进行预测,得到目标图像量化特征。
本发明进一步设置为:将源关键点信息、参考关键点信息映射为维度特征,得到关键点特征序列,根据源图像全局量化特征、参考图像局部量化特征分别建立索引序列,基于关键点特征序列、索引序列,在特征重组网络中,采用掩码方式,获得掩码后的最高概率值,建立目标图像的索引序列,在源图像索引序列中预测目标图像量化特征索引。
本发明进一步设置为:计算目标图像量化特征索引概率分布值与参考图像局部量化特征索引损失,得到第二损失函数,优化特征重组网络。
本发明进一步设置为:建立全局特征库、编码器、解码器,利用编码器分别提取源图像深度特征、参考图像深度特征,利用全局特征库分别对源图像深度特征、参考图像深度特征进行量化,利用解码器对目标图像量化特征进行解码,生成目标图像。
本发明进一步设置为:根据图像数据设置全局特征库并初始化,以深度特征与量化特征之间的最小欧式距离优化全局特征库;采用PatchGAN区分生成图像与真实图像,采用第一损失函数同时对编码器、解码器、全局特征库进行训练,第一损失函数包括对抗损失与量化重组损失。
本发明进一步设置为:编码器包括卷积层、残差模块、下采样模块、自注意力模块、激活函数,用于对原始图像的像素特征进行整合变换,并进行映射,得到中间特征图,解码器与编码器对称,包括卷积层、残差模块、上采样模块、自注意力模块、激活函数,用于对目标图像量化特征进行解码。
本发明进一步设置为:对源图像与参考图像进行预处理,包括调整图像大小、利用预训练模型和数据增强方法,获取源图像人物关键点坐标和参考图像人物关键点坐标。
第三方面,本发明的上述发明目的通过以下技术方案得以实现:
一种视频动作迁移深度学习终端,包括存储器、处理器、以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本申请所述方法。
第四方面,本发明的上述发明目的通过以下技术方案得以实现:
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被所述处理器执行时实现本申请所述方法。
与现有技术相比,本申请的有益技术效果为:
1.本申请通过对源图像与参考图像的深度特征进行量化,并结合关键点信息预测目标图像的量化特征,解码后生成目标图像,简化了动作迁移的过程,提高了目标图像的清晰度和分辨率;
2.进一步地,本申请通过引入损失函数,保证了数据处理时更真实,提高了动作迁移的效果;
3.进一步地,本申请通过提取人体关键点信息作为特征重组网络的条件,能够有效地完成姿态变化较大的动作迁移。
附图说明
图1是本申请的一个具体实施例的迁移深度学习***结构示意图;
图2是本申请的一个具体实施例的迁移深度学习建模流程结构示意图;
图3是本申请的一个具体实施例的特征量化流程结构示意图;
图4是本申请的一个具体实施例的特征重组流程结构示意图。
具体实施方式
以下结合附图对本发明作进一步详细说明。
具体实施例一
本申请的一种视频动作迁移深度学习***,如图1所示,包括人物视频数据预处理部、视频特征量化部、视频特征重组部、动作迁移视频生成部、***控制部、输入控制部、视频显示部、***通信部,人物视频数据预处理部、视频特征量化部、视频特征重组部、动作迁移视频生成部、输入控制部、视频显示部、***通信部各部分别与***控制部连接。
人物视频数据预处理部,用于对源图像数据、参考图像数据进行预处理,提取源图像中源关键点信息和参考图像中参考关键点信息,包括源图像中源人物关键点坐标信息、参考图像中参考人物关键点坐标信息。
视频特征量化部,用于分别提取源图像的深度特征、参考图像的深度特征,并分别进行特征量化操作,获得源图像量化特征、参考图像量化特征,源图像量化特征包括源图像全局量化特征、源图像局部量化特征,参考图像量化特征包括参考图像全局量化特征、参考图像局部量化特征。
视频特征重组部用于根据源关键点、源图像量化特征、参考图像量化特征,预测出目标图像的量化特征;包括用源人物关键点坐标、参考人物关键点坐标、源图像全局量化特征、参考图像局部量化特征进行重组,得到源人物的动作迁移目标图像量化特征。或用源人物关键点坐标、参考人物关键点坐标、参考图像全局量化特征、源图像局部量化特征进行重组,得到参考人物的动作迁移目标图像量化特征。
动作迁移视频生成部用于根据目标图像的量化特征,输出目标图像,***控制部用于存储程序并进行控制。
对源视频中的所有图像、参考视频中的所有图像进行图像深度特征提取与关键点信息提取,并进行特征量化与重组,得到目标图像的视频量化特征,生成目标视频。
***通信部用于不同结构部之间的数据交互,输入控制部用于提供视频、图像数据输入,视频显示部用于输出目标图像的动作视频,或目标视频。
具体实施例二
视频是由一帧帧图像组成的,为了简单起见,本申请以图像进行动作迁移说明,对于视频的动作迁移,以此类推,不再赘述。
本申请的一种视频动作迁移深度学习方法,如图2所示,建立视频动作迁移模型,对各步骤中的参数进行更新,包括以下步骤:
S1、开始;
S2、接收视频数据,从视频数据中截取不同帧图像,分别作为源图像、参考图像;
S3、对源图像、参考图像进行预处理,得到源图像中源关键点信息、参考图像中参考关键点信息;
S4、分别提取源图像、参考图像深度特征,对深度特征进行量化,得到全局量化特征与局部量化特征;
S5、根据关键点信息、全局量化特征、局部量化特征,进行特征重组,预测目标图像的量化特征;
S6、根据目标图像量化特征,生成目标图像;
S7、显示目标图像;
S8、结束。
在提取深度特征及对特征量化前,建立全局特征库、编码器、解码器,全局特征库用于对深度特征进行量化,编码器用于提取深度特征,解码器用于对量化特征进行解码,生成目标图像。
根据图像数据的大小、复杂程度,设置全局特征库,基于第一损失函数,分别更新编码器、解码器、全局特征库的参数。
第一损失函数
Figure BDA0003446934190000091
包括对抗损失
Figure BDA0003446934190000092
与量化重组损失
Figure BDA0003446934190000093
Figure BDA0003446934190000094
Figure BDA0003446934190000095
Figure BDA0003446934190000096
式中,xs表示源图像,
Figure BDA0003446934190000097
表示经编码器、解码器重构后的重构源图像,xt表示参考图像,
Figure BDA0003446934190000098
表示经编码器、解码器重构后的重构参考图像,zs表示源图像的深度特征,
Figure BDA0003446934190000099
表示源图像的局部量化特征,zt表示参考图像的深度特征,
Figure BDA00034469341900000910
表示参考图像的局部量化特征,
Figure BDA00034469341900000911
为衡量特征存储模块中的特征与源图像深度特征、参考图像深度特征之间差异的损失函数。
β表示平衡系数,取值范围为:[0,1]。
sg表示梯度停止操作,用于更新编码器参数和全局特征库。
利用对抗损失,提高经编码器、解码器重建出的图像的真实性,使用PatchGAN区分生成图像与真实图像。量化重组损失,用于衡量图像量化特征排列重组之后的质量好坏,利用量化重组损失更新全局特征库中的特征。
编码器包括卷积层、残差模块、下采样模块、自注意力模块、激活函数,解码器与编码器对称设置,包括卷积层、残差模块、上采样模块、自注意力模块、激活函数。
对编码器与解码器训练时,采用第一损失函数和引入PatchGAN,提高重建图像的真实性。
从同一视频中得到的源图像与参考图像,调整尺寸,使用预训练模型分别提取关键点信息,从源图像中提取源关键点信息,从参考图像中提取参考关键点信息。引入图像随机翻转的数据增强方式,提高模型的训练效果。
利用编码器,分别得到源图像S的深度特征zs、参考图像T的深度特征zt。源图像S的深度特征zs、参考图像T的深度特征zt的维度都是H×W×C。
如图3所示,从全局特征库中查找与深度特征最接近的库深度特征,作为全局量化特征,全局量化特征的维度仍是H×W×C。源图像的全局量化特征标记为Zs,参考图像的全局量化特征标记为Zt
从全局量化特征中,再进行局部量化,得到局部量化特征,具体地,从源图像全局量化特征Zs中,查找与参考图像深度特征zt最接近的量化特征,作为参考图像局部量化特征
Figure BDA0003446934190000101
对应地,从参考图像全局量化特征Zt中,查找与源图像深度特征zs最接近的量化特征,作为源图像局部量化特征
Figure BDA0003446934190000102
从全局特征库中查找与深度特征最接近的H×W个维度为C的库深度特征,作为全局量化特征,分别表示如下:
Figure BDA0003446934190000111
Figure BDA0003446934190000112
式中,qk表示全局特征库q中的第k个库深度特征,(i,j)、分别表示深度特征图上的坐标;
Figure BDA0003446934190000113
表示参考图像深度特征图上第i行第j列对应的深度特征。
Figure BDA0003446934190000114
Figure BDA0003446934190000115
式中,zk表示全局量化特征中的第k个量化特征;(i,j),分别表示深度特征图上的坐标;
Figure BDA0003446934190000116
表示源图像深度特征图上第i行第j列对应的深度特征。
建立特征重组网络,根据源关键点信息、参考关键点信息、全局量化特征、局部量化特征进行重组,预测出目标图像
Figure BDA0003446934190000117
的量化特征,如图4所示。
固定编码器与解码器参数,采用含有ReLU激活函数的3层全连接网络,将关键点信息中的关键点坐标,映射为维度特征
Figure BDA0003446934190000118
得到关键点特征序列
Figure BDA0003446934190000119
将源图像全局量化特征Zs∈RH×W×C,转化为源图像全局量化特征索引序列
Figure BDA0003446934190000121
参考图像局部量化特征
Figure BDA0003446934190000122
,转化为参考图像局部量化特征索引序列
Figure BDA0003446934190000123
以关键点特征序列
Figure BDA0003446934190000124
作为条件信息,根据源图像全局量化特征索引序列
Figure BDA0003446934190000125
参考图像局部量化特征索引序列
Figure BDA0003446934190000126
预测目标图像
Figure BDA0003446934190000127
的量化特征索引序列
Figure BDA0003446934190000128
Figure BDA0003446934190000129
式中,t[s]为一个可学习的开始索引,s为源图像全局量化特征索引序列的全体索引,c为关键点特征序列的全体特征,t<j为参考图像局部量化特征索引序列的前j-1个索引。
Figure BDA00034469341900001210
为目标图像量化特征索引序列的第j个索引。在生成目标图像
Figure BDA00034469341900001211
的量化特征索引
Figure BDA00034469341900001212
时,从全局特征库中先筛选出源图像的量化特征索引
Figure BDA00034469341900001213
Figure BDA00034469341900001214
中的范围内预测目标图像量化特征索引
Figure BDA00034469341900001215
在本申请的一个具体实施例中,在特征重组网络最后的Softmax层,采用掩码的方式,遮盖掉不属于
Figure BDA00034469341900001216
范围内的索引预测概率值,根据掩码后的最高概率值获得目标图像的索引序列。以Softmax层采用掩码的方式,完成源图像量化特征重组,从源图像全局量化特征,生成目标图像
Figure BDA00034469341900001217
的量化特征。
利用目标图像量化特征索引概率分布值与参考图像局部量化特征索引标签,计算第二损失函数,更新特征重组网络。
第二损失函数为:
Figure BDA0003446934190000131
式中,s为源图像全局量化特征索引序列的全体索引,c为关键点特征序列的全体特征,
Figure BDA0003446934190000132
为目标图像量化特征索引序列的全体索引。
将预测出的目标图像量化特征,通过解码器进行解码,得到目标图像
Figure BDA0003446934190000133
经过以上步骤,完成了视频动作迁移模型的建立,确定了视频动作迁移模型中的参数。
在本申请的一个具体实施例中,编码器包括2个卷积层、7个残差模块、4个下采样模块、2个自注意力模块、Swish激活函数。解码器包括2个卷积层、7个残差模块、4个上采样模块、2个自注意力模块、Swish激活函数。
从全局特征库中,查找最接近的深度特征,是计算库深度特征与选中的深度特征之间的欧氏距离,以欧氏距离最小者为最接近深度特征。从全局量化特征中,查找最接近的深度特征,也是计算全局量化特征中的深度特征与选中的深度特征之间的欧氏距离,以欧氏距离最小者为最接近深度特征。
特征重组网络包括架构为GPT2的多层Transformer网络,设置每一层的特征嵌入维度,在每一层的多头注意力机制中,设置注意力多头数量,如设置12层的Transformer网络,设置特征嵌入维度为768,注意力多头数量为12。
基于视频动作迁移模型参数,对不同来源的迁移源图像、迁移参考图像,按照建立视频动作迁移模型的步骤,进行预处理,分别得到迁移源图像的关键点信息、迁移参考图像的关键点信息,基于编码器,得到迁移源图像深度特征、迁移参考图像深度特征,基于全局特征库,分别对深度特征进行量化,得到迁移源图像全局量化特征、迁移参考图像全局量化特征,基于迁移源图像全局量化特征,对迁移参考图像深度特征进行再次量化,得到迁移参考图像局部量化特征,将迁移源图像的关键点信息、迁移参考图像的关键点信息、迁移源图像全局量化特征、迁移参考图像局部量化特征输入特征重组网络,进行重组,得到迁移目标图像的量化特征,利用解码器进行解码,得到迁移目标图像。
对一段迁移源视频、迁移参考视频中的各帧图像重复进行以上操作,得到迁移目标视频。
具体实施例三
本发明一实施例提供的一种视频动作迁移深度学习***终端设备,该实施例的终端设备包括:处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,例如图像预处理模型计算程序,所述处理器执行所述计算机程序时实现实施例1、2中的方法。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述视频动作迁移深度学习***终端设备中的执行过程。例如,所述计算机程序可以被分割成多个模块,各模块具体功能如下:
1.图像预处理模块,用于对图像进行预处理;
2.量化模块,用于对图像的深度特征进行量化;
3.重组模块,用于生成目标图像的量化特征;
4.生成模块,用于生成目标图像。
所述视频动作迁移深度学习***终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述视频动作迁移深度学习***终端设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述上述示例仅仅是所述视频动作迁移深度学习***终端设备的示例,并不构成对所述视频动作迁移深度学习***终端设备的限定,可以包括更多或更少的部件,或组合某些部件,或不同的部件,例如所述视频动作迁移深度学习***终端设备还可以包括网络接入设备、总线等。
所述处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数据信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述一种视频动作迁移深度学习***终端设备的控制中心,利用各种接口和线路连接整个所述一种视频动作迁移深度学习***终端设备的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述一种视频动作迁移深度学习***终端设备的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘、智能存储卡(SmartMediaCard,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(FlashCard)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
具体实施例四
所述一种视频动作迁移深度学习***终端设备集成的模块/单元,如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、电载波信号、电信信号以及软件分发介质等。
本具体实施方式的实施例均为本发明的较佳实施例,并非依此限制本发明的保护范围,故:凡依本发明的结构、形状、原理所做的等效变化,均应涵盖于本发明的保护范围之内。

Claims (14)

1.一种视频动作迁移深度学习***,其特征在于:包括分别与***控制部连接的人物视频数据预处理部、视频特征量化部、视频特征重组部、动作迁移视频生成部,人物视频数据预处理部用于对源图像数据、参考图像数据进行预处理,提取源图像中源关键点信息和参考图像中参考关键点信息;视频特征量化部用于分别提取源图像、参考图像的深度特征,并进行特征量化操作,获得源图像量化特征、参考图像量化特征;视频特征重组部用于根据源关键点、源图像量化特征、参考图像量化特征,预测出目标图像的量化特征;动作迁移视频生成部用于根据目标图像的量化特征,输出目标图像,***控制部用于存储程序并进行控制。
2.根据权利要求1所述视频动作迁移深度学习***,其特征在于:还包括分别与***控制部连接的输入控制部、视频显示部、***通信部,***通信部用于不同结构部之间的数据交互,输入控制部用于提供图像数据输入,视频显示部用于输出目标图像的动作视频。
3.一种视频动作迁移深度学习方法,其特征在于:建立视频动作迁移模型,从同一段视频中抽取二个不同帧图像作为源图像与参考图像,进行预处理,分别提取源图像的源关键点信息、参考图像的参考关键点信息、源图像深度特征、参考图像深度特征,分别对源图像深度特征、参考图像深度特征进行量化,得到源图像量化特征、参考图像量化特征,根据源关键点信息、参考关键点信息、源图像量化特征、参考图像量化特征进行预测,得到目标图像量化特征,根据目标图像量化特征生成目标图像;基于视频动作迁移模型的各参数,对不同来源的迁移源图像与迁移参考图像,采用与建模相同的过程,进行动作迁移。
4.根据权利要求3所述视频动作迁移深度学习方法,其特征在于: 对源图像深度特征进行量化,得到源图像全局量化特征,对参考图像深度特征进行量化,得到参考图像全局量化特征;基于参考图像全局量化特征,对源图像深度特征进行再次量化,得到源图像局部量化特征;基于源图像全局量化特征,对参考图像深度特征进行再次量化,得到参考图像局部量化特征。
5.根据权利要求4所述视频动作迁移深度学习方法,其特征在于:计算源图像深度特征中的每个特征在参考图像全局量化特征中的最小欧式距离,得到源图像局部量化特征;计算参考图像深度特征中的每个特征在源图像全局量化特征中的最小欧式距离,得到参考图像局部量化特征。
6.根据权利要求4所述视频动作迁移深度学习方法,其特征在于:根据源关键点信息、参考关键点信息、源图像全局量化特征、参考图像局部量化特征进行预测,得到目标图像量化特征。
7.根据权利要求6所述视频动作迁移深度学习方法,其特征在于:将源关键点信息、参考关键点信息映射为维度特征,得到关键点特征序列,根据源图像全局量化特征、参考图像局部量化特征分别建立索引序列,基于关键点特征序列、索引序列,在特征重组网络中,采用掩码方式,获得掩码后的最高概率值,建立目标图像的索引序列,在源图像索引序列中预测目标图像量化特征索引。
8.根据权利要求7所述视频动作迁移深度学习方法,其特征在于:计算目标图像量化特征索引概率分布值与参考图像局部量化特征索引损失,得到第二损失函数,优化特征重组网络。
9.根据权利要求3所述视频动作迁移深度学习方法,其特征在于:建立全局特征库、编码器、解码器,利用编码器分别提取源图像深度特征、参考图像深度特征,利用全局特征库分别对源图像深度特征、参考图像深度特征进行量化,利用解码器对目标图像量化特征进行解码,生成目标图像。
10.根据权利要求9所述视频动作迁移深度学习方法,其特征在于: 根据图像数据设置全局特征库并初始化,以深度特征与量化特征之间的最小欧式距离优化全局特征库;采用PatchGAN区分生成图像与真实图像,采用第一损失函数同时对编码器、解码器、全局特征库进行训练,第一损失函数包括对抗损失与量化重组损失。
11.根据权利要求9所述视频动作迁移深度学习方法,其特征在于:编码器包括卷积层、残差模块、下采样模块、自注意力模块、激活函数,用于对原始图像的像素特征进行整合变换,并进行映射,得到中间特征图,解码器与编码器对称,包括卷积层、残差模块、上采样模块、自注意力模块、激活函数,用于对目标图像量化特征进行解码。
12.根据权利要求3所述视频动作迁移深度学习方法,其特征在于:对源图像与参考图像进行预处理,包括调整图像大小、利用预训练模型和数据增强方法,获取源图像人物关键点坐标和参考图像人物关键点坐标。
13.一种视频动作迁移深度学习终端,包括存储器、处理器、以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于:所述处理器执行所述计算机程序时实现如权利要求1- 12任一所述方法。
14.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被所述处理器执行时实现如权利要求1-12任一所述方法。
CN202111660869.5A 2021-12-30 2021-12-30 一种视频动作迁移深度学习***和方法 Pending CN114399708A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111660869.5A CN114399708A (zh) 2021-12-30 2021-12-30 一种视频动作迁移深度学习***和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111660869.5A CN114399708A (zh) 2021-12-30 2021-12-30 一种视频动作迁移深度学习***和方法

Publications (1)

Publication Number Publication Date
CN114399708A true CN114399708A (zh) 2022-04-26

Family

ID=81228736

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111660869.5A Pending CN114399708A (zh) 2021-12-30 2021-12-30 一种视频动作迁移深度学习***和方法

Country Status (1)

Country Link
CN (1) CN114399708A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115994922A (zh) * 2023-03-23 2023-04-21 泉州装备制造研究所 运动分割方法、装置、电子设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115994922A (zh) * 2023-03-23 2023-04-21 泉州装备制造研究所 运动分割方法、装置、电子设备及存储介质
CN115994922B (zh) * 2023-03-23 2023-06-02 泉州装备制造研究所 运动分割方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
Li et al. Fast video object segmentation using the global context module
CN110782395B (zh) 图像处理方法及装置、电子设备和计算机可读存储介质
CN114973049B (zh) 一种统一卷积与自注意力的轻量视频分类方法
CN111860138A (zh) 基于全融合网络的三维点云语义分割方法及***
CN111460876A (zh) 用于识别视频的方法和装置
CN116634242A (zh) 语音驱动的说话视频生成方法、***、设备和存储介质
CN111462274A (zh) 一种基于smpl模型的人体图像合成方法及***
CN113780326A (zh) 一种图像处理方法、装置、存储介质及电子设备
CN117078790A (zh) 图像生成方法、装置、计算机设备和存储介质
CN113377914A (zh) 推荐文本生成方法、装置、电子设备和计算机可读介质
US20230351558A1 (en) Generating an inpainted image from a masked image using a patch-based encoder
CN112115744B (zh) 点云数据的处理方法及装置、计算机存储介质、电子设备
CN114399708A (zh) 一种视频动作迁移深度学习***和方法
CN117576248A (zh) 基于姿态引导的图像生成方法和装置
CN117453949A (zh) 一种视频定位方法以及装置
CN116403142A (zh) 视频处理方法、装置、电子设备及介质
CN116978057A (zh) 图像中人体姿态迁移方法、装置、计算机设备和存储介质
Levin et al. A Study on the Application of Using Hypernetwork and Low Rank Adaptation for Text-to-Image Generation Based on Diffusion Models
CN116310660B (zh) 一种增强样本的生成方法及装置
CN117593619B (zh) 图像处理方法、装置、电子设备及存储介质
CN118096961B (zh) 图像处理方法和装置
CN118229632A (zh) 显示屏缺陷检测方法、模型训练方法、装置、设备及介质
Yang et al. Instance-level image synthesis method based on multi-scale style transformation
CN113971948A (zh) 表示方法、语音识别方法、装置、电子设备
Zhang et al. An Improved Algorithm for Facial Image Restoration Based on GAN

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination