CN117173299A - 一种影视素材模拟生成***及方法 - Google Patents
一种影视素材模拟生成***及方法 Download PDFInfo
- Publication number
- CN117173299A CN117173299A CN202311192891.0A CN202311192891A CN117173299A CN 117173299 A CN117173299 A CN 117173299A CN 202311192891 A CN202311192891 A CN 202311192891A CN 117173299 A CN117173299 A CN 117173299A
- Authority
- CN
- China
- Prior art keywords
- virtual
- requirements
- requirement
- generating
- virtual camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 239000000463 material Substances 0.000 title claims abstract description 24
- 238000012805 post-processing Methods 0.000 claims abstract description 24
- 238000004088 simulation Methods 0.000 claims abstract description 16
- 230000000694 effects Effects 0.000 claims abstract description 11
- 238000009877 rendering Methods 0.000 claims abstract description 9
- 210000000988 bone and bone Anatomy 0.000 claims description 49
- 230000033001 locomotion Effects 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 22
- 230000009471 action Effects 0.000 claims description 16
- 238000005516 engineering process Methods 0.000 claims description 7
- 238000003860 storage Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 description 24
- 230000008859 change Effects 0.000 description 23
- 230000009466 transformation Effects 0.000 description 15
- 238000004422 calculation algorithm Methods 0.000 description 11
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 9
- 238000000605 extraction Methods 0.000 description 7
- 238000004519 manufacturing process Methods 0.000 description 7
- 238000012216 screening Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 239000002184 metal Substances 0.000 description 5
- 229910052751 metal Inorganic materials 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000010304 firing Methods 0.000 description 4
- 229910052742 iron Inorganic materials 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000011426 transformation method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 210000000629 knee joint Anatomy 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 210000002758 humerus Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 210000002303 tibia Anatomy 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本说明书实施例提供一种影视素材模拟生成***及方法,该方法包括:获取用户输入,用户输入包括场景需求、内容需求以及画面需求;根据场景需求和内容需求,生成至少一个目标虚拟对象,目标虚拟对象包括实现场景需求和内容需求所需的虚拟人、虚拟场景以及虚拟物体中的至少一个;根据画面需求,生成至少一个虚拟相机,并设置至少一个虚拟相机的拍摄参数;基于拍摄参数,通过至少一个虚拟相机对至少一个目标虚拟对象进行录制,生成至少一个画面序列;基于画面需求,对至少一个画面序列进行后期处理,生成至少一个影视素材,后期处理包括效果制作、渲染中至少一个;将至少一个影视素材反馈给用户。
Description
技术领域
本说明书涉及计算机技术领域,特别涉及一种影视素材模拟生成***及方法。
背景技术
虚拟视频在日常生活中可广泛应用于数字图像、智能媒体、教育、网课等领域,其中虚拟视频中包含虚拟人物、虚拟场景等。现有的虚拟人合成技术大多是生成单个特定角色,并在生成特定角色时,需要采集大量的人物数据,整体制作时间长、人力成本高。
针对上述问题,CN113192161B提出一种虚拟人形象视频生成方法,该申请的重点是基于虚拟人形象照和文本内容,即可生成生动形象的虚拟人物形象视频。但是并没有涉及虚拟影视素材的生成。
因此,希望提出一种影视素材模拟生成***及方法,可以根据用户需求自动生成虚拟影视素材,可以为视频制作提供大量的视频素材,提高视频制作的效率。
发明内容
本说明书一个或多个实施例提供一种影视素材模拟生成方法,包括:获取用户需求,所述用户需求包括场景需求、内容需求以及画面需求;根据所述场景需求和所述内容需求,生成至少一个目标虚拟对象,所述目标虚拟对象包括实现所述场景需求和所述内容需求所需的虚拟人、虚拟场景以及虚拟物体中的至少一个;根据所述画面需求,生成至少一个虚拟相机,并设置所述至少一个虚拟相机的拍摄参数;基于所述拍摄参数,通过所述至少一个虚拟相机对所述至少一个目标虚拟对象进行录制,生成至少一个画面序列;基于所述画面需求,对所述至少一个画面序列进行后期处理,生成至少一个影视素材,所述后期处理包括效果制作、渲染中至少一个;将所述至少一个影视素材反馈给用户。
本说明书一个或多个实施例提供影视素材模拟生成***,包括:获取模块,用于获取用户需求,所述用户需求包括场景需求、内容需求以及画面需求;第一生成模块,用于根据所述场景需求和所述内容需求,生成至少一个目标虚拟对象,所述目标虚拟对象包括实现所述场景需求和所述内容需求所需的虚拟人、虚拟场景以及虚拟物体中的至少一个;第二生成模块,用于根据所述画面需求,生成至少一个虚拟相机,并设置所述至少一个虚拟相机的拍摄参数;第三生成模块,用于基于所述拍摄参数,通过所述至少一个虚拟相机对所述至少一个目标虚拟对象进行录制,生成至少一个画面序列;后期处理模块,用于基于所述画面需求,对所述至少一个画面序列进行后期处理,生成至少一个影视素材,所述后期处理包括效果制作、渲染中至少一个;信息反馈模块,用于将所述至少一个影视素材反馈给用户。
本说明书一个或多个实施例提供一种计算机可读存储介质,所述存储介质存储计算机指令,当所述计算机指令被处理器执行时实现前述的影视素材模拟生成方法。
附图说明
本说明书将以示例性实施例的方式进一步说明,这些示例性实施例将通过附图进行详细描述。这些实施例并非限制性的,在这些实施例中,相同的编号表示相同的结构,其中:
图1是根据本说明书一些实施例所示的影视素材模拟生成***的模块图;
图2是根据本说明书一些实施例所示的影视素材模拟生成方法的示例性流程图;
图3是根据本说明书一些实施例所示的确定至少一个目标视频生成参数的示意图。
具体实施方式
为了更清楚地说明本说明书实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本说明书的一些示例或实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图将本说明书应用于其它类似情景。除非从语言环境中显而易见或另做说明,图中相同标号代表相同结构或操作。
应当理解,本文使用的“***”、“装置”、“单元”和/或“模块”是用于区分不同级别的不同组件、元件、部件、部分或装配的一种方法。然而,如果其他词语可实现相同的目的,则可通过其他表达来替换所述词语。
如本说明书和权利要求书中所示,除非上下文明确提示例外情形,“一”、“一个”、“一种”和/或“该”等词并非特指单数,也可包括复数。一般说来,术语“包括”与“包含”仅提示包括已明确标识的步骤和元素,而这些步骤和元素不构成一个排它性的罗列,方法或者设备也可能包含其它的步骤或元素。
本说明书中使用了流程图用来说明根据本说明书的实施例的***所执行的操作。应当理解的是,前面或后面操作不一定按照顺序来精确地执行。相反,可以按照倒序或同时处理各个步骤。同时,也可以将其他操作添加到这些过程中,或从这些过程移除某一步或数步操作。
图1是根据本说明书一些实施例所示的影视素材模拟生成***的模块图。
如图1所示,影视素材模拟生成***100可以包括获取模块110、第一生成模块120、第二生成模块130、第三生成模块140、后期处理模块150和反馈模块160。
获取模块110可以用于获取用户需求。
第一生成模块120可以用于根据场景需求和内容需求,生成至少一个目标虚拟对象。
在一些实施例中,第一生成模块120还可以用于制作人物模型;为人物模型绑定骨骼;根据绑定骨骼后的人物模型,基于运动技术设计人物模型的动作;生成虚拟人。
第二生成模块130可以用于根据画面需求,生成至少一个虚拟相机,并设置至少一个虚拟相机的拍摄参数。
第三生成模块140可以用于基于拍摄参数,通过至少一个虚拟相机对至少一个目标虚拟对象进行录制,生成至少一个画面序列。
在一些实施例中,第三生成模块140还可以用于根据用户操作指令,控制至少一个虚拟相机以至少一个拍摄参数对至少一个目标虚拟对象进行录制,生成至少一个画面序列。
后期处理模块150可以用于基于画面需求,对至少一个画面序列进行后期处理,生成至少一个影视素材,后期处理包括效果制作、渲染中至少一个。
反馈模块160可以用于将至少一个影视素材反馈给用户。
关于用户需求、场景需求、内容需求、目标虚拟对象、人物模型、绑定骨骼、运动技术、虚拟人、虚拟相机、拍摄参数、画面序列、用户操作指令、影视素材、后期处理等的更多内容可以参见图2及其相关描述。
需要注意的是,以上对于影视素材模拟生成***及其模块的描述,仅为描述方便,并不能把本说明书限制在所举实施例范围之内。可以理解,对于本领域的技术人员来说,在了解该***的原理后,可能在不背离这一原理的情况下,对各个模块进行任意组合,或者构成子***与其他模块连接。在一些实施例中,图1中披露的获取模块110、第一生成模块120、第二生成模块130、第三生成模块140、后期处理模块150和反馈模块160可以是一个***中的不同模块,也可以是一个模块实现上述的两个或两个以上模块的功能。例如,各个模块可以共用一个存储模块,各个模块也可以分别具有各自的存储模块。诸如此类的变形,均在本说明书的保护范围之内。
图2是根据本说明书一些实施例所示的影视素材模拟生成方法的示例性流程图。在一些实施例中,流程200可以由处理器执行。如图2所示,流程200包括以下步骤。
步骤210,获取用户需求。
用户需求可以指使用者根据视频制作的需求输入到影视素材模拟生成***的数据信息。
在一些实施例中,用户需求可以包括场景需求、内容需求以及画面需求。其中,场景需求可以指对视频场景的需求信息,例如场景需求可以为草原、湖泊等;内容需求可以指对视频内容的需求信息,例如内容需求可以为打铁花、动物捕食等;画面需求可以指对视频画面的需求信息,例如可以画面需求可以包括不同角度、亮度等。
在一些实施例中,处理器可以通过多种方式获取用户需求。例如,处理器可以通过获取模块获取用户输入的用户需求。
步骤220,根据场景需求和内容需求,生成至少一个目标虚拟对象。
目标虚拟对象可以指制作视频时所需要的虚拟对象。
在一些实施例中,目标虚拟对象可以包括实现场景需求和内容需求所需的虚拟人、虚拟场景以及虚拟物体中的至少一个。其中,虚拟人可以指虚拟的人物形象;虚拟场景可以指虚拟的场景环境;虚拟物体可以指虚拟的物品。
在一些实施例中,处理器可以根据场景需求和内容需求,通过多种方式生成目标虚拟对象。例如,处理器可以根据场景需求和内容需求,通过第一预设表生成目标虚拟对象。第一预设表可以包括不同的场景需求、内容需求及其对应的目标虚拟对象。第一预设表可以基于历史数据预设。
在一些实施例中,处理器可以制作人物模型;为人物模型绑定骨骼;根据绑定骨骼后的人物模型,基于运动技术设计人物模型的动作;生成虚拟人。
人物模型可以指3d数字化的人体或人物角色模型。
在一些实施例中,处理器可以通过多种方式制作人物模型。例如,处理器可以通过Maya、3ds Max等建模软件制作人物模型。
骨骼可以指人物模型的骨骼框架,用于支撑人物模型以及进行人物模型的运动。
在一些实施例中,骨骼可以使用建模软件中的相关功能与人物模型进行绑定。例如,Maya、3ds Max等建模软件中的骨骼绑定功能。
在一些实施例中,处理器可以在绑定骨骼的过程中,设置人物模型中一个或多个预设点位的骨骼影响权重集,预设点位的骨骼影响权重集包括一个或多个骨骼影响权重,骨骼影响权重表示预设点位受特定骨骼的影响程度。
预设点位可以指在人物模型上预设的关键部位。例如,预设点位可以为膝关节、肘关节等。
在一些实施例中,预设点位可以由人工预设获取。
骨骼影响权重集可以指骨骼影响权重的集合。骨骼影响权重可以指表征特定骨骼对预设点位的影响程度的参数。特定骨骼可以指与预设点位相连、相互作用的骨骼。示例性骨骼影响权重集可以为人物模型的肱骨、股骨以及胫骨对预设点位膝关节的影响权重的集合。
骨骼影响权重越大,表示蒙皮后特定骨骼对预设点位的影响程度越大,在一些实施例中,处理器可以设置对预设点位(如某一关节)拉伸程度更大的骨骼,具有更高的骨骼影响权重。
在一些实施例中,骨骼影响权重集可以根据需求人工预设获取。
在本说明的一些实施例中,在绑定骨骼的过程中,设置人物模型中一个或多个预设点位的骨骼影响权重集,可以更加精确地绑定骨骼,进而有利于后续基于运动技术设计人物模型的动作,减轻骨骼蒙皮后发生的形变。
运动技术可以指构建人物模型运动过程的相关技术。例如,运动技术可以为反向骨骼运动技术。
在一些实施例中,运动技术可以由人工预设获取。
在一些实施例中,处理器可以在骨骼绑定完成后,通过移动骨骼给角色模型设计动作。具体的移动方式可以基于人工预设获取。
在一些实施例中,运动技术可以包括动作捕捉技术。
动作捕捉技术可以指对人体或者其他运动物体在真实三维空间当中的运动轨迹进行记录并在虚拟的三维空间当中重建运动轨迹的技术。
在本说明书的一些实施例中,运动技术可以包括动作捕捉技术,使得人物模型的动作设计更加逼真,并且减少了工作量。
在一些实施例中,处理器可以通过多种方式生成虚拟人,例如,处理器可以将构建好的人物模型作为虚拟人。又例如,处理器可以使用Matehuman、iClone等相关软件生成虚拟人。
在本说明书的一些实施例中,生成至少一个目标虚拟对象包括制作人物模型、绑定骨骼以及基于运动技术设计人物模型的动作,生成虚拟人,使得目标虚拟对象更加逼真,能够更好地符合用户的需求。
步骤230,根据画面需求,生成至少一个虚拟相机,并设置至少一个虚拟相机的拍摄参数。
虚拟相机可以指模拟真实相机、用于拍摄目标虚拟对象的虚拟摄像头。
在一些实施例中,虚拟相机可以包括无人机、导轨摄像机。其中,无人机可以指以真实无人机视角进行拍摄的虚拟相机。其中,导轨摄像机可以指以真实轨道摄像机视角进行拍摄的虚拟相机。
在一些实施例中,处理器可以根据画面需求,通过多种方式生成至少一个虚拟相机。例如,处理器可以根据画面需求,通过第二预设表生成虚拟相机第二预设表可以包括不同的画面需求及其对应的虚拟相机。第二预设表可以基于历史数据预设。
拍摄参数可以指在拍摄过程中需要设置的参数。例如,帧率、分辨率、摄像机的拍摄距离、方向、运动速度等。
在一些实施例中,处理器可以通过多种方式设置至少一个虚拟相机的拍摄参数。例如,处理器可以通过获取用户输入的参数确定至少一个虚拟相机的拍摄参数。
步骤240,基于拍摄参数,通过至少一个虚拟相机对至少一个目标虚拟对象进行录制,生成至少一个画面序列。
在一些实施例中,处理器可以基于拍摄参数,通过多种方式基于至少一个虚拟相机对至少一个目标虚拟对象进行录制。例如,处理器可以基于拍摄参数,通过虚幻引擎的“MSC Screen&Camera Recorder”虚幻插件直接通过至少一个虚拟相机直接对至少一个目标虚拟对象进行录制。又例如,处理器还可以使用Xbox Game Bar、Bandicam等其它屏幕录制工具,基于拍摄参数通过至少一个虚拟相机对至少一个目标虚拟对象进行录制。
画面序列可以指在一个时间段内,由多个场景画面组合而成的连续场景画面的序列。例如,铁匠打铁花的连续场景画面的序列。
在一些实施例中,处理器可以实时或间隔预设时间保存虚拟相机录制的画面,生成至少一个画面序列。
在一些实施例中,处理器可以根据用户操作指令,控制至少一个虚拟相机以至少一个拍摄参数对至少一个目标虚拟对象进行录制,生成至少一个画面序列。
用户操作指令可以指用户输入的对虚拟相机进行操作的指令。
在一些实施例中,用户操作指令可以包括模式切换指令、水平移动指令、垂直移动指令、导轨定位指令、导轨旋转指令、虚拟相机旋转指令、虚拟相机速度控制指令中的一个或多个。
其中,模式切换指令可以指用于切换虚拟相机录制模式的指令。例如,将虚拟相机切换为无人机模式。
水平移动指令可以指用于控制虚拟相机进行水平移动的指令。垂直移动指令可以指用于控制虚拟相机进行垂直移动的指令。
导轨定位指令可以指用于控制导轨固定在预设位置的指令。导轨旋转指令可以指用于控制导轨进行旋转的指令。
虚拟相机旋转指令可以指控制虚拟相机进行旋转的指令。虚拟相机速度控制指令可以指控制虚拟相机移动速度的指令。
在一些实施例中,处理器可以通过多种方式获取用户操作指令。例如,处理器可以通过获取用户输入确定用户操作指令。
在一些实施例中,处理器可以根据用户操作指令,直接控制至少一个虚拟相机以至少一个拍摄参数对至少一个目标虚拟对象进行录制,生成至少一个画面序列。具体录制方式、生成画面序列方式可以参见前述相关内容。
在一些实施例中,处理器可以基于预设算法确定至少一个目标视频生成参数;基于至少一个目标视频生成参数中的每个目标视频生成参数,生成至少一个目标分镜头;将至少一个目标分镜头发送给用户。具体说明参见图3。
在本说明书的一些实施例中,根据用户操作指令,控制虚拟相机以至少一个拍摄参数对目标虚拟对象进行录制,生成画面序列,可以获得更加符合用户需求的画面序列,提升用户的使用体验。
步骤250,基于画面需求,对至少一个画面序列进行后期处理,生成至少一个影视素材。
后期处理可以指对画面进行修改、编辑和处理等的过程。
在一些实施例中,后期处理可以包括效果制作、渲染中至少一个。其中,效果制作可以指根据需求对画面添加特技效果的过程,例如,效果制作可以包括打铁花的烟花效果等。其中,渲染可以指根据需求对画面进行处理的过程,例如渲染可以包括颜色校正、合成、分割等。
影视素材可以指视频制作过程中所使用的视频素材文件。例如,影视素材可以为用户需要的狮子捕食的视频、打铁花的视频等。
在一些实施例中,处理器可以基于画面需求,通过多种方式对至少一个画面序列进行后期处理,生成至少一个影视素材。例如,处理器可以基于画面需求,通过第三预设表对至少一个画面序列进行后期处理,生成至少一个影视素材。第三预设表可以包括不同的画面需求及其对应的后期处理方式。第三预设表可以基于历史数据预设。
步骤260,将至少一个影视素材反馈给用户。
在一些实施例中,处理器可以通过多种方式将至少一个影视素材反馈给用户。例如,处理器可以通过网络将影视素材发送至用户客户端反馈给用户。
在本说明书的一些实施例中,获取用户输入需求,生成目标虚拟对象、虚拟相机,设置拍摄参数,通过虚拟相机对目标虚拟对象进行录制,生成画面序列,进行后期处理后生影视并反馈给用户,可以生成准确的、符合用户需求的拍摄素材,避免因真实拍摄的困难程度过高而无法取材的情况,使用户后续制作影视资料更加方便快捷,提升用户体验。
图3是根据本说明书一些实施例所示的确定至少一个目标视频生成参数的示意图。
在一些实施例中,处理器可以基于预设算法确定至少一个目标视频生成参数;基于至少一个目标视频生成参数中的每个目标视频生成参数,生成至少一个目标分镜头;将至少一个目标分镜头发送给用户。
预设算法可以指预先设定的用于确定目标视频生成参数的算法。例如,群智能优化算法中的遗传算法等。
视频生成参数可以指与视频制作过程相关的数据信息。目标视频生成参数可以指符合用户需求的视频对应的视频生成参数。例如,目标视频生成参数可以是目标虚拟对象拍摄视频的节点(如某一分镜头在视频整体播放过程中的时间节点1:00-1:05)、拍摄时长、拍摄特征等。其中,拍摄特征可以指拍摄相关的特征信息,例如预设角度特征(如90°俯拍等)、预设光线特征(如ISO值为200、光线色调为暖色调等)、预设对焦特征(如对焦模式为单次自动对焦等)等,不同的分镜头可以对应不同的拍摄特征。
在一些实施例中,处理器可以基于用户输入信息310,生成预设数量的个体320,每个个体包括至少一个候选视频生成参数的组合;执行多轮迭代330;基于多轮迭代的种群结果,确定至少一个目标视频生成参数360。
用户输入信息310可以指用户输入的与视频制作相关的数据信息。例如,用户输入信息310可以包括用户输入的目标主题、主题关键词及其顺序、章节描述、视频的参数倾向(如画面切换速度、光线强度等)、素材需求数量、剪辑难度等。其中,关键词可以包括表示元素的关键词(如镜头涉及的元素花棚架、工匠等)、表示动作的关键词(如镜头涉及的动作搭花棚、打铁花等)。主题关键词可以指与用户所需的视频主题相关的关键词,例如,目标主题为打铁花,则主题关键词可以为工匠、铁水、火花等。章节描述可以指目标主题的章节划分及包含的关键词。例如,目标视频为打铁花,章节描述可以为前期准备章节(包括关键词搭花棚、祭祀、烧铁水等)、中期进行章节(打铁花等)、后期收尾章节(铁水处理等)。剪辑难度可以指表征剪辑过程难易程度的参数,可以表示为离散值。
在一些实施例中,处理器可以通过获取用户输入确定用户输入信息310。
个体320可以指需要进行筛选的至少一个视频生成参数构成的整体。在一些实施例中,每个个体320可以包括至少一个候选视频生成参数的组合。在一些实施例中,候选视频生成参数可以包括预设角度特征、预设光线特特征、预设对焦特征。候选视频生成参数可以指待选择的视频生成参数。示例性的,个体可以为(a1,b1,…,n1),其中,a1,b1,…,n1等代表不同的候选视频生成参数。如图3所示,个体1可以包括个体1的第1个候选视频生成参数321-1,…,个体1的第n个候选视频生成参数321-n;…;个体n可以包括个体n的第1个候选视频生成参数322-1,…,个体n的第n个候选视频生成参数322-n。
在一些实施例中,处理器可以基于用户输入信息310,通过第四预设表生成预设数量的个体。第四预设表可以包括不同的用户输入信息及其对应的个体预设数量。第四预设表可以基于历史数据预设。个体中的候选视频生成参数可以通过随机生成、获取历史数据等方式获取。
在一些实施例中,多轮迭代中的一轮可以包括如下步骤:
S1、基于预设编码规则对初始个体进行编码处理,生成初始个体的编码形式;
S2、生成初始解空间;
S3、确定每个个体的适应度值;
S4、建立选择函数,基于体的适应度值对初始个体进行选择,确定至少一个第一个体;
S5、对选择的第一个体执行第一变换、第二变换、第三变换中的至少一个;
S6、对变换后的第一个体进行筛选,淘汰不理想个体;
S7、判断筛选后的第一个体是否满足预设筛选条件,如不满足,重复S1-S6;如满足,停止迭代。
具体说明如下:
S1、基于预设编码规则对初始个体进行编码处理,生成初始个体的编码形式。初始个体可以指未进行迭代的个体。预设编码规则可以用于表示每一个个体中的候选视频生成参数的对应关系。例如,按照预设编码规则对一个个体进行编码后得到的编码形式可以是(a1,b3,c4),其中的每个元素表示一个候选视频生成参数。
S2、生成初始解空间。开始迭代前,处理器可以将至少一个个体作为初始个体。其中,至少一个个体可以基于S1中的编码随机生成。
S3、确定每个个体的适应度值。
适应度可以指评估种群中个体优劣程度的参数。例如,适应度可以用于评估按照个体中候选视频生成参数生成候选分镜头的效果、用户需求符合程度等的优劣。例如,适应度可以是[0-1]之间的数值,数值越大,个体越优。
在一些实施例中,处理器可以对于每个个体,根据该个体包括的每个候选视频生成参数生成对应的候选分镜头(即每个个体对应至少一个候选分镜头的组合);根据每个个体对应的至少一个候选分镜头的组合,计算每个个体的适应度。
如图3所示,候选分镜头可以为个体1对应的候选分镜头341-1、…、个体n对应的候选分镜头341-2。适应度可以为个体1对应的适应度351-1、…、个体n对应的适应度351-2。
候选分镜头可以指候选视频生成参数对应的待选择的分镜头。
在一些实施例中,处理器可以基于候选视频生成参数,通过多种方式生成对应的候选分镜头。例如,处理器可以将候选视频生成参数输入虚幻引擎中摄像机录制的参数面板,录制生成对应的候选分镜头。
在一些实施例中,处理器可以根据每个个体对应的至少一个候选分镜头的组合,通过多种方式计算每个个体的适应度。例如,处理器可以通过机器学习模型对候选分镜头的组合进行处理,输出每个个体的适应度。机器学习模型的训练方式可以为有监督训练,训练数据可以基于历史数据获取。
在一些实施例中,处理器可以基于每个个体对应的至少一个候选分镜头的组合,确定视频主题分布;基于视频主题分布确定主题相关度;基于主题相关度确定每个个体的适应度。
视频主题分布可以指分镜头对应的关键词分布的相关信息。例如,视频主题分布可以为[(关键词1:出现频率1);(关键词2:出现频率2),...,(关键词n:出现频率n)]。其中,出现频率可以为某一关键词的出现次数与所有关键词出现总次数的比值。
在一些实施例中,处理器可以基于每个个体对应的至少一个候选分镜头的组合,通过多种方式确定视频主题分布。例如,处理器可以基于候选分镜头的画面,匹配关键词库中的关键词,确定候选分镜头对应的关键词。关键词库及具体的匹配方式可以根据历史数据或基于经验预设确定。处理器可以统计至少一个候选分镜头的组合中所有候选分镜头对应的关键词,计算关键词对应的出现频率,确定视频主题分布。
在一些实施例中,处理器可以基于至少一个候选分镜头,通过关键词对提取模型确定关键词对;统计至少一个候选分镜头对应的关键词对,确定视频主题分布。
关键词对提取模型可以为确定候选分镜头对应的关键词对的模型。在一些实施例中,关键词对提取模型可以为机器学习模型,例如,神经网络模型(Neural Network,NN)模型、循环神经网络(RecurrentNeural Network,RNN)模型、卷积神经网络(ConvolutionalNeuralNetworks,CNN)等。
在一些实施例中,关键词对提取模型的输入可以是候选分镜头,关键词对提取模型的输出可以是关键词对。关键词对可以指包括至少一个关键词的组合。例如,关键词对可以包括多个表示元素的关键词和表示动作的关键词。示例性的关键词对可以包括花棚架、工匠为元素、搭花棚为动作。
在一些实施例中,关键词对提取模型可以通过多个带有第一标签的第一训练样本训练得到。第一训练样本可以包括样本候选分镜头,第一标签可以包括前述样本数据对应的关键词对。第一训练样本可以基于历史数据获取,第一标签可以通过人工标注的方式确定。
在一些实施例中,人工标注时可以标注目标主题中各节点内容,通过分镜头对应的视频生成参数中的截取时间节点及拍摄参数,确定关键词对。例如,目标主题为打火花,人工标注时只需要标注打火花的各工序动作(例如搭花棚、烧铁水等)、打火花的参与元素(工匠、铁水、火花等),通过候选分镜头对应的候选视频生成参数中截取时间节点为1:00-1:05的片段,确定对应的目标虚拟对象处于搭花棚动作,再基于拍摄参数为90°俯拍,镜头范围x轴:10~20,y轴:20~30,确定对应的目标虚拟对象坐标区域的内容是花棚顶,则关键词对自动标注为:搭花棚,花棚顶。
在一些实施例中,处理器可以统计所有候选分镜头对应的关键词对,分别确定所有关键词对中关键词的出现频率,确定视频主题分布。
在本说明书的一些实施例中,通过关键词对提取模型确定关键词对,统计确定视频主题分布,可以智能化考虑到影响关键词对确定的多种因素,使视频主题分布的确定过程高效、准确。
主题相关度可以指表征候选分镜头与用户所需视频主题相关程度的参数。例如,主题相关度可以为用户输入信息中主题关键词在视频主题分布中对应的出现频率。
在一些实施例中,处理器可以将用户输入信息中主题关键词与视频主题分布中所有的候选分镜头对应的关键词进行对比,确定其对应的出现频率作为主题相关度。
在一些实施例中,处理器可以基于主题相关度,通过多种方式确定每个个体的适应度。例如,处理器可以将主题相关度直接作为个体的适应度。
在一些实施例中,适应度还相关于主题相关度、视频生成参数等参数,处理器可以通过预设策略确定每个个体的适应度。
预设策略可以指预先设定的用于确定个体的适应度的算法规则。在一些实施例中,预设策略可以为适应度是适应度值分量1、适应度值分量2、适应度值分量3、适应度值分量4和适应度值分量5之和。
其中,适应度值分量1相关于主题相关度。例如,适应度值分量1=k1*主题相关度,k1为第一预设系数。主题相关度的获取方式可以参考前文相关内容,此处不再赘述。
适应度值分量2相关于相似镜头间角度变化程度。相似镜头可以指同一关键词下的镜头。相似镜头间角度变化程度可以指表征相似镜头间的拍摄角度的变化程度的参数。
在一些实施例中,处理器可以将相似镜头随机或按照预设顺序排列,计算获取相邻两个镜头的拍摄角度变化程度。例如,适应度值分量2=k2*sum{关键词i的频率*关键词i的相似镜头角度平均变化率},k2为第二预设系数,相似镜头角度平均变化率=avg{(镜头i+1拍摄角度-镜头i拍摄角度)/镜头i拍摄角度}。
适应度值分量3相关于候选分镜头的关键词在关键词库的覆盖率。例如,适应度值分量3=k3*覆盖率,k3为第三预设系数。
在一些实施例中,覆盖率=关键词数量/关键词库中所有关键词数量。处理器可以基于候选分镜头对应的关键词和关键词库,计算获取覆盖率。在一些实施例中,覆盖率还可以进一步表示为覆盖率=w1*表示动作的关键词的数量/词库中表示动作的关键词的数量+w2*表示元素的关键词的数量/词库中表示元素的关键词的数量,w1,w2可以基于经验预设。
在一些实施例中,处理器可以根据元素、动作的主次关系决定w1,w2,比如打火花的专题视频专注在动作上,则对于元素关键词的覆盖率要求可以相应的降低,即设置w1>w2。
适应度值分量4相关于剪辑难度。例如,适应度值分量4=k4*剪辑难度,k4为第四预设系数。
在一些实施例中,适应度可以相关于剪辑难度,处理器可以基于平滑程度分布确定剪辑难度。
平滑程度可以指表征相邻分镜头之间衔接平滑的程度的参数。平滑程度分布可以指分镜头的平滑程度评分整体分布情况。
在一些实施例中,处理器可以基于相邻关键词的镜头角度平均变化率确定平滑程度分布。相邻关键词可以指存在衔接关系的关键词,例如,目标主题为打火花时,关键词库中相邻关键词可以为相邻工序动作搭花棚和烧铁水。每个关键词存在对应的镜头角度平均变化率(可以基于经验预设),处理器可以根据平均变化率确定镜头角度范围,进而确定角度变化,再基于预设评分对应表确定镜头的平滑程度评分及分布。预设评分对应表中记录有不同的角度变化范围及其对应的平滑程度评分。关于镜头角度平均变化率的更多内容可以参见前述相似镜头角度平均变化率的相关描述。
示例性的,关键词及其相邻情况为关键词1、关键词2、关键词3、关键词4,平均变化率为V1、V2、V3、V4,由平均变化率=avg{(镜头i+1拍摄角度-镜头i拍摄角度)/镜头i拍摄角度},可以分别计算得到角度范围为平均变化率与关键词对应的镜头拍摄角度的乘积,表示为a1、a2、a3、a4,计算镜头角度范围之间的差值,得到角度变化为b1、b2、b3;预设评分对应表中记录有4个不同角度变化范围及其对应的平滑程度评分c1、c2、c3、c4(排列顺序由小到大,c1对应的角度变化范围平滑程度最低,c4则最高),处理器可以将得到的角度变化与预设评分对应表中的角度变化范围进行对比,若某一角度变化处于某一角度变化范围,则可以确定其对应的平滑程度评分,分别对比角度变化b1、b2、b3,得到平滑程度评分为c3,c3,c1,则4个平滑程度评分c1、c2、c3、c4中对比角度变化b1、b2、b3分布于c1评分的有1项、c2评分的有0项、c3评分的有两2项、c4评分的有0项,分别占总项数的1/3、0、2/3、0,统计得出平滑程度分布为(1/3,0,2/3,0)。
在一些实施例中,处理器可以预设N种剪辑难度,每种剪辑难度对应一个特征向量,特征向量可以为与平滑程度分布相似的形式,可以由人工设定获取,也可以是根据历史数据进行聚类分析得到的聚类中心等。
处理器可以计算平滑程度分布与每种剪辑难度的特征向量的相似度,选择与该平滑程度分布相似度最高的剪辑难度作为其对应的剪辑难度。相似度可以指表示相似程度的参数。相似度可以通过计算向量之间的距离得到,距离越小,表示相似度越大,示例性的向量计算方式可以有欧氏距离等。
在本说明书的一些实施例中,通过剪辑难度基于平滑程度分布确定,可以使确定出的剪辑难度更加准确合理,避免人工设定的误差及效率低下。
适应度值分量5相关于章节比例评分。例如,适应度值分量5=k5*章节比例评分,k5为第五预设系数。章节比例可以指章节对应镜头时长比例。
在一些实施例中,处理器可以基于用户输入信息中的章节描述,确定每一章节所有关键词对应分镜头的总时长,确定为章节比例。示例性的章节比例可以为(章节1分镜头总时长:章节2分镜头总时长:...:章节n分镜头总时长)。
章节比例评分可以指评估章节比例的分数。在一些实施例中,处理器可以通过多种方式确定章节比例评分。例如,处理器可以通过第五预设表确定标准章节比例,再基于标准章节比例确定章节比例评分。第五预设表可以包括不同的章节数量及其对应的标准章节比例。第五预设表可以基于经验预设。处理器可以将章节比例与标准章节比例进行对比,章节比例与标准章节比例越接近,则该章节比例的评分越高。具体评分的确定方式可以基于经验预设。
在本说明书的一些实施例中,通过预设策略确定每个个体的适应度,可以充分考虑到影响视频的多个因素,确定准确、全面的个体的适应度。
在本说明书的一些实施例中,通过基于每个个体对应的至少一个候选分镜头的组合,确定视频主题分布、主题相关度;进而确定每个个体的适应度,可以考虑候选分镜头与用户所需目标主题的相关程度,将相关密切的个体的适应度设定越高,便于后续生成更符合用户实际需求的目标分镜头。
S4、建立选择函数,基于体的适应度值对初始个体进行选择,确定至少一个第一个体。对于第一轮迭代,初始个体为最初确定的至少一个候选视频生成参数。对于后续每一轮迭代,初始个体为上一轮迭代更新后的至少一个候选视频生成参数。
第一个体可以指从初始个体中选择的至少一个个体。其中,第一个体的数量小于初始个体的数量。第一个体的数量可以是预先设定的数量(例如,2)或比例(例如,10%)。
每一轮迭代中,处理器可以基于预设的选择算法根据初始个体的适应度,从初始个体确定第一个体。
预设的选择算法可以是各类选择算子。例如,预设的选择算法可以包括但不限于轮盘赌选择算子、期望值选择算子、均匀排序算子等。
在一些实施例中,处理器可以通过轮盘赌选择算子,基于初始个体中每一个个体被选择的概率确定第一个体。其中,每一个个体被选择的概率可以基于每一个个体的适应度确定。个体的适应度越大,该个体被选择的概率则越大。在一些实施例中,被选择的概率可以为某个个体的适应度值/所有初始个体的总适应度值。
S5、对选择的第一个体执行第一变换、第二变换、第三变换中的至少一个。
第一变换可以指交叉变换方法处理,即对至少两个第一个体中的一个或多个候选视频生成参数进行交换的处理方法。例如,第一个体1为(a1,b1,…,n1),个体2为(a2,b2,…,n2),处理器可以执行第一变换,生成第一变换后的第一个体1(a2,b1,…,n1),第一变换后的第一个体2(a1,b2,…,n2)。
在一些实施例中,处理器可以随机选择两个第一个体进行交叉变换;处理器可以随机生成两个互换位置为起点,截取长度为b的编码片段进行互换;对两个第一个体进进行交叉操作后生成a个第一变换后的第一个体。。
第二变换可以指变异变换方法处理,即对至少两个第一个体中的一个或多个候选视频生成参数直接进行变异的处理方法。例如,第一个体1为(a1,b1,…,n1),处理器可以执行第二变换,生成第二变换后的第一个体1(a1,b3,…,n1)。在一些实施例中,处理器可以将中经过第一变换后的第一个体,利用变异函数进行变异,变异概率可以基于经验预设。
第三变换可以指复制变换方法处理,即将一个或多个不同的第一个体中的一个或多个候选视频生成参数直接复制到另一个个体中的处理方法。例如,第一个体1为(a1,b1,…,n1),第一个体2为(a2,b2,…,n2),处理器可以执行第三变换,复制第一个体2中的第二项候选视频生成参数至第一个体1,生成第三变换后的第一个体1(a1,b2,…,n1)。在一些实施例中,处理器可以优先选择适应度高的第一个体进行变换。
S6、对变换后的第一个体进行筛选,淘汰不理想个体。
在一些实施例中,处理器可以基于变换后的第一个体的适应度,与预设迭代条件进行比对,若变换后的第一个体的适应度满足预设迭代条件,则将该第一个体作为进入下一轮迭代的个体,若变换后的第一个体的适应度不满足预设迭代条件,则将该第一个体淘汰。预设迭代条件可以根据经验提前设定,例如,预设迭代条件可以为适应度高于第一阈值。第一阈值可以基于经验设定。
在一些实施例中,处理器可以将S5中经过变换后生成的新的第一个体,替代S2中初始解空间中适应度值较小(排名靠后)的初始个体。
S7、判断筛选后的第一个体是否满足预设筛选条件,如不满足,重复S1-S6;如满足,停止迭代。
在一些实施例中,完成一轮迭代后,处理器可以基于预设筛选条件判断是否可以停止迭代,如满足预设筛选条件则判断可以停止迭代,否则,将前述确定的满足预设迭代条件的个体作为新一轮的个体开始新一轮的迭代。预设筛选条件可以包括预设迭代轮数达到n、得到的个体中有至少一个个体的适应度高于第二阈值等。第二阈值可以基于经验设定。
在一些实施例中,处理器可以基于多轮迭代的种群结果,通过多种方式确定至少一个目标视频生成参数360。例如,处理器可以将迭代后得到的个体按照适应度进行由大到小的排序,将适应度最高的个体对应的候选视频生成参数确定为目标视频生成参数。
目标分镜头可以指最终确定的符合用户需求的分镜头。
在一些实施例中,处理器可以基于至少一个目标视频生成参数360中的每个目标视频生成参数,通过多种方式生成至少一个目标分镜头。例如,处理器可以将每个目标视频生成参数输入虚幻引擎中摄像机录制的参数面板,录制生成对应的目标分镜头。
在一些实施例中,处理器可以通过多种方式将至少一个目标分镜头发送给用户。例如,处理器可以通过网络将目标分镜头发送至用户客户端反馈给用户。
在本说明书的一些实施例中,基于预设算法确定至少一个目标视频生成参数;基于至少一个目标视频生成参数中的每个目标视频生成参数,生成至少一个目标分镜头;将至少一个目标分镜头发送给用户,可以使得确定目标视频生成参数更快速、更高效,减少人工对视频生成参数调整带来的人力和时间的消耗,同时,有助于生成的目标分镜头更符合用户的实际需求。
本说明书一个或多个实施例还提供了一种计算机可读存储介质,该存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机执行如上述实施例中任一项所述的影视素材模拟生成方法。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披露仅仅作为示例,而并不构成对本说明书的限定。虽然此处并没有明确说明,本领域技术人员可能会对本说明书进行各种修改、改进和修正。该类修改、改进和修正在本说明书中被建议,所以该类修改、改进、修正仍属于本说明书示范实施例的精神和范围。
同时,本说明书使用了特定词语来描述本说明书的实施例。如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本说明书至少一个实施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不同位置两次或多次提及的“一实施例”或“一个实施例”或“一个替代性实施例”并不一定可以指同一实施例。此外,本说明书的一个或多个实施例中的某些特征、结构或特点可以进行适当的组合。
此外,除非权利要求中明确说明,本说明书所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本说明书流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本说明书实施例实质和范围的修正和等价组合。例如,虽然以上所描述的***组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的***。
同理,应当注意的是,为了简化本说明书披露的表述,从而帮助对一个或多个发明实施例的理解,前文对本说明书实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。但是,这种披露方法并不意味着本说明书对象所需要的特征比权利要求中提及的特征多。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
一些实施例中使用了描述成分、属性数量的数字,应当理解的是,此类用于实施例描述的数字,在一些示例中使用了修饰词“大约”、“近似”或“大体上”来修饰。除非另外说明,“大约”、“近似”或“大体上”表明所述数字允许有±20%的变化。相应地,在一些实施例中,说明书和权利要求中使用的数值参数均为近似值,该近似值根据个别实施例所需特点可以发生改变。在一些实施例中,数值参数应考虑规定的有效数位并采用一般位数保留的方法。尽管本说明书一些实施例中用于确认其范围广度的数值域和参数为近似值,在具体实施例中,此类数值的设定在可行范围内尽可能精确。
针对本说明书引用的每个专利、专利申请、专利申请公开物和其他材料,如文章、书籍、说明书、出版物、文档等,特此将其全部内容并入本说明书作为参考。与本说明书内容不一致或产生冲突的申请历史文件除外,对本说明书权利要求最广范围有限制的文件(当前或之后附加于本说明书中的)也除外。需要说明的是,如果本说明书附属材料中的描述、定义、和/或术语的使用与本说明书所述内容有不一致或冲突的地方,以本说明书的描述、定义和/或术语的使用为准。
最后,应当理解的是,本说明书中所述实施例仅用以说明本说明书实施例的原则。其他的变形也可能属于本说明书的范围。因此,作为示例而非限制,本说明书实施例的替代配置可视为与本说明书的教导一致。相应地,本说明书的实施例不仅限于本说明书明确介绍和描述的实施例。
Claims (10)
1.一种影视素材模拟生成方法,包括:
获取用户需求,所述用户需求包括场景需求、内容需求以及画面需求;
根据所述场景需求和所述内容需求,生成至少一个目标虚拟对象,所述目标虚拟对象包括实现所述场景需求和所述内容需求所需的虚拟人、虚拟场景以及虚拟物体中的至少一个;
根据所述画面需求,生成至少一个虚拟相机,并设置所述至少一个虚拟相机的拍摄参数;
基于所述拍摄参数,通过所述至少一个虚拟相机对所述至少一个目标虚拟对象进行录制,生成至少一个画面序列;
基于所述画面需求,对所述至少一个画面序列进行后期处理,生成至少一个影视素材,所述后期处理包括效果制作、渲染中至少一个;
将所述至少一个影视素材反馈给用户。
2.根据权利要求1所述的方法,所述根据所述场景需求和所述内容需求,生成至少一个目标虚拟对象包括:
制作人物模型;
为所述人物模型绑定骨骼;
根据绑定所述骨骼后的人物模型,基于运动技术设计所述人物模型的动作;
生成所述虚拟人。
3.根据权利要求2所述的方法,所述为所述人物模型绑定骨骼包括:
在绑定骨骼的过程中,设置所述人物模型中一个或多个预设点位的骨骼影响权重集,所述预设点位的所述骨骼影响权重集包括一个或多个骨骼影响权重,所述骨骼影响权重表示所述预设点位受特定骨骼的影响程度。
4.根据权利要求2所述的方法,所述运动技术包括动作捕捉技术。
5.根据权利要求1所述的方法,所述虚拟相机包括无人机、导轨摄像机,所述基于所述拍摄参数,通过所述至少一个虚拟相机对所述至少一个目标虚拟对象进行录制,生成至少一个画面序列包括:
根据用户操作指令,控制所述至少一个虚拟相机以所述至少一个拍摄参数对所述至少一个目标虚拟对象进行录制,生成所述至少一个画面序列;其中,所述用户操作指令包括模式切换指令、水平移动指令、垂直移动指令、导轨定位指令、导轨旋转指令、虚拟相机旋转指令、虚拟相机速度控制指令中的一个或多个。
6.一种影视素材模拟生成***,包括:
获取模块,用于获取用户需求,所述用户需求包括场景需求、内容需求以及画面需求;
第一生成模块,用于根据所述场景需求和所述内容需求,生成至少一个目标虚拟对象,所述目标虚拟对象包括实现所述场景需求和所述内容需求所需的虚拟人、虚拟场景以及虚拟物体中的至少一个;
第二生成模块,用于根据所述画面需求,生成至少一个虚拟相机,并设置所述至少一个虚拟相机的拍摄参数;
第三生成模块,用于基于所述拍摄参数,通过所述至少一个虚拟相机对所述至少一个目标虚拟对象进行录制,生成至少一个画面序列;
后期处理模块,用于基于所述画面需求,对所述至少一个画面序列进行后期处理,生成至少一个影视素材,所述后期处理包括效果制作、渲染中至少一个;
反馈模块,用于将所述至少一个影视素材反馈给用户。
7.根据权利要求6所述的***,所述第一生成模块进一步用于:
制作人物模型;
为所述人物模型绑定骨骼;
根据绑定所述骨骼后的人物模型,基于运动技术设计所述人物模型的动作;
生成所述虚拟人。
8.根据权利要求7所述的***,所述为所述人物模型绑定骨骼包括:
在绑定骨骼的过程中,设置所述人物模型中一个或多个预设点位的骨骼影响权重集,所述预设点位的所述骨骼影响权重集包括一个或多个骨骼影响权重,所述骨骼影响权重表示所述预设点位受特定骨骼的影响程度。
9.根据权利要求6所述的***,所述虚拟相机包括无人机、导轨摄像机,所述第三生成模块进一步用于:
根据用户操作指令,控制所述至少一个虚拟相机以所述至少一个拍摄参数对所述至少一个目标虚拟对象进行录制,生成所述至少一个画面序列;其中,所述用户操作指令包括模式切换指令、水平移动指令、垂直移动指令、导轨定位指令、导轨旋转指令、虚拟相机旋转指令、虚拟相机速度控制指令中的一个或多个。
10.一种计算机可读存储介质,所述存储介质存储计算机指令,当计算机读取存储介质中的计算机指令后,计算机执行如权利要求1-12中任意一项权利要求所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311192891.0A CN117173299A (zh) | 2023-09-15 | 2023-09-15 | 一种影视素材模拟生成***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311192891.0A CN117173299A (zh) | 2023-09-15 | 2023-09-15 | 一种影视素材模拟生成***及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117173299A true CN117173299A (zh) | 2023-12-05 |
Family
ID=88929598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311192891.0A Pending CN117173299A (zh) | 2023-09-15 | 2023-09-15 | 一种影视素材模拟生成***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117173299A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111617464A (zh) * | 2020-05-28 | 2020-09-04 | 西安工业大学 | 一种动作识别的跑步机健身方法 |
CN113345059A (zh) * | 2021-05-31 | 2021-09-03 | 网易(杭州)网络有限公司 | 动画生成方法、装置、存储介质及电子设备 |
CN114241100A (zh) * | 2022-02-25 | 2022-03-25 | 腾讯科技(深圳)有限公司 | 虚拟对象的蒙皮处理方法、装置、设备、介质及程序产品 |
CN114332329A (zh) * | 2022-01-06 | 2022-04-12 | 浙江博采传媒有限公司 | 一种双目视觉定位方法、装置及存储介质 |
CN115461707A (zh) * | 2022-07-08 | 2022-12-09 | 上海莉莉丝科技股份有限公司 | 视频的获取方法、电子设备、存储介质和程序产品 |
-
2023
- 2023-09-15 CN CN202311192891.0A patent/CN117173299A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111617464A (zh) * | 2020-05-28 | 2020-09-04 | 西安工业大学 | 一种动作识别的跑步机健身方法 |
CN113345059A (zh) * | 2021-05-31 | 2021-09-03 | 网易(杭州)网络有限公司 | 动画生成方法、装置、存储介质及电子设备 |
CN114332329A (zh) * | 2022-01-06 | 2022-04-12 | 浙江博采传媒有限公司 | 一种双目视觉定位方法、装置及存储介质 |
CN114241100A (zh) * | 2022-02-25 | 2022-03-25 | 腾讯科技(深圳)有限公司 | 虚拟对象的蒙皮处理方法、装置、设备、介质及程序产品 |
CN115461707A (zh) * | 2022-07-08 | 2022-12-09 | 上海莉莉丝科技股份有限公司 | 视频的获取方法、电子设备、存储介质和程序产品 |
Non-Patent Citations (2)
Title |
---|
HUANG, YUAN 等: "A Video Semantic Segmentation Method based on FCN and Data Argumentation", 《2019 IEEE INTL CONF ON PARALLEL & DISTRIBUTED PROCESSING WITH APPLICATIONS, BIG DATA & CLOUD COMPUTING, SUSTAINABLE COMPUTING & COMMUNICATIONS, SOCIAL COMPUTING & NETWORKING (ISPA/BDCLOUD/SOCIALCOM/SUSTAINCOM 2019)》, 18 December 2019 (2019-12-18), pages 1478 - 1483, XP033745633, DOI: 10.1109/ISPA-BDCloud-SustainCom-SocialCom48970.2019.00213 * |
滕厚雷 等: "分布式虚拟现实技术及其教育应用研究", 《分布式虚拟现实技术及其教育应用研究》, vol. 29, no. 4, 31 August 2012 (2012-08-31), pages 126 - 128 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xiong et al. | Learning to generate time-lapse videos using multi-stage dynamic generative adversarial networks | |
Peng et al. | A mixed bag of emotions: Model, predict, and transfer emotion distributions | |
Frowd et al. | EvoFIT: A holistic, evolutionary facial imaging technique for creating composites | |
JP7476428B2 (ja) | 画像の視線補正方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム | |
CN103608847B (zh) | 一种用于图像模型构建的方法和装置 | |
US20220005249A1 (en) | Generating an Animation Rig for Use in Animating a Computer-Generated Character Based on Facial Scans of an Actor and a Muscle Model | |
JP2008508590A (ja) | 3d空間次元に基づく画像処理のためのシステムおよび方法 | |
CN110163814A (zh) | 基于人脸识别的修改图片的方法、装置和计算机设备 | |
WO2022051460A1 (en) | 3d asset generation from 2d images | |
Song et al. | Objectstitch: Generative object compositing | |
CN108416800A (zh) | 目标跟踪方法及装置、终端、计算机可读存储介质 | |
CN112509129B (zh) | 一种基于改进gan网络的空间视场图像生成方法 | |
WO2023217138A1 (zh) | 一种参数配置方法、装置、设备、存储介质及产品 | |
CN117173299A (zh) | 一种影视素材模拟生成***及方法 | |
CN115499620A (zh) | 一种会议录制装置、方法、***以及介质 | |
CN114943746A (zh) | 一种利用深度信息辅助和轮廓增强损失的运动迁移方法 | |
CN113470123B (zh) | 一种视频调色处理方法、装置、存储介质及拍摄设备 | |
US20230154094A1 (en) | Systems and Methods for Computer Animation of an Artificial Character Using Facial Poses From a Live Actor | |
US11158103B1 (en) | Systems and methods for data bundles in computer animation | |
US20230052349A1 (en) | Systems and Methods for Computer Animation of an Artificial Character Using Facial Poses From a Live Actor | |
US11875504B2 (en) | Systems and methods for building a muscle-to-skin transformation in computer animation | |
CN113947523B (zh) | 一种背景图像的替换方法和装置 | |
WO2023022606A1 (en) | Systems and methods for computer animation of an artificial character using facial poses from a live actor | |
CN116966558A (zh) | 虚拟场景的显示控制方法、装置、电子设备及存储介质 | |
JP2003203221A (ja) | 画像変換装置および画像変換プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |