CN111105484B - 一种无纸化2d串帧优化方法 - Google Patents

一种无纸化2d串帧优化方法 Download PDF

Info

Publication number
CN111105484B
CN111105484B CN201911220980.5A CN201911220980A CN111105484B CN 111105484 B CN111105484 B CN 111105484B CN 201911220980 A CN201911220980 A CN 201911220980A CN 111105484 B CN111105484 B CN 111105484B
Authority
CN
China
Prior art keywords
animation
model
data information
dimensional
preliminary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911220980.5A
Other languages
English (en)
Other versions
CN111105484A (zh
Inventor
熊可
陈睿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Shimei Jingdian Film Co ltd
Original Assignee
Beijing Shimei Jingdian Film Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shimei Jingdian Film Co ltd filed Critical Beijing Shimei Jingdian Film Co ltd
Priority to CN201911220980.5A priority Critical patent/CN111105484B/zh
Publication of CN111105484A publication Critical patent/CN111105484A/zh
Application granted granted Critical
Publication of CN111105484B publication Critical patent/CN111105484B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种无纸化2D串帧优化方法,包括以下步骤:S1:通过预设方法构建2D模型;S2:采用预设方法将2D模型与3D场景模型和3D角色模型进行串帧处理,得到融合模型;S3:采用预设方法对融合模型进行实时3D渲染,得到初步2D动画;S4:通过预设方法对初步2D动画进行后期合成处理,得到2D动画。有益效果:通过将二维技术与三维技术相结合,充分的利用了动画制作过程中的二维和三维资源,巧妙的实现了一个介于立体与平面的动画表现,生成了画面更为生动丰富的动画,相比于传统的二维动画,本发明通过将二维动画与三维场景和三维角色进行串帧处理,有效地优化了二维动画的画面,提升了二维动画的品质。

Description

一种无纸化2D串帧优化方法
技术领域
本发明涉及动画制作技术领域,具体来说,涉及一种无纸化2D串帧优化方法。
背景技术
随着生活水平的不断提高,人们的休闲娱乐方式也变得越来越丰富,动画作为一种融合了众多艺术门类的综合性艺术,由于其动作的可随意性和形象的夸张性,深受广大观众,特别是小朋友观众的喜爱。
目前,二维动画有着广泛的应用领域,包括影视、娱乐、教育、广告等多个领域。许多的动画片及绝大多数电视动画片都是用二维动画技术完成的。传统的二维动画是逐帧制作的传统平面动画,动画具有灵活性强、颜色丰富,成本较低等特点,播放载体为网络、电视与各种播放视频的载体。然而,现有的二维动画由于其镜头表现方式的单一,使得其生成的画面缺少相应的空间立体感,无法生成更为生动丰富的动画,从而极大的影响了二维动画的品质。
针对相关技术中的问题,目前尚未提出有效的解决方案。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了无纸化2D串帧优化方法,具备生成生动丰富的画面动画,提高二维动画的品质的优点,进而解决背景技术中的问题。
(二)技术方案
为实现上述具备生成生动丰富的画面动画,提高二维动画的品质的优点,本发明采用的具体技术方案如下:
一种无纸化2D串帧优化方法,包括以下步骤:
S1:通过预设方法构建2D模型;
S2:采用预设方法将所述2D模型与3D场景模型和3D角色模型进行串帧处理,得到融合模型;
S3:采用预设方法对所述融合模型进行实时3D渲染,得到初步2D动画;
S4:通过预设方法对所述初步2D动画进行后期合成处理,得到2D动画。
进一步的,为了完成S2模型的构建,所述步骤S1通过预设方法构建2D模型具体包括以下步骤:采用动画制作软件完成2D动画模型的构建。
进一步的,为了提高2D动画的画面的光影和立体感,所述步骤S2采用预设方法将所述2D模型与3D场景模型和3D角色模型进行串帧处理,得到融合模型具体包括以下步骤:
S21:采用预设方法对所述2D模型和3D场景模型进行串帧处理,获取初步融合模型;
S22:通过预设方法将所述初步融合模型与3D角色模型进行串帧处理,获取融合模型。
进一步的,为了在2D模型中获取3D场景效果,所述步骤S21采用预设方法对所述2D模型和3D场景模型进行串帧处理,获取初步融合模型具体包括以下步骤:
S211:基于所述2D模型中的每一帧图片,确定场景的参考特征点,以及所述场景所处的参考目标区域;
S212:从第一帧图片开始,将所述2D模型的每帧图片作为当前帧图片,根据所述参考特征点和所述参考目标区域,获取各所述当前每帧图片的目标区域;
S213:根据所述目标区域提取所述2D模型中每帧图片的目标数据;
S214:虚拟出与所述目标数据信息各动画节点相结合的3D场景动画数据信息;
S215:将所述3D场景动画数据信息与所述2D模型的二维数据衔接,并通过预设方法实现所述3D场景动画数据信息与所述2D模型二维数据信息的匹配,得到初步融合模型。
进一步的,为了更好地实现3D场景数据信息与二维数据信息的匹配,所述步骤S215将所述3D场景动画数据信息与所述2D模型的二维数据衔接,并通过预设方法实现所述3D场景动画数据信息与所述2D模型二维数据信息的匹配,得到初步融合模型还包括以下步骤:通过描边处理将所述衔接处进行过渡处理,并将所述3D场景动画数据信息中的颜色和自发光数据信息进行处理,削弱其三维立体程度,实现与二维数据信息的匹配。
进一步的,为了在初步融合模型中得到3D角色效果,所述步骤S22通过预设方法将所述初步融合模型与3D角色模型进行串帧处理,获取融合模型具体包括以下步骤:
S221:基于所述初步融合模型中的每一帧图片,确定角色的参考特征点,以及所述角色所处的参考目标区域;
S222:从第一帧图片开始,将所述初步融合模型的每帧图片作为当前帧图片,根据所述参考特征点和所述参考目标区域,获取各所述当前每帧图片的目标区域;
S223:根据所述目标区域提取所述初步融合模型中每帧图片的目标数据;
S224:虚拟出与所述目标数据信息各动画节点相结合的3D角色动画数据信息;
S225:将所述3D角色动画数据信息与所述初步融合模型的二维数据衔接,并通过预设方法实现所述3D角色动画数据信息与所述初步融合模型二维数据信息的匹配,得到融合模型。
进一步的,为了更好地实现3D角色数据信息与二维数据信息的匹配,所述步骤S225将所述3D角色动画数据信息与所述初步融合模型的二维数据衔接,并通过预设方法实现所述3D角色动画数据信息与所述初步融合模型二维数据信息的匹配,得到融合模型还包括以下步骤:通过描边处理将所述衔接处进行过渡处理,并将所述3D角色动画数据信息中的颜色和自发光数据信息进行处理,削弱其三维立体程度,实现与二维数据信息的匹配。
进一步的,为了得到初步2D动画,保证2D动画的质量,所述步骤S3采用预设方法对所述融合模型进行实时3D渲染,得到初步2D动画具体包括以下步骤:
S31:采用预设方法对所述融合模型的光照效果进行去真实化处理;
S32:通过预设方法渲染出所述融合模型中比物体大的黑色边线;
S33:关闭所述融合模型中的背面探测,将朝后的面用黑色绘制;
S34:分别对所述融合模型中的静态阴影和动态阴影进行处理,得到初步2D动画。
进一步的,为了保证后续3D渲染的顺利进行,所述步骤S3采用预设方法对所述融合模型进行实时3D渲染,得到初步2D动画还包括以下步骤:使用DirectX11图形架构,通过C++,CG,HLSL语言编写基于GPU的图像运算程序。
进一步的,为了获取最终的高品质2D动画,所述步骤S4通过预设方法对所述初步2D动画进行后期合成处理,得到2D动画具体包括以下步骤:
S41:采用预设方法对所述初步2D动画进行剪辑处理,并进行特效制作;
S42:对所述特效处理后的所述2D动画进行配音处理,得到2D动画。
(三)有益效果
与现有技术相比,本发明提供了无纸化2D串帧优化方法,具备以下有益效果:本发明通过将二维技术与三维技术相结合,在二维动画中加入三维场景和三维角色,充分的利用了动画制作过程中的二维和三维资源,巧妙的实现了一个介于立体与平面的动画表现,生成了画面更为生动丰富的动画,再通过3D渲染技术处理,有效地增加了二维动画中画面的光影和立体感,相比于传统的二维动画,本发明通过将二维动画与三维场景和三维角色进行串帧处理,有效地优化了二维动画的画面,提升了二维动画的品质。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的无纸化2D串帧优化方法的流程示意图。
具体实施方式
为进一步说明各实施例,本发明提供有附图,这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理,配合参考这些内容,本领域普通技术人员应能理解其他可能的实施方式以及本发明的优点,图中的组件并未按比例绘制,而类似的组件符号通常用来表示类似的组件。
根据本发明的实施例,提供了一种无纸化2D串帧优化方法。
现结合附图和具体实施方式对本发明进一步说明,如图1所示,根据本发明实施例的无纸化2D串帧优化方法,包括以下步骤:
S1:通过预设方法构建2D模型;具体的,所述S1采用动画制作软件通过2D动画绘制流程来完成对2D动画模型的构建;
S2:采用预设方法将所述2D模型与3D场景模型和3D角色模型进行串帧处理,得到融合模型;
其中,所述S2具体包括以下步骤:
S21:采用预设方法对所述2D模型和3D场景模型进行串帧处理,获取初步融合模型;
具体的,所述S21具体包括以下步骤:
S211:基于所述2D模型中的每一帧图片,确定场景的参考特征点,以及所述场景所处的参考目标区域;优选的,确定所述场景的参考特征点包括以下步骤:在所述2D模型中的每一帧图片中标定该场景的一个或多个特定点,作为参考特征点,并获取所述参考特征点的坐标值;确定所述场景所处的参考目标区域包括以下步骤:在所述2D模型中的每一帧图片中绘制一个该场景的***矩形区域,作为参考目标区域,并获取所述矩形区域的边界坐标值;
S212:从第一帧图片开始,将所述2D模型的每帧图片作为当前帧图片,根据所述参考特征点和所述参考目标区域,获取各所述当前每帧图片的目标区域;优选的,所述当前帧图片的目标区域获取包括以下步骤:首先识别得到当前帧图片中场景的特征点,然后计算所述特征点相对于所述参考特征点的运动偏移,最后根据所述运动偏移以及所述参考目标区域获得当前帧图片的目标区域;
S213:根据所述目标区域提取所述2D模型中每帧图片的目标数据;
S214:虚拟出与所述目标数据信息各动画节点相结合的3D场景动画数据信息;优选的,所述3D场景动画数据信息包括一个立方体实体模型的数据动画信息,一个动画实体的轮廓线模型数据动画信息,一个独立的模型轮廓线描边动画数据和一个动画实体视角转换的动画数据;
S215:将所述3D场景动画数据信息与所述2D模型的二维数据衔接,并通过预设方法实现所述3D场景动画数据信息与所述2D模型二维数据信息的匹配,得到初步融合模型;优选的,通过描边处理将所述衔接处进行过渡处理,并将所述3D场景动画数据信息中的颜色和自发光数据信息进行处理,削弱其三维立体程度,实现与二维数据信息的匹配。
S22:通过预设方法将所述初步融合模型与3D角色模型进行串帧处理,获取融合模型。
具体的,所述S22具体包括以下步骤:
S221:基于所述初步融合模型中的每一帧图片,确定角色的参考特征点,以及所述角色所处的参考目标区域;优选的,确定所述角色的参考特征点包括以下步骤:在所述初步融合模型中的每一帧图片中标定该角色的一个或多个特定点,作为参考特征点,并获取所述参考特征点的坐标值;确定所述角色所处的参考目标区域包括以下步骤:在所述初步融合模型中的每一帧图片中绘制一个该角色的***矩形区域,作为参考目标区域,并获取所述矩形区域的边界坐标值;
S222:从第一帧图片开始,将所述初步融合模型的每帧图片作为当前帧图片,根据所述参考特征点和所述参考目标区域,获取各所述当前每帧图片的目标区域;优选的,所述当前帧图片的目标区域获取包括以下步骤:首先识别得到当前帧图片中场景的特征点,然后计算所述特征点相对于所述参考特征点的运动偏移,最后根据所述运动偏移以及所述参考目标区域获得当前帧图片的目标区域;
S223:根据所述目标区域提取所述初步融合模型中每帧图片的目标数据;
S224:虚拟出与所述目标数据信息各动画节点相结合的3D角色动画数据信息;优选的,所述3D角色动画数据信息包括一个立方体实体模型的数据动画信息,一个动画实体的轮廓线模型数据动画信息,一个独立的模型轮廓线描边动画数据和一个动画实体视角转换的动画数据;
S225:将所述3D角色动画数据信息与所述初步融合模型的二维数据衔接,并通过预设方法实现所述3D角色动画数据信息与所述初步融合模型二维数据信息的匹配,得到融合模型。优选的,通过描边处理将所述衔接处进行过渡处理,并将所述3D角色动画数据信息中的颜色和自发光数据信息进行处理,削弱其三维立体程度,实现与二维数据信息的匹配。
S3:采用预设方法对所述融合模型进行实时3D渲染,得到初步2D动画;具体的,所述S3还包括使用DirectX11图形架构,通过C++,CG,HLSL语言编写基于GPU的图像运算程序。
其中,所述S3具体包括以下步骤:
S31:采用预设方法对所述融合模型的光照效果进行去真实化处理;具体的,所述步骤S41采用预设方法对所述融合模型的光照效果进行去真实化处理包括对常规光源的取值进行逐一像素计算并投影到独立的明暗区域上;
S32:通过预设方法渲染出所述融合模型中比物体大的黑色边线;
S33:关闭所述融合模型中的背面探测,将朝后的面用黑色绘制;
S34:分别对所述融合模型中的静态阴影和动态阴影进行处理,得到初步2D动画。具体的,所述步骤S44分别对所述融合模型中的静态阴影和动态阴影进行处理,得到初步2D动画包括在物体表面产生连续递增或者递减的散射值,并使用所述散射值切割所述物体表面。
S4:通过预设方法对所述初步2D动画进行后期合成处理,得到2D动画。
其中,所述S4具体包括以下步骤:
S41:采用预设方法对所述初步2D动画进行剪辑处理,并进行特效制作;
S42:对所述特效处理后的所述2D动画进行配音处理,得到2D动画。
综上所述,借助于本发明的上述技术方案,通过将二维技术与三维技术相结合,在二维动画中加入三维场景和三维角色,充分的利用了动画制作过程中的二维和三维资源,巧妙的实现了一个介于立体与平面的动画表现,生成了画面更为生动丰富的动画,再通过3D渲染技术处理,有效地增加了二维动画中画面的光影和立体感,相比于传统的二维动画,本发明通过将二维动画与三维场景和三维角色进行串帧处理,有效地优化了二维动画的画面,提升了二维动画的品质。
在本发明中,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种无纸化2D串帧优化方法,其特征在于,包括以下步骤:
S1:通过预设方法构建2D模型;
S2:采用预设方法将所述2D模型与3D场景模型和3D角色模型进行串帧处理,得到融合模型,具体包括以下步骤:
S21:采用预设方法对所述2D模型和3D场景模型进行串帧处理,获取初步融合模型,具体包括以下步骤:
S211:基于所述2D模型中的每一帧图片,确定场景的参考特征点,以及所述场景所处的参考目标区域;
S212:从第一帧图片开始,将所述2D模型的每帧图片作为当前帧图片,根据所述参考特征点和所述参考目标区域,获取各所述当前每帧图片的目标区域;
S213:根据所述目标区域提取所述2D模型中每帧图片的目标数据;
S214:虚拟出与所述目标数据信息各动画节点相结合的3D场景动画数据信息;
S215:将所述3D场景动画数据信息与所述2D模型的二维数据衔接,并通过预设方法实现所述3D场景动画数据信息与所述2D模型二维数据信息的匹配,得到初步融合模型;
S22:通过预设方法将所述初步融合模型与3D角色模型进行串帧处理,获取融合模型,具体包括以下步骤:
S221:基于所述初步融合模型中的每一帧图片,确定角色的参考特征点,以及所述角色所处的参考目标区域;
S222:从第一帧图片开始,将所述初步融合模型的每帧图片作为当前帧图片,根据所述参考特征点和所述参考目标区域,获取各所述当前每帧图片的目标区域;
S223:根据所述目标区域提取所述初步融合模型中每帧图片的目标数据;
S224:虚拟出与所述目标数据信息各动画节点相结合的3D角色动画数据信息;
S225:将所述3D角色动画数据信息与所述初步融合模型的二维数据衔接,并通过预设方法实现所述3D角色动画数据信息与所述初步融合模型二维数据信息的匹配,得到融合模型;
S3:采用预设方法对所述融合模型进行实时3D渲染,得到初步2D动画;
S4:通过预设方法对所述初步2D动画进行后期合成处理,得到2D动画。
2.根据权利要求1所述的一种无纸化2D串帧优化方法,其特征在于,所述步骤S1通过预设方法构建2D模型具体包括以下步骤:采用动画制作软件完成2D动画模型的构建。
3.根据权利要求1所述的一种无纸化2D串帧优化方法,其特征在于,所述步骤S215将所述3D场景动画数据信息与所述2D模型的二维数据衔接,并通过预设方法实现所述3D场景动画数据信息与所述2D模型二维数据信息的匹配,得到初步融合模型还包括以下步骤:通过描边处理将所述衔接处进行过渡处理,并将所述3D场景动画数据信息中的颜色和自发光数据信息进行处理,削弱其三维立体程度,实现与二维数据信息的匹配。
4.根据权利要求1所述的一种无纸化2D串帧优化方法,其特征在于,所述步骤S225将所述3D角色动画数据信息与所述初步融合模型的二维数据衔接,并通过预设方法实现所述3D角色动画数据信息与所述初步融合模型二维数据信息的匹配,得到融合模型还包括以下步骤:通过描边处理将所述衔接处进行过渡处理,并将所述3D角色动画数据信息中的颜色和自发光数据信息进行处理,削弱其三维立体程度,实现与二维数据信息的匹配。
5.根据权利要求1所述的一种无纸化2D串帧优化方法,其特征在于,所述步骤S3采用预设方法对所述融合模型进行实时3D渲染,得到初步2D动画具体包括以下步骤:
S31:采用预设方法对所述融合模型的光照效果进行去真实化处理;
S32:通过预设方法渲染出所述融合模型中比物体大的黑色边线;
S33:关闭所述融合模型中的背面探测,将朝后的面用黑色绘制;
S34:分别对所述融合模型中的静态阴影和动态阴影进行处理,得到初步2D动画。
6.根据权利要求1所述的一种无纸化2D串帧优化方法,其特征在于,所述步骤S3采用预设方法对所述融合模型进行实时3D渲染,得到初步2D动画还包括以下步骤:使用DirectX11图形架构,通过C++,CG,HLSL语言编写基于GPU的图像运算程序。
7.根据权利要求1所述的一种无纸化2D串帧优化方法,其特征在于,所述步骤S4通过预设方法对所述初步2D动画进行后期合成处理,得到2D动画具体包括以下步骤:
S41:采用预设方法对所述初步2D动画进行剪辑处理,并进行特效制作;
S42:对所述特效处理后的所述2D动画进行配音处理,得到2D动画。
CN201911220980.5A 2019-12-03 2019-12-03 一种无纸化2d串帧优化方法 Active CN111105484B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911220980.5A CN111105484B (zh) 2019-12-03 2019-12-03 一种无纸化2d串帧优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911220980.5A CN111105484B (zh) 2019-12-03 2019-12-03 一种无纸化2d串帧优化方法

Publications (2)

Publication Number Publication Date
CN111105484A CN111105484A (zh) 2020-05-05
CN111105484B true CN111105484B (zh) 2023-08-29

Family

ID=70420940

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911220980.5A Active CN111105484B (zh) 2019-12-03 2019-12-03 一种无纸化2d串帧优化方法

Country Status (1)

Country Link
CN (1) CN111105484B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112190943A (zh) * 2020-11-09 2021-01-08 网易(杭州)网络有限公司 游戏展示方法及装置、处理器、电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104268918A (zh) * 2014-10-09 2015-01-07 佛山精鹰传媒股份有限公司 一种二维动画与三维立体动画融合的处理方法
CN104599305A (zh) * 2014-12-22 2015-05-06 浙江大学 一种二三维结合的动画生成方法
CN106415667A (zh) * 2014-04-25 2017-02-15 索尼互动娱乐美国有限责任公司 具有增强的深度效果的计算机图形

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8791942B2 (en) * 2010-09-24 2014-07-29 Massachusetts Institute Of Technology Computer method and apparatus for rotating 2D cartoons using 2.5D cartoon models
US9317953B2 (en) * 2011-01-05 2016-04-19 Cisco Technology, Inc. Coordinated 2-dimensional and 3-dimensional graphics processing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106415667A (zh) * 2014-04-25 2017-02-15 索尼互动娱乐美国有限责任公司 具有增强的深度效果的计算机图形
CN104268918A (zh) * 2014-10-09 2015-01-07 佛山精鹰传媒股份有限公司 一种二维动画与三维立体动画融合的处理方法
CN104599305A (zh) * 2014-12-22 2015-05-06 浙江大学 一种二三维结合的动画生成方法

Also Published As

Publication number Publication date
CN111105484A (zh) 2020-05-05

Similar Documents

Publication Publication Date Title
CN101605270A (zh) 生成深度图的方法和装置
CN105205846B (zh) 水墨动画制作方法
CN104103089A (zh) 一种基于图像屏幕空间的实时软阴影实现方法
KR102353556B1 (ko) 사용자 얼굴기반 표정 및 포즈 재현 아바타 생성장치
CN104392479A (zh) 一种利用灯光索引号对像素进行光照着色的方法
CN105956995A (zh) 一种基于实时视频本征分解的人脸外观编辑方法
CN113920036A (zh) 一种基于rgb-d图像的交互式重光照编辑方法
CN111105484B (zh) 一种无纸化2d串帧优化方法
CN111354067A (zh) 一种基于Unity3D引擎的多模型同屏渲染方法
CN107833266B (zh) 一种基于色块匹配和仿射校正的全息图像获取方法
CN114004803A (zh) 一种基于物体光照编辑的方法
CN111369654A (zh) 一种2d cg动画混制方法
US20230171506A1 (en) Increasing dynamic range of a virtual production display
CN102467747A (zh) 建筑装修动画3d效果处理方法
CN116824029B (zh) 全息影像阴影生成的方法、装置、电子设备和存储介质
Zhang et al. Image Relighting with Object Removal from Single Image.
KR101717777B1 (ko) 캐릭터 단순화 기법을 적용하는 삼차원 애니메이션 제작방법
Liu et al. 3D Reconstruction and Texture Optimization Based on Differentiable Rendering
Piazzolla et al. Animated Point Clouds Real-Time Rendering for Extended Reality
Tang et al. Feature Matching-Based Undersea Panoramic Image Stitching in VR Animation
LingJuan The application of computer image processing technology in painting creation
WO2023094873A1 (en) Increasing dynamic range of a virtual production display
WO2023094880A1 (en) Increasing dynamic range of a virtual production display
WO2023094875A1 (en) Increasing dynamic range of a virtual production display
WO2023094874A1 (en) Increasing dynamic range of a virtual production display

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant