CN102411791B - 一种静止图像动态化的方法和设备 - Google Patents
一种静止图像动态化的方法和设备 Download PDFInfo
- Publication number
- CN102411791B CN102411791B CN 201010291082 CN201010291082A CN102411791B CN 102411791 B CN102411791 B CN 102411791B CN 201010291082 CN201010291082 CN 201010291082 CN 201010291082 A CN201010291082 A CN 201010291082A CN 102411791 B CN102411791 B CN 102411791B
- Authority
- CN
- China
- Prior art keywords
- animation
- special efficacy
- frame
- mobilism
- rest image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种静止图像动态化的方法和设备,先设置动画特效算法,用于计算特效帧,计算出的多个连续的特效帧播放时可产生动画效果;在将静止图像动态化时,利用所述动画特效算法计算得到一特效帧,将静止图像与特效帧融合,得到一动画帧,重复执行上述两步骤获得连续的动画帧并播放。应用本发明方案,无需设置特效数据库就可以实现静止图像动态化,可以大大节约存储空间,而且有特效画面不重复、不突变的效果,使用户体验更佳。
Description
技术领域
本发明涉及图像处理和动画技术,特别涉及一种静止图像动态化的方法和设备。
背景技术
现有技术中,静止图像动态化的方法主要分为两类:一类是由多幅静止图像连续播放来实现动画效果,其方法与电影制作相似;另一类则是在静止图像上叠加动画特效来实现动态化。
对于在静止图像上叠加动画特效的这种方法来说,现有技术通常都是事先制作若干动画特效帧,并将这些动画特效帧统一保存在某个数据库中,构成特效数据库。当需要静止图像动态化时,可以按照一定的时间间隔依次从该数据库中取得动画特效帧,将每一帧与静止图像进行叠加后再播放。由于动画特效帧在连续播放时可产生动画效果,叠加后的动画帧也就具备动画效果,从而实现静止图像动态化。
现有的在静止图像上叠加动画特效的技术需要特效数据库支持,会占用大量的存储空间。而且,制作出的动画特效帧数量有限,当所有动画帧都依次与静止图像叠加并播放后,会再重复循环播放,重复接头处通常有不连续、突变的现象,用户体验不佳。
发明内容
本发明提供了一种静止图像动态化的方法和设备,可以节约存储空间,并且有不重复、不突变的动画效果,可以很好满足用户需求。
为达到上述第一个发明目的,本发明提出的技术方案是:
一种静止图像动态化的方法,设置动画特效算法,用于计算特效帧,计算出的多个连续的特效帧播放时可产生动画效果;在静止图像动态化时,该方法包括以下步骤:
A、利用所述动画特效算法计算得到一特效帧;
B、将静止图像与步骤A获得的特效帧融合,得到一动画帧;
C、重复执行步骤A和B获得连续的动画帧并播放。
上述方案中,所述步骤A之前,该方法进一步包括:
根据用户的指定判断需要在静止图像的全局实施动态化,还是在静止图像的局部实施动态化;
如果是全局实施动态化,则继续执行步骤A;且,步骤B所述融合是将静止图像的全局与特效帧融合;
如果是局部实施动态化,则先在静止图像中确定要实施动态化的区域,根据确定的区域生成掩码图,再执行步骤A,所述掩码图中表示实施动态化区域的值为1,其余的值为0;且,步骤B所述融合是根据掩码图中0和1的分布情况,在1分布的区域中将静止图像与特效帧融合,在0分布的区域中保持静止图像不变。
上述方案中,所述在静止图像中确定要实施动态化区域的方法包括:
获取要实施动态化区域的颜色特征或纹理特征,在静止图像中设置种子,利用种子填充算法并根据所述颜色特征或纹理特征从种子处进行区域扩展,将区域扩展得到的区域作为要实施动态化的区域。
上述方案中,所述步骤A之前,该方法进一步包括:
确定动画参数,将动画参数输入给动画特效算法;所述动画参数包括控制特效帧帧内动画效果的参数,以及控制特效帧帧间动画效果的参数。
上述方案中,步骤C所述播放进一步包括播放音效。
针对上述第二个发明目的,本发明提出的技术方案为:
一种静止图像动态化的设备,该设备包括:
第一存储模块,用于保存静止图像;
特效管理模块,每次利用动画特效算法计算得到一特效帧,计算出每一特效帧传输给融合模块;所述动画特效算法是事先设置的,计算出的多个连续的特效帧播放时可产生动画效果;
融合模块,用于将所述静止图像与特效管理模块每次计算出的特效帧融合,得到动画帧并依次输出给播放显示模块;
播放显示模块,获得连续的动画帧并播放。
上述方案中,该设备进一步包括:
判别模块,根据用户的指定判断需要在静止图像的全局实施动态化,还是在静止图像的局部实施动态化,如果是全局实施动态化,则直接触发特效管理模块进行计算,如果是局部实施动态化,则触发区域识别模块执行;
区域识别模块,用于在所述静止图像中确定要实施动态化的区域,根据确定的区域生成掩码图并传输给融合模块,所述掩码图中表示实施动态化区域的值为1,其余的值为0;
所述融合模块包括:
第二存储模块,用于存储所述特效管理模块输入的特效帧;
第三存储模块,用于存储所述区域识别模块输入的掩码图;
第一操作模块,生成动画帧时,直接将静止图像的全局与特效帧融合生成动画帧,将生成的动画帧输出给播放显示模块;
第二操作模块,生成动画帧时,根据掩码图中0和1的分布情况,在1分布的区域中将静止图像与特效帧融合,在0分布的区域中保持静止图像不变以生成动画帧,将生成的动画帧输出给播放显示模块。
上述方案中,所述在静止图像中确定要实施动态化区域包括:获取要实施动态化区域的颜色特征或纹理特征,在静止图像中设置种子,利用种子填充算法并根据所述颜色特征或纹理特征从种子处进行区域扩展,将区域扩展得到的区域作为要实施动态化的区域。
上述方案中,所述特效管理模块进一步用于:确定动画参数,将动画参数输入给动画特效算法;所述动画参数包括控制特效帧帧内动画效果的参数,以及控制特效帧帧间动画效果的参数。
上述方案中,所述播放显示模块进一步用于播放音效。
本发明提出一种静止图像动态化的方法和设备,由于直接采用动画特效算法产生特效帧,将特效帧与静止图像融合产生动画帧,因此可以不必设置特效数据库,可以节约存储空间,并且有不重复、不突变的动画效果,可以很好满足用户需求。
附图说明
图1是本发明方法流程图。
图2是实施本发明方法时的一个静止图像。
图3是本发明的一个方法实施例流程图。
图4是应用本发明实施例方案时将一静止图像动态化的效果图一。
图5是应用本发明实施例方案时将一静止图像动态化的效果图二。
图6是应用本发明实施例方案时将一静止图像动态化的效果图三。
图7是本发明设备的内部结构示意图。
图8是本发明设备的一个实施例示意图。
具体实施方式
为更好地说明本发明方案,下面进一步进行详细说明。
与现有技术不同,本发明并不事先设置特效数据库,而是在将静止图像动态化时直接利用动画特效算法实时计算。也就是说,本发明先设置动画特效算法,这里所述动画特效算法就是用来计算特效帧的,并且计算出的多个连续的特效帧播放时可产生动画效果。
图1显示了后续将静止图像动态化的方法流程图。如图1所示,该方法包括一下步骤:
步骤101:利用动画特效算法计算得到一特效帧。
步骤102:将静止图像与步骤101获得的特效帧融合,得到一动画帧。
步骤103:重复执行步骤101和102获得连续的动画帧并播放。
从上述方法可以看出,本发明可以实时产生特效帧,将产生的特效帧依次与一幅静止图像融合生成连续的动画帧。由于连续的特效帧有动画效果,融合后的动画帧也就具有了动画效果,从而达到静止图像动态化的目的。
实际应用中,既可以在静止图像的全局画面实施动态化(比如静止图像的全局都有下雨、下雪等效果),也可以在静止图像的局部画面实施动态化(比如静止图像中天空部分有云飘移的效果,水面部分有波纹的效果),其方法可以由用户指定。在此情况下,步骤101之前,可以进一步包括:
步骤100:根据用户的指定判断需要在静止图像的全局实施动态化,还是在静止图像的局部实施动态化。如果是全局实施动态化,则继续执行步骤101;如果是局部实施动态化,则先在静止图像中确定要实施动态化的区域,根据确定的区域生成掩码图,再执行步骤101;所述掩码图中表示实施动态化区域的值为1,其余的值为0。
这里所述的掩码图就是一个二维矩阵,矩阵中每一个单元保存1或0,可以与静止图像的像素点对应。比如:静止图像为50行50列的图像,掩码图为一个50行50列的二维矩阵,每一个单元与静止图像的每一个像素点对应。那么,掩码图中为1表示所对应静止图像区域需要实施动态化,为0表示所对应静止图像区域不需要实施动态化。
同时,如果用户指定的是全局实施动态化,那么在步骤102中可以直接将静止图像的全局与特效帧融合。如果用户指定的是局部实施动态化,那么在步骤102中可以根据掩码图中像素值为0和1的分布情况,在1分布的区域中将静止图像与特效帧融合,在0分布的区域中保持静止图像不变。
上述全局实施动态化和局部实施动态化只是体现所融合区域的大小,比如特效帧的大小为50行50列,静止图像的大小也为50行50列,那么,如果是全局实施动态化,就可以将两幅50行50列的区域进行融合。如果是在左上角10行10列的局部实施动态化,则仅将特效帧左上角10行10列的区域与静止图像相应区域进行融合,其余区域保持静止图像不变。具体融合方式可能有直接叠加、融合叠加等多种方式。比如:下雪动画特效中,特效帧和静止图像可以直接叠加,使白色的雪花完全掩盖静止图像,没有掩盖的部分则仍然为静止图像的画面。又比如:下雨动画特效中,特效帧和静止图像可以采用滤色融合这种融合叠加方式,使雨点部分呈现半透明的状态,其余部分仍然为静止图像的画面。直接叠加或融合叠加等方法可以直接参考现有技术,此处不再赘述。
实际应用中,如果事先已经确定需要全局动态化,或者已经确定在某个区域动态化,则可以省略步骤100。如果不省略步骤100,则可以灵活选择全局或局部动态化,从而更好地实施本发明方案。
为了更好地体现本发明方案,下面将列举具体实施例进行详细说明。
方法实施例
本实施例中,假设有如图2所示的静止图像。该静止图像的上半部是天空,本实施例要求在天空中体现可飘移的云,以实现静止图像的局部动态化。假设事先已经设计有动画特效算法,该算法可以得到云飘移特效,具体方法见下述。
图3是本实施例的流程图。如图3所示,本实施例包括以下步骤:
步骤301:根据用户的指定判断需要在静止图像的全局实施动态化,还是在静止图像的局部实施动态化;如果是全局实施动态化,则执行步骤304;如果是局部实施动态化,则执行步骤302。
实际应用中,确定在静止图像中实施全局动态化还是局部动态化,可以通过与用户的交互来实现。比如:一数码相框的电子产品,该产品可以支持按键选择或触摸屏技术来选择。只要在数码相框产品中设置一些选项,用户就可以根据选项来指定是在全局还是在局部实施动态化。
步骤302:在静止图像中确定要实施动态化的区域。
本步骤确定区域的方法很多,这里简单举例如下:
1、与用户的交互,将用户指定的区域作为局部实施动态化的区域。比如:用户可以用鼠标在静止图像中画出一块区域,将该区域作为实施动态化的区域。再或者用触摸笔在触摸屏的静止图像中画出一块区域,该区域也可以作为实施动态化的区域。如何识别出用户画出的区域可利用现有技术,此处不再赘述。
2、获取要实施动态化区域的颜色特征或纹理特征,在静止图像中设置种子,利用种子填充算法并根据所述颜色特征或纹理特征从种子处进行区域扩展,将区域扩展得到的区域作为要实施动态化的区域。
也就是说,用户可以利用鼠标或其它方式指定区域中某个位置,从该位置处就可以获取颜色特征或纹理特征,并可以将该位置设置为种子的位置。此后,直接利用种子填充算法即可自动确定出将要实施动态化的区域。这里仅为一个举例,实际中也可以根据情况自动搜索确定种子位置,从种子处获取颜色特征或纹理特征,再利用种子填充算法实现。所述种子填充算法为一现有技术,并可在实际中设置一个或多个种子,如何实现不再详细描述。总之,只要能手工或自动识别出需实施动态化的区域即可。
步骤303:根据确定的区域生成掩码图,所述掩码图中表示实施动态化区域的值为1,其余的值为0。
本步骤所生成的掩码图实际上是利用0和1来指定哪些区域需要实施动态化,哪些区域不需要实施动态化。其中,1表示需要实施动态化,0表示不需要实施动态化。
步骤304:确定动画参数,将动画参数输入给动画特效算法;所述动画参数包括控制特效帧帧内动画效果的参数,以及控制特效帧帧间动画效果的参数。
为了灵活满足不同的用户需求,可以为动画特效算法设置参数,其种类由应用本实施例方案的用户自行确定。但通常来说,不管是哪种参数,都可以归为帧内或帧间的两类参数。对于帧内参数来说,其作用是控制特效帧帧内动画效果。比如:动画特效为云飘移,那么可以设置体现云密度、颜色等参数,从而控制特效帧内云的形态和颜色等。对于帧间参数来说,其作用是控制特效帧帧间的动画效果。比如:动画特效仍然为云飘移,那么可以设置体现云飘移速度的参数,从而控制多个连续特效帧连续播放时的效果。实际中,云密度、云颜色、飘移速度等参数对应到特效算法内部可以分别是随机偏移参数、像素颜色、播放帧率等。当然,不同的特效算法可以设置不同的动画参数,这里不再一一列举。
至此,已经确定了实施动态化的区域、生成了掩码图、设置了动画参数,后续就可以计算特效帧并进行融合产生动画帧了。至于确定区域、生成掩码图、设置动画参数的时机则可以不按照本实施例执行,可以边确定区域边生成掩码图,再设置动画参数,还可以先设置动画参数,再确定区域和生成掩码图等,只是这些步骤都需要在步骤305之前执行。
步骤305:利用动画特效算法计算得到一特效帧。
实际应用中,可以利用现有的动画特效算法,也可以自行设计算法。以本实施例的云飘移特效为例,在产生初始特效帧时,其方法可以为:
X1、根据静止图像的大小初始化一个二维浮点矩阵;
X2、利用随机分形算法将二维浮点矩阵转化为云密度矩阵;
X3、利用灰度化方法将云密度矩阵转化为云的图层,生成一特效帧。
上述步骤X1~X3都可以利用现有技术实现,也可以自行设计。比如步骤X2的随机分形算法可以不按照现有技术实现,而采用钻石-方块算法。钻石-方块算法是一个特殊的二维的中点偏移算法,能保证特效帧中云的图像的左右两端无缝连接。这样,后续特效帧就可以利用前一帧,将其左移或右移直接生成有连续感观的下一个特效帧。
也就是说,对于云飘移特效算法,其初始特效帧可以按照上述步骤X1~X3执行,而后续特效帧则可以直接左移或右移上一帧来得到。不管是产生初始特效帧,还是后续特效帧,本实施例将其产生的方法都统称为动画特效算法。
步骤306:将静止图像与步骤305获得的特效帧融合,得到一动画帧,其方法具体为:根据掩码图中像素值为0和1的分布情况,在1分布的区域中将静止图像与特效帧融合,在0分布的区域中保持静止图像不变。
本步骤所述融合的具体方式可以参考上述步骤100的方式,此处不再赘述。
步骤307:重复执行步骤305和306获得连续的动画帧并播放。
执行步骤305和306就可以得到经过融合的一动画帧。当重复执行步骤305时,由于动画特效算法将生成与上一帧不同的特效帧,因此再次与静止图像融合后,会得到与上一帧不同的动画帧。另外,由于连续产生的特效帧具有动画效果,经过融合的动画帧也就具备了动画效果。
本实施例仅举例了如何在静止图像的某个或某些区域中实施动态化。实际应用中,在播放动画的同时,还可以播放音乐、声音等音效,使动画效果更佳逼真。比如:在播放下雨动画的同时,还可以播放雨声。
本实施例是以产生云飘移动画特效为例的,其它动画特效也可以应用于本实施例。比如:假设特效算法是下雨特效并要求在整个静止图像的画面中体现,就可以执行步骤301、304~307,并且,步骤306是将静止图像的全局与特效帧融合,步骤305则按如下方法得到特效帧:
Y1、先复制一份静止图像作为初始化图像;
Y2、将初始化图像进行点状化(Pointilize)和灰度化;
Y3、实施动感模糊(Motion Blur),产生雨线;
Y4、实施模糊掩盖锐化处理(USM),使雨线清晰。
上述步骤Y1~Y4在每一次执行时都可以获得不同的特效帧。由于将不同特效帧连续播放可以获得下雨的感观,因此可以不像云飘移特效一样区分初始特效帧和后续特效帧,而可以每次重新产生。另外,下雨特效的动画参数可以为雨的密集度、雨线的倾角、下雨的急缓等。总之,不管哪种动画特效算法,都可以应用于本实施例。图4~6分别显示了在静止图像中实施云飘移、下雨、闪电三种动画特效的效果图,从中可以充分体现本实施例方案。
由于本实施例是通过步骤305计算得到特效帧,而不是事先设置特效数据库,从特效数据库中取得特效帧,因而不但可以大大节约存储空间,而且还具备以下优点:1、动画特效算法可以产生随机的特效帧,使每一次静止图像动态化的效果不重复;2、将特效帧在静止图像的某个区域中很好地融合,仅在局部产生动画,效果更逼真;3、每一特效帧都是实时产生的,无需预处理,节省了处理时间;4、动画特效算法(比如云飘移算法)可以使特效帧左右两端无缝连接,没有突变的感觉,使用户体验更佳;5、可以利用动画参数体现动画效果,使动画效果更加可控。
针对上述方法,本发明还提供一种静止图像动态化的设备。如图7所示,该设备包括:
第一存储模块701,用于保存静止图像。
特效管理模块702,每次利用动画特效算法计算得到一特效帧,计算出每一特效帧传输给融合模块703;所述动画特效算法是事先设置的,计算出的多个连续的特效帧播放时可产生动画效果。
融合模块703,用于将第一存储模块701中的静止图像与特效管理模块702每次计算出的特效帧融合,得到动画帧并依次输出给播放显示模块704。
播放显示模块704,获得连续的动画帧并播放。
实际应用中,如果要灵活选择是在静止图像的全局还是局部实施动态化,就可以进一步包括判别模块705和区域识别模块706。
图8是一个设备实施例,其第一存储模块701、特效管理模块702、播放显示模块704与图7中的相同,新增加的判别模块705、区域识别模块706详细说明如下:
判别模块705,根据用户的指定判断需要在静止图像的全局实施动态化,还是在静止图像的局部实施动态化,如果是全局实施动态化,则直接触发特效管理模块702进行计算,如果是局部实施动态化,则触发区域识别模块706执行。
区域识别模块706,用于在所述静止图像中确定要实施动态化的区域,根据确定的区域生成掩码图并传输给融合模块703,所述掩码图中表示实施动态化区域的值为1,其余的值为0。
同时,融合模块703还可以细化为第二存储模块7031、第三存储模块7032、第一操作模块7033和第二操作模块7034。如果是全局动态化,则使用第二存储模块7031和第一操作模块7033;如果是局部动态化,则使用第二存储模块7031、第三存储模块7032和第二操作模块7034。其中,
第二存储模块7031,用于存储所述特效管理模块703输入的特效帧;
第三存储模块7032,用于存储所述区域识别模块706输入的掩码图;
第一操作模块7033,生成动画帧时,直接将静止图像的全局与特效帧融合生成动画帧,将生成的动画帧输出给播放显示模块704。
第二操作模块7034,生成动画帧时,根据掩码图中像素值为0和1的分布情况,在1分布的区域中将静止图像与特效帧融合,在0分布的区域中保持静止图像不变以生成动画帧,并将生成的动画帧输出给播放显示模块704。
也就是说,本实施例先将静止图像保存在第一存储模块701中,并在特效管理模块702中设置动画特效算法。当需要实施动态化时,判别模块705首先根据用户的指定判断需要在静止图像的全局实施动态化,还是在静止图像的局部实施动态化,如果是全局实施动态化,则直接触发特效管理模块702进行计算,如果是局部实施动态化,则触发区域识别模块706。以下再根据全局和局部分别进行描述:
1)如果是全局实施动态化,特效管理模块702每次利用动画特效算法计算得到一特效帧,计算出每一特效帧都传输给第二存储模块7031。第一操作模块7033生成动画帧时,直接将静止图像的全局与特效帧融合生成动画帧,将生成的动画帧输出给播放显示模块704。播放显示模块704获得连续的动画帧并播放,至此,实现了静止图像动态化。
2)如果是局部实施动态化,区域识别模块706在所述静止图像中确定要实施动态化的区域,并根据确定的区域生成掩码图并传输给第三存储模块7032,所述掩码图中表示实施动态化区域的值为1,其余的值为0。特效管理模块702被区域识别模块706触发执行,每次利用动画特效算法计算得到一特效帧,计算出每一特效帧都传输给第二存储模块7031。第二操作模块7033生成动画帧时,根据掩码图中像素值为0和1的分布情况,在1分布的区域中将静止图像与特效帧融合,在0分布的区域中保持静止图像不变以生成动画帧,并将生成的动画帧输出给播放显示模块704。播放显示模块704获得连续的动画帧并播放,至此,也实现了静止图像动态化。
另外,本实施例中,区域识别模块706在静止图像中确定要实施动态化区域的方法为:获取要实施动态化区域的颜色特征或纹理特征,在静止图像中设置种子,利用种子填充算法并根据所述颜色特征或纹理特征从种子处进行区域扩展,将区域扩展得到的区域作为要实施动态化的区域。其种子填充算法为现有技术,具体实施不再赘述。
与方法实施例相似,特效管理模块702还可以确定动画参数,将动画参数输入给动画特效算法,所述动画参数包括控制特效帧帧内动画效果的参数,以及控制特效帧帧间动画效果的参数。这里所述的动画参数也可以有多种,与具体的特效算法有关,具体参见上述方法中的介绍。
当然,与方法实施例相同,播放显示模块704在播放动画的同时,还可以播放音乐、声音等音效。
上述实施例方案可以应用于多种实际的设备,比如计算机、数码相框、手机等,并不限于具体的设备,只要能实现该方案即可。另外,上述实施例的设备仅仅是根据功能划分的模块,实际应用中该设备还需要利用其它模块。比如:播放动画帧时需进行动画渲染的模块、管理音效的模块、与用户交互的识别模块等,这些模块都可以直接利用现有技术实现,此处不再一一列举。
应用本发明方案,由于没有设置特效数据库,而是采用计算动画特效算法实时获得特效帧,从而可以节约存储空间,并且所产生的特效画面不重复、不突变,使用户体验更佳。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (8)
1.一种静止图像动态化的方法,其特征在于,设置动画特效算法,用于计算特效帧,计算出的多个连续的特效帧播放时可产生动画效果;在静止图像动态化时,确定动画参数,将动画参数输入给动画特效算法;所述动画参数包括控制特效帧帧内动画效果的参数,以及控制特效帧帧间动画效果的参数;该方法还包括以下步骤:
A、利用所述动画特效算法计算得到一特效帧;
B、将静止图像与步骤A获得的特效帧融合,得到一动画帧;
C、重复执行步骤A和B获得连续的动画帧并播放。
2.根据权利要求1所述的方法,其特征在于,所述步骤A之前,该方法进一步包括:
根据用户的指定判断需要在静止图像的全局实施动态化,还是在静止图像的局部实施动态化;
如果是全局实施动态化,则继续执行步骤A;且,步骤B所述融合是将静止图像的全局与特效帧融合;
如果是局部实施动态化,则先在静止图像中确定要实施动态化的区域,根据确定的区域生成掩码图,再执行步骤A,所述掩码图中表示实施动态化区域的值为1,其余的值为0;且,步骤B所述融合是根据掩码图中0和1的分布情况,在1分布的区域中将静止图像与特效帧融合,在0分布的区域中保持静止图像不变。
3.根据权利要求2所述的方法,其特征在于,所述在静止图像中确定要实施动态化区域的方法包括:
获取要实施动态化区域的颜色特征或纹理特征,在静止图像中设置种子,利用种子填充算法并根据所述颜色特征或纹理特征从种子处进行区域扩展,将区域扩展得到的区域作为要实施动态化的区域。
4.根据权利要求1~3任一项所述的方法,其特征在于,步骤C所述播放进一步包括播放音效。
5.一种静止图像动态化的设备,其特征在于,该设备包括:
第一存储模块,用于保存静止图像;
特效管理模块,确定动画参数,将动画参数输入给动画特效算法;所述动画参数包括控制特效帧帧内动画效果的参数,以及控制特效帧帧间动画效果的参数;每次利用动画特效算法计算得到一特效帧,计算出每一特效帧传输给融合模块;所述动画特效算法是事先设置的,计算出的多个连续的特效帧播放时可产生动画效果;
融合模块,用于将所述静止图像与特效管理模块每次计算出的特效帧融合,得到动画帧并依次输出给播放显示模块;
播放显示模块,获得连续的动画帧并播放。
6.根据权利要求5所述的设备,其特征在于,该设备进一步包括:
判别模块,根据用户的指定判断需要在静止图像的全局实施动态化,还是在静止图像的局部实施动态化,如果是全局实施动态化,则直接触发特效管理模块进行计算,如果是局部实施动态化,则触发区域识别模块执行;
区域识别模块,用于在所述静止图像中确定要实施动态化的区域,根据确定的区域生成掩码图并传输给融合模块,所述掩码图中表示实施动态化区域的值为1,其余的值为0;
所述融合模块包括:
第二存储模块,用于存储所述特效管理模块输入的特效帧;
第三存储模块,用于存储所述区域识别模块输入的掩码图;
第一操作模块,生成动画帧时,直接将静止图像的全局与特效帧融合生成动画帧,将生成的动画帧输出给播放显示模块;
第二操作模块,生成动画帧时,根据掩码图中0和1的分布情况,在1分布的区域中将静止图像与特效帧融合,在0分布的区域中保持静止图像不变以生成动画帧,将生成的动画帧输出给播放显示模块。
7.根据权利要求6所述的设备,其特征在于,所述在静止图像中确定要实施动态化区域包括:获取要实施动态化区域的颜色特征或纹理特征,在静止图像中设置种子,利用种子填充算法并根据所述颜色特征或纹理特征从种子处进行区域扩展,将区域扩展得到的区域作为要实施动态化的区域。
8.根据权利要求5~7任一项所述的设备,其特征在于,所述播放显示模块进一步用于播放音效。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010291082 CN102411791B (zh) | 2010-09-19 | 2010-09-19 | 一种静止图像动态化的方法和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201010291082 CN102411791B (zh) | 2010-09-19 | 2010-09-19 | 一种静止图像动态化的方法和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102411791A CN102411791A (zh) | 2012-04-11 |
CN102411791B true CN102411791B (zh) | 2013-09-25 |
Family
ID=45913855
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201010291082 Active CN102411791B (zh) | 2010-09-19 | 2010-09-19 | 一种静止图像动态化的方法和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102411791B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574473B (zh) * | 2014-12-31 | 2017-04-12 | 北京奇虎科技有限公司 | 一种基于静态图片生成动态效果的方法和装置 |
CN104571887B (zh) * | 2014-12-31 | 2017-05-10 | 北京奇虎科技有限公司 | 一种基于静态图片的动态交互方法和装置 |
WO2016107356A1 (zh) * | 2014-12-31 | 2016-07-07 | 北京奇虎科技有限公司 | 一种基于静态图片的动态交互方法和装置 |
CN104599306B (zh) * | 2015-01-08 | 2018-05-22 | 珠海金山网络游戏科技有限公司 | 一种生成循环动画的方法 |
CN104869283B (zh) * | 2015-05-11 | 2018-12-14 | 联想(北京)有限公司 | 一种拍摄方法及电子设备 |
CN105405155A (zh) * | 2015-10-21 | 2016-03-16 | 努比亚技术有限公司 | 一种信息处理方法及移动终端 |
CN107015788B (zh) * | 2016-10-19 | 2020-10-30 | 创新先进技术有限公司 | 在移动设备上动画展现图像的方法和装置 |
CN107146270A (zh) * | 2017-04-11 | 2017-09-08 | 深圳市元征软件开发有限公司 | 一种图形绘制方法及装置 |
CN109242814A (zh) * | 2018-09-18 | 2019-01-18 | 北京奇虎科技有限公司 | 商品图像处理方法、装置及电子设备 |
CN111309227B (zh) * | 2020-02-03 | 2022-05-31 | 联想(北京)有限公司 | 一种动画制作方法、设备及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5533181A (en) * | 1990-12-24 | 1996-07-02 | Loral Corporation | Image animation for visual training in a simulator |
CN1640121A (zh) * | 2002-02-27 | 2005-07-13 | 柯尼卡美能达控股株式会社 | 动画数据生成***、动画数据生成方法和动画数据生成程序以及信息记录介质 |
CN1770646A (zh) * | 2004-09-08 | 2006-05-10 | 泛泰·科力特株式会社 | 使用静止图像生成动画的无线通信终端及其方法 |
CN101431610A (zh) * | 2007-11-07 | 2009-05-13 | 佳能株式会社 | 摄像设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4223940B2 (ja) * | 2003-12-26 | 2009-02-12 | パナソニック株式会社 | 画像生成装置、携帯端末、画像生成方法、画像表示方法及びプログラム |
-
2010
- 2010-09-19 CN CN 201010291082 patent/CN102411791B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5533181A (en) * | 1990-12-24 | 1996-07-02 | Loral Corporation | Image animation for visual training in a simulator |
CN1640121A (zh) * | 2002-02-27 | 2005-07-13 | 柯尼卡美能达控股株式会社 | 动画数据生成***、动画数据生成方法和动画数据生成程序以及信息记录介质 |
CN1770646A (zh) * | 2004-09-08 | 2006-05-10 | 泛泰·科力特株式会社 | 使用静止图像生成动画的无线通信终端及其方法 |
CN101431610A (zh) * | 2007-11-07 | 2009-05-13 | 佳能株式会社 | 摄像设备 |
Non-Patent Citations (1)
Title |
---|
JP特开2005-190319A 2005.07.14 |
Also Published As
Publication number | Publication date |
---|---|
CN102411791A (zh) | 2012-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102411791B (zh) | 一种静止图像动态化的方法和设备 | |
CN107423445B (zh) | 一种地图数据处理方法、装置及存储介质 | |
CN102763064B (zh) | 用于基于设备方位而提供对设备显示器的控制的方法和装置 | |
CN107018336A (zh) | 图像处理的方法和装置及视频处理的方法和装置 | |
CN105825544A (zh) | 一种图像处理方法及移动终端 | |
CN104321752B (zh) | 虚拟表面分配 | |
Takeuchi et al. | ClayVision: the (elastic) image of the city | |
CN110148203B (zh) | 游戏中虚拟建筑模型的生成方法、装置、处理器及终端 | |
CN103827957B (zh) | 图像处理装置、图像处理方法和图像文件的数据结构 | |
CN112245926B (zh) | 虚拟地形的渲染方法、装置、设备及介质 | |
CN103785174B (zh) | 一种游戏同一屏幕显示万人的方法和*** | |
CN103139478A (zh) | 一种主副画面实时渲染的拍照方法 | |
CN104281864A (zh) | 一种生成二维码的方法与设备 | |
CN112862942B (zh) | 物理特效模拟方法、装置、电子设备和存储介质 | |
CN103827924A (zh) | 信息处理装置、信息处理方法和内容文件的数据结构 | |
CN103294360A (zh) | 虚拟表面后备列表和沟槽 | |
Noyman et al. | A deep image of the city: Generative urban-design visualization | |
KR101680672B1 (ko) | 텍스쳐 효과 제공방법 및 이를 적용한 디스플레이 장치 | |
CN109499067A (zh) | 一种地形纹理的绘制方法及装置、电子设备、存储介质 | |
CN113935891B (zh) | 像素风格的场景渲染方法、设备及存储介质 | |
CN106201838A (zh) | 视频下载进度显示方法及装置 | |
CN111145088B (zh) | 适用于观演空间的投影风格渲染方法及渲染*** | |
CN115006842A (zh) | 场景地图生成方法、装置、存储介质及计算机设备 | |
CN103795925A (zh) | 一种可交互的主副画面实时渲染的拍照方法 | |
CN102800121A (zh) | 一种交互编辑虚拟人群场景中虚拟个体的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CP02 | Change in the address of a patent holder | ||
CP02 | Change in the address of a patent holder |
Address after: 5-12 / F, building 6, 57 Andemen street, Yuhuatai District, Nanjing City, Jiangsu Province Patentee after: Samsung Electronics (China) R&D Center Patentee after: SAMSUNG ELECTRONICS Co.,Ltd. Address before: No. 268 Nanjing Huijie square Zhongshan Road city in Jiangsu province 210008 8 floor Patentee before: Samsung Electronics (China) R&D Center Patentee before: SAMSUNG ELECTRONICS Co.,Ltd. |