CN109801351B - 动态图像生成方法和处理设备 - Google Patents
动态图像生成方法和处理设备 Download PDFInfo
- Publication number
- CN109801351B CN109801351B CN201711128596.3A CN201711128596A CN109801351B CN 109801351 B CN109801351 B CN 109801351B CN 201711128596 A CN201711128596 A CN 201711128596A CN 109801351 B CN109801351 B CN 109801351B
- Authority
- CN
- China
- Prior art keywords
- dimensional
- acquiring
- observation point
- dimensional scene
- dimensional images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请提供了一种动态图像生成方法和处理设备,其中,该方法包括:根据多个显示元素之间的位置关系,构建三维场景;通过调整观测点的参数,获取所述三维场景在所述观测点处形成的多个二维图像;根据所述多个二维图像,生成动态图像。通过上述方案解决了现有的需要一帧帧自己设置和调整图片,才能形成动态图像而导致的动态图像生成效率过低的技术问题,达到了简单高效生成动态图像的技术效果。
Description
技术领域
本申请涉及数据处理技术领域,特别涉及一种动态图像生成方法和处理设备。
背景技术
随着用户移动设备性能的提升,人们对动态视图的需求越来越大。例如,动态的广告创意、动态的商品介绍、动态的任务图像等等。
然而,现有的动态图像生成方式一般都是逐帧制作图片,然后形成动态图像。这种方式在有批量需求的时候,操作量巨大,且模式不可复制,针对另外一组图片需求,就需要重新制作以便,实现起来工作量特别大,实现效率很低。
针对上述问题,目前尚未提出有效的解决方案。
发明内容
本申请实施例提供了一种动态图像生成方法和处理设备,以达到简单高效生成动态图像的技术效果。
一种动态图像生成方法,包括:
根据多个显示元素之间的位置关系,构建三维场景;
通过调整观测点的参数,获取所述三维场景在所述观测点处形成的多个二维图像;
根据所述多个二维图像,生成动态图像。
一种动态图像生成方法,包括:
获取导入的多个显示元素之间的位置关系;
根据所述多个显示元素之间的位置关系构建三维场景;
获取为观测点设置的多组参数数据;
映射得到各组参数数据对应的二维图像;
根据各组参数数据对应的二维图像,批量生成动态图像。
一种处理设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:
根据多个显示元素之间的位置关系,构建三维场景;
通过调整观测点的参数,获取所述三维场景在所述观测点处形成的多个二维图像;
根据所述多个二维图像,生成动态图像。
一种处理设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:
获取导入的多个显示元素之间的位置关系;
根据所述多个显示元素之间的位置关系构建三维场景;
获取为观测点设置的多组参数数据;
映射得到各组参数数据对应的二维图像;
根据各组参数数据对应的二维图像,批量生成动态图像。一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现权利要求上述方法的步骤。
在本申请实施例中,通过对观测点参数的更改模拟出物体移动的动画效果,从而基于一组给定的三维场景元素就可以生成动态图像。通过上述方式解决了现有的需要一帧帧自己设置和调整图片,才能形成动态图像而导致的动态图像生成效率过低的技术问题,达到了简单高效生成动态图像的技术效果。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,并不构成对本申请的限定。在附图中:
图1是根据本申请实施例的动态图像生成方法的方法流程图;
图2是根据本申请实施例的三维场景元素示意图;
图3是根据本申请一个实施例的模拟相机移动方向的示意图;
图4是根据本申请一个实施例的模拟相机移动方向的另一示意图;
图5是根据本申请一个实施例的模拟相机移动方向的又一示意图;
图6是根据本申请实施例的三维投影示意图;
图7是根据本申请实施例的坐标系示意图;
图8是根据本申请实施例的成像原理示意图;
图9是根据本申请实施例的相机移动示意图;
图10是根据本申请实施例的通过相机透视模式得到的二维图像的一种示意图;
图11是根据本申请实施例的通过相机透视模式得到的二维图像的另一种示意图;
图12是根据本申请实施例的通过相机透视模式得到的二维图像的又一种示意图;
图13是根据本申请实施例的通过相机透视模式得到的二维图像的又一种示意图;
图14是根据本申请实施例的动画生成方法的方法流程示意图;
图15是根据本申请实施例的动画生成方法的另一方法流程示意图;
图16是根据本申请实施例的用户终端的架构示意图;
图17是根据本申请实施例的动画生成装置的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下面结合实施方式和附图,对本申请做进一步详细说明。在此,本申请的示意性实施方式及其说明用于解释本申请,但并不作为对本申请的限定。
目前为了生成动画,一般需要生成一帧一帧的图像,然后再将这一帧一帧的图像形成动画。这种方式必然会导致动画生成模板不可复制,不能批量生成动画,实现起来较为复杂,效率较低。为此,考虑到,在获取到用于生成动画的元素(例如,带图案的图片,带有文字的图片)之后,如果将这些元素作为基础,可以模拟出相机的移动,从而可以在元素本身不动的情况下,通过调整相机的参数,达到物体移动的动画效果,这样就可以简单的生成动画。且模式可以复制,再提供一组其它的三维场景元素,按照同样的方式,可以得到效果近似的用户表征不同对象的动画。
图1是本申请所述一种动画生成方法一个实施例的方法流程图。虽然本申请提供了如下述实施例或附图所示的方法操作步骤或装置结构,但基于常规或者无需创造性的劳动在所述方法或装置中可以包括更多或者更少的操作步骤或模块单元。在逻辑性上不存在必要因果关系的步骤或结构中,这些步骤的执行顺序或装置的模块结构不限于本申请实施例描述及附图所示的执行顺序或模块结构。所述的方法或模块结构的在实际中的装置或终端产品应用时,可以按照实施例或者附图所示的方法或模块结构连接进行顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至分布式处理环境)。
如图1所示,动画生成方法可以包括如下步骤:
步骤101:根据多个显示元素之间的位置关系,构建三维场景;
上述的显示元素可以是文字图片,也可以是图像图片等。例如,如图2所示,显示元素为四张图像图片和一张文字图片。
在仅获取到显示元素的情况下是无法形成三维场景的,即,无法形成一个三维空间界面,为了形成三维空间界面,还需要有各个元素之间的位置关系,例如,需要有:相对距离、相对大小、相对方位角。在获取到各个元素之间的相对距离、相对大小和相对方位角之后,就可以形成三维场景。即,可以如图2所示,在获取到这四张图像图片和一张文字图片之间的相对距离、相对大小、相对方位角之后,就可以形成如图2所示的三维场景。
举例而言,如图3和图4所示,三维场景示意图。图3和图4为同样的三维场景元素,为素材1、素材2和素材3。图3和图4中各个素材因为相对位置的不同形成了不同的三维场景。
然而值得注意的是,上述所列举的位置关系仅是一种示意性描述,在实现的时候,还可以有其它的位置关系,本申请对此不作限定。
步骤102:通过调整观测点的参数,获取所述三维场景在所述观测点处形成的多个二维图像;
在生成多个二维图像的时候,可以是通过调整观测点(例如:相机)的如下参数中的一个或多个以获取多个不同视角的二维图像:相机的焦距、相机光心位置、相机距离三维场景元素的距离、相机的视角。
以调整相机的距离为例进行说明:
1)可以如图4所示,模拟相机按照平行于三维场景从左到右的方向,以预设速率移动,获取多个二维图像;
例如,每移动2cm生成一张二维图像,假设一共移动的10cm就可以得到6张二维图像,这六张二维图像就是同一三维场景在相机处于不同视角时候形成的二维图像。
2)可以如图5所示,模拟观测点按照垂直于所述三维场景从后往前的方向,以预设速度移动,获取多个二维图像;
3)可以如图3所示,模拟所述观测点按照平行于所述三维场景从上往下的方向,以预设速率移动,获取多个二维图像。
然而,值得注意的是,上述仅是以调整观测点模型与三维场景之间的距离形成不同的二维图像,在实现的时候,也可以通过调整观测点的焦距,或者观测点的光心位置等等,得到基于同一三维场景的不同图像,以使得可以在三维场景不动的情况下,形成动态的感觉。
上述观测点可以是诸如:模拟相机、物理相机等可以成像的设备或装置,具体以什么形态或者形式存在可以根据实际需要和情况选择,本申请对此不作限定。
可以理解为,人们在开车的时候,虽然窗外的电线杆、房子、山等是不同的,但是这个时候,随着人所在的车的移动,会使得人们看到的电线杆、房子、山等处于一个移动的状态中。
如图6所示,为三维空间的成像原理示意图,即,三维空间通过观测点模型在投影空间形成二维图像,如果调整观测点的位置,以及观测点距离投影空间的位置等等,相应的得到的二维图像也是不同的,变化的。
在生成二维图像的时候,观测点可以是透视模型,以便得到的二维图像是多个元素的重叠形成的二维图像。其中,所谓的透视模型可以指代将三维场景通过相机参数模型映射为二维图像的过程,即模拟真实拍照过程。
步骤103:根据所述多个二维图像生成动态图像。
其中,得到的每个二维图像都是上述三维场景在观测点某个位置和参数时形成的图像。在获取到这些二维图像之后,可以将这些二维图像生成一个二维图像序列,然后,对该二维图像序列进行动态图像编码以形成动态图像。
在形成二维图像序列的时候,可以是按照形成二维图像的顺序排列得到序列,也可以是按照形成二维图像的逆序排列得到序列,或者是按照周期性反复的方式,得到序列。例如,可以按照观测点垂直于三维场景从后往前的方向形成二维图像序列,也可以是按照观测点垂直于三维场景从前往后的方向形成二维图像序列,也可以是按照观测点垂直于三维场景从后往前,再从前往后的方向形成二维图像序列以预设速度移动,还可以是按照观测点垂直于三维场景从前往后,再从后往前的方向形成二维图像序列。
上述所列举的二维图像序列的形成方式仅是一种示意性描述,在实际实现的时候,还可以是采用其它的形成顺序形成的,可以灵活调整和选择,本申请对此不作限定。
在实现的时候,可以是通过一键式和批量化的操作,批量生成多个动态图像样本。且本次设置的观测点变化参数等,也可以进行保存,应用在其它的三维场景元素中,以得到其它的变化方式相似的动态图像。
在一个实施例中,动态图像生成方法,还可以是包括:
S1:获取导入的多个显示元素之间的位置关系;
即,可以是人为导入显示元素(即,图片),也可以是电脑中已经预先存入的,直接调取图片,并设置好图片之间的位置关系,按照位置关系进行排列,形成三维场景。
举例而言,可以基于预先配置或实时计算,得到图片之间的位置关系,例如,每个图片的三维世界坐标系下的坐标(x轴、y轴、z轴坐标),其中,将这些图片设置于同一坐标系中。
S2:根据所述多个显示元素之间的位置关系构建三维场景;
按照各个图片的三维世界坐标信息,在同一三维坐标系中放置好,就可以形成一个三维场景。在实现的时候,可以是将图片XYZ轴的坐标作为参数输入至函数中,形成三维场景,其中,该三维场景可以是存在透视效果的。
S3:获取为观测点设置的多组参数数据;
观测点的参数数据可以包括但不限于:位置、焦距、光圈的位置等等。通过对观测点参数数据的调整,可以得到同一目标物不同的成像效果。例如,在拍摄同一东西的时候,焦距越小,则东西越大,焦距越大,则东西越小。
S4:映射得到各组参数数据对应的二维图像;
在调整参数数据的情况下,通过三维建模可以得到同一成像对象(即,基于上述图片和图片之间的位置关系建立的三维场景)不同的二维图像(即,成像结果)。
在映射得到各组参数数据对应的二维图像的时候,可以通过投射模型得到二维图像。即,可以通过成像透镜将三维场景投影到摄像机的二维像平面上,这个投影可以用成像变换进行表示,也就是投影模型。具体的,对于投影模型而言,主要涉及如下几个坐标系:图像坐标系、摄像机坐标系、世界坐标系。
相机采集的图像可以以标准的电视信号的形式经高速图像采集***变换为数字图像,并将转换得到的数字图像输入计算机。每幅图像可以都是M*N的数组,M行N列的图像中的每一个元素(也就是像素)的数值就是图像点的亮度(也就是图像灰度)。
如图7所示,(u,v)表示以像素为单位的图像坐标系坐标。由于(u,v)只表示像素位于数组中的列数和行数,并没有用物理单位表示出该像素在图像中的位置。因此,可以建立以物理单位(例如:毫米)表示的图像坐标系,也就是如图2所示的XOY坐标系。
在XOY坐标系中,原点O通常定义为摄像机光轴与图像平面的交点,该点一般位于图像中心处,然而有时这个原点O也会发生偏离。二维摄像机坐标系到图像坐标系的变换可以通过如下的矩阵刻画:
相机的成像几何关系可以通过图3刻画。
在图8中,O点为摄像机光心,x轴和y轴与图像的X轴、Y轴平行,z轴为摄像机光轴,与图像平面垂直。光轴与图像平面的焦点即为图像坐标系的原点,由点O与x、y、z轴构成的直角坐标系称为相机坐标系,OO1为摄像机焦距。
世界坐标系的选取具有任意性,由摄像机坐标系转换到世界坐标系的变换是一个3D到3D的变换过程,该转换过程可以通过旋转矩阵R和平移向量t进行刻画。即存在如下关系:
基于上述的三种坐标系,下面对相机的线性模型和非线性模型进行模型:
1)针孔成像模型(即,线性模型):
针孔成像模型又可以称为线性计算机模型。空间任何一点P在图像中的成像位置可以用针孔成像模型近似表示,即,任何点P在图像中的投影位置p作为光心O与P点的连线OP与图像平面的交点。这种关系也可以称为中心射影(即,透射投影perspectiveprojection)。
比例关系可以表示为:
其中,(X,Y)为p点的图像坐标,(x,y,z)为空间点P在摄像机坐标系下的坐标,f为xy平面与图像平面的距离(f作为摄像机的焦距)。上述比例关系可以通过如下的矩阵表示:
其中,s是一个比例因子,P就是我们最为关心的透视投影矩阵。
那么,通过上面的总结,我们就能够很轻易地得到世界坐标系表示下的P点与其在图像坐标系下的p点的坐标变换关系。具体如下所示:
其中,ax=f/dX,为:u轴上的尺度因子(u轴上归一化焦距);ay=f/dY,为v轴上的尺度因子(v轴上归一化焦距)。M是投影矩阵;M1由ax、ay、u0、v0四个参数决定(这些参数仅与相机内部参数有关,因此,可以称为相机内部参数)。M2由相机相对于世界坐标系的方位决定,称为相机外部参数。确定某一摄像机的内外参数,可以称为相机的标定。
通过上式,可以发现,如果得到了相机的内外参数,就相当于得到了投影矩阵M,这是对于任何空间点P,如果知道该空间点在世界坐标系下的坐标Cw=(Xw,Yw,Zw),那么就可以定位出该点在图像中的投影位置。然而,反推是合理的,这主要是因为相机在成像的过程中,损失了成像深度。
2)非线性模型
考虑到真实镜头并不是理想的透视成像,而是带有不同程度的畸变,从而使得空间点所成的像并不在线性模型所描述的位置(X,Y),而是在受到镜头失真影响而偏移实际像平面坐标(X',Y'):
其中,δx和δy表示非线畸变值,这与图像点在图像中的位置相关。理论上,镜头会同时存在径向畸变和切向畸变,然而,由于切向畸变变化很小,而径向畸变的修正由距图像中心的径向距离的偶次幂多项式模型来表示:
其中,(u0,v0)是主点位置的精确值,然而:
r2=(X′-u0)2+(Y′-υ0)2
由此可见,X方向和Y方向的畸变相对值(δx/X,δy/Y)与径向半径平方成正比,即在图像边缘处畸变较大。对于非精密的机器视觉而言,一阶的径向畸变可以描述非线性畸变,相应的,上式可以表示为:
通过上述方式,使得非线性模型相机内参数可以包括:线性模型参数(ax,ay,u0,v0)+非线性畸变参数(k1,k2)。
通过上述投影模型,可以映射得到各组参数数据对应的二维图像。
S5:根据各组参数数据对应的二维图像,批量生成动态图像。
将上述得到的多个二维图像一帧帧连续播放,就可以形成动态图像。
在上例中,通过为观测点设置的多组参数数据,得到处于多组参数数据下所形成为二维图像,因为,不同的二维图像对应于同样几个元素不同的观测位置,从而使得这些二维图像是对应于3D场景下获得的投射图像,在播放的时候,从视觉效果上是具备景深视差的,即,形成的动画是具备景深效果的。
下面结合一个具体场景对上述动态图像生成方法进行说明,然而值得注意的是,该具体实施例仅是为了更好地说明本申请,并不构成对本申请的不当限定。
在本例中,获取如图2所示的三维场景元素以及各个元素之间的位置关系,得到如图2所示的三维场景。可以如图9所示,以相机作为观测点,在设置好相机的广角之后,移动相机,使得相机与三维场景之间的相对位置发生变化,以得到不同的二维图像。例如通过调整相机的位置,可以得到如图8至11所示的不同的二维图像,由对图10至13所示的二维图像进行对比可以发现,虽然三维场景没有变化,但是所形成的图像中各个元素的相对关系是存在变化的,将这些图片生成动画,可以形成一个动态变化的图像,
上述动画生成方法可以应用在例如:购物平台上的产品推广动画,电视投放的动画广告,商场等显示屏上显示的动态图像,或者是动画等视频中的动态图像等等。只要是需要这种动画创意的地方都可以应用上述动画生成方法。
具体的,可以如图14和图15所示,包括:
S1:根据用户设置的三维场景元素以及元素之间的位置关系(例如:元素之间的距离等),构建这些三维场景元素对应的三维场景;
S2:通过按照预设参数设置的相机对上述三维场景进行透视投影重建,获得该参数对应视角的二维图像;
S3:变换相机的视角、焦距等信息,根据变换后的参数对应的相机,对三维场景进行透视投影重建,重新获得二维图像(该步骤可以执行多次);
S4:根据帧率等信息对获得的二维图像序列进行动态图像编码。
从用户层面而言,可以包括如下步骤:
S1:用户可以自定义导入需要进行动画生成的图片元素;
S2:用户可以设置图片在三维场景中的参数信息,以及相机焦距等信息;
S3:用户可以通过一键式和批量化的动作,快速生成动画,在实现的时候,可以一次生成多个动画,从中进行挑选。
根据本申请实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机***中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请所提供的方法实施例可以在移动终端、计算机终端或者类似的具备处理能力的设备中。以运行在移动终端上为例,图16是本申请实施例的一种动画生成方法的移动终端的硬件结构框图。如图16所示,移动终端10可以包括一个或多个(图中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输模块106。本领域普通技术人员可以理解,图16所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,移动终端10还可包括比图16中所示更多或者更少的组件,或者具有与图16所示不同的配置。
存储器104可用于存储应用软件的软件程序以及模块,如本申请实施例中的短信息的发送方法对应的程序指令/模块,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的应用程序的短信息的发送方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输模块106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输模块106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输模块106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
请参考图17,在软件实施方式中,该动画生成装置可以应用于客户端中,也可以应用在服务器中,可以包括:构建模块1501、获取模块1502和生成模块1503。其中:
构建模块1501,用于根据多个显示元素之间的位置关系,构建三维场景;
获取模块1502,用于通过调整观测点的参数,获取所述三维场景在所述观测点处形成的多个二维图像;
生成模块1503,用于根据所述多个二维图像,生成动态图像。
在一个实施方式中,位置关系可以包括但不限于以下至少之一:相对距离、相对大小、相对方位角。
在一个实施方式中,所述观测点的参数可以包括但不限于以下至少之一:焦距、光心位置、距离各显示元素的距离、视角。
在一个实施方式中,处理器通过调整观测点的参数,获取所述三维场景在所述观测点处形成的多个二维图像,可以包括但不限于以下至少之一:
模拟所述观测点按照平行于所述三维场景从左到右的方向,以预设速率移动,获取在所述观测点处形成的多个二维图像;
模拟所述观测点按照垂直于所述三维场景从后往前的方向,以预设速度移动,获取在所述观测点处形成的多个二维图像;
模拟所述观测点按照平行于所述三维场景从上往下的方向,以预设速率移动,获取在所述观测点处形成的多个二维图像。
在软件实施方式中,该动画生成装置可以应用于客户端中,也可以应用在服务器中,可以包括:第一获取模块、构建模块、第二获取模块、映射模块和生成模块。其中:
第一获取模块,用于获取导入的多个显示元素之间的位置关系;
构建模块,用于根据所述多个显示元素之间的位置关系构建三维场景;
第二获取模块,用于获取为观测点设置的多组参数数据;
映射模块,用于映射得到各组参数数据对应的二维图像;
生成模块,用于根据各组参数数据对应的二维图像,批量生成动态图像。
在本申请实施例中,通过对相机参数的更改模拟出物体移动的动画效果,从而基于给定的三维场景元素就可以生成动态图像。通过上述方式解决了现有的需要一帧帧自己设置和调整图片,才能形成动态图像而导致的动态图像生成效率过低的技术问题,达到了简单高效生成动态图像的技术效果。
虽然本申请提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
上述实施例阐明的装置或模块,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。为了描述的方便,描述以上装置时以功能分为各种模块分别描述。在实施本申请时可以把各模块的功能在同一个或多个软件和/或硬件中实现。当然,也可以将实现某功能的模块由多个子模块或子单元组合实现。
本申请中所述的方法、装置或模块可以以计算机可读程序代码方式实现控制器按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本申请所述装置中的部分模块可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、类等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的硬件的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,也可以通过数据迁移的实施过程中体现出来。该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,移动终端,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。本申请的全部或者部分可用于众多通用或专用的计算机***环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、移动通信终端、多处理器***、基于微处理器的***、可编程的电子设备、网络PC、小型计算机、大型计算机、包括以上任何***或设备的分布式计算环境等等。
虽然通过实施例描绘了本申请,本领域普通技术人员知道,本申请有许多变形和变化而不脱离本申请的精神,希望所附的权利要求包括这些变形和变化而不脱离本申请的精神。
Claims (11)
1.一种动态图像生成方法,其特征在于,包括:
根据多个显示元素之间的位置关系,构建三维场景,其中,所述显示元素为:图片,所述位置关系为:元素之间的相对距离、相对大小和相对方位角;
获取为观测点设置的多组参数数据;
通过调整观测点的参数,获取所述三维场景在所述观测点处形成的多个二维图像;
根据所述多个二维图像,生成动态图像。
2.根据权利要求1所述的方法,其特征在于,所述观测点的参数包括以下至少之一:焦距、光心位置、距离各显示元素的距离、视角。
3.根据权利要求1所述的方法,其特征在于,通过调整观测点的参数,获取所述三维场景在所述观测点处形成的多个二维图像,包括以下至少之一:
模拟所述观测点按照平行于所述三维场景从左到右的方向,以预设速率移动,获取在所述观测点处形成的多个二维图像;
模拟所述观测点按照垂直于所述三维场景从后往前的方向,以预设速度移动,获取在所述观测点处形成的多个二维图像;
模拟所述观测点按照平行于所述三维场景从上往下的方向,以预设速率移动,获取在所述观测点处形成的多个二维图像。
4.根据权利要求1至3中任一项所述的方法,其特征在于,根据所述多个二维图像生成动态图像,包括:
对所述多个二维图像进行动态图像编码,生成动态图像。
5.根据权利要求1至3中任一项所述的方法,其特征在于,所述观测点包括以下至少之一:物理相机、虚拟相机。
6.一种动态图像生成方法,其特征在于,包括:
获取导入的多个显示元素之间的位置关系,其中,所述显示元素为:图片,所述位置关系为:元素之间的相对距离、相对大小和相对方位角;
根据所述多个显示元素之间的位置关系构建三维场景;
获取为观测点设置的多组参数数据;
映射得到各组参数数据对应的二维图像;
根据各组参数数据对应的二维图像,批量生成动态图像。
7.一种处理设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:
根据多个显示元素之间的位置关系,构建三维场景,其中,所述显示元素为:图片,所述位置关系为:元素之间的相对距离、相对大小和相对方位角;
获取为观测点设置的多组参数数据;
通过调整观测点的参数,获取所述三维场景在所述观测点处形成的多个二维图像;
根据所述多个二维图像,生成动态图像。
8.根据权利要求7所述的设备,其特征在于,所述观测点的参数包括以下至少之一:焦距、光心位置、距离各显示元素的距离、视角。
9.根据权利要求7所述的设备,其特征在于,通过调整观测点的参数,获取所述三维场景在所述观测点处形成的多个二维图像,包括以下至少之一:
模拟所述观测点按照平行于所述三维场景从左到右的方向,以预设速率移动,获取在所述观测点处形成的多个二维图像;
模拟所述观测点按照垂直于所述三维场景从后往前的方向,以预设速度移动,获取在所述观测点处形成的多个二维图像;
模拟所述观测点按照平行于所述三维场景从上往下的方向,以预设速率移动,获取在所述观测点处形成的多个二维图像。
10.一种处理设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:
获取导入的多个显示元素之间的位置关系,其中,所述显示元素为:图片,所述位置关系为:元素之间的相对距离、相对大小和相对方位角;
根据所述多个显示元素之间的位置关系构建三维场景;
获取为观测点设置的多组参数数据;
映射得到各组参数数据对应的二维图像;
根据各组参数数据对应的二维图像,批量生成动态图像。
11.一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现权利要求1至5中任一项所述方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711128596.3A CN109801351B (zh) | 2017-11-15 | 2017-11-15 | 动态图像生成方法和处理设备 |
PCT/CN2018/114540 WO2019096057A1 (zh) | 2017-11-15 | 2018-11-08 | 动态图像生成方法和处理设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711128596.3A CN109801351B (zh) | 2017-11-15 | 2017-11-15 | 动态图像生成方法和处理设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109801351A CN109801351A (zh) | 2019-05-24 |
CN109801351B true CN109801351B (zh) | 2023-04-14 |
Family
ID=66539359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711128596.3A Active CN109801351B (zh) | 2017-11-15 | 2017-11-15 | 动态图像生成方法和处理设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109801351B (zh) |
WO (1) | WO2019096057A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112579225A (zh) * | 2019-09-30 | 2021-03-30 | 北京国双科技有限公司 | 元素延时显示的处理方法和装置 |
CN113450434B (zh) * | 2020-03-27 | 2024-07-16 | 北京沃东天骏信息技术有限公司 | 一种生成动态图像的方法和装置 |
CN112348938A (zh) * | 2020-10-30 | 2021-02-09 | 杭州安恒信息技术股份有限公司 | 优化三维物体的方法、装置和计算机设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
JP2003337947A (ja) * | 2002-05-21 | 2003-11-28 | Iwane Kenkyusho:Kk | 画像表示方法、画像表示装置、及び画像表示方法を記録した記憶媒体 |
JP2010157035A (ja) * | 2008-12-26 | 2010-07-15 | Ritsumeikan | 合成画像表示システム、合成画像表示方法、及び合成画像表示プログラム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6278460B1 (en) * | 1998-12-15 | 2001-08-21 | Point Cloud, Inc. | Creating a three-dimensional model from two-dimensional images |
JP4285422B2 (ja) * | 2005-03-04 | 2009-06-24 | 日本電信電話株式会社 | 動画像生成システム、動画像生成装置、動画像生成方法、プログラム、及び記録媒体 |
TW201130285A (en) * | 2010-02-26 | 2011-09-01 | Hon Hai Prec Ind Co Ltd | System and method for controlling 3D images |
JP5375897B2 (ja) * | 2011-08-25 | 2013-12-25 | カシオ計算機株式会社 | 画像生成方法、画像生成装置及びプログラム |
US8988446B2 (en) * | 2011-10-07 | 2015-03-24 | Zynga Inc. | 2D animation from a 3D mesh |
EP2779102A1 (en) * | 2013-03-12 | 2014-09-17 | E.sigma Systems GmbH | Method of generating an animated video sequence |
CN103514621B (zh) * | 2013-07-17 | 2016-04-27 | 宝鸡翼迅网络科技有限公司 | 案、事件场景全真动态3d再现方法及重构*** |
CN103679791A (zh) * | 2013-12-19 | 2014-03-26 | 广东威创视讯科技股份有限公司 | 三维场景分屏更新方法和*** |
CN103714565A (zh) * | 2013-12-31 | 2014-04-09 | 广州市久邦数码科技有限公司 | 一种搭载音频的动态图像生成方法及*** |
CN105551084B (zh) * | 2016-01-28 | 2018-06-08 | 北京航空航天大学 | 一种基于图像内容解析的室外三维场景组合构建方法 |
CN107134000B (zh) * | 2017-05-23 | 2020-10-23 | 张照亮 | 一种融合现实的三维动态图像生成方法及*** |
-
2017
- 2017-11-15 CN CN201711128596.3A patent/CN109801351B/zh active Active
-
2018
- 2018-11-08 WO PCT/CN2018/114540 patent/WO2019096057A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
JP2003337947A (ja) * | 2002-05-21 | 2003-11-28 | Iwane Kenkyusho:Kk | 画像表示方法、画像表示装置、及び画像表示方法を記録した記憶媒体 |
JP2010157035A (ja) * | 2008-12-26 | 2010-07-15 | Ritsumeikan | 合成画像表示システム、合成画像表示方法、及び合成画像表示プログラム |
Also Published As
Publication number | Publication date |
---|---|
CN109801351A (zh) | 2019-05-24 |
WO2019096057A1 (zh) | 2019-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109658365B (zh) | 图像处理方法、装置、***和存储介质 | |
CN109242961B (zh) | 一种脸部建模方法、装置、电子设备和计算机可读介质 | |
EP3438919B1 (en) | Image displaying method and head-mounted display apparatus | |
JP6672315B2 (ja) | 画像生成装置、及び画像表示制御装置 | |
CN110249626B (zh) | 增强现实图像的实现方法、装置、终端设备和存储介质 | |
KR20180111798A (ko) | 파노라마 프레임 생성 프로세스에서 프레임의 적응적 스티칭 | |
CN107341832B (zh) | 一种基于红外定位***的多视角切换拍摄***和方法 | |
CN109445103B (zh) | 显示画面的更新方法及装置、储存介质、电子装置 | |
CN113038111A (zh) | 用于图像捕获和处理的方法、***和介质 | |
CN108769462B (zh) | 自由视角场景漫游方法及装置 | |
JP2018522429A (ja) | パノラマバーチャルリアリティコンテンツのキャプチャおよびレンダリング | |
US9001115B2 (en) | System and method for three-dimensional visualization of geographical data | |
CN109801351B (zh) | 动态图像生成方法和处理设备 | |
CN115690382B (zh) | 深度学习模型的训练方法、生成全景图的方法和装置 | |
CN110648274B (zh) | 鱼眼图像的生成方法及装置 | |
CN105809729B (zh) | 一种虚拟场景的球形全景渲染方法 | |
US9754398B1 (en) | Animation curve reduction for mobile application user interface objects | |
CN110689626A (zh) | 游戏模型渲染方法和装置 | |
JPH11175762A (ja) | 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法 | |
CN116168076A (zh) | 一种图像处理方法、装置、设备及存储介质 | |
CN108205822B (zh) | 贴图方法及装置 | |
KR20080034419A (ko) | 3d 영상 생성 및 디스플레이 시스템 | |
CN111652807B (zh) | 眼部的调整、直播方法、装置、电子设备和存储介质 | |
CN111105489A (zh) | 数据合成方法和装置、存储介质和电子装置 | |
CN108734791B (zh) | 全景视频的处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |