WO2022134506A1 - 一种动态人物制作的优化方法与装置 - Google Patents

一种动态人物制作的优化方法与装置 Download PDF

Info

Publication number
WO2022134506A1
WO2022134506A1 PCT/CN2021/101686 CN2021101686W WO2022134506A1 WO 2022134506 A1 WO2022134506 A1 WO 2022134506A1 CN 2021101686 W CN2021101686 W CN 2021101686W WO 2022134506 A1 WO2022134506 A1 WO 2022134506A1
Authority
WO
WIPO (PCT)
Prior art keywords
animation
benchmark
static character
static
action instruction
Prior art date
Application number
PCT/CN2021/101686
Other languages
English (en)
French (fr)
Inventor
邵猛
魏博
Original Assignee
深圳市前海手绘科技文化有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市前海手绘科技文化有限公司 filed Critical 深圳市前海手绘科技文化有限公司
Publication of WO2022134506A1 publication Critical patent/WO2022134506A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Definitions

  • the invention belongs to the technical field of short video production, and in particular relates to an optimization method, device, electronic device and storage medium for dynamic character production.
  • dynamic characters In the process of animation video production, there is usually a need to use dynamic characters. And these dynamic characters need to be produced and provided by the platform.
  • the common method of making dynamic characters usually first creates a static material, and then executes different animations by specifying different parts of the static material in each frame of animation, and continuously plays the animation frames to form a dynamic character material.
  • the dynamic character file produced in this way will contain the information of each animation frame, so the animation material is large in size, and the efficiency of network transmission, loading and parsing is relatively low, resulting in the animation production process is not smooth enough, animation video playback The performance overhead is also relatively large.
  • the present invention provides an optimization method for the production of dynamic characters, comprising the steps of:
  • the present invention also provides an optimization device for making dynamic characters, including:
  • the character material loads the static model module, which is used to record the initial value of the static character material in the initial state;
  • the action instruction packet receiving module is used to drive each part of the static character to perform specific actions according to the action instruction;
  • Action instruction packet parsing module to obtain the key nodes and motion paths of the movement of each part of the static character
  • the action instruction matching module according to the first dynamic value and the second dynamic value of the static character material under the adjacent first key node and the second key node and the motion path between the two key nodes, matches the action instruction to Each part of the static character material to get the motion trajectory of the static character.
  • this method does not need to record or actually obtain the animation effect of each point on the motion track. It only needs to know the key nodes and the motion track, and the dynamic value and corresponding animation of any point on the motion track can be calculated. frame.
  • step of loading the static character material for recording the initial value of the static character material in the initial state includes:
  • the character material loading static module includes;
  • the static character parsing unit is used to parse the specific material of the static character
  • the initial value obtaining unit is used to obtain the initial value of the static character material.
  • a static character is decomposed into different materials, and the action values of the whole static character are combined according to the action values of different materials at various time points.
  • step of parsing the action instruction packet to obtain the key nodes and motion paths of the motion of each part of the static character includes:
  • the action instruction is divided into different action execution stages.
  • the action instruction packet parsing module includes:
  • Judging unit judging the type of animation
  • a segmentation unit configured to divide the action instruction into different stages according to animation types.
  • the motion process of the static character is divided into different action execution stages, so that in a specific stage, the static character can execute a single motion instruction and become a simple animation.
  • the steps of matching the action instructions to various parts of the static character material to obtain the motion trajectory of the static character include:
  • the action instruction is matched to each part of the static character material.
  • the action instruction matching module includes:
  • the key node acquisition unit is used to obtain the key nodes in the process of static character movement
  • the action instruction matching unit is configured to match the action instruction to each part of the static character material according to the two adjacent key nodes and the motion path.
  • any point in the motion process can be obtained according to the motion trajectory, the initial point and the end point.
  • judging the type of animation includes:
  • the first type set includes a plurality of first benchmark animations
  • the second type set includes a plurality of second benchmark animations
  • first reference animation and/or the second reference animation are respectively provided with animation paths formed based on pixels;
  • the type of animation is obtained based on the comparison result.
  • comparing the animation path of the animation at the current moment with the animation path of the first reference animation and/or the second reference animation to obtain a comparison result including:
  • dividing the action instruction into different action execution stages includes:
  • each first benchmark animation or second benchmark animation has a processing method corresponding to the second dimension
  • determining the processing method for the second dimension of the animation includes:
  • the animation is processed in the second dimension through the corresponding processing method to obtain different action execution stages of the animation.
  • the judging unit includes:
  • a setting subunit used to preset the first type set and the second type set
  • the first type set includes a plurality of first benchmark animations
  • the second type set includes a plurality of second benchmark animations
  • the comparison sub-unit is used to compare the obtained animation with the first reference animation and/or the second reference animation to obtain the type of animation.
  • first reference animation and/or the second reference animation are respectively provided with animation paths formed based on pixels;
  • the alignment subunit is also used to perform the following steps, including:
  • the type of animation is obtained based on the comparison result.
  • comparison subunit is also used to perform the following steps, including:
  • the segmentation unit includes:
  • a first sub-processing unit configured to determine a processing method for the first dimension of the animation based on the animation type
  • the second sub-processing unit is configured to determine a processing method for the second dimension of the animation based on the comparison result.
  • each first benchmark animation or second benchmark animation has a processing method corresponding to the second dimension
  • the second sub-processing unit is further configured to perform the following steps, including:
  • the animation is processed in the second dimension through the corresponding processing method to obtain different action execution stages of the animation.
  • the present invention also provides an electronic device, comprising a memory and a processor, wherein the memory stores a computer program, and the computer program is executed in the processor to implement any one of the above methods.
  • the present invention also provides a storage medium storing a computer program, and the computer program can implement any of the above methods when executed in a processor.
  • the invention provides an optimization method for the production of dynamic characters. First, analyze each part of the static character material, match the action instruction to each part of the static character material according to the received action instruction, and parse the action instruction package to obtain the static character.
  • FIG. 1 is a flowchart of an optimization method for making a dynamic character according to an embodiment
  • FIG. 2 is a flowchart of an improved method for the method in FIG. 1 provided by an embodiment
  • FIG. 3 is a flowchart of an improved method for the method in FIG. 1 provided by an embodiment
  • FIG. 4 is a flowchart of an improved method for the method in FIG. 1 provided by an embodiment
  • FIG. 5 is an architecture diagram of an optimization device for dynamic character production provided by an embodiment
  • Fig. 6 is the architecture diagram of the static module of character material loading in Fig. 5;
  • Fig. 7 is the architecture diagram of the action instruction packet analysis module in Fig. 5;
  • FIG. 8 is a structural diagram of the action instruction matching module in FIG. 5 .
  • the term “storage medium” may be various media that can store computer programs, such as ROM, RAM, magnetic disk or optical disk.
  • the term "processor” can be CPLD (Complex Programmable Logic Device: Complex Programmable Logic Device), FPGA (Field-Programmable Gate Array: Field Programmable Gate Array), MCU (Microcontroller Unit: Micro Control Unit), PLC (Programmable Logic) Controller: programmable logic controller) and CPU (Central Processing Unit: central processing unit) and other chips or circuits with data processing functions.
  • electronic device may be any device with data processing and storage functions, and may generally include both stationary and mobile terminals. Fixed terminals such as desktops, etc. Mobile terminals such as mobile phones, PADs, and mobile robots. In addition, the technical features involved in the different embodiments of the present invention described later can be combined with each other as long as there is no conflict with each other.
  • the present embodiment provides an optimization method for making a dynamic character, including the steps:
  • Embodiment 2 is a diagrammatic representation of Embodiment 1:
  • the present invention also provides an optimization device for making dynamic characters, including:
  • Character material loading static module 1 which is used to record the initial value of the static character material in the initial state
  • the action instruction packet receiving module 2 is used to drive each part of the static character to perform specific actions according to the action instruction;
  • Action instruction packet analysis module 3 to obtain the key nodes and motion paths of the movement of each part of the static character
  • the action instruction matching module 4 matches the action instruction according to the first dynamic value and the second dynamic value of the static character material under the adjacent first key node and the second key node and the motion path between the two key nodes to each part of the static character material to get the motion trajectory of the static character.
  • this method does not need to record or actually obtain the animation effect of each point on the motion track. It only needs to know the key nodes and the motion track, and the dynamic value and corresponding animation of any point on the motion track can be calculated. frame.
  • the step of loading the static character material for recording the initial value of the static character material in the initial state includes:
  • the character material loading static module includes;
  • the initial value obtaining unit 12 is configured to obtain the initial value of the static character material.
  • a static character is decomposed into different materials, and the action values of the whole static character are combined according to the action values of different materials at various time points.
  • the first dynamic value, the second dynamic value and the motion path of the static character material under two connected key nodes are calculated to obtain the dynamic value of each part of the static character material between the two connected key nodes, and then the complete action of the dynamic character.
  • the step of analyzing the action instruction package to obtain the key nodes and motion paths of the movement of each part of the static character includes:
  • the action instruction packet parsing module includes:
  • Judging unit 31 judging the type of animation
  • the segmentation unit 32 is configured to divide the action instruction into different stages according to animation types.
  • the motion process of the static character is divided into different action execution stages, so that in a specific stage, the static character can execute a single motion instruction and become a simple animation.
  • the matching action instruction is based on the first dynamic value and the second dynamic value of the static character material under the adjacent first key node and the second key node and the motion path between the two key nodes.
  • the steps of matching the action instructions to each part of the static character material to obtain the motion trajectory of the static character include:
  • the action instruction matching module includes:
  • the key node obtaining unit 41 is used to obtain the key nodes in the motion process of the static character
  • the action instruction matching unit 42 is configured to match the action instruction to each part of the static character material according to the two adjacent key nodes and the motion path.
  • any point in the motion process can be obtained according to the motion trajectory, the initial point and the end point.
  • the present invention determines the type of animation including:
  • the first type set and the second type set are preset. Different types of collections may be handled differently.
  • the first type set may be a simple animation type
  • the second type set may be a complex animation type.
  • the first type set includes a plurality of first benchmark animations
  • the second type set includes a plurality of second benchmark animations.
  • the first benchmark animation in the first set type can be linear animation, circular animation, polyline animation, etc.
  • the second benchmark animation in the second set type can be a free path. Animation, combined animation.
  • the first reference animation and/or the second reference animation of the present invention are respectively provided with animation paths formed based on pixel points.
  • the animation path may be a shape, shape, such as linear, circular, polyline, etc., and the animation path may also be an animation, such as free path animation, combined animation, and so on.
  • each animation frame has a corresponding image and node.
  • the image and node can be the same object on different animation frames.
  • the object can be a football, a head, etc.
  • the animation path is obtained according to the position of the image and the node at the animation frame at different times. For example, if a football does its own falling motion, the animation path formed by the football in multiple animation frames is a linear one.
  • the type of animation is obtained based on the comparison result.
  • the comparison result is the similarity between the animation path at the current moment and the first reference animation and/or the second reference animation, and the type of the animation is obtained according to the similarity, and corresponding processing is performed.
  • the present invention compares the animation path of the animation at the current moment with the animation path of the first reference animation and/or the second reference animation to obtain a comparison result including:
  • the first benchmark animation or the second benchmark animation with the highest animation path similarity of the animation at the current moment as the comparison result is obtained.
  • the default animation path of the animation is similar to the first benchmark animation or the second benchmark animation with the highest phase velocity.
  • the first reference animation or the second reference animation with the highest similarity is output.
  • the present invention divides the action instruction into different action execution stages, including:
  • the processing method of the first dimension of the present invention is to choose different optimization methods for animation.
  • the processing method of the first dimension can be a fast processing method, and this paradigm does not require active feedback to the user after processing the animation.
  • the processing method of the first dimension can be an accurate processing method, and this paradigm requires active feedback to the user after processing the animation.
  • a processing method for the second dimension of the animation is determined.
  • the processing method of the second dimension of the present invention is to choose different optimization methods for animation.
  • the processing method of the second dimension can be that the animation only retains the key animation frames, the linear animation only retains the start and end animation frames, the circular animation only retains the animation radius, and the polyline animation retains each vertex
  • the animation can be restored according to the animation type and keyframe.
  • the processing method of the second dimension can be to retain key animation frames that can restore the key process of the animation, such as free paths, and retain them according to each key point in the path. composition is retained.
  • only the part that participates in the animation participates in the retention of animation frame information, and the part that does not participate in the animation does not participate in the retention of the animation frame.
  • each of the first reference animation or the second reference animation has a processing method corresponding to the second dimension
  • determining the processing method for the second dimension of the animation includes:
  • the animation is processed in the second dimension through the corresponding processing method to obtain different action execution stages of the animation.
  • different processing methods are obtained according to different animation paths of the animation to obtain the retained animation frames, and different action execution stages of the animation are obtained according to the retained animation frames.
  • the judgment unit of the present invention includes:
  • the setting subunit is used to preset the first type set and the second type set. Different types of collections may be handled differently.
  • the first type set may be a simple animation type
  • the second type set may be a complex animation type.
  • the first type set includes a plurality of first benchmark animations
  • the second type set includes a plurality of second benchmark animations.
  • the first benchmark animation in the first set type can be linear animation, circular animation, polyline animation, etc.
  • the second benchmark animation in the second set type can be a free path. Animation, combined animation.
  • the comparison sub-unit is used to compare the obtained animation with the first reference animation and/or the second reference animation to obtain the type of animation. By comparing the animation obtained at the current moment with the first reference animation and/or the second reference animation, the first type or the second type of the animation obtained at the current moment is obtained.
  • the first reference animation and/or the second reference animation are respectively set with animation paths formed based on pixel points.
  • the animation path may be a shape, shape, such as linear, circular, polyline, etc., and the animation path may also be an animation, such as free path animation, combined animation, and so on.
  • the alignment subunit is also used to perform the following steps, including:
  • each animation frame has a corresponding image and node.
  • the image and node can be the same object on different animation frames.
  • the object can be a football, a head, etc.
  • the animation path is obtained according to the position of the image and the node at the animation frame at different times. For example, if a football does its own falling motion, the animation path formed by the football in multiple animation frames is a linear one.
  • the type of animation is obtained based on the comparison result.
  • the comparison result is the similarity between the animation path at the current moment and the first reference animation and/or the second reference animation, and the type of the animation is obtained according to the similarity, and corresponding processing is performed.
  • the comparison subunit of the present invention is also used to perform the following steps, including:
  • the first benchmark animation or the second benchmark animation with the highest animation path similarity of the animation at the current moment as the comparison result is obtained.
  • the default animation path of the animation is similar to the first benchmark animation or the second benchmark animation with the highest phase velocity.
  • the first reference animation or the second reference animation with the highest similarity is output.
  • the segmentation unit of the present invention includes:
  • a first sub-processing unit configured to determine a processing method for the first dimension of the animation based on the animation type.
  • the processing method of the first dimension of the present invention is to choose different optimization methods for animation. For example, when the animation is a simple animation, the processing method of the first dimension can be a fast processing method, and this paradigm does not require active feedback to the user after processing the animation. When the animation is a complex animation, the processing method of the first dimension can be a precise processing method, and this paradigm requires active feedback to the user after processing the animation.
  • the second sub-processing unit is configured to determine a processing method for the second dimension of the animation based on the comparison result.
  • the processing method of the second dimension of the present invention is to choose different optimization methods for animation.
  • the processing method of the second dimension can be that the animation only retains the key animation frames, the linear animation only retains the start and end animation frames, the circular animation only retains the animation radius, and the polyline animation retains each vertex
  • the animation frame of the animation can be restored according to the animation type and keyframe.
  • the processing method of the second dimension can be to retain key animation frames that can restore the key process of the animation, such as free paths, and retain them according to each key point in the path. composition is retained.
  • only the part that participates in the animation participates in the retention of animation frame information, and the part that does not participate in the animation does not participate in the retention of the animation frame.
  • each of the first reference animation or the second reference animation has a processing method corresponding to the second dimension.
  • the second sub-processing unit is further configured to perform the following steps, including:
  • the animation is processed in the second dimension through the corresponding processing method to obtain different action execution stages of the animation.
  • different processing methods are obtained according to different animation paths of the animation to obtain the retained animation frames, and different action execution stages of the animation are obtained according to the retained animation frames.
  • the present invention also provides an electronic device, comprising a memory and a processor, wherein the memory stores a computer program, and the computer program is executed in the processor to implement any one of the above methods.
  • the electronic device may be a mobile terminal or a web terminal.
  • the present invention also provides a storage medium storing a computer program, and the computer program can implement any of the above methods when executed in a processor.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种动态人物制作的优化方法首先解析静态人物素材的各个部分,依据接收到的动作指令,将所述动作指令匹配到静态人物素材的各个部分,解析动作指令包,以得到静态人物各个部分运动的关键节点和运动路径,同时依据两个相邻关键节点的动态值以及运动轨迹,最终可以得到静态人物的运动轨迹,即得到静态人物的运动轨迹,即完成一个动态人物的制作。

Description

一种动态人物制作的优化方法与装置 技术领域
本发明属于短视频制作技术领域,尤其涉及一种用于动态人物制作的优化方法、装置、电子设备和存储介质。
背景技术
在动画视频制作过程中,通常会有使用动态人物的需求。而这些动态人物,需要由平台方制作并提供。目前常见的动态人物制作方法,通常先制作一个静态素材,然后通过在每一帧动画中指定静态素材不同部分执行不同动画,通过动画帧连续播放形成动态人物素材。这种方式制作的动态人物文件中,会包含每一帧动画帧的信息,所以动画素材体积较大,在网络传输、加载和解析时效率都比较低,导致动画制作过程不够流畅,动画视频播放性能开销也比较大。
因此,如何通过优化动态人物动画帧的方式,减少了素材文件中的动画帧信息,在加载和解析时保证即使动画帧减少也能保障动画视频的播放性能,是目前亟需解决的技术问题。
发明内容
为解决上述技术缺陷,本发明提供一种动态人物制作的优化方法,包括步骤:
加载静态人物素材,以用于记录初始状态下静态人物素材的初始值;
接收动作指令包,用于驱动静态人物的各个部分依据动作指令执行具体动作;
解析动作指令包,以得到静态人物各个部分运动的关键节点和运动路径;
匹配动作指令,依据相邻的第一关键节点和第二关键节点下静态人物素材的第一动态值和第二动态值以及两个关键节点之间的运动路径,将所述动作指令匹配到静态人物素材的各个部分,以得到静态人物的运动轨迹。
对应的,本发明还提供一种动态人物制作的优化装置,包括:
人物素材加载静态模模块,用于记录初始状态下静态人物素材的初始值;
动作指令包接收模块,用于驱动静态人物的各个部分依据动作指令执行具体动作;
动作指令包解析模块,以得到静态人物各个部分运动的关键节点和运动路径;
动作指令匹配模块,依据相邻的第一关键节点和第二关键节点下静态人物素材的第一动态值和第二动态值以及两个关键节点之间的运动路径,将所述动作指令匹配到静态人物素材的各个部分,以得到静态人物的运动轨迹。
技术效果说明:首先解析静态人物素材的各个部分,依据接收到的动作指令,将所述动作指令匹配到静态人物素材的各个部分,解析动作指令包,以得到静态人物各个部分运动的关键节点和运动路径,同时依据两个相邻关键节点的动态值以及运动轨迹,最终可以得到静态人物的运动轨迹,即得到静态人物的运动轨迹,即完成一个动态人物的制作。
需要说明的是,通过记录两个相邻关键节点的动态值以及运动轨迹,可以得到在两个关键节点之间的静态人物素材各个部分的动态值和对应点上的动画帧。
还需要进一步说明的是,此方式不需要记录或者实际得到运动轨迹上每一个点的动画效果,只需要知道关键节点和运动轨迹,就可以计算出运动轨迹上任意一点的动态值和对应的动画帧。
进一步的,所述加载静态人物素材,以用于记录初始状态下静态人物素材的初始值的步骤包括:
解析静态人物的具体素材;
获取静态人物素材的初始值。
对应的,所述人物素材加载静态模块包括;
静态人物解析单元,用于解析静态人物的具体素材;
初始值获取单元,用于获取静态人物素材的初始值。
技术效果说明:加载并解析静态人物的各个素材,并获得静态人物素材各个部分最初的状态值,以便于与后续的运动值做比较。
需要说明的是,把静态人物的各个部分分开,有助于针对人物在运动过程中完成各样的动作,需要人物的各个部分如何动作,依据动作指令可以实现不同动作。
还需要进一步说明的是,把一个静态人物,分解为不同的素材,依据不同素材在各个时间点动作值,结合为整个静态人物的动作值。
进一步的,所述解析动作指令包,以得到静态人物各个部分运动的关键节点和运动路径的步骤包括:
判断动画的类型;
依据动画类型,将所述动作指令分成不同的动作执行阶段。
对应的,所述动作指令包解析模块包括:
判断单元,判断动画的类型;
分段单元,用于将所述动作指令按照动画类型分成不同的阶段。
技术效果说明:由于动画类型不同,依据在动画过程中,静态人物需要完成的不同动作,可以把动作指令按照时间分成不同的阶段,。
需要说明的是,按照动作指令,将静态人物的运动过程,分成不同的动作执行阶段,这样在具体的阶段,静态人物可以执行单一的运动指令,变成简单动画。
进一步的,所述匹配动作指令,依据相邻的第一关键节点和第二关键节点下静态人物素材的第一动态值和第二动态值以及两个关键节点之间的运动路径,将所述动作指令匹配到静态人物素材的各个部分,以得到静态人物的运动轨迹的步骤包括:
获取静态人物运动过程中的关键节点;
依据相邻的两个关键节点以及运动路径,将所述动作指令匹配到静态人物素材的各个部分。
对应的,所述动作指令匹配模块包括:
关键节点获取单元,用于获取静态人物运动过程中的关键节点;
动作指令匹配单元,用于依据相邻的两个关键节点以及运动路径,将所述动作指令匹配到静态人物素材的各个部分。
技术效果说明:依据两个相邻的关键节点和两个关键节点之间的运动轨迹,可以计算出任意点上动画帧。
需要说明的是,依据运动轨迹和初始点与终点,来得到运动过程中任意一点。
进一步的,判断动画的类型包括:
预先设置第一类型集合和第二类型集合;
所述第一类型集合包括多个第一基准动画,所述第二类型集合包括多个第二基准动画;
将获得的动画与第一基准动画和\或第二基准动画比对,得到动画的类型。
进一步的,所述第一基准动画和\或第二基准动画分别设置有基于像素点形成的动画路径;
将获得的动画与第一基准动画和\或第二基准动画比对,得到动画的类型包括:
获取当前时刻动画的基于像素点的动画路径,将当前时刻动画的动画路径与第一基准动画和\或第二基准动画的动画路径比对得到比对结果;
基于所述比对结果得到动画的类型。
进一步的,将当前时刻动画的动画路径与第一基准动画和\或第二基准动画的动画路径比对得到比对结果包括:
获取当前时刻动画的动画路径与每一个第一基准动画、第二基准动画的相似度;
得到当前时刻动画的动画路径相似度最高的第一基准动画或第二基准动画为比对结果。
进一步的,依据动画类型,将所述动作指令分成不同的动作执行阶段包括:
基于所述动画类型,确定对所述动画第一维度的处理方式;
基于所述比对结果,确定对所述动画第二维度的处理方式。
进一步的,每一个第一基准动画或第二基准动画具有与其对应的第二维度的处理方式;
基于所述比对结果,确定对所述动画第二维度的处理方式包括:
获取相似度最高的第一基准动画或第二基准动画所对应的处理方式;
通过所述对应的处理方式对所述动画进行第二维度的处理以得到动画不同的动作执行阶段。
对应的,判断单元包括:
设置子单元,用于预先设置第一类型集合和第二类型集合;
所述第一类型集合包括多个第一基准动画,所述第二类型集合包括多个第二基准动画;
比对子单元,用于将获得的动画与第一基准动画和\或第二基准动画比对,得到动画的类型。
对应的,所述第一基准动画和\或第二基准动画分别设置有基于像素点形成的动画路径;
所述比对子单元还用于执行以下步骤,包括:
获取当前时刻动画的基于像素点的动画路径,将当前时刻动画的动画路径与第一基准动画和\或第二基准动画的动画路径比对得到比对结果;
基于所述比对结果得到动画的类型。
对应的,所述比对子单元还用于执行以下步骤,包括:
获取当前时刻动画的动画路径与每一个第一基准动画、第二基准动画的相似度;
得到当前时刻动画的动画路径相似度最高的第一基准动画或第二基准动画为比对结果。
对应的,所述分段单元包括:
第一子处理单元,用于基于所述动画类型,确定对所述动画第一维度的处理方式;
第二子处理单元,用于基于所述比对结果,确定对所述动画第二维度的处理方式。
对应的,每一个第一基准动画或第二基准动画具有与其对应的第二维度的处理方式;
所述第二子处理单元还用于执行以下步骤,包括:
获取相似度最高的第一基准动画或第二基准动画所对应的处理方式;
通过所述对应的处理方式对所述动画进行第二维度的处理以得到动画不同的动作执行阶段。
本发明还提供一种电子设备,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序在所述处理器中执行可实现上述任一种方法。
本发明还提供一种存储介质,存储计算机程序,所述计算机程序在处理器中执行可实现上述任一种方法。
本发明提供一种动态人物制作的优化方法首先解析静态人物素材的各个部分,依据接收到的动作指令,将所述动作指令匹配到静态人物素材的各个部分,解析动作指令包,以得到静态人物各个部分运动的关键节点和运动路径,同时依 据两个相邻关键节点的动态值以及运动轨迹,最终可以得到静态人物的运动轨迹,即得到静态人物的运动轨迹,即完成一个动态人物的制作。
附图说明
图1为一实施例提供的一种动态人物制作的优化方法的流程图;
图2为一实施例提供的对图1中方法的改进方法流程图;
图3为一实施例提供的对图1中方法的改进方法流程图;
图4为一实施例提供的对图1中方法的改进方法流程图;
图5为一实施例提供的一种动态人物制作的优化装置的的架构图;
图6为图5中人物素材加载静态模块的架构图;
图7为图5中动作指令包解析模块的架构图;
[根据细则91更正 13.07.2021] 
图8为图5中动作指令匹配模块的架构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,在本发明的描述中,除非另有明确的规定和限定,术语“存储介质”可以是ROM、RAM、磁碟或者光盘等各种可以存储计算机程序的介质。术语“处理器”可以是CPLD(Complex Programmable Logic Device:复杂可编程逻辑器件)、FPGA(Field-Programmable Gate Array:现场可编程门阵列)、MCU(Microcontroller Unit:微控制单元)、PLC(Programmable Logic Controller:可编程逻辑控制器)以及CPU(Central Processing Unit:中央处理器)等具备数据处理功能的芯片或电路。术语“电子设备”可以是具有数据处理功能和存储功能的任何设备,通常可以包括固定终端和移动终端。固定终端如台式机等。移动终端如手机、PAD以及移动机器人等。此外,后续所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
下面,本发明提出部分优选实施例以教导本领域技术人员实现。
实施例一:
参见图1,本实施例提供一种动态人物制作的优化方法,包括步骤:
S1、加载静态人物素材,以用于记录初始状态下静态人物素材的初始值;
S2、接收动作指令包,用于驱动静态人物的各个部分依据动作指令执行具体动作;
S3、解析动作指令包,以得到静态人物各个部分运动的关键节点和运动路径;
S4、匹配动作指令,依据相邻的第一关键节点和第二关键节点下静态人物素材的第一动态值和第二动态值以及两个关键节点之间的运动路径,将所述动作指令匹配到静态人物素材的各个部分,以得到静态人物的运动轨迹。
实施例二:
参见图5,对应的,本发明还提供一种动态人物制作的优化装置,包括:
人物素材加载静态模模块1,用于记录初始状态下静态人物素材的初始值;
动作指令包接收模块2,用于驱动静态人物的各个部分依据动作指令执行具体动作;
动作指令包解析模块3,以得到静态人物各个部分运动的关键节点和运动路径;
动作指令匹配模块4,依据相邻的第一关键节点和第二关键节点下静态人物素材的第一动态值和第二动态值以及两个关键节点之间的运动路径,将所述动作指令匹配到静态人物素材的各个部分,以得到静态人物的运动轨迹。
技术效果说明:首先解析静态人物素材的各个部分,依据接收到的动作指令,将所述动作指令匹配到静态人物素材的各个部分,解析动作指令包,以得到静态人物各个部分运动的关键节点和运动路径,同时依据两个相邻关键节点的动态值以及运动轨迹,最终可以得到静态人物的运动轨迹,即得到静态人物的运动轨迹,即完成一个动态人物的制作。
需要说明的是,通过记录两个相邻关键节点的动态值以及运动轨迹,可以得到在两个关键节点之间的静态人物素材各个部分的动态值和对应点上的动画帧。
还需要进一步说明的是,此方式不需要记录或者实际得到运动轨迹上每一个点的动画效果,只需要知道关键节点和运动轨迹,就可以计算出运动轨迹上任意一点的动态值和对应的动画帧。
实施例三
参考图2,进一步的,所述加载静态人物素材,以用于记录初始状态下静态人物素材的初始值的步骤包括:
S11、解析静态人物的具体素材;
S12、获取静态人物素材的初始值。
实施例四
参考图6,对应的,所述人物素材加载静态模块包括;
静态人物解析单元11,用于解析静态人物的具体素材;
初始值获取单元12,用于获取静态人物素材的初始值。
技术效果说明:加载并解析静态人物的各个素材,并获得静态人物素材各个部分最初的状态值,以便于与后续的运动值做比较。
需要说明的是,把静态人物的各个部分分开,有助于针对人物在运动过程中完成各样的动作,需要人物的各个部分如何动作,依据动作指令可以实现不同动作。
还需要进一步说明的是,把一个静态人物,分解为不同的素材,依据不同素材在各个时间点动作值,结合为整个静态人物的动作值。
计算两个相连关键节点下静态人物素材的第一动态值和第二动态值以及运动路径,以得到两个相连关键节点之间静态人物素材各个部分动态值,进而到动态人物的完整动作。
实施例五
如图3,进一步的,所述解析动作指令包,以得到静态人物各个部分运动的关键节点和运动路径的步骤包括:
S31、判断动画的类型;
S32、依据动画类型,将所述动作指令分成不同的动作执行阶段。
实施例六
如图7,对应的,所述动作指令包解析模块包括:
判断单元31,判断动画的类型;
分段单元32,用于将所述动作指令按照动画类型分成不同的阶段。
技术效果说明:由于动画类型不同,依据在动画过程中,静态人物需要完成的不同动作,可以把动作指令按照时间分成不同的阶段,。
需要说明的是,按照动作指令,将静态人物的运动过程,分成不同的动作执行阶段,这样在具体的阶段,静态人物可以执行单一的运动指令,变成简单动画。
实施例七
如图4,进一步的,所述匹配动作指令,依据相邻的第一关键节点和第二关键节点下静态人物素材的第一动态值和第二动态值以及两个关键节点之间的运动路径,将所述动作指令匹配到静态人物素材的各个部分,以得到静态人物的运动轨迹的步骤包括:
S41、获取静态人物运动过程中的关键节点;
S42、依据相邻的两个关键节点以及运动路径,将所述动作指令匹配到静态人物素材的各个部分。
实施例八
如图8,对应的,所述动作指令匹配模块包括:
关键节点获取单元41,用于获取静态人物运动过程中的关键节点;
动作指令匹配单元42,用于依据相邻的两个关键节点以及运动路径,将所述动作指令匹配到静态人物素材的各个部分。
技术效果说明:依据两个相邻的关键节点和两个关键节点之间的运动轨迹,可以计算出任意点上动画帧。
需要说明的是,依据运动轨迹和初始点与终点,来得到运动过程中任意一点。
实施例九
本发明判断动画的类型包括:
预先设置第一类型集合和第二类型集合。其中不同的类型集合可能会有不同的处理方式。第一类型集合可以是简单动画类型,第二类型集合可以是复杂动画类型。
所述第一类型集合包括多个第一基准动画,所述第二类型集合包括多个第二基准动画。在每个集合中都有基准动画,例如说第一集合类型中的第一基准画可以是线性动画、圆形动画、折线动画等等,第二集合类型中的第二基准画可以是自由路径动画、组合动画。
将获得的动画与第一基准动画和\或第二基准动画比对,得到动画的类型。通过将当前时刻获得动画与第一基准动画和\或第二基准动画比对,得到将当前时刻获得动画所处于的第一类型或第二类型。
本发明第一基准动画和\或第二基准动画分别设置有基于像素点形成的动画路径。动画路径可能是一个形态、形状,例如说是线性、圆形、折线等等,动画路径也可能是一个动画,例如说是自由路径动画、组合动画等等。
将获得的动画与第一基准动画和\或第二基准动画比对,得到动画的类型包括:
获取当前时刻动画的基于像素点的动画路径,将当前时刻动画的动画路径与第一基准动画和\或第二基准动画的动画路径比对得到比对结果。本发明会根据动画的像素点形成相应的动画路径,例如说在不同动画帧上,每个动画帧都具有相应的图像、节点,该图像、节点可以是不同动画帧上的同一个对象,该对象可以是一个足球、脑袋等等。根据图像、节点在不同时刻的动画帧处的位置得到动画路径。例如说足球做自有落体运动,则足球在多个动画帧中形成的动画路径即是一个线性的。
基于所述比对结果得到动画的类型。比对结果为当前时刻的动画路径与第一基准动画和\或第二基准动画的相似度,根据相似度得到该动画的类型,进行相应的处理。
本发明将当前时刻动画的动画路径与第一基准动画和\或第二基准动画的动画路径比对得到比对结果包括:
获取当前时刻动画的动画路径与每一个第一基准动画、第二基准动画的相似度。在动画制作过程中,不可能将所有的基准动画都与动画路径完全的匹配,所以此时需要进行相似度的计算,根据相似度的值判断动画所相应的类型,使得本发明提供的技术方案适用于的动画范围较广。
得到当前时刻动画的动画路径相似度最高的第一基准动画或第二基准动画为比对结果。在相似度比对之后,得到相似度最高的第一基准动画或第二基准动画,此时默认为该动画的动画路径与相速度最高的第一基准动画或第二基准动画是相似的路径,此时输出相似度最高的第一基准动画或第二基准动画。
本发明依据动画类型,将所述动作指令分成不同的动作执行阶段包括:
基于所述动画类型,确定对所述动画第一维度的处理方式。本发明的第一维度的处理方式为选择对动画采取不同的优化方式。例如说在当动画为简单动画时,第一维度的处理方式可以是快速处理方式,该种范式在对动画处理后不需要 主动反馈至用户。在当动画为复杂动画时,第一维度的处理方式可以是精确处理方式,该种范式在对动画处理后需要主动反馈至用户。
基于所述比对结果,确定对所述动画第二维度的处理方式。本发明的第二维度的处理方式为选择对动画采取不同的优化方式。例如说在当动画为简单动画时,第二维度的处理方式可以是动画只保留关键动画帧,线性动画只保留开始和结尾动画帧,圆形动画只保留动画半径、折线动画保留每个折点的动画帧,根据动画类型和关键帧可以还原动画。例如说在当动画为复杂动画时,第二维度的处理方式可以是保留能够还原动画关键过程的关键动画帧,比如自由路径,根据路径中的每个关键点进行保留,组合动画按照组合里的组成进行保留。本发明只有参与动画的部分才参与动画帧信息保留,未参与动画的部分不参与动画帧保留。
本发明中,每一个第一基准动画或第二基准动画具有与其对应的第二维度的处理方式;
基于所述比对结果,确定对所述动画第二维度的处理方式包括:
获取相似度最高的第一基准动画或第二基准动画所对应的处理方式。不同的基准动画可能会具有不同的处理方式,如上所述的各种处理方式,本发明不再进行列举。
通过所述对应的处理方式对所述动画进行第二维度的处理以得到动画不同的动作执行阶段。通过对动画处理后,根据动画不同的动画路径得到不同的处理方式得到所保留的动画帧,根据保留的动画帧得到动画不同的动作执行阶段。
实施例十
本发明判断单元包括:
设置子单元,用于预先设置第一类型集合和第二类型集合。其中不同的类型集合可能会有不同的处理方式。第一类型集合可以是简单动画类型,第二类型集合可以是复杂动画类型。
所述第一类型集合包括多个第一基准动画,所述第二类型集合包括多个第二基准动画。在每个集合中都有基准动画,例如说第一集合类型中的第一基准画可以是线性动画、圆形动画、折线动画等等,第二集合类型中的第二基准画可以是自由路径动画、组合动画。
比对子单元,用于将获得的动画与第一基准动画和\或第二基准动画比对,得到动画的类型。通过将当前时刻获得动画与第一基准动画和\或第二基准动画比对,得到将当前时刻获得动画所处于的第一类型或第二类型。
本发明中,第一基准动画和\或第二基准动画分别设置有基于像素点形成的动画路径。动画路径可能是一个形态、形状,例如说是线性、圆形、折线等等,动画路径也可能是一个动画,例如说是自由路径动画、组合动画等等。
所述比对子单元还用于执行以下步骤,包括:
获取当前时刻动画的基于像素点的动画路径,将当前时刻动画的动画路径与第一基准动画和\或第二基准动画的动画路径比对得到比对结果。本发明会根据动画的像素点形成相应的动画路径,例如说在不同动画帧上,每个动画帧都具有相应的图像、节点,该图像、节点可以是不同动画帧上的同一个对象,该对象可以是一个足球、脑袋等等。根据图像、节点在不同时刻的动画帧处的位置得到动画路径。例如说足球做自有落体运动,则足球在多个动画帧中形成的动画路径即是一个线性的。
基于所述比对结果得到动画的类型。比对结果为当前时刻的动画路径与第一基准动画和\或第二基准动画的相似度,根据相似度得到该动画的类型,进行相应的处理。
本发明所述比对子单元还用于执行以下步骤,包括:
获取当前时刻动画的动画路径与每一个第一基准动画、第二基准动画的相似度。在动画制作过程中,不可能将所有的基准动画都与动画路径完全的匹配,所以此时需要进行相似度的计算,根据相似度的值判断动画所相应的类型,使得本发明提供的技术方案适用于的动画范围较广。
得到当前时刻动画的动画路径相似度最高的第一基准动画或第二基准动画为比对结果。在相似度比对之后,得到相似度最高的第一基准动画或第二基准动画,此时默认为该动画的动画路径与相速度最高的第一基准动画或第二基准动画是相似的路径,此时输出相似度最高的第一基准动画或第二基准动画。
本发明分段单元包括:
第一子处理单元,用于基于所述动画类型,确定对所述动画第一维度的处理方式。本发明的第一维度的处理方式为选择对动画采取不同的优化方式。例如说 在当动画为简单动画时,第一维度的处理方式可以是快速处理方式,该种范式在对动画处理后不需要主动反馈至用户。在当动画为复杂动画时,第一维度的处理方式可以是精确处理方式,该种范式在对动画处理后需要主动反馈至用户。
第二子处理单元,用于基于所述比对结果,确定对所述动画第二维度的处理方式。本发明的第二维度的处理方式为选择对动画采取不同的优化方式。例如说在当动画为简单动画时,第二维度的处理方式可以是动画只保留关键动画帧,线性动画只保留开始和结尾动画帧,圆形动画只保留动画半径、折线动画保留每个折点的动画帧,根据动画类型和关键帧可以还原动画。例如说在当动画为复杂动画时,第二维度的处理方式可以是保留能够还原动画关键过程的关键动画帧,比如自由路径,根据路径中的每个关键点进行保留,组合动画按照组合里的组成进行保留。本发明只有参与动画的部分才参与动画帧信息保留,未参与动画的部分不参与动画帧保留。
本发明中,每一个第一基准动画或第二基准动画具有与其对应的第二维度的处理方式。
所述第二子处理单元还用于执行以下步骤,包括:
获取相似度最高的第一基准动画或第二基准动画所对应的处理方式。不同的基准动画可能会具有不同的处理方式,如上所述的各种处理方式,本发明不再进行列举。
通过所述对应的处理方式对所述动画进行第二维度的处理以得到动画不同的动作执行阶段。通过对动画处理后,根据动画不同的动画路径得到不同的处理方式得到所保留的动画帧,根据保留的动画帧得到动画不同的动作执行阶段。
本发明还提供一种电子设备,包括存储器和处理器,所述存储器存储计算机程序,所述计算机程序在所述处理器中执行可实现上述任一种方法。其中,电子设备可以为移动终端或web端。
本发明还提供一种存储介质,存储计算机程序,所述计算机程序在处理器中执行可实现上述任一种方法。

Claims (20)

  1. 一种动态人物制作的优化方法,其特征在于,包括步骤:
    加载静态人物素材,以用于记录初始状态下静态人物素材的初始值;
    接收动作指令包,用于驱动静态人物的各个部分依据动作指令执行具体动作;
    解析动作指令包,以得到静态人物各个部分运动的关键节点和运动路径;
    匹配动作指令,依据相邻的第一关键节点和第二关键节点下静态人物素材的第一动态值和第二动态值以及两个关键节点之间的运动路径,将所述动作指令匹配到静态人物素材的各个部分,以得到静态人物的运动轨迹。
  2. 如权利要求1所述的方法,其特征在于,所述加载静态人物素材,以用于记录初始状态下静态人物素材的初始值的步骤包括:
    解析静态人物的具体素材;
    获取静态人物素材的初始值。
  3. 如权利要求1所述的方法,其特征在于,所述解析动作指令包,以得到静态人物各个部分运动的关键节点和运动路径的步骤包括:
    判断动画的类型;
    依据动画类型,将所述动作指令分成不同的动作执行阶段。
  4. 如权利要求1所述的方法,其特征在于,所述匹配动作指令,依据相邻的第一关键节点和第二关键节点下静态人物素材的第一动态值和第二动态值以及两个关键节点之间的运动路径,将所述动作指令匹配到静态人物素材的各个部分,以得到静态人物的运动轨迹的步骤包括:
    获取静态人物运动过程中的关键节点;
    依据相邻的两个关键节点以及运动路径,将所述动作指令匹配到静态人物素材的各个部分。
  5. 一种动态人物制作的优化装置,其特征在于,包括:
    静态人物素材加载模块,用于记录初始状态下静态人物素材的初始值;
    动作指令包接收模块,用于驱动静态人物的各个部分依据动作指令执行具体动作;
    动作指令包解析模块,以得到静态人物各个部分运动的关键节点和运动路径;
    动作指令匹配模块,依据相邻的第一关键节点和第二关键节点下静态人物素材的第一动态值和第二动态值以及两个关键节点之间的运动路径,将所述动作指令匹配到静态人物素材的各个部分,以得到静态人物的运动轨迹。
  6. 如权利要求5所述的装置,其特征在于,所述静态0人物素材加载模块包括;
    静态人物解析单元,用于解析静态人物的具体素材;
    获取单元,用于获取静态人物素材的初始值。
  7. 如权利要求5所述的装置,其特征在于,所述动作指令包解析模块包括:
    判断单元,判断动画的类型;
    分段单元,用于将所述动作指令按照动画类型分成不同的阶段。
  8. 如权利要求5所述的装置,其特征在于,所述动作指令匹配模块包括:
    关键节点获取单元,用于获取静态人物运动过程中的关键节点;
    动作指令匹配单元,用于依据相邻的两个关键节点以及运动路径,将所述动作指令匹配到静态人物素材的各个部分。
  9. 如权利要求3所述的方法,其特征在于,
    判断动画的类型包括:
    预先设置第一类型集合和第二类型集合;
    所述第一类型集合包括多个第一基准动画,所述第二类型集合包括多个第二基准动画;
    将获得的动画与第一基准动画和\或第二基准动画比对,得到动画的类型。
  10. 如权利要求9所述的方法,其特征在于,
    所述第一基准动画和\或第二基准动画分别设置有基于像素点形成的动画路径;
    将获得的动画与第一基准动画和\或第二基准动画比对,得到动画的类型包括:
    获取当前时刻动画的基于像素点的动画路径,将当前时刻动画的动画路径与第一基准动画和\或第二基准动画的动画路径比对得到比对结果;
    基于所述比对结果得到动画的类型。
  11. 如权利要求10所述的方法,其特征在于,
    将当前时刻动画的动画路径与第一基准动画和\或第二基准动画的动画路径比对得到比对结果包括:
    获取当前时刻动画的动画路径与每一个第一基准动画、第二基准动画的相似度;
    得到当前时刻动画的动画路径相似度最高的第一基准动画或第二基准动画为比对结果。
  12. 如权利要求11所述的方法,其特征在于,
    依据动画类型,将所述动作指令分成不同的动作执行阶段包括:
    基于所述动画类型,确定对所述动画第一维度的处理方式;
    基于所述比对结果,确定对所述动画第二维度的处理方式。
  13. 如权利要求12所述的方法,其特征在于,
    每一个第一基准动画或第二基准动画具有与其对应的第二维度的处理方式;
    基于所述比对结果,确定对所述动画第二维度的处理方式包括:
    获取相似度最高的第一基准动画或第二基准动画所对应的处理方式;
    通过所述对应的处理方式对所述动画进行第二维度的处理以得到动画不同的动作执行阶段。
  14. 如权利要求5所述的装置,其特征在于,
    判断单元包括:
    设置子单元,用于预先设置第一类型集合和第二类型集合;
    所述第一类型集合包括多个第一基准动画,所述第二类型集合包括多个第二基准动画;
    比对子单元,用于将获得的动画与第一基准动画和\或第二基准动画比对,得到动画的类型。
  15. 如权利要求14所述的装置,其特征在于,
    所述第一基准动画和\或第二基准动画分别设置有基于像素点形成的动画路径;
    所述比对子单元还用于执行以下步骤,包括:
    获取当前时刻动画的基于像素点的动画路径,将当前时刻动画的动画路径与第一基准动画和\或第二基准动画的动画路径比对得到比对结果;
    基于所述比对结果得到动画的类型。
  16. 如权利要求15所述的装置,其特征在于,
    所述比对子单元还用于执行以下步骤,包括:
    获取当前时刻动画的动画路径与每一个第一基准动画、第二基准动画的相似度;
    得到当前时刻动画的动画路径相似度最高的第一基准动画或第二基准动画为比对结果。
  17. 如权利要求16所述的装置,其特征在于,
    所述分段单元包括:
    第一子处理单元,用于基于所述动画类型,确定对所述动画第一维度的处理方式;
    第二子处理单元,用于基于所述比对结果,确定对所述动画第二维度的处理方式。
  18. 如权利要求17所述的装置,其特征在于,
    每一个第一基准动画或第二基准动画具有与其对应的第二维度的处理方式;
    所述第二子处理单元还用于执行以下步骤,包括:
    获取相似度最高的第一基准动画或第二基准动画所对应的处理方式;
    通过所述对应的处理方式对所述动画进行第二维度的处理以得到动画不同的动作执行阶段。
  19. 一种电子设备,包括存储器和处理器,所述存储器存储计算机程序,其特征在于,所述计算机程序在所述处理器中执行可实现权利要求1-4、9-13中任一种方法。
  20. 一种存储介质,存储计算机程序,其特征在于,所述计算机程序在处理器中执行可实现权利要求1-4、9-13中任一种方法。
PCT/CN2021/101686 2020-12-21 2021-06-23 一种动态人物制作的优化方法与装置 WO2022134506A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011520914.2A CN112509100A (zh) 2020-12-21 2020-12-21 一种动态人物制作的优化方法与装置
CN202011520914.2 2020-12-21

Publications (1)

Publication Number Publication Date
WO2022134506A1 true WO2022134506A1 (zh) 2022-06-30

Family

ID=74923132

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/101686 WO2022134506A1 (zh) 2020-12-21 2021-06-23 一种动态人物制作的优化方法与装置

Country Status (2)

Country Link
CN (1) CN112509100A (zh)
WO (1) WO2022134506A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112509100A (zh) * 2020-12-21 2021-03-16 深圳市前海手绘科技文化有限公司 一种动态人物制作的优化方法与装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004089489A1 (en) * 2003-04-05 2004-10-21 Nigel Earl Wicks Amusement or educational device
CN104123742A (zh) * 2014-07-21 2014-10-29 徐才 一种将静态漫画图片转化为二维动画的方法和播放器
CN106530372A (zh) * 2016-09-18 2017-03-22 中山大学 一种帧动画的生成方法
CN109068069A (zh) * 2018-07-03 2018-12-21 百度在线网络技术(北京)有限公司 视频生成方法、装置、设备及存储介质
CN111862276A (zh) * 2020-07-02 2020-10-30 南京师范大学 一种基于形式化动作描述文本的骨骼动画自动制作方法
CN112037311A (zh) * 2020-09-08 2020-12-04 腾讯科技(深圳)有限公司 一种动画生成的方法、动画播放的方法以及相关装置
CN112509100A (zh) * 2020-12-21 2021-03-16 深圳市前海手绘科技文化有限公司 一种动态人物制作的优化方法与装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101833459B (zh) * 2010-04-14 2012-10-03 四川真视信息技术有限公司 基于网页的动态2d骨骼人物实现***
CN107180446B (zh) * 2016-03-10 2020-06-16 腾讯科技(深圳)有限公司 人物面部模型的表情动画生成方法及装置
CN108335346A (zh) * 2018-03-01 2018-07-27 黄淮学院 一种互动动画生成***
CN108619724A (zh) * 2018-04-17 2018-10-09 苏州万代信息科技有限公司 游戏人物编辑***及编辑方法
CN111951358A (zh) * 2020-08-11 2020-11-17 深圳市前海手绘科技文化有限公司 一种组合素材在手绘动画中的应用方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004089489A1 (en) * 2003-04-05 2004-10-21 Nigel Earl Wicks Amusement or educational device
CN104123742A (zh) * 2014-07-21 2014-10-29 徐才 一种将静态漫画图片转化为二维动画的方法和播放器
CN106530372A (zh) * 2016-09-18 2017-03-22 中山大学 一种帧动画的生成方法
CN109068069A (zh) * 2018-07-03 2018-12-21 百度在线网络技术(北京)有限公司 视频生成方法、装置、设备及存储介质
CN111862276A (zh) * 2020-07-02 2020-10-30 南京师范大学 一种基于形式化动作描述文本的骨骼动画自动制作方法
CN112037311A (zh) * 2020-09-08 2020-12-04 腾讯科技(深圳)有限公司 一种动画生成的方法、动画播放的方法以及相关装置
CN112509100A (zh) * 2020-12-21 2021-03-16 深圳市前海手绘科技文化有限公司 一种动态人物制作的优化方法与装置

Also Published As

Publication number Publication date
CN112509100A (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
US11625921B2 (en) Method and system for detecting and recognizing target in real-time video, storage medium, and device
US20210357759A1 (en) Task processing method and device based on neural network
KR20190116199A (ko) 영상 데이터 처리 방법, 장치 및 판독 가능 저장 매체
WO2022134506A1 (zh) 一种动态人物制作的优化方法与装置
US20190333204A1 (en) Image processing apparatus, image processing method, and storage medium
CN111813686B (zh) 一种游戏测试方法、装置、测试终端及存储介质
US10679070B1 (en) Systems and methods for a video understanding platform
CN108472811A (zh) 机器人性格设定方法、装置和机器人
WO2022134548A1 (zh) 一种手绘动画素材编辑方法及装置
WO2022121521A1 (zh) 一种音频信号时序对齐方法和装置
WO2016101725A1 (zh) 一种状态机可拼接性和拼接规则判定方法和装置
CN113672674A (zh) 一种自动编排业务流的方法、电子装置和存储介质
WO2020119670A1 (zh) 一种视频转码方法及装置
CN105610800B (zh) 一种异常数据处理方法及装置
CN116600156A (zh) 视频内容推荐方法、装置、计算机设备和存储介质
WO2022033129A1 (zh) 一种交互式手绘视频制作方法
CN116258995A (zh) 视频转场识别方法、装置、计算设备及计算机存储介质
CN109542729A (zh) 设备性能参数数据分析方法及装置
Li et al. CR-FPN: channel relation feature pyramid network for object detection
US20080198723A1 (en) Method and Apparatus of Controlling Playback of an Optical Disc Program
CN111951357A (zh) 一种有声素材在手绘动画中的应用方法
RU2452046C2 (ru) Поэтапное обновление и форматирование разметки hd-dvd
CN114329295A (zh) 视频播放方法、装置、终端设备及计算机可读存储介质
WO2023273622A1 (zh) 输出特效的运行数据的方法及装置
US20220284563A1 (en) Method for discovering defects in products by detecting abnormalities in images, electronic device, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21908514

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 02.11.2023)

122 Ep: pct application non-entry in european phase

Ref document number: 21908514

Country of ref document: EP

Kind code of ref document: A1