CN112749613B - 视频数据处理方法、装置、计算机设备及存储介质 - Google Patents
视频数据处理方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN112749613B CN112749613B CN202010880221.8A CN202010880221A CN112749613B CN 112749613 B CN112749613 B CN 112749613B CN 202010880221 A CN202010880221 A CN 202010880221A CN 112749613 B CN112749613 B CN 112749613B
- Authority
- CN
- China
- Prior art keywords
- video
- frame
- convolution
- frames
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 26
- 230000033001 locomotion Effects 0.000 claims abstract description 150
- 238000012545 processing Methods 0.000 claims abstract description 92
- 238000000034 method Methods 0.000 claims abstract description 66
- 230000009466 transformation Effects 0.000 claims description 40
- 238000001514 detection method Methods 0.000 claims description 35
- 230000015654 memory Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 40
- 238000005516 engineering process Methods 0.000 abstract description 22
- 230000007704 transition Effects 0.000 abstract description 19
- 238000013473 artificial intelligence Methods 0.000 abstract description 18
- 230000000875 corresponding effect Effects 0.000 description 49
- 230000008569 process Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种视频数据处理方法、装置、计算机设备及存储介质,属于视频处理技术领域。本申请通过在将第二视频嵌入到第一视频的目标区域时,基于人工智能技术来获取第一视频中目标区域的位置移动情况,根据该位置移动情况相应地对第二视频的画面进行运动模糊处理,使第二视频和第一视频具有相同的运动模糊效果,从而使第一视频和第二视频能够更好的融合,得到更好的视频过渡效果。
Description
技术领域
本申请涉及视频处理技术领域,特别涉及一种视频数据处理方法、装置、计算机设备及存储介质。
背景技术
视频转场特效是指在对两个视频片段进行合并时添加特效,使两个视频之间能够自然过渡。例如,相框转场就是一种常用的视频转场特效,相框转场是通过对第一视频的画面中所出现的相框区域进行识别,将相框区域中的画面替换为第二视频的画面,从而实现从第一视频到第二视频的过渡。
在上述视频数据处理过程中,当第一视频的画面出现运动模糊的情况时,直接将相框区域中的画面替换为第二视频的画面,会导致第一视频画面和第二视频画面的融合效果较差,严重影响视频过渡效果。
发明内容
本申请实施例提供了一种视频数据处理方法、装置、计算机设备及存储介质,可以优化两个视频之间的过渡效果。该技术方案如下:
一方面,提供了一种视频数据处理方法,该方法包括:
获取待处理的第一视频和第二视频;
确定该第一视频的多个视频帧的区域移动信息,该区域移动信息用于表示前后两个视频帧中的目标区域的位置移动情况,该目标区域用于显示该第二视频的视频帧;
基于该第一视频的多个视频帧的区域移动信息,对该第二视频的多个视频帧进行运动模糊处理;
将该第一视频的多个视频帧中该目标区域的图像,分别替换为运动模糊处理后的该第二视频的多个视频帧,得到目标视频。
一方面,提供了一种视频数据处理装置,该装置包括:
获取模块,用于获取待处理的第一视频和第二视频;
确定模块,用于确定该第一视频的多个视频帧的区域移动信息,该区域移动信息用于表示前后两个视频帧中的目标区域的位置移动情况,该目标区域用于显示该第二视频的视频帧;
运动模糊处理模块,用于基于该第一视频的多个视频帧的区域移动信息,对该第二视频的多个视频帧进行运动模糊处理;
替换模块,用于将该第一视频的多个视频帧中该目标区域的图像,分别替换为运动模糊处理后的该第二视频的多个视频帧,得到目标视频。
在一种可能实现方式中,该确定模块包括:
第一确定单元,用于确定该第一视频的多个视频帧中的目标区域;
第二确定单元,用于基于该第一视频中前后两个视频帧中该目标区域的位置移动情况,确定该区域移动信息。
在一种可能实现方式中,该第一确定单元包括:
检测子单元,用于对该第一视频中的多个视频帧分别进行线段检测;
区域确定子单元,用于基于检测出的线段,确定该第一视频的多个视频帧所包括的目标区域。
在一种可能实现方式中,该检测子单元包括:
特征提取子单元,用于对该第一视频中的多个视频帧分别进行特征提取,得到视频帧对应的特征图;
连接点确定子单元,用于基于该视频帧对应的特征图,确定该视频帧所包括的连接点;
线段确定子单元,用于基于该连接点确定该视频帧所包括的线段。
在一种可能实现方式中,该连接点确定子单元用于:
将该特征图划分为多个子区域;
基于第一卷积核对该特征图中的子区域进行卷积运算,得到概率特征图,该概率特征图中的一个元素用于指示一个子区域中存在连接点的概率;
基于第二卷积核对该概率特征图进行卷积运算,得到位置特征图,该位置特征图中的一个元素用于指示一个子区域中连接点的位置信息;
基于该概率特征图以及该位置特征图,确定该视频帧所包括的连接点。
在一种可能实现方式中,该区域确定子单元用于:
对于该第一视频中的第一帧,从检测出的该线段中,获取与参考区域的边框之间距离最近的线段作为目标线段,将该目标线段围成的区域确定为该目标区域;
对于该第一视频中除第一帧以外的任一帧,从检测出的该线段中,获取与前一帧中的目标线段之间距离最近的线段,作为该任一帧中的目标线段,将该任一帧中的目标线段围成的区域确定为该目标区域。
在一种可能实现方式中,该区域移动信息包括该目标区域的至少三个角点的移动距离和移动方向。
在一种可能实现方式中,该运动模糊处理模块包括:
参数确定单元,用于基于前后两个视频帧中目标区域的至少三个角点的移动距离和移动方向,分别确定至少三组卷积参数,该卷积参数用于指示第三卷积核在一次卷积运算中的卷积区域大小以及该第三卷积核的移动方向;
卷积单元,用于通过该第三卷积核分别基于该至少三组卷积参数对该第二视频中对应的视频帧进行卷积运算,得到至少三个中间帧;
叠加单元,用于对该至少三个中间帧进行叠加,得到运动模糊处理后的该第二视频的视频帧。
在一种可能实现方式中,该卷积单元用于:
对于任一组卷积参数,从多个不同大小的候选卷积核中,获取尺寸与该任一组卷积参数中该卷积区域大小相匹配的候选卷积核,作为第三卷积核;
通过该第三卷积核按照该任一组卷积参数中的移动方向,对该第二视频中对应的视频帧进行卷积运算,得到中间视频帧。
在一种可能实现方式中,该叠加单元用于:
对于该第二视频的视频帧中的任一像素点,基于该任一像素点相对于各个角点的距离,确定在任一像素点位置,各个该中间帧对应的透明度参数;
对于该第二视频的视频帧中的任一像素点位置,基于各个该中间帧对应的透明度参数,对该中间帧进行叠加,得到运动模糊处理后的该第二视频的视频帧。
在一种可能实现方式中,该装置还包括:
透视变换模块,用于基于该第一视频的多个视频帧所包括目标区域的角点坐标,分别对该第二视频中对应的视频帧进行透视变换,基于透视变换后的该第二视频的视频帧,执行基于该第一视频的多个视频帧的区域移动信息,对该第二视频的多个视频帧进行运动模糊处理的步骤。
在一种可能实现方式中,该透视变换模块用于:
基于该第一视频的多个视频帧所包括目标区域的角点坐标之间的相对位置,确定该第一视频中各个视频帧对应的透视变换矩阵;
基于该第一视频中各个视频帧对应的透视变换矩阵,分别对该第二视频中对应的视频帧进行透视变换。
一方面,提供了一种计算机设备,该计算机设备包括一个或多个处理器和一个或多个存储器,该一个或多个存储器中存储有至少一条程序代码,该至少一条程序代码由该一个或多个处理器加载并执行以实现该视频数据处理方法所执行的操作。
一方面,提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行以实现该视频数据处理方法所执行的操作。
一方面,提供了一种计算机程序产品,该计算机程序产品包括至少一条程序代码,该至少一条程序代码存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该至少一条程序代码,处理器执行该计算机指令,使得该计算机设备实现该视频数据处理方法所执行的操作。
本申请实施例提供的技术方案,通过在将第二视频嵌入到第一视频的目标区域时,基于人工智能技术来获取第一视频中目标区域的位置移动情况,根据该位置移动情况相应地对第二视频的画面进行运动模糊处理,使第二视频和第一视频具有相同的运动模糊效果,从而使第一视频和第二视频能够更好的融合,得到更好的视频过渡效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种视频数据处理方法的实施环境示意图;
图2是本申请实施例提供的一种视频数据处理方法的流程图;
图3是本申请实施例提供的一种第一视频的视频帧画面示意图;
图4是本申请实施例提供的一种视频数据处理方法的流程图;
图5是本申请实施例提供的一种线段检测模型的示意图;
图6是本申请实施例提供的一种参考区域标注的示意图;
图7是本申请实施例提供的一种目标区域确定方法示意图;
图8是本申请实施例提供的一种运动模糊效果的视频帧示意图;
图9是本申请实施例提供的一种目标区域移动情况的示意图;
图10是本申请实施例提供的一种运动模糊处理的示意图;
图11是本申请实施例提供的一种运动模糊效果示意图;
图12是本申请实施例提供的一种目标视频的视频帧示意图;
图13是本申请实施例提供的一种相框转场效果的实现方法流程图;
图14是本申请实施例提供的一种目标区域跟踪过程示意图;
图15是本申请实施例提供的一种视频数据处理装置的结构示意图;
图16是本申请实施例提供的一种终端的结构示意图;
图17是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请中术语“第一”“第二”等字样用于对作用和功能基本相同的相同项或相似项进行区分,应理解,“第一”、“第二”、“第n”之间不具有逻辑或时序上的依赖关系,也不对数量和执行顺序进行限定。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。本申请实施例涉及人工智能技术中的计算机视觉技术。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能***。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。本申请涉及计算机视觉技术中的视频语义理解技术,例如,通过对视频帧进行线段检测,对视频帧中的目标区域进行跟踪,来准确确定出各个视频帧中的相框的位置。
图1是本申请实施例提供的一种视频数据处理方法的实施环境示意图,参见图1,该实施环境包括终端110和视频编辑平台140。
终端110可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端110安装和运行有支持视频编辑的目标应用程序等。示例性的,终端110是用户使用的终端,终端110中运行的应用程序内登录有用户账号。终端110可以泛指多个终端中的一个,本实施例仅以终端110来举例说明。
视频编辑平台140用于为上述目标应用程序提供后台服务。可选地,视频编辑平台140承担主要视频数据处理工作,终端110承担次要视频数据处理工作;或者,视频编辑平台140承担次要视频数据处理工作,终端110承担主要视频数据处理工作;或者,视频编辑平台140或终端110分别可以单独承担视频数据处理工作。可选地,视频编辑平台140包括:接入服务器、视频数据处理服务器和数据库。接入服务器用于为终端110提供接入服务。视频数据处理服务器用于提供视频合成、视频特效添加等视频编辑相关的后台服务。视频数据处理服务器可以是一台或多台。当视频数据处理服务器是多台时,存在至少两台视频数据处理服务器用于提供不同的服务,和/或,存在至少两台视频数据处理服务器用于提供相同的服务,比如以负载均衡方式提供同一种服务,本申请实施例对此不加以限定。视频数据处理服务器中可以设置有线段检测模型,用于对视频帧中的目标区域进行识别、跟踪。其中,上述服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
上述终端110与视频编辑平台140可以通过有线或无线通信方式进行直接或间接地连接,本申请实施例对此不作限定。
本领域技术人员可以知晓,上述终端的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
本申请实施例提供的视频数据处理方法,应用于多种类型的应用程序中。例如,在视频编辑类应用程序中,为两个视频添加相框转场特效时,即将第二视频嵌入到第一视频中相框所框出的区域进行显示时,应用基于神经网络构建的线段检测模型,来识别第一视频的视频帧中的线段,从而实现对由这些线段所围成的目标区域,即相框所框出的区域进行跟踪,应用这种目标区域跟踪方法,无需用户手动调整每一视频帧中的跟踪点,提高目标区域跟踪的准确度;在视频合成阶段,基于第一视频中相框的位置移动情况,对第二视频的视频帧进行运动模糊处理,使第二视频能够具有与第一视频相同的运动模糊效果,使合成后的视频更加逼真,过渡效果更加自然。
图2是本申请实施例提供的一种视频数据处理方法的流程图。该方法可以应用于上述终端或者服务器,在本申请实施例中,以服务器作为执行主体,对该视频数据处理方法进行介绍,参见图2,该实施例具体可以包括以下步骤:
201、服务器获取待处理的第一视频和第二视频。
其中,该第一视频、第二视频为待合成的视频,该第一视频的视频帧中显示有相框,该相框所在区域的画面需要替换为第二视频的视频帧。例如,图3是本申请实施例提供的一种第一视频的视频帧画面示意图,如图3所示,该视频帧画面中显示有用户手持相框301。当然,上述相框也可以替换为其他物品,例如纸板等可以确定出一个区域的物品,以图3所示的画面为例,该第一视频也可以包括用户手持纸板的镜头,则在后续视频合成时,该纸板区域的画面需要替换为第二视频的视频帧。需要说明的是,在本申请实施例中,仅以第一视频中显示有相框为例进行说明。
在一种可能实现方式中,服务器可以响应于视频编辑请求,获取该第一视频和第二视频。该视频编辑请求可以是任一终端发送的,本申请实施例对此不作限定。
202、服务器确定该第一视频的多个视频帧的区域移动信息,该区域移动信息用于表示前后两个视频帧中的目标区域的位置移动情况,该目标区域用于显示该第二视频的视频帧。
在本申请实施例中,以该第一视频的视频帧中包括相框为例,该目标区域即为相框所在区域。在一种可能实现方式中,服务器可以基于线段检测的方式,识别出相框的边框,进而确定出相框所在区域,即目标区域,实现对目标区域的跟踪。在第一视频中,相框位置的快速移动会导致相框所在区域,即目标区域出现运动模糊的效果,在本申请实施例中,服务器需要获取相邻两个视频帧中的目标区域的位置移动情况,该位置移动情况用于指示第一视频的各个视频帧中目标区域的运动模糊程度。
203、服务器基于该第一视频的多个视频帧的区域移动信息,对该第二视频的多个视频帧进行运动模糊处理。
在一种可能实现方式中,服务器可以通过滤波器对第二视频的多个视频帧进行运动模糊处理,该滤波器可以包括至少一个卷积层。例如,对于一个视频帧中的任一像素,服务器可以通过卷积运算,对该任一像素及其周围的像素取平均值,得到该任一像素对应的平均像素,由视频帧中各个像素对应的平均像素所构成的新的画面,即为运动模糊处理后的视频帧。
204、服务器将该第一视频的多个视频帧中目标区域的图像,分别替换为运动模糊处理后的该第二视频的多个视频帧,得到目标视频。
例如,第一视频的第i帧和第二视频的第j帧相对应,则该服务器可以将第一视频的第i帧中目标区域的图像,替换为第二视频的第j帧,该第j帧是经过运动模糊处理后的视频帧。其中,i和j均为正整数。服务器完成视频帧替换后,得到目标视频,将该目标视频发送至终端。
本申请实施例提供的技术方案,通过在将第二视频嵌入到第一视频的目标区域时,基于人工智能技术来获取第一视频中目标区域的位置移动情况,根据该位置移动情况相应地对第二视频的画面进行运动模糊处理,使第二视频和第一视频具有相同的运动模糊效果,从而使第一视频和第二视频能够更好的融合,得到更好的视频过渡效果。
上述实施例是对本申请实施方式的一个简要介绍,图4是本申请实施例提供的一种视频数据处理方法的流程图,结合图4,对上述视频数据处理过程进行具体说明。
401、服务器获取待处理的第一视频和第二视频。
在一种可能实现方式中,服务器基于终端的视频编辑请求,获取该第一视频和第二视频。例如,该视频编辑请求中携带第一视频和第二视频的视频标识,服务器响应于该视频编辑请求,从数据库中获取视频标识所指示的视频。其中,该数据库可以用于存储用户预先上传的视频。可选地,终端也可以将视频编辑请求以及第一视频、第二视频一起发送至服务器。需要说明的是,本申请实施例对具体采用哪种方法获取第一视频、第二视频不作限定。
402、服务器对第一视频中的多个视频帧分别进行线段检测。
在本申请示例中,该第一视频中显示有相框,该相框所框出的区域用于显示第二视频的视频帧。在一种可能实现方式中,该第一视频的每一视频帧中都显示有相框,则服务器对该第一视频的每一帧均进行线段检测。可选的,该第一视频的部分视频帧中显示有相框,即第一视频中的某个视频片段显示有相框,则服务器获取到第一视频后可以确定出第一视频中显示有相框的视频片段,对该视频片段中的视频帧进行线段检测。需要说明的是,本申请实施例对服务器对第一视频中的哪些视频帧进行线段检测不作限定。
在一种可能实现方式中,服务器可以基于线段检测模型对视频帧进行线段检测,其中,该线段检测模型是基于深度神经网络构建的模型,例如,该线段检测模型是L-CNN模型。需要说明的是,本申请实施例对具体采用哪种线段检测模型不作限定,在本申请实施例中,仅以L-CNN模型为例进行说明。图5是本申请实施例提供的一种线段检测模型的示意图,参见图5,该线段检测模型可以包括主干网络501、连接点预测单元502、线段采样单元503以及线段校正单元504。其中,该主干网络501用于对视频帧进行特征提取,得到视频帧对应的特征图;该连接点预测单元502用于基于各个视频帧的特征图来预测各个视频帧中所包括的连接点;线段采样单元503用于基于连接点来预测线段,确定预测出的各个线段对应的置信度;线段校正单元504基于线段采样单元503的输出结果进行线段筛选。以下,结合图5,对线段检测的方法进行说明,该方法可以包括以下步骤:
步骤一、服务器对该第一视频中的多个视频帧分别进行特征提取,得到视频帧对应的特征图。
在一种可能实现方式中,服务器将第一视频的各个视频帧输入线段检测模型,由线段检测模型的主干网络分别对各个视频帧进行特征提取。其中,该主干网络可以是基于Stacked Hourglass Networks(堆叠沙漏网络)构建的网络,服务器通过主干网络中多个不同尺度的卷积层,依次对视频帧对应的像素矩阵进行卷积运算,来提取视频帧的语义特征,从而得到视频帧对应的特征图。需要说明的是,上述对特征图获取方法的说明,仅是一种示例性说明,本申请实施例对具体采用哪种方法获取特征图不作限定。
步骤二、服务器基于各个视频帧对应的特征图,确定各个视频帧所包括的连接点。
其中,该连接点用于在后续线段识别过程中确定线段的端点,视频帧中线段的端点、线段的交叉点等均可以被识别为连接点。
在一种可能实现方式中,服务器将主干网络输出的特征图输入到连接点预测单元,通过连接点预测单元中的多个卷积层对特征图进行进一步卷积运算,来预测出视频帧所包括的连接点。例如,首先,服务器基于将该特征图划分为多个子区域。然后,服务器基于第一卷积核对该特征图中的各个子区域进行卷积运算,得到概率特征图,基于第二卷积核对该概率特征图进行卷积运算,得到位置特征图。其中,该概率特征图中的一个元素用于指示一个子区域中存在连接点的概率,该位置特征图中的一个元素用于指示一个子区域中连接点的位置信息,在一种可能实现方式中,该位置信息可以表示为连接点的位置相对于子区域中心点的偏移量。最后,服务器基于该概率特征图以及该位置特征图,确定该视频帧所包括的连接点。例如,概率特征图中的每个元素以数值0或1表示,元素为1时,表示该元素对应的子区域中包括连接点,元素为0时,表示该元素对应的子区域中不包括连接点。服务器基于概率特征图确定出包括连接点的目标子区域,再基于位置特征图确定各个目标子区域中连接点的位置。需要说明的是,本申请实施例对上述第一卷积核、第二卷积核中参数的具体数值不作限定。
步骤三、服务器基于该连接点确定该视频帧所包括的线段。
在一种可能实现方式中,服务器将连接点预测单元的输出结果输入到线段采样单元,得到候选线段列表,即连接点对列表,也即是将两个连接点分别作为线段的端点;再将候选线段列表和主干网络输出的特征图,输入线段校正单元,由线段校正单元的LoI(lineof interest)池化层提取各个候选线段的线段特征,再由至少一个全连接基于线段特征确定各个候选线段的分类结果,例如,全连接层可以输出各个候选线段对应的置信度,服务器获取置信度大于目标阈值的候选线段作为视频帧所包括的线段。其中,该目标阈值可以由开发人员进行设置,本申请实施例对此不作限定。
需要说明的是,上述对线段检测方法的说明,仅是一种示例性说明,本申请实施例对具体采用哪种方法进行线段检测不作限定。
403、服务器基于检测出的线段,确定该第一视频的多个视频帧所包括的目标区域。
在本申请实施例中,对于该第一视频中的第一帧,服务器从检测出的该线段中,获取与参考区域的边框之间距离最近的线段作为目标线段,将目标线段围成的区域确定为该目标区域。其中,该参考区域是用户指定的区域。在一种可能实现方式中,用户在进行视频编辑,即对两个视频应用相框转场特效时,可以现在第一视频的第一帧中对相框框出的区域进行标注,即标出参考区域。例如,用户的终端运行有用于进行视频编辑的目标应用程序,用户可以在该目标应用程序中进行参考区域标注,图6是本申请实施例提供的一种参考区域标注的示意图,目标应用程序的界面中显示有第一视频的第一帧601,用户以矩形框的形式标注出参考区域602。在一种可能实现方式中,终端可以将参考区域在第一帧中的位置信息发送至服务器,服务器在检测出第一帧所包括的线段后,确定各个线段与参考区域的边框线段之间的距离,例如,确定线段的端点与参考区域的边框线段的端点之间的距离,获取与参考区域的边框之间距离最近的线段作为目标线段,将目标线段或目标延段的延长线所围成的区域确定为目标区域。在本申请实施例中,基于用户标注的参考区域以及线段检测模型的预测结果进行目标区域确定,一方面,参考区域可以对线段检测模型的数据结果进行筛选,去除大量的干扰线段,准确确定出目标区域;另一方面,由于是基于线段检测模型识别出的线段,来确定目标区域的边框,用户在进行参考区域标注时,只需标注出大致位置即可,降低了用户的标注难度。
在本申请实施例中,对于该第一视频中除第一帧以外的任一帧,服务器从检测出的该线段中,获取与前一帧中的目标线段之间距离最近的线段,作为该任一帧中的目标线段,将该任一帧中的目标线段围成的区域确定为该目标区域。在一种可能实现方式中,线段之间的距离可以由线段端点之间的距离表示,也即是,服务器获取当前帧所包括线段的线段端点坐标、前一帧所包括线段的线段端点坐标,基于线段端点之间的横、纵坐标差值,确定线段之间的距离。例如,上述确定线段之间距离的方法可以表示为下述公式(1):
其中,d表示线段之间的距离;pre用于标识前一帧,current用于标识当前帧,i用于表示线段端点的序号,表示当前帧中线段端点i的横坐标,/>表示当前帧中线段端点i的纵坐标,/>表示前一帧中线段端点i的横坐标,/>表示前一帧中线段端点i的纵坐标。
在上述确定目标区域的过程中,采用先获取与目标区域的边框距离最近的目标线段,再基于目标线段的延长线的相交位置来确定目标区域的至少三个角点,根据确定出的至少三个角点来定位目标区域。图7是本申请实施例提供的一种目标区域确定方法示意图,以下结合图7,对上述基于目标线段确定出目标区域的过程进行说明,在相框转场特效的应用过程中,会出现因用户手持相框,导致手部对相框边缘、角点造成遮挡的情况,也会出现因相框晃动而导致相框区域运动模糊的情况,也即是,在视频帧画面中无法清晰地显示相框。在这种情况下,对相框区域,也即是目标区域的边界进行识别时,仅能识别到目标区域边界上的部分线段,如图7所示,在相框发生运动模糊和被遮挡的情况下,在对该视频帧进行线段检测时,仅能检测出线段701、702、703和704,也即是,仅能识别出相框的部分边缘区域,在本申请实施例中,可以基于线段701、702、703和704的延长线,来确定出角点705、706、707和708,再根据角点定位出目标区域709,例如对各个角点进行连接,围成目标区域。在相框转场特效的应用过程中,采用先确定线段,再基于线段的延长线来确定目标区域角点的方法,能够确定出目标区域的全部角点,从而避免在相框转场过程中出现因目标区域的角点被遮挡或显示模糊,而导致角点无法识别、目标区域定位失败的情况。在后续对两个视频进行合并时,避免因识别出的目标区域不完整,而导致第二视频的视频画面不能完全显示的情况,确保第二视频的视频帧画面有良好的显示效果。
需要说明的是,上述步骤402和步骤403,是确定该第一视频的多个视频帧中的目标区域的步骤。在本申请实施例中,基于前一帧的所确定出的目标区域,来预测当前帧中的目标区域,逐帧检测目标区域,实现对目标区域的准确跟踪,无需用户手动逐帧标注目标区域。当第一视频出现运动模糊时,对第一视频的视频帧进行线段检测,仅能识别出相框边缘的一部分,在这种情况下,基于前一帧的识别结果,来预测当前帧中的目标区域,可以有效提高目标区域识别的准确率,即在运动模糊或遮挡的情况下,也能准确跟踪到目标区域。例如,在运动模糊或者有遮挡的情况下,目标区域的一条边可能会被遮挡,以图8为例,图8是本申请实施例提供的一种运动模糊效果的视频帧示意图,由于该视频帧的相框产生的运动模糊,在对该视频帧进行线段检测时,仅能检测出线段801、802、和803,相框的一条边无法识别出,从而仅根据当获取到的线段无法识别出目标区域,在这种情况下,结合前一帧所识别出目标区域,以及在当前帧中识别出的部分线段,就可以对当前帧中的目标区域进行预测。
404、服务器基于该第一视频的多个视频帧所包括目标区域的角点坐标,分别对该第二视频中对应的视频帧进行透视变换,基于透视变换后的视频帧执行后续的运动模糊步骤。
在一种可能实现方式中,服务器基于该第一视频的多个视频帧所包括目标区域的角点坐标之间的相对位置,确定该第一视频中各个视频帧对应的透视变换矩阵;再基于该第一视频中各个视频帧对应的透视变换矩阵,分别对该第二视频中对应的视频帧进行透视变换。以第一视频中的第i帧与第二视频中的第j帧相对应为例,上述透视变换过程可以表示为下述公式(2)和(3):
其中,a11、a12、a13、a21、a22、a23、a31、a32、a33是透视变换矩阵的参数,其数值基于第一视频中第i帧所包括目标区域的各个角点坐标确定,本申请实施例对此不作限定。u、v表示第二视频的第j帧中各个像素点的原始横、纵坐标,w可以设置为1;x、y表示第二视频的第j帧中各个像素点在透视变换后的横、纵坐标,x’、y’表示第二视频的第j帧中各个像素点在透视变换过程中的中间横、纵坐标,w’表示像素点在三维空间的竖坐标。在上述过程中,服务器先将二维坐标(u,v)先映射到三维空间得到(x’,y’,w’),再映射到二维空间得到(x,y),以完成透视变换。需要说明的是上述对透视变换方法的说明,仅是一种示例性说明,本申请实施例对具体采用哪种方法对第二视频的视频帧进行透视变换不作限定。
在本申请时实施例中,第一视频中的相框在移动时,因各个角点距离镜头位置的不同,相框会出现透视的情况,在这种情况下,基于识别出的目标区域中各个角点之间的相对位置关系,来确定相框的透视情况,在将第二视频嵌入到第一视频之前,基于第一视频中相框的透视情况,对第二视频的视频帧进行透视变换,使第二视频能够更好地与第一视频进行融合,使合成后的视频更加逼真,呈现出良好的视频过渡效果。
405、服务器获取第一视频中前后两个视频帧中该目标区域的位置移动情况,基于该位置移动情况确定目标区域的区域移动信息。
在本申请实施例中,由于目标区域在移动时,目标区域的各个角点的移动距离和移动方向均不同,则目标区域的区域移动信息包括目标区域的各个角点对应的移动信息,即该区域移动信息包括目标区域的各个角点的移动距离和移动方向。
在一种可能实现方式中,服务器可以基于各个角点在前后两个视频帧中位置坐标的变化情况,来确定该角点的移动距离和移动方向。图9是本申请实施例提供的一种目标区域移动情况的示意图,图9示出了第一视频的第i帧中目标区域的位置901和第一视频的第i-1帧中目标区域的位置902,在目标区域移动过程中,各个角点的移动幅度是不同的,例如,第i-1帧中p1位置的角点移动到了第i帧的p1’位置。以获取一个角点的移动距离和移动方向为例,上述过程可以表示为下述公式(4)和(5):
其中,Xcurrent、Ycurrent分别表示当前帧中角点的横、纵坐标,Xpre、Ypre分别表示前一帧中角点的横、纵坐标;k表示角点的移动距离;cosθ表示角点的移动方向;p表示调节因子,其具体数值由开发人员进行设置,本申请实施例对此不作限定。
需要说明的是,上述步骤402、步骤404,是确定该第一视频的多个视频帧的区域移动信息,该区域移动信息用于表示前后两个视频帧中的目标区域的位置移动情况,该目标区域用于显示该第二视频的视频帧的步骤,在本申请实施例中,基于相邻两个视频帧中相框的位置移动情况,来对第二视频进行后续的运动模糊处理,可以使第二视频和第一视频的融合效果更自然。
406、服务器基于该第一视频的多个视频帧的区域移动信息,对该第二视频的多个视频帧进行运动模糊处理。
在一种可能实现方式中,服务器可以通过卷积模块,对第二视频的视频帧进行卷积运算,来实现运动模糊处理,该方法可以包括以下步骤:
步骤一、服务器基于前后两个视频帧中目标区域的至少三个角点的移动距离和移动方向,分别确定至少三组卷积参数。
其中,基于一个角点的移动距离和移动方向,可以确定出一组卷积参数,该卷积参数用于指示在一次卷积运算中的卷积区域大小以及卷积核的移动方向。角点的移动距离可以表示卷积核的卷积区域大小,卷积区域的大小与运动模糊半径正相关;角点的移动方向可以表示卷积核的移动方向。
步骤二、服务器通过该第三卷积核分别基于该至少三组卷积参数对该第二视频中对应的视频帧进行卷积运算,得到至少三个中间帧。
在一种可能实现方式中,卷积模块中可以设置有多个不同尺度的候选卷积核,不同尺度的候选卷积核对应于不同尺度的卷积区域,也即是对应于不同的移动距离取值范围。对于任一组卷积参数,服务器可以从多个不同大小的候选卷积核中,获取尺寸与该任一组卷积参数中该卷积区域大小相匹配的候选卷积核,作为第三卷积核;通过该第三卷积核按照该任一组卷积参数中的移动方向,对该第二视频中对应的视频帧进行卷积运算,得到中间视频帧。例如,一组卷积参数中,卷积区域大小为3*3,则服务器可以选择3*3的候选卷积核作为第三卷积核。在一种可能实现方式中,卷积模块中也可以仅设置一种尺度的第三卷积核,服务器在获取到卷积参数后,对该第三卷积核的卷积区域进行调整。以卷积运算是获取卷积区域内各个元素的平均值为例,若一组卷积参数中的卷积区域是5*5时,服务器在应用第三卷积核对目标像素点进行卷积运算时,可以以目标像素点为中心,对该目标像素点周围5*5区域内的元素取平均值。需要说明的是,本申请实施例对具体采用哪种方式调整卷积运算过程中的卷积区域不作限定。
以第一视频的第i帧和第二视频的第j帧相对应为例,对上述中间帧获取过程进行说明,根据目标区域在第一视频的第i-1帧和第i帧之间的区域移动信息,确定出至少三组卷积参数后,服务器通过第三卷积核分别基于各组卷积参数对第二视频的第j帧进行卷积运算,得到第j帧对应的至少三个中间帧。图10是本申请实施例提供的一种运动模糊处理的示意图,以图10为例对上述中间帧获取过程进行说明,参见图10,若目标区域中的角点A对应于第一组卷积参数,该第一组卷积参数中卷积区域的大小是4*4,卷积方向是1001方向,则服务器在基于该第一组卷积参数进行卷积运算时,第三卷积核从第二视频的视频帧1002的左上方开始,根据第一组卷积参数所指示的卷及区域大小和卷积方向进行卷积运算,得到一个中间帧。若目标区域中的角点B,对应于第二组卷积参数,该第二组卷积参数中卷积区域的大小是3*3,卷积方向是1003方向,则服务器在基于该第二组卷积参数进行卷积运算时,第三卷积核从视频帧1002的左上方开始,根据第二组卷积参数所指示的卷及区域大小和卷积方向进行卷积运算,得到另一个中间帧。图11是本申请实施例提供的一种运动模糊效果示意图,目标区域为有四个角点时,根据每个角点对应的一组卷积参数分别对第二视频的视频帧进行卷积运算后,所得到的四个中间帧有不同的运动模糊效果,如图11中的(a)图、(b)图、(c)图和(d)图所示。
步骤三、服务器对该至少三个中间帧进行叠加,得到运动模糊处理后的该第二视频的视频帧。
在一种可能实现方式中,对于该第二视频的视频帧中的任一像素点,服务器基于该任一像素点相对于各个角点的距离,确定在任一像素点位置,各个中间帧对应的透明度参数;对于该第二视频的视频帧中的任一像素点位置,基于各个中间帧对应的透明度参数,对各个中间帧进行叠加,得到运动模糊处理后的第二视频的视频帧。例如,对于第二视频中第j帧的像素点t,服务器获取像素点t与各个角点之间的距离,例如,第二视频的第j帧对应于第一视频的第i帧,服务器可以将第二视频的第j帧置于第一视频中第i帧的目标区域内,再确定出像素点t与各个角点之间的距离。服务器基于像素点t与各个角点之间的距离比例,确定像素点t位置处,各个中间帧对应的透明度参数。例如,服务器分别基于角点A对应的卷积参数进行卷积运算,得到中间帧a,则中间帧a对应的透明度参数与像素点t到角点A的距离正相关,即像素点t到角点A的距离越远,在像素点t处,中间帧a的透明度越大,像素点t到角点A的距离越近,在像素点t处,中间帧a的透明度越小。在像素点t处,服务器基于各个中间帧对应的透明度参数对中间帧进行叠加,得到一个新像素点。基于上述过程,得到第二视频的第j帧中每个像素点所对应的新像素点,也就得到了经过运动模糊处理的第j帧。
需要说明的是,上述对视频帧进行运动模糊处理方法的说明,仅是一种示例性说明,本申请实施例对具体采用哪种方式对视频帧进行运动模糊处理不作限定。在本申请实施例中,对第二视频的视频帧进行运动模糊处理,使第二视频的显示效果与第一视频的显示效果相匹配,以获得更自然的视频转场效果。且应用上述运动模糊处理方法,无需对视频帧中的各个像素点均进行不同程度的运动模糊处理,只需调整中间帧的透明度,对不同透明度的中间帧进行叠加即可,大大降低了运动模糊处理过程中的运算量。
407、服务器将该第一视频的多个视频帧中该目标区域的图像,分别替换为运动模糊处理后的该第二视频的多个视频帧,得到目标视频。
以第一视频的第i帧和第二视频的第j帧相对应为例,服务器可以将第一视频的第i帧中目标区域的图像,替换为第二视频的第j帧,得到目标视频的一个视频帧。图12是本申请实施例提供的一种目标视频的视频帧示意图,如图12所示,目标区域1201中显示有运动模糊处理后的图像。在对目标区域的图像替换完成后,即可得到目标视频,即添加了相框转场效果的目标视频。在一种可能实现方式中,服务器可以将目标视频发送至终端,由终端进行播放。
图13是本申请实施例提供的一种相框转场效果的实现方法流程图,结合图13,对上述视频数据处理过程进行说明。在一种可能实现方式中,服务器在获取到待处理的第一视频、第二视频后,先执行对第一视频进行线段检测,提取相框边缘直线的步骤1301;再根据检测出的线段,执行目标跟踪步骤1302,即分析第一视频的相邻两帧中线段的位置变化,来对相框进行跟踪。该目标区域的确定过程如图14所示,图14是本申请实施例提供的一种目标区域跟踪过程示意图,具体地,在线段检测阶段,服务器检测出第一视频的当前帧中的全部线段,如图14中的(a)图所示,再根据前一帧的目标区域确定结果,筛选出当前帧中的目标线段,根据目标线段或目标线段的延长线确定目标区域,如图14中的(b)图所示,得到的目标区域如图14中的(c)图所示。上述目标区域跟踪的过程即步骤402、403的过程。在确定出目标区域,即相框框出的区域后,服务器提取相框的透视信息,执行对第二视频的视频帧进行透视变换的步骤1303,也即是,执行上述步骤404中的内容;对于透视变换后的第二视频中的视频帧,执行运动模糊处理的步骤1304,使第二视频和第一视频保持相同的运动模糊效果,也即是,执行上述步骤405和步骤406;再将运动模糊处理后的第二视频和第一视频进行合成,即执行渲染特效视频的步骤1305,得到添加了相框转场特效的目标视频。
本申请实施例提供的技术方案,通过在将第二视频嵌入到第一视频的目标区域时,基于人工智能技术来获取第一视频中目标区域的位置移动情况,根据该位置移动情况相应地对第二视频的画面进行运动模糊处理,使第二视频和第一视频具有相同的运动模糊效果,从而使第一视频和第二视频能够更好的融合,得到更好的视频过渡效果。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
图15是本申请实施例提供的一种视频数据处理装置的结构示意图,参见图15,该装置包括:
获取模块1501,用于获取待处理的第一视频和第二视频;
确定模块1502,用于确定该第一视频的多个视频帧的区域移动信息,该区域移动信息用于表示前后两个视频帧中的目标区域的位置移动情况,该目标区域用于显示该第二视频的视频帧;
运动模糊处理模块1503,用于基于该第一视频的多个视频帧的区域移动信息,对该第二视频的多个视频帧进行运动模糊处理;
替换模块1504,用于将该第一视频的多个视频帧中该目标区域的图像,分别替换为运动模糊处理后的该第二视频的多个视频帧,得到目标视频。
在一种可能实现方式中,该确定模块1502包括:
第一确定单元,用于确定该第一视频的多个视频帧中的目标区域;
第二确定单元,用于基于该第一视频中前后两个视频帧中该目标区域的位置移动情况,确定该区域移动信息。
在一种可能实现方式中,该第一确定单元包括:
检测子单元,用于对该第一视频中的多个视频帧分别进行线段检测;
区域确定子单元,用于基于检测出的线段,确定该第一视频的多个视频帧所包括的目标区域。
在一种可能实现方式中,该检测子单元包括:
特征提取子单元,用于对该第一视频中的多个视频帧分别进行特征提取,得到视频帧对应的特征图;
连接点确定子单元,用于基于该视频帧对应的特征图,确定该视频帧所包括的连接点;
线段确定子单元,用于基于该连接点确定该视频帧所包括的线段。
在一种可能实现方式中,该连接点确定子单元用于:
将该特征图划分为多个子区域;
基于第一卷积核对该特征图中的子区域进行卷积运算,得到概率特征图,该概率特征图中的一个元素用于指示一个子区域中存在连接点的概率;
基于第二卷积核对该概率特征图进行卷积运算,得到位置特征图,该位置特征图中的一个元素用于指示一个子区域中连接点的位置信息;
基于该概率特征图以及该位置特征图,确定该视频帧所包括的连接点。
在一种可能实现方式中,该区域确定子单元用于:
对于该第一视频中的第一帧,从检测出的该线段中,获取与参考区域的边框之间距离最近的线段作为目标线段,将该目标线段围成的区域确定为该目标区域;
对于该第一视频中除第一帧以外的任一帧,从检测出的该线段中,获取与前一帧中的目标线段之间距离最近的线段,作为该任一帧中的目标线段,将该任一帧中的目标线段围成的区域确定为该目标区域。
在一种可能实现方式中,该区域移动信息包括该目标区域的至少三个角点的移动距离和移动方向。
在一种可能实现方式中,该运动模糊处理模块1503包括:
参数确定单元,用于基于前后两个视频帧中目标区域的至少三个角点的移动距离和移动方向,分别确定至少三组卷积参数,该卷积参数用于指示第三卷积核在一次卷积运算中的卷积区域大小以及该第三卷积核的移动方向;
卷积单元,用于通过该第三卷积核分别基于该至少三组卷积参数对该第二视频中对应的视频帧进行卷积运算,得到至少三个中间帧;
叠加单元,用于对该至少三个中间帧进行叠加,得到运动模糊处理后的该第二视频的视频帧。
在一种可能实现方式中,该卷积单元用于:
对于任一组卷积参数,从多个不同大小的候选卷积核中,获取尺寸与该任一组卷积参数中该卷积区域大小相匹配的候选卷积核,作为第三卷积核;
通过该第三卷积核按照该任一组卷积参数中的移动方向,对该第二视频中对应的视频帧进行卷积运算,得到中间视频帧。
在一种可能实现方式中,该叠加单元用于:
对于该第二视频的视频帧中的任一像素点,基于该任一像素点相对于各个角点的距离,确定在任一像素点位置,各个该中间帧对应的透明度参数;
对于该第二视频的视频帧中的任一像素点位置,基于各个该中间帧对应的透明度参数,对该中间帧进行叠加,得到运动模糊处理后的该第二视频的视频帧。
在一种可能实现方式中,该装置还包括:
透视变换模块,用于基于该第一视频的多个视频帧所包括目标区域的角点坐标,分别对该第二视频中对应的视频帧进行透视变换,基于透视变换后的该第二视频的视频帧,执行基于该第一视频的多个视频帧的区域移动信息,对该第二视频的多个视频帧进行运动模糊处理的步骤。
在一种可能实现方式中,该透视变换模块用于:
基于该第一视频的多个视频帧所包括目标区域的角点坐标之间的相对位置,确定该第一视频中各个视频帧对应的透视变换矩阵;
基于该第一视频中各个视频帧对应的透视变换矩阵,分别对该第二视频中对应的视频帧进行透视变换。
本申请实施例提供的装置,通过在将第二视频嵌入到第一视频的目标区域时,基于人工智能技术来获取第一视频中目标区域的位置移动情况,根据该位置移动情况相应地对第二视频的画面进行运动模糊处理,使第二视频和第一视频具有相同的运动模糊效果,从而使第一视频和第二视频能够更好的融合,得到更好的视频过渡效果。
需要说明的是:上述实施例提供的视频数据处理装置在视频数据处理时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的视频数据处理装置与视频数据处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图16是本申请实施例提供的一种终端的结构示意图。该终端1600可以是:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1600还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1600包括有:一个或多个处理器1601和一个或多个存储器1602。
处理器1601可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器1601可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1601也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1601可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1601还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1602可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1602还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1602中的非暂态的计算机可读存储介质用于存储至少一条程序代码,该至少一条程序代码用于被处理器1601所执行以实现本申请中方法实施例提供的视频数据处理方法。
在一些实施例中,终端1600还可选包括有:***设备接口1603和至少一个***设备。处理器1601、存储器1602和***设备接口1603之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口1603相连。具体地,***设备包括:射频电路1604、显示屏1605、摄像头组件1606、音频电路1607和电源1609中的至少一种。
***设备接口1603可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器1601和存储器1602。在一些实施例中,处理器1601、存储器1602和***设备接口1603被集成在同一芯片或电路板上;在一些其他实施例中,处理器1601、存储器1602和***设备接口1603中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1604用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1604通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1604将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1604包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1604可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1604还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1605用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1605是触摸显示屏时,显示屏1605还具有采集在显示屏1605的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1601进行处理。此时,显示屏1605还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1605可以为一个,设置终端1600的前面板;在另一些实施例中,显示屏1605可以为至少两个,分别设置在终端1600的不同表面或呈折叠设计;在一些实施例中,显示屏1605可以是柔性显示屏,设置在终端1600的弯曲表面上或折叠面上。甚至,显示屏1605还可以设置成非矩形的不规则图形,也即异形屏。显示屏1605可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1606用于采集图像或视频。可选地,摄像头组件1606包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1606还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1607可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1601进行处理,或者输入至射频电路1604以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1600的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1601或射频电路1604的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1607还可以包括耳机插孔。
电源1609用于为终端1600中的各个组件进行供电。电源1609可以是交流电、直流电、一次性电池或可充电电池。当电源1609包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1600还包括有一个或多个传感器1610。该一个或多个传感器1610包括但不限于:加速度传感器1611、陀螺仪传感器1612、压力传感器1613、光学传感器1615以及接近传感器1616。
加速度传感器1611可以检测以终端1600建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1611可以用于检测重力加速度在三个坐标轴上的分量。处理器1601可以根据加速度传感器1611采集的重力加速度信号,控制显示屏1605以横向视图或纵向视图进行用户界面的显示。加速度传感器1611还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1612可以检测终端1600的机体方向及转动角度,陀螺仪传感器1612可以与加速度传感器1611协同采集用户对终端1600的3D动作。处理器1601根据陀螺仪传感器1612采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1613可以设置在终端1600的侧边框和/或显示屏1605的下层。当压力传感器1613设置在终端1600的侧边框时,可以检测用户对终端1600的握持信号,由处理器1601根据压力传感器1613采集的握持信号进行左右手识别或快捷操作。当压力传感器1613设置在显示屏1605的下层时,由处理器1601根据用户对显示屏1605的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
光学传感器1615用于采集环境光强度。在一个实施例中,处理器1601可以根据光学传感器1615采集的环境光强度,控制显示屏1605的显示亮度。具体地,当环境光强度较高时,调高显示屏1605的显示亮度;当环境光强度较低时,调低显示屏1605的显示亮度。在另一个实施例中,处理器1601还可以根据光学传感器1615采集的环境光强度,动态调整摄像头组件1606的拍摄参数。
接近传感器1616,也称距离传感器,通常设置在终端1600的前面板。接近传感器1616用于采集用户与终端1600的正面之间的距离。在一个实施例中,当接近传感器1616检测到用户与终端1600的正面之间的距离逐渐变小时,由处理器1601控制显示屏1605从亮屏状态切换为息屏状态;当接近传感器1616检测到用户与终端1600的正面之间的距离逐渐变大时,由处理器1601控制显示屏1605从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图16中示出的结构并不构成对终端1600的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图17是本申请实施例提供的一种服务器的结构示意图,该服务器1700可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器(Central Processing Units,CPU)1701和一个或多个的存储器1702,其中,该一个或多个存储器1702中存储有至少一条程序代码,该至少一条程序代码由该一个或多个处理器1701加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器1700还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器1700还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,例如包括至少一条程序代码的存储器,上述至少一条程序代码可由处理器执行以完成上述实施例中的视频数据处理方法。例如,该计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,该计算机程序产品包括至少一条程序代码,该至少一条程序代码存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该至少一条程序代码,处理器执行该计算机指令,使得该计算机设备实现该视频数据处理方法所执行的操作。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来至少一条程序代码相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
上述仅为本申请的可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (23)
1.一种视频数据处理方法,其特征在于,所述方法包括:
获取待处理的第一视频和第二视频;
确定所述第一视频的多个视频帧的区域移动信息,所述区域移动信息用于表示前后两个视频帧中的目标区域的位置移动情况,所述目标区域用于显示所述第二视频的视频帧,所述区域移动信息包括所述目标区域的至少三个角点的移动距离和移动方向;
基于前后两个视频帧中所述目标区域的至少三个角点的移动距离和移动方向,分别确定至少三组卷积参数,所述卷积参数用于指示一次卷积运算中的卷积区域大小以及卷积核的移动方向;
通过第三卷积核分别基于所述至少三组卷积参数对所述第二视频中对应的视频帧进行卷积运算,得到至少三个中间帧;
对所述至少三个中间帧进行叠加,得到运动模糊处理后的所述第二视频的视频帧;
将所述第一视频的多个视频帧中所述目标区域的图像,分别替换为运动模糊处理后的所述第二视频的多个视频帧,得到目标视频。
2.根据权利要求1所述的方法,其特征在于,所述确定所述第一视频的多个视频帧的区域移动信息,包括:
确定所述第一视频的多个视频帧中的目标区域;
基于所述第一视频中前后两个视频帧中所述目标区域的位置移动情况,确定所述区域移动信息。
3.根据权利要求2所述的方法,其特征在于,所述确定所述第一视频的多个视频帧中的目标区域,包括:
对所述第一视频中的多个视频帧分别进行线段检测;
基于检测出的线段,确定所述第一视频的多个视频帧所包括的目标区域。
4.根据权利要求3所述的方法,其特征在于,所述对所述第一视频中的多个视频帧分别进行线段检测,包括:
对所述第一视频中的多个视频帧分别进行特征提取,得到视频帧对应的特征图;
基于所述视频帧对应的特征图,确定所述视频帧所包括的连接点;
基于所述连接点确定所述视频帧所包括的线段。
5.根据权利要求4所述的方法,其特征在于,所述基于所述视频帧对应的特征图,确定所述视频帧所包括的连接点,包括:
将所述特征图划分为多个子区域;
基于第一卷积核对所述特征图中的子区域进行卷积运算,得到概率特征图,所述概率特征图中的一个元素用于指示一个子区域中存在连接点的概率;
基于第二卷积核对所述概率特征图进行卷积运算,得到位置特征图,所述位置特征图中的一个元素用于指示一个子区域中连接点的位置信息;
基于所述概率特征图以及所述位置特征图,确定所述视频帧所包括的连接点。
6.根据权利要求3所述的方法,其特征在于,所述基于检测出的线段,确定所述第一视频的多个视频帧所包括的目标区域,包括:
对于所述第一视频中的第一帧,从检测出的所述线段中,获取与参考区域的边框之间距离最近的线段作为目标线段,将所述目标线段围成的区域确定为所述目标区域;
对于所述第一视频中除第一帧以外的任一帧,从检测出的所述线段中,获取与前一帧中的目标线段之间距离最近的线段,作为所述任一帧中的目标线段,将所述任一帧中的目标线段围成的区域确定为所述目标区域。
7.根据权利要求1所述的方法,其特征在于,所述通过第三卷积核分别基于所述至少三组卷积参数对所述第二视频中对应的视频帧进行卷积运算,得到至少三个中间帧,包括:
对于任一组卷积参数,从多个不同大小的候选卷积核中,获取尺寸与所述任一组卷积参数中所述卷积区域大小相匹配的候选卷积核,作为第三卷积核;
通过所述第三卷积核按照所述任一组卷积参数中的移动方向,对所述第二视频中对应的视频帧进行卷积运算,得到中间视频帧。
8.根据权利要求1所述的方法,其特征在于,所述对所述至少三个中间帧进行叠加,得到运动模糊处理后的所述第二视频的视频帧,包括:
对于所述第二视频的视频帧中的任一像素点,基于所述任一像素点相对于各个角点的距离,确定在任一像素点位置,各个所述中间帧对应的透明度参数;
对于所述第二视频的视频帧中的任一像素点位置,基于各个所述中间帧对应的透明度参数,对所述中间帧进行叠加,得到运动模糊处理后的所述第二视频的视频帧。
9.根据权利要求1所述的方法,其特征在于,所述基于前后两个视频帧中所述目标区域的至少三个角点的移动距离和移动方向,分别确定至少三组卷积参数之前,所述方法还包括:
基于所述第一视频的多个视频帧所包括目标区域的角点坐标,分别对所述第二视频中对应的视频帧进行透视变换,基于透视变换后的所述第二视频的视频帧,执行以下步骤:
基于前后两个视频帧中所述目标区域的至少三个角点的移动距离和移动方向,分别确定至少三组卷积参数;通过第三卷积核分别基于所述至少三组卷积参数对所述第二视频中对应的视频帧进行卷积运算,得到至少三个中间帧;对所述至少三个中间帧进行叠加,得到运动模糊处理后的所述第二视频的视频帧。
10.根据权利要求9所述的方法,其特征在于,所述基于所述第一视频的多个视频帧所包括目标区域的角点坐标,分别对所述第二视频中对应的视频帧进行透视变换,包括:
基于所述第一视频的多个视频帧所包括目标区域的角点坐标之间的相对位置,确定所述第一视频中各个视频帧对应的透视变换矩阵;
基于所述第一视频中各个视频帧对应的透视变换矩阵,分别对所述第二视频中对应的视频帧进行透视变换。
11.一种视频数据处理装置,其特征在于,所述装置包括:
获取模块,用于获取待处理的第一视频和第二视频;
确定模块,用于确定所述第一视频的多个视频帧的区域移动信息,所述区域移动信息用于表示前后两个视频帧中的目标区域的位置移动情况,所述目标区域用于显示所述第二视频的视频帧,所述区域移动信息包括所述目标区域的至少三个角点的移动距离和移动方向;
运动模糊处理模块包括参数确定单元、卷积单元和叠加单元;
所述参数确定单元,用于基于前后两个视频帧中所述目标区域的至少三个角点的移动距离和移动方向,分别确定至少三组卷积参数,所述卷积参数用于指示一次卷积运算中的卷积区域大小以及卷积核的移动方向;
所述卷积单元,用于通过第三卷积核分别基于所述至少三组卷积参数对所述第二视频中对应的视频帧进行卷积运算,得到至少三个中间帧;
所述叠加单元,用于对所述至少三个中间帧进行叠加,得到运动模糊处理后的所述第二视频的视频帧;
替换模块,用于将所述第一视频的多个视频帧中所述目标区域的图像,分别替换为运动模糊处理后的所述第二视频的多个视频帧,得到目标视频。
12.根据权利要求11所述的装置,其特征在于,所述确定模块包括:
第一确定单元,用于确定所述第一视频的多个视频帧中的目标区域;
第二确定单元,用于基于所述第一视频中前后两个视频帧中所述目标区域的位置移动情况,确定所述区域移动信息。
13.根据权利要求12所述的装置,其特征在于,所述第一确定单元,包括:
检测子单元,用于对所述第一视频中的多个视频帧分别进行线段检测;
区域确定子单元,用于基于检测出的线段,确定所述第一视频的多个视频帧所包括的目标区域。
14.根据权利要求13所述的装置,其特征在于,所述检测子单元包括:
特征提取子单元,用于对所述第一视频中的多个视频帧分别进行特征提取,得到视频帧对应的特征图;
连接点确定子单元,用于基于所述视频帧对应的特征图,确定所述视频帧所包括的连接点;
线段确定子单元,用于基于所述连接点确定所述视频帧所包括的线段。
15.根据权利要求14所述的装置,其特征在于,所述连接点确定子单元用于:
将所述特征图划分为多个子区域;
基于第一卷积核对所述特征图中的子区域进行卷积运算,得到概率特征图,所述概率特征图中的一个元素用于指示一个子区域中存在连接点的概率;
基于第二卷积核对所述概率特征图进行卷积运算,得到位置特征图,所述位置特征图中的一个元素用于指示一个子区域中连接点的位置信息;
基于所述概率特征图以及所述位置特征图,确定所述视频帧所包括的连接点。
16.根据权利要求13所述的装置,其特征在于,所述区域确定子单元用于:
对于所述第一视频中的第一帧,从检测出的所述线段中,获取与参考区域的边框之间距离最近的线段作为目标线段,将所述目标线段围成的区域确定为所述目标区域;
对于所述第一视频中除第一帧以外的任一帧,从检测出的所述线段中,获取与前一帧中的目标线段之间距离最近的线段,作为所述任一帧中的目标线段,将所述任一帧中的目标线段围成的区域确定为所述目标区域。
17.根据权利要求11所述的装置,其特征在于,所述卷积单元用于:
对于任一组卷积参数,从多个不同大小的候选卷积核中,获取尺寸与所述任一组卷积参数中所述卷积区域大小相匹配的候选卷积核,作为第三卷积核;
通过所述第三卷积核按照所述任一组卷积参数中的移动方向,对所述第二视频中对应的视频帧进行卷积运算,得到中间视频帧。
18.根据权利要求11所述的装置,其特征在于,所述叠加单元用于:
对于所述第二视频的视频帧中的任一像素点,基于所述任一像素点相对于各个角点的距离,确定在任一像素点位置,各个所述中间帧对应的透明度参数;
对于所述第二视频的视频帧中的任一像素点位置,基于各个所述中间帧对应的透明度参数,对所述中间帧进行叠加,得到运动模糊处理后的所述第二视频的视频帧。
19.根据权利要求11所述的装置,其特征在于,所述装置还包括:
透视变换模块,用于基于所述第一视频的多个视频帧所包括目标区域的角点坐标,分别对所述第二视频中对应的视频帧进行透视变换,基于透视变换后的所述第二视频的视频帧,执行以下步骤:
基于前后两个视频帧中所述目标区域的至少三个角点的移动距离和移动方向,分别确定至少三组卷积参数;通过第三卷积核分别基于所述至少三组卷积参数对所述第二视频中对应的视频帧进行卷积运算,得到至少三个中间帧;对所述至少三个中间帧进行叠加,得到运动模糊处理后的所述第二视频的视频帧。
20.根据权利要求19所述的装置,其特征在于,所述透视变换模块用于:
基于所述第一视频的多个视频帧所包括目标区域的角点坐标之间的相对位置,确定所述第一视频中各个视频帧对应的透视变换矩阵;
基于所述第一视频中各个视频帧对应的透视变换矩阵,分别对所述第二视频中对应的视频帧进行透视变换。
21.一种计算机设备,其特征在于,所述计算机设备包括一个或多个处理器和一个或多个存储器,所述一个或多个存储器中存储有至少一条程序代码,所述至少一条程序代码由所述一个或多个处理器加载并执行以实现如权利要求1至权利要求10任一项所述的视频数据处理方法所执行的操作。
22.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行以实现如权利要求1至权利要求10任一项所述的视频数据处理方法所执行的操作。
23.一种计算机程序产品,其特征在于,所述计算机程序产品包括至少一条程序代码,所述至少一条程序代码存储在计算机可读存储介质中,由计算机设备的处理器从所述计算机可读存储介质中读取并执行以实现如权利要求1至权利要求10任一项所述的视频数据处理方法所执行的操作。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010880221.8A CN112749613B (zh) | 2020-08-27 | 2020-08-27 | 视频数据处理方法、装置、计算机设备及存储介质 |
EP21860263.9A EP4109330A4 (en) | 2020-08-27 | 2021-08-19 | VIDEO DATA PROCESSING METHOD AND DEVICE, AND COMPUTER DEVICE AND STORAGE MEDIA |
PCT/CN2021/113566 WO2022042425A1 (zh) | 2020-08-27 | 2021-08-19 | 视频数据处理方法、装置、计算机设备及存储介质 |
US17/882,479 US20220383511A1 (en) | 2020-08-27 | 2022-08-05 | Video data processing method and apparatus, computer device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010880221.8A CN112749613B (zh) | 2020-08-27 | 2020-08-27 | 视频数据处理方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112749613A CN112749613A (zh) | 2021-05-04 |
CN112749613B true CN112749613B (zh) | 2024-03-26 |
Family
ID=75645360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010880221.8A Active CN112749613B (zh) | 2020-08-27 | 2020-08-27 | 视频数据处理方法、装置、计算机设备及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220383511A1 (zh) |
EP (1) | EP4109330A4 (zh) |
CN (1) | CN112749613B (zh) |
WO (1) | WO2022042425A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112749613B (zh) * | 2020-08-27 | 2024-03-26 | 腾讯科技(深圳)有限公司 | 视频数据处理方法、装置、计算机设备及存储介质 |
USD983819S1 (en) * | 2021-03-26 | 2023-04-18 | Beijing Xiaomi Mobile Software Co., Ltd. | Display screen or portion thereof with graphical user interface |
CN113449645B (zh) * | 2021-06-29 | 2023-09-22 | 杭州海康威视***技术有限公司 | 人员出入数据的确定方法、装置、设备及存储介质 |
CN113345062B (zh) * | 2021-08-04 | 2021-11-05 | 成都市谛视科技有限公司 | 三维虚拟角色动作补全方法、装置和服务器 |
CN114630057B (zh) * | 2022-03-11 | 2024-01-30 | 北京字跳网络技术有限公司 | 确定特效视频的方法、装置、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5566251A (en) * | 1991-09-18 | 1996-10-15 | David Sarnoff Research Center, Inc | Video merging employing pattern-key insertion |
WO2009107487A1 (ja) * | 2008-02-25 | 2009-09-03 | 三菱電機株式会社 | 動きぼやけ検出装置及び方法、画像処理装置、並びに画像表示装置 |
CN102073652A (zh) * | 2009-11-24 | 2011-05-25 | 腾讯科技(深圳)有限公司 | 一种电子相册生成方法及装置和电子相册播放器 |
CN109671097A (zh) * | 2018-12-12 | 2019-04-23 | 北京像素软件科技股份有限公司 | 运动模糊实现方法及装置 |
CN110786002A (zh) * | 2018-07-24 | 2020-02-11 | 深圳市大疆创新科技有限公司 | 视频处理方法、设备、计算机可读存储介质 |
DE102019121570A1 (de) * | 2018-08-13 | 2020-02-13 | Nvidia Corporation | Bewegungsunschärfe- und schärfentiefe-rekonstruktion durch zeitlich stabile neuronale netzwerke |
CN111464716A (zh) * | 2020-04-09 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 一种证件扫描方法、装置、设备及存储介质 |
CN111556336A (zh) * | 2020-05-12 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 一种多媒体文件处理方法、装置、终端设备及介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130176332A1 (en) * | 2012-01-10 | 2013-07-11 | Nokia Corporation | Method and apparatus for image presentation |
KR101795270B1 (ko) * | 2016-06-09 | 2017-11-07 | 현대자동차주식회사 | 장애물의 지면경계 정보를 이용한 물체 측면 검출 방법 및 장치 |
CN107566756B (zh) * | 2017-08-03 | 2020-03-24 | 广东小天才科技有限公司 | 一种视频转场的处理方法及终端设备 |
JP2019057836A (ja) * | 2017-09-21 | 2019-04-11 | キヤノン株式会社 | 映像処理装置、映像処理方法、コンピュータプログラム、及び記憶媒体 |
US10482610B2 (en) * | 2017-11-01 | 2019-11-19 | Adobe Inc. | Detection of partially motion-blurred video frames |
JP7010122B2 (ja) * | 2018-04-11 | 2022-01-26 | 日本電信電話株式会社 | 映像生成装置、映像生成方法、およびプログラム |
CN112749613B (zh) * | 2020-08-27 | 2024-03-26 | 腾讯科技(深圳)有限公司 | 视频数据处理方法、装置、计算机设备及存储介质 |
-
2020
- 2020-08-27 CN CN202010880221.8A patent/CN112749613B/zh active Active
-
2021
- 2021-08-19 WO PCT/CN2021/113566 patent/WO2022042425A1/zh unknown
- 2021-08-19 EP EP21860263.9A patent/EP4109330A4/en active Pending
-
2022
- 2022-08-05 US US17/882,479 patent/US20220383511A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5566251A (en) * | 1991-09-18 | 1996-10-15 | David Sarnoff Research Center, Inc | Video merging employing pattern-key insertion |
WO2009107487A1 (ja) * | 2008-02-25 | 2009-09-03 | 三菱電機株式会社 | 動きぼやけ検出装置及び方法、画像処理装置、並びに画像表示装置 |
CN102073652A (zh) * | 2009-11-24 | 2011-05-25 | 腾讯科技(深圳)有限公司 | 一种电子相册生成方法及装置和电子相册播放器 |
CN110786002A (zh) * | 2018-07-24 | 2020-02-11 | 深圳市大疆创新科技有限公司 | 视频处理方法、设备、计算机可读存储介质 |
DE102019121570A1 (de) * | 2018-08-13 | 2020-02-13 | Nvidia Corporation | Bewegungsunschärfe- und schärfentiefe-rekonstruktion durch zeitlich stabile neuronale netzwerke |
CN109671097A (zh) * | 2018-12-12 | 2019-04-23 | 北京像素软件科技股份有限公司 | 运动模糊实现方法及装置 |
CN111464716A (zh) * | 2020-04-09 | 2020-07-28 | 腾讯科技(深圳)有限公司 | 一种证件扫描方法、装置、设备及存储介质 |
CN111556336A (zh) * | 2020-05-12 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 一种多媒体文件处理方法、装置、终端设备及介质 |
Non-Patent Citations (2)
Title |
---|
Jiaya Jia,et.al.Single Image Motion Deblurring Using Transparency.2007IEEE Conference on Computer Vision and Pattern Recognition.2007,全文. * |
针对部分景观运动模糊的还原算法;徐知劼,等;电子设计工程;第27卷(第24期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112749613A (zh) | 2021-05-04 |
US20220383511A1 (en) | 2022-12-01 |
WO2022042425A1 (zh) | 2022-03-03 |
EP4109330A4 (en) | 2023-07-05 |
EP4109330A1 (en) | 2022-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136136B (zh) | 场景分割方法、装置、计算机设备及存储介质 | |
CN110210571B (zh) | 图像识别方法、装置、计算机设备及计算机可读存储介质 | |
CN110807361B (zh) | 人体识别方法、装置、计算机设备及存储介质 | |
CN112749613B (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
WO2020224479A1 (zh) | 目标的位置获取方法、装置、计算机设备及存储介质 | |
CN110059685B (zh) | 文字区域检测方法、装置及存储介质 | |
CN110544272B (zh) | 脸部跟踪方法、装置、计算机设备及存储介质 | |
CN110555839A (zh) | 缺陷检测识别方法、装置、计算机设备及存储介质 | |
CN111541907B (zh) | 物品显示方法、装置、设备及存储介质 | |
CN110570460B (zh) | 目标跟踪方法、装置、计算机设备及计算机可读存储介质 | |
CN111931877B (zh) | 目标检测方法、装置、设备及存储介质 | |
CN110490179B (zh) | 车牌识别方法、装置及存储介质 | |
CN110675412B (zh) | 图像分割方法、图像分割模型的训练方法、装置及设备 | |
CN112581358B (zh) | 图像处理模型的训练方法、图像处理方法及装置 | |
CN110647881B (zh) | 确定图像对应的卡片类型的方法、装置、设备及存储介质 | |
CN114170349A (zh) | 图像生成方法、装置、电子设备及存储介质 | |
CN111178343A (zh) | 基于人工智能的多媒体资源检测方法、装置、设备及介质 | |
CN111738914A (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN113570614A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN113378705B (zh) | 车道线检测方法、装置、设备及存储介质 | |
CN112053360B (zh) | 图像分割方法、装置、计算机设备及存储介质 | |
CN112818979A (zh) | 文本识别方法、装置、设备及存储介质 | |
CN110232417B (zh) | 图像识别方法、装置、计算机设备及计算机可读存储介质 | |
CN111753813A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN113743186B (zh) | 医学图像的处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40044513 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |