CN108805908A - 一种基于时序网格流叠加的实时视频稳像方法 - Google Patents

一种基于时序网格流叠加的实时视频稳像方法 Download PDF

Info

Publication number
CN108805908A
CN108805908A CN201810587766.2A CN201810587766A CN108805908A CN 108805908 A CN108805908 A CN 108805908A CN 201810587766 A CN201810587766 A CN 201810587766A CN 108805908 A CN108805908 A CN 108805908A
Authority
CN
China
Prior art keywords
characteristic point
video frame
grid
video
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810587766.2A
Other languages
English (en)
Other versions
CN108805908B (zh
Inventor
孙凌云
帅世辉
杨智渊
尤伟涛
杨昌源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201810587766.2A priority Critical patent/CN108805908B/zh
Publication of CN108805908A publication Critical patent/CN108805908A/zh
Application granted granted Critical
Publication of CN108805908B publication Critical patent/CN108805908B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

本发明公开了一种基于时序网格流叠加的实时视频稳像方法,包括:(1)将获得的每个视频帧下采样到固定尺寸;(2)以第一帧作为初始参考帧,获取参考帧特征点;(3)提取并匹配视频帧特征点与参考帧特征点,获得视频帧特征点的最佳匹配特征点,构建全局单应性矩阵;(4)利用全局单应性矩阵剔除一部分视频帧特征点;(5)对视频帧分布网格,根据视频帧特征点获得网格顶点的运动矢量;(6)以周期为单位更换参考帧,采用时域叠加的方法根据每个周期的参考帧获得每个周期内的网格顶点的运动矢量;(7)根据网格顶点的运动矢量计算像素的运动矢量,根据像素的运动矢量对该像素进行调整。该方法保持镜头在整个视频序列中完全静止。

Description

一种基于时序网格流叠加的实时视频稳像方法
技术领域
本发明属于图像处理领域,具体涉及一种基于时序网格流叠加的实时视频稳像方法。
背景技术
随着通信技术的发展,短视频逐渐成为大众娱乐消费的主要载体。短视频的创作涉及一些特效的制作,而这些短视频特效的制作对视频的稳定性有着非常高的要求,例如Cinemagraph,该视频特效是大部分元素静止不动,保持静止图片原本样态,而局部特定部分元素呈现动态效果。对于手持设备进行的拍摄,轻微的抖动是无可避免的,但这样的抖动会很大程度上影响视频特效的生成。因此,使用快速有效的稳像去除视频中的晃动具有重要的现实意义。
现有的视频稳像算法,无论是基于2D的图像变换还是基于3D的场景重建,都是先通过对帧间特征提取来估计相机的运动路径,然后在对这些相机路径进行滤波平滑,并使用最终的平滑后参数补偿抖动帧。在因手持相机拍摄固定场景所造成的抖动时,现有的稳像算法只能通过帧间的特征跟踪对相机运动进行补偿,而无法做到相机镜头的完全静止(NoMotion)。因此研究一种有效处理固定场景的快速稳像算法,对于实时短视频特效制作的应用具有重要意义。
视频稳像在技术上大致可以分为,机械稳像和数字稳像,机械稳像主要是通过机械传动的方式来反向消除镜头的抖动,以达到稳像的目的,但对于硬件的开发难度较大,成本高,与本专利的技术方案完全不同。
申请公布号为CN201610956105.3的专利申请公开了一种基于单应性矩阵的实时视频稳像方法,具体过程是先获取待处理图像序列,对当前图像提取角点,然后分层仿射约束光流跟踪帧间角点,再进行全局单应性矩阵计算,平面运动补偿计算,3D畸变参数计算,全局稳像变换模型计算,最后稳像变化输出。该方法是基于数字稳像的,但是无法做到相机镜头的完全静止(NoMotion)。
申请公布号为CN201710920094.8公开的一种基于块运动估计的数字视频稳像方法,申请公布号为CN201510638640.X公开的基于SURF与模糊聚类的视频稳像以及申请公布号为CN201610704452.7公开的基于图像拼接的视频稳像方法。这些方法都是针对向一定方向移动的镜头运动的视频的稳像处理,无论是用2D的方法还是3D的方法,目的都是保持视频帧与前后帧的镜头的运动补偿,保持镜头运动的平滑性。但都无法解决NoMotion场景下的视频稳像要保持镜头在整个视频序列当中保持完全静止的需求。
发明内容
本发明的目的是提供一种基于时序网格流叠加的实时视频稳像方法,能够解决NoMotion(镜头静止)场景下的视频稳像要保持镜头在整个视频序列当中保持完全静止的需求。
为实现上述发明目的,本发明提供以下技术方案:
一种基于时序网格流叠加的实时视频稳像方法,包括以下步骤:
(1)获取一段视频,对每个视频帧进行下采样到固定尺寸;
(2)以视频中的第一帧作为初始参考帧,提取该初始参考帧的特征点,命名为参考帧特征点,并将参考帧特征点保存在全局变量中;
(3)提取视频帧的特征点,命名为视频帧特征点,将每个视频帧特征点与所有参考帧特征点进行匹配,获得该视频帧特征点的最佳匹配特征点和次佳匹配特征点,根据最佳匹配特征点与次佳匹配特征点之间的距离差异,对该视频帧特征点进行剔除或保留处理,并根据保留的视频帧特征点与对应的最佳匹配特征点之间的对应关系,构建全局单应性矩阵;
(4)根据全局单应性矩阵计算获得每个视频帧特征点的映射点,与视频帧特征点对应的最佳匹配特征点与映射点之间的欧式距离,当该欧式距离大于距离阈值时,剔除该视频帧特征点;
(5)将a*a的网格分布于视频帧中,利用步骤(4)处理后获得的剩余视频帧特征点计算网格顶点的位移矢量,即获得视频帧对应的网格顶点的运动矢量;
(6)以m帧作为一个周期,对于第1个周期内的每个视频帧,利用步骤(3)~步骤(5)获得第1个周期内的每个视频帧对应的网格顶点的运动矢量;对于第m帧以后的第k个周期内的每个视频帧,以第(k-1)*m帧作为当前参考帧,第(k-1)*m帧的特征点为参考帧特征点,利用步骤(3)~步骤(5)获得第k个周期内的每个视频帧对应的网格顶点的初始运动矢量,将该初始运动矢量与当前参考帧对应的网格顶点的运动矢量之和,作为第k个周期内的每个视频帧对应的网格顶点的运动矢量;
(7)针对每个视频帧,根据视频帧对应的网格顶点的运动矢量,计算每个像素的运动矢量,根据像素的运动矢量对该像素进行调整,以实现视频帧相对于初始参考帧的稳像。
利用上述基于时序网格流叠加的实时视频稳像方法使得在NoMotion场景下的视频稳像中,能够保持镜头在整个视频序列中完全静止。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动前提下,还可以根据这些附图获得其他附图。
图1是实施例提供的基于时序网格流叠加的实时视频稳像方法的流程图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
图1是实施例提供的基于时序网格流叠加的实时视频稳像方法的流程图。如图1所示,该实时视频稳像方法包括以下步骤:
S101,获取一段视频,对每个视频帧进行下采样到固定尺寸。
下采样可以加快计算速率,保证实时性。而且对于不同视频可以保持相似的处理速度。一般情况下,将分辨率大于480*270的视频帧下采样到480*270,分分辨率太小,会对特征的提取造成干扰。
S102,以视频中的第一帧作为初始参考帧,提取该初始参考帧的特征点,命名为参考帧特征点,并将参考帧特征点保存在全局变量中。
本实施例中,采用AKAZE提取初始参考帧的特征点,并生成描述子保存在全局变量之中,以供视频帧进行特征匹配。AKAZE是基于KAZE算法的改进,具体是一种基于非线性尺度空间特征点检测方法,具体表达式为:
其中,div(·)和分别标识散度和梯度,而函数c(x,y,t)标识扩散的传导函数,正是该函数的引入使得扩散能够适应图像的局部特征,参数t是尺度参数,并利用FED快速求解偏微分方程。
S103,提取视频帧的特征点,命名为视频帧特征点,将每个视频帧特征点与所有参考帧特征点进行匹配,获得该视频帧特征点的最佳匹配特征点和次佳匹配特征点,根据最佳匹配特征点与次佳匹配特征点之间的距离差异,对该视频帧特征点进行剔除或保留处理,并根据保留的视频帧特征点与对应的最佳匹配特征点之间的对应关系,构建全局单应性矩阵。
具体地,通过2种方案实现对视频帧特征点进行剔除或保留处理的处理:
方案1:计算视频帧特征点与所有参考帧特征点之间的欧式距离,并选取最大欧式距离对应的参考特征点作为最佳匹配特征点,第二大欧式距离对应的参考特征点作为次佳匹配特征点;
当最大欧式距离与第二大欧式距离之差小于距离阈值时,将视频帧特征点保留,否则,剔除该频帧特征点。
方案2:采用Brute-force算法,利用公式(1)获得视频帧特征点的最佳匹配特征点和次佳匹配特征点;
Knn_distance1<Knn_distance2·Ratio (1)
其中,knn_distance1表示最佳匹配特征点与视频帧特征点的距离,knn_distance2表示次佳匹配特征点与视频帧特征点的距离,Ratio为比例
当knn_distance1比knn_distance2优势大时,即公式(1)成立,则认为这个匹配是值得信赖的,保留该视频帧特征点,反之舍弃该视频帧特征点。
S104,根据全局单应性矩阵计算获得每个视频帧特征点的映射点,与视频帧特征点对应的最佳匹配特征点与映射点之间的欧式距离,当该欧式距离大于距离阈值时,剔除该视频帧特征点。
具体地,步骤(4)包括:
(4-1)将全局单应性矩阵分成2*2的子单应性矩阵;
(4-2)将视频帧分成2*2的子区域;
(4-3)针对包含4个及以上视频帧特征点的子区域,利用与该子区域对应的子单应性矩阵计算该子区域内的视频帧特征点的映射点,然后,计算视频帧特征点对应的最佳匹配特征点与映射点之间的欧式距离,当该欧式距离大于距离阈值时,剔除该视频帧特征点;
(4-4)针对包含4个以下视频帧特征点的子区域,利用全局单应性矩阵计算该子区域内的视频帧特征点的映射点,然后,计算视频帧特征点对应的最佳匹配特征点与映射点之间的欧式距离,当该欧式距离大于距离阈值时,剔除该视频帧特征点。
本步骤根据每个子区域内的特征点个数,对每个子区域进行分类处理,能够保留更具有鲁棒性的特征点。本实施例中,距离阈值可以选择30px。
S105,将a*a的网格分布于视频帧中,利用步骤(4)处理后获得的剩余视频帧特征点计算网格顶点的位移矢量,即获得视频帧对应的网格顶点的运动矢量。
具体地,步骤(5)包括:
(5-1)将a*a的网格分布于视频帧中,获得多个网格顶点;
(5-2)针对每个网格顶点,采用第一中值滤波器对以网格顶点为中心的3*3区域内的所有视频帧特征点的位移矢量进行处理,分别取3*3区域内的所有视频帧特征点的横纵坐标的中值作为该网格顶点的位移矢量;
(5-3)当网格顶点所在3*3区域内的视频帧特征点的个数小于特征点阈值时,采用第二中值滤波器对以网格顶点为中心的3*3区域内的所有网格顶点的位移矢量进行处理,分别取3*3区域内的所有网格顶点的横纵坐标的中值作为中心网格顶点的位移矢量。
本实施例中,将9*9的网格分布于视频帧中,获得多个网格顶点,将距离网格顶点A的3*3的网格内所有特征点作为候选特征集{P},使用中值滤波器f1过滤候选特征集{P},将X,Y分量分开考虑,分别取3*3的网格内的所有特征点的{Px},{Py}的中值作为该网格顶点A的位移矢量,这样处理能够去除小噪声。在此基础上,为去除较大的一场特征特点,采用中值滤波器f2以覆盖3*3网格的步长去除噪声,具体地,网格顶点所在3*3区域内的视频帧特征点的个数小于特征点阈值(一般取2个)时,以取3*3网格内的所有网格顶点的横纵坐标的中值作作为中心网格顶点的位移矢量。
S106,以m帧作为一个周期,对于第1个周期内的每个视频帧,利用S103~S105获得第1个周期内的每个视频帧对应的网格顶点的运动矢量。
视频帧都需要对参考帧进行特征匹配,因为NoMotion的稳像需求,参考帧需要为视频第一帧,但随着视频序列的增长,视频帧离第一帧的时间相隔越长所能匹配到的特征点就越少,以至于到后面很难得到稳定的运动场。本实施例采取时域叠加的方法,以30帧作为一个周期,每30帧更换一个当前参考帧。对于第一个周期,以第一视频帧作为当前参考帧,利用S103~S105获得第1个周期内的每个视频帧对应的网格顶点的运动矢量。
S107,对于第m帧以后的第k个周期内的每个视频帧,以第(k-1)*m帧作为当前参考帧,第(k-1)*m帧的特征点为参考帧特征点,利用S103~S105获得第k个周期内的每个视频帧对应的网格顶点的初始运动矢量,将该初始运动矢量与当前参考帧对应的网格顶点的运动矢量之和,作为第k个周期内的每个视频帧对应的网格顶点的运动矢量,k=2,3,4,…,n。
为了得到稳定的运动场,从2个周期开始,每隔30帧更换一次当前参考帧,以第2周期内的视频帧为例,说明获得网格顶点的运动矢量的过程。对于第2个周期内的第31帧~第60帧,以第30帧作为当前参考帧,第30帧的特征点为参考帧特征点,利用S103~S105的步骤获得第31帧~第60帧网格顶点的初始运动矢量,然后,将第31帧~第60帧网格顶点的初始运动矢量分别与第30帧网格顶点的运动矢量相加,获得的加和为第31帧~第60帧网格顶点的运动矢量。经过实验证明,这样处理会大大增加特征点的数量,提升算法的稳像效果和鲁棒性。
S108,在获得整个视频帧序列的网格顶点的运动矢量后,对网格顶点的空间运动场序列进行平滑处理。
在整个视频帧序列处理完毕,则对得到的空间运动场序列进行运动平滑。空间梯度一致,,相邻两帧之间的运动场,在所有网格顶点上方向大体保持一致性。对不满足梯度一致的顶点用前后帧的中值来替换。
具体地,针对网格顶点的空间运动场序列,判断同一位置上时域连续的3个网格顶点的单调性,对于不满足局部单调性的网格顶点,以前后视频帧上同一位置的网格顶点的运动矢量的中值作为该不满足局部单调性的网格顶点的运动矢量。
S109,针对每个视频帧,根据视频帧对应的网格顶点的运动矢量,计算每个像素的运动矢量,根据像素的运动矢量对该像素进行调整,以实现视频帧相对于初始参考帧的稳像。
具体地,采用插值算法对网格顶点的运动矢量进行处理,以获得视频帧的每个像素的运动矢量。
由于运动矢量是浮点数,采用双线性插值对各像素点的运动矢量对视频帧进行形变,以实现视频帧相对于初始参考帧的稳像。
上述实施例以周期为单位,更换参考帧,采用时域叠加的方法,根据每个周期的参考帧获得每个周期内视频帧的网格顶点的运动矢量,即最终获得帧序列的网格顶点空间运动场,根据该网格顶点空间运动场对每个视频帧进行调整,以实现视频帧相对于初始参考帧的稳像,解决NoMotion场景下的视频稳像要保持镜头在整个视频序列当中保持完全静止的需求。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于时序网格流叠加的实时视频稳像方法,包括以下步骤:
(1)获取一段视频,对每个视频帧进行下采样到固定尺寸;
(2)以视频中的第一帧作为初始参考帧,提取该初始参考帧的特征点,命名为参考帧特征点,并将参考帧特征点保存在全局变量中;
(3)提取视频帧的特征点,命名为视频帧特征点,将每个视频帧特征点与所有参考帧特征点进行匹配,获得该视频帧特征点的最佳匹配特征点和次佳匹配特征点,根据最佳匹配特征点与次佳匹配特征点之间的距离差异,对该视频帧特征点进行剔除或保留处理,并根据保留的视频帧特征点与对应的最佳匹配特征点之间的对应关系,构建全局单应性矩阵;
(4)根据全局单应性矩阵计算获得每个视频帧特征点的映射点,与视频帧特征点对应的最佳匹配特征点与映射点之间的欧式距离,当该欧式距离大于距离阈值时,剔除该视频帧特征点;
(5)将a*a的网格分布于视频帧中,利用步骤(4)处理后获得的剩余视频帧特征点计算网格顶点的位移矢量,即获得视频帧对应的网格顶点的运动矢量;
(6)以m帧作为一个周期,对于第1个周期内的每个视频帧,利用步骤(3)~步骤(5)获得第1个周期内的每个视频帧对应的网格顶点的运动矢量;对于第m帧以后的第k个周期内的每个视频帧,以第(k-1)*m帧作为当前参考帧,第(k-1)*m帧的特征点为参考帧特征点,利用步骤(3)~步骤(5)获得第k个周期内的每个视频帧对应的网格顶点的初始运动矢量,将该初始运动矢量与当前参考帧对应的网格顶点的运动矢量之和,作为第k个周期内的每个视频帧对应的网格顶点的运动矢量;
(7)针对每个视频帧,根据视频帧对应的网格顶点的运动矢量,计算每个像素的运动矢量,根据像素的运动矢量对该像素进行调整,以实现视频帧相对于初始参考帧的稳像。
2.如权利要求1所述的基于时序网格流叠加的实时视频稳像方法,其特征在于,步骤(3)中:
计算视频帧特征点与所有参考帧特征点之间的欧式距离,并选取最大欧式距离对应的参考特征点作为最佳匹配特征点,第二大欧式距离对应的参考特征点作为次佳匹配特征点;
当最大欧式距离与第二大欧式距离之差小于距离阈值时,将视频帧特征点保留,否则,剔除该频帧特征点。
3.如权利要求1所述的基于时序网格流叠加的实时视频稳像方法,其特征在于,步骤(3)中:
采用Brute-force算法,利用公式(1)获得视频帧特征点的最佳匹配特征点和次佳匹配特征点;
Knn_distance1<Knn_distance2·Ratio(1)
其中,knn_distance1表示最佳匹配特征点与视频帧特征点的距离,knn_distance2表示次佳匹配特征点与视频帧特征点的距离,Ratio为比例当knn_distance1比knn_distance2优势大时,即公式(1)成立,则认为这个匹配是值得信赖的,保留该视频帧特征点,反之舍弃该视频帧特征点。
4.如权利要求1所述的基于时序网格流叠加的实时视频稳像方法,其特征在于,所述步骤(4)包括:
(4-1)将全局单应性矩阵分成2*2的子单应性矩阵;
(4-2)将视频帧分成2*2的子区域;
(4-3)针对包含4个及以上视频帧特征点的子区域,利用与该子区域对应的子单应性矩阵计算该子区域内的视频帧特征点的映射点,然后,计算视频帧特征点对应的最佳匹配特征点与映射点之间的欧式距离,当该欧式距离大于距离阈值时,剔除该视频帧特征点;
(4-4)针对包含4个以下视频帧特征点的子区域,利用全局单应性矩阵计算该子区域内的视频帧特征点的映射点,然后,计算视频帧特征点对应的最佳匹配特征点与映射点之间的欧式距离,当该欧式距离大于距离阈值时,剔除该视频帧特征点。
5.如权利要求1所述的基于时序网格流叠加的实时视频稳像方法,其特征在于,所述步骤(5)包括:
(5-1)将a*a的网格分布于视频帧中,获得多个网格顶点;
(5-2)针对每个网格顶点,采用第一中值滤波器对以网格顶点为中心的3*3区域内的所有视频帧特征点的位移矢量进行处理,分别取3*3区域内的所有视频帧特征点的横纵坐标的中值作为该网格顶点的位移矢量;
(5-3)当网格顶点所在3*3区域内的视频帧特征点的个数小于特征点阈值时,采用第二中值滤波器对以网格顶点为中心的3*3区域内的所有网格顶点的位移矢量进行处理,分别取3*3区域内的所有网格顶点的横纵坐标的中值作为中心网格顶点的位移矢量。
6.如权利要求1所述的基于时序网格流叠加的实时视频稳像方法,其特征在于,步骤(7)中,采用插值算法对网格顶点的运动矢量进行处理,以获得视频帧的每个像素的运动矢量。
7.如权利要求1~6任一项所述的基于时序网格流叠加的实时视频稳像方法,其特征在于,在获得整个视频帧序列的网格顶点的运动矢量后,对网格顶点的空间运动场序列进行平滑处理。
8.如权利要求7所述的基于时序网格流叠加的实时视频稳像方法,其特征在于,针对网格顶点的空间运动场序列,判断同一位置上时域连续的3个网格顶点的单调性,对于不满足局部单调性的网格顶点,以前后视频帧上同一位置的网格顶点的运动矢量的中值作为该不满足局部单调性的网格顶点的运动矢量。
CN201810587766.2A 2018-06-08 2018-06-08 一种基于时序网格流叠加的实时视频稳像方法 Active CN108805908B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810587766.2A CN108805908B (zh) 2018-06-08 2018-06-08 一种基于时序网格流叠加的实时视频稳像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810587766.2A CN108805908B (zh) 2018-06-08 2018-06-08 一种基于时序网格流叠加的实时视频稳像方法

Publications (2)

Publication Number Publication Date
CN108805908A true CN108805908A (zh) 2018-11-13
CN108805908B CN108805908B (zh) 2020-11-03

Family

ID=64088017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810587766.2A Active CN108805908B (zh) 2018-06-08 2018-06-08 一种基于时序网格流叠加的实时视频稳像方法

Country Status (1)

Country Link
CN (1) CN108805908B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110046555A (zh) * 2019-03-26 2019-07-23 合肥工业大学 内窥镜***视频稳像方法及装置
CN110120023A (zh) * 2019-05-14 2019-08-13 浙江工大盈码科技发展有限公司 一种图像反馈矫正方法
CN110892354A (zh) * 2018-11-30 2020-03-17 深圳市大疆创新科技有限公司 图像处理方法和无人机
CN111369592A (zh) * 2020-03-13 2020-07-03 浙江工业大学 一种基于牛顿插值的快速全局运动估计方法
CN111464866A (zh) * 2020-04-08 2020-07-28 Tcl华星光电技术有限公司 时序控制芯片、视频格式转换***及方法
CN111986105A (zh) * 2020-07-27 2020-11-24 成都考拉悠然科技有限公司 基于时域去噪掩码的视频时序一致性增强方法
CN113034383A (zh) * 2021-02-24 2021-06-25 大连海事大学 一种基于改进网格运动统计获取视频图像的方法
CN113873099A (zh) * 2021-08-27 2021-12-31 山东信通电子股份有限公司 一种输电通道视频稳像方法、设备及介质
WO2022262386A1 (zh) * 2021-06-18 2022-12-22 哲库科技(上海)有限公司 图像处理装置与方法、处理芯片和电子设备
CN116862944A (zh) * 2023-06-27 2023-10-10 北京科技大学 一种面向扑翼飞行机器人的实时电子稳像方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101383899A (zh) * 2008-09-28 2009-03-11 北京航空航天大学 一种空基平台悬停视频稳像方法
CN103813056B (zh) * 2012-11-15 2016-03-16 浙江大华技术股份有限公司 一种稳像方法及装置
CN106372598A (zh) * 2016-08-31 2017-02-01 广州精点计算机科技有限公司 一种基于图像特征检测的消除视频旋转和抖动的稳像方法
CN106550174A (zh) * 2016-10-28 2017-03-29 大连理工大学 一种基于单应性矩阵的实时视频稳像方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101383899A (zh) * 2008-09-28 2009-03-11 北京航空航天大学 一种空基平台悬停视频稳像方法
CN103813056B (zh) * 2012-11-15 2016-03-16 浙江大华技术股份有限公司 一种稳像方法及装置
CN106372598A (zh) * 2016-08-31 2017-02-01 广州精点计算机科技有限公司 一种基于图像特征检测的消除视频旋转和抖动的稳像方法
CN106550174A (zh) * 2016-10-28 2017-03-29 大连理工大学 一种基于单应性矩阵的实时视频稳像方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHUAICHENG LIU ET AL.: "MeshFlow: Minimum Latency Online Video Stabilization", 《COMPUTER VISION-ECCV 2016》 *
佟爱华 等: "一种改进的高精度视频帧间匹配算法", 《仪器仪表学报》 *
赵征: "基于稀疏光流的视频稳像方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110892354A (zh) * 2018-11-30 2020-03-17 深圳市大疆创新科技有限公司 图像处理方法和无人机
CN110046555A (zh) * 2019-03-26 2019-07-23 合肥工业大学 内窥镜***视频稳像方法及装置
CN110120023A (zh) * 2019-05-14 2019-08-13 浙江工大盈码科技发展有限公司 一种图像反馈矫正方法
CN111369592A (zh) * 2020-03-13 2020-07-03 浙江工业大学 一种基于牛顿插值的快速全局运动估计方法
CN111464866B (zh) * 2020-04-08 2022-03-08 Tcl华星光电技术有限公司 时序控制芯片、视频格式转换***及方法
CN111464866A (zh) * 2020-04-08 2020-07-28 Tcl华星光电技术有限公司 时序控制芯片、视频格式转换***及方法
CN111986105A (zh) * 2020-07-27 2020-11-24 成都考拉悠然科技有限公司 基于时域去噪掩码的视频时序一致性增强方法
CN111986105B (zh) * 2020-07-27 2024-03-26 成都考拉悠然科技有限公司 基于时域去噪掩码的视频时序一致性增强方法
CN113034383A (zh) * 2021-02-24 2021-06-25 大连海事大学 一种基于改进网格运动统计获取视频图像的方法
CN113034383B (zh) * 2021-02-24 2024-06-28 大连海事大学 一种基于改进网格运动统计获取视频图像的方法
WO2022262386A1 (zh) * 2021-06-18 2022-12-22 哲库科技(上海)有限公司 图像处理装置与方法、处理芯片和电子设备
CN113873099A (zh) * 2021-08-27 2021-12-31 山东信通电子股份有限公司 一种输电通道视频稳像方法、设备及介质
CN113873099B (zh) * 2021-08-27 2024-04-12 山东信通电子股份有限公司 一种输电通道视频稳像方法、设备及介质
CN116862944A (zh) * 2023-06-27 2023-10-10 北京科技大学 一种面向扑翼飞行机器人的实时电子稳像方法及***
CN116862944B (zh) * 2023-06-27 2024-04-26 北京科技大学 一种面向扑翼飞行机器人的实时电子稳像方法及***

Also Published As

Publication number Publication date
CN108805908B (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
CN108805908A (zh) 一种基于时序网格流叠加的实时视频稳像方法
CN110827200B (zh) 一种图像超分重建方法、图像超分重建装置及移动终端
CN101924874B (zh) 一种匹配块分级的实时电子稳像方法
CN107516319B (zh) 一种高精度简易交互式抠图方法、存储设备及终端
CN105894484B (zh) 一种基于直方图归一化与超像素分割的hdr重建算法
US20060244757A1 (en) Methods and systems for image modification
CN106101535B (zh) 一种基于局部及整体运动差异补偿的视频稳定方法
CN107067370A (zh) 一种基于网格变形的图像拼接方法
CN109584353A (zh) 一种基于单目视频重建三维人脸表情模型的方法
CN108564554A (zh) 一种基于运动轨迹优化的视频稳定方法
CN108932725B (zh) 基于卷积神经网络的场景流估计方法
CN105976330A (zh) 一种嵌入式雾天实时视频稳像方法
Hu et al. Pseudo 3D auto-correlation network for real image denoising
CN111598918B (zh) 一种基于参考帧优选和前后景分离的视频稳像运动估计方法
CN106548494A (zh) 一种基于场景样本库的影视图像深度提取方法
CN108961163A (zh) 一种高分辨率卫星影像超分辨重建方法
CN102034247A (zh) 一种基于背景建模对双目视觉图像的运动捕捉方法
CN108648264A (zh) 基于运动恢复的水下场景重建方法及存储介质
CN115298708A (zh) 多视角神经人体渲染
CN106447718B (zh) 一种2d转3d深度估计方法
CN110517304A (zh) 生成深度图的方法、装置、电子设备和存储介质
CN110517348A (zh) 基于图像前景分割的目标物体三维点云重建方法
CN109658361A (zh) 一种顾及运动估计误差的运动场景超分辨率重建方法
CN110084181A (zh) 一种基于稀疏MobileNetV2网络的遥感图像舰船目标检测方法
CN104966277B (zh) 一种基于长短曝光图像对的图像复原方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant