CN107483960B - 一种基于空间预测的运动补偿帧率上转换方法 - Google Patents

一种基于空间预测的运动补偿帧率上转换方法 Download PDF

Info

Publication number
CN107483960B
CN107483960B CN201710831783.1A CN201710831783A CN107483960B CN 107483960 B CN107483960 B CN 107483960B CN 201710831783 A CN201710831783 A CN 201710831783A CN 107483960 B CN107483960 B CN 107483960B
Authority
CN
China
Prior art keywords
frame
block
motion
blocks
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710831783.1A
Other languages
English (en)
Other versions
CN107483960A (zh
Inventor
李然
吉秉彧
沈克琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinyang Normal University
Original Assignee
Xinyang Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinyang Normal University filed Critical Xinyang Normal University
Priority to CN201710831783.1A priority Critical patent/CN107483960B/zh
Publication of CN107483960A publication Critical patent/CN107483960A/zh
Application granted granted Critical
Publication of CN107483960B publication Critical patent/CN107483960B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种基于空间预测的运动补偿帧率上转换方法,涉及视频处理技术领域。该方法包括:对待插帧按照模板进行块分割,划分为A类块和B类块;对A类块进行全搜索运动估计得到运动矢量,其中,采用连续消除方法降低计算复杂度;结合A类块的运动矢量信息,依据空间相关性和最小误差匹配原则,计算B类块的运动矢量;将所求的A、B两类块的运动矢量组合成待插帧的运动矢量场、并依据参考帧ft与ft+1的信息,采用重叠块运动补偿技术插值得到待插帧ft+0.5。本发明有效利用全搜索运动估计和空间相关性各自的优点,既保证了运动估计的准确程度,又有效降低了运算复杂度,节约了计算成本。

Description

一种基于空间预测的运动补偿帧率上转换方法
技术领域
本发明涉及视频处理技术领域,更具体的涉及一种基于空间预测的运动补偿帧率上转换方法。
背景技术
随着多媒体技术的发展和硬件设备的更新,以及为了获取更优的视觉体验,人们对视频的分辨率和帧率提出了更高的要求。但是,由于带宽的限制,在视频传输之前,会采用跳帧策略,实现快速传输。因此,在接收端,需要利用已有帧信息,复原丢弃帧,尽可能恢复原始视频的质量。在这种需求下,帧率上转换(Frame Rate Up-Conversion,FRUC)受到了视频处理领域研究者的关注。这是因为,作为一种后处理技术,FRUC可以通过在两个解码帧中间***中间帧的方式,将视频从一个较低的帧率上转换到一个较高的帧率。
帧率上转换的方法有多种,从是否考虑物体运动的角度划分,可分为非运动补偿插帧法和运动补偿插帧法。前者较为简单,主要包括帧复制和帧平均,这两种方式不考虑帧间物体运动,直接利用相邻两帧信息以复制或求平均方式进行补偿内插。相反,运动补偿插帧法则需考量图像中物体的运动情况:通过计算物体的运动矢量,根据运动轨迹推算出物体在待插帧的位置,然后进行像素值的补偿。对比两类方法,当视频序列包含较少运动时,帧复制或帧平均是迅速而有效的,但在物体运动较多的视频序列中,采用非运动补偿插帧法会导致画面的抖动与模糊。这种情况下,需要采用运动补偿插帧法,通过考虑帧间运动情况,有效减少运动模糊现象。现实生活中,视频序列多为包含大量运动或是动静态画面相结合的情形,因而对运动补偿插帧法的研究和运用就显得尤为重要。
运动补偿帧率上转换方法主要步骤有两个:运动估计与运动补偿插值。其中,运动估计用于计算相邻帧间的运动矢量场,运动补偿插值则是依据运动矢量场内插出中间帧。由此可以看出,运动估计的精确与否,直接影响着复原视频的质量。因此,FRUC技术的研究重点在于提出高效的运动估计方法。为了抑制模糊效应,在运动补偿插值过程中,一些经典方法普遍采用了重叠块补偿技术。在现有文献中,多采用双向运动估计的方式,以待插帧为出发点,计算到前后两帧的运动矢量场,例如,文献“Dual motion estimation for framerate up-conversion”(Suk-Ju Kang,Sungjoo Yoo and Young Hwan Kim,IEEETransactions on Circuits and Systems for Video Technology,vol.20,no.12,pp.1909-1914,2010)针对单向运动估计产生的“空洞”和“重叠块”问题,提出了直接计算待插帧运动矢量场的方法。这种方式促使待插帧中不再存在无运动矢量或有多个运动矢量的像素,提高了运动估计高效性和可靠性。但是,这种方法不具备空间相关性的特征,因而大大增加了计算复杂度。为进一步提高运动矢量的精确度,在双向运动估计的基础上,一些学者又提出了混合运动估计的方式,例如,文献“Direction-Select Motion Estimation forMotion-Compensated Frame Rate Up-Conversion”(Yoo Dong-Gon,Kang Suk-Ju,and KimYoung Hwan,Journal of Display Technology,vol.9,no.10,pp.840-850,2013)首先计算参考帧的单向运动矢量场,再以此估计出待插帧的双向运动矢量场,这种增加候选矢量的方式,提高了运动估计的准确度。但是,这种方法仅仅利用相邻块的信息去推算待插块的运动矢量,会导致不正确的运动矢量信息逐块传递,这种误差的传递反而降低了运动估计的准确度。为减少计算量,文献“A Multilevel Successive Elimination Algorithm forBlock Matching Motion Estimation”(X.Q.Gao,C.J.Duanmu and C.R.Zou,IEEETransactions on Image Processing,vol.9,no.3,pp.501-504,2000)针对候选匹配块过多导致计算量大的问题,提出了连续消除方法,通过计算匹配过的亮度累加和,并设定阈值,大量删减候选匹配块,有效减少运算时间。但是,在这篇文献中并没有考虑到空间相关性的问题,因而未能进一步降低计算量。
现有帧率上转换技术需要在计算精度和计算复杂度之间寻求平衡,有些方法通过采用全搜索策略,提升了运动矢量的估计精度,但却耗损了大量运行时间;有些方法虽然利用相邻块的信息推算出待插块的运动矢量,但是初始运动矢量的不精确会造成误差的传递,进而降低运动矢量的估计精度。
综上所述,现有技术中的运动补偿帧率上转换方法,存在无法兼顾计算精度与计算复杂度的问题。
发明内容
本发明实施例提供一种基于空间预测的运动补偿帧率上转换方法,用以解决现有技术中存在无法兼顾计算精度与计算复杂度的问题。
本发明实施例提供一种基于空间预测的运动补偿帧率上转换方法,包括:
步骤a,对待插帧进行块分割,划分为A类块和B类块;
步骤b,对A类块进行基于连续消除方法的全搜索运动估计,确定A类块的运动矢量;
步骤c,结合A类块的运动矢量信息,根据空间相关性和最小误差匹配原则,计算B类块的运动矢量;
步骤d,将所求的A类块的运动矢量和B类块的运动矢量组合成待插帧的运动矢量场,并依据参考帧ft与ft+1的信息,采用重叠块运动补偿方法插值得到待插帧ft+0.5;其中,ft、ft+1和ft+0.5分别为第t帧、第t+1帧和第t+0.5帧的亮度值。
较佳地,步骤a,具体包括:
设待插帧ft+0.5的空间分辨率为M×N,分块尺寸为s,则每一帧待插帧包含M×N/s2个标准块;其中,奇数行与奇数列、偶数行与偶数列的交叉块划分为A类块,其余为B类块,且M和N被s整除。
较佳地,步骤b,具体包括:
以分块的左上角像素坐标(i,j)为参照,计算第t帧和第t+1帧的坐标为(i,j)块的亮度累加和如下:
Figure GDA0002317136580000041
Figure GDA0002317136580000042
其中,ft(i+m,j+n)、ft+1(i+m,j+n)分别为第t帧、第t+1帧在坐标(i+m,j+n)的亮度值,(m,n)为块内像素坐标;
设当前A类块的左上像素坐标p=(i,j),遍历搜索窗口内的候选块,参考帧ft+1第n个候选块相对(i,j)的偏移量v′n=(x,y),参考帧ft第n个候选块相对(i,j)的偏移量为-v′n;设定搜索窗口半径为r,则x,y∈[-r,r];令初始偏移量v′0=(r,r),计算当前A类块的初始差值D0,公式如下:
D0=||Bt(p-v'0)-Bt+1(p+v'0)||1
其中,Bt(i-r,j-r)为第t帧左上角坐标为(i-r,j-r)块内所有像素按行排列而成的向量,||·||1为向量的l1范数;将
Figure GDA0002317136580000043
更新为搜索窗口内的下一个候选块的坐标偏移量,若满足下列不等式
|Pt(i-x,j-y)-Pt+1(i+x,j+y)|<D0
则计算第n个候选块的差值Dn如下:
Dn=||Bt(p-v'n)-Bt+1(p+v'n)||1
按下式更新当前A类块的运动矢量vs
vs=v'n=(x,y)
并更新D0=min{Dn,D0};反之,vs保持不变;按照上述过程直至遍历完搜索窗口内的所有候选块为止。
较佳地,步骤c,具体包括:
依照全搜索运动估计求出A类块的运动矢量后,选取与B类块相邻的四个A类块的运动矢量va1、va2、va3与va4作为候选矢量,组成如下候选矢量集合Vc
Vc={va1,va2,va3,va4}
设当前B类块左上像素坐标为p,则B类块的运动矢量vp依据最小误差匹配原则计算:
Figure GDA0002317136580000051
其中,Bt(p-v)为第t帧左上角坐标为p-v的块内所有像素按行排列而成的向量,||·||1为向量的l1范数,v为候选矢量。
较佳地,步骤d,具体包括:
将所有A类块和B类块的运动矢量集合为待插帧ft+0.5的运动向量场Vt+0.5;采用下式计算待插帧ft+0.5在像素位置p=(i,j)处的取值:
Figure GDA0002317136580000052
其中,vi,j为Vt+0.5在p处的运动矢量;k代表块的类型,取1时为不重叠部分,取2时为两个块的重叠部分,取3时,为四个块的重叠部分;系数ω则根据k的值取对应值。
本发明实施例中,提供一种基于空间预测的运动补偿帧率上转换方法,与现有技术相比,其有益效果为:本发明提出了一种基于空间预测的低复杂度运动补偿方法,根据既定模板,对指定待插块进行全搜索运动估计,其余块运动矢量由空间预测得出,即为了在精度和复杂度之间建立平衡,需要兼顾全搜索策略与空间相关性的优势,首先对一部分待插块进行全搜索运动估计,利用所得的精确运动矢量场,再结合空间相关性,推算出剩余块的运动矢量,这样既保证了运动矢量的精确度,又大大减少了运算时间。本发明有效利用全搜索运动估计和空间相关性各自的优点,既保证了运动估计的准确程度,有显著降低运算复杂度,降低计算成本,利用本发明提升9组CIF格式视频序列,由峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)与结构相似性(Structural SIMilarity,SSIM)评估内插质量,与普通双向运动估计方法和简单利用空间相邻关系的方法相比,本发明能以较低的计算复杂度换取内插质量的显著提升,由此可知,本发明采用空间预测的方式估算运动向量场,在降低计算量的同时,改善了内插质量。
附图说明
图1为本发明实施例提供的一种基于空间预测的运动补偿帧率上转换方法流程图;
图2为本发明实施例提供的一种基于空间预测的运动补偿帧率上转换方法中两类块的划分方式;
图3为本发明实施例提供的一种基于空间预测的运动补偿帧率上转换方法简化流程框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的一种基于空间预测的运动补偿帧率上转换方法流程图;图3为本发明实施例提供的一种基于空间预测的运动补偿帧率上转换方法简化流程框图。如图1和图3所示,本发明实施例方法包括:
步骤a,输入视频序列,提取相邻两帧,并对待插帧进行块分割和块分类。
设待插帧ft+0.5的空间分辨率是M×N,分块尺寸为s(M和N必须都能被s整除),则待插帧将包含M×N/s2个标准块。如图2所示,奇数行与奇数列、偶数行与欧数列的交叉块划分为A类,其余为B类。
步骤b,采用基于连续消除方法的全搜索运动估计获取A类块的运动矢量,具体包括:
步骤b1:以分块的左上角像素坐标(i,j)为参照,计算第t帧和第t+1帧的坐标为(i,j)块的亮度累加和如下:
Figure GDA0002317136580000071
Figure GDA0002317136580000072
其中,ft(i+m,j+n)、ft-1(i+m,j+n)分别为第t帧、第t+1帧在坐标(i+m,j+n)的亮度值,(m,n)为块内像素坐标。
步骤b2:设当前A类块的左上像素坐标p=(i,j),遍历搜索窗口内的候选块,参考帧ft+1第n个候选块相对(i,j)的偏移量v′n=(x,y),参考帧ft第n个候选块相对(i,j)的偏移量为-v′n。设定搜索窗口半径为r,则x,y∈[-r,r]。令初始偏移量v′0=(r,r),计算当前A类块的初始差值D0,公式如下:
D0=||Bt(p-v'0)-Bt+1(p+v'0)||1 (3)
其中,Bt(i-r,j-r)为第t帧左上角坐标为(i-r,j-r)块内所有像素按行排列而成的向量,||·||1为向量的l1范数。
步骤b3:将
Figure GDA0002317136580000073
更新为搜索窗口内的下一个候选块的坐标偏移量,若满足下列不等式
|Pt(i-x,j-y)-Pt+1(i+x,j+y)|<D0 (4)
则计算第n个候选块的差值Dn如下:
Dn=||Bt(p-v'n)-Bt+1(p+v'n)||1 (5)
接着,按下式更新当前A类块的运动矢量vs
vs=v'n=(x,y) (6)
并更新D0=min{Dn,D0}。若不等式(4)不成立,vs保持不变。
步骤b4:转至步骤b3,直至遍历完搜索窗口内的所有候选块为止。
步骤c,计算B类块运动矢量;具体过程包括:
步骤c1:设当前B类块左上像素坐标为p,选取与B类块相邻的四个A类块的运动矢量va1、va2、va3与va4作为候选矢量,组成如下候选矢量集合Vc
Vc={va1,va2,va3,va4} (7)
步骤c2:依据最小误差匹配原则计算B类块的运动矢量vp
Figure GDA0002317136580000081
步骤d,采用重叠块技术内插中间帧。
步骤d1:将所有A类块和B类块的运动矢量集合为待插帧ft+0.5的运动向量场Vt+0.5:;
步骤d2:采用下式计算待插帧ft+0.5在像素位置(i,j)处的取值:
Figure GDA0002317136580000082
其中,p=(i,j),vi,j为Vt+0.5在p处的运动矢量,上标k代表块的类型:取1时,为不重叠部分;取2时,为两个块的重叠部分;取3时,为四个块的重叠部分。系数ω则根据k的值取对应值。
仿真结果
采用CIF格式的9组测试视频序列评估本发明提出方法。对比方法分别是:
1)由文献“Dual motion estimation for frame rate up-conversion”(Suk-JuKang,Sungjoo Yoo and Young Hwan Kim,IEEE Transactions on Circuits and Systemsfor Video Technology,vol.20,no.12,pp.1909-1914,2010)提出的双向运动估计帧率上转换技术,简称为Dual_ME方法;2)由“Direction-Select Motion Estimation forMotion-Compensated Frame Rate Up-Conversion”(Dong-Gon Yoo,Suk-Ju Kang,andYoung Hwan Kim,Journal of Display Technology,vol.9,no.10,pp.840-850,2013)提出的混合运动估计帧率上转换技术,简称为DS_ME方法。评价性能指标采用可反映客观质量的峰值信噪比、结构相似性和平均单帧处理时间。硬件平台为主频3.60GHz、内存8GB的酷睿i7CPU计算机,软件平台为Windows 7 64位操作***和Matlab R2014b仿真实验软件。
表1不同帧率上转换技术的PSNR值对比
Figure GDA0002317136580000091
表2不同帧率上转换技术的SSIM值对比
Figure GDA0002317136580000092
表3不同帧率上转换技术内插一帧所需时间(单位s/帧)对比
Figure GDA0002317136580000101
表1列出了不同帧率上转换技术的PSNR值。针对9组测试序列,对比Dual_ME方法,本发明提出的方法显著提升了PSNR值,最高可达2.72dB,达到了复原视频质量提升的目的;对比DS_ME方法,相对静态或包含少量运动的视频序列,如foreman和mother,这种方法相对较好,但对于包含大量运动的视频,如bus、city、football、mobile以及stefan,采用本发明的方法,能估计物体的运动轨迹,且最高提升PSNR值3.21dB。由表2列出了不同帧率上转换技术的SSIM值,相较之下,本发明提出的方法显著好于两种对比方法,仅在运动较少的视频处理略低于DS_ME方法。由表3可看出,本发明的运行时间均低于DS_ME方法与Dual_ME方法,体现出了较低的运算复杂度。由此可知,相比于对比技术,本发明的计算资源配置更有效,通过划分块类别,结合全搜索运动估计和空间相关性的优势,在确保精确度的前提下,又节约了运算时间。
以上公开的仅为本发明的几个具体实施例,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (1)

1.一种基于空间预测的运动补偿帧率上转换方法,其特征在于,包括:
步骤a,对待插帧进行块分割,划分为A类块和B类块;
步骤b,对A类块进行基于连续消除方法的全搜索运动估计,确定A类块的运动矢量;
步骤c,结合A类块的运动矢量信息,根据空间相关性和最小误差匹配原则,计算B类块的运动矢量;
步骤d,将所求的A类块的运动矢量和B类块的运动矢量组合成待插帧的运动矢量场,并依据参考帧ft与ft+1的信息,采用重叠块运动补偿方法插值得到待插帧ft+0.5;其中,ft、ft+1和ft+0.5分别为第t帧、第t+1帧和第t+0.5帧的亮度值;
步骤a,具体包括:
设待插帧ft+0.5的空间分辨率为M×N,分块尺寸为s,则每一帧待插帧包含M×N/s2个标准块;其中,奇数行与奇数列、偶数行与偶数列的交叉块划分为A类块,其余为B类块,且M和N被s整除;
步骤b,具体包括:
以分块的左上角像素坐标(i,j)为参照,计算第t帧和第t+1帧的坐标为(i,j)块的亮度累加和如下:
Figure FDA0002317136570000011
Figure FDA0002317136570000012
其中,ft(i+m,j+n)、ft+1(i+m,j+n)分别为第t帧、第t+1帧在坐标(i+m,j+n)的亮度值,(m,n)为块内像素坐标;
设当前A类块的左上像素坐标p=(i,j),遍历搜索窗口内的候选块,参考帧ft+1第n个候选块相对(i,j)的偏移量v′n=(x,y),参考帧ft第n个候选块相对(i,j)的偏移量为-v′n;设定搜索窗口半径为r,则x,y∈[-r,r];令初始偏移量v′0=(r,r),计算当前A类块的初始差值D0,公式如下:
D0=||Bt(p-v'0)-Bt+1(p+v'0)||1
其中,Bt(i-r,j-r)为第t帧左上角坐标为(i-r,j-r)块内所有像素按行排列而成的向量,||·||1为向量的l1范数;将v′n更新为搜索窗口内的下一个候选块的坐标偏移量,若满足下列不等式
|Pt(i-x,j-y)-Pt+1(i+x,j+y)|<D0
则计算第n个候选块的差值Dn如下:
Dn=||Bt(p-v'n)-Bt+1(p+v'n)||1
按下式更新当前A类块的运动矢量vs
vs=v'n=(x,y)
并更新D0=min{Dn,D0};反之,vs保持不变;按照上述过程直至遍历完搜索窗口内的所有候选块为止;
步骤c,具体包括:
依照全搜索运动估计求出A类块的运动矢量后,选取与B类块相邻的四个A类块的运动矢量va1、va2、va3与va4作为候选矢量,组成如下候选矢量集合Vc
Vc={va1,va2,va3,va4}
设当前B类块左上像素坐标为p,则B类块的运动矢量vp依据最小误差匹配原则计算:
Figure FDA0002317136570000021
其中,Bt(p-v)为第t帧左上角坐标为p-v的块内所有像素按行排列而成的向量,||·||1为向量的l1范数,v为候选矢量;
步骤d,具体包括:
将所有A类块和B类块的运动矢量集合为待插帧ft+0.5的运动向量场Vt+0.5;采用下式计算待插帧ft+0.5在像素位置p=(i,j)处的取值:
Figure FDA0002317136570000031
其中,vi,j为Vt+0.5在p处的运动矢量;k代表块的类型,取1时为不重叠部分,取2时为两个块的重叠部分,取3时,为四个块的重叠部分;系数ω则根据k的值取对应值。
CN201710831783.1A 2017-09-15 2017-09-15 一种基于空间预测的运动补偿帧率上转换方法 Active CN107483960B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710831783.1A CN107483960B (zh) 2017-09-15 2017-09-15 一种基于空间预测的运动补偿帧率上转换方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710831783.1A CN107483960B (zh) 2017-09-15 2017-09-15 一种基于空间预测的运动补偿帧率上转换方法

Publications (2)

Publication Number Publication Date
CN107483960A CN107483960A (zh) 2017-12-15
CN107483960B true CN107483960B (zh) 2020-06-02

Family

ID=60584535

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710831783.1A Active CN107483960B (zh) 2017-09-15 2017-09-15 一种基于空间预测的运动补偿帧率上转换方法

Country Status (1)

Country Link
CN (1) CN107483960B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230161539A (ko) 2018-06-07 2023-11-27 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 부분 코스트 계산
TWI719519B (zh) 2018-07-02 2021-02-21 大陸商北京字節跳動網絡技術有限公司 對於dmvr的塊尺寸限制
CN109756778B (zh) * 2018-12-06 2021-09-14 中国人民解放军陆军工程大学 一种基于自适应运动补偿的帧率转换方法
CN113630621B (zh) * 2020-05-08 2022-07-19 腾讯科技(深圳)有限公司 一种视频处理的方法、相关装置及存储介质
CN112995677B (zh) * 2021-02-08 2022-05-31 信阳师范学院 一种基于像素语义匹配的视频帧率上转换方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103702128A (zh) * 2013-12-24 2014-04-02 浙江工商大学 一种应用于视频帧速率上转换的插值帧生成方法
CN104718756A (zh) * 2013-01-30 2015-06-17 英特尔公司 用于下一代视频译码的、利用经修改的参考的内容自适应预测性图片和功能预测性图片
CN105872559A (zh) * 2016-03-20 2016-08-17 信阳师范学院 一种基于色度混合匹配的帧率上转换方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104718756A (zh) * 2013-01-30 2015-06-17 英特尔公司 用于下一代视频译码的、利用经修改的参考的内容自适应预测性图片和功能预测性图片
CN103702128A (zh) * 2013-12-24 2014-04-02 浙江工商大学 一种应用于视频帧速率上转换的插值帧生成方法
CN105872559A (zh) * 2016-03-20 2016-08-17 信阳师范学院 一种基于色度混合匹配的帧率上转换方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Multi-Channel Mixed-Pattern Based Frame Rate Up-Conversion Using Spatio-Temporal Motion Vector Refinement and Dual-Weighted Overlapped Block Motion;Ran Li et al.;《Journal of Display Technology》;20141231;第10卷(第12期);全文 *
帧频提升关键技术的研究及实现;李真真;《中国优秀硕士学位论文全文数据库信息科技辑,2016年第6期》;20160615;全文 *

Also Published As

Publication number Publication date
CN107483960A (zh) 2017-12-15

Similar Documents

Publication Publication Date Title
CN107483960B (zh) 一种基于空间预测的运动补偿帧率上转换方法
Kang et al. Motion compensated frame rate up-conversion using extended bilateral motion estimation
US8736767B2 (en) Efficient motion vector field estimation
Wang et al. Frame rate up-conversion using trilateral filtering
Jeong et al. Motion-compensated frame interpolation based on multihypothesis motion estimation and texture optimization
CN106254885B (zh) 数据处理***、执行运动估计的方法
US8571114B2 (en) Sparse geometry for super resolution video processing
US8711938B2 (en) Methods and systems for motion estimation with nonlinear motion-field smoothing
CN108574844B (zh) 一种时空显著感知的多策略视频帧率提升方法
JP2009527173A (ja) ビデオ画像間の運動を確定するための方法と装置
WO2013100791A1 (en) Method of and apparatus for scalable frame rate up-conversion
US7110453B1 (en) Motion or depth estimation by prioritizing candidate motion vectors according to more reliable texture information
Veselov et al. Iterative hierarchical true motion estimation for temporal frame interpolation
Kim et al. An efficient motion-compensated frame interpolation method using temporal information for high-resolution videos
KR101544158B1 (ko) 다중 프레임을 이용한 양방향 움직임 탐색 방법 및 이러한 양방향 움직임 탐색 기능이 탑재된 영상 장치
US20210407105A1 (en) Motion estimation method, chip, electronic device, and storage medium
Huang et al. Algorithm and architecture design of multirate frame rate up-conversion for ultra-HD LCD systems
Guo et al. Frame rate up-conversion using linear quadratic motion estimation and trilateral filtering motion smoothing
Guo et al. Motion-compensated frame interpolation with weighted motion estimation and hierarchical vector refinement
CN112532907A (zh) 一种视频帧频提升方法、装置、设备及介质
CN109788297B (zh) 一种基于元胞自动机的视频帧率上转换方法
Lee et al. Motion vector correction based on the pattern-like image analysis
KR101359351B1 (ko) 연산 스킵 기법에 의한 고속 스테레오 영상 정합 방법
Lu et al. An artifact information based motion vector processing method for motion compensated frame interpolation
Basher Two minimum three step search algorithm for motion estimation of images from moving IR camera

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant