CN113902651A - 一种基于深度学习的视频画质增强*** - Google Patents

一种基于深度学习的视频画质增强*** Download PDF

Info

Publication number
CN113902651A
CN113902651A CN202111495910.8A CN202111495910A CN113902651A CN 113902651 A CN113902651 A CN 113902651A CN 202111495910 A CN202111495910 A CN 202111495910A CN 113902651 A CN113902651 A CN 113902651A
Authority
CN
China
Prior art keywords
frame
module
processing model
enhancement
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111495910.8A
Other languages
English (en)
Other versions
CN113902651B (zh
Inventor
张卫平
岑全
丁园
张伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Global Digital Group Co Ltd
Original Assignee
Global Digital Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Global Digital Group Co Ltd filed Critical Global Digital Group Co Ltd
Priority to CN202111495910.8A priority Critical patent/CN113902651B/zh
Publication of CN113902651A publication Critical patent/CN113902651A/zh
Application granted granted Critical
Publication of CN113902651B publication Critical patent/CN113902651B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于深度学习的视频画质增强***,包括帧提取模块,帧增强模块、帧间增强模块、学习处理模块、反馈模块和视频还原模块,所述帧提取模块将视频处理成多帧帧画面,所述帧增强模块对单独的帧画面进行画质增强,所述帧间增强模块依据相邻两帧画面的关系对帧画面进行画质增强,所述学习处理模块提供用于进行画质增强的处理模型,所述反馈模块用于计算处理后的帧画面的整体协调性并反馈给所述学习处理模型,所述学习处理模型依据反馈结果对处理模型进行改进,所述视频还原模块用于将处理后的帧画面重组成视频形式。本***采用帧内处理和帧间处理两个角度进行画质增强,使增强后的内容部出现失真,获取更好的画质增强效果。

Description

一种基于深度学习的视频画质增强***
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于深度学习的视频画质增强***。
背景技术
随着手机等移动终端的普及,人们越来越习惯用手机等移动终端观看网络视频。人们观看视频时,视频画质主要受到下面的因素影响:1.受视频拍摄质量和后期制作的因素影响,其中包括拍摄器材的因素、拍摄环境的因素、有损的后期剪辑等;2.网络视频服务商会将原始视频转码成不同码率供用户选择,转码过程会对视频进行有损压缩,转码后的视频质量相比原始视频会有下降。
现在已经开发出了很多画质增强***,经过我们大量的检索与参考,发现现有的增强***有如公开号为CN109345490B所公开的***,解码视频流数据,得到RGB图像数据;对RGB图像数据进行图像分区,将图像分成四类区域:边缘区域且在保护区域内、非边缘区域且在保护区域内、边缘区域且在非保护区域内、非边缘区域且在非保护区域内,分别标记为P1、P2、P3、P4;对P1、P2、P3、P4采用不同的尺度进行细节增强处理,得到增强后的图像;对增强后的图像进行对比度调整,得到调整后的图像;对调整后的图像进行亮度调整,得到亮度调整后的图像。但该***在处理过程中是对单独的帧画面进行处理,处理后的视频存在不连贯,失真的缺点,画质增强效果有待改进。
发明内容
本发明的目的在于,针对所存在的不足,提出了一种基于深度学习的视频画质增强***,
本发明采用如下技术方案:
一种基于深度学习的视频画质增强***,包括帧提取模块,帧增强模块、帧间增强模块、学习处理模块、反馈模块和视频还原模块,所述帧提取模块将视频处理成多帧帧画面,所述帧增强模块对单独的帧画面进行画质增强,所述帧间增强模块依据相邻两帧画面的关系对帧画面进行画质增强,所述学习处理模块提供用于进行画质增强的处理模型,所述反馈模块用于计算处理后的帧画面的整体协调性Q并反馈给所述学习处理模型,所述学习处理模型依据反馈结果对处理模型进行改进,所述视频还原模块用于将处理后的帧画面重组成视频形式;
所述处理模型包括帧处理模型和帧间处理模型,所述帧增强模块执行所述帧处理模型,所述帧间增强模块执行所述帧间处理模型;
所述帧处理模型将分辨率为X0*Y0的待处理帧画面扩大为分辨率为X1*Y1的初始帧画面,并将初始帧画面中的像素点依据相邻像素点信息是否相同划分为多个点集,所述点集中的边缘点依据计算的融合度Z决定是否改变像素点信息,所述融合度Z的计算公式为:
Figure 253789DEST_PATH_IMAGE001
其中,n1、n2、n3和n4分别表示边缘点邻近区域内像素点中属于同一点集中的非边缘点数量、属于同一点集中的边缘点数量、属于不同点集中的非边缘点数量和属于不同点集中的边缘点数量;
当融合度Z大于0时,该边缘点保持不变,当Z小于0时,该边缘点的像素点信息转换成邻近的点集中的像素点信息;
所述帧间处理模型利用像素点窗口获取相邻帧画面中相同位置处像素点的灰度信息得到两个矩阵P1和P2,并对两个矩阵进行如下操作矩阵卷差C:
Figure 955029DEST_PATH_IMAGE002
其中,aij为矩阵P1中的元素,bij为矩阵P2中的元素,m,n分别为像素点窗口的长度和宽度;
依据所述矩阵卷差C计算得到矩阵P1中的周边元素对应的像素点的灰度待变量△,所述像素点窗口遍历完相邻的帧画面后,对每一个像素点的灰度待变量△计算总和得到修正量△’,所述帧间处理模型依据所述修正量△’对所有像素点进行灰度变化处理;
进一步的,所述帧处理模型将待处理帧画面中的(a,b)像素点信息复制到所述初始帧画面的(c,d)像素点信息中,a,b,c,d满足如下条件:
Figure 867621DEST_PATH_IMAGE003
进一步的,所述邻近区域指坐标距离不超过4的像素点构成的区域;
进一步的,所述灰度待变量△的计算公式为:
Figure 552681DEST_PATH_IMAGE004
进一步的,所述整体协调性Q的计算公式为:
Figure 107290DEST_PATH_IMAGE005
其中,Nz为像素点的灰度值在所有帧画面中出现异常的次数,N为所有帧画面的数量。
本发明所取得的有益效果是:
本发明在增强画质过程中,不仅是对单独的帧画面进行处理,还根据相邻帧画面的关系进行平滑处理,使得视频在画质增强后不会出现失真,不连贯的现象;本发明还设有反馈***,对画质增强后的帧画面进行评测,而对帧画面进行增强的处理模型依据评测结果进行模型修正,改善画质增强效果。
附图说明
从以下结合附图的描述可以进一步理解本发明。图中的部件不一定按比例绘制,而是将重点放在示出实施例的原理上。在不同的视图中,相同的附图标记指定对应的部分。
图1为整体结构框架示意图;
图2为边缘点位置示意图;
图3为邻近区域内像素点示意图;
图4为具有灰度待变量的像素点位置示意图;
图5为像素点灰度的M型和W型片段示意图。
具体实施方式
为了使得本发明的目的、技术方案及优点更加清楚明白,以下结合其实施例,对本发明进行进一步详细说明;应当理解,此处所描述的具体实施例仅用于解释本发明,并不用于限定本发明。对于本领域技术人员而言,在查阅以下详细描述之后,本实施例的其它***、方法和/或特征将变得显而易见。旨在所有此类附加的***、方法、特征和优点都包括在本说明书内,包括在本发明的范围内,并且受所附权利要求书的保护。在以下详细描述描述了所公开的实施例的另外的特征,并且这些特征根据以下将详细描述将是显而易见的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或组件必须具有特定的方位,以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
实施例一。
本实施例提供了一种基于深度学习的视频画质增强***,结合图1,包括帧提取模块,帧增强模块、帧间增强模块、学习处理模块、反馈模块和视频还原模块,所述帧提取模块将视频处理成多帧帧画面,所述帧增强模块对单独的帧画面进行画质增强,所述帧间增强模块依据相邻两帧画面的关系对帧画面进行画质增强,所述学习处理模块提供用于进行画质增强的处理模型,所述反馈模块用于计算处理后的帧画面的整体协调性Q并反馈给所述学习处理模型,所述学习处理模型依据反馈结果对处理模型进行改进,所述视频还原模块用于将处理后的帧画面重组成视频形式;
所述处理模型包括帧处理模型和帧间处理模型,所述帧增强模块执行所述帧处理模型,所述帧间增强模块执行所述帧间处理模型;
所述帧处理模型将分辨率为X0*Y0的待处理帧画面扩大为分辨率为X1*Y1的初始帧画面,并将初始帧画面中的像素点依据相邻像素点信息是否相同划分为多个点集,所述点集中的边缘点依据计算的融合度Z决定是否改变像素点信息,所述融合度Z的计算公式为:
Figure 194194DEST_PATH_IMAGE006
其中,n1、n2、n3和n4分别表示边缘点邻近区域内像素点中属于同一点集中的非边缘点数量、属于同一点集中的边缘点数量、属于不同点集中的非边缘点数量和属于不同点集中的边缘点数量;
当融合度Z大于0时,该边缘点保持不变,当Z小于0时,该边缘点的像素点信息转换成邻近的点集中的像素点信息;
所述帧间处理模型利用像素点窗口获取相邻帧画面中相同位置处像素点的灰度信息得到两个矩阵P1和P2,并对两个矩阵进行如下操作矩阵卷差C:
Figure 808847DEST_PATH_IMAGE007
其中,aij为矩阵P1中的元素,bij为矩阵P2中的元素,m,n分别为像素点窗口的长度和宽度;
依据所述矩阵卷差C计算得到矩阵P1中的周边元素对应的像素点的灰度待变量△,所述像素点窗口遍历完相邻的帧画面后,对每一个像素点的灰度待变量△计算总和得到修正量△’,所述帧间处理模型依据所述修正量△’对所有像素点进行灰度变化处理;
所述帧处理模型将待处理帧画面中的(a,b)像素点信息复制到所述初始帧画面的(c,d)像素点信息中,a,b,c,d满足如下条件:
Figure 981202DEST_PATH_IMAGE008
所述邻近区域指坐标距离不超过4的像素点构成的区域;
所述灰度待变量△的计算公式为:
Figure 73923DEST_PATH_IMAGE009
所述整体协调性Q的计算公式为:
Figure 280913DEST_PATH_IMAGE010
其中,Nz为像素点的灰度值在所有帧画面中出现异常的次数,N为所有帧画面的数量。
实施例二。
本实施例包含了实施例一的全部内容,提供了一种基于深度学***滑处理,所述学习处理模块用于提供处理模型给所述帧增强模块和所述帧间增强模块,所述反馈模块对处理后的视频的整体协调性进行计算,并将计算结果反馈给所述学习处理模块,所述学习处理模块依据所述计算结果对处理模型进行改进,当所述整体协调性小于阈值时,所述视频还原模块将处理后的帧画面重新组合成视频;
所述帧提取模块获取的帧画面按照顺序排列,依次将所述帧画面发送给所述帧增强模块;
所述帧增强模块在接收到第一帧帧画面时对帧画面的分辨率进行识别,识别的分辨率记为X0*Y0
所述学习处理模块中的处理模型包括帧处理模型和帧间处理模型,当所述帧增强模块需要处理帧画面时,向所述学习处理模块提交申请,所述学习处理模块将复制一份帧处理模型发送给所述帧增强模块,所述帧增强模块执行所述帧处理模型对帧画面进行处理,当所述帧间增强模块需要处理帧画面时,向所述学习处理模块提交申请,所述学习处理模块将复制一份帧间处理模型发送给所述帧间增强模块,所述帧间增强模块执行所述帧间处理模型对帧画面进行处理;
结合图2和图3,所述帧处理模型对待处理帧画面进行处理的过程包括如下步骤:
S1、所述帧处理模型申请一个初始帧画面,所述初始帧画面的分辨率为X1*Y1
S2、所述帧处理模型将待处理帧画面中的(a,b)像素点信息复制到所述初始帧画面的(c,d)像素点信息中,a,b,c,d满足如下条件:
Figure 63537DEST_PATH_IMAGE011
S3、所述帧处理模型将原始画面中由待处理帧画面中的同一个像素点信息得到的多个像素点划为一个集合,得到多个点集;
S4、所述帧处理模型对每个点集进行归化处理:
当两个相邻点集的像素点信息相同时,将这两个点集归为同一个点集;
S5、所述帧处理模型对每个点集进行边缘标记:
将点集中与其他点集相邻的像素点设为边缘点;
S6、所述帧处理模型统计每个边缘点邻近区域内像素点的性质:
所述像素点性质包括同一点集中的非边缘点、同一点集中的边缘点、不同点集中的非边缘点和不同点集中的边缘点,数量分别用n1、n2、n3和n4表示,所述边缘点邻近区域内像素点指的是与边缘点的坐标距离不超过4的像素点;
S7、所述帧处理模型对边缘点进行像素点信息变化:
Figure 723188DEST_PATH_IMAGE012
当Z大于0时,该边缘点保持不变,当Z小于0时,该边缘点的像素点信息转换成邻近的点集中的像素点信息;
所述帧增强模块将处理后的帧画面按序发送给所述帧间增强模块;
所述帧间处理模型对待处理的连续两帧帧画面进行处理的过程包括如下步骤:
S21、所述帧间处理模型将在先的帧画面作为处理帧,在后的帧画面作为参考帧;
S22、所述帧间处理模型设置一个像素窗口,并使用所述像素窗口在所述处理帧与所述参考帧的同一位置分别获取像素点的灰度信息得到两个矩阵P1和P2:
Figure 619600DEST_PATH_IMAGE013
Figure 149939DEST_PATH_IMAGE014
其中,元素aij表示处理帧在所述像素窗口内(i,j)像素点的灰度值,元素bij表示参考帧在所述像素窗口(i,j)像素点的灰度值,m和n为所述像素窗口的长度与宽度;
S23、所述帧间处理模型对两个矩阵进行如下操作矩阵卷差C:
Figure 168710DEST_PATH_IMAGE015
S24、所述帧间处理模型计算处理帧的矩阵周边变化量△:
Figure 253341DEST_PATH_IMAGE016
结合图4,将矩阵周边变化量△作为元素a1x,amx,ay1,ayn对应的像素点的灰度待变量,其中,x∈[1,n],y∈[1,m];
S25、所述帧间处理模型使用所述像素窗口遍历所述处理帧和所述参考帧的所有位置并获得对应的灰度待变量,对处理帧中每一个像素点的灰度待变量进行独立累加得到△’(i,j),x∈[1,X1],y∈[1,Y1];
S26、对处理帧中位于(i,j)坐标的像素点的灰度值进行修正,修正量为△’(i,j),处理完所述处理帧的所有像素点后,将所述处理帧发送给所述反馈模块,并将所述参考帧作为新的处理帧,所述参考帧的后一帧帧画面作为新的参考帧,重复步骤S22至步骤S26;
结合图5,所述反馈模块接收完所有帧画面后,对于每一个位置的像素点在所有帧画面中的灰度值进行提取并得到数列G[i],判断数列G[i]中的W型和M型片段;
所述“W”型片段满足下述不等式:
Figure 750181DEST_PATH_IMAGE017
所述“M”型片段满足下述不等式:
Figure 666185DEST_PATH_IMAGE018
所述反馈模块将所有位置的像素点中满足上述片段的数量进行统计得到Nz,并计算整体协调性Q:
Figure 527962DEST_PATH_IMAGE019
其中,N为所有帧画面的数量;
当Q大于阈值时,所述反馈模块向所述学习处理模块反馈结果,所述学习处理模块对所述帧间处理模型进行调整;
所述学习处理模块根据接收的反馈结果对所述像素窗口的长度m和宽度n进行调整,所述学习处理模块第一次调整时将m和n的值调大,当后续的整体协调性继续变大时,所述学习处理模块将m和n逆向调整,当后续的整体协调性变小时,所述学习处理模块将m和n正向调整,所述正向调整指与前一次的调整方向一致,所述逆向调整指与前一次的调整方向相反;
当所述反馈模块计算的整体协调性小于阈值时,所述学习处理模块不再调整,同时,所述视频还原模块将处理后的帧画面重新组成视频形式。
虽然上面已经参考各种实施例描述了本发明,但是应当理解,在不脱离本发明的范围的情况下,可以进行许多改变和修改。也就是说上面讨论的方法,***和设备是示例。各种配置可以适当地省略,替换或添加各种过程或组件。例如,在替代配置中,可以以与所描述的顺序不同的顺序执行方法,和/或可以添加,省略和/或组合各种部件。而且,关于某些配置描述的特征可以以各种其他配置组合,如可以以类似的方式组合配置的不同方面和元素。此外,随着技术发展其中的元素可以更新,即许多元素是示例,并不限制本公开或权利要求的范围。
在说明书中给出了具体细节以提供对包括实现的示例性配置的透彻理解。然而,可以在没有这些具体细节的情况下实践配置例如,已经示出了众所周知的电路,过程,算法,结构和技术而没有不必要的细节,以避免模糊配置。该描述仅提供示例配置,并且不限制权利要求的范围,适用性或配置。相反,前面对配置的描述将为本领域技术人员提供用于实现所描述的技术的使能描述。在不脱离本公开的精神或范围的情况下,可以对元件的功能和布置进行各种改变。
综上,其旨在上述详细描述被认为是例示性的而非限制性的,并且应当理解,以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (5)

1.一种基于深度学习的视频画质增强***,其特征在于,包括帧提取模块,帧增强模块、帧间增强模块、学习处理模块、反馈模块和视频还原模块,所述帧提取模块将视频处理成多帧帧画面,所述帧增强模块对单独的帧画面进行画质增强,所述帧间增强模块依据相邻两帧画面的关系对帧画面进行画质增强,所述学习处理模块提供用于进行画质增强的处理模型,所述反馈模块用于计算处理后的帧画面的整体协调性Q并反馈给所述学习处理模型,所述学习处理模型依据反馈结果对处理模型进行改进,所述视频还原模块用于将处理后的帧画面重组成视频形式;
所述处理模型包括帧处理模型和帧间处理模型,所述帧增强模块执行所述帧处理模型,所述帧间增强模块执行所述帧间处理模型;
所述帧处理模型将分辨率为X0*Y0的待处理帧画面扩大为分辨率为X1*Y1的初始帧画面,并将初始帧画面中的像素点依据相邻像素点信息是否相同划分为多个点集,所述点集中的边缘点依据计算的融合度Z决定是否改变像素点信息,所述融合度Z的计算公式为:
Figure 430317DEST_PATH_IMAGE001
其中,n1、n2、n3和n4分别表示边缘点邻近区域内像素点中属于同一点集中的非边缘点数量、属于同一点集中的边缘点数量、属于不同点集中的非边缘点数量和属于不同点集中的边缘点数量;
当融合度Z大于0时,该边缘点保持不变,当Z小于0时,该边缘点的像素点信息转换成邻近的点集中的像素点信息;
所述帧间处理模型利用像素点窗口获取相邻帧画面中相同位置处像素点的灰度信息得到两个矩阵P1和P2,并对两个矩阵进行如下操作矩阵卷差C:
Figure 465270DEST_PATH_IMAGE002
其中,aij为矩阵P1中的元素,bij为矩阵P2中的元素,m,n分别为像素点窗口的长度和宽度;
依据所述矩阵卷差C计算得到矩阵P1中的周边元素对应的像素点的灰度待变量△,所述像素点窗口遍历完相邻的帧画面后,对每一个像素点的灰度待变量△计算总和得到修正量△’,所述帧间处理模型依据所述修正量△’对所有像素点进行灰度变化处理。
2.如权利要求1所述的一种基于深度学习的视频画质增强***,其特征在于,所述帧处理模型将待处理帧画面中的(a,b)像素点信息复制到所述初始帧画面的(c,d)像素点信息中,a,b,c,d满足如下条件:
Figure 501359DEST_PATH_IMAGE003
3.如权利要求2所述的一种基于深度学习的视频画质增强***,其特征在于,所述邻近区域指坐标距离不超过4的像素点构成的区域。
4.如权利要求3所述的一种基于深度学习的视频画质增强***,其特征在于,所述灰度待变量△的计算公式为:
Figure 531107DEST_PATH_IMAGE004
5.如权利要求4所述的一种基于深度学习的视频画质增强***,其特征在于,所述整体协调性Q的计算公式为:
Figure 387068DEST_PATH_IMAGE005
其中,Nz为像素点的灰度值在所有帧画面中出现异常的次数,N为所有帧画面的数量。
CN202111495910.8A 2021-12-09 2021-12-09 一种基于深度学习的视频画质增强*** Active CN113902651B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111495910.8A CN113902651B (zh) 2021-12-09 2021-12-09 一种基于深度学习的视频画质增强***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111495910.8A CN113902651B (zh) 2021-12-09 2021-12-09 一种基于深度学习的视频画质增强***

Publications (2)

Publication Number Publication Date
CN113902651A true CN113902651A (zh) 2022-01-07
CN113902651B CN113902651B (zh) 2022-02-25

Family

ID=79025445

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111495910.8A Active CN113902651B (zh) 2021-12-09 2021-12-09 一种基于深度学习的视频画质增强***

Country Status (1)

Country Link
CN (1) CN113902651B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110279715A1 (en) * 2010-05-12 2011-11-17 Hon Hai Precision Industry Co., Ltd. Blemish detection sytem and method
CN102542536A (zh) * 2011-11-18 2012-07-04 上海交通大学 基于广义均衡模型的画质增强方法
US20180025251A1 (en) * 2016-07-22 2018-01-25 Dropbox, Inc. Live document detection in a captured video stream
US20180374203A1 (en) * 2016-02-03 2018-12-27 Chongqing University Of Posts And Telecommunications Methods, systems, and media for image processing
CN110415202A (zh) * 2019-07-31 2019-11-05 浙江大华技术股份有限公司 一种图像融合方法、装置、电子设备及存储介质
CN112019762A (zh) * 2020-07-23 2020-12-01 北京迈格威科技有限公司 视频处理方法及装置、存储介质及电子设备
CN113115075A (zh) * 2021-03-23 2021-07-13 广州虎牙科技有限公司 一种视频画质增强的方法、装置、设备以及存储介质
CN113409435A (zh) * 2020-03-15 2021-09-17 英特尔公司 用于使用图形处理器的运动估计电路来执行非局部均值滤波的设备和方法
CN113706393A (zh) * 2020-05-20 2021-11-26 武汉Tcl集团工业研究院有限公司 视频增强方法、装置、设备及存储介质
CN113763296A (zh) * 2021-04-28 2021-12-07 腾讯云计算(北京)有限责任公司 图像处理方法、设备以及介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110279715A1 (en) * 2010-05-12 2011-11-17 Hon Hai Precision Industry Co., Ltd. Blemish detection sytem and method
CN102542536A (zh) * 2011-11-18 2012-07-04 上海交通大学 基于广义均衡模型的画质增强方法
US20180374203A1 (en) * 2016-02-03 2018-12-27 Chongqing University Of Posts And Telecommunications Methods, systems, and media for image processing
US20180025251A1 (en) * 2016-07-22 2018-01-25 Dropbox, Inc. Live document detection in a captured video stream
CN110415202A (zh) * 2019-07-31 2019-11-05 浙江大华技术股份有限公司 一种图像融合方法、装置、电子设备及存储介质
CN113409435A (zh) * 2020-03-15 2021-09-17 英特尔公司 用于使用图形处理器的运动估计电路来执行非局部均值滤波的设备和方法
CN113706393A (zh) * 2020-05-20 2021-11-26 武汉Tcl集团工业研究院有限公司 视频增强方法、装置、设备及存储介质
CN112019762A (zh) * 2020-07-23 2020-12-01 北京迈格威科技有限公司 视频处理方法及装置、存储介质及电子设备
CN113115075A (zh) * 2021-03-23 2021-07-13 广州虎牙科技有限公司 一种视频画质增强的方法、装置、设备以及存储介质
CN113763296A (zh) * 2021-04-28 2021-12-07 腾讯云计算(北京)有限责任公司 图像处理方法、设备以及介质

Also Published As

Publication number Publication date
CN113902651B (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
JP4817246B2 (ja) 映像品質の客観評価装置
CN108495135B (zh) 一种屏幕内容视频编码的快速编码方法
Park et al. Fast multi-type tree partitioning for versatile video coding using a lightweight neural network
TWI432034B (zh) 多視點圖像編碼方法、多視點圖像解碼方法、多視點圖像編碼裝置、多視點圖像解碼裝置、多視點圖像編碼程式及多視點圖像解碼程式
Bae et al. HEVC-based perceptually adaptive video coding using a DCT-based local distortion detection probability model
EP3952307A1 (en) Video processing apparatus and processing method of video stream
CN105472205B (zh) 编码过程中的实时视频降噪方法和装置
US20200007872A1 (en) Video decoding method, video decoder, video encoding method and video encoder
US20240054786A1 (en) Video stream manipulation
EP3177013B1 (en) Image prediction method and relevant device
CN106060537B (zh) 一种视频质量评估方法及装置
JPWO2010095471A1 (ja) 多視点画像符号化方法、多視点画像復号方法、多視点画像符号化装置、多視点画像復号装置、多視点画像符号化プログラムおよび多視点画像復号プログラム
US20130188691A1 (en) Quantization matrix design for hevc standard
US20130147910A1 (en) Mobile device and image capturing method
CN110944176B (zh) 图像帧降噪方法和计算机存储介质
Hadizadeh et al. Video error concealment using a computation-efficient low saliency prior
CN108600783B (zh) 一种帧率调节方法、装置及终端设备
KR101622363B1 (ko) 필름 모드 또는 카메라 모드의 검출을 위한 방법
US20130279598A1 (en) Method and Apparatus For Video Compression of Stationary Scenes
US20140056354A1 (en) Video processing apparatus and method
EP4304172A1 (en) Deblocking filter method and apparatus
Zhang et al. Additive log-logistic model for networked video quality assessment
CN112435244A (zh) 直播视频的质量评价方法、装置、计算机设备和存储介质
Kazemi et al. A review of temporal video error concealment techniques and their suitability for HEVC and VVC
CN108416724A (zh) 一种基于多预测器的可逆信息隐藏方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant