CN111833285A - 图像处理方法、图像处理装置及终端设备 - Google Patents
图像处理方法、图像处理装置及终端设备 Download PDFInfo
- Publication number
- CN111833285A CN111833285A CN202010717686.1A CN202010717686A CN111833285A CN 111833285 A CN111833285 A CN 111833285A CN 202010717686 A CN202010717686 A CN 202010717686A CN 111833285 A CN111833285 A CN 111833285A
- Authority
- CN
- China
- Prior art keywords
- image
- processed
- video
- frame
- key frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 25
- 238000012545 processing Methods 0.000 title claims description 30
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000003068 static effect Effects 0.000 claims abstract description 19
- 238000012549 training Methods 0.000 claims description 35
- 238000004590 computer program Methods 0.000 claims description 22
- 230000000875 corresponding effect Effects 0.000 description 44
- 238000004422 calculation algorithm Methods 0.000 description 34
- 238000010801 machine learning Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 13
- 230000004927 fusion Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 9
- 230000002596 correlated effect Effects 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013100 final test Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本申请提供的一种图像处理方法,包括:获取待处理视频,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧;从所述待处理视频中,确定关键帧;针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐;根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像,其中,所述真值图像的清晰度高于所述关键帧。通过上述方法,可以获取到接近真实场景的低质量图像和对应的高质量图像。
Description
技术领域
本申请属于图像处理技术领域,尤其涉及图像处理方法、图像处理装置、终端设备及计算机可读存储介质。
背景技术
目前,在一些应用场景中,可以在不改***件设备的情况下,通过机器学习算法等方式来实现图像以及视频的复原,以提升图像以及视频的分辨率,改善低质量图像以及视频的质量。
而在通过机器学习算法等方式来实现图像以及视频的复原之前,需要通过特定的训练集对机器学习算法进行训练,该训练集中包含有低质量图像和对应的高质量图像。而目前,可以通过向高质量图像添加高斯白噪声来生成对应的含噪声的低质量图像,从而获得该训练集。然而,通过添加高斯白噪声得到的低质量图像与真实场景中需要复原的低质量图像之间的噪声分布方式等模糊特性并不相同,因此,通过现有的训练集训练出来的机器学习算法无法有效处理真实场景中的低质量图像,导致图像以及视频的复原效果较差。因此,亟需一种能够获得接近真实场景的低质量图像和对应的高质量图像的方法。
发明内容
本申请实施例提供了图像处理方法、图像处理装置、终端设备及计算机可读存储介质,可以获取到接近真实场景的低质量图像和对应的高质量图像。
第一方面,本申请实施例提供了一种图像处理方法,包括:
获取待处理视频,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧;
从所述待处理视频中,确定关键帧;
针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐;
根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像,其中,所述真值图像的清晰度高于所述关键帧。
第二方面,本申请实施例提供了一种图像处理装置,包括:
获取模块,用于获取待处理视频,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧;
确定模块,用于从所述待处理视频中,确定关键帧;
对齐模块,用于针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐;
处理模块,用于根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像,其中,所述真值图像的清晰度高于所述关键帧。
第三方面,本申请实施例提供了一种终端设备,包括存储器、处理器、显示器以及存储在上述存储器中并可在上述处理器上运行的计算机程序,其特征在于,上述处理器执行上述计算机程序时实现如第一方面上述的图像处理方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现如第一方面上述的图像处理方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中上述的图像处理方法。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例中,可以获取待处理视频,其中,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧,因此,可以获取到针对同一场景的多个相互关联的图像,以便于后续结合各个关联的图像来提取信息。然后,从所述待处理视频中,确定关键帧,并且针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐,再根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像。其中,通过所述对齐,可以使得对齐后的与所述关键帧相关联的待处理视频帧能够以所述关键帧为参照,从而使得所获得的真值图像也以所述关键帧为参照,并且所述真值图像的清晰度高于所述关键帧,因此,所述真值图像可以为所述关键帧的高质量图像,而所述关键帧为低质量图像,并且,所述关键帧是真实拍摄场景中针对静态场景拍摄得到的,而不是通过添加白噪声等方式得到的,因此,所述关键帧与后续真实应用场景中需要处理的低质量图像的噪声分布方式等模糊特性相似。可见,通过本申请实施例,可以获取到接近真实场景的低质量图像和高质量图像,从而在一些示例性应用场景中,可以采用上述获取到的接近真实场景的低质量图像和高质量图像对机器学习算法进行训练,以提升机器学习算法的性能,从而提升低质量图像以及视频的复原效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的一种图像处理方法的流程示意图;
图2是本申请一实施例提供的获得关键帧的真值图像的一种示例性示意图;
图3是本申请一实施例提供的在第一图像区域和第二图像区域中获取匹配点对的一种示例性示意图;
图4是本申请一实施例提供的一种图像处理装置的结构示意图;
图5是本申请一实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例提供的图像处理方法可以应用于服务器、台式电脑、手机、平板电脑、可穿戴设备、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtualreality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
图1示出了本申请实施例提供的一种图像处理方法的流程图,该图像处理方法可以应用于终端设备。
目前,在一些应用场景中,可以在不改***件设备的情况下,通过机器学习算法等方式来实现低质量图像以及视频的复原,以提升图像以及视频的分辨率,改善低质量图像以及视频的质量。
而在应用卷积神经网络等机器学习算法来实现图像以及视频的复原之前,需要通过特定的训练集对机器学习算法进行训练,该训练集中包含有低质量图像和对应的高质量图像。因此,训练集的训练数据与最终测试数据以及应用数据的相应图像特性(如噪声特征等)属于同一分布才能有效提升机器学习算法的性能。
目前,相关的训练集中的低质量图像和相应的高质量图像的一种常用的生成方式为通过下采样原始的高分辨率图像,以得到相应的低分辨率图像;而另一种常用的生成方式为通过向高质量图像添加高斯白噪声来生成对应的含噪声的低质量图像。但是,现有的生成低质量图像中的噪声分布方式等模糊特性与真实场景中需要复原的低质量图像的并不相同,导致通过相应的训练集训练得到的机器学习算法无法准确地识别出真实应用场景中的低质量图像的特征,从而无法较为准确地实现图像以及视频的复原。
而本申请实施例中,可以获取待处理视频,从而获取到针对相同静态场景拍摄得到的多个待处理视频帧,并从所述待处理视频中,确定关键帧,此时,所述关键帧可以作为真实拍摄得到的低质量图像;然后针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐,再根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像,可以结合与所述关键帧相关联的待处理视频帧,获得高质量的真值图像,从而可以获取到接近真实场景的低质量图像和高质量图像,从而在一些示例性应用场景中,可以采用上述获取到的接近真实场景的低质量图像和高质量图像对机器学习算法进行训练,以提升机器学习算法的性能,从而提升低质量图像以及视频的复原效果。
需要说明的是,本申请实施例中,所获得的低质量图像和高质量图像的具体应用并不仅限于作为机器学习算法的训练集,而也可以用于其他应用中。
具体地,如图1所示,该图像处理方法可以包括:
步骤S101,获取待处理视频,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧。
本申请实施例中,所述待处理视频可以为对特定的静态场景进行拍摄所得到的视频。示例性的,可以通过脚架等装置固定拍摄设备(如手机、相机等),然后录制关于所述静态场景的视频,从而得到所述待处理视频。其中,所述多个待处理视频帧可以作为对真实场景中通过拍摄设备实际拍摄得到的低质量视频,其中的至少部分图像可以作为低质量图像。
在一些实施例中,为了降低所述待处理视频中的图像的质量,可以在拍摄所述待处理视频之前,将拍摄设备的变焦倍数调高,例如,可以将所述变焦倍数设置为10,从而降低所述待处理视频的质量。而在拍摄所述待处理视频的过程中,可以不再对所述拍摄设备的拍摄参数进行修改,因此,所述待处理视频所对应的拍摄参数相同,以便于从针对同一场景的多个相互关联的图像中提取相匹配的信息来进行融合等操作。
本申请实施例中,示例性的,可以将所述待处理视频中的每一帧图像帧作为所述待处理图像帧;此外,也可以在所述待处理视频的图像帧中,根据图像帧的诸如方差、信息熵以及结构相似度等参数中的至少一种来评估所述图像帧的图像质量,从而筛选出图像质量符合预设质量条件的视频帧以作为所述待处理视频帧。所述待处理视频帧的格式可以根据实际需求来确定,示例性的,所述待处理视频帧可以为bmp的格式RGB图像。
在一些实施例中,在获取待处理视频之后,还包括:
获取所述待处理视频帧中的多个原始视频帧;
针对每一个原始视频帧,根据所述原始视频帧的离散参数、信息熵和/或结构相似度,计算所述原始视频帧的模糊参数,其中,所述离散参数包括所述原始视频帧的方差或者标准差;
根据各个原始视频帧的模糊参数,确定待处理视频帧。
本申请实施例中,所述原始视频帧的离散参数可以指示所述原始视频帧的像素值的离散程度。一般来说,所述离散参数越大,说明对应的原始视频帧的图像质量越好。所述原始视频帧的信息熵可以指示所述原始视频帧的信息量,因此,通过所述原始视频帧的信息熵也可以用于判断所述原始视频帧的清晰度等图像质量。所述原始视频帧的结构相似度可以为基于梯度的结构相似度(gradient-based structural similarity,GSSIM)、基于边缘的结构相似度(edge-based structural similarity,ESSIM)等等。所述原始视频帧的结构相似度也可以用于判断所述原始视频帧的图像质量。
其中,可以根据所述原始视频帧的离散参数、信息熵以及结构相似度中的一个参数来确定所述原始视频帧的图像质量,也可以结合离散参数、信息熵以及结构相似度中的至少两个参数来确定所述原始视频帧的图像质量,而更全面地对所述原始视频帧的图像质量进行评估。
在一些实施例中,所述针对每一个原始视频帧,根据所述原始视频帧的离散参数、信息熵和/或结构相似度,计算所述原始视频帧的模糊参数,包括:
针对每一个原始视频帧,根据预设公式计算所述原始视频帧的模糊参数,其中,所述预设公式为:
BP=λ1Vf+λ2Ef+λ3Gf
其中,BP为所述原始视频帧的模糊参数,Vf为所述原始视频帧的离散参数,Ef为所述原始视频帧的信息熵,Gf为所述原始视频帧的结构相似度,λ1为第一预设权重,λ2为第二预设权重,λ3为第三预设权重;
所述根据各个原始视频帧的模糊参数,确定待处理视频帧,包括:
对于每一个原始视频帧,若所述原始视频帧的模糊参数处于预设参数区间,则将所述原始视频帧作为一帧待处理视频帧。
本申请实施例中,所述第一预设权重、第二预设权重以及第三预设权重的值可以预先根据经验、测试以及应用需求等来预先确定。通过所述预设公式,可以从不同维度更全面地对所述原始视频帧的图像质量进行量化评估。
所述预设参数区间也可以预先通过预设实验统计得到。其中,示例性的,所述原始视频帧的模糊参数处于预设参数区间可以为所述原始视频帧的模糊参数大于第一预设参数阈值。此时,可以认为符合该条件的所述原始视频帧的模糊程度较低,并且可以认为所述原始视频帧中包含有一定的信息量,因此,而可以将所述原始视频帧作为所述待处理视频帧。此外,在一些示例中,所述原始视频帧的模糊参数处于预设参数区间可以为所述原始视频帧的模糊参数大于第一预设参数阈值且小于第二预设参数阈值,此时,可以认为符合该条件的所述原始视频帧的模糊程度较为适中,而不会是过于清晰或者过于模糊的图像,从而更接近真实拍摄得到的低质量图像。
步骤S102,从所述待处理视频中,确定关键帧。
本申请实施例中,所述关键帧的个数在此不作限定。所述关键帧的确定方式也可以有多种。示例性的,可以选择所述待处理视频中位于特定帧数(如第一帧或者中间帧或者最后一帧等)的视频帧为所述关键帧;或者,也可以以预设帧数间隔,从所述待处理视频中提取关键帧;此外,所述关键帧也可以仅从所述待处理视频帧中获取到。
步骤S103,针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐。
本申请实施例中,与所述关键帧相关联的待处理视频帧与所述关键帧的具体关联方式可以有多种。示例性的,与所述关键帧相关联的待处理视频帧可以为与所述关键帧相邻的一帧或者多帧待处理视频帧;或者,与所述关键帧相关联的待处理视频帧也可以为所包含的特征点与所述关键帧中的特征点相匹配的待处理视频帧等。
在一些实施例中,对于任一与所述关键帧相关联的待处理视频帧,可以根据所述关键帧和与所述关键帧相关联的待处理视频帧之间相互匹配的特征信息进行对齐。示例性的,可以根据所述相互匹配的特征信息,建立所述关键帧和与所述关键帧相关联的待处理视频帧之间的单应矩阵等变换矩阵,再根据相应的变换矩阵将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐。
步骤S104,根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像,其中,所述真值图像的清晰度高于所述关键帧。
本申请实施例中,在获取到对齐后的与所述关键帧相关联的待处理视频帧之后,可以根据预设的融合规则进行图像融合,以获得所述真值图像。例如,可以将多个对齐后的与所述关键帧相关联的待处理视频帧进行融合。此外,也可以将对齐后的与所述关键帧相关联的待处理视频帧与所述关键帧一起进行融合。其中,进行图像融合的具体方式可以为基于平均值的融合方式,也可以为加权融合方式。示例性的,可以根据模糊参数等用于评估图像质量的参数来确定各个对齐后的与所述关键帧相关联的待处理视频帧的权重,例如,对于清晰度较高、噪声强度较小的待处理视频帧,可以分配更高的权重。
在一些实施例中,所述根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像可以包括:
根据对齐后的与所述关键帧相关联的待处理视频帧,生成融合图像;
对所述融合图像进行指定优化处理,获得所述关键帧所对应的真值图像。
本申请实施例中,在获得所述融合图像之后,所述融合图像可以作为一个初始真值图像,而在一些情况下,该融合图像中可能会出现一些模糊问题,因此,可以通过所述指定优化处理来进一步提升图像清晰度。示例性的,所述指定优化处理可以包括去模糊处理、去噪处理、边缘增强处理等等。
本申请实施例中,所获得的真值图像是以所述关键帧为参照得到的,并且所述真值图像的清晰度高于所述关键帧,因此,所述真值图像可以为所述关键帧的高质量图像,而所述关键帧为低质量图像。并且,所述关键帧是真实拍摄场景中针对静态场景拍摄得到的,而不是通过添加白噪声等方式得到的,因此,所述关键帧与后续真实应用场景中需要处理的低质量图像的噪声分布方式等模糊特性相似。可见,通过本申请实施例,可以获取到接近真实场景的低质量图像和高质量图像。
在一些具体应用中,可以采用上述获取到的接近真实场景的低质量图像和高质量图像对机器学习算法进行训练,以提升机器学习算法的性能,从而提升低质量图像以及视频的复原效果。此外,在一些应用中,也可以根据所述待处理视频和所述真值图像生成特定的模糊视频-清晰图像训练集,以用于训练对视频进行处理的机器学习算法。由于该特定的模糊视频-清晰图像训练集中的模糊视频的噪声分布方式等模糊特性也与真实应用场景中获取到的视频类似,因此,相应的机器学习算法的性能也可以得到提升。
在一些实施例中,在从所述待处理视频中,确定关键帧之后,还包括:
针对任一关键帧,从与所述关键帧相邻的M帧待处理视频帧中,获取待剪切视频帧;
从所述关键帧中提取第一图像块;
针对每一个待剪切视频帧,从所述待剪切视频帧中提取第二图像块,其中,所述第二图像块在所述待剪切视频帧中的位置为所述第一图像块在所述关键帧中沿对应的预设偏移方向偏移预设数值后的位置,且所述第二图像块的大小与所述第一图像块的大小相同;
根据所述第一图像块和各个第二图像块,获得训练视频数据;
在根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像之后,还包括:
从所述真值图像中提取与所述第一图像块相对应的真值图像块;
根据所述训练视频数据和所述真值图像块,建立模糊视频-清晰图像训练集。
目前,在基于机器学习算法的视频复原任务中,可以将视频看作是单帧图像组成的序列,因此将视频中的每一帧视频帧分别输入到机器学习算法中,得到复原后的视频帧,再组合形成复原后的视频;此外,也可以在一次输入中,将视频中的连续多帧视频帧输入到机器学习算法中,输出处理后的关键帧,再组合所有处理后的关键帧形成复原后的视频。
而通过本申请实施例,可以获取到接近真实应用场景的模糊视频-清晰图像训练集,并在一些应用场景下,应用于训练相应的机器学习算法,从而提升机器学习算法的性能,提升低质量视频的复原效果。
其中,所述待剪切视频帧的个数以及所述待剪切视频帧与所述关键帧之间的帧数差可以根据实际场景需求来确定。示例性的,所述关键帧可以为所述待处理视频中的第60帧视频帧I60,则可以选择所述关键帧I60的前后各一个相邻视频帧I59、I61作为所述待剪切视频帧,或者,也可以选择所述待处理视频中的第55帧视频帧I55、第59帧视频帧I59作为所述待剪切视频帧。可见,所述待剪切视频帧的选取规则可以有多种。
所述第一图像块在所述关键帧中的位置和大小可以预先设定。所述预设偏移方向可以根据所述关键帧和各个待剪切视频帧在所述待处理视频中的时序确定,此时,所获得的各个第二图像块可以贴近拍摄过程中设备移动方式,例如,第59帧视频帧I59中的第二图像块可以向右偏移,而第60帧视频帧I61中的第二图像块可以向左偏移,以结合第60帧视频帧I60中的第一图像块形成运动偏移的情形。此外,在一些场景中,所述预设偏移方向也可以是随机的,以模拟现实拍摄场景中拍摄设备随机晃动的场景中所拍摄到的视频。所述预设数值可以是在一定数值区间内产生的随机数,也可以是相关人员预先设置好的。
具体的,可以是在所述关键帧中裁剪得到所述第一图像块,并从各个待剪切视频帧中裁剪得到各个第二图像块,并根据特定时序,将所述第一图像块和各个第二图像块组合得到一组训练视频数据。示例性的,该特定时序可以为所述关键帧和各个待剪切视频帧在所述待处理视频中的时序。
本申请实施例中,在获取到所述训练视频数据和所述真值图像块之后,可以将所述真值图像块作为所述训练视频数据的真值标注,并在一些场景中,用于训练对视频进行处理的机器学习算法。由于该特定的模糊视频-清晰图像训练集中的模糊视频的噪声分布方式等模糊特性也与真实应用场景中获取到的视频类似,因此,相应的机器学习算法的性能也可以得到提升。
在一些实施例中,在根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像之后,还包括:
根据所述待处理视频中的关键帧和所述真值图像,建立模糊-清晰图像训练集。
本申请实施例中,由于所述待处理视频帧中的关键帧的个数可以不止一个,因此,所述关键帧与真值图像所构成的训练图像对可以有不止一组。其中,所述真值图像可以作为对应的关键帧的真值标注。
在一些实施例中,所述针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐,包括:
针对每一个关键帧,确定与所述关键帧相关联的至少一个图像组,每一个所述图像组中包括多个待处理视频帧;
针对每一个图像组,将所述图像组中的各个待处理视频帧分别向所述关键帧进行对齐;
所述根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像,包括:
针对每一个图像组,将所述图像组中的对齐后的各个待处理视频帧进行融合,获得所述图像组所对应的第一图像;
将获得的各个第一图像分别向所述关键帧进行对齐;
将对齐后的各个第一图像进行融合,获得所述关键帧的真值图像。
本申请实施例中,各个所述图像组的划分方式可以有多种。在一些示例中,每一个图像组中的多个待处理视频帧可以为连续的视频帧,从而提升一个图像组中的待处理视频帧的关联性。其中,将所述图像组中的各个待处理视频帧分别向所述关键帧进行对齐以及将获得的各个第一图像分别向所述关键帧进行对齐的方式可以相同,也可以不同。示例性的,进行对齐的方式可以为根据两帧视频帧之间相互匹配的特征信息进行对齐。示例性的,可以根据相互匹配的特征信息,建立两帧视频帧之间的单应矩阵、仿射变换等变换矩阵,再根据相应的变换矩阵将进行对齐。
下面以一个具体示例说明本申请实施例的一种具体实现。
示例性的,如图2所示,可以从所述待处理视频中获取到各个待处理视频帧,并根据各个待处理视频帧在所述待处理视频中的时序,对各个待处理视频帧进行排序。若获取到170帧待处理视频帧,则可以选择所述170帧待处理视频帧中的第60帧和第120帧作为关键帧,分别记为I60、I120。其中,与关键帧I60相关联的待处理视频帧可以为第10~110帧待处理视频帧,与关键帧I120相关联的待处理视频帧为第70~170帧待处理视频帧。
对于关键帧I60,可以将与关键帧I60相关联第10~110帧待处理视频帧划分为10个图像组,每个图像组中包括10帧连续的待处理视频帧。并且,针对每一个图像组,将所述图像组中的各个待处理视频帧分别向所述关键帧进行对齐然后进行融合,获得所述图像组所对应的第一图像,从而可以获取到10帧第一图像。然后,再将获得的10帧第一图像分别向所述关键帧进行对齐然后进行融合,得到最终的真值图像。
本申请实施例中,可以分别对每组图像组进行图像融合,再对获得的各个第一图像进行图像融合,此时,通过两个层次的图像融合操作,可以递进式地不断提升图像质量,从而使得最终获得的真值图像的图像质量更好。
在一些实施例中,所述针对每一个图像组,将所述图像组中的各个待处理视频帧分别向所述关键帧进行对齐,包括:
针对每一个图像组中的每一个待处理视频帧,在所述待处理视频帧中划分得到多个第一图像区域;
对于任一第一图像区域,在所述关键帧中,确定所述第一图像区域所对应的待查找图像区域;
在所述待查找图像区域中,查找与所述第一图像区域的相似度最高的第二图像区域,其中,所述第二图像区域的大小与所述第一图像区域的大小相同;
在所述第一图像区域和所述第二图像区域中,获取匹配点对,其中,所述匹配点对中的两个特征点分别位于所述第一图像区域和所述第二图像区域中;
在获取到所述待处理视频帧与所述关键帧之间的至少一组所述匹配点对之后,根据至少一组所述匹配点对,将所述待处理视频帧向所述关键帧进行对齐。
本申请实施例中,所述待查找图像区域的尺寸可以大于所述第一图像区域的尺寸。所述匹配点对的个数可以根据实际需求确定。因此,本申请实施例中,执行对于任一第一图像区域,在所述关键帧中,确定所述第一图像区域所对应的待查找图像区域,再在所述待查找图像区域中,查找与所述第一图像区域的相似度最高的第二图像区域,然后在所述第一图像区域和所述第二图像区域中,获取匹配点对的操作的次数可以根据实际需求来确定。
本申请实施例中,所述待处理视频帧中可以包括划分得到的多个第一图像区域,并且,在一些示例中,还可以包括其他区域。例如,可以将所述待处理视频帧划分得到大小的多个第一图像区域。此时,所述待处理视频帧的边缘可能存在宽度不足5个像素的边缘区域,因此,该宽度不足5个像素的边缘区域无法进行划分。
在获取到所述待处理视频帧与所述关键帧之间的至少一组所述匹配点对之后,可以根据至少一组所述匹配点对生成变换矩阵,以将所述待处理视频帧向所述关键帧进行对齐。其中,示例性的,所述变换矩阵可以为通过随机抽样一致(Random Sample Consensus,RANSAC)算法计算出两幅图像间的单应矩阵。
下面以一个具体示例说明本申请实施例的一种具体实现。
示例性的,如图3所示,在所述待处理视频帧中,一个第一图像区域的中心坐标为(xr,yr),且所述第一图像区域的大小为5×5大小的图像区域,则在所述关键帧中,确定所述第一图像区域所对应的待查找图像区域(xr-25~xr+25,yr-25~yr+25)。在所述待查找图像区域中,以步长为1个像素的方式,查找与所述第一图像区域的相似度最高的第二图像区域,获得的第二图像区域的中心坐标为(xt,yt)),并将(xr,yr)和(xt,yt)作为所述第一图像区域和所述第二图像区域之间的匹配点对。在遍历所述待处理视频帧之后,可以获得多组匹配点对,从而根据所述多组匹配点对,通过随机抽样一致(Random Sample Consensus,RANSAC)算法计算出所述待处理视频帧与所述关键帧之间的单应矩阵,然后根据所述单应矩阵,将所述待处理视频帧向所述关键帧进行对齐,获得对齐后的所述待处理视频帧。
本申请实施例中,可以获取待处理视频,其中,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧,因此,可以获取到针对同一场景的多个相互关联的图像,以便于后续结合各个关联的图像来提取信息。然后,从所述待处理视频中,确定关键帧,并且针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐,再根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像。其中,通过所述对齐,可以使得对齐后的与所述关键帧相关联的待处理视频帧能够以所述关键帧为参照,从而使得所获得的真值图像也以所述关键帧为参照,并且所述真值图像的清晰度高于所述关键帧,因此,所述真值图像可以为所述关键帧的高质量图像,而所述关键帧为低质量图像,并且,所述关键帧是真实拍摄场景中针对静态场景拍摄得到的,而不是通过添加白噪声等方式得到的,因此,所述关键帧与后续真实应用场景中需要处理的低质量图像的噪声分布方式等模糊特性相似。可见,通过本申请实施例,可以获取到接近真实场景的低质量图像和高质量图像,从而在一些示例性应用场景中,可以采用上述获取到的接近真实场景的低质量图像和高质量图像对机器学习算法进行训练,以提升机器学习算法的性能,从而提升低质量图像以及视频的复原效果。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例上述的图像处理方法,图4示出了本申请实施例提供的一种图像处理装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图4,该图像处理装置4包括:
获取模块401,用于获取待处理视频,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧;
确定模块402,用于从所述待处理视频中,确定关键帧;
对齐模块403,用于针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐;
处理模块404,用于根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像,其中,所述真值图像的清晰度高于所述关键帧。
可选的,所述图像处理装置4还包括:
第二获取模块,用于获取所述待处理视频帧中的多个原始视频帧;
计算模块,用于针对每一个原始视频帧,根据所述原始视频帧的离散参数、信息熵和/或结构相似度,计算所述原始视频帧的模糊参数,其中,所述离散参数包括所述原始视频帧的方差或者标准差;
第二确定模块,用于根据各个原始视频帧的模糊参数,确定待处理视频帧。
可选的,所述计算模块具体用于:
针对每一个原始视频帧,根据预设公式计算所述原始视频帧的模糊参数,其中,所述预设公式为:
BP=λ1Vf+λ2Ef+λ3Gf
其中,BP为所述原始视频帧的模糊参数,Vf为所述原始视频帧的离散参数,Ef为所述原始视频帧的信息熵,Gf为所述原始视频帧的结构相似度,λ1为第一预设权重,λ2为第二预设权重,λ3为第三预设权重;
所述第二确定模块具体用于:
对于每一个原始视频帧,若所述原始视频帧的模糊参数处于预设参数区间,则将所述原始视频帧作为一帧待处理视频帧。
可选的,所述对齐模块403具体包括:
第一确定单元,用于针对每一个关键帧,确定与所述关键帧相关联的至少一个图像组,每一个所述图像组中包括多个待处理视频帧;
第一对齐单元,用于针对每一个图像组,将所述图像组中的各个待处理视频帧分别向所述关键帧进行对齐;
所述处理模块404具体包括:
第一融合单元,用于针对每一个图像组,将所述图像组中的对齐后的各个待处理视频帧进行融合,获得所述图像组所对应的第一图像;
第二对齐单元,用于将获得的各个第一图像分别向所述关键帧进行对齐;
第二融合单元,用于将对齐后的各个第一图像进行融合,获得所述关键帧的真值图像。
可选的,所述第一对齐单元具体包括:
划分子单元,用于针对每一个图像组中的每一个待处理视频帧,在所述待处理视频帧中划分得到多个第一图像区域;
确定子单元,用于对于任一第一图像区域,在所述关键帧中,确定所述第一图像区域所对应的待查找图像区域;
查找子单元,用于在所述待查找图像区域中,查找与所述第一图像区域的相似度最高的第二图像区域,其中,所述第二图像区域的大小与所述第一图像区域的大小相同;
匹配子单元,用于在所述第一图像区域和所述第二图像区域中,获取匹配点对,其中,所述匹配点对中的两个特征点分别位于所述第一图像区域和所述第二图像区域中;
对齐子单元,用于在获取到所述待处理视频帧与所述关键帧之间的至少一组所述匹配点对之后,根据至少一组所述匹配点对,将所述待处理视频帧向所述关键帧进行对齐。
可选的,所述图像处理装置4还包括:
第三获取模块,用于针对任一关键帧,从与所述关键帧相邻的M帧待处理视频帧中,获取待剪切视频帧;
第三确定模块,用于从所述关键帧中提取第一图像块;
第四确定模块,用于针对每一个待剪切视频帧,从所述待剪切视频帧中提取第二图像块,其中,所述第二图像块在所述待剪切视频帧中的位置为所述第一图像块在所述关键帧中沿对应的预设偏移方向偏移预设数值后的位置,且所述第二图像块的大小与所述第一图像块的大小相同;
第二处理模块,用于根据所述第一图像块和各个第二图像块,获得训练视频数据;
提取模块,用于从所述真值图像中提取与所述第一图像块相对应的真值图像块;
第三处理模块,用于根据所述训练视频数据和所述真值图像块,建立模糊视频-清晰图像训练集。
可选的,所述图像处理装置4还包括:
第四处理模块,用于根据所述待处理视频中的关键帧和所述真值图像,建立模糊-清晰图像训练集。
本申请实施例中,可以获取待处理视频,其中,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧,因此,可以获取到针对同一场景的多个相互关联的图像,以便于后续结合各个关联的图像来提取信息。然后,从所述待处理视频中,确定关键帧,并且针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐,再根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像。其中,通过所述对齐,可以使得对齐后的与所述关键帧相关联的待处理视频帧能够以所述关键帧为参照,从而使得所获得的真值图像也以所述关键帧为参照,并且所述真值图像的清晰度高于所述关键帧,因此,所述真值图像可以为所述关键帧的高质量图像,而所述关键帧为低质量图像,并且,所述关键帧是真实拍摄场景中针对静态场景拍摄得到的,而不是通过添加白噪声等方式得到的,因此,所述关键帧与后续真实应用场景中需要处理的低质量图像的噪声分布方式等模糊特性相似。可见,通过本申请实施例,可以获取到接近真实场景的低质量图像和高质量图像,从而在一些示例性应用场景中,可以采用上述获取到的接近真实场景的低质量图像和高质量图像对机器学习算法进行训练,以提升机器学习算法的性能,从而提升低质量图像以及视频的复原效果。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将上述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图5为本申请一实施例提供的终端设备的结构示意图。如图5所示,该实施例的终端设备5包括:至少一个处理器50(图5中仅示出一个)、存储器51以及存储在上述存储器51中并可在上述至少一个处理器50上运行的计算机程序52,上述处理器50执行上述计算机程序52时实现上述任意各个图像处理方法实施例中的步骤。
上述终端设备5可以是服务器、手机、可穿戴设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、桌上型计算机、笔记本、台式电脑以及掌上电脑等计算设备。该终端设备可包括,但不仅限于,处理器50、存储器51。本领域技术人员可以理解,图5仅仅是终端设备5的举例,并不构成对终端设备5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入设备、输出设备、网络接入设备等。其中,上述输入设备可以包括键盘、触控板、指纹采集传感器(用于采集用户的指纹信息和指纹的方向信息)、麦克风、摄像头等,输出设备可以包括显示器、扬声器等。
上述处理器50可以是中央处理单元(Central Processing Unit,CPU),该处理器50还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
上述存储器51在一些实施例中可以是上述终端设备5的内部存储单元,例如终端设备5的硬盘或内存。上述存储器51在另一些实施例中也可以是上述终端设备5的外部存储设备,例如上述终端设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,上述存储器51还可以既包括上述终端设备5的内部存储单元也包括外部存储设备。上述存储器51用于存储操作***、应用程序、引导装载程序(Boot Loader)、数据以及其他程序等,例如上述计算机程序的程序代码等。上述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
另外,尽管未示出,上述终端设备5还可以包括网络连接模块,如蓝牙模块Wi-Fi模块、蜂窝网络模块等等,在此不再赘述。
本申请实施例中,上述处理器50执行上述计算机程序52以实现上述任意各个图像处理方法实施例中的步骤时,本申请实施例中,可以获取待处理视频,其中,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧,因此,可以获取到针对同一场景的多个相互关联的图像,以便于后续结合各个关联的图像来提取信息。然后,从所述待处理视频中,确定关键帧,并且针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐,再根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像。其中,通过所述对齐,可以使得对齐后的与所述关键帧相关联的待处理视频帧能够以所述关键帧为参照,从而使得所获得的真值图像也以所述关键帧为参照,并且所述真值图像的清晰度高于所述关键帧,因此,所述真值图像可以为所述关键帧的高质量图像,而所述关键帧为低质量图像,并且,所述关键帧是真实拍摄场景中针对静态场景拍摄得到的,而不是通过添加白噪声等方式得到的,因此,所述关键帧与后续真实应用场景中需要处理的低质量图像的噪声分布方式等模糊特性相似。可见,通过本申请实施例,可以获取到接近真实场景的低质量图像和高质量图像,从而在一些示例性应用场景中,可以采用上述获取到的接近真实场景的低质量图像和高质量图像对机器学习算法进行训练,以提升机器学习算法的性能,从而提升低质量图像以及视频的复原效果。
本申请实施例还提供了一种计算机可读存储介质,上述计算机可读存储介质存储有计算机程序,上述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行时实现可实现上述各个方法实施例中的步骤。
上述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,上述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,上述计算机程序包括计算机程序代码,上述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。上述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/设备实施例仅仅是示意性的,例如,上述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上上述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种图像处理方法,其特征在于,包括:
获取待处理视频,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧;
从所述待处理视频中,确定关键帧;
针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐;
根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像,其中,所述真值图像的清晰度高于所述关键帧。
2.如权利要求1所述的图像处理方法,其特征在于,在获取待处理视频之后,还包括:
获取所述待处理视频帧中的多个原始视频帧;
针对每一个原始视频帧,根据所述原始视频帧的离散参数、信息熵和/或结构相似度,计算所述原始视频帧的模糊参数,其中,所述离散参数包括所述原始视频帧的方差或者标准差;
根据各个原始视频帧的模糊参数,确定待处理视频帧。
3.如权利要求2所述的图像处理方法,其特征在于,所述针对每一个原始视频帧,根据所述原始视频帧的离散参数、信息熵和/或结构相似度,计算所述原始视频帧的模糊参数,包括:
针对每一个原始视频帧,根据预设公式计算所述原始视频帧的模糊参数,其中,所述预设公式为:
BP=λ1Vf+λ2Ef+λ3Gf
其中,BP为所述原始视频帧的模糊参数,Vf为所述原始视频帧的离散参数,Ef为所述原始视频帧的信息熵,Gf为所述原始视频帧的结构相似度,λ1为第一预设权重,λ2为第二预设权重,λ3为第三预设权重;
所述根据各个原始视频帧的模糊参数,确定待处理视频帧,包括:
对于每一个原始视频帧,若所述原始视频帧的模糊参数处于预设参数区间,则将所述原始视频帧作为一帧待处理视频帧。
4.如权利要求1所述的图像处理方法,其特征在于,所述针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐,包括:
针对每一个关键帧,确定与所述关键帧相关联的至少一个图像组,每一个所述图像组中包括多个待处理视频帧;
针对每一个图像组,将所述图像组中的各个待处理视频帧分别向所述关键帧进行对齐;
所述根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像,包括:
针对每一个图像组,将所述图像组中的对齐后的各个待处理视频帧进行融合,获得所述图像组所对应的第一图像;
将获得的各个第一图像分别向所述关键帧进行对齐;
将对齐后的各个第一图像进行融合,获得所述关键帧的真值图像。
5.如权利要求4所述的图像处理方法,其特征在于,所述针对每一个图像组,将所述图像组中的各个待处理视频帧分别向所述关键帧进行对齐,包括:
针对每一个图像组中的每一个待处理视频帧,在所述待处理视频帧中划分得到多个第一图像区域;
对于任一第一图像区域,在所述关键帧中,确定所述第一图像区域所对应的待查找图像区域;
在所述待查找图像区域中,查找与所述第一图像区域的相似度最高的第二图像区域,其中,所述第二图像区域的大小与所述第一图像区域的大小相同;
在所述第一图像区域和所述第二图像区域中,获取匹配点对,其中,所述匹配点对中的两个特征点分别位于所述第一图像区域和所述第二图像区域中;
在获取到所述待处理视频帧与所述关键帧之间的至少一组所述匹配点对之后,根据至少一组所述匹配点对,将所述待处理视频帧向所述关键帧进行对齐。
6.如权利要求1至5任意一项所述的图像处理方法,其特征在于,在从所述待处理视频中,确定关键帧之后,还包括:
针对任一关键帧,从与所述关键帧相邻的M帧待处理视频帧中,获取待剪切视频帧;
从所述关键帧中提取第一图像块;
针对每一个待剪切视频帧,从所述待剪切视频帧中提取第二图像块,其中,所述第二图像块在所述待剪切视频帧中的位置为所述第一图像块在所述关键帧中沿对应的预设偏移方向偏移预设数值后的位置,且所述第二图像块的大小与所述第一图像块的大小相同;
根据所述第一图像块和各个第二图像块,获得训练视频数据;
在根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像之后,还包括:
从所述真值图像中提取与所述第一图像块相对应的真值图像块;
根据所述训练视频数据和所述真值图像块,建立模糊视频-清晰图像训练集。
7.如权利要求1至5任意一项所述的图像处理方法,其特征在于,在根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像之后,还包括:
根据所述待处理视频中的关键帧和所述真值图像,建立模糊-清晰图像训练集。
8.一种图像处理装置,其特征在于,包括:
获取模块,用于获取待处理视频,所述待处理视频中包括针对相同静态场景拍摄得到的多个待处理视频帧;
确定模块,用于从所述待处理视频中,确定关键帧;
对齐模块,用于针对每一个关键帧,将与所述关键帧相关联的待处理视频帧向所述关键帧进行对齐;
处理模块,用于根据对齐后的与所述关键帧相关联的待处理视频帧,获得所述关键帧所对应的真值图像,其中,所述真值图像的清晰度高于所述关键帧。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的图像处理方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的图像处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010717686.1A CN111833285B (zh) | 2020-07-23 | 图像处理方法、图像处理装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010717686.1A CN111833285B (zh) | 2020-07-23 | 图像处理方法、图像处理装置及终端设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111833285A true CN111833285A (zh) | 2020-10-27 |
CN111833285B CN111833285B (zh) | 2024-07-05 |
Family
ID=
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112733823A (zh) * | 2021-03-31 | 2021-04-30 | 南昌虚拟现实研究院股份有限公司 | 手势姿态识别关键帧提取方法、装置及可读存储介质 |
CN112801890A (zh) * | 2021-01-08 | 2021-05-14 | 北京奇艺世纪科技有限公司 | 一种视频处理方法、装置及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105100688A (zh) * | 2014-05-12 | 2015-11-25 | 索尼公司 | 图像处理方法、图像处理装置和监视*** |
US20160042519A1 (en) * | 2014-08-07 | 2016-02-11 | National Taiwan University | Method and image processing device for efficient image depth map generation |
CN109905711A (zh) * | 2019-02-28 | 2019-06-18 | 深圳英飞拓智能技术有限公司 | 一种图像的处理方法、***及终端设备 |
CN110070511A (zh) * | 2019-04-30 | 2019-07-30 | 北京市商汤科技开发有限公司 | 图像处理方法和装置、电子设备及存储介质 |
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105100688A (zh) * | 2014-05-12 | 2015-11-25 | 索尼公司 | 图像处理方法、图像处理装置和监视*** |
US20160042519A1 (en) * | 2014-08-07 | 2016-02-11 | National Taiwan University | Method and image processing device for efficient image depth map generation |
CN109905711A (zh) * | 2019-02-28 | 2019-06-18 | 深圳英飞拓智能技术有限公司 | 一种图像的处理方法、***及终端设备 |
CN110070511A (zh) * | 2019-04-30 | 2019-07-30 | 北京市商汤科技开发有限公司 | 图像处理方法和装置、电子设备及存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112801890A (zh) * | 2021-01-08 | 2021-05-14 | 北京奇艺世纪科技有限公司 | 一种视频处理方法、装置及设备 |
CN112801890B (zh) * | 2021-01-08 | 2023-07-25 | 北京奇艺世纪科技有限公司 | 一种视频处理方法、装置及设备 |
CN112733823A (zh) * | 2021-03-31 | 2021-04-30 | 南昌虚拟现实研究院股份有限公司 | 手势姿态识别关键帧提取方法、装置及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gani et al. | A robust copy-move forgery detection technique based on discrete cosine transform and cellular automata | |
CN108230333B (zh) | 图像处理方法、装置、计算机程序、存储介质和电子设备 | |
CN109116129B (zh) | 终端检测方法、检测设备、***及存储介质 | |
CN110688524B (zh) | 视频检索方法、装置、电子设备及存储介质 | |
CN111131688B (zh) | 一种图像处理方法、装置及移动终端 | |
CN114187333A (zh) | 一种图像对齐方法、图像对齐装置及终端设备 | |
CN112950640A (zh) | 视频人像分割方法、装置、电子设备及存储介质 | |
CN111028276A (zh) | 图像对齐方法、装置、存储介质及电子设备 | |
Zhao et al. | Gradient-based conditional generative adversarial network for non-uniform blind deblurring via DenseResNet | |
CN114119964A (zh) | 一种网络训练的方法及装置、目标检测的方法及装置 | |
CN110837781A (zh) | 一种人脸识别方法、人脸识别装置及电子设备 | |
Liu et al. | Reference-guided texture and structure inference for image inpainting | |
CN112235598B (zh) | 一种视频结构化处理方法、装置及终端设备 | |
CN111222446B (zh) | 人脸识别方法、人脸识别装置及移动终端 | |
CN111311526B (zh) | 视频增强方法、视频增强装置及终端设备 | |
CN111833285B (zh) | 图像处理方法、图像处理装置及终端设备 | |
CN111833285A (zh) | 图像处理方法、图像处理装置及终端设备 | |
CN115690845A (zh) | 一种运动轨迹预测方法及装置 | |
CN115439386A (zh) | 图像融合方法、装置、电子设备和存储介质 | |
CN112487943B (zh) | 关键帧去重的方法、装置和电子设备 | |
CN112669346B (zh) | 一种路面突发状况确定方法及装置 | |
CN112906558B (zh) | 图像特征的提取方法、装置、计算机设备及存储介质 | |
US11423597B2 (en) | Method and system for removing scene text from images | |
CN111178340B (zh) | 图像识别方法及图像识别模型的训练方法 | |
CN113497886B (zh) | 视频处理方法、终端设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |