CN113034384A - 视频处理方法、装置、电子设备以及存储介质 - Google Patents

视频处理方法、装置、电子设备以及存储介质 Download PDF

Info

Publication number
CN113034384A
CN113034384A CN202110220084.XA CN202110220084A CN113034384A CN 113034384 A CN113034384 A CN 113034384A CN 202110220084 A CN202110220084 A CN 202110220084A CN 113034384 A CN113034384 A CN 113034384A
Authority
CN
China
Prior art keywords
video
target
scene
processed
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110220084.XA
Other languages
English (en)
Inventor
李兴龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202110220084.XA priority Critical patent/CN113034384A/zh
Publication of CN113034384A publication Critical patent/CN113034384A/zh
Priority to PCT/CN2022/072089 priority patent/WO2022179335A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

本申请公开了一种视频处理方法、装置、电子设备以及存储介质,涉及电子设备技术领域。该方法应用于电子设备,电子设备包括图像传感器,该方法包括:获取通过图像传感器采集的待处理视频,将待处理视频输入已训练的场景检测模型,获得已训练的场景检测模型输出的待处理视频的采集场景对应的目标场景类型,从预先设置的多个算法中确定与目标场景类型对应的算法作为目标算法,并基于目标算法对待处理视频进行视频增强处理,其中,视频增强处理通过目标算法处理待处理视频中的图像提高待处理视频的视频画质。本申请通过对待处理视频的采集场景对应的场景类型进行识别,并选取与之对应的算法进行视频增强处理,可以提升视频增强效果。

Description

视频处理方法、装置、电子设备以及存储介质
技术领域
本申请涉及电子设备技术领域,更具体地,涉及一种视频处理方法、装置、电子设备以及存储介质。
背景技术
视频增强是一种有效提升视频画质和色彩的技术,所涵盖的算法较为广泛,如视频的对比度提升算法、饱和度提升算法、去燥算法、超分辨率重建算法等,都属于视频增强的算法范畴。但是,目前的所采用的视频增强算法智能解决特定的问题,应用场景单一,造成视频增强效果欠佳。
发明内容
鉴于上述问题,本申请提出了一种视频处理方法、装置、电子设备以及存储介质,以解决上述问题。
第一方面,本申请实施例提供了一种视频处理方法,应用于电子设备,所述电子设备包括图像传感器,所述方法包括:获取通过所述图像传感器采集的待处理视频;将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型;从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理,其中,所述视频增强处理通过所述目标算法处理所述待处理视频中的图像提高所述待处理视频的视频画质。
第二方面,本申请实施例提供了一种视频处理装置,应用于电子设备,所述电子设备包括图像传感器,所述装置包括:待处理视频获取模块,用于获取通过所述图像传感器采集的待处理视频;目标场景类型获得模块,用于将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型;视频增强处理模块,用于从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理,其中,所述视频增强处理通过所述目标算法处理所述待处理视频中的图像提高所述待处理视频的视频画质。
第三方面,本申请实施例提供了一种电子设备,包括存储器和处理器,所述存储器耦接到所述处理器,所述存储器存储指令,当所述指令由所述处理器执行时所述处理器执行上述方法。
第四方面,本申请实施例提供了一种计算机可读取存储介质,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行上述方法。
本申请实施例提供的视频处理方法、装置、电子设备以及存储介质,获取通过图像传感器采集的待处理视频,将待处理视频输入已训练的场景检测模型,获得已训练的场景检测模型输出的待处理视频的采集场景对应的目标场景类型,从预先设置的多个算法中确定与目标场景类型对应的算法作为目标算法,并基于目标算法对待处理视频进行视频增强处理,其中,视频增强处理通过目标算法处理待处理视频中的图像提高待处理视频的视频画质,从而通过对待处理视频的采集场景对应的场景类型进行识别,并选取与之对应的算法进行视频增强处理,可以提升视频增强效果。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出了本申请一个实施例提供的视频处理方法的流程示意图;
图2示出了本申请又一个实施例提供的视频处理方法的流程示意图;
图3示出了本申请的图2所示的视频处理方法的步骤S240的流程示意图;
图4示出了本申请再一个实施例提供的视频处理方法的流程示意图;
图5示出了本申请另一个实施例提供的视频处理方法的流程示意图;
图6示出了本申请又再一个实施例提供的视频处理方法的流程示意图;
图7示出了本申请又另一个实施例提供的视频处理方法的流程示意图;
图8示出了本申请又又再一个实施例提供的视频处理方法的流程示意图;
图9示出了本申请又又另一个实施例提供的视频处理方法的流程示意图;
图10示出了本申请的图9所示的视频处理方法的步骤S810的流程示意图;
图11示出了本申请实施例提供的视频处理装置的模块框图;
图12示出了本申请实施例用于执行根据本申请实施例的视频处理方法的电子设备的框图;
图13示出了本申请实施例的用于保存或者携带实现根据本申请实施例的视频处理方法的程序代码的存储单元。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
视频增强处理可以分为预处理和后处理两种,预处理是在视频生成阶段,编解码前对视频信号进行处理的一种手段,后处理是一种对编码后视频进行再处理以提升其质量的手段。去噪算法、超分辨率重建算法、复原算法等都可作为一种视频预处理手段,大多数的去噪算法会首先分析视频信号中每一帧的噪声特性,然后再根据分析结果对视频进行相应强度的降噪处理;超分辨率重建算法,根据给定的zoom倍率放大视频,在提升分辨率的同时尽可能准确的预测像素值,也可进行等分辨率的视频画质提升处理。
目前,视频预处理方案在电子设备的成像端只能解决特定问题,如降噪算法只能解决视频成像过程中引入的噪声,超分辨率重建算法,只能用来提升视频的分辨等,这些方案的应用场景比较单一。然而在电子设备的相机使用过程中,视频成像过程的随机性很强,大量用户的拍摄录制场景也不可控,面临和需要解决的问题是错综复杂的。如白天室外亮光场景首要解决的不是噪声问题,而是光线、亮度以及色彩等问题,夜晚室外暗光场景需要解决的是亮度、噪声以及视频氛围感问题,单一的算法是无法解决这种多场景问题的。
针对上述问题,发明人经过长期的研究发现,并提出了本申请实施例提供的视频处理方法、装置、电子设备以及存储介质,通过对待处理视频的采集场景对应的场景类型进行识别,并选取与之对应的算法进行视频增强处理,可以提升视频增强效果。其中,具体的视频处理方法在后续的实施例中进行详细的说明。
请参阅图1,图1示出了本申请一个实施例提供的视频处理方法的流程示意图。所述视频处理方法用于通过对待处理视频的采集场景对应的场景类型进行识别,并选取与之对应的算法进行视频增强处理,可以提升视频增强效果。在具体的实施例中,所述视频处理方法应用于如图11所示的视频处理装置200以及配置有视频处理装置200的电子设备100(图12)。下面将以电子设备为例,说明本实施例的具体流程,当然,可以理解的,本实施例所应用的电子设备可以包括智能手机、平板电脑、穿戴式电子设备等,在此不做限定。下面将针对图1所示的流程进行详细的阐述,于本实施例中,电子设备包括图像传感器,所述视频处理方法具体可以包括以下步骤:
步骤S110:获取通过所述图像传感器采集的待处理视频。
在本实施例中,电子设备包括图像传感器,其中,该图像传感器可以包括摄像头、摄像机等用于进行图像采集的传感器。作为一种方式,电子设备可以通过图像传感器进行视频采集作为待处理视频,例如,电子设备可以通过图像传感器在录像模式下进行视频采集作为待处理视频。
在一些实施方式中,当图像传感器为摄像头时,可以通过电子设备的前置摄像头采集待处理视频,例如,通过前置摄像头采集用户在自拍时的视频作为待处理视频;可以通过电子设备的后置摄像头采集待处理视频,例如,通过后置摄像头采集用户在他拍时的视频作为待处理视频;也可以通过电子设备的可转动摄像头采集待处理视频,可以理解的,通过电子设备的可转动摄像头,该电子设备可以通过转动可转动摄像头的方式采集自拍时的视频或他拍时的视频,在此不做限定。
在一些实施方式中,待处理视频可以包括人物、动物、建筑、天空、大海、草地等,在此不做限定。
步骤S120:将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型。
进一步地,电子设备在获取到通过图像传感器采集的待处理视频后,可以将该待处理视频输入已训练的场景检测模型,其中,该已训练的场景检测模型是通过机器学习获得的,具体地,首先采集训练数据集,其中,训练数据集中的一类数据的属性或特征区别于另一类数据,然后通过将采集的训练数据集按照预设的算法对神经网络(场景检测网络)进行训练建模,从而基于该训练数据集总结出规律,得到已训练的场景检测模型。在本实施例中,训练数据集例如可以是存在对应关系的多个视频和多个场景类型。
可以理解的,该已训练的场景检测模型可以预先训练完成后存储在电子设备本地。基于此,电子设备在获取到待处理视频后,可以直接在本地调用该已训练的场景检测模型,例如,可以直接发送指令至场景检测模型,以指示该已训练的场景检测模型在目标存储区域读取该待处理视频,或者电子设备可以直接将该待处理视频输入存储在本地的已训练的场景检测模型,从而有效避免由于网络因素的影响降低待处理视频输入已训练的场景检测模型的速度,以提升已训练的场景检测模型获取待处理视频的速度,提升用户体验。
另外,该已训练的场景检测模型也可以预先训练完成后存储在与电子设备通信连接的服务器。基于此,电子设备在采集到待处理视频后,可以通过网络发送指令至存储在服务器的已训练的场景检测模型,以指示该已训练的场景检测模型通过网络读取电子设备采集的待处理视频,或者电子设备可以通过网络将待处理视频发送至存储在服务器的已训练的场景检测模型,从而通过将已训练的场景检测模型存储在服务器的方式,减少对电子设备的存储空间的占用,降低对电子设备正常运行的影响。
在一些实施方式中,在本实施例中,已训练场景检测模型基于读取的待处理视频输出相应的信息,则电子设备获取该已训练的场景检测模型输出的信息,具体地,电子设备可以获取该已训练的场景检测模型输出的待处理视频的采集场景对应的目标场景类型。可以理解的,若该已训练的场景检测模型存储在移动终端本地,则该电子设备直接获取该已训练的场景检测模型输出的信息;若该已训练的场景检测模型存储在服务器,则该电子设备可以通过网络从服务器获取该已训练的场景检测模型输出的信息。
在一些实施方式中,待处理视频的采集场景对应的目标场景类型可以包括:室内HDR、室外HDR、室内夜景、室外夜景、普通室内场景、普通室外场景等,在此不做限定。
步骤S130:从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理,其中,所述视频增强处理通过所述目标算法处理所述待处理视频中的图像提高所述待处理视频的视频画质。
在一些实施方式中,电子设备可以预先设置并存储有多个算法,多个算法中的每个算法用于对待处理视频进行不同的视频增强处理,其中,多个算法可以包括:HDR算法、增强算法、对比度和饱和度处理算法、夜景算法等,在此不做限定。在本实施例中,在获得待处理视频的采集场景对应的目标场景类型后,可以从预先设置的多个算法中确定与目标场景类型对应的算法作为目标算法,并基于目标算法对待处理视频进行视频增强处理。例如,当目标场景类型为室内DHR时,则可以从HDR算法、增强算法、对比度和饱和度处理算法、夜景算法中确定与室内HDR对应的HDR算法作为目标算法,并基于HDR算法对待处理视频进行视频增强处理,从而通过视频增强处理达到提供待处理视频的视频画质效果。
其中,该视频画质包括清晰度、锐度、镜头畸变、色彩、解析度、色域范围、纯度等,其不同的组合方式可以有不同的视频增强效果。其中,需要说明的是,对待处理视频的视频增强处理还可以理解为在对待处理视频进行正式处理之前所做的一系列操作,包括图像增强和图像复原等,图像增强是通过一定手段对原图像附加一些信息或者变换数据,有选择地突出图像中感兴趣的特征或者抑制图像中某些不需要的特征,使图像与目标优化参数相匹配,从而改善图像质量,加强视觉效果。可以理解的,可以通过该目标算法进行的视频增强处理所对应的优化参数和优化方式对待播放视频资源进行视频增强处理。其中,以优化参数为例进行说明,对待处理视频进行视频增强处理可以包括对待处理视频的曝光度增强、去燥、边缘锐化、对比度增加或饱和度增加中的至少一种。
具体地,电子设备显示的待处理视频为经过解码后的图像内容,由于经过解码之后的图像内容为RGBA格式的数据,为了对图像内容优化,需要将RGBA格式的数据转换为HSV格式,具体地,获取图像内容的直方图,对直方图统计从而获取将RGBA格式的数据转换为HSV格式的参数,在根据该参数将RGBA格式的数据转换为HSV格式。
其中,曝光度增强,用于提高图像的亮度,则可以通过图像的直方图,将亮度值交底的区域增加亮度值,另外,也可以是通过非线性叠加,增加图像亮度,具体地,I表示要处理的较暗图像,T表示处理后的比较亮的图像,则曝光度增强的方式为T(x)=I(x)+(1-I(x))*I(x)。其中,T和I都是[0,1]取值的图像。如果一次效果不好算法可以多次迭代。
其中,对图像内容去噪用于去除图像的噪声,具体地,图像在生成和传输过程中常常因受到各种噪声的干扰和影响而是图像降质,这对后续图像的处理和图像视觉效应将产生不利影响。噪声种类很多,比如:电噪声,机械噪声,信道噪声和其他噪声。因此,为了抑制噪声,改善图像质量,便于更高层次的处理,必须对图像进行去噪预处理。从噪声的概率分布情况来看,可分为高斯噪声、瑞利噪声、伽马噪声、指数噪声和均匀噪声。
具体地,可以通过高斯滤波器对图像去噪,其中,高斯滤波器是一种线性滤波器,能够有效的抑制噪声,平滑图像。其作用原理和均值滤波器类似,都是取滤波器窗口内的像素的均值作为输出。其窗口模板的系数和均值滤波器不同,均值滤波器的模板系数都是相同的为1;而高斯滤波器的模板系数,则随着距离模板中心的增大而系数减小。所以,高斯滤波器相比于均值滤波器对图像模糊程度较小。
例如,产生一个5×5的高斯滤波窗口,以模板的中心位置为坐标原点进行取样。将模板各个位置的坐标带入高斯函数,得到的值就是模板的系数。再将该高斯滤波窗口与图像卷积就能够对图像去噪。
其中,边缘锐化用于使模糊的图像变得更加清晰起来。图像锐化一般有两种方法:一种是微分法,另外一种是高通滤波法。
其中,对比度增加用于增强图像的画质,使得图像内的颜色更加鲜明,具体地,对比度拉伸是图像增强的一种方法,也属于灰度变换操作。通过灰度变换,将灰度值拉伸到整个0-255的区间,那么其对比度显然是大幅增强的。可以用如下的公式来将某个像素的灰度值映射到更大的灰度空间:
I(x,y)=[(I(x,y)-Imin)/(Imax-Imin)](MAX-MIN)+MIN;
其中Imin,Imax是原始图像的最小灰度值和最大灰度值,MIN和MAX是要拉伸到的灰度空间的灰度最小值和最大值。
因此,基于目标算法进行的显示增强处理的优化参数可能包括上述优化参数中的一种或几种,可以根据目标算法所包含的优化参数对所述待处理视频进行处理,以得到与所述待处理视频的采集场景对应的目标场景类型相匹配的视频增强效果。
本申请一个实施例提供的视频处理方法,获取通过图像传感器采集的待处理视频,将待处理视频输入已训练的场景检测模型,获得已训练的场景检测模型输出的待处理视频的采集场景对应的目标场景类型,从预先设置的多个算法中确定与目标场景类型对应的算法作为目标算法,并基于目标算法对待处理视频进行视频增强处理,其中,视频增强处理通过目标算法处理待处理视频中的图像提高待处理视频的视频画质,从而通过对待处理视频的采集场景对应的场景类型进行识别,并选取与之对应的算法进行视频增强处理,可以提升视频增强效果。
请参阅图2,图2示出了本申请又一个实施例提供的视频处理方法的流程示意图。该方法应用于上述电子设备,该电子设备包括图像传感器,下面将针对图2所示的流程进行详细的阐述,所述视频处理方法具体可以包括以下步骤:
步骤S210:获取通过所述图像传感器采集的待处理视频。
步骤S220:将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型。
其中,步骤S210-步骤S220的具体描述请参阅步骤S110-步骤S1230,在此不再赘述。
步骤S230:获取所述图像传感器的检测参数。
在本实施例中,可以获取图像传感器的检测参数,其中,该检测参数可以包括曝光参数AE、白平衡参数AWB、人脸检测参数FD中的至少一个。
在一些实施方式中,可以开启电子设备的exif功能,在通过图像传感器采集待处理视频时,可以通过liveshot的方式采集待处理视频,其中,所采集的待处理视频包括多帧图像,多帧图像中的每帧图像可以记为img1,则可以基于img1获取图像传感器的检测参数。
步骤S240:基于所述检测参数对所述目标场景类型进行验证,获得验证结果。
在本实施例中,在获得图像传感器的检测参数后,可以基于该检测参数对已训练的场景检测模型输出的目标场景类型进行验证,获得验证结果。例如,当检测参数为曝光参数时,可以基于曝光参数对目标场景类型进行验证,获得验证结果;当检测参数为白平衡参数时,可以基于白平衡参数对目标场景类型进行验证,获得验证结果;当检测参数为曝光参数和白平衡参数时,可以基于曝光参数和白平衡参数对目标场景类型进行验证,获得验证结果。
请参阅图3,图3示出了本申请的图2所示的视频处理方法的步骤S240的流程示意图。下面将针对图3所示的流程进行详细的阐述,所述方法具体可以包括以下步骤:
步骤S241:基于所述目标场景类型对应的预设公式对所述检测参数进行计算,获得分数值。
在一些实施方式中,电子设备可以预先设置并存储有各个场景类型对应的预设公式,因此,在本实施例中,可以基于电子设备预先设置的各个场景类型对应的预设公式,确定目标场景类型对应的预设公式,并基于该目标场景类型对应的预设公式对检测参数进行计算,获得分数值。
例如,以目标场景类型为逆光场景,检测参数为曝光参数为例,其中,曝光参数主要影响参数是lux_index(值越小,场景亮度越高)和drcGain(值越大,场景动态越高);该逆光场景对应的预设公式可以为:
Figure BDA0002954429510000071
其中,luxbase和Drcbase为电子设备预先根据逆光场景设置的基础参数,lux和Drc根据图像传感器的曝光参数获得,ω表示lux_index和drcGain加权时lux_index的权重,(1-ω)表示lux_index和drcGain加权时drcGain的权重。因此,在获得曝光参数后,可以基于
Figure BDA0002954429510000072
对根据曝光参数得到的lux和Drc进行计算,获得分数值。
步骤S242:将所述分数值与所述目标场景类型对应的分数阈值进行比较,获得比较结果。
在一些实施方式中,电子设备可以预先设置并存储有各个场景类型对应的分数阈值,因此,在本实施例中,可以基于电子设备预先设置的各个场景类型对应的分数阈值,确定目标场景类型对应的分数阈值,并将计算获得的分数值与分数阈值进行比较,获得比较结果。作为一种方式,电子设备在预先设置各个场景类型对应的分数阈值时,可以根据待处理视频的处理情况进行分数阈值的大小调整,例如,由于待处理视频在输入已训练的场景检测模型之前先进行ISP处理,而ISP处理过程中可能涉及到图像的裁切,而曝光参数统计的信息是全分辨率的视频帧,所以曝光参数的置信度会有所降低,因此,在通过曝光参数做判断时,可以将目标场景类型对应的分数阈值设置的低一些,间接的提高以训练的场景检测模型在分类校准的影响权重。
其中,分数值和分数阈值的比较结果包括:分数值大于分数阈值、分数值等于分数阈值、分数值小于分数阈值。在一些实施方式中,当分数值与目标场景类型对应的分数阈值的比较结果表征分数值大于分数阈值时,则可以确定验证结果满足目标场景类型对应的场景条件,则可以从预先设置的多个算法中确定与目标场景类型对应的算法作为目标算法,并基于目标算法对待处理视频进行视频增强处理。例如,假设分数阈值为Scorethr,那么,当
Figure BDA0002954429510000081
时,可以确定验证结果满足目标场景类型对应的场景条件。
步骤S250:当所述验证结果满足所述目标场景类型对应的场景条件时,从所述预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法。
在一些实施方式中,电子设备可以预先设置并存储有各个场景类型对应的场景条件,例如,假设场景类型包括室内HDR、室外HDR、室内夜景、室外夜景、普通室内场景、普通室外场景,则电子设备可以预先设置并存储室内HDR对应第一场景条件、室外HDR对应第二场景条件、室内夜景对应第三场景条件、室外夜景对应第四场景条件、普通室内场景对应第五场景条件、普通室外场景对应第六场景条件。因此,在本实施例中,可以基于电子设备预先设置的各个场景类型对应的场景条件,确定目标场景类型对应的场景条件,并将验证结果与目标场景类型对应的场景条件进行比较,以判断验证结果是否满足目标场景类型对应的场景条件,其中,当验证结果满足目标场景类型对应的场景条件时,确定已训练的场景检测模型输出的目标场景类型的准确性高,则可以从预先设置的多个算法中确定与目标场景类型对应的算法作为目标算法。
步骤S260:基于所述检测参数和所述目标场景类型对所述目标算法的参数进行调整,获得调整后的目标算法。
在本实施例中,在获得图像传感器的检测参数并确定目标场景类型对应的目标算法后,可以基于该检测参数和目标场景类型对目标算法的参数(控制参数、超参)进行调整,获得调整后的目标算法。
检测参数可以自适应的调整算法的参数(一些算法提供的超参),进而调节特定算法对待处理视频的处理强弱程度;例如,以检测参数为曝光参数,场景类型为暗光场景为例,根据曝光参数的lux_index和gain值来确定夜景算法中提亮程度和去噪程度;以检测参数为曝光参数,场景类型为逆光场景为例,根据曝光参数的lux_index、drcGain以及darkBoostGain等值来确定高光的抑制程度以及暗区的提亮程度等。同样的白平衡参数可以辅助色彩、饱和度处理相关的算法。
步骤S270:基于所述调整后的目标算法对所述待处理视频进行视频增强处理。
在本实施例中,在获得调整后的目标算法后,可以基于调整后的目标算法对待处理视频进行视频增强处理,从而可以提升视频增强处理的效果。
本申请又一个实施例提供的视频处理方法,相较于图1所示的视频处理方法,本实施例还获取图像传感器的检测参数,并基于图像传感器的检测参数对已训练的场景检测模型输出的目标场景类型进行验证,获得验证结果,以及在验证结果满足目标场景类型对应的场景条件时,再获取对应的目标算法对待处理视频进行视频增强处理,从而可以提升场景类型识别判断的准确性,以及提升视频增强处理的效果。另外,本实施例还根据图像传感器的检测参数和目标场景类型对目标算法的参数进行调整,并通过进行参数调整后的目标算法对待处理视频进行视频增强处理,可以提升视频增强效果。
请参阅图4,图4示出了本申请再一个实施例提供的视频处理方法的流程示意图。该方法应用于上述电子设备,该电子设备包括图像传感器,下面将针对图4所示的流程进行详细的阐述,所述视频处理方法具体可以包括以下步骤:
步骤S310:获取通过所述图像传感器采集的待处理视频。
其中,步骤S310的具体描述请参阅步骤S110,在此不再赘述。
步骤S320:从所述待处理视频包括的多帧图像中获取第一待处理图像。
在一些实施方式中,在通过已训练的场景检测模型进行场景类型的检测时,是对待处理视频中的单帧图像进行检测,因此,在本实施例中,可以从待处理视频包括的多帧图像中获取一帧图像作为第一待处理图像。作为一种方式,在获取通过图像传感器采集的待处理视频后,可以对待处理视频进行IPS处理,并从经过IPS处理的待处理视频包括的多帧图像中获取第一待处理图像。作为另一种方式,在获取通过图像传感器采集的待处理视频后,可以对待处理视频进行dump IPS处理,并从经过dump IPS处理的待处理视频包括的多帧图像中获取第一待处理图像。
步骤S330:对所述第一待处理图像进行下采样处理获得目标待处理图像。
在本实施例中,在获得第一待处理图像后,可以对第一待处理图像进行下采样处理获得目标待处理图像,并将目标待处理图像作为已训练的场景检测模型的输入参数,可以通过减小输入参数的大小的方式,节省电子设备的功耗、内存以及已训练的场景检测模型的场景类型的检测耗时。作为一种方式,目标待处理图像的大小可以为:256×256,当然,该目标待处理图像的大小还可以根据已训练的场景检测模型的规模和具体需求而改变。
步骤S340:将所述目标待处理图像输入所述已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述第一待处理图像的采集场景对应的目标场景类型,作为所述待处理视频的采集场景对应的目标场景类型。
步骤S350:从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理。
其中,步骤S340-步骤S350的具体描述请参阅步骤S120-步骤S130,在此不再赘述。
本申请再一个实施例提供的视频处理方法,相较于图1所示的视频处理方法,本实施例还对待处理视频中的待处理图像进行下采样处理获得目标待处理图像,并将目标待处理图像作为输入参数输入已训练的场景检测模型进行场景类型的检测,从而通过减小输入参数的大小的方式节省电子设备的功耗、内存以及检测耗时。
请参阅图5,图5示出了本申请另一个实施例提供的视频处理方法的流程示意图。该方法应用于上述电子设备,该电子设备包括图像传感器,下面将针对图5所示的流程进行详细的阐述,所述视频处理方法具体可以包括以下步骤:
步骤S410:获取通过所述图像传感器采集的待处理视频。
其中,步骤S410的具体描述请参阅步骤S110,在此不再赘述。
步骤S420:从所述待处理视频包括的多帧图像中,按预设帧数间隔依次获取一帧图像作为第二待处理图像。
其中,待处理视频是由连续的多帧图像组成。在本实施例中,可以从待处理视频包括的多帧图像中,按预设帧数间隔依次获取一帧图像作为第二待处理图像,并将所获取的第二待处理图像作为已训练的场景检测模型进行场景类型的检测,即,场景类型的检测可以每N帧进行一次(如每5帧进行依次),这样可以降低功耗和减少资源消耗,同时还可以降低场景频繁切换引入的显示闪烁问题的概率,提升用户的使用体验。
例如,假设待处理视频包括10帧图像,则可以不将待处理视频的10帧图像均输入已训练的场景检测模型进行场景类型的检测,而是从10帧图像中选择部分帧图像(如选择第1帧图像、第5帧图像以及第10帧)图像输入已训练的场景检测模型进行场景类型的检测,从而降低功耗和减少资源消耗,同时还可以降低场景频繁切换引入的显示闪烁问题的概率,提升用户的使用体验。
步骤S430:将所述第二待处理图像输入所述已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述第二待处理图像的采集场景对应的目标场景类型,作为所述待处理视频的采集场景对应的目标场景类型。
步骤S440:从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理。
其中,步骤S430-步骤S440的具体描述请参阅步骤S120-步骤S130,在此不再赘述。
本申请另一个实施例提供的视频处理方法,相较于图1所示的视频处理方法,本实施例还从待处理视频包括的多帧图像中,按预设帧数间隔依次获取一帧图像作为待处理图像,并将待处理图像作为输入参数输入已训练的场景检测模型进行场景类型的检测,从而降低场景频繁切换引入的显示闪烁问题的概率,提升用户的使用体验。
请参阅图6,图6示出了本申请又再一个实施例提供的视频处理方法的流程示意图。该方法应用于上述电子设备,该电子设备包括图像传感器,下面将针对图6所示的流程进行详细的阐述,所述视频处理方法具体可以包括以下步骤:
步骤S510:获取通过所述图像传感器采集的待处理视频。
步骤S520:将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型。
步骤S530:从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理。
其中,步骤S510-步骤S530的具体描述请参阅步骤S110-步骤S130,在此不再赘述。
步骤S540:当所述待处理视频的采集场景对应的场景类型发生变化时,获取所述待处理视频的采集场景对应的场景类型的变化频率。
在本实施例中,在通过目标场景类型对应的目标算法对待处理视频进行处理的过程中,可以继续对待处理视频的采集场景对应的场景类型进行检测,以判断待处理视频的采集场景对应的场景类型是否发生变化,其中,当检测到待处理视频的采集场景对应的场景类型发生变化(检测到待处理视频的采集场景对应的场景类型不是目标场景类型)时,则可以获取待处理视频的采集场景对应的场景类型的变化频率。
步骤S550:当所述变化频率大于频率阈值时,继续基于所述目标算法对所述待处理视频进行视频增强处理。
在一些实施方式中,电子设备可以预先设置并存储有频率阈值,该频率阈值用于作为待处理视频的采集场景对应的场景类型的变化频率的判断依据。因此,在本实施例中,在获得变化频率时,可以将变化频率与频率阈值进行比较,以判断该变化频率是否大于频率阈值,获得判断结果。
其中,当该判断结果表征变化频率大于频率阈值时,则可以确定待处理视频对应的采集场景频繁切换,而场景的频繁切换,可能会造成显示频繁切换时闪烁和不平滑的现象,因此,当确定变化频率大于频率阈值时,则可以继续基于目标算法对待处理视频进行视频增强处理,即不进行算法的切换。
其中,当该判断结果表征变化频率不大于频率阈值时,则可以确定待处理视频对应的采集场景正常切换,不会造成显示频繁切换时闪烁和不平滑的现象,因此,当确定变化频率不大于频率阈值时,则可以切换算法对待处理视频进行显示增强处理。
作为一种方式,可以首先创建一个全局队列Qi,其中,用于Qi保存过去M次场景类型检测的结果,则可以统计队列Qi中所检测到的场景类型的个数,记为SceneNum,若SceneNum大于指定的阈值Scenethr,则认为场景切换较为频繁,即场景的变化频率大于频率阈值,则丢弃当前的检测结果,并输出上一次的场景类型检测结果(但是队列Qi会根据当前检测结果进行更新),直到SceneNum小于阈值Scenethr为止。
本申请又再一个实施例提供的视频处理方法,相较于图1所示的视频处理方法,本实施例还在待处理视频的场景场景对应的场景类型发生变化时,如果其变化频率大于频率阈值时,则继续基于目标算法对待处理视频进行视频增强处理,从而降低场景频繁切换引入的显示闪烁问题的概率,提升用户的使用体验。
请参阅图7,图7示出了本申请又另一个实施例提供的视频处理方法的流程示意图。该方法应用于上述电子设备,该电子设备包括图像传感器,下面将针对图7所示的流程进行详细的阐述,在本实施例中,目标场景类型为第一目标场景类型,目标算法为第一目标算法,所述视频处理方法具体可以包括以下步骤:
步骤S610:获取通过所述图像传感器采集的待处理视频。
步骤S620:将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型。
步骤S630:从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理。
其中,步骤S610-步骤S630的具体描述请参阅步骤S110-步骤S130,在此不再赘述。
步骤S640:当所述待处理视频的采集场景对应的场景类型从所述第一目标场景类型变化为第二目标场景类型时,获取所述场景类型连续从所述第一目标场景类型变化为所述第二目标场景类型的次数。
在本实施例中,在通过第一目标场景类型对应的第一目标算法对待处理视频进行处理的过程中,可以继续对待处理视频的采集场景对应的场景类型进行检测,以判断待处理视频的采集场景对应的场景类型是否发生变化,其中,当检测到待处理视频的采集场景对应的场景类型从第一目标场景类型变化为第二目标场景类型时,可以获取场景类型连续从第一目标场景类型变化为第二目标场景类型的次数。
在一些实施方式中,当当前帧首次检测到待处理视频的采集场景对应的场景类型从第一目标场景类型变化为第二目标场景类型时,则可以记录一次变化,并继续基于第一目标算法对待处理视频进行视频增强处理,在当前帧的下一帧检测到待处理视频的采集场景对应的场景类型从第一目标场景类型变化为第二目标场景类型时,则可以累积一次变化,而在当前帧的下一帧检测到待处理视频的采集场景对应的场景类型未发生变化,或者从第一目标场景类型变化为与第二目标场景类型不同的其他目标场景类型时,则将记录的次数清零。
步骤S650:当所述次数达到预设次数时,从所述预先设置的多个算法中确定与所述第二目标场景类型对应的算法作为第二目标算法,并基于所述第二目标算法对所述待处理视频进行视频增强处理。
在一些实施方式中,电子设备可以预先设置并存储有预设次数,该预设次数用于作为场景类型连续从第一目标场景类型变化为第二目标场景类型的次数的判断依据。因此,在本实施例中,在场景类型连续从第一目标场景类型变化为第二目标场景类型的次数后,可以将该次数与预设次数进行比较,其中,当次数达到次数阈值时,则可以从预先设置的多个算法中确定与第二目标场景类型对应的算法作为第二目标算法,并基于第二目标算法对待处理视频进行视频增强处理,当次数未达到次数阈值时,则可以继续基于第一目标算法对待处理视频进行视频增强处理。
本申请又另一个实施例提供的视频处理方法,相较于图1所示的视频处理方法,本实施例还在待处理视频的采集场景对应的场景类型从第一目标场景类型变化为第二目标场景类型时,获取场景类型连续从第一目标场景类型变化为第二目标场景类型的次数,在次数达到预设次数时,获取第二目标场景类型对应的第二目标算法对待处理视频进行视频增强处理,,从而降低场景频繁切换引入的显示闪烁问题的概率,提升用户的使用体验。
请参阅图8,图8示出了本申请又又再一个实施例提供的视频处理方法的流程示意图。该方法应用于上述电子设备,该电子设备包括图像传感器,下面将针对图8所示的流程进行详细的阐述,在本实施例中,目标场景类型为第一目标场景类型,目标算法为第一目标算法,所述视频处理方法具体可以包括以下步骤:
步骤S710:获取通过所述图像传感器采集的待处理视频。
步骤S720:将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型。
步骤S730:从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理。
其中,步骤S710-步骤S730的具体描述请参阅步骤S110-步骤S130,在此不再赘述。
步骤S740:当所述待处理视频的采集场景对应的场景类型从所述第一目标场景类型变化为第二目标场景类型时,从所述预先设置的多个算法中确定与所述第二目标场景类型对应的算法作为第二目标算法。
在本实施例中,在通过第一目标场景类型对应的第一目标算法对待处理视频进行处理的过程中,可以继续对待处理视频的采集场景对应的场景类型进行检测,以判断待处理视频的采集场景对应的场景类型是否发生变化,其中,当检测到待处理视频的采集场景对应的场景类型从第一目标场景类型变化为第二目标场景类型时,则可以从预先设置的多个算法中确定与第二目标场景类型对应的算法作为第二目标算法。其中,第一目标场景类型和第二目标场景类型不同,第一目标算法和第二目标算法不同。
步骤S750:基于所述第一目标算法对所述待处理视频进行视频增强处理,并逐渐降低所述目标算法的输出参数对应的权重。
其中,为了防止硬切换算法(将第一目标算法切换为第二目标算法)引入闪烁的问题,需要进行一个平滑的过渡。于本实施例中,可以采用融合算法input和output的策略进行算法间的过渡,具体地址,可以继续基于第一目标算法对待处理视频进行视频增强处理,并逐渐降低第一目标算法的输出参数对应的权重。作为一种方式,可以继续基于第一目标算法对待处理视频进行视频增强处理,并逐渐降低第一目标算法的输出参数对应的权重以及提高第一目标算法的输入参数对应的权重,其中,第一目标算法的输出参数对应的权重和第一目标算法算法的输入参数对应的权重之和始终等于1。
步骤S760:当所述第一目标算法的输出参数对应的权重降低到预设权重时,基于所述第二目标算法对所述待处理视频进行视频增强处理,并逐渐提高所述第二目标算法对应的输出参数对应的权重。
在一些实施方式中,电子设备可以预先设置并存储有预设权重,该预设权重用于作为第一目标算法的输出参数对应的权重的降低参照值,因此,在本实施例中,在第一目标算法的输出参数对应的权重降低的过程中,可以检测第一目标算法的输出参数对应的权重是否降低到预设权重,其中,当第一目标算法的输出参数对应的权重降低到预设权重时,可以停止基于第一目标算法对待处理视频进行视频增强处理,以及开始基于第二目标算法对待处理视频进行视频增强处理,并逐渐提高第二目标算法的输出参数对应的权重。作为一种方式,可以基于第二目标算法对待处理视频进行视频增强处理,并逐渐提高第二目标算法的输出参数对应的权重以及降低第二目标算法的输入参数对应的权重,其中,第二目标算法的输出参数对应的权重和第二目标算法的输入参数对应的权重之和为1。
在一些实施方式中,该预设权重为0。则当第一目标算法的输出参数对应的权重降低到0时,可以停止基于第一目标算法对待处理视频进行视频增强处理,以及开始基于第二目标算法对待处理视频进行视频增强处理,并逐渐提高第二目标算法的输出参数对应的权重,直到第二目标算法的输出参数对应的权重提高到1时保持。
在一些实施方式中,可以设置一个全局状态变量S(取值范围0、1、2)和一个全局的帧数统计变量F(取值范围0~N*n,也即15(每5帧进行一次场景类型的检测,连续3帧从一个场景类型切换为另一个场景时执行切换));针对状态变量S和帧数统计变量F:当S=0时,表示没有出现场景类型切换,保持当前状态,同时帧数统计变量F逐帧加1,然后将F clip到0~15之间(也即F=Min(F,15),F=Max(F,0));当S=1时,表示场景类型检测结果出现了变换,由于采用了延时机制,因此不会立即进行算法的切换,此时帧数统计变量F开始逐帧减1,然后再将F clip到0~15之间;当S=2时,表示连续N次的场景检测结果均为另一场景,此时需要将算法切换到另一场景所对应的算法,同时帧数统计变量F开始逐帧加1,再将其clip到0~15之间,并将S置为零。
基于Fusion的算法过渡逻辑,主要是将算法的输入参数记为input和算法的输出output进行加权融合,从一个算法切换到另一各算法时,先逐渐降低前一算法的output占比,当其降为零时,算法也会相应的切换到另一模式,此时逐渐增加新算法模式的output占比,直至其权重为1。如表1所示,其中,表1以N*n=6为例。
表1
Figure BDA0002954429510000141
本申请又又再一个实施例提供的视频处理方法,相较于图1所示的视频处理方法,本实施例还在待处理视频的采集场景对应的场景类型从第一目标场景类型变化为第二目标场景类型时,基于第一目标算法对待处理进行视频增强处理,并逐渐降低目标算法的输出参数对应的权重,以及在目标算法的输出参数对应的权重降低到预设权重时,基于第二目标场景类型对应的第二目标算法对待处理视频进行视频增强处理,并逐渐提高第二目标算法对应的输出参数对应的权重,以提升显示的顺滑切换。
请参阅图9,图9示出了本申请又又另一个实施例提供的视频处理方法的流程示意图。该方法应用于上述电子设备,该电子设备包括图像传感器,下面将针对图9所示的流程进行详细的阐述,所述视频处理方法具体可以包括以下步骤:
步骤S810:获取训练数据集,其中,所述训练数据集包括多个训练视频和多个训练场景类型,所述多个训练视频和所述多个训练场景类型一一对应。
在本实施例中,首先获取训练数据集。其中,该训练数据集可以包括多个训练视频和多个训练场景类型,多个训练视频和多个训练场景类型一一对应。作为一种方式,该多个视频可以由图像传感器采集获得,多个训练场景类型可以由用户手动标注获得。
在一些实施方式中,该训练数据集可以为电子设备的本地存储的,可以为其他设备存储并发送至电子设备的,可以为从服务器存储并发送至电子设备的,还可以为电子设备实时采集的等,在此不做限定。
请参阅图10,图10示出了本申请的图9所示的视频处理方法的步骤S810的流程示意图。于本实施例中,多个训练视频包括目标训练视频,多个训练场景类型包括目标训练场景类型,目标训练视频和目标训练场景类型对应,下面将针对图10所示的流程进行详细的阐述,所述方法具体可以包括以下步骤:
步骤S811:获取所述目标训练视频以及所述目标训练视频对应的待确认场景类型。
在本实施例中,可以获取目标训练视频以及该目标训练视频对应的待确定场景类型,其中,该目标训练视频对应的待确定场景类型可以由人工识别和标注。
步骤S812:获取所述图像传感器采集所述目标训练视频时的目标检测参数。
在本实施例中,可以获取图像传感器采集目标训练视频时的目标检测参数,其中,该目标检测参数可以包括曝光参数AE、白平衡参数AWB、人脸检测参数FD中的至少一个。
在一些实施方式中,可以开启电子设备的exif功能,在通过图像传感器采集目标训练视频时,可以通过liveshot的方式采集目标训练视频,其中,所采集的目标训练视频包括多帧图像,多帧图像中的每帧图像可以记为img1,则可以基于img1获取图像传感器的目标检测参数。
步骤S813:基于所述目标检测参数对所述待确认场景类型进行验证,获得目标验证结果。
在本实施例中,在获得图像传感器的目标检测参数后,可以基于该目标检测参数对人工标注待确认场景类型进行验证,获得验证结果。例如,当目标检测参数为曝光参数时,可以基于曝光参数对待确认场景类型进行验证,获得验证结果;当目标检测参数为白平衡参数时,可以基于白平衡参数对待确认场景类型进行验证,获得验证结果;当目标检测参数为曝光参数和白平衡参数时,可以基于曝光参数和白平衡参数对待确认场景类型进行验证,获得验证结果。
步骤S814:当所述目标验证结果满足所述待确认场景类型对应的场景条件时,将所述待确认场景类型确定为所述目标训练场景类型。
在一些实施方式中,电子设备可以预先设置并存储有各个场景类型对应的场景条件。因此,在本实施例中,可以基于电子设备预先设置的各个场景类型对应的场景条件,确定待确认场景类型对应的场景条件,并将验证结果与待确认场景类型对应的场景条件进行比较,以判断验证结果是否满足待确认场景类型对应的场景条件,其中,当验证结果满足待确认场景类型对应的场景条件时,则将待确认场景类型确定为目标训练场景类型,从而提升训练数据集的准确性,提升场景检测的模型训练效果。
步骤S820:将所述多个训练视频作为输入参数,所述多个训练场景类型作为输出参数,对场景检测网络进行训练,获得已训练的场景检测模型。
作为一种方式,在获得多个训练视频和多个训练场景类型后,可以将多个训练视频和多个训练场景类型作为训练数据集对场景检测网络进行训练,以获得已训练的场景检测模型。在一些实施方式中,可以将多个训练视频作为输入参数,将多个训练场景类型作为输出参数对场景检测网络进行训练,获得已训练的场景检测网络。另外,在获得已训练的场景检测网络后,还可以对该已训练的场景检测网络的准确性进行验证,并判断该已训练的场景检测网络基于输入的视频输出的场景类型是否满足预设要求,当该已训练的场景检测网络基于输入的视频输出的场景类型不满足预设要求时,可以重新采集训练数据集对场景检测网络进行训练,或者再获取多个训练数据集对已训练的场景检测网络进行校正,在此不做限定。
步骤S830:获取通过所述图像传感器采集的待处理视频。
步骤S840:将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型。
步骤S850:从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理。
其中,步骤S830-步骤S850的具体描述请参阅步骤S110-步骤S130,在此不再赘述。
本申请又又另一个实施例提供的视频处理方法,相较于图1所示的视频处理方法,本实施例还获取训练数据集,并通过训练数据集对场景检测网络进行训练,获得已训练的场景检测模型,从而提升通过已训练的场景检测模型进行场景类型检测的准确性。
请参阅图11,图11示出了本申请实施例提供的视频处理装置的模块框图。该视频处理装置200应用于上述电子设备,该电子设备包括图像传感器,下面将针对图11所示的框图进行阐述,所述视频处理装置200包括:待处理视频获取模块210、目标场景类型获得模块220以及视频增强处理模块230,其中:
待处理视频获取模块210,用于获取通过所述图像传感器采集的待处理视频。
进一步地,所述待处理视频获取模块210包括:训练数据集获取模块和模型训练模块,其中:
训练数据集获取模块,用于获取训练数据集,其中,所述训练数据集包括多个训练视频和多个训练场景类型,所述多个训练视频和所述多个训练场景类型一一对应。
进一步地,所述训练数据集获取模块包括:待确认场景类型获取子模块、目标检测参数获取子模块、目标验证结果获得子模块以及目标训练场景类型确定子模块,其中:
待确认场景类型获取子模块,用于获取所述目标训练视频以及所述目标训练视频对应的待确认场景类型。
目标检测参数获取子模块,用于获取所述图像传感器采集所述目标训练视频时的目标检测参数。
目标验证结果获得子模块,用于基于所述目标检测参数对所述待确认场景类型进行验证,获得目标验证结果。
目标训练场景类型确定子模块,用于当所述目标验证结果满足所述待确认场景类型对应的场景条件时,将所述待确认场景类型确定为所述目标训练场景类型。
模型训练模块,用于将所述多个训练视频作为输入参数,所述多个训练场景类型作为输出参数,对场景检测网络进行训练,获得已训练的场景检测模型。
目标场景类型获得模块220,用于将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型。
进一步地,所述目标场景类型获得模块220包括:第一待处理图像获取子模块、目标待处理图像获得子模块以及第一目标场景类型获得子模块,其中:
第一待处理图像获取子模块,用于从所述待处理视频包括的多帧图像中获取第一待处理图像。
目标待处理图像获得子模块,用于对所述第一待处理图像进行下采样处理获得目标待处理图像。
第一目标场景类型获得子模块,用于将所述目标待处理图像输入所述已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述第一待处理图像的采集场景对应的目标场景类型,作为所述待处理视频的采集场景对应的目标场景类型。
进一步地,所述目标场景类型获得模块220包括:第二待处理图像获取子模块和第二目标场景类型获得子模块,其中:
第二待处理图像获取子模块,用于从所述待处理视频包括的多帧图像中,按预设帧数间隔依次获取一帧图像作为第二待处理图像。
第二目标场景类型获得子模块,用于将所述第二待处理图像输入所述已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述第二待处理图像的采集场景对应的目标场景类型,作为所述待处理视频的采集场景对应的目标场景类型。
视频增强处理模块230,用于从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理,其中,所述视频增强处理通过所述目标算法处理所述待处理视频中的图像提高所述待处理视频的视频画质。
进一步对,所述视频增强处理模块230包括:检测参数获取子模块、验证结果获得子模块以及第一视频增强处理子模块,其中:
检测参数获取子模块,用于获取所述图像传感器的检测参数。
验证结果获得子模块,用于基于所述检测参数对所述目标场景类型进行验证,获得验证结果。
进一步地,所述验证结果获得子模块包括:分数值获得单元和比较结果获得单元,其中:
分数值获得单元,用于基于所述目标场景类型对应的预设公式对所述检测参数进行计算,获得分数值。
比较结果获得单元,用于将所述分数值与所述目标场景类型对应的分数阈值进行比较,获得比较结果。
第一视频增强处理子模块,用于当所述验证结果满足所述目标场景类型对应的场景条件时,从所述预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理。
进一步地,所述第一视频增强处理子模块包括:视频增强处理单元,其中:
视频增强处理单元,用于当所述比较结果表征所述分数值大于所述分数阈值时,从所述预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理。
进一步地,所述视频增强处理模块包括:目标算法确定子模块、目标算法调整子模块以及第二视频增强处理子模块,其中:
目标算法确定子模块,用于从所述预先设置的多个算法中确定与所述目标场景类型对应的算法作为所述目标算法。
目标算法调整子模块,用于基于所述检测参数和所述目标场景类型对所述目标算法的参数进行调整,获得调整后的目标算法。
第二视频增强处理子模块,用于基于所述调整后的目标算法对所述待处理视频进行视频增强处理。
进一步地,所述视频处理装置200还包括:变化频率获取模块和视频增强保持模块,其中:
变化频率获取模块,用于当所述待处理视频的采集场景对应的场景类型发生变化时,获取所述待处理视频的采集场景对应的场景类型的变化频率。
视频增强保持模块,用于当所述变化频率大于频率阈值时,继续基于所述目标算法对所述待处理视频进行视频增强处理。
进一步地,所述目标场景类型为第一目标场景类型,所述目标算法为第一目标算法,所述视频处理装置200还包括:次数获取模块和视频增强切换处理模块,其中:
次数获取模块,用于当所述待处理视频的采集场景对应的场景类型从所述第一目标场景类型变化为第二目标场景类型时,获取所述场景类型连续从所述第一目标场景类型变化为所述第二目标场景类型的次数。
视频增强切换处理模块,用于当所述次数达到预设次数时,从所述预先设置的多个算法中确定与所述第二目标场景类型对应的算法作为第二目标算法,并基于所述第二目标算法对所述待处理视频进行视频增强处理。
进一步地,所述目标场景类型为第一目标场景类型,所述目标算法为第一目标算法,所述视频处理装置200还包括:第二目标算法确定模块、权重降低模块以及权重提高模块,其中:
第二目标算法确定模块,用于当所述待处理视频的采集场景对应的场景类型从所述第一目标场景类型变化为第二目标场景类型时,从所述预先设置的多个算法中确定与所述第二目标场景类型对应的算法作为第二目标算法。
权重降低模块,用于基于所述第一目标算法对所述待处理视频进行视频增强处理,并逐渐降低所述目标算法的输出参数对应的权重。
权重提高模块,用于当所述第一目标算法的输出参数对应的权重降低到预设权重时,基于所述第二目标算法对所述待处理视频进行视频增强处理,并逐渐提高所述第二目标算法对应的输出参数对应的权重。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,模块相互之间的耦合可以是电性,机械或其它形式的耦合。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
请参阅图12,其示出了本申请实施例提供的一种电子设备100的结构框图。该电子设备100可以是智能手机、平板电脑、电子书等能够运行应用程序的电子设备。本申请中的电子设备100可以包括一个或多个如下部件:处理器110、存储器120、图像传感器130以及一个或多个应用程序,其中一个或多个应用程序可以被存储在存储器120中并被配置为由一个或多个处理器110执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。
其中,处理器110可以包括一个或者多个处理核。处理器110利用各种接口和线路连接整个电子设备100内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行电子设备100的各种功能和处理数据。可选地,处理器110可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(ProgrammableLogic Array,PLA)中的至少一种硬件形式来实现。处理器110可集成中央处理器(CentralProcessing Unit,CPU)、图形处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作***、用户界面和应用程序等;GPU用于负责待显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器110中,单独通过一块通信芯片进行实现。
存储器120可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作***的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储电子设备100在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
请参阅图13,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读介质300中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质300可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质300包括非易失性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质300具有执行上述方法中的任何方法步骤的程序代码310的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码310可以例如以适当形式进行压缩。
综上所述,本申请实施例提供的视频处理方法、装置、电子设备以及存储介质,获取通过图像传感器采集的待处理视频,将待处理视频输入已训练的场景检测模型,获得已训练的场景检测模型输出的待处理视频的采集场景对应的目标场景类型,从预先设置的多个算法中确定与目标场景类型对应的算法作为目标算法,并基于目标算法对待处理视频进行视频增强处理,其中,视频增强处理通过目标算法处理待处理视频中的图像提高待处理视频的视频画质,从而通过对待处理视频的采集场景对应的场景类型进行识别,并选取与之对应的算法进行视频增强处理,可以提升视频增强效果。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (15)

1.一种视频处理方法,其特征在于,应用于电子设备,所述电子设备包括图像传感器,所述方法包括:
获取通过所述图像传感器采集的待处理视频;
将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型;
从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理,其中,所述视频增强处理通过所述目标算法处理所述待处理视频中的图像提高所述待处理视频的视频画质。
2.根据权利要求1所述的方法,其特征在于,所述从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理,包括:
获取所述图像传感器的检测参数;
基于所述检测参数对所述目标场景类型进行验证,获得验证结果;
当所述验证结果满足所述目标场景类型对应的场景条件时,从所述预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理。
3.根据权利要求2所述的方法,其特征在于,所述基于所述检测参数对所述目标场景类型进行验证,获得验证结果,包括:
基于所述目标场景类型对应的预设公式对所述检测参数进行计算,获得分数值;
将所述分数值与所述目标场景类型对应的分数阈值进行比较,获得比较结果;
所述当所述验证结果满足所述目标场景类型对应的场景条件时,从所述预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理,包括:
当所述比较结果表征所述分数值大于所述分数阈值时,从所述预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理。
4.根据权利要求2所述的方法,其特征在于,所述从所述预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理,包括:
从所述预先设置的多个算法中确定与所述目标场景类型对应的算法作为所述目标算法;
基于所述检测参数和所述目标场景类型对所述目标算法的参数进行调整,获得调整后的目标算法;
基于所述调整后的目标算法对所述待处理视频进行视频增强处理。
5.根据权利要求2所述的方法,其特征在于,所述检测参数包括曝光参数、白平衡参数以及人脸检测参数中的至少一个。
6.根据权利要求1所述的方法,其特征在于,所述将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型,包括:
从所述待处理视频包括的多帧图像中获取第一待处理图像;
对所述第一待处理图像进行下采样处理获得目标待处理图像;
将所述目标待处理图像输入所述已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述第一待处理图像的采集场景对应的目标场景类型,作为所述待处理视频的采集场景对应的目标场景类型。
7.根据权利要求1所述的方法,其特征在于,所述将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型,包括:
从所述待处理视频包括的多帧图像中,按预设帧数间隔依次获取一帧图像作为第二待处理图像;
将所述第二待处理图像输入所述已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述第二待处理图像的采集场景对应的目标场景类型,作为所述待处理视频的采集场景对应的目标场景类型。
8.根据权利要求1所述的方法,其特征在于,所述从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理之后,还包括:
当所述待处理视频的采集场景对应的场景类型发生变化时,获取所述待处理视频的采集场景对应的场景类型的变化频率;
当所述变化频率大于频率阈值时,继续基于所述目标算法对所述待处理视频进行视频增强处理。
9.根据权利要求1所述的方法,其特征在于,所述目标场景类型为第一目标场景类型,所述目标算法为第一目标算法,所述从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理之后,还包括:
当所述待处理视频的采集场景对应的场景类型从所述第一目标场景类型变化为第二目标场景类型时,获取所述场景类型连续从所述第一目标场景类型变化为所述第二目标场景类型的次数;
当所述次数达到预设次数时,从所述预先设置的多个算法中确定与所述第二目标场景类型对应的算法作为第二目标算法,并基于所述第二目标算法对所述待处理视频进行视频增强处理。
10.根据权利要求1所述的方法,其特征在于,所述目标场景类型为第一目标场景类型,所述目标算法为第一目标算法,所述从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理之后,还包括:
当所述待处理视频的采集场景对应的场景类型从所述第一目标场景类型变化为第二目标场景类型时,从所述预先设置的多个算法中确定与所述第二目标场景类型对应的算法作为第二目标算法;
基于所述第一目标算法对所述待处理视频进行视频增强处理,并逐渐降低所述目标算法的输出参数对应的权重;
当所述第一目标算法的输出参数对应的权重降低到预设权重时,基于所述第二目标算法对所述待处理视频进行视频增强处理,并逐渐提高所述第二目标算法对应的输出参数对应的权重。
11.根据权利要求1-10任一项所述的方法,其特征在于,所述将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型之前,还包括:
获取训练数据集,其中,所述训练数据集包括多个训练视频和多个训练场景类型,所述多个训练视频和所述多个训练场景类型一一对应;
将所述多个训练视频作为输入参数,所述多个训练场景类型作为输出参数,对场景检测网络进行训练,获得已训练的场景检测模型。
12.根据权利要求11所述的方法,其特征在于,所述多个训练视频包括目标训练视频,所述多个训练场景类型包括目标训练场景类型,所述目标训练视频和所述目标训练场景类型对应,所述获取训练数据集,包括:
获取所述目标训练视频以及所述目标训练视频对应的待确认场景类型;
获取所述图像传感器采集所述目标训练视频时的目标检测参数;
基于所述目标检测参数对所述待确认场景类型进行验证,获得目标验证结果;
当所述目标验证结果满足所述待确认场景类型对应的场景条件时,将所述待确认场景类型确定为所述目标训练场景类型。
13.一种视频处理装置,其特征在于,应用于电子设备,所述电子设备包括图像传感器,所述装置包括:
待处理视频获取模块,用于获取通过所述图像传感器采集的待处理视频;
目标场景类型获得模块,用于将所述待处理视频输入已训练的场景检测模型,获得所述已训练的场景检测模型输出的所述待处理视频的采集场景对应的目标场景类型;
视频增强处理模块,用于从预先设置的多个算法中确定与所述目标场景类型对应的算法作为目标算法,并基于所述目标算法对所述待处理视频进行视频增强处理,其中,所述视频增强处理通过所述目标算法处理所述待处理视频中的图像提高所述待处理视频的视频画质。
14.一种电子设备,其特征在于,包括存储器和处理器,所述存储器耦接到所述处理器,所述存储器存储指令,当所述指令由所述处理器执行时所述处理器执行如权利要求1-12任一项所述的方法。
15.一种计算机可读取存储介质,其特征在于,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行如权利要求1-12任一项所述的方法。
CN202110220084.XA 2021-02-26 2021-02-26 视频处理方法、装置、电子设备以及存储介质 Pending CN113034384A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110220084.XA CN113034384A (zh) 2021-02-26 2021-02-26 视频处理方法、装置、电子设备以及存储介质
PCT/CN2022/072089 WO2022179335A1 (zh) 2021-02-26 2022-01-14 视频处理方法、装置、电子设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110220084.XA CN113034384A (zh) 2021-02-26 2021-02-26 视频处理方法、装置、电子设备以及存储介质

Publications (1)

Publication Number Publication Date
CN113034384A true CN113034384A (zh) 2021-06-25

Family

ID=76462040

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110220084.XA Pending CN113034384A (zh) 2021-02-26 2021-02-26 视频处理方法、装置、电子设备以及存储介质

Country Status (2)

Country Link
CN (1) CN113034384A (zh)
WO (1) WO2022179335A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780252A (zh) * 2021-11-11 2021-12-10 深圳思谋信息科技有限公司 视频处理模型的训练方法、视频处理方法和装置
CN114266749A (zh) * 2021-12-23 2022-04-01 上海卓繁信息技术股份有限公司 一种基于TridentNet的图像处理方法
CN114363579A (zh) * 2022-01-21 2022-04-15 中国铁塔股份有限公司 一种监控视频的共享方法、装置及电子设备
WO2022179335A1 (zh) * 2021-02-26 2022-09-01 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备以及存储介质
CN116246209A (zh) * 2023-03-09 2023-06-09 彩虹鱼科技(广东)有限公司 基于偏移卷积核的广角镜头生物目标检测方法
CN116866638A (zh) * 2023-07-31 2023-10-10 联通沃音乐文化有限公司 一种基于影像的智能视频处理方法和***
CN116958331A (zh) * 2023-09-20 2023-10-27 四川蜀天信息技术有限公司 一种音画同步的调整方法、装置和电子设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116894768B (zh) * 2023-09-11 2023-11-21 成都航空职业技术学院 一种基于人工智能的目标检测优化方法和***
CN117671594A (zh) * 2023-12-08 2024-03-08 中化现代农业有限公司 安全监控方法、装置、电子设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109525901A (zh) * 2018-11-27 2019-03-26 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质
CN109685726A (zh) * 2018-11-27 2019-04-26 Oppo广东移动通信有限公司 游戏场景处理方法、装置、电子设备以及存储介质
US20200151858A1 (en) * 2017-07-27 2020-05-14 SZ DJI Technology Co., Ltd. Image contrast enhancement method and device, and storage medium
CN111416950A (zh) * 2020-03-26 2020-07-14 腾讯科技(深圳)有限公司 视频处理方法、装置、存储介质及电子设备
CN111581433A (zh) * 2020-05-18 2020-08-25 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113034384A (zh) * 2021-02-26 2021-06-25 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备以及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200151858A1 (en) * 2017-07-27 2020-05-14 SZ DJI Technology Co., Ltd. Image contrast enhancement method and device, and storage medium
CN109525901A (zh) * 2018-11-27 2019-03-26 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质
CN109685726A (zh) * 2018-11-27 2019-04-26 Oppo广东移动通信有限公司 游戏场景处理方法、装置、电子设备以及存储介质
CN111416950A (zh) * 2020-03-26 2020-07-14 腾讯科技(深圳)有限公司 视频处理方法、装置、存储介质及电子设备
CN111581433A (zh) * 2020-05-18 2020-08-25 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022179335A1 (zh) * 2021-02-26 2022-09-01 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备以及存储介质
CN113780252A (zh) * 2021-11-11 2021-12-10 深圳思谋信息科技有限公司 视频处理模型的训练方法、视频处理方法和装置
CN114266749A (zh) * 2021-12-23 2022-04-01 上海卓繁信息技术股份有限公司 一种基于TridentNet的图像处理方法
CN114363579A (zh) * 2022-01-21 2022-04-15 中国铁塔股份有限公司 一种监控视频的共享方法、装置及电子设备
CN114363579B (zh) * 2022-01-21 2024-03-19 中国铁塔股份有限公司 一种监控视频的共享方法、装置及电子设备
CN116246209A (zh) * 2023-03-09 2023-06-09 彩虹鱼科技(广东)有限公司 基于偏移卷积核的广角镜头生物目标检测方法
CN116246209B (zh) * 2023-03-09 2024-02-13 彩虹鱼科技(广东)有限公司 基于偏移卷积核的广角镜头生物目标检测方法
CN116866638A (zh) * 2023-07-31 2023-10-10 联通沃音乐文化有限公司 一种基于影像的智能视频处理方法和***
CN116866638B (zh) * 2023-07-31 2023-12-15 联通沃音乐文化有限公司 一种基于影像的智能视频处理方法和***
CN116958331A (zh) * 2023-09-20 2023-10-27 四川蜀天信息技术有限公司 一种音画同步的调整方法、装置和电子设备
CN116958331B (zh) * 2023-09-20 2024-01-19 四川蜀天信息技术有限公司 一种音画同步的调整方法、装置和电子设备

Also Published As

Publication number Publication date
WO2022179335A1 (zh) 2022-09-01

Similar Documents

Publication Publication Date Title
WO2022179335A1 (zh) 视频处理方法、装置、电子设备以及存储介质
EP3611915B1 (en) Method and apparatus for image processing
CN109685726B (zh) 游戏场景处理方法、装置、电子设备以及存储介质
Rao et al. A Survey of Video Enhancement Techniques.
US11127117B2 (en) Information processing method, information processing apparatus, and recording medium
JP7266672B2 (ja) 画像処理方法および画像処理装置、ならびにデバイス
US10257449B2 (en) Pre-processing for video noise reduction
US20230080693A1 (en) Image processing method, electronic device and readable storage medium
WO2018136373A1 (en) Image fusion and hdr imaging
CN109640169B (zh) 视频增强控制方法、装置以及电子设备
CN112889069B (zh) 用于提高低照度图像质量的方法、***和计算机可读介质
CN109587558B (zh) 视频处理方法、装置、电子设备以及存储介质
CN112272832A (zh) 用于基于dnn的成像的方法和***
WO2021179764A1 (zh) 图像处理模型生成方法、处理方法、存储介质及终端
WO2020108010A1 (zh) 视频处理方法、装置、电子设备以及存储介质
JP2004310475A (ja) 画像処理装置、画像処理を行う携帯電話、および画像処理プログラム
WO2023137956A1 (zh) 图像处理方法、装置、电子设备及存储介质
CN114302226B (zh) 一种视频画幅智能裁剪方法
CN115984570A (zh) 一种视频去噪方法、装置、存储介质和电子装置
CN111192213A (zh) 图像去雾自适应参数的计算方法、图像去雾方法及***
CN112839167A (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN113011433A (zh) 一种滤波参数调整方法及装置
CN114584831B (zh) 提高视频清晰度的视频优化处理方法、装置、设备和存储介质
CN115471413A (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
CN115719314A (zh) 一种去拖影方法、去拖影装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination