CN104079934A - 一种实时视频通信中的感兴趣区域提取方法 - Google Patents

一种实时视频通信中的感兴趣区域提取方法 Download PDF

Info

Publication number
CN104079934A
CN104079934A CN201410333331.7A CN201410333331A CN104079934A CN 104079934 A CN104079934 A CN 104079934A CN 201410333331 A CN201410333331 A CN 201410333331A CN 104079934 A CN104079934 A CN 104079934A
Authority
CN
China
Prior art keywords
macro block
interest
area
information
human eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410333331.7A
Other languages
English (en)
Other versions
CN104079934B (zh
Inventor
王中元
朱婧雅
周治龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Suirui cloud Technology Co. Ltd.
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201410333331.7A priority Critical patent/CN104079934B/zh
Publication of CN104079934A publication Critical patent/CN104079934A/zh
Application granted granted Critical
Publication of CN104079934B publication Critical patent/CN104079934B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种实时视频通信中的感兴趣区域提取方法,本发明首先对视频图像中的运动区域和亮度区域进行提取,同时将视频图像划分为结构化纹理,平滑纹理,随机纹理三个区域。根据人眼对运动的区域,亮度较高的区域以及结构化纹理区域较为感兴趣的特点,对运动信息,亮度信息和纹理信息设置不同的权重,最终综合得出人眼对各个区域的感兴趣程度。本发明基于人眼的视觉特性,根据人眼对视频图像中不同区域感兴趣程度的不同,对视频中感兴趣区域进行分级提取,从而使提取的感兴趣区域更为细致准确,有利于对不同的区域采用不同的编码方式,提高视频的压缩率。

Description

一种实时视频通信中的感兴趣区域提取方法
技术领域
本发明属于数字视频技术领域,涉及一种实时视频通信中的感兴趣区域提取方法,具体而言,基于本发明方法可以提取视频中的人眼感兴趣区域,以达到为视频不同区域选择不同压缩率的编码,缓解视频压缩率和视频质量之间矛盾的目的。
背景技术
随着科学技术的高速发展,视频作为视觉信息的主要载体已经深入到人们生活的方方面面。再加上近年来通信领域的高速发展,人们在进行通信时不再停留于语言信号的传输,而是希望能够通过视频通信来获取更多的信息。然而在实时视频通信中,网络的带宽是有限的,因此平衡视频质量和视频压缩率十分重要。由于人们在观看视频的过程中往往只对视频中较小部分的关注度较高,而对大多数视频区域的关注度较小,因此可以有选择性的提取那些人眼关注度较高的区域,即感兴趣区域。在对视频进行编码的过程中,对感兴趣区域进行更精细化的编码,而对人眼不太感兴趣的区域进行相对粗略的编码,这样可以很好的缓解在视频编解码过程中视频质量与视频压缩率的矛盾。因此,怎样更准确的提取视频中的感兴趣区域成为亟待解决的问题。
目前感兴趣区域提取方法主要分为三类:
(1)基于运动目标的感兴趣区域提取方法,即将人眼较为关注运动区域作为感兴趣区域进行提取;
(2)基于图像分割的感兴趣区域提取方法,即将图像分割为若干具有独特性质的区域,并从中提取出感兴趣的区域;
(3)基于视觉特征的感兴趣区域提取方法,即将观察者能从中获取更多信息的区域作为感兴趣区域。
以上方法均存在各自的局限性,例如感兴趣区域提取不准确,易受光照变化影响,计算复杂度高等问题。
发明内容
为了解决上述的技术问题,本发明的目的在于提供一种实时视频通信中感兴趣区域的提取方法。该方法可以更准确的从视频中提取人眼感兴趣区域,达到平衡视频质量和视频压缩率的目的。
本发明所采用的技术方案是:一种实时视频通信中的感兴趣区域提取方法,用于从视频中提取人眼感兴趣区域,其特征在于,包括以下步骤:
步骤1:从第一帧视频图像开始,依次获取一帧视频图像;
步骤2:将该帧图像转换成灰度图像,并分成若干宏块;
步骤3:从第一个宏块开始,依次获取一个宏块;
步骤4:检测该宏块是否属于运动区域,得到该宏块的运动状态信息并记录结果;
步骤5:检测该宏块是否属于亮度区域,得到该宏块的亮度状态信息并记录结果;
步骤6:检测该宏块的纹理类型,得到该宏块的纹理类型信息并记录结果;
步骤7:根据该宏块的运动状态信息、亮度状态信息和纹理类型信息,计算人眼对该宏块的感兴趣程度,从而进行感兴趣区域划分;
步骤8:判断,步骤7所述的宏块是否是最后一个宏块;
若否,则获取下一个宏块,并回转执行所述的步骤4;
若是,则顺序执行下述步骤9;
步骤9:判断,步骤8所述的视频图像是否是最后一帧;
若否,则获取下一帧,并回转执行所述的步骤2;
若是,则感兴趣区域划分完毕。
作为优选,步骤2中所述的将该帧图像转换成灰度图像并分成若干宏块,其为16×16大小的宏块。
作为优选,步骤4中所述的检测该宏块是否属于运动区域,其具体实现是利用HEXAGON搜索模式及迭代最小二乘法得出该宏块的运动向量,利用算式
M F ( x , y ) = 3 , if | MV x ( x , y ) | + | MV y ( x , y ) | = 0 0 , if | MV x ( x , y ) | + | MV y ( x , y ) | ≠ 0
检测该宏块是否属于运动区域并记录结果,其中x,y标识该宏块的坐标,MF(x,y)表示运动状态信息,MVx(x,y)表示该宏块x方向上的运动向量,MVy(x,y)表示该宏块y方向上的运动向量。
作为优选,步骤5中所述的检测该宏块是否属于亮度区域,其具体实现是基于图像熵得出判断该宏块是否属于亮度区域的阈值,利用算式
E ( x , y ) = 1 , if L MBA ( x , y ) &GreaterEqual; T , ( x , y ) 0 , if L MBA ( x , y ) < T , ( x , y )
检测该宏块是否属于亮度区域并记录结果,其中x,y标识该宏块的坐标,E(x,y)表示亮度状态信息,LMBA(x,y)表示该宏块的平均亮度,T’(x,y)表示判断阈值。
作为优选,步骤6中所述的检测该宏块的纹理类型,其具体实现是利用模版卷积的方法判断该宏块的纹理类型,利用算式
T c ( x , y ) = 1 , if C d = 0 2 , if C d = 1 2 - C e , if C d = 2 1 - C e , if C d = 3 0 , other
判断该宏块的纹理类型并记录结果,其中x,y标识该宏块的坐标,TC(x,y)表示纹理信息,Ce表示边缘复杂因素,若被判断为边缘像素点的像素数大于设定的阈值,Ce=1,反之,Ce=0;Cd表示方向复杂因素,初始值设为0,若被判断为属于某个方向的像素点数大于设定的阈值,则Cd=Cd+1。
作为优选,步骤7中所述的计算人眼对该宏块的感兴趣程度,其具体实现是利用算式
V s ( x , y ) = T c ( x , y ) , if 0 &le; VP ( x , y ) &le; t 1 3 , if t 1 &le; VP ( x , y ) &le; t 2 4 if VP ( x , y ) > t 2
计算人眼对该宏块的感兴趣程度,其中x,y标识该宏块的坐标,Vs(x,y)表示综合考虑前景运动物体、亮度信息及纹理信息后,人眼对该宏块的关注程度,TC(x,y)表示纹理信息,t1、t2为设定的阈值,VP(x,y)表示人眼对该宏块区域所关注的程度,VP(x,y)由下式得出:
VP(x,y)=max{Tc(x,y)+ξE(x,y),Tc(x,y)+ξMF(x,y)}
其中x,y标识该宏块的坐标,TC(x,y)表示该宏块的纹理类型信息,E(x,y)表示该宏块的亮度状态信息,MF(x,y)表示该宏块的运动状态信息,ξ代表该宏块的亮度信息在人眼关注度中所占的权重。
由人眼的视觉特性可知,人眼对图像中不同区域感兴趣程度由大到小依次为:运动区域、亮度区域、纹理区域。本发明首先对视频图像中的运动区域和亮度区域进行提取,同时将视频图像划分为结构化纹理,平滑纹理,随机纹理三个区域。根据人眼对运动的区域,亮度较高的区域以及结构化纹理区域较为感兴趣的特点,对运动信息,亮度信息和纹理信息设置不同的权重,最终综合得出人眼对各个区域的感兴趣程度。本发明基于人眼的视觉特性,根据人眼对视频图像中不同区域感兴趣程度的不同,对视频中感兴趣区域进行分级提取,从而使提取的感兴趣区域更为细致准确,有利于对不同的区域采用不同的编码方式,提高视频的压缩率。
本发明具有以下优点和积极效果:
1)本发明将三种感兴趣区域提取方法有效结合在一起,弥补了使用单一方法进行感兴趣区域提取时的不足,例如易受光照影响,计算复杂度高等;
2)本发明根据人眼感兴趣程度的不同将视频图像区域分为五个等级,比其他的感兴趣区域提取方法分级更为精细,有利于更灵活的为不同区域选择不同的编码方式,提高视频的压缩率。
附图说明
图1:本发明实施例的方法流程图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
请见图1,本发明所采用的技术方案是:一种实时视频通信中的感兴趣区域提取方法,包括以下步骤:
步骤1:从第一帧视频图像开始,依次获取一帧视频图像。
步骤2:将该帧图像转换成灰度图像,并分成16×16大小的宏块。
步骤3:从第一个宏块开始,依次获取一个宏块。
步骤4:检测该宏块是否属于运动区域,得到该宏块的运动状态信息并记录结果;其中检测该宏块是否属于运动区域,具体实现是利用HEXAGON搜索模式及迭代最小二乘法得出该宏块的运动向量,利用算式
M F ( x , y ) = 3 , if | MV x ( x , y ) | + | MV y ( x , y ) | = 0 0 , if | MV x ( x , y ) | + | MV y ( x , y ) | &NotEqual; 0
检测该宏块是否属于运动区域并记录结果,其中x,y标识该宏块的坐标,MF(x,y)表示运动状态信息,MVx(x,y)表示该宏块x方向上的运动向量,MVy(x,y)表示该宏块y方向上的运动向量,即当该宏块处于运动状态时,MF(x,y)赋值为3,此处3表示设置的人眼对运动区域的感兴趣程度,当该宏块不处于运动状态时,MF(x,y)赋值为0;
步骤5:检测该宏块是否属于亮度区域,得到该宏块的亮度状态信息并记录结果;其中检测该宏块是否属于亮度区域,具体实现是基于图像熵得出判断该宏块是否属于亮度区域的阈值,利用算式
E ( x , y ) = 1 , if L MBA ( x , y ) &GreaterEqual; T , ( x , y ) 0 , if L MBA ( x , y ) < T , ( x , y )
检测该宏块是否属于亮度区域并记录结果,其中x,y标识该宏块的坐标,E(x,y)表示亮度状态信息,LMBA(x,y)表示该宏块的平均亮度,T’(x,y)表示判断阈值,即当该宏块属于亮度区域时,E(x,y)赋值为1,当该宏块不属于亮度区域时,E(x,y)赋值为0;步骤S52保存亮度信息E(x,y)。
步骤6:检测该宏块的纹理类型,得到该宏块的纹理类型信息并记录结果;其中检测该宏块的纹理类型,具体实现是利用模版卷积的方法判断该宏块的纹理类型,将每一个像素点通过不同方向的滤波器,若某一个像素点通过各个方向的滤波器的值都小于设定的阈值,该像素点就被判定为平滑像素点,否则,该像素点就为边缘像素点,该边缘像素点所处纹理的方向与通过滤波器值最大的滤波器的方向一致。利用算式
T c ( x , y ) = 1 , if C d = 0 2 , if C d = 1 2 - C e , if C d = 2 1 - C e , if C d = 3 0 , other
判断该宏块的纹理类型并记录结果,其中x,y标识该宏块的坐标,TC(x,y)表示纹理信息,Ce表示边缘复杂因素,若被判断为边缘像素点的像素数大于设定的阈值,Ce=1,反之,Ce=0。Cd表示方向复杂因素,初始值设为0,若被判断为属于某个方向的像素点数大于设定的阈值,Cd=Cd+1。保存纹理信息TC(x,y),其取值范围为0、1、2,分别对应随机纹理、平滑纹理、结构化纹理,表示人眼对纹理信息的感兴趣程度。
步骤7:根据该宏块的运动状态信息、亮度状态信息和纹理类型信息,计算人眼对该宏块的感兴趣程度,从而进行感兴趣区域划分;其中计算人眼对该宏块的感兴趣程度,具体实现是利用算式
V s ( x , y ) = T c ( x , y ) , if 0 &le; VP ( x , y ) &le; t 1 3 , if t 1 &le; VP ( x , y ) &le; t 2 4 if VP ( x , y ) > t 2
计算人眼对该宏块的感兴趣程度,其中x,y标识该宏块的坐标,Vs(x,y)表示综合考虑前景运动物体、亮度信息及纹理信息后,人眼对该宏块的关注程度,Vs(x,y)的值越大,表明人眼对其关注度越高,TC(x,y)表示纹理信息,t1、t2为设定的阈值,VP(x,y)表示人眼对该宏块区域所关注的程度,VP(x,y)由下式得出:
VP(x,y)=max{Tc(x,y)+ξE(x,y),Tc(x,y)+ξMF(x,y)}
其中x,y标识该宏块的坐标,TC(x,y)表示该宏块的纹理类型信息,E(x,y)表示该宏块的亮度状态信息,MF(x,y)表示该宏块的运动状态信息,ξ代表该宏块的亮度信息在人眼关注度中所占的权重。
步骤8:判断,步骤7中处理的宏块是否是最后一个宏块;
若否,则获取下一个宏块,并回转执行步骤4;
若是,则顺序执行下述步骤9;
步骤9:判断,步骤8中处理的视频图像是否是最后一帧;
若否,则获取下一帧,并回转执行步骤2;
若是,则感兴趣区域划分完毕。
本发明将视频感兴趣区域进行分级提取,有效避免了采取单一方式进行感兴趣区域提取的不足,使提取的感兴趣区域更为准确,分级更为精细,有利于更灵活的为视频不同区域选择不同的编码方式,提高视频的压缩率。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (6)

1.一种实时视频通信中的感兴趣区域提取方法,用于从视频中提取人眼感兴趣区域,其特征在于,包括以下步骤:
步骤1:从第一帧视频图像开始,依次获取一帧视频图像;
步骤2:将该帧图像转换成灰度图像,并分成若干宏块;
步骤3:从第一个宏块开始,依次获取一个宏块;
步骤4:检测该宏块是否属于运动区域,得到该宏块的运动状态信息并记录结果;
步骤5:检测该宏块是否属于亮度区域,得到该宏块的亮度状态信息并记录结果;
步骤6:检测该宏块的纹理类型,得到该宏块的纹理类型信息并记录结果;
步骤7:根据该宏块的运动状态信息、亮度状态信息和纹理类型信息,计算人眼对该宏块的感兴趣程度,从而进行感兴趣区域划分;
步骤8:判断,步骤7所述的宏块是否是最后一个宏块;
若否,则获取下一个宏块,并回转执行所述的步骤4;
若是,则顺序执行下述步骤9;
步骤9:判断,步骤8所述的视频图像是否是最后一帧;
若否,则获取下一帧,并回转执行所述的步骤2;
若是,则感兴趣区域划分完毕。
2.根据权利要求1所述的实时视频通信中的感兴趣区域提取方法,其特征在于:步骤2中所述的将该帧图像转换成灰度图像并分成若干宏块,其为16×16大小的宏块。
3.根据权利要求1所述的实时视频通信中的感兴趣区域提取方法,其特征在于:步骤4中所述的检测该宏块是否属于运动区域,其具体实现是利用HEXAGON搜索模式及迭代最小二乘法得出该宏块的运动向量,利用算式
M F ( x , y ) = 3 , if | MV x ( x , y ) | + | MV y ( x , y ) | = 0 0 , if | MV x ( x , y ) | + | MV y ( x , y ) | &NotEqual; 0
检测该宏块是否属于运动区域并记录结果,其中x,y标识该宏块的坐标,MF(x,y)表示运动状态信息,MVx(x,y)表示该宏块x方向上的运动向量,MVy(x,y)表示该宏块y方向上的运动向量。
4.根据权利要求1所述的实时视频通信中的感兴趣区域提取方法,其特征在于:步骤5中所述的检测该宏块是否属于亮度区域,其具体实现是基于图像熵得出判断该宏块是否属于亮度区域的阈值,利用算式
E ( x , y ) = 1 , if L MBA ( x , y ) &GreaterEqual; T , ( x , y ) 0 , if L MBA ( x , y ) < T , ( x , y )
检测该宏块是否属于亮度区域并记录结果,其中x,y标识该宏块的坐标,E(x,y)表示亮度状态信息,LMBA(x,y)表示该宏块的平均亮度,T’(x,y)表示判断阈值。
5.根据权利要求1所述的实时视频通信中的感兴趣区域提取方法,其特征在于:步骤6中所述的检测该宏块的纹理类型,其具体实现是利用模版卷积的方法判断该宏块的纹理类型,利用算式
T c ( x , y ) = 1 , if C d = 0 2 , if C d = 1 2 - C e , if C d = 2 1 - C e , if C d = 3 0 , other
判断该宏块的纹理类型并记录结果,其中x,y标识该宏块的坐标,TC(x,y)表示纹理信息,Ce表示边缘复杂因素,若被判断为边缘像素点的像素数大于设定的阈值,Ce=1,反之,Ce=0;Cd表示方向复杂因素,初始值设为0,若被判断为属于某个方向的像素点数大于设定的阈值,则Cd=Cd+1。
6.根据权利要求1所述的实时视频通信中的感兴趣区域提取方法,其特征在于:步骤7中所述的计算人眼对该宏块的感兴趣程度,其具体实现是利用算式
V s ( x , y ) = T c ( x , y ) , if 0 &le; VP ( x , y ) &le; t 1 3 , if t 1 &le; VP ( x , y ) &le; t 2 4 if VP ( x , y ) > t 2
计算人眼对该宏块的感兴趣程度,其中x,y标识该宏块的坐标,Vs(x,y)表示综合考虑前景运动物体、亮度信息及纹理信息后,人眼对该宏块的关注程度,TC(x,y)表示纹理信息,t1、t2为设定的阈值,VP(x,y)表示人眼对该宏块区域所关注的程度,VP(x,y)由下式得出:
VP(x,y)=max{Tc(x,y)+ξE(x,y),Tc(x,y)+ξMF(x,y)}
其中x,y标识该宏块的坐标,TC(x,y)表示该宏块的纹理类型信息,E(x,y)表示该宏块的亮度状态信息,MF(x,y)表示该宏块的运动状态信息,ξ代表该宏块的亮度信息在人眼关注度中所占的权重。
CN201410333331.7A 2014-07-14 2014-07-14 一种实时视频通信中的感兴趣区域提取方法 Active CN104079934B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410333331.7A CN104079934B (zh) 2014-07-14 2014-07-14 一种实时视频通信中的感兴趣区域提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410333331.7A CN104079934B (zh) 2014-07-14 2014-07-14 一种实时视频通信中的感兴趣区域提取方法

Publications (2)

Publication Number Publication Date
CN104079934A true CN104079934A (zh) 2014-10-01
CN104079934B CN104079934B (zh) 2017-02-15

Family

ID=51600944

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410333331.7A Active CN104079934B (zh) 2014-07-14 2014-07-14 一种实时视频通信中的感兴趣区域提取方法

Country Status (1)

Country Link
CN (1) CN104079934B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107087163A (zh) * 2017-06-26 2017-08-22 杭州当虹科技有限公司 一种提升hdr视频主观质量的编码方法
CN110072103A (zh) * 2019-03-15 2019-07-30 西安电子科技大学 基于roi的视频快速压缩方法、高清视频***、4k视频***
CN111479112A (zh) * 2020-06-23 2020-07-31 腾讯科技(深圳)有限公司 一种视频编码方法、装置、设备和存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101533512A (zh) * 2009-04-24 2009-09-16 西安电子科技大学 基于人类视觉注意***的图像感兴趣区域自动提取方法
US20100046804A1 (en) * 2007-01-16 2010-02-25 Xueming Henry Gu System and method for reducing artifacts in images
CN101697593A (zh) * 2009-09-08 2010-04-21 武汉大学 一种基于时域预测的关注度提取方法
CN101882316A (zh) * 2010-06-07 2010-11-10 深圳市融创天下科技发展有限公司 一种图像区域划分/编码方法、装置及***
CN102129698A (zh) * 2011-03-08 2011-07-20 华中科技大学 一种基于感兴趣区域的图像编码方法
US8115821B2 (en) * 2002-08-09 2012-02-14 Ricoh Company, Ltd. Method and apparatus for setting a region of interest in image data
CN103297754A (zh) * 2013-05-02 2013-09-11 上海交通大学 一种监控视频自适应感兴趣区域编码***
CN103618900A (zh) * 2013-11-21 2014-03-05 北京工业大学 基于编码信息的视频感兴趣区域提取方法
CN103678680A (zh) * 2013-12-25 2014-03-26 吉林大学 基于感兴趣区域多元空间关系模型的图像分类方法
CN103870827A (zh) * 2014-02-21 2014-06-18 杭州奥视图像技术有限公司 一种结合颜色与纹理的车牌检测方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8115821B2 (en) * 2002-08-09 2012-02-14 Ricoh Company, Ltd. Method and apparatus for setting a region of interest in image data
US20100046804A1 (en) * 2007-01-16 2010-02-25 Xueming Henry Gu System and method for reducing artifacts in images
CN101533512A (zh) * 2009-04-24 2009-09-16 西安电子科技大学 基于人类视觉注意***的图像感兴趣区域自动提取方法
CN101697593A (zh) * 2009-09-08 2010-04-21 武汉大学 一种基于时域预测的关注度提取方法
CN101882316A (zh) * 2010-06-07 2010-11-10 深圳市融创天下科技发展有限公司 一种图像区域划分/编码方法、装置及***
CN102129698A (zh) * 2011-03-08 2011-07-20 华中科技大学 一种基于感兴趣区域的图像编码方法
CN103297754A (zh) * 2013-05-02 2013-09-11 上海交通大学 一种监控视频自适应感兴趣区域编码***
CN103618900A (zh) * 2013-11-21 2014-03-05 北京工业大学 基于编码信息的视频感兴趣区域提取方法
CN103678680A (zh) * 2013-12-25 2014-03-26 吉林大学 基于感兴趣区域多元空间关系模型的图像分类方法
CN103870827A (zh) * 2014-02-21 2014-06-18 杭州奥视图像技术有限公司 一种结合颜色与纹理的车牌检测方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107087163A (zh) * 2017-06-26 2017-08-22 杭州当虹科技有限公司 一种提升hdr视频主观质量的编码方法
CN110072103A (zh) * 2019-03-15 2019-07-30 西安电子科技大学 基于roi的视频快速压缩方法、高清视频***、4k视频***
CN111479112A (zh) * 2020-06-23 2020-07-31 腾讯科技(深圳)有限公司 一种视频编码方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN104079934B (zh) 2017-02-15

Similar Documents

Publication Publication Date Title
CN110675328B (zh) 基于条件生成对抗网络的低照度图像增强方法及装置
CN110956094B (zh) 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
Jin et al. Statistical study on perceived JPEG image quality via MCL-JCI dataset construction and analysis
Huang et al. An advanced single-image visibility restoration algorithm for real-world hazy scenes
CN104299192B (zh) 一种基于大气光散射物理模型的单幅图像去雾方法
CN110889813A (zh) 基于红外信息的低光图像增强方法
CN104063686B (zh) 作物叶部病害图像交互式诊断***与方法
CN102014279B (zh) 一种视频图像对比度增强方法和装置
CN108982794B (zh) 一种基于数码高清图像的蓝藻水华监测方法和***
CN103700121A (zh) 一种复合图像的压缩方法及装置
CN110211052A (zh) 一种基于特征学习的单幅图像去雾方法
CN114037938B (zh) 一种基于NFL-Net的低照度目标检测方法
CN112686276A (zh) 一种基于改进RetinaNet网络的火焰检测方法
CN110363727A (zh) 基于多尺度暗通道先验级联深度神经网络的图像去雾方法
CN103034983A (zh) 一种基于各向异性滤波的去雾方法
CN103425960B (zh) 一种视频中快速运动物体侦测方法
CN106993188A (zh) 一种基于多人脸视频显著性的hevc压缩编码方法
CN106886763A (zh) 实时检测人脸的***及其方法
CN113228101A (zh) 用于图像分割的***和方法
CN104079934A (zh) 一种实时视频通信中的感兴趣区域提取方法
CN110807369B (zh) 基于深度学习和注意力机制的短视频内容智能分类方法
CN102855627A (zh) 基于光谱特性和拓扑关系的城市遥感影像阴影检测方法
Singh et al. Low-light image enhancement for UAVs with multi-feature fusion deep neural networks
CN104915933A (zh) 一种基于apso-bp耦合算法的雾天图像增强方法
CN104835121B (zh) 基于无穷范数约束与最大熵原则的色调映射方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20180518

Address after: 610041 Sichuan Chengdu high tech Zone Tianren Road No. 387 3 Building 1 unit 28 level 2803

Patentee after: Chengdu Suirui cloud Technology Co. Ltd.

Address before: 430072 Wuhan University, Luojia mountain, Wuchang District, Wuhan, Hubei

Patentee before: Wuhan University