CN112785533B - 图像融合方法、图像融合装置、电子设备与存储介质 - Google Patents
图像融合方法、图像融合装置、电子设备与存储介质 Download PDFInfo
- Publication number
- CN112785533B CN112785533B CN201911082008.6A CN201911082008A CN112785533B CN 112785533 B CN112785533 B CN 112785533B CN 201911082008 A CN201911082008 A CN 201911082008A CN 112785533 B CN112785533 B CN 112785533B
- Authority
- CN
- China
- Prior art keywords
- image
- region
- type
- sub
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 13
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000012545 processing Methods 0.000 claims abstract description 25
- 239000003086 colorant Substances 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 230000001815 facial effect Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 210000004209 hair Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001965 increasing effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 101150013335 img1 gene Proteins 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 101100248200 Arabidopsis thaliana RGGB gene Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002500 effect on skin Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 210000003746 feather Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 101150071665 img2 gene Proteins 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本公开提供了一种图像融合方法、图像融合装置、电子设备及计算机可读存储介质,属于图像处理技术领域。应用于具备图像传感器的终端设备,该方法包括:获取由所述图像传感器采集的第一图像和第二图像,所述第一图像和所述第二图像为同一区域的图像,所述第一图像的像素数高于所述第二图像;将所述区域划分为第一类子区域和第二类子区域;基于所述第一图像中的第一类子区域,和所述第二图像中的第二类子区域,对所述第一图像和所述第二图像进行融合,得到目标图像。本公开可以解决高像素图像噪点多的问题,提高图像拍摄的质量。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种图像融合方法、图像融合装置、电子设备及计算机可读存储介质。
背景技术
随着计算机技术和多媒体技术的发展,出现了很多图像拍摄设备与应用,进而产生了大量的图像数据。为了满足人们的拍照需求,提高图像传感器的像素是业界普遍的发展方向,例如手机上通常采用百万甚至千万级别像素的图像传感器,可以支持拍摄出超高清的照片。然而,高像素数的图像虽然能够保留被拍摄对象的更多细节,但噪点较大,而低像素数的图像又可能不够清晰。
因此,如何在提高像素的同时有效改善噪点的问题,是目前亟待解决的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供了一种图像融合方法、图像融合装置、电子设备及计算机可读存储介质,进而至少在一定程度上改善现有的高像素图片中噪点较高的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种图像融合方法,应用于具备图像传感器的终端设备,包括:获取由所述图像传感器采集的第一图像和第二图像,所述第一图像和所述第二图像为同一区域的图像,所述第一图像的像素数高于所述第二图像;将所述区域划分为第一类子区域和第二类子区域;基于所述第一图像中的第一类子区域,和所述第二图像中的第二类子区域,对所述第一图像和所述第二图像进行融合,得到目标图像。
根据本公开的一个方面,提供一种图像融合装置,应用于具备图像传感器的终端设备,包括:图像获取模块,用于获取由所述图像传感器采集的第一图像和第二图像,所述第一图像和所述第二图像为同一区域的图像,所述第一图像的像素数高于所述第二图像;区域划分模块,用于将所述区域划分为第一类子区域和第二类子区域;图像融合模块,用于基于所述第一图像中的第一类子区域,和所述第二图像中的第二类子区域,对所述第一图像和所述第二图像进行融合,得到目标图像。
根据本公开的一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的方法。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
本公开的示例性实施例具有以下有益效果:
获取由所述图像传感器采集的第一图像和第二图像,所述第一图像和所述第二图像为同一区域的图像,所述第一图像的像素数高于所述第二图像,将所述区域划分为第一类子区域和第二类子区域,基于所述第一图像中的第一类子区域,和所述第二图像中的第二类子区域,对所述第一图像和所述第二图像进行融合,得到目标图像。一方面,由于第一图像中图像细节较丰富,第二图像中进光量较大,噪点较少,通过第一图像与第二图像进行融合,能够综合两个图像中的优点,得到质量较高的目标图像;另一方面,基于第一图像中的第一类子区域,和第二图像中的第二类子区域,融合得到目标图像,使目标图像既可以保留第一类子区域精细感,也可以保留第二子区域的柔和感,提高目标图像对局部区域表现的针对性,具有更广的应用场景。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本示例性实施例中一种图像融合方法的流程图;
图2示意性示出本示例性实施方式中滤色阵列的示意图;
图3示意性示出本示例性实施例中一种图像融合方法的子流程图;
图4示意性示出本示例性实施方式中获得第一图像的示意图;
图5示意性示出本示例性实施方式中获得第二图像的示意图;
图6示意性示出本示例性实施例中一种人脸图像的示意图;
图7示意性示出本示例性实施例中另一种图像融合方法的子流程图;
图8示意性示出本示例性实施例中一种图像融合装置的结构框图;
图9示意性示出本示例性实施例中一种用于实现上述方法的电子设备;
图10示意性示出本示例性实施例中一种用于实现上述方法的计算机可读存储介质。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
本公开的示例性实施例首先提供了一种图像融合方法,本公开的示例性实施方式提供一种图像融合方法,可以应用于手机、平板电脑、数码相机等终端设备。该终端设备配置有图像传感器,可用于采集图像。其中,图像传感器可以通过设置不同的硬件寄存器来实现先后拍摄6400万和1600万的原始图像数据。
下面结合附图1对本示例性实施例做进一步说明,如图1所示,图像融合方法可以包括以下步骤S110~S140:
步骤S110,获取由图像传感器采集的第一图像和第二图像,第一图像和第二图像为同一区域的图像,第一图像的像素数高于第二图像。
其中,第一图像和第二图像所拍摄的区域为相同区域,所拍摄的的对象为相同对象,即拍摄的图像内容相同,不同之处在于像素数,第一图像的像素数高于第二图像,例如第一图像可以是6400万像素数,第二图像可以是1600万像素数。
在一示例性实施例中,上述图像传感器可以是四拜耳(Quad Bayer)图像传感器,四拜耳图像传感器是指采用四拜耳滤色阵列的图像传感器。参考图2所示,左图示出了标准拜耳滤色阵列,其滤光片的单元阵列排布为GRBG(或BGGR、GBRG、RGGB),大部分图像传感器采用标准拜耳滤色阵列;图2中右图示出了四拜耳滤色阵列,其滤光片的单元阵列中相邻四个单元为相同颜色,目前一部分高像素的图像传感器采用四拜耳滤色阵列。基于此,参考图3所示,步骤S110可以具体通过以下步骤S310至S330实现:
步骤S310,通过四拜耳图像传感器采集基于四拜耳滤色阵列的原始拜耳图像。
其中,拜耳图像是指RAW(原始)格式的图像,是图像传感器将采集到的光信号转化为数字信号后的图像数据,在拜耳图像中,每个像素点只有RGB中的一种颜色。在本示例性实施例中,利用四拜耳图像传感器采集图像后,得到的原始图像数据即上述原始拜耳图像,该图像中像素的颜色排列如图2中右图所示,相邻四个像素为相同颜色。
步骤S320,对原始拜耳图像进行解马赛克处理和去马赛克处理,得到第一图像。
其中,解马赛克处理(Remosaic)是指将基于四拜耳滤色阵列的原始拜耳图像融合为基于标准拜耳滤色阵列的拜耳图像;去马赛克处理(Demosaic)是指将拜耳图像融合为完整的RGB图像。结合图4所示,可以对原始拜耳图像P进行解马赛克处理,得到基于标准拜耳滤色阵列的拜耳图像Q1;再对基于标准拜耳滤色阵列的拜耳图像Q1进行去马赛克处理,得到RGB格式的第一图像IMG1。解马赛克和去马赛克可以通过不同的插值算法实现,也可以通过神经网络等其他相关算法实现,本公开对此不做限定。终端设备中通常配置和图像传感器配套的ISP(Image Signal Processing,图像信号处理)单元,以执行上述解马赛克和去马赛克处理过程。第一图像IMG1的每个像素都具有RGB三个通道的像素值,以C表示。此外,也可以将解马赛克和去马赛克的处理过程合并为一次插值过程,即基于原始拜耳图像中的像素数据,直接对每个像素点进行插值,以得到缺失的颜色通道的像素值,例如可以采用线性插值、均值插值等算法实现,从而获得第一图像。
步骤S330,将原始拜耳图像中四个相邻的同颜色像素合并为一个像素,并对合并像素后的拜耳图像进行去马赛克处理,得到第二图像。
可以参考图5所示,首先对原始拜耳图像P进行像素“四合一”处理,即把2*2个单元内的同颜色像素合并为一个像素,合并像素后的拜耳图像Q2也是基于标准拜耳滤色阵列的排布,相比于图4中的Q1,Q2的像素减少为1/4,同时每个像素的面积增大为4倍,这样每个像素的进光量增大;再对Q2进行去马赛克处理,得到RGB格式的第二图像IMG2。可见,第一图像的像素数为第二图像的四倍。
在另一种实施方式中,终端设备可以配置两个不同像素的图像传感器,例如目前很多手机配置有双摄像头。其中,像素较高的图像传感器用于拍摄第一图像,像素较低的图像传感器用于拍摄第二图像。由于两图像传感器的图像采集过程是在一次拍摄中完成的,其曝光的程度是相近的,因此第一图像的分辨率更高,但受到感光量的影响,其噪点可能更多,第二图像反之。
步骤S120,将区域划分为第一类子区域和第二类子区域。
通常,图像传感器所捕捉的画面中,根据所捕捉的内容,其平坦度会有所差异。具体的,可以将拍摄的图像中的区域划分为平坦区域和非平坦区域,平坦区域和非平坦区域是一组相对的概念,可以用于表示图像中内容或纹理的稠密或稀疏的程度,图像内容越稠密,图像内像素值的变化程度越高,其表示图像中的细节越丰富,其非平坦度越高,平坦度越低。例如在拍摄人像时,人的头发区域可以划分为非平坦区域,头发区域的图像可以表现出较为细致的状态,如毛躁、柔顺或者丝丝分明等,而人脸区域可以划分为平坦区域,脸部图像所表现的细节相较于头发少一些,但可以呈现出较好的肤质效果。如图6所示,图6左侧为拍摄的较低像素数的图像,图6右侧为拍摄的较高像素数的图像,可以看到较高像素数的图像相比较低像素数的图像,其头发区域S细节表现较好,较低像素数的图像相比较高像素数的图像,其脸部区域P更为柔和,表现出较好的肤质。基于此,可以将细节表现较为丰富的非平坦区域确定为第一类子区域,细节表现较少的平坦区域确定为第二类子区域。在本示例性实施例中,可以通过多种方式将区域划分为第一类子区域和第二类子区域,例如通过提取亮度、颜色等图像特征,根据图像特征进行区域划分;或者在特定的应用场景中,如人脸图像中,还可以结合人脸识别方法对人脸中的第一类子区域和第二类子区域进行识别;还可以通过计算图像的非平坦度划分第一类子区域与第二类子区域等,本公开对此不做具体限定。其中,图像非平坦度可以通过多种方式计算并表征,本公开提供以下几种实施方式,但下述内容不应对本公开的保护范围造成限定:
(1)计算第一图像或第二图像中每个区域内的像素值方差,将像素值方差作为图像非平坦度。例如可以统计S1(IMG1)或S1(IMG2)中的像素值方差,作为区域S1的图像非平坦度。在计算时可以将像素值转换为灰度值计算方差,也可以分别在RGB三个通道内计算方差,再取三个通道的方差均值等。作为补充,像素值方差也可以替换为像素值标准差。
(2)计算第一图像或第二图像中每个区域内的中心像素值和边缘像素值的差值,将该差值作为图像非平坦度。例如计算区域S1的像素差值时,可以先将S1(IMG1)或S1(IMG2)划分为中心部分和边缘部分,分别统计中心部分和边缘部分的像素值,计算差值;或者从S1的中心点开始,计算其和多个层级的边缘的像素差值,再进行合并。中心和边缘的像素差值也能够反映该区域的内容稠密程度,因此也可以作为图像平坦度的一种度量。
(3)计算第一图像或第二图像中每个区域内的信息熵,将信息熵作为图像非平坦度。图像的信息熵又称为图像熵,是表征图像内部信息变化的程度。举例说明,计算区域S1的信息熵时,可以将S1(IMG1)或S1(IMG2)中的像素转换为灰度,统计各灰度值的出现概率,例如S1(IMG1)中共出现m个灰度值,其出现概率分别为p1、p2、…、pm,则信息熵当然也可以采用其他近似的计算方式。
需要说明的是,由于第一图像的像素更高,图像信息更丰富,采用第一图像的数据计算上述图像非平坦度,结果更加精准;但是第二图像的数据量是第一图像的1/4,采用第二图像计算可以减小运算量,提高处理速度;实际应用中可以结合硬件条件、用户需求等进行选择。此外,可以任意组合采用上述多种方式,以综合多个指标来表征图像非平坦度,可以提高算法的鲁棒性,本公开对此不做限定。
在一示例性实施例中,可以通过提取图像特征的方法对区域进行划分,具体的,上述步骤S120可以包括以下步骤:
从第一图像和第二图像中的至少一个提取图像特征;
根据图像特征将区域划分为高频区域和非高频区域,高频区域为第一类子区域,非高频区域为第二类子区域。
其中,高频区域是指细节表现较多的非平坦区域,例如人的头发、较为复杂的服装、动物的羽毛等,非高频区域是指细节表现较少的平坦区域,例如人的脸颊、四肢皮肤等。图像特征即为能够反映图像中各个区域特点的数据,例如颜色特征、纹理特征、形状特征或者空间关系特征等等。在本示例性实施例中,由于第一图像和第二图像中包含相同的内容,因此,可以从第一图像或第二图像中进行图像特征的提取。具体的,图像特征的提取方式可以有多种,例如采用多个哈尔(Haar)特征模板在第一图像或第二图像进行遍历,确定特征值,以提取对应的图像特征等。对于图像特征的提取方式,本公开对此不做具体限定。进一步的,通过提取的图像特征,可以判断区域中哪一部分为细节表现较多的区域,哪一部分为细节表现较少的区域,即完成了将区域进行第一类子区域和第二类子区域的划分。
步骤S130,基于第一图像中的第一类子区域,和第二图像中的第二类子区域,对第一图像和第二图像进行融合,得到目标图像。
由上可知,第一图像和第二图像所拍摄的内容相同,第一图像的像素数较高,图像中的细节较为清晰且丰富,但噪点通常较高,第二图像的像素数较低,但单像素上的进光量较大,噪点较低。因此,可以对第一图像和第二图像进行融合,以综合两图像中的优势,得到质量较高的目标图像。目标图像可以是最终输出的图像,例如用户在使用手机拍照时,图像传感器在初始采集到图像数据后,手机通过执行上述步骤S110~S130,输出目标图片以显示在手机的屏幕上。
在实际应用中,目标图像可以根据需要,存储为不同像素数的图像,例如,其可以存储为6400万的较高像素数的图像,也可以存储为1600万的较低像素数的图像。在本示例性实施例中,可以基于目标图像所需要保存的最终像素数的需求,确定融合方案。
在一示例性实施例中,上述步骤S130具体可以包括以下步骤:
基于第一图像的像素数,对第二图像中的第二类子区域进行上采样,并和第一图像中的第一类子区域进行融合,得到目标图像;目标图像和第一图像的像素数相同。
当目标图像与第一图像的像素数相同,即目标图像为较高像素数的图像时,由于第二图像的像素数低于第一图像的像素数,为了使第二图像能与第一图像进行较好的融合,需要对第二图像中的第二类子区域进行上采样处理,即将第二类子区域进行图像放大,使其能够在更高分辨率的显示设备上进行显示。具体的,可以通过在第二类子区域的图像像素的基础上,在像素点之间采用合适的插值算法(如双线性内插算法)***新的像素点,以将第二类子区域进行放大。另外,上述上采样的方法还可以包括其他多种方式,例如最邻近元法、三次内插法等插值方法、转置卷积、上采样或上池化等方法,本公开对此不做具体限定。在将第二类子区域转换为与第一图像的像素数相同的图像后,可以完成第二类子区域和第一图像的第一类子区域进行融合,得到像素数较高的目标图像。
在一示例性实施例中,上述步骤S130可以包括以下步骤:
基于第二图像的像素数,对第一图像中的第一类子区域进行下采样,并和第二图像中的第二类子区域进行融合,得到目标图像;目标图像和第二图像的像素数相同。
当目标图像与第二图像的像素数相同,即目标图像为较低像素数的图像时,由于第一图像的像素数高于第二图像的像素数,为了使第一图像能与第二图像进行较好的融合,需要对第一图像中的第一类子区域进行下采样处理,即将第一类子区域进行图像缩小。具体的,可以设置一预设尺寸的窗口,通过在第一类子区域的图像像素的基础上,将窗口内包括的图像像素转换为一个像素点,该像素点的值可以为该窗口内所有像素点的平均值,以实现将第一类子区域进行缩小。在将第一类子区域转换为与第二图像的像素数相同的图像后,可以实现第一类子区域和第二图像的第二类子区域进行融合,得到像素数较低的目标图像。
需要说明的是,在本示例性实施例中,在进行第一图像与第二图像的融合时,第一图像与第二图像可以是彩色图像,也可以是灰度图像等,本公开对此不做具体限定。
基于上述说明,在本示例性实施例中,获取由图像传感器采集的第一图像和第二图像,第一图像和第二图像为同一区域的图像,第一图像的像素数高于第二图像,将区域划分为第一类子区域和第二类子区域,基于第一图像中的第一类子区域,和第二图像中的第二类子区域,对第一图像和第二图像进行融合,得到目标图像。一方面,由于第一图像中图像细节较丰富,第二图像中进光量较大,噪点较少,通过第一图像与第二图像进行融合,能够综合两个图像中的优点,得到质量较高的目标图像;另一方面,基于第一图像中的第一类子区域,和第二图像中的第二类子区域,融合得到目标图像,使目标图像既可以保留第一类子区域精细感,也可以保留第二子区域的柔和感,提高目标图像对局部区域表现的针对性,具有更广的应用场景。
在一示例性实施例中,上述第一图像和第二图像可以是人脸图像,第一类子区域为非面部区域,第二类子区域为面部区域。
特别的,本示例性实施例可以应用于人脸拍摄的场景中,第一图像和第二图像即为人脸图像。在人脸图像的面部区域中,由于人的面部肤色差异较小,除五官之外的部分相似度较高,呈现较为平坦的状态,为了呈现较好的肤质状态,通常希望拍摄的面部图像能够具有柔和且低噪点的特征;而对于非面部区域,如头发、睫毛等部分,其结构、位置、尺寸等特征具有较大的灵活性,这些区域的图像越精细越能反映人脸图像的真实感、立体感,体现其生动性。因此,可以将面部区域作为第二类子区域,将非面部区域作为第一类子区域。
在一示例性实施例中,上述将区域划分为第一类子区域和第二类子区域,可以包括以下步骤:
步骤S710,提取第一图像或第二图像的颜色分布,将其中处于预设范围内的颜色确定为面部颜色;
步骤S720,基于第一图像或第二图像中为面部颜色的区域,采用脸部图形检测进一步确定面部区域;
步骤S730,将面部区域以外的区域确定为非面部区域。
考虑到人脸图像中,人脸的皮肤颜色与五官颜色具有较大差别,但人脸除五官区域外的部分,颜色差异性较小,且肤色通常处于一稳定的区间内。因此,可以通过提取第一图像或第二图像的颜色分布,确定人脸的面部区域。具体的,可以设置一预设范围,当提取的颜色分布处于该预设范围时,可以认为人脸图像中处于该预设范围的颜色为面部颜色,进一步面部颜色所对应的区域为面部区域。
在某些特殊情况下,使用颜色分布确定面部区域时,可能会出现误差,例如人像中唇色较浅时,或唇色与肤色相近时,可能无法准确区分人脸区域与唇部区域。基于此,本示例性实施例在通过面部颜色确定面部区域后,还可以采用脸部图形进一步检测人脸图像中面部区域的位置。其中,脸部图形可以是用以确认面部区域的模板图形,其可以根据需要,事先进行自定义设置。考虑到不同的人脸可能具有差别,例如男性与女性的脸部形状和特征会具有一些差异,或者同为女性的脸部图像也有所差别。因此,本示例性实施例可以设置多个脸部图形,在检测时,通过多个脸部图形进行检测,或使用同一脸部图形进行多次检测的方式等,以保证确定的面部区域的准确性。当面部区域确定后,相应的,面部区域之外的区域将被确定为非面部区域。
本公开的示例性实施例还提供了一种图像融合装置。参照图8,该装置800可以包括,图像获取模块810,用于获取由图像传感器采集的第一图像和第二图像,第一图像和第二图像为同一区域的图像,第一图像的像素数高于第二图像;区域划分模块820,用于将区域划分为第一类子区域和第二类子区域;图像融合模块830,用于基于第一图像中的第一类子区域,和第二图像中的第二类子区域,对第一图像和第二图像进行融合,得到目标图像。
在一示例性实施例中,图像传感器包括四拜耳图像传感器;图像获取模块可以包括:图像采集单元,用于通过四拜耳图像传感器采集基于四拜耳滤色阵列的原始拜耳图像;第一图像处理单元,用于对原始拜耳图像进行解马赛克处理和去马赛克处理,得到第一图像;第二图像处理单元,用于将原始拜耳图像中四个相邻的同颜色像素合并为一个像素,并对合并像素后的拜耳图像进行去马赛克处理,得到第二图像;其中,第一图像的像素数为第二图像的四倍。
在一示例性实施例中,区域划分模块可以包括:特征提取单元,用于从第一图像和第二图像中的至少一个提取图像特征;区域划分单元,用于根据图像特征将区域划分为高频区域和非高频区域,高频区域为第一类子区域,非高频区域为第二类子区域。
在一示例性实施例中,第一图像和第二图像为人脸图像,第一类子区域为非面部区域,第二类子区域为面部区域。
在一示例性实施例中,区域划分模块可以包括:颜色提取单元,用于提取第一图像或第二图像的颜色分布,将其中处于预设范围内的颜色确定为面部颜色;区域检测单元,用于基于第一图像或第二图像中为面部颜色的区域,采用脸部图形检测进一步确定面部区域;将面部区域以外的区域确定为非面部区域。
在一示例性实施例中,图像融合模块可以包括:第一图像融合单元,用于基于第一图像的像素数,对第二图像中的第二类子区域进行上采样,并和第一图像中的第一类子区域进行融合,得到目标图像;目标图像和第一图像的像素数相同。
在一示例性实施例中,图像融合模块可以包括:第一图像融合单元,用于基于第二图像的像素数,对第一图像中的第一类子区域进行下采样,并和第二图像中的第二类子区域进行融合,得到目标图像;目标图像和第二图像的像素数相同。
上述装置中各模块/单元的具体细节在方法部分的实施例中已经详细说明,未披露的细节内容可以参见方法部分的实施例内容,因此此处不再赘述。
本公开的示例性实施例还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为***、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“***”。
下面参照图9来描述根据本公开的这种示例性实施例的电子设备900。图9显示的电子设备900仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图9所示,电子设备900以通用计算设备的形式表现。电子设备900的组件可以包括但不限于:上述至少一个处理单元910、上述至少一个存储单元920、连接不同***组件(包括存储单元920和处理单元910)的总线930、显示单元940和图像传感器970,图像传感器970用于采集图像。
其中,存储单元存储有程序代码,程序代码可以被处理单元910执行,使得处理单元910执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,处理单元910可以执行图1所示的步骤S110~S130,也可以执行图3所示的步骤S310~S330等。
存储单元920可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)921和/或高速缓存存储单元922,还可以进一步包括只读存储单元(ROM)923。
存储单元920还可以包括具有一组(至少一个)程序模块925的程序/实用工具924,这样的程序模块925包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线930可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备900也可以与一个或多个外部设备1100(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备900交互的设备通信,和/或与使得该电子设备900能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口950进行。并且,电子设备900还可以通过网络适配器960与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器960通过总线930与电子设备900的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备900使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开示例性实施例的方法。
本公开的示例性实施例还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
参考图10所示,描述了根据本公开的示例性实施例的用于实现上述方法的程序产品1000,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的示例性实施例,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (9)
1.一种图像融合方法,应用于具备图像传感器的终端设备,其特征在于,包括:
获取由所述图像传感器采集的第一图像和第二图像,所述第一图像和所述第二图像为同一区域的图像,所述第一图像的像素数高于所述第二图像;所述第一图像和所述第二图像为人脸图像;
将所述区域中的人脸划分为第一类子区域和第二类子区域,所述第一类子区域为所述区域中人脸的非面部区域,所述第二类子区域为所述区域中人脸的面部区域,所述非面部区域的细节表现多于所述面部区域的细节表现;
基于所述第一图像中的第一类子区域,和所述第二图像中的第二类子区域,对所述第一图像和所述第二图像进行融合,得到目标图像。
2.根据权利要求1所述的方法,其特征在于,所述图像传感器包括四拜耳图像传感器;
所述获取由所述图像传感器采集的第一图像和第二图像,包括:
通过所述四拜耳图像传感器采集基于四拜耳滤色阵列的原始拜耳图像;
对所述原始拜耳图像进行解马赛克处理和去马赛克处理,得到所述第一图像;
将所述原始拜耳图像中四个相邻的同颜色像素合并为一个像素,并对合并像素后的拜耳图像进行去马赛克处理,得到所述第二图像;
其中,所述第一图像的像素数为所述第二图像的四倍。
3.根据权利要求1所述的方法,其特征在于,所述将所述区域划分为第一类子区域和第二类子区域,包括:
从所述第一图像和所述第二图像中的至少一个提取图像特征;
根据所述图像特征将所述区域划分为高频区域和非高频区域。
4.根据权利要求1所述的方法,其特征在于,所述将所述区域中的人像划分为第一类子区域和第二类子区域,包括:
提取所述第一图像或所述第二图像的颜色分布,将其中处于预设范围内的颜色确定为面部颜色;
基于所述第一图像或所述第二图像中为所述面部颜色的区域,采用脸部图形检测进一步确定所述面部区域;
将所述区域中人脸的所述面部区域以外的区域确定为所述非面部区域。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述基于所述第一图像中的第一类子区域,和所述第二图像中的第二类子区域,对所述第一图像和所述第二图像进行融合,得到目标图像,包括:
基于所述第一图像的像素数,对所述第二图像中的第二类子区域进行上采样,并和所述第一图像中的第一类子区域进行融合,得到目标图像;所述目标图像和所述第一图像的像素数相同。
6.根据权利要求1至4任一项所述的方法,其特征在于,所述基于所述第一图像中的第一类子区域,和所述第二图像中的第二类子区域,对所述第一图像和所述第二图像进行融合,得到目标图像,包括:
基于所述第二图像的像素数,对所述第一图像中的第一类子区域进行下采样,并和所述第二图像中的第二类子区域进行融合,得到目标图像;所述目标图像和所述第二图像的像素数相同。
7.一种图像融合装置,应用于具备图像传感器的终端设备,其特征在于,包括:
图像获取模块,用于获取由所述图像传感器采集的第一图像和第二图像,所述第一图像和所述第二图像为同一区域的图像,所述第一图像的像素数高于所述第二图像;所述第一图像和所述第二图像的拍摄对象为人像;所述第一图像和所述第二图像为人脸图像;
区域划分模块,用于将所述区域中的人脸划分为第一类子区域和第二类子区域,所述第一类子区域为所述区域中人脸的非面部区域,所述第二类子区域为所述区域中人脸的面部区域;
图像融合模块,用于基于所述第一图像中的第一类子区域,和所述第二图像中的第二类子区域,对所述第一图像和所述第二图像进行融合,得到目标图像。
8.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-6任一项所述的方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911082008.6A CN112785533B (zh) | 2019-11-07 | 2019-11-07 | 图像融合方法、图像融合装置、电子设备与存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911082008.6A CN112785533B (zh) | 2019-11-07 | 2019-11-07 | 图像融合方法、图像融合装置、电子设备与存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112785533A CN112785533A (zh) | 2021-05-11 |
CN112785533B true CN112785533B (zh) | 2023-06-16 |
Family
ID=75747848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911082008.6A Active CN112785533B (zh) | 2019-11-07 | 2019-11-07 | 图像融合方法、图像融合装置、电子设备与存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112785533B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106412407A (zh) * | 2016-11-29 | 2017-02-15 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106815827A (zh) * | 2017-01-18 | 2017-06-09 | 聚龙智瞳科技有限公司 | 基于Bayer格式的图像融合方法及图像融合装置 |
CN107730448A (zh) * | 2017-10-31 | 2018-02-23 | 北京小米移动软件有限公司 | 基于图像处理的美颜方法及装置 |
CN107808136A (zh) * | 2017-10-31 | 2018-03-16 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、可读存储介质和计算机设备 |
CN109272459A (zh) * | 2018-08-20 | 2019-01-25 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN109639982A (zh) * | 2019-01-04 | 2019-04-16 | Oppo广东移动通信有限公司 | 一种图像降噪方法、装置、存储介质及终端 |
CN110278374A (zh) * | 2019-06-27 | 2019-09-24 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN110336942A (zh) * | 2019-06-28 | 2019-10-15 | Oppo广东移动通信有限公司 | 一种虚化图像获取方法及终端、计算机可读存储介质 |
CN110378846A (zh) * | 2019-06-28 | 2019-10-25 | 北京字节跳动网络技术有限公司 | 一种处理图像磨皮的方法、装置、介质和电子设备 |
CN110675404A (zh) * | 2019-09-03 | 2020-01-10 | RealMe重庆移动通信有限公司 | 图像处理方法、图像处理装置、存储介质与终端设备 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7602942B2 (en) * | 2004-11-12 | 2009-10-13 | Honeywell International Inc. | Infrared and visible fusion face recognition system |
KR100745981B1 (ko) * | 2006-01-13 | 2007-08-06 | 삼성전자주식회사 | 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치 |
US8620038B2 (en) * | 2006-05-05 | 2013-12-31 | Parham Aarabi | Method, system and computer program product for automatic and semi-automatic modification of digital images of faces |
KR101590868B1 (ko) * | 2009-07-17 | 2016-02-02 | 삼성전자주식회사 | 피부색을 보정하는 영상 처리 방법, 장치, 디지털 촬영 장치, 및 컴퓨터 판독가능 저장매체 |
CN103888679A (zh) * | 2014-03-13 | 2014-06-25 | 北京智谷睿拓技术服务有限公司 | 图像采集方法及图像采集装置 |
CN106357967B (zh) * | 2016-11-29 | 2018-01-19 | 广东欧珀移动通信有限公司 | 控制方法、控制装置和电子装置 |
CN106713790B (zh) * | 2016-11-29 | 2019-05-10 | Oppo广东移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN109325988B (zh) * | 2017-07-31 | 2022-11-11 | 腾讯科技(深圳)有限公司 | 一种面部表情合成方法、装置及电子设备 |
CN107610077A (zh) * | 2017-09-11 | 2018-01-19 | 广东欧珀移动通信有限公司 | 图像处理方法和装置、电子装置和计算机可读存储介质 |
KR102466998B1 (ko) * | 2018-02-09 | 2022-11-14 | 삼성전자주식회사 | 영상 융합 방법 및 장치 |
CN110324626B (zh) * | 2019-07-10 | 2021-05-18 | 武汉大学苏州研究院 | 一种面向物联网监控的双码流人脸分辨率保真的视频编解码方法 |
-
2019
- 2019-11-07 CN CN201911082008.6A patent/CN112785533B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106412407A (zh) * | 2016-11-29 | 2017-02-15 | 广东欧珀移动通信有限公司 | 控制方法、控制装置及电子装置 |
CN106815827A (zh) * | 2017-01-18 | 2017-06-09 | 聚龙智瞳科技有限公司 | 基于Bayer格式的图像融合方法及图像融合装置 |
CN107730448A (zh) * | 2017-10-31 | 2018-02-23 | 北京小米移动软件有限公司 | 基于图像处理的美颜方法及装置 |
CN107808136A (zh) * | 2017-10-31 | 2018-03-16 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、可读存储介质和计算机设备 |
CN109272459A (zh) * | 2018-08-20 | 2019-01-25 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN109639982A (zh) * | 2019-01-04 | 2019-04-16 | Oppo广东移动通信有限公司 | 一种图像降噪方法、装置、存储介质及终端 |
CN110278374A (zh) * | 2019-06-27 | 2019-09-24 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN110336942A (zh) * | 2019-06-28 | 2019-10-15 | Oppo广东移动通信有限公司 | 一种虚化图像获取方法及终端、计算机可读存储介质 |
CN110378846A (zh) * | 2019-06-28 | 2019-10-25 | 北京字节跳动网络技术有限公司 | 一种处理图像磨皮的方法、装置、介质和电子设备 |
CN110675404A (zh) * | 2019-09-03 | 2020-01-10 | RealMe重庆移动通信有限公司 | 图像处理方法、图像处理装置、存储介质与终端设备 |
Also Published As
Publication number | Publication date |
---|---|
CN112785533A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10540806B2 (en) | Systems and methods for depth-assisted perspective distortion correction | |
US20210133926A1 (en) | Image super-resolution reconstruction method, mobile terminal, and computer-readable storage medium | |
US10887519B2 (en) | Method, system and apparatus for stabilising frames of a captured video sequence | |
JP2020144907A (ja) | インターリーブチャネルデータ用の構成可能な畳み込みエンジン | |
CN110637297B (zh) | 卷积引擎、数据处理方法和电子设备 | |
US8947501B2 (en) | Scene enhancements in off-center peripheral regions for nonlinear lens geometries | |
EP3644599B1 (en) | Video processing method and apparatus, electronic device, and storage medium | |
JPWO2018047687A1 (ja) | 三次元モデル生成装置及び三次元モデル生成方法 | |
US8903139B2 (en) | Method of reconstructing three-dimensional facial shape | |
JP5949331B2 (ja) | 画像生成装置、画像生成方法及びプログラム | |
US20140340486A1 (en) | Image processing system, image processing method, and image processing program | |
CN112767290B (zh) | 图像融合方法、图像融合装置、存储介质与终端设备 | |
JP2000102040A (ja) | 電子ステレオカメラ | |
KR101598159B1 (ko) | 영상 제공 방법 및 영상 제공 장치 | |
US20150356743A1 (en) | Photographic subject tracking device and camera | |
WO2022160857A1 (zh) | 图像处理方法及装置、计算机可读存储介质和电子设备 | |
WO2023284401A1 (zh) | 图像美颜处理方法、装置、存储介质与电子设备 | |
WO2014002521A1 (ja) | 画像処理装置及び画像処理方法 | |
CN110929615A (zh) | 图像处理方法、图像处理装置、存储介质与终端设备 | |
CN113610865A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
KR20160037115A (ko) | 영상 처리 장치 및 방법 | |
TWI559762B (zh) | An image processing apparatus, an image processing method, and a recording medium | |
CN111083359B (zh) | 图像处理方法及其装置、电子设备和计算机可读存储介质 | |
CN112785533B (zh) | 图像融合方法、图像融合装置、电子设备与存储介质 | |
CN113805824B (zh) | 电子装置以及在显示设备上显示图像的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |