CN114463191A - 一种图像处理方法及电子设备 - Google Patents
一种图像处理方法及电子设备 Download PDFInfo
- Publication number
- CN114463191A CN114463191A CN202110991378.2A CN202110991378A CN114463191A CN 114463191 A CN114463191 A CN 114463191A CN 202110991378 A CN202110991378 A CN 202110991378A CN 114463191 A CN114463191 A CN 114463191A
- Authority
- CN
- China
- Prior art keywords
- brightness
- tone mapping
- image
- face region
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 28
- 238000013507 mapping Methods 0.000 claims abstract description 217
- 238000000034 method Methods 0.000 claims abstract description 53
- 238000004590 computer program Methods 0.000 claims description 18
- 238000003062 neural network model Methods 0.000 claims description 10
- 238000007499 fusion processing Methods 0.000 claims description 7
- 230000003247 decreasing effect Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 19
- 239000010410 layer Substances 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 230000004927 fusion Effects 0.000 description 12
- 238000011088 calibration curve Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000002146 bilateral effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000035772 mutation Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20208—High dynamic range [HDR] image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本申请实施例公开了一种图像处理方法及电子设备,该方法包括:获取待处理图像;识别所述待处理图像中的人脸区域,并确定所述人脸区域的亮度范围;根据所述人脸区域的亮度范围调整初始的色调映射曲线,得到人脸区域的色调映射曲线;基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的图像,因此可以不影响全图其他区域的色调映射,在保证人脸区域的对比度的同时避免了非人脸区域失真。
Description
技术领域
本申请涉及图像处理领域,尤其涉及一种图像处理方法及电子设备。
背景技术
动态范围(dynamic range,DR)在很多领域用来表示某个变量的最大值和最小值的比率。在数字图像中,动态范围表征了在图像可显示范围内的最大亮度与最小亮度之间的比率,也就是图像从“最亮”像素到“最暗”像素之间灰度划分的等级数。一个图像的动态范围越大,它所能表示的亮度层次越丰富,图像的视觉效果越逼真。高动态范围(highdynamic range,HDR)图像(以下简称HDR图像)可以提供更多的动态范围和图像细节,因此能够更好地反映出真实环境中的视觉效果。
对比度是指画面中最大亮度和最小亮度的比值,可以分为全局对比度和局部对比度。
在逆光人像场景中,在HDR图像成像时进行色调映射会存在保证人脸对比度和避免全局图像失真无法同时兼顾的问题。
发明内容
本申请实施例提供一种图像处理方法及电子设备,可以解决逆光人像场景中,在HDR图像成像时进行色调映射会存在保证人脸对比度和避免全局图像失真无法同时兼顾的问题。
第一方面,本申请实施例提供一种图像处理方法,包括:获取待处理图像;识别所述待处理图像中的人脸区域,并确定所述人脸区域的亮度范围;根据所述人脸区域的亮度范围调整初始的色调映射曲线,得到人脸区域的色调映射曲线;基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的图像。
示例性的,所述待处理图像为HDR高位宽图像。HDR高位宽图像可以直接从sensor获取,也可以通过长曝光帧和短曝光帧进行合成而得到。
示例性的,处理后的图像可以是HDR低位宽图像。
在本申请实施例中,通过对待处理图像进行人脸识别,找到对应人脸区域,在做全局色调映射的时候针对该人脸区域进行单独色调映射曲线调整,而其他区域依旧使用全局的色调映射曲线(即初始的色调映射曲线),因此可以不影响全图其他区域的色调映射,在保证人脸区域的对比度的同时避免了非人脸区域失真。
在第一方面的一种可能的实现方式中,在根据所述人脸区域的亮度范围调整初始的色调映射曲线,得到人脸区域的色调映射曲线之前,还包括:根据待处理图像的曝光系数确定初始的色调映射曲线。
在此,待处理图像的曝光系数可以是待处理图像中长曝光帧和短曝光帧的曝光比。
示例性的,基于待处理图像确定出默认初始的色调映射曲线可以是通过获取待处理图像的曝光比进而确定出标定曲线,在通过直方图均衡法进而得到该待处理图像对应的初始的色调映射曲线。
在第一方面的一种可能的实现方式中,所述识别所述待处理图像中的人脸区域,并确定所述人脸区域的亮度范围,包括:通过神经网络模型进行人脸识别,确定所述待处理图像中的人脸区域;获取所述人脸区域中每个像素点的亮度;基于所述人脸区域中每个像素点的亮度确定所述人脸区域的亮度范围。
在此,人脸区域的识别可以利用NPU来实现。即在NPU中配置人脸区域检测的神经网络模型,在获取到待处理图像之后,将待处理图像输入到NPU中的神经网络模型进行处理,就能够得到待处理图像中的人脸区域(输出感兴趣区域(region of interest,ROI))。上述神经网络模型可以是CNN模型,例如fast R-CNN模型、RetinaFace模型等常用的神经网络模型,在此不再加以赘述。
在第一方面的一种可能的实现方式中,所述基于所述人脸区域中每个像素点的亮度确定所述人脸区域的亮度范围,包括:
根据所述人脸区域中每个像素点的亮度确定平均亮度,基于平均亮度增加预设亮度得到第一亮度,基于平均亮度减少预设亮度得到第二亮度,其中,所述第二亮度为所述亮度范围的下限值,所述第一亮度为所述亮度范围的上限值。
在第一方面的一种可能的实现方式中,上述基于所述人脸区域中每个像素点的亮度确定所述人脸区域的亮度范围,包括:根据所述人脸区域中每个像素点的亮度确定所述人脸区域的最高亮度和所述人脸区域的最低亮度,基于所述最高亮度和最低亮度确定所述亮度范围。
在此,在确定了人脸区域后,可以通过ISP中的自动曝光(auto exposure,AE)算法直接输出该人脸区域的亮度范围。上述亮度范围可以是人脸区域的最低亮度到人脸区域的最高亮度。上述亮度范围也可以是基于人脸区域的平均亮度来确定,例如在确定了人脸区域的平均亮度后,增加预设亮度得到第一亮度,减少预设亮度得到第二亮度,例如增加10至20个点和减少10至20个点,进而得到人脸区域的亮度范围(即从第二亮度到第一亮度)。在此需要说明的是,人脸区域的最高亮度、最低亮度和平均亮度可以由AE直接确定。人脸区域的最高亮度可以通过代码访问AE直接调用max(Face_area)函数获取,人脸区域的最低亮度可以通过代码访问AE直接调用min(Face_area)函数获取。
在第一方面的一种可能的实现方式中,上述图像处理方法在所述根据所述人脸区域的亮度范围调整初始的色调映射曲线,得到人脸区域的色调映射曲线之后,还包括:基于所述人脸区域的色调映射曲线和所述初始的色调映射曲线对人脸边缘区域进行融合处理。
对人脸边缘区域进行融合处理后可以得到人脸边缘区域的色调映射值。
人脸边缘区域是指人脸和背景交接的区域,为了使得色调映射后的图像整体的对比度不会产生太大的突变,就需要对使用不同色调映射曲线进行色调映射的两个区域的交接处(即人脸边缘区域)进行融合处理,使得两个区域可以平滑过渡。
示例性的,融合处理包括平均融合和非线性融合。
相应地,基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的图像包括:基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,基于融合后的人脸边缘区域的色调映射值对人脸边缘区域进行色调映射,得到处理后的图像。
本申请实施例提供的图像处理方法,不仅能够在保证人脸区域的对比度的同时避免非人脸区域失真,还可以使得人脸区域和非人脸区域平滑过渡,避免图像整体的对比度存在大的突变。
在第一方面的一种可能的实现方式中,上述图像处理方法在基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的图像之后,还包括:对所述处理后的图像进行局部色调映射调整,得到局部色调映射调整后的目标图像。在进行了全局色调映射之后,还可以对图像进行局部色调映射调整,得到显示效果更好的目标图像。
上述局部色调映射调整是指根据各个像素点的周边像素对图像进行调整的色调映射方法,像素所在位置不同,映射后亮度值可能不同,像素点的映射结果受周围像素点影响,可以更好地保护高亮和阴影部分的局部对比度和图像细节,提高色调映射的效果。
上述局部色调映射调整方法可以采用现有的局部色调映射方法,例如照度和反射分离法(reflectiance&lllumination TMO)、双边滤波法(bilatear filer)等,在此不再加以赘述。
第二方面,本申请实施例提供一种电子设备,包括:
获取模块,用于获取待处理图像;
识别模块,用于识别所述待处理图像中的人脸区域,并确定所述人脸区域的亮度范围;
调整模块,用于根据所述人脸区域的亮度范围调整初始的色调映射曲线,得到人脸区域的色调映射曲线;
色调映射模块,用于基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的图像。
第三方面,本申请实施例提供一种电子设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现如上述第一方面任一项的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现如上述第一方面任一项的方法。
第五方面,本申请实施例提供一种芯片***,该芯片***包括处理器,处理器与存储器耦合,处理器执行存储器中存储的计算机程序,以实现如上述第一方面任一项所述的方法。该芯片***可以为单个芯片,或者多个芯片组成的芯片模组。
第六方面,本申请实施例提供一种计算机程序产品,当计算机程序产品在电子设备上运行时,使得电子设备执行上述第一方面任一项所述的方法。
可以理解的是,上述第二方面至第六方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
图1为本申请实施例提供的高动态范围图像和低动态范围图像的示意图;
图2为本申请实施例提供的对比度高的图像和对比度低的图像的示意图;
图3为本申请实施例提供的手机100的硬件结构示意图;
图4为本申请实施例提供的手机100的软件架构示意图;
图5为本申请实施例提供的一些应用场景一下的图形用户界面的示意图;
图6为本申请实施例提供的一些应用场景二下的图形用户界面的示意图;
图7为本申请实施例提供的图像处理方法的流程示意图;
图8为本申请一实施例提供的初始的色调映射曲线和人脸区域的色调映射区域的示意图;
图9为本申请另一实施例提供的图像处理方法的流程示意图;
图10为本申请另一实施例提供的图像处理方法的流程示意图。
具体实施方式
下面示例性介绍本申请实施例可能涉及的相关内容。
在本申请的描述中,除非另有说明,“/”表示“或”的意思,例如,A/B可以表示A或B。本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。此外,“至少一个”是指一个或多个,“多个”是指两个或两个以上。“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
需要说明的是,本申请中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其他实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
以下,对本申请实施例中的部分用语进行解释说明:
本申请实施例涉及的曝光系数,是电子设备在拍摄图像时设置的参数。曝光参数可以用于指示设备在拍摄景物时,接收景物发出的光线的总量。曝光参数可以包括曝光时长和/或曝光强度等。
通常,曝光参数的取值的大小可以决定最终拍摄的图像的亮度值的大小。例如曝光时长较长或者曝光强度较大,则设备在拍摄图像时的进光量较大,所以拍摄的图像的亮度较大。如果曝光时长较短或者曝光强度较小,则设备在拍摄图像时的进光量较小,所以拍摄的图像的亮度较小。
本申请实施例涉及的像素,为一帧图像上的最小成像单元。一个像素可以对应图像上的一个坐标点。一个像素可以对应一个参数(比如灰度),也可以对应多个参数的集合(比如灰度、亮度、颜色等)。
本申请实施例涉及的动态范围,是图像中像素的亮度范围。
动态范围的表达式可以是:dynamic range=20log10(bright/dark);其中,dynamic range是指动态范围,bright是指“最亮”像素的亮度,dark是指“最暗”像素的亮度。
“最亮”像素的亮度和“最暗”像素的亮度可以通过照度值来表示。在自然场景下的动态范围可以达到10-5到108之间,人眼可视的动态范围可以达到1到104之间,而显示器能够显示的动态范围只在1到300左右。
示例性的,请参阅图1,图1中的(a)是低动态范围(low dynamic range,LDR)图像的示例图,图1中的(b)是高动态范围(high dynamic range,HDR)图像的示例图。由图1可以看出,高动态范围图像(即HDR图像)可以提供更多的动态范围和图像细节。
需要说明的,上述照度值,是指像素上所接收可见光的光通量,简称照度,单位是勒克斯(Lux)。
本申请实施例所涉及的对比度,是指画面中最大亮度和最小亮度的比值,是指一幅图像灰度反差的大小,能够体现图像的明暗对比。
示例性的,请参阅图2,图2中的(a)是对比度低的图像,图2中的(b)是对比度高的图像,由图2可以看出,对比度高的图像比对比度低的图像的明暗对比更加明显,能体现更多的图像细节。
本申请实施例所涉及的色调映射(tone mapping)是指对图像亮度进行映射变化的过程,色调映射可以使得处理后的图像能够更好地表达图像中的信息与特征。
色调映射是实现高动态范围图像的动态范围压缩的方式,色调映射通常通过色调映射曲线来实现,将需要进行色调映射的HDR高位宽合成图像中像素点的亮度对应到色调映射曲线的横坐标的数值,通过色调映射曲线就能够确定出该像素点映射后的低位宽图像对应的亮度(纵坐标对应的数值)。
需要说明的是,HDR高位宽合成图像一般是指动态范围高于8bit的数字图像,例如10bit图像、12bit图像、16bit图像等,低位宽图像一般是指动态范围低于8bit的数字图像,例如6bit图像、4bit图像等。
示例性的,对于色调映射曲线,在每个曝光系数下,都对应有多条根据经验值绘制的标定曲线(这些标定曲线可以对应不同的场景类别,例如人脸场景和非人脸场景等)。通过这么多条标定曲线进行色调映射,然后对色调映射后得到的图像的图像质量进行比较,选出图像质量最好的图像对应的标定曲线作为该曝光系数下对应的色调映射曲线。
需要说明的是对色调映射后得到的图像的图像质量进行比较可以通过肉眼判断来实现,也可以通过机器识别的方式来进行判断,本申请对此不加以赘述。
在逆光人像场景中,由于在进行色调映射时是将高动态范围压缩到低动态范围,而逆光人脸区域的亮度通常只在一小段亮度区间,因此在进行色调映射后得到的亮度区别度会变得很小,因此会导致人脸区域的对比度损失。
为了避免人脸区域的对比度损失,目前在进行色调映射时会使用人脸场景对应的色调映射曲线对全局图像进行色调映射,然而这虽然保证了人脸区域的对比度,但是会导致非人脸区域失真。
为了解决上述问题,本申请实施例提供了一种图像处理方法及电子设备,通过对待处理图像进行人脸识别,找到对应人脸区域,在做全局色调映射的时候针对该人脸区域进行单独色调映射曲线调整,而其他区域依旧使用全局的色调映射曲线,因此可以不影响全图其他区域的色调映射,在保证人脸区域的对比度的同时避免了非人脸区域失真。
下面将结合附图对本申请实施例提供的图像处理方法进行详细阐述,以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。
在本申请一些实施例中,上述图像处理方法的执行主体可以是电子设备。上述电子设备可以是具有图像处理功能的便携式终端,例如手机、平板电脑等。上述便携式电子设备也可以是其它便携式电子设备,例如数码相机、可穿戴设备。还应当理解的是,在本申请其他一些实施例中,上述电子设备也可以不是便携式电子设备,而是具有图像处理功能的台式计算机等。
通常情况下,电子设备支持多种应用。比如以下应用中的一个或多个:相机应用、即时消息收发应用、图库等。用户可以通过相机应用拍摄图像或录制视频,通过及时消息收发应用调用相机拍摄图像或视频,通过图库打开存储在电子设备中的图像。
以上述电子设备是手机为例,参阅图3,图3示出了手机100的硬件结构示意图。
手机100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线11,天线12,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,麦克风170C,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,SIM卡接口195。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,加速度传感器180E,距离传感器180F,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本申请实施例示意的结构并不构成对手机100的具体限定。在本申请另一些实施例中,手机100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是手机100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了***的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等***器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现手机100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现手机100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对手机100的结构限定。在本申请另一些实施例中,手机100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
手机100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏294和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,手机100可以包括1个或N个显示屏294,N为大于1的正整数。
手机100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄/录制功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色,锐度,色彩进行算法优化,例如进行去噪、去马赛克、色彩调整、亮度调整等优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,手机100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当手机100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,手机100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现手机100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
在一些实施例中,NPU或其他处理器可以用于对手机100拍摄到的或存储的视频/图像中包含人脸的图像进行人脸检测以及人脸区域亮度跟踪等操作,并输出人脸区域的平均亮度、最大亮度和最小亮度等参数。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。手机100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,手机100根据压力传感器180A检测触摸操作强度。手机100也可以根据压力传感器180A的检测信号计算触摸的位置。
在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于相机应用图标时,执行开启相机的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于相机应用图标时,执行打开图库的指令。
指纹传感器180H用于采集指纹。手机100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于手机100的表面,与显示屏194所处的位置不同。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。手机100可以接收按键输入,产生与手机100的用户设置以及功能控制有关的键信号输入。
在介绍完电子设备的硬件架构之后,下面将对该电子设备的软件***架构进行介绍。
电子设备的软件***可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构为例,示例性说明电子设备的软件结构。图4是本申请实施例的手机100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android***分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和***库,以及内核层。
应用程序层可以包括一些应用程序包,例如,应用程序包可以包括语音助手、相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。示例性地,应用程序框架层可以包括窗口管理器,内容提供器,视图***,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。视图***包括可视控件,例如显示文字的控件,显示图片的控件等。视图***可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。电话管理器用于提供电子设备的通信功能。例如通话状态的管理(包括接通,挂断等)。资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在***顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓***的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
以下结合附图,对一些可能的应用场景进行具体介绍:
应用场景一:用户通过图库选择图像进行处理的场景。
示例性的,请参阅图5,为应用场景一中可能涉及的一些图形用户界面(graphicaluser interface,GUI)示意图。
如图5所示,手机100的主显示界面51上包括应用商城、相机、备忘录、图库以及音乐等应用程序。
用户通过点击图库应用的图标52,手机100能够基于触摸传感器180K和/或压力传感器180A检测到该点击操作。手机100在检测到该点击操作后会响应该点击操作,打开图库应用,并显示图库应用界面53,图库应用界面中显示手机100中存储的图像(用户可以通过滑动操作对存储的图像进行预览)。
用户可以点击选择想要进行处理的图像54,手机100同样能够基于触摸传感器180K和/或压力传感器180A检测到该点击操作,手机100在检测到该点击操作后会响应该点击操作后,就会获取该图像,并作为待处理图像,并该图像传输到图像处理器中进行处理(此时可以在显示界面显示处理后的照片)。
或者,当用户点击选择想要进行处理的图像54后,弹出提示框55询问用户是否需要对其选择的图像54进行处理,若用户选择控件56(“是”),则获取该图像作为待处理图像,将该图像传输到图像处理器中进行处理。
需要说明的是,图像处理器对图像进行处理是在用户选择待处理图像或者在提示框中选择“是”后触发的,图像处理可以包括通过NPU或其他处理器进行人脸检测以及人脸区域亮度跟踪,确定出人脸区域的亮度范围,再通过数字信号处理器基于人脸区域范围对初始的色调映射曲线进行调整,得到人脸区域的色调映射曲线,基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的图像。
应用场景二:拍摄场景。
例如,用户使用手机100自拍。
示例性的,请参阅图6,为应用场景二中可能涉及的一些图形用户界面(graphicaluser interface,GUI)示意图。如图6所示,手机100的主界面61上包括应用商城、相机、备忘录、图库以及音乐等应用程序。
用户通过点击相机应用的图标62之后,手机100能够基于触摸传感器180K和/或压力传感器180A检测到该点击操作。手机100在检测到该点击操作后会响应该点击操作,打开相机应用,启动摄像头193,并同时显示取景界面63。此时用户可以选择自己喜欢的人、物、风景等进行拍照或录像(这里以自拍为例),当用户按下拍摄按钮64时,手机100会响应该操作,控制摄像头193拍摄/录制取景界面63中的图像信息,并获取该图像作为待处理图像,通过图像处理器进行图像处理。
或者,当用户点击拍摄按钮64后,在显示界面显示拍摄到的图像65,并弹出提示框66询问用户是否需要拍摄到的图像65进行处理,若用户选择控件67(“是”),则获取该图像作为待处理图像,再将该图像传输到图像处理器中进行处理。
在此,还可以在图库中保存处理后的图像。
图像处理器对图像进行处理是在点击拍摄按钮拍摄图像后或者在提示框中选择“是”后触发的,图像处理可以包括通过NPU或其他处理器进行人脸检测以及人脸区域亮度跟踪,确定出人脸区域的亮度范围,再通过数字信号处理器基于人脸区域范围对初始的色调映射曲线进行调整,得到人脸区域的色调映射曲线,基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的图像。
当然,本申请实施例提供的图像处理方法同样适用于视频场景,例如从图库中选择已保存的视频文件,然后对视频文件中每帧图像均进行处理。又例如通过摄像头拍摄视频时,可以对拍摄到的视频中的每帧图像均进行处理。
对视频文件中的每帧图像均进行处理具体可以是对视频文件中每帧图像进行人脸检测,如果存在人脸区域,则基于人脸区域的亮度范围调整初始的色调映射曲线,得到人脸区域的色调映射曲线,然后基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的帧图像,对于不存在人脸区域的帧图像,则使用初始的色调映射曲线对整帧图像进行色调映射,得到处理后的帧图像。
以上结合附图,对本申请实施例提供的图像处理方法所适用的应用场景进行了介绍。为更好地理解本申请实施例提供的图像处理方法,以下结合附图对其具体实现过程进行示例性介绍。
以下实施例可以在具有上述硬件结构和软件架构的电子设备(手机100)中实现。
下面介绍本申请实施例提供的图像处理方法的实现过程,请参阅图7,图7为本申请实施例提供的图像处理方法的流程示意图。如图7所示,上述方法包括:
S101:手机100响应于用户操作,获取待处理图像。
在本申请实施例中,针对不同的应用场景,上述用户操作可以是不同的操作。例如在上述应用场景一中,上述用户操作可以是用户点击选择想要进行处理的图像的点击操作,或者用户点击提示框中“是”的点击操作。又例如在上述应用场景二中,上述用户操作可以是用户电机拍摄按钮的点击操作,或者用户点击提示框中“是”的点击操作。
在手机100检测到上述用户操作后,就会触发手机100获取待处理图像,具体可以参见上述相关内容,为避免重复,此处不再赘述。
在本申请实施例中,上述待处理图像为包含逆光人脸区域的图像。
在本申请实施例中,上述待处理图像的格式可以是RAW格式的图像,当然也可以是RGB格式的图像,在此不加以限制。
在本申请一实施例中,上述待处理图像是HDR高位宽图像。
HDR高位宽合成图像可以直接从sensor获取,也可以通过长曝光帧和短曝光帧进行合成而得到。在此,可以长曝光帧和短曝光帧可以由sensor输出,然后再由对长曝光帧和短曝光帧进行融合,就能够得到上述HDR高位宽图像。
需要说明的是,长曝光帧的曝光时间大于短曝光帧的曝光时间,具体的长曝光帧和短曝光帧的曝光比可以是64:1。
需要说明的是,曝光比是指长曝光帧的曝光时长乘以感光度(ISO)得到的乘积与短曝光帧的曝光时长乘以感光度得到的乘积的比值。
还需要说明的是,HDR高位宽图像一般是指动态范围高于8bit的数字图像,例如10bit图像、12bit图像、16bit图像等。
S102:识别待处理图像中的人脸区域,并确定所述人脸区域的亮度范围。
在本申请实施例中,人脸区域的识别可以利用神经网络处理器((neural-networkprocessing unit,NPU))来实现。即通过在NPU中配置用于人脸区域检测的神经网络模型,通过该神经网络来识别待处理图像中的人脸区域。
具体的,手机100在响应用户操作获取到待处理图像之后,可以将待处理图像输入到NPU中的神经网络模型进行处理,进而得到待处理图像中的人脸区域。上述神经网络模型可以是CNN模型,例如fast R-CNN模型、RetinaFace模型等常用的神经网络模型,在此不再加以赘述。
需要说明的是,在NPU输出时可以通过感兴趣区域(region of interest,ROI)的方式来表示人脸区域,即从待处理图像中以方框、圆、椭圆、不规则多边形等方式勾勒出人脸区域,示例性的,可以通过方框勾勒出人脸区域。
在确定了人脸区域后,可以通过图像信号处理器(image signal processor,ISP)中的自动曝光(auto exposure,AE)算法直接输出该人脸区域的亮度范围。上述亮度范围可以是人脸区域的最低亮度的像素的亮度值到人脸区域的最高亮度的像素的亮度值这个范围来表示,即人脸区域的最低亮度的像素的亮度值为该亮度范围的下限值,人脸区域的最高亮度的像素的亮度值为该亮度范围的上限值。
上述亮度范围也可以是基于人脸区域的平均亮度来确定,例如在确定了人脸区域的平均亮度后,增加预设亮度得到第一亮度,减少预设亮度得到第二亮度,例如得到的平均亮度是20,在此基础上增加平均亮度的10%(即2)得到第一亮度为22,在此基础上减少平均亮度的10%(即2)得到第二亮度为18,那么亮度范围就是18~22。需要说明的是预设亮度可以根据实际应用来设置,例如可以设置为平均亮度的10%或20%等,本申请对此不加以限制。
在此需要说明的是,人脸区域的最高亮度、最低亮度和平均亮度可以由AE直接确定。AE可以先确定出人脸区域中每个像素点的亮度,然后通过对应的公式确定出人脸区域的最高亮度、最低亮度和平均亮度。
例如,利用AE算法统计人脸区域的像素的亮度,然后通过如下公式计算出人脸区域的平均亮度:
其中,lumaface是指人脸区域的平均亮度,lumapi是指人脸区域中每个像素点的亮度,N为人脸区域中包含的像素点的个数。
又例如,可以通过代码访问AE直接调用最大函数(max(Face_area)函数)得到人脸区域的最高亮度,调用最小函数(min(Face_area)函数)得到人脸区域的最低亮度。
S103:根据所述人脸区域的亮度范围调整初始的色调映射曲线,得到人脸区域的色调映射曲线。
在本申请实施例中,可以先基于待处理图像确定出初始的色调映射曲线,然后根据人脸区域的亮度范围对初始的色调映射曲线的输出亮度的范围,进而得到针对人脸区域的色调映射曲线。
基于待处理图像确定出初始的色调映射曲线可以是通过获取待处理图像的曝光比进而确定出标定曲线,再通过直方图均衡法得到该待处理图像对应的初始的色调映射曲线。
需要说明的是,初始的色调映射曲线是基于待处理图像的曝光比确定的,因此可以用于对该待处理图像的非人脸区域的进行色调映射,且可以基于人脸区域的亮度范围对初始的色调映射曲线对人脸区域对应的部分进行调整,进而得到人脸区域对应的色调映射曲线。
示例性的,如长曝光帧和短曝光帧合成得到的待处理图像,分别获取长曝光帧的曝光时间和ISO,短曝光帧的曝光时间和ISO,就能够确定出待处理图像的曝光比。
标定曲线可以基于待处理图像的曝光进行插值而得到,直方图均衡法可以基于待处理图的曝光比对图像进行均衡,进而确定出该待处理图像对应的初始的色调映射曲线。
初始的色调映射曲线可以以LUT表(look-up-table)的形式保存在ISP中。
根据人脸区域的亮度范围对初始的色调映射曲线进行调整可以是将人脸区域的亮度范围对应的初始的色调映射曲线的输出亮度的范围增加预设范围,示例性的,上述预设范围可以是10%-20%。
调整后的人脸区域的色调映射曲线同样可以以LUT表的形式保存在ISP中。
需要说明的是,LUT表将进行色调映射前的亮度与变换后的亮度进行映射,即输入值为色调映射前的亮度值(就是待处理图像中各个像素的实际亮度值),输出值为经过一系列变换(如阈值、反转、二值化、对比度调整、线性变换等)后得到的亮度值。
示例性的,如表1所示,LUT表中包括两个字段(iput和output),iput字段为图像中像素的原始亮度值,第二个字段为与原始亮度值对应的色调映射后的亮度值。
表1:
input | output |
2^4 | 2^6 |
2^6 | 2^7 |
2^10 | 2^8 |
2^12 | 2^10 |
2^16 | 2^12 |
2^18 | 2^14 |
在此,由于在进行色调映射时是将高动态范围压缩到低动态范围,而逆光人脸区域的亮度通常只在一小段亮度区间,因此在进行色调映射后得到的亮度区别度会变得很小,会导致人脸区域的对比度损失,因此针对人脸区域,增大色调映射曲线对应的输出亮度的范围就可以增大色调映射后的亮度区别度(即对比度),避免人脸区域的对比度损失。
具体可以参阅图8,在确定了初始的色调映射曲线L1之后,通过对初始的色调映射曲线进行调整,就能够得到人脸区域的色调映射曲线L2。
需要说明的是,图8中的坐标系的横坐标表示的是待处理图像的像素的亮度,图8中的坐标系的纵坐标表示的是处理后的图像像素的亮度,输出亮度的范围就是指纵坐标的范围。
由图8可以看出,针对于人脸区域(横坐标对应为Face_th1至Face_th2)初始的色调映射曲线L1对应的纵坐标(输出亮度的范围)为out_th1至out_th2,该范围明显小于人脸区域的色调映射曲线L2对应的纵坐标(out_th1至out_th2s),也就是说,基于人脸区域的色调映射曲线L2对人脸区域进行色调映射的输出亮度的范围会大于基于初始的色调映射曲线L1对人脸区域进行色调映射的输出亮度的范围。
S104:基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的图像。
在本申请实施例中,上述处理后的图像可以是HDR低位宽图像。
在本申请实施例中,对于人脸区域,通过ISP得到待处理图像中的人脸区域的每个像素的亮度后,通过人脸区域的色调映射曲线进行转换就可以得到对应的输出亮度,即可以确定处理后的图像中人脸区域的每个像素的亮度。
对于非人脸区域,同样可以通过ISP得到待处理图像中非人脸区域的每个像素的亮度,然后通过初始的色调映射曲线进行转换就可以得到对应的输出亮度,即可以确定处理后的图像中非人脸区域的每个像素的亮度。
需要说明的是,对于初始的色调映射曲线,由于在每个曝光系数下,都对应有多条根据经验值绘制的标定曲线(这些标定曲线可以对应不同的场景类别,例如人脸场景和非人脸场景等)。因此,在确定初始的色调映射曲线时,可以通过这么多条标定曲线进行色调映射,然后对色调映射后得到的图像的图像质量进行比较,选出图像质量最好的图像对应的标定曲线作为该曝光系数下对应的初始的色调映射曲线。
需要说明的是,对色调映射后得到的图像的图像质量进行比较可以通过肉眼判断来实现,也可以通过机器识别的方式来进行判断,本申请对此不加以限制。
以上可以看出,本申请实施例提供的通过对待处理图像进行人脸识别,找到对应人脸区域,在做全局色调映射的时候针对该人脸区域进行单独色调映射曲线调整,而其他区域依旧使用全局的色调映射曲线,因此可以不影响全图其他区域的色调映射,在保证人脸区域的对比度的同时避免了非人脸区域失真。
请参阅图9,区别于上一实施例,本申请另一实施例提供的图像处理方法在S103之后,还包括以下步骤:
S105:基于人脸区域的色调映射曲线和初始的色调映射曲线对人脸边缘区域进行融合处理。
在本申请实施例中,对人脸边缘区域进行融合处理后就可以得到人脸边缘区域的色调映射值。
在本申请实施例中,人脸边缘区域是指人脸和背景交接的区域,为了使得色调映射后的图像整体的对比度不会产生太大的突变,就需要对使用不同色调映射曲线进行色调映射的两个区域的交接处(即人脸边缘区域)进行融合处理,使得两个区域可以平滑过渡。
在具体应用中,可以将初始的色调映射曲线的gain值和人脸区域的色调映射曲线的gain值进行融合。
需要说明的是,gain值是指偏移量,在本申请实施例中,上述gain值可以指色调映射曲线的输出值(即如图8中的纵轴对应的值)。
在具体应用中,可以基于人脸检测的方式先确定出人脸边缘区域,然后确定出人脸边缘区域中每个像素点的亮度,再对应找到初始的色调映射曲线在该亮度下对应的输出亮度(以下简称为第一输出亮度)和人脸区域的色调映射曲线在该亮度下对应的输出亮度(以下简称为第二输出亮度),然后通过平均融合的方式将第一输出亮度和第二输出亮度进行融合,即取第一输出亮度的50%和第二输出亮度的50%,然后相加得到该像素点在进行色调映射时的输出亮度。
在具体应用中,除了平均融合的方式外,还可以采用非线性融合的方法进行融合,例如对于靠近人脸区域的像素点,取第一输出亮度的30%,取第二输出亮度的70%进行融合,对于靠近非人脸区域的像素点,取第一输出亮度的70%,取第二输出亮度的30%进行融合。当然还可以基于线性过渡的融合方式来实现融合,即根据像素点距离人脸区域的距离来设定第一输出亮度和第二输出亮度的取值比重,例如越靠近人脸区域的像素点,第二输出亮度的取值比重越高,越远离人脸区域的像素点,第二输出亮度的取值比重越低等(可以依次设置为90%、80%、70%、60%、50%、40%、30%、20%、10%等)。此时第一输出亮度的比重可以对应设置为10%、20%、30%、40%、50%、60%、70%、80%、90%等。需要清楚的是,以上取值比重仅为示例而非限制。
通过平均融合、非线性融合、线性过渡融合等方式将初始的色调映射曲线和人脸区域的色调映射曲线进行融合后,就能够确定出人脸边缘区域的色调映射值,同样的,人脸边缘区域的色调映射值可以以LUT表的形式保存在ISP中。在此,人脸边缘区域的色调映射值对应的LUT表同样可以参见表1,其中,output字段对应的值变更为人脸边缘区域的色调映射值。
相应地,S104包括:基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,基于融合后的人脸边缘区域的色调映射值对人脸边缘区域进行色调映射,得到处理后的图像。
在本申请实施例中,除了确定了人脸区域的色调映射曲线和初始的色调映射曲线外,还得到了融合后的人脸边缘区域的色调映射值,因此可以通过人脸边缘区域的色调映射值确定人脸边缘区域的每个像素点的输出亮度,进而确定出处理后的中人脸边缘区域的每个像素的亮度。
以上可以看出,本申请实施例提供的图像处理方法,不仅能够在保证人脸区域的对比度的同时避免非人脸区域失真,还可以使得人脸区域和非人脸区域平滑过渡,避免图像整体的对比度存在大的突变。
请参阅图10,区别于上一实施例,本申请另一实施例提供的图像处理方法,在S104之后还包括以下步骤:
S106:对处理后的图像进行局部色调映射调整,得到局部色调映射调整后的目标图像。
由于全局色调映射对所有像素点都采用同样的方法进行处理,没有区分像素所在的区域是较亮的区域还是较暗的区域,因此得到的图像会失去很多局部的对比度和细节。而局部色调映射调整是指根据各个像素点的周边像素对图像进行调整的色调映射方法,由于像素所在位置不同,因此其周边像素的亮度也不同(像素位于较亮的区域时,周边像素的亮度较高,像素位于较暗的区域时,周边像素的亮度较低),因此,通过局部色调映射后得到的亮度值也会不同,像素点的映射结果受周围像素点影响,可以更好地保护高亮和阴影部分的局部对比度和图像细节,提高色调映射的效果。
在本申请实施例中,上述局部色调映射调整方法可以采用现有的局部色调映射方法,例如照度和反射分离法(reflectiance&lllumination TMO)、双边滤波法(bilatearfiler)等,在此不再加以赘述。
以上可以看出,在本申请实施例中,为了提高色调映射的效果,在进行了全局色调映射之后,还可以对图像进行局部色调映射调整,得到显示效果更好的目标图像。
基于同一发明构思,作为对上述方法的实现,本申请实施例提供了一种电子设备,该电子设备实施例与前述方法实施例对应,为便于阅读,本实施例不再对前述方法实施例中的细节内容进行逐一赘述,但应当明确,本实施例中的装置能够对应实现前述方法实施例中的全部内容。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/电子设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/电子设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/电子设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
最后应说明的是:以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (11)
1.一种图像处理方法,其特征在于,包括:
获取待处理图像;
识别所述待处理图像中的人脸区域,并确定所述人脸区域的亮度范围;
根据所述人脸区域的亮度范围调整初始的色调映射曲线,得到人脸区域的色调映射曲线;
基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的图像。
2.根据权利要求1所述的图像处理方法,其特征在于,在根据所述人脸区域的亮度范围调整初始的色调映射曲线,得到人脸区域的色调映射曲线之前,还包括:
根据待处理图像的曝光系数确定初始的色调映射曲线。
3.根据权利要求1所述的图像处理方法,其特征在于,所述识别所述待处理图像中的人脸区域,并确定所述人脸区域的亮度范围,包括:
通过神经网络模型进行人脸识别,确定所述待处理图像中的人脸区域;
获取所述人脸区域中每个像素点的亮度;
基于所述人脸区域中每个像素点的亮度确定所述人脸区域的亮度范围。
4.根据权利要求3所述的图像处理方法,其特征在于,所述基于所述人脸区域中每个像素点的亮度确定所述人脸区域的亮度范围,包括:
根据所述人脸区域中每个像素点的亮度确定所述人脸区域中像素点的平均亮度,基于所述平均亮度增加预设亮度得到第一亮度,基于平均亮度减少所述预设亮度得到第二亮度;其中,所述第二亮度为所述亮度范围的下限值,所述第一亮度为所述亮度范围的上限值。
5.根据权利要求3所述的图像处理方法,其特征在于,所述基于所述人脸区域中每个像素点的亮度确定所述人脸区域的亮度范围,包括:
根据所述人脸区域中每个像素点的亮度确定所述人脸区域的最高亮度和所述人脸区域的最低亮度,基于所述最高亮度和最低亮度确定所述亮度范围。
6.根据权利要求1所述的图像处理方法,其特征在于,所述待处理图像为HDR高位宽图像。
7.根据权利要求1至6任一项所述的图像处理方法,其特征在于,在所述根据所述人脸区域的亮度范围调整初始的色调映射曲线,得到人脸区域的色调映射曲线之后,还包括:
基于所述人脸区域的色调映射曲线和所述初始的色调映射曲线对人脸边缘区域进行融合处理。
8.根据权利要求1至7任一项所述的图像处理方法,其特征在于,在基于初始的色调映射曲线对非人脸区域进行色调映射,基于人脸区域的色调映射曲线对人脸区域进行色调映射,得到处理后的图像之后,还包括:
对所述处理后的图像进行局部色调映射调整,得到局部色调映射调整后的目标图像。
9.一种电子设备,其特征在于,包括处理器和存储器,所述处理器和存储器耦合,
所述存储器用于存储计算机程序,当所述处理器执行所述计算机程序时,使得电子设备执行权利要求1至8中任意一项所述的方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括计算机程序,当所述计算机程序在计算机上运行时,使得计算机执行如权利要求1至8任意一项所述的方法的步骤。
11.一种芯片,其特征在于,包括处理器,所述处理器和存储器耦合,所述存储器用于存储计算机程序指令,当所述处理器执行所述计算机程序指令时,使得芯片执行如权利要求1至8中任意一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110991378.2A CN114463191B (zh) | 2021-08-26 | 2021-08-26 | 一种图像处理方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110991378.2A CN114463191B (zh) | 2021-08-26 | 2021-08-26 | 一种图像处理方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114463191A true CN114463191A (zh) | 2022-05-10 |
CN114463191B CN114463191B (zh) | 2023-01-31 |
Family
ID=81406639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110991378.2A Active CN114463191B (zh) | 2021-08-26 | 2021-08-26 | 一种图像处理方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114463191B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117395495A (zh) * | 2023-12-08 | 2024-01-12 | 荣耀终端有限公司 | 一种图像处理方法及电子设备 |
CN117714842A (zh) * | 2023-07-10 | 2024-03-15 | 荣耀终端有限公司 | 图像曝光控制方法、装置、***、电子设备及介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104620281A (zh) * | 2012-09-12 | 2015-05-13 | 皇家飞利浦有限公司 | 使hdr观看为内容所有者同意的过程 |
CN108198152A (zh) * | 2018-02-07 | 2018-06-22 | 广东欧珀移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN108876886A (zh) * | 2017-05-09 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置和计算机设备 |
CN109360163A (zh) * | 2018-09-26 | 2019-02-19 | 深圳积木易搭科技技术有限公司 | 一种高动态范围图像的融合方法及融合*** |
CN110033418A (zh) * | 2019-04-15 | 2019-07-19 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN110047060A (zh) * | 2019-04-15 | 2019-07-23 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN110473156A (zh) * | 2019-08-12 | 2019-11-19 | Oppo广东移动通信有限公司 | 图像信息的处理方法、装置、存储介质及电子设备 |
CN111131722A (zh) * | 2019-12-30 | 2020-05-08 | 维沃移动通信有限公司 | 图像处理方法、电子设备及介质 |
CN111784607A (zh) * | 2020-06-30 | 2020-10-16 | Oppo广东移动通信有限公司 | 图像色调映射方法、装置、终端设备及存储介质 |
CN112215760A (zh) * | 2019-07-11 | 2021-01-12 | 华为技术有限公司 | 一种图像处理的方法及装置 |
CN112351195A (zh) * | 2020-09-22 | 2021-02-09 | 北京迈格威科技有限公司 | 图像处理方法、装置和电子*** |
CN112565636A (zh) * | 2020-12-01 | 2021-03-26 | 影石创新科技股份有限公司 | 图像处理方法、装置、设备和存储介质 |
CN113132696A (zh) * | 2021-04-27 | 2021-07-16 | 维沃移动通信有限公司 | 图像色调映射方法、装置、电子设备和存储介质 |
-
2021
- 2021-08-26 CN CN202110991378.2A patent/CN114463191B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104620281A (zh) * | 2012-09-12 | 2015-05-13 | 皇家飞利浦有限公司 | 使hdr观看为内容所有者同意的过程 |
CN108876886A (zh) * | 2017-05-09 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置和计算机设备 |
CN108198152A (zh) * | 2018-02-07 | 2018-06-22 | 广东欧珀移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN109360163A (zh) * | 2018-09-26 | 2019-02-19 | 深圳积木易搭科技技术有限公司 | 一种高动态范围图像的融合方法及融合*** |
CN110033418A (zh) * | 2019-04-15 | 2019-07-19 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN110047060A (zh) * | 2019-04-15 | 2019-07-23 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN112215760A (zh) * | 2019-07-11 | 2021-01-12 | 华为技术有限公司 | 一种图像处理的方法及装置 |
CN110473156A (zh) * | 2019-08-12 | 2019-11-19 | Oppo广东移动通信有限公司 | 图像信息的处理方法、装置、存储介质及电子设备 |
CN111131722A (zh) * | 2019-12-30 | 2020-05-08 | 维沃移动通信有限公司 | 图像处理方法、电子设备及介质 |
CN111784607A (zh) * | 2020-06-30 | 2020-10-16 | Oppo广东移动通信有限公司 | 图像色调映射方法、装置、终端设备及存储介质 |
CN112351195A (zh) * | 2020-09-22 | 2021-02-09 | 北京迈格威科技有限公司 | 图像处理方法、装置和电子*** |
CN112565636A (zh) * | 2020-12-01 | 2021-03-26 | 影石创新科技股份有限公司 | 图像处理方法、装置、设备和存储介质 |
CN113132696A (zh) * | 2021-04-27 | 2021-07-16 | 维沃移动通信有限公司 | 图像色调映射方法、装置、电子设备和存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117714842A (zh) * | 2023-07-10 | 2024-03-15 | 荣耀终端有限公司 | 图像曝光控制方法、装置、***、电子设备及介质 |
CN117395495A (zh) * | 2023-12-08 | 2024-01-12 | 荣耀终端有限公司 | 一种图像处理方法及电子设备 |
CN117395495B (zh) * | 2023-12-08 | 2024-05-17 | 荣耀终端有限公司 | 一种图像处理方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114463191B (zh) | 2023-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020168956A1 (zh) | 一种拍摄月亮的方法和电子设备 | |
EP4024845A1 (en) | Time-lapse photography method and device | |
CN112532892B (zh) | 图像处理方法及电子装置 | |
WO2022262497A1 (zh) | 拍摄方法、图形界面及相关装置 | |
CN113810603B (zh) | 点光源图像检测方法和电子设备 | |
WO2023015991A1 (zh) | 拍照方法、电子设备和计算机可读存储介质 | |
CN114463191B (zh) | 一种图像处理方法及电子设备 | |
CN113452969B (zh) | 图像处理方法和装置 | |
CN114466134A (zh) | 生成hdr图像的方法及电子设备 | |
CN118175436A (zh) | 图像处理方法及其相关设备 | |
WO2022267608A1 (zh) | 一种曝光强度调节方法及相关装置 | |
CN117201930B (zh) | 一种拍照方法和电子设备 | |
CN117499779B (zh) | 一种图像预览方法、设备以及存储介质 | |
WO2023160221A1 (zh) | 一种图像处理方法和电子设备 | |
CN116668838B (zh) | 图像处理方法与电子设备 | |
CN115460343B (zh) | 图像处理方法、设备及存储介质 | |
CN113891008B (zh) | 一种曝光强度调节方法及相关设备 | |
CN117133252B (zh) | 图像处理方法和电子设备 | |
CN115705663B (zh) | 图像处理方法与电子设备 | |
CN116668862B (zh) | 图像处理方法与电子设备 | |
CN116723417B (zh) | 一种图像处理方法和电子设备 | |
CN115484384B (zh) | 控制曝光的方法、装置与电子设备 | |
CN117119316B (zh) | 图像处理方法、电子设备及可读存储介质 | |
CN118175246A (zh) | 处理视频的方法、显示设备及存储介质 | |
CN117711300A (zh) | 一种图像的显示方法、电子设备、可读存储介质和芯片 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |