CN113518172A - 图像处理方法和装置 - Google Patents
图像处理方法和装置 Download PDFInfo
- Publication number
- CN113518172A CN113518172A CN202010226094.XA CN202010226094A CN113518172A CN 113518172 A CN113518172 A CN 113518172A CN 202010226094 A CN202010226094 A CN 202010226094A CN 113518172 A CN113518172 A CN 113518172A
- Authority
- CN
- China
- Prior art keywords
- image
- camera
- terminal
- magnification
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 12
- 238000000034 method Methods 0.000 claims abstract description 103
- 238000012545 processing Methods 0.000 claims abstract description 42
- 239000011159 matrix material Substances 0.000 claims description 82
- 238000013528 artificial neural network Methods 0.000 claims description 52
- 238000005457 optimization Methods 0.000 claims description 31
- 230000009467 reduction Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 11
- 230000035945 sensitivity Effects 0.000 claims description 7
- 206010034960 Photophobia Diseases 0.000 claims description 6
- 208000013469 light sensitivity Diseases 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 230000009286 beneficial effect Effects 0.000 abstract description 10
- 239000010410 layer Substances 0.000 description 39
- 230000006870 function Effects 0.000 description 35
- 238000013461 design Methods 0.000 description 30
- 238000007726 management method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 15
- 238000003860 storage Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000005286 illumination Methods 0.000 description 8
- 230000002159 abnormal effect Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 7
- 239000003086 colorant Substances 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000011524 similarity measure Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 206010034972 Photosensitivity reaction Diseases 0.000 description 1
- 241001464837 Viridiplantae Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000003811 finger Anatomy 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 230000001795 light effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000036211 photosensitivity Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 210000004935 right thumb Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/13—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/72—Combination of two or more compensation controls
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Studio Devices (AREA)
Abstract
本申请公开了图像处理方法和装置,涉及图像处理技术领域,有助于在对图像的颜色、对比度或动态范围进行优化的同时,使得优化后的图像能够更客观,且提高了鲁棒性。该方法应用于包括第一摄像头和第二摄像头的终端,第一摄像头的倍率不小于第二摄像头的倍率,方法包括:当第一摄像头在当前拍摄环境中的ISO大于第一阈值时:通过第一摄像头针对当前拍摄环境中的第一场景采集第一图像;通过第二摄像头针对第一场景采集第二图像;根据第二图像优化第一图像,得到第三图像。第二图像的图像风格优于第一图像,第三图像的图像风格优于第一图像。图像风格包括颜色、对比度和动态范围中的至少一种。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及图像处理方法和装置。
背景技术
在拍照时,对图像颜色的优化一直是研究和商用的热点。目前,通常基于单帧图像进行颜色的优化,即基于所拍摄的图像本身的特征对该图像的颜色进行优化。该方法缺乏对客观环境信息的采集,故很难保证客观和可控鲁棒,即最终效果容易“偏题失真”,从而导致用户体现差。
发明内容
本申请实施例提供了图像处理方法和装置,有助于在对图像的颜色、对比度或动态范围进行优化的同时,使得优化后的图像能够更客观,且提高了鲁棒性。
为达到上述目的,本申请采用如下技术方案:
第一方面,提供了一种图像处理方法,该方法应用于终端,该终端包括第一摄像头和第二摄像头,第一摄像头的倍率不小于第二摄像头的倍率,该方法包括:当第一摄像头在当前拍摄环境中的感光度ISO大于第一阈值时:通过第一摄像头针对当前拍摄环境中的第一场景采集第一图像;通过第二摄像头针对第一场景采集第二图像;根据第二图像优化第一图像,得到第三图像。其中,当第二图像的颜色优于第一图像的颜色时,第三图像的颜色优于第一图像的颜色(条件1);或者,当第二图像的对比度高于第一图像的对比度时,第三图像的对比度高于第一图像的对比度(条件2);或者,当第二图像的动态范围大于第一图像的动态范围时,第三图像的动态范围大于第一图像的动态范围(条件3)。需要说明的是,上述条件1、条件2和条件3中的至少两种可以同时满足。
该技术方案中,终端利用基于同一场景中颜色、对比度或动态范围优于第一图像的第二图像,优化第一图像。由于考虑了客观环境信息的采集,因此,相比现有技术中,使用单帧图像优化颜色的技术方案,有助于使得优化的的图像能够更客观的表示真实场景,并且,提高了鲁棒性。
在一种可能的设计中,第二图像的颜色优于第一图像的颜色,包括以下至少一种条件:第二图像的色度大于第一图像的色度;第二图像的亮度大于第一图像的亮度。
在一种可能的设计中,第三图像的图像内容与第一图像的图像内容相同(或者近似相同),具体可以体现为第三图像的纹理信息与第一图像的纹理信息相同(或者近似相同)。这样,有助于在实现对第一图像的颜色、对比度或动态范围中的至少一种进行优化的同时,保证了纹理信息不变或者变化不大,从而有助于使得图像的纹理更接近于真实场景中的纹理,进而提高了图像的效果,提高了用户体验。
在一种可能的设计中,第二摄像头的感光性能大于第一摄像头的感光性能。这有助于使得第二图像的颜色、对比度或动态范围中的至少一种优于第一图像。
在一种可能的设计中,第二摄像头的光圈大于第一摄像头的光圈。这有助于使得第二图像的颜色、对比度或动态范围中的至少一种优于第一图像。
在一种可能的设计中,第二摄像头采集第二图像时的曝光时长大于第一摄像头采集第一图像时的曝光时长。这有助于使得第二图像的颜色、对比度或动态范围中的至少一种优于第一图像。
在一种可能的设计中,第二摄像头采集第二图像时所使用的ISO大于第一摄像头采集第一图像时所使用的ISO。这有助于使得第二图像的颜色、对比度或动态范围中的至少一种优于第一图像。
在一种可能的设计中,第二摄像头的倍率范围包括[0.5,1),第一摄像头的倍率范围包括[1,20]。例如,第二摄像头是广角摄像头,第一摄像头是1X摄像头、3X摄像头或10X摄像头等。
在一种可能的设计中,第二摄像头的倍率是1,第一摄像头的倍率范围包括(1,20]。例如,第二摄像头是1X摄像头,第一摄像头是3X摄像头或10X摄像头等。
在一种可能的设计中,该方法还包括:通过第一摄像头针对第一场景采集N帧图像,N是大于等于1的整数;根据N帧图像以及第一图像进行多帧降噪(或多帧融合),得到第四图像。其中,第四图像的图像内容与第一图像的图像内容相同。该情况下,根据第二图像优化第一图像,得到第三图像,包括:根据第二图像优化第四图像,得到第三图像。也就是说,终端可以对基于同一摄像头拍摄的多个图像融合后的图像进行优化,得到第三图像。
在一种可能的设计中,该方法还包括:通过第一摄像头和第二摄像头分别针对第一场景采集N1帧图像和N2帧图像;其中,N1和N2均是大于等于1的整数;根据N1帧图像、N2帧图像和第一图像进行多帧降噪(或多帧融合),得到第五图像。其中,第五图像的图像内容与第一图像的图像内容相同。该情况下,根据第二图像优化第一图像,得到第三图像,包括:根据第二图像优化第五图像,得到第三图像。也就是说,终端可以对不同摄像头拍摄的多个图像融合后的图像进行优化,得到第三图像。
在一种可能的设计中,方法还包括:当终端针对第一场景的拍摄倍率在[1,A)时,选择终端中倍率为1的摄像头作为第一摄像头;或者,当终端针对第一场景的拍摄倍率在[A,B)时,选择终端中倍率为A的摄像头作为第一摄像头;或者,当终端针对针对第一场景的拍摄倍率大于C时,选择终端中倍率为C的摄像头作为第一摄像头。
例如,当终端针对第一场景的拍摄倍率在[1,3)时,选择终端中倍率为1的摄像头作为第一摄像头;或者,当终端针对第一场景的拍摄倍率在[3,7)时,选择终端中倍率为3的摄像头作为第一摄像头;或者,当终端针对第一场景的拍摄倍率大于10时,选择终端中倍率为10的摄像头作为第一摄像头。
在一种可能的设计中,终端还包括第三摄像头,第三摄像头为终端中不同于第一摄像头和第二摄像头的摄像头,第三摄像头的倍率不大于第一摄像头的倍率;该方法还包括:通过第一摄像头和第三摄像头分别针对第一场景采集N3帧图像和N4帧图像;其中,N3和N4均是大于等于1的整数;根据N3帧图像、N4帧图像和第一图像进行多帧降噪(或多帧融合),得到第六图像。其中,第六图像的图像内容与第一图像的图像内容相同。该情况下,根据第二图像优化第一图像,得到第三图像,包括:根据第二图像优化第六图像,得到第三图像。也就是说,终端可以基于至少三个摄像头拍摄的多个图像融合后的图像进行优化,得到第三图像。
在一种可能的设计中,该方法还包括:当终端针对第一场景的拍摄倍率在[7,10)时,选择终端中倍率为10的摄像头作为第一摄像头,并选择终端中倍率为3的摄像头作为第三摄像头。
在一种可能的设计中,上述方法还包括:当终端针对第一场景的拍摄倍率在[1,A)时,选择终端中倍率为1或者小于1的摄像头作为第二摄像头;或者,当终端针对第一场景的拍摄倍率在[A,B)时,选择终端中倍率小于等于A的摄像头作为第二摄像头;或者,当终端针对第一场景的拍摄倍率大于C时,选择终端中倍率小于等于C摄像头作为第二摄像头。
例如,当终端针对第一场景的拍摄倍率在[1,3)时,选择终端中倍率1或小于1的摄像头作为第二摄像头;
或者,当终端针对第一场景的拍摄倍率在[3,7)时,选择终端中倍率为3、1、或者小于1的摄像头作为第二摄像头;
或者,当终端针对第一场景的拍摄倍率在[7,10)时,选择终端中倍率为3、1、或者小于1的摄像头作为第二摄像头;
或者,当终端针对第一场景的拍摄倍率大于10时,选择终端中倍率为10、3、1、或者小于1的摄像头作为第二摄像头。
在一种可能的设计中,根据第二图像优化第一图像,得到第三图像,包括:获取第一图像中至少两个子图像的颜色校正矩阵CCM矩阵;其中,至少两个子图像包括第一子图像,第一子图像的CCM矩阵用于表征第一子图像的特征与第二图像中的第二子图像的特征之间的映射关系;第一子图像和第二子图像是同一对象的图像;特征包括颜色、对比度或动态范围中的至少一种;基于至少两个子图像的CCM矩阵,得到第一图像中的像素的CCM矩阵;其中,第一图像包括第一像素,第一像素的CCM矩阵用于表征第一像素的特征与第二图像中的第二像素的特征之间的映射关系;第一像素和第二像素对应于同一图像内容;基于第一图像中的像素的CCM矩阵和第一图像,得到第三图像。先确定每个子图像的CCM矩阵,再通过传统的方法插值得到每个像素的CCM矩阵。这样,有助于降低计算复杂度,从而缩短计算时间,并有效控制了性能开销。
其中,第一像素和第二像素对应于同一图像内容,可以理解为:第一图像和第二图像配准之后,第一像素在第一图像中的位置与第二像素在第二图像中的位置相同(或者近似相同)。
在一种可能的设计中,获取第一图像中至少两个子图像的CCM矩阵,包括:使用第一神经网络获取至少两个子图像的CCM矩阵;第一神经网络用于对第一图像的特征和纹理信息,以及第二图像的特征和纹理信息进行分析,得到至少两个子图像的CCM矩阵。
在一种可能的设计中,根据第二图像优化第一图像,得到第三图像,包括:
使用第二神经网络和第二图像优化第一图像,得到第三图像;第二神经网络用于利用图像风格较好的图像对图像风格较差的图像进行图像风格优化。这样有助于使优化结果更好。
第二方面,提供了一种图像处理方法,方法应用于终端,终端包括第一摄像头和第二摄像头,第一摄像头的倍率不小于第二摄像头的倍率,方法包括:当第一摄像头在当前拍摄环境中的感光度ISO大于第一阈值时:通过第一摄像头针对当前拍摄环境中的第一场景采集第一图像;通过第二摄像头针对第一场景采集第二图像;其中,第二图像的颜色比第一图像的颜色更接近第一场景的真实颜色;根据第二图像优化第一图像,得到第三图像;第三图像的颜色比第一图像的颜色更接近第一场景的真实颜色。本实施例尤其适用于所拍摄的图像的颜色与真实场景的颜色相差过大,即出现偏色现象的场景中,在该场景中,有助于实现优化后的图像的颜色相比优化前的图像的颜色更接近于真实场景的颜色。
在一种可能的设计中,第二图像与第一图像满足如下至少一种条件:第二图像的色度比第一图像的色度更接近第一场景的真实色度;第二图像的亮度比第一图像的亮度更接近第一场景的真实亮度。
上述第一方面的任意一种可能的设计中,所提供的部分或者全部特征,在不冲突的情况下,均可以作为第二方面的可能的设计。例如,第三图像的图像内容与第一图像的图像内容相同(或者近似相同)。例如,第二摄像头的感光性能大于第一摄像头的感光性能。例如,第二摄像头的光圈大于第一摄像头的光圈。例如,第二摄像头采集第二图像时的曝光时长大于第一摄像头采集第一图像时的曝光时长。例如,第二摄像头采集第二图像时所使用的ISO大于第一摄像头采集第一图像时所使用的ISO。例如,第二摄像头的倍率范围包括[0.5,1),第一摄像头的倍率范围包括[1,20]。例如,第二摄像头的倍率是1,第一摄像头的倍率范围包括(1,20]。例如,使用第二图像对上述第四图像、第五图像或第六图像进行优化。例如,优化第一图像时,先计算第一图像中子图像的CCM矩阵,再插值得到第一图像中像素的CCM矩阵,然后基于像素的CCM矩阵进行优化第一图像。例如,直接使用神经网络优化第一图像。
第三方面,提供了一种图像处理装置,该装置可以是终端、芯片或芯片***。
在一种可能的设计中,该装置可以用于执行上述第一方面或第二方面提供的任一种方法。本申请可以根据上述第一方面提供的任一种方法,对该装置进行功能模块的划分。例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。示例性的,本申请可以按照功能将该装置划分为处理单元和发送单元等。上述划分的各个功能模块执行的可能的技术方案和有益效果的描述均可以参考上述第一方面或第二方面或其相应的可能的设计提供的技术方案,此处不再赘述。
在另一种可能的设计中,该装置包括:存储器和一个或多个处理器,所述存储器用于存储计算机指令,所述处理器用于调用所述计算机指令,以执行如第一方面及其任一种可能的设计方式提供的任一种方法,或第二方面及其任一种可能的设计方式提供的任一种方法。
第四方面,提供了一种终端,包括:处理器、存储器和至少两个摄像头,该至少两个摄像头用于拍摄图像,存储器用于存储计算机程序和指令,处理器用于调用该计算机程序和指令,与该至少两个摄像头协同执行上述第一方面或第二方面提供的任一种方法。
第五方面,提供了一种计算机可读存储介质,如计算机非瞬态的可读存储介质。其上储存有计算机程序(或指令),当该计算机程序(或指令)在计算机上运行时,使得该计算机执行上述第一方面或第二方面中任一种可能的实现方式提供的任一种方法。
第六方面,提供了一种计算机程序产品,当其在计算机上运行时,使得第一方面或第二方面中的任一种可能的实现方式提供的任一种方法被执行。
可以理解的是,上述提供的任一种图像处理装置、计算机存储介质、计算机程序产品或芯片***等均可以应用于上文所提供的对应的方法,因此,其所能达到的有益效果可参考对应的方法中的有益效果,此处不再赘述。
在本申请中,上述图像处理装置或者各功能模块的名字对设备或功能模块本身不构成限定,在实际实现中,这些设备或功能模块可以以其他名称出现。只要各个设备或功能模块的功能和本申请类似,属于本申请权利要求及其等同技术的范围之内。
本申请的这些方面或其他方面在以下的描述中会更加简明易懂。
附图说明
图1为可适用于本申请实施例的一种终端的硬件结构示意图;
图2为可适用于本申请实施例的一种终端的软件结构框图;
图3为本申请实施例提供的一种图像处理的方法的流程图;
图4为本申请实施例提供的一种采集第一图像和第二图像的方法流程图;
图5为本申请实施例提供的另一种采集第一图像和第二图像的方法流程图;
图6为本申请实施例提供的一种优化第一图像的方法流程图;
图7为本申请实施例提供的一种使用网格平均划分第一图像的示意图;
图8A为本申请实施例提供的一种基于CCM矩阵优化第一图像的过程示意图;
图8B为本申请实施例提供的一种为基于CCM矩阵优化第一图像时,第一图像、第二图像和第三图像的对比示意图;
图9为本申请实施例提供的另一种优化第一图像的方法流程图;
图10为本申请实施例提供的一种神经网络的网络结构和逻辑功能示意图;
图11为本申请实施例提供的另一种图像处理方法的示意图;
图12为本申请实施例提供的一种终端的结构示意图。
具体实施方式
在本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念。
在本申请实施例中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
本申请实施例提供的图像处理方法可以应用于终端中,该终端可以是带有摄像头的终端,如智能手机、平板电脑、可穿戴设备、AR/VR设备,也可以是个人计算机(personalcomputer,PC)、个人数字助理(personal digital assistant,PDA)、上网本等设备,还可以是其他任一能够实现本申请实施例的终端。本申请对终端的具体形态不予限定。可穿戴设备也可以称为穿戴式智能设备,是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、手套、手表、服饰及鞋等。可穿戴设备即直接穿在身上,或是整合到用户的衣服或配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,例如:智能手表或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类进行体征监测的智能手环、智能首饰等。
在本申请中,终端的结构可以如图1所示。如图1所示,终端100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
终端100中包括的摄像头193的个数可以是一个或多个。如果终端100包括一个摄像头,则本申请实施例中支持该摄像头工作在不同工作状态。关于工作状态的具体描述可以参考下文。如果终端100包括多个摄像头,则该多个摄像头的倍率可以不同。该多个摄像头包括本申请实施例中描述的第一摄像头和第二摄像头。
可以理解的是,本实施例示意的结构并不构成对终端100的具体限定。在另一些实施例中,终端100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。例如,在本申请中,处理器110可以在当第一摄像头在第一场景中的感光度(international standards organization,ISO)大于第一阈值时,控制第一摄像头针对第一摄像头采集第一图像,并控制第二摄像头针对第一场景采集第二图像,以及根据第二图像优化第一图像,得到第三图像。具体实现方式可以参考下文。
其中,控制器可以是终端100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了***的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等***器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现终端100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现终端100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为终端100充电,也可以用于终端100与***设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他终端,例如AR设备等。
可以理解的是,本实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对终端100的结构限定。在本申请另一些实施例中,终端100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
终端100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
终端100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oled,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,终端100可以包括1个或N个显示屏194,N为大于1的正整数。
终端100的显示屏194上可以显示一系列图形用户界面(graphical userinterface,GUI),这些GUI都是该终端100的主屏幕。一般来说,终端100的显示屏194的尺寸是固定的,只能在该终端100的显示屏194中显示有限的控件。控件是一种GUI元素,它是一种软件组件,包含在应用程序中,控制着该应用程序处理的所有数据以及关于这些数据的交互操作,用户可以通过直接操作(direct manipulation)来与控件交互,从而对应用程序的有关信息进行读取或者编辑。一般而言,控件可以包括图标、按钮、菜单、选项卡、文本框、对话框、状态栏、导航栏、Widget等可视的界面元素。
终端100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,终端100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当终端100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。终端100可以支持一种或多种视频编解码器。这样,终端100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现终端100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展终端100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行终端100的各种功能应用以及数据处理。例如,在本实施例中,处理器110可以通过执行存储在内部存储器121中的指令,获取终端100的位姿。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作***,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储终端100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行终端100的各种功能应用以及数据处理。
终端100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。终端100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当终端100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。终端100可以设置至少一个麦克风170C。在另一些实施例中,终端100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,终端100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。终端100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,终端100根据压力传感器180A检测所述触摸操作强度。终端100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定终端100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定终端100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测终端100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消终端100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,终端100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。终端100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当终端100是翻盖机时,终端100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测终端100在各个方向上(一般为三轴)加速度的大小。当终端100静止时可检测出重力的大小及方向。还可以用于识别终端姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。终端100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,终端100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。终端100通过发光二极管向外发射红外光。终端100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定终端100附近有物体。当检测到不充分的反射光时,终端100可以确定终端100附近没有物体。终端100可以利用接近光传感器180G检测用户手持终端100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。终端100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测终端100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。终端100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,终端100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,终端100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,终端100对电池142加热,以避免低温导致终端100异常关机。在其他一些实施例中,当温度低于又一阈值时,终端100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控器件”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于终端100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。终端100可以接收按键输入,产生与终端100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
另外,在上述部件之上,运行有操作***。例如苹果公司所开发的iOS操作***,谷歌公司所开发的Android开源操作***,微软公司所开发的Windows操作***等。在该操作***上可以安装运行应用程序。
终端100的操作***可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android***为例,示例性说明终端100的软件结构。
图2是本申请实施例的终端100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android***分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和***库,以及内核层。
应用程序层可以包括一系列应用程序包。如图2所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。例如,在拍照时,相机应用可以访问应用程序框架层提供的相机接口管理服务。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图***,电话管理器,资源管理器,通知管理器等。例如,在本申请实施例中,在拍照时,应用程序框架层可以为应用程序层提供拍照功能相关的API,并为应用程序层提供相机接口管理服务,以实现拍照功能。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图***包括可视控件,例如显示文字的控件,显示图片的控件等。视图***可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供终端100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在***顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,终端振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓***的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
***库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子***进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
需要说明的是,本申请实施例虽然以Android***为例进行说明,但是其基本原理同样适用于基于iOS或Windows等操作***的终端。
下面结合图1和拍照场景,示例性说明终端100软件以及硬件的工作流程。
触摸传感器180K接收到触摸操作,上报给处理器110,使得处理器110响应于上述触摸操作,启动相机应用,并在显示屏194上显示该相机应用的用户界面。例如,触摸传感器180K当接收到对相机应用图标的触摸操作后,向处理器110上报对相机应用的触摸操作,使得处理器110响应于上述触摸操作,启动相机应用,并在显示屏194上显示相机的用户界面。此外,本申请实施例中还可以通过其它方式使得终端100启动相机应用,并在显示屏194上显示相机应用的用户界面。例如,终端100在黑屏、显示锁屏界面或者解锁后显示某一用户界面时,可以响应于用户的语音指令或者快捷操作等,启动相机应用,并在显示屏194上显示相机应用的用户界面。
在使用终端拍照时,可能因当前场景的环境因素,导致所拍摄的图像的颜色光影效果不好。例如,在暗光场景、高动态范围场景或超高范围场景中,导致所拍摄的图像的颜色光影效果,相比于亮光场景时所拍摄的图像的颜色光影效果差。对此,对图像的颜色光影的优化,从而提高用户体验,是一直研究和商用的热点。
为了解决对图像的颜色光影优化的问题,本申请实施例提供了一种图像处理方法,该方法应用于终端,该终端包括第一摄像头和第二摄像头,第一摄像头的倍率大于第二摄像头的倍率。该方法包括:当第一摄像头在第一场景中的ISO大于第一阈值时,通过第一摄像头针对第一场景采集第一图像,通过第二摄像头针对第一场景采集第二图像;第二图像的颜色光影程度高于第一图像的颜色光影程度;根据第二图像优化第一图像,得到第三图像;第三图像的颜色光影程度高于第一图像的颜色光影程度。在本申请实施例中,终端利用基于同一场景的颜色光影程度高的图像优化颜色光影程度低的图像,考虑了客观环境信息的采集,相比现有技术中,使用单帧图像优化颜色光影的技术方案,有助于使得优化的的图像能够更客观的表示真实场景,并且,提高了鲁棒性。
需要说明的是,在本申请实施例中,“图像风格”也可以理解为“图像的颜色光影”。例如,图像风格(或图像的颜色光影)可以包括图像的颜色、对比度和动态范围中的至少一种。又如,第二图像的图像风格优于第一图像的图像风格,等价于第二图像的颜色光影程度高于第一图像的颜色光影程度。
下面将结合附图对本申请实施例的实施方式进行详细描述。
如图3所示,为本申请实施例提供的图像处理的方法的流程图。图3所示的方法包括以下步骤:
S101:终端针对当前拍摄环境中的第一场景采集图像之前,确定第一摄像头和第二摄像头。其中,第一摄像头用于拍摄待优化图像(如本申请中的第一图像),第二摄像头用于拍摄参考图像(即优化待优化图像的过程中所使用的图像,如本申请中的第二图像)。
在一种实现方式中,第一摄像头在第一摄像头在当前拍摄环境中的ISO大于第一阈值。
对于同一摄像头来说,在不同环境时,会自动调节自身ISO的取值。第一阈值大于等于表征亮区和暗区的临界状态时第一摄像头的ISO的取值。第一阈值的取值与第一摄像头的规格、界定亮区和暗区的临界状态等相关。其中,用于表征摄像头的规格的参数可以包括:焦距、倍率和感光性能等。在一个示例中,第一阈值可以是200左右。
在这种实现方式中,通俗地讲,第一场景是暗光场景,如夜景,或者白天的暗区场景等。
在另一种实现方式中,第一场景是高动态范围场景或超高动态范围场景。具体的,如果第一摄像头拍摄第一场景时的预览图像的亮度的最大值和最小值的比值大于一个阈值,则说明第一场景是高动态范围场景或超高动态范围场景。
在另一种实现方式中,第一场景是高对比度场景。具体的,如果第一摄像头拍摄第一场景时的预览图像的对比度的最大值和最小值的差大于一个阈值,则说明第一场景是高对比度场景。
在另一种实现方式中,第一场景是异常场景。其中,这里的异常场景是指因环境环境因素等导致拍摄第一场景得到的图像不能真实反映该场景。例如,拍摄该场景得到的图像中的物体的纹理信息发生畸变,或者发生偏色(即颜色发生改变)。
可以理解的是,本申请实施例可以对图像的颜色光影信息进行优化,因此,本申请实施例尤其适用于拍摄效果不好的场景,如上述夜景或异常场景等。
可选的,第一摄像头的倍率大于第二摄像头的倍率。
在一种实现方式中,第二摄像头的倍率范围包括[0.5,1),第一摄像头的倍率范围包括[1,20]。例如,第二摄像头是广角摄像头,第一摄像头是1X摄像头(即倍率是1的摄像头)、3X摄像头(即倍率是3的摄像头)或10X摄像头(即倍率是10的摄像头)。
在另一种实现方式中,第二摄像头的倍率是1,第一摄像头的倍率属于区间(1,20]。例如,第二摄像头是1X摄像头,第一摄像头是3X摄像头或10X摄像头。
在另一种实现方式中,第二摄像头的倍率属于区间(1,10),第二摄像头的倍率属于区间[10,20]。例如,第二摄像头是3X摄像头,第一摄像头是10X摄像头。
可选的,第一摄像头的倍率、等于第二摄像头的倍率。例如,第一摄像头和第二摄像头的倍率均小于1,或者均等于1,或者均大于1,例如,第一摄像头和第二摄像头均是广角摄像头,或者均是1X摄像头,或者均是3X摄像头,或者均是10X摄像头。
上述仅为示例,其不对本申请实施例所适用的摄像头的倍率的具体取值构成限定。
可选的,第二摄像头用于拍摄黑白图像,第一摄像头用于拍摄彩色图像。示例的,第二摄像头是1X摄像头,第二摄像头是广角摄像头或者1X摄像头。当然不限于此。
当然,第二摄像头和第一摄像头可以均用于拍摄彩色图像。下文中均是以第一图像和第二图像均是彩色图像为例进行说明的,在此统一描述,下文不在赘述。
可选的,终端中包括多个摄像头,终端可以基于如下步骤确定第一摄像头和第二摄像头:
当终端针对第一场景的拍摄倍率在[1,3)时,选择终端中倍率为1的摄像头作为第一摄像头。该情况下,可以选择终端中倍率为1或者小于1的摄像头作为第二摄像头。
当终端针对第一场景的拍摄倍率在[3,7)时,选择终端中倍率为3的摄像头作为第一摄像头。该情况下,可以选择终端中倍率为3、1、或者小于1的摄像头作为第二摄像头。
当终端针对第一场景的拍摄倍率在[7,10)时,选择终端中倍率为10的摄像头作为第一摄像头。该情况下,可以选择终端中倍率为3、1、或者小于1的摄像头作为第二摄像头。
当终端针对第一场景的拍摄倍率大于10时,选择终端中倍率为10的摄像头作为第一摄像头。该情况下,可以选择终端中倍率为10、3、1、或者小于1的摄像头作为第二摄像头。
更为普适性地,当终端针对第一场景的拍摄倍率在[1,A)时;选择终端中倍率是1的摄像头或者主摄摄像头作为第一摄像头;
或者,当终端针对第一场景的拍摄倍率在[A,B)时,选择终端中倍率是A的摄像头或者主摄摄像头作为第一摄像头;
或者,当终端针对针对第一场景的拍摄倍率大于B时,选择终端中倍率是C的摄像头或者主摄摄像头作为第一摄像头;
或者,当终端针对针对第一场景的拍摄倍率大于C时,选择终端中倍率是C的摄像头或者主摄摄像头作为第一摄像头;
其中,1<A<B<C。
当第一摄像头确定下来后,可以选择终端中倍率小于等于第一摄像头的倍率的摄像头作为第二摄像头。
S102:终端通过第一摄像头针对第一场景采集第一图像,通过所述第二摄像头针对所述第一场景采集第二图像。其中,第二图像的颜色光影程度高于第一图像的颜色光影程度。
本申请实施例对第一图像和第二图像的拍摄时间间隔不进行限定。例如,第一图像与第二图像的拍摄时间间隔小于一个阈值。由于拍摄时间间隔越长,发生抖动、环境巨变等概率会越高,这样,会导致第一图像与第二图像的内容相差大的概率越高,因此,理论上,第一图像和第二图像的拍摄时间间隔越小越好。可选的,二者的拍摄时间间隔可以是毫秒量级或者是几十毫秒量级。
图像的颜色光影程度可以基于图像的颜色、对比度和动态范围中的至少一种表征。
可选的,如果第二图像与第一图像之间满足预设条件,则说明第二图像的颜色光影程度高于第一图像的颜色光影程度。该预设条件包括以下至少一种:
条件1:第二图像的颜色优于第一图像的颜色。
具体的,第二图像中表示一个对象的像素的颜色优于第一图像中表示该对象的像素的颜色,且第二图像中具有该特征的像素的个数大于阈值。通俗地讲,第二图像的整体颜色优于第一图像的整体颜色。
可选的,如果第二图像的颜色的信噪比高于第一图像的颜色的信噪比,则说明第二图像的颜色优于第一图像的颜色。
可选的,如果第二图像的色度大于第一图像的色度,和/或第二图像的亮度大于第一图像的亮度,则说明第二图像的颜色优于第一图像的颜色。
条件2:第二图像的对比度高于第一图像的对比度。
条件3:第二图像的动态范围大于第一图像的动态范围。
本申请实施例提供了以下几种实现方式,这有助于实现第二图像的颜色光影程度高于第一图像的颜色光影程度:
方式1:第二摄像头的感光性能高于第一摄像头的感光性能。
摄像头的感光性能是摄像头的固有特性,用于表示摄像头的成像能力。通常,摄像头中的传感器(sensor)的面积越大,该摄像头的感光性能越强,在其他条件都相同的情况下,摄像头的感光性能越强,拍摄得到的图像的颜色光影程度越高。
方式2:第二摄像头的光圈大于第一摄像头的光圈。
方式3:第二摄像头采集第二图像时的曝光时长大于第一摄像头采集第一图像时的曝光时长。示例的,第二摄像头采集第二图像时的曝光时长在百毫秒量级,如Ta可以是500毫秒左右,第一摄像头采集第二图像时的曝光时长在几到几十毫秒量级。
方式4:第二摄像头采集第二图像时所使用的ISO大于第一摄像头采集第一图像时所使用的ISO。
不同照度下摄像头的最佳ISO值不同。某一照度下的最佳ISO值,是指该照度下使得图像的颜色光影程度最高(或者颜色光影程度达到一定阈值)时的ISO的取值。任意照度下的最佳ISO值可以基于实验得到,本申请实施例对此不进行限定。同一照度下,在ISO的值小于等于最佳ISO值时,ISO的取值越大,拍摄得到的图像的颜色光影程度越高;在ISO的值大于最佳ISO值时,ISO的取值越大,拍摄得到的图像的颜色光影程度越低。
上述方式1和方式2可以理解为基于摄像头的硬件属性,实现第二图像的颜色光影程度高于第一图像的颜色光影程度。上述方式3和方式4可以理解为基于软件调节摄像头的参数,以实现第二图像的颜色光影程度高于第一图像的颜色光影程度。上述方式3和方式4可以适用于第二摄像头的感光性能与第一摄像头的感光性能相同,或者相差不大的情况下。
摄像头的光圈和曝光时长影响摄像头的进光量,摄像头的sensor感光面积以及iso决定了摄像头接收光量的能力。通常来说,光圈越大,曝光时长越长,感光面积越大,iso越高,则摄像头最终实际能接收的光量越大。但是接收光量不是越大越好,对于具体拍摄环境而言,存在一个曝光临界值,如果接收光量小于曝光临界值时,则接收光量越大,拍摄得到的图像的颜色光影效果越好。如果接收光量大于等于曝光临界值,则接收光量越大,拍摄得到的图像的颜色光影效果可能会因为过曝而变差。作为示例,上述方式3和方式4可以适用于接收光量小于曝光临界值的场景。
需要说明的是,在不冲突的情况下,上述方式1~方式4中的多种方式可以结合使用,从而构成新的实现方式。例如,上述方式3和方式4可以结合使用。
可选的,S102可以通过以下方式A或方式B实现:
方式A:如图4所示,S102可以包括以下步骤S21~S25:
S21:终端确定第一场景的照度。
S22:终端基于所确定的第一场景的照度,获取第一摄像头的第一曝光时长和第一ISO。该步骤的具体实现方式可以参考现有技术,此处不再赘述。
S23:终端使用第一曝光时长和第一ISO拍摄第一场景,得到第一图像。
S24:终端基于第一曝光时长和第一ISO中的至少一种,确定拍摄第二摄像头的第二曝光时长和第二ISO。
摄像头的曝光量EV、曝光时长T和ISO之间的关系满足:EV=log2(T*ISO)。终端可以预存如下关联关系:第一摄像头的曝光量(或者“曝光时长和/或ISO”)与第二摄像头的曝光量(或者“曝光时长和/或ISO”)之间的对应关系;然后,基于步骤2中所确定的第一摄像头的第一曝光时长和第一ISO,以及上述预存的对应关系,确定第二曝光时长和第二ISO。本申请实施例对上述对应关系的具体体现形式不进行限定,例如,可以是函数关系、表格等。
可选的,首先,基于预定义的Ta与Tm之间的对应关系,或者预定的Ta与“Tm和ISOm”之间的关联关系,或者预定义Ta与ISOm之间的关联关系等,获取Ta的取值。其中,Ta表示第二曝光时长,Tm表示第一曝光时长,ISOm表示第一ISO。然后,基于Tm、ISOm和Ta中至少一个参数的值,获取ISOa。其中,ISOa表示第二ISO。
在一个示例中,终端可以通过调节ISOa,使得采集第二图像时第二摄像头的曝光量EVa=log2(Ta*ISOa)比采集第一图像时第一摄像头的曝光量EVm=log2(Tm*ISOm)大一定的量,即满足EVa=EVm+f,其中,f为预定义值。
在另一个示例中,基于预定义的ISOa与ISOm之间的关联关系,或者预定义的ISOa与“Tm和ISOm”之间的关联关系,或者预定义的ISOa与Tm之间的关联关系,获取ISOa的取值。
S25:终端使用第二曝光时长和第二ISO,拍摄第一场景,得到第二图像。
方式B:如图5所示,S102可以包括以下步骤S31~S36:
S31~S33:可以参考上述S21~S23。
S34:终端基于多个场景的照度区间与摄像头的ISO之间的对应关系,确定第一场景的照度所在的照度区间对应的摄像头的ISO,并将所确定的ISO作为第二摄像头的ISO。
该对应关系可以是预定义的。该对应关系中的摄像头的ISO,具体可以使之摄像头的最佳ISO值,关于最佳ISO值的相关描述可以参考上文,此处不再赘述。
需要说明的是,某一照度下,使用最佳ISO值拍摄图像时,在保障拍摄得到的图像的颜色光影程度较高的同时,可能会牺牲纹理信息,放宽噪声,以及降低配准程度(即同一场景下采集的不同图像之间的配准度);也就是说,使用最佳ISO值采集图像时,是以牺牲纹理信息、放宽噪声和不配准容忍上限为代价,高质量地记录了该图像的颜色光影信息。
S35:终端基于第一曝光时长和第一ISO中的至少一种,确定第二摄像头的第二曝光时长。具体实现方式可以参考上文。
S36:可以参考上述S25。
可选的,基于上述方式A中,在设计执行S24时所使用的预定义的对应关系时,可以考虑将“最佳ISO值”作为影响f的取值的因素,从而使得执行S24所得到的第二ISO的取值更接近于最佳ISO值。
需要说明的是,上文中均是以第一图像和第二图像分别由不同摄像头拍摄得到的。除此之外,第一图像和第二图像还可以由以下任一方式获得:
在一种实现方式中,第一图像和第二图像可以由同一摄像头在不同工作状态下拍摄得到。例如,该摄像头可以在开启闪光灯时拍摄得到第二图像,并在关闭闪光灯时拍摄得到第一图像;或者,该摄像头通过调节该摄像头的曝光时长和ISO,拍摄得到第一图像和第二图像。
在另一种实现方式中,第二图像可以是从多个摄像头拍摄得到的图像中,选择到的颜色光影程度最高,或者颜色光影程度高于某一阈值的图像。
在另一种实现方式中,第一图像和第二图像中的任意一个图像可以是由多帧图像融合而成的,而非由摄像头直接拍摄得到的。其中,该多帧摄像头可以由同一个摄像头拍摄得到,也可以由不同摄像头拍摄得到,还可以是部分由同一摄像头拍摄得到,另一部分由不同摄像头拍摄得到等,本申请实施例对此不进行限定。
示例1:上述方法还包括:通过第一摄像头针对第一场景采集N帧图像,N是大于等于1的整数;根据N帧图像以及第一图像进行多帧降噪,得到第四图像。该情况下,根据第二图像优化第一图像,得到第三图像,可以包括:根据第二图像优化第四图像,得到第三图像。也就是说,终端优化基于同一摄像头拍摄的多个图像融合后的图像,得到第三图像。
示例2:上述方法还包括:通过第一摄像头和第二摄像头分别针对第一场景采集N1帧图像和N2帧图像;其中,N1和N2均是大于等于1的整数;根据N1帧图像、N2帧图像和第一图像进行多帧降噪,得到第五图像。该情况下,根据第二图像优化第一图像,得到第三图像,可以包括:根据第二图像优化第五图像,得到第三图像。也就是说,终端优化基于不同摄像头拍摄的多个图像融合后的图像,得到第三图像。
作为示例,上述示例1和示例2,可以适用于终端针对第一场景的拍摄倍率在[1,3)、[3,7)或大于10的情况下,关于这些情况下,如何选择第一摄像头和第二摄像头的具体实现方式可以参考上文,此处不再赘述。
示例3:上述终端还包括第三摄像头,第三摄像头的倍率不大于第一摄像头的倍率。上述方法还包括:通过第一摄像头和第三摄像头分别针对第一场景采集N3帧图像和N4帧图像;其中,N3和N4均是大于等于1的整数;根据N3帧图像、N4帧图像和第一图像进行多帧降噪,得到第六图像。该情况下,根据第二图像优化第一图像,得到第三图像,可以包括:根据第二图像优化第六图像,得到第三图像。第三摄像头为终端中不同于第一摄像头和第二摄像头的摄像头。也就是说,终端可以基于至少三个摄像头拍摄的多个图像融合后的图像进行优化,得到第三图像。
作为示例,上述示例1和示例2,可以适用于终端针对第一场景的拍摄倍率在[7,10)的情况下,该情况下,如何选择第一摄像头和第二摄像头的具体实现方式可以参考上文,此处不再赘述。
上述示例1~示例3提供的技术方案,有助于使得优化后得到的第三图像的颜色光影程度更高,从而提高用户体验。
具体实现时,还有更多的出帧和融合的方法,本申请实施例不予以限定。
S103:终端判断第二图像是否可用。
由于在拍摄第一场景得到第二图像的过程中,可能会遇到镜头被遮挡、环境巨变、手抖动非常严重、模糊严重等等异常情形,这样,会导致拍摄所得到的第二图像没有参考价值(或者参考价值较低),也就是说,第二图像不可用,因此,在本申请实施例中,执行优化第一图像的色度之前,可以先判断第二图像是否可用。
可选的,S103可以包括以下步骤S103A~S103B:
S103A:终端对第二图像进行预处理,以使得第一图像和处理后的第二图像的取景范围相同或相近(即取景范围之差在预设范围内),且第一图像和处理后的第二图像的尺寸(包括宽和高)相同或相近(即尺寸之差在预设范围内)。具体的:
步骤1:当第一图像的拍摄条件和第二图像的拍摄条件之间满足预设条件时,终端通过对第二图像进行缩放裁剪等处理,使得处理后的第二图像的取景范围与第一图像的取景范围相近(即取景范围之差在预设范围内)。
其中,预设条件可以包括以下条件1或条件2:
条件1:第一图像是在zoom条件下拍摄的;并且,第二图像是在非zoom条件下拍摄的,或者第二图像是在zoom条件下拍摄的,但是采集第二图像时所使用的zoom倍率与采集第一图像时所使用的zoom倍率不同。
条件2:第一图像是在非zoom条件下拍摄的;并且,第二图像是在zoom条件下拍摄的。
需要说明的是,步骤1是可选的。如果第一图像和第二图像均是在非zoom条件下拍摄的,或者,如果第一图像和第二图像均是在zoom条件下拍摄的,但采集第一图像和第二图像时所使用的zoom倍率相同;那么,第一图像和第二图像的取景范围通常相近(包括相同或者相近),该情况下,可以不对第二图像执行缩放裁剪等处理,而是直接执行以下步骤2。
步骤2:终端可以将取景范围相近的第一图像和第二图像的尺寸)调到相同(或者相近),具体实现方式可以参考现有技术。
需要说明的是,步骤S103A是可选的,如果拍摄得到的第一图像和第二图像的取景范围相近,且尺寸相同或相近,则终端可以不执行S103A。
S103B:终端判断第一图像和处理后的第二图像在亮度直方图校正到相当(即亮度直方图之差在预设范围内)的情况下,是否能够有效配准。如果能够有效配准,则说明第二图像可用;否则,则说明第二图像不可用。
本申请实施例对有效配准的衡量方法不进行限定。例如,该衡量方法可以包括:使用经典的sift或surf等方法寻找第一图像和处理后的第二图像之间的特征配对点对。如果二者的特征配对点对的个数小于等于预设值,则认为二者无法有效配准;否则,认为二者能够有效配准。具体实现方法可以参考现有技术,此处不再赘述。
需要说明的是,本申请实施例提供的技术方案,对于抖动和模糊等异常情形下拍摄得到的第二图像具有很强的鲁棒性,这种情况下,使用经典的sift或surf等方法,进行有效配准的判断结果通常是“不可用”。对此,在一种可能的实现方式中,可以专门训练一个二分类AI网络来实现有效配准的判断,该方法会比经典方法更灵活准确。具体的训练二分类AI网络的方法等,本申请实施例不进行限定。
另外需要说明的是,如果不需要对第二图像进行预处理(即不执行S103A),直接执行S103B,则S103B具体为终端判断第一图像和第二图像在亮度直方图校正到相当的情况下,是否能够有效配准。
S104:如果第二图像可用(即第一图像和第二图像配准成功),则基于第二图像优化第一图像,得到第三图像。其中,第三图像的颜色光影程度优于第一图像的颜色光影程度。
关于两个图像的颜色光影程度的判断方式可以参考上文,此处不再赘述。
基于上述对第二图像的颜色光影程度和第一图像的颜色光影程度的解释,以及第三图像和第一图像之间满足第三图像的颜色光影程度优于第一图像的颜色光影程度,可以得出:
第一图像、第二图像和第三图像满足如下至少一种条件:如果第二图像的颜色优于第一图像的颜色,则第三图像的颜色优于第一图像的颜色;如果第二图像的对比度高于第一图像的对比度,则第三图像的对比度高于第一图像的对比度;如果第二图像的动态范围大于第一图像的动态范围,则第三图像的动态范围大于第一图像的动态范围。
可选的,第三图像的图像内容与第一图像的图像内容相同。等价于:第三图像的纹理信息与第一图像的纹理信息相同。这里的“相同”可以是指在一定误差范围内相同。
可选的,如果第二图像可用,则在执行S104之前,该方法还可以包括:终端对第一图像和第二图像(具体可以是经上述预处理后得到的第二图像)进行配准,配准方法可以包括但不限于经典的sift、surf等,当然也可以使用AI网络进行配准。经配准步骤后,再执行S104,有助于使得优化结果更精确。
执行上述S104之后:
在一种实现方式中,终端可以显示S104得到的第三图像。
在另一种实现方式中,考虑到具体实现时,可能存在仅希望对某个像素值范围(或者是某个区域)进行调节,其他位置维持不变。基于此,本申请实施例提供了如下技术方案:
首先,终端获取第一图像中的第一目标子图像;其中,第一目标子图像是第一图像中不希望被改变颜色光影信息的区域。具体可以是第一图像中的高光区域甚至是过爆区域,或者是包含特定颜色的区域,或者是基于语义内容等圈定的区域,或者是基于网络如attention网络求得的。其次,终端获取第三图像中的第二目标子图像;其中,第二目标子图像与第一目标子图像描述同一对象。接着,终端使用第一目标子图像更新(或替换)第三图像中的第二目标子图像,得到第四图像。或者,终端拼接第一目标子图像与第三图像中除第二目标子图像之外的图像,得到第四图像。例如,最终结果=直出结果*(1-mask)+第一图像*mask。其中,最终结果表示第四图像,直出结果表示第三图像,mask表示第一目标子图像在第一图像中的位置,或第二目标子图像在第三图像中的位置,第一图像*mask表示第一目标子图像,直出结果*mask表示第二目标子图像。后续,终端可以显示第四图像。其中,第四图像的颜色光影程度高于第一图像的颜色光影信息;第四图像的图像内容与第一图像的图像内容相同(或相近)。
可选的,mask也可以是圈第二图像的区域,效率往往更高,即第二图像上效果不好的区域,不希望用到第一图像上,比如高光过曝区域。对此,将圈出的mask进行gaussianblur或者上下采样进行模糊化构造出渐变的过渡带,这样应用于第一图像便不必在乎第一图像和第二图像间的不配准,保证预期效果。
可选的,mask也可以用网络来求解,比如attention网络。
可选的,基于上述任一方式,网络的输入可以是第一图像,或者第二图像,或者第一图像和第二图像的组合。
以下,说明S104的具体实现方式:
可选的,终端使用第二图像优化第一图像,得到第三图像,可以包括:
方式1:使用CCM矩阵表示第一图像与第二图像的颜色光影信息之间的映射关系,从而基于CCM矩阵优化第一图像,得到第三图像。
具体的,如图6所示,方式1可以包括以下步骤S41~S45:
S41:终端对第一图像和第二图像分别进行特征提取,得到第一张量和第二张量;其中,第一张量用于表征第一图像的纹理信息和颜色光影信息,第二张量用于表征第二图像的纹理信息和颜色光影信息。第一张量和第二张量的尺寸相同。
例如,终端使用AI技术如神经网路,对第一图像和第二图像分别进行特征提取,得到第一张良和第二张量。其中,终端使用神经网络对图像进行特征提取的方法,可以参考现有技术,此处不再赘述。当然,具体实现时,终端也可以采用传统的技术而非AI技术,对第一图像和第二图像分别进行特征提取,本申请实施例对此不进行限定。
在执行上述S103A的基础之上,执行S104A时,S104A中的第二图像具体可以是经预处理后的第二图像。
以第一图像和第二图像均是彩色图像为例,在使用第三神经网络对第一图像和第二图像进行特征提取之前,终端可以执行以下步骤:首先,将第一图像和第二图像的尺寸调整(resize)到相同,如通过缩放第二图像,使得第一图像和缩放后的第二图像的尺寸相同。如果在执行S102后,第一图像和第二图像的尺寸相同,则可以不执行该步骤。然后,将调整后的第一图像和第二图像输入到第三神经网络。其中,调整后的第一图像和第二图像的尺寸标记为H*W*3,其中,H和W分别表示调整后的第一图像和第二图像的宽和高,3表示RGB三通道。示例的,H和W的取值可以是第三神经网络中预定义的。
在一个示例中,第三神经网络最终可以将第一图像和第二图像分别划分为h*w个图像块。其中,h和w分别表示第一图像(或第二图像)宽和高方向上所划分的图像块的个数。示例的,h和w的取值可以是第三神经网络中预定义的。
可选的,如果第三神经网络中所使用的卷积运算的卷积核(kernel)是正方形卷积核,则要求满足H/h=W/w=D,其中,D为正整数。该情况下,每个图像块的尺寸是D*D。
可选的,假设将第一张量和第二张量的尺寸标记为hf*wf*cf,则满足H/hf=W/wf=D1,其中,D1为正整数。cf是特征的个数,例如,如果提取10个纹理特征,10个颜色特征,则cf是20。示例的,hf、wf和cf的取值可以是第三神经网络中预定义的。
可选的,终端可以使用同一第三神经网络,也可以使用不同第三神经网络,对第一图像的特征提取和对第二图像的特征提取。
S42:终端基于第一张量和第二张量的特征维度,对第一张量和第二张量进行叠加运算(concat),得到目标张量。或者,对第一张量和第二张量进行相减运算,得到目标张量。
以第一张量和第二张量的尺寸标记为hf*wf*cf为例,基于第一张量和第二张量的特征维度,对第一张量和第二张量进行叠加运算后得到的目标张量的尺寸为hf*wf*2cf。
两个张量相减后得到的张量,是这两个张量中相同位置的元素相减后得到的元素构成的张量。以第一张量和第二张量的尺寸标记为hf*wf*cf为例,对第一张量和第二张量进行相减运算后得到的目标张量的尺寸为hf*wf*cf。“A-B”等价于“A+(-B)”,因此,对第一张量和第二张量进行相减运算,等价于对第二张量的相反数与第一张量进行相加运算。
S43:终端使用第一神经网络获取至少两个子图像的CCM矩阵。其中,第一神经网络用于对第一图像的颜色光影信息和纹理信息,以及第二图像的颜色光影信息和纹理信息进行分析,得到至少两个子图像的CCM矩阵,如第一图像所分成的每个子图像的CCM矩阵。
可选的,第一神经网络的输入信息包括目标张量。第一神经网络的输出信息包括第一图像中每个子图像的CCM矩阵。
该至少两个子图像包括第一子图像,第一子图像的CCM矩阵用于表征第一子图像的颜色与第二图像中的第二子图像的颜色之间的映射关系。第一子图像和第二子图像是同一对象的图像。其中,第一子图像可以是第一图像所包括的至少两个子图像中的任意一个子图像。“对象”,是指同一物体的同一部分/部位,例如,对象可以是人的眼睛,鼻子,嘴巴等,又如,对象可以是人的左手食指部分,或者是右手小拇指部分等。
可选的,子图像满足以下条件之一:
条件1:子图像是第一图像中的图像块,不同图像块的大小相同。
一帧图像可以包括至少两个图像块。图像块是矩形,例如可以是正方形。基于条件1,一个子图像可以认为是一帧图像中的一个图像块。
条件2:子图像是基于第一图像中的像素的相似度确定的,同一子图像中的像素的相似度大于等于第三阈值。可选的,不同子图像中的不同相似度小于第三阈值。
这是在考虑到“通常情况下,同一图像中,描述同一物体的像素的相似度相差不大,而描述不同物体的像素的相似度相差较大”而提出的技术方案。例如,假设第一图像中包括人和建筑物,则可能存在描述人的像素和描述建筑物的像素的相似度相差较大,而描述建筑物的像素的相似度相差不大,该情况下,可以将描述人的像素共同作为一个子图像,将描述建筑物的像素共同作为一个子图像。又如,对于描述人的像素来说,可能存在描述人的上衣的像素与描述人的头发的像素之间的相似度可能相差很大,该情况下,可以将描述人的上衣的像素共同作为一个子图像,将描述人的头发的像素共同作为一个子图像。
可以理解的是,对于不同子图像来说,第三阈值的大小可以相同,也可以不同。
为了与像素块进行区分,在本申请实施例的一些描述中,将基于相似度划分图像得到的每个子图像,称为是一个像素组。一帧图像可以包括一个或多个像素组。基于条件2,一个子图像可以认为是一帧图像中的一个像素组。
条件3:子图像是基于第一图像中图像块中的像素的相似度确定的,不同图像块的大小相同,同一图像块的同一子图像中的像素的相似度大于第三阈值。
基于条件3,一个子图像可以认为是一帧图像的一个图像块中的一个像素组。
相比上述条件1或条件2,该条件3是从更细粒度上对一帧图像进行了划分。这样,有助于在执行S43时得到更多的CCM矩阵,从而使得执行S44时得到的插值结果更精确。
基于条件3,第一神经网络的输出结果的尺寸可以为h*w*(ng*nm)。第一神经网络处理第一图像和第二图像的过程,可以相当于:将第一图像帧平均分成h*w个像素块,每个像素块中的像素按相似度被分成ng个像素组;针对每个像素组,第一神经网络网络输出nm个CCM矩阵元素。示例的,nm一般取9,对应于常规3*3的CCM矩阵的元素个数,即对y通道、u通道和y通道均做处理。示例的,如果希望该方案只对色度做处理,即只对u通道和y通道做处理,则nm可以取小于9的值,比如是6。这相当于处理y通道的3个元素可以不用考虑了。当然,此时输出的CCM矩阵是作用在YUV域的。
上述S43可以认为是获取至少两个子图像的CCM矩阵的一种实现方式,具体实现时,不限于此。例如,可以使用传统方法而非AI技术,获得至少两个子图像的CCM矩阵。
S44:终端基于该至少两个子图像的CCM矩阵,得到第一图像中的像素的CCM矩阵。例如,终端基于该至少两个子图像的CCM矩阵,进行插值运算,得到第一图像中的每个像素的CCM矩阵。其中,第一图像包括第一像素,第一像素可以是第一图像中的任意一个像素。第一像素的CCM矩阵用于表征第一像素的颜色与第二图像中的第二像素的颜色之间的映射关系。第一像素和第二像素对应于同一图像内容。
如图7所示,为使用网格平均划分第一图像的示意图。假设令第第一神经网络输出netout[i,j,0:ng*nm]是第一图像第(i,j)个,0<=i<h;0<=j<w,区域中心点(即网格点)对应的CCM矩阵;那么,第一图像上每个像素的CCM矩阵都可按照临近它的网格点进行插值得到。以每个像素为中心,圈出一块正方形区域,这个区域面积可以取和第一图像平均划分的每块正方形区域等大,将在这个正方形区域内的所有网格点用来插值得到该像素的CCM矩阵。按此规则,如图7所示,不难看出有三类插值区域(如第一类插值区域,第二类插值区域和第三类插值区域),按插值所需网格点的数目划分。
记第一图像的一个像素的相似度为s;供其插值的网格点有M个,则其中第m个网格点,0<=m<M,参与插值的数据有netout[im,jm,nms*nm:(nms+1)*nm]和netout[im,jm,(nms+1)*nm:(nms+2)*nm],其中对于第m个网格点而言,像素相似度s介于第nms组和第nms+1组之间,0<=nms<ng-1,这里可理解为该像素可以被归入这两个组。关于相似度的衡量,最简单的是使用像素的y通道值,至于分组则是将y通道值范围[0,255]平均分成ng组,则有(ng-1)*s/255的整数部分即为nms。当然,相似度也有其他计算方法,可以综合考虑yuv,可以计算相关性,甚至可以专门训练网络来计算。更宽泛地,像素对于各个插值网格点而言的相似度衡量方法可以不同,只要能够保证插值的连续性。为了保证连续性,对单个网格点而言,以该网格点为中心的边长为2D的正方形区域内的第一图像的所有像素,相对于该网格点用同种相似度衡量方法。
插值方法可以是线性、cubic、lancoz等等方法。以线性为例,对第m个网格点,像素相似度s到第nms组和第nms+1组的距离分别为Lms和Lms+1,可记Am=netout[im,jm,nms*nm:(nms+1)*nm]*Lms+1/(Lms+Lms+1)+netout[im,jm,(nms+1)*nm:(nms+2)*nm]*Lms/(Lms+Lms+1)。已知像素和M个插值网格点的坐标,则用上各个Am进行双线性插值,便得到了像素的CCM矩阵。
使用网格划分法,网络输出的是局部的CCM矩阵。其实网络可以同步输出一个全局的CCM矩阵,然后对每个像素,局部CCM矩阵和全局CCM矩阵两者综合得到最终的CCM矩阵。综合方法可以是按比例线性相加。
可选的,终端得到每个像素的CCM矩阵之后,可以利用拍摄中相关的硬件参数进行重验复查校正。进一步优化CCM矩阵,或者在万一算出的CCM矩阵是很离谱的情况下(比如第一图像或第二图像异常,或者计算有错),终止方案。特别地,还可以同步用额外传感器记录环境信息,作为校验(可以是用来推断拍到的第一图像或第二图像是否正常)。
S45:终端基于第一图像中的像素(如每个像素)的CCM矩阵,优化第一图像,得到第三图像。具体的,对于第一图像中的任意一个像素(标记为目标像素)来说,终端将该目标像素的像素值乘以该目标像素的CCM矩阵,得到第三图像中的一个像素的像素值。其中,第三像素与第一像素中的目标像素对应于同一图像内容。
该方式1中,使用CCM矩阵方法,优化第一图像,有助于保证第一图像经处理后的纹理信息和清晰度不变(或者基本不变)。另外,上述S43~S44,先通过神经网络得到每个子图像的CCM矩阵,再通过传统的方法插值得到每个像素的CCM矩阵。这样,相对于现有技术中“直接基于神经网络获得每个像素的CCM矩阵”的技术方案,有助于降低计算复杂度,从而缩短计算时间,并有效控制了性能开销。
如图8A所示,为基于CCM矩阵优化第一图像的过程示意图。具体的过程描述可以参考上文,此处不再赘述。
如图8B所示,为基于CCM矩阵优化第一图像时,第一图像、第二图像和第三图像的对比示意图。由图8B可知,该技术方案可以将第二图像中的颜色光影信息“迁移”(具体不限于此)到了第一图像对对应位置上。并且,对比第三图像和第一图像可知,第三图像与第一图像的纹理信息和清晰度基本保持一致,也就是说,优化前后第一图像原有的纹理信息和清晰度基本不变。并且,对比第三图像和第一图像可知,第三图像中绿植的鲜艳度和饱和度均优于第一图像,且第三图像中地面和石栏的亮度也优于第一图像,也就是说,优化前后第一图像原有的颜色光影程度提高了。
上文中均是以“先获取第一图像包括的多个子图像的CCM矩阵,再基于该多个子图像的CCM矩阵进行插值,得到第一图像中每个像素的CCM”进行说明的。可选的,也可以不对第一图像划分子图像,即以图像为粒度,获取第一图像的CCM矩阵,并将第一图像的CCM矩阵,作为第一图像中每个像素的CCM矩阵。这样,有助于降低计算复杂度,降低计算性能开销。
方式2:使用神经网络直接输出第三图像,即直接输出第三图像中每个图像的像素。如图9所示,具体可以包括以下步骤S51~S53:
S51~S52:可以参考上述S41~S42。
S53:终端使用第二神经网络和第二图像优化第一图像,得到第三图像。其中,第二神经网络用于利用图像风格较好的图像对图像风格较差的图像进行图像风格优化。
可选的,第二神经网络的输入信息包括目标张量,目标张量用于表征第一图像的纹理信息和颜色光影信息,以及第二图像的纹理信息和颜色光影信息。第二神经网络的输出信息包括第三图像。
可选的,第二神经网络可以是Unet型的AI网络。
可选的,如图10所示,为本申请实施例提供的一种第二神经网络的结构及逻辑示意图。
第二神经网络可以应用编解码思路,将网络左侧视为对第一图像的编码层,右侧为对第一图像的解码层。编码层部分包括纹理信息层和颜色光影信息层,其中,纹理信息层用于编码第一图像的纹理信息,颜色光影信息层用于编码第一图像的颜色光影信息。对编码层要求包括:当网络输入为两帧相同第一图像的纹理信息和颜色光影信息进行concat后得到张量时,颜色光影信息层如实记录第一图像的原始颜色光影信息,从而网络输出将严格等于第一图像本身。而当网络输入为第一图像的纹理信息和颜色光影信息,以及第二图像的纹理信息和颜色光影信息进行concat后得到张量时,网络会学到第二图像的颜色光影信息,从而引导第一图像的颜色光影信息层发生变化,但纹理信息层不受影响(或者在较小范围内受影响),最终网络输出便是预期的第一图像的颜色光影信息优化后的结果图(即上述第三图像)。
具体的,如图10所示,第二神经网络分别对目标张量中的第一子张量和第二子张量进行卷积运算,其中,第一子张量包括目标张量中的纹理信息,第二子张量包括目标张量中的颜色。具体实现时,可以执行多次卷积运算。然后,将基于第一子张量进行卷积运算得到的张量,以及基于第二子张量进行卷积运算得到的张量进行叠加,得到叠加后的张量。最后,将叠加后得到的张量、第一子张量和第二子张量进行叠加,得到第三图像。
这样设计网络的实际收益包括:在网络处理第一图像的颜色光影信息的同时,不改变第图像的纹理信息(或者第一图像的纹理信息改变较小)。此外,该网络从结构上将纹理信息和颜色光影信息解耦,这样,一方面,有助于使使网络处理更有针对性,更准确而不容易引入伪影(artifacts),并保证改变颜色光影信息的同时,不影响纹理信息和清晰度;另一方面,有助于降低网络处理的性能开销。例如,假设纹理信息层经过卷积处理前后的深度为d1in和d1out,颜色光影信息层经过卷积处理前后的深度为d2in和d2out,解耦前经过卷积处理前后的总深度为d1in+d2in和d1out+d2out,那么,只要卷积核的尺寸相当,处理解耦前的卷积操作的性能开销,一般要比解耦后用两个卷积操作分别处理细节信息层和颜色光影信息层所用的性能开销要大许多。
该方式2中,是以图像为粒度,将图像的特征信息(包括纹理信息和颜色光影信息)输入第二神经网络执行优化步骤的。实际实现时,也可以以子图像(如图像块)为粒度,将第一图像和第二图像中,表示同一对应的图像块的特征信息(包括纹理信息和颜色光影信息)输入第二神经网络执行优化步骤的;然后,将第一图像和第二图像中相应子图像的优化结果进行拼接,得到第三图像。拼接时可能需要进行过渡融合,具体实现方式可以参考现有技术。
除了上述方式1和方式2之外,S104还可以使用传统的方法,比如求解优化方程、第一图像和第二图像之间的颜色光影信息匹配等方法实现。
如图11所示,为本申请实施例提供的一种图像处理方法的示意图。该方法应用于终端,终端包括第一摄像头和第二摄像头,第一摄像头的倍率不小于第二摄像头的倍率,该方法可以包括以下步骤:
S201:终端通过第一摄像头针对当前拍摄环境中的第一场景采集第一图像。可选的,当第一摄像头在当前拍摄环境中的感光度ISO大于第一阈值时,通过第一摄像头针对当前拍摄环境中的第一场景采集第一图像。
S202:终端通过第二摄像头针对第一场景采集第二图像;其中,第二图像的颜色比第一图像的颜色更接近第一场景的真实颜色。
可选的,第二图像与第一图像满足如下至少一种条件:第二图像的色度比第一图像的色度更接近第一场景的真实色度;第二图像的亮度比第一图像的亮度更接近第一场景的真实亮度。
S203:终端根据第二图像优化第一图像,得到第三图像;第三图像的颜色比第一图像的颜色更接近第一场景的真实颜色。
可选的,第三图像的图像内容与第一图像的图像内容相同。
本实施例尤其适用于所拍摄的图像的颜色与真实场景的颜色相差过大,即出现偏色现象的场景中。本实施例中第一摄像头和第二摄像头满足的条件,如何选择第一摄像头和第二摄像头,如何使用第二图像优化第一图像(或者优化融合后得到的第一图像)等,均可以参考上文。原则上,在不冲突的情况下,基于本实施例的任意可选的实现方式均可以参考上文。
可以理解的是,为了实现上述实施例中功能,终端包括了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本申请中所公开的实施例描述的各示例的单元及方法步骤,本申请能够以硬件或硬件和计算机软件相结合的形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用场景和设计约束条件。
图12包含本申请的实施例提供的可能的图像处理装置的结构示意图。这些图像处理装置可以用于实现上述方法实施例中终端的功能,因此也能实现上述方法实施例所具备的有益效果。在本申请的实施例中,该图像处理装置可以是如图1所示的终端100,还可以是应用于终端的模块(如芯片)。下文中以图像处理装置131是终端中的模块(如芯片)为例进行说明。
如图12所示终端13包括图像处理装置131第一摄像头132和第二摄像头133。第一摄像头132的倍率不小于第二摄像头133的倍率。图像处理装置131可以包括:控制单元1311和优化单元1312。
在一些实施例中,控制单元1311用于,用于当第一摄像头132在当前拍摄环境中的ISO大于第一阈值时,控制第一摄像头132针对当前拍摄环境中的第一场景采集第一图像,以及控制第二摄像头133针对第一场景采集第二图像。优化单元1312,用于根据第二图像优化第一图像,得到第三图像。例如,结合图3,控制单元1311可以用于执行S102,优化单元1312可以用于执行S104。其中,当第二图像的颜色优于第一图像的颜色时,第三图像的颜色优于第一图像的颜色;或者,当第二图像的对比度高于第一图像的对比度时,第三图像的对比度高于第一图像的对比度;或者,当第二图像的动态范围大于第一图像的动态范围时,第三图像的动态范围大于第一图像的动态范围。
可选的,第二图像的颜色优于第一图像的颜色,包括以下至少一种条件:第二图像的色度大于第一图像的色度;第二图像的亮度大于第一图像的亮度。
在另一些实施例中,控制单元1311,用于当第一摄像头132在当前拍摄环境中的感光度ISO大于第一阈值时,控制第一摄像头132针对当前拍摄环境中的第一场景采集第一图像,以及控制第二摄像头133针对第一场景采集第二图像;其中,第二图像的颜色比第一图像的颜色更接近第一场景的真实颜色;优化单元1312,用于根据第二图像优化第一图像,得到第三图像;第三图像的颜色比第一图像的颜色更接近第一场景的真实颜色。例如,结合图11,控制单元1311可以用于执行S201和S202,优化单元1312可以用于执行S203。
可选的,第二图像与第一图像满足如下至少一种条件:第二图像的色度比第一图像的色度更接近第一场景的真实色度;第二图像的亮度比第一图像的亮度更接近第一场景的真实亮度。
基于上述任一实施例,均提供了以下可选的实现方式:
可选的,第三图像的图像内容与第一图像的图像内容相同。
可选的,第二摄像头133的感光性能大于第一摄像头132的感光性能。
可选的,第二摄像头133的光圈大于第一摄像头132的光圈。
可选的,第二摄像头133采集第二图像时的曝光时长大于第一摄像头132采集第一图像时的曝光时长。
可选的,第二摄像头133采集第二图像时所使用的ISO大于第一摄像头132采集第一图像时所使用的ISO。
可选的,第二摄像头133的倍率范围包括[0.5,1),第一摄像头132的倍率范围包括[1,20]。
可选的,第二摄像头133的倍率是1,第一摄像头132的倍率范围包括(1,20]。
如图12所示,可选的,图像处理装置131还包括:降噪单元1313。
可选的,控制单元1311还用于,控制第一摄像头132针对第一场景采集N帧图像,N是大于等于1的整数;降噪单元1313,用于根据N帧图像以及第一图像进行多帧降噪,得到第四图像;优化单元1312具体用于,根据第二图像优化第四图像,得到第三图像。其中,第四图像的图像内容与第一图像的图像内容相同。
可选的,控制单元1311还用于,控制通过第一摄像头132和第二摄像头133分别针对第一场景采集N1帧图像和N2帧图像;其中,N1和N2均是大于等于1的整数;降噪单元1313,用于根据N1帧图像、N2帧图像和第一图像进行多帧降噪,得到第五图像;优化单元1312具体用于,根据第二图像优化第五图像,得到第三图像。其中,第五图像的图像内容与第一图像的图像内容相同。
可选的,终端13还包括第三摄像头134,第三摄像头134的倍率小于第一摄像头132的倍率;控制单元1311还用于,控制第一摄像头132和第三摄像头134分别针对第一场景采集N3帧图像和N4帧图像;其中,N3和N4均是大于等于1的整数;降噪单元1313,用于根据N3帧图像、N4帧图像和第一图像进行多帧降噪,得到第六图像;优化单元1312具体用于,根据第二图像优化第六图像,得到第三图像。其中,第六图像的图像内容与第一图像的图像内容相同。
如图12所示,可选的,图像处理装置131还包括:
可选的,选择单元1314,用于:
当终端13针对第一场景的拍摄倍率在[1,3)时,选择终端13中倍率为1的摄像头作为第一摄像头132。
或者,当终端13针对第一场景的拍摄倍率在[3,7)时,选择终端13中倍率为3的摄像头作为第一摄像头132。
或者,当终端13针对第一场景的拍摄倍率大于10时,选择终端13中倍率为10的摄像头作为第一摄像头132。
或者,当终端13针对第一场景的拍摄倍率在[7,10)时,选择终端13中倍率为10的摄像头作为第一摄像头,并选择终端中倍率为3的摄像头作为第三摄像头132。
可选的,选择单元1314,还用于:
当终端13针对第一场景的拍摄倍率在[1,3)时,选择终端13中倍率为1或者小于1的摄像头作为第二摄像头133;
或者,当终端13针对第一场景的拍摄倍率在[3,7)时,选择终端13中倍率为3、1、或者小于1的摄像头作为第二摄像头133;
或者,当终端13针对第一场景的拍摄倍率在[7,10)时,选择终端13中倍率为3、1、或者小于1的摄像头作为第二摄像头133;
或者,当终端13针对第一场景的拍摄倍率大于10时,选择终端13中倍率为10、3、1、或者小于1的摄像头作为第二摄像头133。
可选的,优化单元1312具体用于:获取第一图像中至少两个子图像的颜色校正矩阵CCM矩阵;其中,至少两个子图像包括第一子图像,第一子图像的CCM矩阵用于表征第一子图像的特征与第二图像中的第二子图像的特征之间的映射关系;第一子图像和第二子图像是同一对象的图像;特征包括颜色、对比度或动态范围中的至少一种;基于至少两个子图像的CCM矩阵,得到第一图像中的像素的CCM矩阵;其中,第一图像包括第一像素,第一像素的CCM矩阵用于表征第一像素的特征与第二图像中的第二像素的特征之间的映射关系;第一像素和第二像素对应于同一图像内容;基于第一图像中的像素的CCM矩阵和第一图像,得到第三图像。例如,结合图6,优化单元1312可以用于执行S43~S45。
可选的,优化单元1312在执行获取第一图像中至少两个子图像的CCM矩阵时,具体用于:使用第一神经网络获取至少两个子图像的CCM矩阵;第一神经网络用于对第一图像的特征和纹理信息,以及第二图像的特征和纹理信息进行分析,得到至少两个子图像的CCM矩阵。
可选的,优化单元1312具体用于:使用第二神经网络和第二图像优化第一图像,得到第三图像;第二神经网络用于利用图像风格较好的图像对图像风格较差的图像进行图像风格优化。
关于上述可选方式的具体描述可以参见前述的方法实施例,此处不再赘述。此外,上述提供的任一种图像处理装置131的解释以及有益效果的描述均可参考上述对应的方法实施例,不再赘述。
作为示例,结合图1,上述控制单元1311、优化单元1312、降噪单元1313和选择单元1314中的任意一个单元的功能,均可以通过处理器110调用存储内部存储器121中的程度代码实现。
本申请另一实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当指令在终端执行上述方法实施例所示的方法流程中该终端执行的各个步骤。
在一些实施例中,所公开的方法可以实施为以机器可读格式被编码在计算机可读存储介质上的或者被编码在其它非瞬时性介质或者制品上的计算机程序指令。
应该理解,这里描述的布置仅仅是用于示例的目的。因而,本领域技术人员将理解,其它布置和其它元素(例如,机器、接口、功能、顺序、和功能组等等)能够被取而代之地使用,并且一些元素可以根据所期望的结果而一并省略。另外,所描述的元素中的许多是可以被实现为离散的或者分布式的组件的、或者以任何适当的组合和位置来结合其它组件实施的功能实体。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件程序实现时,可以全部或部分地以计算机程序产品的形式来实现。该计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机执行指令时,全部或部分地产生按照本申请实施例的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或者数据中心通过有线(例如同轴电缆、光纤、数字用户线(digitalsubscriber line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可以用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质(例如,软盘、硬盘、磁带),光介质(例如,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (35)
1.一种图像处理方法,其特征在于,所述方法应用于终端,所述终端包括第一摄像头和第二摄像头,所述第一摄像头的倍率不小于所述第二摄像头的倍率,所述方法包括:
当所述第一摄像头在当前拍摄环境中的感光度ISO大于第一阈值时:
通过所述第一摄像头针对所述当前拍摄环境中的第一场景采集第一图像;
通过所述第二摄像头针对所述第一场景采集第二图像;
根据所述第二图像优化所述第一图像,得到第三图像;
其中,
当所述第二图像的颜色优于所述第一图像的颜色时,所述第三图像的颜色优于所述第一图像的颜色;或者,
当所述第二图像的对比度高于所述第一图像的对比度时,所述第三图像的对比度高于所述第一图像的对比度;或者,
当所述第二图像的动态范围大于所述第一图像的动态范围时,所述第三图像的动态范围大于所述第一图像的动态范围。
2.根据权利要求1所述的方法,所述第二图像的颜色优于所述第一图像的颜色,包括以下至少一种条件:
所述第二图像的色度大于所述第一图像的色度;
所述第二图像的亮度大于所述第一图像的亮度。
3.根据权利要求1或2所述的方法,其特征在于,所述第三图像的图像内容与所述第一图像的图像内容相同。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述第二摄像头的感光性能大于所述第一摄像头的感光性能。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述第二摄像头的光圈大于所述第一摄像头的光圈。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述第二摄像头采集所述第二图像时的曝光时长大于所述第一摄像头采集所述第一图像时的曝光时长。
7.根据权利要求1至6任一项所述的方法,其特征在于,所述第二摄像头采集所述第二图像时所使用的ISO大于所述第一摄像头采集所述第一图像时所使用的ISO。
8.根据权利要求1至7任一项所述的方法,其特征在于,
所述第二摄像头的倍率范围包括[0.5,1),所述第一摄像头的倍率范围包括[1,20];
或者,所述第二摄像头的倍率是1,所述第一摄像头的倍率范围包括(1,20]。
9.根据权利要求1至8任一项所述的方法,其特征在于,所述方法还包括:
通过所述第一摄像头针对所述第一场景采集N帧图像,N是大于等于1的整数;
根据所述N帧图像以及所述第一图像进行多帧降噪,得到第四图像;其中,所述第四图像的图像内容与所述第一图像的图像内容相同;
所述根据所述第二图像优化所述第一图像,得到第三图像,包括:
根据所述第二图像优化所述第四图像,得到所述第三图像。
10.根据权利要求1至8任一项所述的方法,其特征在于,所述方法还包括:
通过所述第一摄像头和所述第二摄像头分别针对所述第一场景采集N1帧图像和N2帧图像;其中,N1和N2均是大于等于1的整数;
根据所述N1帧图像、所述N2帧图像和所述第一图像进行多帧降噪,得到第五图像;其中,所述第五图像的图像内容与所述第一图像的图像内容相同;
所述根据所述第二图像优化所述第一图像,得到第三图像,包括:
根据所述第二图像优化所述第五图像,得到所述第三图像。
11.根据权利要求9或10所述的方法,其特征在于,所述方法还包括:
当所述终端针对所述第一场景的拍摄倍率在[1,3)时,选择所述终端中倍率为1的摄像头作为所述第一摄像头;
或者,当所述终端针对所述第一场景的拍摄倍率在[3,7)时,选择所述终端中倍率为3的摄像头作为所述第一摄像头;
或者,当所述终端针对所述第一场景的拍摄倍率大于10时,选择所述终端中倍率为10的摄像头作为所述第一摄像头。
12.根据权利要求1至8任一项所述的方法,其特征在于,所述终端还包括第三摄像头,所述第三摄像头为所述终端中不同于所述第一摄像头和所述第二摄像头的摄像头,所述第三摄像头的倍率不大于所述第一摄像头的倍率;所述方法还包括:
通过所述第一摄像头和所述第三摄像头分别针对所述第一场景采集N3帧图像和N4帧图像;其中,N3和N4均是大于等于1的整数;
根据所述N3帧图像、所述N4帧图像和所述第一图像进行多帧降噪,得到第六图像;其中,所述第六图像的图像内容与所述第一图像的图像内容相同;
所述根据所述第二图像优化所述第一图像,得到第三图像,包括:
根据所述第二图像优化所述第六图像,得到所述第三图像。
13.根据权利要求12所述的方法,其特征在于,所述方法还包括:
当所述终端针对所述第一场景的拍摄倍率在[7,10)时,选择所述终端中倍率为10的摄像头作为所述第一摄像头,并选择所述终端中倍率为3的摄像头作为所述第三摄像头。
14.根据权利要求11或13所述的方法,其特征在于,所述方法还包括:
当所述终端针对所述第一场景的拍摄倍率在[1,3)时,选择所述终端中倍率为1或者小于1的摄像头作为所述第二摄像头;
或者,当所述终端针对所述第一场景的拍摄倍率在[3,7)时,选择所述终端中倍率为3、1、或者小于1的摄像头作为所述第二摄像头;
或者,当所述终端针对所述第一场景的拍摄倍率在[7,10)时,选择所述终端中倍率为3、1、或者小于1的摄像头作为所述第二摄像头;
或者,当所述终端针对所述第一场景的拍摄倍率大于10时,选择所述终端中倍率为10、3、1、或者小于1的摄像头作为所述第二摄像头。
15.根据权利要求1至14任一项所述的方法,其特征在于,所述根据所述第二图像优化所述第一图像,得到第三图像,包括:
获取所述第一图像中至少两个子图像的颜色校正矩阵CCM矩阵;其中,所述至少两个子图像包括第一子图像,所述第一子图像的CCM矩阵用于表征所述第一子图像的特征与所述第二图像中的第二子图像的特征之间的映射关系;所述第一子图像和所述第二子图像是同一对象的图像;所述特征包括颜色、对比度或动态范围中的至少一种;
基于所述至少两个子图像的CCM矩阵,得到所述第一图像中的像素的CCM矩阵;其中,所述第一图像包括第一像素,所述第一像素的CCM矩阵用于表征所述第一像素的特征与所述第二图像中的第二像素的特征之间的映射关系;所述第一像素和所述第二像素对应于同一图像内容;
基于所述第一图像中的像素的CCM矩阵和所述第一图像,得到所述第三图像。
16.根据权利要求15所述的方法,其特征在于,所述获取所述第一图像中至少两个子图像的CCM矩阵,包括:
使用第一神经网络获取所述至少两个子图像的CCM矩阵;所述第一神经网络用于对所述第一图像的特征和纹理信息,以及所述第二图像的特征和纹理信息进行分析,得到所述至少两个子图像的CCM矩阵。
17.根据权利要求1至16任一项所述的方法,其特征在于,所述根据所述第二图像优化所述第一图像,得到第三图像,包括:
使用第二神经网络和所述第二图像优化所述第一图像,得到所述第三图像;所述第二神经网络用于利用图像风格较好的图像对图像风格较差的图像进行图像风格优化。
18.一种图像处理装置,其特征在于,所述装置应用于终端,所述终端还包括第一摄像头和第二摄像头,所述第一摄像头的倍率不小于所述第二摄像头的倍率,所述装置包括:
控制单元,用于当所述第一摄像头在当前拍摄环境中的感光度ISO大于第一阈值时,控制所述第一摄像头针对所述当前拍摄环境中的第一场景采集第一图像,以及控制所述第二摄像头针对所述第一场景采集第二图像;
优化单元,用于根据所述第二图像优化所述第一图像,得到第三图像;
其中,
当所述第二图像的颜色优于所述第一图像的颜色时,所述第三图像的颜色优于所述第一图像的颜色;或者,
当所述第二图像的对比度高于所述第一图像的对比度时,所述第三图像的对比度高于所述第一图像的对比度;或者,
当所述第二图像的动态范围大于所述第一图像的动态范围时,所述第三图像的动态范围大于所述第一图像的动态范围。
19.根据权利要求18所述的装置,所述第二图像的颜色优于所述第一图像的颜色,包括以下至少一种条件:
所述第二图像的色度大于所述第一图像的色度;
所述第二图像的亮度大于所述第一图像的亮度。
20.根据权利要求18或19所述的装置,其特征在于,所述第三图像的图像内容与所述第一图像的图像内容相同。
21.根据权利要求18至20任一项所述的装置,其特征在于,所述第二摄像头的感光性能大于所述第一摄像头的感光性能。
22.根据权利要求18至21任一项所述的装置,其特征在于,所述第二摄像头的光圈大于所述第一摄像头的光圈。
23.根据权利要求18至22任一项所述的装置,其特征在于,所述第二摄像头采集所述第二图像时的曝光时长大于所述第一摄像头采集所述第一图像时的曝光时长。
24.根据权利要求18至23任一项所述的装置,其特征在于,所述第二摄像头采集所述第二图像时所使用的ISO大于所述第一摄像头采集所述第一图像时所使用的ISO。
25.根据权利要求18至24任一项所述的装置,其特征在于,
所述第二摄像头的倍率范围包括[0.5,1),所述第一摄像头的倍率范围包括[1,20];
或者,所述第二摄像头的倍率是1,所述第一摄像头的倍率范围包括(1,20]。
26.根据权利要求18至25任一项所述的装置,其特征在于,
所述控制单元还用于,控制所述第一摄像头针对所述第一场景采集N帧图像,N是大于等于1的整数;
所述装置还包括:降噪单元,用于根据所述N帧图像以及所述第一图像进行多帧降噪,得到第四图像;其中,所述第四图像的图像内容与所述第一图像的图像内容相同;
所述优化单元具体用于,根据所述第二图像优化所述第四图像,得到所述第三图像。
27.根据权利要求18至25任一项所述的装置,其特征在于,
所述控制单元还用于,控制通过所述第一摄像头和所述第二摄像头分别针对所述第一场景采集N1帧图像和N2帧图像;其中,N1和N2均是大于等于1的整数;
所述装置还包括:降噪单元,用于根据所述N1帧图像、所述N2帧图像和所述第一图像进行多帧降噪,得到第五图像;其中,所述第五图像的图像内容与所述第一图像的图像内容相同;
所述优化单元具体用于,根据所述第二图像优化所述第五图像,得到所述第三图像。
28.根据权利要求26或27所述的装置,其特征在于,所述装置还包括选择单元,用于:
当所述终端针对所述第一场景的拍摄倍率在[1,3)时,选择所述终端中倍率为1的摄像头作为所述第一摄像头;
或者,当所述终端针对所述第一场景的拍摄倍率在[3,7)时,选择所述终端中倍率为3的摄像头作为所述第一摄像头;
或者,当所述终端针对所述第一场景的拍摄倍率大于10时,选择所述终端中倍率为10的摄像头作为所述第一摄像头。
29.根据权利要求18至25任一项所述的装置,其特征在于,所述终端还包括第三摄像头,所述第三摄像头为所述终端中不同于所述第一摄像头和所述第二摄像头的摄像头,所述第三摄像头的倍率不大于所述第一摄像头的倍率;
所述控制单元还用于,控制所述第一摄像头和所述第三摄像头分别针对所述第一场景采集N3帧图像和N4帧图像;其中,N3和N4均是大于等于1的整数;
所述装置还包括:降噪单元,用于根据所述N3帧图像、所述N4帧图像和所述第一图像进行多帧降噪,得到第六图像;其中,所述第六图像的图像内容与所述第一图像的图像内容相同;
所述优化单元具体用于,根据所述第二图像优化所述第六图像,得到所述第三图像。
30.根据权利要求29所述的装置,其特征在于,所述装置还包括选择单元,用于:
当所述终端针对所述第一场景的拍摄倍率在[7,10)时,选择所述终端中倍率为10的摄像头作为所述第一摄像头,并选择所述终端中倍率为3的摄像头作为所述第三摄像头。
31.根据权利要求28或30所述的装置,其特征在于,所述选择单元还用于:
当所述终端针对所述第一场景的拍摄倍率在[1,3)时,选择所述终端中倍率为1或者小于1的摄像头作为所述第二摄像头;
或者,当所述终端针对所述第一场景的拍摄倍率在[3,7)时,选择所述终端中倍率为3、1、或者小于1的摄像头作为所述第二摄像头;
或者,当所述终端针对所述第一场景的拍摄倍率在[7,10)时,选择所述终端中倍率为3、1、或者小于1的摄像头作为所述第二摄像头;
或者,当所述终端针对所述第一场景的拍摄倍率大于10时,选择所述终端中倍率为10、3、1、或者小于1的摄像头作为所述第二摄像头。
32.根据权利要求18至31任一项所述的装置,其特征在于,所述优化单元具体用于:
获取所述第一图像中至少两个子图像的颜色校正矩阵CCM矩阵;其中,所述至少两个子图像包括第一子图像,所述第一子图像的CCM矩阵用于表征所述第一子图像的特征与所述第二图像中的第二子图像的特征之间的映射关系;所述第一子图像和所述第二子图像是同一对象的图像;所述特征包括颜色、对比度或动态范围中的至少一种;
基于所述至少两个子图像的CCM矩阵,得到所述第一图像中的像素的CCM矩阵;其中,所述第一图像包括第一像素,所述第一像素的CCM矩阵用于表征所述第一像素的特征与所述第二图像中的第二像素的特征之间的映射关系;所述第一像素和所述第二像素对应于同一图像内容;
基于所述第一图像中的像素的CCM矩阵和所述第一图像,得到所述第三图像。
33.根据权利要求32所述的装置,其特征在于,所述优化单元在执行所述获取所述第一图像中至少两个子图像的CCM矩阵时,具体用于:
使用第一神经网络获取所述至少两个子图像的CCM矩阵;所述第一神经网络用于对所述第一图像的特征和纹理信息,以及所述第二图像的特征和纹理信息进行分析,得到所述至少两个子图像的CCM矩阵。
34.根据权利要求18至33任一项所述的装置,其特征在于,
所述优化单元具体用于:使用第二神经网络和所述第二图像优化所述第一图像,得到所述第三图像;所述第二神经网络用于利用图像风格较好的图像对图像风格较差的图像进行图像风格优化。
35.一种终端,其特征在于,包括:处理器、存储器和至少两个摄像头,所述至少两个摄像头用于拍摄图像,所述存储器用于存储计算机程序和指令,所述处理器用于调用所述计算机程序和指令,与所述至少两个摄像头协同执行如权利要求1-17中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010226094.XA CN113518172B (zh) | 2020-03-26 | 2020-03-26 | 图像处理方法和装置 |
PCT/CN2021/071489 WO2021190097A1 (zh) | 2020-03-26 | 2021-01-13 | 图像处理方法和装置 |
EP21775021.5A EP4113970A4 (en) | 2020-03-26 | 2021-01-13 | Image processing method and device |
US17/934,697 US20230014272A1 (en) | 2020-03-26 | 2022-09-23 | Image processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010226094.XA CN113518172B (zh) | 2020-03-26 | 2020-03-26 | 图像处理方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113518172A true CN113518172A (zh) | 2021-10-19 |
CN113518172B CN113518172B (zh) | 2023-06-20 |
Family
ID=77891482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010226094.XA Active CN113518172B (zh) | 2020-03-26 | 2020-03-26 | 图像处理方法和装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230014272A1 (zh) |
EP (1) | EP4113970A4 (zh) |
CN (1) | CN113518172B (zh) |
WO (1) | WO2021190097A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11979832B2 (en) * | 2021-11-02 | 2024-05-07 | Snap Inc. | Eyewear having current consumption optimization of wireless system interface |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106454077A (zh) * | 2016-09-26 | 2017-02-22 | 宇龙计算机通信科技(深圳)有限公司 | 拍摄方法、拍摄装置和终端 |
CN106454131A (zh) * | 2016-11-29 | 2017-02-22 | 广东欧珀移动通信有限公司 | 终端的拍照方法、装置及终端 |
CN106534633A (zh) * | 2016-10-27 | 2017-03-22 | 深圳奥比中光科技有限公司 | 一种组合摄像***、移动终端及图像处理方法 |
CN106911892A (zh) * | 2017-02-21 | 2017-06-30 | 深圳市金立通信设备有限公司 | 一种图像处理的方法及终端 |
CN109672827A (zh) * | 2017-10-13 | 2019-04-23 | 三星电子株式会社 | 用于组合多个图像的电子装置及其方法 |
CN110855957A (zh) * | 2019-11-01 | 2020-02-28 | RealMe重庆移动通信有限公司 | 图像处理方法及装置、存储介质和电子设备 |
CN110868548A (zh) * | 2018-08-27 | 2020-03-06 | 华为技术有限公司 | 一种图像处理方法及电子设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103856719A (zh) * | 2014-03-26 | 2014-06-11 | 深圳市金立通信设备有限公司 | 一种拍照方法及终端 |
CN105208259B (zh) * | 2014-06-17 | 2019-12-03 | 中兴通讯股份有限公司 | 相机自动对焦优化的方法及相机 |
KR102603426B1 (ko) * | 2016-06-27 | 2023-11-20 | 삼성전자주식회사 | 이미지 처리장치 및 방법 |
US10432869B2 (en) * | 2016-09-07 | 2019-10-01 | Multimedia Image Solution Limited | Method of utilizing wide-angle image capturing element and long-focus image capturing element for achieving clear and precise optical zooming mechanism |
WO2018082165A1 (zh) * | 2016-11-03 | 2018-05-11 | 华为技术有限公司 | 光学成像方法及其装置 |
CN106713762B (zh) * | 2017-01-19 | 2020-07-03 | 宇龙计算机通信科技(深圳)有限公司 | 图像处理方法及装置 |
CN109064415A (zh) * | 2018-07-09 | 2018-12-21 | 奇酷互联网络科技(深圳)有限公司 | 图像处理方法、***、可读存储介质及终端 |
CN109379522A (zh) * | 2018-12-06 | 2019-02-22 | Oppo广东移动通信有限公司 | 成像方法、成像装置、电子装置及介质 |
-
2020
- 2020-03-26 CN CN202010226094.XA patent/CN113518172B/zh active Active
-
2021
- 2021-01-13 EP EP21775021.5A patent/EP4113970A4/en active Pending
- 2021-01-13 WO PCT/CN2021/071489 patent/WO2021190097A1/zh unknown
-
2022
- 2022-09-23 US US17/934,697 patent/US20230014272A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106454077A (zh) * | 2016-09-26 | 2017-02-22 | 宇龙计算机通信科技(深圳)有限公司 | 拍摄方法、拍摄装置和终端 |
CN106534633A (zh) * | 2016-10-27 | 2017-03-22 | 深圳奥比中光科技有限公司 | 一种组合摄像***、移动终端及图像处理方法 |
CN106454131A (zh) * | 2016-11-29 | 2017-02-22 | 广东欧珀移动通信有限公司 | 终端的拍照方法、装置及终端 |
CN106911892A (zh) * | 2017-02-21 | 2017-06-30 | 深圳市金立通信设备有限公司 | 一种图像处理的方法及终端 |
CN109672827A (zh) * | 2017-10-13 | 2019-04-23 | 三星电子株式会社 | 用于组合多个图像的电子装置及其方法 |
CN110868548A (zh) * | 2018-08-27 | 2020-03-06 | 华为技术有限公司 | 一种图像处理方法及电子设备 |
CN110855957A (zh) * | 2019-11-01 | 2020-02-28 | RealMe重庆移动通信有限公司 | 图像处理方法及装置、存储介质和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
EP4113970A4 (en) | 2023-06-28 |
US20230014272A1 (en) | 2023-01-19 |
EP4113970A1 (en) | 2023-01-04 |
WO2021190097A1 (zh) | 2021-09-30 |
CN113518172B (zh) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020168956A1 (zh) | 一种拍摄月亮的方法和电子设备 | |
CN113364971B (zh) | 图像处理方法和装置 | |
CN109559270B (zh) | 一种图像处理方法及电子设备 | |
CN113747085B (zh) | 拍摄视频的方法和装置 | |
CN112887583B (zh) | 一种拍摄方法及电子设备 | |
CN113452969B (zh) | 图像处理方法和装置 | |
WO2021078001A1 (zh) | 一种图像增强方法及装置 | |
CN110602403A (zh) | 一种暗光下拍照的方法及电子设备 | |
CN111103922B (zh) | 摄像头、电子设备和身份验证方法 | |
CN113170037B (zh) | 一种拍摄长曝光图像的方法和电子设备 | |
CN114140365B (zh) | 基于事件帧的特征点匹配方法及电子设备 | |
CN113542580B (zh) | 去除眼镜光斑的方法、装置及电子设备 | |
CN113986070B (zh) | 一种应用卡片的快速查看方法及电子设备 | |
CN113747058B (zh) | 基于多摄像头的图像内容屏蔽方法和装置 | |
CN112150499A (zh) | 图像处理方法及相关装置 | |
CN115115679A (zh) | 一种图像配准方法及相关设备 | |
CN110286975B (zh) | 一种前景元素的显示方法和电子设备 | |
WO2022057384A1 (zh) | 拍摄方法和装置 | |
CN117234398B (zh) | 一种屏幕亮度调节方法及电子设备 | |
US20230014272A1 (en) | Image processing method and apparatus | |
CN114283195B (zh) | 生成动态图像的方法、电子设备及可读存储介质 | |
WO2022206589A1 (zh) | 一种图像处理方法以及相关设备 | |
CN114079725B (zh) | 视频防抖方法、终端设备和计算机可读存储介质 | |
CN113497888B (zh) | 照片预览方法、电子设备和存储介质 | |
WO2024078275A1 (zh) | 一种图像处理的方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |