CN115460343A - 图像处理方法、设备及存储介质 - Google Patents

图像处理方法、设备及存储介质 Download PDF

Info

Publication number
CN115460343A
CN115460343A CN202210912803.9A CN202210912803A CN115460343A CN 115460343 A CN115460343 A CN 115460343A CN 202210912803 A CN202210912803 A CN 202210912803A CN 115460343 A CN115460343 A CN 115460343A
Authority
CN
China
Prior art keywords
image data
processor
image
camera
noise reduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210912803.9A
Other languages
English (en)
Other versions
CN115460343B (zh
Inventor
李子荣
殷仕帆
刘琰培
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honor Device Co Ltd
Original Assignee
Honor Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honor Device Co Ltd filed Critical Honor Device Co Ltd
Priority to CN202210912803.9A priority Critical patent/CN115460343B/zh
Publication of CN115460343A publication Critical patent/CN115460343A/zh
Application granted granted Critical
Publication of CN115460343B publication Critical patent/CN115460343B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

本申请公开了一种图像处理方法、设备及存储介质,属于图像处理技术领域。所述方法包括:第一处理器获取第一摄像头采集的第一图像数据以及第二摄像头采集的第二图像数据,第一图像数据为黑白图像数据,第二图像数据为彩色图像数据;对第一图像数据和第二图像数据分别进行降噪,对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合,得到第三图像数据,将第三图像数据发送给集成处理器;集成处理器对第三图像数据进行图像增强处理,得到目标图像数据。本申请可以对摄像头拍摄的图像进行清晰度、色彩和亮度增强,得到清晰度较高、色彩还原能力较强、且亮度较为均匀的图像,提高拍摄效果,尤其适用于夜间拍摄场景。

Description

图像处理方法、设备及存储介质
技术领域
本申请涉及图像处理技术领域,特别涉及一种图像处理方法、设备及存储介质。
背景技术
随着技术的发展,手机拍摄能力已成为一种重要的手机性能指标。其中,夜间拍摄是用户使用手机拍摄的常见场景。手机在夜间场景下拍摄时,由于环境较暗,手机拍摄的照片或视频较暗,用户视觉体验较差。
相关技术中,手机配置有摄像头和通用的集成处理器,集成处理器集成有CPU和GPU等多种处理器。比如,通用的集成处理器可以为片上芯片(system on chip,SOC)。为了提高夜间拍摄效果,在手机通过摄像头进行拍摄后,集成电路器可以获取摄像头采集的彩色图像数据,对彩色图像数据进行图像增强处理,得到目标图像数据,对目标数据图像进行保存或送显。
但是,由于通用的集成处理器的图像增强处理能力有限,因此在夜间拍摄场景下,通过集成处理器对摄像头采集的图像数据进行图像增强处理后,得到的目标图像数据的噪声较大,色彩还原能力较差,容易出现亮区过亮、暗区过暗的情况。
发明内容
本申请提供了一种图像处理方法、设备及存储介质,可以对摄像头拍摄的图像进行清晰度、色彩和亮度的增强,得到清晰度较高、色彩还原能力较强、且亮度较为均匀的图像。所述技术方案如下:
第一方面,提供了一种图像处理方法,应用于电子设备,电子设备包括第一摄像头、第二摄像头、第一处理器和集成处理器,第一摄像头为黑白摄像头,第二摄像头为彩色摄像头,所述方法包括:
第一处理器获取第一摄像头采集的黑白图像数据和第二摄像头采集的彩色图像数据,对黑白图像数据和彩色图像数据分别进行降噪,对黑白图像数据和彩色图像数据进行图像融合,得到融合图像数据,将融合图像数据发送给集成处理器。集成处理器对融合图像数据进行图像增强处理,得到目标图像数据。
本申请实施例中,在集成处理器之外额外配置了一个独立的第一处理器,以及采用了黑白摄像头和彩色摄像头分别进行拍摄的双摄方案。通过第一处理器对黑白摄像头采集的黑白图像数据以及彩色摄像头采集的彩色图像数据分别进行降噪,可以得到高信噪比的黑白图像数据和彩色图像数据,提高图像数据的清晰度。通过对降噪后的黑白图像数据和彩色图像数据进行图像融合,可以将降噪后的黑白图像数据的亮度信息、细节信息与降噪后的彩色图像数据的色彩信息进行融合,得到高信噪比、且细节清晰、色彩准确的图像数据。如此,可以对图像的清晰度、色彩和亮度进行全方位增强,得到清晰度较高、色彩还原能力较强、且亮度较为均匀的图像,进而提高了摄像头的拍摄效果,尤其可以提高夜间场景、室内场、阴天场景等光线较弱的拍摄场景的拍摄效果。
在一种可能的实施例中,第一处理器对黑白图像数据和彩色图像数据分别进行降噪之前,还可以先对黑白图像数据和彩色图像数据分别进行预处理之后,再对预处理后的黑白图像数据进行降噪,得到降噪后的黑白图像数据;对预处理后的彩色图像数据进行降噪,得到降噪后的彩色图像数据。
其中,预处理包括黑白电平校正、坏点校正、镜头阴影校正和自动白平衡中的一种或多种。通过对黑白图像数据和彩色图像数据分别进行预处理,可以对这两个图像数据进行图像校正,得到图像信息更为准确的图像数据。
在一种可能的实施例中,第一处理器包括第一IFE和第二IFE,第一处理器通过第一IFE对黑白图像数据进行预处理,得到预处理后的黑白图像数据;通过第二IFE对彩色图像数据进行预处理,得到预处理后的彩色图像数据。
作为一个示例,第一处理器可以采用AI算法对第一图像数据和第二图像数据分别进行降噪。如此,可以提高第一处理器的运算效率。
在一种可能的实施例中,第一处理器包括NPU,NPU包括第一神经网络和第二神经网络,第一神经网络用于对黑白图像数据进行降噪,第二神经网络用于对彩色图像数据进行降噪。第一处理器通过第一神经网络对黑白图像数据进行降噪,得到降噪后的黑白图像数据;通过第二神经网络对彩色图像数据进行降噪,得到降噪后的彩色图像数据。
通过在专用的NPU上运行AI降噪算法,可以提高算法的运算速度,从而进一步提高第一处理器的运算效率。
在一种可能的实施例中,黑白图像数据为第一摄像头采集的第一视频帧数据,彩色图像数据为第二摄像头采集的第二视频帧数据;第一处理器将第一视频帧数据和第三视频帧数据作为第一神经网络的输入,通过第一神经网络对第一视频帧数据和第三视频帧数据进行处理,得到降噪后的黑白图像数据,第三视频帧数据是对第一摄像头在第一视频帧数据之前采集的视频帧数据进行降噪后得到;第一处理器将第二视频帧数据和第四视频帧数据作为第二神经网络的输入,通过第二神经网络对第二视频帧数据和第四视频帧数据进行处理,得到降噪后的彩色图像数据,第四视频帧数据是对第二摄像头在第二视频帧数据之前采集的视频帧数据进行降噪后得到。
通过根据当前帧和前一帧的降噪结果,确定当前帧的降噪结果,可以提高降噪的精确度。
作为一个示例,第一处理器可以采用AI算法对降噪后的黑白图像数据和彩色图像数据进行图像融合。如此,可以提高第一处理器的运算效率。
在一种可能的实施例中,第一处理器包括NPU,NPU包括第三神经网络,第三神经网络用于对黑白图像数据和彩色图像数据进行图像融合;第一处理器通过第三神经网络对降噪后的黑白图像数据和降噪后的彩色图像数据进行图像融合,得到第三图像数据。
通过在专用的NPU上运行AI图像融合算法,可以提高算法的运算速度,从而进一步提高第一处理器的运算效率。
在一种可能的实施例中,第一处理器先对降噪后的黑白图像数据和降噪后的彩色图像数据进行尺度对齐,得到尺度对齐后的黑白图像数据和彩色图像数据,尺度对齐后的黑白图像数据和彩色图像数据的尺度相同;再将尺度对齐后的黑白图像数据和彩色图像数据作为第三神经网络的输入,通过第三神经网络对尺度对齐后的黑白图像数据和彩色图像数据进行处理,得到第三图像数据。
在一种可能的实施例中,第一处理器获取第一摄像头和第二摄像头的关键参数,关键参照包括焦距、像素尺寸和视场角中的一种或多种;根据第一摄像头和第二摄像头的关键参数,确定降噪后的黑白图像数据和降噪后的彩色图像数据之间的尺度差异;根据尺度差异对降噪后的黑白图像数据和降噪后的彩色图像数据进行尺度对齐,得到尺度对齐后的黑白图像数据和彩色图像数据。
在一种可能的实施例中,第一处理器可以先对第三图像数据进行动态范围压缩,得到第五图像数据,第五图像数据的动态范围低于第三图像数据的动态范围;将第五图像数据发送给集成处理器,以便集成处理器对第五图像数据进行图像增强处理,得到目标图像数据。
作为一个示例,第一处理器可以采用AI算法对第三图像数据进行动态范围压缩。如此,可以提高第一处理器的运算效率。
在一种可能的实施例中,第一处理器包括NPU,NPU包括第四神经网络,第四神经网络用于对图像数据进行动态范围压缩;第一处理器通过第四神经网络对第三图像数据进行动态范围压缩,得到第五图像数据。
通过在专用的NPU上运行AI动态范围压缩算法,可以提高算法的运算速度,从而进一步提高第一处理器的运算效率。
在一种可能的实施例中,第一处理器将第三图像数据作为第四神经网络的输入,通过第四神经网络对第三图像数据进行影调映射,得到第五图像数据。
在一种可能的实施例中,第一处理器对彩色图像数据进行降噪之后,先对降噪后的彩色图像数据进行去马赛克处理,得到第六图像数据;再对降噪后的黑白图像数据和第六图像数据进行图像融合,得到第三图像数据。
通过对降噪后的彩色图像数据进行去马赛克处理,可以将降噪后的彩色图像数据从RAW域转换为RGB域。
在一种可能的实施例中,集成处理器包括IPE,集成处理器通过IPE对第三图像数据进行图像增强处理,得到目标图像数据。
其中,图像增强处理可以包括硬件降噪、图像裁剪、颜色增强或细节增强等图像处理操作,当然也可以包括其他图像处理操作,本申请实施例对此不做限定。
在一种可能的实施例中,第一处理器获取第一摄像头采集的黑白图像数据以及第二摄像头采集的彩色图像数据之后,还可以将黑白图像数据和彩色图像数据发送给集成处理器,由集成处理器根据黑白图像数据确定第一3A值,根据彩色图像数据确定第二3A值;根据第一3A值对第一摄像头进行控制,根据第二3A值对第二摄像头进行控制。
其中,第一3A值和第二3A值包括自动对焦AF值、自动曝光AE值和自动白平衡AWE值。集成处理器可以根据图像数据采用3A算法确定3A值,该3A算法可以预先设置,本申请实施例对此不做限定。
作为一个示例,集成处理器可以根据第一3A值调整第一摄像头的3A值,根据第二3A值调整第二摄像头的3A值。或者,集成处理器也可以将第一3A值发送给第一摄像头,由第一摄像头根据第一3A值调整自身的3A值;将第二3A值发送给第二摄像头,由第二摄像头根据第二3A值调整自身的3A值。
如此,可以根据第一图像数据和第二图像数据的图像信息,对第一摄像头和第二摄像头进行自动曝光、自动白平衡和自动对焦,提高后续图像的拍摄效果。
在一种可能的实施例中,第一处理器为ISP,ISP包括NPU。
在一种可能的实施例中,集成处理器为SOC。
第二方面,提供了一种图像处理装置,图像处理装置具有实现上述第一方面中图像处理方法行为的功能。图像处理装置包括至少一个模块,至少一个模块用于实现上述第一方面所提供的图像处理方法。
第三方面,提供了一种图像处理装置,图像处理装置的结构中包括处理器和存储器,存储器用于存储支持图像处理装置执行上述第一方面所提供的图像处理方法的程序,以及存储用于实现上述第一方面的图像处理方法所涉及的数据。处理器被配置为用于执行存储器中存储的程序。图像处理装置还可以包括通信总线,通信总线用于在处理器与存储器之间建立连接。
第四方面,提供了一种计算机可读存储介质,计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面的图像处理方法。
第五方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面所述的图像处理方法。
上述第二方面、第三方面、第四方面和第五方面所获得的技术效果与上述第一方面中对应的技术手段获得的技术效果近似,在这里不再赘述。
附图说明
图1示出了相关技术提供的一种手机的结构示意图;
图2示出了本申请实施例提供的一种手机的结构示意图;
图3示出了一种使用相关技术提供的图像处理方法处理得到的目标图像以及使用本申请实施例提供的图像处理方法处理得到的目标图像的对比示意图;
图4示出了本申请实施例提供的另一种手机的结构示意图;
图5示出了本申请实施例提供的一种AI降噪模块的示意图;
图6示出了本申请实施例提供的一种AI图像融合模块的示意图;
图7示出了本申请实施例提供的一种AI动态范围压缩模块的示意图;
图8示出了本申请实施例提供的一种手机的硬件结构示意图;
图9示出了本申请实施例提供的一种手机的软件***的框图;
图10示出了本申请实施例提供的一种图像处理方法的流程图;
图11示出了本申请实施例提供的另一种图像处理方法的流程图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请的实施方式作进一步地详细描述。
应当理解的是,本申请提及的“多个”是指两个或两个以上。在本申请的描述中,除非另有说明,“/”表示或的意思,比如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,比如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,为了便于清楚描述本申请的技术方案,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
需要说明的是,本申请实施例提供的图像处理方法适用于任何具有拍摄功能、且具有多个摄像头的电子设备,例如手机、平板电脑、照相机、智能可穿戴设备等,本申请实施例对此不做限定。另外,本申请实施例提供的图像处理方法可以应用于多种拍摄场景中,例如夜间场景、室内场景、阴天场景等,当然也可以适用于其他拍摄场景,本申请实施例对此不做限定。下文为了便于描述,将以手机在夜间场景下进行拍摄为例进行说明。
如背景技术所言,人们使用手机在夜间场景下拍摄时,由于环境较暗,手机拍摄的图像较暗,用户视觉体验较差。相关技术中,为了提高夜间场景下的图像拍摄效果,可以通过手机中通用的集成处理器对摄像头拍摄的图像数据进行图像增强处理。
请参考图1,图1示出了相关技术提供的一种手机的结构示意图。如图1所示,手机包括彩色摄像头11和通用的集成处理器12,集成处理器12包括图像前端(image frontend,IFE)和图像处理引擎(image processing engine,IPE)。彩色摄像头11用于拍摄彩色图像,在彩色摄像头11启动后,集成处理器12采集彩色摄像头11采集的彩色图像数据,通过IFE对彩色图像数据进行预处理,然后通过IPE对预处理后的彩色图像数据进行图像增强处理,得到待显示的目标彩色图像数据。
但是,由于通用的集成处理器的预处理和图像增强处理等图像处理能力有限,因此在夜间拍摄场景下,通过集成处理器对摄像头采集的图像数据进行图像处理后,得到的目标图像数据的图像画面可能存在图像不清晰、噪声大,亮区过亮、暗去过暗,色彩还原能力较差等问题。为了解决该技术问题,本申请实施例提供了一种图像拍摄方法。
请参考图2,图2示出了本申请实施例提供的一种手机100的结构示意图,如图2所示,手机100包括摄像头10、摄像头20、处理器30和集成处理器40。
其中,摄像头10为黑白摄像头,用于拍摄黑白图像。
其中,摄像头20为彩色摄像头,用于拍摄彩色图像。
其中,集成处理器40集成有多个处理器,比如集成有中央处理器(centralprocessing unit,CPU)、图形处理器(graphics processing unit,GPU)、图像信号处理器(image signal processor,ISP)等多个处理器。集成处理器40通常集成在集成电路芯片上,比如集成在通用的片上芯片(System on Chip,SOC)上。
集成处理器40包括图像增强模块41,图像增强模块41用于对图像数据进行增强处理。比如,图像增强模块41可以为IPE等。
其中,处理器30为集成处理器40之外的一个单独的处理器,可以位于集成处理器40的前端。也即是,本申请实施例中,在集成处理器40之前又额外配置了一个专门用于对摄像头拍摄的图像进行图像处理的处理器,以提高图像处理效果,进而提高图像拍摄效果。
比如,处理器30可以为ISP,该ISP是在集成处理器40中的ISP之外又额外配置的一个专门进行图像处理的处理器。譬如,处理器30为包括神经网络处理单元(neural networkprocessing unit,NPU)的人工智能(artificial intelligence,AI)ISP。示例地,处理器30集成在第一芯片上,第一芯片为SOC之外的芯片。
处理器30包括第一降噪模块31、第二降噪模块32和图像融合模块33。第一降噪模块31用于对黑白图像数据进行降噪,第二降噪模块32用于对彩色图像数据进行降噪,图像融合模块33用于对黑白图像数据和彩色图像数据进行图像融合,以融合得到一个细节清晰、色彩准确的彩色图像数据。
作为一个示例,第一降噪模块31、第二降噪模块32和图像融合模块33为AI模块,可以采用AI算法实现对应功能。
本申请实施例中,手机100进行拍摄时,可以分别通过摄像头10采集黑白图像数据,以及通过摄像头20采集彩色图像数据。处理器30可以获取摄像头10采集的黑白图像数据和摄像头20采集的彩色图像数据,通过第一降噪模块31对黑白图像数据进行降噪,通过第二降噪模块32对彩色图像数据进行降噪,通过图像融合模块33对降噪后的黑白图像数据和降噪后的彩色图像数据进行图像融合,得到融合图像数据,将融合图像数据发送给集成处理器40。集成处理器40通过图像增强模块41对融合图像数据进行图像增强处理,得到目标图像数据。之后,对目标图像数据进行保存或送显。
通过在集成处理器40之外配置额外的处理器30,以及采用黑白摄像头和彩色摄像头分别进行拍摄的双摄方案,可以在集成处理器40的图像增强之前,先通过处理器30对摄像头10采集的黑白图像数据以及摄像头20采集的彩色图像数据分别进行降噪,并对降噪后的黑白图像数据和彩色图像数据进行图像融合。如此,可以提高图像的降噪效果、画面清晰度以及色彩还原能力,从而提高摄像头的拍摄效果,尤其可以提高夜间场景的拍摄效果。
请参考图3,图3示出了一种使用相关技术提供的图像处理方法处理得到的目标图像以及使用本申请实施例提供的图像处理方法处理得到的目标图像的对比示意图。其中,图3中的(a)图是使用相关技术提供的图像处理方法对摄像头采集的图像进行处理得到的目标图像,图3中的(b)图是使用本申请实施例提供的图像处理方法对摄像头采集的图像进行处理得到的目标图像。根据图3中的(a)图可知,相关技术提供的图像处理方法处理得到的目标图像存在图像画面不清晰、噪声大、色彩还原能力差等问题,出现了亮区过亮、暗区过暗的情况。将图3中的(b)图与图3中的(a)图对比可知,使用本申请实施例提供的图像处理方法处理得到的目标图像的图像画面更加清晰,亮度均匀,色彩还原能力更佳,图像效果较好,用户视觉体验更佳。
作为一个示例,摄像头10和摄像头20通过处理器接口与处理器30连接,将采集的图像数据通过处理器接口发送给处理器30。处理器30通过处理器接口与处理器40连接,将融合图像数据通过处理器接口发送给集成处理器40。其中,处理器接口可以为移动行业处理器接口(mobile industry processor interface,Mipi)等。
作为一个示例,还可以在第一降噪模块31之前配置第一预处理模块,以在第一降噪模块31之前对黑白图像数据进行预处理。以及在第二降噪模块32之前配置第二预处理模块,以在第二降噪模块32之前对彩色图像数据进行预处理。第一预处理模块和第二预处理模块可以为IFE等。
作为一个示例,还可以在第二降噪模块32之后配置去马赛克模块,以在对彩色图像数据进行降噪后,对降噪后的彩色图像数据进行去马赛克处理,以将降噪后的彩色图像数据从RAW域转换为RGB域。
作为一个示例,还可以在图像融合模块33之后配置动态范围压缩(dynamic rangecompression,DRC)模块,对融合图像数据进行动态范围压缩,以降低融合图像数据的动态范围,将融合图像数据从高动态范围成像压缩到低动态范围成像,而且保留图像局部对比度和细节。示例地,图像融合模块33可以为AI模块,通过AI算法实现对应功能。
作为一个示例,处理器30为ISP,ISP包括NPU,上述模块为NPU中的AI模块。
请参考图4,图4示出了本申请实施例提供的另一种手机100的结构示意图。如图4所示,手机100包括摄像头10、摄像头20、AI ISP30和SOC40,SOC40包括ISP42。
其中,AI ISP30包括路由模块34、IFE35、IFE36、AI降噪模块31、AI降噪模块32、去马赛克模块37、AI图像融合模块33和AI动态范围压缩模块38。ISP42包括IPE41和3A(自动曝光(auto exposure,AE)、自动白平衡(auto white balance,AWE)、自动对焦(auto focus,AF))模块43。
另外,AI ISP30还包括多个处理器接口,比如包括Mipi0、Mipi1和Mipi2。摄像头10通过Mipi0与路由模块34连接,摄像头20通过Mipi1与路由模块34连接。AI动态范围压缩模块38通过Mipi0与IPE41连接。路由模块34通过Mipi1和Mipi2与3A模块43连接。
路由模块34用于对摄像头采集的图像数据进行复制。比如,路由模块34为标准图像格式(standard image format,SIF)路由模块。摄像头10采集的黑白图像数据通过Mipi0发送给路由模块34,摄像头20采集的彩色图像数据通过Mipi1发送给路由模块34。路由模块34对黑白图像数据和彩色图像数据分别进行复制,以得到两路黑白图像数据和两路彩色图像数据。路由模块34将一路黑白图像数据发送给IFE35,将一路彩色图像数据发送给IFE36。以及将另一路黑白图像数据通过Mipi1发送给3A模块43,将另一路彩色图像数据通过Mipi2发送给3A模块44。
IFE35对黑白图像数据进行预处理,将预处理后的黑白图像数据发送给AI降噪模块31。IFE36对彩色图像数据进行预处理,将预处理后的彩色图像数据发送给AI降噪模块32。其中,预处理用于对图像数据进行校正,比如预处理包括黑白电平校正(black levelcorrection,BLC)、坏点校正(bad pixel correction,BPC)、镜头阴影校正(lens shadingcorrection,LSC)和AWE中的一种或多种。应理解,预处理还可以包括其他图像处理操作,本申请实施例对此不做限定。
AI降噪模块31对预处理后的黑白图像数据进行降噪,得到降噪后的黑白图像数据,将降噪后的黑白图像数据发送给AI图像融合模块33。AI降噪模块32对预处理后的彩色图像数据进行降噪,得到降噪后的彩色图像数据,将降噪后的彩色图像数据发送给去马赛克模块37,通过去马赛克模块37对降噪后的彩色图像数据进行去马赛克处理,将去马赛克处理后的彩色图像数据发送给AI图像融合模块33。其中,AI降噪模块31和AI降噪模块32为采用AI算法的降噪模块。
AI图像融合模块33对降噪后的黑白图像数据和去马赛克后的彩色图像数据进行图像融合,得到融合图像数据,将融合图像数据发送给AI动态范围压缩模块38。AI图像融合模块33为采用AI算法的图像融合模块。
AI动态范围压缩模块38对融合图像数据进行动态范围压缩,将动态范围压缩后的融合图像数据通过Mipi0发送给ISP42中的IPE41。AI动态范围压缩模块38为采用AI算法的动态范围压缩模块。
IPE41对动态范围压缩后的融合图像数据进行图像增强处理,得到目标图像数据。其中,图像增强处理可以包括硬件降噪、图像裁剪、颜色增强或细节增强等图像处理操作。
3A模块43用于根据图像数据采用3A算法计算3A值(AE值、AWE值和AF值)。在路由模块34将另一路黑白图像数据通过Mipi1发送给3A模块43,以及将另一路彩色图像数据通过Mipi2发送给3A模块43后,3A模块43可以根据接收的黑白图像数据计算第一3A值,根据第一3A值对摄像头10进行控制,比如根据第一3A值调整摄像头10的3A值,或者将第一3A值发送给摄像头10,由摄像头10根据第一3A值调整自身的3A值。另外,3A模块43可以根据接收的彩色图像数据计算第二3A值,根据第二3A值对摄像头20进行控制,比如根据第二3A值调整摄像头20的3A值,或者将第二3A值发送给摄像头20,由摄像头20根据第二3A值调整自身的3A值。
请参考图5,图5示出了本申请实施例提供的一种AI降噪模块的示意图。如图5所示,该降噪模块包括神经网络1,神经网络1用于对图像进行降噪。可以将图像数据作为神经网络1的输入,通过神经网络1输出降噪后的图像数据。比如,请参考图5,以图像数据为视频帧数据为例,可以将第N帧视频帧数据和降噪后的第N-1帧视频帧数据作为神经网络1的输入,通过神经网络1输出降噪后的第N帧视频帧数据。
请参考图6,图6示出了本申请实施例提供的一种AI图像融合模块的示意图。如图6所示,AI图像融合模块包括神经网络2,神经网络2用于对黑白图像数据和彩色图像数据进行图像融合,得到融合图像数据。比如,先对黑白图像数据和彩色图像数据进行尺度对齐,再将尺度对齐后的黑白图像数据和彩色图像数据作为神经网络2的输入,通过神经网络2输出融合图像数据。
请参考图7,图7示出了本申请实施例提供的一种AI动态范围压缩模块的示意图。如图7所示,AI动态范围压缩模块包括神经网络3,神经网络3用于对图像数据进行动态范围压缩。比如,可以将高动态范围图像数据作为神经网络3的输入,通过神经网络3输出低动态范围图像数据。
需要说明的是,上述神经网络可以为卷积神经网络、Net神经网络等,当然也可以为其他神经网络,本申请实施例对此不做限定。
请参考图8,图8示出了本申请实施例提供的一种手机100的硬件结构示意图。参见图8,手机100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。
可以理解的是,本申请实施例示意的结构并不构成对手机100的具体限定。在本申请另一些实施例中,手机100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,比如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。
其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。比如,处理器110包括独立的处理器111和集成处理器112。处理器111用于对摄像头193中多个摄像头采集的图像数据进行降噪和图像融合,得到融合图像数据。集成处理器112用于对第一处理器111得到的融合图像数据进行图像增强处理。示例地,处理器111是包括NPU的AIISP,集成处理器112包括通用的ISP。
其中,控制器可以是手机100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从该存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了***的效率。
在一些实施例中,处理器110可以包括一个或多个接口,如可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等***器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现手机100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现手机100的显示功能。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对手机100的结构限定。在本申请另一些实施例中,手机100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193和无线通信模块160等供电。
手机100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。手机100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。比如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在手机100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(lownoise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。
无线通信模块160可以提供应用在手机100上的包括无线局域网(wireless localarea networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星***(global navigation satellite system,GNSS),调频(frequencymodulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。
手机100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,手机100可以包括1个或N个显示屏194,N为大于1的整数。
手机100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。比如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,手机100可以包括1个或N个摄像头193,N为大于1的整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。比如,当手机100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。手机100可以支持一种或多种视频编解码器。这样,手机100可以播放或录制多种编码格式的视频,比如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,比如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现手机100的智能认知等应用,比如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,比如Micro SD卡,实现扩展手机100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。比如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,计算机可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,来执行手机100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作***,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储手机100在使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,比如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
手机100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D以及应用处理器等实现音频功能,比如音乐播放,录音等。按键190包括开机键,音量键等。按键190可以是机械按键,也可以是触摸式按键。手机100可以接收按键输入,产生与手机100的用户设置以及功能控制有关的键信号输入。马达191可以产生振动提示。指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。SIM卡接口195用于连接SIM卡。
接下来对手机100的软件***予以说明。
手机100的软件***可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的安卓(Android)***为例,对手机100的软件***进行示例性说明。
图9示出了本申请实施例提供的一种手机100的软件***的框图。参见图9,分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android***分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和***层,内核层和硬件抽象层(Hardware AbstractionLayer,HAL)。
应用程序层可以包括一系列应用程序包。如图9所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。如图9所示,应用程序框架层可以包括窗口管理器,内容提供器,视图***,电话管理器,资源管理器,通知管理器等。窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问,这些数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。视图***包括可视控件,比如显示文字的控件,显示图片的控件等。视图***可用于构建应用程序的显示界面,显示界面可以由一个或多个视图组成,比如,包括显示短信通知图标的视图,包括显示文字的视图,以及包括显示图片的视图。电话管理器用于提供手机100的通信功能,比如通话状态的管理(包括接通,挂断等)。资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等。通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如,通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或滚动条文本形式出现在***顶部状态栏的通知,比如后台运行的应用程序的通知。通知管理器还可以是以对话窗口形式出现在屏幕上的通知,比如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓***的调度和管理。核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
***库可以包括多个功能模块,比如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(比如:OpenGL ES),2D图形引擎(比如:SGL)等。表面管理器用于对显示子***进行管理,并且为多个应用程序提供了2D和3D图层的融合。媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,比如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含摄像头驱动,处理器驱动,显示驱动,音频驱动等设备驱动程序。设备驱动程序为I/O***和相关硬件之间的接口,用于驱动对应的硬件设备。
硬件抽象层是位于内核层与硬件电路之间的接口层。HAL是一个核心态模块,可以隐藏各种与硬件有关的细节,例如I/O接口、中断控制器以及多处理器通信机制等,为运行Windows的不同硬件平台提供统一的服务接口,实现多种硬件平台上的可移植性。
硬件层包括摄像头组、单独的处理器、集成处理器、显示器和音频设备等。摄像头组包括多个摄像头,比如包括黑白摄像头和彩色摄像头。示例地,单独的处理器可以为AIISP,集成处理器可以集成CPU、GPU和通用的ISP等。
需要说明的是,本申请实施例仅以Windows***举例来说明,在其他操作***中(例如安卓***,IOS***等),只要各个功能模块实现的功能和本申请的实施例类似也能实现本申请的方案。
下面结合捕获拍照场景,示例性说明手机100软件以及硬件的工作流程。
当触摸传感器接收到触摸操作,相应的硬件中断被发给内核层。内核层将触摸操作加工成原始输入事件(包括触摸坐标,触摸操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,识别原始输入事件所对应的控件。以该触摸操作是单击操作,该单击操作所对应的控件为相机应用图标的控件为例,相机应用调用应用程序框架层的接口,启动相机应用,再调用内核层启动摄像头驱动,通过摄像头捕获静态图像或视频。在通过摄像头捕获静态图像或视频后,相机应用还可以通过HAL层调用单独的处理器和集成处理器,通过单独的处理器和集成处理器对摄像头捕获的静态图像或视频进行图像处理。
接下来,对本申请实施例提供的图像处理方法进行详细说明。
图10示出了本申请实施例提供的一种图像处理方法的流程图,该方法应用于手机等电子设备中,电子设备包括第一摄像头、第二摄像头、第一处理器和集成处理器。如图10所示,该方法包括如下步骤:
步骤1001:第一摄像头采集第一图像数据,第一图像数据为黑白图像数据。
其中,第一摄像头为用于拍摄黑白图像的黑白摄像头。第一图像数据为第一摄像头采集的单通道的原始图像数据。
步骤1002:第一摄像头将第一图像数据发送给第一处理器。
第一摄像头可以通过相关接口与第一处理器连接,通过相关接口将第一图像数据发送给第一处理器。比如,相关接口可以为Mipi接口。
步骤1003:第二摄像头采集第二图像数据,第二图像数据为彩色图像数据。
其中,第二摄像头为用于拍摄彩色图像的彩色摄像头。第二图像数据为第二摄像头采集RAW域的原始图像数据。
步骤1004:第二摄像头将彩色图像数据发送给第一处理器。
第二摄像头可以通过相关接口与第二处理器连接,通过相关接口将第二图像数据发送给第一处理器。比如,相关接口可以为Mipi接口。
步骤1005:第一处理器在接收到第一图像数据和第二图像数据后,对第一图像数据和第二图像数据分别进行降噪。
其中,第一处理器为集成处理器之外的单独的处理器,为本申请实施例在集成处理器之外单独设置的用于对摄像头采集的图像进行图像处理的处理器。比如,第一处理器为包括NPU的AI处理器。例如,第一处理器为ISP,该ISP包括NPU,即第一处理器为包括NPU的AI ISP。
通过对第一图像数据和第二图像数据进行降噪,可以得到高信噪比的图像数据,提高图像数据的清晰度。
作为一个示例,第一处理器可以采用AI算法对第一图像数据和第二图像数据分别进行降噪。如此,可以提高第一处理器的运算效率。
比如,第一处理器包括NPU,NPU包括第一神经网络和第二神经网络,第一神经网络用于对黑白图像数据进行降噪,第二神经网络用于对彩色图像数据进行降噪。第一处理器可以通过第一神经网络对第一图像数据进行降噪,得到降噪后的第一图像数据;通过第二神经网络对第二图像数据进行降噪,得到降噪后的第二图像数据。
其中,第一神经网络和第二神经网络可以为同一个神经网络,也可以为不同的神经网络,本申请实施例对此不做限定。
通过在专用的NPU上运行AI降噪算法,可以进一步提高第一处理器的运算效率。
作为一个示例,第一神经网络和第二神经网络可以如上述图5所示。以视频拍摄场景为例,第一神经网络和第二神经网络可以根据当前帧和邻近帧的降噪帧,确定当前帧的降噪帧。比如,第一神经网络和第二神经网络可以根据当前帧的时域信息和邻近帧的降噪帧的时域信息,确定当前帧的降噪帧。
例如,第一图像数据为第一摄像头采集的第一视频帧数据。对于第一视频帧数据,第一处理器可以将第一视频帧数据和第三视频帧数据作为第一神经网络的输入,通过第一神经网络对第一视频帧数据和第三视频帧数据进行处理,得到降噪后的第一图像数据。其中,第三视频帧数据是对第一摄像头在第一视频帧数据之前采集的视频帧数据进行降噪后得到,即第三视频帧数据为第一视频帧数据的前一帧视频帧数据的降噪数据。
例如,第二图像数据为第二摄像头采集的第二视频帧数据。对于第二视频帧数据,第一处理器可以将第二视频帧数据和第四视频帧数据作为第二神经网络的输入,通过第二神经网络对第二视频帧数据和第四视频帧数据进行处理,得到降噪后的第二图像数据。其中,第四视频帧数据是对第二摄像头在第二视频帧数据之前采集的视频帧数据进行降噪后得到,即第四视频帧数据为第二视频帧数据的前一帧视频帧数据的降噪数据。
作为一个示例,在对第一图像数据和第二图像数据分别进行降噪之前,第一处理器还可以对第一图像数据和第二图像数据分别进行预处理。然后,对预处理后的第一图像数据进行降噪,得到降噪后的第一图像数据;对预处理后的第二图像数据进行降噪,得到降噪后的第二图像数据。
其中,预处理用于对图像数据进行校正。比如,预处理包括黑白电平校正、坏点校正、镜头阴影校正和自动白平衡中的一种或多种,当然也可以包括其他图像处理操作,本申请实施例对此不做限定。
作为一个示例,第一处理器包括第一IFE和第二IFE。第一处理器通过第一IFE对第一图像数据进行预处理,得到预处理后的第一图像数据。第一处理器通过第二IFE对第二图像数据进行预处理,得到预处理后的第二图像数据。
其中,第一IFE和第二IFE可以为同一个IFE,也可以为不同的IFE,本申请实施例对此不做限定。
作为一个示例,第一处理器对第二图像数据进行降噪之后,还可以对降噪后的第二图像数据进行去马赛克处理,得到第六图像数据。
其中,降噪后的第二图像数据为RAW域的图像数据,第六图像数据为RGB域的图像数据。通过对降噪后的第二图像数据进行去马赛克处理,可以将降噪后的第二图像数据从RAW域转换为RGB域。
步骤1006:第一处理器对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合,得到第三图像数据。
其中,第三图像数据为融合图像数据,且为彩色图像数据。
通过对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合,可以将降噪后的第一图像数据的亮度信息、细节信息与降噪后的第二图像数据的色彩信息进行融合,得到高信噪比、且细节清晰、色彩准确的融合图像数据。
作为一个示例,第一处理器可以采用AI算法对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合。如此,可以提高第一处理器的运算效率。
比如,第一处理器包括NPU,NPU包括第三神经网络,第三神经网络用于对黑白图像数据和彩色图像数据进行图像融合。第一处理器可以通过第三神经网络对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合,得到第三图像数据。
通过在专用的NPU上运行AI图像融合算法,可以提高算法的运算速度,从而进一步提高第一处理器的运算效率。
作为一个示例,第一处理器可以先对降噪后的第一图像数据和降噪后的第二图像数据进行尺度对齐,得到尺度对齐后的第一图像数据和第二图像数据,尺度对齐后的第一图像数据和第二图像数据的尺度相同。再将尺度对齐后的第一图像数据和第二图像数据作为第二神经网络的输入,通过第二神经网络对尺度对齐后的第一图像数据和第二图像数据进行处理,得到第三图像数据。
其中,可以将尺度较大的图像数据的尺度缩小,也可以将尺度较小的图像数据的尺度增大,来对降噪后的第一图像数据和降噪后的第二图像数据进行尺度对齐。
作为一个示例,第一处理器可以获取第一摄像头和第二摄像头的关键参数,根据第一摄像头和第二摄像头的关键参数,确定降噪后的第一图像数据和降噪后的第二图像数据之间的尺度差异。然后,根据尺度差异对降噪后的第一图像数据和降噪后的第二图像数据进行尺度对齐,得到尺度对齐后的第一图像数据和第二图像数据。
其中,摄像头的关键参照包括焦距、像素尺寸和视场角中的一种或多种,当然也可以包括其他关键参数,本申请实施例对此不做限定。
另外,第一处理器对第二图像数据进行降噪之后,还可以对降噪后的第二图像数据进行去马赛克处理,得到第六图像数据。然后,对降噪后的第一图像数据和第六图像数据进行图像融合,得到第三图像数据。
步骤1007:第一处理器将第三图像数据发送给集成处理器。
其中,集成处理器集成有多个处理器,比如集成有通用的ISP、CPU和GPU。集成处理器可以集成在集成电路上,比如集成处理器集成在SOC上。
第一处理器可以通过相关接口与集成处理器连接,通过相关接口将第三图像数据发送给集成处理器。比如,相关接口可以为Mipi接口。
作为一个示例,第一处理器还可以先对第三图像数据进行动态范围压缩,得到第五图像数据,然后将第五图像数据发送给集成处理器。
其中,第五图像数据的动态范围低于第三图像数据的动态范围。比如,第三图像数据为高动态范围(high dynamic range,HDR)图像数据,第五图像数据为低动态范围(lowdynamic range,LDR)图像数据。
通过对第三图像数据进行动态范围压缩,可以将第三图像数据从高位宽图像压缩到低位宽图像,而且能够保留图像的局部对比度和细节信息。
作为一个示例,第一处理器可以采用AI算法对第三图像数据进行动态范围压缩。如此,可以提高第一处理器的运算效率。
比如,第一处理器包括NPU,NPU包括第四神经网络,第四神经网络用于对图像数据进行动态范围压缩。第一处理器可以通过第四神经网络对第三图像数据进行动态范围压缩,得到第五图像数据。
通过在专用的NPU上运行AI动态范围压缩算法,可以提高算法的运算速度,从而进一步提高第一处理器的运算效率。
作为一个示例,第四神经网络可以采用影调映射(tone mapping,TM)对第三图像数据进行动态范围压缩。比如,第一处理器将第三图像数据作为第四神经网络的输入,通过第四神经网络对第三图像数据进行影调映射,得到第五图像数据。
此外,第一处理器接收到第一图像数据和第二图像数据之后,还可以将第一图像数据和第二图像数据发送给集成处理器。
比如,第一处理器通过相关接口与集成处理器连接,通过相关接口将第一图像数据发送给集成处理器。比如,相关接口可以为Mipi接口。
步骤1008:集成处理器对第三图像数据进行图像增强处理,得到目标图像数据。
其中,图像增强处理可以包括硬件降噪、图像裁剪、颜色增强或细节增强等图像处理操作,当然也可以包括其他图像处理操作,本申请实施例对此不做限定。
作为一个示例,集成处理器包括IPE,集成处理器通过IPE对第三图像数据进行图像增强处理,得到目标图像数据。
在得到目标图像数据之后,集成处理器可以对目标图像数据进行保存或送显。比如,集成处理器可以将目标图像数据从RGB域转换为YUV域,再对YUV域的目标图像数据进行保存或送显。
另外,集成处理器还可以接收第一处理器发送的第一图像数据和第二图像数据。集成处理器接收到第一图像数据和第二图像数据之后,可以根据第一图像数据确定第一3A值,根据第一3A值对第一摄像头进行控制;根据第二图像数据确定第二3A值,根据第二3A值对第二摄像头进行控制。
其中,第一3A值和第二3A值包括AF值、AE值和AWE值。集成处理器可以根据图像数据采用3A算法确定3A值,该3A算法可以预先设置,本申请实施例对此不做限定。
作为一个示例,集成处理器可以根据第一3A值调整第一摄像头的3A值,根据第二3A值调整第二摄像头的3A值。或者,集成处理器也可以将第一3A值发送给第一摄像头,由第一摄像头根据第一3A值调整自身的3A值;将第二3A值发送给第二摄像头,由第二摄像头根据第二3A值调整自身的3A值。
如此,可以根据第一图像数据和第二图像数据的图像信息,对第一摄像头和第二摄像头进行自动曝光、自动白平衡和自动对焦,提高后续图像的拍摄效果。
作为一个示例,电子设备可以在特定拍摄模式下,采用本申请实施例提供的图像处理方法对摄像头拍摄的图像数据进行处理。其中,特定拍摄模式可以预先设置,比如可以为夜间拍摄模式、室内拍摄模式、阴天拍摄模式等,本申请实施例对此不做限定。
本申请实施例中,通过在集成处理器之外配置额外的第一处理器,以及采用黑白摄像头和彩色摄像头分别进行拍摄的双摄方案,可以在集成处理器的图像增强处理之前,先通过第一处理器对黑白摄像头采集的黑白图像数据以及彩色摄像头采集的彩色图像数据分别进行降噪,并对降噪后的黑白图像数据和彩色图像数据进行图像融合,再将融合图像数据发送给集成处理器,由集成处理器对其进一步进行图像增强处理。通过第一处理器对黑白摄像头采集的黑白图像数据以及彩色摄像头采集的彩色图像数据分别进行降噪,可以得到高信噪比的黑白图像数据和彩色图像数据,提高图像数据的清晰度。通过对降噪后的黑白图像数据和彩色图像数据进行图像融合,可以将降噪后的黑白图像数据的亮度信息、细节信息与降噪后的彩色图像数据的色彩信息进行融合,得到高信噪比、且细节清晰、色彩准确的图像数据。如此,可以对图像的清晰度、色彩和亮度进行全方位增强,得到清晰度较高、色彩还原能力较强、且亮度较为均匀的图像,进而提高了摄像头的拍摄效果,尤其可以提高夜间场景、室内场、阴天场景等光线较弱的拍摄场景的拍摄效果。
接下来,结合上述图4,以视频拍摄场景为例,对本申请实施例提供的图像处理方法进行详细说明。
图11示出了本申请实施例提供的另一种图像处理方法的流程图,该方法应用于图4所示的手机100中。如图11所示,该方法包括如下步骤:
步骤1101:摄像头10采集视频帧1,视频帧1为黑白视频帧。
其中,摄像头10用于拍摄黑白图像的摄像头。摄像头20用于拍摄彩色摄像头。
步骤1102:摄像头10将视频帧1发送给路由模块34。
比如,摄像头10将视频帧1通过Mipi0发送给路由模块34。
步骤1103:摄像头20采集视频帧2,视频帧2为彩***帧。
作为一个示例,视频帧1和视频帧2为同一时间采集的视频帧。
步骤1104:摄像头20将视频帧2发送给路由模块34。
比如,摄像头20将视频帧2通过Mipi0发送给路由模块34。
作为一个示例,相机应用可以在接收到视频拍摄指令后,同时调用摄像10和摄像头20,采用双摄拍摄方式同时采集黑白视频帧和彩***帧。
需要说明的是,视频帧1和视频帧2均为摄像头采集的原始视频数据,视频帧1为单通道的视频帧,视频帧2为RAW域的视频帧。
步骤1105:路由模块34对视频1进行复制得到视频帧3,对视频帧2进行复制得到视频帧4。
步骤1106:路由模块34将视频帧1发送给IFE35,将视频帧2发送给IFE36。
步骤1107:路由模块34将视频帧3和视频帧4发送给3A模块43。
比如,路由模块34可以将视频帧3和视频帧4通过相同或不同的接口发送给3A模块43。比如,通过Mipi1将视频帧3发送给3A模块43,通过Mipi2将视频帧4发送给3A模块43。
步骤1108:IFE35对视频帧1进行预处理,得到预处理后的视频帧1。
其中,预处理用于对图像数据进行校正,比如预处理包括黑白电平校正、坏点校正、镜头阴影校正和自动白平衡中的一种或多种。应理解,预处理还可以包括其他图像处理操作,本申请实施例对此不做限定。
步骤1109:IFE35将预处理后的视频帧1发送给AI降噪模块31。
步骤1110:IFE36对视频帧2进行预处理,得到预处理后的视频帧2。
需要说明的是,IFE35和IFE36可以为同一个IFE,也可以为不同的IFE,本申请实施例对此不做限定。
步骤1111:IFE36将预处理后的视频帧2发送给AI降噪模块32。
步骤1112:AI降噪模块31对预处理后的视频帧1进行降噪,得到降噪后的视频帧1。
其中,AI降噪模块31可以采用AI降噪算法对预处理后的视频帧1进行降噪。
比如,AI降噪模块31包括第一神经网络,第一神经网络用于对黑白图像数据进行降噪。AI降噪模块31通过第一神经网络对预处理后的视频帧1进行降噪,得到降噪后的视频帧1。
示例地,第一神经网络可以为图5所示的神经网络1。可以将视频帧1以及视频帧1的前一个视频帧的降噪结果作为第一神经网络的输入,通过第一神经网络输出视频帧1的降噪结果,即降噪后的视频帧1。
步骤1113:AI降噪模块31将降噪后的视频帧1发送给AI图像融合模块33。
步骤1114:AI降噪模块32对预处理后的视频帧2进行降噪,得到降噪后的视频帧2。
其中,AI降噪模块32可以采用AI降噪算法对预处理后的视频帧2进行降噪。
比如,AI降噪模块32包括第二神经网络,第二神经网络用于对彩色图像数据进行降噪。AI降噪模块32通过第二神经网络对预处理后的视频帧2进行降噪,得到降噪后的视频帧2。
示例地,第二神经网络可以为图5所示的神经网络1。可以将视频帧2以及视频帧2的前一个视频帧的降噪结果作为第二神经网络的输入,通过第二神经网络输出视频帧2的降噪结果,即降噪后的视频帧2。
通过对视频帧1和视频帧2进行降噪,可以减小视频帧1和视频帧2的噪声,得到高信噪比的视频帧1和视频帧2,提高视频帧的清晰度。
步骤1115:AI降噪模块32将降噪后的视频帧2发送给去马赛克模块37。
步骤1116:去马赛克模块37对降噪后的视频帧2进行去马赛克处理,得到去马赛克处理后的视频帧2。
通过对降噪后的视频帧2进行去马赛克处理,可以将降噪后的视频帧2从RAW域转换至RGB域,得到RGB域的高信噪比的视频帧2。
步骤1117:去马赛克模块37将去马赛克处理后的视频帧2发送给AI图像融合模块33。
步骤1118:AI图像融合模块33对降噪后的视频帧1和去马赛克处理后的视频帧2进行图像融合,得到融合视频帧。
其中,融合视频帧为彩***帧,且为RGB域的彩***帧。
AI图像融合模块33可以采用AI图像融合对降噪后的视频帧1和去马赛克处理后的视频帧2进行图像融合。
比如,AI图像融合模块33包括第三神经网络,第三神经网络用于对黑白图像数据和彩色图像数据进行图像融合。AI图像融合模块33通过第三神经网络对降噪后的视频帧1和去马赛克处理后的视频帧2进行图像融合,得到融合视频帧。
示例地,第三神经网络可以为图6所示的神经网络2。可以将先对降噪后的视频帧1和去马赛克处理后的视频帧2进行尺度对齐,再将尺度对齐后的两个视频帧作为第三神经网络的输入,通过第三神经网络输出融合视频帧。
通过对降噪后的视频帧1和去马赛克处理后的视频帧2进行图像融合,可以将降噪后的视频帧1的亮度信息、细节信息与去马赛克处理后的视频帧2的色彩信息进行融合,得到高信噪比、且细节清晰、色彩准确的融合视频帧。
步骤1119:AI图像融合模块33将融合视频帧发送给AI动态范围压缩模块38。
步骤1120:AI动态范围压缩模块38对融合视频帧进行动态范围压缩,得到动态范围压缩后的融合视频帧。
其中,动态范围压缩后的融合视频帧的动态范围低于融合视频帧的动态范围。比如,融合视频帧为HDR视频帧,动态范围压缩后的融合视频帧为LDR视频帧。
其中,AI动态范围压缩模块38可以采用AI动态范围压缩对融合视频帧进行动态范围压缩。
比如,AI动态范围压缩模块38包括第四神经网络,第四神经网络用于对图像数据进行动态范围压缩。AI动态范围压缩模块38通过第四神经网络对AI动态范围压缩模块38进行动态范围压缩,得到动态范围压缩后的融合视频帧。
示例地,第四神经网络可以为图7所示的神经网络3。可以将融合视频帧作为第四神经网络的输入,通过第四神经网络输出动态范围压缩后的融合视频帧。
通过对融合视频帧进行动态范围压缩,可以将融合视频帧从高位宽图像压缩到低位宽图像,而且能够保留图像的局部对比度和细节信息。
步骤1121:AI动态范围压缩模块38将动态范围压缩后的融合视频帧发送给IPE41。
比如,AI动态范围压缩模块38可以通过Mipi0,将动态范围压缩后的融合视频帧发送给IPE41。
步骤1122:IPE41对动态范围压缩后的融合视频帧进行图像增强处理,得到目标视频帧。
其中,图像增强处理可以包括硬件降噪、图像裁剪、颜色增强或细节增强等图像处理操作,当然也可以包括其他图像处理操作,本申请实施例对此不做限定。
步骤1123:IPE41对目标视频帧进行保存或送显。
作为一个示例,IPE41可以将目标视频帧从RGB域转换到YUV域,再对YUV域的目标视频帧进行保存或送显。
步骤1124:3A模块43采用3A算法根据视频帧3确定第一3A值,采用3A算法根据视频帧4确定第二3A值。
其中,3A值包括AF值、AE值和AWE值。
步骤1125:3A模块43将第一3A值发送给摄像头10,将第二3A值发送给摄像头20。
步骤1126:摄像头10根据第一3A值调整自身的3A值。
步骤1127:摄像头20根据第二3A值调整自身的3A值。
如此,可以根据原始视频帧摄像头进行自动曝光、自动白平衡和自动对焦,提高后续视频的拍摄效果。
需要说明的是,AI ISP30包括NPU,上述AI降噪模块31、AI降噪模块32、AI图像融合模块33和AI动态范围压缩模块38均可以运行在专用NPU上,如此可以提高算法的运算速度,进而提高处理器30的运算速度。
本申请实施例中,通过在SOC40的ISP之外配置AI ISP30,以及采用黑白摄像头和彩色摄像头分别进行拍摄的双摄方案,可以在SOC40的图像增强处理之前,先通过AI ISP30对黑白摄像头采集的黑白图像数据以及彩色摄像头采集的彩色图像数据分别进行降噪,并对降噪后的黑白图像数据和彩色图像数据进行图像融合,再将融合图像数据发送给集成处理器,由集成处理器对其进一步进行图像增强处理。通过AI ISP30对黑白摄像头采集的黑白图像数据以及彩色摄像头采集的彩色图像数据分别进行降噪,可以得到高信噪比的黑白图像数据和彩色图像数据,提高图像数据的清晰度。通过对降噪后的黑白图像数据和彩色图像数据进行图像融合,可以将降噪后的黑白图像数据的亮度信息、细节信息与降噪后的彩色图像数据的色彩信息进行融合,得到高信噪比、且细节清晰、色彩准确的图像数据。如此,可以对图像的清晰度、色彩和亮度进行全方位增强,得到清晰度较高、色彩还原能力较强、且亮度较为均匀的图像,进而提高了摄像头的拍摄效果,尤其可以提高夜间场景、室内场、阴天场景等光线较弱的拍摄场景的拍摄效果。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意结合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络或其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,比如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(比如:同轴电缆、光纤、数据用户线(Digital Subscriber Line,DSL))或无线(比如:红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质,或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(比如:软盘、硬盘、磁带)、光介质(比如:数字通用光盘(Digital Versatile Disc,DVD))或半导体介质(比如:固态硬盘(Solid State Disk,SSD))等。
以上所述为本申请提供的可选实施例,并不用以限制本申请,凡在本申请的揭露的技术范围之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (17)

1.一种图像处理方法,其特征在于,应用于电子设备,所述电子设备包括第一摄像头、第二摄像头、第一处理器和集成处理器,所述方法包括:
所述第一处理器获取所述第一摄像头采集的第一图像数据以及所述第二摄像头采集的第二图像数据,所述第一图像数据为黑白图像数据,所述第二图像数据为彩色图像数据;
所述第一处理器对所述第一图像数据和所述第二图像数据分别进行降噪,对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合,得到第三图像数据,将所述第三图像数据发送给所述集成处理器;
所述集成处理器对所述第三图像数据进行图像增强处理,得到目标图像数据。
2.如权利要求1所述的方法,其特征在于,所述第一处理器对所述第一图像数据和所述第二图像数据分别进行降噪之前,还包括:
所述第一处理器对所述第一图像数据和所述第二图像数据分别进行预处理,所述预处理包括黑白电平校正、坏点校正、镜头阴影校正和自动白平衡中的一种或多种;
所述第一处理器对所述第一图像数据和所述第二图像数据分别进行降噪,包括:
所述第一处理器对预处理后的第一图像数据进行降噪,得到所述降噪后的第一图像数据;
所述第一处理器对预处理后的第二图像数据进行降噪,得到所述降噪后的第二图像数据。
3.如权利要求1或2所述的方法,其特征在于,所述第一处理器包括第一图像前端IFE和第二IFE,所述第一处理器对所述第一图像数据和所述第二图像数据分别进行预处理,包括:
所述第一处理器通过所述第一IFE对所述第一图像数据进行预处理,得到所述预处理后的第一图像数据;
所述第一处理器通过所述第二IFE对所述第二图像数据进行预处理,得到所述预处理后的第二图像数据。
4.如权利要求1-3任一所述的方法,其特征在于,所述第一处理器包括神经网络处理单元NPU,所述NPU包括第一神经网络和第二神经网络,所述第一神经网络用于对黑白图像数据进行降噪,所述第二神经网络用于对彩色图像数据进行降噪;
所述第一处理器对所述第一图像数据和所述第二图像数据分别进行降噪,包括:
所述第一处理器通过所述第一神经网络对所述第一图像数据进行降噪,得到所述降噪后的第一图像数据;
所述第一处理器通过所述第二神经网络对所述第二图像数据进行降噪,得到所述降噪后的第二图像数据。
5.如权利要求4所述的方法,其特征在于,所述第一图像数据为所述第一摄像头采集的第一视频帧数据,所述第二图像数据为所述第二摄像头采集的第二视频帧数据;
所述第一处理器通过所述第一神经网络对所述第一图像数据进行降噪,得到所述降噪后的第一图像数据,包括:
所述第一处理器将所述第一视频帧数据和第三视频帧数据作为所述第一神经网络的输入,通过所述第一神经网络对所述第一视频帧数据和所述第三视频帧数据进行处理,得到所述降噪后的第一图像数据,所述第三视频帧数据是对所述第一摄像头在所述第一视频帧数据之前采集的视频帧数据进行降噪后得到;
所述第一处理器通过所述第二神经网络对所述第二图像数据进行降噪,得到所述降噪后的第二图像数据,包括:
所述第一处理器将所述第二视频帧数据和第四视频帧数据作为所述第二神经网络的输入,通过所述第二神经网络对所述第二视频帧数据和所述第四视频帧数据进行处理,得到所述降噪后的第二图像数据,所述第四视频帧数据是对所述第二摄像头在所述第二视频帧数据之前采集的视频帧数据进行降噪后得到。
6.如权利要求1-5任一所述的方法,其特征在于,所述第一处理器包括NPU,所述NPU包括第三神经网络,所述第三神经网络用于对黑白图像数据和彩色图像数据进行图像融合;
所述第一处理器对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合,得到第三图像数据,包括:
所述第一处理器通过所述第三神经网络对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合,得到第三图像数据。
7.如权利要求6所述的方法,其特征在于,所述第一处理器通过所述第三神经网络对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合之前,还包括:
所述第一处理器对降噪后的第一图像数据和降噪后的第二图像数据进行尺度对齐,得到尺度对齐后的第一图像数据和第二图像数据,所述尺度对齐后的第一图像数据和第二图像数据的尺度相同;
所述第一处理器通过所述第三神经网络对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合,得到第三图像数据,包括:
所述第一处理器将所述尺度对齐后的第一图像数据和第二图像数据作为所述第三神经网络的输入,通过所述第三神经网络对所述尺度对齐后的第一图像数据和第二图像数据进行处理,得到所述第三图像数据。
8.如权利要求7所述的方法,其特征在于,所述第一处理器对降噪后的第一图像数据和降噪后的第二图像数据进行尺度对齐,得到尺度对齐后的第一图像数据和第二图像数据,包括:
所述第一处理器获取所述第一摄像头和所述第二摄像头的关键参数,所述关键参照包括焦距、像素尺寸和视场角中的一种或多种;
所述第一处理器根据所述第一摄像头和所述第二摄像头的关键参数,确定降噪后的第一图像数据和降噪后的第二图像数据之间的尺度差异;
所述第一处理器根据所述尺度差异对降噪后的第一图像数据和降噪后的第二图像数据进行尺度对齐,得到所述尺度对齐后的第一图像数据和第二图像数据。
9.如权利要求1-8任一所述的方法,其特征在于,所述第一处理器将所述第三图像数据发送给所述集成处理器,包括:
所述第一处理器对所述第三图像数据进行动态范围压缩,得到第五图像数据,所述第五图像数据的动态范围低于所述第三图像数据的动态范围;
所述第一处理器将所述第五图像数据发送给所述集成处理器;
所述集成处理器对所述第三图像数据进行图像增强处理,得到目标图像数据,包括:
所述集成处理器对所述第五图像数据进行图像增强处理,得到所述目标图像数据。
10.如权利要求9所述的方法,其特征在于,所述第一处理器包括NPU,所述NPU包括第四神经网络,所述第四神经网络用于对图像数据进行动态范围压缩;
所述第一处理器对所述第三图像数据进行动态范围压缩,得到第五图像数据,包括:
所述第一处理器通过所述第四神经网络对所述第三图像数据进行动态范围压缩,得到所述第五图像数据。
11.如权利要求10所述的方法,其特征在于,所述第一处理器通过所述第四神经网络对所述第三图像数据进行动态范围压缩,得到所述第五图像数据,包括:
所述第一处理器将所述第三图像数据作为所述第四神经网络的输入,通过所述第四神经网络对所述第三图像数据进行影调映射,得到所述第五图像数据。
12.如权利要求1-11任一所述的方法,其特征在于,所述第一处理器对所述第二图像数据进行降噪之后,还包括:
所述第一处理器对降噪后的第二图像数据进行去马赛克处理,得到第六图像数据;
所述第一处理器对降噪后的第一图像数据和降噪后的第二图像数据进行图像融合,得到第三图像数据,包括:
所述第一处理器对降噪后的第一图像数据和所述第六图像数据进行图像融合,得到第三图像数据。
13.如权利要求1-12任一所述的方法,其特征在于,所述集成处理器包括图像处理引擎IPE,所述集成处理器对所述第三图像数据进行图像增强处理,得到目标图像数据,包括:
所述集成处理器通过所述IPE对所述第三图像数据进行图像增强处理,得到所述目标图像数据。
14.如权利要求1-13任一所述的方法,其特征在于,所述第一处理器获取所述第一摄像头采集的第一图像数据以及所述第二摄像头采集的第二图像数据之后,还包括:
所述第一处理器将所述第一图像数据和所述第二图像数据发送给所述集成处理器;
所述集成处理器根据所述第一图像数据确定第一3A值,根据所述第二图像数据确定第二3A值,所述第一3A值和所述第二3A值包括自动对焦AF值、自动曝光AE值和自动白平衡AWE值;
所述集成处理器根据所述第一3A值对所述第一摄像头进行控制,根据所述第二3A值对所述第二摄像头进行控制。
15.如权利要求1-14任一所述的方法,其特征在于,所述第一处理器为图像信号处理器ISP,所述ISP包括NPU。
16.一种电子设备,其特征在于,所述电子设备包括第一摄像头、第二摄像头、存储器、第一处理器、集成处理器、存储在所述存储器中并可在所述第一处理器上运行的第一计算机程序以及存储在所述存储器中并可在所述集成处理器上运行的第二计算机程序,所述第一摄像头用于采集黑白图像数据,所述第二摄像头用于采集彩色图像数据,所述第一计算机程序被所述第一处理器执行时实现如权利要求1-15任意一项中所述第一处理器执行的方法,所述第二计算机程序被所述集成处理器执行时实现如权利要求1-15任意一项中所述集成处理器执行的方法。
17.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行如权利要求1-15任意一项所述的方法。
CN202210912803.9A 2022-07-31 2022-07-31 图像处理方法、设备及存储介质 Active CN115460343B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210912803.9A CN115460343B (zh) 2022-07-31 2022-07-31 图像处理方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210912803.9A CN115460343B (zh) 2022-07-31 2022-07-31 图像处理方法、设备及存储介质

Publications (2)

Publication Number Publication Date
CN115460343A true CN115460343A (zh) 2022-12-09
CN115460343B CN115460343B (zh) 2023-06-13

Family

ID=84297510

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210912803.9A Active CN115460343B (zh) 2022-07-31 2022-07-31 图像处理方法、设备及存储介质

Country Status (1)

Country Link
CN (1) CN115460343B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002301447B2 (en) * 2001-10-12 2005-04-14 Canon Kabushiki Kaisha Interactive Animation of Sprites in a Video Production
JP2009157647A (ja) * 2007-12-26 2009-07-16 Sony Corp 画像処理回路、撮像装置、方法およびプログラム
CN102881004A (zh) * 2012-08-31 2013-01-16 电子科技大学 一种基于视觉神经网络的数字图像增强方法
WO2017090837A1 (en) * 2015-11-24 2017-06-01 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of operating the same
CN106878605A (zh) * 2015-12-10 2017-06-20 北京奇虎科技有限公司 一种基于电子设备的图像生成的方法和电子设备
CN107147837A (zh) * 2017-06-30 2017-09-08 维沃移动通信有限公司 一种拍摄参数的设置方法和移动终端
WO2018082165A1 (zh) * 2016-11-03 2018-05-11 华为技术有限公司 光学成像方法及其装置
US10511908B1 (en) * 2019-03-11 2019-12-17 Adobe Inc. Audio denoising and normalization using image transforming neural network
CN111586312A (zh) * 2020-05-14 2020-08-25 Oppo(重庆)智能科技有限公司 自动曝光的控制方法及装置、终端、存储介质
WO2020207262A1 (zh) * 2019-04-09 2020-10-15 Oppo广东移动通信有限公司 基于多帧图像的图像处理方法、装置、电子设备
CN112217962A (zh) * 2019-07-10 2021-01-12 杭州海康威视数字技术股份有限公司 摄像机及图像生成方法
CN113810600A (zh) * 2021-08-12 2021-12-17 荣耀终端有限公司 终端的图像处理方法、装置和终端设备
CN113962884A (zh) * 2021-10-10 2022-01-21 杭州知存智能科技有限公司 Hdr视频获取方法、装置、电子设备以及存储介质
CN114693857A (zh) * 2020-12-30 2022-07-01 华为技术有限公司 光线追踪多帧降噪方法、电子设备、芯片及可读存储介质
CN114693569A (zh) * 2020-12-25 2022-07-01 华为技术有限公司 双摄像头视频融合的方法和电子设备

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002301447B2 (en) * 2001-10-12 2005-04-14 Canon Kabushiki Kaisha Interactive Animation of Sprites in a Video Production
JP2009157647A (ja) * 2007-12-26 2009-07-16 Sony Corp 画像処理回路、撮像装置、方法およびプログラム
CN102881004A (zh) * 2012-08-31 2013-01-16 电子科技大学 一种基于视觉神经网络的数字图像增强方法
WO2017090837A1 (en) * 2015-11-24 2017-06-01 Samsung Electronics Co., Ltd. Digital photographing apparatus and method of operating the same
CN106878605A (zh) * 2015-12-10 2017-06-20 北京奇虎科技有限公司 一种基于电子设备的图像生成的方法和电子设备
WO2018082165A1 (zh) * 2016-11-03 2018-05-11 华为技术有限公司 光学成像方法及其装置
CN107147837A (zh) * 2017-06-30 2017-09-08 维沃移动通信有限公司 一种拍摄参数的设置方法和移动终端
US10511908B1 (en) * 2019-03-11 2019-12-17 Adobe Inc. Audio denoising and normalization using image transforming neural network
WO2020207262A1 (zh) * 2019-04-09 2020-10-15 Oppo广东移动通信有限公司 基于多帧图像的图像处理方法、装置、电子设备
CN112217962A (zh) * 2019-07-10 2021-01-12 杭州海康威视数字技术股份有限公司 摄像机及图像生成方法
CN111586312A (zh) * 2020-05-14 2020-08-25 Oppo(重庆)智能科技有限公司 自动曝光的控制方法及装置、终端、存储介质
CN114693569A (zh) * 2020-12-25 2022-07-01 华为技术有限公司 双摄像头视频融合的方法和电子设备
CN114693857A (zh) * 2020-12-30 2022-07-01 华为技术有限公司 光线追踪多帧降噪方法、电子设备、芯片及可读存储介质
CN113810600A (zh) * 2021-08-12 2021-12-17 荣耀终端有限公司 终端的图像处理方法、装置和终端设备
CN113962884A (zh) * 2021-10-10 2022-01-21 杭州知存智能科技有限公司 Hdr视频获取方法、装置、电子设备以及存储介质

Also Published As

Publication number Publication date
CN115460343B (zh) 2023-06-13

Similar Documents

Publication Publication Date Title
CN115473957B (zh) 一种图像处理方法和电子设备
CN109559270B (zh) 一种图像处理方法及电子设备
CN113194242B (zh) 一种长焦场景下的拍摄方法及移动终端
US11949978B2 (en) Image content removal method and related apparatus
CN112532892B (zh) 图像处理方法及电子装置
CN114095666B (zh) 拍照方法、电子设备和计算机可读存储介质
CN113935898A (zh) 图像处理方法、***、电子设备及计算机可读存储介质
CN113810603B (zh) 点光源图像检测方法和电子设备
WO2023056795A1 (zh) 快速拍照方法、电子设备及计算机可读存储介质
CN113630558B (zh) 一种摄像曝光方法及电子设备
CN113452898A (zh) 一种拍照方法及装置
CN113891009A (zh) 曝光调整方法及相关设备
CN115359105A (zh) 景深扩展图像生成方法、设备及存储介质
CN116347217B (zh) 图像处理方法、设备及存储介质
CN115550556A (zh) 一种曝光强度调节方法及相关装置
CN117278850A (zh) 一种拍摄方法及电子设备
CN116048323B (zh) 图像处理方法及电子设备
CN113891008B (zh) 一种曝光强度调节方法及相关设备
CN115686182B (zh) 增强现实视频的处理方法与电子设备
CN116723383A (zh) 一种拍摄方法及相关设备
CN115460343B (zh) 图像处理方法、设备及存储介质
CN115802144B (zh) 视频拍摄方法及相关设备
US20240236504A9 (en) Point light source image detection method and electronic device
WO2024078275A1 (zh) 一种图像处理的方法、装置、电子设备及存储介质
CN116723382B (zh) 一种拍摄方法及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant