CN110276767B - 图像处理方法和装置、电子设备、计算机可读存储介质 - Google Patents
图像处理方法和装置、电子设备、计算机可读存储介质 Download PDFInfo
- Publication number
- CN110276767B CN110276767B CN201910576414.1A CN201910576414A CN110276767B CN 110276767 B CN110276767 B CN 110276767B CN 201910576414 A CN201910576414 A CN 201910576414A CN 110276767 B CN110276767 B CN 110276767B
- Authority
- CN
- China
- Prior art keywords
- map
- image
- visible light
- main body
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
- H04N5/2226—Determination of depth image, e.g. for foreground/background separation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种图像处理方法、装置、电子设备和计算机可读存储介质。所述方法包括获取可见光图;生成与所述可见光图对应的中心权重图,其中,所述中心权重图所表示的权重值从中心到边缘逐渐减小;将所述可见光图和所述中心权重图输入到主体检测模型中,得到主体区域置信度图,其中,所述主体检测模型是预先根据同一场景的可见光图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型;根据所述主体区域置信度图确定所述可见光图中的目标主体。能够准确的识别图像中的目标主体。
Description
技术领域
本申请涉及影像领域,特别是涉及一种图像处理方法和装置、电子设备、计算机可读存储介质。
背景技术
随着影像技术的发展,人们越来越习惯通过电子设备上的摄像头等图像采集设备拍摄图像或视频,记录各种信息。摄像头在采集图像过程中有时需要检测到主体,传统的主体检测方式无法准确的检测出图像中的主体。
发明内容
本申请实施例提供一种图像处理方法和装置、电子设备、计算机可读存储介质,可以提高主体检测的准确性。
一种图像处理方法,包括:
获取可见光图;
生成与所述可见光图对应的中心权重图,其中,所述中心权重图所表示的权重值从中心到边缘逐渐减小;
将所述可见光图和所述中心权重图输入到主体检测模型中,得到主体区域置信度图,其中,所述主体检测模型是预先根据同一场景的可见光图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型;
根据所述主体区域置信度图确定所述可见光图中的目标主体。
一种主体检测模型的训练方法,包括:
获取同一场景的可见光图、深度图和已标注的主体掩膜图;
生成与所述可见光图对应的中心权重图,其中,所述中心权重图所表示的权重值从中心到边缘逐渐减小;
将所述可见光图、所述深度图和所述中心权重图作为包含初始网络权重的主体检测模型的输入,将所述已标注的主体掩膜图作为包含初始网络权重的主体检测模型输出的真实值,进行训练,得到主体检测模型的目标网络权重。
一种图像处理装置,包括:
图像获取模块,用于获取可见光图;
权重生成模块,用于生成与所述可见光图对应的中心权重图,其中,所述中心权重图所表示的权重值从中心到边缘逐渐减小;
检测模块,用于将所述可见光图和所述中心权重图输入到主体检测模型中,得到主体区域置信度图,其中,所述主体检测模型是预先根据同一场景的可见光图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型;
主体确定模块,用于根据所述主体区域置信度图确定所述可见光图中的目标主体。
一种主体检测模型的训练装置,包括:
训练图像获取模块,用于获取同一场景的可见光图、深度图和已标注的主体掩膜图;
训练权重生成模块,用于生成与所述可见光图对应的中心权重图,其中,所述中心权重图所表示的权重值从中心到边缘逐渐减小;
训练模块,用于将所述可见光图、所述深度图和所述中心权重图作为包含初始网络权重的主体检测模型的输入,将所述已标注的主体掩膜图作为包含初始网络权重的主体检测模型输出的真实值,进行训练,得到主体检测模型的目标网络权重。
一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器所述图像处理方法或主体检测模型训练方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现图像处理方法或主体检测模型训练方法的步骤。
本实施例中的图像处理方法、装置和计算机可读存储介质、电子设备,获取可见光图,并生成与可见光图对应的中心权重图后,将可见光图和中心权重图输入到对应的主体检测模型中检测,可以得到主体区域置信度图,根据主体区域置信度图可以确定得到可见光图中的目标主体,利用中心权重图可以让图像中心的对象更容易被检测,利用训练好的利用可见光图、中心权重图和主体掩膜图等训练得到的主体检测模型,可以更加准确的识别出可见光图中的目标主体。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中电子设备的内部结构框图;
图2为一个实施例中图像处理方法的流程图;
图3为一个实施例中根据该主体区域置信度图确定该可见光图中的目标主体的流程图;
图4为另一个实施例中主体检测模型的网络结构示意图;
图5为一个实施例中图像处理方法应用于检测主体的具体流程图;
图6为一个实施例中图像处理效果示意图;
图7为一个实施例中主体检测模型的训练方法的流程图;
图8为一个实施例中图像处理的结构框图;
图9为另一个实施例中图像处理的结构框图;
图10为一种主体检测模型的训练装置的结构框图;
图11为另一个实施例中电子设备的内部结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例中的图像处理方法、主体检测模型的训练方法可应用于电子设备。该电子设备可为带有摄像头的计算机设备、个人数字助理、平板电脑、智能手机、穿戴式设备等。电子设备中的摄像头在拍摄图像时,会进行自动对焦,以保证拍摄的图像清晰。
在一个实施例中,上述电子设备中可包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。图1为一个实施例中图像处理电路的示意图。如图1所示,为便于说明,仅示出与本申请实施例相关的图像处理技术的各个方面。
如图1所示,图像处理电路包括第一ISP处理器130、第二ISP处理器140和控制逻辑器150。第一摄像头110包括一个或多个第一透镜112和第一图像传感器114。第一图像传感器114可包括色彩滤镜阵列(如Bayer滤镜),第一图像传感器114可获取用第一图像传感器114的每个成像像素捕捉的光强度和波长信息,并提供可由第一ISP处理器130处理的一组图像数据。第二摄像头120包括一个或多个第二透镜122和第二图像传感器124。第二图像传感器124可包括色彩滤镜阵列(如Bayer滤镜),第二图像传感器124可获取用第二图像传感器124的每个成像像素捕捉的光强度和波长信息,并提供可由第二ISP处理器140处理的一组图像数据。
第一摄像头110采集的第一图像传输给第一ISP处理器130进行处理,第一ISP处理器130处理第一图像后,可将第一图像的统计数据(如图像的亮度、图像的反差值、图像的颜色等)发送给控制逻辑器150,控制逻辑器150可根据统计数据确定第一摄像头110的控制参数,从而第一摄像头110可根据控制参数进行自动对焦、自动曝光等操作。第一图像经过第一ISP处理器130进行处理后可存储至图像存储器160中,第一ISP处理器130也可以读取图像存储器160中存储的图像以对进行处理。另外,第一图像经过ISP处理器130进行处理后可直接发送至显示器170进行显示,显示器170也可以读取图像存储器160中的图像以进行显示。
其中,第一ISP处理器130按多种格式逐个像素地处理图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,第一ISP处理器130可对图像数据进行一个或多个图像处理操作、收集关于图像数据的统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
图像存储器160可为存储器装置的一部分、存储设备、或电子设备内的独立的专用存储器,并可包括DMA(Direct Memory Access,直接直接存储器存取)特征。
当接收到来自第一图像传感器114接口时,第一ISP处理器130可进行一个或多个图像处理操作,如时域滤波。处理后的图像数据可发送给图像存储器160,以便在被显示之前进行另外的处理。第一ISP处理器130从图像存储器160接收处理数据,并对所述处理数据进行RGB和YCbCr颜色空间中的图像数据处理。第一ISP处理器130处理后的图像数据可输出给显示器170,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,第一ISP处理器130的输出还可发送给图像存储器160,且显示器170可从图像存储器160读取图像数据。在一个实施例中,图像存储器160可被配置为实现一个或多个帧缓冲器。
第一ISP处理器130确定的统计数据可发送给控制逻辑器150。例如,统计数据可包括自动曝光、自动白平衡、自动聚焦、闪烁检测、黑电平补偿、第一透镜112阴影校正等第一图像传感器114统计信息。控制逻辑器150可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的统计数据,确定第一摄像头110的控制参数及第一ISP处理器130的控制参数。例如,第一摄像头110的控制参数可包括增益、曝光控制的积分时间、防抖参数、闪光控制参数、第一透镜112控制参数(例如聚焦或变焦用焦距)、或这些参数的组合等。ISP控制参数可包括用于自动白平衡和颜色调整(例如,在RGB处理期间)的增益水平和色彩校正矩阵,以及第一透镜112阴影校正参数。
同样地,第二摄像头120采集的第二图像传输给第二ISP处理器140进行处理,第二ISP处理器140处理第一图像后,可将第二图像的统计数据(如图像的亮度、图像的反差值、图像的颜色等)发送给控制逻辑器150,控制逻辑器150可根据统计数据确定第二摄像头120的控制参数,从而第二摄像头120可根据控制参数进行自动对焦、自动曝光等操作。第二图像经过第二ISP处理器140进行处理后可存储至图像存储器160中,第二ISP处理器140也可以读取图像存储器160中存储的图像以对进行处理。另外,第二图像经过ISP处理器140进行处理后可直接发送至显示器170进行显示,显示器170也可以读取图像存储器160中的图像以进行显示。第二摄像头120和第二ISP处理器140也可以实现如第一摄像头110和第一ISP处理器130所描述的处理过程。
在一个实施例中,第一摄像头110可为彩色摄像头,第二摄像头120可为TOF(TimeOf Flight,飞行时间)摄像头或结构光摄像头。TOF摄像头可获取TOF深度图,结构光摄像头可获取结构光深度图。第一摄像头110和第二摄像头120可均为彩色摄像头。通过两个彩色摄像头获取双目深度图。第一ISP处理器130和第二ISP处理器140可为同一ISP处理器。
第一摄像头110和第二摄像头120拍摄同一场景分别得到可见光图和深度图,将可见光图和深度图发送给ISP处理器。ISP处理器可根据相机标定参数对可见光图和深度图进行配准,保持视野完全一致;然后再生成与可见光图对应的中心权重图,其中,该中心权重图所表示的权重值从中心到边缘逐渐减小;将可见光图和中心权重图输入到训练好的主体检测模型中,得到主体区域置信度图,再根据主体区域置信度图确定可见光图中的目标主体;也可将可见光图、深度图和中心权重图输入到训练好的主体检测模型中,得到主体区域置信度图,再根据主体区域置信度图确定可见光图中的目标主体。利用中心权重图可以让位于图像中心的对象更容易被检测,利用深度图可以让距离摄像头更近的对象容易被检测,提高了主体检测的准确性。
图2为一个实施例中图像处理方法的流程图。如图2所示,一种图像处理方法,可应用于图1中的电子设备中,包括:
步骤202,获取可见光图。
其中,主体检测(salient object detection)是指面对一个场景时,自动地对感兴趣区域进行处理而选择性的忽略不感兴趣区域。感兴趣区域称为主体区域。可见光图是指RGB(Red、Green、Blue)图像。可通过彩色摄像头拍摄任意场景得到彩色图像,即RGB图像。该可见光图可为电子设备本地存储的,也可为其他设备存储的,也可以为从网络上存储的,还可为电子设备实时拍摄的,不限于此。
具体地,电子设备的ISP处理器或中央处理器可从本地或其他设备或网络上获取可见光图,或者通过摄像头拍摄一场景得到可见光图。
步骤204,生成与该可见光图对应的中心权重图,其中,该中心权重图所表示的权重值从中心到边缘逐渐减小。
其中,中心权重图是指用于记录可见光图中各个像素点的权重值的图。中心权重图中记录的权重值从中心向四边逐渐减小,即中心权重最大,向四边权重逐渐减小。通过中心权重图表征可见光图的图像中心像素点到图像边缘像素点的权重值逐渐减小。
ISP处理器或中央处理器可以根据可见光图的大小生成对应的中心权重图。该中心权重图所表示的权重值从中心向四边逐渐减小。中心权重图可采用高斯函数、或采用一阶方程、或二阶方程生成。该高斯函数可为二维高斯函数。
步骤206,将该可见光图和中心权重图输入到主体检测模型中,得到主体区域置信度图,其中,主体检测模型是预先根据同一场景的可见光图、深度图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型。
其中,主体检测模型是预先采集大量的训练数据,将训练数据输入到包含有初始网络权重的主体检测模型进行训练得到的。每组训练数据包括同一场景对应的可见光图、中心权重图及已标注的主体掩膜图。其中,可见光图和中心权重图作为训练的主体检测模型的输入,已标注的主体掩膜(mask)图作为训练的主体检测模型期望输出得到的真实值(ground truth)。主体掩膜图是用于识别图像中主体的图像滤镜模板,可以遮挡图像的其他部分,筛选出图像中的主体。主体检测模型可训练能够识别检测各种主体,如人、花、猫、狗、背景等。
具体地,ISP处理器或中央处理器可将该可见光图和中心权重图输入到主体检测模型中,进行检测可以得到主体区域置信度图。主体区域置信度图是用于记录主体属于哪种能识别的主体的概率,例如某个像素点属于人的概率是0.8,花的概率是0.1,背景的概率是0.1。
步骤208,根据该主体区域置信度图确定该可见光图中的目标主体。
其中,主体是指各种对象,如人、花、猫、狗、牛、蓝天、白云、背景等。目标主体是指需要的主体,可根据需要选择。
具体地,ISP处理器或中央处理器可根据主体区域置信度图选取置信度最高或次高等作为可见光图中的主体,若存在一个主体,则将该主体作为目标主体;若存在多个主体,可根据需要选择其中一个或多个主体作为目标主体。
本实施例中的图像处理方法,获取可见光图,并生成与可见光图对应的中心权重图后,将可见光图和中心权重图输入到对应的主体检测模型中检测,可以得到主体区域置信度图,根据主体区域置信度图可以确定得到可见光图中的目标主体,利用中心权重图可以让图像中心的对象更容易被检测,利用训练好的利用可见光图、中心权重图和主体掩膜图等训练得到的主体检测模型,可以更加准确的识别出可见光图中的目标主体。
在一个实施例中,如图3所示,根据该主体区域置信度图确定该可见光图中的目标主体,包括:
步骤302,对该主体区域置信度图进行处理,得到主体掩膜图。
具体地,主体区域置信度图中存在一些置信度较低、零散的点,可通过ISP处理器或中央处理器对主体区域置信度图进行过滤处理,得到主体掩膜图。该过滤处理可采用配置置信度阈值,将主体区域置信度图中置信度值低于置信度阈值的像素点过滤。该置信度阈值可采用自适应置信度阈值,也可以采用固定阈值,也可以采用分区域配置对应的阈值。
步骤304,检测该可见光图,确定该可见光图中的高光区域。
其中,高光区域是指亮度值大于亮度阈值的区域。
具体地,ISP处理器或中央处理器对可见光图进行高光检测,筛选得到亮度值大于亮度阈值的目标像素点,对目标像素点采用连通域处理得到高光区域。
步骤306,根据该可见光图中的高光区域与该主体掩膜图,确定该可见光图中消除高光的目标主体。
具体地,ISP处理器或中央处理器可将可见光图中的高光区域与该主体掩膜图做差分计算或逻辑与计算得到可见光图中消除高光的目标主体。
本实施例中,对主体区域置信度图做过滤处理得到主体掩膜图,提高了主体区域置信度图的可靠性,对可见光图进行检测得到高光区域,然后与主体掩膜图进行处理,可得到消除了高光的目标主体,针对影响主体识别精度的高光、高亮区域单独采用滤波器进行处理,提高了主体识别的精度和准确性。
在一个实施例中,该对该主体区域置信度图进行处理,得到主体掩膜图,包括:对该主体区域置信度图进行自适应置信度阈值过滤处理,得到主体掩膜图。
其中,自适应置信度阈值是指置信度阈值。自适应置信度阈值可为局部自适应置信度阈值。该局部自适应置信度阈值是根据像素点的领域块的像素值分布来确定该像素点位置上的二值化置信度阈值。亮度较高的图像区域的二值化置信度阈值配置的较高,亮度较低的图像区域的二值化阈值置信度配置的较低。
可选地,自适应置信度阈值的配置过程包括:当像素点的亮度值大于第一亮度值,则配置第一置信度阈值,当像素点的亮度值小于第二亮度值,则配置第二置信度阈值,当像素点的亮度值大于第二亮度值且小于第一亮度值,则配置第三置信度阈值,其中,第二亮度值小于或等于第一亮度值,第二置信度阈值小于第三置信度阈值,第三置信度阈值小于第一置信度阈值。
可选地,自适应置信度阈值的配置过程包括:当像素点的亮度值大于第一亮度值,则配置第一置信度阈值,当像素点的亮度值小于或等于第一亮度值,则配置第二置信度阈值,其中,第二亮度值小于或等于第一亮度值,第二置信度阈值小于第一置信度阈值。
对主体区域置信度图进行自适应置信度阈值过滤处理时,将主体区域置信度图中各像素点的置信度值与对应的置信度阈值比较,大于或等于置信度阈值则保留该像素点,小于置信度阈值则去掉该像素点。
在一个实施例中,该对该主体区域置信度图进行自适应置信度阈值过滤处理,得到主体掩膜图,包括:
对该主体区域置信度图进行自适应置信度阈值过滤处理,得到二值化掩膜图;对该二值化掩膜图进行形态学处理和引导滤波处理,得到主体掩膜图。
具体地,ISP处理器或中央处理器将主体区域置信度图按照自适应置信度阈值过滤处理后,将保留的像素点的置信度值采用1表示,去掉的像素点的置信度值采用0表示,得到二值化掩膜图。
形态学处理可包括腐蚀和膨胀。可先对二值化掩膜图进行腐蚀操作,再进行膨胀操作,去除噪声;再对形态学处理后的二值化掩膜图进行引导滤波处理,实现边缘滤波操作,得到边缘提取的主体掩膜图。
通过形态学处理和引导滤波处理可以保证得到的主体掩膜图的噪点少或没有噪点,边缘更加柔和。
在一个实施例中,该根据该可见光图中的高光区域与该主体掩膜图,确定该可见光图中消除高光的目标主体,包括:将该可见光图中的高光区域与该主体掩膜图做差分处理,得到消除高光的目标主体。
具体地,ISP处理器或中央处理器将该可见光图中的高光区域与该主体掩膜图做差分处理,即可见光图和主体掩膜图中对应的像素值相减,得到该可见光图中的目标主体。通过差分处理得到去除高光的目标主体,计算方式简单。
在一个实施例中,该主体检测模型包括依次相连的输入层、中间层和输出层。将该可见光图和该中心权重图输入到主体检测模型中,包括:将该可见光图作用于主体检测模型的输入层;将该中心权重图作用于该主体检测模型的输出层。
主体检测模型可采用深度学习网络模型。该深度学习网络模型可包括依次相连的输入层、中间层和输出层。中间层可为一层或至少两层的网络结构。可见光图从主体检测模型的输入层输入,即作用于主体检测模型的输入层。中心权重图在主体检测模型的输出层输入,即作用于主体检测模型的输出层。将中心权重图作用于主体检测模型的输出层,可以降低主体检测模型的其他层对权重图的影响,让处于画面中心的对象更加容易被检测为主体。
在一个实施例中,上述图像处理方法还包括:获取与该可见光图对应的深度图;该深度图包括TOF深度图、双目深度图和结构光深度图中至少一种;对该可见光图和深度图进行配准处理,得到同一场景配准后的可见光图和深度图。
其中,深度图是指包含深度信息的图。通过深度摄像头或双目摄像头拍摄同一场景得到对应的深度图。深度摄像头可为结构光摄像头或TOF摄像头。深度图可为结构光深度图、TOF深度图和双目深度图中的至少一种。
具体地,ISP处理器或中央处理器可通过摄像头拍摄同一场景得到可见光图和对应的深度图,然后采用相机标定参数对可见光图和深度图进行配准,得到配准后的可见光图和深度图。
在其他实施例中,当无法拍摄得到深度图,可自动生成的仿真深度图。仿真深度图中的各个像素点的深度值可为预设值。此外,仿真深度图中的各个像素点的深度值可对应不同的预设值。
在一个实施例中,该将该可见光图和该中心权重图输入到主体检测模型中,得到主体区域置信度图,包括:将该配准后的可见光图、该深度图和该中心权重图输入到主体检测模型中,得到主体区域置信度图;其中,该主体检测模型是预先根据同一场景的可见光图、深度图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型。
其中,主体检测模型是预先采集大量的训练数据,将训练数据输入到包含有初始网络权重的主体检测模型进行训练得到的。每组训练数据包括同一场景对应的可见光图、深度图、中心权重图及已标注的主体掩膜图。其中,可见光图和中心权重图作为训练的主体检测模型的输入,已标注的主体掩膜图作为训练的主体检测模型期望输出得到的真实值。主体掩膜图是用于识别图像中主体的图像滤镜模板,可以遮挡图像的其他部分,筛选出图像中的主体。主体检测模型可训练能够识别检测各种主体,如人、花、猫、狗、背景等。
本实施例中,将深度图和中心权重图作为主体检测模型的输入,可以利用深度图的深度信息让距离摄像头更近的对象更容易被检测,利用中心权重图中中心权重大,四边权重小的中心注意力机制,让图像中心的对象更容易被检测,引入深度图实现对主体做深度特征增强,引入中心权重图对主体做中心注意力特征增强,不仅可以准确识别简单场景下的目标主体,更大大提高了复杂场景下的主体识别准确度,引入深度图可以解决传统目标检测方法对自然图像***的目标鲁棒性较差的问题。简单场景是指主体单一,背景区域对比度不高的场景。
在一个实施例中,在该对该可见光图和深度图进行配准处理,得到同一场景配准后的可见光图和深度图之后,还包括:对该可见光图中像素点的像素值和该深度图中像素点的像素值分别进行归一化处理。
具体地,对可见光图中像素点的像素值从0到255的整型归一化处理为-1到+1的浮点型数值,对深度图中像素点的像素值归一化处理为0到1的浮点型数值。当无法拍摄得到深度图时,可自动生成深度值为预设值的仿真深度图。该预设值可为0至1的浮点型数值。
本实施例中,对可见光图中的像素值和深度图中的像素值分别进行归一化处理,可以减小数据量,节省计算所消耗的处理器资源。
在一个实施例中,在对该可见光图中像素点的像素值和该深度图中像素点的像素值分别进行归一化处理之前,该方法还包括:对该可见光图和深度图进行缩放处理,得到预设大小的可见光图和深度图。
其中,预设大小可根据需要设定,如224*224大小,或256*256,648*320等,不限于此。将可见光图和深度图缩小到预设大小,可以节省数据量,提高处理效率,减少***资源消耗。
可选地,该生成与该可见光图对应的中心权重图,包括:生成与该预设大小的可见光图对应的预设大小的中心权重图。
可见光图缩小到预设大小,则对应生成的中心权重图也需要调整,确保中心权重图表示的权重值与可见光图中的像素点对应。
在一个实施例中,上述图像处理方法还包括:当存在多个主体时,根据每个主体所属类别的优先级、每个主体在可见光图中所占的面积、每个主体在所述可见光图中的位置中的至少一种,确定目标主体。
其中,类别是指对主体所分的类,如人像、花、动物、风景等类别。位置是指在可见光图中的位置,可以采用坐标表示。
具体地,当存在多个主体时,获取每个主体所属类别的优先级,选取优先级最高或次高等的主体作为目标主体。
当存在多个主体时,获取每个主体在可见光图中所占的面积,选取在可见光图中所占面积最大或次大等的主体作为目标主体。
当存在多个主体时,获取每个主体在可见光图中的位置,选取主体在可见光图中的位置与该可见光图的中心点之间的距离最小的主体为目标主体。
当存在多个主体所属类别的优先级相同且最高时,获取该多个主体在可见光图中所占的面积,选取在可见光图中所占面积最大或次大的主体作为目标主体。
当存在多个主体所属类别的优先级相同且最高时,获取该优先级相同且最高的多个主体中每个主体在可见光图中所占的面积,选取在可见光图中所占面积最大或次大的主体作为目标主体。
当存在多个主体所属类别的优先级相同且最高时,获取该优先级相同且最高的多个主体中每个主体在可见光图中的位置,选取主体在可见光图中的位置与该可见光图的中心点之间的距离最小的主体为目标主体。
当存在多个主体所属类别的优先级相同且最高,获取该优先级相同且最高的多个主体中每个主体在可见光图中所占的面积,存在多个主体在可见光图中所占的面积相同时,获取面积相同的多个主体在可见光图中的位置,选取主体在可见光图中的位置与该可见光图的中心点之间的距离最小的主体为目标主体。
当存在多个主体时,可以获取每个主体所属类别的优先级、每个主体在可见光图中所占的面积、每个主体在可见光图中的位置,可以按照优先级、面积和位置三个维度筛选,优先级、面积和位置筛选的顺序可根据需要设定,不作限定。
本实施例中,当存在多个主体时,根据主体所属类别的优先级、主体在可见光图中面积和主体在可见光图中位置中的一种或至少两种进行筛选确定目标主体,可以准确确定目标主体。
在一个实施例中,上述图像处理方法还包括:当确定存在多个主体,且该多个主体均为人脸时,判断多个人脸是否在同一平面;
当该多个人脸处于同一平面时,将该多个人脸作为目标主体;
当该多个人脸处于不同平面时,选择面积最大的人脸作为目标主体。
具体地,可获取每个人脸的深度信息,通过比较深度信息是否相同来确定多个人脸是否在同一平面上,当深度信息相同时,则在同一平面,当深度信息不同时,则不在同一平面。人脸的深度信息可采用人脸所在区域的每个像素点的深度信息的平均值、中值或加权值等表示。人脸的深度信息也可采用人脸所在区域的每个像素点按照预设函数计算得到深度信息。该预设函数可为线性函数、指数函数或幂函数等。
在一个实施例中,该主体检测模型的训练方式,包括:获取同一场景的可见光图、深度图和已标注的主体掩膜图;生成与该可见光图对应的中心权重图,其中,该中心权重图所表示的权重值从中心到边缘逐渐减小;将该可见光图作用于包含初始网络权重的主体检测模型的输入层,将该深度图和该中心权重图作用于初始的主体检测模型的输出层,将该已标注的主体掩膜图作为该主体检测模型输出的真实值,对该包含初始网络权重的主体检测模型进行训练,得到该主体检测模型的目标网络权重。
可收集一个场景的可见光图、深度图和对应的已标注的主体掩膜图。对可见光图和深度图进行语义级的标注,标注里面的主体。可收集大量的可见光图,然后基于COCO数据集中的前景目标图和简单的背景图进行融合得到大量的纯色背景或简单背景的图像,作为训练的可见光图。COCO数据集中包含数量众多的前景目标。
主体检测模型的网络结构采用基于mobile-Unet的架构,并在decoder部分增加层之间的桥接,使高级语义特征在上采样时更充分的传递。中心权重图作用于主体监测模型的输出层,引入中心注意力机制,让处于画面中心的对象更容易被检测为主体。
主体检测模型的网络结构包括输入层、卷积层(conv)、池化层(pooling)、双线性插值层(Bilinear Up sampling)、卷积特征连接层(concat+conv)、输出层等。在双线性插值层和卷积特征连接层之间采用deconvolution+add(反卷积特征叠加)操作实现桥接,使得高级语义特征在上采样时更充分的传递。卷积层、池化层、双线性插值层、卷积特征连接层等可为主体检测模型的中间层。
初始网络权重是指初始化的深度学习网络模型的每一层的初始权重。目标网络权重是指训练得到的能够检测图像主体的深度学习网络模型的每一层的权重。可通过预设训练次数得到目标网络权重,也可以设置深度学习网络模型的损失函数。当训练得到损失函数值小于损失阈值时,将主体检测模型的当前网络权重作为目标网络权重。
图4为一个实施例中主体检测模型的网络结构示意图。如图4所示,主体检测模型的网络结构包括卷积层402、池化层404、卷积层406、池化层408、卷积层410、池化层412、卷积层414、池化层416、卷积层418、卷积层420、双线性插值层422、卷积层424、双线性插值层426、卷积层428、卷积特征连接层430、双线性插值层432、卷积层434、卷积特征连接层436、双线性插值层438、卷积层440、卷积特征连接层442等,卷积层402作为主体检测模型的输入层,卷积特征连接层442作为主体检测模型的输出层。本实施例中的主体检测模型的网络结构仅为示例,不作为对本申请的限制。可以理解的是,主体检测模型的网络结构中的卷积层、池化层、双线性插值层、卷积特征连接层等可以根据需要设置多个。
该主体检测模型的编码部分包括卷积层402、池化层404、卷积层406、池化层408、卷积层410、池化层412、卷积层414、池化层416、卷积层418,解码部分包括卷积层420、双线性插值层422、卷积层424、双线性插值层426、卷积层428、卷积特征连接层430、双线性插值层432、卷积层434、卷积特征连接层436、双线性插值层438、卷积层440、卷积特征连接层442。卷积层406和卷积层434级联(Concatenation),卷积层410和卷积层428级联,卷积层414与卷积层424级联。双线性插值层422和卷积特征连接层430采用反卷积特征叠加(Deconvolution+add)桥接。双线性插值层432和卷积特征连接层436采用反卷积特征叠加桥接。双线性插值层438和卷积特征连接层442采用反卷积特征叠加桥接。
原图450(如可见光图)输入到主体检测模型的卷积层402,深度图460作用于主体检测模型的卷积特征连接层442,中心权重图470作用于主体检测模型的卷积特征连接层442。深度图460和中心权重图470分别作为一个乘积因子输入到卷积特征连接层442。原图450、深度图460和中心权重图470输入到主体检测模型后输出包含主体的置信度图480。
该主体检测模型的训练过程中对深度图采用预设数值的丢失率。该预设数值可为50%。深度图的训练过程中引入概率的dropout,让主体检测模型可以充分的挖掘深度图的信息,当主体检测模型无法获取深度图时,仍然可以输出准确结果。对深度图输入采用dropout的方式,让主体检测模型对深度图的鲁棒性更好,即使没有深度图也可以准确分割主体区域。
此外,因正常的电子设备拍摄过程中,深度图的拍摄和计算都相当耗时耗力,难以获取,在训练时深度图设计为50%的dropout概率,能够保证没有深度信息的时候主体检测模型依然可以正常检测。
对原图450采用高光检测层444进行高光检测识别出原图中的高光区域。对主体检测模型输出的主体区域置信度图进行自适应阈值过滤处理得到二值化的掩膜图,对二值化掩膜图进行形态学处理和引导滤波处理得到主体掩膜图,将主体掩膜图与包含高光区域的原图进行差分处理,将高光区域从主体掩膜图中删除得到去除高光的主体。主体区域置信度图是分布在0至1的置信度图,主体区域置信度图包含的噪点较多,有很多置信度较低的噪点,或聚合在一起的小块高置信度区域,通过区域自适应置信度阈值进行过滤处理,得到二值化掩膜图。对二值化掩膜图做形态学处理可以进一步降低噪声,做引导滤波处理,可以让边缘更平滑。可以理解的是,主体区域置信度图可为包含噪点的主体掩膜图。
本实施例中使用深度图作为特征以增强网络输出结果,并没有将深度图直接输入到主体检测模型的网络中,可以另外设计一个双深度学习网络结构,其中一个深度学习网络结构用于对深度图进行处理,另一个深度学习网络结构用于对RGB图进行处理,然后将两个深度学习网络结构的输出进行卷积特征连接,然后再输出。
在一个实施例中,该主体检测模型的训练方式,包括:获取同一场景的可见光图和已标注的主体掩膜图;生成与该可见光图对应的中心权重图,其中,该中心权重图所表示的权重值从中心到边缘逐渐减小;将该可见光图作用于包含初始网络权重的主体检测模型的输入层,将该中心权重图作用于初始的主体检测模型的输出层,将该已标注的主体掩膜图作为该主体检测模型输出的真实值,对该包含初始网络权重的主体检测模型进行训练,得到该主体检测模型的目标网络权重。
本实施例中的训练采用可见光图和中心权重图,即在图4的主体检测模型的网络结构中输出层部分不引入深度图,采用可见光图作用在卷积层402,中心权重图470作用于主体检测模型的卷积特征连接层442。
图5为一个实施例中图像处理方法应用于检测主体的具体流程图。如图5所示,该检测主体的过程包括:
步骤502,加载主体检测模型,初始化主体检测模型的目标网络权重。
ISP处理器或中央处理器加载主体检测模型的网络,并将主体检测模型的目标网络权重初始化。
步骤504,获取当前场景的RGB图和深度图,根据相机标定参数对RGB图和深度图进行配准,并缩小到预设大小。
预设大小可根据需要设置,如224*224,256*256,640*320等。本实施例中,将RGB图和深度图缩小到224*224大小。
步骤506,对RGB图和深度图进行预处理,将RGB图从0到255的整型像素值归一化为-1到+1的浮点型,深度图归一化到0到1的浮点型。
其中,若无法获取深度图,则自动生成一张224*224大小的值为0.7的仿真深度图。
步骤508,采用二维高斯函数生成与RGB图对应大小的中心权重图,其中,中心权重图所表示的权重值从中心到边缘逐渐减小。
步骤510,将处理后的RGB图、深度图和中心权重图输入到主体检测模型中,得到主体区域置信度图。
步骤512,对主体区域置信度图进行自适应阈值过滤,将置信度低于置信度阈值的像素点过滤掉,得到二值化掩膜图。
步骤514,对二值化掩膜图进行形态学处理和引导滤波处理,做膨胀、腐蚀操作,得到边缘提取的主体掩膜图。
步骤516,对原RGB图做高光检测,确定RGB图中的高光区域,再与主体掩膜图做差分处理,得到消除高光的目标主体。
步骤518,当检测到不同类别的主体,则选择面积最大的类别作为目标主体。
步骤520,若类别为人,检测多个人脸是否处于同一平面,当多个人脸处于同一平面,则将所有包含人脸的区域作为目标主体,检测多个人脸不处于同一平面,则选择面积最大的人脸作为目标主体。
本实施例中的图像处理方法,对RGB图像进行主体检测时,引入了深度图和中心权重图,使得深度特征增强和中心注意力特征增强,不仅可以准确的分割简单场景,如主体单一,背景区域对比度不高的场景下的主体,更大大提高了复杂场景下的目标主体识别准确度。引入深度图可以解决传统目标检测方法对自然图像***的目标鲁棒性较差的问题。针对影响主体识别精度的高光、高亮区域,采用了高光检测识别出RGB图像中的高光区域,然后采用单独的滤波器进行过滤处理。
此外,本申请的图像处理方法基于深度学***衡的策略,提高编解码的压缩率等。
图6为一个实施例中图像处理效果示意图。如图6所示,RGB图602中存在一只蝴蝶,将RGB图输入到主体检测模型后得到主体区域置信度图604,然后对主体区域置信度图604进行滤波和二值化得到二值化掩膜图606,再对二值化掩膜图606进行形态学处理和引导滤波实现边缘增强,得到主体掩膜图608。
图7为一个实施例中主体检测模型的训练方法的流程图。如图7所示,一种主体检测模型的训练方法,包括:
步骤702,获取同一场景的可见光图、深度图和已标注的主体掩膜图。
可收集一个场景的可见光图、深度图和对应的已标注的主体掩膜图。可收集大量的可见光图,然后基于COCO数据集中的前景目标图和简单的背景图进行融合得到大量的纯色背景或简单背景的图像,作为训练的可见光图。已标注的主体掩膜图中包含已标注正确的目标主体。
步骤704,该生成与该可见光图对应的中心权重图,其中,该中心权重图所表示的权重值从中心到边缘逐渐减小。
步骤706,将该可见光图、该深度图和该中心权重图作为包含初始网络权重的主体检测模型的输入,将该已标注的主体掩膜图作为包含初始网络权重的主体检测模型输出的真实值,进行训练,得到主体检测模型的目标网络权重。
主体检测模型可为深度学习网络模型,初始网络权重可采用深度学习网络模型的网络权重值。
当损失函数小于损失阈值,或训练次数达到预设次数时,得到主体检测模型的目标网络权重。
其中,损失阈值可根据需要设定,如0.01、0.02等,不限于此。预设次数可根据需要设定,如10000次、1000次等,不限于此。目标网络权重是训练好后的主体检测模型的各个网络层的权重值。
本实施例中,在主体检测模型的训练过程中引入了深度图做了深度特征增强,引入了中心权重图做了中心注意力特征增强,利用深度特征增强机制,让离相机近的对象更容易被检测为主体,利用中心注意力特征增强机制,让处于画面中心的对象更容易被检测为主体,不仅可以准确分割简单场景下的主体,更大大提高了复杂场景下的主体识别准确度,同时主体检测模型中引入深度图可以解决对自然图像***的目标鲁棒性较差的问题,能够准确的识别目标主体。
在一个实施例中,该将该可见光图、该深度图和该中心权重图作为包含初始网络权重的主体检测模型的输入,包括:将该可见光图作用于初始的主体检测模型的输入层,将该深度图和该中心权重图作用于初始的主体检测模型的输出层。深度图和中心权重图直接作用于主体检测模型的输出层,实现深度特征增强和中心注意力特征增强,不需要输入主体检测模型的网络中,计算简单,识别准确。
在一个实施例中,该主体检测模型的训练过程中对深度图采用预设数值的丢失率。该预设数值可为50%。深度图的训练过程中引入概率的dropout,让主体检测模型可以充分的挖掘深度图的信息,当主体检测模型无法获取深度图时,仍然可以输出准确结果。对深度图输入采用dropout的方式,让主体检测模型对深度图的鲁棒性更好,即使没有深度图也可以准确分割主体区域应该理解的是,虽然图2、图3、图5和图7的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、图3、图5和图7中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图8为一个实施例中图像处理装置的结构框图。如图8所示,一种图像处理装置,包括图像获取模块802、权重生成模块804、检测模块806和主体确定模块808。其中:
图像获取模块802用于获取可见光图。
权重生成模块804用于该生成与该可见光图对应的中心权重图,其中,该中心权重图所表示的权重值从中心到边缘逐渐减小。
检测模块806用于将该可见光图和该中心权重图输入到主体检测模型中,得到主体区域置信度图,其中,该主体检测模型是预先根据同一场景的可见光图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型。
主体确定模块808用于根据该主体区域置信度图确定该可见光图中的目标主体。
本实施例中的图像处理装置,获取可见光图,并生成与可见光图对应的中心权重图后,将可见光图和中心权重图输入到对应的主体检测模型中检测,可以得到主体区域置信度图,根据主体区域置信度图可以确定得到可见光图中的目标主体,利用中心权重图可以让图像中心的对象更容易被检测,利用训练好的利用可见光图、中心权重图和主体掩膜图等训练得到的主体检测模型,可以更加准确的识别出可见光图中的目标主体。
在一个实施例中,主体确定模块808还用于对该主体区域置信度图进行处理,得到主体掩膜图;检测该可见光图,确定该可见光图中的高光区域;根据该可见光图中的高光区域与该主体掩膜图,确定该可见光图中消除高光的目标主体。
在一个实施例中,主体确定模块808还用于对该主体区域置信度图进行自适应置信度阈值过滤处理,得到主体掩膜图。
在一个实施例中,主体确定模块808还用于对该主体区域置信度图进行自适应置信度阈值过滤处理,得到二值化掩膜图;对该二值化掩膜图进行形态学处理和引导滤波处理,得到主体掩膜图。
在一个实施例中,主体确定模块808还用于将该可见光图中的高光区域与该主体掩膜图做差分处理,得到该可见光图中的目标主体。
在一个实施例中,该主体检测模型包括依次相连的输入层、中间层和输出层;
检测模块806还用于将所述可见光图作用于主体检测模型的输入层;将所述中心权重图作用于所述主体检测模型的输出层。
在一个实施例中,图像获取模块802还用于获取与所述可见光图对应的深度图;该深度图包括TOF深度图、双目深度图和结构光深度图中至少一种;对所述可见光图和深度图进行配准处理,得到同一场景配准后的可见光图和深度图。
检测模块804还用于将该配准后的可见光图、深度图和中心权重图输入到主体检测模型中,得到主体区域置信度图;其中,该主体检测模型是预先根据同一场景的可见光图、深度图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型。
在一个实施例中,如图9所示,该图像处理装置还包括归一化处理模块810和缩放模块812。
归一化处理模块810用于在图像获取模块对所述可见光图和深度图进行配准处理,得到同一场景配准后的可见光图和深度图之后,对所述可见光图中像素点的像素值和所述深度图中像素点的像素值分别进行归一化处理。
在一个实施例中,缩放模块812用于在对该可见光图中像素点的像素值和所述深度图中像素点的像素值分别进行归一化处理之前,对该可见光图和深度图进行缩放处理,得到预设大小的可见光图和深度图。
权重生成模块804还用于生成与所述预设大小的可见光图对应的预设大小的中心权重图。
在一个实施例中,主体确定模块808还用于当存在多个主体时,根据每个主体所属类别的优先级、每个主体在可见光图中所占的面积、每个主体在可见光图中的位置中的至少一种,确定目标主体。
在一个实施例中,主体确定模块808还用于当确定存在多个主体,且所述多个主体均为人脸时,判断多个人脸是否在同一平面;当所述多个人脸处于同一平面时,将所述多个人脸作为目标主体;当所述多个人脸处于不同平面时,选择面积最大的人脸作为目标主体。
在一个实施例中,上述图像处理装置还包括训练图像获取模块、训练权重生成模块和训练模块。
训练图像获取模块用于获取同一场景的可见光图、深度图和已标注的主体掩膜图。
训练权重生成模块用于生成与所述可见光图对应的中心权重图,其中,所述中心权重图所表示的权重值从中心到边缘逐渐减小。
训练模块用于将所述可见光图作用于包含初始网络权重的主体检测模型的输入层,将所述深度图和所述中心权重图作用于初始的主体检测模型的输出层,将所述已标注的主体掩膜图作为所述主体检测模型输出的真实值,对所述包含初始网络权重的主体检测模型进行训练,得到所述主体检测模型的目标网络权重。当主体检测模型的损失函数小于损失阈值,或者训练次数达到预设次数时,主体检测模型的网络权重作为主体检测模型的目标网络权重。
在一个实施例中,主体检测模型的训练过程中对深度图采用预设数值的丢失率。
图10为一种主体检测模型的训练装置的结构框图。如图10所示,一种主体检测模型的训练装置,包括训练图像获取模块1002、训练权重生成模块1004、训练模块1006。
训练图像获取模块1002用于获取同一场景的可见光图、深度图和已标注的主体掩膜图。
训练权重生成模块1004用于该生成与该可见光图对应的中心权重图,其中,该中心权重图所表示的权重值从中心到边缘逐渐减小。
训练模块1006用于将该可见光图、该深度图和该中心权重图作为包含初始网络权重的主体检测模型的输入,将该已标注的主体掩膜图作为包含初始网络权重的主体检测模型输出的真实值,进行训练,得到主体检测模型的目标网络权重。当损失函数小于损失阈值,或训练次数达到预设次数时,得到主体检测模型的目标网络权重。
本实施例中,在主体检测模型的训练过程中引入了深度图做了深度特征增强,引入了中心权重图做了中心注意力特征增强,利用深度特征增强机制,让离相机近的对象更容易被检测为主体,利用中心注意力特征增强机制,让处于画面中心的对象更容易被检测为主体,不仅可以准确分割简单场景下的主体,更大大提高了复杂场景下的主体识别准确度,同时主体检测模型中引入深度图可以解决对自然图像***的目标鲁棒性较差的问题,能够准确的识别目标主体。
在一个实施例中,训练模块1006还用于将所述可见光图作用于初始的主体检测模型的输入层,将所述深度图和所述中心权重图作用于初始的主体检测模型的输出层。
在一个实施例中,主体检测模型的训练过程中对深度图采用预设数值的丢失率。
图11为一个实施例中电子设备的内部结构示意图。如图11所示,该电子设备包括通过***总线连接的处理器和存储器。其中,该处理器用于提供计算和控制能力,支撑整个电子设备的运行。存储器可包括非易失性存储介质及内存储器。非易失性存储介质存储有操作***和计算机程序。该计算机程序可被处理器所执行,以用于实现以下各个实施例所提供的一种图像处理方法和主体检测模型训练方法。内存储器为非易失性存储介质中的操作***计算机程序提供高速缓存的运行环境。该电子设备可以是手机、平板电脑或者个人数字助理或穿戴式设备等。
本申请实施例中提供的图像处理装置和主体检测模型训练装置中的各个模块的实现可为计算机程序的形式。该计算机程序可在终端或服务器上运行。该计算机程序构成的程序模块可存储在终端或服务器的存储器上。该计算机程序被处理器执行时,实现本申请实施例中所描述方法的步骤。
本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行图像处理方法或主体检测模型训练方法的步骤。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行图像处理方法或主体检测模型训练方法的步骤。
本申请实施例所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。合适的非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (20)
1.一种图像处理方法,其特征在于,包括:
获取可见光图;
生成与所述可见光图对应的中心权重图,其中,所述中心权重图是指用于记录可见光图中各个像素点的权重值的图;所述中心权重图所表示的权重值从中心到边缘逐渐减小;
将所述可见光图和所述中心权重图输入到主体检测模型中,得到主体区域置信度图,其中,所述主体检测模型是预先根据同一场景的可见光图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型;
根据所述主体区域置信度图确定所述可见光图中的目标主体。
2.根据权利要求1所述的方法,其特征在于,所述根据所述主体区域置信度图确定所述可见光图中的目标主体,包括:
对所述主体区域置信度图进行处理,得到主体掩膜图;
检测所述可见光图,确定所述可见光图中的高光区域;
根据所述可见光图中的高光区域与所述主体掩膜图,确定所述可见光图中消除高光的目标主体。
3.根据权利要求2所述的方法,其特征在于,所述对所述主体区域置信度图进行处理,得到主体掩膜图,包括:
对所述主体区域置信度图进行自适应置信度阈值过滤处理,得到主体掩膜图。
4.根据权利要求3所述的方法,其特征在于,所述对所述主体区域置信度图进行自适应置信度阈值过滤处理,得到主体掩膜图,包括:
对所述主体区域置信度图进行自适应置信度阈值过滤处理,得到二值化掩膜图;
对所述二值化掩膜图进行形态学处理和引导滤波处理,得到主体掩膜图。
5.根据权利要求2所述的方法,其特征在于,所述根据所述可见光图中的高光区域与所述主体掩膜图,确定所述可见光图中消除高光的目标主体,包括:
将所述可见光图中的高光区域与所述主体掩膜图做差分处理,得到所述可见光图中的目标主体。
6.根据权利要求1所述的方法,其特征在于,所述主体检测模型包括依次相连的输入层、中间层和输出层;
将所述可见光图和所述中心权重图输入到主体检测模型中,包括:
将所述可见光图作用于主体检测模型的输入层;
将所述中心权重图作用于所述主体检测模型的输出层。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取与所述可见光图对应的深度图;所述深度图包括TOF深度图、双目深度图和结构光深度图中至少一种;
对所述可见光图和深度图进行配准处理,得到同一场景配准后的可见光图和深度图;
所述将所述可见光图和所述中心权重图输入到主体检测模型中,得到主体区域置信度图,包括:
将所述配准后的可见光图、所述深度图和所述中心权重图输入到主体检测模型中,得到主体区域置信度图;其中,所述主体检测模型是预先根据同一场景的可见光图、深度图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型。
8.根据权利要求7所述的方法,其特征在于,在所述对所述可见光图和深度图进行配准处理,得到同一场景配准后的可见光图和深度图之后,还包括:
对所述可见光图中像素点的像素值和所述深度图中像素点的像素值分别进行归一化处理。
9.根据权利要求8所述的方法,其特征在于,在对所述可见光图中像素点的像素值和所述深度图中像素点的像素值分别进行归一化处理之前,所述方法还包括:
对所述可见光图和深度图进行缩放处理,得到预设大小的可见光图和深度图;
所述生成与所述可见光图对应的中心权重图,包括:
生成与所述预设大小的可见光图对应的预设大小的中心权重图。
10.根据权利要求1至9中任一项所述的方法,其特征在于,所述方法还包括:
当存在多个主体时,根据每个主体所属类别的优先级、每个主体在所述可见光图中所占的面积、每个主体在所述可见光图中的位置中的至少一种,确定目标主体。
11.根据权利要求1至9中任一项所述的方法,其特征在于,所述方法还包括:
当确定存在多个主体,且所述多个主体均为人脸时,判断多个人脸是否在同一平面;
当所述多个人脸处于同一平面时,将所述多个人脸作为目标主体;
当所述多个人脸处于不同平面时,选择面积最大的人脸作为目标主体。
12.根据权利要求7至9中任一项所述的方法,其特征在于,所述主体检测模型的训练方式,包括:
获取同一场景的可见光图、深度图和已标注的主体掩膜图;
生成与所述可见光图对应的中心权重图,其中,所述中心权重图所表示的权重值从中心到边缘逐渐减小;
将所述可见光图作用于包含初始网络权重的主体检测模型的输入层,将所述深度图和所述中心权重图作用于初始的主体检测模型的输出层,将所述已标注的主体掩膜图作为所述主体检测模型输出的真实值,对所述包含初始网络权重的主体检测模型进行训练,得到所述主体检测模型的目标网络权重。
13.根据权利要求12所述的方法,其特征在于,所述主体检测模型的训练过程中对深度图采用预设数值的丢失率。
14.一种主体检测模型的训练方法,其特征在于,包括:
获取同一场景的可见光图、深度图和已标注的主体掩膜图;
生成与所述可见光图对应的中心权重图,其中,所述中心权重图是指用于记录可见光图中各个像素点的权重值的图;所述中心权重图所表示的权重值从中心到边缘逐渐减小;
将所述可见光图、所述深度图和所述中心权重图作为包含初始网络权重的主体检测模型的输入,将所述已标注的主体掩膜图作为包含初始网络权重的主体检测模型输出的真实值,进行训练,得到主体检测模型的目标网络权重。
15.根据权利要求14所述的方法,其特征在于,所述将所述可见光图、所述深度图和所述中心权重图作为包含初始网络权重的主体检测模型的输入,包括:
将所述可见光图作用于初始的主体检测模型的输入层,将所述深度图和所述中心权重图作用于初始的主体检测模型的输出层。
16.根据权利要求14或15所述的方法,其特征在于,所述主体检测模型的训练过程中对深度图采用预设数值的丢失率。
17.一种图像处理装置,其特征在于,包括:
图像获取模块,用于获取可见光图;
权重生成模块,用于生成与所述可见光图对应的中心权重图,其中,所述中心权重图是指用于记录可见光图中各个像素点的权重值的图;所述中心权重图所表示的权重值从中心到边缘逐渐减小;
检测模块,用于将所述可见光图和所述中心权重图输入到主体检测模型中,得到主体区域置信度图,其中,所述主体检测模型是预先根据同一场景的可见光图、中心权重图及对应的已标注的主体掩膜图进行训练得到的模型;
主体确定模块,用于根据所述主体区域置信度图确定所述可见光图中的目标主体。
18.一种主体检测模型的训练装置,其特征在于,包括:
训练图像获取模块,用于获取同一场景的可见光图、深度图和已标注的主体掩膜图;
训练权重生成模块,用于生成与所述可见光图对应的中心权重图,其中,所述中心权重图是指用于记录可见光图中各个像素点的权重值的图;所述中心权重图所表示的权重值从中心到边缘逐渐减小;
训练模块,用于将所述可见光图、所述深度图和所述中心权重图作为包含初始网络权重的主体检测模型的输入,将所述已标注的主体掩膜图作为包含初始网络权重的主体检测模型输出的真实值,进行训练,得到主体检测模型的目标网络权重。
19.一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至16中任一项所述的方法的步骤。
20.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至16中任一项所述的方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910576414.1A CN110276767B (zh) | 2019-06-28 | 2019-06-28 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
US16/857,936 US11457138B2 (en) | 2019-06-28 | 2020-04-24 | Method and device for image processing, method for training object detection model |
PCT/CN2020/090332 WO2020259118A1 (en) | 2019-06-28 | 2020-05-14 | Method and device for image processing, method and device for training object detection model |
EP20175489.2A EP3757890A1 (en) | 2019-06-28 | 2020-05-19 | Method and device for image processing, method and device for training object detection model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910576414.1A CN110276767B (zh) | 2019-06-28 | 2019-06-28 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110276767A CN110276767A (zh) | 2019-09-24 |
CN110276767B true CN110276767B (zh) | 2021-08-31 |
Family
ID=67963768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910576414.1A Active CN110276767B (zh) | 2019-06-28 | 2019-06-28 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11457138B2 (zh) |
EP (1) | EP3757890A1 (zh) |
CN (1) | CN110276767B (zh) |
WO (1) | WO2020259118A1 (zh) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110135428B (zh) * | 2019-04-11 | 2021-06-04 | 北京航空航天大学 | 图像分割处理方法和装置 |
CN110276767B (zh) * | 2019-06-28 | 2021-08-31 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
CN113766125B (zh) * | 2019-09-29 | 2022-10-25 | Oppo广东移动通信有限公司 | 对焦方法和装置、电子设备、计算机可读存储介质 |
CN111080534B (zh) * | 2019-10-31 | 2023-09-15 | 北京迈格威科技有限公司 | 图像滤波方法、装置及电子设备 |
CN110992374B (zh) * | 2019-11-28 | 2023-09-05 | 杭州小影创新科技股份有限公司 | 一种基于深度学习的头发精细化分割方法及*** |
US11195033B2 (en) * | 2020-02-27 | 2021-12-07 | Gm Cruise Holdings Llc | Multi-modal, multi-technique vehicle signal detection |
CN113705285A (zh) * | 2020-05-22 | 2021-11-26 | 珠海金山办公软件有限公司 | 主体识别方法、装置、及计算机可读存储介质 |
CN113760415A (zh) * | 2020-06-04 | 2021-12-07 | Oppo广东移动通信有限公司 | 表盘生成方法、装置、电子设备和计算机可读存储介质 |
CN111815532A (zh) * | 2020-07-09 | 2020-10-23 | 浙江大华技术股份有限公司 | 深度图修复方法及其相关装置 |
CN112634261A (zh) * | 2020-12-30 | 2021-04-09 | 上海交通大学医学院附属瑞金医院 | 基于卷积神经网络的胃癌病灶检测方法及装置 |
CN112766256B (zh) * | 2021-01-25 | 2023-05-30 | 北京淳中科技股份有限公司 | 光栅相位图处理方法、装置、电子设备及存储介质 |
CN114945019B (zh) * | 2021-02-10 | 2023-11-21 | Oppo广东移动通信有限公司 | 数据传输方法、装置及存储介质 |
CN112801076B (zh) * | 2021-04-15 | 2021-08-03 | 浙江大学 | 基于自注意力机制的电子商务视频高光检测方法及*** |
CN113240611B (zh) * | 2021-05-28 | 2024-05-07 | 中建材信息技术股份有限公司 | 一种基于图片序列的异物检测方法 |
US20230083014A1 (en) * | 2021-09-14 | 2023-03-16 | Black Sesame Technologies Inc. | Depth estimation based on data fusion of image sensor and depth sensor frames |
CN114359776B (zh) * | 2021-11-25 | 2024-04-26 | 国网安徽省电力有限公司检修分公司 | 一种融合光与热成像的火焰检测方法、装置 |
CN114235758A (zh) * | 2021-12-10 | 2022-03-25 | 苏州凌云视界智能设备有限责任公司 | 缺陷检测方法、装置、设备及存储介质 |
CN114821272A (zh) * | 2022-06-28 | 2022-07-29 | 上海蜜度信息技术有限公司 | 图像识别方法、***、介质、电子设备及目标检测模型 |
CN117409193B (zh) * | 2023-12-14 | 2024-03-12 | 南京深业智能化***工程有限公司 | 一种烟雾场景下的图像识别方法、装置及存储介质 |
CN117576416B (zh) * | 2024-01-15 | 2024-05-14 | 北京阿丘机器人科技有限公司 | 工件边缘区域的检测方法、设备及存储介质 |
CN117809202B (zh) * | 2024-02-28 | 2024-05-31 | 中国地质大学(武汉) | 一种双模态目标检测方法及*** |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102800085A (zh) * | 2012-06-21 | 2012-11-28 | 西南交通大学 | 一种在复杂图像中实现对主体目标图像检测及提取的方法 |
CN106815842A (zh) * | 2017-01-23 | 2017-06-09 | 河海大学 | 一种改进的基于超像素的图像显著性检测方法 |
CN106886999A (zh) * | 2017-01-04 | 2017-06-23 | 努比亚技术有限公司 | 一种实现交互式图像分割的方法、装置及终端 |
CN107403430A (zh) * | 2017-06-15 | 2017-11-28 | 中山大学 | 一种rgbd图像语义分割方法 |
CN108154465A (zh) * | 2017-12-19 | 2018-06-12 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
CN108664974A (zh) * | 2018-04-03 | 2018-10-16 | 华南理工大学 | 一种基于rgbd图像与全残差网络的语义分割方法 |
CN109859233A (zh) * | 2018-12-28 | 2019-06-07 | 上海联影智能医疗科技有限公司 | 图像处理、图像处理模型的训练方法及*** |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7526193B2 (en) * | 2003-07-15 | 2009-04-28 | Omron Corporation | Object determining device and imaging apparatus |
JP2005321489A (ja) | 2004-05-07 | 2005-11-17 | Ricoh Co Ltd | 撮像装置 |
US8593534B2 (en) | 2010-09-08 | 2013-11-26 | Apple Inc. | Auto-triggered camera self-timer based on recognition of subject's presence in scene |
US9350924B2 (en) | 2014-08-25 | 2016-05-24 | John G. Posa | Portable electronic devices with integrated image/video compositing |
CN104268537A (zh) | 2014-10-14 | 2015-01-07 | 杭州淘淘搜科技有限公司 | 一种基于复杂商品图像主体检测方法 |
CN104469167B (zh) | 2014-12-26 | 2017-10-13 | 小米科技有限责任公司 | 自动对焦方法及装置 |
CN106157281B (zh) | 2015-03-31 | 2021-12-03 | 阿里巴巴集团控股有限公司 | 一种图像主体识别方法及装置 |
CN105847664B (zh) | 2015-07-31 | 2019-01-29 | 维沃移动通信有限公司 | 一种移动终端拍照的方法和装置 |
CN106874826A (zh) | 2015-12-11 | 2017-06-20 | 腾讯科技(深圳)有限公司 | 人脸关键点跟踪方法和装置 |
CN205883405U (zh) | 2016-07-29 | 2017-01-11 | 深圳众思科技有限公司 | 一种自动追焦装置及终端 |
CN106686308B (zh) | 2016-12-28 | 2018-02-16 | 平安科技(深圳)有限公司 | 图像焦距检测方法和装置 |
CN108460389B (zh) | 2017-02-20 | 2021-12-03 | 阿里巴巴集团控股有限公司 | 一种识别图像中对象的类型预测方法、装置及电子设备 |
CN108024065B (zh) | 2017-12-28 | 2020-07-10 | 珠海大横琴科技发展有限公司 | 一种终端拍摄的方法、终端及计算机可读存储介质 |
CN108170817A (zh) | 2017-12-29 | 2018-06-15 | 努比亚技术有限公司 | 照片主体的演变视频获取方法、装置及可读存储介质 |
CN108171212A (zh) | 2018-01-19 | 2018-06-15 | 百度在线网络技术(北京)有限公司 | 用于检测目标的方法和装置 |
CN108900778A (zh) | 2018-06-27 | 2018-11-27 | 努比亚技术有限公司 | 一种拍摄方法、移动终端及计算机可读存储介质 |
CN109272016B (zh) | 2018-08-08 | 2021-03-23 | 广州视源电子科技股份有限公司 | 目标检测方法、装置、终端设备和计算机可读存储介质 |
CN109167910A (zh) | 2018-08-31 | 2019-01-08 | 努比亚技术有限公司 | 对焦方法、移动终端及计算机可读存储介质 |
CN109089047B (zh) | 2018-09-29 | 2021-01-12 | Oppo广东移动通信有限公司 | 控制对焦的方法和装置、存储介质、电子设备 |
CN110276767B (zh) | 2019-06-28 | 2021-08-31 | Oppo广东移动通信有限公司 | 图像处理方法和装置、电子设备、计算机可读存储介质 |
-
2019
- 2019-06-28 CN CN201910576414.1A patent/CN110276767B/zh active Active
-
2020
- 2020-04-24 US US16/857,936 patent/US11457138B2/en active Active
- 2020-05-14 WO PCT/CN2020/090332 patent/WO2020259118A1/en active Application Filing
- 2020-05-19 EP EP20175489.2A patent/EP3757890A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102800085A (zh) * | 2012-06-21 | 2012-11-28 | 西南交通大学 | 一种在复杂图像中实现对主体目标图像检测及提取的方法 |
CN106886999A (zh) * | 2017-01-04 | 2017-06-23 | 努比亚技术有限公司 | 一种实现交互式图像分割的方法、装置及终端 |
CN106815842A (zh) * | 2017-01-23 | 2017-06-09 | 河海大学 | 一种改进的基于超像素的图像显著性检测方法 |
CN107403430A (zh) * | 2017-06-15 | 2017-11-28 | 中山大学 | 一种rgbd图像语义分割方法 |
CN108154465A (zh) * | 2017-12-19 | 2018-06-12 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
CN108664974A (zh) * | 2018-04-03 | 2018-10-16 | 华南理工大学 | 一种基于rgbd图像与全残差网络的语义分割方法 |
CN109859233A (zh) * | 2018-12-28 | 2019-06-07 | 上海联影智能医疗科技有限公司 | 图像处理、图像处理模型的训练方法及*** |
Non-Patent Citations (2)
Title |
---|
Semantic Image Segmentation Based on Attentions to Intra Scales and Inner Channels;Hongchao Lu等;《2018 International Joint Conference on Neural Networks (IJCNN)》;20181231;全文 * |
基于注意力机制的多尺度融合航拍影像语义分割;郑顾等;《图学学报》;20181231;第1069-1077页 * |
Also Published As
Publication number | Publication date |
---|---|
EP3757890A1 (en) | 2020-12-30 |
WO2020259118A1 (en) | 2020-12-30 |
US11457138B2 (en) | 2022-09-27 |
US20200412940A1 (en) | 2020-12-31 |
CN110276767A (zh) | 2019-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110276767B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110428366B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110473185B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110248096B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN110149482B (zh) | 对焦方法、装置、电子设备和计算机可读存储介质 | |
CN108764370B (zh) | 图像处理方法、装置、计算机可读存储介质和计算机设备 | |
CN108810418B (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
CN108777815B (zh) | 视频处理方法和装置、电子设备、计算机可读存储介质 | |
CN108921161B (zh) | 模型训练方法、装置、电子设备和计算机可读存储介质 | |
EP3579147A1 (en) | Image processing method and electronic device | |
CN113766125B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN110493527B (zh) | 主体对焦方法、装置、电子设备和存储介质 | |
CN110276831B (zh) | 三维模型的建构方法和装置、设备、计算机可读存储介质 | |
CN108304821B (zh) | 图像识别方法及装置、图像获取方法及设备、计算机设备及非易失性计算机可读存储介质 | |
CN110580428A (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN110349163B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN109712177B (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
CN110248101B (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN108848306B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110490196B (zh) | 主体检测方法和装置、电子设备、计算机可读存储介质 | |
CN110881103A (zh) | 对焦控制方法和装置、电子设备、计算机可读存储介质 | |
CN110650288B (zh) | 对焦控制方法和装置、电子设备、计算机可读存储介质 | |
CN113658197B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN110392211A (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110688926B (zh) | 主体检测方法和装置、电子设备、计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |