CN113936240A - 确定样本图像的方法、装置、设备及存储介质 - Google Patents
确定样本图像的方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113936240A CN113936240A CN202111235744.8A CN202111235744A CN113936240A CN 113936240 A CN113936240 A CN 113936240A CN 202111235744 A CN202111235744 A CN 202111235744A CN 113936240 A CN113936240 A CN 113936240A
- Authority
- CN
- China
- Prior art keywords
- image
- images
- missing
- frame
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本申请实施例公开了一种确定样本图像的方法、装置、设备及存储介质,属于数据处理领域。所述方法包括:对视频流进行漏误报分析,以确定第一图像和第一图像对应的漏误报结果,该第一图像为视频流中存在漏误报对象的图像,该漏误报对象为漏分析的目标对象或者误分析的目标对象。基于第一图像对应的漏误报结果,从视频流中获取多个前景图像和多个背景图像。对多个前景图像和多个背景图像进行融合,以得到多个第二图像。将该第一图像和该多个第二图像确定为样本图像。本申请实施例通过这些生成的样本图像来训练第一神经网络模型,能够提升第一神经网络模型的训练效果,进而有效提升第一神经网络模型的分析性能。
Description
技术领域
本申请实施例涉及数据处理领域,特别涉及一种确定样本图像的方法、装置、设备及存储介质。
背景技术
神经网络模型在对图像进行推理的过程中,需要对图像中的目标对象进行分析,而且还会不断地对模型自身进行更新。随着神经网络模型的更新,神经网络模型可能会遗忘之前学习过的某些类型的目标对象,在需要对这些类型的目标对象再次分析时,可能会造成分析准确率不高的问题。因此,需要关于容易遗忘的目标对象来重新确定样本图像,从而便于后期对神经网络模型再次训练,来提高神经网络模型的分析准确率。
相关技术提出了一种确定样本图像的方法,在该方法中,可以获取大量的图像,通过神经网络模型,从这些图像中筛选出不确定度较高的图像。然后,将这些图像根据它们的特征分布特点来划分,进而按照特征分布特点来选择一些图像作为样本图像。然而,采用不确定性和特征分布特点来确定样本图像,导致样本图像的数量有限,进而在神经网络模型的性能提升上也比较有限。
发明内容
本申请实施例提供了一种确定样本图像的方法、装置、设备及存储介质,可以解决相关技术在神经网络模型的性能提升上比较有限的问题。所述技术方案如下:
一方面,提供了一种确定样本图像的方法,所述方法包括:
对视频流进行漏误报分析,以确定第一图像和所述第一图像对应的漏误报结果,所述第一图像为所述视频流中存在漏误报对象的图像,所述漏误报对象为漏分析的目标对象或者误分析的目标对象;
基于所述第一图像对应的漏误报结果,从所述视频流中获取多个前景图像和多个背景图像;
对所述多个前景图像和所述多个背景图像进行融合,以得到多个第二图像;
将所述第一图像和所述多个第二图像确定为样本图像。
可选地,所述对视频流进行漏误报分析,以确定第一图像和所述第一图像对应的漏误报结果,包括:
通过多个第一神经网络模型以及第二神经网络模型,对所述视频流中的任一帧图像进行漏误报分析,以确定所述任一帧图像中是否存在漏误报对象,所述第二神经网络模型为能够对所述任一帧图像中的所有目标对象进行分析的模型;
如果所述任一帧图像中存在漏误报对象,则将所述任一帧图像作为所述第一图像,并确定所述第一图像对应的漏误报结果。
可选地,所述通过多个第一神经网络模型以及第二神经网络模型,对所述视频流中的任一帧图像进行漏误报分析,以确定所述任一帧图像中是否存在漏误报对象,包括:
通过所述多个第一神经网络模型分别确定所述任一帧图像对应的第一分析结果,以得到多个第一分析结果,所述第一分析结果包括所述任一帧图像中至少一个目标对象的位置信息和每个目标对象的第一标签;
通过所述第二神经网络模型确定所述任一帧图像对应的第二分析结果,所述第二分析结果包括所述任一帧图像中至少一个目标对象的位置信息和每个目标对象的第二标签;
基于所述多个第一分析结果所包括的目标对象的位置信息和第一标签,以及所述第二分析结果所包括的目标对象的位置信息和第二标签,确定所述任一帧图像中是否存在漏误报对象。
可选地,所述基于所述多个第一分析结果所包括的目标对象的位置信息和第一标签,以及所述第二分析结果所包括的目标对象的位置信息和第二标签,确定所述任一帧图像中是否存在漏误报对象,包括:
如果所述多个第一分析结果所包括的目标对象的位置信息和第一标签均相同,且与所述第二分析结果所包括的目标对象的位置信息和第二标签相同,则确定所述任一帧图像中不存在漏误报对象,否则,确定所述任一帧图像中存在漏误报对象。
可选地,所述漏误报结果包括所述第一图像中的至少一个漏误报对象的位置信息,以及所述第一图像的采集时间;
所述基于所述第一图像对应的漏误报结果,从所述视频流中获取多个前景图像和多个背景图像,包括:
基于所述至少一个漏误报对象的位置信息确定出至少一个空间范围,所述至少一个空间范围与所述至少一个漏误报对象一一对应;
基于所述第一图像的采集时间确定出一个时间范围;
基于所述时间范围和所述至少一个空间范围,从所述视频流中获取所述多个前景图像和所述多个背景图像。
可选地,所述基于所述时间范围和所述至少一个空间范围,从所述视频流中获取所述多个前景图像和所述多个背景图像,包括:
从所述视频流中获取采集时间位于所述时间范围内、位置位于所述至少一个空间范围内且为前景的图像区域,以得到多个图像区域;
从所述视频流中获取采集时间位于所述时间范围内且不存在前景的图像,以得到多个第三图像;
对所述多个图像区域进行聚类,以得到多个第一聚类结果,以及对所述多个第三图像进行聚类,以得到多个第二聚类结果;
从所述多个第一聚类结果中选择多个图像区域作为所述多个前景图像,以及从所述多个第二聚类结果中选择多个第三图像作为所述多个背景图像。
可选地,所述对所述多个前景图像和所述多个背景图像进行融合,包括:
确定所述多个前景图像在所述视频流中所处的一帧图像的采集时间,以及所述多个前景图像在所处的一帧图像中的位置,以得到所述多个前景图像分别对应的采集时间和图像位置;
对所述多个背景图像分别进行语义分割,以确定所述多个背景图像分别对应的语义分割信息;
确定所述多个背景图像在所述视频流中所处的一帧图像的采集时间,以得到所述多个背景图像分别对应的采集时间;
基于所述多个前景图像分别对应的采集时间和图像位置,以及所述多个背景图像分别对应的采集时间和语义分割信息,对所述多个前景图像和所述多个背景图像进行融合。
另一方面,提供了一种确定样本图像的装置,所述装置包括:
第一确定模块,用于对视频流进行漏误报分析,以确定第一图像和所述第一图像对应的漏误报结果,所述第一图像为所述视频流中存在漏误报对象的图像,所述漏误报对象为漏分析的目标对象或者误分析的目标对象;
获取模块,用于基于所述第一图像对应的漏误报结果,从所述视频流中获取多个前景图像和多个背景图像;
融合模块,用于对所述多个前景图像和所述多个背景图像进行融合,以得到多个第二图像;
第二确定模块,用于将所述第一图像和所述多个第二图像确定为样本图像。
可选地,所述第一确定模块包括:
第一确定子模块,用于通过多个第一神经网络模型以及第二神经网络模型,对所述视频流中的任一帧图像进行漏误报分析,以确定所述任一帧图像中是否存在漏误报对象,所述第二神经网络模型为能够对所述任一帧图像中的所有目标对象进行分析的模型;
第二确定子模块,用于如果所述任一帧图像中存在漏误报对象,则将所述任一帧图像作为所述第一图像,并确定所述第一图像对应的漏误报结果。
可选地,所述第一确定子模块包括:
第一确定单元,用于通过所述多个第一神经网络模型分别确定所述任一帧图像对应的第一分析结果,以得到多个第一分析结果,所述第一分析结果包括所述任一帧图像中至少一个目标对象的位置信息和每个目标对象的第一标签;
第二确定单元,用于通过所述第二神经网络模型确定所述任一帧图像对应的第二分析结果,所述第二分析结果包括所述任一帧图像中至少一个目标对象的位置信息和每个目标对象的第二标签;
第三确定单元,用于基于所述多个第一分析结果所包括的目标对象的位置信息和第一标签,以及所述第二分析结果所包括的目标对象的位置信息和第二标签,确定所述任一帧图像中是否存在漏误报对象。
可选地,所述第三确定单元具体用于:
如果所述多个第一分析结果所包括的目标对象的位置信息和第一标签均相同,且与所述第二分析结果所包括的目标对象的位置信息和第二标签相同,则确定所述任一帧图像中不存在漏误报对象,否则,确定所述任一帧图像中存在漏误报对象。
可选地,所述漏误报结果包括所述第一图像中的至少一个漏误报对象的位置信息,以及所述第一图像的采集时间;
所述获取模块包括:
第三确定子模块,用于基于所述至少一个漏误报对象的位置信息确定出至少一个空间范围,所述至少一个空间范围与所述至少一个漏误报对象一一对应;
第四确定子模块,用于基于所述第一图像的采集时间确定出一个时间范围;
获取子模块,用于基于所述时间范围和所述至少一个空间范围,从所述视频流中获取所述多个前景图像和所述多个背景图像。
可选地,所述获取子模块具体用于:
从所述视频流中获取采集时间位于所述时间范围内、位置位于所述至少一个空间范围内且为前景的图像区域,以得到多个图像区域;
从所述视频流中获取采集时间位于所述时间范围内且不存在前景的图像,以得到多个第三图像;
对所述多个图像区域进行聚类,以得到多个第一聚类结果,以及对所述多个第三图像进行聚类,以得到多个第二聚类结果;
从所述多个第一聚类结果中选择多个图像区域作为所述多个前景图像,以及从所述多个第二聚类结果中选择多个第三图像作为所述多个背景图像。
可选地,所述融合模块具体用于:
确定所述多个前景图像在所述视频流中所处的一帧图像的采集时间,以及所述多个前景图像在所处的一帧图像中的位置,以得到所述多个前景图像分别对应的采集时间和图像位置;
对所述多个背景图像分别进行语义分割,以确定所述多个背景图像分别对应的语义分割信息;
确定所述多个背景图像在所述视频流中所处的一帧图像的采集时间,以得到所述多个背景图像分别对应的采集时间;
基于所述多个前景图像分别对应的采集时间和图像位置,以及所述多个背景图像分别对应的采集时间和语义分割信息,对所述多个前景图像和所述多个背景图像进行融合。
另一方面,提供了一种计算机设备,所述计算机设备为摄像机或者服务器,所述计算机设备包括存储器和处理器,所述存储器用于存放计算机程序,所述处理器用于执行所述存储器上所存放的计算机程序,以实现上述所述确定样本图像的方法的步骤。
另一方面,提供了一种计算机可读存储介质,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述所述确定样本图像的方法的步骤。
另一方面,提供了一种包含指令的计算机程序产品,当所述指令在计算机上运行时,使得计算机执行上述所述确定样本图像的方法的步骤。
本申请实施例提供的技术方案至少可以带来以下有益效果:
本申请实施例通过对视频流进行漏误报分析,以确定第一图像和第一图像对应的漏误报结果。这样,通过得到的第一图像对应的漏误报结果,从视频流中获取多个前景图像和多个背景图像。再将多个前景图像和多个背景图像进行融合,以得到多个第二图像。最后,将该第一图像和该多个第二图像确定为样本图像。这样,本申请实施例生成更多的样本图像,通过这些样本图像来训练第一神经网络模型,能够提升第一神经网络模型的训练效果,进而有效提升第一神经网络模型的分析性能。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种实施环境的示意图;
图2是本申请实施例提供的一种样本图像确定设备的结构示意图;
图3是本申请实施例提供的一种确定样本图像的方法的流程图;
图4是本申请实施例提供的一种确定样本图像的装置的结构示意图;
图5是本申请实施例提供的一种摄像机的结构示意图;
图6是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
在对本申请实施例提供的确定样本图像的方法进行详细的解释说明之前,先对本申请实施例提供的应用场景和实施环境进行介绍。
为了实现对目标对象的分析,通常需要通过样本图像对第一神经网络模型进行训练。之后,可以通过经训练的第一神经网络模型对摄像机拍摄的视频流中的目标对象进行分析。但是,在第一神经网络模型对目标对象进行分析的过程中,还会不断地进行更新,而且随着第一神经网络模型的更新,以及该第一神经网络模型学过的目标对象类型的增加,该第一神经网络模型可能会遗忘之前学习过的某些类型的目标对象,在需要对这些类型的目标对象再次分析时,可能会存在分析准确率不高的问题。通俗地讲,因第一神经网络模型不断的更新,可能会遗忘某些类型的目标对象的特征,从而无法分析出这些目标对象,或者说对这些目标对象的分析准确率比较低。
比如,第一神经网络模型需要识别出目标对象在一年四季的特征,但是,当经过春、夏、秋、冬四个季节之后,如果再次需要在春季对目标对象进行分析,由于第一神经网络模型随着目标对象在四个季节的特征变化而更新,所以第一神经网络模型可能会遗忘目标对象在春季的特征,所以,在春季对目标对象进行分析时,可能会造成分析准确率较低的问题。
所以,在通过第一神经网络模型对目标对象进行分析的过程中,还可以基于摄像机拍摄的视频流,按照本申请实施例提供的方法来确定并存储样本图像,也即是,通过第一神经网络模型对目标对象进行在线分析的同时,还能够确定并存储样本图像。这样,后续在每次对目标对象进行分析时,可以先基于该样本图像对第一神经网络模型再次训练,从而提高第一神经网络模型的分析准确率。
请参考图1,图1是根据一示例性实施例示出的一种实施环境的示意图。该实施环境包括至少一个摄像机101(图1中以一个摄像机示意性表示该至少一个摄像机)和服务器102,摄像机101可以与服务器102进行通信连接。该通信连接可以为有线或者无线连接,本申请实施例对此不做限定。
摄像机101用于拍摄视频流,并将拍摄到的视频流传输给服务器102。
服务器102中部署有第一神经网络模型,可以通过该第一神经网络模型对摄像机101传输的视频流中的目标对象进行分析。同时,服务器102还可以基于摄像机101传输的视频流确定并存储样本图像。
当然,上述为一种示例性的实施环境,在另一些实施环境中,也可以不包括服务器102。这样,摄像机101可以拍摄视频流,并按照本申请实施例提供的方法,对视频流中的目标对象进行分析。进而确定并存储样本图像。
也就是说,本申请实施例可以通过摄像机101对视频流进行处理来确定样本图像,也可以通过服务器102对视频流进行处理来确定样本图像。为了便于描述,可以将摄像机或者服务器称为样本图像确定设备。
示例性地,请参考图2,该样本图像确定设备可以包括漏误报分析模块、时空挖掘模块、存储模块和样本生成模块。漏误报分析模块用于对目标对象进行分析的过程中,从视频流中确定存在漏误报对象的图像作为第一图像,同时确定第一图像对应的漏误报结果。时空挖掘模块用于基于第一图像对应的漏误报结果,从视频流中获取多个前景图像和多个背景图像。存储模块用于存储第一图像,以及挖掘得到的多个前景图像和多个背景图像。样本生成模块用于将存储的该多个前景图像和该多个背景图像进行融合,以得到多个第二图像,进而将第一图像和多个第二图像确定为样本图像。
需要说明的是,存储模块也可以不存储多个前景图像和多个背景图像,而是在挖掘得到多个前景图像和多个背景图像之后,先通过样本生成模块将该多个前景图像和该多个背景图像进行融合,以得到多个第二图像,进而由存储模块存储该多个第二图像。
当然,存储模块也可以存储多个前景图像和多个背景图像,同时存储多个第二图像。这样,后续还可以基于该多个前景图像和多个背景图像额外生成其他的图像,用于进行第一神经网络模型的训练。
其中,摄像机101可以是任何一种具有摄像功能的设备,比如,智能手机、数码相机、云台监控设备等等。服务器102可以是一台服务器,也可以是由多台服务器组成的服务器集群,或者是一个云计算服务中心。
本领域技术人员应能理解上述摄像机101和服务器102仅为举例,其他现有的或今后可能出现的摄像机或服务器如可适用于本申请实施例,也应包含在本申请实施例保护范围以内,并在此以引用方式包含于此。
接下来对本申请实施例提供的确定样本图像的方法进行详细的解释说明。
图3是本申请实施例提供的一种确定样本图像的方法的流程图,该方法应用于服务器。请参考图3,该方法包括如下步骤。
步骤301:对视频流进行漏误报分析,以确定第一图像和第一图像对应的漏误报结果,第一图像为视频流中存在漏误报对象的图像,该漏误报对象为漏分析的目标对象或者误分析的目标对象。
在一些实施例中,可以通过多个第一神经网络模型以及第二神经网络模型,对视频流中的任一帧图像进行漏误报分析,以确定该任一帧图像中是否存在漏误报对象,第二神经网络模型为能够对该任一帧图像中的所有目标对象进行分析的模型。如果该任一帧图像中存在漏误报对象,则将该任一帧图像作为第一图像,并确定第一图像对应的漏误报结果。
需要说明的是,上述视频流可以是至少一个摄像机中任意一个摄像机拍摄得到的视频流。
由于视频流中可以包含多帧图像,对于任一帧图像来说,都可以按照上述方法确定该图像中是否存在漏误报对象,进而确定是否将该图像作为第一图像。当对视频流中的每帧图像都按照上述方法处理之后,可以得到多个第一图像以及各个第一图像对应的漏误报结果。本申请实施例是以一个第一图像为例进行说明。
其中,漏误报结果可以包括第一图像中至少一个漏误报对象的位置信息,以及第一图像的采集时间,当然,该漏误报结果还可以包括其他的信息,本申请实施例对此不做限定。另外,基于上文描述,漏误报对象可以为漏分析的目标对象,也可以为误分析的目标对象,所以对于该至少一个漏误报对象来说,该至少一个漏误报对象可能包括漏分析的目标对象,也可能包括误分析的目标对象。而且在第一图像包括多个漏误报对象的情况下,该多个漏误报对象可能既包括漏分析的目标对象,又包括误分析的目标对象。
需要说明的是,该多个第一神经网络模型均能够对目标对象进行分析,且该多个第一神经网络模型可以为结构不同的网络模型,当然,也可以为结构相同的网络模型。而且,每个第一神经网络模型是指经过数据集训练过的模型。在该多个第一神经网络模型的结构相同的情况下,该多个第一神经网络模型可以通过不同的数据集进行训练,在该多个第一神经网络模型的结构不同的情况下,该多个第一神经网络模型可以通过相同的数据集进行训练,也可以通过不同的数据集进行训练。第二神经网络模型是经过多种公开数据集训练而成的,该第二神经网络模型为能够对任一帧图像中的所有目标对象进行分析的模型,并且该第二神经网络模型基本能够识别所有的目标对象,比如,第二神经网络模型为开集识别模型。
其中,通过多个第一神经网络模型以及第二神经网络模型,对视频流中的任一帧图像进行漏误报分析,以确定该任一帧图像中是否存在漏误报对象的实现过程包括:通过多个第一神经网络模型分别确定该任一帧图像对应的第一分析结果,以得到多个第一分析结果,该第一分析结果包括该任一帧图像中至少一个目标对象的位置信息和每个目标对象的第一标签。通过第二神经网络模型确定该任一帧图像对应的第二分析结果,该第二分析结果包括该任一帧图像中至少一个目标对象的位置信息和每个目标对象的第二标签。基于该多个第一分析结果所包括的目标对象的位置信息和第一标签,以及所述第二分析结果所包括的目标对象的位置信息和第二标签,确定该任一帧图像中是否存在漏误报对象。
由于该多个第一神经网络模型中的每个第一神经网络模型确定该任一帧图像对应的第一分析结果的方式相同,因此,接下来以其中一个第一神经网络模型为例进行说明。即,将该任一帧图像作为第一神经网络模型的输入,以得到该第一神经网络模型输出的至少一个目标对象的位置信息,以及每个目标对象属于多个标签的概率。对于该至少一个目标对象中的每个目标对象,从该目标对象属于多个标签的概率中确定最大概率,将该最大概率对应的标签作为该目标对象对应的第一标签。此时,可以得到该任一帧图像中该至少一个目标对象的位置信息和每个目标对象对应的第一标签,即该任一帧图像对应的第一分析结果。当通过该多个第一神经网络模型分别对该任一帧图像进行处理之后,即可得到多个第一分析结果。
同样地,通过第二神经网络模型确定该任一帧图像对应的第二分析结果的实现过程包括:将该任一帧图像作为第二神经网络模型的输入,以得到该第二神经网络模型输出的至少一个目标对象的位置信息,以及每个目标对象属于多个标签的概率。对于该至少一个目标对象中的每个目标对象,从该目标对象属于多个标签的概率中确定最大概率,将该最大概率对应的标签作为该目标对象对应的第二标签。此时,可以得到该任一帧图像中该至少一个目标对象的位置信息和每个目标对象对应的第二标签,即该任一帧图像对应的第二分析结果。
其中,基于该多个第一分析结果所包括的目标对象的位置信息和第一标签,以及第二分析结果所包括的目标对象的位置信息和第二标签,确定该任一帧图像中是否存在漏误报对象的实现过程可以为:如果该多个第一分析结果所包括的目标对象的位置信息和第一标签均相同,且与第二分析结果所包括的目标对象的位置信息和第二标签相同,则确定该任一帧图像中不存在漏误报对象,否则,确定该任一帧图像中存在漏误报对象。
其中,在通过多个第一神经网络模型确定出该任一帧图像对应的多个第一分析结果之后,对于该多个第一分析结果中任意两个第一分析结果来说,这两个第一分析结果所包括的至少一个目标对象可能相同,也可能不同,而且同一目标对象对应的第一标签可能相同,也可能不同。同理,通过第二神经网络模型确定出该任一帧图像对应的第二分析结果之后,该第二分析结果所包括的至少一个目标对象与上述任一第一分析结果包括的至少一个目标对象可能相同,也可能不同,而且同一目标对象对应的第一标签可能相同,也可能不同。
而且,基于上述描述,第二神经网络模型能够识别出该任一图像中的所有目标对象,所以,可以将该多个第一分析结果和该第二分析结果进行对比,来确定该任一帧图像中是否包括漏误报对象。作为一种示例,对于该多个第一分析结果包括的所有目标对象中的任一目标对象来说,确定该多个第一分析结果中是否均包括该目标对象的位置信息和第一标签,如果该多个第一分析结果中均包括该目标对象的位置信息和第一标签,则确定该目标对象不是漏分析的目标对象,否则,确定该目标对象为漏分析的目标对象。
在该目标对象不是漏分析的目标对象的情况下,还可以确定该多个第一分析结果包括的该目标对象的位置信息和第一标签是否均相同,以及该目标对象的位置信息和第一标签与第二分析结果中该目标对象的位置信息和第二标签是否相同。如果该多个第一分析结果包括的该目标对象的位置信息和第一标签均相同,且该目标对象的位置信息和第一标签与第二分析结果中该目标对象的位置信息和第二标签相同,则确定该目标对象不是误分析的目标对象,否则,确定该目标对象为误分析的目标对象。
可选地,视频流中可能存在较多图像都存在漏误报对象,此时,可以基于这些图像中的漏误报对象,确定这些图像中的各个图像的得分。之后,按照得分来选择部分图像作为第一图像。
示例地,可以基于漏误报对象的数量和重要程度来确定各个图像的得分,之后,选择得分高于分数阈值的图像作为第一图像。当然,还可以按照其他的方式来确定各个图像的得分,也可以按照其他的方式来选择第一图像。
步骤302:基于第一图像对应的漏误报结果,从视频流中获取多个前景图像和多个背景图像。
在一些实施例中,漏误报结果包括第一图像中的至少一个漏误报对象的位置信息,以及第一图像的采集时间。这样,可以基于该至少一个漏误报对象的位置信息确定出至少一个空间范围,该至少一个空间范围与该至少一个漏误报对象一一对应。基于第一图像的采集时间确定出一个时间范围。基于该时间范围和该至少一个空间范围,从视频流中获取多个前景图像和多个背景图像。
作为一种示例,可以确定第一时间和第二时间,第一时间位于该第一图像的采集时间之前且与该第一图像的采集时间之间间隔第一时长,第二时间位于该第一图像的采集时间之后且与该第一图像的采集时间之间间隔第二时长。将第一时间与第二时间之间的时间范围确定为该第一图像对应的时间范围。
其中,第一时长和第二时长可以事先设置,而且可以按照不同的需求来调整。第一时长和第二时长可以相等,也可以不相等。
对于第一图像中的任一漏误报对象,可以基于该漏误报对象的位置信息,确定该漏误报对象的几何中心。然后,从第一图像中,确定以该漏误报对象的几何中心为圆心且包括该漏误报对象的一个圆形区域,将该圆形区域作为一个空间范围。当然,还可以从第一图像中确定包括该至少一个漏误报对象的一个区域,将该区域作为该第一图像对应的空间范围。
作为一种示例,可以基于该第一图像中的漏误报的位置,确定这些漏误报对象的几何中心。然后,从第一图像中,确定以该几何中心为圆心且包括这些漏误报对象的一个圆形区域,将该圆形区域作为该第一图像对应的空间范围。
基于该时间范围和该至少一个空间范围,从视频流中获取多个前景图像和多个背景图像的实现过程包括:从视频流中获取采集时间位于该时间范围内、位置位于该至少一个空间范围内且为前景的图像区域,以得到多个图像区域。从视频流中获取采集时间位于该时间范围内且不存在前景的图像,以得到多个第三图像。对该多个图像区域进行聚类,以得到多个第一聚类结果,以及对该多个第三图像进行聚类,以得到多个第二聚类结果。从该多个第一聚类结果中选择多个图像区域作为多个前景图像,以及从该多个第二聚类结果中选择多个第三图像作为多个背景图像。
也就是说,获取到采集时间位于该时间范围内、位置位于该至少一个空间范围中任一空间范围内且为前景的图像区域,进而将这些图像区域进行聚类来确定多个前景图像。以及获取到采集时间位于该时间范围内、位置位于该至少一个空间范围中任一空间范围内且不存在前景的图像,以得到多个第三图像,进而将这些第三图像进行聚类来确定多个背景图像。
需要说明的是,聚类是指按照图像特征的相似性进行分类的过程,而且在聚类之后,同一聚类结果中图像特征的相似性尽可能大,不同聚类结果中图像特征的差异性也尽可能地大。所以,在对多个图像区域进行聚类之后,同一个第一聚类结果包括图像特征相似的图像区域,不同的第一聚类结果包括图像特征不相似的图像区域。同理,将多个第三图像进行聚类之后,同一个第二聚类结果中包括图像特征相似的第三图像,不同的第二聚类结果中包括图像特征不相似的第三图像。
由于第一神经网络模型对视频流中的任一帧图像都会进行处理,所以,第一神经网络模型在进行目标对象分析时,都会提取每个图像的图像特征。这样,在进行聚类时,该图像特征可以为第一神经网络模型输出的特征,也可以是重新提取的特征,本申请实施例对此不做限定。
将上述多个图像区域进行聚类之后,同一个第一聚类结果包括图像特征相似的图像区域,不同的第一聚类结果包括图像特征不相似的图像区域,所以,为了保证样本图像的丰富性和多样性,可以从每个第一聚类结果中选择一个或多个图像区域作为多个前景图像。同样地,将上述多个第三图像进行聚类之后,同一个第二聚类结果中包括图像特征相似的第三图像,不同的第二聚类结果中包括图像特征不相似的第三图像,所以,为了保证样本图像的丰富性和多样性,可以从每个第二聚类结果中选择一个或多个第三图像作为多个背景图像。
在第一图像中存在漏误报对象的情况下,表明多个第一神经网络模型对第一图像中的目标对象的特征有所遗忘,而在一个视频流中,可能连续多帧图像的内容比较相似,此时,其他图像中可能也存在被多个第一神经网络模型所遗忘的特征,所以,可以基于第一图像的采集时间,按照上述方法确定一个时间范围,以及基于至少一个漏误报对象的位置确定出至少一个空间范围。这样,通过该时间范围和该至少一个空间范围能够确定出多个可能被遗忘特征的目标对象所在的前景图像。同时,为了便于后续的图像融合,还可以基于该时间范围和该至少一个空间范围确定出多个背景图像,便于后续在进行图像融合之后,能够获取到更多的样本图像,充分保证了样本图像的丰富性,以使确定的样本图像更具有价值。
步骤303:对该多个前景图像和该多个背景图像进行融合,以得到多个第二图像。
在一些实施例中,可以确定该多个前景图像在视频流中所处的一帧图像的采集时间,以及该多个前景图像在所处的一帧图像中的位置,以得到多个前景图像分别对应的采集时间和图像位置。对该多个背景图像分别进行语义分割,以确定该多个背景图像分别对应的语义分割信息。确定多个背景图像在视频流中所处的一帧图像的采集时间,以得到多个背景图像分别对应的采集时间。基于该多个前景图像分别对应的采集时间和图像位置,以及该多个背景图像分别对应的采集时间和语义分割信息,对该多个前景图像和该多个背景图像进行融合。
由于一个前景图像为视频流中一帧图像中的部分图像区域,因此,在确定出前景图像之后,可以确定该前景图像在视频流中所处的一帧图像的采集时间,以及该前景图像在所处的一帧图像中的位置,进而将该采集时间确定为该前景图像对应的采集时间,将该前景图像在所处的一帧图像中的位置确定为该前景图像对应的图像位置。同理,一个背景图像为视频流中的一帧图像,因此,在确定出背景图像之后,可以确定该背景图像在视频流中所处的一帧图像的采集时间,进而将该采集时间确定为该背景图像对应的采集时间。
需要说明的是,针对该多个背景图像中的任一背景图像,该背景图像包括多个像素点,利用语义分割算法可以将该背景图像中的每个像素点按照表达语义的不同进行分割,从而得到该背景图像的语义分割信息,该语义分割信息包括背景图像中不同区域的语义信息,如天空、草地等语义信息。
基于该多个前景图像分别对应的采集时间和图像位置,以及该多个背景图像的分别对应采集时间和语义分割信息,对该多个前景图像和该多个背景图像进行融合的实现过程包括:对于该多个前景图像中的任一前景图像,从该多个背景图像中选择采集时间与该前景图像的采集时间位于同一时间周期内的至少一个背景图像。基于该前景图像对应的图像位置和该至少一个背景图像的语义分割信息,从该至少一个背景图像中确定目标背景图像,将该前景图像与该目标背景图像进行融合,以使该前景图像在目标背景图像中的位置为该前景图像对应的图像位置。
其中,该同一时间周期是指同一季节的同一时段,比如,春季的白天,春季的晚上,冬季的白天,冬季的晚上等等。
由于背景图像中可能包括天空、草地、河流等语义分割区域,而该前景图像可能不适合位于某些语义分割区域内,比如,人不适合位于天空。所以,可以确定该前景图像包括的对象可允许出现的语义分割区域的语义分割信息,以得到至少一个目标语义分割信息。然后,从该至少一个背景图像中,选择位于该前景图像对应的图像位置处的语义分割区域的语义分割信息为任一目标语义分割信息的背景图像,将选择的背景图像作为目标背景图像。
其中,可以事先存储不同类别的对象可允许出现的语义分割区域的语义分割信息,这样,可以确定该前景图像包括的对象的类别,进而能够确定得到该对象可允许出现的语义分割区域的语义分割信息。
可选地,在将该前景图像与目标背景图像进行融合时,还可以对该前景图像中对象的部位进行分割,基于分割后的各个部位,将该前景图像与目标背景图像进行融合,以使该对象的某些部位可以隐藏在目标背景图像中的某个物体之后,从而生成更有价值的图像。比如,选取人为前景图像,栅栏为背景图像,在对人和栅栏进行融合时,可以将前景图像中人的腿部和脚部区域都增加高斯透明度,再将该前景图像与栅栏进行融合,融合后的图像即表现为人的腿部和脚部区域隐藏在栅栏后。
步骤304:将该第一图像和该多个第二图像确定为样本图像。
需要说明的是,上述是以一个摄像机拍摄的视频流为例,对确定样本图像的实现过程进行介绍。实际应用中,还可以对多个摄像机拍摄的视频流进行处理来确定样本图像。对多个摄像机拍摄的视频流进行处理的实现过程与上述对视频流进行处理的实现过程类似,但值得注意的是,在生成第二图像时,需要将同一摄像机拍摄的视频流中的前景图像和背景图像进行融合。
在本申请实施例中,在对视频流中的目标对象进行分析的过程中,还可以确定第一图像。由于第一图像中存在漏误报对象,也即是,第一神经网络模型对第一图像进行目标对象的分析结果不准确,所以,通过第一图像对第一神经网络模型再次训练时更具针对性,且更有价值,从而能够提高训练效率和训练效果。另外,本申请实施例在生成第一图像的基础上,还可以获取到更多有价值的前景图像和背景图像,进而将这些前景图像和背景图像进行融合来生成第二图像,增加了生成的样本图像的数量。而且,通过对多个图像区域进行聚类来选择不同类型的前景图像,以及对多个第三图像进行聚类来选择不同类型的背景图像,这样可以使生成的第二图像的类型比较丰富,更进一步能够提升第一神经网络模型的训练效果,进而有效提升第一神经网络模型的分析性能。
图4是本申请实施例提供的一种确定样本图像的装置的结构示意图,该确定样本图像的装置可以由软件、硬件或者两者的结合实现成为计算机设备的部分或者全部,该计算机设备可以为图1所示的摄像机或者服务器。请参考图4,该装置包括:第一确定模块401、获取模块402、融合模块403和第二确定模块404。
第一确定模块401,用于对视频流进行漏误报分析,以确定第一图像和第一图像对应的漏误报结果,第一图像为视频流中存在漏误报对象的图像,该漏误报对象为漏分析的目标对象或者误分析的目标对象;
获取模块402,用于基于第一图像对应的漏误报结果,从视频流中获取多个前景图像和多个背景图像;
融合模块403,用于对多个前景图像和多个背景图像进行融合,以得到多个第二图像;
第二确定模块404,用于将第一图像和多个第二图像确定为样本图像。
可选地,第一确定模块401包括:
第一确定子模块,用于通过多个第一神经网络模型以及第二神经网络模型,对视频流中的任一帧图像进行漏误报分析,以确定该任一帧图像中是否存在漏误报对象,第二神经网络模型为能够对该任一帧图像中的所有目标对象进行分析的模型;
第二确定子模块,用于如果该任一帧图像中存在漏误报对象,则将该任一帧图像作为第一图像,并确定第一图像对应的漏误报结果。
可选地,第一确定子模块包括:
第一确定单元,用于通过多个第一神经网络模型分别确定该任一帧图像对应的第一分析结果,以得到多个第一分析结果,第一分析结果包括该任一帧图像中至少一个目标对象的位置信息和每个目标对象的第一标签;
第二确定单元,用于通过第二神经网络模型确定该任一帧图像对应的第二分析结果,第二分析结果包括该任一帧图像中至少一个目标对象的位置信息和每个目标对象的第二标签;
第三确定单元,用于基于多个第一分析结果所包括的目标对象的位置信息和第一标签,以及第二分析结果所包括的目标对象的位置信息和第二标签,确定任一帧图像中是否存在漏误报对象。
可选地,第三确定单元具体用于:
如果多个第一分析结果所包括的目标对象的位置信息和第一标签均相同,且与第二分析结果所包括的目标对象的位置信息和第二标签相同,则确定该任一帧图像中不存在漏误报对象,否则,确定该任一帧图像中存在漏误报对象。
可选地,漏误报结果包括第一图像中的至少一个漏误报对象的位置信息,以及第一图像的采集时间;
获取模块402包括:
第三确定子模块,用于基于该至少一个漏误报对象的位置信息确定出至少一个空间范围,该至少一个空间范围与该至少一个漏误报对象一一对应;
第四确定子模块,用于基于第一图像的采集时间确定出一个时间范围;
获取子模块,用于基于时间范围和该至少一个空间范围,从视频流中获取多个前景图像和多个背景图像。
可选地,获取子模块具体用于:
从视频流中获取采集时间位于时间范围内、位置位于该至少一个空间范围内且为前景的图像区域,以得到多个图像区域;
从视频流中获取采集时间位于时间范围内且不存在前景的图像,以得到多个第三图像;
对多个图像区域进行聚类,以得到多个第一聚类结果,以及对多个第三图像进行聚类,以得到多个第二聚类结果;
从多个第一聚类结果中选择多个图像区域作为多个前景图像,以及从多个第二聚类结果中选择多个第三图像作为多个背景图像。
可选地,融合模块403具体用于:
确定多个前景图像在视频流中所处的一帧图像的采集时间,以及多个前景图像在所处的一帧图像中的位置,以得到多个前景图像分别对应的采集时间和图像位置;
对多个背景图像分别进行语义分割,以确定多个背景图像分别对应的语义分割信息;
确定多个背景图像在视频流中所处的一帧图像的采集时间,以得到多个背景图像分别对应的采集时间;
基于多个前景图像分别对应的采集时间和图像位置,以及多个背景图像分别对应的采集时间和语义分割信息,对多个前景图像和多个背景图像进行融合。
在本申请实施例中,在对视频流中的目标对象进行分析的过程中,还可以确定第一图像。由于第一图像中存在漏误报对象,也即是,第一神经网络模型对第一图像进行目标对象的分析结果不准确,所以,通过第一图像对第一神经网络模型再次训练时更具针对性,且更有价值,从而能够提高训练效率和训练效果。另外,本申请实施例在生成第一图像的基础上,还可以获取到更多有价值的前景图像和背景图像,进而将这些前景图像和背景图像进行融合来生成第二图像,增加了生成的样本图像的数量。而且,通过对多个图像区域进行聚类来选择不同类型的前景图像,以及对多个第三图像进行聚类来选择不同类型的背景图像,这样可以使生成的第二图像的类型比较丰富,更进一步能够提升第一神经网络模型的训练效果,进而有效提升第一神经网络模型的分析性能。
需要说明的是:上述实施例提供的确定样本图像的装置在确定样本图像时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的确定样本图像的装置与确定样本图像的方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图5是本申请实施例提供的一种终端500的结构框图。在本申请实施例中,该终端500可以作为摄像机来使用。该终端500可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端500还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端500包括有:处理器501和存储器502。
处理器501可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器501可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器501也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器501可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器501还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器502可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器502还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器502中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器501所执行以实现本申请中方法实施例提供的确定样本图像的方法。
在一些实施例中,终端500还可选包括有:***设备接口503和至少一个***设备。处理器501、存储器502和***设备接口503之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口503相连。具体地,***设备包括:射频电路504、触摸显示屏505、摄像头506、音频电路507、定位组件508和电源509中的至少一种。
***设备接口503可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器501和存储器502。在一些实施例中,处理器501、存储器502和***设备接口503被集成在同一芯片或电路板上;在一些其他实施例中,处理器501、存储器502和***设备接口503中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路504用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路504通过电磁信号与通信网络以及其他通信设备进行通信。射频电路504将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路504包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路504可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路504还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请实施例对此不加以限定。
显示屏505用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏505是触摸显示屏时,显示屏505还具有采集在显示屏505的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器501进行处理。此时,显示屏505还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏505可以为一个,设置终端500的前面板;在另一些实施例中,显示屏505可以为至少两个,分别设置在终端500的不同表面或呈折叠设计;在再一些实施例中,显示屏505可以是柔性显示屏,设置在终端500的弯曲表面上或折叠面上。甚至,显示屏505还可以设置成非矩形的不规则图形,也即异形屏。显示屏505可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件506用于采集图像或视频。可选地,摄像头组件506包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件506还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路507可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器501进行处理,或者输入至射频电路504以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端500的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器501或射频电路504的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路507还可以包括耳机插孔。
定位组件508用于定位终端500的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件508可以是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***或俄罗斯的伽利略***的定位组件。
电源509用于为终端500中的各个组件进行供电。电源509可以是交流电、直流电、一次性电池或可充电电池。当电源509包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端500还包括有一个或多个传感器510。该一个或多个传感器510包括但不限于:加速度传感器511、陀螺仪传感器512、压力传感器513、指纹传感器514、光学传感器515以及接近传感器516。
加速度传感器511可以检测以终端500建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器511可以用于检测重力加速度在三个坐标轴上的分量。处理器501可以根据加速度传感器511采集的重力加速度信号,控制触摸显示屏505以横向视图或纵向视图进行用户界面的显示。加速度传感器511还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器512可以检测终端500的机体方向及转动角度,陀螺仪传感器512可以与加速度传感器511协同采集用户对终端500的3D动作。处理器501根据陀螺仪传感器512采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器513可以设置在终端500的侧边框和/或触摸显示屏505的下层。当压力传感器513设置在终端500的侧边框时,可以检测用户对终端500的握持信号,由处理器501根据压力传感器513采集的握持信号进行左右手识别或快捷操作。当压力传感器513设置在触摸显示屏505的下层时,由处理器501根据用户对触摸显示屏505的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器514用于采集用户的指纹,由处理器501根据指纹传感器514采集到的指纹识别用户的身份,或者,由指纹传感器514根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器501授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器514可以被设置终端500的正面、背面或侧面。当终端500上设置有物理按键或厂商Logo时,指纹传感器514可以与物理按键或厂商Logo集成在一起。
光学传感器515用于采集环境光强度。在一个实施例中,处理器501可以根据光学传感器515采集的环境光强度,控制触摸显示屏505的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏505的显示亮度;当环境光强度较低时,调低触摸显示屏505的显示亮度。在另一个实施例中,处理器501还可以根据光学传感器515采集的环境光强度,动态调整摄像头组件506的拍摄参数。
接近传感器516,也称距离传感器,通常设置在终端500的前面板。接近传感器516用于采集用户与终端500的正面之间的距离。在一个实施例中,当接近传感器516检测到用户与终端500的正面之间的距离逐渐变小时,由处理器501控制触摸显示屏505从亮屏状态切换为息屏状态;当接近传感器516检测到用户与终端500的正面之间的距离逐渐变大时,由处理器501控制触摸显示屏505从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图5中示出的结构并不构成对终端500的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图6是本申请实施例提供的一种服务器的结构示意图。服务器600包括中央处理单元(CPU)601、包括随机存取存储器(RAM)602和只读存储器(ROM)603的***存储器604,以及连接***存储器604和中央处理单元601的***总线605。服务器600还包括帮助计算机内的各个器件之间传输信息的基本输入/输出***(I/O***)606,和用于存储操作***613、应用程序614和其他程序模块615的大容量存储设备607。
基本输入/输出***606包括有用于显示信息的显示器608和用于用户输入信息的诸如鼠标、键盘之类的输入设备609。其中显示器608和输入设备609都通过连接到***总线605的输入输出控制器610连接到中央处理单元601。基本输入/输出***606还可以包括输入输出控制器610以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器610还提供输出到显示屏、打印机或其他类型的输出设备。
大容量存储设备607通过连接到***总线605的大容量存储控制器(未示出)连接到中央处理单元601。大容量存储设备607及其相关联的计算机可读介质为服务器600提供非易失性存储。也就是说,大容量存储设备607可以包括诸如硬盘或者CD-ROM驱动器之类的计算机可读介质(未示出)。
不失一般性,计算机可读介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知计算机存储介质不局限于上述几种。上述的***存储器604和大容量存储设备607可以统称为存储器。
根据本申请的各种实施例,服务器600还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器600可以通过连接在***总线605上的网络接口单元611连接到网络612,或者说,也可以使用网络接口单元611来连接到其他类型的网络或远程计算机***(未示出)。
上述存储器还包括一个或者一个以上的程序,一个或者一个以上程序存储于存储器中,被配置由CPU执行。
在一些实施例中,还提供了一种计算机可读存储介质,该存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述实施例中确定样本图像的方法的步骤。例如,所述计算机可读存储介质可以是ROM、RAM、CD-ROM、磁带、软盘和光数据存储设备等。
值得注意的是,本申请实施例提到的计算机可读存储介质可以为非易失性存储介质,换句话说,可以是非瞬时性存储介质。
应当理解的是,实现上述实施例的全部或部分步骤可以通过软件、硬件、固件或者其任意结合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。所述计算机指令可以存储在上述计算机可读存储介质中。
也即是,在一些实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述所述的确定样本图像的方法的步骤。
应当理解的是,本文提及的“至少一个”是指一个或多个,“多个”是指两个或两个以上。在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,为了便于清楚描述本申请实施例的技术方案,在本申请的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
以上所述为本申请提供的实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (16)
1.一种确定样本图像的方法,其特征在于,所述方法包括:
对视频流进行漏误报分析,以确定第一图像和所述第一图像对应的漏误报结果,所述第一图像为所述视频流中存在漏误报对象的图像,所述漏误报对象为漏分析的目标对象或者误分析的目标对象;
基于所述第一图像对应的漏误报结果,从所述视频流中获取多个前景图像和多个背景图像;
对所述多个前景图像和所述多个背景图像进行融合,以得到多个第二图像;
将所述第一图像和所述多个第二图像确定为样本图像。
2.如权利要求1所述的方法,其特征在于,所述对视频流进行漏误报分析,以确定第一图像和所述第一图像对应的漏误报结果,包括:
通过多个第一神经网络模型以及第二神经网络模型,对所述视频流中的任一帧图像进行漏误报分析,以确定所述任一帧图像中是否存在漏误报对象,所述第二神经网络模型为能够对所述任一帧图像中的所有目标对象进行分析的模型;
如果所述任一帧图像中存在漏误报对象,则将所述任一帧图像作为所述第一图像,并确定所述第一图像对应的漏误报结果。
3.如权利要求2所述的方法,其特征在于,所述通过多个第一神经网络模型以及第二神经网络模型,对所述视频流中的任一帧图像进行漏误报分析,以确定所述任一帧图像中是否存在漏误报对象,包括:
通过所述多个第一神经网络模型分别确定所述任一帧图像对应的第一分析结果,以得到多个第一分析结果,所述第一分析结果包括所述任一帧图像中至少一个目标对象的位置信息和每个目标对象的第一标签;
通过所述第二神经网络模型确定所述任一帧图像对应的第二分析结果,所述第二分析结果包括所述任一帧图像中至少一个目标对象的位置信息和每个目标对象的第二标签;
基于所述多个第一分析结果所包括的目标对象的位置信息和第一标签,以及所述第二分析结果所包括的目标对象的位置信息和第二标签,确定所述任一帧图像中是否存在漏误报对象。
4.如权利要求3所述的方法,其特征在于,所述基于所述多个第一分析结果所包括的目标对象的位置信息和第一标签,以及所述第二分析结果所包括的目标对象的位置信息和第二标签,确定所述任一帧图像中是否存在漏误报对象,包括:
如果所述多个第一分析结果所包括的目标对象的位置信息和第一标签均相同,且与所述第二分析结果所包括的目标对象的位置信息和第二标签相同,则确定所述任一帧图像中不存在漏误报对象,否则,确定所述任一帧图像中存在漏误报对象。
5.如权利要求1所述的方法,其特征在于,所述漏误报结果包括所述第一图像中的至少一个漏误报对象的位置信息,以及所述第一图像的采集时间;
所述基于所述第一图像对应的漏误报结果,从所述视频流中获取多个前景图像和多个背景图像,包括:
基于所述至少一个漏误报对象的位置信息确定出至少一个空间范围,所述至少一个空间范围与所述至少一个漏误报对象一一对应;
基于所述第一图像的采集时间确定出一个时间范围;
基于所述时间范围和所述至少一个空间范围,从所述视频流中获取所述多个前景图像和所述多个背景图像。
6.如权利要求5所述的方法,其特征在于,所述基于所述时间范围和所述至少一个空间范围,从所述视频流中获取所述多个前景图像和所述多个背景图像,包括:
从所述视频流中获取采集时间位于所述时间范围内、位置位于所述至少一个空间范围内且为前景的图像区域,以得到多个图像区域;
从所述视频流中获取采集时间位于所述时间范围内且不存在前景的图像,以得到多个第三图像;
对所述多个图像区域进行聚类,以得到多个第一聚类结果,以及对所述多个第三图像进行聚类,以得到多个第二聚类结果;
从所述多个第一聚类结果中选择多个图像区域作为所述多个前景图像,以及从所述多个第二聚类结果中选择多个第三图像作为所述多个背景图像。
7.如权利要求1所述的方法,其特征在于,所述对所述多个前景图像和所述多个背景图像进行融合,包括:
确定所述多个前景图像在所述视频流中所处的一帧图像的采集时间,以及所述多个前景图像在所处的一帧图像中的位置,以得到所述多个前景图像分别对应的采集时间和图像位置;
对所述多个背景图像分别进行语义分割,以确定所述多个背景图像分别对应的语义分割信息;
确定所述多个背景图像在所述视频流中所处的一帧图像的采集时间,以得到所述多个背景图像分别对应的采集时间;
基于所述多个前景图像分别对应的采集时间和图像位置,以及所述多个背景图像分别对应的采集时间和语义分割信息,对所述多个前景图像和所述多个背景图像进行融合。
8.一种确定样本图像的装置,其特征在于,所述装置包括:
第一确定模块,用于对视频流进行漏误报分析,以确定第一图像和所述第一图像对应的漏误报结果,所述第一图像为所述视频流中存在漏误报对象的图像,所述漏误报对象为漏分析的目标对象或者误分析的目标对象;
获取模块,用于基于所述第一图像对应的漏误报结果,从所述视频流中获取多个前景图像和多个背景图像;
融合模块,用于对所述多个前景图像和所述多个背景图像进行融合,以得到多个第二图像;
第二确定模块,用于将所述第一图像和所述多个第二图像确定为样本图像。
9.如权利要求8所述的装置,其特征在于,所述第一确定模块包括:
第一确定子模块,用于通过多个第一神经网络模型以及第二神经网络模型,对所述视频流中的任一帧图像进行漏误报分析,以确定所述任一帧图像中是否存在漏误报对象,所述第二神经网络模型为能够对所述任一帧图像中的所有目标对象进行分析的模型;
第二确定子模块,用于如果所述任一帧图像中存在漏误报对象,则将所述任一帧图像作为所述第一图像,并确定所述第一图像对应的漏误报结果。
10.如权利要求9所述的装置,其特征在于,所述第一确定子模块包括:
第一确定单元,用于通过所述多个第一神经网络模型分别确定所述任一帧图像对应的第一分析结果,以得到多个第一分析结果,所述第一分析结果包括所述任一帧图像中至少一个目标对象的位置信息和每个目标对象的第一标签;
第二确定单元,用于通过所述第二神经网络模型确定所述任一帧图像对应的第二分析结果,所述第二分析结果包括所述任一帧图像中至少一个目标对象的位置信息和每个目标对象的第二标签;
第三确定单元,用于基于所述多个第一分析结果所包括的目标对象的位置信息和第一标签,以及所述第二分析结果所包括的目标对象的位置信息和第二标签,确定所述任一帧图像中是否存在漏误报对象。
11.如权利要求10所述的装置,其特征在于,所述第三确定单元具体用于:
如果所述多个第一分析结果所包括的目标对象的位置信息和第一标签均相同,且与所述第二分析结果所包括的目标对象的位置信息和第二标签相同,则确定所述任一帧图像中不存在漏误报对象,否则,确定所述任一帧图像中存在漏误报对象。
12.如权利要求8所述的装置,其特征在于,所述漏误报结果包括所述第一图像中的至少一个漏误报对象的位置信息,以及所述第一图像的采集时间;
所述获取模块包括:
第三确定子模块,用于基于所述至少一个漏误报对象的位置信息确定出至少一个空间范围,所述至少一个空间范围与所述至少一个漏误报对象一一对应;
第四确定子模块,用于基于所述第一图像的采集时间确定出一个时间范围;
获取子模块,用于基于所述时间范围和所述至少一个空间范围,从所述视频流中获取所述多个前景图像和所述多个背景图像。
13.如权利要求12所述的装置,其特征在于,所述获取子模块具体用于:
从所述视频流中获取采集时间位于所述时间范围内、位置位于所述至少一个空间范围内且为前景的图像区域,以得到多个图像区域;
从所述视频流中获取采集时间位于所述时间范围内且不存在前景的图像,以得到多个第三图像;
对所述多个图像区域进行聚类,以得到多个第一聚类结果,以及对所述多个第三图像进行聚类,以得到多个第二聚类结果;
从所述多个第一聚类结果中选择多个图像区域作为所述多个前景图像,以及从所述多个第二聚类结果中选择多个第三图像作为所述多个背景图像。
14.如权利要求8所述的装置,其特征在于,所述融合模块具体用于:
确定所述多个前景图像在所述视频流中所处的一帧图像的采集时间,以及所述多个前景图像在所处的一帧图像中的位置,以得到所述多个前景图像分别对应的采集时间和图像位置;
对所述多个背景图像分别进行语义分割,以确定所述多个背景图像分别对应的语义分割信息;
确定所述多个背景图像在所述视频流中所处的一帧图像的采集时间,以得到所述多个背景图像分别对应的采集时间;
基于所述多个前景图像分别对应的采集时间和图像位置,以及所述多个背景图像分别对应的采集时间和语义分割信息,对所述多个前景图像和所述多个背景图像进行融合。
15.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器用于存放计算机程序,所述处理器用于执行所述存储器上所存放的计算机程序,以实现上述权利要求1-7任一所述方法的步骤。
16.一种计算机可读存储介质,其特征在于,所述存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-7任一所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111235744.8A CN113936240A (zh) | 2021-10-22 | 2021-10-22 | 确定样本图像的方法、装置、设备及存储介质 |
PCT/CN2022/126678 WO2023066373A1 (zh) | 2021-10-22 | 2022-10-21 | 确定样本图像的方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111235744.8A CN113936240A (zh) | 2021-10-22 | 2021-10-22 | 确定样本图像的方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113936240A true CN113936240A (zh) | 2022-01-14 |
Family
ID=79283859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111235744.8A Pending CN113936240A (zh) | 2021-10-22 | 2021-10-22 | 确定样本图像的方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113936240A (zh) |
WO (1) | WO2023066373A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023066373A1 (zh) * | 2021-10-22 | 2023-04-27 | 杭州海康威视数字技术股份有限公司 | 确定样本图像的方法、装置、设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7079151B1 (en) * | 2002-02-08 | 2006-07-18 | Adobe Systems Incorporated | Compositing graphical objects |
CN103324953B (zh) * | 2013-05-29 | 2016-05-25 | 深圳市智美达科技股份有限公司 | 视频监控多目标检测与跟踪方法 |
CN108154518B (zh) * | 2017-12-11 | 2020-09-08 | 广州华多网络科技有限公司 | 一种图像处理的方法、装置、存储介质及电子设备 |
CN108460414B (zh) * | 2018-02-27 | 2019-09-17 | 北京三快在线科技有限公司 | 训练样本图像的生成方法、装置及电子设备 |
CN111563468B (zh) * | 2020-05-13 | 2023-04-07 | 电子科技大学 | 一种基于神经网络注意力的驾驶员异常行为检测方法 |
CN113936240A (zh) * | 2021-10-22 | 2022-01-14 | 杭州海康威视数字技术股份有限公司 | 确定样本图像的方法、装置、设备及存储介质 |
-
2021
- 2021-10-22 CN CN202111235744.8A patent/CN113936240A/zh active Pending
-
2022
- 2022-10-21 WO PCT/CN2022/126678 patent/WO2023066373A1/zh unknown
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023066373A1 (zh) * | 2021-10-22 | 2023-04-27 | 杭州海康威视数字技术股份有限公司 | 确定样本图像的方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2023066373A1 (zh) | 2023-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110807361B (zh) | 人体识别方法、装置、计算机设备及存储介质 | |
CN110650379B (zh) | 视频摘要生成方法、装置、电子设备及存储介质 | |
CN110490179B (zh) | 车牌识别方法、装置及存储介质 | |
CN110839128B (zh) | 拍照行为检测方法、装置及存储介质 | |
CN111104980B (zh) | 确定分类结果的方法、装置、设备及存储介质 | |
CN108288032B (zh) | 动作特征获取方法、装置及存储介质 | |
CN111127509B (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
CN112084811B (zh) | 身份信息的确定方法、装置及存储介质 | |
CN110290426B (zh) | 展示资源的方法、装置、设备及存储介质 | |
CN111432245B (zh) | 多媒体信息的播放控制方法、装置、设备及存储介质 | |
CN111027490A (zh) | 人脸属性识别方法及装置、存储介质 | |
CN112749613A (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
CN111178343A (zh) | 基于人工智能的多媒体资源检测方法、装置、设备及介质 | |
CN111738365B (zh) | 图像分类模型训练方法、装置、计算机设备及存储介质 | |
CN111754386A (zh) | 图像区域屏蔽方法、装置、设备及存储介质 | |
CN110647881A (zh) | 确定图像对应的卡片类型的方法、装置、设备及存储介质 | |
WO2023066373A1 (zh) | 确定样本图像的方法、装置、设备及存储介质 | |
CN110728167A (zh) | 文本检测方法、装置及计算机可读存储介质 | |
CN111353513B (zh) | 一种目标人群筛选的方法、装置、终端和存储介质 | |
CN111753813A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN110853124A (zh) | 生成gif动态图的方法、装置、电子设备及介质 | |
CN111611414A (zh) | 车辆检索方法、装置及存储介质 | |
CN110728275B (zh) | 车牌识别方法、装置及存储介质 | |
CN115221888A (zh) | 实体提及的识别方法、装置、设备及存储介质 | |
CN112749583A (zh) | 人脸图像分组方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |