CN116071614A - 样本数据处理方法、相关设备及存储介质 - Google Patents
样本数据处理方法、相关设备及存储介质 Download PDFInfo
- Publication number
- CN116071614A CN116071614A CN202211734467.XA CN202211734467A CN116071614A CN 116071614 A CN116071614 A CN 116071614A CN 202211734467 A CN202211734467 A CN 202211734467A CN 116071614 A CN116071614 A CN 116071614A
- Authority
- CN
- China
- Prior art keywords
- image
- images
- target object
- background
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003860 storage Methods 0.000 title claims abstract description 54
- 238000003672 processing method Methods 0.000 title claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 112
- 238000000034 method Methods 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 22
- 230000004927 fusion Effects 0.000 claims abstract description 20
- 238000002372 labelling Methods 0.000 claims abstract description 14
- 238000004590 computer program Methods 0.000 claims description 11
- 230000008439 repair process Effects 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 description 41
- 230000006870 function Effects 0.000 description 23
- 238000013473 artificial intelligence Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000007726 management method Methods 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 230000008878 coupling Effects 0.000 description 6
- 238000010168 coupling process Methods 0.000 description 6
- 238000005859 coupling reaction Methods 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Image Processing (AREA)
Abstract
本申请实施例公开了一种样本数据处理方法、相关设备及存储介质。方法包括:针对预设的对象数据集中的各目标对象图像,将目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,并记录目标对象图像的目标添加位置,背景数据集包括多种预设场景下的背景图像及各背景图像对应的掩膜区域,目标对象图像携带有目标对象标签;对各第一图像中的预设掩膜区域分别进行图像融合修复处理,得到多个第二图像;根据目标对象标签以及目标添加位置分别对各第二图像进行自动标注处理,得到多个目标样本数据;其中,多个目标样本数据用于对预设的自动驾驶模型进行训练。通过本方案可以丰富预设场景下的样本数据。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及一种样本数据处理方法、相关设备及存储介质。
背景技术
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学。
随着CV行业不断蓬勃发展,CV已经在自动驾驶行业取得了不错的效果,然而,目前大多数技术研究人员重点还是主要关注算法与硬件,很少有人去专门解决数据本身的问题,导致在一些恶劣场景下CV的能力仍不可靠。
例如,雾天、雨天、雪天以及黑夜的室外CV表现能力通常较差,导致比如视觉为主导的自动驾驶在该场景下表现一般。
为了让计算机视觉模型更好地学***衡,然而特殊场景(例如特殊天气)下的训练数据较少,虽然当前自动驾驶模型中的CV算法已经有了很大的提升,学术界已经领先于工业界很大距离,但是受限于特殊场景中训练数据的缺乏,因此,对于特殊场景下自动驾驶模型的训练数据需求很大。
发明内容
本申请实施例提供了一种样本数据处理方法、相关设备及存储介质,可以丰富预设场景下的样本数据。
第一方面,本申请实施例提供了一种样本数据处理方法,其包括:
针对预设的对象数据集中的各目标对象图像,将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,并记录所述目标对象图像的目标添加位置,所述背景数据集包括多种预设场景下的所述背景图像及各背景图像对应的掩膜区域,所述目标对象图像携带有目标对象标签;
对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像;
根据所述目标对象标签以及所述目标添加位置分别对各所述第二图像进行自动标注处理,得到多个目标样本数据;其中,多个所述目标样本数据用于对预设的自动驾驶模型进行训练。
第二方面,本申请实施例还提供了一种样本数据处理装置,所述样本数据处理装置包括收发模块以及处理模块,其中:
所述收发模块,用于获取对象数据集以及背景数据集;
所述处理模块,用于针对所述对象数据集中的各目标对象图像,将所述目标对象图像分别添加至所述背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,并记录所述目标对象图像的目标添加位置,所述背景数据集包括多种预设场景下的所述背景图像及各背景图像对应的掩膜区域,所述目标对象图像携带有目标对象标签;对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像;根据所述目标对象标签以及所述目标添加位置分别对各所述第二图像进行自动标注处理,得到多个目标样本数据;其中,多个所述目标样本数据用于对预设的自动驾驶模型进行训练。
在一些实施例中,所述处理模块在执行所述将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像步骤时,具体用于:
将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内;
确定所述目标对象图像的边缘像素点以及所述背景图像中与所述边缘像素点重叠的背景像素点;
在各所述背景图像中,对所述边缘像素点与所述背景像素点进行像素加权平均处理,得到多个所述第一图像。
在一些实施例中,所述处理模块在执行所述将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内步骤之前,还用于:
对所述目标对象图像进行图像增强处理,得到多个候选目标图像,所述图像增强处理包括尺度变换处理、旋转处理以及翻转处理中的至少一个;
所述将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内,包括:
针对各所述候选目标图像,将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内。
在一些实施例中,所述处理模块在执行所述对所述目标对象图像进行图像增强处理,得到多个候选目标图像步骤之前,还用于:
建立所述目标对象图像与所述背景图像的对应关系;
根据所述对应关系对所述目标对象与所述背景图像进行归一化处理;
所述针对各所述候选目标图像,将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内,包括:
针对各所述候选目标图像,基于所述对应关系将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内。
在一些实施例中,所述处理模块在执行所述对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像步骤时,具体用于:
针对各所述第一图像,确定所述预设掩膜区域的第一亮度、第一对比度以及第一饱和度,以及确定与所述预设掩膜区域上的所述目标对象图像的第二亮度、第二对比度以及第二饱和度;
根据所述第一亮度、第一对比度、第一饱和度、第二亮度、第二对比度以及第二饱和度对所述预设掩膜区域分别进行图像融合修复处理,得到多个所述第二图像。
在一些实施例中,所述处理模块在执行所述将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像步骤之前,还用于:
获取不同目标对象分别对应的多张初始图像,所述目标对象包括行人、机动车以及非机动车;
对各所述初始图像中所述目标对象对应的图像进行裁剪,得到多张所述目标对象图像;
为各所述目标对象图像分别添加对应的所述目标对象标签,构造所述对象数据集。
在一些实施例中,所述背景图像为包含车道图像的背景图像,在一些实施例中,所述处理模块在执行所述将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像步骤之前,还用于:
获取多种预设场景下的所述背景图像,多种所述预设场景包括雾天道路场景、雨天道路场景、雪天道路场景以及黑夜道路场景;
对所述背景图像中的道路图像进行分割标注,并确定所述道路图像对应的所述预设掩膜区域,构建所述背景数据集。
第三方面,本申请实施例还提供了一种计算机设备,其包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时可实现上述方法。
相较于现有技术,本申请实施例提供的方案中,一方面,本申请预设有多种预设场景下的背景图像,以及多种目标对象图像,并将目标对象图像添加至背景图像中的预设掩膜区域内,并对添加目标对象图像的背景图像进行融合修复等图像处理,从而合成得到预设场景下的目标样本数据,可见,通过本方案可以丰富预设场景下的样本数据;另一方面,本申请后续可使用目标样本数据用于对预设的自动驾驶模型进行训练,加入预设场景下的样本数据对模型进行训练,使得训练数据更加均衡,提高自动驾驶模型的对图像识别的准确率。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的样本数据处理方法的应用场景示意图;
图2为本申请实施例提供的构建对象数据集的一个流程示意图;
图3为本申请实施例提供的构建背景数据集的一个流程示意图;
图4为本申请实施例提供的样本数据处理方法的流程示意图;
图5为本申请实施例提供的样本数据处理装置的示意性框图;
图6为本申请实施例中服务器的一种结构示意图;
图7为本申请实施例中终端的一种结构示意图;
图8为本申请实施例中服务器的一种结构示意图。
具体实施方式
本申请实施例的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或模块的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或模块,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或模块,本申请实施例中所出现的模块的划分,仅仅是一种逻辑上的划分,实际应用中实现时可以有另外的划分方式,例如多个模块可以结合成或集成在另一个***中,或一些特征可以忽略,或不执行,另外,所显示的或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,模块之间的间接耦合或通信连接可以是电性或其他类似的形式,本申请实施例中均不作限定。并且,作为分离部件说明的模块或子模块可以是也可以不是物理上的分离,可以是也可以不是物理模块,或者可以分布到多个电路模块中,可以根据实际的需要选择其中的部分或全部模块来实现本申请实施例方案的目的。
本申请实施例供了一种样本数据处理方法、相关设备及存储介质,该样本数据处理方法的执行主体可以是本申请实施例提供的样本数据处理装置,或者集成了该样本数据处理装置的计算机设备,其中,该样本数据处理装置可以采用硬件或者软件的方式实现,该计算机设备可以为终端或服务器。
当该计算机设备为服务器时,该服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式***,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
当该计算机设备为终端时,该终端可以包括:智能手机、平板电脑、笔记本电脑、桌上型电脑、智能电视、智能音箱、个人数字助理(英文全称:Personal Digital Assistant,英文简称:PDA)、台式计算机、智能手表等携带多媒体数据处理功能(例如,视频数据播放功能、音乐数据播放功能)的智能终端,但并不局限于此。
本申请实施例的方案可基于人工智能技术实现,具体来说涉及人工智能技术中的计算机视觉技术技术领域和云技术中的云计算、云存储和数据库等领域,下面将分别进行介绍。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
计算机视觉技术(Computer Vision,CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能***。计算机视觉技术通常包括图像处理、人脸识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
本申请实施例的方案可基于云技术实现,具体来说涉及云技术中的云计算、云存储和数据库等技术领域,下面将分别进行介绍。
云技术(Cloud technology)是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术(Cloudtechnology)基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络***的后台服务需要大量的计算、存储资源,如视频网站、图像类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台***进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的***后盾支撑,只能通过云计算来实现。本申请实施例可通过云技术对识别结果进行保存。
云存储(cloud storage)是在云计算概念上延伸和发展出来的一个新的概念,分布式云存储***(以下简称存储***)是指通过集群应用、网格技术以及分布存储文件***等功能,将网络中大量各种不同类型的存储设备(存储设备也称之为存储节点)通过应用软件或应用接口集合起来协同工作,共同对外提供数据存储和业务访问功能的一个存储***。在本申请实施例中,可将网络配置等信息均保存在该存储***中,便于服务器调取。
目前,存储***的存储方法为:创建逻辑卷,在创建逻辑卷时,就为每个逻辑卷分配物理存储空间,该物理存储空间可能是某个存储设备或者某几个存储设备的磁盘组成。客户端在某一逻辑卷上存储数据,也就是将数据存储在文件***上,文件***将数据分成许多部分,每一部分是一个对象,对象不仅包含数据而且还包含数据标识(ID,ID entity)等额外的信息,文件***将每个对象分别写入该逻辑卷的物理存储空间,且文件***会记录每个对象的存储位置信息,从而当客户端请求访问数据时,文件***能够根据每个对象的存储位置信息让客户端对数据进行访问。
存储***为逻辑卷分配物理存储空间的过程,具体为:按照对存储于逻辑卷的对象的容量估量(该估量往往相对于实际要存储的对象的容量有很大余量)和独立冗余磁盘阵列(RAID,Redundant Array of Independent Disk)的组别,预先将物理存储空间划分成分条,一个逻辑卷可以理解为一个分条,从而为逻辑卷分配了物理存储空间。
数据库(Database),简而言之可视为电子化的文件柜——存储电子文件的处所,用户可以对文件中的数据进行新增、查询、更新、删除等操作。所谓“数据库”是以一定方式储存在一起、能与多个用户共享、具有尽可能小的冗余度、与应用程序彼此独立的数据集合。
数据库管理***(英语:Database Management System,简称DBMS)是为管理数据库而设计的电脑软件***,一般具有存储、截取、安全保障、备份等基础功能。数据库管理***可以依据它所支持的数据库模型来作分类,例如关系式、XML(Extensible MarkupLanguage,即可扩展标记语言);或依据所支持的计算机类型来作分类,例如服务器群集、移动电话;或依据所用查询语言来作分类,例如SQL(结构化查询语言,Structured QueryLanguage)、XQuery;或依据性能冲量重点来作分类,例如最大规模、最高运行速度;亦或其他的分类方式。不论使用哪种分类方式,一些DBMS能够跨类别,例如,同时支持多种查询语言。在本申请实施例中,可将识别结果存储在该数据库管理***中,便于服务器调取。
其中,需要特别说明的是,本申请实施例涉及的服务终端,可以是指向服务终端提供语音和/或数据连通性的设备,具有无线连接功能的手持式设备、或连接到无线调制解调器的其他处理设备。例如移动电话(或称为“蜂窝”电话)和具有移动终端的计算机,例如,可以是便携式、袖珍式、手持式、计算机内置的或者车载的移动装置,它们与无线接入网交换语音和/或数据。例如,个人通信业务(英文全称:Personal Communication Service,英文简称:PCS)电话、无绳电话、会话发起协议(SIP)话机、无线本地环路(Wireless LocalLoop,英文简称:WLL)站、个人数字助理(英文全称:Personal Digital Assistant,英文简称:PDA)等设备。
请参阅图1,图1为本申请实施例提供的样本数据处理方法的应用场景示意图。该样本数据处理方法应用于图1中的计算机设备10中,该计算机设备10针对预设的对象数据集中的各目标对象图像,将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,并记录所述目标对象图像的目标添加位置,所述背景数据集包括多种预设场景下的所述背景图像及各背景图像对应的掩膜区域,所述目标对象图像携带有目标对象标签;对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像;根据所述目标对象标签以及所述目标添加位置分别对各所述第二图像进行自动标注处理,得到多个目标样本数据;其中,多个所述目标样本数据用于对预设的自动驾驶模型进行训练。
需要说明的是,在一些实施例中,在进行样本数据合成之前,样本数据处理装置首先要进行数据准备工作:构建对象数据集以及背景数据集:
构建对象数据集:
在一些实施例中,请参阅图2,图2为本申请中构建对象数据集的流程示意图,包括S110至步骤S130:
S110、获取不同目标对象分别对应的多张初始图像。
其中,所述目标对象包括行人、机动车以及非机动车,更具体地,该行人包括不同身高、身材、年龄段以及穿着的行人,机动车包括多种车型(如跑车、轿车、面包车以及卡车等)以及多种颜色的机动车,非机动车包括多种非机动车类型多种颜色的非机动车。
具体地,该初始图像可以从开源数据集和/或通过设置在马路上的图像采集装置获取得到。
S120、对各所述初始图像中所述目标对象对应的图像进行裁剪,得到多张所述目标对象图像。
本实施例中,获取到初始图像之后,通过预设的对象识别模型识别得到目标对象的对象边缘,然后根据识别得到的对象边缘对图像进行裁剪,从而将目标对象从初始图像中裁剪出来,得到目标对象图像。
S130、为各所述目标对象图像分别添加对应的所述目标对象标签,构造所述对象数据集。
裁剪得到目标对象图像之后,还需要分别为各目标对象图像添加对应的对象标签,例如,行人、机动车或非机动车对应的标签。
具体地,在一些实施例中,可以通过对象识别模型对目标对象图像进行识别,得到初始对象标签,然后再由人工确定初始对象标签的准确性,若初始对象标签准确,则将该初始对象标签确定为对应目标对象图像的目标对象标签,并为对应目标对象图像添加目标对象标签,若初始对象标签不准确,则人工输入正确的目标对象标签(从对象识别模型输出的列表从选取),为对应目标对象图像添加正确的目标对象标签。
可见,本实施例在构建对象数据集时,可实现半自动的标签标注,提高目标对象标签的添加效率。
构建背景数据集:
在一些实施例中,请参阅图3,图3为本申请中构建背景数据集的流程示意图,包括步骤S210以及步骤S220:
S210、获取多种预设场景下的所述背景图像。
其中,所述背景图像为包含车道图像的背景图像,多种所述预设场景包括雾天道路场景、雨天道路场景、雪天道路场景以及黑夜道路场景。
具体地,该初始图像可以从开源数据集和/或通过设置在马路上的图像采集装置获取得到。
S220、对所述背景图像中的道路图像进行分割标注,并确定所述道路图像对应的所述预设掩膜区域,构建所述背景数据集。
本实施例中,获取到多种预设场景下的背景图像,将识别出背景图像中的道路图像,并根据道路图像的图像边缘对道路图像进行分割标注,确定道路图像对应的预设掩膜区域(即mask信息),以确定道路在背景图像中的位置。
可见,本实施例中会预先确定道路图像中道路对应的掩膜区域,后续在生成样本数据的时候,可以直接在该预设掩膜区域上添加目标对象图像,从而提高样本数据的合成效率。
合成样本数据:
请参阅图4,图4是本申请实施例提供的样本数据处理方法的流程示意图。如图4所示,该方法包括以下步骤S310-S330。
S310、针对预设的对象数据集中的各目标对象图像,将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,并记录所述目标对象图像的目标添加位置。
其中,所述背景数据集包括多种预设场景下的所述背景图像及各背景图像对应的掩膜区域,所述目标对象图像携带有目标对象标签。
具体地,为了提高目标对象图像在背景图像中的融合效果,所述将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,包括:
将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内;确定所述目标对象图像的边缘像素点以及所述背景图像中与所述边缘像素点重叠的背景像素点;在各所述背景图像中,对所述边缘像素点与所述背景像素点进行像素加权平均处理,得到多个所述第一图像。
可见,本实施例在将目标对象图像添加至背景图像中时,对目标对象图像的边缘像素点以及所述背景图像中与所述边缘像素点重叠的背景像素点进行像素加权平均处理,从而增加目标对象图像添加至背景图像中的平滑度。
需要说明的是,本实施例中一张背景图像中的预设掩膜区域内可以添加一张或多张目标对象图像。
在一些实施例中,为进一步丰富本实施例中的目标对象图像,在所述将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内之前,所述方法还包括:对所述目标对象图像进行图像增强处理,得到多个候选目标图像(包括目标对象图像),其中,所述图像增强处理包括尺度变换处理、旋转处理以及翻转处理中的至少一个。
此时,所述将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内,包括:针对各所述候选目标图像,将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内。
即针对数据增强处理得到的每个候选目标图像,都要分别复制至对应背景图像的预设掩膜区域内。
在一些实施例中,为了提高数据合成的质量,所述对所述目标对象图像进行图像增强处理,得到多个候选目标图像之前,所述方法还包括:建立所述目标对象图像与所述背景图像的对应关系;根据所述对应关系对所述目标对象与所述背景图像进行归一化处理。
此时,所述针对各所述候选目标图像,将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内,包括:针对各所述候选目标图像,基于所述对应关系将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内。
S320、对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像。
具体地,针对各所述第一图像,确定所述预设掩膜区域的第一亮度、第一对比度以及第一饱和度,以及确定与所述预设掩膜区域上的所述目标对象图像的第二亮度、第二对比度以及第二饱和度;然后根据所述第一亮度、第一对比度、第一饱和度、第二亮度、第二对比度以及第二饱和度对所述预设掩膜区域分别进行图像融合修复处理,得到多个所述第二图像。
例如,计算第一亮度以及第二亮度的平均亮度,然后将该平均亮度设置为预设掩膜区域以及该预设掩膜区域上的目标对象图像的亮度,同理,将第一对比度以及第二对比度的平均对比度设置为预设掩膜区域以及该预设掩膜区域上的目标对象图像的对比度,将第一饱和度以及第二饱和度的平均饱和度设置为预设掩膜区域以及该预设掩膜区域上的目标对象图像的饱和度。
S330、根据所述目标对象标签以及所述目标添加位置分别对各所述第二图像进行自动标注处理,得到多个目标样本数据。
其中,多个所述目标样本数据用于对预设的自动驾驶模型进行训练。
本实施例中,该目标添加位置为目标对象图像处于第二图像的位置,本实施例需要在第二图像的目标添加位置上添加对应的目标对象标签,实现第二图像的自动标注,得到对应的目标样本数据。
进一步地,本实施例中,得到目标样本数据之后,将该目标样本数据加入样本数据集中,其中,该样本数据集可以为coco数据集(全称:Common Objects in COntex,是微软团队提供的一个可以用来进行图像识别的数据集)或voc数据集(是目标检测经常用的一个数据集)。
其中,样本数据集中包含有合成的预设场景对应的目标样本数据,以及其他场景对应的样本数据,后续使用该样本数据集中的样本数据进行对预设的自动驾驶模型进行训练。
综上所述,本申请实施例提供的方案中,一方面,本申请预设有多种预设场景下的背景图像,以及多种目标对象图像,并将目标对象图像添加至背景图像中的预设掩膜区域内,并对添加目标对象图像的背景图像进行融合修复等图像处理,从而合成得到预设场景下的目标样本数据,可见,通过本方案可以丰富预设场景下的样本数据;另一方面,本申请后续可使用目标样本数据用于对预设的自动驾驶模型进行训练,加入预设场景下的样本数据对模型进行训练,使得训练数据更加均衡,提高自动驾驶模型的对图像识别的准确率。
图5是本申请实施例提供的一种样本数据处理装置的示意性框图。如图5所示,对应于以上样本数据处理方法,本申请还提供一种样本数据处理装置。该样本数据处理装置包括用于执行上述样本数据处理方法的单元,该装置可以被配置于终端或服务器中。具体地,请参阅图5,该样本数据处理装置500包括收发模块501以及处理模块502,其中:
所述收发模块501,用于获取对象数据集以及背景数据集;
所述处理模块502,用于针对所述对象数据集中的各目标对象图像,将所述目标对象图像分别添加至所述背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,并记录所述目标对象图像的目标添加位置,所述背景数据集包括多种预设场景下的所述背景图像及各背景图像对应的掩膜区域,所述目标对象图像携带有目标对象标签;对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像;根据所述目标对象标签以及所述目标添加位置分别对各所述第二图像进行自动标注处理,得到多个目标样本数据;其中,多个所述目标样本数据用于对预设的自动驾驶模型进行训练。
在一些实施例中,所述处理模块502在执行所述将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像步骤时,具体用于:
将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内;
确定所述目标对象图像的边缘像素点以及所述背景图像中与所述边缘像素点重叠的背景像素点;
在各所述背景图像中,对所述边缘像素点与所述背景像素点进行像素加权平均处理,得到多个所述第一图像。
在一些实施例中,所述处理模块502在执行所述将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内步骤之前,还用于:
对所述目标对象图像进行图像增强处理,得到多个候选目标图像,所述图像增强处理包括尺度变换处理、旋转处理以及翻转处理中的至少一个;
所述将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内,包括:
针对各所述候选目标图像,将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内。
在一些实施例中,所述处理模块502在执行所述对所述目标对象图像进行图像增强处理,得到多个候选目标图像步骤之前,还用于:
建立所述目标对象图像与所述背景图像的对应关系;
根据所述对应关系对所述目标对象与所述背景图像进行归一化处理;
所述针对各所述候选目标图像,将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内,包括:
针对各所述候选目标图像,基于所述对应关系将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内。
在一些实施例中,所述处理模块502在执行所述对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像步骤时,具体用于:
针对各所述第一图像,确定所述预设掩膜区域的第一亮度、第一对比度以及第一饱和度,以及确定与所述预设掩膜区域上的所述目标对象图像的第二亮度、第二对比度以及第二饱和度;
根据所述第一亮度、第一对比度、第一饱和度、第二亮度、第二对比度以及第二饱和度对所述预设掩膜区域分别进行图像融合修复处理,得到多个所述第二图像。
在一些实施例中,所述处理模块502在执行所述将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像步骤之前,还用于:
获取不同目标对象分别对应的多张初始图像,所述目标对象包括行人、机动车以及非机动车;
对各所述初始图像中所述目标对象对应的图像进行裁剪,得到多张所述目标对象图像;
为各所述目标对象图像分别添加对应的所述目标对象标签,构造所述对象数据集。
在一些实施例中,所述背景图像为包含车道图像的背景图像,在一些实施例中,所述处理模块502在执行所述将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像步骤之前,还用于:
获取多种预设场景下的所述背景图像,多种所述预设场景包括雾天道路场景、雨天道路场景、雪天道路场景以及黑夜道路场景;
对所述背景图像中的道路图像进行分割标注,并确定所述道路图像对应的所述预设掩膜区域,构建所述背景数据集。
综上所述,本申请实施例提供的方案中,一方面,本申请预设有多种预设场景下的背景图像,以及多种目标对象图像,并将目标对象图像添加至背景图像中的预设掩膜区域内,并对添加目标对象图像的背景图像进行融合修复等图像处理,从而合成得到预设场景下的目标样本数据,可见,通过本方案可以丰富预设场景下的样本数据;另一方面,本申请后续可使用目标样本数据用于对预设的自动驾驶模型进行训练,加入预设场景下的样本数据对模型进行训练,使得训练数据更加均衡,提高自动驾驶模型的对图像识别的准确率。
上面从模块化功能实体的角度对本申请实施例中的样本数据处理装置进行了描述,下面从硬件处理的角度分别对本申请实施例中的样本数据处理装置进行描述。
需要说明的是,在本申请实施例中的各实施例(包括图5所示的各实施例)中所有的收发模块对应的实体设备可以为收发器,所有的处理模块对应的实体设备可以为处理器。当其中一种装置具有如图5所示的结构时,处理器、收发器和存储器实现前述对应该装置的装置实施例提供的所述收发模块和所述处理模块相同或相似的功能,图6中的存储器存储处理器执行上述样本数据处理装置方法时需要调用的计算机程序。
图5所示的装置可以具有如图6所示的结构,当图5所示的装置具有如图6所示的结构时,图6中的处理器能够实现前述对应该装置的装置实施例提供的所述处理模块相同或相似的功能,图6中的收发器能够实现前述对应该装置的装置实施例提供的所述收发模块相同或相似的功能,图6中的存储器存储处理器执行上述样本数据处理方法时需要调用的计算机程序。在本申请实施例图5所示的实施例中的所述收发模块所对应的实体设备可以为输入输出接口,所述处理模块对应的实体设备可以为处理器。
本申请实施例还提供了一种终端,如图7所示,为了便于说明,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。该终端可以为包括手机、平板电脑、个人数字助理(英文全称:Personal Digital Assistant,英文简称:PDA)、销售终端(英文全称:Point of Sales,英文简称:POS)、车载电脑等任意终端,以终端为手机为例:
图7示出的是与本申请实施例提供的终端相关的手机的部分结构的框图。参考图7,手机包括:射频(英文全称:Radio Frequency,英文简称:RF)电路55、存储器520、输入单元530、显示单元540、传感器550、音频电路560、无线保真(英文全称:wireless fidelity,英文简称:Wi-Fi)模块570、处理器580、以及电源590等部件。本领域技术人员可以理解,图7中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图7对手机的各个构成部件进行具体的介绍:
RF电路55可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器580处理;另外,将设计上行的数据发送给基站。通常,RF电路55包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(英文全称:Low NoiseAmplifier,英文简称:LNA)、双工器等。此外,RF电路55还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯***(英文全称:Global System of Mobile communication,英文简称:GSM)、通用分组无线服务(英文全称:General Packet Radio Service,英文简称:GPRS)、码分多址(英文全称:Code Division Multiple Access,英文简称:CDMA)、宽带码分多址(英文全称:WidebandCode Division Multiple Access,英文简称:WCDMA)、长期演进(英文全称:Long TermEvolution,英文简称:LTE)、电子邮件、短消息服务(英文全称:Short Messaging Service,英文简称:SMS)等。
存储器520可用于存储软件程序以及模块,处理器580通过运行存储在存储器520的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器520可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器520可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元530可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元530可包括触控面板531以及其他输入设备532。触控面板531,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板531上或在触控面板531附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板531可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器580,并能接收处理器580发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板531。除了触控面板531,输入单元530还可以包括其他输入设备532。具体地,其他输入设备532可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元540可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元540可包括显示面板541,可选的,可以采用液晶显示器(英文全称:LiquidCrystal Display,英文简称:LCD)、有机发光二极管(英文全称:Organic Light-EmittingDiode,英文简称:OLED)等形式来配置显示面板541。进一步的,触控面板531可覆盖显示面板541,当触控面板531检测到在其上或附近的触摸操作后,传送给处理器580以确定触摸事件的类型,随后处理器580根据触摸事件的类型在显示面板541上提供相应的视觉输出。虽然在图7中,触控面板531与显示面板541是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板531与显示面板541集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器550,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板541的亮度,接近传感器可在手机移动到耳边时,关闭显示面板541和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路560、扬声器561,传声器562可提供用户与手机之间的音频接口。音频电路560可将接收到的音频数据转换后的电信号,传输到扬声器561,由扬声器561转换为声音信号输出;另一方面,传声器562将收集的声音信号转换为电信号,由音频电路560接收后转换为音频数据,再将音频数据输出处理器580处理后,经RF电路55以发送给比如另一手机,或者将音频数据输出至存储器520以便进一步处理。
Wi-Fi属于短距离无线传输技术,手机通过Wi-Fi模块570可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图7示出了Wi-Fi模块570,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变申请的本质的范围内而省略。
处理器580是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器520内的软件程序和/或模块,以及调用存储在存储器520内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器580可包括一个或多个处理单元;优选的,处理器580可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器580中。
手机还包括给各个部件供电的电源590(比如电池),电源可以通过电源管理***与处理器580逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本申请实施例中,该手机所包括的处理器580还具有控制执行以上由图2至图4所示的样本数据处理方法的流程图。
图8是本申请实施例提供的一种服务器结构示意图,该服务器620可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(英文全称:centralprocessing units,英文简称:CPU)622(例如,一个或一个以上处理器)和存储器632,一个或一个以上存储应用程序642或数据644的存储介质630(例如一个或一个以上海量存储设备)。其中,存储器632和存储介质630可以是短暂存储或持久存储。存储在存储介质630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器622可以设置为与存储介质630通信,在服务器620上执行存储介质630中的一系列指令操作。
服务器620还可以包括一个或一个以上电源626,一个或一个以上有线或无线网络接口650,一个或一个以上输入输出接口658,和/或,一个或一个以上操作***641,例如Windows Server,Mac OS X,Unix,Linux,FreeBSD等等。
上述实施例中由服务器所执行的步骤可以基于该图8所示的服务器620的结构。例如上述实施例中由图2至图4所示的服务器的步骤可以基于该图8所示的服务器结构。例如,所述处理器622通过调用存储器632中的指令,执行以下操作:
针对预设的对象数据集中的各目标对象图像,将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,并记录所述目标对象图像的目标添加位置,所述背景数据集包括多种预设场景下的所述背景图像及各背景图像对应的掩膜区域,所述目标对象图像携带有目标对象标签;
对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像;
根据所述目标对象标签以及所述目标添加位置分别对各所述第二图像进行自动标注处理,得到多个目标样本数据;其中,多个所述目标样本数据用于对预设的自动驾驶模型进行训练。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请实施例所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个模块或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或模块的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本申请实施例各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机计算机程序时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
以上对本申请实施例所提供的技术方案进行了详细介绍,本申请实施例中应用了具体个例对本申请实施例的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请实施例的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请实施例的限制。
Claims (10)
1.一种样本数据处理方法,其特征在于,包括:
针对预设的对象数据集中的各目标对象图像,将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,并记录所述目标对象图像的目标添加位置,所述背景数据集包括多种预设场景下的所述背景图像及各背景图像对应的掩膜区域,所述目标对象图像携带有目标对象标签;
对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像;
根据所述目标对象标签以及所述目标添加位置分别对各所述第二图像进行自动标注处理,得到多个目标样本数据;其中,多个所述目标样本数据用于对预设的自动驾驶模型进行训练。
2.根据权利要求1所述的方法,其特征在于,所述将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,包括:
将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内;
确定所述目标对象图像的边缘像素点以及所述背景图像中与所述边缘像素点重叠的背景像素点;
在各所述背景图像中,对所述边缘像素点与所述背景像素点进行像素加权平均处理,得到多个所述第一图像。
3.根据权利要求2所述的方法,其特征在于,所述将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内之前,所述方法还包括:
对所述目标对象图像进行图像增强处理,得到多个候选目标图像,所述图像增强处理包括尺度变换处理、旋转处理以及翻转处理中的至少一个;
所述将所述目标对象图像分别复制至各所述背景图像的预设掩膜区域内,包括:
针对各所述候选目标图像,将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内。
4.根据权利要求3所述的方法,其特征在于,所述对所述目标对象图像进行图像增强处理,得到多个候选目标图像之前,所述方法还包括:
建立所述目标对象图像与所述背景图像的对应关系;
根据所述对应关系对所述目标对象与所述背景图像进行归一化处理;
所述针对各所述候选目标图像,将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内,包括:
针对各所述候选目标图像,基于所述对应关系将所述候选目标图像分别复制至各所述背景图像的预设掩膜区域内。
5.根据权利要求1所述的方法,其特征在于,所述对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像,包括:
针对各所述第一图像,确定所述预设掩膜区域的第一亮度、第一对比度以及第一饱和度,以及确定与所述预设掩膜区域上的所述目标对象图像的第二亮度、第二对比度以及第二饱和度;
根据所述第一亮度、第一对比度、第一饱和度、第二亮度、第二对比度以及第二饱和度对所述预设掩膜区域分别进行图像融合修复处理,得到多个所述第二图像。
6.根据权利要求1至5中任一项所述的方法,其特征在于,所述将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像之前,所述方法还包括:
获取不同目标对象分别对应的多张初始图像,所述目标对象包括行人、机动车以及非机动车;
对各所述初始图像中所述目标对象对应的图像进行裁剪,得到多张所述目标对象图像;
为各所述目标对象图像分别添加对应的所述目标对象标签,构造所述对象数据集。
7.根据权利要求1至5中任一项所述的方法,其特征在于,所述背景图像为包含车道图像的背景图像,所述将所述目标对象图像分别添加至预设的背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像之前,所述方法还包括:
获取多种预设场景下的所述背景图像,多种所述预设场景包括雾天道路场景、雨天道路场景、雪天道路场景以及黑夜道路场景;
对所述背景图像中的道路图像进行分割标注,并确定所述道路图像对应的所述预设掩膜区域,构建所述背景数据集。
8.一种样本数据处理装置,其特征在于,所述样本数据处理装置包括收发模块以及处理模块,其中:
所述收发模块,用于获取对象数据集以及背景数据集;
所述处理模块,用于针对所述对象数据集中的各目标对象图像,将所述目标对象图像分别添加至所述背景数据集中各背景图像的预设掩膜区域内,得到多个第一图像,并记录所述目标对象图像的目标添加位置,所述背景数据集包括多种预设场景下的所述背景图像及各背景图像对应的掩膜区域,所述目标对象图像携带有目标对象标签;对各所述第一图像中的所述预设掩膜区域分别进行图像融合修复处理,得到多个第二图像;根据所述目标对象标签以及所述目标添加位置分别对各所述第二图像进行自动标注处理,得到多个目标样本数据;其中,多个所述目标样本数据用于对预设的自动驾驶模型进行训练。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令当被处理器执行时可实现如权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211734467.XA CN116071614A (zh) | 2022-12-31 | 2022-12-31 | 样本数据处理方法、相关设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211734467.XA CN116071614A (zh) | 2022-12-31 | 2022-12-31 | 样本数据处理方法、相关设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116071614A true CN116071614A (zh) | 2023-05-05 |
Family
ID=86178037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211734467.XA Pending CN116071614A (zh) | 2022-12-31 | 2022-12-31 | 样本数据处理方法、相关设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116071614A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315406A (zh) * | 2023-11-28 | 2023-12-29 | 吉咖智能机器人有限公司 | 一种样本图像处理方法、装置及设备 |
-
2022
- 2022-12-31 CN CN202211734467.XA patent/CN116071614A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315406A (zh) * | 2023-11-28 | 2023-12-29 | 吉咖智能机器人有限公司 | 一种样本图像处理方法、装置及设备 |
CN117315406B (zh) * | 2023-11-28 | 2024-02-13 | 吉咖智能机器人有限公司 | 一种样本图像处理方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110704661B (zh) | 一种图像分类方法和装置 | |
CN111209423B (zh) | 一种基于电子相册的图像管理方法、装置以及存储介质 | |
CN112802111B (zh) | 一种物体模型构建方法及装置 | |
CN110166828A (zh) | 一种视频处理方法和装置 | |
CN112203115B (zh) | 一种视频识别方法和相关装置 | |
CN114694226B (zh) | 一种人脸识别方法、***及存储介质 | |
CN114973351B (zh) | 人脸识别方法、装置、设备及存储介质 | |
CN115588131B (zh) | 模型鲁棒性检测方法、相关装置及存储介质 | |
CN115658348B (zh) | 微服务调用方法、相关装置及存储介质 | |
CN116071614A (zh) | 样本数据处理方法、相关设备及存储介质 | |
CN115471495B (zh) | 模型鲁棒性检测方法、相关装置及存储介质 | |
CN115526055B (zh) | 模型鲁棒性检测方法、相关装置及存储介质 | |
CN112270238A (zh) | 一种视频内容识别方法和相关装置 | |
CN116758362A (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN115376192B (zh) | 用户异常行为确定方法、装置、计算机设备及存储介质 | |
CN116778306A (zh) | 伪造对象检测方法、相关装置及存储介质 | |
CN116958715A (zh) | 一种手部关键点的检测方法、装置以及存储介质 | |
CN115984643A (zh) | 模型训练方法、相关设备及存储介质 | |
CN115546516A (zh) | 人员聚档方法、装置、计算机设备及存储介质 | |
CN115412726B (zh) | 视频真伪检测方法、装置及存储介质 | |
CN115909186B (zh) | 图像信息识别方法、装置、计算机设备及存储介质 | |
CN115525554B (zh) | 模型的自动化测试方法、***及存储介质 | |
CN116386647B (zh) | 音频验证方法、相关装置、存储介质及程序产品 | |
CN117255231B (zh) | 一种虚拟视频合成方法、装置及相关产品 | |
CN115730030B (zh) | 一种评论信息的处理方法以及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |