CN116740355A - 自动驾驶图像的分割方法、装置、设备及存储介质 - Google Patents

自动驾驶图像的分割方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN116740355A
CN116740355A CN202310709950.0A CN202310709950A CN116740355A CN 116740355 A CN116740355 A CN 116740355A CN 202310709950 A CN202310709950 A CN 202310709950A CN 116740355 A CN116740355 A CN 116740355A
Authority
CN
China
Prior art keywords
feature map
image
network model
vector
autopilot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310709950.0A
Other languages
English (en)
Inventor
邢春上
张松林
陈博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faw Nanjing Technology Development Co ltd
FAW Group Corp
Original Assignee
Faw Nanjing Technology Development Co ltd
FAW Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Faw Nanjing Technology Development Co ltd, FAW Group Corp filed Critical Faw Nanjing Technology Development Co ltd
Priority to CN202310709950.0A priority Critical patent/CN116740355A/zh
Publication of CN116740355A publication Critical patent/CN116740355A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视觉技术领域,公开了一种自动驾驶图像的分割方法、装置、设备及存储介质。该方法包括:获取自动驾驶图像,并将自动驾驶图像输入至预训练的残差神经网络模型,以获取初始特征图;将初始特征图输入至预训练的通道注意力网络模型,以获取特征向量;将初始特征图与特征向量进行相乘,以获取加权特征图,并根据加权特征图将自动驾驶图像分割为多个子图像。本实施例的技术方案,通过采用残差神经网络模型进行特征图提取,并采用通道注意力网络模型对特征图进行加权处理,可以提升对图像中不同语义信息的边缘分割准确度,可以降低图像分割的计算量。

Description

自动驾驶图像的分割方法、装置、设备及存储介质
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种自动驾驶图像的分割方法、装置、设备及存储介质。
背景技术
随着自动驾驶技术的快速发展,对自动驾驶技术的精确性、稳定性以及智能性提出了更高的要求。目前自动驾驶车辆搭载了各式各样的传感器,例如视觉摄像头、激光雷达等,视觉摄像头因为本身成本较低,已经成为自动驾驶量产车型中广泛使用的传感器之一。视觉摄像头由于经常会受到逆光、昏暗等客观条件的影响,会影响原始图像的后期处理效果。要想实现自动驾驶***的高精度定位和高稳定性,除了使用高精度的传感器之外,对于原始图像的精确分割也是尤为重要的工作之一。
目前,现有的图像分割方法,主要包括基于阈值的分割方法、基于边缘的分割方法和基于区域的分割方法三类。然而,对于基于阈值的分割方法,其无法适用灰度值比较复杂的图像;对于基于边缘的分割方法,通常由于边缘检测不够准确影响图像分割效果;对于基于区域的分割方法,存在计算量较大和耗时较长的问题。
发明内容
本发明提供了一种自动驾驶图像的分割方法、装置、设备及存储介质,可以提升对图像中不同语义信息的边缘分割准确度,可以降低图像分割的计算量。
根据本发明的一方面,提供了一种自动驾驶图像的分割方法,包括:
获取自动驾驶图像,并将所述自动驾驶图像输入至预训练的残差神经网络模型,并获取所述残差神经网络模型输出的所述自动驾驶图像对应的初始特征图;
将所述初始特征图输入至预训练的通道注意力网络模型,并获取所述通道注意力网络模型输出的所述初始特征图对应的特征向量;其中,所述通道注意力网络模型基于全局平均池化算法和全局最大池化算法建立;
将所述初始特征图与所述特征向量进行相乘,以获取加权特征图,并根据所述加权特征图将所述自动驾驶图像分割为多个子图像。
根据本发明的另一方面,提供了一种自动驾驶图像的分割装置,包括:
初始特征图获取模块,用于获取自动驾驶图像,并将所述自动驾驶图像输入至预训练的残差神经网络模型,并获取所述残差神经网络模型输出的所述自动驾驶图像对应的初始特征图;
特征向量获取模块,用于将所述初始特征图输入至预训练的通道注意力网络模型,并获取所述通道注意力网络模型输出的所述初始特征图对应的特征向量;其中,所述通道注意力网络模型基于全局平均池化算法和全局最大池化算法建立;
加权特征图获取模块,用于将所述初始特征图与所述特征向量进行相乘,以获取加权特征图,并根据所述加权特征图将所述自动驾驶图像分割为多个子图像。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的自动驾驶图像的分割方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的自动驾驶图像的分割方法。
本发明实施例的技术方案,通过获取自动驾驶图像,并将自动驾驶图像输入至预训练的残差神经网络模型,并获取残差神经网络模型输出的自动驾驶图像对应的初始特征图;然后,将初始特征图输入至预训练的通道注意力网络模型,并获取通道注意力网络模型输出的初始特征图对应的特征向量;最后,将初始特征图与特征向量进行相乘,以获取加权特征图,并根据加权特征图将自动驾驶图像分割为多个子图像;通过采用残差神经网络模型进行特征图提取,并采用通道注意力网络模型对特征图进行加权处理,可以提升对图像中不同语义信息的边缘分割准确度,可以降低图像分割的计算量。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A是根据本发明实施例一提供的一种自动驾驶图像的分割方法的流程图;
图1B是根据本发明实施例一提供的残差块结构示意图;
图1C是根据本发明实施例一提供的通道注意力网络模型的结构示意图;
图1D是是根据本发明实施例一提供的另一种自动驾驶图像的分割方法的流程图;
图2是根据本发明实施例二提供的一种自动驾驶图像的分割装置的结构示意图;
图3是实现本发明实施例的自动驾驶图像的分割方法的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“目标”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1A为本发明实施例一提供了一种自动驾驶图像的分割方法的流程图,本实施例可适用于对自动驾驶图像中不同语义信息进行分割的情况,该方法可以由自动驾驶图像的分割装置来执行,该自动驾驶图像的分割装置可以采用硬件和/或软件的形式实现,典型的,该自动驾驶图像的分割装置可配置于电子设备中,例如,计算机设备、服务器或者车机设备等。如图1A所示,该方法包括:
S110、获取自动驾驶图像,并将所述自动驾驶图像输入至预训练的残差神经网络模型,并获取所述残差神经网络模型输出的所述自动驾驶图像对应的初始特征图。
在本实施例中,可以通过车辆上部署的视觉摄像头,在车辆行驶过程中实时获取自动驾驶图像,或者从互联网中获取自动驾驶图像。其中,自动驾驶图像可以包括人、车辆和行驶环境等不同类型目标。典型的,自动驾驶图像可以是RGB三通道图像。
在本实施例中,可以采用卷积神经网络对自动驾驶图像进行特征图提取,典型的,卷积神经网络可以是残差神经网络(Residual Neural Network,ResNet)。在一个具体的例子中,可以采用标注完成的图像样本对初始的ResNet模型进行模型训练,直至获取训练完的ResNet模型。其中,初始的ResNet模型可以基于预设的模型参数建立。
其中,残差神经网络模型可以包括预设数量的残差块,残差块可以包括第一卷积层和第二卷积层,第一卷积层和第二卷积层的卷积核尺寸为1×1。预设数量,可以是预先设置的残差块数量,例如,可以是10。在本实施例中,通过将卷积层的卷积核尺寸设置为1×1,可以确保残差块的输出特征图与原始图像保持尺寸一致。例如,自动驾驶图像尺寸为[H,W,C],其中,C表示通道数,W和H表示各通道图像的宽度和高度(像素数量),则对应的初始特征图尺寸同样为[H,W,C]。
需要说明的是,残差神经网络的主要核心是残差块(Residual Block),残差块可以由多个卷积层组成。对于残差块,其输入特征的一部分经过各卷积层进行处理后,与另一部分未经过卷积层处理的特征进行加和操作,以获取最终的输出。可以理解的是,残差块的卷积层数量可以根据任务场景进行自适应调整。
在本实施例中,通过采用残差神经网络模型进行自动驾驶图像的特征提取,可以有效防止过拟合现象的出现,可以提升特征提取效率。
S120、将所述初始特征图输入至预训练的通道注意力网络模型,并获取所述通道注意力网络模型输出的所述初始特征图对应的特征向量。
其中,通道注意力网络模型可以基于全局平均池化算法和全局最大池化算法建立。
在本实施例中,可以采用通道注意力机制对特征图的各个通道进行特征加权操作;具体的,同时采用全局平均池化(Global Average Pooling,AvgPool)以及全局最大池化(Global Max Pooling,MaxPool)两种算法对初始特征图进行池化操作,并通过对两种池化操作结果进行叠加,以获取最终的特征向量。其中,特征向量,用于指导对初始特征图进行相应的加权操作。
其中,通道注意力网络模型,可以包括池化层、多层感知机和加法器;各模块的参数可以通过预先训练确定。在一个具体的例子中,可以根据预设模型参数建立初始的通道注意力网络模型,然后可以采用预标注的特征样本对初始模型进行训练,以获取训练完成的通道注意力网络模型。
在本实施例中,通过使用通道注意力机制对初始特征图的每个通道进行打分,为得分高的通道赋予更高的权重,使得其在最后的分割图像中能够得到更加充分的视觉表达,可以有效提升图像中不同语义信息的表达效果,可以提升不同语义信息之间边缘分割效果。
S130、将所述初始特征图与所述特征向量进行相乘,以获取加权特征图,并根据所述加权特征图将所述自动驾驶图像分割为多个子图像。
在本实施例中,可以采用特征向量与初始特征图进行相乘,以对初始特征图进行特征加权,并将乘积作为加权特征图。然后,根据加权特征图中各特征值对自动驾驶图像进行分割,以获取多张子图像,从而实现对目标对象的提取。可选的,在获取加权特征图后,可以根据各特征值在原始的自动驾驶图像中进行区域分割,例如,采用线条或者颜色进行区域分割。在本实施例中,对根据加权特征图进行图像分割的方法不作具体限定。
可选的,在将自动驾驶图像分割成多个子图像后,还可以根据加权特征图对各子图像进行目标识别,以确定各子图像对应的目标分类,例如,人、车辆、动物等。
本发明实施例的技术方案,通过获取自动驾驶图像,并将自动驾驶图像输入至预训练的残差神经网络模型,并获取残差神经网络模型输出的自动驾驶图像对应的初始特征图;然后,将初始特征图输入至预训练的通道注意力网络模型,并获取通道注意力网络模型输出的初始特征图对应的特征向量;最后,将初始特征图与特征向量进行相乘,以获取加权特征图,并根据加权特征图将自动驾驶图像分割为多个子图像;通过采用残差神经网络模型进行特征图提取,并采用通道注意力网络模型对特征图进行加权处理,可以提升对图像中不同语义信息的边缘分割准确度,可以降低图像分割的计算量。
在本实施例的一个可选的实施方式中,将所述自动驾驶图像输入至预训练的残差神经网络模型,并获取所述残差神经网络模型输出的所述自动驾驶图像对应的初始特征图,可以包括:
将当前图像特征输入至当前残差块的第一卷积层,以获取第一卷积特征,并通过预设激活函数对所述第一卷积特征进行非线性特征映射,以获取中间特征;
将所述中间特征输入至所述当前残差块的第二卷积层,以获取第二卷积特征,并将所述第二卷积特征与所述当前图像特征进行相加,以获取目标特征;
通过预设激活函数对所述目标特征进行非线性特征映射,以获取所述当前残差块输出的当前特征图。
其中,当前图像特征,可以是上一残差块输出的特征图,也可以是自动驾驶图像的原始图像特征。预设激活函数,可以是ReLu函数。
在一个具体的例子中,残差块结构可以如图1B所示,其中,X表示当前图像特征,Weight layer为卷积层,ReLu为预设激活函数,可以为f(x)=max(x,0),F(x)表示经过卷积层处理后的输出特征,F(x)+x为残差块的最终输出。具体的,当前图像特征依次经过第一卷积层、ReLu激活函数和第二卷积层的处理,以获取第二卷积特征,然后,将第二卷积特征与当前图像特征相加后,再经过ReLu激活函数进行处理,以获取最终输出的当前特征图。
其中,将所述自动驾驶图像输入至预训练的残差神经网络模型,并获取所述残差神经网络模型输出的所述自动驾驶图像对应的初始特征图,可以包括:
通过所述当前残差块根据公式y=σ(F(x,A)+x)获取当前特征图y,其中,σ(·)表示预设激活函数,F(·)表示残差函数,x表示当前图像特征,A表示卷积层权重参数。
在本实施例的另一个可选的实施方式中,将所述初始特征图输入至预训练的通道注意力网络模型,并获取所述通道注意力网络模型输出的所述初始特征图对应的特征向量,可以包括:
通过全局平均池化算法对所述初始特征图进行处理,以获取第一池化向量,并通过全局最大池化算法对所述初始特征图进行处理,以获取第二池化向量;
将所述第一池化向量和所述第二池化向量输入到多层感知机,并获取所述多层感知机输出的第一映射向量和第二映射向量;
将所述第一映射向量和所述第二映射向量进行相加,以获取叠加向量,并通过预设激活函数对所述叠加向量进行处理,以获取所述初始特征图对应的特征向量。
在一个具体的例子中,通道注意力网络模型的结构可以如图1C所示。在本实施例中,针对初始特征图(H×W×C),可以从高和宽两个维度进行全局最大池化和全局平均池化,以分别得到两组一维的池化向量;然后,将两组一维向量输入到预设的多层感知机(Mutillayer Perceptrons,MLP)进行对应的特征映射,以分别得到特征映射后的两组一维向量1×1×C1和1×1×C2,即第一映射向量和第二映射向量;最后,将两组一维向量进行相加,并经过ReLu激活函数进行处理,以得到最终的特征向量1×1×C。其中,池化算法可以通过池化层实现。
可选的,通过全局平均池化算法对所述初始特征图进行处理,以获取第一池化向量,可以包括:
根据公式计算得到第一池化向量AvgPool,其中,H和W分别表示图像通道的高和宽,n表示图像通道索引,N和M表示初始特征图的尺寸,ci,j表示初始特征图中特征值。i和j表示特征图坐标。
可选的,通过全局最大池化算法对所述初始特征图进行处理,以获取第二池化向量,可以包括:
根据公式计算得到第二池化向量MaxPool,其中Max(·)表示取最大值运算。
在本实施例的一个具体的实施方式中,自动驾驶图像的分割方法的流程可以如图1D所示。其中,原始的自动驾驶图像首先输入到预训练的残差神经网络模型,以获取初始特征图;然后,将初始特征图输入到预训练的通道注意力网络模型,以获取1×1×C的特征向量;最后,将初始特征图与特征向量进行相乘,以获取加权特征图,并基于加权特征图实现图像分割。
实施例二
图2为本发明实施例二提供的一种自动驾驶图像的分割装置的结构示意图。如图2所示,该装置包括:初始特征图获取模块210、特征向量获取模块220和加权特征图获取模块230;其中,
初始特征图获取模块210,用于获取自动驾驶图像,并将所述自动驾驶图像输入至预训练的残差神经网络模型,并获取所述残差神经网络模型输出的所述自动驾驶图像对应的初始特征图;
特征向量获取模块220,用于将所述初始特征图输入至预训练的通道注意力网络模型,并获取所述通道注意力网络模型输出的所述初始特征图对应的特征向量;其中,所述通道注意力网络模型基于全局平均池化算法和全局最大池化算法建立;
加权特征图获取模块230,用于将所述初始特征图与所述特征向量进行相乘,以获取加权特征图,并根据所述加权特征图将所述自动驾驶图像分割为多个子图像。
本发明实施例的技术方案,通过获取自动驾驶图像,并将自动驾驶图像输入至预训练的残差神经网络模型,并获取残差神经网络模型输出的自动驾驶图像对应的初始特征图;然后,将初始特征图输入至预训练的通道注意力网络模型,并获取通道注意力网络模型输出的初始特征图对应的特征向量;最后,将初始特征图与特征向量进行相乘,以获取加权特征图,并根据加权特征图将自动驾驶图像分割为多个子图像;通过采用残差神经网络模型进行特征图提取,并采用通道注意力网络模型对特征图进行加权处理,可以提升对图像中不同语义信息的边缘分割准确度,可以降低图像分割的计算量。
可选的,所述残差神经网络模型包括预设数量的残差块,所述残差块包括第一卷积层和第二卷积层,所述第一卷积层和第二卷积层的卷积核尺寸为1×1。
可选的,初始特征图获取模块210,具体用于将当前图像特征输入至当前残差块的第一卷积层,以获取第一卷积特征,并通过预设激活函数对所述第一卷积特征进行非线性特征映射,以获取中间特征;
将所述中间特征输入至所述当前残差块的第二卷积层,以获取第二卷积特征,并将所述第二卷积特征与所述当前图像特征进行相加,以获取目标特征;
通过预设激活函数对所述目标特征进行非线性特征映射,以获取所述当前残差块输出的当前特征图。
可选的,初始特征图获取模块210,具体用于通过所述当前残差块根据公式y=σ(F(x,A)+x)获取当前特征图y,其中,σ(·)表示预设激活函数,F(·)表示残差函数,x表示当前图像特征,A表示卷积层权重参数。
可选的,特征向量获取模块220,包括:
池化向量获取单元,用于通过全局平均池化算法对所述初始特征图进行处理,以获取第一池化向量,并通过全局最大池化算法对所述初始特征图进行处理,以获取第二池化向量;
映射向量获取单元,用于将所述第一池化向量和所述第二池化向量输入到多层感知机,并获取所述多层感知机输出的第一映射向量和第二映射向量;
特征向量获取单元,用于将所述第一映射向量和所述第二映射向量进行相加,以获取叠加向量,并通过预设激活函数对所述叠加向量进行处理,以获取所述初始特征图对应的特征向量。
可选的,池化向量获取单元,具体用于根据公式计算得到第一池化向量AvgPool,其中,H和W分别表示图像通道的高和宽,n表示图像通道索引,N和M表示初始特征图的尺寸,ci,j表示初始特征图中特征值。
可选的,池化向量获取单元,具体用于根据公式计算得到第二池化向量MaxPool,其中Max(·)表示取最大值运算。
本发明实施例所提供的自动驾驶图像的分割装置可执行本发明任意实施例所提供的自动驾驶图像的分割方法,具备执行方法相应的功能模块和有益效果。
实施例三:
图3示出了可以用来实施本发明的实施例的电子设备30的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图3所示,电子设备30包括至少一个处理器31,以及与至少一个处理器31通信连接的存储器,如只读存储器(ROM)32、随机访问存储器(RAM)33等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器31可以根据存储在只读存储器(ROM)32中的计算机程序或者从存储单元38加载到随机访问存储器(RAM)33中的计算机程序,来执行各种适当的动作和处理。在RAM 33中,还可存储电子设备30操作所需的各种程序和数据。处理器31、ROM 32以及RAM 33通过总线34彼此相连。输入/输出(I/O)接口35也连接至总线34。
电子设备30中的多个部件连接至I/O接口35,包括:输入单元36,例如键盘、鼠标等;输出单元37,例如各种类型的显示器、扬声器等;存储单元38,例如磁盘、光盘等;以及通信单元39,例如网卡、调制解调器、无线通信收发机等。通信单元39允许电子设备30通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器31可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器31的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器31执行上文所描述的各个方法和处理,例如自动驾驶图像的分割方法。
在一些实施例中,自动驾驶图像的分割方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元38。在一些实施例中,计算机程序的部分或者全部可以经由ROM 32和/或通信单元39而被载入和/或安装到电子设备30上。当计算机程序加载到RAM 33并由处理器31执行时,可以执行上文描述的自动驾驶图像的分割方法的一个或多个步骤。备选地,在其他实施例中,处理器31可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行自动驾驶图像的分割方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的***和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

Claims (10)

1.一种自动驾驶图像的分割方法,其特征在于,包括:
获取自动驾驶图像,并将所述自动驾驶图像输入至预训练的残差神经网络模型,并获取所述残差神经网络模型输出的所述自动驾驶图像对应的初始特征图;
将所述初始特征图输入至预训练的通道注意力网络模型,并获取所述通道注意力网络模型输出的所述初始特征图对应的特征向量;其中,所述通道注意力网络模型基于全局平均池化算法和全局最大池化算法建立;
将所述初始特征图与所述特征向量进行相乘,以获取加权特征图,并根据所述加权特征图将所述自动驾驶图像分割为多个子图像。
2.根据权利要求1所述的方法,其特征在于,所述残差神经网络模型包括预设数量的残差块,所述残差块包括第一卷积层和第二卷积层,所述第一卷积层和第二卷积层的卷积核尺寸为1×1。
3.根据权利要求2所述的方法,其特征在于,将所述自动驾驶图像输入至预训练的残差神经网络模型,并获取所述残差神经网络模型输出的所述自动驾驶图像对应的初始特征图,包括:
将当前图像特征输入至当前残差块的第一卷积层,以获取第一卷积特征,并通过预设激活函数对所述第一卷积特征进行非线性特征映射,以获取中间特征;
将所述中间特征输入至所述当前残差块的第二卷积层,以获取第二卷积特征,并将所述第二卷积特征与所述当前图像特征进行相加,以获取目标特征;
通过预设激活函数对所述目标特征进行非线性特征映射,以获取所述当前残差块输出的当前特征图。
4.根据权利要求3所述的方法,其特征在于,将所述自动驾驶图像输入至预训练的残差神经网络模型,并获取所述残差神经网络模型输出的所述自动驾驶图像对应的初始特征图,包括:
通过所述当前残差块根据公式y=σ(F(x,A)+x)获取当前特征图y,其中,σ(·)表示预设激活函数,F(·)表示残差函数,x表示当前图像特征,A表示卷积层权重参数。
5.根据权利要求1所述的方法,其特征在于,将所述初始特征图输入至预训练的通道注意力网络模型,并获取所述通道注意力网络模型输出的所述初始特征图对应的特征向量,包括:
通过全局平均池化算法对所述初始特征图进行处理,以获取第一池化向量,并通过全局最大池化算法对所述初始特征图进行处理,以获取第二池化向量;
将所述第一池化向量和所述第二池化向量输入到多层感知机,并获取所述多层感知机输出的第一映射向量和第二映射向量;
将所述第一映射向量和所述第二映射向量进行相加,以获取叠加向量,并通过预设激活函数对所述叠加向量进行处理,以获取所述初始特征图对应的特征向量。
6.根据权利要求5所述的方法,其特征在于,通过全局平均池化算法对所述初始特征图进行处理,以获取第一池化向量,包括:
根据公式计算得到第一池化向量AvgPool,其中,H和W分别表示图像通道的高和宽,n表示图像通道索引,N和M表示初始特征图的尺寸,ci,j表示初始特征图中特征值。
7.根据权利要求6所述的方法,其特征在于,通过全局最大池化算法对所述初始特征图进行处理,以获取第二池化向量,包括:
根据公式计算得到第二池化向量MaxPool,其中Max(·)表示取最大值运算。
8.一种自动驾驶图像的分割装置,其特征在于,包括:
初始特征图获取模块,用于获取自动驾驶图像,并将所述自动驾驶图像输入至预训练的残差神经网络模型,并获取所述残差神经网络模型输出的所述自动驾驶图像对应的初始特征图;
特征向量获取模块,用于将所述初始特征图输入至预训练的通道注意力网络模型,并获取所述通道注意力网络模型输出的所述初始特征图对应的特征向量;其中,所述通道注意力网络模型基于全局平均池化算法和全局最大池化算法建立;
加权特征图获取模块,用于将所述初始特征图与所述特征向量进行相乘,以获取加权特征图,并根据所述加权特征图将所述自动驾驶图像分割为多个子图像。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器,以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的自动驾驶图像的分割方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-7中任一项所述的自动驾驶图像的分割方法。
CN202310709950.0A 2023-06-15 2023-06-15 自动驾驶图像的分割方法、装置、设备及存储介质 Pending CN116740355A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310709950.0A CN116740355A (zh) 2023-06-15 2023-06-15 自动驾驶图像的分割方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310709950.0A CN116740355A (zh) 2023-06-15 2023-06-15 自动驾驶图像的分割方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN116740355A true CN116740355A (zh) 2023-09-12

Family

ID=87916433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310709950.0A Pending CN116740355A (zh) 2023-06-15 2023-06-15 自动驾驶图像的分割方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN116740355A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116994002A (zh) * 2023-09-25 2023-11-03 杭州安脉盛智能技术有限公司 一种图像特征提取方法、装置、设备及存储介质
CN117788836A (zh) * 2024-02-23 2024-03-29 中国第一汽车股份有限公司 图像处理方法、装置、计算机设备和存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116994002A (zh) * 2023-09-25 2023-11-03 杭州安脉盛智能技术有限公司 一种图像特征提取方法、装置、设备及存储介质
CN116994002B (zh) * 2023-09-25 2023-12-19 杭州安脉盛智能技术有限公司 一种图像特征提取方法、装置、设备及存储介质
CN117788836A (zh) * 2024-02-23 2024-03-29 中国第一汽车股份有限公司 图像处理方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
CN116740355A (zh) 自动驾驶图像的分割方法、装置、设备及存储介质
CN115456167B (zh) 轻量级模型训练方法、图像处理方法、装置及电子设备
CN113947188A (zh) 目标检测网络的训练方法和车辆检测方法
CN115358392A (zh) 深度学习网络的训练方法、文本检测方法及装置
CN114202648B (zh) 文本图像矫正方法、训练方法、装置、电子设备以及介质
CN111932530B (zh) 三维对象检测方法、装置、设备和可读存储介质
CN117036457A (zh) 一种屋顶面积的测量方法、装置、设备及存储介质
CN114882313B (zh) 生成图像标注信息的方法、装置、电子设备及存储介质
CN116363444A (zh) 模糊分类模型训练方法、识别模糊图像的方法及装置
CN115937537A (zh) 一种目标图像的智能识别方法、装置、设备及存储介质
CN115761698A (zh) 一种目标检测方法、装置、设备及存储介质
CN113610856A (zh) 训练图像分割模型和图像分割的方法和装置
CN117333487B (zh) 一种痘痘分级方法、装置、设备及存储介质
CN116012873B (zh) 一种行人重识别方法、装置、电子设备及存储介质
CN114581746B (zh) 物体检测方法、装置、设备及介质
CN116229209B (zh) 目标模型的训练方法、目标检测方法及装置
CN114926447B (zh) 用于训练模型的方法、用于检测目标的方法和装置
CN116503407B (zh) 图像中异物区域的检测方法、装置及电子设备
CN117333873A (zh) 一种实例分割方法、装置、电子设备和存储介质
CN117746013A (zh) 一种标签检测方法、装置、设备及存储介质
CN114445690A (zh) 车牌检测方法、模型训练方法、设备、介质和程序产品
CN117593713A (zh) 一种bev时序模型蒸馏方法、装置、设备及介质
CN117372477A (zh) 一种目标跟踪匹配方法、装置、设备及介质
CN115100655A (zh) 一种检测文本图像质量的方法、装置、设备及存储介质
CN116385775A (zh) 图像标签的添加方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination