CN115984133A - 图像增强方法、车辆抓拍方法、设备及介质 - Google Patents
图像增强方法、车辆抓拍方法、设备及介质 Download PDFInfo
- Publication number
- CN115984133A CN115984133A CN202211709136.0A CN202211709136A CN115984133A CN 115984133 A CN115984133 A CN 115984133A CN 202211709136 A CN202211709136 A CN 202211709136A CN 115984133 A CN115984133 A CN 115984133A
- Authority
- CN
- China
- Prior art keywords
- image
- network
- student
- teacher
- student network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种图像增强方法、车辆抓拍方法、设备及介质,属于图像处理技术领域,该方法包括:对图像采集组件采集的原始图像数据进行预处理;将预处理后的图像数据输入图像增强模型得到亮度增强后的图像数据;通过对输入至学生网络的图像进行降采样处理,可以提高图像增强网络的计算效率。而输入至教师网络的图像未经过降采样处理,既可以保证教师网络进行图像增强的性能、又可以保证学生网络的计算速度,且学生网络的网络复杂度低于教师网络的网络复杂度,之后教师网络将学习到的知识蒸馏至学生网络,使得学生网络在保证计算速度的情况下,可以保证图像增强性能。而将教师网络输出的中间特征图共享至学生网络还可以提高学生网络的训练效率。
Description
技术领域
本申请涉及一种图像增强方法、车辆抓拍方法、设备及介质,属于图像处理技术领域。
背景技术
基于深度学习的目标检测已经被应用在很多真实世界的场景中,例如行人识别任务,自动驾驶技术、图像分割任务等。但是,目标检测模型仅能对拍摄场景的亮度满足预设要求的情况下拍摄得到的图像进行目标检测,此时,对于低照度场景下拍摄得到的图像需要进行亮度增强。
传统的亮度增强方式为使用基于深度神经网络建立的低照度图像增强网络对低光照图像进行亮度增强,得到增强后光照图像。
但是,为了提高低照度图像增强网络提升亮度的性能,该低照度图像增强网络的模型复杂度通常较高,这就会导致模型的计算效率较低、从而导致图像增强的计算效率低、延时大的问题。
发明内容
本申请提供了一种图像增强方法、车辆抓拍方法、设备及介质,一方面通过输入至学生网络的图像进行降采样处理,可以提高学生网络的计算效率。另一方面,输入至教师网络的图像未经过降采样处理、仅将降采样后的图像输入学生网络,既可以保证教师网络进行图像增强的性能、又可以保证学生网络的计算速度,同时学生网络的网络复杂度低于教师网络的网络复杂度,之后教师网络将学习到的知识蒸馏至学生网络,从而使得学生网络在保证计算速度的情况下,还可以保证图像增强性能,这样,在图像增强过程中既可以提高图像增强的效率、又可以保证图像增强的效果。同时,在知识蒸馏过程中,还会将教师网络输出的中间特征图共享至学生网络对应的网络层,以使学生网络使用中间特征图加速收敛,提高学生网络的训练效率。本申请提供如下技术方案:
第一方面,提供一种图像增强方法,所述方法包括:
获取图像采集组件采集的原始图像数据;
对所述原始图像数据进行预处理,得到预处理后的图像数据,所述预处理后的图像数据与图像增强模型的输入层相适配;
将所述预处理后的图像数据输入所述图像增强模型,得到亮度增强后的图像数据,所述图像增强模型是将教师网络的知识蒸馏至学生网络后得到的,在知识蒸馏过程中输入至所述学生网络的图像是对输入至所述教师网络的图像进行降采样得到的,且在知识蒸馏过程中所述教师网络输出的中间特征图还会共享至所述学生网络对应的网络层;所述学生网络使用所述中间特征图和降采样后的样本图像进行训练,所述学生网络的网络复杂度低于所述教师网络的网络复杂度。
可选地,所述图像增强模型的训练过程包括:
获取训练数据,所述训练数据包括所述样本图像、以及所述样本图像对应的标签图像,所述标签图像的亮度大于所述样本图像的亮度;
对所述样本图像进行预处理,以使预处理后的样本图像满足教师网络的输入要求;
将所述预处理后的样本图像输入所述教师网络,得到软标签图像和中间特征图;
将所述中间特征图共享至学生网络对应的网络层,得到所述学生网络输出的软标签预测图像和第一硬标签预测图像;
基于所述软标签图像和所述软标签预测图像之间的差异训练所述教师网络;
对所述预处理后的样本图像进行降采样,得到降采样后的样本图像;
将所述降采样后的样本图像输入所述学生网络,得到第二硬标签预测图像;
基于所述第一硬标签预测图像与所述标签图像之间的差异、所述第二硬标签预测图像与所述标签图像之间的差异,以及所述软标签图像和所述软标签预测图像之间的差异,训练所述学生网络,得到所述图像增强模型。
可选地,所述教师网络包括依次相连的至少两层第一特征提取层和输出层,所述学生网络包括依次相连的至少两层第二特征提取层和输出层;所述第二特征提取层的数量与所述第一特征提取层的数量相等,所述第二特征提取层的模型复杂度低于所述第一特征提取层的模型复杂度,且每层第一特征提取层输出的特征图的维度与对应一层第二特征提取层输出的特征图的维度相同;所述将所述预处理后的样本图像输入教师网络,得到软标签图像和中间特征图,包括:
将所述预处理后的样本图像输入教师网络,得到所述教师网络的第i层第一特征提取层输出的中间特征图和所述教师网络的输出层输出的软标签图像;其中,所述i为正整数;
相应地,所述将所述中间特征图共享至学生网络的对应网络层,得到所述学生网络输出的软标签预测图像和第一硬标签预测图像,包括:
将所述中间特征图作为所述学生网络中第i层第二特征提取层的输出结果,以输入第i+1层第二特征提取层,得到所述软标签预测图像和所述第一硬标签预测图像。
可选地,所述基于所述第一硬标签预测图像与所述标签图像之间的差异、所述第二硬标签预测图像与所述标签图像之间的差异,以及所述软标签图像和所述软标签预测图像之间的差异,训练所述学生网络,得到所述图像增强模型,包括:
将所述软标签图像和所述软标签预测图像输入第一损失函数,得到教师损失值;
将所述标签图像和所述第一硬标签预测图像输入第二损失函数,得到第一损失值;
将所述标签图像和所述第二硬标签预测图像输入所述第二损失函数,得到第二损失值;
确定所述第一损失值和所述第二损失值的加权和,得到学生损失值;
基于所述教师损失值和所述学生损失值,更新所述学生网络中的网络参数,以训练所述学生网络。
可选地,所述样本图像为拜耳格式,所述对所述样本图像进行预处理,包括:
提取所述样本图像数据中的感兴趣区域;
对所述感兴趣区域进行通道分离,得到分离后的样本图像;
基于预先设置的亮度调节参数调节所述分离后的样本图像的亮度,得到所述预处理后的样本图像。
可选地,所述对所述原始图像数据进行预处理,包括:
提取所述原始图像数据中的感兴趣区域;
对所述感兴趣区域进行降采样处理;
对降采样后的图像数据进行通道分离;
基于预先设置的亮度调节参数调节通道分离后的图像数据的亮度,得到所述预处理后的图像数据。
可选地,所述原始图像数据包括以拜耳格式存储的多组Raw数据,所述对所述感兴趣区域进行降采样处理,包括:
每隔n行n列提取一组Raw数据,得到多组Raw数据;所述n为正整数。
第二方面,提供一种车辆抓拍方法,所述方法包括:
获取图像采集组件对车辆采集的原始图像数据;
基于所述原始图像数据和预先训练的图像增强模型,得到亮度增强后的图像数据;所述图像增强模型是将教师网络的知识蒸馏至学生网络后得到的,在知识蒸馏过程中输入至所述学生网络的图像是对输入至所述教师网络的图像进行降采样得到的,且在知识蒸馏过程中所述教师网络输出的中间特征图还会共享至所述学生网络对应的网络层;所述学生网络使用所述中间特征图和降采样后的样本图像进行训练,所述学生网络的网络复杂度低于所述教师网络的网络复杂度;
将所述亮度增强后的图像数据输入预先训练的车辆检测网络,得到车辆检测结果;
在所述车辆检测结果指示检测到车辆的情况下,控制发光组件发光并控制所述图像采集组件再次进行图像采集,得到车辆的抓拍图像。
第三方面,提供一种电子设备,所述设备包括处理器和存储器;所述存储器中存储有程序,所述程序由所述处理器加载并执行以实现上述方面提供的的图像增强或车辆抓拍方法。
第四方面,提供一种计算机可读存储介质,所述存储介质中存储有程序,所述程序被处理器执行时用于实现上述方面提供的图像增强或车辆抓拍方法。
本申请的有益效果至少包括:通过获取图像采集组件采集的原始图像数据;对原始图像数据进行预处理,得到预处理后的图像数据;将预处理后的图像数据输入图像增强模型,得到亮度增强后的图像数据;由于输入至学生网络的图像尺寸越大,学生网络进行特征提取的时长越长,因此,一方面通过输入至学生网络的图像进行降采样处理,可以提高学生网络的计算效率。另一方面,传统的知识蒸馏方式中,输入至学生网络和教师网络的图像的尺寸相同,若将降采样后的样本图像输入教师网络,会影响教师网络进行图像增强的性能。而本申请中在对图像增强模型进行训练时输入至教师网络的图像未经过降采样处理、仅将降采样后的图像输入学生网络,既可以保证教师网络进行图像增强的性能、又可以保证学生网络的计算速度,同时学生网络的网络复杂度低于教师网络的网络复杂度,之后教师网络将学习到的知识蒸馏至学生网络,从而使得学生网络在保证计算速度的情况下,还可以保证图像增强性能,这样,在图像增强过程中既可以提高图像增强的效率、又可以保证图像增强的效果。同时,由于教师网络的图像和输入至学生网络的图像的尺寸不一致,会导致知识蒸馏过程中学生网络难以收敛的问题。基于此,本申请中在知识蒸馏过程中,还会将教师网络输出的中间特征图共享至学生网络对应的网络层,以使学生网络使用中间特征图加速收敛,提高学生网络(图像增强网络)的训练效率。
另外,通过同时训练教师网络和学生网络,不需要单独对教师网络预先进行单独训练,可以提高模型训练效率。
另外,通过第一损失值和第二损失值的加权和确定学生损失值,基于学生损失值和教师损失值更新学生网络的网络参数,相较于基于第一损失值和教师损失值、第二损失值和教师损失值分别更新学生网络的网络参数来说,对于每张预处理后的样本图像学生网络仅需要更新一次网络参数,可以减少学生网络更新网络参数的次数,且由于学生损失值结合第一损失值和第二损失值得到,因此,使用学生损失值和教师损失值更新网络参数的准确性也不会降低。
另外,通过提取原始图像数据中的感兴趣区域;对感兴趣区域进行降采样处理;一方面可以减小图像增强模型的计算量,另一方面可以保证感兴趣区域的图像数据不会丢失太多,从而保证图像增强的效果。
另外,通过在图像输入至图像增强模型之前,基于预先设置的亮度调节参数调图像的亮度,可以保证输入至图像增强模型的图像亮度基本一致,从而使得图像增强模型输出的图像亮度也基本一致,可保证模型输出结果的稳定性。
另外,通过在检测到亮度增强后的图像数据存在车辆的情况下,发光组件闪烁一次,一方面,能够降低发光组件的能耗,且能够大幅延长发光组件的使用寿命,并且降低暗光条件下发光组件常亮造成的光污染;另一方面,还能够保证暗光环境下车辆的抓拍率。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,并可依照说明书的内容予以实施,以下以本申请的较佳实施例并配合附图详细说明如后。
附图说明
图1是本申请一个实施例提供的图像增强方法的流程图;
图2是本申请一个实施例提供的对原始图像数据进行降采样和通道分离的示意图;
图3是本申请一个实施例提供的图像增强模型的训练方法的流程图;
图4是本申请一个实施例提供的对预处理后的样本图像进行降采样的示意图;
图5是本申请一个实施例提供的知识蒸馏过程的示意图;
图6是本申请一个实施例提供的车辆抓拍方法的流程图;
图7是本申请另一个实施例提供的车辆抓拍方法的流程图;
图8是本申请一个实施例提供的车辆抓拍过程的示意图;
图9是本申请一个实施例提供的图像增强装置的框图;
图10是本申请一个实施例提供的车辆抓拍装置的框图;
图11是本申请一个实施例提供的电子设备的框图。
具体实施方式
下面结合附图和实施例,对本申请的具体实施方式做进一步详细描述。以下实施例用于说明本申请,但不用来限制本申请的范围。
首先,对本申请涉及的若干名词进行介绍。
知识蒸馏(knowledge distillation):是模型压缩的一种常用的方法,不同于模型压缩中的剪枝和量化,知识蒸馏是通过构建一个轻量化的小模型,利用性能更好的大模型的监督信息,来训练这个小模型,以期达到更好的性能和精度。其中,大模型一般称之为teacher(教师网络),小模型一般称之为Student(学生网络)。来自教师网络输出的监督信息称之为knowledge(知识),而学生网络学习迁移来自教师网络的监督信息的过程称之为Distillation(蒸馏)。
一般使用蒸馏的时候,往往会找一个参数量更小的学生网络,那么相比于教师网络来说,这个轻量级的学生网络不能很好地学***滑的处理了标签,比如:将数字1输出成0.6(对1的预测)和0.4(对0的预测),然后将平滑后的标签输入到学生网络中,相比于1来说,这种平滑后的标签含有更多的信息。蒸馏的目标是让学生网络学习到教师网络的泛化能力,理论上得到的结果会比单纯拟合训练数据的学生网络要好。
传统的知识蒸馏过程中,输入至教师网络和学生网络图像一致。在图像增强场景中,教师网络更关注图像增强性能,学生网络更关注计算的实时性。基于此,为了保证教师网络的图像增强性能,输入至教师网络的图像尺寸不能太小,此时,若将输入至教师网络的图像输入至学生网络,即便学生网络的复杂性较低,但是,由于该图像尺寸较大,还是会降低学生网络计算的实时性。
基于上述技术问题,本申请中,输入至学生网络的图像是对输入至教师网络的图像进行降采样后得到的。即,输入至教师网络的图像和输入至学生网络的图像的尺寸不一致。
然而,由于教师网络的图像和输入至学生网络的图像的尺寸不一致,会导致知识蒸馏过程中学生网络难以收敛的问题。基于此,本申请中,在知识蒸馏过程中,还会将教师网络输出的中间特征图共享至学生网络对应的网络层,以使学生网络使用中间特征图来加速收敛。具体内容参考下述实施例。
软标签:是指输入数据通过教师网络所得到的softmax层的输出。软标签相比硬标签(Ground Truth),有着更高的熵,更小的梯度变化。
上述公式为Softmax函数,当温度参数T为1时,为标准Softmax公式,T的值越大会使结果的分布更加平滑。获得更多的信息。本申请对网络进行训练时学生网络的硬标签预测图像(hard predictions)由T=1得到;教师网络的软标签图像(soft lables)和学生网络的软标签预测图像(soft predictions)由T=t(t>1)得到。
拜耳(bayer)格式:通过分析人眼对颜色的感知发现,人眼对绿色比较敏感,所以一般bayer格式的图像绿色像素的数量是红色和蓝色像素数量之和。一般拜耳阵列由1/2的绿色,1/4的红色,1/4的蓝色组成。
可选地,本申请以各个实施例提供的执行主体为电子设备为例进行说明,该电子设备为终端或服务器,终端可以为手机、计算机、平板电脑、扫描仪、电子眼、监控摄像头等,本实施例不对电子设备的类型作限定。
图1是本申请一个实施例提供的图像增强方法的流程图,该方法至少包括以下几个步骤:
步骤101,获取图像采集组件采集的原始图像数据。
可选地,图像采集组件的工作环境为低亮度环境,或者是光照强度低于亮度阈值的环境,在该环境下采集的图像通常无法被目标检测模型识别。此时,原始图像数据为低亮度图像。
原始图像数据是指以拜耳格式存储的Raw数据,由于拜耳格式不同于jpg等图像格式,拜耳格式存储的Raw数据未经过转化,因此,图像丢失的概率较低,使用该原始图像数据进行图像增强,可以保证图像增强效果。
步骤102,对原始图像数据进行预处理,得到预处理后的图像数据,预处理后的图像数据与预先训练的图像增强模型的输入层相适配。
预处理后的图像数据与图像增强模型的输入层相适配包括:预处理后的图像数据的图像尺寸与图像增强模型的输入层允许的图像尺寸相同。比如:图像增强模型的输入层允许的图像尺寸为750*250,则预处理后的图像数据的图像尺寸也应为750*250。
在一个示例中,电子设备仅对原始图像数据按照输入层允许的图像尺寸进行降采样处理,得到预处理后的图像数据。
在另一个示例中,电子设备提取原始图像数据中的感兴趣区域(Region ofInterest,ROI);对感兴趣区域进行降采样处理;对降采样后的图像数据进行通道分离;基于预先设置的亮度调节参数调节通道分离后的图像数据的亮度,得到预处理后的图像数据。
由于图像增强后的后处理过程可能仅对目标感兴趣,因此,本示例中,通过先提取感兴趣区域,再对感兴趣区域进行降采样处理,一方面可以减小图像增强模型的计算量,另一方面可以保证感兴趣区域的图像数据不会丢失太多,从而保证图像增强的效果。
比如:一张4096*2176分辨率的原始图像数据,在卡口或电警场景下通常能够获得约3000*1000大小的有效感兴趣区域ROI区域。为了进一步减小计算量,需要对3000*1000的ROI区域进行降采样处理。
提取原始图像数据中的感兴趣区域的方式包括:提取位于目标位置的预设尺寸的区域。其中,目标位置可以是原始图像区域的中间位置,或者也可以原始图像区域的其它位置,目标位置和预设尺寸可以由用户设置,或者也可以固定设置在电子设备中,本实施例不对目标位置和预设尺寸的实现方式作限定。
原始图像数据包括以拜耳格式存储的多组Raw数据,对感兴趣区域进行降采样处理,包括:每隔n行n列提取一组Raw数据,得到多组Raw数据。
由于拜耳格式的限制n的取值为正奇数,n的取值预存在电子设备中。随着n的取值的增大,亮度增强效果也会变差,基于此,本实施例中,以n的取值为1为例进行说明。
对降采样后的图像数据进行通道分离,包括:按照像素类型对降采样后的图像数据进行通道分离。以n为1时的提取过程和通道分离过程为例,参考图2所示,假设感兴趣区域的图像数据以RGGB 4个数据为一组,如图2中使用虚线框出的数据,则共有数据3000*1000/4=750000组数据。如图2所示,仅取奇数行,奇数列的一组数据,则一共可获取到750000/4=187500组数据。将每组的RGGB四个像素值按照RGGB四个像素类型拆分成四个通道,得到图2中最后一张图的形式。此时,获得750*250*4大小的数据,RGGB数据各个通道分离。
由于图像采集组件存储的每个数据的比特数计算机不可读,基于此,在对降采样后的图像数据进行通道分离之后,还可以将像素数据的比特数转换为预设比特数,预设比特数为计算机可读的比特数。比如:图像采集组件存储的每个数据的比特数为12bit。而计算机可读的预设比特数为8bit或者16bit,为了降低模型处理的数据量,本实施例中以预设比特数为8bit为例,此时可以将像素数据右移4位,从而将像素数据的比特数转化为预设比特数。
在其它实施例中,计算机可读的比特数也可以为16bit,此时,仅需要将该像素数据补全为16bit即可,本实施例不对像素数据转换比特数的方式作限定。
基于预先设置的亮度调节参数调节通道分离后的图像数据的亮度,得到预处理后的图像数据,包括:获取亮度调节参数,将通道分离后的图像数据的亮度调节至的该亮度调节参数指示的亮度等级。
其中,调节通道分离后的图像数据的亮度的过程可以通过下述函数设置:B=clip(A*scale,0,255)。A表示通道分离后的图像数据的像素值,scale为亮度调节参数,0表示亮度调节后的像素值的最小值,255表示亮度调节后的像素值的最大值,B表示按照scale进行亮度提升后得到的像素值。亮度调节后的像素值需要限制在最小值和最大值形成的取值范围内。scale为用户设置的值,示意性地,scale的取值范围为[1.0,5.0],在其它实施例中,scale的取值范围也可以是其它数值,本实施例不对该取值范围的实现方式作限定。
步骤103,将预处理后的图像数据输入图像增强模型,得到亮度增强后的图像数据。
本实施例中,图像增强模型是将教师网络的知识蒸馏至学生网络后得到的,在知识蒸馏过程中输入至所述学生网络的图像是对输入至所述教师网络的图像进行降采样得到的,且在知识蒸馏过程中所述教师网络输出的中间特征图还会共享至所述学生网络对应的网络层;所述学生网络使用所述中间特征图和降采样后的样本图像进行训练。
具体地,图3是本申请一个实施例提供的图像增强模型的训练方法的流程图,该方法至少包括以下几个步骤:
步骤31,获取训练数据,该训练数据包括样本图像、以及样本图像对应的标签图像。
其中,标签图像的亮度大于样本图像的亮度。
在一个示例中,标签图像和样本图像是使用不同照度对同一目标进行拍摄得到的;或者,样本图像和标签图像是在相同照度下,对同一目标使用不同曝光时长进行拍摄得到的,标签图像的曝光时长大于样本图像的曝光时长。其中,目标可以为车辆、或者人、或者后续需要检测识别的其它物体,本实施例不对目标的类型作限定。
步骤32,对样本图像进行预处理,以使预处理后的样本图像满足教师网络的输入要求。
在一个示例中,样本图像为拜耳格式,对样本图像进行预处理,包括:提取样本图像数据中的感兴趣区域;对感兴趣区域进行通道分离,得到分离后的样本图像;基于预先设置的亮度调节参数调节分离后的样本图像的亮度,得到预处理后的样本图像。
其中,感兴趣区域提取、通道分离以及亮度调节过程参见步骤102中的相关描述,本步骤中不再赘述。
步骤33,将预处理后的样本图像输入教师网络,得到软标签图像和中间特征图。
本实施例中,教师网络包括依次相连的至少两层第一特征提取层和输出层,学生网络包括依次相连的至少两层第二特征提取层和输出层;第二特征提取层的数量与第一特征提取层的数量相等,第二特征提取层的模型复杂度低于第一特征提取层的模型复杂度,且每层第一特征提取层输出的特征图的维度与对应一层第二特征提取层输出的特征图的维度相同。
相应地,将预处理后的样本图像输入教师网络,得到软标签图像和中间特征图,包括:将预处理后的样本图像输入教师网络,得到教师网络的第i层第一特征提取层输出的中间特征图和教师网络的输出层输出的软标签图像;其中,i为正整数。
在构建教师网络时,并不过多的关注网络模型的大小,而是关注网络模型的图像增强性能。假设教师网络包括三层第一特征提取层Ta、Tb、Tc。其中,第一特征提取层中使用的深度学习网络结构可以是多层卷积、反卷积、和/或空洞卷积等,不同第一特征提取层的网络结构相同或不同,本实施例不对第一特征提取层的实现方式作限定。
i的值预设在电子设备中,第i层可以是1层,也可以为至少两层,i的值小于第一特征提取层的数量。比如:在第一特征提取层包括三层的情况下,i可以为1,或者也可以为2,或者还可以为1和2,本实施例不对i的取值作限定。
在构建学生网络时,更加关注网络模型的耗时。基于此,学生网络中的每层第二特征提取层使用结构简单的卷积层,比如:使用常见的3x3,5x5的卷积,每层第二特征提取层在构建时卷积层数不超过预设层数(如5层、或4层等,本实施例不对预设层数的取值作限定)。学生网络中第二特征提取层的数量与教师网络中第一特征提取层的数量相等。以教师网络包括三层第一特征提取层Ta、Tb、Tc为例,则学生网络也包括三层第二特征提取层Sa、Sb、Sc,同时需保证Ta的输出与Sa输出的维度保持一致、Tb的输出与Sb输出的维度保持一致、且Tc的输出与Sc输出的维度保持一致。
预设层数小于或等于教师网络中每个第一特征提取层中的网络层数,换言之,预设层数小于或等于基于图像增强性能建立的神经网络中特征提取层的网络层数。
步骤34,将中间特征图共享至学生网络对应的网络层,得到学生网络输出的软标签预测图像和第一硬标签预测图像。
具体地,将中间特征图共享至学生网络的对应网络层,得到学生网络输出的软标签预测图像和第一硬标签预测图像,包括:将中间特征图作为学生网络中第i层第二特征提取层的输出结果,以输入第i+1层第二特征提取层,得到软标签预测图像和第一硬标签预测图像。
本申请中,教师网络和学生网络的图像输入尺寸不一致,这就会导致直接训练学生网络较难收敛的问题。基于此,本实施例中,在训练学生网络时需要使用到教师网络提取出的部分中间特征图来加速学生网络的收敛。
步骤35,基于软标签图像和软标签预测图像之间的差异训练教师网络。
具体地,将软标签图像和软标签预测图像输入第一损失函数,得到教师损失值;基于教师损失值更新教师网络的网络参数,以训练教师网络。
其中,第一损失函数可以为交叉熵或者扩展softmax,本实施例不对第一损失函数的实现方式作限定。
在其它实施例中,教师网络也可以是预先训练好的教师网络,此时,在步骤34之后直接执行步骤36,而不再需要对教师网络进行训练。
步骤36,对预处理后的样本图像进行降采样,得到降采样后的样本图像。
由于输入至学生网络的图像尺寸越大,学生网络进行特征提取的时长越长。因此,为了提高学生网络的计算效率,需要对预处理后样本图像进行降采样处理。传统的知识蒸馏方式中,输入至学生网络和教师网络的图像的尺寸相同,而若将降采样后的样本图像输入教师网络,会影响教师网络进行图像增强的性能。基于此,本实施例中,创造性地提出将预处理后的样本图像的图像尺寸不改变直接输入教师网络、将降采样后的样本图像输入学生网络,通过在知识蒸馏时将尺寸不同的图像分别输入至教师网络和学生网络,既可以保证教师网络进行图像增强的性能、又可以保证学生网络的计算速度,之后教师网络将学习到的知识蒸馏至学生网络,从而使得学生网络在保证计算速度的情况下,保证图像增强性能。
其中,对预处理后的样本图像进行降采样可以是将预处理后的样本图像的图像尺寸缩小为原始尺寸的1/4,或者1/16等,本实施例不对降采样方式作限定。比如:预处理后的样本图像DataT为1500*500*4,即图像尺寸为1500*500的4通道数据;对预处理后的样本图像DataT进行降采样得到的降采样后的样本图像DataS为750*250*4,即图像尺寸为750*250的4通道数据,由此可知,DataS的数据量仅为DataT的数据量的1/4。
在一个示例中,对预处理后的样本图像进行降采样包括:对预处理后的样本图像中每个像素通道的像素数据每隔预设行和预设列提取一个像素数据,得到降采样后的样本图像。比如:参考图4,对预处理后的样本图像DataT中每个像素通道的奇数行和奇数列分别提取一个像素数据,得到每个像素通道对应的降采样后的像素数据DataS。
其中,由于拜耳格式的限制,预设行和预设列的取值相等为正奇数。且随着预设行和预设列的取值的增大,亮度增强效果也会变差,基于此,本实施例中,以预设行和预设列的取值为1为例进行说明。
步骤37,将降采样后的样本图像输入学生网络,得到第二硬标签预测图像。
根据步骤34和步骤37可知,对于每张预处理后的样本图像,学生网络会执行两次计算过程。
比如:参考图5所示的模型训练训练过程,图5中以第一特征提取层包括Ta、Tb、Tc,第二特征提取层包括Sa、Sb、Sc,i的值为1为例。根据图5可知,使用预处理后的样本图像DataT输入教师网络进行一次计算后,将Ta输出的F_ta的值直接赋值给Sa的F_sa,然后,通过学生网络的Tb和Tc进行一次计算。之后,将降采样后的样本图像DataS输入学生网络,此时学生网络再次进行一次计算,即教师网络计算一次,学生网络计算两次。
图5中,以将Ta输出的F_ta共享为Sa的输出为例进行说明,在其它实施例中,也可以将Ta输出的F_ta共享为Sa的输出、并将Tb输出的F_tb共享为Sb的输出,以通过学生网络的Tb使用F_ta、学生网络的Tc使用F_tb进行一次计算;或者,仅将Tb输出的F_tb共享为Sb的输出,以通过学生网络的Tc使用F_tb进行一次计算,本实施例不对中间特征图的共享方式作限定。
可选地,步骤37可以在步骤34之后执行,或者也可以在步骤34之前执行,此时,中间特征图需要缓存一段时长,本实施例例不对步骤34和步骤37之间的执行顺序作限定。
步骤38,基于第一硬标签预测图像与标签图像之间的差异、第二硬标签预测图像与标签图像之间的差异,以及软标签图像和软标签预测图像之间的差异,训练学生网络,得到图像增强模型。
在一个示例中,根据上述步骤可知,对于同一个预处理后的样本图像,学生网络需要进行两次计算,本示例中,可以将两次计算的损失进行加权,以确定学生网络对应的学生损失值。具体地,基于第一硬标签预测图像与标签图像之间的差异、第二硬标签预测图像与标签图像之间的差异,以及软标签图像和软标签预测图像之间的差异,训练学生网络,得到图像增强模型,包括:将软标签图像和软标签预测图像输入第一损失函数,得到教师损失值;将标签图像和第一硬标签预测图像输入第二损失函数,得到第一损失值;将标签图像和第二硬标签预测图像输入第二损失函数,得到第二损失值;确定第一损失值和第二损失值的加权和,得到学生损失值;基于教师损失值和学生损失值,更新学生网络中的网络参数,以训练学生网络。
其中,第二损失函数可以为L2范数、L1范数或者交叉熵等,本实施例不对第二损失函数的实现方式作限定。
第一损失值和第二损失值的权重预先存储在电子设备中,比如:第一损失值的权重为0.5、第二损失值的权重为0.5,则确定第一损失值和第二损失值的加权和,得到学生损失值可以通过下式表示:
Loss_FnS=Loss_s1*0.5+Loss_s2*0.5;
其中,Loss_FnS表示学生损失值,Loss_s1表示第一损失值,Loss_s2表示第二损失值。
在实际实现时,第一损失值和第二损失值的权重也可以为其它值,本实施例不对该权重的取值作限定。
可选地,基于教师损失值和学生损失值,更新学生网络中的网络参数,包括:确定教师损失值和学生损失值的加权和,得到总损失值;按照总损失值对学生网络进行梯度回传,以更新学生网络参数。
此时,总损失值可以通过下式表示:
Loss=(1-a)*Loss_FnT+a*Loss_FnS;
其中,Loss表示总损失值;Loss_FnT表示教师损失值;Loss_FnS表示学生损失值,a表示损失所占的权重。
在另一个示例中,学生网络基于每次计算得到的损失值均进行一次训练。具体地,基于第一硬标签预测图像与标签图像之间的差异、第二硬标签预测图像与标签图像之间的差异,以及软标签图像和软标签预测图像之间的差异,训练学生网络,得到图像增强模型,包括:将软标签图像和软标签预测图像输入第一损失函数,得到教师损失值;将标签图像和第一硬标签预测图像输入第二损失函数,得到第一损失值;基于教师损失值和第一损失值更新学生网络中的网络参数,以训练学生网络;将标签图像和第二硬标签预测图像输入第二损失函数,得到第二损失值;基于教师损失值和第二损失值更新学生网络中的网络参数,以训练学生网络。
其中,基于教师损失值和第一损失值更新学生网络中的网络参数、以及基于教师损失值和第二损失值更新学生网络中的网络参数的相关描述,详见上文中基于教师损失值和学生损失值,更新学生网络中的网络参数的描述,区别在于将学生损失值替换为第一损失值或者第二损失值,本实施例在此不再赘述。
综上所述,本实施例提供的图像增强方法,通过获取图像采集组件采集的原始图像数据;对原始图像数据进行预处理,得到预处理后的图像数据;将预处理后的图像数据输入图像增强模型,得到亮度增强后的图像数据;由于输入至学生网络的图像尺寸越大,学生网络进行特征提取的时长越长,因此,一方面通过输入至学生网络的图像进行降采样处理,可以提高学生网络的计算效率。另一方面,传统的知识蒸馏方式中,输入至学生网络和教师网络的图像的尺寸相同,若将降采样后的样本图像输入教师网络,会影响教师网络进行图像增强的性能。而本申请中输入至教师网络的图像未经过降采样处理、仅将降采样后的图像输入学生网络,既可以保证教师网络进行图像增强的性能、又可以保证学生网络的计算速度,同时学生网络的网络复杂度低于教师网络的网络复杂度,之后教师网络将学习到的知识蒸馏至学生网络,从而使得学生网络在保证计算速度的情况下,还可以保证图像增强性能,这样,在图像增强过程中既可以提高图像增强的效率、又可以保证图像增强的效果。同时,由于教师网络的图像和输入至学生网络的图像的尺寸不一致,会导致知识蒸馏过程中学生网络难以收敛的问题。基于此,本申请中在知识蒸馏过程中,还会将教师网络输出的中间特征图共享至学生网络对应的网络层,以使学生网络使用中间特征图加速收敛,提高学生网络的训练效率。
另外,通过同时训练教师网络和学生网络,不需要单独对教师网络预先进行单独训练,可以提高模型训练效率。
另外,通过第一损失值和第二损失值的加权和确定学生损失值,基于学生损失值和教师损失值更新学生网络的网络参数,相较于基于第一损失值和教师损失值、第二损失值和教师损失值分别更新学生网络的网络参数来说,对于每张预处理后的样本图像学生网络仅需要更新一次网络参数,可以减少学生网络更新网络参数的次数,且由于学生损失值结合第一损失值和第二损失值得到,因此,使用学生损失值和教师损失值更新网络参数的准确性也不会降低。
另外,通过提取原始图像数据中的感兴趣区域;对感兴趣区域进行降采样处理;一方面可以减小图像增强模型的计算量,另一方面可以保证感兴趣区域的图像数据不会丢失太多,从而保证图像增强的效果。
另外,通过在图像输入至图像增强模型之前,基于预先设置的亮度调节参数调图像的亮度,可以保证输入至图像增强模型的图像亮度基本一致,从而使得图像增强模型输出的图像亮度也基本一致,可保证模型输出结果的稳定性。
可选地,上述图像增强方法可以用于车辆抓拍场景,或者也可以用于其它目标检测场景,下面以该图像增强方法用于车辆抓拍场景为例进行说明。本实施例中,车辆抓拍场景包括图像采集组件和发光组件,图像采集组件和发光组件均与电子设备通信相连。其中,电子设备可以与图像组件和/或发光组件实现在同一设备中,或者实现为相互独立的设备。图6是本申请一个实施例提供的车辆抓拍方法的流程图,该方法至少包括以下几个步骤:
步骤601,获取图像采集组件对车辆采集的原始图像数据。
本步骤的相关描述详见步骤101,区别在于步骤101的工作环境的车辆抓拍场景,如:卡口、停车场等场景,本实施例在此不再赘述。
步骤602,基于原始图像数据和预先训练的图像增强模型,得到亮度增强后的图像数据。
在一个示例中,电子设备基于步骤102和103中的方式得到亮度增强后的图像数据。
比如:图像采集组件能够约每40ms输出一张当前环境的Raw数据,即每秒25帧。电子设备获取到最新的Raw数据,按照图1所示的实施例对数据进行预处理后,将预处理后的图像数据输入图像增强模型,得到亮度增强后的图像数据。
在另一个示例中,若原始图像数据与图像增强模型的输入层相适配,则电子设备直接将原始图像数据输入预先训练的图像增强模型,得到亮度增强后的图像数据。
步骤603,将亮度增强后的图像数据输入预先训练的车辆检测网络,得到车辆检测结果。
车辆检测网络基于目标检测模型建立,并使用车辆图像和车辆图像对应的车辆标签训练得到,车辆检测网络适于检测图像中的车辆。
车辆检测结果用于指示亮度增强后的图像数据是否包括车辆,在包括车辆时,该车辆检测结果还用于指示车辆在亮度增强后的图像数据中的位置。
步骤604,在车辆检测结果指示检测到车辆的情况下,控制发光组件发光并控制图像采集组件再次进行图像采集,得到车辆的抓拍图像。
可选地,电子设备还可以对抓拍图像进行后处理;后处理是指对抓拍图像进行图像处理的过程,后处理包括但不限于:车牌识别、和/或图像增强等,本实施例不对后处理的方式作限定。
与传统的亮补光灯方案不同,本实施例中,发光组件在未检测到车辆的情况下不发光(或者说不启动),仅在车辆检测结果指示检测到车辆的情况下才发光,并在图像采集组件采集图像后关闭,整体表现为在车辆检测结果指示检测到车辆的情况下发光组件闪烁一次,一方面,能够降低发光组件的能耗,且能够大幅延长发光组件的使用寿命,并且降低暗光条件下发光组件常亮造成的光污染;另一方面,还能够保证暗光环境下车辆的抓拍率。
为了更清楚地理解本申请提出的车辆抓拍方法,下面以图5所示的图像增强方式为例,对该车辆抓拍方法举一个实例进行说明,参考图7,该方法至少包括如下几个步骤:
步骤71,获取图像采集组件输出的Raw数据;
步骤72,对Raw数据进行预处理,得到预处理后的图像数据;
步骤73,将预处理后的图像数据输入图像增强模型,得到亮度增强后的图像数据;
步骤74,对亮度增强后的图像数据进行车辆检测;
步骤75,基于车辆检测结果确定是否存在车辆,若有,则执行步骤76;若无,则执行步骤72;
步骤76,控制发光组件闪烁一次;
步骤77,获取在发光组件发光的情况下采集的抓拍图像;
步骤78,对抓拍图像进行后处理;
可选地,后处理包括但不限于:车牌识别、和/或图像增强等,本实施例不对后处理的方式作限定。
步骤79,输出抓拍图像和后处理结果。
比如:在无光的情况下,图像采集抓拍到的原始图像数据如图8中A所示,画面极暗,无法正常看出车辆信息。经过图像增强模型处理后能够获得如图8中B所示的车身亮度正常的图,此时,已能够满足车辆检测算法的图像质量需求。经过检测算法检测到车辆后,发光组件闪烁一次低照度补光灯,能够获得图8中C所示的抓拍图像,对该抓拍图像进行后处理后得到图8中D所示图,从D可以看到图形画面清晰,车牌清晰可见,可以提高后处理的准确性。
综上所述,本实施例提供的车辆抓拍方法,通过获取图像采集组件对车辆采集的原始图像数据;基于原始图像数据和预先训练的图像增强模型,得到亮度增强后的图像数据;将亮度增强后的图像数据输入预先训练的车辆检测网络,得到车辆检测结果;在车辆检测结果指示检测到车辆的情况下,控制发光组件发光并控制图像采集组件再次进行图像采集,得到车辆的抓拍图像;可以解决使用训练数据训练模型复杂度较高的图像增强网络时,得到的图像增强网络的计算效率较低的问题;将训练后的学生网络作为图像增强网络,可以在不影响图像增强性能的前提下,提高图像增强网络的计算效率。同时,通过在检测到亮度增强后的图像数据存在车辆的情况下,发光组件闪烁一次,一方面,能够降低发光组件的能耗,且能够大幅延长发光组件的使用寿命,避免发光组件常亮造成的光污染;另一方面,还能够保证暗光环境下车辆的抓拍率。
图9是本申请一个实施例提供的图像增强装置的框图。该装置至少包括以下几个模块:数据获取模块910、预处理模块920和图像增强模块930。
数据获取模块910,用于获取图像采集组件采集的原始图像数据;
预处理模块920,用于对所述原始图像数据进行预处理,得到预处理后的图像数据,所述预处理后的图像数据与预先训练的图像增强模型的输入层相适配;
图像增强模块930,用于将所述预处理后的图像数据输入所述图像增强模型,得到亮度增强后的图像数据;所述图像增强模型是将教师网络的知识蒸馏至学生网络后得到的,在知识蒸馏过程中输入至所述学生网络的图像是对输入至所述教师网络的图像进行降采样得到的,且在知识蒸馏过程中所述教师网络输出的中间特征图还会共享至所述学生网络对应的网络层;所述学生网络使用所述中间特征图和降采样后的样本图像进行训练,所述学生网络的网络复杂度低于所述教师网络的网络复杂度。
相关细节参考上述方法实施例。
需要说明的是:上述实施例中提供的基于图像增强模型的图像增强装置在进行基于图像增强模型的图像增强时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将基于图像增强模型的图像增强装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的基于图像增强模型的图像增强装置与基于图像增强模型的图像增强方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图10是本申请一个实施例提供的车辆抓拍装置的框图。该装置至少包括以下几个模块:数据获取模块1010、图像增强模块1020、车辆检测模块1030和车辆抓拍模块1040。
数据获取模块1010,用于获取图像采集组件对车辆采集的原始图像数据;
图像增强模块1020,用于基于所述原始图像数据和预先训练的图像增强模型,得到亮度增强后的图像数据;所述图像增强模型是将教师网络的知识蒸馏至学生网络后得到的,在知识蒸馏过程中输入至所述学生网络的图像是对输入至所述教师网络的图像进行降采样得到的,且在知识蒸馏过程中所述教师网络输出的中间特征图还会共享至所述学生网络对应的网络层;所述学生网络使用所述中间特征图和降采样后的样本图像进行训练,所述学生网络的网络复杂度低于所述教师网络的网络复杂度;
车辆检测模块1030,用于将所述亮度增强后的图像数据输入预先训练的车辆检测网络,得到车辆检测结果;
车辆抓拍模块1040,用于在所述车辆检测结果指示检测到车辆的情况下,控制发光组件发光并控制所述图像采集组件再次进行图像采集,得到车辆的抓拍图像。
相关细节参考上述方法实施例。
需要说明的是:上述实施例中提供的车辆抓拍装置在进行车辆抓拍时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将车辆抓拍装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的车辆抓拍装置与车辆抓拍方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图11是本申请一个实施例提供的电子设备的框图。该设备至少包括处理器1101和存储器1102。
处理器1101可以包括一个或多个处理核心,比如:4核心处理器、8核心处理器等。处理器1101可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1101也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1101可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1101还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1102可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1102还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1102中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1101所执行以实现本申请中方法实施例提供的图像增强或车辆抓拍方法。
在一些实施例中,电子设备还可选包括有:***设备接口和至少一个***设备。处理器1101、存储器1102和***设备接口之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口相连。示意性地,***设备包括但不限于:射频电路、触摸显示屏、音频电路、和电源等。
当然,电子设备还可以包括更少或更多的组件,本实施例对此不作限定。
可选地,本申请还提供有一种计算机可读存储介质,所述计算机可读存储介质中存储有程序,所述程序由处理器加载并执行以实现上述方法实施例的图像增强或车辆抓拍方法。
可选地,本申请还提供有一种计算机产品,该计算机产品包括计算机可读存储介质,所述计算机可读存储介质中存储有程序,所述程序由处理器加载并执行以实现上述方法实施例的图像增强或车辆抓拍方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种图像增强方法,其特征在于,所述方法包括:
获取图像采集组件采集的原始图像数据;
对所述原始图像数据进行预处理,得到预处理后的图像数据,所述预处理后的图像数据与图像增强模型的输入层相适配;
将所述预处理后的图像数据输入所述图像增强模型,得到亮度增强后的图像数据,所述图像增强模型是将教师网络的知识蒸馏至学生网络后得到的,在知识蒸馏过程中输入至所述学生网络的图像是对输入至所述教师网络的图像进行降采样得到的,且在知识蒸馏过程中所述教师网络输出的中间特征图还会共享至所述学生网络对应的网络层;所述学生网络使用所述中间特征图和降采样后的样本图像进行训练,所述学生网络的网络复杂度低于所述教师网络的网络复杂度。
2.根据权利要求1所述的方法,其特征在于,所述图像增强模型的训练过程包括:
获取训练数据,所述训练数据包括所述样本图像、以及所述样本图像对应的标签图像,所述标签图像的亮度大于所述样本图像的亮度;
对所述样本图像进行预处理,以使预处理后的样本图像满足教师网络的输入要求;
将所述预处理后的样本图像输入所述教师网络,得到软标签图像和中间特征图;
将所述中间特征图共享至学生网络对应的网络层,得到所述学生网络输出的软标签预测图像和第一硬标签预测图像;
基于所述软标签图像和所述软标签预测图像之间的差异训练所述教师网络;
对所述预处理后的样本图像进行降采样,得到降采样后的样本图像;
将所述降采样后的样本图像输入所述学生网络,得到第二硬标签预测图像;
基于所述第一硬标签预测图像与所述标签图像之间的差异、所述第二硬标签预测图像与所述标签图像之间的差异,以及所述软标签图像和所述软标签预测图像之间的差异,训练所述学生网络,得到所述图像增强模型。
3.根据权利要求2所述的方法,其特征在于,所述教师网络包括依次相连的至少两层第一特征提取层和输出层,所述学生网络包括依次相连的至少两层第二特征提取层和输出层;所述第二特征提取层的数量与所述第一特征提取层的数量相等,所述第二特征提取层的模型复杂度低于所述第一特征提取层的模型复杂度,且每层第一特征提取层输出的特征图的维度与对应一层第二特征提取层输出的特征图的维度相同;所述将所述预处理后的样本图像输入教师网络,得到软标签图像和中间特征图,包括:
将所述预处理后的样本图像输入教师网络,得到所述教师网络的第i层第一特征提取层输出的中间特征图和所述教师网络的输出层输出的软标签图像;其中,所述i为正整数;
相应地,所述将所述中间特征图共享至学生网络的对应网络层,得到所述学生网络输出的软标签预测图像和第一硬标签预测图像,包括:
将所述中间特征图作为所述学生网络中第i层第二特征提取层的输出结果,以输入第i+1层第二特征提取层,得到所述软标签预测图像和所述第一硬标签预测图像。
4.根据权利要求2所述的方法,其特征在于,所述基于所述第一硬标签预测图像与所述标签图像之间的差异、所述第二硬标签预测图像与所述标签图像之间的差异,以及所述软标签图像和所述软标签预测图像之间的差异,训练所述学生网络,得到所述图像增强模型,包括:
将所述软标签图像和所述软标签预测图像输入第一损失函数,得到教师损失值;
将所述标签图像和所述第一硬标签预测图像输入第二损失函数,得到第一损失值;
将所述标签图像和所述第二硬标签预测图像输入所述第二损失函数,得到第二损失值;
确定所述第一损失值和所述第二损失值的加权和,得到学生损失值;
基于所述教师损失值和所述学生损失值,更新所述学生网络中的网络参数,以训练所述学生网络。
5.根据权利要求2所述的方法,其特征在于,所述样本图像为拜耳格式,所述对所述样本图像进行预处理,包括:
提取所述样本图像数据中的感兴趣区域;
对所述感兴趣区域进行通道分离,得到分离后的样本图像;
基于预先设置的亮度调节参数调节所述分离后的样本图像的亮度,得到所述预处理后的样本图像。
6.根据权利要求1所述的方法,其特征在于,所述对所述原始图像数据进行预处理,包括:
提取所述原始图像数据中的感兴趣区域;
对所述感兴趣区域进行降采样处理;
对降采样后的图像数据进行通道分离;
基于预先设置的亮度调节参数调节通道分离后的图像数据的亮度,得到所述预处理后的图像数据。
7.根据权利要求6所述的方法,其特征在于,所述原始图像数据包括以拜耳格式存储的多组Raw数据,所述对所述感兴趣区域进行降采样处理,包括:
每隔n行n列提取一组Raw数据,得到多组Raw数据;所述n为正整数。
8.一种车辆抓拍方法,其特征在于,所述方法包括:
获取图像采集组件对车辆采集的原始图像数据;
基于所述原始图像数据和预先训练的图像增强模型,得到亮度增强后的图像数据;所述图像增强模型是将教师网络的知识蒸馏至学生网络后得到的,在知识蒸馏过程中输入至所述学生网络的图像是对输入至所述教师网络的图像进行降采样得到的,且在知识蒸馏过程中所述教师网络输出的中间特征图还会共享至所述学生网络对应的网络层;所述学生网络使用所述中间特征图和降采样后的样本图像进行训练,所述学生网络的网络复杂度低于所述教师网络的网络复杂度;
将所述亮度增强后的图像数据输入预先训练的车辆检测网络,得到车辆检测结果;
在所述车辆检测结果指示检测到车辆的情况下,控制发光组件发光并控制所述图像采集组件再次进行图像采集,得到车辆的抓拍图像。
9.一种电子设备,其特征在于,所述设备包括处理器和存储器;所述存储器中存储有程序,所述程序由所述处理器加载并执行以实现如权利要求1至7任一项所述的图像增强方法,或者实现如权利要求8所述的车辆抓拍方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质中存储有程序,所述程序被处理器执行时用于实现如权利要求1至7任一项所述的图像增强方法,或者实现如权利要求8所述的车辆抓拍方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211709136.0A CN115984133A (zh) | 2022-12-29 | 2022-12-29 | 图像增强方法、车辆抓拍方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211709136.0A CN115984133A (zh) | 2022-12-29 | 2022-12-29 | 图像增强方法、车辆抓拍方法、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115984133A true CN115984133A (zh) | 2023-04-18 |
Family
ID=85973705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211709136.0A Pending CN115984133A (zh) | 2022-12-29 | 2022-12-29 | 图像增强方法、车辆抓拍方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115984133A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117268345A (zh) * | 2023-11-20 | 2023-12-22 | 启元实验室 | 一种高实时性单目深度估计测量方法、装置及电子设备 |
-
2022
- 2022-12-29 CN CN202211709136.0A patent/CN115984133A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117268345A (zh) * | 2023-11-20 | 2023-12-22 | 启元实验室 | 一种高实时性单目深度估计测量方法、装置及电子设备 |
CN117268345B (zh) * | 2023-11-20 | 2024-03-29 | 启元实验室 | 一种高实时性单目深度估计测量方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110176027B (zh) | 视频目标跟踪方法、装置、设备及存储介质 | |
CN112686207B (zh) | 一种基于区域信息增强的城市街道场景目标检测方法 | |
CN111582095B (zh) | 一种轻量级行人异常行为快速检测方法 | |
CN113052006B (zh) | 一种基于卷积神经网络的图像目标检测方法,***及可读存储介质 | |
CN109657715B (zh) | 一种语义分割方法、装置、设备及介质 | |
CN114972976B (zh) | 基于频域自注意力机制的夜间目标检测、训练方法及装置 | |
CN112801027B (zh) | 基于事件相机的车辆目标检测方法 | |
CN110555465A (zh) | 一种基于cnn与多特征融合的天气图像识别方法 | |
CN109766828A (zh) | 一种车辆目标分割方法、装置及通信设备 | |
CN112819858B (zh) | 基于视频增强的目标跟踪方法、装置、设备及存储介质 | |
US20230131589A1 (en) | Method and electronic device for segmenting objects in scene | |
CN115861380A (zh) | 雾天低照度场景下端到端无人机视觉目标跟踪方法及装置 | |
CN113128308B (zh) | 一种港口场景下的行人检测方法、装置、设备及介质 | |
CN113409355A (zh) | 一种基于fpga的运动目标识别***及方法 | |
CN115984133A (zh) | 图像增强方法、车辆抓拍方法、设备及介质 | |
CN115019340A (zh) | 一种基于深度学习的夜间行人检测算法 | |
CN114708172A (zh) | 图像融合方法、计算机程序产品、存储介质及电子设备 | |
CN111242870A (zh) | 一种基于深度学习知识蒸馏技术的低光图像增强方法 | |
CN112668675B (zh) | 一种图像处理方法、装置、计算机设备及存储介质 | |
CN113989785A (zh) | 一种驾驶场景分类方法、装置、设备及存储介质 | |
CN110533027B (zh) | 一种基于移动设备的文本检测和识别方法与*** | |
CN112686314A (zh) | 基于远距离拍摄场景的目标检测方法、装置及存储介质 | |
CN116597144A (zh) | 一种基于事件相机的图像语义分割方法 | |
CN115578364A (zh) | 基于混合注意力与调和因子的微弱目标检测方法及*** | |
CN113221823B (zh) | 一种基于改进轻量级YOLOv3的交通信号灯倒计时识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |