CN115205094A - 一种神经网络训练方法、图像检测方法及其设备 - Google Patents

一种神经网络训练方法、图像检测方法及其设备 Download PDF

Info

Publication number
CN115205094A
CN115205094A CN202210632202.2A CN202210632202A CN115205094A CN 115205094 A CN115205094 A CN 115205094A CN 202210632202 A CN202210632202 A CN 202210632202A CN 115205094 A CN115205094 A CN 115205094A
Authority
CN
China
Prior art keywords
neural network
loss value
image
network
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210632202.2A
Other languages
English (en)
Inventor
王超运
孙鹤
潘华东
殷俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202210632202.2A priority Critical patent/CN115205094A/zh
Publication of CN115205094A publication Critical patent/CN115205094A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种神经网络训练方法、图像检测方法、终端设备以及计算机存储介质,该方法包括:获取训练图像集,训练图像集包括第一分辨率图像和第二分辨率图像,第一分辨率图像的分辨率高于第二分辨率图像的分辨率;将第一分辨率图像输入第一神经网络进行训练;将第二分辨率图像输入第二神经网络进行训练;基于第一损失值和第二损失值,计算总体损失值;利用总体损失值对第二神经网络进行网络参数更新,得到最终神经网络。本申请的神经网络训练方法能够利用高分辨率图像及高分辨率神经网络的训练结果辅助低分辨率神经网络进行训练,通过蒸馏学习的方式降低输入图像分辨率,减少神经网络训练的整体耗时,并且保证训练精度与高分辨率神经网络一致。

Description

一种神经网络训练方法、图像检测方法及其设备
技术领域
本申请涉及神经网络应用技术领域,特别是涉及一种神经网络训练方法、图像检测方法、终端设备以及计算机存储介质。
背景技术
深度学习在最近几年被广泛的应用起来,因为其特征提取能力强,在目标检测、目标分类、目标分割等计算机视觉领域广泛应用。但是同时因为其参数量巨大,依靠gpu(图形处理器,graphics processing unit)计算,多数应用部署于云端,在很多应用领域中很难落地应用,或者很难发挥其大网络的优秀性能。
针对此问题,很多研究学者研究了蒸馏学习、模型剪枝等网络压缩方法,使得网络的计算量减少,可以部署于轻量化设备中。除此之外,降低输入图像的分辨率,将可以直接减少整体网络计算量,但是同时也会导致精度的降低,如何在解决分辨率降低的同时,保证精度不下降是个研究的问题。
发明内容
本申请提供一种神经网络训练方法、图像检测方法、终端设备以及计算机存储介质。
本申请采用的一个技术方案是提供一种神经网络训练方法,所述神经网络训练方法包括:
获取训练图像集,所述训练图像集包括第一分辨率图像和第二分辨率图像,所述第一分辨率图像的分辨率高于所述第二分辨率图像的分辨率;
将所述第一分辨率图像输入第一神经网络进行训练,获取第一损失值;
将所述第二分辨率图像输入第二神经网络进行训练,获取第二损失值;
基于所述第一损失值和所述第二损失值,计算总体损失值;
利用所述总体损失值对所述第二神经网络进行网络参数更新,得到最终神经网络。
其中,所述第一分辨率图像和所述第二分辨率图像由同一图像经过不同分辨率处理得到;所述第一神经网络至少包括所述第二神经网络的网络结构。
其中,所述基于所述第一损失值和所述第二损失值,计算总体损失值,包括:
设置一平衡参数;
利用所述平衡参数将所述第一损失值和所述第二损失值加权相加,得到所述总体损失值。
其中,所述利用所述总体损失值对所述第二神经网络进行网络参数更新,得到最终神经网络,包括:
利用所述总体损失值对所述第一神经网络进行网络参数更新,得到所述第一神经网络的第一网络参数;
将所述第一网络参数共享给所述第二神经网络,以对所述第二神经网络进行网络参数更新,得到最终神经网络。
其中,所述利用所述总体损失值对所述第二神经网络进行网络参数更新,得到最终神经网络,包括:
利用所述总体损失值对所述第一神经网络进行网络参数更新,得到所述第一神经网络的第三网络参数;
利用所述总体损失值对所述第二神经网络进行网络参数更新,得到所述第二神经网络的第二网络参数;
基于所述第二网络参数和所述第三网络参数,计算得到最终网络参数以及所述最终网络参数组成的最终神经网络。
其中,所述将所述第一分辨率图像输入第一神经网络进行训练,获取第一损失值之后,所述神经网络训练方法还包括:
将所述第一损失值与预设损失阈值进行比较;
在所述第一损失值小于等于所述预设损失阈值时,固定所述第一神经网络的网络参数。
本申请采用的另一个技术方案是提供一种图像检测方法,所述图像检测方法包括:
获取预先训练的神经网络,其中,所述神经网络通过上述的神经网络训练方法训练得到;
获取待检测视频,对所述待检测视频进行处理,提取所述待检测视频中符合所述神经网络输入的至少一个待检测图像;
将所述至少一个待检测图像输入所述神经网络,检测所述待检测图像中目标对象。
其中,所述待检测视频为采集设备对厨房中监控区域拍摄的视频,所述目标对象为老鼠。
本申请采用的另一个技术方案是提供一种终端设备,所述终端设备包括存储器以及与所述存储器耦接的处理器;
其中,所述存储器用于存储程序数据,所述处理器用于执行所述程序数据以实现如上述的神经网络训练方法和/或图像检测方法。
本申请采用的另一个技术方案是提供一种计算机存储介质,所述计算机存储介质用于存储程序数据,所述程序数据在被计算机执行时,用以实现如上述的神经网络训练方法和/或图像检测方法。
本申请的有益效果是:终端设备获取训练图像集,所述训练图像集包括第一分辨率图像和第二分辨率图像,所述第一分辨率图像的分辨率高于所述第二分辨率图像的分辨率;将所述第一分辨率图像输入第一神经网络进行训练,获取第一损失值;将所述第二分辨率图像输入第二神经网络进行训练,获取第二损失值;基于所述第一损失值和所述第二损失值,计算总体损失值;利用所述总体损失值对所述第二神经网络进行网络参数更新,得到最终神经网络。本申请的神经网络训练方法能够利用高分辨率图像及高分辨率神经网络的训练结果辅助低分辨率神经网络进行训练,通过蒸馏学习的方式降低输入图像分辨率,减少神经网络训练的整体耗时,并且保证训练精度与高分辨率神经网络一致。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的神经网络训练方法一实施例的流程示意图;
图2是本申请提供的神经网络训练方法总流程的示意图;
图3是本申请提供的高低分辨率模型蒸馏学习的流程示意图;
图4是本申请提供的图像检测方法一实施例的流程示意图;
图5是本申请提供的终端设备一实施例的结构示意图;
图6是本申请提供的终端设备另一实施例的结构示意图;
图7是本申请提供的终端设备又一实施例的结构示意图;
图8是本申请提供的计算机存储介质一实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请主要设计了一套减少设备端深度学习模型处理图像耗时降低的方法,和传统方法不一样的是,本申请从图像分辨率角度入手,结合蒸馏学习,可以在网络计算和图像预处理两个角度同时降低耗时,同时保证精度一致。
具体请参阅图1和图2,图1是本申请提供的神经网络训练方法一实施例的流程示意图,图2是本申请提供的神经网络训练方法总流程的示意图。
如图1所示,本申请实施例的神经网络训练方法具体可以包括以下步骤:
步骤S11:获取训练图像集,训练图像集包括第一分辨率图像和第二分辨率图像,第一分辨率图像的分辨率高于第二分辨率图像的分辨率。
在本申请实施例中,终端设备获取训练图像集,其中,以图像分类应用为例,终端设备可以连接设置于监控场景的监控摄像头,通过监控摄像头采集视频流,或者若干视频帧,组成训练图像集;也可以连接存储设备,从存储设备直接提取若干图像组成训练图像集;还可以从公开训练集获取符合图像分类应用的训练图像,组成本申请用于神经网络训练的训练图像集。
进一步地,训练图像集中至少包括两种或两种以上分辨率的图像,即第一分辨率图像和第二分辨率图像,其中,第一分辨率图像的分辨率高于第二分辨率图像的分辨率。在其中一种可能的实施方式中,第一分辨率图像的分辨率可以为224*224,而第二分辨率图像的分辨率可以为112*112。
在其他实施例中,如图2所示,终端设备也可以获取同一图像分辨率的训练图像数据集,然后通过图像预处理,即分辨率预处理方式基于训练图像数据集生成高分辨率图像数据集和低分辨图像数据集。具体地,终端设备可以对训练图像数据集进行图像预处理操作,在本申请实施例中,可以采用尺寸的缩放变换,为了进行区分,可以分成2种不同大小的尺寸变换,其尺寸变换结果即为高分辨率图像和低分辨率图像。另外,终端设备也可以只采用1种尺寸变换,即将训练图像数据集直接作为高分辨率图像集,将训练图像数据集进行尺寸变换,生成低分辨率图像集。
步骤S12:将第一分辨率图像输入第一神经网络进行训练,获取第一损失值。
在本申请实施例中,终端设备将第一分辨率图像输入第一神经网络,即高分辨率神经网络,得到高分辨率神经网络对高分辨率图像的预测标签。然后,终端设备利用高分辨率图像的真实标签与预测标签的差异,计算得到高分辨率神经网络的第一损失值。
步骤S13:将第二分辨率图像输入第二神经网络进行训练,获取第二损失值。
在本申请实施例中,终端设备将第二分辨率图像输入第二神经网络,即低分辨率神经网络,得到低分辨率神经网络对低分辨率图像的预测标签。然后,终端设备利用低分辨率图像的真实标签与预测标签的差异,计算得到低分辨率神经网络的第二损失值。
终端设备将高分辨率图像输入高分辨率神经网络,将低分辨率图像输入低分辨率神经网络,进行联合训练。联合训练结果得到的是效果比较好的是输入为高分辨率图像的高分辨率神经网络,即图2所示的模型1_高分辨率模型。
步骤S14:基于第一损失值和第二损失值,计算总体损失值。
在本申请实施例中,终端设备将步骤S12训练得到的高分辨率神经网络作为蒸馏学习的教师模型,而本申请实施例目标需要的低分辨率神经网络作为蒸馏学习的学生模型。
具体,请继续参阅图3,图3是本申请提供的高低分辨率模型蒸馏学习的流程示意图。原始图像通过步骤S11所述的尺寸变化,如2次不同的图像预处理,尺寸变换为2种不同的分辨率图像,即图3所示的低分辨率图像和高分辨率图像。
经过尺寸变换后,低分辨率图像上的特征信息较高分辨率图像少些,但是整体的语义信息保持不变,本申请希望通过高分辨率模型提供这块的输出特征信息协助低分辨率模型进行学习由于低分辨率变换缺少的图像特征信息。
如图3所示,在训练过程中,其中模型2_低分辨率模型是目标模型,需要参数的更新,而模型1_高分辨率模型则是只用输出结果计算loss,即损失值。其中,用于训练低分辨率模型的总体损失值的计算公式具体如下:
Loss=a*loss1+(1-a)*loss2
其中,loss2为模型2_低分辨率模型的输出损失值,loss1为模型1_高分辨率模型的输出结果,a为平衡参数,平衡loss1和loss2。一种具体的实施例中,在实际使用时终端设备选择a=0.9,得到总体的Loss对模型2_低分辨率模型进行参数更新训练。在其他实施例中,终端设备也可以选其他数值的平衡参数,在此不一一列举。
步骤S15:利用总体损失值对第二神经网络进行网络参数更新,得到最终神经网络。
在本申请实施例中,终端设备通过第一神经网络和第二神经网络的联合蒸馏学习,训练完成的第二神经网络、即模型2_低分辨率模型,其效果与第一神经网络、即模型1_高分辨率模型的效果相当,但是第二神经网络的输入图像的分辨率降低,能够有效减少图像预处理耗时和模型计算耗时。
第二神经网络的网络参数更新方式包括但不限于以下三种方式:
第一、第二神经网络直接按照总体损失值更新自身神经网络的网络参数。
第二、第一神经网络按照总体损失值更新自身神经网络的网络参数,由于第一神经网络是教师模型,第二神经网络是学生模型,第一神经网络至少包括第二神经网络的网络结构。因此,第一神经网络可以将自身神经网络中与第二神经网络共享的网络结构的网络参数共享给第二神经网络,以使第二神经网络更新自身神经网络的网络参数。
第三、第一神经网络按照总体损失值更新自身神经网络的网络参数,第二神经网络按照总体损失值更新自身神经网络的网络参数。第二神经网络按照预设规则对第一神经网络的网络参数和第二神经网络的网络参数进行融合,得到第二神经网络的最终网络参数。
其中,预设规则包括但不限于:取第一神经网络的网络参数和第二神经网络的网络参数的平均值作为第二神经网络的最终网络参数;将第一神经网络的网络参数和第二神经网络的网络参数加权融合,融合结果作为第二神经网络的最终网络参数,其权值可以参考平衡参数的设定,在此不再赘述。
在以上三种网络参数更新方法中,在多次迭代过程中,第二神经网络的网络参数不断更新,其训练的损失值也不断向预设阈值逼近。而第一神经网络的网络参数也会不断更新,直至第一神经网络的训练损失值小于等于预设阈值时,终端设备即可固定第一神经网络的网络参数,甚至停止将高分辨率图像输入第一神经网络,仅执行将低分辨率输入第二神经网络的步骤,并利用固定的网络参数及其训练损失值帮助第二神经网络继续训练。
在本申请实施例中,终端设备获取训练图像集,所述训练图像集包括第一分辨率图像和第二分辨率图像,所述第一分辨率图像的分辨率高于所述第二分辨率图像的分辨率;将所述第一分辨率图像输入第一神经网络进行训练,获取第一损失值;将所述第二分辨率图像输入第二神经网络进行训练,获取第二损失值;基于所述第一损失值和所述第二损失值,计算总体损失值;利用所述总体损失值对所述第二神经网络进行网络参数更新,得到最终神经网络。本申请的神经网络训练方法能够利用高分辨率图像及高分辨率神经网络的训练结果辅助低分辨率神经网络进行训练,通过蒸馏学习的方式降低输入图像分辨率,减少神经网络训练的整体耗时,并且保证训练精度与高分辨率神经网络一致。
本申请采用高分辨网络模型作为教师模型,低分辨率网络模型作为学生模型,对同一张图像进行不同的预处理变换后进行蒸馏学习,可以在不改变深度学习网络的基础上,降低输入图像分辨率,从预处理和网络计算量两个方面减少整体耗时时间,并且保证精度和高分辨率模型一致。
请继续参阅图4,图4是本申请提供的图像检测方法一实施例的流程示意图。
如图4所示,本申请实施例的图像检测方法具体可以包括以下步骤:
步骤S21:获取预先训练的神经网络。
在本申请实施例中,预先训练的神经网络可以为图1至图3所示的低分辨率神经网络,其训练过程在此不再赘述。
步骤S22:获取待检测视频,对待检测视频进行处理,提取待检测视频中符合神经网络输入的至少一个待检测图像。
在本申请实施例中,终端设备利用采集设备对厨房场景中的监控区域拍摄待检测视频,然后在待检测视频中抽取至少一个待检测图像。进一步地,终端设备需要根据神经网络的输入要求对待检测图像进行图像处理,例如,终端设备可以将高分辨率的待检测图像经过尺寸变换处理为神经网络设定的低分辨率图像。
同样地,本申请实施例的图像检测方法同样适用于其他应用场景,例如教室、地铁等,在此不一一列举。
步骤S23:将至少一个待检测图像输入神经网络,检测待检测图像中目标对象。
在本申请实施例中,终端设备将步骤S22提取的至少一个待检测图像输入神经网络,利用神经网络检测待检测图像中的目标对象,例如厨房场景中的老鼠。
由于厨房场景中的老鼠,对于人类来说,只需要检测是否存在即可,不需要检测其具体形态,因为低分辨率神经网络足够检测并标记出厨房场景中的老鼠,无须对老鼠进行高分辨率检测,对于这类场景及其目标对象,采用低分辨率神经网络能够在保证检测精度的同时,有效减少神经网络预测以及网络计算量的整体耗时,提高图像检测方法的准确性。
以上实施例,仅是对本申请的其中一种常见案例而已,并非对本申请的技术范围做任何限制,故凡是依据本申请方案的实质对以上内容所做的任何细微修改、等同变化或者修饰,均仍属于本申请技术方案的范围内。
请继续参见图5,图5是本申请提供的终端设备一实施例的结构示意图。本申请实施例的终端设备300包括获取模块31、训练模块32、计算模块33以及更新模块34。
其中,获取模块31,用于获取训练图像集,所述训练图像集包括第一分辨率图像和第二分辨率图像,所述第一分辨率图像的分辨率高于所述第二分辨率图像的分辨率。
训练模块32,用于将所述第一分辨率图像输入第一神经网络进行训练,获取第一损失值;将所述第二分辨率图像输入第二神经网络进行训练,获取第二损失值。
计算模块33,用于基于所述第一损失值和所述第二损失值,计算总体损失值。
更新模块34,用于利用所述总体损失值对所述第二神经网络进行网络参数更新,得到最终神经网络。
请继续参见图6,图6是本申请提供的终端设备另一实施例的结构示意图。本申请实施例的终端设备400包括网络模块41、图像模块42以及检测模块43。
其中,所述网络模块41,用于获取预先训练的神经网络。
图像模块42,用于获取待检测视频,对所述待检测视频进行处理,提取所述待检测视频中符合所述神经网络输入的至少一个待检测图像。
检测模块43,用于将所述至少一个待检测图像输入所述神经网络,检测所述待检测图像中目标对象。
请继续参见图7,图7是本申请提供的终端设备又一实施例的结构示意图。本申请实施例的终端设备500包括处理器51、存储器52、输入输出设备53以及总线54。
该处理器51、存储器52、输入输出设备53分别与总线54相连,该存储器52中存储有程序数据,处理器51用于执行程序数据以实现上述实施例所述的神经网络训练方法和/或图像检测方法。
在本申请实施例中,处理器51还可以称为CPU(Central Processing Unit,中央处理单元)。处理器51可能是一种集成电路芯片,具有信号的处理能力。处理器51还可以是通用处理器、数字信号处理器(DSP,Digital Signal Process)、专用集成电路(ASIC,Application Specific Integrated Circuit)、现场可编程门阵列(FPGA,FieldProgrammable Gate Array)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器51也可以是任何常规的处理器等。
本申请还提供一种计算机存储介质,请继续参阅图8,图8是本申请提供的计算机存储介质一实施例的结构示意图,该计算机存储介质600中存储有程序数据61,该程序数据61在被处理器执行时,用以实现上述实施例的神经网络训练方法和/或图像检测方法。
本申请的实施例以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,方式利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (10)

1.一种神经网络训练方法,其特征在于,所述神经网络训练方法包括:
获取训练图像集,所述训练图像集包括第一分辨率图像和第二分辨率图像,所述第一分辨率图像的分辨率高于所述第二分辨率图像的分辨率;
将所述第一分辨率图像输入第一神经网络进行训练,获取第一损失值;
将所述第二分辨率图像输入第二神经网络进行训练,获取第二损失值;
基于所述第一损失值和所述第二损失值,计算总体损失值;
利用所述总体损失值对所述第二神经网络进行网络参数更新,得到最终神经网络。
2.根据权利要求1所述的神经网络训练方法,其特征在于,
所述第一分辨率图像和所述第二分辨率图像由同一图像经过不同分辨率处理得到;所述第一神经网络至少包括所述第二神经网络的网络结构。
3.根据权利要求1所述的神经网络训练方法,其特征在于,
所述基于所述第一损失值和所述第二损失值,计算总体损失值,包括:
设置一平衡参数;
利用所述平衡参数将所述第一损失值和所述第二损失值加权相加,得到所述总体损失值。
4.根据权利要求1所述的神经网络训练方法,其特征在于,
所述利用所述总体损失值对所述第二神经网络进行网络参数更新,得到最终神经网络,包括:
利用所述总体损失值对所述第一神经网络进行网络参数更新,得到所述第一神经网络的第一网络参数;
将所述第一网络参数共享给所述第二神经网络,以对所述第二神经网络进行网络参数更新,得到最终神经网络。
5.根据权利要求4所述的神经网络训练方法,其特征在于,
所述利用所述总体损失值对所述第二神经网络进行网络参数更新,得到最终神经网络,包括:
利用所述总体损失值对所述第一神经网络进行网络参数更新,得到所述第一神经网络的第三网络参数;
利用所述总体损失值对所述第二神经网络进行网络参数更新,得到所述第二神经网络的第二网络参数;
基于所述第二网络参数和所述第三网络参数,计算得到最终网络参数以及所述最终网络参数组成的最终神经网络。
6.根据权利要求1所述的神经网络训练方法,其特征在于,
所述将所述第一分辨率图像输入第一神经网络进行训练,获取第一损失值之后,所述神经网络训练方法还包括:
将所述第一损失值与预设损失阈值进行比较;
在所述第一损失值小于等于所述预设损失阈值时,固定所述第一神经网络的网络参数。
7.一种图像检测方法,其特征在于,所述图像检测方法包括:
获取预先训练的神经网络,其中,所述神经网络通过权利要求1至6任一项所述的神经网络训练方法训练得到;
获取待检测视频,对所述待检测视频进行处理,提取所述待检测视频中符合所述神经网络输入的至少一个待检测图像;
将所述至少一个待检测图像输入所述神经网络,检测所述待检测图像中目标对象。
8.根据权利要求7所述的图像检测方法,其特征在于,
所述待检测视频为采集设备对厨房中监控区域拍摄的视频,所述目标对象为老鼠。
9.一种终端设备,其特征在于,所述终端设备包括存储器以及与所述存储器耦接的处理器;
其中,所述存储器用于存储程序数据,所述处理器用于执行所述程序数据以实现如权利要求1至6任一项所述的神经网络训练方法和/或权利要求7至8任一项所述的图像检测方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质用于存储程序数据,所述程序数据在被计算机执行时,用以实现如权利要求1至6任一项所述的神经网络训练方法和/或权利要求7至8任一项所述的图像检测方法。
CN202210632202.2A 2022-05-31 2022-05-31 一种神经网络训练方法、图像检测方法及其设备 Pending CN115205094A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210632202.2A CN115205094A (zh) 2022-05-31 2022-05-31 一种神经网络训练方法、图像检测方法及其设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210632202.2A CN115205094A (zh) 2022-05-31 2022-05-31 一种神经网络训练方法、图像检测方法及其设备

Publications (1)

Publication Number Publication Date
CN115205094A true CN115205094A (zh) 2022-10-18

Family

ID=83575288

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210632202.2A Pending CN115205094A (zh) 2022-05-31 2022-05-31 一种神经网络训练方法、图像检测方法及其设备

Country Status (1)

Country Link
CN (1) CN115205094A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115761448A (zh) * 2022-12-02 2023-03-07 美的集团(上海)有限公司 神经网络的训练方法、训练装置和可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115761448A (zh) * 2022-12-02 2023-03-07 美的集团(上海)有限公司 神经网络的训练方法、训练装置和可读存储介质
CN115761448B (zh) * 2022-12-02 2024-03-01 美的集团(上海)有限公司 神经网络的训练方法、训练装置和可读存储介质

Similar Documents

Publication Publication Date Title
US11062123B2 (en) Method, terminal, and storage medium for tracking facial critical area
US20210398294A1 (en) Video target tracking method and apparatus, computer device, and storage medium
CN109871781B (zh) 基于多模态3d卷积神经网络的动态手势识别方法及***
US10671855B2 (en) Video object segmentation by reference-guided mask propagation
Tang et al. Pixel convolutional neural network for multi-focus image fusion
Zhang et al. Non-rigid object tracking via deep multi-scale spatial-temporal discriminative saliency maps
Bangquan et al. Real-time embedded traffic sign recognition using efficient convolutional neural network
CN112132156A (zh) 多深度特征融合的图像显著性目标检测方法及***
US20140064626A1 (en) Adaptive image processing apparatus and method based in image pyramid
CN108875482B (zh) 物体检测方法和装置、神经网络训练方法和装置
US20210201501A1 (en) Motion-based object detection method, object detection apparatus and electronic device
CN110222718A (zh) 图像处理的方法及装置
CN112036260A (zh) 一种自然环境下多尺度子块聚合的表情识别方法及***
CN112597918A (zh) 文本检测方法及装置、电子设备、存储介质
Yang Research on lane recognition algorithm based on deep learning
CN114495006A (zh) 遗留物体的检测方法、装置及存储介质
CN112561879A (zh) 模糊度评价模型训练方法、图像模糊度评价方法及装置
CN110503002B (zh) 一种人脸检测方法和存储介质
CN116977674A (zh) 图像匹配方法、相关设备、存储介质及程序产品
CN116994021A (zh) 图像检测方法、装置、计算机可读介质及电子设备
CN111652181A (zh) 目标跟踪方法、装置及电子设备
Hua et al. Dynamic scene deblurring with continuous cross-layer attention transmission
CN115205094A (zh) 一种神经网络训练方法、图像检测方法及其设备
CN111126250A (zh) 一种基于ptgan的行人重识别方法及装置
Xu et al. Super-resolving blurry face images with identity preservation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination