CN113128444A - 一种损失函数获取方法、计算机可读存储介质及电子设备 - Google Patents

一种损失函数获取方法、计算机可读存储介质及电子设备 Download PDF

Info

Publication number
CN113128444A
CN113128444A CN202110468959.8A CN202110468959A CN113128444A CN 113128444 A CN113128444 A CN 113128444A CN 202110468959 A CN202110468959 A CN 202110468959A CN 113128444 A CN113128444 A CN 113128444A
Authority
CN
China
Prior art keywords
loss function
target frame
equal
target
less
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110468959.8A
Other languages
English (en)
Other versions
CN113128444B (zh
Inventor
唐得志
石先让
肖飞
韦圣兵
王磊
秦玉林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chery Automobile Co Ltd
Original Assignee
Chery Automobile Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chery Automobile Co Ltd filed Critical Chery Automobile Co Ltd
Priority to CN202110468959.8A priority Critical patent/CN113128444B/zh
Publication of CN113128444A publication Critical patent/CN113128444A/zh
Application granted granted Critical
Publication of CN113128444B publication Critical patent/CN113128444B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及车辆环境感知技术领域,提供了一种损失函数获取方法,包括:S1、获取目标框参数的预测值,输入构建的损失函数模型,损失函数模型为:
Figure DDA0003044578370000011
S2、基于目标框参数的预测值与期望值的接近程度来调节损失函数模型中的损失函数系数A及损失函数幂指数α;S3、损失函数模型输出参数预测值对应的损失函数;z表示目标框参数的预测值,
Figure DDA0003044578370000012
表示目标框参数的期望值。本发明主要通过采用简单快速的绝对值幂指数的式定义深度学习的损失函数,并根据学习过程中的期望模型与实际模型的差值,动态定义损失函数的相关幂指数和系数,在保证函数可微条件的同时加快深度学习的收敛速度,以及提高收敛精度,并有效防止模型的过拟合学习和梯度消失现象。

Description

一种损失函数获取方法、计算机可读存储介质及电子设备
技术领域
本发明涉及到车辆环境感知技术领域,提供了一种损失函数获取方法、计算机可读存储介质及电子设备。
背景技术
随着汽车技术的发展,对于汽车安全性的追求和环境的保护,智能汽车的研究近些年逐渐受到广泛的关注,作为智能汽车研究的高级目标,智能汽车自动驾驶技术可以将驾驶员从繁杂的操作中解放出来,降低因人为原因造成的交通事故发生率,对于智能汽车自动驾驶技术可分为环境感知技术、路径规划与决策技术以及运动控制技术,其中对外部环境的准确、实时感知是智能汽车实现高精度定位、路径规划、决策和运动控制的关键技术。单目摄像头由于具备结构简单和成本低等优点而被广泛使用。由于传统单目视觉环境感知算法主要依靠先验知识来设计模型,因此这类算法的泛化能力不强。而基于深度学习的单目视觉环境感知算法生成的模型却可以适用于多类目标,泛化能力得到显著提升,损失函数是影响深度学习模型实时性和准确性的重要的技术,通过对预测样本和真实样本标记产生的误差反向传播指导网络参数学习,简洁合理的损失函数能极大的提升深度学习的算法效率
相关技术中,采用均方误差(MSE)损失函数、交叉熵损失函数(cross entropy)、合页损失函数(hinge loss)和平滑L1损失函数等,均方误差(MSE)损失函数易受到样本中大的值的影响且在误差较小时收敛速度慢,从而降低算法学***滑L1损失函数在目标检测中计算目标框重叠度(IOU)时很难有效利用损失函数值来分类,因此很有必要基于深度学习算法架构提出新的损失函数形式,有效解决传统损失函数存在的收敛速度慢、稳态精度低等问题,提高深度学习的效率。
发明内容
本发明提供了一种损失函数获取方法,旨在改善上述问题。
本发明是这样是实现的,一种损失函数获取方法,所述损失函数用于深度学习,所述方法包括:
S1、获取目标框参数的预测值,输入构建的损失函数模型,损失函数模型为:
Figure BDA0003044578350000021
S2、基于目标框参数的预测值与期望值的接近程度来调节损失函数模型中的损失函数系数A及损失函数幂指数α;
S3、损失函数模型输出参数预测值对应的损失函数;
Zloss表示损失函数,z表示目标框参数的预测值,
Figure BDA0003044578350000025
表示目标框参数的期望值,A是损失函数系数,α是损失函数幂指数。
进一步的,损失函数系数A及损失函数幂指数α的调节方法具体如下:
当e≥10时,A=1,α=1;
当1≤e<10时,
Figure BDA0003044578350000022
α=2;
当0.1≤e<1时,A=2,
Figure BDA0003044578350000023
当e<0.1时,A=3,
Figure BDA0003044578350000024
进一步的,目标框参数为目标检测中目标框的中心坐标和大小值及目标框的属性。
进一步的,当目标框参数为目标框中心坐标和大小时,所述损失函数模型为:
Figure BDA0003044578350000031
lossx,y,w,h是预测目标的坐标和大小预测的损失函数,i表示网格单元序号,S2表示网格单元总数,j表示每个网格单元中的目标边界框序号,B表示每个网格单元中目标边界框的总数,xi和yi分别表示第i个网格单元中目标框的中心横坐标和中心纵坐标的预测值,wi和hi分别表示第i个网格单元中目标框的长度和宽度的预测值,
Figure BDA0003044578350000032
是判断第i个网格单元中的第j个边界框是否负责这个目标,若
Figure BDA0003044578350000033
表示第i个网格单元中的第j个边界框中存在目标,若
Figure BDA0003044578350000034
表示第i个网格单元中的第j个边界框中不存在目标,λcoord是学习的权重参数,
Figure BDA0003044578350000035
分别表示目标框中心横坐标和中心纵坐标的期望值,
Figure BDA0003044578350000036
分别表示目标框长度和宽度的期望值;A1,A2是目标框中心坐标的损失函数系数,A3,A4是目标框大小的损失函数系数,α12是目标框中心坐标的损失函数幂指数,α34是目标框大小的损失函数幂指数。
进一步的,损失函数系数A1,A2,A3,A4及损失函数幂指数α1234的调节方法具体如下:
Figure BDA0003044578350000037
当e1≥10时,A1=1,α1=1;当1≤e1<10时,
Figure BDA0003044578350000038
α1=2;
当0.1≤e1<1时,A1=2,
Figure BDA0003044578350000039
当e1<0.1时,A1=3,
Figure BDA00030445783500000310
Figure BDA0003044578350000041
当e2≥10时,A2=1,α2=1;当1≤e2<10时,
Figure BDA0003044578350000042
α2=2;
当0.1≤e2<1时,A2=2,
Figure BDA0003044578350000043
当e2<0.1时,A2=3,
Figure BDA0003044578350000044
Figure BDA0003044578350000045
当e3≥10时,A3=1,α3=1;当1≤e3<10时,
Figure BDA0003044578350000046
α3=2;
当0.1≤e3<1时,A3=2,
Figure BDA0003044578350000047
当e3<0.1时,A3=3,
Figure BDA0003044578350000048
Figure BDA0003044578350000049
当e4≥10时,A4=1,α4=1;当1≤e4<10时,
Figure BDA00030445783500000410
α4=2;
当0.1≤e4<1时,A4=2,
Figure BDA00030445783500000411
当e4<0.1时,A4=3,
Figure BDA00030445783500000412
另一方面,本发明还提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行时实现如上所述损失函数获取方法步骤。
另一方面,本发明还提供了一种损失函数获取方法的电子设备,所述电子设备包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上所述的损失函数获取方法的电子设备的步骤。
本发明主要通过采用简单快速的绝对值幂指数式定义深度学习的损失函数,并根据学习过程中的期望模型与实际模型的差值,动态定义损失函数的相关幂指数和系数,在保证函数可微条件的同时加快深度学习的收敛速度,以及提高收敛精度,并有效防止模型的过拟合学习和梯度消失现象,与传统的损失函数相比较,本发明的损失函数计算量小且易于编程实现。
附图说明
图1为深度学习的流程图;
图2为本发明实施例提供的损失函数系数A及损失函数幂指数α的调节方法流程图。
具体实施方式
下面对照附图,通过对最优实施例的描述,对本发明的具体实施方式作进一步详细的说明。
输入学***均池化层降低数据维度后,送入全连接层进行处理后得到一系列目标框参数,并与图片目标框标注的真实参数进行损失函数的计算,并根据损失函数的负梯度方向(即损失函数减少的方向)调整卷积层的参数及特征金字塔中的权重值,循环学习后,当损失函数的阙值小于设定值时,深度学习结束,网络参数即可固定,此时已完成训练的深度学习网络就可以进行测试图片的目标检测,如图1所示。
本发明主要通过采用简单快速的绝对值幂指数式定义深度学习的损失函数,并根据学习过程中的期望模型与实际模型的差值,动态定义损失函数的相关幂指数和系数,在保证函数可微条件的同时加快深度学习的收敛速度,以及提高收敛精度,并有效防止模型的过拟合学习和梯度消失现象,与传统的损失函数相比较,本发明的损失函数计算量小且易于编程实现。
在自动驾驶目标识别中,单目视觉传感器会实时采集帧图,自动驾驶视觉感知的目标是从帧图网格单元中预测交通参与者(机动车、非机动车,行人等)的位置和属性,因此定义待优化的变量z为帧图网格单元中预测目标框的中心横坐标和中心纵坐标,以及预测目标框的长度和宽度,将该变量带入到之后步骤所设计的损失函数中来评价学习模型的预测值与真实值的接近程度。
根据传统深度学习损失函数的不足,定义如下损失函数形式如式(1)和式(2)所示:
Zloss=A·eα (1)
Figure BDA0003044578350000061
式中,Zloss表示定义的损失函数,z表示目标框参数的预测值,
Figure BDA0003044578350000062
表示目标框参数的期望值,e表示目标框参数的预测值与期望值差的绝对值,A是损失函数系数,α是损失函数幂指数。
本发明所定义的损失函数通过动态定义损失函数中的幂指数和系数,保证深度学习算法以较快收敛速度和较高的收敛精度完成样本学习,在保证函数可微和收敛速度的情况下,损失函数幂指数和系数采用动态的分段定义方法,具体流程见图2如下:
当期望值与预测值差的绝对值e大于10时,因为误差比较大,为降低算法对噪声点的敏感度和计算量,定义损失函数的系数和幂指数均为1,提升算法的泛化能力;当期望值与预测值差的绝对值e在1和10之间时,为了保证收敛速度,定义损失函数的系数为0.5,损失函数的幂指数为2,这里的系数定义也可确保损失函数在e=1处可微;当期望值与预测值差的绝对值e在0.1和1之间时,定义损失函数的系数为2,损失函数的幂指数为0.5,这里的幂指数定义是为了当误差较小时,该损失函数提供梯度大于传统的均方差等方法,保证算法较快的收敛速度,这里的系数定义也可确保损失函数在e=0.1处可微;当期望值与预测值差的绝对值e小于0.1时,定义损失函数的系数为3,损失函数的幂指数为1/3,这里的系数和幂指数定义保证在误差很小时;该损失函数提供更大的梯度加快损失函数的收敛速度。
式(1)和式(2)记载的损失函数可用于目标框中心坐标、目标框大小、目标框属性的学习,下面以目标框中心坐标和大小为例进行详细说明。
本发明中的损失函数应用到目标检测中目标框中心坐标和目标框大小的深度学习中,具体的形式如式(3)所示:
Figure BDA0003044578350000071
式中,lossx,y,w,h是预测目标的坐标和大小预测的损失函数,i表示网格单元序号,S2表示网格单元总数,j表示每个网格单元中的目标边界框序号,B表示每个网格单元中目标边界框的总数,xi和yi分别表示第i个网格单元中目标框的中心横坐标和中心纵坐标的预测值,wi和hi分别表示第i个网格单元中目标框的长度和宽度的预测值,
Figure BDA0003044578350000072
是判断第i个网格单元中的第j个边界框是否负责这个目标,若
Figure BDA0003044578350000073
表示第i个网格单元中的第j个边界框中存在目标,若
Figure BDA0003044578350000074
表示第i个网格单元中的第j个边界框中不存在目标,λcoord是学习的权重参数,定义值为5,
Figure BDA0003044578350000075
分别表示目标框中心横坐标和中心纵坐标的期望值,
Figure BDA0003044578350000076
分别表示目标框长度和宽度的期望值;A1,A2是目标框中心坐标的损失函数系数,A3,A4是目标框大小的损失函数系数,α12是目标框中心坐标的损失函数幂指数,α34是目标框大小的损失函数幂指数。
损失函数系数A1,A2,A3,A4及损失函数幂指数α1234的调节方法具体如下:
Figure BDA0003044578350000081
当e1≥10时,A1=1,α1=1;当1≤e1<10时,
Figure BDA0003044578350000082
α1=2;
当0.1≤e1<1时,A1=2,
Figure BDA0003044578350000083
当e1<0.1时,A1=3,
Figure BDA0003044578350000084
Figure BDA0003044578350000085
当e2≥10时,A2=1,α2=1;当1≤e2<10时,
Figure BDA0003044578350000086
α2=2;
当0.1≤e2<1时,A2=2,
Figure BDA0003044578350000087
当e2<0.1时,A2=3,
Figure BDA0003044578350000088
Figure BDA0003044578350000089
当e3≥10时,A3=1,α3=1;当1≤e3<10时,
Figure BDA00030445783500000810
α3=2;
当0.1≤e3<1时,A3=2,
Figure BDA00030445783500000811
当e3<0.1时,A3=3,
Figure BDA00030445783500000812
Figure BDA00030445783500000813
当e4≥10时,A4=1,α4=1;当1≤e4<10时,
Figure BDA00030445783500000814
α4=2;
当0.1≤e4<1时,A4=2,
Figure BDA00030445783500000815
当e4<0.1时,A4=3,
Figure BDA00030445783500000816
在实际应用中,通过式(3)所示的损失函数加上动态参数定义方法即可快速准确的完成目标的中心坐标和长宽的深度学习的迭代流程。
相应的,本发明提供一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行时实现前述所述失函数获取方法步骤。
相应的,本发明还公开了损失函数获取方法的电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如前述公开的损失函数获取方法的步骤。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参加即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于硬件+程序类实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参加方法实施例的部分说明即可。
本说明书实施例并不局限于必须是符合行业通信标准、标准计算机数据处理和数据存储规则或本说明书一个或多个实施例所描述的情况。某些行业标准或者使用自定义方式或实施例描述的实施基础上略加修改后的实施方案也可以实现上述实施例相同、等同或相近、或变形后可预料的实施效果。应用这些修改或变形后的数据获取、存储、判断、处理方式等获取的实施例,仍然可以属于本说明书实施例的可选实施方案范围之内。另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤.
而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (7)

1.一种损失函数获取方法,所述损失函数用于深度学习,其特征在于,所述方法包括:
S1、获取目标框参数的预测值,输入构建的损失函数模型,损失函数模型为:
Figure FDA0003044578340000011
S2、基于目标框参数的预测值与期望值的接近程度来调节损失函数模型中的损失函数系数A及损失函数幂指数α;
S3、损失函数模型输出参数预测值对应的损失函数;
Zloss表示损失函数,z表示目标框参数的预测值,
Figure FDA0003044578340000012
表示目标框参数的期望值,A是损失函数系数,α是损失函数幂指数。
2.如权利要求1所述损失函数获取方法,所述损失函数用于深度学习,其特征在于,损失函数系数A及损失函数幂指数α的调节方法具体如下:
当e≥10时,A=1,α=1;
当1≤e<10时,
Figure FDA0003044578340000013
α=2;
当0.1≤e<1时,A=2,
Figure FDA0003044578340000014
当e<0.1时,A=3,
Figure FDA0003044578340000015
3.如权利要求1所述损失函数获取方法,所述损失函数用于深度学习,其特征在于,目标框参数为目标检测中目标框的中心坐标和大小值及目标框的属性。
4.如权利要求3所述损失函数获取方法,所述损失函数用于深度学习,其特征在于,当目标框参数为目标框中心坐标和大小时,所述损失函数模型为:
Figure FDA0003044578340000021
lossx,y,w,h是预测目标的坐标和大小预测的损失函数,i表示网格单元序号,S2表示网格单元总数,j表示每个网格单元中的目标边界框序号,B表示每个网格单元中目标边界框的总数,xi和yi分别表示第i个网格单元中目标框的中心横坐标和中心纵坐标的预测值,wi和hi分别表示第i个网格单元中目标框的长度和宽度的预测值,
Figure FDA0003044578340000022
是判断第i个网格单元中的第j个边界框是否负责这个目标,若
Figure FDA0003044578340000023
表示第i个网格单元中的第j个边界框中存在目标,若
Figure FDA0003044578340000024
表示第i个网格单元中的第j个边界框中不存在目标,λcoord是学习的权重参数,
Figure FDA0003044578340000025
Figure FDA0003044578340000026
分别表示目标框中心横坐标和中心纵坐标的期望值,
Figure FDA0003044578340000027
分别表示目标框长度和宽度的期望值;A1,A2是目标框中心坐标的损失函数系数,A3,A4是目标框大小的损失函数系数,α12是目标框中心坐标的损失函数幂指数,α34是目标框大小的损失函数幂指数。
5.如权利要求4所述用于深度学习中的目标框中心坐标和目标框大小的损失函数获取方法,其特征在于,损失函数系数A1,A2,A3,A4及损失函数幂指数α1234的调节方法具体如下:
Figure FDA0003044578340000028
当e1≥10时,A1=1,α1=1;当1≤e1<10时,
Figure FDA0003044578340000029
α1=2;
当0.1≤e1<1时,A1=2,
Figure FDA00030445783400000210
当e1<0.1时,A1=3,
Figure FDA00030445783400000211
Figure FDA00030445783400000212
当e2≥10时,A2=1,α2=1;当1≤e2<10时,
Figure FDA00030445783400000213
α2=2;
当0.1≤e2<1时,A2=2,
Figure FDA00030445783400000214
当e2<0.1时,A2=3,
Figure FDA00030445783400000215
Figure FDA0003044578340000031
当e3≥10时,A3=1,α3=1;当1≤e3<10时,
Figure FDA0003044578340000032
α3=2;
当0.1≤e3<1时,A3=2,
Figure FDA0003044578340000033
当e3<0.1时,A3=3,
Figure FDA0003044578340000034
Figure FDA0003044578340000035
当e4≥10时,A4=1,α4=1;当1≤e4<10时,
Figure FDA0003044578340000036
α4=2;
当0.1≤e4<1时,A4=2,
Figure FDA0003044578340000037
当e4<0.1时,A4=3,
Figure FDA0003044578340000038
6.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行时实现如权利要求1至5任一权利要求所述损失函数获取方法步骤。
7.一种损失函数获取方法的电子设备,其特征在于,所述电子设备包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至5任一权利要求所述的损失函数获取方法的电子设备的步骤。
CN202110468959.8A 2021-04-28 2021-04-28 一种损失函数获取方法、计算机可读存储介质及电子设备 Active CN113128444B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110468959.8A CN113128444B (zh) 2021-04-28 2021-04-28 一种损失函数获取方法、计算机可读存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110468959.8A CN113128444B (zh) 2021-04-28 2021-04-28 一种损失函数获取方法、计算机可读存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN113128444A true CN113128444A (zh) 2021-07-16
CN113128444B CN113128444B (zh) 2023-02-03

Family

ID=76780932

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110468959.8A Active CN113128444B (zh) 2021-04-28 2021-04-28 一种损失函数获取方法、计算机可读存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN113128444B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596053A (zh) * 2018-04-09 2018-09-28 华中科技大学 一种基于ssd和车辆姿态分类的车辆检测方法和***
CN109034365A (zh) * 2018-07-06 2018-12-18 电子科技大学 深度学习模型的训练方法及装置
WO2019183087A1 (en) * 2018-03-20 2019-09-26 Phantom AI, Inc. Data augmentation using computer simulated objects for autonomous control systems
CN110348460A (zh) * 2019-07-04 2019-10-18 成都旷视金智科技有限公司 一种基于角度的目标检测训练方法、目标检测方法及装置
WO2019231105A1 (ko) * 2018-05-31 2019-12-05 한국과학기술원 트리플릿 기반의 손실함수를 활용한 순서가 있는 분류문제를 위한 딥러닝 모델 학습 방법 및 장치
CN111709336A (zh) * 2020-06-08 2020-09-25 杭州像素元科技有限公司 一种高速公路行人检测方法、设备及可读存储介质
CN111723854A (zh) * 2020-06-08 2020-09-29 杭州像素元科技有限公司 一种高速公路交通拥堵检测方法、设备及可读存储介质
US20200356812A1 (en) * 2019-05-10 2020-11-12 Moley Services Uk Limited Systems and methods for automated training of deep-learning-based object detection
CN111950329A (zh) * 2019-05-16 2020-11-17 长沙智能驾驶研究院有限公司 目标检测及模型训练方法、装置、计算机设备和存储介质
US20200364597A1 (en) * 2017-12-01 2020-11-19 1Qb Information Technologies Inc. Systems and methods for stochastic optimization of a robust inference problem
CN112329873A (zh) * 2020-11-12 2021-02-05 苏州挚途科技有限公司 目标检测模型的训练方法、目标检测方法及装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200364597A1 (en) * 2017-12-01 2020-11-19 1Qb Information Technologies Inc. Systems and methods for stochastic optimization of a robust inference problem
WO2019183087A1 (en) * 2018-03-20 2019-09-26 Phantom AI, Inc. Data augmentation using computer simulated objects for autonomous control systems
CN108596053A (zh) * 2018-04-09 2018-09-28 华中科技大学 一种基于ssd和车辆姿态分类的车辆检测方法和***
WO2019231105A1 (ko) * 2018-05-31 2019-12-05 한국과학기술원 트리플릿 기반의 손실함수를 활용한 순서가 있는 분류문제를 위한 딥러닝 모델 학습 방법 및 장치
CN109034365A (zh) * 2018-07-06 2018-12-18 电子科技大学 深度学习模型的训练方法及装置
US20200356812A1 (en) * 2019-05-10 2020-11-12 Moley Services Uk Limited Systems and methods for automated training of deep-learning-based object detection
CN111950329A (zh) * 2019-05-16 2020-11-17 长沙智能驾驶研究院有限公司 目标检测及模型训练方法、装置、计算机设备和存储介质
CN110348460A (zh) * 2019-07-04 2019-10-18 成都旷视金智科技有限公司 一种基于角度的目标检测训练方法、目标检测方法及装置
CN111709336A (zh) * 2020-06-08 2020-09-25 杭州像素元科技有限公司 一种高速公路行人检测方法、设备及可读存储介质
CN111723854A (zh) * 2020-06-08 2020-09-29 杭州像素元科技有限公司 一种高速公路交通拥堵检测方法、设备及可读存储介质
CN112329873A (zh) * 2020-11-12 2021-02-05 苏州挚途科技有限公司 目标检测模型的训练方法、目标检测方法及装置

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JINGLIN XU等: "Multi-View Scaling Support Vector Machines for Classification and Feature Selection", 《IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING》 *
JINGLIN XU等: "Multi-View Scaling Support Vector Machines for Classification and Feature Selection", 《IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING》, 7 July 2020 (2020-07-07), pages 1 - 12 *
石先让等: "T_CenterNet: 基于CenterNet 目标检测算法的改进模型", 《计算机工程》 *
石先让等: "T_CenterNet: 基于CenterNet 目标检测算法的改进模型", 《计算机工程》, 10 September 2020 (2020-09-10), pages 1 - 14 *
石先让等: "一种新颖的单目视觉深度学习算法:H_SFPN", 《计算机科学》, 5 November 2020 (2020-11-05), pages 3 *

Also Published As

Publication number Publication date
CN113128444B (zh) 2023-02-03

Similar Documents

Publication Publication Date Title
CN110059554B (zh) 一种基于交通场景的多支路目标检测方法
CN108564097B (zh) 一种基于深度卷积神经网络的多尺度目标检测方法
CN109902677B (zh) 一种基于深度学习的车辆检测方法
CN110070074B (zh) 一种构建行人检测模型的方法
CN108052911B (zh) 基于深度学习的多模态遥感影像高层特征融合分类方法
CN112364931B (zh) 一种基于元特征和权重调整的少样本目标检测方法及网络***
CN110309747B (zh) 一种支持多尺度快速深度行人检测模型
CN111783772A (zh) 一种基于RP-ResNet网络的抓取检测方法
CN112270252A (zh) 一种改进YOLOv2模型的多车辆目标识别方法
CN108985250A (zh) 一种基于多任务网络的交通场景解析方法
CN112487915B (zh) 一种基于Embedded YOLO算法的行人检测方法
CN111460919A (zh) 一种基于改进YOLOv3的单目视觉道路目标检测及距离估计方法
CN109087337B (zh) 基于分层卷积特征的长时间目标跟踪方法及***
CN111461213A (zh) 一种目标检测模型的训练方法、目标快速检测方法
CN112784869B (zh) 一种基于注意力感知与对抗学习的细粒度图像识别方法
CN110555870A (zh) 基于神经网络的dcf跟踪置信度评价与分类器更新方法
CN112001241A (zh) 基于通道注意力机制的微表情识别方法及***
CN114565842A (zh) 基于Nvidia Jetson嵌入式硬件的无人机实时目标检测方法及***
CN109993772B (zh) 基于时空采样的实例级别特征聚合方法
CN113281718B (zh) 一种基于激光雷达场景流估计的3d多目标跟踪***及方法
Fan et al. Covered vehicle detection in autonomous driving based on faster rcnn
CN113963272A (zh) 一种基于改进yolov3的无人机图像目标检测方法
CN113128444B (zh) 一种损失函数获取方法、计算机可读存储介质及电子设备
CN113111877A (zh) 一种特征金字塔及其特征图像的提取方法
CN114612518A (zh) 基于历史轨迹信息和细粒度匹配的孪生网络目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant