CN113838099A - 一种基于孪生神经网络的单目标跟踪方法 - Google Patents

一种基于孪生神经网络的单目标跟踪方法 Download PDF

Info

Publication number
CN113838099A
CN113838099A CN202111222926.1A CN202111222926A CN113838099A CN 113838099 A CN113838099 A CN 113838099A CN 202111222926 A CN202111222926 A CN 202111222926A CN 113838099 A CN113838099 A CN 113838099A
Authority
CN
China
Prior art keywords
prediction
branch
regression
response
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111222926.1A
Other languages
English (en)
Inventor
杨兆龙
庞惠民
夏永清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dali Technology Co ltd
Original Assignee
Zhejiang Dali Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dali Technology Co ltd filed Critical Zhejiang Dali Technology Co ltd
Priority to CN202111222926.1A priority Critical patent/CN113838099A/zh
Publication of CN113838099A publication Critical patent/CN113838099A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于孪生神经网络的单目标跟踪方法,该方法包括如下步骤:S1、获取模板图像和当前帧搜索图像;S2、将模板图像和当前帧搜索图像分别送入训练好的siamfc++网络中,得到预测分类响应图、预测质量响应图和回归响应图;S3、将预测分类响应图和预测质量评估响应图进行点乘得到预测概率图;S4、获取预测概率图最大响应点所对应的回归响应图上坐标值,作为预测目标的坐标值,将预测目标的坐标值映射到搜索图像对应的坐标系下,得到目标的位置。

Description

一种基于孪生神经网络的单目标跟踪方法
技术领域
本发明涉及是深度学习技术的单目标跟踪方法,特别是深度学习网络结构中的孪生网络和无需事先设置先验框的目标检测技术,属于目标跟踪技术领域。
背景技术
目标跟踪是指对图像序列中的运动目标进行检测、提取、识别和跟踪,获得运动目标的运动参数,如位置、速度、加速度和运动轨迹等,从而进行下一步的处理与分析,实现对运动目标的行为理解,以完成更高一级的任务。
目标跟踪(单目标)领域的研究者们将跟踪算法分为生成式和判别式方法。一:生成式方法采用特征模型描述目标的外观特征,再最小化跟踪目标与候选目标之间的重构误差来确认目标;生成式方法着重于目标本身的特征提取,忽略目标的背景信息,比较著名的方法有卡尔曼滤波,粒子滤波,mean-shift等,在目标外观发生剧烈变化或者遮挡时候容易出现目标漂移或者目标丢失情况。二:判别式方法将目标跟踪看做是一个二元分类问题,通过训练关于目标和背景的分类器来从候选目标中确定目标,该方法可以显著的区分背景和目标,具有性能鲁棒,准确率高的有点,渐渐成为目标跟踪领域主流方法。且目前大多数基于深度学习的目标跟踪算法也属于判别式方法。
在人工智能顶级会议AAAI上发表了一篇文章SiamFC++:Towards Robust andAccurate Visual Tracking with Target Estimation Guidelines实现单目标跟踪功能,该文献提出分类和状态估计任务的分离,分类任务将目标从干扰物和背景中分类出来,目标状态的估计如iou-loss回归等有利于对目标尺度变化的适应性;分类分数应该直接表示目标存在的置信度分数,即在“视野”中对应像素的子窗口,而不是预设置的锚点框。抛弃目标比例或比率这样的先验知识,提高了模型的泛化能力。使用与分类无关的估计质量评分而非使用分类置信度进行边框选择,提高了模型的准确率。但该方法还存在下列问题:
该方法在模型训练阶段,SiamFC++采用特征图上的特征点映射回原输入图像时,映射回的像素点在目标框内即为正样本。但通常情况下,目标框占据输入图像很小的比例,因此会导致正样本数量很少,负样本数量太多,产生类别不均衡问题,严重影响模型的精度。
该方法类别预测分支使用Focal-loss作为损失函数,它是在标准交叉熵损失基础上修改得到的。这个损失函数可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本。但是难分类样本很可能是离群点,过度关注离群点容易产生过拟合现象,降低模型泛化能力。
该方法边框回归分支采用IOU-loss,IoU是真实框和预测框的交集和并集之比,当它们完全重合时,IoU就是1,不相交时为0。但是IOU-loss在IoU值是相同时,IoU值不能反映两个框是如何相交的。当预测框和目标框不相交时,IoU(A,B)=0时,不能反映A,B距离的远近,此时损失函数不可导,IoU Loss无法优化两个框不相交的情况。
发明内容
本发明解决的技术问题是:克服现有技术的不足,提供一种容易训练、防止过拟合,提高模型泛化能力,同时减少误识别的方法。
本发明的技术解决方案是:一种基于孪生神经网络的单目标跟踪方法,该方法包括如下步骤:
S1、获取模板图像和当前帧搜索图像。
S2、将模板图像和当前帧搜索图像分别送入训练好的siamfc++网络中,得到预测分类响应图、预测质量响应图和回归响应图;
S3、将预测分类响应图和预测质量评估响应图进行点乘得到预测概率图;
S4、获取预测概率图最大响应点所对应的回归响应图上坐标值,作为预测目标的坐标值,将预测目标的坐标值映射到搜索图像对应的坐标系下,得到目标的位置。
优选地,所述siamfc++网络为孪生神经网络,所述孪生神经网络包括类别预测分支、预测质量评估分支,边框回归分支;
模板图像和搜索图像输入至类别预测分支后,得到模板图像和搜索图像的分类特征图,模板图像和搜索图像的分类特征图进行卷积操作,得到分类响应图;
模板图像和搜索图像输入至预测质量评估分支后,得到模板图像和搜索图像的预测质量评估特征图,模板图像和搜索图像的预测质量评估特征图进行卷积操作,得到质量评估响应图;
模板图像和搜索图像输入至边框回归分支后,得到模板图像和搜索图像的回归特征图,模板图像和搜索图像的回归特征图进行卷积操作,得到回归响应图。
优选地,所述siamfc++网络的训练方法如下:
S1.1、从LaSOT数据集中获取裁剪后的模板图像和搜索图像;
S1.2、将裁剪后的模板图像和搜索图像输入至siamfc++网络,得到预测分类响应图、预测质量响应图和回归响应图;
S1.3、预测分类响应图、预测质量响应图和回归响应图,分别计算类别预测分支、预测质量评估分支,边框回归分支的损失函数;
S4、将三支路损失函数的总和作为siamfc++网络总的损失函数,使用随机梯度下降算法进行损失优化,得到使得siamfc++网络总的损失函数达到最小值,从而确定siamfc++网络的参数。
优选地,所述边框回归分支采用GIOU函数作为损失函数。
优选地,所述类别预测分支采用梯度模长作为损失函数,该损失函数公式如下:
Figure BDA0003313291850000031
式中,N为分类响应图中的特征点数;i为分类响应图中的特征点序号,即类别预测分支模型样本的序号;GD(gi)为类别预测分支模型第i个样本的梯度密度。
优选地,所述梯度密度GD(gi)的计算公式为:
Figure BDA0003313291850000041
式中,δε(gk,gi)为1或者0,当第k个样本的梯度模长gk分布在
Figure BDA0003313291850000042
范围内时,δε(gk,gi)为1,否则δε(gk,gi)为0;lε(gi)代表了
Figure BDA0003313291850000043
区间的长度,即ε;
优选地,所述梯度模长gi的计算公式如下:
Figure BDA0003313291850000044
其中,
Figure BDA0003313291850000045
是类别预测模型的预测概率,
Figure BDA0003313291850000046
的取值为0或1,是训练集样本的标签。
优选地,所述质量评估分支采用BCE-loss作为损失函数。
在分配正负样本时,通过事先设置阈值的方式来减少负样本数量。在类别预测分支使用梯度模长技术防止过拟合,边框回归分支采用GIOU损失函数。
具体实现如下:
(1)、保持原有的确定正样本的方式不变之外,在确定负样本数量时,事先确定一个阈值,低于阈值的为负样本,高于或等于阈值的在计算梯度损失时忽略不计。
(2)、梯度模长做法则是从样本的梯度范数出发,通过梯度范数所占的样本比例,对样本进行动态的加权,使得具有小梯度容易区分的样本降权。具有中梯度的难分样本加权,高梯度的离群点降权。具体损失函数公式如下:
Figure BDA0003313291850000047
其中梯度密度GD(g)的物理含义是单位梯度模长g的样本个数,具体公式如下:
Figure BDA0003313291850000051
δε(gk,g)表明了样本1-N中,梯度模长分布在
Figure BDA0003313291850000052
范围内的样本个数,lε(g)代表了
Figure BDA0003313291850000053
区间的长度。
而梯度模长g的计算公式如下:
Figure BDA0003313291850000054
其中p是模型预测概率,p*的取值为0或1,是训练集样本的标签。
Figure BDA0003313291850000055
是交叉熵,公式如下:
Figure BDA0003313291850000056
在进行边框回归的损失函数中本发明采用Giou损失函数,如图2所示,C代表包围A、B的最小体积(或面积)。首先计算A与B的交互比,然后根据交互比计算LGIoU
Figure BDA0003313291850000057
Figure BDA0003313291850000058
LGIoU=1-GLoU
本发明与现有技术相比的有益效果是:
(1)梯度模长技术使得容易区分的样本,特别难以区分的样本或者称为离群点的样本等少数的样本权重降低,梯度模长技术使得模型更加关注大多数样本,提高模型泛化能力。
(2)GIoU作为度量距离损失函数时,具有非负性、对称性、以及三角不等性、尺度不变性。另外如图3,三种不同的重叠方式,Iou的值均是0.33,GIoU从左至右分别是0.33,0.24和0.1。GIoU在同一方向具有更高的匹配度。GIoU考虑到了IoU没有考虑到的非重叠区域,能够反映出A、B重叠方式。
附图说明
图1为本发明实施例SiamFC++网络结构图;
图2为本发明实施例IOU交互比示意图;
图3为本发明实施例不同交互方式示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面结合实施方式和附图,对本发明作进一步地详细描述。
本发明提供了一种基于孪生神经网络的单目标跟踪方法,该方法包括如下步骤:
S1、获取模板图像和当前帧搜索图像。
S2、将模板图像和当前帧搜索图像分别送入训练好的siamfc++网络中,得到预测分类响应图、预测质量响应图和回归响应图;
S3、将预测分类响应图和预测质量评估响应图进行点乘得到预测概率图;
S4、获取预测概率图最大响应点所对应的回归响应图上的特征点,将回归响应图上该特征点的坐标值映射到搜索图像对应的坐标系下,得到目标的位置。
所述siamfc++网络为孪生神经网络,所述孪生神经网络包括类别预测分支、预测质量评估分支,边框回归分支;
模板图像和搜索图像输入至类别预测分支后,得到模板图像和搜索图像的分类特征图,模板图像和搜索图像的分类特征图进行卷积操作,得到分类响应图;
模板图像和搜索图像输入至预测质量评估分支后,得到模板图像和搜索图像的预测质量评估特征图,模板图像和搜索图像的预测质量评估特征图进行卷积操作,得到质量评估响应图;
直接使用分类得分来选择最终预测边框,可能会导致定位精度降低,因为分类置信度与定位精度没有很好的相关性。假设预测目标的中心点周围的特征像素比其他像素具有更好的估计质量。估计质量计算如下:
Figure BDA0003313291850000071
其中l*,r*,t*,b*分别为预测目标的中心点到真实框四条边的距离。
模板图像和搜索图像输入至边框回归分支后,得到模板图像和搜索图像的回归特征图,模板图像和搜索图像的回归特征图进行卷积操作,得到回归响应图。
该支路得到的预测目标的坐标值(x,y)到真实框四条边的距离,四维向量m*=(l*,t*,r*,b*)
Figure BDA0003313291850000072
Figure BDA0003313291850000073
Figure BDA0003313291850000074
Figure BDA0003313291850000075
其中l*,r*,t*,b*到预测目标中心点与真实目标框四条边的距离,s是主干网络的步长,通常s=8。(x0,y0)和(x1,y1)分别表示真实目标框左上角和右下角的坐标。(xs,ys)预测目标的坐标值映射到搜索图像对应的坐标系下的坐标。
所述真实目标框(xmin,ymin,w,h)根据模板图像得到,其中xmin和ymin分别表示真实框左上角的点位置坐标。w和h分别表示真实目标框的宽和高。
如图1所示,上述siamfc++网络的训练方法如下:
S1.1、从LaSOT数据集中获取裁剪后的模板图像和搜索图像;
本发明中使用模板图像大小是127*127大小,搜索图像大小是255*255大小。输入图片是RGB格式图片。当图片大小不满足裁剪需求时,不足部分采用RGB通道均值进行填充。
S1.2、将裁剪后的模板图像和搜索图像输入至siamfc++网络,得到预测分类响应图、预测质量响应图和回归响应图;
S1.3、预测分类响应图、预测质量响应图和回归响应图,分别计算类别预测分支、预测质量评估分支,边框回归分支的损失函数;
S4、将三支路损失函数的总和作为siamfc++网络总的损失函数,使用随机梯度下降算法进行损失优化,得到使得siamfc++网络总的损失函数达到最小值,从而确定siamfc++网络的参数。
梯度模长技术使得容易区分的样本,特别难以区分的样本或者称为离群点的样本等少数的样本权重降低,梯度模长技术使得模型更加关注大多数样本,提高模型泛化能力。
因此所述类别预测分支采用梯度模长作为损失函数,该损失函数公式如下:
Figure BDA0003313291850000081
式中,N为分类响应图中的特征点数;i为分类响应图中的特征点序号,即类别预测分支模型样本的序号;GD(gi0为类别预测分支模型第i个样本的梯度密度;
所述梯度密度GD(gi)的计算公式为:
Figure BDA0003313291850000082
式中,δε(gk,gi)为1或者0,当第k个样本的梯度模长gk分布在
Figure BDA0003313291850000083
范围内时,δε(gk,gi)为1,否则δε(gk,gi)为0;lε(gi)代表了
Figure BDA0003313291850000084
区间的长度,即ε;
所述梯度模长gi的计算公式如下:
Figure BDA0003313291850000085
其中,
Figure BDA0003313291850000086
是类别预测模型的预测概率,
Figure BDA0003313291850000087
的取值为0或1,是训练集样本的标签。
所述质量评估分支采用BCE-loss作为损失函数。
BCEloss=-zlog(x)-(1-z)log(1-x)
式中,x是质量评估分支的输出,z是训练集的标签。
所述边框回归分支采用GIOU函数作为损失函数。
Figure BDA0003313291850000091
Figure BDA0003313291850000092
LGIoU=1-GLoU
GIoU作为度量距离损失函数时,具有非负性、对称性、以及三角不等性、尺度不变性。另外如图3,三种不同的重叠方式,Iou的值均是0.33,GIoU从左至右分别是0.33,0.24和0.1。GIoU在同一方向具有更高的匹配度。GIoU考虑到了IoU没有考虑到的非重叠区域,能够反映出A、B重叠方式。
综上所述,本发明的基于Siamese网络的单目标跟踪方法,首先构建Siamese网络的神经网络部分,Siamese网络特征提取部分采用经典的图片分类网络GooLeNet,并使用LaSOT数据集训练Siamese卷积神经网络权重,在训练过程中基于交叉熵、GIOU、梯度模长等损失函数,并使用随机梯度下降算法(Stochastic gradient descent,SGD)进行损失优化,得到分类与回归的结果,最后针对分类与回归的结果进行后续帧的跟踪。
本发明虽然已以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以利用上述揭示的方法和技术内容对本发明技术方案做出可能的变动和修改,因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化及修饰,均属于本发明技术方案的保护范围。

Claims (8)

1.一种基于孪生神经网络的单目标跟踪方法,其特征在于包括如下步骤:
S1、获取模板图像和当前帧搜索图像。
S2、将模板图像和当前帧搜索图像分别送入训练好的siamfc++网络中,得到预测分类响应图、预测质量响应图和回归响应图;
S3、将预测分类响应图和预测质量评估响应图进行点乘得到预测概率图;
S4、获取预测概率图最大响应点所对应的回归响应图上坐标值,作为预测目标的坐标值,将预测目标的坐标值映射到搜索图像对应的坐标系下,得到目标的位置。
2.根据权利要求1所述的一种基于孪生神经网络的单目标跟踪方法,其特征在于所述siamfc++网络为孪生神经网络,所述孪生神经网络包括类别预测分支、预测质量评估分支,边框回归分支;
模板图像和搜索图像输入至类别预测分支后,得到模板图像和搜索图像的分类特征图,模板图像和搜索图像的分类特征图进行卷积操作,得到分类响应图;
模板图像和搜索图像输入至预测质量评估分支后,得到模板图像和搜索图像的预测质量评估特征图,模板图像和搜索图像的预测质量评估特征图进行卷积操作,得到质量评估响应图;
模板图像和搜索图像输入至边框回归分支后,得到模板图像和搜索图像的回归特征图,模板图像和搜索图像的回归特征图进行卷积操作,得到回归响应图。
3.根据权利要求1所述的一种基于孪生神经网络的单目标跟踪方法,其特征在于所述siamfc++网络的训练方法如下:
S1.1、从LaSOT数据集中获取裁剪后的模板图像和搜索图像;
S1.2、将裁剪后的模板图像和搜索图像输入至siamfc++网络,得到预测分类响应图、预测质量响应图和回归响应图;
S1.3、预测分类响应图、预测质量响应图和回归响应图,分别计算类别预测分支、预测质量评估分支,边框回归分支的损失函数;
S4、将三支路损失函数的总和作为siamfc++网络总的损失函数,使用随机梯度下降算法进行损失优化,得到使得siamfc++网络总的损失函数达到最小值,从而确定siamfc++网络的参数。
4.根据权利要求1所述的一种基于孪生神经网络的单目标跟踪方法,其特征在于所述边框回归分支采用GIOU函数作为损失函数。
5.根据权利要求1所述的一种基于孪生神经网络的单目标跟踪方法,其特征在于所述类别预测分支采用梯度模长作为损失函数,该损失函数公式如下:
Figure FDA0003313291840000021
式中,N为分类响应图中的特征点数;i为分类响应图中的特征点序号,即类别预测分支模型样本的序号;GD(gi)为类别预测分支模型第i个样本的梯度密度。
6.根据权利要求5所述的一种基于孪生神经网络的单目标跟踪方法,其特征在于所述梯度密度GD(gi)的计算公式为:
Figure FDA0003313291840000022
式中,δε(gk,gi)为1或者0,当第k个样本的梯度模长gk分布在
Figure FDA0003313291840000023
范围内时,δε(gk,gi)为1,否则δε(gk,gi)为0;lε(gi)代表了
Figure FDA0003313291840000024
区间的长度,即ε。
7.根据权利要求1所述的一种基于孪生神经网络的单目标跟踪方法,其特征在于所述梯度模长gi的计算公式如下:
Figure FDA0003313291840000025
其中,
Figure FDA0003313291840000026
是类别预测模型的预测概率,
Figure FDA0003313291840000027
的取值为0或1,是训练集样本的标签。
8.根据权利要求1所述的一种基于孪生神经网络的单目标跟踪方法,其特征在于所述质量评估分支采用BCE-loss作为损失函数。
CN202111222926.1A 2021-10-20 2021-10-20 一种基于孪生神经网络的单目标跟踪方法 Pending CN113838099A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111222926.1A CN113838099A (zh) 2021-10-20 2021-10-20 一种基于孪生神经网络的单目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111222926.1A CN113838099A (zh) 2021-10-20 2021-10-20 一种基于孪生神经网络的单目标跟踪方法

Publications (1)

Publication Number Publication Date
CN113838099A true CN113838099A (zh) 2021-12-24

Family

ID=78965597

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111222926.1A Pending CN113838099A (zh) 2021-10-20 2021-10-20 一种基于孪生神经网络的单目标跟踪方法

Country Status (1)

Country Link
CN (1) CN113838099A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114372974A (zh) * 2022-01-12 2022-04-19 北京字节跳动网络技术有限公司 图像检测方法、装置、设备及存储介质
CN115222771A (zh) * 2022-07-05 2022-10-21 北京建筑大学 一种目标跟踪方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160407A (zh) * 2019-12-10 2020-05-15 重庆特斯联智慧科技股份有限公司 一种深度学习目标检测方法及***
CN112287788A (zh) * 2020-10-20 2021-01-29 杭州电子科技大学 基于改进YOLOv3和改进NMS的行人检测方法
CN112712546A (zh) * 2020-12-21 2021-04-27 吉林大学 一种基于孪生神经网络的目标跟踪方法
CN113255611A (zh) * 2021-07-05 2021-08-13 浙江师范大学 基于动态标签分配的孪生网络目标跟踪方法及移动设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160407A (zh) * 2019-12-10 2020-05-15 重庆特斯联智慧科技股份有限公司 一种深度学习目标检测方法及***
CN112287788A (zh) * 2020-10-20 2021-01-29 杭州电子科技大学 基于改进YOLOv3和改进NMS的行人检测方法
CN112712546A (zh) * 2020-12-21 2021-04-27 吉林大学 一种基于孪生神经网络的目标跟踪方法
CN113255611A (zh) * 2021-07-05 2021-08-13 浙江师范大学 基于动态标签分配的孪生网络目标跟踪方法及移动设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BUYU LI ET AL.: "Gradient Harmonized Single-stage Detector", 《ARXIV》, pages 1 - 8 *
HAMID REZATOFIGHI ET AL.: "Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression", 《ARXIV》, pages 1 - 9 *
YINDA XU ET AL.: "SiamFC++: Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines", 《ARXIV》, pages 1 - 12 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114372974A (zh) * 2022-01-12 2022-04-19 北京字节跳动网络技术有限公司 图像检测方法、装置、设备及存储介质
CN114372974B (zh) * 2022-01-12 2024-03-08 抖音视界有限公司 图像检测方法、装置、设备及存储介质
CN115222771A (zh) * 2022-07-05 2022-10-21 北京建筑大学 一种目标跟踪方法及装置

Similar Documents

Publication Publication Date Title
CN108830285B (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
CN111275688B (zh) 基于注意力机制的上下文特征融合筛选的小目标检测方法
CN109766830B (zh) 一种基于人工智能图像处理的舰船目标识别***及方法
CN113269073B (zh) 一种基于yolo v5算法的船舶多目标追踪方法
US7844108B2 (en) Information processing apparatus and method, recording medium and program
CN111783772A (zh) 一种基于RP-ResNet网络的抓取检测方法
CN106373146B (zh) 一种基于模糊学习的目标跟踪方法
CN112836639A (zh) 基于改进YOLOv3模型的行人多目标跟踪视频识别方法
CN111753677B (zh) 基于特征金字塔结构的多角度遥感船舶图像目标检测方法
CN113838099A (zh) 一种基于孪生神经网络的单目标跟踪方法
CN111310622A (zh) 一种面向水下机器人智能作业的鱼群目标识别方法
CN113799124B (zh) 一种非结构化环境的机器人灵活抓取检测方法
CN114693661A (zh) 一种基于深度学习的快速分拣方法
CN111862115A (zh) 一种基于Mask RCNN遥感影像分割方法
CN112861917A (zh) 基于图像属性学习的弱监督目标检测方法
CN111753682A (zh) 一种基于目标检测算法的吊装区域动态监控方法
CN111275010A (zh) 一种基于计算机视觉的行人重识别方法
CN113221956B (zh) 基于改进的多尺度深度模型的目标识别方法及装置
CN110633727A (zh) 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
CN111651361A (zh) 一种基于可视化页面的无脚本自动化测试方法
CN110689044A (zh) 一种结合目标间关系的目标检测方法及***
CN110929670A (zh) 基于yolo3技术的渣土车洁净度视频识别分析方法
CN113129336A (zh) 一种端到端多车辆跟踪方法、***及计算机可读介质
CN111815582A (zh) 改进背景先验和前景先验的二维码区域检测方法
CN112241736A (zh) 一种文本检测的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination