CN113065568A - 目标检测、属性识别与跟踪方法及*** - Google Patents

目标检测、属性识别与跟踪方法及*** Download PDF

Info

Publication number
CN113065568A
CN113065568A CN202110380619.XA CN202110380619A CN113065568A CN 113065568 A CN113065568 A CN 113065568A CN 202110380619 A CN202110380619 A CN 202110380619A CN 113065568 A CN113065568 A CN 113065568A
Authority
CN
China
Prior art keywords
target
tracking
network
attribute identification
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110380619.XA
Other languages
English (en)
Inventor
于鹏
高朋
刘辰飞
陈英鹏
许野平
刘明顺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Synthesis Electronic Technology Co Ltd
Original Assignee
Synthesis Electronic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Synthesis Electronic Technology Co Ltd filed Critical Synthesis Electronic Technology Co Ltd
Priority to CN202110380619.XA priority Critical patent/CN113065568A/zh
Publication of CN113065568A publication Critical patent/CN113065568A/zh
Priority to PCT/CN2021/117025 priority patent/WO2022213540A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种目标检测、属性识别与跟踪方法及***,本发明方法包括S1、获取目标原始图像;S2、通过对获取的目标原始图像进行特征分析获取目标特征图;S3、通过对获取的目标特征图进行目标检测获取目标检测结果;S4、通过对获取的目标特征图与目标检测结果进行属性识别获取目标属性识别结果;S5、通过对获取的目标特征图、目标检测结果以及上帧目标跟踪信息进行目标跟踪分析获取目标跟踪结果。本发明先通过特征提取网络对获取的原始图像进行特征提取后,并根据提取的特征图进行后续的目标检测、属性识别和目标跟踪,对目标属性处理更加合理,使得目标检测、属性识别与跟踪的效果更加准确,避免出现目标丢失的情况发生。

Description

目标检测、属性识别与跟踪方法及***
技术领域
本发明涉及,具体地说是一种目标检测、属性识别与跟踪方法及***。
背景技术
随着社会的发展,人们对公共安防的关注越来越多,公共场所的摄像头数量也越来越多,安防的死角越来越少,随着这些海量数据的提供,除了基本的目标的检测,如果在此基础上能对目标的属性,例如性别、年龄、衣服样式、服装颜色、发型等进行识别得出属性特征,并且将不同时刻的图像进行对比得出目标的轨迹信息,将对个别人员的追踪识别提供极大的方便。
专利CN 110188596 A《基于深度学习的监控视频行人实时检测、属性识别与跟踪方法及***》,涉及一种基于深度学习的监控视频行人实时检测、属性识别与跟踪方法及***。主要提出高效的行人检测、属性识别以及跟踪方法,并设计一种高效的调度方法,将模块之间进行串并联调度,使其在有限计算资源上尽可能多地进行多路视频行人实时检测,属性识别以及跟踪。但该专利在属性识别上首先采用深度学习模型提取特征,然后训练了11个分类器,对这11个属性进行分类,又叠加了深度学习提取特征的模型。增加了整体框架的参数量。在跟踪算法上使用了卡尔曼滤波算法进行预测,得到下个位置,然后再进行匹配,需要存储多个轨迹进程,并且无法解决视频传输中跳帧出现的位置丢失问题,缺失关键帧会导致算法匹配失败。
专利CN 111274945 A《一种行人属性的识别方法、装置、电子设备和存储介质》,公开了一种行人属性的识别方法、装置、电子设备和存储介质,涉及机器视觉技术领域。具体实现方案为:在目标监控图片中,获取至少一个人体识别区域图像;分别在每个人体识别区域图像中,获取行人属性识别结果,以及小物体检测结果;根据小物体检测结果,对行人属性识别结果进行修正,得到与各人体识别区域图像匹配的修正后行人属性识别结果。该专利先进行属性识别又使用目标检测算法对属性分析结果进行修正,使用了两个深度学习模型进行叠加。增加了参数量,提高了硬件的要求。
专利CN 112232173 A《一种行人属性识别方法、深度学习模型、设备及介质》,公开了一种行人属性识别方法、深度学习模型、设备及介质,获取待进行行人属性识别的目标图片;提取出目标图片中的属性颜色特征和属性位置特征;将属性颜色特征和属性位置特征进行融合,得到像素级特征,并基于像素级特征预测出颜色信息和位置信息;将颜色信息、位置信息和目标图片进行拼接、切分,得到行人特征图;对行人特征图进行融合,得到目标特征;基于目标特征确定行人属性识别结果。该方法将行人的位置信息和颜色信息、图片进行了重新的拼接、切分。破坏了原图像的空间相关性,并且也没有解决目标的跟踪问题。
针对所检索的相关专利申请,现有的方法基本都是分离的算法架构拼接而成,多个深度学习框架的拼接,不仅使深度学习训练的难度加大,难收敛,未知情况增加,摒弃架构越多,深度学习的参数越大,运行的速度越低,对硬件的要求也会越高。
发明内容
本发明的目的是针对以上不足,提供一种目标检测、属性识别与跟踪方法,降低深度学习的使用数量,仅使用一个深度学习框架,降低深度学习框架训练的难度,更易收敛,提升运行速率,降低对硬件的要求,还提供一种基于上述方法的目标检测、属性识别与跟踪***。
本发明所采用技术方案是:
本发明提供一种目标检测、属性识别与跟踪方法,包括如下步骤:
S1、获取目标原始图像;
S2、通过对获取目标的原始图像进行特征分析获取目标特征图;
S3、通过对获取的目标特征图进行目标检测获取目标检测结果;
S4、通过对获取的目标特征图与目标检测结果进行属性识别获取目标属性识别结果;
S5、通过对获取的目标特征图、目标检测结果以及上帧目标跟踪信息进行目标跟踪分析获取目标跟踪结果;
S6、对目标赋予ID后,并将获取的目标检测结果、目标属性识别结果和目标跟踪结果进行汇总输出。
作为对本发明方法的进一步的优化,本发明所述获取目标原始图像的方式通过高清摄像机或数码照相机。
作为对本发明方法的进一步的优化,本发明步骤S2中,通过训练好的特征提取网络对获取的原始图像进行特征分析,所述的目标特征图中包含目标类别信息、目标位置信息和目标属性信息。
作为对本发明方法的进一步的优化,本发明步骤S3中,通过目标检测网络对目标特征图进行目标检测,所述目标检测结果包括目标类型信息和目标位置信息,且所述目标位置信息用于属性识别和目标跟踪;
所述目标检测网络采用深度学习网络。
作为对本发明方法的进一步的优化,本发明步骤S4中,将目标特征图和目标检测结果输入到属性识别网络中进行目标属性识别,且所述目标属性为目标的共有属性的不同表现形式。
作为对本发明方法的进一步的优化,本发明步骤S5中,将目标特征图、目标检测结果以及上帧目标跟踪信息输入到目标跟踪网络中进行目标跟踪分析,所述上帧目标跟踪信息为上一帧的目标检测、属性识别与跟踪结果,包括目标位置信息、特征图信息和赋予该目标的ID,该帧的目标特征图与上帧目标跟踪信息存储的所有目标特征图进行匹配,该帧的目标位置信息与上帧所有目标的位置信息进行匹配,并通过匹配值判断当前目标是否为上帧中的某一目标,当判断当前目标与上帧某一目标为同一目标时,将上帧该目标的ID赋予到该帧对应目标上;当判断无匹配对应目标后,将该目标赋予新的ID。
作为对本发明方法的进一步的优化,本发明所述特征提取网络采用卷积神经网络算法,在对特征提取网络进行训练时,输入信息为RGB值的三位原始预想,并对原始图像进行标注,标注信息包括目标类别标签、目标区域标签和目标属性标签,并通过目标检测网络和属性识别网络进行训练,获取优选训练模型。
本发明还提供一种目标检测、属性识别与跟踪***,包括图像采集设备和图片处理组件,其中:
所述图像采集设备用于采集目标原始图像;
所述图片处理组件用于对采集的目标原始图像进行处理,以进行目标跟踪;
所述图片处理组件包括特征图提取模块、目标检测模块、属性识别模块和目标跟踪模块,其中:
所述特征图提取模块用于将采集的目标原始图像进行处理成目标特征图;
所述目标检测模块用于从处理的目标特征图中进行目标检测,获取目标检测结果;
所述属性识别模块用于通过目标特征图与目标检测结果进行目标的属性识别,获取目标属性识别结果;
所述目标跟踪模块通过目标检测结果、上帧目标跟踪信息和特征图进行目标跟踪。
作为对本发明***的进一步优化,本发明所述特征图提取模块包括目标特征提取网络,所述目标检测模块包括目标检测网络,所述属性识别模块包括属性识别网络,所述目标跟踪模块包括目标跟踪网络,且所述目标特征提取网络、属性识别网络和目标跟踪网络均采用卷积神经网络,所述目标跟踪网络采用深度神经网络;
对目标特征提取网络进行训练时,以RGB三维图像作为输入,并对图像进行标注,标注信息包括目标类别标签、目标位置标签和目标属性标签,然后再用目标检测网络和属性识别网络对目标特征提取网络进行联合训练,获取最优模型。
作为对本发明***的进一步优化,本发明所述图片处理组件中,每个目标均对应唯一一个ID,在目标跟踪模块中,通过与上帧目标跟踪信息进行对比判断,当判断为与上帧某一目标为同一目标时,该帧目标继承上帧对应目标的ID,当判断不存在对应目标时,赋予该目标新的ID。
本发明具有以下优点:
1、本发明通过先通过特征提取网络对获取的原始图像进行特征提取后,并根据提取的特征图进行后续的目标检测、属性识别和目标跟踪,对目标属性处理更加合理,使得目标检测、属性识别与跟踪的效果更加准备,避免出现目标丢失的情况发生;
2、本发明仅使用一个深度学习框架,降低了神经网络的训练难度,能够相应避免难收敛的情况,降低深度学习的参数,提升运行效率,降低对硬件的要求。
3、本发明中只涉及一个深度学习框架,方便后续的算法升级,可方便的根据实际场景的应用以及实际的软硬件需求进行模型的更换以及修改。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
下面结合附图对本发明进一步说明:
图1为本发明的流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定,在不冲突的情况下,本发明实施例以及实施例中的技术特征可以相互结合。
需要理解的是,在本发明实施例的描述中,“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。在本发明实施例中的“多个”,是指两个或两个以上。
本发明实施例中的属于“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,单独存在B,同时存在A和B这三种情况。另外,本文中字符“/”一般表示前后关联对象是一种“或”关系。
本实施例提供一种目标检测、属性识别与跟踪方法,如图1所示,包括如下步骤:
S1、获取目标原始图像;
所述目标原始图像一般通过图像采集设备进行获取,根据本实施例所具体的使用场景,所使用的图像采集设备为高清监控摄像机或数码照相机,其中为了保证其原始图像的成像质量,方便后续的对图片的处理,其监控摄像机以及数码相机的分辨率均可采用高分辨率设备,如四千万像素成像,再高者还有六千万像素成像、八千万像素成像以及一亿像素成像,在实际使用时,还应同时兼顾图像采集设备的成本;
S2、通过对获取目标原始图像的进行特征分析获取目标特征图;
所述目标特征图通过训练好的特征提取网络对获取的原始图像进行特征分析,所述特征提取网络需要通过样本进行训练,特征提取网络的样本输入信息为RGB三维原始图像,通过监督学习的方式,对样本的图像进行标注,且标注信息包括目标类别标签、目标位置标签以及目标的属性信息,并通过用于后续处理的目标检测网络和属性识别网络进行联合训练,得出最优的模型;
所述的目标特征图中包含目标类别信息、目标位置信息和目标属性信息,该目标特征图为(a,b,c)三维特征图,a为图像中检测到的目标个数,b*c为目标区域特征图,含有人像的区域特征图用于接下来的行人目标检测、行为属性分析以及行人目标跟踪;
S3、通过对获取的目标特征图进行目标检测获取目标检测结果;
通过目标检测网络对目标特征图进行目标检测,所述目标检测结果包括目标类型信息和目标位置信息,且所述目标位置信息用于属性识别和目标跟踪;
所述目标检测网络为深度学习网络,且所述目标检测网络包括分类部分和定位部分,用于从上述目标特征图中分出目标类别信息以及目标位置信息,并将目标定位信息用于后续的属性识别以及目标跟踪;
S4、通过对获取的目标特征图与目标检测结果进行属性识别获取目标属性识别结果;
将目标特征图和目标检测结果输入到属性识别网络中进行目标属性识别,且所述目标属性为目标的共有属性的不同表现形式,如人的年龄、服饰款式、发以及服饰颜色等;
S5、通过对获取的目标特征图、目标检测结果以及上帧目标跟踪信息进行目标跟踪分析获取目标跟踪结果;
将目标特征图、目标检测结果以及上帧目标跟踪信息输入到目标跟踪网络中进行目标跟踪分析,所述上帧目标跟踪信息为上一帧的目标检测、属性识别与跟踪结果,包括目标位置信息、特征图信息和赋予该目标的ID,该帧的目标特征图与上帧目标跟踪信息存储的所有目标特征图进行匹配,该帧的目标位置信息与上帧所有目标的位置信息进行匹配,并通过匹配值判断当前目标是否为上帧中的某一目标,当判断当前目标与上帧某一目标为同一目标时,将上帧该目标的ID赋予到该帧对应目标上;当判断无匹配对应目标后,将该目标赋予新的ID;
该帧处理完成后,保存处理信息,作为下一帧的目标跟踪处理的判断依据;
S6、对目标赋予ID后,并将获取的目标检测结果、目标属性识别结果和目标跟踪结果进行汇总输出。
基于上述方法,本实施例还提供一种目标检测、属性识别与跟踪***,包括图像采集设备和图片处理组件,其中:
所述图像采集设备用于采集目标原始图像;
所述图片处理组件用于对采集的目标原始图像进行处理,以进行目标跟踪;
所述图片处理组件包括特征图提取模块、目标检测模块、属性识别模块和目标跟踪模块,其中:
所述特征图提取模块用于将采集的目标原始图像进行处理成目标特征图;
所述目标检测模块用于从处理的目标特征图中进行目标检测,获取目标检测结果;
所述属性识别模块用于通过目标特征图与目标检测结果进行目标的属性识别,获取目标属性识别结果;
所述目标跟踪模块通过目标检测结果、上帧目标跟踪信息和特征图进行目标跟踪。
本实施例中所述特征图提取模块包括目标特征提取网络,所述目标检测模块包括目标检测网络,所述属性识别模块包括属性识别网络,所述目标跟踪模块包括目标跟踪网络,且所述目标特征提取网络、属性识别网络和目标跟踪网络均采用卷积神经网络,所述目标跟踪网络采用深度神经网络;
对目标特征提取网络进行训练时,以RGB三维图像作为输入,并对图像进行标注,标注信息包括目标类别标签、目标位置标签和目标属性标签,然后再用目标检测网络和属性识别网络对目标特征提取网络进行联合训练,获取最优模型。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。

Claims (10)

1.一种目标检测、属性识别与跟踪方法,其特征在于:包括如下步骤:
S1、获取目标原始图像;
S2、通过对获取的目标原始图像进行特征分析获取目标特征图;
S3、通过对获取的目标特征图进行目标检测获取目标检测结果;
S4、通过对获取的目标特征图与目标检测结果进行属性识别获取目标属性识别结果;
S5、通过对获取的目标特征图、目标检测结果以及上帧目标跟踪信息进行目标跟踪分析获取目标跟踪结果;
S6、对目标赋予ID后,并将获取的目标检测结果、目标属性识别结果和目标跟踪结果进行汇总输出。
2.根据权利要求1所述的方法,其特征在于:所述获取目标原始图像的方式通过高清摄像机或数码照相机。
3.根据权利要求1所述的方法,其特征在于:步骤S2中,通过训练好的特征提取网络对获取的原始图像进行特征分析,所述的目标特征图中包含目标类别信息、目标位置信息和目标属性信息。
4.根据权利要求3所述的方法,其特征在于:步骤S3中,通过目标检测网络对目标特征图进行目标检测,所述目标检测结果包括目标类型信息和目标位置信息,且所述目标位置信息用于属性识别和目标跟踪;
所述目标检测网络采用深度学习网络。
5.根据权利要求4所述的方法,其特征在于:步骤S4中,将目标特征图和目标检测结果输入到属性识别网络中进行目标属性识别,且所述目标属性为目标的共有属性的不同表现形式。
6.根据权利要求5所述的方法,其特征在于:步骤S5中,将目标特征图、目标检测结果以及上帧目标跟踪信息输入到目标跟踪网络中进行目标跟踪分析,所述上帧目标跟踪信息为上一帧的目标检测、属性识别与跟踪结果,包括目标位置信息、特征图信息和赋予该目标的ID,该帧的目标特征图与上帧目标跟踪信息存储的所有目标特征图进行匹配,该帧的目标位置信息与上帧所有目标的位置信息进行匹配,并通过匹配值判断当前目标是否为上帧中的某一目标,当判断当前目标与上帧某一目标为同一目标时,将上帧该目标的ID赋予到该帧对应目标上;当判断无匹配对应目标后,将该目标赋予新的ID。
7.根据权利要求6所述的方法,其特征在于:所述特征提取网络采用卷积神经网络算法,在对特征提取网络进行训练时,输入信息为RGB值的三维原始图像,并对原始图像进行标注,标注信息包括目标类别标签、目标区域标签和目标属性标签,并通过目标检测网络和属性识别网络进行训练,获取优选训练模型。
8.一种目标检测、属性识别与跟踪***,其特征在于:包括图像采集设备和图片处理组件,其中:
所述图像采集设备用于采集目标原始图像;
所述图片处理组件用于对采集的目标原始图像进行处理,以进行目标跟踪;
所述图片处理组件包括特征图提取模块、目标检测模块、属性识别模块和目标跟踪模块,其中:
所述特征图提取模块用于将采集的目标原始图像进行处理成目标特征图;
所述目标检测模块用于从处理的目标特征图中进行目标检测,获取目标检测结果;
所述属性识别模块用于通过目标特征图与目标检测结果进行目标的属性识别,获取目标属性识别结果;
所述目标跟踪模块通过目标检测结果、上帧目标跟踪信息和特征图进行目标跟踪。
9.根据权利要求8所述的***,其特征在于:所述特征图提取模块包括目标特征提取网络,所述目标检测模块包括目标检测网络,所述属性识别模块包括属性识别网络,所述目标跟踪模块包括目标跟踪网络,且所述目标特征提取网络、属性识别网络和目标跟踪网络均采用卷积神经网络
对目标特征提取网络进行训练时,以RGB三维图像作为输入,并对图像进行标注,标注信息包括目标类别标签、目标位置标签和目标属性标签,然后再用目标检测网络和属性识别网络对目标特征提取网络进行联合训练,获取最优模型。
10.根据权利要求9所述的***,其特征在于:所述图片处理组件中,每个目标均对应唯一一个ID,在目标跟踪模块中,通过与上帧目标跟踪信息进行对比判断,当判断为与上帧某一目标为同一目标时,该帧目标继承上帧对应目标的ID,当判断不存在对应目标时,赋予该目标新的ID。
CN202110380619.XA 2021-04-09 2021-04-09 目标检测、属性识别与跟踪方法及*** Pending CN113065568A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110380619.XA CN113065568A (zh) 2021-04-09 2021-04-09 目标检测、属性识别与跟踪方法及***
PCT/CN2021/117025 WO2022213540A1 (zh) 2021-04-09 2021-09-07 目标检测、属性识别与跟踪方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110380619.XA CN113065568A (zh) 2021-04-09 2021-04-09 目标检测、属性识别与跟踪方法及***

Publications (1)

Publication Number Publication Date
CN113065568A true CN113065568A (zh) 2021-07-02

Family

ID=76566244

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110380619.XA Pending CN113065568A (zh) 2021-04-09 2021-04-09 目标检测、属性识别与跟踪方法及***

Country Status (2)

Country Link
CN (1) CN113065568A (zh)
WO (1) WO2022213540A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113610362A (zh) * 2021-07-20 2021-11-05 苏州超集信息科技有限公司 一种基于深度学习流水线产品追溯方法及***
CN114898108A (zh) * 2022-03-30 2022-08-12 哈尔滨工业大学 一种基于fpga的cnn模型轻量化方法、目标检测方法及***
WO2022213540A1 (zh) * 2021-04-09 2022-10-13 神思电子技术股份有限公司 目标检测、属性识别与跟踪方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107066953A (zh) * 2017-03-22 2017-08-18 北京邮电大学 一种面向监控视频的车型识别、跟踪及矫正方法和装置
CN108875456A (zh) * 2017-05-12 2018-11-23 北京旷视科技有限公司 目标检测方法、目标检测装置和计算机可读存储介质
CN110188596A (zh) * 2019-01-04 2019-08-30 北京大学 基于深度学习的监控视频行人实时检测、属性识别与跟踪方法及***
WO2020040391A1 (ko) * 2018-08-24 2020-02-27 전북대학교산학협력단 결합심층네트워크에 기반한 보행자 인식 및 속성 추출 시스템
CN112507835A (zh) * 2020-12-01 2021-03-16 燕山大学 一种基于深度学习技术分析多目标对象行为的方法及***
CN112528977A (zh) * 2021-02-10 2021-03-19 北京优幕科技有限责任公司 目标检测方法、装置、电子设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019041360A1 (zh) * 2017-09-04 2019-03-07 华为技术有限公司 行人属性识别与定位方法以及卷积神经网络***
CN109711320B (zh) * 2018-12-24 2021-05-11 兴唐通信科技有限公司 一种值班人员违规行为检测方法及***
CN111460926B (zh) * 2020-03-16 2022-10-14 华中科技大学 一种融合多目标跟踪线索的视频行人检测方法
CN113065568A (zh) * 2021-04-09 2021-07-02 神思电子技术股份有限公司 目标检测、属性识别与跟踪方法及***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107066953A (zh) * 2017-03-22 2017-08-18 北京邮电大学 一种面向监控视频的车型识别、跟踪及矫正方法和装置
CN108875456A (zh) * 2017-05-12 2018-11-23 北京旷视科技有限公司 目标检测方法、目标检测装置和计算机可读存储介质
WO2020040391A1 (ko) * 2018-08-24 2020-02-27 전북대학교산학협력단 결합심층네트워크에 기반한 보행자 인식 및 속성 추출 시스템
CN110188596A (zh) * 2019-01-04 2019-08-30 北京大学 基于深度学习的监控视频行人实时检测、属性识别与跟踪方法及***
CN112507835A (zh) * 2020-12-01 2021-03-16 燕山大学 一种基于深度学习技术分析多目标对象行为的方法及***
CN112528977A (zh) * 2021-02-10 2021-03-19 北京优幕科技有限责任公司 目标检测方法、装置、电子设备和存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022213540A1 (zh) * 2021-04-09 2022-10-13 神思电子技术股份有限公司 目标检测、属性识别与跟踪方法及***
CN113610362A (zh) * 2021-07-20 2021-11-05 苏州超集信息科技有限公司 一种基于深度学习流水线产品追溯方法及***
CN113610362B (zh) * 2021-07-20 2023-08-08 苏州超集信息科技有限公司 一种基于深度学习流水线产品追溯方法及***
CN114898108A (zh) * 2022-03-30 2022-08-12 哈尔滨工业大学 一种基于fpga的cnn模型轻量化方法、目标检测方法及***
CN114898108B (zh) * 2022-03-30 2023-01-06 哈尔滨工业大学 一种基于fpga的cnn模型轻量化方法、目标检测方法及***

Also Published As

Publication number Publication date
WO2022213540A1 (zh) 2022-10-13

Similar Documents

Publication Publication Date Title
CN110543867B (zh) 一种多摄像头条件下的人群密度估测***及方法
US9251425B2 (en) Object retrieval in video data using complementary detectors
CN109644255B (zh) 标注包括一组帧的视频流的方法和装置
CN113065568A (zh) 目标检测、属性识别与跟踪方法及***
CN111639564B (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN111797653A (zh) 基于高维图像的图像标注方法和装置
CN112489143A (zh) 一种颜色识别方法、装置、设备及存储介质
CN106339657B (zh) 基于监控视频的秸秆焚烧监测方法、装置
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN110096945B (zh) 基于机器学习的室内监控视频关键帧实时提取方法
CN110555420A (zh) 一种基于行人区域特征提取和重识别融合模型网络及方法
CN111815528A (zh) 基于卷积模型和特征融合的恶劣天气图像分类增强方法
CN109740527B (zh) 一种视频帧中图像处理方法
CN110969173A (zh) 目标分类方法及装置
KR102171384B1 (ko) 영상 보정 필터를 이용한 객체 인식 시스템 및 방법
CN112488165A (zh) 一种基于深度学习模型的红外行人识别方法及***
CN117677969A (zh) 一种缺陷检测的方法和装置
CN109727218B (zh) 一种完整图形提取方法
CN114037937A (zh) 一种基于多目标追踪的实时冰箱食材识别方法
CN113255549A (zh) 一种狼群围猎行为状态智能识别方法及***
CN113239931A (zh) 一种物流站车牌识别的方法
CN111860229A (zh) 异常行为智能识别方法及其装置和存储介质
Nazarkevych et al. A YOLO-based Method for Object Contour Detection and Recognition in Video Sequences.
CN112836578B (zh) 一种基于表观特征的货架缺货检测方法
CN114926761B (zh) 一种基于时空平滑特征网络的动作识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210702

RJ01 Rejection of invention patent application after publication