CN112464922B - 人车重识别及其模型训练方法、装置、设备及存储介质 - Google Patents

人车重识别及其模型训练方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN112464922B
CN112464922B CN202110139718.9A CN202110139718A CN112464922B CN 112464922 B CN112464922 B CN 112464922B CN 202110139718 A CN202110139718 A CN 202110139718A CN 112464922 B CN112464922 B CN 112464922B
Authority
CN
China
Prior art keywords
vehicle
feature vector
target
pedestrian
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110139718.9A
Other languages
English (en)
Other versions
CN112464922A (zh
Inventor
闾凡兵
吴蕊
姚胜
曹达
秦拯
曾海文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha Hisense Intelligent System Research Institute Co ltd
Original Assignee
Changsha Hisense Intelligent System Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha Hisense Intelligent System Research Institute Co ltd filed Critical Changsha Hisense Intelligent System Research Institute Co ltd
Priority to CN202110139718.9A priority Critical patent/CN112464922B/zh
Publication of CN112464922A publication Critical patent/CN112464922A/zh
Application granted granted Critical
Publication of CN112464922B publication Critical patent/CN112464922B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本申请公开了一种人车重识别及其模型训练方法、装置、设备及存储介质,其中,人车重识别模型训练方法,包括:获取多个训练样本,每一训练样本均包括第一样本图像与第二样本图像;使用训练样本对预先建立的初始人车重识别模型进行训练,直至初始人车重识别模型中的损失函数的损失值满足预设条件,得到目标人车重识别模型;其中,初始人车重识别模型包括目标检测模型、第一初始多层感知器以及第二初始多层感知器。本申请实施例在对初始人车重识别模型进行训练时,可以使用至少两张样本图像进行特征互相增强,充分利用不同样本图像中的第一对象的特征信息,来改善因拍摄状态变化造成的特征信息的损失,从而有助于提高对人车的重识别效果。

Description

人车重识别及其模型训练方法、装置、设备及存储介质
技术领域
本申请属于信息技术领域,尤其涉及一种人车识别及其模型训练方法、装置、设备及存储介质。
背景技术
随着人工智能技术的发展,机器视觉识别越来越多地应用到生活当中,例如,基于影像设备采集的视频图像进行行人识别等。而为了实现对行人的活动轨迹进行获取,通常会使用到行人重识别技术,即可能会基于不同影像设备采集的图像进行行人识别。
由于不同的影像设备的拍摄角度可能各不相同,同一行人在不同图像中的状态(例如长度、宽度或者角度)可能不同,而当行人处于骑车状态时,行人与车辆的组合(以下简称人车)的状态更加多变。现有技术在进行人车重识别时,受到人车状态多变的影响,往往存在识别效果较差的问题。
发明内容
本申请实施例提供一种在人车重识别及其模型训练方法、装置、设备及存储介质,解决现有技术在进行人车重识别时,存在的识别效果较差的问题。
第一方面,本申请实施例提供一种人车重识别模型训练方法,包括:
获取多个训练样本,每一训练样本均包括第一样本图像与第二样本图像,第一样本图像与第二样本图像为在不同拍摄状态下对第一对象拍摄得到,第一对象包括相互匹配的行人与车辆;
使用训练样本对预先建立的初始人车重识别模型进行训练,直至初始人车重识别模型中的损失函数的损失值满足预设条件,得到目标人车重识别模型;
其中,初始人车重识别模型包括目标检测模型、第一初始多层感知器以及第二初始多层感知器;目标检测模型的输入端用于接收第一样本图像与第二样本图像,目标检测模型的输出端分别连接至第一初始多层感知器的输入端与第二初始多层感知器的输入端,第一初始多层感知器的输出端用于输出与行人关联的行人特征向量,第二初始多层感知器的输出端用于输出与车辆关联的车辆特征向量;损失函数的损失值为基于行人特征向量与车辆特征向量得到。
第二方面,本申请实施例提供一种人车重识别方法,包括:
获取目标图像,目标图像为对第二对象拍摄得到,第二对象包括相互匹配的行人与车辆;
将目标图像输入至目标人车重识别模型中,得到第三行人特征向量与第三车辆特征向量,第三行人特征向量与第三车辆特征向量分别与第二对象所包括的行人与车辆相关联;其中,目标人车重识别模型包括目标检测模型、第一目标多层感知器以及第二目标多层感知器;目标检测模型的输入端用于接收目标图像,目标检测模型的输出端分别连接至第一目标多层感知器的输入端与第二目标多层感知器的输入端,第一目标多层感知器的输出端用于输出第三行人特征向量,第二目标多层感知器的输出端用于输出第三车辆特征向量;
依据第三行人特征向量与第三车辆特征向量对第二对象进行识别,得到识别结果。
第三方面,本申请实施例提供了一种人车重识别模型训练装置,包括:
第一获取模块,用于获取多个训练样本,每一训练样本均包括第一样本图像与第二样本图像,第一样本图像与第二样本图像为在不同拍摄状态下对第一对象拍摄得到,第一对象包括相互匹配的行人与车辆;
训练模块,用于使用训练样本对预先建立的初始人车重识别模型进行训练,直至初始人车重识别模型中的损失函数的损失值满足预设条件,得到目标人车重识别模型;
其中,初始人车重识别模型包括目标检测模型、第一初始多层感知器以及第二初始多层感知器;目标检测模型的输入端用于接收第一样本图像与第二样本图像,目标检测模型的输出端分别连接至第一初始多层感知器的输入端与第二初始多层感知器的输入端,第一初始多层感知器的输出端用于输出与行人关联的行人特征向量,第二初始多层感知器的输出端用于输出与车辆关联的车辆特征向量;损失函数的损失值为基于行人特征向量与车辆特征向量得到。
第四方面,本申请实施例提供了一种人车重识别装置,包括:
第二获取模块,用于获取目标图像,目标图像为对第二对象拍摄得到,第二对象包括相互匹配的行人与车辆;
第三获取模块,用于将目标图像输入至目标人车重识别模型中,得到第三行人特征向量与第三车辆特征向量,第三行人特征向量与第三车辆特征向量分别与第二对象所包括的行人与车辆相关联;其中,目标人车重识别模型包括目标检测模型、第一目标多层感知器以及第二目标多层感知器;目标检测模型的输入端用于接收目标图像,目标检测模型的输出端分别连接至第一目标多层感知器的输入端与第二目标多层感知器的输入端,第一目标多层感知器的输出端用于输出第三行人特征向量,第二目标多层感知器的输出端用于输出第三车辆特征向量;
识别模块,用于依据第三行人特征向量与第三车辆特征向量对第二对象进行识别,得到识别结果。
第五方面,本申请实施例提供了一种电子设备,设备包括:处理器以及存储有计算机程序指令的存储器;
处理器执行计算机程序指令时实现如第一方面所示的人车重识别模型训练方法,或者实现如第二方面所示的人车重识别方法。
第六方面,本申请实施例提供了一种计算机存储介质,计算机存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现如第一方面所示的人车重识别模型训练方法,或者实现如第二方面所示的人车重识别方法。
本申请实施例提供的人车重识别模型训练方法,使用多个训练样本对预先建立的初始人车重识别模型进行训练,其中,每一训练样本均包括了在不同拍摄状态下对第一对象进行拍摄得到的第一样本图像与第二样本图像;初始人车重识别模型包括目标检测模型、第一初始多层感知器以及第二初始多层感知器,训练样本可以输入到目标检测模型,目标检测模型的一路输出可以作为第一初始多层感知器的输入,并由第一初始多层感知器输出得到行人特征向量,目标检测模型的另一路输出可以作为第二初始多层感知器的输入,并由第二初始多层感知器输出得到车辆特征向量;当基于行人特征向量与车辆特征向量得到的损失函数的损失值满足预设条件时,可以得到目标人车重识别模型。本申请实施例在对初始人车重识别模型进行训练时,可以使用至少两张样本图像进行特征互相增强,充分利用不同样本图像中的第一对象的特征信息,来改善因拍摄状态变化造成的特征信息的损失,从而有助于提高对人车的重识别效果。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的人车重识别模型训练方法的流程示意图;
图2是本申请实施例中初始人车重识别模型的结构示意图;
图3是本申请实施例中损失函数的损失值获取的原理图;
图4是本申请实施例提供的人车重识别方法的流程示意图;
图5是本申请实施例中提取目标图像的图像特征的原理图;
图6是本申请实施例提供的人车重识别模型训练装置的结构示意图;
图7是本申请实施例提供的人车重识别装置的结构示意图;
图8是本申请又一个实施例提供的电子设备的结构示意图。
具体实施方式
下面将详细描述本申请的各个方面的特征和示例性实施例,为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本申请进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本申请,而不是限定本申请。对于本领域技术人员来说,本申请可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本申请的示例来提供对本申请更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
为了解决现有技术问题,本申请实施例提供了一种人车重识别及其模型训练方法、装置、设备及存储介质。下面首先对本申请实施例所提供的人车重识别模型训练方法进行介绍。
图1示出了本申请一个实施例提供的人车重识别模型训练方法的流程示意图。如图1所示,该方法包括:
步骤101,获取多个训练样本,每一训练样本均包括第一样本图像与第二样本图像,第一样本图像与第二样本图像为在不同拍摄状态下对第一对象拍摄得到,第一对象包括相互匹配的行人与车辆;
步骤102,使用训练样本对预先建立的初始人车重识别模型进行训练,直至初始人车重识别模型中的损失函数的损失值满足预设条件,得到目标人车重识别模型;
其中,初始人车重识别模型包括目标检测模型、第一初始多层感知器以及第二初始多层感知器;目标检测模型的输入端用于接收第一样本图像与第二样本图像,目标检测模型的输出端分别连接至第一初始多层感知器的输入端与第二初始多层感知器的输入端,第一初始多层感知器的输出端用于输出与行人关联的行人特征向量,第二初始多层感知器的输出端用于输出与车辆关联的车辆特征向量;损失函数的损失值为基于行人特征向量与车辆特征向量得到。
本实施例中,每一训练样本均包括了第一样本图像与第二样本图像,也就是说,每一训练样本可以是包括了至少两张样本图像;为了简化说明,此处主要以某一个训练样本中的样本图像的获取方式进行说明。
对于样本图像,可以是通过摄像头等类型的影像设备进行获取的,具体可以是拍摄的照片,也可以是拍摄的视频中的图像帧等,此处不做限定。同一训练样本中至少两张样本图像可以是在不同拍摄状态下对第一对象拍摄得到的;这里的不同拍摄状态,可以是指不同的拍摄角度、拍摄距离或者拍摄参数等,以适应在实际应用中,不同影像设备安装位置或角度存在不同,或者是拍摄性能存在差异的情况。当然,容易理解的是,在对初始人车重识别模型进行训练的过程中,一个训练样本中的多张样本图像,可以是同一影像设备进行拍摄得到的,也可以是不同影像设备拍摄得到的,保证不同样本图像对应的拍摄状态存在一定的差异即可。
结合一具体应用场景,训练样本中的样本图像可以是针对骑车的行人(以下简称人车)进行拍摄得到;其中,在一个举例中,第一样本图像可以是人车位于摄像头的正前方时进行拍摄得到,而第二样本图像可以是人车即将离开该摄像头的拍摄范围时进行拍摄得到;在另一个举例中,第一样本图像可以是位于人车侧面的一个摄像头进行拍摄得到,第二样本图像可以是位于人车正面的另一个摄像头进行拍摄得到。
容易理解的是,一个训练样本中的多个样本图像,可以是对同一个对象,即对上述的第一对象进行拍摄得到的;本实施例中,第一对象可以同时包括了行人和车辆,对于车辆,可以是自行车、电动车或者轮椅车等等,此处不做具体限定;而行人和车辆相互匹配,可以直观地理解为行人和车辆之间存在交互,例如行人骑着车辆,或者行人推着车辆等等。
上述训练样本可以输入到预先建立的初始人车重识别模型,以对初始人车重识别模型进行训练。
结合图2,本实施例中,初始人车重识别模型主要包括了目标检测模型、第一初始多层感知器以及第二初始多层感知器。对于目标检测模型,可以用于对样本图像中的行人与车辆进行检测;从另一角度来说,目标检测模型可以将样本图像分为行人部分与车辆部分。目标检测模型可以是现有的深度学习模型,例如Faster R-CNN、SSD或者YOLO模型等,具体来说,目标检测模型可以预先训练好的深度学习模型,可以直接用于行人与车辆的检测,这些目标检测模型的架构建立与训练均可以基于现有技术进行实现,此处不做赘述。
第一初始多层感知器与第二初始多层感知器均可以属于多层感知器(MultilayerPerceptron,MLP),通常来说,MLP可以作为一种前馈人工神经网络模型,将输入的多个数据集映射到单一的输出的数据集上。具体到本申请中,MLP可以将目标检测模型的输出,转化成对应的特征向量。本实施例中,第一初始多层感知器与第二初始多层感知器分别用于输出行人特征向量与车辆特征向量;结合图2,为了简化说明,以下将用于输出行人特征向量的多层感知器称为MLP1,将用于输出车辆特征向量的多层感知器称为MLP2。
第一初始多层感知器可以认为是未得到充分训练的MLP1,记为初始MLP1;同理,第二初始多层感知器,可以记为初始MLP2;本实施例中,针对初始人车重识别模型的训练过程,可以认为是对初始MLP1与初始MLP2的网络参数进行调整;而这些网络参数的调整依据,可以是初始人车重识别模型中损失函数的损失值。
本实施例对初始人车重识别模型进行训练所采用的每一训练样本中,均存在第一样本图像与第二样本图像,这两类样本图像分别记为图像u与图像v;在训练过程中,可以将图像u与图像v分别输入到目标检测模型中,目标检测模型的输出可以是各图像的行人部分与车辆部分;而初始MLP1可以接收目标检测模型输出的行人部分,输出各图像对应的行人特征向量,初始MLP2可以接收目标检测模型输出的车辆部分,输出各图像对应的车辆特征向量。
此外,本实施例中,上述损失函数的损失值可以是基于行人特征向量与车辆特征向量计算得到的。举例来说,针对图像u与图像v,初始MLP1可以共输出两个行人特征向量,由于同一训练样本中图像u与图像v中的行人是一致的,理论上应使得这两个行人特征向量之间的差异较小;因此,在损失函数中,可以使得当两个行人特征向量之间的差异较小时,损失值相应较小;同理,对于初始MLP2输出的两个车辆特征向量亦是如此。当然,这里仅仅是针对基于行人特征向量与车辆特征向量确定损失函数的损失值的一些举例说明,在实际应用中,损失函数的损失值的确定方式可以根据实际需要进行选择。
当对初始人车重识别模型训练完成后,可得到目标人车重识别模型;通常来说,训练完成的依据,可以是上述损失函数的损失值满足预设条件,例如,当损失函数的损失值小于一损失阈值时认为训练完成;或者,若训练样本的数量有限,当损失函数的损失值落入到一可接受的数值范围内时,也可以认为训练完成,当然,此处可接受的数值范围,也可以是预先设置的。
本申请实施例提供的人车重识别模型训练方法,使用多个训练样本对预先建立的初始人车重识别模型进行训练,其中,每一训练样本均包括了在不同拍摄状态下对第一对象进行拍摄得到的第一样本图像与第二样本图像;初始人车重识别模型包括目标检测模型、第一初始多层感知器以及第二初始多层感知器,训练样本可以输入到目标检测模型,目标检测模型的一路输出可以作为第一初始多层感知器的输入,并由第一初始多层感知器输出得到行人特征向量,目标检测模型的另一路输出可以作为第二初始多层感知器的输入,并由第二初始多层感知器输出得到车辆特征向量;当基于行人特征向量与车辆特征向量得到的损失函数的损失值满足预设条件时,可以得到目标人车重识别模型。本申请实施例在对初始人车重识别模型进行训练时,可以使用至少两张样本图像进行特征互相增强,充分利用不同样本图像中的第一对象的特征信息,来改善因拍摄状态变化造成的特征信息的损失,从而有助于提高对人车的重识别效果。
可选地,上述步骤102,使用训练样本对预先建立的初始人车重识别模型进行训练,直至初始人车重识别模型中的损失函数的损失值满足预设条件,得到目标人车重识别模型,包括:
将第一样本图像输入到目标检测模型,得到第一行人特征与第一车辆特征,将第二样本图像输入到目标检测模型,得到第二行人特征与第二车辆特征;
将第一行人特征与第二行人特征分别输入到第一初始多层感知器,得到第一行人特征向量与第二行人特征向量,将第一车辆特征与第二车辆特征分别输入到第二初始多层感知器,得到第一车辆特征向量与第二车辆特征向量;
依据第一行人特征向量、第二行人特征向量、第一车辆特征向量以及第二车辆特征向量,确定损失函数的损失值;
依据损失函数的损失值对第一初始多层感知器的网络参数与第二初始多层感知器的网络参数进行调整,直至损失函数的损失值满足预设条件时,得到第一目标多层感知器与第二目标多层感知器;其中,目标人车重识别模型包括第一目标多层感知器与第二目标多层感知器。
本实施例在一定程度上可以认为是对上述初始人车重识别模型的训练过程的进一步限定。如上文所示的,针对初始人车重识别模型的训练过程,可以认为是对初始MLP1与初始MLP2的网络参数进行调整;而这些网络参数的调整依据,可以是初始人车重识别模型中损失函数的损失值。
本实施例中,将第一样本图像,即上述图像u输入到目标检测模型中后,可具体得到第一行人特征与第一车辆特征,分别记为u f1 u f2 ;相应地,上述图像v输入到目标检测模型中后,可具体得到第二行人特征与第二车辆特征,分别记为v f1 v f2
u f1 v f1 可以分别输入到上述的初始MLP1中,并由初始MLP1输出得到第一行人特征向量与第二行人特征向量,这两个行人特征向量可以分别记为u p v p ;类似地,v f1 v f2 可以分别输入到上述的初始MLP2中,得到第一车辆特征向量u b 与第二车辆特征向量v b 。从另一个角度来说,以上将各类特征输入到对应的多层感知器中以得到特征向量的过程,可以认为是将不同类型的特征通过多层感知器映射到相应类别的特征空间中的过程;行人特征与车辆特征这两类特征之间使用不同的多层感知器,以便对各类特征进行区别映射,而同一训练样本中不同样本图像中的同一类特征,可以使用相同的多层感知器以进行特征的相似映射。
结合一实际应用场景,将各类特征输入到对应的多层感知器中以得到特征向量的过程,可以通过如下公式进行表现:
Figure 578711DEST_PATH_IMAGE001
其中,ReLU为激活函数,W 1W 2分别为初始MLP1与初始MLP2中的权重参数,b 1b 2分别为初始MLP1与初始MLP2中的偏置;上述权重参数与偏置均可以是上述网络参数的组成部分。
当然,这里仅仅是针对一个应用场景的举例说明,上述多层感知器所采用的激活函数或者架构等,均可以根据实际需要进行设置。
以下针对损失函数的损失值的可能对应的实际意义进行举例说明。例如,在一个训练样本中,各样本图像中第一对象可以是具有相同的标号或标识,也就是说,不同样本图像中的行人实际上可以是同一个人,不同样本图像中的车辆实际上可以是同一辆车,因此,当u p v p 差异较小,或者u b v b 差异较小时,可以认为相应产生的损失较小;再例如,在同一样本图像中,行人和车辆属于不同的两类特征,因此,当u p u b 差异较大,或者v p v b 差异较大时,可以认为相应产生的损失较小。在一些应用场景中,以上涉及的损失,可以认为是像素级损失。
结合以上举例可见,损失函数的损失值可以基于u p u b v p 以及v b 综合进行计算得到;本实施例中,可以基于计算得到的损失值,对上述初始MLP1与初始MLP2的网络参数进行调整,直至损失函数的损失值满足预设条件,得到目标人车重识别模型;其中,目标人车重识别模型中所包括的第一目标多层感知器与第二目标多层感知器,可以分别记为目标MLP1与目标MLP2;容易理解的是目标MLP1实质上可以认为是进行了网络参数调整后的初始MLP1,而目标MLP2实质上可以认为是进行了网络参数调整后的初始MLP2。
本实施例中,将第一行人特征与第二行人特征输入到第一初始多层感知器以得到与行人关联的特征向量;将第一车辆特征与第二车辆特征输入到第二初始多层感知器以得到与车辆关联的特征向量;也就是说,采用不同的多层感知器对不同的特征进行特征向量的提取,可以提高对不同类别的特征向量的提取精度;而综合考虑第一行人特征向量、第二行人特征向量、第一车辆特征向量以及第二车辆特征向量,来确定损失函数的损失值,可以实现不同样本图像之间特征的互相增强,有助于提升得到的目标人车重识别模型的识别效果。
为了进一步提升同一训练样本中不同样本图像之间特征相互增强的效果,可选地,损失函数的损失值包括第一损失值、第二损失值、第三损失值以及第四损失值;
第一损失值基于第一行人特征向量与第一车辆特征向量确定;
第二损失值基于第一行人特征向量与第二行人特征向量确定;
第三损失值基于第二行人特征向量与第二车辆特征向量确定;
第四损失值基于第一车辆特征向量与第二车辆特征向量确定。
对于第一对象中的行人和车辆,可以认为是两个子对象;本实施例中,既考虑了不同样本图像中同一子对象之间的差异带来的损失值,又考虑了同一样本图像中不同子对象之间的差异带来的损失值。
具体来说,上述第一损失值与第三损失值,可以认为是同一样本图像中不同子对象之间的差异带来的损失值;而第二损失值与第四损失值,可以认为是不同样本图像中同一子对象之间的差异带来的损失值。
一般来说,同一训练样本的不同样本图像中,行人子对象可以指示的是同一个行人,车辆子对象可以指示的是同一车辆;在训练过程中,应尽量使得通过不同样本图像的到的行人特征向量一致,车辆特征向量一致;而在同一张样本图像中,应使得行人特征向量与车辆特征向量之间存在足够的差异,以体现出两类子对象的差异性。
基于以上考虑,结合图3,在一个示例中,第一损失值Loss u 、第二损失值Loss pp 、第三损失值Loss v 以及第四损失值Loss bb 分别按照如下公式计算得到:
Figure 103233DEST_PATH_IMAGE002
其中,|| ||为求取范数运算,如上文实施例中所示的,u p 为第一行人特征向量,u b 为第一车辆特征向量,v p 为第二行人特征向量,v b 为第二车辆特征向量。
对于上述的范数运算,具体的范数类型此处不做限定,能够通过范数计算体现两个特征向量之间的差异度即可。损失函数的损失值可以综合以上四类损失值计算得到,例如,可以是将以上四类损失值直接相加,或者是分别乘以特定的系数后相加等等,此处不做具体限定。
基于上述公式可见,在本示例中,损失函数的损失值,可以是与不同样本图像中同一子对象之间的差异度呈正相关的,同时,还可以是与统一样本图像中不同子对象之间的差异度呈负相关的;而这里的子对象,可以是指第一对象所包括的行人与车辆。
当然,在一些可行的实施方式中,损失函数的损失值,还可以考虑不同样本图像中的不同子对象之间的差异度。
如图4所示,本申请实施例还提供了一种人车重识别方法,包括:
步骤401,获取目标图像,目标图像为对第二对象拍摄得到,第二对象包括相互匹配的行人与车辆;
步骤402,将目标图像输入至目标人车重识别模型中,得到第三行人特征向量与第三车辆特征向量,第三行人特征向量与第三车辆特征向量分别与第二对象所包括的行人与车辆相关联;其中,目标人车重识别模型包括目标检测模型、第一目标多层感知器以及第二目标多层感知器;目标检测模型的输入端用于接收目标图像,目标检测模型的输出端分别连接至第一目标多层感知器的输入端与第二目标多层感知器的输入端,第一目标多层感知器的输出端用于输出第三行人特征向量,第二目标多层感知器的输出端用于输出第三车辆特征向量;
步骤403,依据第三行人特征向量与第三车辆特征向量对第二对象进行识别,得到识别结果。
本实施例中,目标图像可以认为是需要使用目标人车重识别模型进行识别的图像,具体来说,目标图像可以是对第二对象进行拍摄得到,第二对象同样可以包括相互匹配的行人与车辆;行人与车辆之间相互匹配,在一定程度上可以认为两者之间存在交互,例如行人骑着车辆,或者行人推着车辆等。此处的第二对象,与上文实施例中的第一对象之间的命名,主要是为了区别训练用图像与识别应用时的图像;在实际应用中,第一对象与第二对象所具体指示的人车,可以是相同,也可以是不同的。
目标人车重识别模型可以包括目标检测模型、第一目标多层感知器以及第二目标多层感知器;其中,目标检测模型的输入端可以用于接收上述目标图像,并可以用于对目标图像中的行人与车辆进行检测。结合上文实施例,目标检测模型可以是现有的深度学习模型,例如Faster R-CNN、SSD或者YOLO模型等,具体来说,目标检测模型可以预先训练好的深度学习模型,可以直接用于行人与车辆的检测,这些目标检测模型的架构建立与训练均可以基于现有技术进行实现,此处不做赘述。
第一目标多层感知器与第二目标多层感知器可以均属于多层感知器,为便于说明,以下可以分别简称为目标MLP1与目标MLP2。目标MLP1可以用于接收目标检测模型的第一路输出,且目标MLP1可以输出第三行人特征向量,该第三行人特征向量与第二对象所包括的行人相关联;类似地,目标MLP2可以用于接收目标检测模型的第二路输出,且目标MLP2可以输出第三车辆特征向量,该第三车辆特征向量与第二对象所包括的车辆相关联。
在得到第三行人特征向量与第三车辆特征向量后,可以据此进行第二对象的识别,例如,可以基于相似度匹配进行识别,或者是基于分类模型进行识别等等,此处不做具体限定。
本申请实施例提供的人车重识别方法,将目标图像输入到目标人车重识别模型中,其中,目标图像为对第二对象拍摄得到,且第二对象包括相互匹配的行人与车辆;目标人车重识别模型包括目标检测模型、第一目标多层感知器以及第二目标多层感知器,目标检测模型可以用于接收目标图像,且目标检测模型的一路输出会输入到第一目标多层感知器中以得到第三行人特征向量,目标检测模型的另一路输出会输入到第二目标多层感知器中以得到第三车辆特征向量,依据第三行人特征向量与第三车辆特征向量可以实现对第二对象的识别,得到识别结果。本申请实施例中,基于目标检测模型可以实现行人特征与车辆特征的提取,分别使用对应的多层感知器对两类特征进行特征向量的获取,并依据两类特征向量实现对第二对象的识别;由于人车整体的图像在不同拍摄状态下存在较大的差异,本实施例避免了对人车整体识别的过程,进而有助于降低在得到目标人车重识别模型过程中对训练样本的要求,也使得目标人车重识别模型的识别结果更加准确。
可选地,上述步骤403,依据第三行人特征向量与第三车辆特征向量对第二对象进行识别,得到识别结果,包括:
对第三行人特征向量与第三车辆特征向量进行拼接,得到目标图像的目标图像特征;
将目标图像特征与预设图像特征库中的每一预设图像特征进行相似度比较,得到比较结果;
依据比较结果对第二对象进行识别,得到识别结果。
以下结合一具体应用例对本实施例进行说明,在本应用例中,目标检测模型可以采用的是FasterR-CNN。
结合图5,可以预先准备图像底库gallery,目标人车重识别模型可以用于接收查询图像库query(也可以是图像底库gallery)中的任一张图像,设记为目标图像x 0 ,先通过FasterR-CNN进行目标检测(或者说特征提取),然后利用训练得到的目标MLP1和目标MLP2分别将行人目标和车辆目标分别映射到两个特征空间,得到行人特征向量x p 和车辆特征向量x b ,然后将输出的行人特征向量和车辆特征向量拼接起来得到(x p ,x b ),得到最终目标图像x 0 的图片特征x。识别时将图像特征x与图像底库gallery中所有图像的特征进行相似度比较,最后根据相似度大小返回检索结果(对应上述的比较结果),实现对第二对象的识别。
为便于理解本实施例提供的人车重识别方法与上文实施例中的人车重识别模型训练方法之间的联系,在一定程度可以简单地认为本实施例中的目标人车重识别模型是基于上述人车重识别模型训练方法,对初始人车重识别模型进行训练而得到的。
结合训练得到目标人车重识别模型的过程,与使用目标人车重识别模型对目标图像进行识别的过程可见,本申请实施例中,可以认为是提出了一种基于深度学习模型的人骑车重识别方法,以便充分利用不同镜头下的人骑车图片的信息,来改善因角度变化等造成的信息损失,从而增强图片在外观、角度等层次的信息,提高检与索识别性能。
本如图6所示,本申请实施例还提供了一种人车重识别模型训练装置,包括:
第一获取模块601,用于获取多个训练样本,每一训练样本均包括第一样本图像与第二样本图像,第一样本图像与第二样本图像为在不同拍摄状态下对第一对象拍摄得到,第一对象包括相互匹配的行人与车辆;
训练模块602,用于使用训练样本对预先建立的初始人车重识别模型进行训练,直至初始人车重识别模型中的损失函数的损失值满足预设条件,得到目标人车重识别模型;
其中,初始人车重识别模型包括目标检测模型、第一初始多层感知器以及第二初始多层感知器;目标检测模型的输入端用于接收第一样本图像与第二样本图像,目标检测模型的输出端分别连接至第一初始多层感知器的输入端与第二初始多层感知器的输入端,第一初始多层感知器的输出端用于输出与行人关联的行人特征向量,第二初始多层感知器的输出端用于输出与车辆关联的车辆特征向量;损失函数的损失值为基于行人特征向量与车辆特征向量得到。
可选地,上述训练模块602,可以包括:
第一获取单元,用于将第一样本图像输入到目标检测模型,得到第一行人特征与第一车辆特征,将第二样本图像输入到目标检测模型,得到第二行人特征与第二车辆特征;
第二获取单元,用于将第一行人特征与第二行人特征分别输入到第一初始多层感知器,得到第一行人特征向量与第二行人特征向量,将第一车辆特征与第二车辆特征分别输入到第二初始多层感知器,得到第一车辆特征向量与第二车辆特征向量;
确定单元,用于依据第一行人特征向量、第二行人特征向量、第一车辆特征向量以及第二车辆特征向量,确定损失函数的损失值;
调整单元,用于依据损失函数的损失值对第一初始多层感知器的网络参数与第二初始多层感知器的网络参数进行调整,直至损失函数的损失值满足预设条件时,得到第一目标多层感知器与第二目标多层感知器;其中,目标人车重识别模型包括第一目标多层感知器与第二目标多层感知器。
可选地,损失函数的损失值包括第一损失值、第二损失值、第三损失值以及第四损失值;
第一损失值基于第一行人特征向量与第一车辆特征向量确定;
第二损失值基于第一行人特征向量与第二行人特征向量确定;
第三损失值基于第二行人特征向量与第二车辆特征向量确定;
第四损失值基于第一车辆特征向量与第二车辆特征向量确定。
可选地,第一损失值Loss u 、第二损失值Loss pp 、第三损失值Loss v 以及第四损失值Loss bb 分别按照如下公式计算得到:
Figure 388721DEST_PATH_IMAGE002
其中,|| ||为求取范数运算,u p 为第一行人特征向量,u b 为第一车辆特征向量,v p 为第二行人特征向量,v b 为第二车辆特征向量。
需要说明的是,该人车重识别模型训练装置是与上述人车重识别模型训练方法对应的装置,上述方法实施例中所有实现方式均适用于该装置的实施例中,也能达到相同的技术效果。
如图7所示,本申请实施例还提供了一种人车重识别装置,包括:
第二获取模块701,用于获取目标图像,目标图像为对第二对象拍摄得到,第二对象包括相互匹配的行人与车辆;
第三获取模块702,用于将目标图像输入至目标人车重识别模型中,得到第三行人特征向量与第三车辆特征向量,第三行人特征向量与第三车辆特征向量分别与第二对象所包括的行人与车辆相关联;其中,目标人车重识别模型包括目标检测模型、第一目标多层感知器以及第二目标多层感知器;目标检测模型的输入端用于接收目标图像,目标检测模型的输出端分别连接至第一目标多层感知器的输入端与第二目标多层感知器的输入端,第一目标多层感知器的输出端用于输出第三行人特征向量,第二目标多层感知器的输出端用于输出第三车辆特征向量;
识别模块703,用于依据第三行人特征向量与第三车辆特征向量对第二对象进行识别,得到识别结果。
可选地,上述识别模块703,包括:
第三获取单元,用于对第三行人特征向量与第三车辆特征向量进行拼接,得到目标图像的目标图像特征;
第四获取单元,用于将目标图像特征与预设图像特征库中的每一预设图像特征进行相似度比较,得到比较结果;
第五获取单元,用于依据比较结果对第二对象进行识别,得到识别结果。
需要说明的是,该人车重识别装置是与上述人车重识别方法对应的装置,上述方法实施例中所有实现方式均适用于该装置的实施例中,也能达到相同的技术效果。
图8示出了本申请实施例提供的电子设备的硬件结构示意图。
在电子设备可以包括处理器801以及存储有计算机程序指令的存储器802。
具体地,上述处理器801可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit ,ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
存储器802可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器802可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器802可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器802可在综合网关容灾设备的内部或外部。在特定实施例中,存储器802是非易失性固态存储器。
存储器可包括只读存储器(ROM),随机存取存储器(RAM),磁盘存储介质设备,光存储介质设备,闪存设备,电气、光学或其他物理/有形的存储器存储设备。因此,通常,存储器包括一个或多个编码有包括计算机可执行指令的软件的有形(非暂态)计算机可读存储介质(例如,存储器设备),并且当该软件被执行(例如,由一个或多个处理器)时,其可操作来执行参考根据本公开的一方面的方法所描述的操作。
处理器801通过读取并执行存储器802中存储的计算机程序指令,以实现上述实施例中的任意一种人车重识别模型训练方法,或者实现上述实施例中的任意一种人车重识别方法。
在一个示例中,电子设备还可包括通信接口803和总线804。其中,如图8所示,处理器801、存储器802、通信接口803通过总线804连接并完成相互间的通信。
通信接口803,主要用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。
总线804包括硬件、软件或两者,将在线数据流量计费设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(AGP)或其他图形总线、增强工业标准架构(EISA)总线、前端总线(FSB)、超传输(HT)互连、工业标准架构(ISA)总线、无限带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、***组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线804可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
另外,结合上述实施例中的人车重识别模型训练方法与人车重识别方法,本申请实施例可提供一种计算机存储介质来实现。该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种人车重识别模型训练方法,或者实现上述实施例中的任意一种人车重识别方法。
需要明确的是,本申请并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本申请的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本申请的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本申请的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本申请中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或***。但是,本申请不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
上面参考根据本公开的实施例的方法、装置(***)和计算机程序产品的流程图和/或框图描述了本公开的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
以上,仅为本申请的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的***、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。

Claims (10)

1.一种人车重识别模型训练方法,其特征在于,包括:
获取多个训练样本,每一所述训练样本均包括第一样本图像与第二样本图像,所述第一样本图像与所述第二样本图像为在不同拍摄状态下对第一对象拍摄得到,所述第一对象包括相互匹配的行人与车辆;
使用所述训练样本对预先建立的初始人车重识别模型进行训练,直至所述初始人车重识别模型中的损失函数的损失值满足预设条件,得到目标人车重识别模型;
其中,所述初始人车重识别模型包括目标检测模型、第一初始多层感知器以及第二初始多层感知器;所述目标检测模型的输入端用于接收所述第一样本图像与所述第二样本图像,所述目标检测模型的输出端分别连接至所述第一初始多层感知器的输入端与所述第二初始多层感知器的输入端,所述第一初始多层感知器的输出端用于输出与所述行人关联的行人特征向量,所述第二初始多层感知器的输出端用于输出与所述车辆关联的车辆特征向量;所述损失函数的损失值为基于所述行人特征向量与所述车辆特征向量得到。
2.根据权利要求1所述的方法,其特征在于,所述使用所述训练样本对预先建立的初始人车重识别模型进行训练,直至所述初始人车重识别模型中的损失函数的损失值满足预设条件,得到目标人车重识别模型,包括:
将所述第一样本图像输入到所述目标检测模型,得到第一行人特征与第一车辆特征,将所述第二样本图像输入到所述目标检测模型,得到第二行人特征与第二车辆特征;
将所述第一行人特征与所述第二行人特征分别输入到第一初始多层感知器,得到第一行人特征向量与第二行人特征向量,将所述第一车辆特征与所述第二车辆特征分别输入到第二初始多层感知器,得到第一车辆特征向量与第二车辆特征向量;
依据所述第一行人特征向量、所述第二行人特征向量、所述第一车辆特征向量以及所述第二车辆特征向量,确定所述损失函数的损失值;
依据所述损失函数的损失值对所述第一初始多层感知器的网络参数与所述第二初始多层感知器的网络参数进行调整,直至所述损失函数的损失值满足预设条件时,得到第一目标多层感知器与第二目标多层感知器;其中,所述目标人车重识别模型包括所述第一目标多层感知器与所述第二目标多层感知器。
3.根据权利要求2所述的方法,其特征在于,所述损失函数的损失值包括第一损失值、第二损失值、第三损失值以及第四损失值;
所述第一损失值基于所述第一行人特征向量与所述第一车辆特征向量确定;
所述第二损失值基于所述第一行人特征向量与所述第二行人特征向量确定;
所述第三损失值基于所述第二行人特征向量与所述第二车辆特征向量确定;
所述第四损失值基于所述第一车辆特征向量与所述第二车辆特征向量确定。
4.根据权利要求3所述的方法,其特征在于,所述第一损失值Loss u 、所述第二损失值Loss pp 、所述第三损失值Loss v 以及所述第四损失值Loss bb 分别按照如下公式计算得到:
Figure 212704DEST_PATH_IMAGE001
其中,|| ||为求取范数运算,u p 为所述第一行人特征向量,u b 为所述第一车辆特征向量,v p 为所述第二行人特征向量,v b 为所述第二车辆特征向量。
5.一种人车重识别方法,其特征在于,包括:
获取目标图像,所述目标图像为对第二对象拍摄得到,所述第二对象包括相互匹配的行人与车辆;
将所述目标图像输入至目标人车重识别模型中,得到第三行人特征向量与第三车辆特征向量,所述第三行人特征向量与所述第三车辆特征向量分别与所述第二对象所包括的行人与车辆相关联;其中,所述目标人车重识别模型包括目标检测模型、第一目标多层感知器以及第二目标多层感知器;所述目标检测模型的输入端用于接收所述目标图像,所述目标检测模型的输出端分别连接至所述第一目标多层感知器的输入端与所述第二目标多层感知器的输入端,所述第一目标多层感知器的输出端用于输出所述第三行人特征向量,所述第二目标多层感知器的输出端用于输出所述第三车辆特征向量;
依据所述第三行人特征向量与所述第三车辆特征向量对所述第二对象进行识别,得到识别结果。
6.根据权利要求5所述 的方法,其特征在于,所述依据所述第三行人特征向量与所述第三车辆特征向量对所述第二对象进行识别,得到识别结果,包括:
对所述第三行人特征向量与所述第三车辆特征向量进行拼接,得到所述目标图像的目标图像特征;
将所述目标图像特征与预设图像特征库中的每一预设图像特征进行相似度比较,得到比较结果;
依据所述比较结果对所述第二对象进行识别,得到识别结果。
7.一种人车重识别模型训练装置,其特征在于,包括:
第一获取模块,用于获取多个训练样本,每一所述训练样本均包括第一样本图像与第二样本图像,所述第一样本图像与所述第二样本图像为在不同拍摄状态下对第一对象拍摄得到,所述第一对象包括相互匹配的行人与车辆;
训练模块,用于使用所述训练样本对预先建立的初始人车重识别模型进行训练,直至所述初始人车重识别模型中的损失函数的损失值满足预设条件,得到目标人车重识别模型;
其中,所述初始人车重识别模型包括目标检测模型、第一初始多层感知器以及第二初始多层感知器;所述目标检测模型的输入端用于接收所述第一样本图像与所述第二样本图像,所述目标检测模型的输出端分别连接至所述第一初始多层感知器的输入端与所述第二初始多层感知器的输入端,所述第一初始多层感知器的输出端用于输出与所述行人关联的行人特征向量,所述第二初始多层感知器的输出端用于输出与所述车辆关联的车辆特征向量;所述损失函数的损失值为基于所述行人特征向量与所述车辆特征向量得到。
8.一种人车重识别装置,其特征在于,包括:
第二获取模块,用于获取目标图像,所述目标图像为对第二对象拍摄得到,所述第二对象包括相互匹配的行人与车辆;
第三获取模块,用于将所述目标图像输入至目标人车重识别模型中,得到第三行人特征向量与第三车辆特征向量,所述第三行人特征向量与所述第三车辆特征向量分别与所述第二对象所包括的行人与车辆相关联;其中,所述目标人车重识别模型包括目标检测模型、第一目标多层感知器以及第二目标多层感知器;所述目标检测模型的输入端用于接收所述目标图像,所述目标检测模型的输出端分别连接至所述第一目标多层感知器的输入端与所述第二目标多层感知器的输入端,所述第一目标多层感知器的输出端用于输出所述第三行人特征向量,所述第二目标多层感知器的输出端用于输出所述第三车辆特征向量;
识别模块,用于依据所述第三行人特征向量与所述第三车辆特征向量对所述第二对象进行识别,得到识别结果。
9.一种电子设备,其特征在于,所述设备包括:处理器以及存储有计算机程序指令的存储器;
所述处理器执行所述计算机程序指令时实现如权利要求1-4任意一项所述的人车重识别模型训练方法,或者实现如权利要求5或6所述的人车重识别方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1-4任意一项所述的人车重识别模型训练方法,或者实现如权利要求5或6所述的人车重识别方法。
CN202110139718.9A 2021-02-02 2021-02-02 人车重识别及其模型训练方法、装置、设备及存储介质 Active CN112464922B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110139718.9A CN112464922B (zh) 2021-02-02 2021-02-02 人车重识别及其模型训练方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110139718.9A CN112464922B (zh) 2021-02-02 2021-02-02 人车重识别及其模型训练方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN112464922A CN112464922A (zh) 2021-03-09
CN112464922B true CN112464922B (zh) 2021-05-28

Family

ID=74802436

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110139718.9A Active CN112464922B (zh) 2021-02-02 2021-02-02 人车重识别及其模型训练方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN112464922B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427814A (zh) * 2019-06-24 2019-11-08 深圳云天励飞技术有限公司 一种骑行者重识别方法、装置及设备
CN110781774A (zh) * 2019-10-10 2020-02-11 江苏理工学院 基于深度学***交路口智能引导***和方法
CN111667001A (zh) * 2020-06-05 2020-09-15 平安科技(深圳)有限公司 目标重识别方法、装置、计算机设备和存储介质
CN111783570A (zh) * 2020-06-16 2020-10-16 厦门市美亚柏科信息股份有限公司 一种目标重识别的方法、装置、***及计算机存储介质
CN112149740A (zh) * 2020-09-25 2020-12-29 上海商汤智能科技有限公司 目标重识别方法、装置、存储介质及设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10395385B2 (en) * 2017-06-27 2019-08-27 Qualcomm Incorporated Using object re-identification in video surveillance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110427814A (zh) * 2019-06-24 2019-11-08 深圳云天励飞技术有限公司 一种骑行者重识别方法、装置及设备
CN110781774A (zh) * 2019-10-10 2020-02-11 江苏理工学院 基于深度学***交路口智能引导***和方法
CN111667001A (zh) * 2020-06-05 2020-09-15 平安科技(深圳)有限公司 目标重识别方法、装置、计算机设备和存储介质
CN111783570A (zh) * 2020-06-16 2020-10-16 厦门市美亚柏科信息股份有限公司 一种目标重识别的方法、装置、***及计算机存储介质
CN112149740A (zh) * 2020-09-25 2020-12-29 上海商汤智能科技有限公司 目标重识别方法、装置、存储介质及设备

Also Published As

Publication number Publication date
CN112464922A (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
CN108062562B (zh) 一种物体重识别方法及装置
CN107851195B (zh) 利用神经网络进行目标检测
CN109753928B (zh) 违章建筑物识别方法和装置
US20220174089A1 (en) Automatic identification and classification of adversarial attacks
EP3807837A1 (en) Vehicle re-identification techniques using neural networks for image analysis, viewpoint-aware pattern recognition, and generation of multi-view vehicle representations
CN111597933B (zh) 人脸识别方法和装置
CN109034086B (zh) 车辆重识别方法、装置及***
CN111639616A (zh) 一种基于深度学习的重身份识别方法
CN112733885A (zh) 点云识别模型的确定方法、点云识别的方法及装置
CN113936302B (zh) 行人重识别模型的训练方法、装置、计算设备及存储介质
CN111783654B (zh) 车辆重识别方法、装置及电子设备
CN111046971A (zh) 图像识别方法、装置、设备及计算机可读存储介质
CN111914762A (zh) 基于步态信息的身份识别方法及装置
US20070223785A1 (en) Image processor and method
KR101821242B1 (ko) 영상 인식에 기반하여 차량을 계수하는 방법 및 이를 이용한 장치
CN112464922B (zh) 人车重识别及其模型训练方法、装置、设备及存储介质
KR102320005B1 (ko) 영상 분석 기반 비정상 객체 검출 시스템 및 방법
CN111178181B (zh) 交通场景分割方法及相关装置
CN116310713B (zh) 红外图像识别方法、装置、电子设备及存储介质
CN110458234B (zh) 一种基于深度学习的以图搜车方法
CN116453086A (zh) 识别交通标志的方法、装置和电子设备
CN113313086B (zh) 特征向量转换模型处理方法、装置、服务器及存储介质
CN115393802A (zh) 一种基于小样本学习的铁路场景不常见入侵目标识别方法
CN110738225B (zh) 图像识别方法及装置
CN111368729A (zh) 一种基于孪生神经网络的车辆身份判别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant