CN111985547A - 一种基于注意力引导生成学习的跨分辨率车辆再辨识方法 - Google Patents

一种基于注意力引导生成学习的跨分辨率车辆再辨识方法 Download PDF

Info

Publication number
CN111985547A
CN111985547A CN202010802066.8A CN202010802066A CN111985547A CN 111985547 A CN111985547 A CN 111985547A CN 202010802066 A CN202010802066 A CN 202010802066A CN 111985547 A CN111985547 A CN 111985547A
Authority
CN
China
Prior art keywords
image
resolution
vehicle
attention
cross
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010802066.8A
Other languages
English (en)
Inventor
曾焕强
林向伟
朱建清
邱应强
侯军辉
廖昀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaqiao University
Original Assignee
Huaqiao University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaqiao University filed Critical Huaqiao University
Priority to CN202010802066.8A priority Critical patent/CN111985547A/zh
Priority to US17/051,980 priority patent/US20230098663A1/en
Publication of CN111985547A publication Critical patent/CN111985547A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K1/00Printed circuits
    • H05K1/02Details
    • H05K1/11Printed elements for providing electric connections to or between printed circuits
    • H05K1/118Printed elements for providing electric connections to or between printed circuits specially for flexible printed circuits, e.g. using folded portions
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/10OLED displays
    • H10K59/12Active-matrix OLED [AMOLED] displays
    • H10K59/131Interconnections, e.g. wiring lines or terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1345Conductors connecting electrodes to cell terminals
    • G02F1/13452Conductors connecting driver circuitry and terminals of panels
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/1345Conductors connecting electrodes to cell terminals
    • G02F1/13458Terminal pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K1/00Printed circuits
    • H05K1/18Printed circuits structurally associated with non-printed electric components
    • H05K1/189Printed circuits structurally associated with non-printed electric components characterised by the use of a flexible or folded printed circuit
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K2201/00Indexing scheme relating to printed circuits covered by H05K1/00
    • H05K2201/09Shape and layout
    • H05K2201/09209Shape and layout details of conductors
    • H05K2201/09654Shape and layout details of conductors covering at least two types of conductors provided for in H05K2201/09218 - H05K2201/095
    • H05K2201/09781Dummy conductors, i.e. not used for normal transport of current; Dummy electrodes of components
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K2201/00Indexing scheme relating to printed circuits covered by H05K1/00
    • H05K2201/10Details of components or other objects attached to or integrated in a printed circuit board
    • H05K2201/10007Types of components
    • H05K2201/10128Display
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K3/00Apparatus or processes for manufacturing printed circuits
    • H05K3/30Assembling printed circuits with electric components, e.g. with resistor
    • H05K3/32Assembling printed circuits with electric components, e.g. with resistor electrically connecting electric components or wires to printed circuits
    • H05K3/321Assembling printed circuits with electric components, e.g. with resistor electrically connecting electric components or wires to printed circuits by conductive adhesives
    • H05K3/323Assembling printed circuits with electric components, e.g. with resistor electrically connecting electric components or wires to printed circuits by conductive adhesives by applying an anisotropic conductive adhesive layer over an array of pads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Nonlinear Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

本发明涉及一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,方法包括:构建基于生成学习的车辆图像超分辨率网络,注意力引导机制,端到端的车辆图像超分辨率模型和再辨识模型联合机制,联合损失函数,从而实现高效跨分辨率车辆再辨识。本发明特别考虑了车辆再辨识中跨分辨率车辆图像识别精度不高的问题,即在实际情况中捕捉到的查询图像往往是低分辨率图像,无法准确匹配到查询库中高分辨率候选图像,本发明能够有效提高跨分辨率车辆再辨识的精度。

Description

一种基于注意力引导生成学习的跨分辨率车辆再辨识方法
技术领域
本发明涉及计算机视觉和模式识别领域,尤其涉及一种基于注意力引导生成学习的跨分辨率车辆再辨识方法。
背景技术
车辆再辨识旨在于匹配由不同摄像机捕获的相同车辆图像,具有非常重要的实际应用价值。车辆再辨识应用场景非常广泛,例如车辆追踪、车辆定位、罪犯检测等,是智能监控***中的重要组成部分。
在光照变化、视点变化、遮挡、分辨率变化等诸多因素中,分辨率变化(即由不同距离的摄像机采集到的车辆图像分辨率不同)是车辆再辨识中具有挑战性的因素。特别地,在实际情况中普遍存在跨分辨率车辆图像查询的情况,即低分辨率的查询图像难以准确匹配到候选库中的高分辨率图像的问题。现有车辆再辨识方法对于上述实际情况中跨分辨率查询车辆图像存在识别精度较差的问题。因此,跨分辨率车辆再辨识越来越受到学术界和工业界的广泛关注,成为计算机视觉领域的研究热点。
发明内容
本发明针对跨分辨率车辆再辨识难以准确识别的问题,提出一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,构建基于生成学习的车辆图像超分辨率网络,注意力引导机制,端到端的车辆图像超分辨率模型和再辨识模型联合机制,提出联合损失函数,有效地提高了车辆再辨识的跨分辨率识别精度。
本发明解其技术问题所采用的技术方案是:
一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,包括训练过程和再辨识过程,步骤如下:
训练过程S1:将低分辨率的车辆图像输入到跨分辨率再辨识模型中训练,直至模型收敛,从而获得网络模型SCM;
再辨识过程S2:将待查询图像输入到S1中训练得到网络模型SCM得到其特征向量,并与候选库中每个车辆图像的特征向量计算得到待查询车辆图像与候选库中车辆图像的相似度,根据相似度的大小进行车辆ID预测,并输出识别结果。
优选的,训练过程S1的步骤如下:
步骤S11):将低分辨率图像输入到超分辨率网络的生成器中进行放大,得到虚假图像;
步骤S12):将S11)中得到的虚假图像输送给判别器进行训练,使判别器在训练的过程中趋于收敛并具有区分真实图像和和虚假图像的能力;
步骤S13):对S12)中训练好的判别器进行固定,开始训练生成器,使生成器生成的超分辨率图像越来越接近真实图像并具有骗过判别器的能力;
步骤S14):对S13)中生成的超分辨率图像输送到再辨识模块,并输出特征向量和注意力权重图AM;
步骤S15):对S14)中得到的注意力权重图AM与超分辨率图像和高分辨率图像分别进行乘积,获取高分辨率图像的注意力区域和超分辨率图像的注意力区域;
步骤S16):对S15)中得到的注意力区域,利用判别器分别提取高分辨率图像的注意力区域和超分辨率图像的注意力区域的特征,并计算引导损失,使得高分辨率图像的注意力区域和超分辨率图像的注意力区域的特征距离趋近于0,从而引导超分辨率模块关注图像的注意力区域;
步骤S17):将步骤S14)、步骤S16)中分别得到的特征向量和注意力区域送入距离度量学***均得到联合损失,采用误差反向传播算法来训练跨分辨率车辆图像再辨识网络模型;
步骤S18):重复步骤S11)至步骤S17),直到上述跨分辨率车辆图像再辨识网络模型收敛。
优选的,步骤S11)中,超分辨率网络由生成器和判别器组成,生成器和判别器的网络结构采用SRGAN的布局,生成器和判别器在训练过程中相互博弈,最终达到均衡点,使得生成模型和判别模型相互收敛。
优选的,步骤S12)中先训练好判别器,判别器的输入为生成器生成的图像和原始图像,其中原始图像是尺寸大小为3×256×256的高分辨率图像。
优选的,步骤S13)中生成器生成的图像为类似真实图像的超分辨率图像,尺寸大小为3×256×256。
优选的,步骤S14)中再辨识模块为Resnet-50网络。
优选的,步骤S14)中注意力权重图AM由再辨识模块中的深层特征通过多个反卷积操作得到的3×256×256图像,并通过平均池化、Sigmoid激活函数对特征通道之间的相互依赖性自适应地重新缩放每个通道的特征。
优选的,步骤S16)中引导损失的公式为:
Figure BDA0002627752550000031
其中,D为训练好的判别器,可用于提取图像特征,IHR为原始图像,ISR为生成的超分辨率图像,AM为注意力权重图,该损失的目标是使两者的注意力区域上的特征距离趋近于0。
优选的,步骤S17)中,距离度量学习的公式为:
Figure BDA0002627752550000032
其中,[x]+=max(x,0),Ia,i为训练集同一个批次中随机选取的一个样本,Ip,i为与Ia,i属于同一类的样本,In,i为与Ia,i不同类的样本,α为一个常量,表示正负样本对之间最小的差值,M表示正/负样本组的个数,该损失函数的目标是确保负样本对f(Ia,i)和f(In,i)之间的特征距离大于正样本对f(Ia,i)和f(Ip,i)之间的距离。
优选的,步骤S17)中,基础分类模块的公式为:
Figure BDA0002627752550000033
其中,1(·)是示性函数,yk∈{1,2,3,...,C}是车辆图像xk对应的ID,K和C分别代表训练样本和ID的数量,H=[H1,H2,...,HC]为预测车辆ID的映射矩阵。
优选的,步骤S16)中,所述联合损失为:
Loss=LTriplet+LSoft max+λ·Lguided
其中,λ是调整注意力引导损失权重的参数,值为0.1。
优选的,再识别过程S2的步骤如下:
步骤S21):将待查询图像输入到S1中训练得到网络模型SCM得到其特征向量;
步骤S22):通过欧氏距离计算待查询车辆图像的特征向量与候选库中每个图像的特征向量之间的相似度;
步骤S23):根据所得到的相似度大小进行降序排序,并输出识别结果。
本发明的有益效果如下:
本发明构建了一种基于注意力引导生成学习的跨分辨率车辆再辨识网络,通过基于生成学习的车辆图像超分辨率网络,设计注意力引导机制,联合超分辨率网络和再辨识网络对跨分辨率网络模型进行优化,使得训练得到的跨分辨率车辆再辨识模型具有较高精度的车辆再辨识能力,特别是对于分辨率较低甚至可视性极差的车辆图像;在再辨识过程中利用基于注意力引导生成学习方法训练得到的跨分辨率网络模型对待查询超分辨率车辆图像和候选库中的车辆图像进行特征提取以及欧氏距离计算,从而获取待查询车辆与候选库中的车辆图像之间的相似度,实现跨分辨率车辆再辨识。该方法可以被广泛应用于智能监控场景,例如车辆定位、车辆轨迹预测、车辆追踪等。
以下结合附图及实施例对本发明作进一步详细说明,但本发明的一种标签引导的跨模态深度哈希网络不局限于实施例。
附图说明
图1是本发明方法的流程框图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
参见图1所示,本发明一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,基于注意力引导超分辨率引导图像生成的跨分辨率车辆再辨识模型,该模型包含特征提取和距离度量学习模块,该方法包括训练过程和再辨识过程,具体步骤如下:
训练过程S1的步骤如下:
步骤S11):将低分辨率图像输入到超分辨率网络的生成器中进行放大,得到虚假图像。
步骤S12):将S11)中得到的虚假图像输送给判别器进行训练,使判别器在训练的过程中趋于收敛并具有区分真实图像和和虚假图像的能力。
步骤S13):对S12)中训练好的判别器进行固定,开始训练生成器,使生成器生成的超分辨率图像越来越接近真实图像并具有骗过判别器的能力。
步骤S14):对S13)中生成的超分辨率图像输送到再辨识模块,并输出特征向量和注意力权重图AM。
步骤S15):对S14)中得到的注意力权重图AM与超分辨率图像和高分辨率图像分别进行乘积,获取高分辨率图像的注意力区域和超分辨率图像的注意力区域;
步骤S16):对S15)中得到的注意力区域,利用判别器分别提取高分辨率图像的注意力区域和超分辨率图像的注意力区域的特征,并计算引导损失,使得两者的特征距离趋近于0,从而引导超分辨率模块关注图像的注意力区域。
步骤S17):将S14)中将得到的特征向量分别送入距离度量学***均得到联合损失,采用误差反向传播算法来训练跨分辨率车辆图像再辨识网络模型。
步骤S18):重复步骤S11)至步骤S17),直到上述跨分辨率车辆图像再辨识网络模型收敛。
进一步的,步骤S11)中超分辨率网络采用了生成对抗的思想,该网络由生成器和判别器组成,生成器和判别器的网络结构采用SRGAN的布局,生成器和判别器在训练过程中相互博弈,最终达到均衡点,使得生成模型和判别模型相互收敛。
进一步的,步骤S12)中先训练好判别器,判别器的输入为生成器生成的图像和原始图像,其中原始图像是尺寸大小为3×256×256尺寸大小的高分辨率图像。
进一步的,步骤S13)中生成器生成的图像为类似真实图像的超分辨率图像,尺寸大小为3×256×256。
进一步的,步骤S14)中再辨识模块为Resnet-50网络。
进一步的,步骤S15)中注意力权重图AM由再辨识模块中的深层特征通过多个反卷积操作得到的3×256×256图像,并通过平均池化、Sigmoid激活函数对特征通道之间的相互依赖性自适应地重新缩放每个通道的特征。
进一步的,步骤S16)中引导损失的公式为:
Figure BDA0002627752550000051
其中,D为训练好的判别器,可用于提取图像特征,IHR为原始图像,ISR为生成的超分辨率图像,AM为注意力权重图,该损失的目标是使两者的注意力区域上的特征距离趋近于0。
进一步的,步骤S17)中,距离度量学习的公式为:
Figure BDA0002627752550000052
其中,[x]+=max(x,0),Ia,i为训练集同一个批次中随机选取的一个样本,Ip,i为与Ia,i属于同一类的样本,In,i为与Ia,i不同类的样本,α为一个常量,表示正负样本对之间最小的差值,M表示正/负样本组的个数。该损失函数的目标是确保负样本对f(Ia,i)和f(In,i)之间的特征距离大于正样本对f(Ia,i)和f(Ip,i)之间的距离。
进一步的,步骤S17)中,基础分类模块的公式为:
Figure BDA0002627752550000061
其中,1(·)是示性函数,yk∈{1,2,3,...,C}是车辆图像xk对应的ID,K和C分别代表训练样本和ID的数量,H=[H1,H2,...,HC]为预测车辆ID的映射矩阵。
进一步的,步骤S16)中,所述损失值为:
Loss=LTriplet+LSoft max+λ·Lguided
其中,λ是调整注意力引导损失权重的参数,值为0.1。
再辨识过程S2的步骤如下:
步骤S21):如图1所示,利用S1中训练得到的网络模型SCM,提取待查询车辆图像的特征向量,记为特征向量Q;提取候选库中每个图像相应的特征,记为特征向量1,特征向量2,…,特征向量N。
步骤S22):计算待查询车辆图像的特征向量与候选库中每个车辆图像的特征向量之间的欧氏距离,欧氏距离越小表示两张图像的相似度越大,从而获取到待查询车辆图像与候选库中每个车辆图像的相似度关系。
步骤S23):根据所得到的相似度大小进行降序排序,并输出识别结果,根据车辆查询的最优指标,若输出结果排序第一的图像与待查询图像具有相同的车辆ID,则说明本次查询成功,否则,查询失败。
以上仅为本发明实例中一个较佳的实施方案。但是,本发明并不限于上述实施方案,凡按本发明所做的任何均等变化和修饰,所产生的功能作用未超出本方案的范围时,均属于本发明的保护范围。

Claims (12)

1.一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,包括训练过程和再辨识过程,步骤如下:
训练过程S1:将低分辨率的车辆图像输入到跨分辨率再辨识模型中训练,直至模型收敛,从而获得网络模型SCM;
再辨识过程S2:将待查询图像输入到S1中训练得到网络模型SCM得到其特征向量,并与候选库中每个车辆图像的特征向量计算得到待查询车辆图像与候选库中车辆图像的相似度,根据相似度的大小进行车辆ID预测,并输出识别结果。
2.根据权利要求1所述的一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,训练过程S1的步骤如下:
步骤S11):将低分辨率图像输入到超分辨率网络的生成器中进行放大,得到虚假图像;
步骤S12):将S11)中得到的虚假图像输送给判别器进行训练,使判别器在训练的过程中趋于收敛并具有区分真实图像和和虚假图像的能力;
步骤S13):对S12)中训练好的判别器进行固定,开始训练生成器,使生成器生成的超分辨率图像越来越接近真实图像并具有骗过判别器的能力;
步骤S14):对S13)中生成的超分辨率图像输送到再辨识模块,并输出特征向量和注意力权重图AM;
步骤S15):对S14)中得到的注意力权重图AM与超分辨率图像和高分辨率图像分别进行乘积,获取高分辨率图像的注意力区域和超分辨率图像的注意力区域;
步骤S16):对S15)中得到的注意力区域,利用判别器分别提取高分辨率图像的注意力区域和超分辨率图像的注意力区域的特征,并计算引导损失,使得高分辨率图像的注意力区域和超分辨率图像的注意力区域的特征距离趋近于0,从而引导超分辨率模块关注图像的注意力区域;
步骤S17):将步骤S14)、步骤S16)中分别得到的特征向量和注意力区域送入距离度量学***均得到联合损失,采用误差反向传播算法来训练跨分辨率车辆图像再辨识网络模型;
步骤S18):重复步骤S11)至步骤S17),直到上述跨分辨率车辆图像再辨识网络模型收敛。
3.根据权利要求2所述的一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,步骤S11)中,超分辨率网络由生成器和判别器组成,生成器和判别器的网络结构采用SRGAN的布局,生成器和判别器在训练过程中相互博弈,最终达到均衡点,使得生成模型和判别模型相互收敛。
4.根据权利要求3所述的一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,步骤S12)中先训练好判别器,判别器的输入为生成器生成的图像和原始图像,其中原始图像是尺寸大小为3×256×256的高分辨率图像。
5.根据权利要求2所述的一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,步骤S13)中生成器生成的图像为类似真实图像的超分辨率图像,尺寸大小为3×256×256。
6.根据权利要求2所述的一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,步骤S14)中再辨识模块为Resnet-50网络。
7.根据权利要求2所述的一种基于注意力引导生成学***均池化、Sigmoid激活函数对特征通道之间的相互依赖性自适应地重新缩放每个通道的特征。
8.根据权利要求2所述的一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,步骤S16)中引导损失的公式为:
Figure FDA0002627752540000021
其中,D为训练好的判别器,可用于提取图像特征,IHR为原始图像,ISR为生成的超分辨率图像,AM为注意力权重图,该损失的目标是使两者的注意力区域上的特征距离趋近于0。
9.根据权利要求2所述的一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,步骤S17)中,距离度量学习的公式为:
Figure FDA0002627752540000022
其中,[x]+=max(x,0),Ia,i为训练集同一个批次中随机选取的一个样本,Ip,i为与Ia,i属于同一类的样本,In,i为与Ia,i不同类的样本,α为一个常量,表示正负样本对之间最小的差值,M表示正/负样本组的个数,该损失函数的目标是确保负样本对f(Ia,i)和f(In,i)之间的特征距离大于正样本对f(Ia,i)和f(Ip,i)之间的距离。
10.根据权利要求2所述的一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,步骤S17)中,基础分类模块的公式为:
Figure FDA0002627752540000031
其中,1(·)是示性函数,yk∈{1,2,3,...,C}是车辆图像xk对应的ID,K和C分别代表训练样本和ID的数量,H=[H1,H2,...,HC]为预测车辆ID的映射矩阵。
11.根据权利要求2所述的一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,步骤S16)中,所述联合损失为:
Loss=LTriplet+LSoftmax+λ·Lguided
其中,λ是调整注意力引导损失权重的参数,值为0.1。
12.根据权利要求1所述的一种基于注意力引导生成学习的跨分辨率车辆再辨识方法,其特征在于,再识别过程S2的步骤如下:
步骤S21):将待查询图像输入到S1中训练得到网络模型SCM得到其特征向量;
步骤S22):通过欧氏距离计算待查询车辆图像的特征向量与候选库中每个图像的特征向量之间的相似度;
步骤S23):根据所得到的相似度大小进行降序排序,并输出识别结果。
CN202010802066.8A 2020-08-11 2020-08-11 一种基于注意力引导生成学习的跨分辨率车辆再辨识方法 Withdrawn CN111985547A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010802066.8A CN111985547A (zh) 2020-08-11 2020-08-11 一种基于注意力引导生成学习的跨分辨率车辆再辨识方法
US17/051,980 US20230098663A1 (en) 2020-08-11 2020-08-24 Display panel and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010802066.8A CN111985547A (zh) 2020-08-11 2020-08-11 一种基于注意力引导生成学习的跨分辨率车辆再辨识方法

Publications (1)

Publication Number Publication Date
CN111985547A true CN111985547A (zh) 2020-11-24

Family

ID=73433847

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010802066.8A Withdrawn CN111985547A (zh) 2020-08-11 2020-08-11 一种基于注意力引导生成学习的跨分辨率车辆再辨识方法

Country Status (2)

Country Link
US (1) US20230098663A1 (zh)
CN (1) CN111985547A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469295A (zh) * 2021-09-02 2021-10-01 北京字节跳动网络技术有限公司 生成模型的训练方法、息肉识别方法、装置、介质及设备
CN114612990A (zh) * 2022-03-22 2022-06-10 河海大学 一种基于超分辨率的无人机人脸识别方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220122843A (ko) * 2021-02-26 2022-09-05 삼성디스플레이 주식회사 전자 장치

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110014033A (ko) * 2009-08-04 2011-02-10 삼성에스디아이 주식회사 플라즈마 디스플레이 장치
CN104969283B (zh) * 2013-02-26 2017-06-16 夏普株式会社 显示装置
US9974175B2 (en) * 2013-04-29 2018-05-15 Samsung Display Co., Ltd. Electronic component, electric device including the same, and bonding method thereof
KR102558922B1 (ko) * 2016-08-29 2023-07-25 삼성디스플레이 주식회사 플렉시블 전자 회로 및 표시 장치
KR102435975B1 (ko) * 2017-08-18 2022-08-24 삼성디스플레이 주식회사 표시 장치
KR102603403B1 (ko) * 2018-08-09 2023-11-17 삼성디스플레이 주식회사 표시 장치
KR102655664B1 (ko) * 2018-10-30 2024-04-11 삼성디스플레이 주식회사 반도체 장치 및 이를 구비한 표시 장치
CN109283717B (zh) * 2018-11-26 2022-07-01 厦门天马微电子有限公司 显示模组和显示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113469295A (zh) * 2021-09-02 2021-10-01 北京字节跳动网络技术有限公司 生成模型的训练方法、息肉识别方法、装置、介质及设备
CN113469295B (zh) * 2021-09-02 2021-12-03 北京字节跳动网络技术有限公司 生成模型的训练方法、息肉识别方法、装置、介质及设备
CN114612990A (zh) * 2022-03-22 2022-06-10 河海大学 一种基于超分辨率的无人机人脸识别方法

Also Published As

Publication number Publication date
US20230098663A1 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
CN111985547A (zh) 一种基于注意力引导生成学习的跨分辨率车辆再辨识方法
CN110738146B (zh) 一种目标重识别神经网络及其构建方法和应用
Lin et al. RSCM: Region selection and concurrency model for multi-class weather recognition
AU2003281007B2 (en) Image matching system using 3-dimensional object model, image matching method, and image matching program
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN110309770B (zh) 一种基于四元组损失度量学习的车辆再辨识方法
Zhu et al. Deep learning for multilabel remote sensing image annotation with dual-level semantic concepts
CN112784768A (zh) 一种基于视角引导多重对抗注意力的行人重识别方法
CN114241007B (zh) 基于跨任务互学习的多目标跟踪方法、终端设备及介质
CN116342894A (zh) 基于改进YOLOv5的GIS红外特征识别***及方法
Yao et al. Robust online tracking via contrastive spatio-temporal aware network
CN112818157A (zh) 一种基于多阶对抗特征学习的组合查询图像检索方法
CN116092127A (zh) 基于并联式特征融合网络人体动作识别的行人重识别方法
CN110163130B (zh) 一种用于手势识别的特征预对齐的随机森林分类***及方法
CN110796182A (zh) 一种少量样本的票据分类方法及***
CN110516640B (zh) 一种基于特征金字塔联合表示的车辆再辨识方法
CN113743239A (zh) 行人重识别方法、装置及电子设备
CN111428612B (zh) 行人重识别方法、终端、装置及存储介质
CN117333908A (zh) 基于姿态特征对齐的跨模态行人重识别方法
CN112862860A (zh) 一种用于多模态目标跟踪的对象感知图像融合方法
Feng et al. Similarity-and quality-guided relation learning for joint detection and tracking
Wang et al. Balanced one-stage object detection by enhancing the effect of positive samples
CN116311504A (zh) 一种小样本行为识别方法、***及设备
de Paiva et al. Estimating human body orientation using skeletons and extreme gradient boosting
Wang et al. HTNet for micro-expression recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20201124

WW01 Invention patent application withdrawn after publication