CN108573222B - 基于循环对抗生成网络的行人图像遮挡检测方法 - Google Patents
基于循环对抗生成网络的行人图像遮挡检测方法 Download PDFInfo
- Publication number
- CN108573222B CN108573222B CN201810266302.1A CN201810266302A CN108573222B CN 108573222 B CN108573222 B CN 108573222B CN 201810266302 A CN201810266302 A CN 201810266302A CN 108573222 B CN108573222 B CN 108573222B
- Authority
- CN
- China
- Prior art keywords
- image
- shielding
- occlusion
- pedestrian
- cyclic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 125000004122 cyclic group Chemical group 0.000 title claims abstract description 34
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000012549 training Methods 0.000 claims abstract description 26
- 238000013507 mapping Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 241001522296 Erithacus rubecula Species 0.000 claims description 2
- 238000005259 measurement Methods 0.000 claims description 2
- 238000002474 experimental method Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000004445 quantitative analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于循环对抗生成网络的行人图像遮挡检测方法,步骤:(1)在无遮挡的行人图像中随机加入遮挡图像块,生成带遮挡的行人图像及对应的带遮挡标注的行人图像;(2)将上述带遮挡的行人图像及对应的带遮挡标注的行人图像作为两个数据域,训练循环对抗生成网络模型,构建遮挡图像与遮挡标注之间的映射;(3)对于当前输入的待标注图像,利用训练后的循环对抗生成网络模型去产生该图像对应的遮挡标注,同时对待标注图像进行分割,得到若干个超像素块,根据每个超像素块内遮挡标注的信息,采用区域生长方法得到最终的遮挡区域。本发明方法可以在缺少遮挡标注的情况下,针对不同类型的遮挡进行建模,得到像素级别的遮挡区域检测结果。
Description
技术领域
本发明涉及图像分析领域的遮挡检测方法,尤其是利用循环对抗生成网络进行行人图像中的遮挡区域检测方法。
背景技术
行人再识别旨在从不同视角、不同时段拍摄的图像中匹配到相同的行人目标。这个问题在视频安防监控中是一个非常重要的问题,特别是对于重点人物的追踪定位有十分现实的意义。然而主流的行人再标识任务中,进行匹配的图像都是由行人检测器获取到的行人图像,而这些被检测出来的图像往往伴随着遮挡。图像中的遮挡会对原有行人纹理特征产生巨大干扰,使得后续的行人再标识任务的准确率大打折扣。为了避免遮挡区域对行人再标识任务性能的影响,需要对行人图像中的遮挡信息进行分析。
对于图像中遮挡区域检测问题,目前主要有以下两种方法:基于显著性检测的方法、基于通用物体检测的方法。基于显著性检测的方法是假设遮挡区域在图像中具有比较强的显著性,将显著性图中数值较高的区域作为遮挡区域,这种方法对于遮挡区域不显著的图像很容易发生误检。基于通用物体检测的方法是将图像中的主要目标物体标定出来,并进行分类判断。由于主流的通用物体检测方法提取出来的是一个矩形框,相比遮挡检测这类像素级别的任务略有不同,在实际应用中不可避免地涉及到诸多后处理的步骤,不能保证模型的鲁棒性。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于循环对抗生成网络的行人图像遮挡检测方法,该方法可以在缺少遮挡标注的情况下,针对不同类型的遮挡进行建模,人工生成大量带遮挡的行人图像及其遮挡区域标记,最终得到像素级别的遮挡区域检测结果。
本发明的目的通过以下的技术方案实现:基于循环对抗生成网络的行人图像遮挡检测方法,包括步骤:
(1)在无遮挡的行人图像中随机加入遮挡图像块,生成带遮挡的行人图像及对应的带遮挡标注的行人图像;所述的遮挡标注是指人为设定的遮挡图像块或者原图自带的遮挡物体在行人图像中的区域;
(2)将上述带遮挡的行人图像及对应的带遮挡标注的行人图像作为两个数据域,训练循环对抗生成网络模型,构建遮挡图像与遮挡标注之间的映射;
(3)对于当前输入的待标注图像,利用训练后的循环对抗生成网络模型去产生该图像对应的遮挡标注,同时对待标注图像进行分割,得到若干个超像素块,根据每个超像素块内遮挡标注的信息,采用区域生长方法得到最终的遮挡区域。
作为一种优选方式,所述步骤(1)中,遮挡图像块的获取方式是:从数据库中获取遮挡物图像,然后在遮挡物图像上进行去背景、高斯滤波操作,得到遮挡图像块。使得遮挡图像块与原有的行人照片的贴合更加自然。
作为另一种优选方式,所述步骤(1)中,遮挡图像块的获取方式是:从数据库中获取遮挡物图像,然后在遮挡物图像上进行去背景、高斯滤波操作,得到初始遮挡图像块;再对初始遮挡物图像进行随机裁剪和水平翻转,然后得到最终遮挡图像块。以尽量增加遮挡物图像的比例,实现数据增强。
更进一步的,为了更好地拟合现实中的遮挡类型,对于位于无遮挡的行人图像上下两半部分的遮挡,随机选取宽为60%~100%,高为20%~50%的区域放置所述的遮挡图像块;对于位于原图左右两半部分的遮挡,随机选取宽为20%~50%,高为60%~100%的区域放置所述的遮挡图像块。这里限定的遮挡块区域是根据现实场景中的遮挡来设置的。
优选的,所述步骤(2)中,训练循环对抗生成网络模型的步骤如下:
循环对抗生成网络中有两组对称的生成器与判别器,假设带遮挡的行人图像域为X,带遮挡标注的行人图像域为Y,生成器GX→Y用于将域X中的图像映射到域Y中,生成器GY→X用于将域Y中的图像映射到域X中,判别器DX、DY分别用于判别输入的图像是否属于域X与域Y;
网络训练的过程包含两种损失函数:对抗损失函数与循环一致性损失函数,对抗损失函数约束着生成器产生更接近另一种图像域的图片,而判别器不断提升判别对应的图像域的能力,以生成器GX→Y和判别器DY的组合为例,其对抗损失可表示如下:
循环一致性损失函数约束着图像经过两种图像域之间的转换后,仍能保持原有的图像域的分布特征,循环一致性损失函数可表示如下:
结合上述两种损失函数,总体的损失函数可表示如下:
L(GX→Y,GY→X,DX,DY)
=LGAN(GX→Y,DY,X,Y)+LGAN(GY→X,DX,X,Y)+λLcyc(GX→Y,GY→X)
其中的λ用于调节对抗损失函数与循环一致性损失函数的权重;
当迭代次数达到阈值或者总体损失函数小于阈值时,该模型停止训练。
优选的,所述步骤(3)中,针对循环对抗生成网络模型中生成器生成的带遮挡标注的行人图像,在LAB空间对每个像素的值与训练时设定的遮挡标注的值进行距离度量,将距离小于阈值的像素点作为兴趣点,生成一幅二值化的热点图。
优选的,在二值化的热点图上,采用紧密分水岭分割算法对当前输入的待标注图像进行分割,得到超像素图,超像素图中包括若干个超像素块,如果某个超像素块内,兴趣点与其他像素点的比例,或者兴趣点的个数超过一定阈值,那么将这个超像素块作为初始的候选遮挡区域。
更进一步的,在选择初始的候选遮挡区域后,使用宽度优先搜索或者深度优先搜索策略,通过区域生长方法得到最终的遮挡区域。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明能够在缺少遮挡图像数据的情况下生成所需的遮挡图像样本进行模型训练。本发明利用人工合成的方法,模拟了现实场景下各种类型的遮挡情况,在短时间内生成了大量的带遮挡图像及对应的遮挡标记。这样可以显著降低数据采集与数据标记过程中的成本。
2、本发明利用循环对抗生成网络进行训练,能够借助模型自身的循环一致性约束自适应地对训练数据中的遮挡图像和遮挡标记的模式分布进行学习。而且本方法在训练过程中不需要成对的输入数据进行训练,在原始遮挡图像或者遮挡标注图像丢失的情况下依然能够利用剩余的数据进行训练。
3、本发明利用超像素块的纹理特征进行匹配,能够充分利用图像全局信息进行分析。经过基于超像素的后处理,本方法在修正检测结果的同时显著提升了处理效率,且结果更为准确。
附图说明
图1为本发明方法训练过程的流程图。
图2为本发明方法测试过程的流程图。
图3为本发明方法生成的训练数据示例图一,其中第一行表示带遮挡的行人图像,第二行表示对应的带遮挡标注的行人图像。
图4为本发明方法生成的训练数据示例图二,其中第一行表示带遮挡的行人图像,第二行表示对应的带遮挡标注的行人图像。
图5为本发明方法生成的超像素图。
图6为本发明方法的遮挡区域检测结果,其中第一行表示带遮挡的原始行人图像,第二行中的灰色区域表示循环对抗生成网络模型预测出的遮挡区域,第三行中的白色区域表示最终得到的遮挡区域检测结果。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
参见图1、2,本实施例基于循环对抗生成网络的行人图像遮挡检测方法,包括步骤:
(1)训练阶段1,即训练样本图像获取阶段。
本实施例利用MARS数据集中训练集的625个ID的行人图像作为无遮挡的原始行人照片,同时从ImageNet数据集和互联网分别获取了包括行人、墙壁、车辆、花木、雨伞、桌椅等6类731张图片作为遮挡物的图像,最终合成18750张带遮挡的图像及其标注。
在输入网络进行训练之前,本实施例在遮挡物图像上进行了去掉遮挡物中的背景、高斯滤波等操作,确保生成的图像质量趋近于真实的图像遮挡区块。由于遮挡物图像的比例相对较少,本发明对去掉背景的遮挡物图像进行随机裁剪(即选取遮挡物图像中的一部分)和水平翻转,实现数据增强。针对MARS数据集中的每一个行人ID,本方法不重复地随机选择不超过40张图片作为背景。对于每张原始的行人图像,随机选取一张遮挡物的图像,并根据遮挡物的先验知识随机地分配遮挡的类型——上下左右。譬如树木只会在左右两边,椅子只会在下方,雨伞可以在上下两半等等。若要生成位于原图上下两半部分的遮挡,本方法随机选取宽为60%~100%,高为20%~50%的区域用于放置遮挡物图像;若要生成位于原图左右两半部分的遮挡,本方法随机选取了宽为20%~50%,高为60%~100%的区域用于放置遮挡物图像。本方法将原图中的遮挡区域替换成遮挡物图像,合成带遮挡的行人图像;将原图中的遮挡区域替换成灰色,合成带遮挡标注的行人图像。最终生成的训练样本如图3、4所示。
(2)训练阶段2,即构建循环对抗生成网络模型阶段。
本发明将带遮挡的行人图像与标记出遮挡区域的行人图像作为网络的两路输入进行训练,综合考虑对抗损失与循环一致损失,让网络能够实现带遮挡图像与带遮挡标注的图像这两种数据域的图像转换。由于循环对抗生成网络(参考:Zhu,Jun-Yan,et al."Unpaired image-to-image translation using cycle-consistent adversarialnetworks."arXiv preprint arXiv:1703.10593(2017).)的标准输入输出是方形图像,为了避免图像失真,本方法在训练前对图像的左右两侧加入等宽的黑色边框,并在测试环节把两边的黑边删去。在实验中,设置batch size为1,learning rate为0.0002,λ为10。图像尺寸为256*256。经过90000次迭代,模型基本收敛。
(3)测试阶段。
对于输入的带遮挡行人图像,本发明利用训练阶段得到的遮挡标记生成器去生成对应的带遮挡标注的行人图像。由于生成的图像标记存在色差,本方法需要筛选出感兴趣的像素点。生成的标注图像首先被投影到LAB空间下,并转化为0~255的区间。接着统计出各个通道的数值与标记色彩(灰色)的距离均小于5的像素点作为兴趣点,从而生成一幅二值化的热点图。
同时本发明利用紧密分水岭分割算法(参考:Neubert,Peer,and PeterProtzel."Compact watershed and preemptive slic:On improving trade-offs ofsuperpixel segmentation algorithms."Pattern Recognition(ICPR),2014 22ndInternational Conference on.IEEE,2014.)对原始图像进行分割,得到相应的超像素图。在进行图像分割的过程中,初始超像素块数设置为80,紧密度设置为0.01,经过实验验证得到比较良好的分割效果。超像素块分割结果如图5所示。本发明首先计算每个超像素块内兴趣点个数,筛选出兴趣点个数超过20或者兴趣点比例超过0.4的超像素块作为初始的候选遮挡区域。接着本发明以这些初始候选遮挡区域为种子进行区域生长。具体而言,就是从每一个初始的候选遮挡区域出发,遍历其邻接的超像素块,将平均LAB数值与该初始超像素的欧氏距离小于12且未被访问的超像素块加入候选遮挡区域集合,若存在符合条件的超像素块则递归地访问其邻接的超像素块。这个过程可以使用宽度优先搜索或者深度优先搜索策略实现,搜索完成后,最终的候选遮挡区域集合即为本发明检测到的遮挡区域。
为了验证实验的有效性,本发明还在Occluded-REID和Partial-REID这两个带遮挡的行人数据集上进行了验证。实验中,利用本方法对两个数据中的遮挡行人图像进行处理,提取出遮挡物体的区域。将实验得到的结果与数据集人工标注出的行人目标和遮挡目标区域进行比较,计算出检测结果中行人目标、遮挡目标的比例以及行人目标、遮挡目标被检测到的比例。结果参见表1。
表1本发明方法在实验数据集上进行遮挡区域检测的量化分析
在上表中,检测结果遮挡物比例、检测结果行人比例类似于准确率,遮挡物被检测比例、行人被检测比例类似于召回率。如果检测区域中的遮挡目标比例太低,则说明没有很好地把遮挡目标的特征识别出来;如果遮挡目标被检测出来的比例太低,则说明发生较多的漏检。通过上述指标可看出,本发明方法具有较高的准确率,较低的误检率。参见图6,本发明的方法能够较准确地检测出图像中的遮挡区域,同时对行人目标的误检率也较为理想。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (8)
1.基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,包括步骤:
(1)在无遮挡的行人图像中随机加入遮挡图像块,生成带遮挡的行人图像及对应的带遮挡标注的行人图像;所述的遮挡标注是指人为设定的遮挡图像块或者原图自带的遮挡物体在行人图像中的区域;
(2)将上述带遮挡的行人图像及对应的带遮挡标注的行人图像作为两个数据域,训练循环对抗生成网络模型,构建遮挡图像与遮挡标注之间的映射;
(3)对于当前输入的待标注图像,利用训练后的循环对抗生成网络模型去产生该图像对应的遮挡标注,同时对待标注图像进行分割,得到若干个超像素块,根据每个超像素块内遮挡标注的信息,采用区域生长方法得到最终的遮挡区域。
2.根据权利要求1所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,所述步骤(1)中,遮挡图像块的获取方式是:从数据库中获取遮挡物图像,然后在遮挡物图像上进行去背景、高斯滤波操作,得到遮挡图像块。
3.根据权利要求1所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,所述步骤(1)中,遮挡图像块的获取方式是:从数据库中获取遮挡物图像,然后在遮挡物图像上进行去背景、高斯滤波操作,得到初始遮挡图像块;
再对初始遮挡物图像进行随机裁剪和水平翻转,然后得到最终遮挡图像块。
4.根据权利要求2或3所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,对于位于无遮挡的行人图像上下两半部分的遮挡,随机选取宽为行人图像宽度60%~100%,高为行人图像高度20%~50%的区域放置所述的遮挡图像块;对于位于原图左右两半部分的遮挡,随机选取宽为原图宽度20%~50%,高为原图高度60%~100%的区域放置所述的遮挡图像块。
5.根据权利要求1所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,所述步骤(2)中,训练循环对抗生成网络模型的步骤如下:
循环对抗生成网络中有两组对称的生成器与判别器,假设带遮挡的行人图像域为X,带遮挡标注的行人图像域为Y,生成器GX→Y用于将域X中的图像映射到域Y中,生成器GY→X用于将域Y中的图像映射到域X中,判别器DX、DY分别用于判别输入的图像是否属于域X与域Y;
网络训练的过程包含两种损失函数:对抗损失函数与循环一致性损失函数,对抗损失函数约束着生成器产生更接近另一种图像域的图片,而判别器不断提升判别对应的图像域的能力,以生成器GX→Y和判别器DY的组合为例,其对抗损失可表示如下:
循环一致性损失函数约束着图像经过两种图像域之间的转换后,仍能保持原有的图像域的分布特征,循环一致性损失函数可表示如下:
结合上述两种损失函数,总体的损失函数可表示如下:
L(GX→Y,GY→X,DX,DY)
=LGAN(GX→Y,DY,X,Y)+LGAN(GY→X,DX,X,Y)+λLcyc(GX→Y,GY→X)
其中的λ用于调节对抗损失函数与循环一致性损失函数的权重;
当迭代次数达到阈值或者总体损失函数小于阈值时,该模型停止训练。
6.根据权利要求1所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,所述步骤(3)中,针对循环对抗生成网络模型中生成器生成的带遮挡标注的行人图像,在LAB空间对每个像素的值与训练时设定的遮挡标注的值进行距离度量,将距离小于阈值的像素点作为兴趣点,生成一幅二值化的热点图。
7.根据权利要求6所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,在二值化的热点图上,采用紧密分水岭分割算法对当前输入的待标注图像进行分割,得到超像素图,超像素图中包括若干个超像素块,如果某个超像素块内,兴趣点与其他像素点的比例,或者兴趣点的个数超过一定阈值,那么将这个超像素块作为初始的候选遮挡区域。
8.根据权利要求7所述的基于循环对抗生成网络的行人图像遮挡检测方法,其特征在于,在选择初始的候选遮挡区域后,使用宽度优先搜索或者深度优先搜索策略,通过区域生长方法得到最终的遮挡区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810266302.1A CN108573222B (zh) | 2018-03-28 | 2018-03-28 | 基于循环对抗生成网络的行人图像遮挡检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810266302.1A CN108573222B (zh) | 2018-03-28 | 2018-03-28 | 基于循环对抗生成网络的行人图像遮挡检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108573222A CN108573222A (zh) | 2018-09-25 |
CN108573222B true CN108573222B (zh) | 2020-07-14 |
Family
ID=63574686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810266302.1A Active CN108573222B (zh) | 2018-03-28 | 2018-03-28 | 基于循环对抗生成网络的行人图像遮挡检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108573222B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472817B (zh) * | 2018-09-27 | 2021-08-03 | 浙江工业大学 | 一种基于循环生成对抗网络的多序列磁共振图像配准方法 |
CN109359559B (zh) * | 2018-09-27 | 2021-11-12 | 天津师范大学 | 一种基于动态遮挡样本的行人再识别方法 |
CN109637634B (zh) * | 2018-12-11 | 2020-10-02 | 厦门大学 | 一种基于生成对抗网络的医学图像合成方法 |
CN109784349B (zh) * | 2018-12-25 | 2021-02-19 | 东软集团股份有限公司 | 图像目标检测模型建立方法、装置、存储介质及程序产品 |
CN109993072B (zh) * | 2019-03-14 | 2021-05-25 | 中山大学 | 基于超分辨图像生成的低分辨率行人重识别***和方法 |
CN110033416B (zh) * | 2019-04-08 | 2020-11-10 | 重庆邮电大学 | 一种结合多粒度的车联网图像复原方法 |
CN110135305B (zh) * | 2019-04-30 | 2022-03-01 | 百度在线网络技术(北京)有限公司 | 用于疲劳度检测的方法、装置、设备和介质 |
CN110348437B (zh) * | 2019-06-27 | 2022-03-25 | 电子科技大学 | 一种基于弱监督学习与遮挡感知的目标检测方法 |
CN110728661A (zh) * | 2019-09-18 | 2020-01-24 | 清华大学 | 基于随机生成样本的图像畸变评价网络训练方法及装置 |
CN111476200B (zh) * | 2020-04-27 | 2022-04-19 | 华东师范大学 | 基于生成对抗网络的人脸去识别化生成方法 |
CN111860431B (zh) * | 2020-07-30 | 2023-12-12 | 浙江大华技术股份有限公司 | 图像中对象的识别方法和装置、存储介质及电子装置 |
CN113111823A (zh) * | 2021-04-22 | 2021-07-13 | 广东工业大学 | 一种建筑施工地的异常行为检测方法和相关装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503170A (zh) * | 2016-10-31 | 2017-03-15 | 清华大学 | 一种基于遮挡维度的图像库构建方法 |
CN107016406A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 基于生成式对抗网络的病虫害图像生成方法 |
CN107133601A (zh) * | 2017-05-13 | 2017-09-05 | 五邑大学 | 一种基于生成式对抗网络图像超分辨率技术的行人再识别方法 |
CN107292813A (zh) * | 2017-05-17 | 2017-10-24 | 浙江大学 | 一种基于生成对抗网络的多姿态人脸生成方法 |
CN107403160A (zh) * | 2017-07-28 | 2017-11-28 | 中国地质大学(武汉) | 一种智能驾驶场景中图像检测方法、设备及其存储设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10319076B2 (en) * | 2016-06-16 | 2019-06-11 | Facebook, Inc. | Producing higher-quality samples of natural images |
-
2018
- 2018-03-28 CN CN201810266302.1A patent/CN108573222B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503170A (zh) * | 2016-10-31 | 2017-03-15 | 清华大学 | 一种基于遮挡维度的图像库构建方法 |
CN107016406A (zh) * | 2017-02-24 | 2017-08-04 | 中国科学院合肥物质科学研究院 | 基于生成式对抗网络的病虫害图像生成方法 |
CN107133601A (zh) * | 2017-05-13 | 2017-09-05 | 五邑大学 | 一种基于生成式对抗网络图像超分辨率技术的行人再识别方法 |
CN107292813A (zh) * | 2017-05-17 | 2017-10-24 | 浙江大学 | 一种基于生成对抗网络的多姿态人脸生成方法 |
CN107403160A (zh) * | 2017-07-28 | 2017-11-28 | 中国地质大学(武汉) | 一种智能驾驶场景中图像检测方法、设备及其存储设备 |
Non-Patent Citations (2)
Title |
---|
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks;Jun-Yan Zhu等;《2017 IEEE International Conference on Computer Vision》;20171231;第2242-2251页 * |
基于统计学习优化SIFT的面部遮挡人脸识别;魏 林等;《激光杂志》;20141231;第35卷(第10期);第89-94页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108573222A (zh) | 2018-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108573222B (zh) | 基于循环对抗生成网络的行人图像遮挡检测方法 | |
Ma et al. | GANMcC: A generative adversarial network with multiclassification constraints for infrared and visible image fusion | |
CN110188835B (zh) | 基于生成式对抗网络模型的数据增强行人再识别方法 | |
US10643332B2 (en) | Method of vehicle image comparison and system thereof | |
CN104867137B (zh) | 一种基于改进ransac算法的图像配准方法 | |
CN108109163A (zh) | 一种航拍视频的运动目标检测方法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
US10650530B2 (en) | Method of vehicle image comparison and system thereof | |
CN108198201A (zh) | 一种多目标跟踪方法、终端设备及存储介质 | |
CN106530271B (zh) | 一种红外图像显著性检测方法 | |
Zhao et al. | Using adversarial network for multiple change detection in bitemporal remote sensing imagery | |
CN110276264A (zh) | 一种基于前景分割图的人群密度估计方法 | |
CN107767400A (zh) | 基于层次化显著性分析的遥感图像序列动目标检测方法 | |
CN109448009A (zh) | 用于输电线路检测的红外图像处理方法及装置 | |
CN111882586A (zh) | 一种面向剧场环境的多演员目标跟踪方法 | |
Chen et al. | Dbarf: Deep bundle-adjusting generalizable neural radiance fields | |
CN109344845A (zh) | 一种基于Triplet深度神经网络结构的特征匹配方法 | |
CN113610905B (zh) | 基于子图像匹配的深度学习遥感图像配准方法及应用 | |
Zhou et al. | Cross-weather image alignment via latent generative model with intensity consistency | |
CN110334727A (zh) | 一种隧道裂缝智能匹配检测方法 | |
CN109165636A (zh) | 一种基于部件级多特征融合的珍稀鸟类稀疏识别方法 | |
Zhao et al. | Detecting insulators in the image of overhead transmission lines | |
CN112990234A (zh) | 基于改进孪生网络检测超分辨率小样本数据的方法 | |
CN111738310B (zh) | 物料分类方法、装置、电子设备和存储介质 | |
CN113627481A (zh) | 一种面向智慧园林的多模型组合的无人机垃圾分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
OL01 | Intention to license declared | ||
OL01 | Intention to license declared |