CN107273933A - 一种图像追踪分类器的构建方法及应用其的人脸追踪方法 - Google Patents
一种图像追踪分类器的构建方法及应用其的人脸追踪方法 Download PDFInfo
- Publication number
- CN107273933A CN107273933A CN201710503156.5A CN201710503156A CN107273933A CN 107273933 A CN107273933 A CN 107273933A CN 201710503156 A CN201710503156 A CN 201710503156A CN 107273933 A CN107273933 A CN 107273933A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- area image
- target area
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种目标追踪分类器的构建方法及应用其的人脸追踪方,其中分类器构建方法包括如下步骤:获取用于训练的第一样本集;构建卷积神经网络模型;对第一样本集中每张图片进行目标框标记后,进行预处理得到第一目标区域图像和第二目标区域图像,第一目标区域图像根据目标框进行图像扩展得到,第二目标区域图像通过由第一目标区域图像和对应目标框标注图像变换得到;利用所有的第一图像区域和第二图像区域对卷积神经网络模型进行训练,得到目标回归模型。本发明利用基于深度学***衡的问题,对快速移动、光照模糊变化有更强的鲁棒性,运算量小,提高了追踪的速度。
Description
技术领域
本发明涉及人脸追踪技术领域,具体涉及一种图像追踪分类器的构建 方法及应用其的人脸追踪方法。
背景技术
现如今的追踪算法主要有基于传统特征的机器学习、滤波器学习等算 法,但是由于提取的是HOG等传统特征,鲁棒性较差,对于光照模糊、尺 寸变化等复杂场景追踪效果不佳。
现有的人脸追踪方法存在如下技术缺陷:1)目前对于人脸,深度学习 用于追踪时,在线微调,计算量大,难以达到实时性的问题;2)针对光照 变化、快速移动情况,传统算法效果不好的问题。
发明内容
本发明的目的提供一种加强因光照及尺寸变化等复杂场景下导致的人脸 追踪方法的鲁棒性,加快人脸追踪技术的计算速度,并提高人脸追踪模型的效 率。
为了实现上述目的,本发明提供了一种图像追踪分类器的构建方法, 包括如下步骤:
获取用于训练的第一样本集;
构建卷积神经网络模型;
对第一样本集中每张图片进行目标框标记后,进行预处理得到第一目 标区域图像和第二目标区域图像,第一目标区域图像根据目标框进行图像 扩展得到,第二目标区域图像通过由第一目标区域图像和对应目标框标注 图像变换得到;
利用所有的第一图像区域和第二图像区域对卷积神经网络模型进行训 练,得到目标回归模型。
进一步,所述对第一样本集中每张图片进行目标框标记后,进行预处 理得到第一目标区域图像和第二目标区域图像包括
利用样本集中目标框的标注,得到目标区域图像;
获取目标区域图像的中心坐标,根据中心坐标将目标区域对象进行扩 展处理,得到第一目标区域图像;
对第一目标区域图像进行放缩、平移变换,得到第二目标区域图像。
进一步,第一样本集包括图片集和视频集;
其中,所述利用所有的第一图像区域和第二图像区域对卷积神经网络 模型进行训练,得到得到目标回归模型还包括
判断第一样本集是否为视频集;
如果第一样本集为视频集,则获取并利用当前帧图片的第一图像区域 和下一帧图片的第二图像区域对卷积神经网络模型进行训练;
如果第一样本集非视频集,则获取并利用当前图片的第一图像区域及 其第二图像区域对卷积神经网络模型进行训练。
进一步,所述图像分类模型包括依次连接的5个卷积层和2个全连接 层;
还包括
接收第二样本集;
对第二样本集中每张图片进行目标框标记后预处理,得到第三目标区 域图像和第四目标区域图像;
固定图像分类模型中卷积层参数,利用所有的第三目标区域图像和第 四对目标回归模型进行再次训练,重新调节全连接层的参数,得到图像追 踪分类器。
进一步,第三目标区域图像根据第二样本集中每张图片的目标框进行 图像扩展得到,第四目标区域图像通过由第三目标区域图像和对应目标框 标注图像变换得到。
进一步,所述第二样本集为视频集。
本发明还提供了一种应用图像追踪分类器的人脸追踪方法,包括如下 步骤:
接收人脸追踪视频集;
将人脸追踪视频集输入利用所述图像追踪分类器,在人脸追踪视频集 中每张人脸图片上进行追踪预测。
在上述技术方案中,本发明利用基于深度学***衡的问题,同时基于caffe架构中构建的 CNN网络模型对快速移动、光照模糊变化有更强的鲁棒性,运算量小,提高 了追踪的速度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施 例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是 本发明中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些 附图获得其他的附图。
图1为本发明所述的图像追踪分类器的构建方法一个实施例的流程示意 图;
图2为本发明所述的图像追踪分类器的构建方法对第一样本集预处理的 流程示意图;
图3为本发明所述的图像追踪分类器的构建方法中卷积神经网络模型的 训练流程示意图;
图4为本发明所述的图像追踪分类器的构建方法中卷积神经网络模型的 训练工作原理流程示意图;
图5为本发明所述的图像追踪分类器的构建方法另一个实施例的流程示 意图;
图6为本发明所述的图像追踪分类器的构建方法另一个实施例中卷积神 经网络模型的训练流程框图示意图;
图7为本发明所述的图像追踪分类器的构建方法另一个实施例中IOU的说 明示意图;
图8为应用本发明所述的图像追踪分类器的构建方法的人脸追踪方法流 程框图示意图;
图9为应用本发明所述的图像追踪分类器的构建方法对一组视频的追踪 效果示意图。
具体实施方式
为了使本领域的技术人员更好地理解本发明的技术方案,下面将结合附图 对本发明作进一步的详细介绍。
本发明中鲁棒性指控制***在一定参数摄动下,维持稳定、健壮的特性。 本发明利用深度学习模块Caffe模型构建神经网络。这是因为Caffe是一个清 晰而高效的深度学习框架,具有如下特点:(1)上手快,模型与相应优化都 是以文本形式而非代码形式给出,Caffe给出了模型的定义、最优化设置以及 预训练的权重,方便立即上手;(2)速度快,能够运行最棒的模型与海量的 数据。,Caffe与cuDNN结合使用,测试AlexNet模型,在K40上处理每张图 片只需要1.17ms;(3)模块化,方便扩展到新的任务和设置上,可以使用Caffe 提供的各层类型来定义自己的模型;(4)开放性,公开的代码和参考模型用 于再现;(5)社区好,可以通过BSD-2参与开发与讨论。为此本发明利用caffe 构建并训练卷积神经网络。
由于基于传统特征的机器学习、滤波器学习等算法是提取HOG等传统特 征,鲁棒性较差,对于光照模糊、尺寸变化等复杂场景追踪效果不佳,为此本 发明提出了利用深度学习的卷积神经网络模型解决,为此本发明提供了一种图 像追踪分类器的构建方法。如图1所示,所述方法包括如下步骤:
S101、获取用于训练的第一样本集;
S102、构建卷积神经网络模型;
S103、对第一样本集中每张图片进行目标框标记后,进行预处理得到 第一目标区域图像和第二目标区域图像,第一目标区域图像根据目标框进 行图像扩展得到,第二目标区域图像通过由第一目标区域图像和对应目标 框标注图像变换得到;
S104、利用所有的第一图像区域和第二图像区域对卷积神经网络模型 进行训练,得到目标回归模型。
进一步,所述训练得到图像分类模型的卷积神经网络是基于caffe架 构下的,包括依次连接的5个卷积层和2个全连接层;本发明提出的训练 卷积神经网络模型(即CNN模型)的方法,利用L1Loss做回归训练,利 用卷积神经网络模型自学习的方法,解决传统方法追踪的鲁棒性较低和现 有深度学习追踪的实时性较差问题。
具体地S103中,如图2所示,所述利用卷积神经网络对第一样本集中 每张图片进行预处理包括
S1031、利用样本集中目标框的标注,得到目标区域图像;
S1032、获取目标区域图像的中心坐标,根据中心坐标将目标区域对象 进行扩展处理,得到第一目标区域图像;
S1033、对第一目标区域图像进行放缩、平移变换,得到第二目标区域 图像。
具体实施时,第一样本集包括图片集和视频集。本法实施例中将样本 集设为图片集(DET图片集)和视频集(ALOV视频集),具体地,DET图 片集和ALOV视频集可通过网络进行下载,还可通过在线平台收集海量用户 上传的各种图片或视频。本实施例中,DET数据集有478,807张用bounding box 标注目标区域图像的物体图片,ALOV是含有314个物体的视频数据集。
本实施例中图片集和视频集均为包括人脸的图片,具体用bounding box 进行操作,用标记好的图片集和视频集中所有图片的人脸框,基于人脸框中心 坐标扩展扣图得到第一图像区域,根据人脸框所属的图片将人脸框进行平移、 缩放,即用bounding box进行左右平移、大小伸缩,得到第二图像区域。具体 地,标记的人脸框图片(目标区域图像)及其扩展图片(第一图像区域和第二 图像区域)按照所属的场景分别存储;本发明中将训练样本进行数据扩张,
如ALOV视频集,为评估追踪算法的鲁棒性Amsterdam Library提出的 一个公开数据集。数据集覆盖多种场景:光照变化、平移变换、模糊变化、 快速运动、低对比度等等。本实施例ALOV视频集一共有314个视频序列, 为了追求视频的多样性,每个视频序列的帧数较少,但是场景复杂;一共 有89364帧,共14个场景视频,每个场景视频又拆分成多个片段,组成314个视频。具体可选的存储在如下14个目录中:01-Light/ 02-SurfaceCover/03-Specularity/04-Transparency/05-Shape/ 06-MotionSmoothness/07-MotionCoherence/08-Clutter/ 09-Confusion/10-LowContrast/11-Occlusion/12-MovingCamera /13-ZoomingCamera/14-LongDuration。
如图3所示为本发明中训练卷积神经网络模型的流程示意图。
S104具体包括S1041-S1043。
其中,S1041、判断第一样本集是否为视频集;
S1042、如果第一样本集为视频集,则获取并利用当前帧图片的第一图 像区域和下一帧图片的第二图像区域对卷积神经网络模型进行训练;
S1043、如果第一样本集非视频集,则获取并利用当前图片的第一图像 区域及其第二图像区域对卷积神经网络模型进行训练。
如用于训练卷积神经网络模型的第一样本集为视频集,在第t-1帧中, 假设目标所在位置为(cx,cy),目标区域图像大小为(w,h),则在t-1 帧中提取一块大小为(2w,2h)的图像块输入到CNN中;同时,在第t帧(不 同于t-1帧的图)中也以上一帧图的中心坐标,宽高,变换后提取图像块, 将两帧图片中提取的两个图像块一起输入CNN。
而如果用于训练卷积神经网络模型的第一样本集为图片集,那么在选 定的图片中提取的目标区域图像大小为(w,h),则在该图片中对目标区域 图像大小为(w,h)扩大两倍后得到第一目标区域图像,并还在该图片将以 原图中心坐标,宽高,变换后提取图像块,即第二目标区域图像,即在当 前图片上提取的第一目标图像和第二目标区域图像两个图像块一起输入 CNN中。
如图4所示为利用第一样本集对卷积神经网络模型训练工作流程示意 图。所述卷积神经网络模型如图6所示依次有5层卷积层,两个全连接层。 其中,image代表视频上一帧的目标图像区域(即第一目标图像区域), target代表视频下一帧(即当前帧)中的目标图像区域(即第二目标图像 区域),bbox是下一帧(当前帧)目标(即目标区域图像)的bounding box 标注(具体采用矩形框进行表示)。target和image分别经过5层卷积层 后,特征融合(concat),在将该特征通过全连接层fc6_,fc8_进行回归 得到目标的框的位置。回归得到目标的框的位置与bbox标注框(即目标图 像区域)的四个点坐标,经过subtract层相减,经过abssum层取绝对值 相加,得到最后的L1-Loss。
具体为,将最后预测的结果(即回归得到的目标框的位置)为 (x1,y1,x2,y2),其中,(x1,y1)表示目标框左上角坐标,(x2,y2)表 示目标框右下角坐标,将回归得到的目标框与人脸框标注bouding box坐 标相减作差值,利用损失函数进行训练,损失函数为L1绝对值损失函数。
L(Y,f(X))=|Y-f(X)| (1);
其中,L1计算方式如下:
L1=|x21-x11|+|x22-x12|+|y21-y11|+|y22-y12| (2);
其中,(X21,Y21),(X22,Y22)代表网络预测输出的图片帧中第一目标检测框 的左上角坐标,右下角坐标;(X11,Y11)、(X12,Y12)分别代表图片帧标注的目 标区域的左上角坐标、右下角坐标。
更进一步,如图5所示为本发明所述构建图像追踪分类器方法另一个 实施例的流程示意图。所述方法还包括
S105、接收第二样本集;
S106、对第二样本集中每张图片进行目标框标记后预处理,得到第三 目标区域图像和第四目标区域图像;其中,第三目标区域图像根据第二样 本集中每张图片的目标框进行图像扩展得到,第四目标区域图像通过由第 三目标区域图像和对应目标框标注图像变换得到。
S107、固定图像分类模型中卷积层参数,利用所有的第三目标区域图 像和第四对目标回归模型进行再次训练,重新调节全连接层的参数,得到 图像追踪分类器。
本实施例目的在于首先利用第一样本集对卷积神经网络模型进行预训 练,然后再利用第二样本集进行二次训练。整个训练过程如图6所示,包 括预训练过程和二次训练过程。通过预训练得到图像分类模型,确定预训 练后卷积神经网络模型的各个参数,即5个卷积层和2个全连接层的参数, 最后利用第二样本集对预训练后的卷积神经网络模型进行二次训练,具体 地第二样本集采用300VW人脸视频数据集,该过程为了防止过拟合,保持卷积层参数不变,二次训练过程仅仅调整全连接层的参数。
具体地,300VW图片帧(全包括人的视频帧)的处理方式与第一样本 集一样,但300VW是人脸视频数据集,具有人脸特征,适合用来微调全连 接层fc6_,fc8_。具体地,用300VW人脸视频数据集的测试集作测试集, 每次输入网络是视频的前后两帧,target和image也是前后两帧的图像目 标区域,用F1-score做衡量标准。F1-score的定义如下式(3):
F1-score=2*Precision*Recall/(Precision+Recall) (3),其 中,recision是准确率,Recall是召回率。
准确率(Precision)=预测为真实正例除以所有被预测为正例样本的个 数;召回率(Recall)=预测为真实正例除以所有真实正例样本的个数。
实验中IOU阈值设置为Thresh,IOU>Thresh设为预测正确,IOU<Thresh 预测错误。IOU是预测的bounding box与标注的框的重叠比例。如图7所 示,假设A是预测的boundingbox,B是标注的框。
IOU计算公式如式(4):
IOU=(A∩B)/(A∪B) (4)。
本实施例中用300VW测试集测试,如表1用300VW测试集测试阶段不 同IOU阈值的平均F-score得分。
表1
Thresh:0.500000 | Mean:0.851014 |
Thresh:0.700000 | Mean:0.806154 |
Thresh:0.900000 | Mean:0.614568 |
根据表1说明训练的追踪模型在保证实时性的情况下,精度也比较合 理。由于预训练和微调阶段都是线下进行,测试时网络参数都是固定的, 因此可以达到实时性效果。
如图8所示为应用所述的图像追踪分类器的人脸追踪方法,包括如下 步骤:
S201、接收人脸追踪视频集;
S202、将人脸追踪视频集输入利用图像追踪分类器,在人脸追踪视频 集中每张人脸图片上进行追踪预测。
本发明所述的人脸追踪分类器能够解决光照变化对人脸追踪的影响, 将人脸追踪视频集(具体采用VOT2014视频)输入图像追踪分类器,输出 的人脸视频的结果如图9所示。其中红色是预测(即追踪)输出的框,白 色是标注的目标框。图9为VOT2014视频按照从左至右,从上之下的方向 分别输出的19、79、179、288帧给出的结果,速度为98fps。
以上只通过说明的方式描述了本发明的某些示范性实施例,毋庸置疑,对 于本领域的普通技术人员,在不偏离本发明的精神和范围的情况下,可以用各 种不同的方式对所描述的实施例进行修正。因此,上述附图和描述在本质上是 说明性的,不应理解为对本发明权利要求保护范围的限制。
Claims (7)
1.一种图像追踪分类器的构建方法,其特征在于,包括如下步骤:
获取用于训练的第一样本集;
构建卷积神经网络模型;
对第一样本集中每张图片进行目标框标记后,进行预处理得到第一目标区域图像和第二目标区域图像,第一目标区域图像根据目标框进行图像扩展得到,第二目标区域图像通过由第一目标区域图像和对应目标框标注图像变换得到;
利用所有的第一图像区域和第二图像区域对卷积神经网络模型进行训练,得到目标回归模型。
2.根据权利要求1所述的图像追踪分类器的构建方法,其特征在于,所述对第一样本集中每张图片进行目标框标记后,进行预处理得到第一目标区域图像和第二目标区域图像包括
利用样本集中目标框的标注,得到目标区域图像;
获取目标区域图像的中心坐标,根据中心坐标将目标区域对象进行扩展处理,得到第一目标区域图像;
对第一目标区域图像进行放缩、平移变换,得到第二目标区域图像。
3.根据权利要求1所述的图像追踪分类器的构建方法,其特征在于,第一样本集包括图片集和视频集;
其中,所述利用所有的第一图像区域和第二图像区域对卷积神经网络模型进行训练,得到得到目标回归模型还包括
判断第一样本集是否为视频集;
如果第一样本集为视频集,则获取并利用当前帧图片的第一图像区域和下一帧图片的第二图像区域对卷积神经网络模型进行训练;
如果第一样本集非视频集,则获取并利用当前图片的第一图像区域及其第二图像区域对卷积神经网络模型进行训练。
4.根据权利要求1所述的图像追踪分类器的构建方法,其特征在于,所述图像分类模型包括依次连接的5个卷积层和2个全连接层;
还包括
接收第二样本集;
对第二样本集中每张图片进行目标框标记后预处理,得到第三目标区域图像和第四目标区域图像;
固定图像分类模型中卷积层参数,利用所有的第三目标区域图像和第四对目标回归模型进行再次训练,重新调节全连接层的参数,得到图像追踪分类器。
5.根据权利要求4所述的图像追踪分类器的构建方法,其特征在于,第三目标区域图像根据第二样本集中每张图片的目标框进行图像扩展得到,第四目标区域图像通过由第三目标区域图像和对应目标框标注图像变换得到。
6.根据权利要求1所述的图像追踪分类器的构建方法,其特征在于,所述第二样本集为人脸视频集。
7.一种应用权利要求1-6中任一项所述的图像追踪分类器的人脸追踪方法,其特征在于,包括如下步骤:
接收人脸追踪视频集;
将人脸追踪视频集输入利用所述图像追踪分类器,在人脸追踪视频集中每张人脸图片上进行追踪预测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710503156.5A CN107273933A (zh) | 2017-06-27 | 2017-06-27 | 一种图像追踪分类器的构建方法及应用其的人脸追踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710503156.5A CN107273933A (zh) | 2017-06-27 | 2017-06-27 | 一种图像追踪分类器的构建方法及应用其的人脸追踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107273933A true CN107273933A (zh) | 2017-10-20 |
Family
ID=60070307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710503156.5A Pending CN107273933A (zh) | 2017-06-27 | 2017-06-27 | 一种图像追踪分类器的构建方法及应用其的人脸追踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107273933A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108717732A (zh) * | 2018-05-21 | 2018-10-30 | 电子科技大学 | 一种基于MobileNets模型的表情追踪方法 |
CN108875605A (zh) * | 2018-05-31 | 2018-11-23 | 深圳和而泰数据资源与云技术有限公司 | 脸型确定方法及装置 |
CN109685144A (zh) * | 2018-12-26 | 2019-04-26 | 上海众源网络有限公司 | 一种对视频模型做评估的方法、装置及电子设备 |
CN109949283A (zh) * | 2019-03-12 | 2019-06-28 | 天津瑟威兰斯科技有限公司 | 基于卷积神经网络识别虫子种类和活性的方法及*** |
CN110503154A (zh) * | 2019-08-27 | 2019-11-26 | 携程计算机技术(上海)有限公司 | 图像分类的方法、***、电子设备及存储介质 |
CN111461209A (zh) * | 2020-03-30 | 2020-07-28 | 深圳市凯立德科技股份有限公司 | 一种模型训练装置和方法 |
CN113095230A (zh) * | 2021-04-14 | 2021-07-09 | 北京深睿博联科技有限责任公司 | 一种帮助盲人查找物品的方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090226044A1 (en) * | 2008-03-07 | 2009-09-10 | The Chinese University Of Hong Kong | Real-time body segmentation system |
CN106874894A (zh) * | 2017-03-28 | 2017-06-20 | 电子科技大学 | 一种基于区域全卷积神经网络的人体目标检测方法 |
-
2017
- 2017-06-27 CN CN201710503156.5A patent/CN107273933A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090226044A1 (en) * | 2008-03-07 | 2009-09-10 | The Chinese University Of Hong Kong | Real-time body segmentation system |
CN106874894A (zh) * | 2017-03-28 | 2017-06-20 | 电子科技大学 | 一种基于区域全卷积神经网络的人体目标检测方法 |
Non-Patent Citations (1)
Title |
---|
郭闪闪: "基于深度学习的人脸识别", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108717732A (zh) * | 2018-05-21 | 2018-10-30 | 电子科技大学 | 一种基于MobileNets模型的表情追踪方法 |
CN108875605A (zh) * | 2018-05-31 | 2018-11-23 | 深圳和而泰数据资源与云技术有限公司 | 脸型确定方法及装置 |
CN109685144A (zh) * | 2018-12-26 | 2019-04-26 | 上海众源网络有限公司 | 一种对视频模型做评估的方法、装置及电子设备 |
CN109949283A (zh) * | 2019-03-12 | 2019-06-28 | 天津瑟威兰斯科技有限公司 | 基于卷积神经网络识别虫子种类和活性的方法及*** |
CN110503154A (zh) * | 2019-08-27 | 2019-11-26 | 携程计算机技术(上海)有限公司 | 图像分类的方法、***、电子设备及存储介质 |
CN111461209A (zh) * | 2020-03-30 | 2020-07-28 | 深圳市凯立德科技股份有限公司 | 一种模型训练装置和方法 |
CN111461209B (zh) * | 2020-03-30 | 2024-04-09 | 深圳市凯立德科技股份有限公司 | 一种模型训练装置和方法 |
CN113095230A (zh) * | 2021-04-14 | 2021-07-09 | 北京深睿博联科技有限责任公司 | 一种帮助盲人查找物品的方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107273933A (zh) | 一种图像追踪分类器的构建方法及应用其的人脸追踪方法 | |
CN110598610B (zh) | 一种基于神经选择注意的目标显著性检测方法 | |
CN105608456B (zh) | 一种基于全卷积网络的多方向文本检测方法 | |
CN104809187B (zh) | 一种基于rgb‑d数据的室内场景语义标注方法 | |
CN103186904B (zh) | 图片轮廓提取方法及装置 | |
CN108399380A (zh) | 一种基于三维卷积和Faster RCNN的视频动作检测方法 | |
CN108280397B (zh) | 基于深度卷积神经网络的人体图像头发检测方法 | |
CN105825502B (zh) | 一种基于显著性指导的词典学习的弱监督图像解析方法 | |
CN108537824B (zh) | 基于交替反卷积与卷积的特征图增强的网络结构优化方法 | |
CN107871102A (zh) | 一种人脸检测方法及装置 | |
CN107944442A (zh) | 基于改进卷积神经网络的对象检测装置及方法 | |
CN109034119A (zh) | 一种基于优化的全卷积神经网络的人脸检测方法 | |
CN110263833A (zh) | 基于编码-解码结构的图像语义分割方法 | |
CN107229757A (zh) | 基于深度学习和哈希编码的视频检索方法 | |
Ma et al. | A lightweight feature fusion single shot multibox detector for garbage detection | |
CN109241982A (zh) | 基于深浅层卷积神经网络的目标检测方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN105844621A (zh) | 一种印刷品质量检测方法 | |
CN109800770A (zh) | 一种实时目标检测的方法、***及装置 | |
CN109492596B (zh) | 一种基于K-means聚类和区域推荐网络的行人检测方法及*** | |
CN108154102A (zh) | 一种道路交通标志识别方法 | |
CN107680116A (zh) | 一种监测视频图像中运动目标的方法 | |
CN103955682B (zh) | 基于surf兴趣点的行为识别方法及装置 | |
CN110705412A (zh) | 一种基于运动历史图像的视频目标检测方法 | |
CN112070727A (zh) | 一种基于机器学习的金属表面缺陷检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171020 |
|
RJ01 | Rejection of invention patent application after publication |