CN111008569A - 一种基于人脸语义特征约束卷积网络的眼镜检测方法 - Google Patents

一种基于人脸语义特征约束卷积网络的眼镜检测方法 Download PDF

Info

Publication number
CN111008569A
CN111008569A CN201911086367.9A CN201911086367A CN111008569A CN 111008569 A CN111008569 A CN 111008569A CN 201911086367 A CN201911086367 A CN 201911086367A CN 111008569 A CN111008569 A CN 111008569A
Authority
CN
China
Prior art keywords
glasses
network
detection
scene
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911086367.9A
Other languages
English (en)
Inventor
郑河荣
徐友剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201911086367.9A priority Critical patent/CN111008569A/zh
Publication of CN111008569A publication Critical patent/CN111008569A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于人脸语义特征约束卷积网络的眼镜检测方法,本发明针对Structure Inference Net存在的场景区域不准确问题,提出通过结构推理网络充分利用人脸区域和其他区域的特征信息来提高后续区域的可靠性。由于人脸与眼镜的相对位置稳定,可将人脸或附近区域视为眼镜所处的场景,眼镜与人脸等目标之间也有一定的联系,结合场景和物体间的联系可以提高眼镜检测的精度。提出的眼镜检测卷积网络利用人脸场景信息和眼镜之间的内在语义关联性性建立推理模型,可以大大提高眼镜检测的准确率;解决了现有目标检测技术存在的未充分、合理利用图片场景信息的问题。

Description

一种基于人脸语义特征约束卷积网络的眼镜检测方法
技术领域
本发明涉及计算机视觉的目标检测领域,尤其涉及一种基于人脸语义特征约束卷积网络的眼镜检测方法。
背景技术
在人像采集的日常工作中,需要对采集照片进行质量核审,检测是否佩戴眼镜等饰物是照片质量检测中的重要一环。传统的检测算法对眼镜检测效果不佳,同时人工方式审核人员照片是否佩戴眼镜耗时耗力,人像大小等因素都影响人像照片的眼镜检测无法达到检测预期目标。
从已有发明来看,目前发明主要采用传统的眼镜检测和深度学***方向位置由嘴部区域确定,镜架横梁中心垂直方向位置由人脸图像边缘信息图的像素横向投影情况来确定,根据水平和垂直两者方向位置定位镜架横梁区域,根据横梁区域的横线长度判断是否配戴眼镜,若横线长度与镜架横梁区域水平方向长度近似相等,则佩戴眼镜,反之,未戴眼镜。该发明需要的特征信息少,相对其他方法更加简捷,能有效检测人脸图像是否佩戴眼镜。也有基于深度学习的眼镜检测方法,例如陈文青等人基于眼睛区域的边缘特征提出一种基于神经网络的眼镜检测方法,考虑到眼镜边框与周围像素对比度明显,提取眼睛区域的边缘特征。使用BP神经网络进行模型训练,对人脸图像进行边缘检测和特征提取,利用训练好的模型进行判断人脸图像是否佩戴眼镜。
另外一方面,卷积网络在目标检测中得到了广泛的应用。和传统的BP神经网络相比较,卷积网络在目标检测准确率提到了明显的提升。尽管已有研究对目标检测做了大量的研究,提出了一系列算法。例如Fast-RCNN在提取Object Proposals的基础上,利用卷积网络实现一种多任务学习方式,对目标分类和包围框回归进行同步训练。例如Faster-RCNN设计了候选区域生成网络即RPN,将Object Proposal检测算法也加入到深度卷积网络中实现,是端到端的深度学习算法。YOLO则直接将整张图像作为网络的输入,仅通过一次前向传播直接得到目标包围框的位置和目标类别,检测速度快,但是检测效果特别是小目标检测效果稍差。SSD借鉴了多参考窗口技术,分别在多个尺度的特征图上进行检测和包围框回归。但是,这些卷积网络应用于眼镜检测时,由于眼镜目标较小、半框和无框眼镜的特征难以获取等原因导致检测准确率不高,存在明显的漏检等问题。
发明内容
本发明为克服上述的不足之处,目的在于提供一种基于人脸语义特征约束卷积网络的眼镜检测方法,本发明针对Structure Inference Net存在的场景区域不准确问题,提出通过结构推理网络充分利用人脸区域和其他区域的特征信息来提高后续区域的可靠性。由于人脸与眼镜的相对位置稳定,可将人脸或附近区域视为眼镜所处的场景,眼镜与人脸等目标之间也有一定的联系,结合场景和物体间的联系可以提高眼镜检测的精度。提出的眼镜检测卷积网络利用人脸场景信息和眼镜之间的内在语义关联性性建立推理模型,可以大大提高眼镜检测的准确率;解决了现有目标检测技术存在的未充分、合理利用图片场景信息的问题。
本发明是通过以下技术方案达到上述目的:一种基于人脸语义特征约束卷积网络的眼镜检测方法,包括:
(1)初始训练数据采集及标注,得到带标签的训练集;
(2)人脸语义特征约束下的眼镜检测卷积网络模型的构建,并基于训练集进行训练模型;
(3)基于训练好的人脸语义特征约束下的的眼镜检测卷积网络模型进行眼镜检测,实现对人像照片的眼镜检测。
作为优选,所述步骤(1)具体如下:
(1.1)利用人工拍照、人工从网络或者其他开源人脸数据集中搜集戴眼镜人像照片,对采集图像进行人工标注,其中眼镜区域为xmin,ymin,xmax,ymax四个坐标,代表眼镜区域,得到初始部分训练集CS1;(1.2)选取若干副眼镜图片,使用抠图方法得到眼镜的png图,并人工标注眼镜区域,标注方法同步骤(1.1)的标注方法,选择人像照片,标注双眼位置,并根据双眼的中心宽度和与水平系的夹角,将眼镜png图合成到人像图片上,得到得到初始部分训练集CS2
(1.3)经过上述步骤得到带标签的初始训练集Cs=CS1+CS2
作为优选,所述步骤(2)具体如下:
(2.1)使用官方在ImageNet图像库上训练好的模型作为眼镜检测的预训练模型,在此基础上进行微调;
(2.2)人脸语义特征约束下的眼镜检测卷积网络模型由Faster-RCNN网络和结构推理网络混合构成,其中由Faster-RCNN的RPN方法生成固定数量的ROI,经过ROI-Pooling得到特征向量并映射成一个节点作为结构推理网络SIN的初始状态Sin
(2.3)根据步骤(2.2)中由RPN生成的固定数量ROI区域,以每一个ROI区域的宽高和中心点为基准,分别选取宽度和高度为rw倍和rh倍的区域作为该ROI区域的场景,经过VGG16、ROI-Pooling等层作为SIN的场景输入INs
(2.4)根据步骤(2.2)中由RPN生成的固定数量ROI区域,每两个ROI的联系信息,作为结构推理模型的边缘信息输入INe,共十二维;
Figure BDA0002265535980000051
i,k代表两个ROI区域;
(2.5)利用结构推理网络SIN对Sin推理,推理结构初始场景和边缘GRU状态都为Sin,INs是场景输入,INe是边缘信息输入,Sout是推理结果,即推理输出;
(2.6)推理结果使用softmax进行分类,使用Bounding-box regression边界框回归;其中,模型目标函数为
Figure BDA0002265535980000052
其中pi为anchor预测为目标的概率,
Figure BDA0002265535980000053
为GT标签,若正标签为1,否则为0;Ncls为anchor数量,
Figure BDA0002265535980000054
为两个类别的对数损失;ti={tx,ty,tw,th},代表该anchor预测的偏移量,
Figure BDA0002265535980000055
表示anchor相对于gt实际的偏移量;
(2.7)利用梯度下降方法对步骤(2.6)中的目标函数进行优化。
作为优选,所述步骤(3)具体如下:
(3.1)将测试图片输入到训练好的网络模型中,得到测试图片的目标分类和定位;
(3.2)进行统计分析,统计输出目标被正确分类和定位的准确率,以map为标准;得到最终模型的正确检测效果。
本发明的有益效果在于:本发明根据图片中眼镜目标区域的粗略位置即选取特定位置的场景,即人脸背景,提取这部分的关键特征信息作为结构推理网络的场景输入;这种处理方法使结构推理网络能合理获取到准确的场景信息,提升推理效果,提高眼镜检测精度;构建人脸语义特征约束下的眼镜检测卷积网络模型,根据眼镜目标的尺寸和位置选取特定位置的场景信息作为结构推理网络的场景输入,舍弃了图片的多余信息,保留最关键信息,在经过ROI-Pooling后,最大程度保留了眼镜目标的最关键场景信息,提高推理效果,提高本发明的实际应用价值;本发明设计充分利用人脸语义信息有效提高眼镜的检测精度。
附图说明
图1是本发明的方法流程示意图;
图2是本发明实施例的结构推理网络示意图。
具体实施方式
下面结合具体实施例对本发明进行进一步描述,但本发明的保护范围并不仅限于此:
实施例:本实施例中,人像戴眼镜图片内容定义为:个人半身或全身正面戴眼镜照片。以眼镜目标为正样本,其余为负样本。由于人工收集样本图像具有周期长、数量少、成本高等特点,不能完全满足模型训练需要的大量样本图像,因此需要采取其他方法进行样本图像的增强处理,能在一定程度上提高模型训练的识别率。
如图1所示,一种基于人脸语义特征约束卷积网络的眼镜检测方法,包括如下步骤:
步骤一、初始训练数据采集及标注;
步骤1.1:利用人工拍照、人工从网络或者其他开源人脸数据集中搜集大量戴眼镜人像照片,约2000张;
步骤1.2:选取若干副眼镜图片,使用抠图方法得到眼镜的png图,并人工标注眼镜镜片区域。
步骤1.3:搜集大量人像照片,人工标注双眼位置,用于之后的图像合成计算。
步骤1.4:对所有样本图像进行预处理。由于采集的样本来自不同的网站平台,存在规格大小不一,附带水印等问题。对网络收集图片,利用人工方式进行裁剪去除水印,并使用python代码将图片缩放至长宽500像素以下,约2000张(戴眼镜与无眼镜比例大致为1:1)。对人像照片,根据眼镜镜片和人像眼睛的标注计算双眼的中心宽度和与水平系的夹角,将眼镜png图合成到人像图片上,生成图片以及眼镜变换后的坐标框,约3000张合成图。
步骤1.5:经过上述步骤将网络样本集CS1和合成样本集CS2组成训练集。
步骤二、人脸语义特征约束下的眼镜检测卷积网络模型的构建及训练;
步骤2.1:本方法基于TensorFlow深度学习框架,以Faster-RCNN检测网络为基础,融合结构推理网络SIN来构建人脸语义特征约束下的眼镜检测卷积网络模型;
步骤2.2:结构推理网络的初始化,由Faster-RCNN的RPN方法生成128个ROI区域,提取这些ROI区域的特征,并经过ROI-Pooling、FC等层得到特征向量并映射成一个节点作为结构推理网络SIN的初始状态;
步骤2.3:场景的选择,对每一个ROI区域,以原ROI中心点位置为初始位置,以原ROI区域长宽为基准,选取高度和宽度分别为rh和rw倍的区域,根据图片左上角为原点建立坐标轴,原始ROI区域的坐标为:xc1,yc1,w1,h1,其中xc1和yc1为ROI中心坐标,w1和h1分别为ROI区域的宽度和高度.选择的场景区域为:xc2=xc1,yc2=yc1,w2=rww1,h2=rhh1其中xc2和yc2为场景区域中心坐标,w2,h2分别为场景区域的宽度和高度,超过边界的部分按图片最大或最小长宽值处理.由于人脸和眼镜相对位置稳定,可以从眼镜推断出大致的人脸位置,以人脸位置为眼镜目标的场景最为适合,因此令rh和rw取值为7和2。
步骤2.4:结构推理网络的场景输入,提取经过场景选择后的场景特征,128个ROI区域与128个场景区域特征一一对应,并经过ROI-Pooling、FC等层得到特征向量并转化成一个向量作为结构推理网络SIN的场景输入。
步骤2.5:结构推理网络的边缘信息输入,对于物体vi,其他物体vk传递给vi的消息是
Figure BDA0002265535980000081
其中k=(1,2,3,4…).
Figure BDA0002265535980000082
是物体k的视觉特征.
Figure BDA0002265535980000083
Wv和Wp是学习获取到的权重矩阵,fi v
Figure BDA0002265535980000084
分别是物体i和物体k的视觉特征.
Figure BDA0002265535980000085
代物体i和物体k的空间位置关系,
Figure BDA0002265535980000091
其中xi和yi是ROI区域bi的中心,wi和hi是bi的宽度和高度,si是bi的面积。
Figure BDA0002265535980000092
是边缘GRU的输入是其他物体传递给物体vi的消息的整合.
Figure BDA0002265535980000093
Figure BDA0002265535980000094
就是ROI区域的边缘信息,即一个ROI区域从其他ROI区域接收到的信息综合,作为结构推理网络SIN的边缘信息输入。
步骤2.6:结构推理网络,如图2所示;使用场景GRU和边缘GRU,原始图像提供两个GRU的初始状态,场景选择为场景GRU提供输入,ROI之间的空间关系为边缘GRU提供输入,场景GRU和边缘GRU的输出进行一次mean pooling平均池化操作,得到最终的GRU输出结果,即最终的推理输出。推理输出使用softmax进行分类,使用Bounding-box regression边界框回归。
步骤三、基于眼镜检测卷积网络模型的眼镜检测;
步骤3.1:将测试图片输入训练好的最终网络模型,得到测试图像的目标分类和定位;
步骤3.2:对测试图片做统计分析,统计输出目标被正确分类和定位的准确率,以map为标准,得到模型的检测效果。
经过上述步骤的操作,即可实现对人像照片的眼镜检测。
以上的所述乃是本发明的具体实施例及所运用的技术原理,若依本发明的构想所作的改变,其所产生的功能作用仍未超出说明书及附图所涵盖的精神时,仍应属本发明的保护范围。

Claims (4)

1.一种基于人脸语义特征约束卷积网络的眼镜检测方法,其特征在于,包括:
(1)初始训练数据采集及标注,得到带标签的训练集;
(2)人脸语义特征约束下的眼镜检测卷积网络模型的构建,并基于训练集进行训练模型;
(3)基于训练好的人脸语义特征约束下的的眼镜检测卷积网络模型进行眼镜检测,实现对人像照片的眼镜检测。
2.根据权利要求1所述的一种基于人脸语义特征约束卷积网络的眼镜检测方法,其特征在于:所述步骤(1)具体如下:
(1.1)利用人工拍照、人工从网络或者其他开源人脸数据集中搜集戴眼镜人像照片,对采集图像进行人工标注,其中眼镜区域为xmin,ymin,xmax,ymax四个坐标,代表眼镜区域,得到初始部分训练集CS1
(1.2)选取若干副眼镜图片,使用抠图方法得到眼镜的png图,并人工标注眼镜区域,标注方法同步骤(1.1)的标注方法,选择人像照片,标注双眼位置,并根据双眼的中心宽度和与水平系的夹角,将眼镜png图合成到人像图片上,得到得到初始部分训练集CS2
(1.3)经过上述步骤得到带标签的初始训练集Cs=CS1+CS2
3.根据权利要求1所述的一种基于人脸语义特征约束卷积网络的眼镜检测方法,其特征在于:所述步骤(2)具体如下:
(2.1)使用官方在ImageNet图像库上训练好的模型作为眼镜检测的预训练模型,在此基础上进行微调;
(2.2)人脸语义特征约束下的眼镜检测卷积网络模型由Faster-RCNN网络和结构推理网络混合构成,其中由Faster-RCNN的RPN方法生成固定数量的ROI,经过ROI-Pooling得到特征向量并映射成一个节点作为结构推理网络SIN的初始状态Sin
(2.3)根据步骤(2.2)中由RPN生成的固定数量ROI区域,以每一个ROI区域的宽高和中心点为基准,分别选取宽度和高度为rw倍和rh倍的区域作为该ROI区域的场景,经过VGG16、ROI-Pooling等层作为SIN的场景输入INs
(2.4)根据步骤(2.2)中由RPN生成的固定数量ROI区域,每两个ROI的联系信息,作为结构推理模型的边缘信息输入INe,共十二维;
Figure FDA0002265535970000021
i,k代表两个ROI区域;
(2.5)利用结构推理网络SIN对Sin推理,推理结构初始场景和边缘GRU状态都为Sin,INs是场景输入,INe是边缘信息输入,Sout是推理结果,即推理输出;
(2.6)推理结果使用softmax进行分类,使用Bounding-box regression边界框回归;其中,模型目标函数为
Figure FDA0002265535970000022
其中pi为anchor预测为目标的概率,
Figure FDA0002265535970000023
为GT标签,若正标签为1,否则为0;Ncls为anchor数量,
Figure FDA0002265535970000024
为两个类别的对数损失;ti={tx,ty,tw,th},代表该anchor预测的偏移量,
Figure FDA0002265535970000025
表示anchor相对于gt实际的偏移量;
(2.7)利用梯度下降方法对步骤(2.6)中的目标函数进行优化。
4.根据权利要求1所述的一种基于人脸语义特征约束卷积网络的眼镜检测方法,其特征在于:所述步骤(3)具体如下:
(3.1)将测试图片输入到训练好的网络模型中,得到测试图片的目标分类和定位;
(3.2)进行统计分析,统计输出目标被正确分类和定位的准确率,以map为标准;得到最终模型的正确检测效果。
CN201911086367.9A 2019-11-08 2019-11-08 一种基于人脸语义特征约束卷积网络的眼镜检测方法 Pending CN111008569A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911086367.9A CN111008569A (zh) 2019-11-08 2019-11-08 一种基于人脸语义特征约束卷积网络的眼镜检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911086367.9A CN111008569A (zh) 2019-11-08 2019-11-08 一种基于人脸语义特征约束卷积网络的眼镜检测方法

Publications (1)

Publication Number Publication Date
CN111008569A true CN111008569A (zh) 2020-04-14

Family

ID=70111581

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911086367.9A Pending CN111008569A (zh) 2019-11-08 2019-11-08 一种基于人脸语义特征约束卷积网络的眼镜检测方法

Country Status (1)

Country Link
CN (1) CN111008569A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101261A (zh) * 2020-09-22 2020-12-18 北京百度网讯科技有限公司 人脸识别方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102163288A (zh) * 2011-04-06 2011-08-24 北京中星微电子有限公司 眼镜检测方法和装置
CN105335695A (zh) * 2015-08-19 2016-02-17 华南理工大学 一种基于眼镜检测的眼睛定位方法
CN107808120A (zh) * 2017-09-30 2018-03-16 平安科技(深圳)有限公司 眼镜定位方法、装置及存储介质
CN108319943A (zh) * 2018-04-25 2018-07-24 北京优创新港科技股份有限公司 一种提高戴眼镜条件下人脸识别模型性能的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102163288A (zh) * 2011-04-06 2011-08-24 北京中星微电子有限公司 眼镜检测方法和装置
CN105335695A (zh) * 2015-08-19 2016-02-17 华南理工大学 一种基于眼镜检测的眼睛定位方法
CN107808120A (zh) * 2017-09-30 2018-03-16 平安科技(深圳)有限公司 眼镜定位方法、装置及存储介质
CN108319943A (zh) * 2018-04-25 2018-07-24 北京优创新港科技股份有限公司 一种提高戴眼镜条件下人脸识别模型性能的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
YONG LIU等: "Structure Inference Net: Object Detection Using Scene-Level Context and Instance-Level Relationships", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
方卫华: "《跨拦河建筑物安全状态感知、融合与预测》", 31 December 2018 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101261A (zh) * 2020-09-22 2020-12-18 北京百度网讯科技有限公司 人脸识别方法、装置、设备及存储介质
CN112101261B (zh) * 2020-09-22 2023-12-26 北京百度网讯科技有限公司 人脸识别方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN106960202B (zh) 一种基于可见光与红外图像融合的笑脸识别方法
CN110532970B (zh) 人脸2d图像的年龄性别属性分析方法、***、设备和介质
CN112766160A (zh) 基于多级属性编码器和注意力机制的人脸替换方法
CN106682603B (zh) 一种基于多源信息融合的实时驾驶员疲劳预警***
US9639748B2 (en) Method for detecting persons using 1D depths and 2D texture
CN111563452B (zh) 一种基于实例分割的多人体姿态检测及状态判别方法
CN103810491B (zh) 融合深度和灰度图像特征点的头姿估计兴趣点检测方法
CN112784736B (zh) 一种多模态特征融合的人物交互行为识别方法
CN110634116B (zh) 一种面部图像评分方法及摄像机
CN102609724B (zh) 一种基于双摄像头的周围环境信息提示方法
CN111144207B (zh) 一种基于多模态信息感知的人体检测和跟踪方法
CN113762009B (zh) 一种基于多尺度特征融合及双注意力机制的人群计数方法
CN113158943A (zh) 一种跨域红外目标检测方法
CN107862240A (zh) 一种多摄像头协同的人脸追踪方法
CN109028226A (zh) 基于双区域图像采集进行油烟浓度判断的油烟机
WO2021248815A1 (zh) 一种高精度的儿童坐姿检测与矫正方法及装置
CN108416304B (zh) 一种利用上下文信息的三分类人脸检测方法
CN115375991A (zh) 一种强/弱光照和雾环境自适应目标检测方法
CN112861723A (zh) 基于人体姿势识别的体育动作识别计数方法、装置及计算机可读存储介质
KR101817773B1 (ko) 깊이 영상 센싱 기반의 맞춤형 광고 제공 시스템
CN112488165A (zh) 一种基于深度学习模型的红外行人识别方法及***
CN106127754A (zh) 基于融合特征和时空连续性判定规则的cme检测方法
CN111008569A (zh) 一种基于人脸语义特征约束卷积网络的眼镜检测方法
CN111275754B (zh) 一种基于深度学习的脸部痘印比例计算方法
CN112924037A (zh) 基于图像配准的红外体温检测***及检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200414

WD01 Invention patent application deemed withdrawn after publication