CN110046870B - 一种基于地理位置和人脸特征的签到方法及*** - Google Patents
一种基于地理位置和人脸特征的签到方法及*** Download PDFInfo
- Publication number
- CN110046870B CN110046870B CN201910303968.4A CN201910303968A CN110046870B CN 110046870 B CN110046870 B CN 110046870B CN 201910303968 A CN201910303968 A CN 201910303968A CN 110046870 B CN110046870 B CN 110046870B
- Authority
- CN
- China
- Prior art keywords
- check
- face
- user
- feature
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/109—Time management, e.g. calendars, reminders, meetings or time accounting
- G06Q10/1091—Recording time for administrative or management purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Resources & Organizations (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- Data Mining & Analysis (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Tourism & Hospitality (AREA)
- Operations Research (AREA)
- Educational Administration (AREA)
- Marketing (AREA)
- Economics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Collating Specific Patterns (AREA)
- General Business, Economics & Management (AREA)
Abstract
本发明涉及一种基于地理位置和人脸特征的签到方法及***,通过获取用户签到时间、签到时刻所处的经度、纬度和人脸特征信息,通过对上述信息进行审核得到签到审核结果,并将签到审核结果返回客户端。相对于现有技术,本发明极大地提高了签到效率和准确性。
Description
技术领域
本发明涉及签到领域,尤其是涉及一种基于地理位置和人脸特征的签到方法及***。
背景技术
随着互联网和信息处理技术的快速发展,人们借助各种智能终端设备,极大地提高了办事效率。然而在一些公共场合中,依然存在一些传统的解决方案影响着人们办事的效率和准确率,例如课堂签到、大型户外集体活动签到、会议签到、上班签到等场景。在日常生活中,上述场景最常见的做法是全人工签到和借助机器的签到两大类方法。
对于全人工签到,一般在高校课堂、户外集体出游会采用点名或者手动登记的方式签到,这种方式不仅费时费力,还存在错签、代签、漏签的情况。其次,对于借助机器签到的方案,人们主要是借助打卡机如采集指纹或人脸的设备,由于单台设备只能顺序打卡,在人数较多时,如上下班高峰期,需排队等候造成时间浪费。同样若采购大量设备会造成资源浪费,而且该方案需要另外固定安装和配置,适用范围也有限制。特别是对于指纹采集设备,还存在手指皮肤损伤影响指纹采集的情况。在现有常见的签到方法中,普遍存在签到效率、准确率低的情况。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种签到效率高、准确率高的基于地理位置和人脸特征的签到方法及***。
一种基于地理位置和人脸特征的签到方法,包括以下步骤:
获取用户签到时刻所处的经度、纬度和人脸特征信息;
判断用户是否处于签到设定时间内,得到签到时间审核结果;
调用半正矢模型计算出用户签到地点与签到规则预设地点的距离,判断用户是否在签到约束范围内,得到地理信息审核结果;
调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型,对接收到的人脸信息进行特征提取,并与数据库中的注册时的特征进行匹配,得到人脸信息审核结果;
根据签到时间审核结果、地理信息审核结果和人脸信息审核结果得到签到审核结果并返回客户端。
相对于现有技术,本案通过获取用户签到时刻所处的经度、纬度、人脸特征信息和签到时间,通过对上述信息进行审核得到签到审核结果,并将签到审核结果返回客户端,大大地提高了签到效率和准确性。
进一步地,在调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型的步骤之前,还包括以下步骤:
将采集到的人脸图片集作为迁移学习的待训练数据集;
使用人脸识别数据集预训练深度神经网络;
根据待训练数据集对上述深度神经网络进行微调。通过上述步骤,得到识别效果最佳的人脸识别模型,增加人脸识别的准确性。
进一步地,所述调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型,对接收到的人脸信息进行特征提取,并与数据库中的注册时的特征进行匹配的步骤具体包括:
调用人脸检测接口,该接口使用多任务级联卷积神经网络对采集到的图片进行人脸检测、人脸对齐并返回对齐后的人脸图片;
调用人脸特征提取接口,使用微调后的深度卷积神经网络将人脸图片中的人脸特征映射到N维欧式空间,返回表示特征映射的N元组;
根据匹配策略将人脸特征N元组与人脸特征数据库中存储的特征进行比对,并得到比对结果。
通过对人脸图片进行对齐,避免在后续过程中人脸检测出现偏差,增加准确性。
进一步地,所述所述根据匹配策略将人脸特征N元组与人脸特征数据库中存储的特征进行比对的步骤具体包括:
基于移动设备终端提供的用户唯一标识,读取特征数据库中的所有该用户唯一标识对应的特征N元组,得到用户特征字典;
或者,读取特征数据库中的所有用户唯一标识对应的特征元组,得到用户特征字典;
计算待匹配的人脸特征元组X与每个用户对应的特征元组之间的欧式距离,选择欧式距离值最小的特征元组,将其对应的用户唯一标识作为该用户特征元组X匹配所得的用户唯一标识;
将计算出的最小距离值与设定阈值进行比较;若小于设定阈值,则匹配成功,返回对应用户唯一标识;反之则匹配失败,返回匹配错误。
在本步骤中,用户可依据实际情况选择匹配策略进行人脸特征N元组与人脸特征数据库的特征比对,增加了特征匹配的灵活性与可靠性。
进一步地,所述根据待训练数据集对上述深度神经网络进行微调的步骤包括:
迁移预训练网络的权重作为目标网络的初始化权重;
在不改变前N层网络的权重的基础下,将待训练数据集通过预训练模型前N层提取特征后输出作为待训练目标网络的输入;
自N+1层起,设置较小的学习率,重新训练后面的层,调控迭代次数,通过前向传播算法与反向传播算法不断更新优化节点的权重,从而得到表现最佳的模型,增加人脸识别的准确性。
本发明还提供了一种基于地理位置和人脸特征的签到***,包括:
信息采集模块,用于获取用户签到时间、签到时刻所处的经度、纬度和人脸特征信息;
签到时间审核模块,用于判断用户是否处于签到设定时间内,得到签到时间审核结果;
签到地点审核模块,用于调用半正矢模型计算出用户签到地点与签到规则预设地点的距离,判断用户是否在签到约束范围内,得到地理信息审核结果;
人脸信息审核模块,用于调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型,对接收到的人脸信息进行特征提取,并与数据库中的注册时的特征进行匹配,得到人脸信息审核结果;
签到审核模块,用于根据签到时间审核结果、地理信息审核结果和人脸信息审核结果得到签到审核结果并返回客户端。
相对于现有技术,本案通过信息采集模块采集用户签到时间、签到时刻所处的经度、纬度和人脸特征信息,通过签到时间审核模块、签到地点审核模块和人脸信息审核模块对上述信息进行审核,并通过签到审核模块将签到审核结果返回客户端,大大地提高了签到效率和准确性。
进一步地,所述基于地理位置和人脸特征的签到***还包括:
待训练数据采集模块,用于将服务器端采集到的人脸图片集作为迁移学习的待训练数据集;
预训练模块,用于使用人脸识别数据集预训练深度神经网络;
微调模块,用于根据上述步骤得到的待训练数据集对上述深度神经网络进行微调。
通过上述步骤,得到识别效果最佳的人脸识别模型,增加人脸识别的准确性。
进一步地,所述人脸信息审核模块包括:
人脸对齐单元,用于调用人脸检测接口,该接口使用多任务级联卷积神经网络对采集到的图片进行人脸检测、人脸对齐并返回对齐后的人脸图片;
人脸特征映射单元,用于调用人脸特征提取接口,使用微调后的深度卷积神经网络将人脸图片中的人脸特征映射到N维欧式空间,返回表示特征映射的N元组;
匹配单元,用于根据匹配策略将人脸特征N元组与人脸特征数据库中存储的特征进行比对,并得到比对结果。
通过对人脸图片进行对齐,避免在后续过程中人脸检测出现偏差,增加准确性。
进一步地,所述匹配单元包括:
用户特征元组获得单元,用于读取特征数据库中的所有该用户唯一标识对应的特征N元组,得到用户特征字典;或者用于读取特征数据库中的所有用户唯一标识对应的特征元组,得到用户特征字典。
计算单元,用于计算待匹配的人脸特征元组X与每个用户对应的特征元组之间的欧式距离,选择欧式距离值最小的特征元组,将其对应的用户唯一标识作为该用户特征元组X匹配所得的用户唯一标识;
比较单元,用于将计算出的最小距离值与设定阈值进行比较;若小于设定阈值,则匹配成功,返回对应用户唯一标识;反之则匹配失败,返回匹配错误。
在本步骤中,用户可依据实际情况选择匹配策略进行人脸特征N元组与人脸特征数据库的特征比对,增加了特征匹配的灵活性与可靠性。
进一步地,所述微调模块包括:
迁徙权重单元,用于迁移预训练网络的权重作为目标网络的初始化权重;
特征提取单元,用于在不改变前N层网络的权重的基础下,将待训练数据集通过预训练模型前N层提取特征后输出作为待训练目标网络的输入;
调整单元,用于自N+1层起,设置较小的学习率,重新训练后面的层,调控迭代次数,通过前向传播算法与反向传播算法不断更新优化节点的权重,从而得到表现最佳的模型,增加人脸识别的准确性。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1是本发明实施例1所述基于地理位置和人脸特征的签到方法的流程图;
图2是本发明中实施例1中所述基于地理位置和人脸特征的签到方法步骤S3中人脸信息审核的流程图;
图3是本发明实施例2中所述基于地理位置和人脸特征的签到***的框架图;
图4是本发明实施例2中所述人脸信息审核模块4的结构图;
图5是本发明实施例2中所述微调模块403的结构图。
具体实施方式
实施例1
请参阅图1-3,其是本发明所述基于地理位置和人脸特征的签到方法的流程图。
一种基于地理位置和人脸特征的签到方法,包括以下步骤:
S1:获取用户签到时间、签到时刻所处的经度、纬度和人脸特征信息;
S2:判断用户是否处于签到设定时间内,得到签到时间审核结果;若签到时间不在签到规则范围内,则签到时间审核不通过,反之审核通过。
S3:调用半正矢模型计算出用户签到地点与签到规则预设地点的距离,判断用户是否在签到约束范围内,得到地理信息审核结果;
S4:调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型,对接收到的人脸信息进行特征提取,并与数据库中的注册时的特征进行匹配,得到人脸信息审核结果;
S5:根据签到时间审核结果、地理信息审核结果和人脸信息审核结果得到签到审核结果并返回客户端。只有当签到人脸信息、签到位置信息,签到时间信息三者的审核结果均为通过时,则返回签到审核结果成功;若其中一项审核不通过,则返回签到审核结果失败。
其中,所述通过半正矢模型计算出用户签到地点与签到规则预设地点的距离,判断用户是否在签到约束范围内,得到地理信息审核结果的步骤具体包括:服务器端读取用户签到地点所处的经度和纬度,通过半正矢模型计算出用户签到地点与签到规则预设地点的距离S,判断用户是否在签到约束范围内;具体地,所述半正矢模型通过“半正矢定理”根据球面上两点的经纬度来确定估算大圆两点之间距离,具体为:
其中d为目标变量,即需要估算的两点之间的距离;r为球面半径;和/>分别为签到地点与预设地点的纬度(弧度制度量);λ1和λ2分别为签到地点与预设地点的经度(弧度制度量);/>为圆心角(弧度制度量);hav为半正矢函数,对任意θ角(弧度制度量),有
得到
在上述签到规则中预设约束距离L,若S>L,则表示不在签到约束范围内,得到地理信息审核结果为不通过;若S<L,则表示签到地点在签到约束范围内,得到地理信息审核结果为通过。
在本实施例中,服务器端读取客户端采集到的三张人脸照片,通过当前签到用户唯一标识寻找到数据库中该用户注册时的人脸信息。通过调用人脸识别模型进行匹配,若两张及以上图片匹配失败,则人脸信息审核不通过;反之,则审核通过。
具体地,在调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型的步骤之前,还包括以下步骤:
S401:将服务器端采集到的人脸图片集作为迁移学习的待训练数据集;
S402:使用人脸识别数据集预训练深度神经网络;
在本实施例中,S402:使用人脸识别数据集预训练深度神经网络的步骤中使用FaceNet算法预训练深度神经网络,所述FaceNet算法使用三元组损失函数(TripletLoss),通过深度卷积神经网络学习人脸特征到欧式空间的映射函数,输出表示人脸特征的N元组。其中,三元组结构指的是<一个标准图片,一个正样本,一个负样本>,即(<Anchor,Positive,Negative>),将三个样本的特征表达分别记为将同类样本间的距离和异类样本间的距离之间的最小间隔记为α,所述Triplet Loss的目标函数可表示为:
其中,目标函数表达式中的下标符号“+”表示三元组的距离值大于零时,取其距离值为损失,距离值小于零时,三元组的损失为零;因而对于经过三元组损失函数训练的神经网络提取的两个N维元组(x1,x2,…,xn)、(y1,y2,…,yn),采用欧氏距离计算两个特征元组之间的距离,并根据距离值来判断两个特征是否属于同一个人;
优选地,在选取度量两个特征元组之间相似性的过程中,选取欧氏距离作度量函数。相比较余弦相似度、欧氏距离以及曼哈顿距离,欧式距离在人脸识别的准确率上表现最佳。在本步骤中,所述人脸识别数据集可选择如VGG-Face2、CASIA-WebFace等常用大规模人脸识别数据集,所述深度学习算法也可选择DeepFace算法。
S403:根据上述步骤得到的待训练数据集对上述深度神经网络进行微调。
所述S403:根据上述步骤得到的待训练数据集对上述深度神经网络进行微调具体包括:
首先迁移预训练网络的权重作为目标网络的初始化权重;
其次由于预训练模型的前N层提取的特征具有一般性,且待训练的数据集相比于预训练数据集在规模上更小,在内容上较为相似,因而在重新训练时,可将预训练网络前N层的权重“冻结”(Frozen),即在不改变前N层网络的权重的基础下,将待训练数据集通过预训练模型前N层提取特征后输出作为待训练目标网络的输入;本步骤确定冻结层(Frozenlayers)的过程中,可以多次进行尝试,从而可依据结果找到冻结层和重新训练层(Retrainlayers)之间的最佳搭配。
最后自N+1层起,设置较小的学习率,重新训练后面的层,调控迭代次数,仍使用三元组损失函数,通过前向传播算法(Forward propagation)与反向传播算法(Backpropagation)不断更新优化节点的权重,从而得到表现最佳的模型。
所述调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型,对接收到的人脸信息进行特征提取,并与数据库中的注册时的特征进行匹配的步骤具体包括:
S411:基于移动设备终端采集到的图片,调用人脸检测接口,该接口使用多任务级联卷积神经网络对采集到的图片进行人脸检测、人脸对齐并返回对齐后的人脸图片;
S412:基于步骤S311得到的人脸图片,调用人脸特征提取接口,使用微调后的深度卷积神经网络将人脸图片中的人脸特征映射到N维欧式空间,返回表示特征映射的N元组;
S413:基于步骤S312得到的人脸特征N元组,根据匹配策略将人脸特征N元组与人脸特征数据库中存储的特征进行比对,并得到比对结果。
具体地,所述S313步骤中根据匹配策略将人脸特征N元组与人脸特征数据库中存储的特征进行比对的步骤具体包括:
S413a:该步骤提供两种匹配方案,方案一和方案二分别对应1:1匹配和1:N匹配,用户可根据实际情况灵活选择其一得到用户特征词典;
方案一:基于移动设备终端提供的用户唯一标识,读取特征数据库中的所有该用户唯一标识对应的特征N元组,得到用户特征字典;
<uuid:<embedding_1,…,embedding_n>>
其中,uuid为用户唯一标识,embedding_n为特征N元组。数据库中预先保存用户注册时采集的人脸特征元组。
方案二:读取特征数据库中的所有用户唯一标识对应的特征元组,得到用户特征字典。
<uuid_1:<embedding_1,…,embedding_n>,…,uuid_n:<embedding_1,…,embedding_n>>
S413b:基于上述步骤提取的待匹配的人脸特征元组X,计算X与每个用户对应的特征元组之间的欧式距离,选择欧式距离值最小的特征元组,将其对应的用户唯一标识作为该用户特征元组X匹配所得的用户唯一标识;
S413c:根据上述步骤计算出的最小距离值,将此最小距离值与设定阈值进行比较。若小于设定阈值,则比对成功,返回对应用户唯一标识;反之则匹配失败,返回匹配错误。
在一个实施例中,在S1步骤之前,还包括以下步骤:
根据客户端摄像头采集到的若干张具有人脸特征信息的用户图片,通过调用人脸识别模型对对登陆人脸信息与注册人脸信息进行登陆身份验证,摒弃了传统的输入账密的方式进行登录,实现了签到的便捷性和公平性。优选地,在本步骤中还可校验方式采集若干张具有人脸特征信息的用户图片对已保存的人脸信息进行重置,提高用户体验。其中,所述校验方式包括但不限于手机短信验证码、邮件验证码的方式。
根据用户项目管理员或项目成员身份给予不同的权限;通过身份验证后,用户可通过创建签到项目群成为项目管理员,或者通过加入签到项目群成为项目成员,其中,添加签到项目群的方式包括但不限于扫描签到项目群二维码,搜索群名称的方式。
当用户身份为项目管理员时,给予项目管理员添加用户、编辑签到规则、发布群公告、查阅签到项目群全体成员的签到记录等操作的权限;具体地,项目管理员添加用户可以通过客户端分享签到项目群二维码的方式。具体地,当管理员创建项目群时,保存该签到项目群基本信息,所述项目群基本信息包括但不限于群名称,创建时间,签到项目群二维码;当管理员编辑签到规则时,保存签到项目群的签到规则信息,其中签到规则主要为签到时间、地点、签到约束距离。具体地,当管理员设定签到地点时,调用客户端定位模块,获取该地点对应的经纬度信息;具体地,当管理员发布签到项目群公告,保存签到项目群公告信息。
在一个实施例中,当项目管理员设置签到规则后,通知签到项目全体群成员在指定时间、地点进行签到。其中,通知时间可由管理员结合签到情况进行设定,***默认在签到前N分钟通知签到项目成员,在本实施例中,N=30;上述通知方式包括但不限于微信公众号、短信、***内公告消息等方式。
当用户身份为项目成员时,给予用户在客户端执行签到,查阅签到规则等操作的权限。具体地,用户在客户端执行签到时,接收项目成员执行签到时的当前签到时间,若成员当前签到时间在签到规则限定的时间内,则通知客户端执行签到任务,接收移动终端摄像头和定位功能采集该签到成员三张具有生物特征的照片和当前签到时间的地理经纬度,并保存签到成员签到人脸信息、签到位置信息,签到时间信息到数据库;信息采集完成后对接收到的信息进行审核,并将审核结果返回客户端以提示成员签到成功或失败。反之,则通知客户端不执行签到任务。
在一个实施例中,在进行登录身份验证的步骤之前,还包括用户注册步骤:
根据用户输入的登录信息判断用户是否为新用户,若该用户为新用户,进入用户注册步骤;否则,直接进入登录身份验证步骤;所述用户注册步骤具体包括:
将用户输入的登录信息作为注册信息,并检查用户注册信息的规范性。若规范性检测通过,进入下一步骤;若规范性检测不通过,则提示用户输入信息不规范,需重新输入;
获取若干张具有人脸特征信息的用户图片并检测图片是否符合用户面部生物特征的规范。若符合规范,则进入下一步骤;若不符合规范,提示用户面部信息采集不规范。
为当前注册用户分配唯一用户ID,并将该用户注册信息和面部生物特征信息保存至数据库并提示用户注册成功。在本步骤中,用户在客户端输入的注册信息可以是手机号、邮箱的形式。
在一个实施例中,所述基于地理位置和人脸特征的签到方法还包括:
在用户注册的步骤中,存储注册基本信息、采集用户的若干张照片信息;
在群管理员设置签到规则的步骤中,存储签到规则的签到起始日期、时间段、签到地址、签到地点经纬度等;
在根据接收到的用户的地理位置信息和人脸特征信息进行审核的步骤中,存储采集用户的三张照片路径、签到时间、签到位置的经纬度和用户签到结果信息;
相对于现有技术,本案通过获取用户签到时间、签到时刻所处的经度、纬度和人脸特征信息,通过对上述信息进行审核得到签到审核结果,并将签到审核结果返回客户端,大大地提高了签到效率和准确性。
实施例2
如图3所示,一种基于地理位置和人脸特征的签到***,包括:
信息采集模块1,用于获取用户签到时间、签到时刻所处的经度、纬度和人脸特征信息;
签到时间审核模块2,用于对签到时间信息进行审核,判断用户是否处于签到设定时间内,得到签到时间审核结果;当若签到时间不在签到规则范围内,则签到时间审核不通过,反之审核通过。
签到地点审核模块3,用于通过半正矢模型计算出用户签到地点与签到规则预设地点的距离,判断用户是否在签到约束范围内,得到地理信息审核结果;
人脸信息审核模块4,用于调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型,对接收到的人脸信息进行特征提取,并与数据库中的注册时的特征进行匹配,得到人脸信息审核结果;
签到审核模块5,用于根据签到时间审核结果、地理信息审核结果和人脸信息审核结果得到签到审核结果并返回客户端。只有当签到人脸信息、签到位置信息,签到时间信息三者的审核结果均为通过时,则返回签到审核结果成功;若其中一项审核不通过,则返回签到审核结果失败。
如图4所示,在本实施例中,所述人脸信息审核模块4还包括:
待训练数据采集模块401,用于将服务器端采集到的人脸图片集作为迁移学习的待训练数据集;
预训练模块402,用于使用人脸识别数据集预训练深度神经网络;在一个实施例中,所述预训练模块使用FaceNet算法预训练深度神经网络,所述FaceNet算法使用三元组损失函数,通过深度卷积神经网络学习人脸特征到欧式空间的映射函数,输出表示人脸特征的N元组。
微调模块403,用于根据上述步骤得到的待训练数据集对上述深度神经网络进行微调。如图5所示,所述微调模块403具体包括:
迁徙权重单元403a,用于迁移预训练网络的权重作为目标网络的初始化权重;
特征提取单元403b,用于在不改变前N层网络的权重的基础下,将待训练数据集通过预训练模型前N层提取特征后输出作为待训练目标网络的输入;
调整单元403c,用于自N+1层起,设置较小的学习率,重新训练后面的层,调控迭代次数,通过前向传播算法与反向传播算法不断更新优化节点的权重,从而得到表现最佳的模型,增加人脸识别的准确性。
所述人脸信息审核模块4还包括:
人脸对齐单元411,用于调用人脸检测接口,该接口使用多任务级联卷积神经网络对采集到的图片进行人脸检测、人脸对齐并返回对齐后的人脸图片;
人脸特征映射单元412,用于调用人脸特征提取接口,使用微调后的深度卷积神经网络将人脸图片中的人脸特征映射到N维欧式空间,返回表示特征映射的N元组;
匹配单元413,用于根据匹配策略将人脸特征N元组与人脸特征数据库中存储的特征进行比对,并得到比对结果。
所述根据匹配单元413具体包括:
用户特征元组获得单元,用于基于移动设备终端提供的用户唯一标识,读取特征数据库中的所有该用户唯一标识对应的特征N元组,得到用户特征字典;或者用于读取特征数据库中的所有用户唯一标识对应的特征元组,得到用户特征字典。
计算单元,用于计算上述步骤提取的待匹配的人脸特征元组X与每个用户对应的特征元组之间的欧式距离,选择欧式距离值最小的特征元组,将其对应的用户唯一标识作为该用户特征元组X匹配所得的用户唯一标识;
比较单元,用于将上述步骤计算出的最小距离值与设定阈值进行比较。若小于设定阈值,则匹配成功,返回对应用户唯一标识;反之则匹配失败,返回匹配错误。
在一个实施例中,所述基于地理位置和人脸特征的签到***还包括登录身份验证模块6,所述登录身份验证模块6包括:
验证识别单元,用于根据客户端摄像头采集到的若干张具有人脸特征信息的用户图片,通过调用人脸识别模型对对登陆人脸信息与注册人脸信息进行登陆身份验证,摒弃了传统的输入账密的方式进行登录,实现了签到的便捷性和公平性。优选地,所述验证识别模块还包括人脸信息重置单元,用于通过手机验证码或邮件验证码的方式再次调用移动终端摄像头采集若干张具有人脸特征信息的用户图片对保存的人脸信息进行重置,提高用户体验。
身份判断单元,用于根据用户项目管理员或项目成员身份给予不同的权限;当用户身份为项目管理员时,给予用户在客户端分享签到项目群二维码的方式添加用户、编辑签到规则、发布群公告、查阅签到项目群全体成员的签到记录等操作的权限;当用户身份为项目成员时,给予用户在客户端执行签到,查阅签到规则等操作的权限。
在一个实施例中,所述基于地理位置和人脸特征的签到***还包括:
新用户判断模块7,用于根据用户输入的登录信息判断用户是否为新用户。
用户注册模块8,包括:
注册信息检测单元,用于将用户输入的登录信息作为注册信息,并检查用户注册信息的规范性;
面部信息采集单元,用于调用客户端摄像头,采集若干张具有人脸特征信息的用户图片并检测采集到照片是否符合用户面部生物特征的规范;
注册单元,用于为当前注册用户分配唯一用户ID,并将该用户注册信息和面部生物特征信息保存至数据库并提示用户注册成功。
在一个实施例中,所述基于地理位置和人脸特征的签到***还包括通知模块9,用于当接收到项目管理员设置签到规则后,通知签到项目全体群成员在指定时间、地点进行签到。
在一个实施例中,所述基于地理位置和人脸特征的签到***还包括存储模块,用于在用户注册的步骤中,存储注册基本信息、采集用户的若干张照片信息等;还用于在群管理员设置签到规则的步骤中,存储签到规则的签到起始日期、时间段、签到地址、签到地点经纬度等;还用于根据接收到的用户的地理位置信息和人脸特征信息进行审核的步骤中,存储采集用户的三张照片路径、签到时间、签到位置的经纬度和用户签到结果信息。
用户在使用上述基于地理位置和人脸特征的签到***进行签到时,所述基于地理位置和人脸特征的签到***根据用户输入的登录信息判断用户是否为新用户,若该用户为新用户,采集该用户的注册信息和面部生物特征信息并进行注册;若该用户非新用户,则调用客户端摄像头和人脸识别模型对用户进行登录身份验证,当识别到该用户为项目管理员时,给予该用户添加用户、编辑签到规则、发布群公告、查阅签到项目群全体成员的签到记录等操作的权限,当项目管理员设置签到规则后,***通知该签到项目全体群成员签到地点和时间;当识别到该用户为项目成员时,给予该用户在客户端执行签到,查阅签到规则等操作的权限,当用户执行签到任务时,***调用移动终端摄像头和定位功能采集该签到成员三张具有生物特征的照片和当前签到时间、签到时刻的地理经纬度,并对接收到的信息进行审核,并将审核结果返回客户端以提示成员签到成功或失败。
相对于现有技术,本发明通过信息采集模块采集用户签到时间、签到时刻所处的经度、纬度和人脸特征信息,通过签到时间审核模块、签到地点审核模块和人脸信息审核模块对上述信息进行审核,并通过签到审核模块将签到审核结果返回客户端,大大地提高了签到效率和准确性;本发明通过一整套***化的模块相互协作,以互联网的思维让签到任务更加灵活轻便,减少了考勤人员的工作量。
本发明并不局限于上述实施方式,如果对本发明的各种改动或变形不脱离本发明的精神和范围,倘若这些改动和变形属于本发明的权利要求和等同技术范围之内,则本发明也意图包含这些改动和变形。
Claims (10)
1.一种基于地理位置和人脸特征的签到方法,其特征在于,包括以下步骤:
获取用户签到时间、签到时刻所处的经度、纬度和人脸特征信息;
判断用户是否处于签到设定时间内,得到签到时间审核结果;
调用半正矢模型计算出用户签到地点与签到规则预设地点的距离,判断用户是否在签到约束范围内,得到地理信息审核结果;其中,所述调用半正矢模型计算出用户签到地点与签到规则预设地点的距离的步骤具体包括:
按照以下方式,获取用户签到地点与签到规则预设地点的距离:
其中,d为用户签到地点与签到规则预设地点的距离,r为球面半径;和/>分别为签到地点与预设地点的纬度,λ1和λ2分别为签到地点与预设地点的经度,hav为半正矢函数;
调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型,对接收到的人脸信息进行特征提取,并与数据库中的注册时的特征进行匹配,得到人脸信息审核结果;
根据签到时间审核结果、地理信息审核结果和人脸信息审核结果得到签到审核结果并返回客户端。
2.根据权利要求1所述的基于地理位置和人脸特征的签到方法,其特征在于:在调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型的步骤之前,还包括以下步骤:
将采集到的人脸图片集作为迁移学习的待训练数据集;
使用人脸识别数据集预训练深度神经网络;
根据待训练数据集对上述深度神经网络进行微调。
3.根据权利要求2所述的基于地理位置和人脸特征的签到方法,其特征在于:调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型,对接收到的人脸信息进行特征提取,并与数据库中的注册时的特征进行匹配的步骤具体包括:
调用人脸检测接口,该接口使用多任务级联卷积神经网络对采集到的图片进行人脸检测、人脸对齐并返回对齐后的人脸图片;
调用人脸特征提取接口,使用微调后的深度卷积神经网络将人脸图片中的人脸特征映射到N维欧式空间,返回表示特征映射的N元组;
根据匹配策略将人脸特征N元组与人脸特征数据库中存储的特征进行比对,并得到比对结果。
4.根据权利要求3所述的基于地理位置和人脸特征的签到方法,其特征在于:所述根据匹配策略将人脸特征N元组与人脸特征数据库中存储的特征进行比对的步骤具体包括:
基于移动设备终端提供的用户唯一标识,读取特征数据库中的所有该用户唯一标识对应的特征N元组,得到用户特征字典;
或者,读取特征数据库中的所有用户唯一标识对应的特征元组,得到用户特征字典;
计算待匹配的人脸特征元组X与每个用户对应的特征元组之间的欧式距离,选择欧式距离值最小的特征元组,将其对应的用户唯一标识作为该用户特征元组X匹配所得的用户唯一标识;
将计算出的最小距离值与设定阈值进行比较;若小于设定阈值,则匹配成功,返回对应用户唯一标识;反之则匹配失败,返回匹配错误。
5.根据权利要求2所述的基于地理位置和人脸特征的签到方法,其特征在于:所述根据待训练数据集对上述深度神经网络进行微调的步骤包括:
迁移预训练网络的权重作为目标网络的初始化权重;
在不改变前N层网络的权重的基础下,将待训练数据集通过预训练模型前N层提取特征后输出作为待训练目标网络的输入;
自N+1层起,设置较小的学习率,重新训练后面的层,调控迭代次数,通过前向传播算法与反向传播算法不断更新优化节点的权重,从而得到表现最佳的模型。
6.一种基于地理位置和人脸特征的签到***,其特征在于:包括:
信息采集模块,用于获取用户签到时间、签到时刻所处的经度、纬度和人脸特征信息;
签到时间审核模块,用于判断用户是否处于签到设定时间内,得到签到时间审核结果;
签到地点审核模块,用于调用半正矢模型计算出用户签到地点与签到规则预设地点的距离,判断用户是否在签到约束范围内,得到地理信息审核结果;其中,所述签到地点审核模块按照以下方式,获取用户签到地点与签到规则预设地点的距离:
其中,d为用户签到地点与签到规则预设地点的距离,r为球面半径;和/>分别为签到地点与预设地点的纬度,λ1和λ2分别为签到地点与预设地点的经度,hav为半正矢函数;
人脸信息审核模块,用于调用通过对预训练的深度神经网络迁移学习得到的人脸识别模型,对接收到的人脸信息进行特征提取,并与数据库中的注册时的特征进行匹配,得到人脸信息审核结果;
签到审核模块,用于根据签到时间审核结果、地理信息审核结果和人脸信息审核结果得到签到审核结果并返回客户端。
7.根据权利要求6所述的基于地理位置和人脸特征的签到***,其特征在于:所述基于地理位置和人脸特征的签到***还包括:
待训练数据采集模块,用于将采集到的人脸图片集作为迁移学习的待训练数据集;
预训练模块,用于使用人脸识别数据集预训练深度神经网络;
微调模块,用于根据待训练数据集对上述深度神经网络进行微调。
8.根据权利要求7所述的基于地理位置和人脸特征的签到***,其特征在于:所述人脸信息审核模块包括:
人脸对齐单元,用于调用人脸检测接口,该接口使用多任务级联卷积神经网络对采集到的图片进行人脸检测、人脸对齐并返回对齐后的人脸图片;
人脸特征映射单元,用于调用人脸特征提取接口,使用微调后的深度卷积神经网络将人脸图片中的人脸特征映射到N维欧式空间,返回表示特征映射的N元组;
匹配单元,用于根据匹配策略将人脸特征N元组与人脸特征数据库中存储的特征进行比对,并得到比对结果。
9.根据权利要求8所述的基于地理位置和人脸特征的签到***,其特征在于:所述匹配单元包括:
用户特征元组获得单元,用于读取特征数据库中的所有该用户唯一标识对应的特征N元组,得到用户特征字典;或者用于读取特征数据库中的所有用户唯一标识对应的特征元组,得到用户特征字典;
计算单元,用于计算待匹配的人脸特征元组X与每个用户对应的特征元组之间的欧式距离,选择欧式距离值最小的特征元组,将其对应的用户唯一标识作为该用户特征元组X匹配所得的用户唯一标识;
比较单元,用于将计算出的最小距离值与设定阈值进行比较;若小于设定阈值,则匹配成功,返回对应用户唯一标识;反之则匹配失败,返回匹配错误。
10.根据权利要求7所述的基于地理位置和人脸特征的签到***,其特征在于:所述微调模块包括:
迁徙权重单元,用于迁移预训练网络的权重作为目标网络的初始化权重;
特征提取单元,用于在不改变前N层网络的权重的基础下,将待训练数据集通过预训练模型前N层提取特征后输出作为待训练目标网络的输入;
调整单元,用于自N+1层起,设置较小的学习率,重新训练后面的层,调控迭代次数,通过前向传播算法与反向传播算法不断更新优化节点的权重,从而得到表现最佳的模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910303968.4A CN110046870B (zh) | 2019-04-16 | 2019-04-16 | 一种基于地理位置和人脸特征的签到方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910303968.4A CN110046870B (zh) | 2019-04-16 | 2019-04-16 | 一种基于地理位置和人脸特征的签到方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110046870A CN110046870A (zh) | 2019-07-23 |
CN110046870B true CN110046870B (zh) | 2023-10-20 |
Family
ID=67277370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910303968.4A Active CN110046870B (zh) | 2019-04-16 | 2019-04-16 | 一种基于地理位置和人脸特征的签到方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110046870B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110766818A (zh) * | 2019-10-25 | 2020-02-07 | 中山大学 | 签到交互***及签到交互方法 |
CN111601069B (zh) * | 2020-05-13 | 2021-12-07 | 中国三峡建设管理有限公司 | 智能会议*** |
CN111783526B (zh) * | 2020-05-21 | 2022-08-05 | 昆明理工大学 | 一种利用姿势不变和图结构对齐的跨域行人重识别方法 |
CN113157833A (zh) * | 2021-01-07 | 2021-07-23 | 北京码牛科技有限公司 | 一种一标三实信息采集方法、装置及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228628A (zh) * | 2016-07-15 | 2016-12-14 | 腾讯科技(深圳)有限公司 | 基于人脸识别的签到***、方法和装置 |
CN106803289A (zh) * | 2016-12-22 | 2017-06-06 | 五邑大学 | 一种智能移动防伪签到方法与*** |
CN107330993A (zh) * | 2017-07-04 | 2017-11-07 | 北京易动纷享科技有限责任公司 | 一种智能签到方法、装置、***、设备以及存储介质 |
CN107545257A (zh) * | 2017-10-20 | 2018-01-05 | 深圳市唯特视科技有限公司 | 一种基于加载预训练卷积网络的自动目标识别方法 |
CN107908766A (zh) * | 2017-11-28 | 2018-04-13 | 深圳市城市规划设计研究院有限公司 | 一种城市热点事件动态监测方法及*** |
WO2018166291A1 (zh) * | 2017-03-13 | 2018-09-20 | 山东科技大学 | 一种基于多因素交叉验证的用户签到身份识别方法 |
CN109344740A (zh) * | 2018-09-12 | 2019-02-15 | 上海了物网络科技有限公司 | 人脸识别***、方法及计算机可读存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9235799B2 (en) * | 2011-11-26 | 2016-01-12 | Microsoft Technology Licensing, Llc | Discriminative pretraining of deep neural networks |
-
2019
- 2019-04-16 CN CN201910303968.4A patent/CN110046870B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228628A (zh) * | 2016-07-15 | 2016-12-14 | 腾讯科技(深圳)有限公司 | 基于人脸识别的签到***、方法和装置 |
CN106803289A (zh) * | 2016-12-22 | 2017-06-06 | 五邑大学 | 一种智能移动防伪签到方法与*** |
WO2018166291A1 (zh) * | 2017-03-13 | 2018-09-20 | 山东科技大学 | 一种基于多因素交叉验证的用户签到身份识别方法 |
CN107330993A (zh) * | 2017-07-04 | 2017-11-07 | 北京易动纷享科技有限责任公司 | 一种智能签到方法、装置、***、设备以及存储介质 |
CN107545257A (zh) * | 2017-10-20 | 2018-01-05 | 深圳市唯特视科技有限公司 | 一种基于加载预训练卷积网络的自动目标识别方法 |
CN107908766A (zh) * | 2017-11-28 | 2018-04-13 | 深圳市城市规划设计研究院有限公司 | 一种城市热点事件动态监测方法及*** |
CN109344740A (zh) * | 2018-09-12 | 2019-02-15 | 上海了物网络科技有限公司 | 人脸识别***、方法及计算机可读存储介质 |
Non-Patent Citations (2)
Title |
---|
基于位置的社会化网络的并行化推荐算法;曾雪琳;吴斌;;计算机应用(第02期);第32-39页 * |
曾雪琳 ; 吴斌 ; .基于位置的社会化网络的并行化推荐算法.计算机应用.2016,(第02期),第32-39页. * |
Also Published As
Publication number | Publication date |
---|---|
CN110046870A (zh) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110046870B (zh) | 一种基于地理位置和人脸特征的签到方法及*** | |
US20200250226A1 (en) | Similar face retrieval method, device and storage medium | |
WO2019119505A1 (zh) | 人脸识别的方法和装置、计算机装置及存储介质 | |
CN102598052B (zh) | 利用生物体信息的认证***及认证装置 | |
US10176194B2 (en) | Enhanced crowdsourced search and locate platform | |
US20130340061A1 (en) | User authentication template learning system and user authentication template learning method | |
US11681744B2 (en) | Methods and systems for updating a database based on object recognition | |
CN107507289A (zh) | 一种移动端人脸识别考勤方法及*** | |
WO2022217781A1 (zh) | 数据处理方法、装置、设备以及介质 | |
WO2018166291A1 (zh) | 一种基于多因素交叉验证的用户签到身份识别方法 | |
WO2022007559A1 (zh) | 掌纹识别方法、特征提取模型训练方法、设备及介质 | |
US11604968B2 (en) | Prediction of next place visits on online social networks | |
CN106303599A (zh) | 一种信息处理方法、***及服务器 | |
CN108491709A (zh) | 用于识别权限的方法和装置 | |
CN111695502A (zh) | 用于人脸识别的特征更新方法、装置和计算机设备 | |
Raychoudhury et al. | Crowd-pan-360: Crowdsourcing based context-aware panoramic map generation for smartphone users | |
US10997609B1 (en) | Biometric based user identity verification | |
CN115130711A (zh) | 一种数据处理方法、装置、计算机及可读存储介质 | |
CN110689046A (zh) | 图像识别方法、装置、计算机装置及存储介质 | |
Rafika et al. | Face recognition based artificial intelligence with attendx technology for student attendance | |
US10129705B1 (en) | Location prediction using wireless signals on online social networks | |
US20200413220A1 (en) | System and method for identifying associated subjects from location histories | |
US11531737B1 (en) | Biometric identity disambiguation | |
Chaudhari et al. | Real Time Face Recognition Based Attendance System using Multi Task Cascaded Convolutional Neural Network | |
Yoganathan et al. | Location Based Smart Attendance System Using GPS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |