CN113591607B - 一种车站智能疫情防控***及方法 - Google Patents

一种车站智能疫情防控***及方法 Download PDF

Info

Publication number
CN113591607B
CN113591607B CN202110783584.4A CN202110783584A CN113591607B CN 113591607 B CN113591607 B CN 113591607B CN 202110783584 A CN202110783584 A CN 202110783584A CN 113591607 B CN113591607 B CN 113591607B
Authority
CN
China
Prior art keywords
image
target
information
video
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110783584.4A
Other languages
English (en)
Other versions
CN113591607A (zh
Inventor
宋强
何艳丽
曲强
史怡
张逸伟
张婉莹
王琳
董慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology Liaoning USTL
Original Assignee
University of Science and Technology Liaoning USTL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology Liaoning USTL filed Critical University of Science and Technology Liaoning USTL
Priority to CN202110783584.4A priority Critical patent/CN113591607B/zh
Publication of CN113591607A publication Critical patent/CN113591607A/zh
Application granted granted Critical
Publication of CN113591607B publication Critical patent/CN113591607B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Educational Administration (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种车站智能疫情防控***及方法,所述的***通过摄像头进行视频采集,在服务器中采用步态识别对视频目标信息初步分析,获取相关信息;矩阵视频控制器将图像形成矩阵视频帧图像,服务器再通过人脸识别对步态识别后的矩阵视频帧图像进行面部识别,进一步获取人脸特征信息,用以确认身份;通过将人脸特征信息应用到视频压缩感知的目标跟踪算法中,用以对目标信息进行跟踪,查找出视频中出现该目标的图像的帧序列位置,从而导出含有该目标以及接触目标的图像,通过反馈查找进一步确认目标信息以及接触目标信息。在特殊疫情广泛传播的情况下,可以快速的分析确诊目标的行程轨迹以及密切接触的人员。

Description

一种车站智能疫情防控***及方法
技术领域
本发明涉及人工智能技术领域,特别涉及一种车站智能疫情防控***及方法。
背景技术
在目前的相关技术中,车站疫情防控***的方法主要以红外测温以及通过进站闸机信息确认为主,往往当目标确认时,很难分析目标在车站内的轨迹以及与其密切接触的相关目标,因此需进一步完善。为应对疫情传播快、人员流动性大而导致不可控的问题,本发明采用步态识别对视频目标信息初步分析,获取相关信息。再通过人脸识别对步态识别后的矩阵视频帧图像进行面部识别,进一步获取人脸特征信息,用以确认身份。通过将人脸特征信息应用到视频压缩感知的目标跟踪算法中,用以对目标信息进行跟踪,查找出视频中出现该目标的图像的帧序列位置,从而导出含有该目标以及接触目标的图像,通过反馈查找进一步确认目标信息以及接触目标信息,取代了人力筛选查找,起到车站智能疫情防控的作用。
发明内容
为了解决背景技术中所述问题,本发明提供一种车站智能疫情防控***及方法,在特殊疫情广泛传播的情况下,可以快速的分析确诊目标的行程轨迹以及密切接触的人员。
为了达到上述目的,本发明采用以下技术方案实现:
一种车站智能疫情防控***,包括摄像头、矩阵视频控制器和服务器;所述的***通过摄像头进行视频采集,在服务器中采用步态识别对视频目标信息初步分析,获取相关信息;矩阵视频控制器将图像形成矩阵视频帧图像,服务器再通过人脸识别对步态识别后的矩阵视频帧图像进行面部识别,进一步获取人脸特征信息,用以确认身份;通过将人脸特征信息应用到视频压缩感知的目标跟踪算法中,用以对目标信息进行跟踪,查找出视频中出现该目标的图像的帧序列位置,从而导出含有该目标以及接触目标的图像,通过反馈查找进一步确认目标信息以及接触目标信息。
一种车站智能疫情防控***的方法,包括如下步骤:
步骤一:步态识别优化算法,采取基于视频序列的步态信息作为识别的对象,对动态的视频图像序列进行帧切割得到静态的图片信息,然后使用背景减除法进行运动目标检测,得到一个只含有任务信息的图片,因为得到的二值化人物信息中还包含一些由于各种原因产生了噪声,需要经过一定的形态学处理算法除掉噪声;在特征提取这一过程中,我们提取了步态能量信息得到了步态能量图(GEI),以及人行走时的两腿间的不同时刻的张开角度,将两种信息在神经网络的输入层进行加权特征融合后作为网络的输入变量,同时为了降低神经网络的鲁棒性以及提升网络的识别精度,加入了GA遗传算法对网络的权值以及阈值进行优化,已达到一种更优的步态识别分类效果;
步骤二:人脸识别算法,采用双对称LeNet并行连接网络结构,同步模型采取两路并行网络,分别进行图像处理,可以独立获取高层特征向量,在输出层进行合并;采用DCT-LBP联合处理的方法对输入图像的全局特征和局部特征分别进行提取,更好的进行特征表述,有利于提高人脸检测识别***的性能;当图像信息经过一系列处理后到达输出层,采用Softmax回归分类对人脸图像信息与数据库中信息进行比对分类,得出正确完整的人物信息;在回归分类中加一个余弦矫正可以减少冗余,增强泛化能力减少过拟合,使得人脸识别准确率增加;
步骤三:视频压缩感知目标跟踪算法,首先利用图像尖锐化处理突出目标图像边缘纹理,再利用矩形滤波器对人脸图像归一化处理并获取特征向量;然后利用动态压缩感知对目标样本和背景样本的Haar-like特征进行压缩处理,并利用压缩后的Haar-like特征向量建立目标模型,并训练Adaboost算法贝叶斯级联分类器;最后利用朴素贝叶斯分类器识别目标图像和背景图像,实现人脸识别的动态跟踪;
步骤四:将步态识别算法、人脸识别算法以及视频压缩感知的目标跟踪算法融合,具体过程如下:1)通过步态识别对车站监控视频目标人物进行初次筛选,并记录保存;2)根据初次筛选后的人物图像,进行人脸识别过程,进一步确认目标信息;3)根据输出的人脸特征信息,进行目标定位过程,采用视频压缩感知的目标跟踪算法,导出含有目标信息的行程轨迹,并记录含有目标的帧序列图像,最后反馈到中央处理器中,方便查找目标人物以及与其密切接触者的信息;实现车站智能化疫情防控的目的。
进一步地,所述的步骤一中,步态识别优化算法包括如下:
1)特征提取:
Figure BDA0003157912390000021
式中:N为所提取二值化步态序列一个周期所包含的帧数;(x,y)分别表示图像中的坐标值;B(x,y)为图像在第t帧中(x,y)点的像素值;G(x,y)为计算所得到的的能量图;
Figure BDA0003157912390000031
Figure BDA0003157912390000032
式中:(Xc,Yc)为计算后获取的质心坐标;N为轮廓像素的像素点个数;(x,y)为坐标值;θi为第i个像素点夹角θ的计算结果;
2)GA-BP分类识别:
神经网络在图像的识别分类上得到了广泛的应用,但一般算法易陷入局部最优的缺点,可以利用遗传算法来训练网络,解决神经网络的学习问题,将阈值搜索范围缩小;再利用神经网络进行精确求解,可以很好地达到全局寻优和快速高效的目的;神经网络识别率可以作为目的参数,并通过遗传算法来优化;利用个体代表网络的权值和阈值,个体初始化的BP神经网络的预测误差作为该个体的适应值,通过选择、交叉、变异操作来寻找最优个体;
进一步地,所述的步骤二的人脸识别算法包括如下:
1)DCT-LBP联合处理化
S=a·DCT+b·LBP (4)
式中:a为DCT的加权系数,b为LBP的加权系数,且a+b=1;S为加权后的图像;
2)卷积运算
Figure BDA0003157912390000033
式中:x表示二维输入向量,其维度为(m,n);y表示m×n的大小特征图大小;f表示激活函数;w表示卷积核,大小为J×I;b表示偏置;
3)池化采样
Figure BDA0003157912390000034
式中:
Figure BDA0003157912390000035
用来表示第l个池化层的第j个特征图;f表示激活函数;/>
Figure BDA0003157912390000036
分别表示特征图/>
Figure BDA0003157912390000037
的乘性偏置和加性偏置;
4)全连接
Figure BDA0003157912390000038
式中:f表示激活函数;n为l-1层的神经元个数;l表示当前层数;
Figure BDA0003157912390000041
表示第l-1层第j个单元与第l层第i个单元之间的连接参数;/>
Figure BDA0003157912390000042
是第l层第i个单元的偏置项,
Figure BDA0003157912390000043
表示第l层第i个单元的输出值;
5)Softmax回归分类
在网络训练中,为了使测试时的余弦相似性评判标准相同,将样本相似性的欧式距离转化为余弦距离,权重与特征归一处理的值S,使其自动学习,在超球面上差异类特征分离取得较好效果;此时的损失函数联合表达式为:
Figure BDA0003157912390000044
式中:λ为归一化后的联合表达式的平衡系数。
进一步地,所述的步骤三的视频压缩感知目标跟踪算法包括如下:
动态压缩感知所处理的动态信号具有时变性,设Xt为经过稀疏矩阵投影的稀疏信号,则动态压缩感知模型的状态空间方程的表现形式为:
Xt=ft(Xt-1)+vt (9)
Yt=AtXtt (10)
式中:Yt表示为观测方程;ft表示为状态空间方程中的状态转移函数;vt,ωt分别表示为过程噪声和观测噪声,通常默认成均值为0的高斯白噪声;
根据动态视频压缩感知理论的思想,通过少量的采样观测信号来表示原始信号所包含的信息,进而对信号降维;利用随机测量矩阵P对高维原始信号的特征空间向量X向低维空间进行压缩投影,获取低维压缩特征空间向量;
Haar-like特征计算即通过扫描大量的样本窗口,计算所有样本窗口的子图像特征值,其特征值为所检测图像中的矩形灰度像素差,但该过程会产生大量的运算;与此同时,为了保持图像尺度不变性,会进一步增加计算量,使得人脸检测速度及分类器训练的效率降低;其Haar-like特征值数学表达式为:
feature=∑i∈(1,2,…N)ωiRectSum(γi) (11)
式中:ωi表示权值矩阵;N表示矩形特征值的个数;RectSum(γi)表示样本图像的所有的矩形特征值之和;
为了在压缩投影中提高特征向量值的运算速率,采用积分图算法可以快速计算出矩形区域之和及其平方和,降低了运算量,提高了运算速率;其积分图运算公式为:
J(m,n)=∑m′<m,n′<nH(m′,n′) (12)
式中:J(m,n)表示图像在像素为(m,n)处的积分值;H(m′,n′)表示图像在像素为(m′,n′)处的灰度值;
朴素贝叶斯分类器模型的数学表达式为:
Figure BDA0003157912390000051
式中:Ci表示为数据属性类别;XA表示为测试样本;
Adaboost算法中,弱分类器表达式为:
Figure BDA0003157912390000052
式中:h(x,f,p,θ)表示为弱分类器;x表示为子窗口图像;f(x)表示为子窗口的特征函数;θ表示为f(x)函数的阙值;其分类过程,就是得出该函数阙值的过程。
与现有技术相比,本发明的有益效果是:
本发明采用步态识别对视频目标信息初步分析,获取相关信息。再通过人脸识别对步态识别后的矩阵视频帧图像进行面部识别,进一步获取人脸特征信息,用以确认身份。通过将人脸特征信息应用到视频压缩感知的目标跟踪算法中,用以对目标信息进行跟踪,查找出视频中出现该目标的图像的帧序列位置,从而导出含有该目标以及接触目标的图像,通过反馈查找进一步确认目标信息以及接触目标信息,取代了人力筛选查找,起到车站智能疫情防控的作用。
附图说明
图1是本发明的一种车站智能疫情防控***的主体设计构架图;
图2是本发明的车站智能疫情防控***的方法流程图;
图3是本发明的视频压缩感知的目标跟踪算法结构图-t时刻分类器的更新;
图4是本发明的视频压缩感知的目标跟踪算法结构图-t+1时刻目标追踪。
具体实施方式
以下结合附图对本发明提供的具体实施方式进行详细说明。
如图1所示,一种车站智能疫情防控***,包括摄像头、矩阵视频控制器和服务器;所述的***通过摄像头进行视频采集,在服务器中采用步态识别对视频目标信息初步分析,获取相关信息;矩阵视频控制器将人脸识别对步态识别后的图像形成矩阵视频帧图像,服务器再通过人脸识别对步态识别后的矩阵视频帧图像进行面部识别,进一步获取人脸特征信息,用以确认身份;通过将人脸特征信息应用到视频压缩感知的目标跟踪算法中,用以对目标信息进行跟踪,查找出视频中出现该目标的图像的帧序列位置,从而导出含有该目标以及接触目标的图像,通过反馈查找进一步确认目标信息以及接触目标信息。
还包括视频控制器,视频控制器是一种对视频的进行初步处理的控制器,可以将不清晰的视频滤除,占据存储空间大的视频进行不失真压缩,最终得到可用于后续分析的视频序列。
如图2所示,一种车站智能疫情防控***的方法,包含以下步骤:
步骤一:步态识别优化算法。本算法通过对步态数据的分析研究,完成基于步态数据的身份识别。特征提取的准确与否直接关系到识别的精度,因此提取了双重特征,分别为步态能量图(GEI)以及人行走时***的角度信息,将两种特征在神经网络的输入层进行加权特征融合,首先计算出每一种特征单独输入时的识别精度,来确定每种特征所分配的权重值。在分类阶段采取的方法为在BP神经网络的基础上加入GA遗传算法进行优化,优化的主要对象为神经网络的权值和阈值,经过优化之后的神经网络的鲁棒性可以得到明显的增强,最后能够将步态识别的识别能力进行显著提升。
(1)步态数据采集以及形态学处理
步态数据采集采用的方法有三种,分别为基于视频的采集、基于地面传感器的采集和基于人体传感器的采集。本算法采取基于视频序列的方式,因为这一方法的实现难度低,便于实际应用产品的设计。
采集的步态信息主要为图像的视频的形式,首先要进行的步骤就是帧切割,然后对得到的图片进行图像定位和背景去除,就可以得到一个二值化图像信息。这一图像中含有一定的噪声,需要进行形态学处理,将噪声去除,主要采取的是腐蚀和膨胀运算。膨胀可以消去图像中的结构断裂,填补空洞,使区域从四周向外扩大,是求局部最大值的操作,使图像中的高亮区增多;腐蚀的目的是去除不相干元素,使区域从四周向内缩小,因此可以去除噪声,为求局部最小值的运算,使图像中的高亮区减小。腐蚀处理的公式如(1)所示,膨胀处理的公式如(2)所示:
Figure BDA0003157912390000061
式中:表明用B腐蚀的过程就是对B进行平移运算x,结果是所有x的集合,即B平移x后仍在A中。换言之,用B腐蚀A得到的集合是B完全包括在A中时B的原点位置的集合,即平移后的B与A的背景不叠加。
Figure BDA0003157912390000062
式中:B^表示集合B的反射,(B)x表示对B的反射进出位移x。因此,式表明用B膨胀A的过程就是先对B做关于原点的映射,再将其平移x,这里A与B的交集不能为空集。换言之,用B来膨胀A得到的集合是B^的位移与A至少有一个非零元素相交时B的原点位置的集合。
(2)特征提取
步态特征是步态识别的关键步骤,提取到的信息准确全面与否直接决定了分类识别能否成功。目前主要采用无模型方法提取特征,主要分为三类:基于外观的表征,这其中主要使用归一化累积能量法,形成步态能量图(GEI);基于交换的表征,主要涉及主成分分析(PCA)和傅里叶变换;基于分布的表征,人类行走的特征是整个步态周期产生的统计分布,主要为光流分布、概率分布和基于纹理的分布。因为步态识别是连续周期性过程,因此本发明采用基于外观的步态能量图和角度信息两者进行加权融合的方法去更好的保留步态的时间信息。
Figure BDA0003157912390000071
式中:N为所提取二值化步态序列一个周期所包含的帧数;(x,y)分别表示图像中的坐标值;B(x,y)为图像在第t帧中(x,y)点的像素值,G(x,y)为计算所得到的的能量图。
Figure BDA0003157912390000072
Figure BDA0003157912390000073
式中:(Xc,Yc)为计算后获取的质心坐标;N为轮廓像素的像素点个数;(x,y)为坐标值;θi为第i个像素点夹角θ的计算结果。
(3)GA-BP分类识别
GA-BP分类识别是对识别分类算法进行改进创新,提高识别精度、增强适应性。本发明拟采用遗传算法(GA)优化神经网络(BP),形成GA-BP算法,来作为最后的识别分类算法。遗传算法优化BP神经网络分为网络结构确定、遗传算法优化和网络预测3个部分。其中,BP神经网络结构确定部分根据拟合函数的输入输出参数个数确定,进而计算遗传算法个体的长度。遗传优化算法是通过遗传算法来优化BP神经网络中的权值和阈值,种群中的所有个体都包含了一个网络中的全部权值和阈值。个体通过适应度函数计算其适应度值,遗传算法通过选择、交叉和变异操作找到最优适应度值,从而确定最优个体。BP神经网络预测通过用遗传算法得到的最优个体来对网络初始权值和阈值进行赋值,网络经训练后输出预测函数。
步骤二:人脸识别优化算法。本算法以经典卷积神经网络模型LeNet为基础,采用双对称LeNet并行连接网络结构,同步模型采取两路并行网络,分别进行图像处理,可以独立获取高层特征向量,在输出层进行合并。采用DCT-LBP联合处理的方法对输入图像的全局特征和局部特征分别进行提取,更好的进行特征表述,有利于提高人脸检测识别***的性能。当图像信息经过一系列处理后到达输出层,采用Softmax回归分类对人脸图像信息与数据库中信息进行比对分类,得出正确完整的人物信息。在回归分类中加一个余弦矫正可以减少冗余,增强泛化能力减少过拟合,使得人脸识别准确率增加。
(1)DCT-LBP联合处理化
所谓DCT-LBP联合处理的方法指对人脸图像进行全局特征和局部特征的信息提取,独立获取高层特征向量,更好的进行特征表述,有利于提高人脸检测识别***的性能。弥补了DCT过程中的高频信息丢失问题以及LBP特征提取的局限性。因此DCT-LBP联合处理在特征提取过程中取得很好的效果。
DCT-LBP化联合处理,具体是利用像素级LBP编码的二值化处理,获取其局部二值模式中的跳变次数的统计直方图,用以提取人脸信息局部特征。计算公式如公式(6)所示:
Figure BDA0003157912390000081
其中/>
Figure BDA0003157912390000082
式中:ac为中心像素灰度值;ai为周围邻域点像素灰度值;S为阈值函数;fLBP(mc,nc)为中心像素的LBP值。
DCT离散变换获得低频系数作为人脸信息的全局特征。其计算公式如公式(7)所示:
Figure BDA0003157912390000083
将LBP与DCT进行加权融合联合处理,其提取计算公式如公式(8)所示:
S=a·DCT+b·LBP (8)
式中:a为DCT的加权系数,b为LBP的加权系数,且a+b=1;S为加权后的图像。
(2)卷积运算
图像经过卷积层进行特征提取,并送到池化采样。每一个卷积核都可以提取独有的特征值,最后进行叠加,再利用高层次的卷积核来提取边缘特征以及整体特征,从而提取出特征向量。卷积运算是数字图像处理最常见的操作,卷积层具体式:
Figure BDA0003157912390000091
式中:x表示二维输入向量,其维度为(m,n);y表示m×n的大小特征图大小;f表示激活函数;w表示卷积核,大小为J×I;b表示偏置。
(3)池化采样
池化采样是一种非线性的下采样的方法,可以将卷积运算的特征图缩小尺寸。池化函数为:
Figure BDA0003157912390000092
式中:
Figure BDA0003157912390000093
用来表示第l个池化层的第j个特征图;f表示激活函数;/>
Figure BDA0003157912390000094
分别表示特征图/>
Figure BDA0003157912390000095
的乘性偏置和加性偏置。
(4)全连接
全连接层联系彼此间的神经元,处于池化层之后,输出层之前,可以降图像维度,由二维图像变一维向量,便于输出层分类。计算式为:
Figure BDA0003157912390000096
式中:f表示激活函数;n为l-1层的神经元个数;l表示当前层数;Wij (1-1)表示第l-1层第i个单元与第l层第i个单元之间的连接参数;bi (l-1)是第l层第i个单元的偏置项,xl i表示第l层第i个单元的输出值。
(5)Softmax回归分类
Sofimax回归是一个线性的多分类模型,是Logistic回归模型的延伸。在多分类问题上,可以把真实权重向量转化为一种概率分布,损失函数表达式:
Figure BDA0003157912390000097
式中:M为样本个数;N为种类个数;xi为第i个样本的特征向量;yi为种类标识;W和b分别作为全连接层的权值矩阵和偏移量;Wj为权值矩阵的第j列;bj为对应的偏置项。
为了消除损失函数产生类内改变,使其特征联系密切更易判别,提出类内余弦相似性损失函数
Figure BDA0003157912390000098
式中:
Figure BDA0003157912390000099
为第i个样本的特征向量与其对应类别权重向量之间的夹角。
为了使训练后的特征更易判别,在Softmax损失和类内相似性损失共同监督下学习,得到的损失函数表达式为
Figure BDA0003157912390000101
式中:λ为一个标量,用来平衡两个损失函数
在网络训练中,为了使测试时的余弦相似性评判标准相同,将样本相似性的欧式距离转化为余弦距离,权重与特征归一处理的值S,使其自动学习,在超球面上差异类特征分离取得较好效果。此时的损失函数联合表达式为
Figure BDA0003157912390000102
式中:λ为归一化后的联合表达式的平衡系数。
步骤三:视频压缩感知目标跟踪算法。该算法首先利用图像尖锐化处理突出目标图像边缘纹理,再利用矩形滤波器对人脸图像归一化处理并获取特征向量。然后利用动态压缩感知对目标样本和背景样本的Haar-like特征进行压缩处理,并利用压缩后的Haar-like特征向量建立目标模型,并训练Adaboost算法贝叶斯级联分类器。最后利用朴素贝叶斯分类器识别目标图像和背景图像,实现人脸识别的动态跟踪。
动态压缩感知所处理的动态信号具有时变性,设Xt为经过稀疏矩阵投影的稀疏信号,则动态压缩感知模型的状态空间方程的表现形式为:
Xt=ft(Xt-1)+vt (16)
Yt=AtXtt (17)
式中:Yt表示为观测方程;ft表示为状态空间方程中的状态转移函数;vt,ωt分别表示为过程噪声和观测噪声,通常默认成均值为0的高斯白噪声。
根据动态视频压缩感知理论的思想,通过少量的采样观测信号来表示原始信号所包含的信息,进而对信号降维。利用随机测量矩阵P对高维原始信号的特征空间向量X向低维空间进行压缩投影,获取低维压缩特征空间向量。
Haar-like特征计算即通过扫描大量的样本窗口,计算所有样本窗口的子图像特征值,其特征值为所检测图像中的矩形灰度像素差,但该过程会产生大量的运算。与此同时,为了保持图像尺度不变性,会进一步增加计算量,使得人脸检测速度及分类器训练的效率降低。其Haar-like特征值数学表达式为:
feature=∑i∈(1,2,...NiRectSum(γi) (18)
式中:ωi表示权值矩阵;N表示矩形特征值的个数;RectSum(γi)表示样本图像的所有的矩形特征值之和。
为了在压缩投影中提高特征向量值的运算速率,采用积分图算法可以快速计算出矩形区域之和及其平方和,降低了运算量,提高了运算速率。其积分图运算公式为:
J(m,n)=∑m′<m,n′<nH(m′,n′) (19)
式中:J(m,n)表示图像在像素为(m,n)处的积分值;H(m′,n′)表示图像在像素为(m′,n′)处的灰度值。
计算初次原始图像积分,并在后续的跟踪过程中,通过行的累积求和的形式完成积分运算,其运算公式为:
S(m,n)=S(m,n-1)+I(m,n)
J(m,n)=J(m-1,n)+S(m,n) (20)
式中:初始图像积分中S(0,-1)=0,J(-1,0)=0;先计算S(m,n),再计算J(m,n)。
其核心思想为对每一张图像建立专属积分图查找表,在积分过程中的计算阶段通过预先建立的积分图查找表,来直接查找并完成卷积线性时间运算,使得卷积运算的时间与矩形区域窗口大小没有关联。
级联分类器的构建采用贝叶斯分类这种归纳推理的理论,具有坚实的数学基础和稳定的分类效率。由于该分类器模型的估计参数少,所以针对缺失数据具良好的鲁棒性。本发明采用目标样本与背景样本的特征作为分类器模型构建训练的数据向量,属性相关性小,使得朴素贝叶斯模型的算法简单,降低了分类误差率,提升了总体性能。
朴素贝叶斯分类器模型的数学表达式为:
Figure BDA0003157912390000111
式中:Ci表示为数据属性类别;XA表示为测试样本。
高维随机向量的投影服从高斯分布,设样本XA中的低维特征向量为μ,且各个元素都独立分布。假定正负样本的先验概率相等,通过朴素贝叶斯对特征向量分类。设a为样本标签,正样本用a=1表示,负样本用a=0表示获取贝叶斯分类器响应为:
Figure BDA0003157912390000112
式中:H(u)表示低维特征向量为μ时的贝叶斯分类器响应;a表示为样本标签且a∈{0,1};P(a=1)=P(a=0)分别表示正负样本先验概率;μj表示为样本图像XA中的第j个特征。
在朴素贝叶斯分类器模型的基础上,引入Boosting技术中的Adaboost算法,组合若干个朴素贝叶斯分类器模型。Adaboost算法自适应能力强,其核心思想是:把强分类器分解成若干个弱分类器的线性组合,并通过不同的训练集样本对每个贝叶斯弱分类器学习训练,提高了Adaboost算法贝叶斯级联分类器的识别精度。
Adaboost算法中,弱分类器表达式为:
Figure BDA0003157912390000121
式中:h(x,f,p,θ)表示为弱分类器;x表示为子窗口图像;f(x)表示为子窗口的特征函数;θ表示为f(x)函数的阙值;其分类过程,就是得出该函数阙值的过程。
弱分类器构建强分类器的步骤如下:
图像样本为XA,则n个训练集样本表示为{(X1,a1),(X2,a2),...,(Xn,an)},则Xi为样本图像,ai表示为正、负样本,且ai∈{0,1}。初始化操作,令t=1,对每个样本权重ωi初始化,然后将权重归一化处理,其数学表达式为:
Figure BDA0003157912390000122
通过训练对弱分类器训练,计算弱分类器上对应特征的加权错误率,数学表达式为:
Figure BDA0003157912390000123
经过对比,εt为错误率最小的弱分类器,即为最佳弱分类器。并通过弱分类器εt更新样本的分布,其数学表达式为:
Figure BDA0003157912390000124
若测试样本xi分类正确,则有εi=0;若分类错误,则有εi=1,
Figure BDA0003157912390000125
结合上述运算,得到级联强分类器,数学表达式如下:
Figure BDA0003157912390000126
其中
Figure BDA0003157912390000127
分类器响应H(u)中的条件概率为
Figure BDA0003157912390000128
Figure BDA0003157912390000129
Figure BDA00031579123900001210
通过在i+1帧图像中的目标周围采样若干个正样本和背景负样本,并对正负样本进行特征提取,根据运算获取所有正负样本的均值u1和方差σ1。利用分类更新对目标模型更新,实现目标动态跟踪。其分类更新数学表达式为:
Figure BDA0003157912390000131
其中
Figure BDA0003157912390000132
/>
式中:λ表示为学习因子,且λ>0;uj(i)表示为第i帧样本图像的第j个特征。
通过仿真实验分析可知,通过对人脸的Haar-like特征进行压缩处理,并利用压缩后的Haar-like特征向量建立目标模型,并训练Adaboost算法贝叶斯级联分类器。最后应用到视频压缩感知目标跟踪算法中,可以使得目标人脸图像在视频中存在的边缘、移动、光照不均匀等环境因素等干扰情况下,仍具有一定的识别效果。从而完成从步态识别、人脸识别再到目标跟踪的目的,并分析该目标路径轨迹,通过反馈到中央处理器,导出监控视频中含有目标及密切接触者的帧序列图片,进一步分析该目标信息以及密切接触者信息。这说明一种车站智能疫情防控***的研究方法可以节省人力资源浪费,并可以取得很好的车站防疫效果。
如图3-4所示,为本发明的视频压缩感知的目标跟踪算法结构图,图3是t时刻分类器的更新过程;图4是t+1时刻目标追踪过程。
步骤四:将步态识别算法、人脸识别算法以及视频压缩感知的目标跟踪算法融合,具体过程为:通过步态识别对车站监控视频目标人物进行初次筛选,并记录保存;根据初次筛选后的人物图像,进行人脸识别过程,进一步确认目标信息;根据输出的人脸特征信息,进行目标定位过程,采用视频压缩感知的目标跟踪算法,导出含有目标信息的行程轨迹,并记录含有目标的帧序列图像,最后反馈到中央处理器中,方便查找目标人物以及与其密切接触者的信息。实现车站智能化疫情防控的目的。
本发明一种车站智能疫情防控***及方法的优势在于通过步态识别、人脸识别双重确定目标信息,并利用确认的目标特征信息,通过基于视频压缩感知的目标跟踪算法,对目标的轨迹分析,通过反馈得到目标轨迹信息以及与其密切接触人员的信息,从而达到车站疫情防控的目的,实现智能化科学疫情防控。
本发明综合考虑步态识别优化算法、人脸识别优化算法及压缩感知目标轨迹跟踪算法,采用步态识别对视频目标信息初步分析,获取相关信息。再通过人脸识别对步态识别后的矩阵视频帧图像进行面部识别,进一步获取人脸特征信息,用以确认身份。通过将人脸特征信息应用到视频压缩感知的目标跟踪算法中,用以对目标信息进行跟踪,查找出视频中出现该目标的图像的帧序列位置,从而导出含有该目标以及接触目标的图像,通过反馈查找进一步确认目标信息以及接触目标信息,取代了人力筛选查找,起到车站智能疫情防控的作用。
本发明所述的是一种车站智能疫情防控***的方法,为车站智能化疫情防控提供了一种新的、更高效的研究方法。并且通过对算法的深入研究说明了该研究方法的优越性和有效性,很大程度上弥补了车站智能疫情防控理论研究的空白,使本发明的研究方法大大提高了查找目标轨迹效率以及更全面的管控密切接触人员的信息。在智能化疫情防控以及目标定位识别等人工智能领域具有重大意义。
以上实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于上述的实施例。上述实施例中所用方法如无特别说明均为常规方法。

Claims (4)

1.一种车站智能疫情防控方法,基于车站智能疫情防控***实现,所述的***包括摄像头、矩阵视频控制器和服务器;所述的***通过摄像头进行视频采集,在服务器中采用步态识别对视频目标信息初步分析,获取相关信息;矩阵视频控制器将图像形成矩阵视频帧图像,服务器再通过人脸识别对步态识别后的矩阵视频帧图像进行面部识别,进一步获取人脸特征信息,用以确认身份;通过将人脸特征信息应用到视频压缩感知的目标跟踪算法中,用以对目标信息进行跟踪,查找出视频中出现该目标的图像的帧序列位置,从而导出含有该目标以及接触目标的图像,通过反馈查找进一步确认目标信息以及接触目标信息;所述的方法,包括如下步骤:
步骤一:步态识别优化算法,采取基于视频序列的步态信息作为识别的对象,对动态的视频图像序列进行帧切割得到静态的图片信息,然后使用背景减除法进行运动目标检测,得到一个只含有任务信息的图片,因为得到的二值化人物信息中还包含一些由于各种原因产生了噪声,需要经过一定的形态学处理算法除掉噪声;在特征提取这一过程中,提取了步态能量信息得到了步态能量图,以及人行走时的两腿间的不同时刻的张开角度,将两种信息在神经网络的输入层进行加权特征融合后作为网络的输入变量,同时为了降低神经网络的鲁棒性以及提升网络的识别精度,加入了GA遗传算法对网络的权值以及阈值进行优化,已达到一种更优的步态识别分类效果;
步骤二:人脸识别算法,采用双对称LeNet并行连接网络结构,同步模型采取两路并行网络,分别进行图像处理,可以独立获取高层特征向量,在输出层进行合并;采用DCT-LBP联合处理的方法对输入图像的全局特征和局部特征分别进行提取,更好的进行特征表述,有利于提高人脸检测识别***的性能;当图像信息经过一系列处理后到达输出层,采用Softmax回归分类对人脸图像信息与数据库中信息进行比对分类,得出正确完整的人物信息;在回归分类中加一个余弦矫正可以减少冗余,增强泛化能力减少过拟合,使得人脸识别准确率增加;
步骤三:视频压缩感知目标跟踪算法,首先利用图像尖锐化处理突出目标图像边缘纹理,再利用矩形滤波器对人脸图像归一化处理并获取特征向量;然后利用动态压缩感知对目标样本和背景样本的Haar-like特征进行压缩处理,并利用压缩后的Haar-like特征向量建立目标模型,并训练Adaboost算法贝叶斯级联分类器;最后利用朴素贝叶斯分类器识别目标图像和背景图像,实现人脸识别的动态跟踪;
步骤四:将步态识别算法、人脸识别算法以及视频压缩感知的目标跟踪算法融合,具体过程如下:1)通过步态识别对车站监控视频目标人物进行初次筛选,并记录保存;2)根据初次筛选后的人物图像,进行人脸识别过程,进一步确认目标信息;3)根据输出的人脸特征信息,进行目标定位过程,采用视频压缩感知的目标跟踪算法,导出含有目标信息的行程轨迹,并记录含有目标的帧序列图像,最后反馈到中央处理器中,方便查找目标人物以及与其密切接触者的信息;实现车站智能化疫情防控的目的。
2.根据权利要求1所述的一种车站智能疫情防控方法,其特征在于,所述的步骤一中,步态识别优化算法包括如下:
1)特征提取:
Figure FDA0004248255300000021
式中:N为所提取二值化步态序列一个周期所包含的帧数;(x,y)分别表示图像中的坐标值;B(x,y)为图像在第t帧中(x,y)点的像素值;G(x,y)为计算所得到的能量图;
Figure FDA0004248255300000022
Figure FDA0004248255300000023
式中:(Xc,Yc)为计算后获取的质心坐标;N为轮廓像素的像素点个数;(x,y)为坐标值;θi为第i个像素点夹角θ的计算结果;
2)GA-BP分类识别:
利用遗传算法来训练网络,解决神经网络的学习问题,将阈值搜索范围缩小;再利用神经网络进行精确求解,达到全局寻优和快速高效的目的;神经网络识别率作为目的参数,并通过遗传算法来优化;利用个体代表网络的权值和阈值,个体初始化的BP神经网络的预测误差作为该个体的适应值,通过选择、交叉、变异操作来寻找最优个体。
3.根据权利要求1所述的一种车站智能疫情防控方法,其特征在于,所述的步骤二的人脸识别算法包括如下:
1)DCT-LBP联合处理化
S=a·DCT+b·LBP (4)
式中:a为DCT的加权系数,b为LBP的加权系数,且a+b=1;S为加权后的图像;
2)卷积运算
Figure FDA0004248255300000031
式中:x表示二维输入向量,其维度为(m,n);y表示m×n的大小特征图大小;f表示激活函数;w表示卷积核,大小为J×I;b表示偏置;
3)池化采样
Figure FDA0004248255300000032
式中:
Figure FDA0004248255300000033
用来表示第l个池化层的第j个特征图;f表示激活函数;/>
Figure FDA0004248255300000034
分别表示特征图/>
Figure FDA0004248255300000035
的乘性偏置和加性偏置;
4)全连接
Figure FDA0004248255300000036
式中:f表示激活函数;n为l-1层的神经元个数;l表示当前层数;
Figure FDA0004248255300000037
表示第l-1层第j个单元与第l层第i个单元之间的连接参数;/>
Figure FDA0004248255300000038
是第l层第i个单元的偏置项,/>
Figure FDA0004248255300000039
表示第l层第i个单元的输出值;
5)Softmax回归分类
在网络训练中,为了使测试时的余弦相似性评判标准相同,将样本相似性的欧式距离转化为余弦距离,权重与特征归一处理的值S,使其自动学习,在超球面上差异类特征分离取得较好效果;此时的损失函数联合表达式为:
Figure FDA00042482553000000310
式中:λ为归一化后的联合表达式的平衡系数。
4.根据权利要求1所述的一种车站智能疫情防控方法,其特征在于,所述的步骤三的视频压缩感知目标跟踪算法包括如下:
动态压缩感知所处理的动态信号具有时变性,设Xt为经过稀疏矩阵投影的稀疏信号,则动态压缩感知模型的状态空间方程的表现形式为:
Xt=ft(Xt-1)+vt (9)
Yt=AtXtt (10)
式中:Yt表示为观测方程;ft表示为状态空间方程中的状态转移函数;vt,ωt分别表示为过程噪声和观测噪声;
根据动态视频压缩感知理论的思想,通过少量的采样观测信号来表示原始信号所包含的信息,进而对信号降维;利用随机测量矩阵P对高维原始信号的特征空间向量X向低维空间进行压缩投影,获取低维压缩特征空间向量;
Haar-like特征计算即通过扫描大量的样本窗口,计算所有样本窗口的子图像特征值,其特征值为所检测图像中的矩形灰度像素差,但该过程会产生大量的运算;与此同时,为了保持图像尺度不变性,会进一步增加计算量,使得人脸检测速度及分类器训练的效率降低;其Haar-like特征值数学表达式为:
feature=∑i∈(1,2,...N)ωiRectSurn(γi) (11)
式中:ωi表示权值矩阵;N表示矩形特征值的个数;RectSum(γi)表示样本图像的所有的矩形特征值之和;
为了在压缩投影中提高特征向量值的运算速率,采用积分图算法可以快速计算出矩形区域之和及其平方和,降低了运算量,提高了运算速率;其积分图运算公式为:
J(m,n)=∑m′<m,n′<nH(m′,n′) (12)
式中:J(m,n)表示图像在像素为(m,n)处的积分值;H(m′,n′)表示图像在像素为(m′,n′)处的灰度值;
朴素贝叶斯分类器模型的数学表达式为:
Figure FDA0004248255300000041
式中:Ci表示为数据属性类别;XA表示为测试样本;
Adaboost算法中,弱分类器表达式为:
Figure FDA0004248255300000042
式中:h(x,f,p,θ)表示为弱分类器;x表示为子窗口图像;f(x)表示为子窗口的特征函数;θ表示为f(x)函数的阙值;其分类过程,就是得出该函数阙值的过程。
CN202110783584.4A 2021-07-12 2021-07-12 一种车站智能疫情防控***及方法 Active CN113591607B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110783584.4A CN113591607B (zh) 2021-07-12 2021-07-12 一种车站智能疫情防控***及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110783584.4A CN113591607B (zh) 2021-07-12 2021-07-12 一种车站智能疫情防控***及方法

Publications (2)

Publication Number Publication Date
CN113591607A CN113591607A (zh) 2021-11-02
CN113591607B true CN113591607B (zh) 2023-07-04

Family

ID=78246854

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110783584.4A Active CN113591607B (zh) 2021-07-12 2021-07-12 一种车站智能疫情防控***及方法

Country Status (1)

Country Link
CN (1) CN113591607B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116778376B (zh) * 2023-05-11 2024-03-22 中国科学院自动化研究所 内容安全检测模型训练方法、检测方法和装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103310466A (zh) * 2013-06-28 2013-09-18 安科智慧城市技术(中国)有限公司 一种单目标跟踪方法及其实现装置
CN103942577A (zh) * 2014-04-29 2014-07-23 上海复控华龙微***技术有限公司 视频监控中基于自建立样本库及混合特征的身份识别方法
CN106570471A (zh) * 2016-10-26 2017-04-19 武汉科技大学 基于压缩跟踪算法的尺度自适应多姿态人脸跟踪方法
CN107463917A (zh) * 2017-08-16 2017-12-12 重庆邮电大学 一种基于改进的ltp与二维双向pca融合的人脸特征提取方法
CN108563999A (zh) * 2018-03-19 2018-09-21 特斯联(北京)科技有限公司 一种面向低质量视频图像的人物身份识别方法与装置
CN108573217A (zh) * 2018-03-21 2018-09-25 南京邮电大学 一种结合局部结构化信息的压缩跟踪方法
CN111709285A (zh) * 2020-05-09 2020-09-25 五邑大学 一种基于无人机的疫情防护监控方法、装置和存储介质
CN112907810A (zh) * 2021-04-02 2021-06-04 吉林大学 一种基于嵌入式gpu的人脸识别测温校园门禁***

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11017211B1 (en) * 2012-09-07 2021-05-25 Stone Lock Global, Inc. Methods and apparatus for biometric verification
US9269012B2 (en) * 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
US10902243B2 (en) * 2016-10-25 2021-01-26 Deep North, Inc. Vision based target tracking that distinguishes facial feature targets
CN112368708B (zh) * 2018-07-02 2024-04-30 斯托瓦斯医学研究所 使用伪图像的面部图像识别

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103310466A (zh) * 2013-06-28 2013-09-18 安科智慧城市技术(中国)有限公司 一种单目标跟踪方法及其实现装置
CN103942577A (zh) * 2014-04-29 2014-07-23 上海复控华龙微***技术有限公司 视频监控中基于自建立样本库及混合特征的身份识别方法
CN106570471A (zh) * 2016-10-26 2017-04-19 武汉科技大学 基于压缩跟踪算法的尺度自适应多姿态人脸跟踪方法
CN107463917A (zh) * 2017-08-16 2017-12-12 重庆邮电大学 一种基于改进的ltp与二维双向pca融合的人脸特征提取方法
CN108563999A (zh) * 2018-03-19 2018-09-21 特斯联(北京)科技有限公司 一种面向低质量视频图像的人物身份识别方法与装置
CN108573217A (zh) * 2018-03-21 2018-09-25 南京邮电大学 一种结合局部结构化信息的压缩跟踪方法
CN111709285A (zh) * 2020-05-09 2020-09-25 五邑大学 一种基于无人机的疫情防护监控方法、装置和存储介质
CN112907810A (zh) * 2021-04-02 2021-06-04 吉林大学 一种基于嵌入式gpu的人脸识别测温校园门禁***

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
A preliminary study of gait-based age estimation techniques;Binu Muraleedharan Nair等;《Procedia Computer Science》;381-386 *
基于WM-CoSaMP重构算法的压缩感知在步态识别中的应用研究;苏维均;李明星;于重重;王红红;;计算机应用研究(01);291-294 *
基于加权融合的多特征步态识别算法研究;何艳丽;《中国优秀硕士学位论文全文数据库 信息科技辑》;I138-3569 *
基于压缩感知理论的实时目标跟踪算法研究及***实现;刘阳;金晓康;王朦;任D梵;;软件(08);20-26 *
宋强 ; 张颖.人脸识别视频压缩感知跟踪算法.《辽宁科技大学学报》.2021,371-378. *
宋强 ; 张颖.基于卷积神经网络的人脸识别算法.《辽宁科技大学学报》.2020,363-367+376. *

Also Published As

Publication number Publication date
CN113591607A (zh) 2021-11-02

Similar Documents

Publication Publication Date Title
CN111860670B (zh) 域自适应模型训练、图像检测方法、装置、设备及介质
CN108154118B (zh) 一种基于自适应组合滤波与多级检测的目标探测***及方法
Mansanet et al. Local deep neural networks for gender recognition
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
US8855363B2 (en) Efficient method for tracking people
Jia et al. Visual tracking via coarse and fine structural local sparse appearance models
US20140307917A1 (en) Robust feature fusion for multi-view object tracking
CN112070058A (zh) 人脸面部复合情感表情识别方法及***
CN113361495A (zh) 人脸图像相似度的计算方法、装置、设备及存储介质
CN109801305B (zh) 基于深度胶囊网络的sar图像变化检测方法
CN115527269B (zh) 一种人体姿态图像智能识别方法及***
Liu et al. Gait recognition using deep learning
Song et al. Feature extraction and target recognition of moving image sequences
CN113591607B (zh) 一种车站智能疫情防控***及方法
Kumar et al. Predictive analytics on gender classification using machine learning
Kher et al. Soft Computing Techniques for Various Image Processing Applications: A Survey
Akilan Video foreground localization from traditional methods to deep learning
Fritz et al. Rapid object recognition from discriminative regions of interest
Briceño et al. Robust identification of persons by lips contour using shape transformation
CN110163106A (zh) 一体式纹身检测与识别方法和***
Fu et al. Research on Video Object Tracking Based on Improved Camshift Algorithm
CN115019365B (zh) 一种基于模型适用性度量的分级人脸识别方法
Harshitha et al. An Advanced Ensemble Directionality Pattern (EDP) based Block Ensemble Neural Network (BENN) Classification Model for Face Recognition System
Nagarajan et al. Face Recognition Using Genetic Algorithm-A Unique Approach With Pre-Trained Models For Low Power Microcontrollers
Balaji et al. Machine learning approach for object detection-a survey approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant