CN111144182B - 一种视频中人脸风险检测方法及*** - Google Patents
一种视频中人脸风险检测方法及*** Download PDFInfo
- Publication number
- CN111144182B CN111144182B CN201811312260.7A CN201811312260A CN111144182B CN 111144182 B CN111144182 B CN 111144182B CN 201811312260 A CN201811312260 A CN 201811312260A CN 111144182 B CN111144182 B CN 111144182B
- Authority
- CN
- China
- Prior art keywords
- face
- preset
- concave
- video data
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F19/00—Complete banking systems; Coded card-freed arrangements adapted for dispensing or receiving monies or the like and posting such transactions to existing accounts, e.g. automatic teller machines
- G07F19/20—Automatic teller machines [ATMs]
- G07F19/207—Surveillance aspects at ATMs
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明公开了一种视频中人脸风险检测方法及***,其中方法包括:监控装置提取背景特征,将提取得到的背景特征输入预设的背景协同模型,计算得到背景特征与预设的背景协同模型之间的匹配度;以及提取每个网格区域的人脸第一凹凸度和人脸第二凹凸度,计算得到每个网格区域人脸凹凸度匹配值,如果匹配度低于预设的背景阈值,或者依次判断每个网格区域人脸第一凹凸度匹配值是否符合预设的阈值范围,得到N1个匹配结果,从N1个匹配结果中获取M1个表征网格区域人脸第一凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M1与N1的比值大于预设门限值,或者M2与N2的比值大于预设门限值,则生成第一比较结果,确定存在预设风险。
Description
技术领域
本发明涉及视频监控领域,尤其涉及一种视频中人脸风险检测方法及***。
背景技术
现有的自动柜员机(Automatic Teller Machine,简称ATM)一般设置在自助银行中,在ATM上***银行卡后,可以在ATM上进行提款、存款、转账等银行柜台服务。由于自助银行和自动柜员机的公开性、方便性和环境特殊性。近年来针对自助银行和自动柜员机的犯罪活动不断增加。
然而,传统的ATM视频监控***主要是将视频录制下来,事件发生以后,对录制的视频进行事后取证,从而能够排除纠纷以及破解案件,但是这样的机制只能提供事后取证的作用,不能做到实时或者提前预警。
发明内容
本发明旨在解决上述问题/之一。
本发明的主要目的在于提供一种视频中人脸风险检测方法及***。
为达到上述目的,本发明的技术方案具体是这样实现的:
本发明一方面提供了一种视频中人脸风险检测方法,包括:第一摄像头对待检测环境进行视频采集,获得第一视频数据,并将第一视频数据发送至监控装置;第二摄像头对待检测环境进行视频采集,获得第二视频数据,并将第二视频数据发送至监控装置,其中,第一摄像头与第二摄像头设置在待检测环境中的不同位置;监控装置接收第一视频数据和第二视频数据,识别出第一视频数据和第二视频数据中待分析用户对应的人脸,确定待分析用户,获取第一视频数据和第二视频数据中包含待分析用户位于必经点处的视频数据,并从包含待分析用户位于必经点处的视频数据中提取背景特征,将提取得到的背景特征输入预设的背景协同模型,计算得到背景特征与预设的背景协同模型之间的匹配度;以及监控装置将第一视频数据中待分析用户的人脸区域划分为N1个网格区域,提取每个网格区域的人脸第一凹凸度,将提取出的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个网格区域人脸第一凹凸度匹配值,将第二视频数据中待分析用户的人脸区域划分为N2个网格区域,提取每个网格区域的人脸第二凹凸度,将提取出的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个网格区域人脸第二凹凸度匹配值,其中N1≥1且为自然数,N2≥1且为自然数;监控装置将匹配度与预设的背景阈值进行比较,如果匹配度低于预设的背景阈值,或者依次判断每个网格区域人脸第一凹凸度匹配值是否符合预设的阈值范围,得到N1个匹配结果,从N1个匹配结果中获取M1个表征网格区域人脸第一凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M1与N1的比值大于预设门限值,或者依次判断每个网格区域人脸第二凹凸度匹配值是否符合预设的阈值范围,得到N2个匹配结果,从N2个匹配结果中获取M2个表征网格区域人脸第二凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M2与N2的比值大于预设门限值,则生成第一比较结果,确定存在预设风险,其中M1≤N1且为自然数,M2≤N2且为自然数。
其中,监控装置提取每个网格区域的人脸第一凹凸度之后,将提取出的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较之前,方法还包括:监控装置对每个网格区域的人脸第一凹凸度进行畸变校正;将提取出的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较包括:将进行畸变校正后的得到的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较;以及监控装置提取每个网格区域的人脸第二凹凸度之后,将提取出的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较之前,方法还包括:监控装置对每个网格区域的人脸第二凹凸度进行畸变校正;将提取出的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较包括:将进行畸变校正后的得到的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较。
其中,方法还包括:监控装置在匹配度不低于预设的背景阈值时,且,M1与N1的比值不大于预设门限值,且,M2与N2的比值不大于预设门限值,生成第二比较结果,确定不存在预设风险。
其中,方法还包括:监控装置预先接收第一摄像头和第二摄像头采集得到的训练视频数据;监控装置从训练视频数据中分别提取训练要素,根据训练要素训练得到预设的背景协同模型和预设的人脸凹凸度匹配模型。
其中,方法还包括:监控装置在确定待分析用户存在预设风险后,执行报警操作。
本发明另一方面提供了一种视频中人脸风险检测***,包括:第一摄像头,用于对待检测环境进行视频采集,获得第一视频数据,并将第一视频数据发送至监控装置;第二摄像头,用于对待检测环境进行视频采集,获得第二视频数据,并将第二视频数据发送至监控装置,其中,第一摄像头与第二摄像头设置在待检测环境中的不同位置;监控装置,用于接收第一视频数据和第二视频数据,识别出第一视频数据和第二视频数据中待分析用户对应的人脸,确定待分析用户,获取第一视频数据和第二视频数据中包含待分析用户位于必经点处的视频数据,并从包含待分析用户位于必经点处的视频数据中提取背景特征,将提取得到的背景特征输入预设的背景协同模型,计算得到背景特征与预设的背景协同模型之间的匹配度;将第一视频数据中待分析用户的人脸区域划分为N1个网格区域,提取每个网格区域的人脸第一凹凸度,将提取出的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个网格区域人脸第一凹凸度匹配值,将第二视频数据中待分析用户的人脸区域划分为N2个网格区域,提取每个网格区域的人脸第二凹凸度,将提取出的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个网格区域人脸第二凹凸度匹配值,其中N1≥1且为自然数,N2≥1且为自然数;将匹配度与预设的背景阈值进行比较,如果匹配度低于预设的背景阈值,或者依次判断每个网格区域人脸第一凹凸度匹配值是否符合预设的阈值范围,得到N1个匹配结果,从N1个匹配结果中获取M1个表征网格区域人脸第一凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M1与N1的比值大于预设门限值,或者依次判断每个网格区域人脸第二凹凸度匹配值是否符合预设的阈值范围,得到N2个匹配结果,从N2个匹配结果中获取M2个表征网格区域人脸第二凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M2与N2的比值大于预设门限值,则生成第一比较结果,确定存在预设风险,其中M1≤N1且为自然数,M2≤N2且为自然数。
其中,监控装置,还用于提取每个网格区域的人脸第一凹凸度之后,将提取出的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较之前,对每个网格区域的人脸第一凹凸度进行畸变校正;监控装置,具体用于将进行畸变校正后的得到的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较;以及监控装置,还用于提取每个网格区域的人脸第二凹凸度之后,将提取出的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较之前,监控装置对每个网格区域的人脸第二凹凸度进行畸变校正;监控装置,具体用于将进行畸变校正后的得到的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较。
其中,监控装置,还用于在匹配度不低于预设的背景阈值时,且,M1与N1的比值不大于预设门限值,且,M2与N2的比值不大于预设门限值,生成第二比较结果,确定不存在预设风险。
其中,监控装置,还用于预先接收第一摄像头和第二摄像头采集得到的训练视频数据;从训练视频数据中分别提取训练要素,根据训练要素训练得到预设的背景协同模型和预设的人脸凹凸度匹配模型。
其中,监控装置,还用于在确定待分析用户存在预设风险后,执行报警操作。
由此可见,通过本发明实施例提供的视频中人脸风险检测方法及***,将至少两个摄像头设置在不同位置,对人员进行识别,通过对待分析用户经过必经点时的背景特征进行分析,另外,对摄像头传输的视频数据进行人脸识别,并将人脸划分为多个网格区域,对每个网格区域的人脸凹凸度与预设的人脸凹凸度匹配模型进行匹配,对每个网格区域的人脸凹凸度匹配值进一步判断是否符合预设的阈值范围,在不符合预设阈值范围的情况下可以确定该网格区域的人脸不是正常的人脸,以确定不是正常的人脸的网格区域的数量是否足够多,如果足够多则判断为风险人脸,确定存在预设风险,由此可以对人员进行识别,能够实时发现预设风险(例如违法犯罪意图)。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他附图。
图1为本发明实施例提供的视频中人脸风险检测方法的流程图;
图2为本发明实施例提供的视频中人脸风险检测***的结构示意图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或数量或位置。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
下面将结合附图对本发明实施例作进一步地详细描述。
图1示出了本发明实施例提供的视频中人脸风险检测方法的流程图,参见图1,本发明实施例提供的视频中人脸风险检测方法,包括:
S101,第一摄像头对待检测环境进行视频采集,获得第一视频数据,并将第一视频数据发送至监控装置;第二摄像头对待检测环境进行视频采集,获得第二视频数据,并将第二视频数据发送至监控装置,其中,第一摄像头与第二摄像头设置在待检测环境中的不同位置。
具体地,第一摄像头和第二摄像头为设置在待检测环境中的不同位置的摄像头,例如在待检测环境为自助银行时,第一摄像头可以为设置在ATM机上的摄像头,第二摄像头可以为设置在自助银行中除ATM机外的环境中的环境摄像头。当然,在本发明实际应用中,还可以设置多于两个的摄像头,这在本发明中并不做出限制。
第一摄像头与第二摄像头对必经点处的视频采集是从不同位置进行的采集,具有不同的背景特征。其中,必经点是用户进入待检测环境中处理业务时必然经过的点,在本发明实施例中可以预先设定好必经点,同时,必经点可以为一个也可以为多个,这在本发明中并不做出具体限制。值得说明的是,由于第一摄像头与第二摄像头设置的位置不同,同一用户经过同一必经点时有可能仅被第一摄像头或者第二摄像头中的其中一个摄像头拍摄到。
第一摄像头采集得到的第一视频数据和第二摄像头采集得到的第二视频数据实时发送至监控装置,或者按照预设周期将采集得到的视频数据定时发送至监控装置。
S102,监控装置接收第一视频数据和第二视频数据,识别出第一视频数据和第二视频数据中待分析用户对应的人脸,确定待分析用户,获取第一视频数据和第二视频数据中包含待分析用户位于必经点处的视频数据,并从包含待分析用户位于必经点处的视频数据中提取背景特征,将提取得到的背景特征输入预设的背景协同模型,计算得到背景特征与预设的背景协同模型之间的匹配度;以及监控装置将第一视频数据中待分析用户的人脸区域划分为N1个网格区域,提取每个网格区域的人脸第一凹凸度,将提取出的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个网格区域人脸第一凹凸度匹配值,将第二视频数据中待分析用户的人脸区域划分为N2个网格区域,提取每个网格区域的人脸第二凹凸度,将提取出的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个网格区域人脸第二凹凸度匹配值,其中N1≥1且为自然数,N2≥1且为自然数。
具体地,监控装置可以设置在摄像头附近,也可以设置在后台。例如在自助银行环境中,可以设置在ATM机内,也可以设置在银行监控后台中,这在本发明中并不做出具体限制。在监控装置接收第一视频数据和第二视频数据后,采用人脸识别技术从第一视频数据中识别出一个用户,从第二视频数据中识别出一个用户,并确定两个用户为同一个用户时,确定该用户为待分析用户。
如果监控装置仅在第一视频数据或者第二视频数据中识别出一个用户,那么可以将该用户直接作为待分析用户。
如果监控装置从第一视频数据识别出的用户与从第二视频数据中识别出的用户不为同一个用户时,则将两个用户视为不同的待分析用户进行分析。
由于用户位于必经点处的视频数据往往包含待分析用户,属于有效数据,而非必经点处的视频数据中则可能不包含待分析用户,属于无效数据,对无效数据进行分析对于风险检测无太大意义,因此,监控装置仅针对用户位于必经点处的视频数据进行背景特征提取,从而避免提取无效数据中的背景特征,提高风险检测效率。
背景特征可以包含环境中的背景标识物的任意特征及其任意组合,以起到标识背景的作用。例如可以包含静态物***置信息、静态物体的形状信息、静态物体的数量信息和动态物体的运动规律等等信息。
具体地,监控装置中预先设置背景协同模型以便进行背景特征的分析。作为本发明实施例的一种可选实施方式,监控装置预先接收第一摄像头和第二摄像头采集得到的训练视频数据;监控装置从训练视频数据中分别提取训练要素,根据训练要素训练得到预设的背景协同模型。通过对各个摄像头拍摄范围内的背景标识物进行分析,生成背景协同模型,根据正常用户不同移动轨迹中的必经点设定合理背景阈值范围来进行判断,提高了判断的智能性和精准性。
具体应用时,ATM摄像头和环境摄像头将监控范围内拍摄的视频传送给监控装置,监控***提取背景标识物1,2……n,进行分析计算后得出背景协同模型,用户从不同路径到达ATM,会经过不同的摄像头,监控装置根据每种路径提取出的背景标识物进行分析,设定合理的背景阈值及合理的背景判定方式,从而建立本发明的预设的背景协同模型,而设定合理的背景阈值及合理的背景判定方式则可以根据应用场景的不同进行相应设置,这在本发明中不再具体说明。
将提取得到的背景特征输入预设的背景协同模型,计算提取得到的背景特征与背景协同模型之间的匹配度,该匹配度为一个数值,例如可以为一个百分比值。
具体地,由于正常的人脸是有凹凸度的,当一个点发出的光线投射到脸上时,可以监测到人脸各处的凹凸度不同。假设将人脸分为N个网格区域,则光线投射到每个网格区域的凹凸度均不同,且符合一定规律。在本发明中具体地,可以将第一视频数据中待分析用户的人脸区域划分为N1个网格区域,提取每个网格区域的人脸第一凹凸度,将第二视频数据中待分析用户的人脸区域划分为N2个网格区域,提取每个网格区域的人脸第二凹凸度。
当一个摄像头抓取到人脸信息后,将每个网格中的凹凸度提取出来,作为本发明实施例的一个可选实施方式,监控装置提取每个网格区域的人脸凹凸度之后,将提取出的每个网格区域的人脸凹凸度与预设的人脸凹凸度匹配模型进行比较之前,本发明实施例提供的视频中人脸风险检测方法可以还包括:监控装置对每个网格区域的人脸凹凸度进行畸变校正。进行畸变矫正后发送给监控装置进行分析,提高监控装置分析的精准性。具体地,在本发明中,监控装置提取每个网格区域的人脸第一凹凸度之后,将提取出的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较之前,视频中人脸风险检测方法还包括:监控装置对每个网格区域的人脸第一凹凸度进行畸变校正;将提取出的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较包括:将进行畸变校正后的得到的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较;以及监控装置提取每个网格区域的人脸第二凹凸度之后,将提取出的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较之前,视频中人脸风险检测方法还包括:监控装置对每个网格区域的人脸第二凹凸度进行畸变校正;将提取出的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较包括:将进行畸变校正后的得到的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较。
利用每个网格区域的人脸凹凸度与预设的人脸凹凸度匹配模型进行比较,可以确定该人脸凹凸度是否符合正常人脸的凹凸度,以便后续分析。
作为本发明实施例的一个可选实施方式,本发明实施例提供的视频中人脸风险检测方法还包括:监控装置预先接收摄像头采集得到的训练视频数据;监控装置从训练视频数据中分别提取训练要素,根据训练要素训练得到预设的人脸凹凸度匹配模型。通过对摄像头拍摄的人脸进行人脸识别,并对人脸凹凸度进行分析,生成人脸凹凸度匹配模型,根据正常用户的人脸凹凸度匹配模型设定合理预设的阈值范围来进行判断,提高了判断的智能性和精准性。
值得说明的是,视频中人脸风险检测方法中,监控装置预先接收第一摄像头和第二摄像头采集得到的训练视频数据;监控装置从训练视频数据中分别提取训练要素,根据训练要素训练得到预设的背景协同模型和预设的人脸凹凸度匹配模型可以在同一次训练中得到,也可以在多次训练中分别得到,这在本发明中并不做出具体限制。
S103,监控装置将匹配度与预设的背景阈值进行比较,如果匹配度低于预设的背景阈值,或者依次判断每个网格区域人脸第一凹凸度匹配值是否符合预设的阈值范围,得到N1个匹配结果,从N1个匹配结果中获取M1个表征网格区域人脸第一凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M1与N1的比值大于预设门限值,或者依次判断每个网格区域人脸第二凹凸度匹配值是否符合预设的阈值范围,得到N2个匹配结果,从N2个匹配结果中获取M2个表征网格区域人脸第二凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M2与N2的比值大于预设门限值,则生成第一比较结果,确定存在预设风险,其中M1≤N1且为自然数,M2≤N2且为自然数。
具体地,在匹配度低于预设的背景阈值时,则认为背景特征与背景协同模型的不匹配,在背景特征与背景协同模型的不匹配的情况下会认为存在预设风险,例如:提取出该背景特征的视频存在风险或者待分析用户存在风险,例如视频被篡改了,摄像头被劫持了,或者用户破坏摄像头的正常采集等。
监控装置依次判断每个网格区域人脸凹凸度匹配值是否符合预设的阈值范围即表示匹配值是否大于等于第一预设值且小于等于第二预设值,其中,第二预设值大于第一预设值,在匹配值小于第一预设值,或者大于第二预设值均属于网格区域人脸凹凸度匹配值不符合预设的阈值范围的情况,在网格区域人脸凹凸度匹配值不符合预设的阈值范围的情况下,表征人脸可能存在风险,不是正常的人脸,例如为一个面具或者照片中的人脸等,进一步,当网格区域大于等于2个时,还可以利用投票机制确定预设风险,例如其中某些网格区域人脸凹凸度匹配值不符合预设的阈值范围,另外一些网格区域人脸凹凸度匹配值符合预设的阈值范围,此时可以进一步判断不符合预设阈值的数量与网格总数的比值是否满足投票机制设定的门限值,例如50%以上及判定为存在风险。基于此种方式,可以识别出预设风险。
作为本发明的一个可选实施方式,监控装置在匹配度不低于预设的背景阈值时,且,M1与N1的比值不大于预设门限值,且,M2与N2的比值不大于预设门限值,生成第二比较结果,确定不存在预设风险。由于背景特征与背景协同模型之间的匹配度足够高,且网格区域人脸凹凸度匹配值符合预设的阈值范围,可以认为不存在风险,例如:视频不存在风险或者待分析用户不存在风险。
具体应用中,例如在自助银行环境下,当用户到达ATM,监控装置根据接收到的含有用户特征的视频进行背景分析,将用户在各摄像头中出现的背景特征输入背景协同模型,将输出的匹配度与背景阈值进行比较,得到比较结果1,从而根据比较结果1来确定是否存在风险。
可选地,作为本发明的一个可选实施方式,监控装置在确定待分析用户存在预设风险后,执行报警操作。该报警操作可以是待检测环境中的报警装置进行报警,例如通过发声发光报警,或者是在后台监控人员的监控室内的报警装置,例如通过显示在监控显示屏上报警或者发声报警,或者发送短信至监控人员或者警务人员等方式进行报警。通过当发生风险时进行报警来进一步提高自助银行和ATM的风险处理的效率。
由此可见,通过本发明实施例提供的视频中人脸风险检测方法,将至少两个摄像头设置在不同位置,对人员进行识别,通过对待分析用户经过必经点时的背景特征进行分析,另外,对摄像头传输的视频数据进行人脸识别,并将人脸划分为多个网格区域,对每个网格区域的人脸凹凸度与预设的人脸凹凸度匹配模型进行匹配,对每个网格区域的人脸凹凸度匹配值进一步判断是否符合预设的阈值范围,在不符合预设阈值范围的情况下可以确定该网格区域的人脸不是正常的人脸,以确定不是正常的人脸的网格区域的数量是否足够多,如果足够多则判断为风险人脸,确定存在预设风险,由此可以对人员进行识别,能够实时发现预设风险(例如违法犯罪意图)。
作为本发明的一个可选实施方式,第一摄像头采集到的第一视频数据通过设置于第一摄像头内的安全芯片进行加密,第二摄像头采集到的第二视频数据通过设置于第二摄像头内的安全芯片进行加密,第一摄像头将加密后的第一视频数据发送至监控装置,第二摄像头将加密后第二视频数据发送至监控装置;监控装置接收到加密后的第一视频数据和加密后的第二视频数据后,对加密后第一视频数据和加密后的第二视频数据进行解密,得到第一视频数据和第二视频数据。通过对视频数据进行加密传输,提高视频数据传输的安全性,防止视频数据被破解后篡改。
第一摄像头采集到的第一视频数据通过设置于第一摄像头内的安全芯片进行签名得到第一签名数据,第二摄像头采集到的第二视频数据通过设置于第二摄像头内的安全芯片进行签名得到第二签名数据,第一摄像头将第一视频数据以及第一签名数据发送至监控装置,第二摄像头将第二视频数据以及第二签名数据发送至监控装置;监控装置接收到第一视频数据和第一签名数据以及第二视频数据和第二签名数据后,对第一签名数据和第二签名数据进行验签,并在验签通过后使用第一视频数据和第二视频数据进行后续分析。通过对视频数据进行签名,可以保证视频数据来源的真实性,防止视频数据被篡改。
图2示出了本发明实施例提供的视频中人脸风险检测***的结构示意图,本发明实施例提供的视频中人脸风险检测***应用上述方法,以下仅对本发明实施例提供的视频中人脸风险检测***的结构进行简要说明,其他未尽事宜,参考上述视频中人脸风险检测方法的相关描述,参见图2,本发明实施例提供的视频中人脸风险检测***,包括:
第一摄像头201,用于对待检测环境进行视频采集,获得第一视频数据,并将第一视频数据发送至监控装置;
第二摄像头202,用于对待检测环境进行视频采集,获得第二视频数据,并将第二视频数据发送至监控装置,其中,第一摄像头与第二摄像头设置在待检测环境中的不同位置;
监控装置203,用于接收第一视频数据和第二视频数据,识别出第一视频数据和第二视频数据中待分析用户对应的人脸,确定待分析用户,获取第一视频数据和第二视频数据中包含待分析用户位于必经点处的视频数据,并从包含待分析用户位于必经点处的视频数据中提取背景特征,将提取得到的背景特征输入预设的背景协同模型,计算得到背景特征与预设的背景协同模型之间的匹配度;将第一视频数据中待分析用户的人脸区域划分为N1个网格区域,提取每个网格区域的人脸第一凹凸度,将提取出的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个网格区域人脸第一凹凸度匹配值,将第二视频数据中待分析用户的人脸区域划分为N2个网格区域,提取每个网格区域的人脸第二凹凸度,将提取出的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个网格区域人脸第二凹凸度匹配值,其中N1≥1且为自然数,N2≥1且为自然数;将匹配度与预设的背景阈值进行比较,如果匹配度低于预设的背景阈值,或者依次判断每个网格区域人脸第一凹凸度匹配值是否符合预设的阈值范围,得到N1个匹配结果,从N1个匹配结果中获取M1个表征网格区域人脸第一凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M1与N1的比值大于预设门限值,或者依次判断每个网格区域人脸第二凹凸度匹配值是否符合预设的阈值范围,得到N2个匹配结果,从N2个匹配结果中获取M2个表征网格区域人脸第二凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M2与N2的比值大于预设门限值,则生成第一比较结果,确定存在预设风险,其中M1≤N1且为自然数,M2≤N2且为自然数。
由此可见,通过本发明实施例提供的视频中人脸风险检测***,将至少两个摄像头设置在不同位置,对人员进行识别,通过对待分析用户经过必经点时的背景特征进行分析,另外,对摄像头传输的视频数据进行人脸识别,并将人脸划分为多个网格区域,对每个网格区域的人脸凹凸度与预设的人脸凹凸度匹配模型进行匹配,对每个网格区域的人脸凹凸度匹配值进一步判断是否符合预设的阈值范围,在不符合预设阈值范围的情况下可以确定该网格区域的人脸不是正常的人脸,以确定不是正常的人脸的网格区域的数量是否足够多,如果足够多则判断为风险人脸,确定存在预设风险,由此可以对人员进行识别,能够实时发现预设风险(例如违法犯罪意图)。
作为本发明的一个可选实施方式,监控装置203,还用于提取每个网格区域的人脸第一凹凸度之后,将提取出的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较之前,对每个网格区域的人脸第一凹凸度进行畸变校正;监控装置203,具体用于将进行畸变校正后的得到的每个网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较;以及监控装置203,还用于提取每个网格区域的人脸第二凹凸度之后,将提取出的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较之前,监控装置对每个网格区域的人脸第二凹凸度进行畸变校正;监控装置203,具体用于将进行畸变校正后的得到的每个网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较。进行畸变矫正后发送给监控装置进行分析,提高监控装置分析的精准性。
作为本发明的一个可选实施方式,监控装置203,还用于在匹配度不低于预设的背景阈值时,且,M1与N1的比值不大于预设门限值,且,M2与N2的比值不大于预设门限值,生成第二比较结果,确定不存在预设风险。由于背景特征与背景协同模型之间的匹配度足够高,且网格区域人脸凹凸度匹配值符合预设的阈值范围,可以认为不存在风险,例如:视频不存在风险或者待分析用户不存在风险。
作为本发明的一个可选实施方式,监控装置203,还用于预先接收第一摄像头和第二摄像头采集得到的训练视频数据;从训练视频数据中分别提取训练要素,根据训练要素训练得到预设的背景协同模型和预设的人脸凹凸度匹配模型。通过对各个摄像头拍摄范围内的背景标识物进行分析,生成背景协同模型,根据正常用户不同移动轨迹中的必经点设定合理背景阈值范围来进行判断,通过对摄像头拍摄的人脸进行人脸识别,并对人脸凹凸度进行分析,生成人脸凹凸度匹配模型,根据正常用户的人脸凹凸度匹配模型设定合理预设的阈值范围来进行判断,提高了判断的智能性和精准性。
作为本发明的一个可选实施方式,其特征在于,监控装置203,还用于在确定待分析用户存在预设风险后,执行报警操作。通过当发生风险时进行报警来进一步提高自助银行和ATM的风险处理的效率。
作为本发明的一个可选实施方式,第一摄像头201采集到的第一视频数据通过设置于第一摄像头内的安全芯片进行加密,第二摄像头202采集到的第二视频数据通过设置于第二摄像头内的安全芯片进行加密,第一摄像头201将加密后的第一视频数据发送至监控装置,第二摄像头202将加密后第二视频数据发送至监控装置203;监控装置203接收到加密后的第一视频数据和加密后的第二视频数据后,对加密后第一视频数据和加密后的第二视频数据进行解密,得到第一视频数据和第二视频数据。通过对视频数据进行加密传输,提高视频数据传输的安全性,防止视频数据被破解后篡改。
第一摄像头201采集到的第一视频数据通过设置于第一摄像头内的安全芯片进行签名得到第一签名数据,第二摄像头202采集到的第二视频数据通过设置于第二摄像头内的安全芯片进行签名得到第二签名数据,第一摄像头201将第一视频数据以及第一签名数据发送至监控装置,第二摄像头202将第二视频数据以及第二签名数据发送至监控装置203;监控装置203接收到第一视频数据和第一签名数据以及第二视频数据和第二签名数据后,对第一签名数据和第二签名数据进行验签,并在验签通过后使用第一视频数据和第二视频数据进行后续分析。通过对视频数据进行签名,可以保证视频数据来源的真实性,防止视频数据被篡改。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求及其等同限定。
Claims (10)
1.一种视频中人脸风险检测方法,其特征在于,包括:
第一摄像头对待检测环境进行视频采集,获得第一视频数据,并将所述第一视频数据发送至监控装置;
第二摄像头对待检测环境进行视频采集,获得第二视频数据,并将所述第二视频数据发送至所述监控装置,其中,所述第一摄像头与所述第二摄像头设置在所述待检测环境中的不同位置;
所述监控装置接收所述第一视频数据和所述第二视频数据,识别出所述第一视频数据和所述第二视频数据中待分析用户对应的人脸,确定所述待分析用户,获取所述第一视频数据和所述第二视频数据中包含所述待分析用户位于必经点处的视频数据,并从所述包含所述待分析用户位于必经点处的视频数据中提取背景特征,将提取得到的所述背景特征输入预设的背景协同模型,计算得到所述背景特征与所述预设的背景协同模型之间的匹配度;
以及
所述监控装置将所述第一视频数据中所述待分析用户的人脸区域划分为N1个网格区域,提取每个所述网格区域的人脸第一凹凸度,将提取出的每个所述网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个所述网格区域人脸第一凹凸度匹配值,将所述第二视频数据中所述待分析用户的人脸区域划分为N2个网格区域,提取每个所述网格区域的人脸第二凹凸度,将提取出的每个所述网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个所述网格区域人脸第二凹凸度匹配值,其中N1≥1且为自然数,N2≥1且为自然数;
所述监控装置将所述匹配度与预设的背景阈值进行比较,如果所述匹配度低于所述预设的背景阈值,或者依次判断每个所述网格区域人脸第一凹凸度匹配值是否符合预设的阈值范围,得到N1个匹配结果,从所述N1个匹配结果中获取M1个表征所述网格区域人脸第一凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M1与N1的比值大于预设门限值,或者依次判断每个所述网格区域人脸第二凹凸度匹配值是否符合预设的阈值范围,得到N2个匹配结果,从所述N2个匹配结果中获取M2个表征所述网格区域人脸第二凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M2与N2的比值大于预设门限值,则生成第一比较结果,确定存在预设风险,其中M1≤N1且为自然数,M2≤N2且为自然数。
2.根据权利要求1所述的方法,其特征在于,
所述监控装置提取每个所述网格区域的人脸第一凹凸度之后,将提取出的每个所述网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较之前,还包括:
所述监控装置对所述每个网格区域的人脸第一凹凸度进行畸变校正;
所述将提取出的每个所述网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较包括:
将进行畸变校正后的得到的每个所述网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较;
以及
所述监控装置提取每个所述网格区域的人脸第二凹凸度之后,将提取出的每个所述网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较之前,还包括:
所述监控装置对所述每个网格区域的人脸第二凹凸度进行畸变校正;
所述将提取出的每个所述网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较包括:
将进行畸变校正后的得到的每个所述网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较。
3.根据权利要求1或2所述的方法,其特征在于,还包括:
所述监控装置在所述匹配度不低于所述预设的背景阈值时,且,M1与N1的比值不大于预设门限值,且,M2与N2的比值不大于预设门限值,生成第二比较结果,确定不存在预设风险。
4.根据权利要求1或2所述的方法,其特征在于,还包括:
所述监控装置预先接收所述第一摄像头和所述第二摄像头采集得到的训练视频数据;
所述监控装置从所述训练视频数据中分别提取训练要素,根据所述训练要素训练得到所述预设的背景协同模型和所述预设的人脸凹凸度匹配模型。
5.根据权利要求1或2所述的方法,其特征在于,还包括:
所述监控装置在确定所述待分析用户存在预设风险后,执行报警操作。
6.一种视频中人脸风险检测***,其特征在于,包括:
第一摄像头,用于对待检测环境进行视频采集,获得第一视频数据,并将所述第一视频数据发送至监控装置;
第二摄像头,用于对待检测环境进行视频采集,获得第二视频数据,并将所述第二视频数据发送至所述监控装置,其中,所述第一摄像头与所述第二摄像头设置在所述待检测环境中的不同位置;
所述监控装置,用于接收所述第一视频数据和所述第二视频数据,识别出所述第一视频数据和所述第二视频数据中待分析用户对应的人脸,确定所述待分析用户,获取所述第一视频数据和所述第二视频数据中包含所述待分析用户位于必经点处的视频数据,并从所述包含所述待分析用户位于必经点处的视频数据中提取背景特征,将提取得到的所述背景特征输入预设的背景协同模型,计算得到所述背景特征与所述预设的背景协同模型之间的匹配度;将所述第一视频数据中所述待分析用户的人脸区域划分为N1个网格区域,提取每个所述网格区域的人脸第一凹凸度,将提取出的每个所述网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个所述网格区域人脸第一凹凸度匹配值,将所述第二视频数据中所述待分析用户的人脸区域划分为N2个网格区域,提取每个所述网格区域的人脸第二凹凸度,将提取出的每个所述网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较,计算得到每个所述网格区域人脸第二凹凸度匹配值,其中N1≥1且为自然数,N2≥1且为自然数;将所述匹配度与预设的背景阈值进行比较,如果所述匹配度低于所述预设的背景阈值,或者依次判断每个所述网格区域人脸第一凹凸度匹配值是否符合预设的阈值范围,得到N1个匹配结果,从所述N1个匹配结果中获取M1个表征所述网格区域人脸第一凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M1与N1的比值大于预设门限值,或者依次判断每个所述网格区域人脸第二凹凸度匹配值是否符合预设的阈值范围,得到N2个匹配结果,从所述N2个匹配结果中获取M2个表征所述网格区域人脸第二凹凸度匹配值不符合预设的阈值范围的匹配结果,如果M2与N2的比值大于预设门限值,则生成第一比较结果,确定存在预设风险,其中M1≤N1且为自然数,M2≤N2且为自然数。
7.根据权利要求6所述的***,其特征在于,所述监控装置,还用于提取每个所述网格区域的人脸第一凹凸度之后,将提取出的每个所述网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较之前,对所述每个网格区域的人脸第一凹凸度进行畸变校正;
所述监控装置,具体用于将进行畸变校正后的得到的每个所述网格区域的人脸第一凹凸度与预设的人脸凹凸度匹配模型进行比较;
以及
所述监控装置,还用于提取每个所述网格区域的人脸第二凹凸度之后,将提取出的每个所述网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较之前,所述监控装置对所述每个网格区域的人脸第二凹凸度进行畸变校正;
所述监控装置,具体用于将进行畸变校正后的得到的每个所述网格区域的人脸第二凹凸度与预设的人脸凹凸度匹配模型进行比较。
8.根据权利要求6或7所述的***,其特征在于,所述监控装置,还用于在所述匹配度不低于所述预设的背景阈值时,且,M1与N1的比值不大于预设门限值,且,M2与N2的比值不大于预设门限值,生成第二比较结果,确定不存在预设风险。
9.根据权利要求6或7所述的***,其特征在于,所述监控装置,还用于预先接收所述第一摄像头和所述第二摄像头采集得到的训练视频数据;从所述训练视频数据中分别提取训练要素,根据所述训练要素训练得到所述预设的背景协同模型和所述预设的人脸凹凸度匹配模型。
10.根据权利要求6或7所述的***,其特征在于,所述监控装置,还用于在确定所述待分析用户存在预设风险后,执行报警操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811312260.7A CN111144182B (zh) | 2018-11-06 | 2018-11-06 | 一种视频中人脸风险检测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811312260.7A CN111144182B (zh) | 2018-11-06 | 2018-11-06 | 一种视频中人脸风险检测方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111144182A CN111144182A (zh) | 2020-05-12 |
CN111144182B true CN111144182B (zh) | 2023-04-07 |
Family
ID=70516073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811312260.7A Active CN111144182B (zh) | 2018-11-06 | 2018-11-06 | 一种视频中人脸风险检测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111144182B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1822025A (zh) * | 2006-03-08 | 2006-08-23 | 北京邮电大学 | 一种基于网格的并行、分布式识别人脸的方法 |
CN104994281A (zh) * | 2015-06-30 | 2015-10-21 | 广东欧珀移动通信有限公司 | 一种人脸畸变校正的方法及终端 |
WO2017016283A1 (zh) * | 2015-07-30 | 2017-02-02 | 中兴通讯股份有限公司 | 视频监控方法、装置及*** |
CN106650671A (zh) * | 2016-12-27 | 2017-05-10 | 深圳英飞拓科技股份有限公司 | 人脸识别方法、装置及*** |
CN106897716A (zh) * | 2017-04-27 | 2017-06-27 | 广东工业大学 | 一种宿舍安全监控***及方法 |
-
2018
- 2018-11-06 CN CN201811312260.7A patent/CN111144182B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1822025A (zh) * | 2006-03-08 | 2006-08-23 | 北京邮电大学 | 一种基于网格的并行、分布式识别人脸的方法 |
CN104994281A (zh) * | 2015-06-30 | 2015-10-21 | 广东欧珀移动通信有限公司 | 一种人脸畸变校正的方法及终端 |
WO2017016283A1 (zh) * | 2015-07-30 | 2017-02-02 | 中兴通讯股份有限公司 | 视频监控方法、装置及*** |
CN106650671A (zh) * | 2016-12-27 | 2017-05-10 | 深圳英飞拓科技股份有限公司 | 人脸识别方法、装置及*** |
CN106897716A (zh) * | 2017-04-27 | 2017-06-27 | 广东工业大学 | 一种宿舍安全监控***及方法 |
Non-Patent Citations (1)
Title |
---|
基于人脸表情识别的智能网络教学***研究;冯满堂等;《计算机技术与发展》;20110610(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111144182A (zh) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102201061B (zh) | 基于多阶层过滤人脸识别的智能安全监控***及方法 | |
CN102004904B (zh) | 一种基于自动柜员机的安全监控装置、方法及自动柜员机 | |
CN103714631B (zh) | 基于人脸识别的atm取款机智能监控*** | |
CN102833478B (zh) | 容错背景模型化 | |
RU2680747C1 (ru) | Устройство наблюдения за терминалом, банкомат, способ принятия решения и программа | |
CN103873825A (zh) | 一种atm智能监控***及方法 | |
CN110390229B (zh) | 一种人脸图片筛选方法、装置、电子设备及存储介质 | |
TW201723967A (zh) | 金融終端安全防護系統以及金融終端安全防護方法 | |
CN105426869A (zh) | 基于铁路安检的人脸识别***及识别方法 | |
CN101556717A (zh) | 一种atm智能安保***及监测方法 | |
CN109961587A (zh) | 一种自助银行监控*** | |
CN112464030B (zh) | 一种可疑人员确定方法及装置 | |
CN111144181A (zh) | 一种基于背景协同的风险检测方法、装置及*** | |
CN112016509B (zh) | 人员站位异常提醒方法及装置 | |
TWI671701B (zh) | 交易行為偵測系統及其方法 | |
CN111144182B (zh) | 一种视频中人脸风险检测方法及*** | |
CN112992372A (zh) | 疫情风险监测方法、装置、设备、存储介质及程序产品 | |
CN111144180B (zh) | 一种监控视频的风险检测方法及*** | |
CN109215150A (zh) | 人脸点名与计数方法及其*** | |
CN111144183B (zh) | 一种基于人脸凹凸度的风险检测方法、装置及*** | |
CN111145455A (zh) | 一种监控视频中人脸风险检测方法及*** | |
CN112818150B (zh) | 一种图片内容审核方法、装置、设备和介质 | |
CN113537034A (zh) | 收银防损方法及*** | |
CN111147806A (zh) | 一种视频内容风险检测方法、装置及*** | |
CN111147807A (zh) | 一种基于信息同步的风险检测方法、装置及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |