CN112836557A - 一种人像识别方法及*** - Google Patents

一种人像识别方法及*** Download PDF

Info

Publication number
CN112836557A
CN112836557A CN201911168642.1A CN201911168642A CN112836557A CN 112836557 A CN112836557 A CN 112836557A CN 201911168642 A CN201911168642 A CN 201911168642A CN 112836557 A CN112836557 A CN 112836557A
Authority
CN
China
Prior art keywords
portrait
information
preferential
intelligent glasses
glasses end
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911168642.1A
Other languages
English (en)
Inventor
张昊阳
黄海
姚寒星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing LLvision Technology Co ltd
Original Assignee
Beijing LLvision Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing LLvision Technology Co ltd filed Critical Beijing LLvision Technology Co ltd
Priority to CN201911168642.1A priority Critical patent/CN112836557A/zh
Publication of CN112836557A publication Critical patent/CN112836557A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人像识别方法及***,应用于具有AI边缘计算功能的AR智能眼镜,包括:A、对佩戴者视野内的视频流信息进行实时多次检测,以获取人像信息;其中,对于每一人像信息为实时快速多次获取的多份人像信息;B、对所述人像信息进行人像特征提取,并将其存储至智能眼镜端的临时数据栈中;C、将智能眼镜端的临时数据栈中存储的人像特征进行相似性比对,并进行择优去重处理;D、将择优去重处理之后的人像特征与在智能眼镜端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别;E、将识别结果在眼镜端和\或与眼镜端有线\无线连接的其他终端进行展示。由上,本申请通过择优去重处理可以减少数据重复冗余,之后再进行数据比对,且在眼镜端可以进行数据的比对,以提高人像识别效率。

Description

一种人像识别方法及***
技术领域
本发明涉及图像识别领域,特别涉及一种人像识别方法及***。
背景技术
随着安防安保需求的不断攀升,传统安防面临着识别目标数量更大、移动性更强、识别效率要求更高、识别场景更复杂度等诸多挑战。
传统通过肉眼对识别对象的身份信息进行核验的方式越来越无法满足海量的人、车、证件的核验的效率与准确率需求。现阶段智能摄像头越来越普及,越来越多的摄像头配备了AI芯片,能够进行识别等工作,然而智能固定摄像设备预警信息传递到指挥中心往往存在时间差,造成较长的预警时间延后。且海量的视频流导致公安网络带宽资源极其的紧张。
安防领域对时效性要求近乎苛刻,能够在秒级别的相应时间内核验出目标身份能够给执勤者足够的缓冲时间,判断接下来的行动方案,也大大降低可能面临的冲突造成的伤害。且每天海量的视频资料有过多的重复,造成海量数据冗余,带宽资源和后台服务器计算单元被大量垃圾数据所占据,资源利用率低,数据清洗,数据筛选整合成本大大提高。
因此,目前亟需一种人像识别方法及***,以解决或者部分解决上述技术问题。
发明内容
有鉴于此,本申请提供一种人像识别方法及***,应用于具有AI边缘计算功能的AR智能眼镜,通过择优去重处理可以减少数据重复冗余,之后再进行数据比对,且在眼镜端可以进行数据的比对,进行人像的识别,以提高人像识别效率。
本申请提供一种人像识别方法,基于具有AI边缘计算功能的智能眼镜,其特征在于,包括:
A、对佩戴者视野内的视频流信息进行实时多次检测,以获取人像信息;
B、对所述人像信息进行人像特征提取,并将其存储至智能眼镜端的临时数据栈中;
C、将智能眼镜端的临时数据栈中存储的人像特征进行相似性比对,并进行择优去重处理;
D、将择优去重处理之后的人像特征与在智能眼镜端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别;
E、将识别结果在眼镜端和\或与眼镜端有线\无线连接的其他终端进行展示。
由上,本申请通过择优去重处理可以减少数据重复冗余,之后再进行数据比对,且在眼镜端可以进行数据的比对,以提高人像识别效率。其中,所述其他终端可以是手持终端或者电脑屏幕,或者其他展示终端屏幕等。且智能眼镜足够轻巧,适合全天候佩戴,同时解放了现场人员的双手,可以更好的用来操控其他设备,增加了现场行动的安全性。因此可以广泛运用于安防、安保、迎宾、安检等多个场景。
优选地,所述步骤D还包括:
M1、将择优去重处理之后的人像特征传输至与智能眼镜端有线\无线连接的终端;
M2、将择优去重处理之后的人像特征与在终端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别。
由上,还可以将所述择优去重处理之后的人像特征与在终端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别。
优选地,所述步骤D还包括:
N1、将择优去重处理之后的人像特征传输至服务器端;
N2、将择优去重处理之后的人像特征与在服务器端的后台数据库中存储的目标人像特征进行比对,以进行目标人像识别。
由上,对于比对要求更高的情况时,还可以将择优去重处理之后的人像特征与在服务器端的后台数据库中存储的目标人像特征进行比对,以进行目标人像识别。
优选地,所述步骤A,包括:
A1、获取待检测区域的影像数据;
A2、对所述影像数据进行逐帧解析,并使用图像处理芯片对每一个帧的图像信息进行检测,并在每个包括有人像信息的图像帧内,标定每一个人像的坐标信息;
A3、根据所述坐标信息,截取每一个图像帧内的人像,并保存所述人像与其所属的图像帧的对应关系。
由上,有利于后续对人像及其相关信息的获取。
优选地,所述步骤B,包括:
B1、对于每一个已标定的人像进行人像特征信息提取;
B2、根据不同业务逻辑的要求,对提取的所述人像特征值进行筛选,保留符合指定要求的人像特征值。
由上,所述人像特征信息包括:人像清晰度信息、yaw(偏航角)值、pitch(俯仰角)值、roll(翻滚角)值;通过将不符合要求的特征值过滤掉,有利于减少数据的冗余,提高数据比对的效率;其中,例如,将清晰度低于指定阈值(例如低于20dpi)过滤掉,且保留yaw左右45度、roll90度、pitch上下45度的人像特征值。
优选地,所述步骤C,包括:
C1、将符合指定要求的人像特征值与在智能眼镜端建立的临时数据栈内保存的指定时间内的人像特征值信息进行比对;
C2、若比对后两者的相似度超过指定阈值,则选择两者中更优的人像特征值进行保留。
由上,将重复的人像特征值进行去除,并且将最优的人像特值保留,有利于降低数据重复冗余,提高人像识别的精度和效率。
优选地,所述步骤C2中的相似度计算公式为:
Figure BDA0002288127710000041
其中,所述x、y分别表示两特征值;L为由特征值组成的特征向量的数量;i表示第i个特征向量;其中,i、L为正整数。
由上,有利于计算获取两特征值相似度。
本申请还提供一种人像识别***,基于上述的识别方法,包括:
人像检测模块,用于对佩戴者视野内的视频流信息进行实时多次检测,以获取人像信息;
特征提取模块,用于对获取的人像信息进行人像特征提取;
择优去重模块,将提取的特征与智能眼镜端的临时数据库中存储的此前指定时间内获取的人像特征进行比对,并进行择优去重处理;
识别模块,用于将择优去重处理之后的人像特征与在智能眼镜端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别;
展示模块,用于将识别结果在眼镜端和\或与眼镜端有线\无线连接的其他终端进行展示。
由上,本申请通过择优去重处理可以减少数据重复冗余,之后再进行数据比对,且在眼镜端可以进行数据的比对,进行人像的识别,以提高人像识别效率。
优选地,所述人像检测模块,包括:
影像获取子模块,用于对佩戴者视野内的视频流信息进行实时多次检测,以获取影像数据;
标定子模块,用于对所述影像数据进行逐帧解析,并使用图像处理芯片对每一个帧的图像信息进行检测,并在每个包括有人像信息的图像帧内,标定每一个人像的坐标信息;
人像截取子模块,根据所述坐标信息,截取每一个图像帧内的人像,并保存所述人像与其所属的图像帧的对应关系。
由上,有利于后续对人像特征及其相关信息的获取。
优选地,所述择优去重模块,具体用于:
将符合指定要求的人像特征值与在智能眼镜端建立的临时数据栈内保存的指定时间内获取的人像特征值信息进行比对;若比对后的相似度超过指定阈值,则选择两者中更优的人像特征值进行保留。
由上,本申请通过择优去重处理之后再进行数据比对,可以减少数据的重复冗余,以提高人像识别效率。
综上所述,本申请提供一种人像识别方法及***,通过择优去重处理之后再进行数据比对,可以减少数据的重复冗余,提高人像识别效率,且可以在眼镜端进行数据比对,有利于提高人像识别的效率。本申请的上述识别方法应用于基于具有AI边缘计算功能的智能眼镜,智能眼镜足够轻巧,适合全天候佩戴,同时解放了现场人员的双手,可以更好的用来操控其他设备,增加了现场行动的安全性。因此可以广泛运用于安防、安保、迎宾、安检等多个场景。
附图说明
图1为本申请提供的一种人像识别方法的流程示意图;
图2为本申请提供的一种人像识别方法的流程示意图;
图3为本申请提供的一种人像识别***的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及有益效果更加清楚明白,以下结合实施例,对本发明进行进一步的详细说明。应当理解为此处所描述的具体实施例仅用以解释本发明,并不用于限制本发明的保护范围。
实施例一
本申请提供一种人像识别方法,应用于具有AI边缘计算功能的AR智能眼镜,其中,关于AI边缘计算功能说明如下:边缘计算起源于传媒领域,是指在靠近物或数据源头的一侧,采用网络、计算、存储、应用核心能力为一体的开放平台,就近提供最近端服务。其应用程序在边缘侧发起,产生更快的网络服务响应。本申请的上述步骤应用于AR智能眼镜端,也该智能眼镜端为属于前述所指的靠近物或数据源头的一侧,在智能眼镜端所进行的所有的数据处理计算都称之为边缘计算。
具体地,所述人像识别方法,包括:
S101,对佩戴者视野内的视频流信息进行实时快速多次检测(例如一秒钟采集5到10次),以获取人像信息;包括:
实时对佩戴者视野内的视频流信息进行检测,获取影像数据;对所述影像数据进行逐帧解析,并对每一个帧的图像信息进行检测,并在每个包括有人像信息的图像帧内,标定每一个人像的坐标信息;进一步的,根据所述坐标信息,截取每一个图像帧内的人像,并保存所述人像与其所属的图像帧的对应关系。
其中,通过实时快速多次检测,例如一秒钟采集5到10次以保证采集样本足够多保证至少一部分样本可以达到比对的要求。
S102,对获取的人像信息进行人像特征提取;并将其存储至智能眼镜端的临时数据栈中;包括:
对截取的人像进行人像特征信息提取;以及根据不同业务逻辑的要求,对提取的所述人像特征值进行筛选,保留符合指定要求的人像特征值其中,所述人像特征信息包括:人像清晰度信息、yaw(偏航角)值、pitch(俯仰角)值、roll(翻滚角)值;通过将不符合要求的特征值过滤掉,有利于减少数据的冗余,提高数据比对的效率;其中,例如,将清晰度低于指定阈值(例如低于20dpi)过滤掉,且保留yaw左右45度、roll90度、pitch上下45度的人像特征值。
S103,将智能眼镜端的临时数据栈中存储的人像特征值进行相似性比对,并进行择优去重处理;包括:
对于临时数据栈中存储的人像特征值进行两两比对,若比对后两者的相似度超过指定阈值,则选择两者中更优的人像特征值进行保留。也即,对于重复的特征值,仅保留最优的。其中,所述相似度计算公式为:
Figure BDA0002288127710000071
其中,所述x、y分别表示两特征值;L为由特征值组成的特征向量的数量;i表示第i个特征向量;其中,i、L为正整数。
其中,所述临时数据库中存储的数据为几秒到半分钟不等数据,时间可以根据实际需要进行设置,例如,根据客户使用智能眼镜的频率进行动态的调整。在临时数据库存储时间到达时,可以将其存储的数据释放并传输至后台数据库存储。
S104,将择优去重处理之后的人像特征与在智能眼镜端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别。
其中,所述智能眼镜端的本地数据库为提前建立的多个基础数据库,基础数据库包括区域人口人像特征信息、突发事件信息。数据库中囊括以上信息矩阵中的全部或者大部分信息,除此之外,数据库中还应包括人员入库原因,行为特点,等等相关信息,例如:李某某,男,汉族,人像特征xxxxx,因入市抢劫进入重点人员数据库,可能携带***,于24小时前出现与A市B区,驾驶x色车牌为xxxxxx的汽车,身穿x色羽绒服等等。后台服务***的使用者可以将数据库的数据,根据特定情况分发到某区域使用者的智能眼镜端的本地数据库中。
其中,所述S104还可以包括:
M1、将择优去重处理之后的人像特征传输至与智能眼镜端有线\无线连接的终端;
M2、将择优去重处理之后的人像特征与在终端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别。
终端的本地数据库如前述的智能眼镜端的本地数据库建立相同,此处不再赘述,后台服务***的使用者可以将数据库的数据,根据特定情况分发到某区域使用者的终端里。
其中,若需要更加精确的比对精度,所述S104还可以包括:
N1、将择优去重处理之后的人像特征传输至与服务器端;
N2、将择优去重处理之后的人像特征与在服务器端的后台数据库后台数据库中存储的目标人像特征进行比对,以进行目标人像识别。
将择优去重处理之后的人像特征回传至后台数据库进行特征数据比对;包括:将所述人像特征值及其相关数据标注标签并回传至后台数据库;其中,所述相关数据,包括至少以下其一:所述人像特征值对应的检测时间、检测位置、所属的原始图像帧数据、人像年龄、人像衣服颜色、是否佩戴眼镜、是否佩戴帽子。其中,本申请在基于人像检测的基础之上,还可以包括但不限于以下辅助检测手段,包括检测被识别者的证件,情绪等,并同时将其标记回传至后台数据库以进行数据比对。
S105,将识别结果在眼镜端和\或与眼镜端有线\无线连接的其他终端进行展示。包括:请求实时回显:***将比对结果信息,通过AR技术展示在识别请求者的眼前或者通过音频播放相关结果。定向广播回显:***将评估被识别者的危险等级、交通工具、行动方向信息,将识别结果,基于时间、地理位置信息,向相关位置区域、岗位角色的佩戴者同步信息,通过AR展示在眼前通过音频播放。
实施例二
为了更清楚的说明本申请的技术方案,本申请还提供了实施例二,如图2所示,包括:
S201,对佩戴者视野内的视频流信息进行实时快速多次检测(例如一秒钟采集5到10次),获取影像数据。
启动智能眼镜上视频摄录模组进行视频摄录以获取影像数据。实时对佩戴者视野内的视频流信息进行检测,检测内容包括检测提取包括人像、体貌特征等等用于协助判断被识别者身份的关键特征信息;由于佩戴在第一视角,整个***无需进行直接的近距离活体检测,全力集中在对识别目标身份特征提取和判定上。
S202,对所述影像数据进行逐帧解析,并对每一个帧的图像信息进行检测,并在每个包括有人像信息的图像帧内,标定每一个人像的坐标信息,包括人像的位置和大小。
S203,根据所述坐标信息,截取每一个图像帧内的人像,并保存所述人像与其所属的图像帧的对应关系,用于后续业务逻辑的使用。
S204,对截取的人像进行人像特征信息提取。
使用眼镜端的图像处理芯片,对于每一个截取的已标定的人像信息进行人像基于机器视觉和laffle框架的人像特征信息提取,包括哈希值信息,及人像清晰度信息、yaw值、pitch值、roll值等。
S205,根据不同业务逻辑的要求,对提取的所述人像特征值进行筛选,保留符合指定要求的人像特征值,将其存储至智能眼镜端建立的临时数据栈内。例如根据不同业务逻辑的要求,对获取人像信息做第一次初步筛选,将清晰度过低,yaw、pitch、roll值超出有效人像比对要求的图像信息过滤掉。
S206,将智能眼镜端临时数据栈内人像特征值进行两两比对,判断两者的相似度是否超过指定阈值。若是,则执行S207;若否,则执行S208。
S207,选择两者中更优的人像特征值进行保留。即,当判断相似度超过指定阈值,则认为这两张图片同一个人,进一步地,若此时,新的人像特征值比旧的人像特征值要更优,则去除旧的人像特征值,保留新的人像特征值,反之,则去除新的人像特征值。以选取人像角度最正、图像运动模糊及噪点最低的一张图像。
其中,根据用户需要在所述S207之后,可以选择执行S208,S209,S210,其中任一步骤。
S208,将择优去重处理之后的人像特征与在智能眼镜端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别。
S209,将择优去重处理之后的人像特征传输至与智能眼镜端有线\无线连接的终端;并将择优去重处理之后的人像特征与在终端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别。
S210,将择优去重处理之后的人像特征传输至与服务器端;将择优去重处理之后的人像特征与在服务器端的后台数据库后台数据库中存储的目标人像特征进行比对,以进行目标人像识别。具体地将回传的人像特征值及相关数据形成的数据信息矩阵与后台大数据库中的数据进行全量特征信息的比对。具体地,将以上数据,通过无线数据传输,跟后台大数据库的全量特征信息,进行比对,通过1比N接口获取比对结果。
S211,将识别结果在眼镜端和\或与眼镜端有线\无线连接的其他终端进行展示。包括:请求实时回显:***将比对结果信息,通过AR技术展示在识别请求者的眼前或者通过音频播放相关结果。定向广播回显:***将评估被识别者的危险等级、交通工具、行动方向信息,将识别结果,基于时间、地理位置信息,向相关位置区域、岗位角色的佩戴者同步信息,通过AR展示在眼前通过音频播放。
其中,S201中的人像、体貌特征检测,其作为主要识别手段,进一步的还可以包括其他辅助识别手段,包括但不限于:检测并提取车牌、护照、证件等能够辅助判断被识别者身份信息的数据参数;以及识别步态、情绪、声纹等图像音频信息用于辅助佩戴者决策的次要信息。
其中,对于证件类信息检测,举例说明如下:采用OCR技术,对采集的视频流做逐帧的证件信息检测,短时间内(例如2分钟之内)相同结果的证件类信息(例如车牌xxxxxxx),只回传一次,连同采集该图像的时间、地理位置、采集者等信息组合,形成一个信息矩阵,全部传输到终端用于信息比对。其中,还可以通过语音识别等方式录入被识别目标更详细的信息,识别车牌车辆轮胎磨损情况,车辆破损情况、识别证件破损情况等其他信息。
其中,对于步态、情绪、声纹等生物特征信息检测,举例说明如下:
步态、情绪特征提取需要摄录视频信息提取持续的一段行动视频/表***,声纹提取需要获取连续的一段语音信息。以上信息连同采集的时间、地理位置、采集者等信息组合,形成一个信息矩阵,全部传输到终端用于信息比对。其中,还可以通过语音识别等方式录入被识别目标更详细的信息,包括目标同行者、移动方位、交通设备等其他信息。
实施例三
本申请还提供一种识别***,基于上述实施例一和实施例二中的识别方法,该识别***应用于具有AI边缘计算功能的AR智能眼镜,包括:
人像检测模块301,用于对佩戴者视野内的视频流信息进行实时快速多次检测(例如一秒钟采集5到10次),以获取人像信息;其中,所述人像检测模块,包括:
影像获取子模块,用于对佩戴者视野内的视频流信息进行实时快速多次检测,以获取影像数据;
标定子模块,用于对所述影像数据进行逐帧解析,并对每一个帧的图像信息进行检测,并在每个包括有人像信息的图像帧内,标定每一个人像的坐标信息;
人像截取子模块,根据所述坐标信息,截取每一个图像帧内的人像,并保存所述人像与其所属的图像帧的对应关系。
特征提取模块302,用于对获取的人像信息进行人像特征提取;包括:
特征提取子模块,用于对截取的人像进行人像特征信息提取;
筛选子模块,根据不同业务逻辑的要求,对提取的所述人像特征值进行筛选,保留符合指定要求的人像特征值。
择优去重模块303,用于将提取的特征与智能眼镜端临时存储的此前指定时间内的人像特征进行比对,并进行择优去重处理。其中,所述择优去重模块,具体用于:将符合指定要求的人像特征值与在智能眼镜端建立的数据栈内保存的指定时间内的人像特征值信息进行比对;若比对后的相似度超过指定阈值,则选择两者中更优的人像特征值进行保留。
第一比对模块304,用于将择优去重处理之后的人像特征与在智能眼镜端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别。
第一传输模块305,用于将择优去重处理之后的人像特征传输至与智能眼镜端有线\无线连接的终端。
第二比对模块306,用于将择优去重处理之后的人像特征与在终端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别。
第二传输模块,用于将择优去重处理之后的人像特征传输至服务器端。
第三比对模块,用于将择优去重处理之后的人像特征与在服务器端的后台数据库中存储的目标人像特征进行比对,以进行目标人像识别。
展示模块307,用于将识别结果在眼镜端和\或与眼镜端有线\无线连接的其他终端进行展示。
综上所述,本申请提供一种人像识别方法及***,通过择优去重处理之后再将数据进行回传,可以减少数据库中数据的重复冗余,以提高人像识别效率。且在进行特征提取时,仅保留符合指定要求的人像特征值。同样有利于减少数据库中数据的重复冗余,以提高人像识别效率。且,本申请的上述识别方法应用于基于具有AI边缘计算功能的智能眼镜,智能眼镜足够轻巧,适合全天候佩戴,同时解放了现场人员的双手,可以更好的用来操控其他设备,增加了现场行动的安全性。因此可以广泛运用于安防、安保、迎宾、安检等多个场景。
以上所述仅为本发明以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种人像识别方法,应用于具有AI边缘计算功能的AR智能眼镜,其特征在于,包括:
A、对佩戴者视野内的视频流信息进行实时多次检测,以获取人像信息;
B、对所述人像信息进行人像特征提取,并将其存储至智能眼镜端的临时数据栈中;
C、将智能眼镜端的临时数据栈中存储的人像特征进行相似性比对,并进行择优去重处理;
D、将择优去重处理之后的人像特征与在智能眼镜端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别;
E、将识别结果在眼镜端和\或与眼镜端有线\无线连接的其他终端进行展示。
2.根据权利要求1所述的方法,其特征在于,所述步骤D还包括:
M1、将择优去重处理之后的人像特征传输至与智能眼镜端有线\无线连接的终端;
M2、将择优去重处理之后的人像特征与在终端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别。
3.根据权利要求1所述的方法,其特征在于,所述步骤D还包括:
N1、将择优去重处理之后的人像特征传输至服务器端;
N2、将择优去重处理之后的人像特征与在服务器端的后台数据库中存储的目标人像特征进行比对,以进行目标人像识别。
4.根据权利要求1所述的方法,其特征在于,所述步骤A,包括:
A1、实时对佩戴者视野内的视频流信息进行检测,获取影像数据;
A2、对所述影像数据进行逐帧解析,并对每一个帧的图像信息进行检测,并在每个包括有人像信息的图像帧内,标定每一个人像的坐标信息;
A3、根据所述坐标信息,截取每一个图像帧内的人像,并保存所述人像与其所属的图像帧的对应关系。
5.根据权利要求2所述的方法,其特征在于,所述步骤B,包括:
B1、对截取的人像进行人像特征信息提取;
B2、根据不同业务逻辑的要求,对提取的所述人像特征值进行筛选,保留符合指定要求的人像特征值
6.根据权利要求1所述的方法,其特征在于,所述步骤C,包括:
C1、将智能眼镜端的临时数据栈内保存的人像特征值进行两两比对;
C2、若比对后两者的相似度超过指定阈值,则选择两者中更优的人像特征值进行保留。
7.根据权利要求6所述的方法,其特征在于,所述步骤C2中的相似度计算公式为:
Figure FDA0002288127700000021
其中,所述x、y分别表示两特征值;L为由特征值组成的特征向量的数量;i表示第i个特征向量;其中,i、L为正整数。
8.一种人像识别***,基于权利要求1-5任一项所述的识别方法,应用于具有AI边缘计算功能的AR智能眼镜,其特征在于,包括:
人像检测模块,用于对佩戴者视野内的视频流信息进行实时多次检测,以获取人像信息;
特征提取模块,用于对所述人像信息进行人像特征提取,并将其存储至智能眼镜端的临时数据栈中;
择优去重模块,用于将智能眼镜端的临时数据栈中存储的人像特征进行相似性比对,并进行择优去重处理;
识别模块,用于将择优去重处理之后的人像特征与在智能眼镜端的本地数据库中存储的目标人像特征进行比对,以进行目标人像识别;
展示模块,用于将识别结果在眼镜端和\或与眼镜端有线\无线连接的其他终端进行展示。
9.根据权利要求6所述的***,其特征在于,所述人像检测模块,包括:
影像获取子模块,用于实时对佩戴者视野内的视频流信息进行实时多次检测,以获取影像数据;
标定子模块,用于对所述影像数据进行逐帧解析,并对每一个帧的图像信息进行检测,并在每个包括有人像信息的图像帧内,标定每一个人像的坐标信息;
人像截取子模块,根据所述坐标信息,截取每一个图像帧内的人像,并保存所述人像与其所属的图像帧的对应关系。
10.根据权利要求9所述的***,其特征在于,所述择优去重模块,具体用于:
将智能眼镜端的临时数据栈内保存的人像特征值进行两两比对;若比对后两者的相似度超过指定阈值,则选择两者中更优的人像特征值进行保留。
CN201911168642.1A 2019-11-25 2019-11-25 一种人像识别方法及*** Pending CN112836557A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911168642.1A CN112836557A (zh) 2019-11-25 2019-11-25 一种人像识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911168642.1A CN112836557A (zh) 2019-11-25 2019-11-25 一种人像识别方法及***

Publications (1)

Publication Number Publication Date
CN112836557A true CN112836557A (zh) 2021-05-25

Family

ID=75922328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911168642.1A Pending CN112836557A (zh) 2019-11-25 2019-11-25 一种人像识别方法及***

Country Status (1)

Country Link
CN (1) CN112836557A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113790647A (zh) * 2021-08-26 2021-12-14 中北大学 电子***施工信息的边缘计算***及其控制方法
CN115394048A (zh) * 2022-08-29 2022-11-25 歌尔科技有限公司 一种防丢失方法、装置及头戴显示设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021398A (zh) * 2014-06-16 2014-09-03 北京云视智通科技有限公司 一种可穿戴智能设备及辅助身份识别的方法
CN107918771A (zh) * 2017-12-07 2018-04-17 河北工业大学 人物识别方法和佩戴式人物识别***
CN109167912A (zh) * 2018-09-05 2019-01-08 北京图示科技发展有限公司 一种智能眼镜的图像处理方法及装置
CN208433010U (zh) * 2018-01-29 2019-01-25 东莞市芯萌慧显电子科技有限公司 基于人脸识别的警用ar显示***

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104021398A (zh) * 2014-06-16 2014-09-03 北京云视智通科技有限公司 一种可穿戴智能设备及辅助身份识别的方法
CN107918771A (zh) * 2017-12-07 2018-04-17 河北工业大学 人物识别方法和佩戴式人物识别***
CN208433010U (zh) * 2018-01-29 2019-01-25 东莞市芯萌慧显电子科技有限公司 基于人脸识别的警用ar显示***
CN109167912A (zh) * 2018-09-05 2019-01-08 北京图示科技发展有限公司 一种智能眼镜的图像处理方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113790647A (zh) * 2021-08-26 2021-12-14 中北大学 电子***施工信息的边缘计算***及其控制方法
CN113790647B (zh) * 2021-08-26 2023-01-24 中北大学 电子***施工信息的边缘计算***及其控制方法
CN115394048A (zh) * 2022-08-29 2022-11-25 歌尔科技有限公司 一种防丢失方法、装置及头戴显示设备

Similar Documents

Publication Publication Date Title
CN108388888B (zh) 一种车辆识别方法、装置和存储介质
CN103077407B (zh) 车标定位识别方法及***
CN101344922B (zh) 一种人脸检测方法及其装置
CN109145742B (zh) 一种行人识别方法及***
CN112200043A (zh) 面向室外施工现场的危险源智能识别***及方法
KR20190060817A (ko) 이미지 기반의 차량 손상 판정 방법과 장치, 및 전자기기
CN110569808A (zh) 活体检测方法、装置及计算机设备
KR101781358B1 (ko) 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법
CN105678213B (zh) 基于视频特征统计的双模式蒙面人事件自动检测方法
CN104794458A (zh) 一种从模糊视频中识别人员的方法
EP4131061A1 (en) Vehicle loss assessment method, vehicle loss assessment apparatus, and electronic device using same
CN110991231B (zh) 活体检测方法、装置、服务器和人脸识别设备
CN111353338B (zh) 一种基于营业厅视频监控的能效改进方法
CN105022999A (zh) 一种人码伴随实时采集***
KR102043922B1 (ko) Cctv 분할 운영시스템 및 그 운영방법
CN105913014A (zh) 基于身份证芯片照片和视频的身份鉴定方法及***
CN112836557A (zh) 一种人像识别方法及***
CN108540707A (zh) 人脸识别执法仪
CN107516076A (zh) 人像识别方法及装置
CN112307817A (zh) 人脸活体检测方法、装置、计算设备及计算机存储介质
CN111091047B (zh) 活体检测方法、装置、服务器和人脸识别设备
CN110619280B (zh) 一种基于深度联合判别学习的车辆重识别方法及装置
CN114842524A (zh) 一种基于不规则显著性像素簇的人脸鉴伪方法
US8879805B2 (en) Automated image identification method
CN112580531A (zh) 一种真假车牌的识别检测方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination