CN115294515B - 一种基于人工智能的综合防盗管理方法及*** - Google Patents
一种基于人工智能的综合防盗管理方法及*** Download PDFInfo
- Publication number
- CN115294515B CN115294515B CN202210793697.7A CN202210793697A CN115294515B CN 115294515 B CN115294515 B CN 115294515B CN 202210793697 A CN202210793697 A CN 202210793697A CN 115294515 B CN115294515 B CN 115294515B
- Authority
- CN
- China
- Prior art keywords
- image
- determining
- human body
- cell
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19608—Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
- Alarm Systems (AREA)
Abstract
本发明提供一种基于人工智能的综合防盗管理方法及***,其中方法包括:获取进入小区的人员的第一图像;基于第一图像和预设的人像库,确定可疑人员;跟踪获取可疑人员在小区内的第二图像;基于第二图像和预设的神经网络模型,确定盗窃行为并输出报警。本发明的基于人工智能的综合防盗管理方法,智能的对进入小区人员进行可疑人员跟踪,对人员的行为进行分析,进而实现智能发现可疑人员,将盗窃行为终止在社区内,切实保证小区内业主的财产安全。
Description
技术领域
本发明涉及人工智能技术领域,特别涉及一种基于人工智能的综合防盗管理方法及***。
背景技术
目前,随着城市化的推进,现在绝大多数人都居住在小区内;小区的物业负责小区的打扫、安全工作,小区的防盗主要是通过在小区内主要位置布设监控摄像头,通过人工查看监控摄像头拍摄的画面的方式,效率较低,并且不能及时发现盗窃行为,往往是盗窃发生后,通过监控摄像头的画面筛选出可疑人员。
发明内容
本发明目的之一在于提供了一种基于人工智能的综合防盗管理方法,智能的对进入小区人员进行可疑人员跟踪,对人员的行为进行分析,进而实现智能发现可疑人员,将盗窃行为终止在社区内,切实保证小区内业主的财产安全。
本发明实施例提供的一种基于人工智能的综合防盗管理方法,包括:
获取进入小区的人员的第一图像;
基于第一图像和预设的人像库,确定可疑人员;
跟踪获取可疑人员在小区内的第二图像;
基于第二图像和预设的神经网络模型,确定盗窃行为并输出报警。
优选的,获取进入小区的人员的第一图像,包括:
通过设置在小区出入口旁的第一图像采集设备获取进入小区的人员的第一图像。
优选的,基于第一图像和预设的人像库,确定可疑人员,包括:
对第一图像进行人体轮廓提取;
当提取的人体轮廓数量为一时,将人体轮廓对应的图像与人像库中各个人像进行匹配,确定人体轮廓对应的人员是否为可疑人员;
当提取的人体轮廓数量大于一时,确定各个人体轮廓之间的相对位置以及是否存在重叠区域;
基于预设的第一特征提取模板对相对位置和重叠区域进行特征提取,获取多个特征值;
基于特征值,构建人体轮廓之间的关系描述向量;
获取预设的关系判断库;
基于关系判断库和关系描述向量,确定人体轮廓之间的关系;
基于人体轮廓之间的关系,将提取的人体轮廓进行分组,获取多个分组;
按预设的提取规则提取各个分组的任一人体轮廓,将人体轮廓对应的图像与人像库中各个人像进行匹配,确定人体轮廓对应的人员是否为可疑人员,当同一分组中存在任一人体轮廓对应的人员不为可疑人员时,同一分组的其他人员也不为可疑人员;
其中,人像库通过如下构建:
获取小区内各个业主的第三图像;
对第三图像进行人像提取;
和/或,
获取出入小区的历史记录;
解析历史记录,确定在预设的时间段内的出入小区的次数达到预设的次数阈值的各个人员的第四图像;
对第四图像进行人像提取。
优选的,跟踪获取可疑人员在小区内的第二图像,包括:
构建小区的监控设施的虚拟地图;
获取可疑人员的位置、移动方向和移动速度;
基于可疑人员的位置,将可疑人员映射至虚拟地图;
基于移动方向、移动速度和虚拟地图,确定用于跟踪拍摄的设置在小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间;
通过第二图像采集设备获取可疑人员的第二图像;
其中,基于移动方向、移动速度和虚拟地图,确定用于跟踪拍摄的设置在小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间,包括:
基于移动方向和虚拟地图中可疑人员的位置,确定第一方向向量;
基于虚拟地图中可疑人员的位置与各个第二图像采集设备的设置位置,确定多个第二方向向量;
分别计算各个第二方向向量与第一方向向量的夹角;
提取夹角小于预设的阈值的第二方向向量对应的第二图像采集设备;
确定提取的各个第二图像采集设备与可疑人员的位置之间的距离;
将距离最小的第二图像采集设备作为用于跟踪拍摄第二图像采集设备。
优选的,基于第二图像和预设的神经网络模型,确定盗窃行为并输出报警,包括:
基于预设的第二特征提取模板对第二图像进行特征提取,获取多个行为特征值;
将多个行为特征值输入神经网络模型中,确定行为分析结果;
当行为分析结果为盗窃行为时输出报警。
本发明还提供一种基于人工智能的综合防盗管理***,包括:
第一获取模块,用于获取进入小区的人员的第一图像;
第一确定模块,用于基于第一图像和预设的人像库,确定可疑人员;
第二获取模块,用于跟踪获取可疑人员在小区内的第二图像;
第二确定模块,用于基于第二图像和预设的神经网络模型,确定盗窃行为并输出报警。
优选的,第一获取模块获取进入小区的人员的第一图像,执行如下操作:
通过设置在小区出入口旁的第一图像采集设备获取进入小区的人员的第一图像。
优选的,第一确定模块基于第一图像和预设的人像库,确定可疑人员,执行如下操作:
对第一图像进行人体轮廓提取;
当提取的人体轮廓数量为一时,将人体轮廓对应的图像与人像库中各个人像进行匹配,确定人体轮廓对应的人员是否为可疑人员;
当提取的人体轮廓数量大于一时,确定各个人体轮廓之间的相对位置以及是否存在重叠区域;
基于预设的第一特征提取模板对相对位置和重叠区域进行特征提取,获取多个特征值;
基于特征值,构建人体轮廓之间的关系描述向量;
获取预设的关系判断库;
基于关系判断库和关系描述向量,确定人体轮廓之间的关系;
基于人体轮廓之间的关系,将提取的人体轮廓进行分组,获取多个分组;
按预设的提取规则提取各个分组的任一人体轮廓,将人体轮廓对应的图像与人像库中各个人像进行匹配,确定人体轮廓对应的人员是否为可疑人员,当同一分组中存在任一人体轮廓对应的人员不为可疑人员时,同一分组的其他人员也不为可疑人员;
其中,人像库通过如下构建:
获取小区内各个业主的第三图像;
对第三图像进行人像提取;
和/或,
获取出入小区的历史记录;
解析历史记录,确定在预设的时间段内的出入小区的次数达到预设的次数阈值的各个人员的第四图像;
对第四图像进行人像提取。
优选的,第二获取模块跟踪获取可疑人员在小区内的第二图像,执行如下操作:
构建小区的监控设施的虚拟地图;
获取可疑人员的位置、移动方向和移动速度;
基于可疑人员的位置,将可疑人员映射至虚拟地图;
基于移动方向、移动速度和虚拟地图,确定用于跟踪拍摄的设置在小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间;
通过第二图像采集设备获取可疑人员的第二图像;
其中,基于移动方向、移动速度和虚拟地图,确定用于跟踪拍摄的设置在小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间,包括:
基于移动方向和虚拟地图中可疑人员的位置,确定第一方向向量;
基于虚拟地图中可疑人员的位置与各个第二图像采集设备的设置位置,确定多个第二方向向量;
分别计算各个第二方向向量与第一方向向量的夹角;
提取夹角小于预设的阈值的第二方向向量对应的第二图像采集设备;
确定提取的各个第二图像采集设备与可疑人员的位置之间的距离;
将距离最小的第二图像采集设备作为用于跟踪拍摄第二图像采集设备。
优选的,第二确定模块基于第二图像和预设的神经网络模型,确定盗窃行为并输出报警,执行如下操作:
基于预设的第二特征提取模板对第二图像进行特征提取,获取多个行为特征值;
将多个行为特征值输入神经网络模型中,确定行为分析结果;
当行为分析结果为盗窃行为时输出报警。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种基于人工智能的综合防盗管理方法的示意图;
图2为本发明实施例中一种基于人工智能的综合防盗管理***的示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提供了一种基于人工智能的综合防盗管理方法,如图1所示,包括:
步骤S1:获取进入小区的人员的第一图像;
步骤S2:基于第一图像和预设的人像库,确定可疑人员;
步骤S3:跟踪获取可疑人员在小区内的第二图像;
步骤S4:基于第二图像和预设的神经网络模型,确定盗窃行为并输出报警。
上述技术方案的工作原理及有益效果为:
在人员进入小区的时候通过设备采集第一图像,通过人像库,确定是否为人像库中的人像对应得人员,以此确定是否为可疑人员;对确定的可疑人员进行追逐拍摄,将拍摄的第二图像输出预设的神经网络模型,采用智能判断可疑人员的行为是否为盗窃行为并输出报警至小区门口的小区工作人员,实现将盗窃行为终止在小区内,提高了小区的居民的财产的安全性,其中,神经网络模型是基于大量的盗窃事件中盗窃人员的行为的图像进行训练收敛的人工智能网络模型。
本发明的基于人工智能的综合防盗管理方法,智能的对进入小区人员进行可疑人员跟踪,对人员的行为进行分析,进而实现智能发现可疑人员,将盗窃行为终止在社区内,切实保证小区内业主的财产安全。
在一个实施例中,获取进入小区的人员的第一图像,包括:
通过设置在小区出入口旁的第一图像采集设备获取进入小区的人员的第一图像。
上述技术方案的工作原理及有益效果为:
第一图像采集设备包括:设置在小区门口的高位摄像头等拍摄设备;通过第一图像采集设备,保证拍摄到每个进入小区的人员的第一图像。
在一个实施例中,基于第一图像和预设的人像库,确定可疑人员,包括:
对第一图像进行人体轮廓提取;
当提取的人体轮廓数量为一时,将人体轮廓对应的图像与人像库中各个人像进行匹配,确定人体轮廓对应的人员是否为可疑人员;即同一时间只有一个人员进入小区;只需对人员进行可疑人员验证;
当提取的人体轮廓数量大于一时,确定各个人体轮廓之间的相对位置以及是否存在重叠区域;即同一时间有多个人员进入小区,首先要对人员之间的关系进行判断;例如:老人牵着小孩的手进入小区,这样两个人体轮廓会发生重叠,以及情侣、夫妻等;此外,关系较近的人员走路之间的距离都会较陌生人员要近;因此通过相对位置和人体轮廓之间是否重叠可以有效判断进入的人员是否相识;
基于预设的第一特征提取模板对相对位置和重叠区域进行特征提取,获取多个特征值; 特征值包括:表示相对位置的距离值、重叠区域位于人体轮廓的位置、重叠区域的面积等;
基于特征值,构建人体轮廓之间的关系描述向量;将特征值进行有序排列即可得到关系描述向量;
获取预设的关系判断库;关系判断库中关系描述向量与人体轮廓之间的关系一一对应关联;
基于关系判断库和关系描述向量,确定人体轮廓之间的关系;之间将构建的关系描述向量与关系判断库中的关系描述向量匹配,当匹配符合时,获取关系判断库中的关系描述向量对应关联的关系;
基于人体轮廓之间的关系,将提取的人体轮廓进行分组,获取多个分组;相识的人员的人体轮廓分为一组;
按预设的提取规则(依次提取或随机提取)提取各个分组的任一人体轮廓,将人体轮廓对应的图像与人像库中各个人像进行匹配(例如:通过计算人体轮廓对应的图像与各个人像之间的相似度,当相似度大于预设的阈值时,确定两者匹配),确定人体轮廓对应的人员是否为可疑人员,当同一分组中存在任一人体轮廓对应的人员不为可疑人员时,同一分组的其他人员也不为可疑人员;因此同一分组的人体轮廓无需都与人像库中的人像匹配,只要在提取匹配的过程中发现有一个人体轮廓与人像库中的人像匹配,即可结束该组的可疑人员的判断,该组都不是可疑人员;此外,盗窃一般不会超过3人,因此当同一分组的人数大于3人时,可以排除是可疑人员;
其中,人像库通过如下构建:
获取小区内各个业主的第三图像;通过对小区内的业主进行登记,来完善人像库;
对第三图像进行人像提取;即对第三图像进行人体轮廓提取;
和/或,
获取出入小区的历史记录;历史记录为第一图像采集设备采集的第一图像;
解析历史记录,确定在预设的时间段(例如:1天内)内的出入小区的次数达到预设的次数阈值(例如:两次)的各个人员的第四图像;
对第四图像进行人像提取。
在一个实施例中,跟踪获取可疑人员在小区内的第二图像,包括:
构建小区的监控设施的虚拟地图;虚拟地图为小区的平面图,平面图标注有各个监控设施(第二图像采集设备)的位置;
获取可疑人员的位置、移动方向和移动速度;对于正常行走的人员来说,可以通过相隔N帧的两帧第一图像进行图像识别分析,确定可疑人员的移动方向和移动速度;通过前一帧和后一帧的可疑人员移动的距离,除以两帧之间的时间差,确定移动速度;移动方向为从前一帧的位置出发指向后一帧的位置;以高位摄像头为例,已知高位摄像头的安装位置,通过对第一图像进行图像识别,确定可疑人员的相对于高位摄像头的位置,进而确定可疑人员的位置;
基于可疑人员的位置,将可疑人员映射至虚拟地图;虚拟地图上的位置与现实小区内的现实位置一一对应;
基于移动方向、移动速度和虚拟地图,确定用于跟踪拍摄的设置在小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间;
通过第二图像采集设备获取可疑人员的第二图像;
其中,基于移动方向、移动速度和虚拟地图,确定用于跟踪拍摄的设置在小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间,包括:
基于移动方向和虚拟地图中可疑人员的位置,确定第一方向向量;第一方向向量为虚拟地图中可疑人员的位置的方向与移动方向一致的单位向量;
基于虚拟地图中可疑人员的位置与各个第二图像采集设备的设置位置,确定多个第二方向向量;第二方向向量为从虚拟地图中可疑人员的位置出发指向第二图像采集设备的设置位置;
提取夹角小于预设的阈值(例如:5度)的第二方向向量对应的第二图像采集设备;
确定提取的各个第二图像采集设备与可疑人员的位置之间的距离;
将距离最小的第二图像采集设备作为用于跟踪拍摄第二图像采集设备;
基于距离最小的距离的值和移动速度,确定拍摄开始时间;拍摄开始时间为距离的值除以移动速度。
在一个实施例中,基于第二图像和预设的神经网络模型,确定盗窃行为并输出报警,包括:
基于预设的第二特征提取模板对第二图像进行特征提取,获取多个行为特征值;行为特征值包括:手部是否拿有物品、是否背包、是否低头行走、行走速度、是否拍摄到脸部、是否进入居民楼、进入居民楼后再次出现之间的时间差等;
将多个行为特征值输入神经网络模型中,确定行为分析结果;
当行为分析结果为盗窃行为时输出报警。
通过神经网络模型对第二图像中的可疑人员的行为进行分析,确定是否为盗窃,实现了盗窃行为的智能分析,相较于人工监控更稳定。
在一个实施例中,基于人工智能的综合防盗管理方法,还包括:
接收小区业主安装的第三图像采集设备的接入申请;
获取第三图像采集设备的设置位置;
将第三图像采集设备添加进虚拟地图。
上述技术方案的工作原理及有益效果为:
通过将小区业主安装在家门口的第三图像采集设备接入小区的管理***内,将跟踪可疑人员延伸至小区业主,将防盗延伸到各个业主家,进一步保证了业主的财产安全。
为进一步保证业主的财产安全,在一个实施例中,为每个第三图像采集设备构建白名单,白名单中人员为对应的业主输入;当第三图像采集模块拍摄到白名单中人员之外的人员在业主的房子没人的情况下进入房子时,发出报警。
本发明还提供一种基于人工智能的综合防盗管理***,如图2所示,包括:
第一获取模块1,用于获取进入小区的人员的第一图像;
第一确定模块2,用于基于第一图像和预设的人像库,确定可疑人员;
第二获取模块3,用于跟踪获取可疑人员在小区内的第二图像;
第二确定模块4,用于基于第二图像和预设的神经网络模型,确定盗窃行为并输出报警。
在一个实施例中,第一获取模块1获取进入小区的人员的第一图像,执行如下操作:
通过设置在小区出入口旁的第一图像采集设备获取进入小区的人员的第一图像。
在一个实施例中,第一确定模块2基于第一图像和预设的人像库,确定可疑人员,执行如下操作:
对第一图像进行人体轮廓提取;
当提取的人体轮廓数量为一时,将人体轮廓对应的图像与人像库中各个人像进行匹配,确定人体轮廓对应的人员是否为可疑人员;
当提取的人体轮廓数量大于一时,确定各个人体轮廓之间的相对位置以及是否存在重叠区域;
基于预设的第一特征提取模板对相对位置和重叠区域进行特征提取,获取多个特征值;
基于特征值,构建人体轮廓之间的关系描述向量;
获取预设的关系判断库;
基于关系判断库和关系描述向量,确定人体轮廓之间的关系;
基于人体轮廓之间的关系,将提取的人体轮廓进行分组,获取多个分组;
按预设的提取规则提取各个分组的任一人体轮廓,将人体轮廓对应的图像与人像库中各个人像进行匹配,确定人体轮廓对应的人员是否为可疑人员,当同一分组中存在任一人体轮廓对应的人员不为可疑人员时,同一分组的其他人员也不为可疑人员;
其中,人像库通过如下构建:
获取小区内各个业主的第三图像;
对第三图像进行人像提取;
和/或,
获取出入小区的历史记录;
解析历史记录,确定在预设的时间段内的出入小区的次数达到预设的次数阈值的各个人员的第四图像;
对第四图像进行人像提取。
在一个实施例中,第二获取模块3跟踪获取可疑人员在小区内的第二图像,执行如下操作:
构建小区的监控设施的虚拟地图;
获取可疑人员的位置、移动方向和移动速度;
基于可疑人员的位置,将可疑人员映射至虚拟地图;
基于移动方向、移动速度和虚拟地图,确定用于跟踪拍摄的设置在小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间;
通过第二图像采集设备获取可疑人员的第二图像;
其中,基于移动方向、移动速度和虚拟地图,确定用于跟踪拍摄的设置在小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间,包括:
基于移动方向和虚拟地图中可疑人员的位置,确定第一方向向量;
基于虚拟地图中可疑人员的位置与各个第二图像采集设备的设置位置,确定多个第二方向向量;
分别计算各个第二方向向量与第一方向向量的夹角;
提取夹角小于预设的阈值的第二方向向量对应的第二图像采集设备;
确定提取的各个第二图像采集设备与可疑人员的位置之间的距离;
将距离最小的第二图像采集设备作为用于跟踪拍摄第二图像采集设备。
在一个实施例中,第二确定模块4基于第二图像和预设的神经网络模型,确定盗窃行为并输出报警,执行如下操作:
基于预设的第二特征提取模板对第二图像进行特征提取,获取多个行为特征值;
将多个行为特征值输入神经网络模型中,确定行为分析结果;
当行为分析结果为盗窃行为时输出报警。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种基于人工智能的综合防盗管理方法,其特征在于,包括:
获取进入小区的人员的第一图像;
基于所述第一图像和预设的人像库,确定可疑人员;
跟踪获取所述可疑人员在小区内的第二图像;
基于所述第二图像和预设的神经网络模型,确定盗窃行为并输出报警;
其中,所述基于所述第一图像和预设的人像库,确定可疑人员,包括:
对所述第一图像进行人体轮廓提取;
当提取的人体轮廓数量为一时,将所述人体轮廓对应的图像与所述人像库中各个人像进行匹配,确定所述人体轮廓对应的人员是否为所述可疑人员;
当提取的人体轮廓数量大于一时,确定各个人体轮廓之间的相对位置以及是否存在重叠区域;
基于预设的第一特征提取模板对所述相对位置和所述重叠区域进行特征提取,获取多个特征值;
基于所述特征值,构建所述人体轮廓之间的关系描述向量;
获取预设的关系判断库;
基于所述关系判断库和所述关系描述向量,确定所述人体轮廓之间的关系;
基于所述人体轮廓之间的关系,将提取的人体轮廓进行分组,获取多个分组;
按预设的提取规则提取各个分组的任一所述人体轮廓,将所述人体轮廓对应的图像与所述人像库中各个人像进行匹配,确定所述人体轮廓对应的人员是否为所述可疑人员,当同一分组中存在任一所述人体轮廓对应的人员不为可疑人员时,同一分组的其他人员也不为可疑人员;
其中,所述跟踪获取所述可疑人员在小区内的第二图像,包括:
构建小区的监控设施的虚拟地图;
获取所述可疑人员的位置、移动方向和移动速度;
基于所述可疑人员的位置,将所述可疑人员映射至所述虚拟地图;
基于所述移动方向、移动速度和所述虚拟地图,确定用于跟踪拍摄的设置在所述小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间;
通过所述第二图像采集设备获取所述可疑人员的第二图像;
其中,基于所述移动方向、移动速度和所述虚拟地图,确定用于跟踪拍摄的设置在所述小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间,包括:
基于所述移动方向和所述虚拟地图中所述可疑人员的位置,确定第一方向向量;
基于所述虚拟地图中所述可疑人员的位置与各个所述第二图像采集设备的设置位置,确定多个第二方向向量;
分别计算各个所述第二方向向量与所述第一方向向量的夹角;
提取所述夹角小于预设的阈值的所述第二方向向量对应的所述第二图像采集设备;
确定提取的各个所述第二图像采集设备与所述可疑人员的位置之间的距离;
将距离最小的所述第二图像采集设备作为用于跟踪拍摄所述第二图像采集设备;
基于距离最小的距离的值和移动速度,确定拍摄开始时间。
2.如权利要求1所述的基于人工智能的综合防盗管理方法,其特征在于,所述获取进入小区的人员的第一图像,包括:
通过设置在小区出入口旁的第一图像采集设备获取进入小区的人员的所述第一图像。
3.如权利要求1所述的基于人工智能的综合防盗管理方法,其特征在于, 所述人像库通过如下构建:
获取小区内各个业主的第三图像;
对所述第三图像进行人像提取;
和/或,
获取出入小区的历史记录;
解析所述历史记录,确定在预设的时间段内的出入小区的次数达到预设的次数阈值的各个人员的第四图像;
对所述第四图像进行人像提取。
4.如权利要求1所述的基于人工智能的综合防盗管理方法,其特征在于,所述基于所述第二图像和预设的神经网络模型,确定盗窃行为并输出报警,包括:
基于预设的第二特征提取模板对所述第二图像进行特征提取,获取多个行为特征值;
将多个所述行为特征值输入所述神经网络模型中,确定行为分析结果;
当所述行为分析结果为盗窃行为时输出报警。
5.一种基于人工智能的综合防盗管理***,其特征在于,包括:
第一获取模块,用于获取进入小区的人员的第一图像;
第一确定模块,用于基于所述第一图像和预设的人像库,确定可疑人员;
第二获取模块,用于跟踪获取所述可疑人员在小区内的第二图像;
第二确定模块,用于基于所述第二图像和预设的神经网络模型,确定盗窃行为并输出报警;
其中,所述第一确定模块基于所述第一图像和预设的人像库,确定可疑人员,执行如下操作:
对所述第一图像进行人体轮廓提取;
当提取的人体轮廓数量为一时,将所述人体轮廓对应的图像与所述人像库中各个人像进行匹配,确定所述人体轮廓对应的人员是否为所述可疑人员;
当提取的人体轮廓数量大于一时,确定各个人体轮廓之间的相对位置以及是否存在重叠区域;
基于预设的第一特征提取模板对所述相对位置和所述重叠区域进行特征提取,获取多个特征值;
基于所述特征值,构建所述人体轮廓之间的关系描述向量;
获取预设的关系判断库;
基于所述关系判断库和所述关系描述向量,确定所述人体轮廓之间的关系;
基于所述人体轮廓之间的关系,将提取的人体轮廓进行分组,获取多个分组;
按预设的提取规则提取各个分组的任一所述人体轮廓,将所述人体轮廓对应的图像与所述人像库中各个人像进行匹配,确定所述人体轮廓对应的人员是否为所述可疑人员,当同一分组中存在任一所述人体轮廓对应的人员不为可疑人员时,同一分组的其他人员也不为可疑人员;
所述第二获取模块跟踪获取所述可疑人员在小区内的第二图像,执行如下操作:
构建小区的监控设施的虚拟地图;
获取所述可疑人员的位置、移动方向和移动速度;
基于所述可疑人员的位置,将所述可疑人员映射至所述虚拟地图;
基于所述移动方向、移动速度和所述虚拟地图,确定用于跟踪拍摄的设置在所述小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间;
通过所述第二图像采集设备获取所述可疑人员的第二图像;
其中,基于所述移动方向、移动速度和所述虚拟地图,确定用于跟踪拍摄的设置在所述小区内的第二图像采集设备以及对应的用于确定第二图像的拍摄开始时间,包括:
基于所述移动方向和所述虚拟地图中所述可疑人员的位置,确定第一方向向量;
基于所述虚拟地图中所述可疑人员的位置与各个所述第二图像采集设备的设置位置,确定多个第二方向向量;
分别计算各个所述第二方向向量与所述第一方向向量的夹角;
提取所述夹角小于预设的阈值的所述第二方向向量对应的所述第二图像采集设备;
确定提取的各个所述第二图像采集设备与所述可疑人员的位置之间的距离;
将距离最小的所述第二图像采集设备作为用于跟踪拍摄所述第二图像采集设备;
基于距离最小的距离的值和移动速度,确定拍摄开始时间。
6.如权利要求5所述的基于人工智能的综合防盗管理***,其特征在于,所述第一获取模块获取进入小区的人员的第一图像,执行如下操作:
通过设置在小区出入口旁的第一图像采集设备获取进入小区的人员的所述第一图像。
7.如权利要求5所述的基于人工智能的综合防盗管理***,其特征在于, 所述人像库通过如下构建:
获取小区内各个业主的第三图像;
对所述第三图像进行人像提取;
和/或,
获取出入小区的历史记录;
解析所述历史记录,确定在预设的时间段内的出入小区的次数达到预设的次数阈值的各个人员的第四图像;
对所述第四图像进行人像提取。
8.如权利要求5所述的基于人工智能的综合防盗管理***,其特征在于,所述第二确定模块基于所述第二图像和预设的神经网络模型,确定盗窃行为并输出报警,执行如下操作:
基于预设的第二特征提取模板对所述第二图像进行特征提取,获取多个行为特征值;
将多个所述行为特征值输入所述神经网络模型中,确定行为分析结果;
当所述行为分析结果为盗窃行为时输出报警。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210793697.7A CN115294515B (zh) | 2022-07-05 | 2022-07-05 | 一种基于人工智能的综合防盗管理方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210793697.7A CN115294515B (zh) | 2022-07-05 | 2022-07-05 | 一种基于人工智能的综合防盗管理方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115294515A CN115294515A (zh) | 2022-11-04 |
CN115294515B true CN115294515B (zh) | 2023-06-13 |
Family
ID=83821865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210793697.7A Active CN115294515B (zh) | 2022-07-05 | 2022-07-05 | 一种基于人工智能的综合防盗管理方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115294515B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3252714A1 (en) * | 2016-06-03 | 2017-12-06 | Univrses AB | Camera selection in positional tracking |
CN108009466A (zh) * | 2016-10-28 | 2018-05-08 | 北京旷视科技有限公司 | 行人检测方法和装置 |
CN109473168A (zh) * | 2018-10-09 | 2019-03-15 | 五邑大学 | 一种医学影像机器人及其控制、医学影像识别方法 |
WO2021213141A1 (zh) * | 2020-04-20 | 2021-10-28 | 华为技术有限公司 | 数据处理方法、装置及设备 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107592498B (zh) * | 2017-08-28 | 2020-03-10 | 深圳市盛路物联通讯技术有限公司 | 一种基于智能摄像头的小区管理方法及相关设备 |
CN109614875B (zh) * | 2018-11-16 | 2022-11-08 | 合肥未来计算机技术开发有限公司 | 一种基于运动规则的智能安防报警*** |
CN110674761B (zh) * | 2019-09-27 | 2022-07-15 | 三星电子(中国)研发中心 | 一种区域行为预警方法及*** |
CN111860118A (zh) * | 2020-06-03 | 2020-10-30 | 安徽碧耕软件有限公司 | 一种基于人工智能的人体行为分析方法 |
-
2022
- 2022-07-05 CN CN202210793697.7A patent/CN115294515B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3252714A1 (en) * | 2016-06-03 | 2017-12-06 | Univrses AB | Camera selection in positional tracking |
CN108009466A (zh) * | 2016-10-28 | 2018-05-08 | 北京旷视科技有限公司 | 行人检测方法和装置 |
CN109473168A (zh) * | 2018-10-09 | 2019-03-15 | 五邑大学 | 一种医学影像机器人及其控制、医学影像识别方法 |
WO2021213141A1 (zh) * | 2020-04-20 | 2021-10-28 | 华为技术有限公司 | 数据处理方法、装置及设备 |
Non-Patent Citations (1)
Title |
---|
Robust Suspicious Action Recognition Approach Using Pose Descriptor;Waqas Ahmed等;《Mathematical Problems in Engineering》;第1-12页 * |
Also Published As
Publication number | Publication date |
---|---|
CN115294515A (zh) | 2022-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109819208B (zh) | 一种基于人工智能动态监控的密集人群安防监控管理方法 | |
CN109657592B (zh) | 一种智能挖掘机的人脸识别方法 | |
CN110298278B (zh) | 一种基于人工智能的地下停车库行人车辆监测方法 | |
CN112183265A (zh) | 基于图像识别的电力施工视频监控告警方法及*** | |
CN112233300A (zh) | 一种基于人工智能的社区通行防疫监控联防***及其方法 | |
CN109298785A (zh) | 一种监测设备的人机联控***及方法 | |
CN113516076B (zh) | 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法 | |
CN110674761B (zh) | 一种区域行为预警方法及*** | |
CN112001284A (zh) | 基于人工智能的劳务实名制管理*** | |
CN114067358A (zh) | 一种基于关键点检测技术的人体姿态识别方法及*** | |
CN111383132A (zh) | 一种适用于疫情期的智慧工地管理***及管理方法 | |
CN111079722B (zh) | 一种吊装过程人员安全监测方法及*** | |
CN110728166A (zh) | 一种利用人脸识别确认行踪智能监控集成*** | |
CN113807240A (zh) | 基于非配合式人脸识别的变电站人员着装智能监控方法 | |
CN109754478A (zh) | 一种低用户配合度的人脸智能考勤方法 | |
CN111460985A (zh) | 基于跨摄像头人体匹配的现场工人轨迹统计方法和*** | |
CN115604424A (zh) | 一种物资仓储安防管理*** | |
CN113506416A (zh) | 一种基于智能视觉分析的工程异常预警方法及*** | |
CN114581990A (zh) | 一种跑步智能测试方法以及装置 | |
CN112818854B (zh) | 一种应用于校园安防的全天候视频寻人方法 | |
CN115294515B (zh) | 一种基于人工智能的综合防盗管理方法及*** | |
CN114170644A (zh) | 基于视频结构化的警用行人轻生行为预警方法 | |
CN114677608A (zh) | 身份特征生成方法、设备及存储介质 | |
CN112580778A (zh) | 基于YOLOv5和Pose-estimation的工地工人手机使用检测方法 | |
CN116152745A (zh) | 一种抽烟行为检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |