CN114821635A - 基于深度学习的视图库布控报警方法 - Google Patents
基于深度学习的视图库布控报警方法 Download PDFInfo
- Publication number
- CN114821635A CN114821635A CN202210337181.1A CN202210337181A CN114821635A CN 114821635 A CN114821635 A CN 114821635A CN 202210337181 A CN202210337181 A CN 202210337181A CN 114821635 A CN114821635 A CN 114821635A
- Authority
- CN
- China
- Prior art keywords
- video
- target person
- data
- target
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 239000011159 matrix material Substances 0.000 claims description 21
- 230000001815 facial effect Effects 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 9
- 102000015097 RNA Splicing Factors Human genes 0.000 claims description 6
- 108010039259 RNA Splicing Factors Proteins 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 5
- 238000013136 deep learning model Methods 0.000 claims description 5
- 238000003786 synthesis reaction Methods 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 abstract description 10
- 230000009286 beneficial effect Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013024 troubleshooting Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了基于深度学***台中心反馈相应的通知消息,其以目标人员的历史行踪轨迹为基准,预测目标人员可能出现的地点位置,对同时对海量监测视频进行识别排查,优先确定目标人员最可能出现的地点,提高对目标人员进行追踪的效率和准确性。
Description
技术领域
本发明涉及图像识别处理的技术领域,特别涉及基于深度学习的视图库布控报警方法。
背景技术
目前,对于嫌疑人的追踪定位都是将嫌疑人的人脸图像分发到不同监控人员中,再通过监控人员对监控视频进行逐一的排查对比,确定嫌疑人的出现位置。上述方式需要对海量的监控视频进行人工筛选排查,这不仅需要耗费大量的人力物力,增加视频分析的工作量,并且人工筛选排查不可避免存在错误,降低视频分析的准确性。
发明内容
针对现有技术存在的缺陷,本发明提供基于深度学***台中心反馈相应的通知消息,其以目标人员的历史行踪轨迹为基准,预测目标人员可能出现的地点位置,这样能够对同时对海量监测视频进行识别排查,优先确定目标人员最可能出现的地点,提高对目标人员进行追踪的效率和准确性。
本发明提供基于深度学习的视图库布控报警方法,其包括如下步骤:
步骤S1,收集安装于不同城市区域的安防摄像头采集的视频;根据目标人员在不同城市区域的历史出现情况,将所有视频转换成视频队列,以及将所述视频队列保存到区块链中;
步骤S2,根据目标人员的身体外表特征信息或身体动态特征信息,从所述视频队列中识别得到目标人员在不同城市区域的存在状态;根据所述存在状态,得到目标人员的行踪轨迹;
步骤S3,根据所述行踪轨迹,预测得到目标人员在未来预定时间段内的出现轨迹;根据所述出现轨迹,确定目标人员在未来预定时间段内出现的地点位置;
步骤S4,指示所述地点位置安装的安防摄像头进行定点拍摄,根据定点拍摄的结果,向安防平台中心反馈相应的通知消息。
进一步,在所述步骤S1中,收集安装于不同城市区域的安防摄像头采集的视频具体包括:
收集安装于不同城市区域的安防摄像头采集的视频,并获取所述视频的实际影像亮度值;
将所述实际影像亮度值与预设影像亮度阈值进行比对,若所述实际影像亮度值小于或等于预设影像亮度阈值,则丢弃所述视频;若所述实际影像亮度值大于预设影像亮度阈值,则保留所述视频。
进一步,在所述步骤S2中,根据目标人员在不同城市区域的历史出现情况,将所有视频转换成视频队列,以及将所述视频队列保存到区块链中具体包括:
按照目标人员在不同城市区域的历史出现概率值由高到低的顺序,依次将所有保留的视频排列转换成视频队列,以及将所述视频队列中的每个视频依次保存到区块链的不同区间中。
进一步,在所述步骤S2中,将所述视频队列中的每个视频依次保存到区块链的不同区间中具体包括:
若依次保存每个视频时出现无法将一个完整视频全部保存至区块链的单个区间中时,需要对所述单个完整视频进行分割并将分割后的两个子视频数据添加衔接因子数据然后再分别保存在区块链的不同区间中,其具体过程为:
步骤S201,利用下面公式(1),根据每个视频的数据量判断是否需要进行分割视频的后续操作,
在上述公式(1)中,W表示分割视频控制值;S0表示区块链的单个区间可存储的最大数据量;H(Fa)表示第a个视频的数据量;n表示所述视频队列中的视频个数;Z,-表示非负检验函数,若括号内的数值为非负数则函数值为1,若括号内的数值为负数则函数值为0;
若W=1,表示存在视频需要进行分割储存,则找到要分割的视频继续进行后续步骤;
若W=0,表示存在视频不需要进行分割储存,则不继续进行后续步骤,直接按照视频顺序储存到区块链的区间中;
步骤S202,若需要进行分割视频,则在分割视频后利用下面公式(2)在被分割的两个子视频的分割位置添加衔接因子数据,
在上述公式(2)中,L(i,j)表示被分割的两个子视频的分割位置添加的衔接因子数据中第i行第j列的数值(所述衔接因子数据的数据形式为矩阵形式);k,k+1表示被分割的视频的分割位置为视频的第k帧和第k+1帧中间;Gk(i,j)表示被分割的视频的第k帧图像中第i行第j列像素点的像素值;Gk+1(i,j)表示被分割的视频的第k+1帧图像中第i行第j列像素点的像素值;
将所述衔接因子数据添加在分割后的第一个视频数据的尾部,以及分割后的第二个视频数据的头部,进而形成视频的一个帧数;
步骤S203,若需要从区块链中依次提取出每个视频时,则需要利用下面公式(3),根据相邻顺序的视频数据的前后两帧的图像数据判断是否需要进行视频合成,
在上述公式(3)中,E表示提取视频过程中相邻顺序的视频数据进行视频合成的控制值;m表示所述相邻顺序的视频数据的前一个视频数据的总帧数;P1_m(i,j)表示所述相邻顺序的视频数据的前一个视频数据的第m帧图像矩阵数据中第i行第j列的数值;P2_1(i,j)表示所述相邻顺序的视频数据的后一个视频数据的第1帧图像矩阵数据中第i行第j列的数值;||表示求取绝对值;P1_(m-1)(i,j)表示所述相邻顺序的视频数据的前一个视频数据的第m-1帧图像矩阵数据中第i行第j列的数值;P2_2(i,j)表示所述相邻顺序的视频数据的后一个视频数据的第2帧图像矩阵数据中第i行第j列的数值;I表示视频的一帧图像矩阵数据中每一列的数值个数;J表示视频的一帧图像矩阵数据中每一行的数值个数;
若E=0,表示当前提取视频过程中的两个相邻顺序的视频数据是被分割的数据,需要进行视频合成;
若E≠0,表示当前提取视频过程中的两个相邻顺序的视频数据不是被分割的数据,不需要进行视频合成。
进一步,对目标人员的脸部图像进行识别分析,得到目标人员的脸部五官轮廓特征信息,以此作为所述身体外表特征信息;
对目标人员的背部图像进行识别分析,得到目标人员的背部轮廓特征信息,以此作为所述身体外表特征信息;
对目标人员的行走动态图像进行识别分析,得到目标人员的行走四肢姿态特征信息,以此作为所述身体动态特征信息。
进一步,在所述步骤S2中,根据目标人员的身体外表特征信息或身体动态特征信息,从所述视频队列中识别得到目标人员在不同城市区域的存在状态具体包括:
根据所述脸部五官轮廓特征信息、所述背部轮廓特征信息和所述行走四肢姿态特征信息中的至少一者,从所述视频队列的每个视频中识别得到目标人员在不同城市区域的存在位置地点。
进一步,在所述步骤S2中,根据所述存在状态,得到目标人员的行踪轨迹具体包括:
根据每个视频中目标人员在不同城市区域的存在位置地点以及每个视频的拍摄时间,得到目标人员在所述城市区域范围内在预定时间段内的行踪轨迹。
进一步,在所述步S3中,根据所述行踪轨迹,预测得到目标人员在未来预定时间段内的出现轨迹;根据所述出现轨迹,确定目标人员在未来预定时间段内出现的地点位置具体包括:
从所述行踪轨迹中提取得到目标人员在不同城市区域地点的出现次数信息和出现时间信息,并将所述出现次数信息和所述出现时间信息输入至预设深度学习模型中,从而预测得到目标人员在未来预定时间段内的出现轨迹;
从所述出现轨迹中提取目标人员在未来预定时间段内的出现子轨迹,再从所述出现子轨迹中选定目标人员出现概率超过预设概率阈值的地点,作为目标人员在未来预定时间段内出现的地点位置。
进一步,在所述步骤S4中,指示所述地点位置安装的安防摄像头进行定点拍摄,根据定点拍摄的结果,向安防平台中心反馈相应的通知消息具体包括:
指示所述地点位置安装的安防摄像头进行定点扫描拍摄,得到相应的扫描全景影像;
将所述脸部五官轮廓特征信息、所述背部轮廓特征信息或所述行走四肢姿态特征信息,与所述扫描全景影像进行匹配处理,若相匹配,则向安防平台中心反馈相应的目标人员出现通知消息;其中,所述目标人员出现通知消息包括目标人员当前出现的地点坐标信息。
相比于现有技术,该基于深度学***台中心反馈相应的通知消息,其以目标人员的历史行踪轨迹为基准,预测目标人员可能出现的地点位置,这样能够对同时对海量监测视频进行识别排查,优先确定目标人员最可能出现的地点,提高对目标人员进行追踪的效率和准确性。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的基于深度学习的视图库布控报警方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1,为本发明实施例提供的基于深度学习的视图库布控报警方法的流程示意图。该基于深度学习的视图库布控报警方法包括如下步骤:
步骤S1,收集安装于不同城市区域的安防摄像头采集的视频;根据目标人员在不同城市区域的历史出现情况,将所有视频转换成视频队列,以及将该视频队列保存到区块链中;
步骤S2,根据目标人员的身体外表特征信息或身体动态特征信息,从该视频队列中识别得到目标人员在不同城市区域的存在状态;根据该存在状态,得到目标人员的行踪轨迹;
步骤S3,根据该行踪轨迹,预测得到目标人员在未来预定时间段内的出现轨迹;根据该出现轨迹,确定目标人员在未来预定时间段内出现的地点位置;
步骤S4,指示该地点位置安装的安防摄像头进行定点拍摄,根据定点拍摄的结果,向安防平台中心反馈相应的通知消息。
上述技术方案的有益效果为:该基于深度学***台中心反馈相应的通知消息,其以目标人员的历史行踪轨迹为基准,预测目标人员可能出现的地点位置,这样能够对同时对海量监测视频进行识别排查,优先确定目标人员最可能出现的地点,提高对目标人员进行追踪的效率和准确性。
优选地,在该步骤S1中,收集安装于不同城市区域的安防摄像头采集的视频具体包括:
收集安装于不同城市区域的安防摄像头采集的视频,并获取该视频的实际影像亮度值;
将该实际影像亮度值与预设影像亮度阈值进行比对,若该实际影像亮度值小于或等于预设影像亮度阈值,则丢弃该视频;若该实际影像亮度值大于预设影像亮度阈值,则保留该视频。
上述技术方案的有益效果为:在城市不同区域均会安装安防摄像头,每个安防摄像头会对自身所处的城市区域进行实时摄像,从而得到相应的监控视频。当监控视频的实际影像亮度值小于或等于预设影像亮度值,则表明该监控视频的画面亮度较低,无法从视频画面中清晰地识别出画面存在的物体,此时对该监控视频进行丢弃,避免影响后续对监控视频中存在的目标人员的识别准确性。
优选地,在该步骤S2中,根据目标人员在不同城市区域的历史出现情况,将所有视频转换成视频队列,以及将该视频队列保存到区块链中具体包括:
按照目标人员在不同城市区域的历史出现概率值由高到低的顺序,依次将所有保留的视频排列转换成视频队列,以及将该视频队列中的每个视频依次保存到区块链的不同区间中。
上述技术方案的有益效果为:每个安防摄像头拍摄得到的视频与每个城市区域是一一对应的,按照目标人员在不同城市区域的历史出现概率值高低,可相应地确定每个安防摄像头拍摄得到的视频中出现目标人员的概率高低,以此形成相应的视频队列,这样可保证后续优选对目标人员出现概率较高的视频进行识别分析,提高确定目标人员行踪轨迹的效率。
优选地,在该步骤S2中,将该视频队列中的每个视频依次保存到区块链的不同区间中具体包括:
若依次保存每个视频时出现无法将一个完整视频全部保存至区块链的单个区间中时,需要对该单个完整视频进行分割并将分割后的两个子视频数据添加衔接因子数据然后再分别保存在区块链的不同区间中,其具体过程为:
步骤S201,利用下面公式(1),根据每个视频的数据量判断是否需要进行分割视频的后续操作,
在上述公式(1)中,W表示分割视频控制值;S0表示区块链的单个区间可存储的最大数据量;H(Fa)表示第a个视频的数据量;n表示该视频队列中的视频个数;Z,-表示非负检验函数,若括号内的数值为非负数则函数值为1,若括号内的数值为负数则函数值为0;
若W=1,表示存在视频需要进行分割储存,则找到要分割的视频继续进行后续步骤;
若W=0,表示存在视频不需要进行分割储存,则不继续进行后续步骤,直接按照视频顺序储存到区块链的区间中;
步骤S202,若需要进行分割视频,则在分割视频后利用下面公式(2)在被分割的两个子视频的分割位置添加衔接因子数据,
在上述公式(2)中,L(i,j)表示被分割的两个子视频的分割位置添加的衔接因子数据中第i行第j列的数值(该衔接因子数据的数据形式为矩阵形式);k,k+1表示被分割的视频的分割位置为视频的第k帧和第k+1帧中间;Gk(i,j)表示被分割的视频的第k帧图像中第i行第j列像素点的像素值;Gk+1(i,j)表示被分割的视频的第k+1帧图像中第i行第j列像素点的像素值;
将该衔接因子数据添加在分割后的第一个视频数据的尾部,以及分割后的第二个视频数据的头部,进而形成视频的一个帧数;
步骤S203,若需要从区块链中依次提取出每个视频时,则需要利用下面公式(3),根据相邻顺序的视频数据的前后两帧的图像数据判断是否需要进行视频合成,
在上述公式(3)中,E表示提取视频过程中相邻顺序的视频数据进行视频合成的控制值;m表示该相邻顺序的视频数据的前一个视频数据的总帧数;P1_m(i,j)表示该相邻顺序的视频数据的前一个视频数据的第m帧图像矩阵数据中第i行第j列的数值;P2_1(i,j)表示该相邻顺序的视频数据的后一个视频数据的第1帧图像矩阵数据中第i行第j列的数值;||表示求取绝对值;P1_(m-1)(i,j)表示该相邻顺序的视频数据的前一个视频数据的第m-1帧图像矩阵数据中第i行第j列的数值;P2_2(i,j)表示该相邻顺序的视频数据的后一个视频数据的第2帧图像矩阵数据中第i行第j列的数值;I表示视频的一帧图像矩阵数据中每一列的数值个数;J表示视频的一帧图像矩阵数据中每一行的数值个数;
若E=0,表示当前提取视频过程中的两个相邻顺序的视频数据是被分割的数据,需要进行视频合成;
若E≠0,表示当前提取视频过程中的两个相邻顺序的视频数据不是被分割的数据,不需要进行视频合成。
上述技术方案的有益效果为:利用上述公式(1)根据每个视频的数据量判断是否需要进行分割视频的后续操作,确保视频可以完全储存在区块链的区间中,防止因储存数据时导致溢出丢失数据;然后利用上述公式(2)在被分割的两个子视频的分割位置添加衔接因子数据,进而方便后续对分割的视频进行合成;最后利用上述公式(3)根据相邻顺序的视频数据的前后两帧的图像数据判断是否需要进行视频合成,进而准确可靠的判断出当时分割的视频进行合成,确保提取的视频的准确性。
优选地,在该步骤S2中,还包括:
对目标人员的脸部图像进行识别分析,得到目标人员的脸部五官轮廓特征信息,以此作为该身体外表特征信息;
对目标人员的背部图像进行识别分析,得到目标人员的背部轮廓特征信息,以此作为该身体外表特征信息;
对目标人员的行走动态图像进行识别分析,得到目标人员的行走四肢姿态特征信息,以此作为该身体动态特征信息。
上述技术方案的有益效果为:通过对目标人员的脸部图像、背部图像和行走动然图像进行识别分析,分别得到目标人员的脸部五官轮廓特征信息、背部轮廓特征信息和行走四肢姿态特征信息,这样能够使得在安防摄像头采集的视频中不包含目标人员的正面图片的情况下,也能够对视频进行全面准确的目标人员识别分析,避免发生视频遗漏识别的情况。
优选地,在该步骤S2中,根据目标人员的身体外表特征信息或身体动态特征信息,从该视频队列中识别得到目标人员在不同城市区域的存在状态具体包括:
根据该脸部五官轮廓特征信息、该背部轮廓特征信息和该行走四肢姿态特征信息中的至少一者,从该视频队列的每个视频中识别得到目标人员在不同城市区域的存在位置地点。
上述技术方案的有益效果为:将该脸部五官轮廓特征信息、该背部轮廓特征信息和该行走四肢姿态特征信息中的至少一者作为基准参考信息,对视频队列的每个视频进行识别处理,若视频中存在与上述特征信息向匹配的人员对象,则将该人员对象确定为目标人员,以及进一步确定该人员对象在对应城市区域中的存在位置地点。
优选地,在该步骤S2中,根据该存在状态,得到目标人员的行踪轨迹具体包括:
根据每个视频中目标人员在不同城市区域的存在位置地点以及每个视频的拍摄时间,得到目标人员在该城市区域范围内在预定时间段内的行踪轨迹。
上述技术方案的有益效果为:根据每个视频中目标人员在不同城市区域的存在位置地点以及每个视频的拍摄时间,能够构建目标人员在不同时间和不同城市区域的位置地点出现情况关联关系,再以上述关联关系为基准,对目标人员在不同城市区域的存在位置地点进行拟合,即可模拟得到目标人员在该城市区域范围内在预定时间段内的行踪轨迹,从而提高对目标人员行踪轨迹的拟合准确性。
优选地,在该步S3中,根据该行踪轨迹,预测得到目标人员在未来预定时间段内的出现轨迹;根据该出现轨迹,确定目标人员在未来预定时间段内出现的地点位置具体包括:
从该行踪轨迹中提取得到目标人员在不同城市区域地点的出现次数信息和出现时间信息,并将该出现次数信息和该出现时间信息输入至预设深度学习模型中,从而预测得到目标人员在未来预定时间段内的出现轨迹;
从该出现轨迹中提取目标人员在未来预定时间段内的出现子轨迹,再从该出现子轨迹中选定目标人员出现概率超过预设概率阈值的地点,作为目标人员在未来预定时间段内出现的地点位置。
上述技术方案的有益效果为:将从该行踪轨迹中提取得到目标人员在不同城市区域地点的出现次数信息和出现时间信息输入至预设深度学习模型中,能够对目标人员在城市区域的出现习惯进行分析处理,以合理预测得到目标人员在未来预定时间段内的出现轨迹;其中,该深度学习模型属于本领域的常用神经网络模型,这里不做详细的叙述。此外,该出现轨迹是对目标人员在未来整个预设时间段的行程,可通过截取其中一个子时间段对应的出现子轨迹进行分析处理,这样能够获得任意时间点的出现情况。最后将该出现子轨迹中选定目标人员出现概率超过预设概率阈值的地点,作为目标人员在未来预定时间段内出现的地点位置,能够保证最终确定的地点位置是目标人员出现概率较大的位置,提高后续对目标人员定位的可靠性。
优选地,在该步骤S4中,指示该地点位置安装的安防摄像头进行定点拍摄,根据定点拍摄的结果,向安防平台中心反馈相应的通知消息具体包括:
指示该地点位置安装的安防摄像头进行定点扫描拍摄,得到相应的扫描全景影像;
将该脸部五官轮廓特征信息、该背部轮廓特征信息或该行走四肢姿态特征信息,与该扫描全景影像进行匹配处理,若相匹配,则向安防平台中心反馈相应的目标人员出现通知消息;其中,该目标人员出现通知消息包括目标人员当前出现的地点坐标信息。
上述技术方案的有益效果为:通过指示该地点位置安装的安防摄像头进行定点扫描拍摄,能够为确定目标人员是否出现提供可靠的视频依据。此外当该脸部五官轮廓特征信息、该背部轮廓特征信息或该行走四肢姿态特征信息,与该扫描全景影像相匹配时,向安防平台中心反馈相应的目标人员出现通知消息,可保证及时对目标人员采取强制措施,有效避免目标人员逃脱。
从上述实施例的内容可知,该基于深度学***台中心反馈相应的通知消息,其以目标人员的历史行踪轨迹为基准,预测目标人员可能出现的地点位置,这样能够对同时对海量监测视频进行识别排查,优先确定目标人员最可能出现的地点,提高对目标人员进行追踪的效率和准确性。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (9)
1.基于深度学习的视图库布控报警方法,其特征在于,其包括如下步骤:
步骤S1,收集安装于不同城市区域的安防摄像头采集的视频;根据目标人员在不同城市区域的历史出现情况,将所有视频转换成视频队列,以及将所述视频队列保存到区块链中;
步骤S2,根据目标人员的身体外表特征信息或身体动态特征信息,从所述视频队列中识别得到目标人员在不同城市区域的存在状态;根据所述存在状态,得到目标人员的行踪轨迹;
步骤S3,根据所述行踪轨迹,预测得到目标人员在未来预定时间段内的出现轨迹;根据所述出现轨迹,确定目标人员在未来预定时间段内出现的地点位置;
步骤S4,指示所述地点位置安装的安防摄像头进行定点拍摄,根据定点拍摄的结果,向安防平台中心反馈相应的通知消息。
2.如权利要求1所述的基于深度学习的视图库布控报警方法,其特征在于:在所述步骤S1中,收集安装于不同城市区域的安防摄像头采集的视频具体包括:
收集安装于不同城市区域的安防摄像头采集的视频,并获取所述视频的实际影像亮度值;
将所述实际影像亮度值与预设影像亮度阈值进行比对,若所述实际影像亮度值小于或等于预设影像亮度阈值,则丢弃所述视频;若所述实际影像亮度值大于预设影像亮度阈值,则保留所述视频。
3.如权利要求2所述的基于深度学习的视图库布控报警方法,其特征在于:在所述步骤S2中,根据目标人员在不同城市区域的历史出现情况,将所有视频转换成视频队列,以及将所述视频队列保存到区块链中具体包括:
按照目标人员在不同城市区域的历史出现概率值由高到低的顺序,依次将所有保留的视频排列转换成视频队列,以及将所述视频队列中的每个视频依次保存到区块链的不同区间中。
4.如权利要求3所述的基于深度学习的视图库布控报警方法,其特征在于:在所述步骤S2中,将所述视频队列中的每个视频依次保存到区块链的不同区间中具体包括:
若依次保存每个视频时出现无法将一个完整视频全部保存至区块链的单个区间中时,需要对所述单个完整视频进行分割并将分割后的两个子视频数据添加衔接因子数据然后再分别保存在区块链的不同区间中,其具体过程为:
步骤S201,利用下面公式(1),根据每个视频的数据量判断是否需要进行分割视频的后续操作,
在上述公式(1)中,W表示分割视频控制值;S0表示区块链的单个区间可存储的最大数据量;H(Fa)表示第a个视频的数据量;n表示所述视频队列中的视频个数;Z[]表示非负检验函数,若括号内的数值为非负数则函数值为1,若括号内的数值为负数则函数值为0;
若W=1,表示存在视频需要进行分割储存,则找到要分割的视频继续进行后续步骤;
若W=0,表示存在视频不需要进行分割储存,则不继续进行后续步骤,直接按照视频顺序储存到区块链的区间中;
步骤S202,若需要进行分割视频,则在分割视频后利用下面公式(2)在被分割的两个子视频的分割位置添加衔接因子数据,
在上述公式(2)中,l(i,j)表示被分割的两个子视频的分割位置添加的衔接因子数据中第i行第j列的数值(所述衔接因子数据的数据形式为矩阵形式);k,k+1表示被分割的视频的分割位置为视频的第k帧和第k+1帧中间;Gk(i,j)表示被分割的视频的第k帧图像中第i行第j列像素点的像素值;Gk+1(i,j)表示被分割的视频的第k+1帧图像中第i行第j列像素点的像素值;
将所述衔接因子数据添加在分割后的第一个视频数据的尾部,以及分割后的第二个视频数据的头部,进而形成视频的一个帧数;
步骤S203,若需要从区块链中依次提取出每个视频时,则需要利用下面公式(3),根据相邻顺序的视频数据的前后两帧的图像数据判断是否需要进行视频合成,
在上述公式(3)中,E表示提取视频过程中相邻顺序的视频数据进行视频合成的控制值;m表示所述相邻顺序的视频数据的前一个视频数据的总帧数;P1_m(i,j)表示所述相邻顺序的视频数据的前一个视频数据的第m帧图像矩阵数据中第i行第j列的数值;P2_1(i,j)表示所述相邻顺序的视频数据的后一个视频数据的第1帧图像矩阵数据中第i行第j列的数值;| |表示求取绝对值;P1_(m-1)(i,j)表示所述相邻顺序的视频数据的前一个视频数据的第m-1帧图像矩阵数据中第i行第j列的数值;P2_2(i,j)表示所述相邻顺序的视频数据的后一个视频数据的第2帧图像矩阵数据中第i行第j列的数值;I表示视频的一帧图像矩阵数据中每一列的数值个数;J表示视频的一帧图像矩阵数据中每一行的数值个数;
若E=0,表示当前提取视频过程中的两个相邻顺序的视频数据是被分割的数据,需要进行视频合成;
若E≠0,表示当前提取视频过程中的两个相邻顺序的视频数据不是被分割的数据,不需要进行视频合成。
5.如权利要求3所述的基于深度学习的视图库布控报警方法,其特征在于:在所述步骤S2中,还包括:
对目标人员的脸部图像进行识别分析,得到目标人员的脸部五官轮廓特征信息,以此作为所述身体外表特征信息;
对目标人员的背部图像进行识别分析,得到目标人员的背部轮廓特征信息,以此作为所述身体外表特征信息;
对目标人员的行走动态图像进行识别分析,得到目标人员的行走四肢姿态特征信息,以此作为所述身体动态特征信息。
6.如权利要求5所述的基于深度学习的视图库布控报警方法,其特征在于:在所述步骤S2中,根据目标人员的身体外表特征信息或身体动态特征信息,从所述视频队列中识别得到目标人员在不同城市区域的存在状态具体包括:
根据所述脸部五官轮廓特征信息、所述背部轮廓特征信息和所述行走四肢姿态特征信息中的至少一者,从所述视频队列的每个视频中识别得到目标人员在不同城市区域的存在位置地点。
7.如权利要求6所述的基于深度学习的视图库布控报警方法,其特征在于:在所述步骤S2中,根据所述存在状态,得到目标人员的行踪轨迹具体包括:
根据每个视频中目标人员在不同城市区域的存在位置地点以及每个视频的拍摄时间,得到目标人员在所述城市区域范围内在预定时间段内的行踪轨迹。
8.如权利要求7所述的基于深度学习的视图库布控报警方法,其特征在于:在所述步S3中,根据所述行踪轨迹,预测得到目标人员在未来预定时间段内的出现轨迹;根据所述出现轨迹,确定目标人员在未来预定时间段内出现的地点位置具体包括:
从所述行踪轨迹中提取得到目标人员在不同城市区域地点的出现次数信息和出现时间信息,并将所述出现次数信息和所述出现时间信息输入至预设深度学习模型中,从而预测得到目标人员在未来预定时间段内的出现轨迹;
从所述出现轨迹中提取目标人员在未来预定时间段内的出现子轨迹,再从所述出现子轨迹中选定目标人员出现概率超过预设概率阈值的地点,作为目标人员在未来预定时间段内出现的地点位置。
9.如权利要求8所述的基于深度学***台中心反馈相应的通知消息具体包括:指示所述地点位置安装的安防摄像头进行定点扫描拍摄,得到相应的扫描全景影像;
将所述脸部五官轮廓特征信息、所述背部轮廓特征信息或所述行走四肢姿态特征信息,与所述扫描全景影像进行匹配处理,若相匹配,则向安防平台中心反馈相应的目标人员出现通知消息;其中,所述目标人员出现通知消息包括目标人员当前出现的地点坐标信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210337181.1A CN114821635A (zh) | 2022-03-31 | 2022-03-31 | 基于深度学习的视图库布控报警方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210337181.1A CN114821635A (zh) | 2022-03-31 | 2022-03-31 | 基于深度学习的视图库布控报警方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114821635A true CN114821635A (zh) | 2022-07-29 |
Family
ID=82532853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210337181.1A Pending CN114821635A (zh) | 2022-03-31 | 2022-03-31 | 基于深度学习的视图库布控报警方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821635A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110243377A1 (en) * | 2010-03-31 | 2011-10-06 | Disney Enterprises, Inc., A Delaware Corporation | System and method for predicting object location |
CN111797751A (zh) * | 2020-06-29 | 2020-10-20 | 中国第一汽车股份有限公司 | 行人轨迹预测方法、装置、设备及介质 |
CN112200830A (zh) * | 2020-09-11 | 2021-01-08 | 山东信通电子股份有限公司 | 一种目标跟踪方法及设备 |
CN112953850A (zh) * | 2021-04-06 | 2021-06-11 | 腾讯科技(深圳)有限公司 | 数据传输方法、装置、计算机可读介质及电子设备 |
CN113674325A (zh) * | 2021-09-02 | 2021-11-19 | 中科海微(北京)科技有限公司 | 人员轨迹追踪方法及*** |
-
2022
- 2022-03-31 CN CN202210337181.1A patent/CN114821635A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110243377A1 (en) * | 2010-03-31 | 2011-10-06 | Disney Enterprises, Inc., A Delaware Corporation | System and method for predicting object location |
CN111797751A (zh) * | 2020-06-29 | 2020-10-20 | 中国第一汽车股份有限公司 | 行人轨迹预测方法、装置、设备及介质 |
CN112200830A (zh) * | 2020-09-11 | 2021-01-08 | 山东信通电子股份有限公司 | 一种目标跟踪方法及设备 |
CN112953850A (zh) * | 2021-04-06 | 2021-06-11 | 腾讯科技(深圳)有限公司 | 数据传输方法、装置、计算机可读介质及电子设备 |
CN113674325A (zh) * | 2021-09-02 | 2021-11-19 | 中科海微(北京)科技有限公司 | 人员轨迹追踪方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084165B (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN111784685A (zh) | 一种基于云边协同检测的输电线路缺陷图像识别方法 | |
CN108734107B (zh) | 一种基于人脸的多目标跟踪方法及*** | |
CN111754498A (zh) | 一种基于YOLOv3的传送带托辊检测方法 | |
CN112183313B (zh) | 一种基于SlowFast的电力作业现场动作识别方法 | |
CN111401311A (zh) | 一种基于图像检测的高空抛物识别方法 | |
CN110096945B (zh) | 基于机器学习的室内监控视频关键帧实时提取方法 | |
CN110458794B (zh) | 用于轨道列车的配件质量检测方法及装置 | |
CN111807183A (zh) | 基于深度学习的电梯门状态智能检测方法 | |
CN114758271A (zh) | 视频处理方法、装置、计算机设备及存储介质 | |
CN111640135A (zh) | 一种基于硬件前端的tof摄像头行人计数方法 | |
CN111476160A (zh) | 损失函数优化方法、模型训练方法、目标检测方法及介质 | |
CN110728269B (zh) | 一种基于c2检测数据的高铁接触网支柱杆号牌识别方法 | |
CN110334568B (zh) | 轨迹生成与监控方法、装置、设备及存储介质 | |
CN110490079A (zh) | 巡检数据处理方法、装置、计算机设备和存储介质 | |
CN114821635A (zh) | 基于深度学习的视图库布控报警方法 | |
CN111695404A (zh) | 行人跌倒检测方法、装置、电子设备及存储介质 | |
CN116612498A (zh) | 一种鸟类识别模型训练方法、鸟类识别方法、装置及设备 | |
CN116246200A (zh) | 一种基于视觉识别的屏显信息偷拍检测方法及*** | |
CN115512189A (zh) | 图像识别模型评估方法、装置以及存储介质 | |
CN114387564A (zh) | 一种基于YOLOv5的磕头机停抽检测方法 | |
CN113111847A (zh) | 一种工序循环的自动监测方法、装置和*** | |
CN113887489A (zh) | 基于位置增强和多尺度融合网络的车厢内人群计数方法 | |
CN112115876A (zh) | 一种基于3d卷积神经网络的水溶法实验过程识别方法 | |
CN110689520A (zh) | 一种基于ai的磁芯产品缺陷检测***及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |