CN105447459B - 一种无人机自动检测目标和跟踪方法 - Google Patents
一种无人机自动检测目标和跟踪方法 Download PDFInfo
- Publication number
- CN105447459B CN105447459B CN201510794928.6A CN201510794928A CN105447459B CN 105447459 B CN105447459 B CN 105447459B CN 201510794928 A CN201510794928 A CN 201510794928A CN 105447459 B CN105447459 B CN 105447459B
- Authority
- CN
- China
- Prior art keywords
- module
- image
- face
- tracking
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims abstract description 92
- 238000005286 illumination Methods 0.000 claims abstract description 50
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims abstract description 31
- 238000000034 method Methods 0.000 claims description 148
- 230000008569 process Effects 0.000 claims description 77
- 238000012544 monitoring process Methods 0.000 claims description 48
- 238000012545 processing Methods 0.000 claims description 36
- 239000011159 matrix material Substances 0.000 claims description 20
- 230000002159 abnormal effect Effects 0.000 claims description 19
- 238000012549 training Methods 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 13
- 238000012216 screening Methods 0.000 claims description 12
- 101100356682 Caenorhabditis elegans rho-1 gene Proteins 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 10
- 230000008901 benefit Effects 0.000 claims description 6
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims 1
- 230000001815 facial effect Effects 0.000 abstract 2
- 238000012935 Averaging Methods 0.000 description 2
- 101100406515 Drosophila melanogaster orb2 gene Proteins 0.000 description 2
- 101100258025 Schizosaccharomyces pombe (strain 972 / ATCC 24843) shk1 gene Proteins 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种无人机自动检测目标和跟踪方法,包括无人机,装配在无人机上的声呐距离探测器,光照补偿模块,图像去噪模块,人脸检测模块,机身人脸识别模块,远端人脸识别模块,目标跟踪模块,飞行控制模块,控制台模块;所述的光照补偿模块,对图像进行光照补偿;所述的图像去噪模块对图像进行去噪声处理;所述的人脸检测模块,将接收到的图像进行人脸检测;所述的机身人脸识别模块将检测出来的人脸图像进行识别,将远端人脸识别模块的识别结果进行添加;所述的远端人脸识别模块对机身无法处理的人脸图像进行识别;所述的目标跟踪模块对目标进行跟踪;所述的飞行控制模块,控制无人机的运动轨迹;所述的控制台模块由人工进行监控并发出各种命令。
Description
技术领域
本发明涉及无人机监控技术领域,计算机视觉领域,具体涉及使用无人机进行可疑目标进行自动识别并跟踪的方法。
背景技术
对于在区域内进行目标检测,传统的方法是使用固定监控摄像头进行区域内目标(逃犯,重要人员等)检测,由于固定监控需要固定在墙上并且需要连接通讯线路,布置成本较高,而且由于人们越来越高的对个人隐私的要求,使得很多居民区内无法全方位布置摄像头,从而为监控留下死角。而由于无人机有着较好的灵活性,从而使得使用无人机进行自动的目标检测和跟踪有着非常高的灵活性。现有无人机监控,通常将实时画面传递给监控端,这种方法需要长时间的信号传输,占用了大量的带宽并且耗电量大。
本发明使用无人机进行目标自动检测和跟踪,通过使用无人机自带的防抖摄像头进行图像去抖动,使用直方图均衡化、中值滤波进行图像处理,使用基于哈尔(haar)特征和级联强分类器(Adaboost)算法和主成分分析(PCA)算法进行人脸检测和识别,使用基于ORB特征的跟踪方法进行跟踪,从而提供了一种快速有效的使用无人机进行目标检测和跟踪方法。
发明内容
本发明所要解决的技术问题是为了克服传统固定监控摄像头无法全方位布控,尤其在被跟踪物体进入监控盲区或者被跟踪物体从一个摄像头区域进入另一个摄像头区域时容易跟踪丢失这个问题,提出了一种使用无人机进行自动检测目标和跟踪方法。
本发明解决其技术问题所采用的技术方案是:
一种无人机自动检测目标和跟踪方法,包括无人机,装配在无人机上的声呐距离探测器,光照补偿模块,图像去噪模块,人脸检测模块,机身人脸识别模块,远端人脸识别模块,目标跟踪模块,飞行控制模块,控制台模块;所述的声呐距离探测器为固定在无人机的前、后、左、右、左前、右前、左后、右后、上、下(以无人机摄像头所摄区域为前方)共十个方向的距离探测器,用以对无人机周围的障碍物进行距离探测,为无人机在跟踪过程中的路线规划提供重要的信息;所述的光照补偿模块,将无人机所摄的图像使用直方图均衡化方法对光照进行补偿,并将光照补偿后的所摄图像传递给图像去噪模块;所述的图像去噪模块将接收到的光照补偿后的图像,使用中值滤波器进行滤波,用以去掉噪声,若当前***处于人脸检测状态,则将去噪后的图像传递给人脸检测模块,若当前***处于目标跟踪状态,则将去噪后的图像传递给目标跟踪模块;所述的人脸检测模块,将接收到的图像使用基于哈尔(haar)特征和级联强分类器(Adaboost)算法进行人脸检测,并将检测到的人脸图像传递给人脸识别模块;所述的机身人脸识别模块为运行在无人机机身上的人脸识别模块,该模块接收消息源为两个并分别做不同的处理:1.接收来自人脸检测模块的人脸图像,并对这些人脸图像进行识别,筛选掉那些已经被检测过的人脸,并将那些未被检测过的人脸图像发送给远端人脸识别模块;2.接收来自于远端人脸识别模块中,返回结果为“数据库不存在”的人脸图片,并 根据该返回结果,对人脸识别模块的分类器进行修改,当下一帧收到同一个人的人脸图像时,能够识别出该人脸从而将该人脸筛选掉,目的是减少远端人脸识别模块的负担;所述的远端人脸识别模块为运行在远端服务器上的人脸识别***,该***接收无人机所发送过来的人脸图像,并对该人脸图像进行识别,返回结果有三种:1.数据库不存在;2.无法识别人脸;3.数据库已存在人脸。若返回结果为1,则将该识别结果发送给人脸检测模块,若返回结果为2则不做处理,若返回结果为3,则向目标跟踪模块和控制台模块发送识别结果及图片信息;所述的目标跟踪模块,接收到来自远端人脸识别模块识别出的目标人脸及其在图像中的位置信息,对当前图像提取ORB特征,并停止人脸检测模块,机身人脸识别模块,远端人脸识别模块的运行,***转入跟踪状态,该状态接收来自于图像去噪模块的人脸输入图像,并从该人脸输入图像的下一帧图像中提取候选特征框,以及放大或缩小的候选特征框。根据图像的ORB特征,选择与原始特征最相似的特征框作为下一帧的跟踪位置。并将位置信息发送给飞行控制模块;所述的飞行控制模块,接收到来自控制台的跟踪控制命令和目标跟踪模块的被跟踪目标的位置信息,若未收到控制台发送的跟踪命令,则飞行控制模块仍按照原有路线飞行,若收到控制台发送的跟踪命令,则根据跟踪框的位置(过大、过小、偏左、偏右,偏上、偏下)调整无人机的位置;若接收到控制台模块发送的取消跟踪信号,则取消当前跟踪,启动人脸检测模块,机身人脸识别模块,远端人脸识别模块,无人机***进入人脸检测状态;所述的控制台模块为在监控中心的控制***,该发明的监控***可以与现有监控中心的***进行兼容,该监控台模块接收来自无人机的实时监控图像,并当发现被识别目标时,将当前检测图片和数据库里识别的图片进行显示并提示监控中心人员进行人工比对,若监控中心人员认为比对成功并且需要跟踪,则监控人员进行报警,并通知无人机进行跟踪,若监控中心人员认为比对成功但是不宜跟踪,则采集前后一段时间的视频信息及地点信息,此时无人机仍然按照固定的巡航路线飞行,若监控中心认为比对不成功,则向无人机发送取消跟踪命令,无人机计入人脸检测状态。
所述的一种无人机自动检测目标和跟踪方法,所需的设备为带有防抖摄像头的无人机,远程服务器端,无人机身上自带的10个方向的声呐距离探测器。所述的带有防抖摄像头的无人机,通常为四轴航拍无人机。所述的远程服务器端,通常为一个运行在远端服务器上的人脸识别***,该***可以是现有的人脸识别***,为无人机所传的图片提供人脸识别功能。所述的无人机身上自带的10个方向的声呐距离探测器,其安装方向为前、后、左、右、左前、右前、左后、右后、上、下(以无人机摄像头所摄区域为前方),用以对无人机周围的障碍物进行距离探测。
所述的一种无人机自动检测目标和跟踪方法,共包含光照补偿模块,图像去噪模块,人脸检测模块,机身人脸识别模块,远端人脸识别模块,目标跟踪模块,飞行控制模块,控制台模块。
所述的光照补偿模块,在初始化过程中,其输入为包含人脸和非人脸的数据集,在检测过程中,其输入为无人机所摄的每一帧图像,考虑到无人机采集到的视频图像在其连续几帧差距非常小,并且考虑到无人机自带的处理器处理速度有限,所以,没必要对每帧都进行处理,可以依据处理器的性能选择合适的帧间隔进行采样。其处理过程为:首先,对于提取到的彩色图像X,设其红绿蓝分量分别为R,G,B,首先将原始彩色图像转换转成灰度图像,其转换方法为:对于原始彩色图片上的每一个像素点X所对应的R,G,B分量,不失一般性的用i和j表示,则该像素点对应的灰度图像X′的灰度值为X′(i,j)=0.3×B′(i,j)+0.59×G′(i,j)+0.11×R′(i,j),其中X′(i,j)为整数,若所得结果为小数的话,仅取其整数部分,从而得到原始X的灰度图像X′。然后,对该灰度图像进行光照补偿,并将光照补偿后所得的结果发送给图像去噪模块。
所述的对该灰度图像进行光照补偿,其步骤为:第1步,考虑到灰度图像的值只有0-255,所以定义一个长度为256的数组为P,其初始值的所有元素都为0,对于当前图片的每一个点X′(a,b),若其灰度为i,则P(i)=P(i)+1。当X′的所有点计算完成后,便得到当前图像在所有灰度值上的分布P,然后对于数组P的每一个点P(i),使得P(i)=P(i)/(row×col),其中,row为灰度图像X′的行元素的个数,col为灰度图像X′的列元素的个数。此时P保存的是当前每一个灰度的概率分布。第2步,计算累计归一化直方图C,C为与数组P相同维度的数组,并且C的每一个元素的初始值为0,对于数组C的每一个元素i,计算数组P中所有标号小于等于i的元素之和,即第3步,找出图片的最大像素max和最小像素min,其计算方法为,max为数组P按照从标号为255开始到0的顺序中第一个i,使得P(i)≠0,则当前标号记为max=i,min为数组P按照从标号为0开始到255的顺序中第一个j使得P(j)≠0,则当前标号记为min=j。对于原始灰度图像X′的每一个元素,更新其值为X′(i,j)=C(X′(i,j)×(max-min))+min。更新之后的图像X′即为光照补偿后的图像。
所述的图像去噪模块,接收光照补偿模块传送来的经过光照补偿后的图像X,首先设置一个3×3维的窗口,考虑该图像X的每个像素点X(i,j),以该点为中心点的3×3维矩阵所对应的像素值分别为[X(i-1,j-1),X(i-1,j),X(i-1,j+1),X(i,j-1),X(i,j),X(i,j+1),X(i+1,j+1),X(i+1,j),X(j+1,j+1)]进行从大到小排列,取其排在中间的值为新的像素X′(i,j)所对应滤波后值,注意对于X的边界点,会出现其3×3维的窗口所对应的某些像素点不存在的情况,那么只需计算落在窗口内存在的像素点的中间值即可,若窗口内为偶数个点,将排在中间两个像素值的平均值作为该像素点去噪后的值X′(i,j),从而,新的图像矩阵X′即为滤波后所得的图片矩阵;在初始化阶段,将去噪处理过的图片传递给人脸检测模块和机身人脸识别模块;在检测过程中,将去噪处理过的图片传递给人脸检测模块,如果需要实时传递图像,则将去噪后的图像按照预定比例压缩并传递给控制台模块。
所述的人脸检测模块,在初始化的过程中,接收到从图像去噪模块传递来的已经过光照补偿和去噪处理的典型人脸和非人脸的灰度图像,这些样本图片的维度统一为n×n维,然后对每一张样本图片P,构建该图片P所对应的积分图PP,然后使用所有积分图对级联分类器进行参数初始化,最后将训练所得的级联分类器保存起来用于检测过程;在检测过程中,首先将接收到从图像去噪模块传递来的已经过光照补偿和去噪处理的无人机采集图像X′按照窗口大小为n×n进行多层分割,对于分割后所得的所有子图片,构建其积分图,最后用训练所得的级联分类器进行分类筛选,得到所有异常物体的子图片,将这些子图片附带其在原始图片的坐标和帧信息传递给机身人脸识别模块。
所述的构建图片P所对应的积分图PP,其过程为:
对于图像P,我们从该矩阵的第1行第1列开始构造积分图,初始时设s(1,1)=P(1,1),RR(1,1)=P(1,1),构造过程为一个二层循环:
从而构造出P分量所对应的积分图PP;
所述的使用积分图PP对级联分类器进行训练,其过程为:
第一步,定义弱分类器的函数h(x,f,p,θ)为:
其中f为特征函数,θ为阈值,p取值为1或-1,x代表根据积分图PP所构建的子窗口,对于每一个子窗口x,f(x)为该子窗口x对应于特征函数f的特征值。
为了叙述方便,我们将子窗口x的四个边界分别定义为左上点A,右上点B,左下点C,右下点D,A与B的中心点为ab,A与B的三分之一靠近A点为aab,三分之一靠近B点为abb,其余类推,区域内的中心点用O来表示。则x(A)表示子窗口在左上点A的积分图所对应的值,其余同理。
则定义:
f1=[x(bd)+x(A)-x(B)-x(ac)]-[x(ac)+x(D)-x(bd)-x(C)],并且定义s=1,t=2;
f2=[x(A)+x(cd)-x(BC)-x(ab)]-[x(ab)+x(D)-x(B)-x(cd)],并且定义s=2,t=1;
f3=[x(A)+x(bbd)-x(aac)-x(B)]-2×[x(bdd)+x(aac)-x(acc)-x(bbd)]+[x(D)+x(acc)-x(bdd)-x(C)],并且定义s=1,t=3;
f4=[x(A)+x(ccd)-x(aab)-x(C)]-2×[x(cdd)+x(aab)-x(abb)-x(ccd)]+[x(D)+x(abb)-x(B)-x(cdd)],并且定义s=3,t=1;
f5=[x(A)+x(O)-x(ab)-x(ac)]+[x(D)+x(O)-x(bd)-x(cd)]-[x(ab)+x(bd)-x(B)-x(O)]-[x(ac)+x(cd)-x(O)-x(C)],并且定义s=2,t=2;
第二步:构建积分图PP所对应的子窗口x。该子窗口x的选择过程如下:
定义自然数s和t,这两个数为子窗口的倍数,这两个数值的选定由特征函数给定,于是,x所对应的子窗口区域为:[(i,j),(i,j+t×(b-1)),(i+s×(a-1),j),(i+s×(a-1),j+t×(b-1))],其中:i,j,a,b分别为从1开始递增的整数,并且能够保证i+s×(a-1)≤n,j+t×(b-1)≤n成立的所有取值。
第三步:对于定义的5个特征函数,计算所有训练样本的所有RGB分量对应于当前子窗口x的特征值f(x),我们此称之为在当前RGB分量下当前子窗口x的特征,如果当前窗口下有wf个子窗口,那么一共有T=3×wf×5个特征,每一个特征表示为ht。设海面上正常物体的图片和异常物体的图片各有K张,则对分类器的训练过程如下:
1.对于每一张图片Xi,yi为该图片的分类,若yi=1表示该图片为异常物体的图片,若yi=-1表示该图片为正常物体的图片;
2.对于t=1,2,…,T,(T为特征个数)
1).所有样本在特征ht下的特征值fr,其中(r=1,2,…,2K),2K为正常物体和异常物体图片的总数;
2).将所得的所有特征值按照从大到小的顺序进行排序;
3).计算全部异常物体子图的权重之和:T+=sum(fr(x)),x∈异常物体的子图;
4).计算全部正常物体子图的权重之和:T-=sum(fr(x)),x∈正常物体的子图;
5).对于排序好的每个元素,从第一个开始处理,设当前处理的元素为i:
a).计算所有大于当前元素异常物体的子图的权重值和:xj∈异常物体的子图,并且j<i;
b).计算所有大于当前元素的正常物体的子图的权重值和:xj∈正常物体的子图并且j<i;
c).计算分类器在当前元素下的误差:
6).选取使得ei最小的元素所对应的标号i,然后将特征值f(xi)和特征值排在i前一位的f(xi-1)求平均值,得到弱分类器的参数θ=[f(xi)+f(xi-1)]/2,若p=-1,否则,p=1;
7).若最小的误差ei>1%,则意味着误差过大,舍弃;否则,将当前ht(x,f,p,θ)作为选好的弱分类器;
3.将所有选好的分类器ht按照t值从小到大排列起来,构成集合H,于是得到了我们要训练的级联分类器。
所述的提取子图的过程为:
首先,对于原始的M行N列的图像,首先定义块大小为n×n,则将提取像素区域定义为:[(i,j),(i,j+n-1),(i+n-1,j),(i+n-1,j+n-1)]所围成的正方形区域,其中i=[1,…,M-n+1],j=[1,…,N-n+1],从而得到缩放图的第1层,该层共有(M-n+1)×(N-n+1)张子图,每张子图大小为n×n维,对于每一张图片,记录其图像的提取区域为左上点A=(i,j)右下点D=(i+n-1,j+n-1);
然后,将原始图缩放成行列。
对于原始图片X,其上的每一个像素点为X(i,j),对于缩放后的图片X1/2(a,b),缩放过程为:
对于
对于
X1/2(a,b)=X(i,j),其中,i=2×a,j=2×b;
其中,和为M/2和N/2所得的整数部分。
对于所得的缩放后的图像继续使用上述方法进行提取子图,从而得到缩放图的第2层,该层共有张子图,每张子图的大小为n×n维,对于每一张子图片,记录其在原始图像上提取区域的坐标(左上点A和右下点D);对于第i层,将原始图像缩放成行列的图像,并继续使用上述方法进行提取子图,该层共有 张子图,每张子图的大小为n×n维,对于每一张子图片,记录其在当前 图像上提取区域的坐标(左上点A和右下点D);…;直到时,意味着缩小的遥感图像最短边小于n,此时已经无法提取出子图,于是提取过程结束。
所述的用训练所得的级联分类器进行分类筛选,其过程如下:
设级联分类器H共有T′个分类器hi(i=1,2,…,T′),
对于所用于筛选的每一张n×n维子图
对于i=1,2,…,T′
计算在当前子图下的hi,若hi=0,当前子图是正常物体,该子图的分类筛选过程结束;
若当前子图在所有分类器下的分类结果hi都为1,则说明当前子图为异常物体。
所述的机身人脸识别模块,在初始化的过程中,第1步,接收到从图像去噪模块传递来的已经过光照补偿和去噪处理的典型人脸的灰度图像集合X=[x1,x2,…,xm],其中xi为对输入图像向量化表示后的一张人脸图像,xi为列向量,m为当前人脸数据集的人脸图像个数。对于一张维度为n×n维的人脸图像P。第2步,在得到X之后,计算x1,x2,…,xm的平均值μ,然后对X的每一列计算减去均值μ,从而得到X′,X′为均值化的X。然后计算X′T×X′,其中X′T表示矩阵X′的转置。第3步,计算矩阵X′T×X′的特征值和特征向量。设其特征值为eig(i)其特征向量为vec(i),(1≤i≤n)。我们将特征值按照对应的特征值从大到小排列,然后选择合适的j,使得j为满足的最小值(1≤j≤n),我们选择[eig(1),eig(2),…,eig(j)]所对应的特征向量的集合[vec(1),vec(2),…,vec(j)],设该矩阵为W,将W的转置WT保存在无人机的***内。在检测过程中,对于检测出来的人脸图像,首先检测其是否是当前机身人脸识别库的人脸,如果是,说明该人脸已经被识别过,不再进行任何处理;如果不是,则将该人脸图像传递给远端人脸识别模块,待远端人脸识别对该人脸进行识别。若远端人脸识别模块识别结果为数据库不存在,则将当前人脸图像加入到机身人脸识别库中。
所述的对输入图像P向量化表示,其方法为,对于其上的每一个分量P(i,j),按照下列方式进行排列:[P(1,1),P(2,1),…,P(n,1),P(1,2),P(2,2),…,P(n,2),P(1,n),P(2,n),…P(n,n)],然后计算xi(j)=xi(j)/Σ,Σ为xi的所有元素之和,从而得到了其向量化表示。
所述的测其是否是当前机身人脸识别库的人脸,其方法是,若当前机身人脸识别库为空,则识别结果为不存在;若当前机身人脸库为非空,则对当前人脸图像P,首先计算其向量化表示I,计算其特征表示yI=WT×I,然后将该图片的特征表示yI与机身人脸库已保存的所有特征表示计算其欧式距离|yI-y|。若最小距离小于等于阈值θ,则认为该人脸已经被识别过,返回结果为机身人脸库已存在;若最小距离大于阈值θ,则认为该人脸未被识别过,返回结果为机身人脸库不存在。
所述的将当前人脸图像加入到机身人脸识别库中,其方法是:对于当前人脸图像所对应的特征表示yI,将yI加入到已有特征表示的集合中。考虑经过多次检测,无人机***中会存在数量巨大的特征表示y,并且在下一个时段内,前一时段中所识别出的人脸可能已经离开监控区域,所以,对于长时间没有人脸图像与其比对成功的y,则可以删去该y以节省无人机***的空间和计算所有欧氏距离的时间。
所述的比对成功是指,对于所有的y(j)和当前图像yI,使|yI-y(j)|≤θ取值最小的j即为当前人脸图像所分到的类,|yI-y(j)|即为待检测人脸距离已知人脸的最小距离,而y(j)即为 比对成功的类,反之,若不存在使|yI-y(j)|≤θ取值最小的j,则意味着比对未成功。
所述的远端人脸识别模块,能够实现如下功能1.能够将待检测的人脸图片发送至运行在远端服务器上的人脸识别***,为了降低远端人脸识别服务器的负载及对带宽的需求,我们将待检测人脸距离已知人脸的最小距离按照从大到小进行排序,并按照从大到小顺序选取前n个人脸进行发送,余下的人脸不做处理。2对远端服务器的识别结果进行分类并根据分类结果实现不同的操作,3记录从发送到收到返回结果期间的视频信息。
所述的运行在远端服务器上的人脸识别***,该***接收来自机身人脸识别模块所发送来的人脸图片,该图像通常通过无线信号发送,为了提高本发明的兼容性和应用范围,人脸识别模块选择的人脸识别***为一套独立于本发明的识别***,该***可以是现如今成熟的任何人脸识别***,也可以是为了专门寻找某几个逃犯而临时建立的***,考虑到现如今的成熟的人脸识别***都能够提供如下功能:对于给定的一张人脸图片,对该人脸图片进行识别,并返回识别结果。因此,本发明与现如今成熟的人脸识别***的交互接口定义为:输入为一张给定的人脸图片;输出为远端人脸识别模块的识别结果,该识别结果分为三种:1.数据库不存在;2.无法识别人脸;3.数据库已存在人脸(包括识别出人脸的信息)。对于识别结果1(数据库不存在),则将该识别结果和对应的图片传递给机身人脸识别模块,对于识别结果2(无法识别人脸),则不做任何处理。对于识别结果3(数据库已存在人脸)将当前人脸图像,及其附带的位置信息和视频段一起,传递给目标跟踪模块和控制端模块。考虑到无线网络的不稳定性,可能会发生数据包丢失的现象,所以,我们可以对该人脸图像从发送至接收的时间给以限定,若发送之后T时间内没有收到该图片的识别信息,则认为该图像已经丢失,按照识别结果2进行处理,若连续出现图像丢失,则减小每帧发送的人脸数量。
所述的视频段,考虑到每一张人脸图像从发送到远端识别到接收会有时间延迟,而在这段期间,目标已经有了较大的移动,所以,为了能准确跟踪目标,该模块需要记录从人脸图像发送到接收期间的监控录像片段,该视频片段的最大长度为T时间。
所述的目标跟踪模块,在初始化阶段不工作;在检测过程中,接收来自远端人脸识别模块识别出的目标人脸P及其在图像中的位置信息,以及从该人脸图片所对应的视频段(该视频段的起始帧为该人脸图片所对应的视频帧的下一帧),并接收图像去噪模块传来的实时监控图像。当***进入目标跟踪状态时,人脸检测模块,机身人脸识别模块,远端人脸识别模块停止运行。注意到由于该人脸图片所对应的视频段和图像去噪模块传来的实时监控图像可以理解为相连续的监控图片所对应的帧,所以不失一般性的我们在后边叙述将不再区分当前帧是属于视频段还是图像去噪模块传来的帧。目标跟踪模块将按照如下方式运行:第1步,提取目标人脸P的ORB特征,其ORB特征为若干组长度相同的字符串,每一组字符串的元素为[0,1],为了节省空间,我们可以让计算机的一个字节的每一位与位串的一位相对应。第2步,设其目标人脸P在原始帧的位置为(x,y),(x+a,y),(x,y+b),(x+a,y+b),其中a和b表示目标人脸P的长与宽。而设目标人脸P所在的原始帧的下一帧为PP,则在图片PP以目标人脸P在原始帧的位置为(x,y),(x+a,y),(x,y+b),(x+a,y+b)为中心,找出其周围的所有待检测框,并计算每一个待检测框的ORB特征。第3步,计算所有待检测框的ORB特征与原始帧的ORB特征的距离,统计匹配成功的特征点的个数,匹配成功的特征点的个数小于一个事先设定的阈值,则意味着跟踪丢失。否则,选择匹配成功最多的待检测框作为为目标人脸在下一帧的位置。第4步,若找到跟踪目标在下一帧的位置,则将目标人脸P的ORB特征替换为下一帧位 置所对应图片的ORB特征,并将该位置发送给控制端模块和飞行控制模块;若跟踪丢失,则将跟踪丢失信号发送给控制端模块和飞行控制模块,并记录跟踪丢失时刻前后一段时间的视频。经过上述4步,目标跟踪模块完成了对一帧图片的跟踪处理,由于下一帧人脸图像的ORB特征已知,所以,在处理接下来的每一帧图片时,只需重复第2,3,4步即可。
所述的提取目标人脸P的ORB特征,其方法如下:由于提取ORB特征的方法已经较为成熟,在OPENCV计算机视觉库里边已有实现,该方法有着提取速度快,对角度不敏感的优点,这两个优点非常适合无人机的使用,因为无人机在空中盘旋会导致人脸图像频繁的出现角度变化,另外,无人机机身处理性能有限,所以快速的角度不敏感的特征提取算法更加适合。对一个图片提取其ORB特征,输入值为当前图片,输出为若干组长度相同的字符串,每一组代表一个ORB特征。
所述的找出其周围的所有待检测框,对于待提取的图片PP,原始图片位置为(x,y),(x+a,y),(x,y+b),(x+a,y+b)四个点所围成的矩形。我们以(x+i,y+j),(x+a+i,y+j),(x+i,y+b+j),(x+a+i,y+b+j)所围成的矩形,表示原始图片位置向右(若i>0)或者向左(若i<0)移动|i|个像素,并且向下(若j>0)或者向上(若j<0)移动|j|个像素。其方法是:第1步,计算其对应位移k的候选框,由于每个候选框差别仅仅在于(i,j)的取值不同,所以,对于位移为k的候选框,其(i,j)分别为:第一组:(i-k,jj),其中,jj=[j-k+1,j+k-1];第二组:(i+k,jj),其中,jj=[j-k+1,j+k-1];第三组:(ii,j-k),其中,ii=[i-k+1,i+k-1]。第四组:(ii,j+k),其中,ii=[i-k+1,i+k-1];第五组:(i-k,j-k),(i-k,j+k),(i+k,j-k),(i+k,j+k)。由于上述方法会产生较多的候选框,通常情况下k可以不连续,根据当前无人机机身处理器的处理速度决定k的取值跨度。第2步,考虑到被检测目标可能会远离或者靠近无人机,导致图像显示的照片变大或者变小。所以,需要将跟踪框的大小(a,b)进行放大或者缩小,即(a′,b′)=(a×λ,b×λ),当λ>1时,表示将跟踪框放大,当λ<1时,表示将跟踪框缩小,然后对于每一组(a′,b′),重复第1步计算按照(a′,b′)大小设置的跟踪框的位置。
所述的计算所有待检测框的ORB特征与原始帧的ORB特征的距离,考虑到对于每一个ORB特征V,V(i)表示V(i)的第i位,V(i)的取值为0或1,那么对于每一个待检测框的ORB特征与原始帧的ORB特征之间的距离的计算方法如下:对比两组ORB特征的每一位,计算所有对应位不相同的个数,所述的对应位不相同是指V1(i)≠V2(i),其中V1(i)表示第一个ORB特征的第i位,V2(i)表示第二个ORB特征的第i位。
所述的统计匹配成功的特征点的个数,其方法是:
对于ORB特征集合ORB1的每一个ORB特征V1
计算V1与ORB2的每一个特征的距离。
若最小距离小于阈值(通常为50)并且:最小距离<0.8×第二小距离
意味着匹配成功,将匹配成功的数量加1.
该方法结束。
所述的飞行控制模块,接收来自目标跟踪模块传递来的当前跟踪框的位置信息或者跟踪丢失信息,和控制台模块发送的是否跟踪信号。在人脸检测状态,飞行控制模块忽略掉目标跟踪模块传来的跟踪框位置信息,飞行控制模块控制无人机沿一个固定的路径往复飞行,也可以逆行人的行走方向飞行。当接收到控制台模块发出的跟踪信号时,当前状态从人脸检测 状态为目标跟踪状态,并根据当前目标的位置信息调整无人机的位置;若当前状态为目标跟踪状态时收到控制台模块发出的停止跟踪信号时,无人机返回原有巡航区域,并将状态从目标跟踪状态变为人脸检测状态。
所述的根据当前目标的位置信息调整无人机的位置,其方法是:设整个图像为m×n,其中m>n,跟踪框为a×b,则:若n<1/4×b,则意味着目标过大,无人机需要向后移(以无人机摄像头所对的方向为前);若n>1/8×b,则意味着目标过小,无人机需要向前移;若跟踪框距离图像上侧(下侧)的距离小于原始图像上下像素距离的1/8,说明目标远离(靠近),无人机需要前(后)移动;若跟踪框距离图像左侧(右侧)的距离小于原始图像左右像素距离的1/8,说明目标靠左侧(右侧),无人机需要向左(右)移动,或者需要向左(右)旋转。判断无人机选择向左(右)移动或者向左(右)旋转的方法如下,若无人机左(右)侧没有障碍物或者障碍物的距离大于阈值ρ1,则无人机向左(右)旋转,旋转角度为使跟踪目标在无人机水平中心的角度;若无人机的左(右)侧障碍物的距离小于等于阈值ρ1大于阈值ρ2,则无人机向左(右)移动,移动距离为不大于ρ1-ρ2并使得目标尽可能靠近水平中心的距离。
所述的控制台模块为嵌入在监控中心的控制***,为了提供该发明的通用性,本发明的控制台模块与现有监控中心的***进行兼容,该监控台模块接收来自无人机的图像去噪模块所传递过来的经过压缩的图像,压缩图像的目的是减少带宽,在带宽较小的时候,可以选择不传递图像。当远端人脸检测模块检测到的目标为数据库中存在的个体,远端人脸检测模块将该个体信息和待检测人脸的图像传递给控制台模块模块,由监控中心的监控人员进行人工比对,如果监控人员认为比对正确并且认为当前有必要对该个体进行跟踪,则由监控人员向控制台模块发出跟踪命令,由控制台模块将跟踪命令发送给飞行控制模块;如果监控人员认为比对错误,则由监控人员向控制台模块发出取消跟踪命令,由控制台模块将取消跟踪命令发送给跟踪模块;如果监控人员认为比对正确,但是当前情况并不适合跟踪,则由监控人员向控制台模块发出留取视频图像并取消跟踪命令,由控制台模块将取消跟踪命令发送给跟踪模块,将留取视频图像命令发送无人机,并等待由无人机发回来的未经处理的原始视频;在跟踪过程中,监控人员可以随时发送取消跟踪命令,让无人机飞回原有巡航区域。
本发明的有益效果是,能够依靠无人机移动灵活的优点,对目标进行快速灵活的检测和跟踪;通过将大部分的图像处理过程移到无人机机身,能够有效降低对无线带宽的需求;本方法采用多层筛选的模式,每一层的方法计算量较少,从而能够适合无人机机身处理性能弱电池电量小的特点,减少对机身处理性能和耗电量的消耗。
附图说明
图1是本发明的功能流程图;
图2是本发明整体的功能模块及其相互关系框图;
图3是本发明所述的特征函数f1上各点的位置关系图;
图4是本发明所述的特征函数f2上各点的位置关系图;
图5是本发明所述的特征函数f3上各点的位置关系图;
图6是本发明所述的特征函数f4上各点的位置关系图;
图7是本发明所述的特征函数f5上各点的位置关系图。
具体实施方式
下面结合附图对本发明作进一步的说明。
所述的一种无人机自动检测目标和跟踪方法,其功能流程图如图1所示,其模块之间的相互关系如图2所示。
下面提供两个具体实施例对本发明所述的一种无人机自动检测目标和跟踪方法的具体过程进行说明:
实施例1:
本实施例实现了一种无人机自动检测目标和跟踪方法的参数初始化的全过程。
1.光照补偿模块在初始化过程中,输入为包含人脸和非人脸的数据集,其处理过程为:首先,对于提取到的彩色图像X,设其红绿蓝分量分别为R,G,B,首先将原始彩色图像转换转成灰度图像,其转换方法为:对于原始彩色图片上的每一个像素点X所对应的R,G,B分量,不失一般性的用i和j表示,则该像素点对应的灰度图像X′的灰度值为X′(i,j)=0.3×B′(i,j)+0.59×G′(i,j)+0.11×R′(i,j),其中X′(i,j)为整数,若所得结果为小数的话,仅取其整数部分,从而得到原始X的灰度图像X′。然后,对该灰度图像进行光照补偿,并将光照补偿后所得的结果发送给图像去噪模块。
所述的对该灰度图像进行光照补偿,其步骤为:第1步,考虑到灰度图像的值只有0-255,所以定义一个长度为256的数组为P,其初始值的所有元素都为0,对于当前图片的每一个点X′(a,b),若其灰度为i,则P(i)=P(i)+1。当X′的所有点计算完成后,便得到当前图像在所有灰度值上的分布P,然后对于数组P的每一个点P(i),使得P(i)=P(i)/(row×col),其中,row为灰度图像X′的行元素的个数,col为灰度图像X′的列元素的个数。此时P保存的是当前每一个灰度的概率分布。第2步,计算累计归一化直方图C,C为与数组P相同维度的数组,并且C的每一个元素的初始值为0,对于数组C的每一个元素i,计算数组P中所有标号小于等于i的元素之和,即第3步,找出图片的最大像素max和最小像素min,其计算方法为,max为数组P按照从标号为255开始到0的顺序中第一个i,使得P(i)≠0,则当前标号记为max=i,min为数组P按照从标号为0开始到255的顺序中第一个j使得P(j)≠0,则当前标号记为min=j。对于原始灰度图像X′的每一个元素,更新其值为X′(i,j)=C(X′(i,j)×(max-min))+min。更新之后的图像X′即为光照补偿后的图像。
光照补偿模块的初始化过程结束。
2.图像去噪模块,接收光照补偿模块传送来的经过光照补偿后的图像X,首先设置一个3×3维的窗口,考虑该图像X的每个像素点X(i,j),以该点为中心点的3×3维矩阵所对应的像素值分别为[X(i-1,j-1),X(i-1,j),X(i-1,j+1),X(i,j-1),X(i,j),X(i,j+1),X(i+1,j+1),X(i+1,j),X(j+1,j+1)]进行从大到小排列,取其排在中间的值为新的像素X′(i,j)所对应滤波后值,注意对于X的边界点,会出现其3×3维的窗口所对应的某些像素点不存在的情况,那么只需计算落在窗口内存在的像素点的中间值即可,若窗口内为偶数个点,将排在中间两个像素值的平均值作为该像素点去噪后的值X′(i,j),从而,新的图像矩阵X′即为滤 波后所得的图片矩阵,将该图片传递给人脸检测模块和机身人脸识别模块。
图像去噪模块的初始化过程结束。
3.人脸检测模块,接收到从图像去噪模块传递来的已经过光照补偿和去噪处理的典型人脸和非人脸的灰度图像,这些样本图片的维度统一为n×n维,然后对每一张样本图片P,构建该图片P所对应的积分图PP,然后使用所有积分图对级联分类器进行参数初始化,最后将训练所得的级联分类器保存起来用于检测过程;
所述的构建图片P所对应的积分图PP,其过程为:
对于图像P,我们从该矩阵的第1行第1列开始构造积分图,初始时设s(1,1)=P(1,1),RR(1,1)=P(1,1),构造过程为一个二层循环:
从而构造出P分量所对应的积分图PP;
所述的使用积分图PP对级联分类器进行训练,其过程为:
第一步,定义弱分类器的函数h(x,f,p,θ)为:
其中f为特征函数,θ为阈值,p取值为1或-1,x代表根据积分图PP所构建的子窗口,对于每一个子窗口x,f(x)为该子窗口x对应于特征函数f的特征值。
为了叙述方便,我们将子窗口x的四个边界分别定义为左上点A,右上点B,左下点C,右下点D,A与B的中心点为ab,A与B的三分之一靠近A点为aab,三分之一靠近B点为abb,其余类推,区域内的中心点用O来表示。则x(A)表示子窗口在左上点A的积分图所对应的值,其余同理。
则定义:
f1=[x(bd)+x(A)-x(B)-x(ac)]-[x(ac)+x(D)-x(bd)-x(C)],并且定义s=1,t=2;
f2=[x(A)+x(cd)-x(BC)-x(ab)]-[x(ab)+x(D)-x(B)-x(cd)],并且定义s=2,t=1;
f3=[x(A)+x(bbd)-x(aac)-x(B)]-2×[x(bdd)+x(aac)-x(acc)-x(bbd)]+[x(D)+x(acc)-x(bdd)-x(C)],并且定义s=1,t=3;
f4=[x(A)+x(ccd)-x(aab)-x(C)]-2×[x(cdd)+x(aab)-x(abb)-x(ccd)]+[x(D)+x(abb)-x(B)-x(cdd)],并且定义s=3,t=1;
f5=[x(A)+x(O)-x(ab)-x(ac)]+[x(D)+x(O)-x(bd)-x(cd)]-[x(ab)+ x(bd)-x(B)-x(O)]-[x(ac)+x(cd)-x(O)-x(C)],并且定义s=2,t=2;
第二步:构建积分图PP所对应的子窗口x。该子窗口x的选择过程如下:
定义自然数s和t,这两个数为子窗口的倍数,这两个数值的选定由特征函数给定,于是,x所对应的子窗口区域为:[(i,j),(i,j+t×(b-1)),(i+s×(a-1),j),(i+s×(a-1),j+t×(b-1))],其中:i,j,a,b分别为从1开始递增的整数,并且能够保证i+s×(a-1)≤n,j+t×(b-1)≤n成立的所有取值。
第三步:对于定义的5个特征函数,计算所有训练样本的所有RGB分量对应于当前子窗口x的特征值f(x),我们此称之为在当前RGB分量下当前子窗口x的特征,如果当前窗口下有wf个子窗口,那么一共有T=3×wf×5个特征,每一个特征表示为ht。设海面上正常物体的图片和异常物体的图片各有K张,则对分类器的训练过程如下:
1.对于每一张图片Xi,yi为该图片的分类,若yi=1表示该图片为异常物体的图片,若yi=-1表示该图片为正常物体的图片;
2.对于t=1,2,…,T,(T为特征个数)
1).所有样本在特征ht下的特征值fr,其中(r=1,2,…,2K),2K为正常物体和异常物体图片的总数;
2).将所得的所有特征值按照从大到小的顺序进行排序;
3).计算全部异常物体子图的权重之和:T+=sum(fr(x)),x∈异常物体的子图;
4).计算全部正常物体子图的权重之和:T-=sum(fr(x)),x∈正常物体的子图;
5).对于排序好的每个元素,从第一个开始处理,设当前处理的元素为i:
a).计算所有大于当前元素异常物体的子图的权重值和:xj∈异常物体的子图,并且j<i;
b).计算所有大于当前元素的正常物体的子图的权重值和:xj∈正常物体的子图并且j<i;
c).计算分类器在当前元素下的误差:
6).选取使得ei最小的元素所对应的标号i,然后将特征值f(xi)和特征值排在i前一位的f(xi-1)求平均值,得到弱分类器的参数θ=[f(xi)+f(xi-1)]/2,若p=-1,否则,p=1;
7).若最小的误差ei>1%,则意味着误差过大,舍弃;否则,将当前ht(x,f,p,θ)作为选好的弱分类器;
3.将所有选好的分类器ht按照t值从小到大排列起来,构成集合H,于是得到了我们要训练的级联分类器。
人脸检测模块的初始化过程结束。
4.机身人脸识别模块的工作过程为:第1步,接收到从图像去噪模块传递来的已经过光照补偿和去噪处理的典型人脸的灰度图像集合X=[x1,x2,…,xm],其中xi为对输入图像向量化表示后的一张人脸图像,xi为列向量,m为当前人脸数据集的人脸图像个数。对于一张维度为n×n维的人脸图像P。第2步,在得到X之后,计算x1,x2,…,xm的平均值μ,然后对X的 每一列计算减去均值μ,从而得到X′,X′为均值化的X。然后计算X′T×X′,其中X′T表示矩阵X′的转置。第3步,计算矩阵X′T×X′的特征值和特征向量。设其特征值为eig(i)其特征向量为vec(i),(1≤i≤n)。我们将特征值按照对应的特征值从大到小排列,然后选择合适的j,使得j为满足的最小值(1≤j≤n),我们选择[eig(1),eig(2),…,eig(j)]所对应的特征向量的集合[vec(1),vec(2),…,vec(j)],设该矩阵为W,将W的转置WT保存在无人机的***内。
所述的对输入图像P向量化表示,其方法为,对于其上的每一个分量P(i,j),按照下列方式进行排列:[P(1,1),P(2,1),…,P(n,1),P(1,2),P(2,2),…,P(n,2),P(1,n),P(2,n),…P(n,n)],然后计算xi(j)=xi(j)/Σ,Σ为xi的所有元素之和,从而得到了其向量化表示。
机身人脸识别模块的初始化过程结束。
5.远端人脸识别模块,在初始化的过程中不工作;
6.目标跟踪模块,在初始化的过程中不工作;
7,飞行控制模块,在初始化的过程中不工作;
8.控制台模块在初始化的过程中不工作。
实施例2:
本实施例实现了一种无人机自动检测目标和跟踪方法的检测全过程。
1.光照补偿模块,其输入为无人机所摄的每一帧图像,考虑到无人机采集到的视频图像在其连续几帧差距非常小,并且考虑到无人机自带的处理器处理速度有限,所以,没必要对每帧都进行处理,可以依据处理器的性能选择合适的帧间隔进行采样。其处理过程与实施例1中的处理过程相同,这里不再赘述,将光照补偿后所得的结果发送给图像去噪模块,光照补偿模块对当前帧的光照补偿过程结束。
2.图像去噪模块,将去噪处理过的图片传递给人脸检测模块,如果需要实时传递图像,则将去噪后的图像按照预定比例压缩并传递给控制台模块。其去噪过程与实施例1中的处理过程相同,这里不再赘述,图像去噪模块对当前帧的图像去噪过程结束。
3.人脸检测模块,首先将接收到从图像去噪模块传递来的已经过光照补偿和去噪处理的无人机采集图像X′按照窗口大小为n×n进行多层分割,对于分割后所得的所有子图片,构建其积分图,最后用训练所得的级联分类器进行分类筛选,得到所有异常物体的子图片,将这些子图片附带其在原始图片的坐标和帧信息传递给机身人脸识别模块。
所述的提取子图的过程为:
首先,对于原始的M行N列的图像,首先定义块大小为n×n,则将提取像素区域定义为:[(i,j),(i,j+n-1),(i+n-1,j),(i+n-1,j+n-1)]所围成的正方形区域,其中i=[1,…,M-n+1],j=[1,…,N-n+1],从而得到缩放图的第1层,该层共有(M-n+1)×(N-n+1)张子图,每张子图大小为n×n维,对于每一张图片,记录其图像的提取区域为左上点A=(i,j)右下点D=(i+n-1,j+n-1);
然后,将原始图缩放成行列。
对于原始图片X,其上的每一个像素点为X(i,j),对于缩放后的图片X1/2(a,b),缩放过程为:
对于
对于
X1/2(a,b)=X(i,j),其中,i=2×a,j=2×b;
其中,和为M/2和N/2所得的整数部分。
对于所得的缩放后的图像继续使用上述方法进行提取子图,从而得到缩放图的第2层,该层共有张子图,每张子图的大小为n×n维,对于每一张子图片,记录其在原始图像上提取区域的坐标(左上点A和右下点D);对于第i层,将原始图像缩放成行列的图像,并继续使用上述方法进行提取子图,该层共有 张子图,每张子图的大小为n×n维,对于每一张子图片,记录其在当前图像上提取区域的坐标(左上点A和右下点D);…;直到时,意味着缩小的遥感图像最短边小于n,此时已经无法提取出子图,于是提取过程结束。
所述的用训练所得的级联分类器进行分类筛选,其过程如下:
设级联分类器H共有T′个分类器hi(i=1,2,…,T′),
对于所用于筛选的每一张n×n维子图
对于i=1,2,…,T′
计算在当前子图下的hi,若hi=0,当前子图是正常物体,该子图的分类筛选过程结束;
若当前子图在所有分类器下的分类结果hi都为1,则说明当前子图为异常物体。
人脸检测模块对当前帧的人脸检测过程结束。
4.机身人脸识别模块,在检测过程中,对于在人脸检测模块中检测出来的人脸图像,首先检测其是否是当前机身人脸识别库的人脸,如果是,说明该人脸已经被识别过,不再进行任何处理;如果不是,则将该人脸图像传递给远端人脸识别模块,待远端人脸识别模块对该人脸进行识别。若远端人脸识别模块识别结果为数据库不存在,则将当前人脸图像加入到机身人脸识别库中。
所述的测其是否是当前机身人脸识别库的人脸,其方法是,若当前机身人脸识别库为空,则识别结果为不存在;若当前机身人脸库为非空,则对当前人脸图像P,首先计算其向量化表示I,计算其特征表示yI=WT×I,然后将该图片的特征表示yI与机身人脸库已保存的所有特征表示计算其欧式距离|yI-y|。若最小距离小于等于阈值θ,则认为该人脸已经被识别过,返回结果为机身人脸库已存在;若最小距离大于阈值θ,则认为该人脸未被识别过,返回结果为机身人脸库不存在。
所述的将当前人脸图像加入到机身人脸识别库中,其方法是:对于当前人脸图像所对应的特征表示yI,将yI加入到已有特征表示的集合中。考虑经过多次检测,无人机***中会存在数量巨大的特征表示y,并且在下一个时段内,前一时段中所识别出的人脸可能已经离开监控区域,所以,对于长时间没有人脸图像与其比对成功的y,则可以删去该y以节省无人机***的空间和计算所有欧氏距离的时间。
所述的比对成功是指,对于所有的y(j)和当前图像yI,使|yI-y(j)|≤θ取值最小的j即为当前人脸图像所分到的类,|yI-y(j)|即为待检测人脸距离已知人脸的最小距离,而y(j)即为比对成功的类,反之,若不存在使|yI-y(j)|≤θ取值最小的j,则意味着比对未成功。
机身人脸识别模块对当前帧的机身人脸识别过程结束。
5.远端人脸识别模块,首先接收来自机身人脸识别模块传递过来的待检测的人脸,然后将待检测人脸距离已知人脸的最小距离(在机身人脸识别模块中已经计算出来该距离)按照从大到小进行排序,并按照从大到小顺序选取前10个人脸进行发送,余下的人脸不做处理。待远端服务器的识别结果返回后,对远端服务器的识别结果进行分类并根据分类结果实现不同的操作,对于识别结果1(数据库不存在),则将该识别结果和对应的图片传递给机身人脸识别模块,对于识别结果2(无法识别人脸),则不做任何处理。对于识别结果3(数据库已存在人脸)将当前人脸图像,及其附带的位置信息和视频段一起,传递给目标跟踪模块和控制端模块。考虑到无线网络的不稳定性,可能会发生数据包丢失的现象,所以,我们可以对该人脸图像的发送至接收时间给以限定,若发送之后5秒钟内没有收到该图片的识别信息,则认为该图像已经丢失,按照识别结果2进行处理,若连续出现图像丢失,则减小每帧发送的人脸数量。
该模块还需要记录从发送待识别人脸图片到收到识别结果期间的视频段。该视频片段的最大长度为5秒,若对于这5秒钟内的任何帧,该帧以前的所有待识别的人脸图片均已返回识别结果,则该帧及该帧以前的所有帧可以删掉,以便节省空间。
远端人脸识别模块对当前帧的远端人脸识别过程结束。
6.目标跟踪模块,接收来自远端人脸识别模块识别出的目标人脸P及其在图像中的位置信息,以及从该人脸图片所对应的视频段(该视频段的起始帧为该人脸图片所对应的视频帧的下一帧),并接收图像去噪模块传来的实时监控图像。当***进入目标跟踪状态时,人脸检测模块,机身人脸识别模块,远端人脸识别模块停止运行。注意到由于该人脸图片所对应的视频段和图像去噪模块传来的实时监控图像可以理解为相连续的监控图片所对应的帧,所以不失一般性的我们在后边叙述将不再区分当前帧是属于视频段还是图像去噪模块传来的帧。目标跟踪模块将按照如下方式运行:第1步,提取目标人脸P的ORB特征,其ORB特征为若干组长度相同的字符串,每一组字符串的元素为[0,1],为了节省空间,我们可以让计算机的一个字节的每一位与位串的一位相对应。第2步,设其目标人脸P在原始帧的位置为(x,y),(x+a,y),(x,y+b),(x+a,y+b),其中a和b表示目标人脸P的长与宽。而设目标人脸P所在的原始帧的下一帧为PP,则在图片PP以目标人脸P在原始帧的位置为(x,y),(x+a,y),(x,y+b),(x+a,y+b)为中心,找出其周围的所有待检测框,并计算每一个待检测框的ORB特征。第3步,计算所有待检测框的ORB特征与原始帧的ORB特征的距离,统计匹配成功的特征点的个数,匹配成功的特征点的个数小于一个事先设定的阈值,则意味着跟踪丢失。否则,选择匹配成功最多的待检测框作为为目标人脸在下一帧的位置。第4步,若找到跟踪目标在下一帧的位置,则将目标人脸P的ORB特征替换为下一帧位置所对应图片的ORB特征,并将该位置发送给控制端模块和飞行控制模块;若跟踪丢失,则将跟踪丢失信号发送给控制端模块和飞行控制模块,并记录跟踪丢失时刻前后一段时间的视频。经过上述4步,目标跟踪模块完成了对一帧图片的跟踪处理,由于下一帧人脸图像的ORB特征已知,所以,在处理接下来的每一帧图片时,只需重复第2,3,4步即可。
所述的提取目标人脸P的ORB特征,其方法如下:由于提取ORB特征的方法已经较为成熟,在OPENCV计算机视觉库里边已有实现,该方法有着提取速度快,对角度不敏感的优点,这两个优点非常适合无人机的使用,因为无人机在空中盘旋会导致人脸图像频繁的出现角度变化,另外,无人机机身处理性能有限,所以快速的角度不敏感的特征提取算法更加适合。对一个图片提取其ORB特征,输入值为当前图片,输出为若干组长度相同的字符串,每一组代表一 个ORB特征。
所述的找出其周围的所有待检测框,对于待提取的图片PP,原始图片位置为(x,y),(x+a,y),(x,y+b),(x+a,y+b)四个点所围成的矩形。我们以(x+i,y+j),(x+a+i,y+j),(x+i,y+b+j),(x+a+i,y+b+j)所围成的矩形,表示原始图片位置向右(若i>0)或者向左(若i<0)移动|i|个像素,并且向下(若j>0)或者向上(若j<0)移动|j|个像素。其方法是:第1步,计算其对应位移k的候选框,由于每个候选框差别仅仅在于(i,j)的取值不同,所以,对于位移为k的候选框,其(i,j)分别为:第一组:(i-k,jj),其中,jj=[j-k+1,j+k-1];第二组:(i+k,jj),其中,jj=[j-k+1,j+k-1];第三组:(ii,j-k),其中,ii=[i-k+1,i+k-1]。第四组:(ii,j+k),其中,ii=[i-k+1,i+k-1];第五组:(i-k,j-k),(i-k,j+k),(i+k,j-k),(i+k,j+k)。由于上述方法会产生较多的候选框,通常情况下k可以不连续,根据当前无人机机身处理器的处理速度决定k的取值跨度,本发明中,我们选择k=[1,3,5,7,9,11],若机身处理速度无法达到处理要求,则可以选择k=[1,5,9],或者k=[1,7]。第2步,考虑到被检测目标可能会远离或者靠近无人机,导致图像显示的照片变大或者变小。所以,需要将跟踪框的大小(a,b)进行放大或者缩小,即(a′,b′)=(a×λ,b×λ),当λ>1时,表示将跟踪框放大,当λ<1时,表示将跟踪框缩小,然后对于每一组(a′,b′),重复第1步计算按照(a′,b′)大小设置的跟踪框的位置,在本发明中,我们选择λ=[0.9,1.1]。
所述的计算所有待检测框的ORB特征与原始帧的ORB特征的距离,考虑到对于每一个ORB特征V,V(i)表示V(i)的第i位,V(i)的取值为0或1,那么对于每一个待检测框的ORB特征与原始帧的ORB特征之间的距离的计算方法如下:对比两组ORB特征的每一位,计算所有对应位不相同的个数,所述的对应位不相同是指V1(i)≠V2(i),其中V1(i)表示第一个ORB特征的第i位,V2(i)表示第二个ORB特征的第i位。
所述的统计匹配成功的特征点的个数,其方法是:
对于ORB特征集合ORB1的每一个ORB特征V1
计算V1与ORB2的每一个特征的距离。
若最小距离小于阈值(通常为50)并且:最小距离<0.8×第二小距离
意味着匹配成功,将匹配成功的数量加1.
该方法结束。
目标跟踪模块对当前帧的目标跟踪过程结束。
7.飞行控制模块,接收来自目标跟踪模块传递来的当前跟踪框的位置信息或者跟踪丢失信息,和控制台模块发送的是否跟踪信号。在人脸检测状态,飞行控制模块忽略掉目标跟踪模块传来的跟踪框位置信息,飞行控制模块控制无人机沿一个固定的路径往复飞行,也可以逆行人的行走方向飞行。当接收到控制台模块发出的跟踪信号时,当前状态从人脸检测状态为目标跟踪状态,并根据当前目标的位置信息调整无人机的位置;若当前状态为目标跟踪状态时收到控制台模块发出的停止跟踪信号时,无人机返回原有巡航区域,并将状态从目标跟踪状态变为人脸检测状态。
所述的根据当前目标的位置信息调整无人机的位置,其方法是:设整个图像为m×n,其中m>n,跟踪框为a×b,则:若n<1/4×b,则意味着目标过大,无人机需要向后移(以无人机摄像头所对的方向为前);若n>1/8×b,则意味着目标过小,无人机需要向前移;若跟踪框距离图像上侧(下侧)的距离小于原始图像上下像素距离的1/8,说明目标远离(靠近),无人机需要前(后)移动;若跟踪框距离图像左侧(右侧)的距离小于原始图像左右像素距离的1/8,说明目标靠左侧(右侧),无人机需要向左(右)移动,或者需要向左(右)旋转。判断无人机选择向左(右)移动或者向左(右)旋转的方法如下,若无人机左(右)侧没有障碍物或者障碍物的距离大于阈值ρ1,则无人机向左(右)旋转,旋转角度为使跟踪目标在无人机水平中心的角度;若无人机的左(右)侧障碍物的距离小于等于阈值ρ1大于阈值ρ2,则无人机向左(右)移动,移动距离为不大于ρ1-ρ2并使得目标尽可能靠近水平中心的距离,在本发明中,若无人机处于开阔地带(即无人机的10个距离探测器探测到的距离均大于20米),则ρ1=10米,ρ2=5米;若无人机周边障碍物较多,ρ1=5米,ρ2=3米。
飞行控制模块对当前帧的飞行控制过程结束。
8.控制台模块接收来自无人机的图像去噪模块所传递过来的经过压缩的图像,压缩图像的目的是减少通信量,在带宽较小的时候,可以选择不传递图像。当远端人脸检测模块检测到的目标为数据库中存在的个体,远端人脸检测模块将该个体信息和待检测人脸的图像传递给控制台模块模块,由监控中心的监控人员进行人工比对,如果监控人员认为比对正确并且认为当前有必要对该个体进行跟踪,则由监控人员向控制台模块发出跟踪命令,由控制台模块将跟踪命令发送给飞行控制模块;如果监控人员认为比对错误,则由监控人员向控制台模块发出取消跟踪命令,由控制台模块将取消跟踪命令发送给跟踪模块;如果监控人员认为比对正确,但是当前情况并不适合跟踪,则由监控人员向控制台模块发出留取视频图像并取消跟踪命令,由控制台模块将取消跟踪命令发送给跟踪模块,将留取视频图像命令发送无人机,并等待由无人机发回来的未经处理的原始视频;在跟踪过程中,监控人员可以随时发送取消跟踪命令,让无人机飞回原有巡航区域。
控制台模块对当前帧的控制操作结束。
Claims (9)
1.一种无人机自动检测目标和跟踪方法,其特征在于,包括无人机,装配在无人机上的声呐距离探测器,光照补偿模块,图像去噪模块,人脸检测模块,机身人脸识别模块,远端人脸识别模块,目标跟踪模块,飞行控制模块,控制台模块,本方法的步骤如下:
步骤一、光照补偿模块,将无人机所摄的图像使用直方图均衡化方法对光照进行补偿,并将光照补偿后的所摄图像传递给图像去噪模块;
步骤二、图像去噪模块将接收到的光照补偿后的图像,使用中值滤波器进行滤波,用以去掉噪声,若当前***处于人脸检测状态,则将去噪后的图像传递给人脸检测模块,若当前***处于目标跟踪状态,则将去噪后的图像传递给目标跟踪模块;
步骤三、人脸检测模块,将接收到的图像使用基于哈尔特征和级联强分类器算法进行人脸检测,并将检测到的人脸图像传递给机身人脸识别模块;
步骤四、机身人脸识别模块为运行在无人机机身上的人脸识别模块,该模块接收消息源为两个并分别做不同的处理:1.接收来自人脸检测模块的人脸图像,并对这些人脸图像进行识别,筛选掉那些已经被检测过的人脸,并将那些未被检测过的人脸图像发送给远端人脸识别模块;2.接收来自于远端人脸识别模块中,返回结果为“数据库不存在”的人脸图片,并根据该返回结果,对机身人脸识别模块的分类器进行修改,当下一帧收到同一个人的人脸图像时,能够识别出该人脸从而将该人脸筛选掉,从而减少远端人脸识别模块的负担;
步骤五、远端人脸识别模块为运行在远端服务器上的人脸识别***,该***接收无人机所发送过来的人脸图像,并对该人脸图像进行识别,返回结果有三种:1.数据库不存在;2.无法识别人脸;3.数据库已存在人脸;若返回结果为1,则将该识别结果发送给人脸检测模块,若返回结果为2则不做处理;若返回结果为3,则向目标跟踪模块和控制台模块发送识别结果及图片信息;在初始化过程中,该模块接收从图像去噪模块传递来的已经过光照补偿和去噪处理的典型人脸灰度图像集合;
步骤六、目标跟踪模块,接收到来自远端人脸识别模块识别出的目标人脸及其在图像中的位置信息,对当前图像提取ORB特征,并停止人脸检测模块,机身人脸识别模块,远端人脸识别模块的运行,***转入跟踪状态;跟踪状态接收来自于图像去噪模块的人脸输入图像,并从该人脸输入图像的下一帧图像中提取候选特征框,以及放大或缩小的候选特征框;根据图像的ORB特征,选择与原始特征最相似的特征框作为下一帧的跟踪位置;并将位置信息发送给飞行控制模块;
步骤七、飞行控制模块,接收到来自控制台的跟踪相关命令和目标跟踪模块的被跟踪目标的位置信息,若未收到控制台发送的跟踪命令,则飞行控制模块仍按照原有路线飞行,若收到控制台发送的跟踪命令,则根据跟踪框的位置调整无人机的位置;若接收到控制台模块发送的取消跟踪信号,则取消当前跟踪,启动人脸检测模块,机身人脸识别模块,远端人脸识别模块,无人机***进入人脸检测状态;
步骤八:控制台模块为在监控中心的控制***,该控制***与现有监控中心的***进行兼容,该控制台模块接收来自无人机的实时监控图像,并当发现被识别目标时,将当前检测图片和数据库里识别的图片进行显示并提示监控中心人员进行人工比对,若监控中心人员认为比对成功并且需要跟踪,则监控人员进行报警,并通知无人机进行跟踪,若监控中心人员认为比对成功但是不宜跟踪,则采集前后一段时间的视频信息及地点信息,此时无人机仍然按照固定的巡航路线飞行,若监控中心认为比对不成功,则向无人机发送取消跟踪命令,无人机计入人脸检测状态。
2.根据权利要求1所述的一种无人机自动检测目标和跟踪方法,其特征在于步骤一中所述的光照补偿模块的具体工作过程为:
在初始化过程中,其输入为包含人脸和非人脸的数据集,在检测过程中,其输入为无人机所摄的每一帧图像,考虑到无人机采集到的视频图像在其连续几帧差距非常小,并且考虑到无人机自带的处理器处理速度有限,所以,依据处理器的性能选择合适的帧间隔进行采样;其处理过程为:首先,对于提取到的彩色图像X,设其红绿蓝分量分别为R,G,B,首先将原始彩色图像转换成灰度图像,其转换方法为:对于原始彩色图片上的每一个像素点X(i,j)所对应的R,G,B分量R(i,j)、G(i,j)、B(i,j),则该像素点对应的灰度图像X′的灰度值为X′(i,j)=0.3×B(i,j)+0.59×G(i,j)+0.11×R(i,j),其中X′(i,j)为整数,若所得结果为小数的话,仅取其整数部分,从而得到原始X的灰度图像X′;然后,对该灰度图像进行光照补偿,并将光照补偿后所得的结果发送给图像去噪模块;
所述的对该灰度图像进行光照补偿,其步骤为:第1步,考虑到灰度图像的值只有0-255,所以定义一个长度为256的数组为P,其初始值的所有元素都为0,对于当前图片的每一个点X′(a,b),若其灰度为i,则P(i)=P(i)+1;当X′的所有点计算完成后,便得到当前图像在所有灰度值上的分布P,然后对于数组P的每一个点P(i),使得P(i)=P(i)/(row×col),其中,row为灰度图像X′的行元素的个数,col为灰度图像X′的列元素的个数;此时P保存的是当前每一个灰度的概率分布;第2步,计算累计归一化直方图C,C为与数组P相同维度的数组,并且C的每一个元素的初始值为0,对于数组C的每一个元素i,计算数组P中所有标号小于等于i的元素之和,即第3步,找出图片的最大像素max和最小像素min,其计算方法为,max为数组P按照从标号为255开始到0的顺序中第一个i,使得P(i)≠0,则当前标号记为max=i,min为数组P按照从标号为0开始到255的顺序中第一个j使得P(j)≠0,则当前标号记为min=j;对于原始灰度图像X′的每一个元素,更新其值为X′(i,j)=C(X′(i,j)×(max-min))+min;更新之后的图像X′即为光照补偿后的图像。
3.根据权利要求1所述的一种无人机自动检测目标和跟踪方法,其特征在于步骤二中所述的图像去噪模块的具体工作过程为:图像去噪模块,接收光照补偿模块传送来的经过光照补偿后的图像X,首先设置一个3×3维的窗口,考虑该图像X的每个像素点X(i,j),以该点为中心点的3×3维矩阵所对应的像素值分别为[X(i-1,j-1),X(i-1,j),X(i-1,j+1),X(i,j-1),X(i,j),X(i,j+1),X(i+1,j-1),X(i+1,j),X(i+1,j+1)]进行从大到小排列,取其排在中间的值为新的像素X′(i,j)所对应滤波后值,注意对于X的边界点,会出现其3×3维的窗口所对应的某些像素点不存在的情况,那么只需计算落在窗口内存在的像素点的中间值即可,若窗口内为偶数个点,将排在中间两个像素值的平均值作为该像素点去噪后的值X′(i,j),从而,新的图像矩阵X′即为滤波后所得的图片矩阵;在初始化阶段,将去噪处理过的图片传递给人脸检测模块和机身人脸识别模块;在检测过程中,将去噪处理过的图片传递给人脸检测模块,如果需要实时传递图像,则将去噪后的图像按照预定比例压缩并传递给控制台模块。
4.根据权利要求1所述的一种无人机自动检测目标和跟踪方法,其特征在于步骤三中人脸检测模块的具体工作过程为:
所述的人脸检测模块,在初始化的过程中,接收到从图像去噪模块传递来的已经过光照补偿和去噪处理的典型人脸和非人脸的灰度图像,这些样本图片的维度统一为n×n维,然后对每一张样本图片P,构建该图片P所对应的积分图PP,然后使用所有积分图对级联分类器进行参数初始化,最后将训练所得的级联分类器保存起来用于检测过程;在检测过程中,首先将接收到从图像去噪模块传递来的已经过光照补偿和去噪处理的无人机采集图像X′按照窗口大小为n×n进行多层分割,对于分割后所得的所有子图片,构建其积分图,最后用训练所得的级联分类器进行分类筛选,得到所有异常物体的子图片,将这些子图片附带其在原始图片的坐标和帧信息传递给机身人脸识别模块。
5.根据权利要求1所述的一种无人机自动检测目标和跟踪方法,其特征在于步骤四中所述的机身人脸识别模块的具体工作过程为:
所述的机身人脸识别模块,在初始化的过程中,第1步,接收到从图像去噪模块传递来的已经过光照补偿和去噪处理的典型人脸的灰度图像集合X=[x1,x2,…,xm],其中xi为对输入图像向量化表示后的一张人脸图像,xi为列向量,m为当前人脸数据集的人脸图像个数;对于一张维度为n×n维的人脸图像P;第2步,在得到X之后,计算x1,x2,…,xm的平均值μ,然后对X的每一列计算减去均值μ,从而得到X′,X′为均值化的X;然后计算X′T×X′,其中X′T表示矩阵X′的转置;第3步,计算矩阵X′T×X′的特征值和特征向量;设其特征值为eig(i)其特征向量为vec(i),其中1≤i≤n;我们将特征值按照对应的特征值从大到小排列,然后选择合适的j,使得j为满足的最小值,其中1≤j≤n,我们选择[eig(1),eig(2),…,eig(j)]所对应的特征向量的集合[vec(1),vec(2),…,vec(j)],设该矩阵为W,将W的转置WT保存在无人机的***内;在检测过程中,对于检测出来的人脸图像,首先检测其是否是当前机身人脸识别库的人脸,如果是,说明该人脸已经被识别过,不再进行任何处理;如果不是,则将该人脸图像传递给远端人脸识别模块,待远端人脸识别对该人脸进行识别;若远端人脸识别模块识别结果为数据库不存在,则将当前人脸图像加入到机身人脸识别库中;
所述的对输入图像P向量化表示,其方法为,对于其上的每一个分量P(i,j),按照下列方式进行排列:[P(1,1),P(2,1),…,P(n,1),P(1,2),P(2,2),…,P(n,2),P(1,n),P(2,n),…P(n,n)],然后计算xi(j)=xi(j)/∑,∑为xi的所有元素之和,从而得到了其向量化表示;
所述的检测其是否是当前机身人脸识别库的人脸,其方法是,若当前机身人脸识别库为空,则识别结果为不存在;若当前机身人脸库为非空,则对当前人脸图像P,首先计算其向量化表示I,计算其特征表示yI=WT×I,然后将该图片的特征表示yI与机身人脸库已保存的所有特征表示计算其欧式距离|yI-y|;若最小距离小于等于阈值θ,则认为该人脸已经被识别过,返回结果为机身人脸库已存在;若最小距离大于阈值θ,则认为该人脸未被识别过,返回结果为机身人脸库不存在;
所述的将当前人脸图像加入到机身人脸识别库中,其方法是:对于当前人脸图像所对应的特征表示yI,将yI加入到已有特征表示的集合中;对于长时间没有人脸图像与其比对成功的y,则删去该y以节省无人机***的空间和计算所有欧氏距离的时间;
所述的比对成功是指,对于所有的y(j)和当前图像yI,使|yI-y(j)|≤θ取值最小的j即为当前人脸图像所分到的类,|yI-y(j)|即为待检测人脸距离已知人脸的最小距离,而y(j)即为比对成功的类,反之,若不存在使|yI-y(j)|≤θ取值最小的j,则意味着比对未成功。
6.根据权利要求1所述的一种无人机自动检测目标和跟踪方法,其特征在于步骤五中所述的远端人脸识别模块的具体工作过程为:
远端人脸识别模块在检测过程中,首先接收来自机身人脸识别模块传递过来的待检测的人脸,然后将待检测人脸距离已知人脸的最小距离按照从大到小进行排序,该最小距离在机身人脸识别模块中已经计算出来,并按照从大到小顺序选取前10个人脸进行发送,余下的人脸不做处理;待远端服务器的识别结果返回后,对远端服务器的识别结果进行分类并根据分类结果实现不同的操作,对于识别结果1:数据库不存在,则将该识别结果和对应的图片传递给机身人脸识别模块,对于识别结果2:无法识别人脸,则不做任何处理;对于识别结果3:数据库已存在人脸将当前人脸图像,及其附带的位置信息和视频段一起,传递给目标跟踪模块和控制台模块;若发送之后5秒钟内没有收到该图片的识别信息,则认为该图像已经丢失,按照识别结果2进行处理,若连续出现图像丢失,则减小每帧发送的人脸数量;
该模块还需要记录从发送待识别人脸图片到收到识别结果期间的视频段;该视频片段的最大长度为5秒,若对于这5秒钟内的任何帧,该帧以前的所有待识别的人脸图片均已返回识别结果,则删掉该帧及该帧以前的所有帧,以便节省空间。
7.根据权利要求1所述的一种无人机自动检测目标和跟踪方法,其特征在于步骤六中所述的目标跟踪模块的具体工作过程为:
目标跟踪模块在检测过程中,接收来自远端人脸识别模块识别出的目标人脸P及其在图像中的位置信息,以及从该人脸图片所对应的视频段,该视频段的起始帧为该人脸图片所对应的视频帧的下一帧,并接收图像去噪模块传来的实时监控图像;当***进入目标跟踪状态时,人脸检测模块,机身人脸识别模块,远端人脸识别模块停止运行;注意到由于该人脸图片所对应的视频段和图像去噪模块传来的实时监控图像能够变为相连续的监控图片所对应的帧,所以我们在后边叙述将不再区分当前帧是属于视频段还是图像去噪模块传来的帧;目标跟踪模块将按照如下方式运行:第1步,提取目标人脸P的ORB特征,其ORB特征为若干组长度相同的字符串,每一组字符串的元素为[0,1],为了节省空间,我们让计算机的一个字节的每一位与位串的一位相对应;第2步,设其目标人脸P在原始帧的位置为(x,y),(x+α,y),(x,y+b),(x+a,y+b),其中a和b表示目标人脸P的长与宽;而设目标人脸P所在的原始帧的下一帧为PP,则在图片PP以目标人脸P在原始帧的位置为(x,y),(x+a,y),(x,y+b),(x+a,y+b)为中心,找出其周围的所有待检测框,并计算每一个待检测框的ORB特征;第3步,计算所有待检测框的ORB特征与原始帧的ORB特征的距离,统计匹配成功的特征点的个数,匹配成功的特征点的个数小于一个事先设定的阈值,则意味着跟踪丢失;否则,选择匹配成功最多的待检测框作为为目标人脸在下一帧的位置;第4步,若找到跟踪目标在下一帧的位置,则将目标人脸P的ORB特征替换为下一帧位置所对应图片的ORB特征,并将该位置发送给控制台模块和飞行控制模块;若跟踪丢失,则将跟踪丢失信号发送给控制台模块和飞行控制模块,并记录跟踪丢失时刻前后一段时间的视频;经过上述4步,目标跟踪模块完成了对一帧图片的跟踪处理,由于下一帧人脸图像的ORB特征已知,所以,在处理接下来的每一帧图片时,只需重复第2,3,4步即可;
所述的提取目标人脸P的ORB特征,其方法如下:由于提取ORB特征的方法已经较为成熟,在OPENCV计算机视觉库里边已有实现,该方法有着提取速度快,对角度不敏感的优点,这两个优点非常适合无人机的使用,因为无人机在空中盘旋会导致人脸图像频繁的出现角度变化,另外,无人机机身处理性能有限,所以快速的角度不敏感的特征提取算法更加适合;对一个图片提取其ORB特征,输入值为当前图片,输出为若干组长度相同的字符串,每一组代表一个ORB特征;
所述的找出其周围的所有待检测框,对于待提取的图片PP,原始图片位置为(x,y),(x+a,y),(x,y+b),(x+a,y+b)四个点所围成的矩形;我们以(x+i,y+j),(x+a+i,y+j),(x+i,y+b+j),(x+a+i,y+b+j)所围成的矩形,表示从原始图片位置移动,若i>0则向右移动|i|个像素,若i<0则向左移动|i|个像素,并且若j>0则向下移动|j|个像素,若j<0则向上移动|j|个像素;其方法是:第1步,计算其对应位移k的候选框,由于每个候选框差别仅仅在于(i,j)的取值不同,所以,对于位移为k的候选框,其(i,j)分别为:第一组:(i-k,jj),其中,jj=[j-k+1,j+k-1];第二组:(i+k,jj),其中,jj=[j-k+1,j+k-1];第三组:(ii,j-k),其中,ii=[i-k+1,i+k-1];第四组:(ii,j+k),其中,ii=[i-k+1,i+k-1];第五组:(i-k,j-k),(i-k,j+k),(i+k,j-k),(i+k,j+k);我们选择k=[1,3,5,7,9,11],若机身处理速度无法达到处理要求,则选择k=[1,5,9];第2步,将跟踪框的大小(a,b)进行放大或者缩小,即(a′,b′)=(a×λ,b×λ),当λ>1时,表示将跟踪框放大,当λ<1时,表示将跟踪框缩小,然后对于每一组(a′,b′),重复第1步计算按照(a′,b′)大小设置的跟踪框的位置,我们选择λ=[0.9,1.1];
所述的计算所有待检测框的ORB特征与原始帧的ORB特征的距离,考虑到对于每一个ORB特征V,V(i)表示V(i)的第i位,V(i)的取值为0或1,那么对于每一个待检测框的ORB特征与原始帧的ORB特征之间的距离的计算方法如下:对比两组ORB特征的每一位,计算所有对应位不相同的个数,所述的对应位不相同是指V1(i)≠V2(i),其中V1(i)表示第一个ORB特征的第i位,V2(i)表示第二个ORB特征的第i位;
所述的统计匹配成功的特征点的个数,其方法是:
对于ORB特征集合ORB1的每一个ORB特征V1
计算V1与ORB2的每一个特征的距离;
若最小距离小于阈值并且:最小距离<0.8×第二小距离
意味着匹配成功,将匹配成功的数量加1。
8.根据权利要求1所述的一种无人机自动检测目标和跟踪方法,其特征在于步骤七中所述的飞行控制模块的具体工作过程为:
所述的飞行控制模块,接收来自目标跟踪模块传递来的当前跟踪框的位置信息或者跟踪丢失信息,和控制台模块发送的是否跟踪信号;在人脸检测状态,飞行控制模块忽略掉目标跟踪模块传来的跟踪框位置信息,飞行控制模块控制无人机沿一个固定的路径往复飞行,或根据控制台模块的指令逆行人的行走方向飞行;当接收到控制台模块发出的跟踪信号时,当前状态从人脸检测状态为目标跟踪状态,并根据当前目标的位置信息调整无人机的位置;若当前状态为目标跟踪状态时收到控制台模块发出的停止跟踪信号时,无人机返回原有巡航区域,并将状态从目标跟踪状态变为人脸检测状态;
所述的根据当前目标的位置信息调整无人机的位置,其方法是:以无人机摄像头所对的方向为前,设整个图像为m×n,其中m>n,跟踪框为a×b,则:若n<1/4×b,则意味着目标过大,无人机需要向后移;若n>1/8×b,则意味着目标过小,无人机需要向前移;若跟踪框距离图像上侧的距离小于原始图像上下像素距离的1/8,说明目标远离,无人机需要前移动,若跟踪框距离图像下侧的距离小于原始图像上下像素距离的1/8,说明目标靠近,无人机需要后移动;若跟踪框距离图像左侧的距离小于原始图像左右像素距离的1/8,说明目标靠左侧,无人机需要向左移动,或者需要向左旋转,若跟踪框距离图像右侧的距离小于原始图像左右像素距离的1/8,说明目标靠右侧,无人机需要向右移动,或者需要向右旋转;判断无人机选择向左移动或者向左旋转的方法如下,若无人机左侧没有障碍物或者障碍物的距离大于阈值ρ1,则无人机向左旋转,旋转角度为使跟踪目标在无人机水平中心的角度,判断无人机选择向右移动或者向右旋转的方法如下,若无人机右侧没有障碍物或者障碍物的距离大于阈值ρ1,则无人机向右旋转,旋转角度为使跟踪目标在无人机水平中心的角度;若无人机的左侧障碍物的距离小于等于阈值ρ1大于阈值ρ2,则无人机向左移动,移动距离为不大于ρ1-ρ2并使得目标靠近水平中心的距离,若无人机的右侧障碍物的距离小于等于阈值ρ1大于阈值ρ2,则无人机向右移动,移动距离为不大于ρ1-ρ2并使得目标靠近水平中心的距离。
9.根据权利要求1所述的一种无人机自动检测目标和跟踪方法,其特征在于步骤八中所述的控制台模块的具体工作过程为:
所述的控制台模块为嵌入在监控中心的控制***,该控制台模块接收来自无人机的图像去噪模块所传递过来的经过压缩的图像,压缩图像的目的是减少通信量,在带宽较小的时候,不传递图像;当远端人脸检测模块检测到的目标为数据库中存在的个体,远端人脸检测模块将该个体信息和待检测人脸的图像传递给控制台模块模块,由监控中心的监控人员进行人工比对,如果监控人员认为比对正确并且认为当前有必要对该个体进行跟踪,则由监控人员向控制台模块发出跟踪命令,由控制台模块将跟踪命令发送给飞行控制模块;如果监控人员认为比对错误,则由监控人员向控制台模块发出取消跟踪命令,由控制台模块将取消跟踪命令发送给跟踪模块;如果监控人员认为比对正确,但是当前情况并不适合跟踪,则由监控人员向控制台模块发出留取视频图像并取消跟踪命令,由控制台模块将取消跟踪命令发送给跟踪模块,将留取视频图像命令发送无人机,并等待由无人机发回来的未经处理的原始视频;在跟踪过程中,监控人员能够随时发送取消跟踪命令,让无人机飞回原有巡航区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510794928.6A CN105447459B (zh) | 2015-11-18 | 2015-11-18 | 一种无人机自动检测目标和跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510794928.6A CN105447459B (zh) | 2015-11-18 | 2015-11-18 | 一种无人机自动检测目标和跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105447459A CN105447459A (zh) | 2016-03-30 |
CN105447459B true CN105447459B (zh) | 2019-03-22 |
Family
ID=55557619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510794928.6A Expired - Fee Related CN105447459B (zh) | 2015-11-18 | 2015-11-18 | 一种无人机自动检测目标和跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105447459B (zh) |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106828927A (zh) * | 2015-12-04 | 2017-06-13 | 中华映管股份有限公司 | 利用无人飞行器的保姆*** |
CN107291216A (zh) * | 2016-04-05 | 2017-10-24 | 中兴通讯股份有限公司 | 一种移动终端目标跟踪方法、装置和移动终端 |
CN107284661B (zh) * | 2016-04-06 | 2020-07-17 | 成都积格科技有限公司 | 警用运动目标追踪无人机 |
CN105898216B (zh) * | 2016-04-14 | 2019-01-15 | 武汉科技大学 | 一种利用无人机进行的人数计数方法 |
CN105868413B (zh) * | 2016-04-28 | 2019-09-20 | 南京信息职业技术学院 | 一种快速定位突发案情的视频检索方法 |
CN105959625B (zh) * | 2016-05-04 | 2020-04-14 | 北京博瑞云飞科技发展有限公司 | 控制无人机追踪拍摄的方法及装置 |
CN105955308B (zh) * | 2016-05-20 | 2018-06-29 | 腾讯科技(深圳)有限公司 | 一种飞行器的控制方法和装置 |
CN106056075A (zh) * | 2016-05-27 | 2016-10-26 | 广东亿迅科技有限公司 | 基于无人机的社区网格化中重点人员识别及跟踪*** |
CN106096573A (zh) * | 2016-06-23 | 2016-11-09 | 乐视控股(北京)有限公司 | 目标跟踪方法、装置、***及远程监控*** |
WO2018006224A1 (en) | 2016-07-04 | 2018-01-11 | SZ DJI Technology Co., Ltd. | System and method for automated tracking and navigation |
CN106292716A (zh) * | 2016-08-09 | 2017-01-04 | 西安斯凯智能科技有限公司 | 一种攀岩用跟踪***及跟踪方法 |
CN107439004B (zh) | 2016-08-11 | 2020-04-10 | 深圳市道通智能航空技术有限公司 | 一种跟踪和识别的方法、***及飞行器 |
CN106199611B (zh) | 2016-08-19 | 2020-04-07 | 乐鑫信息科技(上海)股份有限公司 | 集成声呐的物联网设备及其适用的空间环境探测*** |
CN106254836A (zh) * | 2016-09-19 | 2016-12-21 | 南京航空航天大学 | 无人机红外图像目标跟踪***及方法 |
CN109740583A (zh) * | 2016-09-20 | 2019-05-10 | 吴玉芳 | Led路灯和基于人脸识别的智能视频监控*** |
US20180365839A1 (en) * | 2016-09-27 | 2018-12-20 | SZ DJI Technology Co., Ltd. | Systems and methods for initialization of target object in a tracking system |
CN106444847A (zh) * | 2016-11-14 | 2017-02-22 | 徐志勇 | 无人机全方位目标追踪*** |
CN106650620B (zh) * | 2016-11-17 | 2019-05-14 | 华南理工大学 | 一种应用无人机监测的目标人员识别追踪方法 |
CN106709456B (zh) * | 2016-12-27 | 2020-03-31 | 成都通甲优博科技有限责任公司 | 基于计算机视觉的无人机目标跟踪框初始化方法 |
CN106874839A (zh) * | 2016-12-30 | 2017-06-20 | 易瓦特科技股份公司 | 脸部信息识别的方法及装置 |
CN106910206B (zh) * | 2017-01-17 | 2020-02-18 | 邢惠钧 | 一种目标跟踪方法及装置 |
CN106791440A (zh) * | 2017-01-20 | 2017-05-31 | 奇酷互联网络科技(深圳)有限公司 | 控制人脸检测功能的方法及装置 |
CN107018361A (zh) * | 2017-03-27 | 2017-08-04 | 上海斐讯数据通信技术有限公司 | 基于无人机航拍及图像分析识别违禁渔具的方法及*** |
CN107128492B (zh) * | 2017-05-05 | 2019-09-20 | 成都通甲优博科技有限责任公司 | 一种基于人头检测的无人机跟踪方法、装置及无人机 |
CN109215056A (zh) * | 2017-07-03 | 2019-01-15 | 昊翔电能运动科技(昆山)有限公司 | 目标追踪方法及装置 |
CN109214243A (zh) * | 2017-07-03 | 2019-01-15 | 昊翔电能运动科技(昆山)有限公司 | 目标跟踪方法、装置及无人机 |
WO2019028761A1 (en) * | 2017-08-10 | 2019-02-14 | Beijing Airlango Technology, Co., Ltd. | TRACKING OBJECT USING DEPTH INFORMATION |
CN108875488B (zh) * | 2017-09-29 | 2021-08-06 | 北京旷视科技有限公司 | 对象跟踪方法、对象跟踪装置以及计算机可读存储介质 |
CN107909600B (zh) * | 2017-11-04 | 2021-05-11 | 南京奇蛙智能科技有限公司 | 一种基于视觉的无人机实时运动目标分类与检测方法 |
CN107908195B (zh) * | 2017-11-06 | 2021-09-21 | 深圳市道通智能航空技术股份有限公司 | 目标追踪方法、装置、追踪器及计算机可读存储介质 |
CN109766738B (zh) * | 2017-11-09 | 2021-09-10 | 比亚迪半导体股份有限公司 | 一种指纹识别方法与装置、计算机可读存储介质 |
CN108363946B (zh) * | 2017-12-29 | 2022-05-03 | 成都通甲优博科技有限责任公司 | 基于无人机的人脸跟踪***及方法 |
CN108388838B (zh) * | 2018-01-26 | 2021-07-09 | 重庆邮电大学 | 无人机对地人群监控***及监控方法 |
CN108492312B (zh) * | 2018-02-26 | 2021-06-29 | 大连大学 | 光照变化下基于逆向稀疏表示的视觉跟踪方法 |
CN108460356B (zh) * | 2018-03-13 | 2021-10-29 | 上海海事大学 | 一种基于监控***的人脸图像自动处理*** |
CN108509986A (zh) * | 2018-03-16 | 2018-09-07 | 上海海事大学 | 基于模糊不变卷积神经网络的飞机目标识别方法 |
CN108759826B (zh) * | 2018-04-12 | 2020-10-27 | 浙江工业大学 | 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 |
CN110363796A (zh) * | 2018-05-25 | 2019-10-22 | 哈尔滨工程大学 | 基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法 |
CN110619339B (zh) * | 2018-06-19 | 2022-07-15 | 赛灵思电子科技(北京)有限公司 | 一种目标检测方法与装置 |
CN110782554B (zh) * | 2018-07-13 | 2022-12-06 | 北京佳惠信达科技有限公司 | 一种基于视频摄影的门禁控制方法 |
CN109034130A (zh) * | 2018-08-31 | 2018-12-18 | 深圳市研本品牌设计有限公司 | 一种用于新闻追踪的无人机及存储介质 |
CN108921145A (zh) * | 2018-08-31 | 2018-11-30 | 深圳市研本品牌设计有限公司 | 基于热点人物新闻追踪方法及*** |
CN109583347A (zh) * | 2018-11-22 | 2019-04-05 | 华南理工大学 | 一种针对移动平台长时间跟踪的方法 |
CN111352435B (zh) * | 2018-12-20 | 2021-07-16 | 中国科学院沈阳自动化研究所 | 一种无人机编队自主空中加油方法 |
CN109660745A (zh) * | 2018-12-21 | 2019-04-19 | 深圳前海微众银行股份有限公司 | 视频录制方法、装置、终端及计算机可读存储介质 |
CN109521785B (zh) * | 2018-12-29 | 2021-07-27 | 西安电子科技大学 | 一种随身拍智能旋翼飞行器*** |
CN109819208B (zh) * | 2019-01-02 | 2021-01-12 | 江苏警官学院 | 一种基于人工智能动态监控的密集人群安防监控管理方法 |
CN110135274B (zh) * | 2019-04-19 | 2023-06-16 | 佛山科学技术学院 | 一种基于人脸识别的人流量统计方法 |
CN110162102A (zh) * | 2019-05-17 | 2019-08-23 | 广东技术师范大学 | 基于云平台和机器视觉的无人机自动识别跟踪方法及*** |
CN110245743A (zh) * | 2019-05-23 | 2019-09-17 | 中山大学 | 一种异步分布式深度学习训练方法、装置及*** |
CN110298866A (zh) * | 2019-06-06 | 2019-10-01 | 武汉易科空间信息技术股份有限公司 | 基于无人机影像技术的地面物体跟踪方法及*** |
CN110457987A (zh) * | 2019-06-10 | 2019-11-15 | 中国刑事警察学院 | 基于无人机的人脸识别方法 |
CN110209201A (zh) * | 2019-06-24 | 2019-09-06 | 重庆化工职业学院 | 一种无人机智能追踪*** |
CN112242061A (zh) * | 2019-07-17 | 2021-01-19 | 杭州海康威视数字技术股份有限公司 | 一种基于人脸分析的车辆管理*** |
CN110633692A (zh) * | 2019-09-26 | 2019-12-31 | 广东工业大学 | 一种用于无人机航拍的行人识别方法和相关装置 |
CN111091064A (zh) * | 2019-11-22 | 2020-05-01 | 天津理工大学 | 一种基于亲和力度最近邻分类算法的人脸识别身份认证方法 |
CN111179490B (zh) * | 2019-12-13 | 2022-01-11 | 新石器慧通(北京)科技有限公司 | 一种用于用户核验的可移动载体、控制***及无人车辆 |
CN113093176B (zh) * | 2019-12-23 | 2022-05-17 | 北京三快在线科技有限公司 | 线状障碍物检测方法、装置、电子设备和存储介质 |
CN111047879A (zh) * | 2019-12-24 | 2020-04-21 | 苏州奥易克斯汽车电子有限公司 | 一种车辆超速检测方法 |
CN113538843A (zh) * | 2020-04-16 | 2021-10-22 | 上海鲸豚数据技术有限公司 | 车内人体检测报警服务器及其方法 |
WO2021217430A1 (en) * | 2020-04-28 | 2021-11-04 | SZ DJI Technology Co., Ltd. | System and method for operating a movable object based on human body indications |
CN111680587B (zh) * | 2020-05-26 | 2022-09-13 | 河海大学常州校区 | 一种基于多目标跟踪的鸡群活动量实时估算方法及*** |
CN111798482A (zh) * | 2020-06-16 | 2020-10-20 | 浙江大华技术股份有限公司 | 一种目标跟踪方法及设备 |
CN111741216B (zh) * | 2020-06-17 | 2021-08-03 | 中国人民解放军陆军工程大学 | 一种无人机影像采集方法 |
CN112418060B (zh) * | 2020-11-19 | 2021-09-10 | 西南大学 | 一种基于神经网络的面部识别*** |
CN112861622A (zh) * | 2020-12-31 | 2021-05-28 | 厦门唯识筋斗云科技有限公司 | 一种基于无人机平台的智能识别方法、设备及*** |
CN113205619A (zh) * | 2021-03-15 | 2021-08-03 | 广州朗国电子科技有限公司 | 基于无线网络的门锁人脸识别方法、设备以及介质 |
CN113759986A (zh) * | 2021-09-27 | 2021-12-07 | 深圳市道通智能航空技术股份有限公司 | 一种无人机监测追踪方法、装置、设备及存储介质 |
CN114155281B (zh) * | 2021-12-02 | 2023-07-18 | 北京航空航天大学 | 一种无人机目标跟踪自动初始化方法 |
CN117716315A (zh) * | 2022-03-28 | 2024-03-15 | 深圳市大疆创新科技有限公司 | 无人飞行器的控制方法、装置、无人飞行器和存储介质 |
CN115188091B (zh) * | 2022-07-13 | 2023-10-13 | 国网江苏省电力有限公司泰州供电分公司 | 一种融合电力输变配设备的无人机网格化巡检***及方法 |
CN115908475B (zh) * | 2023-03-09 | 2023-05-19 | 四川腾盾科技有限公司 | 一种机载光电侦察吊舱图像预跟踪功能的实现方法及*** |
CN116938601B (zh) * | 2023-09-15 | 2023-11-24 | 湖南视觉伟业智能科技有限公司 | 一种用于实名制鉴权设备的分工鉴权方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007135659A2 (en) * | 2006-05-23 | 2007-11-29 | Elbit Systems Electro-Optics Elop Ltd. | Clustering - based image registration |
CN101577812A (zh) * | 2009-03-06 | 2009-11-11 | 北京中星微电子有限公司 | 一种岗位监测的方法和*** |
CN102722697A (zh) * | 2012-05-16 | 2012-10-10 | 北京理工大学 | 一种无人飞行器视觉自主导引着陆的目标跟踪方法 |
CN103186903A (zh) * | 2013-04-22 | 2013-07-03 | 苏州科技学院 | 一种基于pid的运动目标检测跟踪*** |
CN103870847A (zh) * | 2014-03-03 | 2014-06-18 | 中国人民解放军国防科学技术大学 | 一种低照度环境下对地监控的运动目标检测方法 |
CN104463117A (zh) * | 2014-12-02 | 2015-03-25 | 苏州科达科技股份有限公司 | 一种基于视频方式的人脸识别样本采集方法及*** |
CN104794468A (zh) * | 2015-05-20 | 2015-07-22 | 成都通甲优博科技有限责任公司 | 一种基于无人机动平台的人脸检测与跟踪方法 |
-
2015
- 2015-11-18 CN CN201510794928.6A patent/CN105447459B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007135659A2 (en) * | 2006-05-23 | 2007-11-29 | Elbit Systems Electro-Optics Elop Ltd. | Clustering - based image registration |
CN101577812A (zh) * | 2009-03-06 | 2009-11-11 | 北京中星微电子有限公司 | 一种岗位监测的方法和*** |
CN102722697A (zh) * | 2012-05-16 | 2012-10-10 | 北京理工大学 | 一种无人飞行器视觉自主导引着陆的目标跟踪方法 |
CN103186903A (zh) * | 2013-04-22 | 2013-07-03 | 苏州科技学院 | 一种基于pid的运动目标检测跟踪*** |
CN103870847A (zh) * | 2014-03-03 | 2014-06-18 | 中国人民解放军国防科学技术大学 | 一种低照度环境下对地监控的运动目标检测方法 |
CN104463117A (zh) * | 2014-12-02 | 2015-03-25 | 苏州科达科技股份有限公司 | 一种基于视频方式的人脸识别样本采集方法及*** |
CN104794468A (zh) * | 2015-05-20 | 2015-07-22 | 成都通甲优博科技有限责任公司 | 一种基于无人机动平台的人脸检测与跟踪方法 |
Non-Patent Citations (2)
Title |
---|
基于稀疏张量的人脸图像特征提取;周春光 等;《吉林大学学报(工学版)》;20121115;第42卷(第6期);1521-1526 |
无人机对地运动目标精确打击技术研究;黄捷;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20150115;C031-215 |
Also Published As
Publication number | Publication date |
---|---|
CN105447459A (zh) | 2016-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105447459B (zh) | 一种无人机自动检测目标和跟踪方法 | |
CN109819208B (zh) | 一种基于人工智能动态监控的密集人群安防监控管理方法 | |
CN108460356B (zh) | 一种基于监控***的人脸图像自动处理*** | |
CN108256459B (zh) | 基于多摄像机融合的安检门人脸识别和人脸自动建库算法 | |
KR102462572B1 (ko) | 기계 학습에 의해 객체 분류기를 훈련시키는 시스템 및 방법 | |
KR102560308B1 (ko) | 외관 탐색을 위한 시스템 및 방법 | |
US11393103B2 (en) | Target tracking method, device, system and non-transitory computer readable medium | |
US11023707B2 (en) | System and method for selecting a part of a video image for a face detection operation | |
CN112001339A (zh) | 一种基于YOLO v4的行人社交距离实时监测方法 | |
US11443454B2 (en) | Method for estimating the pose of a camera in the frame of reference of a three-dimensional scene, device, augmented reality system and computer program therefor | |
KR101337060B1 (ko) | 화상 처리 장치 및 화상 처리 방법 | |
CN111832413B (zh) | 基于时空多尺度网络的人流密度图估计、定位和跟踪方法 | |
CN106682619B (zh) | 一种对象跟踪方法及装置 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN103824070A (zh) | 一种基于计算机视觉的快速行人检测方法 | |
Zhou et al. | Detecting humans in RGB-D data with CNNs | |
Küchhold et al. | Scale-adaptive real-time crowd detection and counting for drone images | |
CN111091057A (zh) | 一种信息处理方法、装置及计算机可读存储介质 | |
CN111291646A (zh) | 一种人流量统计方法、装置、设备及存储介质 | |
DE102015207047A1 (de) | Verfahren und System automatisierten Sequenzieren von Fahrzeugen in nebeneinander angeordneten Durchfahrtskonfigurationen über eine bildbasierte Einstufung | |
CN107045630B (zh) | 一种基于rgbd的行人检测和身份识别方法及*** | |
CN116363171A (zh) | 一种融合点云与图像信息的三维多目标跟踪方法 | |
CN115116137A (zh) | 基于轻量化YOLO v5网络模型与时空记忆机制的行人检测方法 | |
CN110825916A (zh) | 一种基于形体识别技术的寻人方法 | |
CN116824641B (zh) | 姿态分类方法、装置、设备和计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190322 Termination date: 20211118 |