CN110109090B - 基于微波雷达的未知环境多目标检测方法和装置 - Google Patents
基于微波雷达的未知环境多目标检测方法和装置 Download PDFInfo
- Publication number
- CN110109090B CN110109090B CN201910241637.2A CN201910241637A CN110109090B CN 110109090 B CN110109090 B CN 110109090B CN 201910241637 A CN201910241637 A CN 201910241637A CN 110109090 B CN110109090 B CN 110109090B
- Authority
- CN
- China
- Prior art keywords
- data
- radar
- training
- target detection
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开了一种基于微波雷达的未知环境多目标检测方法和装置,该方法包括步骤:分别采集多个典型场景的雷达数据,并拆分为训练数据和测试数据;对训练数据和测试数据分别进行预处理;将预处理后数据,分别按人数分类,并将对应人数的回波图片进行汇总和随机排序,进行卷积神经网络模型的训练和测试;通过训练后的所述卷积神经网络模型进行未知场景的多目标检测。该装置包括数据采集模块、预处理模块、训练模块和检测模块。该方法和装置,通过结合深度学习,对环境有很好的自适应能力,能够从多个不同的环境中提取出移动目标的共同特性,消除不同背景的差异性,实现对于常见的场景中人数的判断。
Description
技术领域
本发明涉及人数检测技术领域,特别是涉及一种基于微波雷达的未知环境多目标检测方法和装置。
背景技术
人数检测广泛应用于救援、智能家居、人流量统计、反恐和军事当中。现代社会通常使用摄像头对人数进行统计,然而摄像头不能保护人们的隐私,也不能用于室外的恶劣环境中。WiFi也可用于检测人数,然而WiFi不能穿墙检测人数,且安全性不稳定,并没有得到广泛使用。而雷达具有高分辨率、低功耗、抗干扰能力强、可穿透、可在黑暗复杂环境检测,不会侵犯人们隐私等优点,即则可以克服了以上缺点,从而补偿了摄像头和WiFi检测的不足。近年来,雷达得到了广泛应用,而雷达的种类也有很多种,包括CW(连续波)雷达、UWB(微波)雷达,FMCW(调频连续波)雷达,MIMO(多输入多输出)雷达等。
在MIMO雷达、FMCW雷达及双频CW雷达中,都使用天线阵和多个接收天线来确定目标的位置信息,这种方法在实验场景中需安装多个天线或使用大型的天线阵,这对于在家庭,空间较小的地方将较难安装,实施过于复杂。
目前使用微波雷达进行检测时,一般使用阈值法或预先判断环境特点的方法才能对移动的多个目标进行判断,当场景变换时,以上方法则不能够做到适应场景变换,需要临时调整,对于使用者来说并不方便,且都未能很好的解决现存的问题。例如,中国专利201510048330.X,公开了一种微波穿墙雷达运动目标一维检测与跟踪的方法,该方法较为***的介绍了雷达预处理过程及多目标的跟踪方法,能有效的还原目标移动轨迹,特别地处理了目标周围地杂波及删除不稳定的航迹,确保目标移动的准确性。但是,该发明提供的算法只适用于较为理想的数据及后期的静态处理,当环境切换时算法可能不适用,因此不能用于环境多变及复杂的实时环境。
综上,现有技术中的雷达检测方案,对于环境切换的适应能力较差,无法用于多种不同环境中的目标检测。
发明内容
本发明的目的是提出一种基于微波雷达的未知环境多目标检测方法和装置,以解决上述技术问题。
为实现上述目的,本发明提供了如下方案:
本发明实施例的第一个方面,提供了一种基于微波雷达的未知环境多目标检测方法,包括步骤:
分别对多个典型场景用微波雷达采集雷达数据,并将所述雷达数据拆分为训练数据和测试数据;
对训练数据和测试数据分别进行预处理;
将预处理后的训练数据和测试数据,分别按人数分类,并将对应人数的回波图片进行汇总和随机排序,进行卷积神经网络模型的训练和测试;
通过训练后的卷积神经网络模型进行未知场景的多目标检测。
可选的,对训练数据和测试数据分别进行预处理,包括:
对训练数据和测试数据分别通过滑窗法、自适应滤波、阈值法进行处理,保留动目标轨迹、滤除静态杂波。
可选的,对训练数据和测试数据分别进行预处理,包括步骤:
1)获取当前典型场景下特定人数的雷达回波信号,并将所述雷达回波信号转化为功率信号;
2)应用滑窗法截取雷达数据;
3)使用自适应滤波法保留所述雷达数据中的动目标轨迹,滤除静态杂波;
4)使用阈值法滤除小于预设阈值的杂波;
重复步骤1)-4)将多个典型场景下的0-4人雷达回波信号进行预处理,得到预处理数据。
可选的,进行卷积神经网络模型的训练和测试之前,还包括步骤:
将部分n人与n-1人及n人与0人的典型场景的雷达数据拼接,用于处理瞬时出现多个移动目标及多个移动目标一起离开检测区域的情况,并将拼接数据转成RGB图片,作为训练数据或者测试数据,用于卷积神经网络模型的训练或测试。
可选的,通过训练后的卷积神经网络模型进行未知场景的多目标检测,之后还包括步骤:
采用SVM判别方法对检测出的多目标结果进行验证。
可选的,卷积神经网络模型为GoogLeNet。
可选的,步骤2)中滑窗的大小为255-340帧之间,雷达数据每隔2秒更新一次。
可选的,步骤3)中将自适应系数设为不大于1。
可选的,将部分n人与n-1人及n人与0人的典型场景的雷达数据拼接,包括:将数据拼接的数据帧长度设为3秒。
本发明实施例的第二个方面,还提供一种基于微波雷达的未知环境多目标检测装置,包括数据采集模块、预处理模块、训练模块和检测模块;
数据采集模块,用于分别对多个典型场景用微波雷达采集雷达数据,并将雷达数据拆分为训练数据和测试数据;
预处理模块,用于对训练数据和测试数据分别进行预处理;
训练模块,用于将预处理后的训练数据和测试数据,分别按人数分类,并将对应人数的回波图片进行汇总和随机排序,进行卷积神经网络模型的训练和测试;
检测模块,用于通过训练后的卷积神经网络模型进行未知场景的多目标检测。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明针对现有微波雷达运动目标检测的方法的存在的以上缺陷,提供一种可在未知环境下目标数据复杂多变的多个移动目标实时检测的***及方法,分别对多个典型场景用微波雷达采集雷达数据,基于雷达数据训练卷积神经网络模型,利用卷积神经网络模型对待检测场景的雷达特征数据进行识别,做到实时检测时的智能场景区分,实现了多个移动目标在具有典型特点的场景中的识别,可适用于多种不同的场景,场景适应能力更强;
对训练数据或者测试数据进行预处理,并将对应人数的回波图片进行汇总和随机排序,作为卷积神经网络模型训练或者测试的数据基础,可以有效提升卷积神经网络模型检测的准确性;
进一步地,将部分n人与n-1人(n>0)以及n人与无人的数据进行拼接,可用于实时处理时突然出现多个移动目标及多个移动目标一起离开检测区的情况,对目标数量突变的情况也能很好地识别和区分。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于微波雷达的未知环境多目标检测方法实施例1的流程示意图;
图2为本发明基于微波雷达的未知环境多目标检测方法实施例2的实现原理示意图;
图3为本发明基于微波雷达的未知环境多目标检测方法实施例2的简要流程示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
本发明实施例1提供了一种基于微波雷达的未知环境多目标检测方法,如图1所示,该方法包括如下步骤:
步骤S100:分别对多个典型场景用微波雷达采集雷达数据,并将雷达数据拆分为训练数据和测试数据。
雷达数据主要包括雷达回波信号。
典型场景即生活中较为常见的场景,例如教室、会议室、办公室、仓库等等。
作为一种可实施方式,从多个典型场景中随机选择一个场景,将其对应的雷达数据设为测试数据,其余典型场景的雷达数据设为训练数据;也可从中随机选择多个场景作为测试数据,其余场景作为训练数据。训练数据和测试数据的划分有多种实施方式,本发明不一一列举。
步骤S101:对雷达数据进行预处理。
需要说明的是,将数据划分为训练数据和测试数据的步骤既可以在预处理的步骤之前,也可在进行预处理之后进行,本发明中各处步骤编号上的顺序不作为对步骤操作先后顺序的必然限定。
步骤S102:将预处理后的训练数据和测试数据,分别按人数分类,并将对应人数的回波图片进行汇总和随机排序,进行卷积神经网络模型的训练和测试。
具体地,作为一种可实施方式,对每个场景下的预处理数据按照滑窗长度进行截取,每个场景截取100个数据,并对不同场景下为同一人数的数据进行汇总。对不同人数的所有数据按顺序添加标签,再对每个数据集打乱原有排序,用于卷积神经网络模型的训练和测试。
回波图片,即对采集的雷达回波信号原始数据进行预处理后,再经按人数分类进行汇总和随机排序后整理出的若干组图片,作为一种可实施方式,回波图片的格式为RGB图片。
步骤S103:通过训练后的卷积神经网络模型进行未知场景的多目标检测。
本发明通过上述方案,实现了实时检测时的多场景智能区分,对多个不同特点的场景以及场景内多个目标数量可有效识别。
实施例2
本发明实施例2提供一种基于微波雷达的未知环境多目标检测方法的一个优选实施例。
在该实施例中选取大堂、会议室等五个典型场景为例,且采用GoogLeNet为卷积神经网络模型。
如图2所示,在本实施例中,先分别对大堂、会议室、办公室、仓库、舞蹈室五个具有典型特点的场景用微波雷达对0-4人数据进行采集,选取其中四个场景(大堂、会议室、办公室、仓库)数据作为训练集,剩下的一个场景(舞蹈室,即图2中所示的未知场景)作为测试集,分别经过滑窗法、自适应滤波、阈值法保留动目标轨迹、滤除静态杂波,得到预处理数据,将部分n人与(n-1)人(n>0)的数据拼接及n人与无人数据拼接用于实时处理时突然出现多个移动目标及多个移动目标一起离开检测区的情况;并将预处理数据转成RGB图片;之后,将训练集的预处理数据通过随机场景混合的训练方法将数据随机排序,并用未知的测试集数据对网络进行验证。保存训练网络的参数,并用于实时***对人数进行判断及验证。
具体地,该优选实施例包括如下步骤:
步骤S200:初始化雷达,配置雷达参数;
步骤S201:获取某一场景下特定人数的雷达回波信号,并将I/Q通道的回波信号转化为功率信号,转换公式为P2=I2+Q2,P表示功率信号,I表示同向通道的回波信号,Q表示正交通道的回波信号;进一步地,回波功率信号可表示为其中Npath为多径总数,因此Ri[k]为第i帧数据的k个位置的Npath路回波数据,si表示第i帧原始回波信号,am表示m个信号簇的幅度,本发明中,m≤4,τm表示第m个信号簇的时延,N[k]表示第k帧的噪声,mK表示k个位置总数,mK≤93;
优选地,滑窗的大小为255-340帧,且每隔2秒更新一次数据。
步骤S203,使用自适应滤波法保留动目标轨迹,滤除静态杂波,自适应滤波公式为
c[k]=λRi[k-1]+(1-λ)Ri[k]
ai[k]=Ri[k]-c[k]
其中Ri[k-1]为前一帧Ri[k]数据,c[k]初始值等于Ri[k],表示杂波矩阵,ai[k]为自适应滤波后的数据,A(l,k)为按滑窗长度及回波位置数排列形成的自适应滤波矩阵。
自适应系数λ设为不大于1,以保持原始数据的特性。优选地,自适应系数设置为0.05。L为滑窗长度,255≤L≤340。
步骤S204,使用阈值法滤除小于预设阈值的杂波,阈值法的公式为
其中,T[k]为阈值输出矩阵,T为阈值,优选地,该阈值设为10-4~10-6,保留大于阈值的点,小于阈值的点设为0。
步骤S205:重复步骤S201-S204,将多个典型场景下的0-4人雷达回波信号进处理;
步骤S206:将部分n人与(n-1)人(n>0)的数据拼接及n人与无人数据拼接,例如将n人的l帧数据(l=1,2,…,m,m为3秒的回波帧总数)替换为(n-1)人的前l帧数据,或替换为(n-1)人的后l帧数据,n人与0人以此类推,用于实时处理时突然出现多个移动目标及多个移动目标一起离开检测区的情况,并将数据转成RGB图片,用于卷积神经网络训练。
进一步地,相比于GRAY(灰度)图片,RGB(红绿蓝)图像更多地保留了原始数据的特征,因此用RGB图像来训练效果比GRAY图像更好。
且数据拼接的数据帧长度设为3秒,可提高卷积神经网络判断的准确性。
步骤S207,将其中某一场景设为测试数据,其余设为训练数据,用于GoogLeNet训练和测试;
步骤S208,将数据按人数分类,并将对应人数的回波图片进行汇总,进行随机排序,用GoogLeNet进行训练;
步骤S209,用训练好的网络及SVM(Support Vector Machine,支持向量机)判别方法对人数进行验证;
步骤S210,在显示界面中,将得到的结果即检测到的人数实时显示。
本发明该实施例的主体简要流程参见图3所示。
通过以上方法,网络的测试精度为86.8%,表明网络可在未知环境下已较高的准确度对未知多个目标(例如0-4人)进行估计,克服了现有技术中需要提前检测待测场景的弊端,也表明该方法在不同环境下具有独立的适应能力。
实施例3
本发明实施例还提供一种基于微波雷达的未知环境多目标检测装置,包括数据采集模块、预处理模块、训练模块和检测模块。
数据采集模块,用于分别对多个典型场景用微波雷达采集雷达数据,并将雷达数据拆分为训练数据和测试数据。
预处理模块,用于对训练数据和测试数据分别进行预处理;
训练模块,用于将预处理后的训练数据和测试数据,分别按人数分类,并将对应人数的回波图片进行汇总和随机排序,进行卷积神经网络模型的训练和测试;
检测模块,用于通过训练后的卷积神经网络模型进行未知场景的多目标检测。
现有技术中的雷达检测方案,还存在如下弊端:
1、由于回波数据采集有误而误删正确的轨迹则可能会导致轨迹不连续,这种情况并不能正确的反映目标运动的轨迹,可能会误导观测者;2、该算法没有考虑当多个移动目标距离很近且并排走时等多种特殊情况,则雷达回波将会重叠只显示一个人的回波或其他形状,此时将会误判目标个数。
本发明通过安装单个雷达来检测移动的多个目标,解决了现有微波雷达用于检测多个移动目标时不能够自适应的调整检测参数、对环境的依赖程度较高、只能在较为单一的环境中检测的技术问题;本发明的检测方法包括雷达信号预处理,滑窗法截取雷达数据,自适应滤波,阈值法滤除杂波,用GoogLeNet网络结合随机场景混合的训练方法相结合,训练多个生活当中常见的典型场景,并用来判断未知场景下的人数;通过结合深度学习,对环境有很好的自适应能力,能够从多个不同的环境中提取出移动目标的共同特性,消除不同背景的差异性,实现对于常见的场景中人数的判断;可广泛应用于家庭,安防,军事等领域;
并且基于本发明实施例提供的上述方案,通过对训练数据或者测试数据进行预处理并将对应人数的回波RGB图片进行汇总和随机排序,可提高训练后卷积神经网络模型检测的准确性。
在一个或多个示例性设计中,所述功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将所述功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外先、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的***而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
Claims (9)
1.一种基于微波雷达的未知环境多目标检测方法,其特征在于,包括步骤:
分别对多个典型场景用微波雷达采集雷达数据,并将所述雷达数据拆分为训练数据和测试数据;
对所述训练数据和所述测试数据分别进行预处理;
将预处理后的所述训练数据和所述测试数据,分别按人数分类,并将对应人数的回波图片进行汇总和随机排序,进行卷积神经网络模型的训练和测试;其中,所述进行卷积神经网络模型的训练和测试之前,还包括:
将部分n人与n-1人及n人与0人的典型场景的雷达数据拼接,用于处理瞬时出现多个移动目标及多个移动目标一起离开检测区域的情况,并将所述拼接数据转成RGB图片,作为训练数据或者测试数据,用于所述卷积神经网络模型的训练或测试;
通过训练后的所述卷积神经网络模型进行未知场景的多目标检测。
2.根据权利要求1所述的基于微波雷达的未知环境多目标检测方法,其特征在于,所述步骤对所述训练数据和测试数据分别进行预处理,包括:
对所述训练数据和测试数据分别通过滑窗法、自适应滤波、阈值法进行处理,保留动目标轨迹、滤除静态杂波。
3.根据权利要求1所述的基于微波雷达的未知环境多目标检测方法,其特征在于,所述步骤对所述训练数据和测试数据分别进行预处理,包括步骤:
1)获取当前典型场景下特定人数的雷达回波信号,并将所述雷达回波信号转化为功率信号;
2)应用滑窗法截取雷达数据;
3)使用自适应滤波法保留所述雷达数据中的动目标轨迹,滤除静态杂波;
4)使用阈值法滤除小于预设阈值的杂波;
重复步骤1)-4)将多个典型场景下的0-4人雷达回波信号进行预处理,得到预处理数据。
4.根据权利要求1所述的基于微波雷达的未知环境多目标检测方法,其特征在于,所述步骤通过训练后的所述卷积神经网络模型进行未知场景的多目标检测,之后还包括步骤:
采用SVM判别方法对检测出的多目标结果进行验证。
5.根据权利要求1-4任一项所述的基于微波雷达的未知环境多目标检测方法,其特征在于,所述卷积神经网络模型为GoogLeNet。
6.根据权利要求3所述的基于微波雷达的未知环境多目标检测方法,其特征在于,所述步骤2)中滑窗的大小为255-340帧之间,雷达数据每隔2秒更新一次。
7.根据权利要求3所述的基于微波雷达的未知环境多目标检测方法,其特征在于,所述步骤3)中将自适应系数设为不大于1。
8.根据权利要求1所述的基于微波雷达的未知环境多目标检测方法,其特征在于,所述步骤将部分n人与n-1人及n人与0人的典型场景的雷达数据拼接,包括:将数据拼接的数据帧长度设为3秒。
9.基于微波雷达的未知环境多目标检测装置,其特征在于,包括数据采集模块、预处理模块、训练模块和检测模块;
所述数据采集模块,用于分别对多个典型场景用微波雷达采集雷达数据,并将所述雷达数据拆分为训练数据和测试数据;
所述预处理模块,用于对所述训练数据和测试数据分别进行预处理;
所述训练模块,用于将预处理后的所述训练数据和所述测试数据,分别按人数分类,并将对应人数的回波图片进行汇总和随机排序,进行卷积神经网络模型的训练和测试;其中,所述进行卷积神经网络模型的训练和测试之前,还包括:
将部分n人与n-1人及n人与0人的典型场景的雷达数据拼接,用于处理瞬时出现多个移动目标及多个移动目标一起离开检测区域的情况,并将所述拼接数据转成RGB图片,作为训练数据或者测试数据,用于所述卷积神经网络模型的训练或测试;
所述检测模块,用于通过训练后的卷积神经网络模型进行未知场景的多目标检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910241637.2A CN110109090B (zh) | 2019-03-28 | 2019-03-28 | 基于微波雷达的未知环境多目标检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910241637.2A CN110109090B (zh) | 2019-03-28 | 2019-03-28 | 基于微波雷达的未知环境多目标检测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110109090A CN110109090A (zh) | 2019-08-09 |
CN110109090B true CN110109090B (zh) | 2021-03-12 |
Family
ID=67484700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910241637.2A Active CN110109090B (zh) | 2019-03-28 | 2019-03-28 | 基于微波雷达的未知环境多目标检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110109090B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110674696B (zh) * | 2019-08-28 | 2023-01-13 | 珠海格力电器股份有限公司 | 一种监控方法、装置、***、监控设备及可读存储介质 |
CN110751103B (zh) * | 2019-10-22 | 2023-06-02 | 中国电子科技集团公司信息科学研究院 | 一种用于物体内部检测的微波信号分类方法及*** |
CN112859063B (zh) * | 2021-01-13 | 2023-12-05 | 路晟悠拜(重庆)科技有限公司 | 基于毫米波的多人体目标识别及计数方法 |
CN114782292B (zh) * | 2022-03-10 | 2023-05-09 | 中国电子科技集团公司第二十九研究所 | 一种雷达信号处理优化方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9251410B1 (en) * | 2014-09-30 | 2016-02-02 | Quanta Computer Inc. | People counting system and method |
CN107273872A (zh) * | 2017-07-13 | 2017-10-20 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN107392252A (zh) * | 2017-07-26 | 2017-11-24 | 上海城诗信息科技有限公司 | 计算机深度学习图像特征并量化感知度的方法 |
CN108520199A (zh) * | 2018-03-04 | 2018-09-11 | 天津大学 | 基于雷达图像与生成对抗模型的人体动作开集识别方法 |
CN108764065A (zh) * | 2018-05-04 | 2018-11-06 | 华中科技大学 | 一种行人重识别特征融合辅助学习的方法 |
CN109472292A (zh) * | 2018-10-11 | 2019-03-15 | 平安科技(深圳)有限公司 | 一种图像的情感分类方法、存储介质和服务器 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7310060B2 (en) * | 2003-08-15 | 2007-12-18 | L-3 Communications Cyterra Corporation | Multi-mode landmine detector |
JP5812064B2 (ja) * | 2012-11-22 | 2015-11-11 | 株式会社デンソー | 物標検出装置 |
CN108304786A (zh) * | 2018-01-17 | 2018-07-20 | 东南大学 | 一种基于二值化卷积神经网络的行人检测方法 |
-
2019
- 2019-03-28 CN CN201910241637.2A patent/CN110109090B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9251410B1 (en) * | 2014-09-30 | 2016-02-02 | Quanta Computer Inc. | People counting system and method |
CN107273872A (zh) * | 2017-07-13 | 2017-10-20 | 北京大学深圳研究生院 | 用于图像或视频中行人重识别的深度判别网络模型方法 |
CN107392252A (zh) * | 2017-07-26 | 2017-11-24 | 上海城诗信息科技有限公司 | 计算机深度学习图像特征并量化感知度的方法 |
CN108520199A (zh) * | 2018-03-04 | 2018-09-11 | 天津大学 | 基于雷达图像与生成对抗模型的人体动作开集识别方法 |
CN108764065A (zh) * | 2018-05-04 | 2018-11-06 | 华中科技大学 | 一种行人重识别特征融合辅助学习的方法 |
CN109472292A (zh) * | 2018-10-11 | 2019-03-15 | 平安科技(深圳)有限公司 | 一种图像的情感分类方法、存储介质和服务器 |
Non-Patent Citations (2)
Title |
---|
People Counting Based on CNN Using IR-UWB Radar;Xiuzhu Yang et al;《2017 IEEE/CIC International Conference on Communications in China (ICCC)》;20171024;第1-5页 * |
利用二维小波包分解实现超宽带雷达人体动作识别;蒋留兵 等;《电子测量与仪器学报》;20180815;第32卷(第8期);第69-75页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110109090A (zh) | 2019-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110109090B (zh) | 基于微波雷达的未知环境多目标检测方法和装置 | |
CN107886048B (zh) | 目标跟踪方法及***、存储介质及电子终端 | |
US11443498B2 (en) | Target object recognition method and apparatus, storage medium, and electronic device | |
CN108346159B (zh) | 一种基于跟踪-学习-检测的视觉目标跟踪方法 | |
Föckler et al. | Phoneguide: museum guidance supported by on-device object recognition on mobile phones | |
Tzannes et al. | Detecting small moving objects using temporal hypothesis testing | |
CA2519908C (en) | Target detection improvements using temporal integrations and spatial fusion | |
CN110275042B (zh) | 一种基于计算机视觉与无线电信号分析的高空抛物检测方法 | |
CN111462155B (zh) | 移动侦测方法、装置、计算机设备和存储介质 | |
CN111340882B (zh) | 基于图像的室内定位方法及装置 | |
CN112782684B (zh) | 一种人体目标检测方法、装置、计算机设备和存储介质 | |
CN109061632B (zh) | 一种无人机识别方法 | |
Minte-Vera et al. | Nested sampling: an improved visual-census technique for studying reef fish assemblages | |
CN114022531A (zh) | 图像处理方法、电子设备和存储介质 | |
CN111881982A (zh) | 一种无人机目标识别方法 | |
US7184590B2 (en) | Algorithm selector | |
Oliver et al. | Event-based sensor multiple hypothesis tracker for space domain awareness | |
KR20210032209A (ko) | 구름이동벡터 산출 장치 및 그 방법 | |
CN110634157A (zh) | 确定变换矩阵的方法 | |
Nichtern et al. | Tracking of a point target in an IR sequence using dynamic programming approach | |
KR20190086975A (ko) | Wi-Fi 백스캐터 시스템에서 연판정을 이용한 복호화 방법, Wi-Fi 백스캐터 리더기 및 이를 이용한 Wi-Fi 백스캐터 시스템 | |
KR101726690B1 (ko) | 배경 차분 시스템 | |
Sarwar et al. | Tracking livestock using a fully connected network and Kalman filter | |
CN110621009B (zh) | 基于信号触发的通讯控制*** | |
CN111667624B (zh) | 基于信号触发的通讯控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |