CN110458025B - 一种基于双目摄像头的目标识别与定位方法 - Google Patents
一种基于双目摄像头的目标识别与定位方法 Download PDFInfo
- Publication number
- CN110458025B CN110458025B CN201910625272.3A CN201910625272A CN110458025B CN 110458025 B CN110458025 B CN 110458025B CN 201910625272 A CN201910625272 A CN 201910625272A CN 110458025 B CN110458025 B CN 110458025B
- Authority
- CN
- China
- Prior art keywords
- target
- information
- picture
- personnel
- binocular camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种双目摄像头的目标识别与定位方法。利用人脸图片训练数据库,进行基于卷积神经网络(CNN)的分类学习,得到基于人脸识别的分类模型;利用图片的深度信息,进行基于支持向量机(SVM)的回归学习,得到距离回归函数,构建图片深度信息与与目标距离摄像头距离的关系。通过摄像头拍摄目标,利用获得的人脸照片,通过人脸分类模型完成人员目标识别。同时利用拍摄图片的深度信息,计算目标距离摄像头的距离,实现人员定位。该方法具有识别时间开销小,识别精度高的优点。
Description
技术领域
本发明涉及一种双目摄像头的目标识别与定位方法,属于定位导航技术领域。
背景技术
近年来,室内位置服务的需求不断增长,催生了室内定位技术的不断发展。传统卫星定位***,如全球定位***(GPS)、北斗定位***,在室外空旷环境中拥有较高的定位精度,但是卫星定位信号很容易受到遮蔽或干扰,导致卫星定位***在室内环境中定位不准甚至无法定位。因此,在室内环境中,考虑到图像信息的优势,具有无电磁干扰,绿色环保等特点被广泛关注。
现有技术包括:一种基于图像匹配和指纹库的LED可见光室内定位方法(专利号:CN201610125773.1),该方法在线阶段使用sift算法,在线处理时间长,位置估计时间开销比较大。而本发明在线阶段使用已经训练好的模型,位置估计时间开销小,可以明显提高定位所需要的时间。
目前,国内外对基于图像的室内定位技术的研究中会采用单目摄像头或双目摄像头。其中,使用双目摄像头具有更多的优势。在立体视觉之前,单目视觉因运算效率高以及信息量小的优点在人员的识别与定位跟踪领域中占有绝对优势。随着立体视觉的不断发展,单目视觉无法获得图像深度信息而导致无法精确的识别和定位人员目标的缺陷越加明显,双目立体视觉通过双目摄像头仿生人眼,提取双目图像的视差信息,根据物体在图像中的深度信息和各自的特征,进一步作识别和定位处理。其中,双目摄像头获取的左右双目图像中,两个匹配块中心像素的水平距离即为视差。相同视差(即相同颜色)代表物体离摄像头位置相同。目前,随着硬件***特别是嵌入式的发展,在运动物体的图像处理领域,双目技术的优势越来越明显。因此,采用双目视觉技术在智能交通、视频监控上应用有着重大意义。
公开于该背景技术部分的信息仅仅旨在增加对本发明的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
发明内容
本发明的目的在于提供一种基于双目摄像头的人员识别与定位方法,从而克服上述现有技术中的缺陷。
为实现上述目的,本发明提供了一种双目摄像头的目标识别与定位方法,该方法包括如下步骤:步骤1:利用人脸图片训练数据库,进行基于卷积神经网络CNN的分类学习,得到基于人脸识别的分类模型;
步骤2:利用图片的深度信息,进行基于支持向量机SVM的回归学习,得到距离回归函数,构建图片深度信息与与目标距离摄像头距离的关系;
步骤3:通过摄像头拍摄目标,利用获得的人脸照片,通过人脸分类模型完成人员目标识别;
步骤4:同时利用拍摄图片的深度信息,计算目标距离摄像头的距离,实现人员定位。
本发明进一步限定的技术方案为:
优选地,上述技术方案中,双目摄像头的目标识别与定位方法具体为:
步骤1:利用双目摄像头拍摄待识别人员人脸图像信息,建立人员目标标签和人脸图片数据库;利用卷积神经网络对人员目标标签和人脸图片数据库进行离线分类学习,得到人员目标识别分类模型;
步骤2:记录拍摄点位置信息,利用OpenCV中图像处理技术,从双目摄像头拍摄深度图片中提取拍摄图片的深度信息,建立位置信息和深度图片信息数据库;利用支持向量机对位置信息和深度图片信息数据库进行训练,学习位置信息和深度图片信息之间的对应关系,得到基于位置信息的回归模型;
步骤3:使用双目摄像头采集目标的运动信息,双目摄像头拍摄到人员图片后,使用人脸检测算法,对检测到的人脸图像通过裁剪处理,输入到上述步骤1人员目标识别分类模型中,实现人员的识别;
步骤4:当***检测到目标后,会自动处理采集到的目标的深度图片信息,然后输入到上述步骤2的基于位置信息的回归模型中,得到目标离摄像头的具***置,进而得到目标位置,实现人员的定位。
优选地,步骤1和步骤2为离线阶段,步骤3和步骤4为在线阶段。
优选地,人脸检测算法为级联分类器Cascade Classifier算法。
一种基于双目摄像头的人员识别与定位***,包括人员识别***以及人员定位***,其特征在于:
其中每个过程又包括两个阶段,即离线阶段和在线阶段。
(1)人员的识别过程:
本模块功能:首先调用人脸检测模块,当检测到人脸后,对检测到的人脸图像加以裁剪处理,然后输入到已经训练好的人员目标识别分类模型中,该模型会自动识别被检测的人员,得到识别结果。其中,基于卷积神经网络的人员目标识别分类模型分为两个阶段:离线阶段和在线阶段。
离线阶段:利用双目摄像头拍摄待识别人员人脸图像信息,建立(人员目标标签,人脸图片)数据库。利用卷积神经网络对(人员目标标签,人脸图片)数据库进行离线分类学习,得到人员目标识别分类模型。
在线阶段:双目摄像头拍摄到人员图片后,使用人脸检测算法(级联分类器Cascade Classifier算法),对检测到的人脸图像通过裁剪处理,利用人员目标识别分类模型,实现人员的识别。
(2)人员的定位过程:
基于支持向量机的人员定位回归模型分为两个阶段:离线阶段和在线阶段。
离线阶段:记录拍摄点位置信息,从双目摄像头拍摄深度图片中提取拍摄图片的深度信息,建立(位置信息,深度图片信息)数据库。利用支持向量机对(位置信息,深度图片信息)数据库进行训练,学习位置信息和深度图片信息之间的对应关系,得到基于位置信息的回归模型。
在线阶段:在未知位置使用双目摄像头采集视频信息,当检测到人员后,处理对应的深度信息图片,将其像素信息进行归一化处理,利用位置信息的回归模型,得到目标离摄像头的具***置,进而得到目标位置。
基于双目摄像头的人员识别与定位***,包括人员识别***以及人员定位***,其特征在于:本发明包含的硬件设备主要有:图像采集设备、算法处理设备以及显示设备。
图像采集设备:本课题使用小觅双目摄像头完成图像采集工作,型号为S系列(S1030-IR-120/MONO),摄像头参数为:Replacable Standard M12镜头,USB3.0接口。设备如图6所示:
图6:小觅双目摄像头
算法处理设备:采集后的图像数据,需要进一步的人员的识别和定位处理,仿真实验都是在计算机上实现。视频处理设备是计算机,其具体的配置:Intel(R)Core(TM)i5-7300HQ CPU 2.50GHz,内存为7.89G。
***显示设备:算法处理后结果需要显示并输出,在本课题中实际上是计算机的显示器来完成此项功能。
与现有技术相比,本发明具有如下有益效果:
1、本发明将人员目标识别问题转化为基于卷积神经网络的分类问题。在线阶段利用离线阶段训练的人员目标识别分类模型,实现人员的识别。具有识别时间开销小,识别精度高的优点。
2、本发明将人员位置估计问题转化为基于支持向量机的回归问题。在线阶段利用图像的深度信息,通过位置信息的回归模型,实现目标位置估计。具有位置估计时间开销小,定位精度高的优点。
3、本发明在人员目标的位置估计过程中,利用图片的深度信息来实现定位,因此,能够降低基于图像定位方法的复杂度,同时提供定位精度。
附图说明
图1为本发明说明书摘要。
图2为本发明的人员目标识别流程图。
图3为卷积神经网络离线学习流程图。
图4为本发明的人员目标位置估计流程图。
图5为双目摄像头拍摄的图像深度信息。
图6为人员位置目标估计结果。
图7为人员目标识别结果。
图8为人员位置目标估计误差仿真结果。
图9为人员目标识别正确率仿真结果。
具体实施方式
下面对本发明的具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
除非另有其它明确表示,否则在整个说明书和权利要求书中,术语“包括”或其变换如“包含”或“包括有”等等将被理解为包括所陈述的元件或组成部分,而并未排除其它元件或其它组成部分。
如图1所示,本发明主要包括两个方面,即人员识别和人员定位。人员识别和人员定位可以分为两个阶段,即:离线阶段和在线阶段。离线阶段,利用双目摄像头拍摄待识别人员人脸图像信息,建立(人员目标标签,人脸图片)数据库;记录拍摄点位置信息,从双目摄像头拍摄深度图片中提取拍摄图片的深度信息,建立(位置信息,深度图片信息)数据库。利用卷积神经网络对(人员目标标签,人脸图片)数据库进行离线分类学习,得到人员目标识别分类模型。利用支持向量机对(位置信息,图像深度信息)数据库进行训练,学习位置信息和深度信息之间的对应关系,得到基于位置信息的回归模型。在线阶段,双目摄像头拍摄到人员图片后,使用人脸检测算法,对检测到的人脸图像加以处理后,利用人员目标识别分类模型,实现人员的识别。处理对应的深度信息图片,输入到位置信息的回归模型中,得到目标离摄像头的具***置,进而得到目标位置。
如图2所示,本发明离线阶段收集人脸数据,利用卷积神经网络对(人员目标标签,人脸图片)数据库进行离线分类学习,得到人员目标识别分类模型。在线阶段当PC机检测到人脸数据后,将采集到的人脸数据进行预处理,然后输送到训练好的人员目标识别分类模型中,实现人员识别。
如图3所示,这是人员目标识别分类模型的离线学习流程图。利用双目摄像头拍摄待识别人员人脸图像信息,建立(人员目标标签,人脸图片)数据库,然后通过预处理后输入到卷积神经网络中训练,得到人员目标识别分类模型。其中卷积神经网络部分应用了四个卷积层,三个池化层和一个全连接层。
如图4所示,本发明离线阶段记录拍摄点位置信息,利用OpenCV中图像处理技术,从双目摄像头拍摄深度图片中提取拍摄图片的深度信息,建立(位置信息,深度图片信息)数据库。利用支持向量机对(位置信息,深度图片信息)数据库进行训练,学习位置信息和深度图片信息之间的对应关系,得到基于位置信息的回归模型。在线阶段,在未知位置使用双目摄像头采集视频信息,当检测到人员后,处理对应的深度信息图片,将其像素信息进行归一化处理,利用位置信息的回归模型,得到目标离摄像头的具***置,进而得到目标位置。
如图5所示,本发明使用双目摄像头拍摄的图像深度信息图片。
如图6所示,本发明PC端人员位置目标估计结果。显示目标与摄像头的距离。
如图7所示,本发明PC端人员识别和人员位置目标估计的结果。显示目标人员的识别结果和目标与摄像头的距离。
如图8所示,本发明在最大训练样本数目下距离估计的平均误差不大于5CM。
如图9所示,本发明在最大训练样本数目下人员识别正确率达到91%。
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述 教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。
Claims (5)
1.一种双目摄像头的目标识别与定位方法,其特征在于,该方法包括如下步骤:步骤1:利用人脸图片训练数据库,进行基于卷积神经网络CNN的分类学习,得到基于人脸识别的分类模型;
步骤2:利用图片的深度信息,进行基于支持向量机SVM的回归学习,得到距离回归函数,构建图片深度信息与目标距离摄像头距离的关系;
步骤3:通过摄像头拍摄目标,利用获得的人脸照片,通过人脸分类模型完成人员目标识别;
步骤4:同时利用拍摄图片的深度信息,计算目标距离摄像头的距离,实现人员定位;
步骤1:利用双目摄像头拍摄待识别人员人脸图像信息,建立人员目标标签和人脸图片数据库;利用卷积神经网络对人员目标标签和人脸图片数据库进行离线分类学习,得到人员目标识别分类模型;
步骤2:记录拍摄点位置信息,利用OpenCV中图像处理技术,从双目摄像头拍摄深度图片中提取拍摄图片的深度信息,建立位置信息和深度图片信息数据库;利用支持向量机对位置信息和深度图片信息数据库进行训练,学习位置信息和深度图片信息之间的对应关系,得到基于位置信息的回归模型;
步骤3:使用双目摄像头采集目标的运动信息,双目摄像头拍摄到人员图片后,使用人脸检测算法,对检测到的人脸图像通过裁剪处理,输入到上述步骤1人员目标识别分类模型中,实现人员的识别;
步骤4:当***检测到目标后,会自动处理采集到的目标的深度图片信息,然后输入到上述步骤2的基于位置信息的回归模型中,得到目标离摄像头的具***置,进而得到目标位置,实现人员的定位。
2.根据权利要求1所述的双目摄像头的目标识别与定位方法,其特征在于,步骤1和步骤2为离线阶段,步骤3和步骤4为在线阶段。
3. 根据权利要求1所述的双目摄像头的目标识别与定位方法,其特征在于,人脸检测算法为级联分类器Cascade Classifier算法。
4.根据权利要求3所述的双目摄像头的目标识别与定位方法,其特征在于,离线阶段和在线阶段具体为:
(1)人员的识别过程:
本模块功能:首先调用人脸检测模块,当检测到人脸后,对检测到的人脸图像加以裁剪处理,然后输入到已经训练好的人员目标识别分类模型中,该模型会自动识别被检测的人员,得到识别结果;其中,基于卷积神经网络的人员目标识别分类模型分为两个阶段:离线阶段和在线阶段;
离线阶段:利用双目摄像头拍摄待识别人员人脸图像信息,建立人员目标标签,人脸图片数据库;利用卷积神经网络对人员目标标签,人脸图片数据库进行离线分类学习,得到人员目标识别分类模型;
在线阶段:双目摄像头拍摄到人员图片后,使用人脸检测算法,对检测到的人脸图像通过裁剪处理,利用人员目标识别分类模型,实现人员的识别;
(2)人员的定位过程:
基于支持向量机的人员定位回归模型分为两个阶段:离线阶段和在线阶段;
离线阶段:记录拍摄点位置信息,从双目摄像头拍摄深度图片中提取拍摄图片的深度信息,建立位置信息,深度图片信息数据库;利用支持向量机对位置信息,深度图片信息数据库进行训练,学习位置信息和深度图片信息之间的对应关系,得到基于位置信息的回归模型;
在线阶段:在未知位置使用双目摄像头采集视频信息,当检测到人员后,处理对应的深度信息图片,将其像素信息进行归一化处理,利用位置信息的回归模型,得到目标离摄像头的具***置,进而得到目标位置。
5.基于双目摄像头的人员识别与定位***,包括人员识别***以及人员定位***,其特征在于:硬件设备主要有:图像采集设备、算法处理设备以及显示设备;
图像采集设备:使用小觅双目摄像头完成图像采集工作,型号为S系列,摄像头参数为:Replacable Standard M12镜头,USB3.0接口;
算法处理设备:采集后的图像数据,需要进行人员的识别和定位处理,仿真实验都是在计算机上实现,其具体的配置:Intel Core i5-7300HQ CPU 2.50GHz,内存为7.89G;
***显示设备:算法处理后结果需要显示并输出,采用计算机的显示器来完成此项功能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910625272.3A CN110458025B (zh) | 2019-07-11 | 2019-07-11 | 一种基于双目摄像头的目标识别与定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910625272.3A CN110458025B (zh) | 2019-07-11 | 2019-07-11 | 一种基于双目摄像头的目标识别与定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110458025A CN110458025A (zh) | 2019-11-15 |
CN110458025B true CN110458025B (zh) | 2022-10-14 |
Family
ID=68482685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910625272.3A Active CN110458025B (zh) | 2019-07-11 | 2019-07-11 | 一种基于双目摄像头的目标识别与定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110458025B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111462227A (zh) * | 2020-03-27 | 2020-07-28 | 海信集团有限公司 | 室内人员定位装置及方法 |
CN111476126B (zh) * | 2020-03-27 | 2024-02-23 | 海信集团有限公司 | 一种室内定位方法、***及智能设备 |
CN111461092B (zh) * | 2020-06-19 | 2020-10-02 | 支付宝(杭州)信息技术有限公司 | 一种刷脸测温及核身的方法、装置和设备 |
CN112164111B (zh) * | 2020-09-10 | 2022-09-06 | 南京邮电大学 | 一种基于图像相似度和bpnn回归学习的室内定位方法 |
CN112153736B (zh) * | 2020-09-14 | 2022-07-26 | 南京邮电大学 | 一种基于信道状态信息的人员动作识别和位置估计方法 |
CN112184705B (zh) * | 2020-10-28 | 2022-07-05 | 成都智数医联科技有限公司 | 一种基于计算机视觉技术的人体穴位识别、定位及应用*** |
CN114125698B (zh) * | 2021-05-07 | 2024-05-17 | 南京邮电大学 | 一种基于信道状态信息和深度图像的定位方法 |
CN113705376B (zh) * | 2021-08-11 | 2024-02-06 | 中国科学院信息工程研究所 | 一种基于rfid和摄像机的人员定位方法及*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066942A (zh) * | 2017-03-03 | 2017-08-18 | 上海斐讯数据通信技术有限公司 | 一种活体人脸识别方法及*** |
CN107145546A (zh) * | 2017-04-26 | 2017-09-08 | 北京环境特性研究所 | 基于深度学习的监控视频人员模糊检索方法 |
CN107844744A (zh) * | 2017-10-09 | 2018-03-27 | 平安科技(深圳)有限公司 | 结合深度信息的人脸识别方法、装置及存储介质 |
CN108038455A (zh) * | 2017-12-19 | 2018-05-15 | 中国科学院自动化研究所 | 基于深度学习的仿生机器孔雀图像识别方法 |
-
2019
- 2019-07-11 CN CN201910625272.3A patent/CN110458025B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066942A (zh) * | 2017-03-03 | 2017-08-18 | 上海斐讯数据通信技术有限公司 | 一种活体人脸识别方法及*** |
CN107145546A (zh) * | 2017-04-26 | 2017-09-08 | 北京环境特性研究所 | 基于深度学习的监控视频人员模糊检索方法 |
CN107844744A (zh) * | 2017-10-09 | 2018-03-27 | 平安科技(深圳)有限公司 | 结合深度信息的人脸识别方法、装置及存储介质 |
CN108038455A (zh) * | 2017-12-19 | 2018-05-15 | 中国科学院自动化研究所 | 基于深度学习的仿生机器孔雀图像识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110458025A (zh) | 2019-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110458025B (zh) | 一种基于双目摄像头的目标识别与定位方法 | |
CN111209810B (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
CN109887040B (zh) | 面向视频监控的运动目标主动感知方法及*** | |
CN110135249B (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
CN112990310A (zh) | 服务于电力机器人的人工智能***及方法 | |
CN110969644B (zh) | 人员轨迹追踪方法、装置及*** | |
CN115082815B (zh) | 基于机器视觉的茶芽采摘点定位方法、装置及采摘*** | |
CN105989369B (zh) | 基于度量学习的行人再识别方法 | |
CN109035307B (zh) | 基于自然光双目视觉的设定区域目标追踪方法及*** | |
CN112207821B (zh) | 视觉机器人的目标搜寻方法及机器人 | |
CN110751097B (zh) | 一种半监督的三维点云手势关键点检测方法 | |
CN105022999A (zh) | 一种人码伴随实时采集*** | |
CN110443849B (zh) | 一种基于深度图像的双流卷积神经网络回归学习的目标定位方法 | |
US20220148292A1 (en) | Method for glass detection in real scenes | |
CN109409250A (zh) | 一种基于深度学习的无交叠视域跨摄像机行人再识别方法 | |
CN111460884A (zh) | 基于人体跟踪的多人脸识别方法 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN115376034A (zh) | 一种基于人体三维姿态时空关联动作识别的运动视频采集剪辑方法及装置 | |
CN115188066A (zh) | 基于协同注意力和多尺度融合的运动目标检测***及方法 | |
CN114511592B (zh) | 一种基于rgbd相机和bim***的人员轨迹追踪方法及*** | |
CN115471748A (zh) | 一种面向动态环境的单目视觉slam方法 | |
CN108399630B (zh) | 一种复杂场景下感兴趣区域内目标快速测距方法 | |
CN111160115A (zh) | 一种基于孪生双流3d卷积神经网络的视频行人再识别方法 | |
CN112767452B (zh) | 摄像机主动感知方法及*** | |
CN114882072A (zh) | 一种多通道图像特征融合的高速相关滤波目标追踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |