CN106598226B - 一种基于双目视觉和深度学习的无人机人机交互方法 - Google Patents
一种基于双目视觉和深度学习的无人机人机交互方法 Download PDFInfo
- Publication number
- CN106598226B CN106598226B CN201611030533.XA CN201611030533A CN106598226B CN 106598226 B CN106598226 B CN 106598226B CN 201611030533 A CN201611030533 A CN 201611030533A CN 106598226 B CN106598226 B CN 106598226B
- Authority
- CN
- China
- Prior art keywords
- unmanned plane
- deep learning
- machine interaction
- image
- binocular vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于双目视觉和深度学***台及双目摄像头,该嵌入式图像处理平台通过接口连接飞行控制器,无人机与地面通过该平台通信,平台带有图形处理器,运行卷积神经网络深度学***台上,通过并行计算进行加速从而加快了运行速度。
Description
技术领域
本方法属于多媒体信息处理领域,具体涉及计算机视觉、深度学习、人机交互等技术,尤其是一种基于双目视觉和深度学习的无人机人机交互方法。
背景技术
人机交互技术伴随着着计算机的诞生而产生并且随着计算机软硬件的发展而逐渐发展,新技术的出现,不断的简化着人机交互的流程。近年来,随着人工智能技术的出现和发展,相关软硬件技术的不断进步和创新,如何实现更为便利的人机交互成为研究热点,各种新型人机交互技术不断涌现。与此同时,低成本小型无人机(UAV)等相关行业的兴起与普及,迫切需要一些更为便捷的人与无人机的交互控制方式降低无人机操作的门槛,使得无人机得到越来越广泛的应用。
无人机的人机交互表现在主要利用遥控器、摇杆、地面站软件等专用设备进行控制。其中最为主要的是利用遥控器进行操作,虽然遥控器的操作难度随着无人机技术的发展大大被降低,然而,笨重的遥控器仍然给操作者带来了非常大的不便。由手机、电脑和专用软件构成的地面站在许多情况下,从一定层度上使得人机交互更方便。近年来,新的人机交互方法层出不穷,出现了佩戴特殊辅助设备,利用身体部位运动的测量值或是脑电信号作为控制信号,来简化无人机的控制方式。然而依赖特殊辅助设备的控制方式仍然面临花费高、使用麻烦的问题。
在市面上普及的无人机当中,大多都搭载了摄像头。摄像头的价格低廉,使得视觉解决方案成为航拍,计算机视觉导航,视觉避障的首选。充分利用这些摄像头的功能,利用计算机视觉,通过图像识别手势进行无人机交互方法更具有普适性。现有的基于计算机视觉人机交互方法,由于软硬件的限制,往往不能够在足够远的范围内进行交互,并且容易受到环境干扰,无法在室外场景中应用。为了提高在室外环境无人机的手势识别算法的识别精度,本发明首次利用深度学习的方法进行手势识别,用手势控制无人机的运动,简化了无人机操控难度。
传统的动作识别算法计算复杂度高、由于缺少必要的加速算法,识别速度慢、准确率低。
发明内容
本发明基于双目摄像头,通过在无人机上搭载嵌入式平台,构建了一个基于计算机视觉及深度学习的无人机人机交互***,***提供了可以根据在地面上指定的领航员的手势控制飞机的飞行方向。
1.硬件***构成
本***由搭载地理位置获取模块的无人机平台、嵌入式图像处理平台、摄像头、地面站4个部分构成。
无人机平台为多旋翼无人机,无人机通过地理位置获取模块进行定位,飞行控制器可以控制无人机在室外自主悬停。无人机上搭载嵌入式图像处理平台和摄像头,本***中的摄像头捕捉用来后续处理的高分辨率图像。
嵌入式平台为带有图形处理器(GPU),能够为图像处理提供足够运算能力的平台。此平台负责图像的采集处理和动作识别,实际应用当中,可由高性能移动终端处理器充当,该***通过接口连接飞行控制器,无人机与地面的通信由此平台充当。平台搭载操作***运行处理程序。
地面站负责监测四轴飞行器的状态,用于指定领航员并且查看实时运算的结果,可由笔记本或智能终端充当。
2.动作识别框架
动作识别框架主要包括:视频预处理、生成彩色纹理图和卷积神经网络模型的训练及分类。
1)根据无人机回传的单视点图像,选择无人机领航员,方法为利用鼠标或者触摸屏幕,将领航员的身体(上身)所在区域圈出来;
2)将所选取区域根据人身体比例扩大框选出人整个身体所在区域,同时从另一个视点当中,选取出相应区域的人身体所在区域,并且利用跟踪算法在视频序列中逐帧提取出领航员所在区域并且对领航员进行跟踪,并且根据设定区域的所在位置,将整个人体所在区域的图像分割出来;
3)立体匹配,根据基于块匹配的立体匹配算法,将分割出来的左右视点间的图像进行匹配,得到分割后的立体视差图,视差图当中包含领航员的人物以及背景;
4)将得到的视差图进行归一化。并且用阈值滤除背景。得到干净的人物图像;
5)将相邻两帧的人物图像进行差分,得到差分图像序列。
6)按照生成的图片顺序,依次利用不同颜色代表不同时刻的差分图像,进行编码,将大约2s左右的图片产生的人物图像叠加成彩色纹理图。采用滑动窗口的方法,每隔5帧取大约2s左右的图片;
7)采集大量的,由不同操作者在不同环境下做选定动作的彩色纹理图对神经网络进行训练。训练在专用工作站进行。训练完成后,将训练参数上传至嵌入式图像处理平台。
8)在嵌入式图像处理平台上,利用训练好的参数对实时采集并且生成的彩色纹理图进行分类。
9)在嵌入式图像处理平台上,跟踪,分割,立体匹配,求取彩色纹理图,分类分别在不同的线程同时进行,从而最大化地利用处理器的处理能力。同时,将有关图像的计算,利用图形处理器进行加速,使得处理速度满足实时性的要求。
本发明的优点及有益效果:
1、本发明将卷积神经网络移植到配置了具有专用图形处理器(GPU)的嵌入式平台上,通过并行计算进行加速从而加快了运行速度。
2、本发明利用目标跟踪算法从视频序列中提取出操作者所在区域,有效解决了无人机飞行中相机漂移以及复杂背景干扰等问题,同时减少了运算量。该方法与别的方法相比较,具有工作范围广、准确率高的特点。
3、本发明将有关图像的计算利用图形处理器进行加速,使得处理速度满足实时性的要求。
附图说明
图1为本方法的硬件***连接示意图;
图2为实施例中步骤2立体匹配效果图;
图3为实施例中步骤3滤除背景后的图像;
图4为彩色纹理图合成原理图;
图5为本方法的处理流程图。
具体实施方式
下面结合附图并通过具体实施例对本发明作进一步详述,以下实施例只是描述性的,不是限定性的,不能以此限定本发明的保护范围。
一种基于双目视觉和深度学习的无人机人机交互方法,具体步骤如下:
1)***启动时,根据摄像机显示内容,通过地面站显示的单一视点框选领航员,利用快速跟踪算法对领航员进行跟踪,根据跟踪结果在较高分辨率的视频中提取出以领航员为中心的低分辨率视频序列。
2)利用基于块匹配的立体匹配算法,对低分辨率的部分进行立体匹配,这一部分立体匹配,由图形处理器进行加速。同时这一步的参数提供最大最小视差值Dmax与Dmin。立体匹配效果见附图2。
3)对立体匹配的结果进行处理:这个步骤主要用于滤除背景噪声。首先将立体匹配后的图像逐像素归一化,这一步运算量大,利用图形处理器(gpu)加速,利用多个gpu计算核的多线程加速完成。归一化公式如下:
其中Dmax和Dmin分别表示灰度值的最大和最小值,d为当前像素的灰度值。d'取不大于右边的最大值。
其次,用阈值化的方法,将背景噪声滤除:
其中threadhold为阈值,阈值的选择与摄像机分辨率和相机间距有关,需要通过对视差分布进行统计确定。在本发明的实验演示***当中,我们根据实验,确定取值为225。经过阈值化的图像只有人物信息的人物图像。滤除后的图像见附图3。
4)将经过阈值化的人物图像序列前后两帧之间做差分,得到差分的视频序列。假设具有n帧的深度视频序列为:d1,d2,…,dn,其中di表示第i帧的深度图。由于深度图像上像素点的值表示该像素位置相对于镜头的距离,因此对于相邻的两帧深度图像,可以通过计算相同像素位置的像素点值的差,来描述动作信息。在这里,将相邻两帧做差分后得出的结果表示为:m1,m2,…,mn-1。
5)为了在一张图中同表示出动作的时间特征,本发明利用颜色来编码深度图序列,通过在HSV彩色空间更改色度H,用不同的颜色表示差分深度的不同时刻。假设hmax和hmin表示实验中在HSV彩色空间中色度的取值范围。则第i个深度图中,所有计算出差分深度的像素位置均用色度Hi来进行编码:
6)叠加过程中,对于一个像素位置p(x,y),设其在深度差分得出的mi上具有深度变化值zi,根据整个视频序列中该像素位置的深度变化值序列z1,z2,…,zi可求出最大的深度变化值zmax=zk从而指定该像素位置的最终色彩分配Hk。在对整张图片上的所有像素位置做以上操作后,能够在将整个视频序列压缩成一张色彩丰富的彩色纹理图片,其中像素点值的空间位置描述了动作序列的空间特征,像素点对应的颜色值为动作序列的时间特征。合成的彩色原理图见附图4。
7)得到彩色纹理图后,通过卷积神经网络(CNN)对图片进行学习和分类来完成动作的识别(实验所采用网络结构为Alexnet)。
为了达到实时性的要求,本发明利用了摄像机捕捉视频时的时间间隔,以及嵌入式***的并行处理能力,在捕捉视频的同时对图像进行并行计算。在图像处理和神经网络的识别过程当中,均利用图形处理器进行加速。本发明中采用的跟踪算法为了提高运行速度,跟踪范围只限于操作者人脸部分,后续处理中,再根据跟踪区域截取更大区域。而深度图计算方面,采用了速度较快的基于块匹配的算法,立体匹配帧率能达到约16帧每秒。最终生成分类结果可以以每秒2帧的速度。***软件结构见附图5。
无人机捕捉的画面相比于静态相机捕捉的画面而言,往往伴随相机漂移和晃动。本发明根据使用环境,需要在不同的环境下采集并且生成的相应数据集。本发明的演示***生成的训练数据集,伴有相机漂移、晃动和背景人物走动,通过采集了5个动作的视频若干,为每个动作生成了约2000张彩色纹理图片,另外,还生成了一类包含3000张彩色纹理图的非控制指令。
下面为本发明在数据集上的实验结果及说明:将动作手势转换为动作指令。首先利用大型的工作站训练神经网络并且将训练结果上传至嵌入式图像处理平台。在室外环境下,操作者在距离无人机6-13米范围内每隔一定距离对每一控制指令分别做20次,共100个操作指令,期间伴随左右走动及干扰动作。对***的测试表明,在10m范围内,***识别的准确率可以达到百分之九十以上,识别效果可靠有效。识别结果见附表1。
表1
在训练集用的的彩色纹理图的采集过程当中,为了避免过拟合造成人物动作的时间长短不一而不能正确的被识别。彩色纹理图需要以不同的时间长短的动作都做合成。具体为取不同的帧数。在本发明的演示***当中,我们采用的方法是分别以30,40,50帧为长度进行合成。同时为了避免过拟合情况,还利用旋转图片和分辨率变换的方法对训练数据集进行扩展。
以上所述的仅是本发明的优选实施方式,应当指出,对于本领域的普通技术人员来说,在不脱离发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (7)
1.一种基于双目视觉和深度学***台及双目摄像头,该嵌入式图像处理平台通过接口连接飞行控制器,无人机与地面通过该平台通信,平台带有图形处理器,运行卷积神经网络深度学习算法,在摄像头捕捉视频的同时对图像进行并行计算,该交互方法的具体步骤为:
1)根据无人机回传的单视点图像,选择无人机领航员,利用鼠标或者触摸屏幕,将领航员的身体上身所在区域圈出来;
2)将所选取区域根据人身体比例扩大框选出人整个身体所在区域,同时从另一个视点当中,选取出相应区域的人身体所在区域,并且利用跟踪算法在视频序列中逐帧提取出领航员所在区域并且对领航员进行跟踪,并且根据设定区域的所在位置,将整个人体所在区域的图像分割出来;
3)立体匹配,根据基于块匹配的立体匹配算法,将分割出来的左右视点间的图像进行匹配,得到分割后的立体视差图,视差图当中包含领航员的人物以及背景;
4)将得到的视差图进行归一化,并且用阈值滤除背景,得到干净的人物图像;
5)将相邻两帧的人物图像进行差分,得到差分图像序列;
6)按照生成的图片顺序,依次利用不同颜色代表不同时刻的差分图像,进行编码,将大约2s左右的图片产生的人物图像叠加成彩色纹理图;采用滑动窗口的方法,每隔5帧取大约2s左右的图片;
7)采集大量的由不同操作者在不同环境下做选定动作的彩色纹理图对神经网络进行训练,训练在专用工作站进行,训练完成后,将训练参数上传至嵌入式图像处理平台;
8)在嵌入式图像处理平台上,利用训练好的参数对实时采集并且生成的彩色纹理图进行分类、识别;
9)将识别出的动作指令发送给飞行控制器,指导无人机运动。
2.根据权利要求1所述的基于双目视觉和深度学习的无人机人机交互方法,其特征在于:所述步骤2)跟踪算法的跟踪范围只限于操作者人脸部分。
3.根据权利要求1所述的基于双目视觉和深度学习的无人机人机交互方法,其特征在于:所述步骤3)立体匹配算法由图形处理器加速。
4.根据权利要求1所述的基于双目视觉和深度学习的无人机人机交互方法,其特征在于:所述步骤4)归一化由图形处理器加速。
5.根据权利要求1所述的基于双目视觉和深度学习的无人机人机交互方法,其特征在于:所述步骤8)分类、识别由图形处理器加速。
6.根据权利要求1所述的基于双目视觉和深度学习的无人机人机交互方法,其特征在于:所述步骤7)训练采集的彩色纹理图分别以30,40,50帧为长度进行合成。
7.根据权利要求1所述的基于双目视觉和深度学习的无人机人机交互方法,其特征在于:所述步骤7)利用旋转图片和分辨率变换的方法对训练数据集进行扩展。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611030533.XA CN106598226B (zh) | 2016-11-16 | 2016-11-16 | 一种基于双目视觉和深度学习的无人机人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611030533.XA CN106598226B (zh) | 2016-11-16 | 2016-11-16 | 一种基于双目视觉和深度学习的无人机人机交互方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106598226A CN106598226A (zh) | 2017-04-26 |
CN106598226B true CN106598226B (zh) | 2019-05-21 |
Family
ID=58591578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611030533.XA Expired - Fee Related CN106598226B (zh) | 2016-11-16 | 2016-11-16 | 一种基于双目视觉和深度学习的无人机人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106598226B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
US11797304B2 (en) | 2018-02-01 | 2023-10-24 | Tesla, Inc. | Instruction set architecture for a vector computational unit |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US12020476B2 (en) | 2017-03-23 | 2024-06-25 | Tesla, Inc. | Data synthesis for autonomous control systems |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018218481A1 (zh) * | 2017-05-31 | 2018-12-06 | 深圳市大疆创新科技有限公司 | 神经网络训练的方法、装置、计算机***和可移动设备 |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
CN107643826A (zh) * | 2017-08-28 | 2018-01-30 | 天津大学 | 一种基于计算机视觉及深度学习的无人机人机交互方法 |
CN107657233A (zh) * | 2017-09-28 | 2018-02-02 | 东华大学 | 基于改进型单次多目标检测器的静态手语实时识别方法 |
CN108257145B (zh) * | 2017-12-13 | 2021-07-02 | 北京华航无线电测量研究所 | 一种基于ar技术的无人机智能侦察处理***及方法 |
CN108052901B (zh) * | 2017-12-13 | 2021-05-25 | 中国科学院沈阳自动化研究所 | 一种基于双目的手势识别智能无人机远程操控方法 |
WO2019144300A1 (zh) * | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 目标检测方法、装置和可移动平台 |
WO2019144263A1 (zh) | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、设备、计算机可读存储介质 |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
WO2020037589A1 (zh) * | 2018-08-23 | 2020-02-27 | 深圳市大疆创新科技有限公司 | 一种可移动平台的控制方法及装置 |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
CN109445465A (zh) * | 2018-10-17 | 2019-03-08 | 深圳市道通智能航空技术有限公司 | 基于无人机的追踪方法、***、无人机及终端 |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
CN109343565A (zh) * | 2018-10-29 | 2019-02-15 | 中国航空无线电电子研究所 | 一种基于手势感知识别的无人机智能地面引导控制方法 |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
CN109858341B (zh) * | 2018-12-24 | 2021-05-25 | 北京澎思科技有限公司 | 一种基于嵌入式***的快速多人脸检测和跟踪方法 |
CN109697428B (zh) * | 2018-12-27 | 2020-07-07 | 江西理工大学 | 基于rgb_d和深度卷积网络的无人机识别定位*** |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
CN110096973A (zh) * | 2019-04-16 | 2019-08-06 | 东南大学 | 一种基于orb算法和深度级可分离卷积网络的交警手势识别方法 |
CN110222581B (zh) * | 2019-05-13 | 2022-04-19 | 电子科技大学 | 一种基于双目相机的四旋翼无人机视觉目标跟踪方法 |
CN110415236A (zh) * | 2019-07-30 | 2019-11-05 | 深圳市博铭维智能科技有限公司 | 一种基于双流神经网络的复杂地下管道的异常检测方法 |
WO2021042375A1 (zh) * | 2019-09-06 | 2021-03-11 | 深圳市汇顶科技股份有限公司 | 人脸活体检测方法、芯片及电子设备 |
CN113496136A (zh) * | 2020-03-18 | 2021-10-12 | 中强光电股份有限公司 | 无人机及其影像识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102665049A (zh) * | 2012-03-29 | 2012-09-12 | 中国科学院半导体研究所 | 基于可编程视觉芯片的视觉图像处理*** |
CN104808799A (zh) * | 2015-05-20 | 2015-07-29 | 成都通甲优博科技有限责任公司 | 一种能够识别手势的无人机及其识别方法 |
CN105222760A (zh) * | 2015-10-22 | 2016-01-06 | 一飞智控(天津)科技有限公司 | 一种基于双目视觉的无人机自主障碍物检测***及方法 |
CN106022236A (zh) * | 2016-05-13 | 2016-10-12 | 上海宝宏软件有限公司 | 一种基于人体轮廓的动作识别方法 |
CN106020227A (zh) * | 2016-08-12 | 2016-10-12 | 北京奇虎科技有限公司 | 无人机的控制方法、装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW201339903A (zh) * | 2012-03-26 | 2013-10-01 | Hon Hai Prec Ind Co Ltd | 無人飛行載具控制系統及方法 |
US9798322B2 (en) * | 2014-06-19 | 2017-10-24 | Skydio, Inc. | Virtual camera interface and other user interaction paradigms for a flying digital assistant |
-
2016
- 2016-11-16 CN CN201611030533.XA patent/CN106598226B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102665049A (zh) * | 2012-03-29 | 2012-09-12 | 中国科学院半导体研究所 | 基于可编程视觉芯片的视觉图像处理*** |
CN104808799A (zh) * | 2015-05-20 | 2015-07-29 | 成都通甲优博科技有限责任公司 | 一种能够识别手势的无人机及其识别方法 |
CN105222760A (zh) * | 2015-10-22 | 2016-01-06 | 一飞智控(天津)科技有限公司 | 一种基于双目视觉的无人机自主障碍物检测***及方法 |
CN106022236A (zh) * | 2016-05-13 | 2016-10-12 | 上海宝宏软件有限公司 | 一种基于人体轮廓的动作识别方法 |
CN106020227A (zh) * | 2016-08-12 | 2016-10-12 | 北京奇虎科技有限公司 | 无人机的控制方法、装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12020476B2 (en) | 2017-03-23 | 2024-06-25 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11797304B2 (en) | 2018-02-01 | 2023-10-24 | Tesla, Inc. | Instruction set architecture for a vector computational unit |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
Also Published As
Publication number | Publication date |
---|---|
CN106598226A (zh) | 2017-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106598226B (zh) | 一种基于双目视觉和深度学习的无人机人机交互方法 | |
CN107688391B (zh) | 一种基于单目视觉的手势识别方法和装置 | |
Joo et al. | Panoptic studio: A massively multiview system for social motion capture | |
Suarez et al. | Hand gesture recognition with depth images: A review | |
CN102638653B (zh) | 一种基于Kinect的自动面部追踪方法 | |
Liu et al. | Hand gesture recognition using depth data | |
KR102441171B1 (ko) | 다시점 얼굴 영상 기반 사용자 모니터링 장치 및 방법 | |
CN110827193B (zh) | 基于多通道特征的全景视频显著性检测方法 | |
CN107765855A (zh) | 一种基于手势识别控制机器人运动的方法和*** | |
US10679369B2 (en) | System and method for object recognition using depth mapping | |
CN103530619A (zh) | 基于rgb-d数据构成的少量训练样本的手势识别方法 | |
CN102194443A (zh) | 视频画中画窗口的显示方法、***及视频处理设备 | |
US10803604B1 (en) | Layered motion representation and extraction in monocular still camera videos | |
KR102282117B1 (ko) | 인공지능 디스플레이 장치 | |
Sun et al. | Gesture-based piloting of an aerial robot using monocular vision | |
CN105159452A (zh) | 一种基于人脸姿态估计的控制方法与*** | |
CN112487981A (zh) | 基于双路分割的ma-yolo动态手势快速识别方法 | |
CN113158833A (zh) | 一种基于人体姿态的无人车控制指挥方法 | |
CN108052901B (zh) | 一种基于双目的手势识别智能无人机远程操控方法 | |
CN114241379A (zh) | 一种乘客异常行为识别方法、装置、设备及乘客监控*** | |
WO2022267653A1 (zh) | 图像处理方法、电子设备及计算机可读存储介质 | |
Liu et al. | The study on human action recognition with depth video for intelligent monitoring | |
CN112330753B (zh) | 一种增强现实***的目标检测方法 | |
CN116935008A (zh) | 一种基于混合现实的展示交互方法和装置 | |
Manresa-Yee et al. | Towards hands-free interfaces based on real-time robust facial gesture recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190521 Termination date: 20201116 |