CN117197695B - 基于人工智能的无人机云台相机目标识别跟踪方法及*** - Google Patents

基于人工智能的无人机云台相机目标识别跟踪方法及*** Download PDF

Info

Publication number
CN117197695B
CN117197695B CN202311189736.3A CN202311189736A CN117197695B CN 117197695 B CN117197695 B CN 117197695B CN 202311189736 A CN202311189736 A CN 202311189736A CN 117197695 B CN117197695 B CN 117197695B
Authority
CN
China
Prior art keywords
target
unmanned aerial
aerial vehicle
video stream
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311189736.3A
Other languages
English (en)
Other versions
CN117197695A (zh
Inventor
朱志鹏
张凯轩
罗晓刚
叶嘉信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siyi Technology Shenzhen Co ltd
Original Assignee
Siyi Technology Shenzhen Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siyi Technology Shenzhen Co ltd filed Critical Siyi Technology Shenzhen Co ltd
Priority to CN202311189736.3A priority Critical patent/CN117197695B/zh
Publication of CN117197695A publication Critical patent/CN117197695A/zh
Application granted granted Critical
Publication of CN117197695B publication Critical patent/CN117197695B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了基于人工智能的无人机云台相机目标识别跟踪方法,包括:通过无人机云台相机捕获实时视频流,并将视频流数据上传至基于人工智能算力的机载计算机;基于人工智能算力的机载计算机利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,提取目标的特征参数,特征参数包括目标的形状、颜色、纹理、位置和运动轨迹;当目标发生形变、遮挡、或有物体干扰时,基于目标区域预测模型,确定目标与背景的区分,获取目标位置;根据确定的目标位置,实时调整无人机云台相机的角度和焦距,确保目标处于相机的视野中,并通过无人机云台相机进行持续跟踪。在目标形变、遮挡或有物体干扰的情况下,准确地确定目标位置。

Description

基于人工智能的无人机云台相机目标识别跟踪方法及***
技术领域
本发明涉及目标识别跟踪技术,尤其涉及基于人工智能的无人机云台相机目标识别跟踪方法及***。
背景技术
随着无人机技术的迅速发展,无人机已广泛应用于农业、测绘、电影制作、安全监控等多个领域。其中,无人机云台相机的目标识别与跟踪技术是近年来研究的热点,它能够实现对地面或空中目标的自动识别和持续跟踪。
申请号为:202111156436.6的发明公开了一种针对远距离高速运动目标的智能跟踪拍摄***,包括光学***、稳定平台***和显控***,以全景摄像机作为视觉传感器,将自适应目标检测跟踪方法与车载两轴三维稳定平台相融合,在目标跟踪方法中,结合全局相机引导特写相机跟踪拍摄与特写相机闭环检测双机制,提升整体***的跟踪精度,保证目标处于视频画面中央。该现有技术存在的缺陷包括:虽然***提供了手动与自动检测转换的功能,但在实际操作中,频繁切换可能会导致操作复杂性增加,增加误操作的风险;尽管有稳定平台***,但在复杂的环境或恶劣的天气条件下,保持稳定的跟踪可能仍然是一个挑战;自适应算法可能在某些特定情况下失效,例如在目标与背景颜色相似或目标速度变化很大的情况下。
因此,急需一种基于人工智能的无人机云台相机目标识别跟踪方法及***。
发明内容
本发明提供了一种基于人工智能的无人机云台相机目标识别跟踪方法及***,以解决现有技术中存在的虽然***提供了手动与自动检测转换的功能,但在实际操作中,频繁切换可能会导致操作复杂性增加,增加误操作的风险;尽管有稳定平台***,但在复杂的环境或恶劣的天气条件下,保持稳定的跟踪可能仍然是一个挑战;自适应算法可能在某些特定情况下失效,例如在目标与背景颜色相似或目标速度变化很大的情况下的上述问题。
为了达到上述目的,本发明提供如下技术方案:
基于人工智能的无人机云台相机目标识别跟踪方法,包括:
S101:通过无人机云台相机捕获实时视频流,并将视频流数据上传至基于人工智能算力的机载计算机;
S102:基于人工智能算力的机载计算机利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,提取目标的特征参数,特征参数包括目标的形状、颜色、纹理、位置和运动轨迹;
S103:当目标发生形变、遮挡、或有物体干扰时,基于目标区域预测模型,确定目标与背景的区分,获取目标位置;
S104:根据确定的目标位置,实时调整无人机云台相机的角度和焦距,确保目标处于相机的视野中,并通过无人机云台相机进行持续跟踪。
其中,S101步骤包括:
S1011:启动无人机云台相机,基于预设的目标捕获参数,自动调整相机设置,其中,目标捕获参数包括焦距、曝光时间和光圈大小;
S1012:无人机云台相机实时捕获视频流,其中,通过内置的图像处理算法,对捕获的视频流进行实时压缩和编码,获取编码后的视频流数据;
S1013:通过预设的无线通信协议,将编码后的视频流数据实时上传至基于人工智能算力的机载计算机,同时确保数据的完整性和安全性。
其中,S102步骤包括:
S1021:基于深度学习算法,对目标识别数据库中的目标识别捕获数据进行特征提取,根据获取的特征,构建动态目标相对位置识别模型,将特征和对应的目标位置作为输入,通过反向传播算法优化动态目标相对位置识别模型参数;
S1022:利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,启动特征参数提取过程;
S1023:提取目标的特征参数,对目标的形状、颜色、纹理进行分析,再计算目标的位置和运动轨迹。
其中,S103步骤包括:
S1031:当目标发生形变、遮挡或有物体干扰时,启动目标区域预测模型,利用目标区域预测模型,对视频中的目标与背景进行区分;
S1032:在目标与背景区分过程中,先对目标的形状、颜色、纹理和运动特性进行分析,然后根据目标区域预测模型确定目标与背景的界限;
S1033:根据目标区域预测模型的预测结果,获取目标对应位置,通过反馈机制对预测结果进行核对,若预测结果与实际情况不符时,对目标区域预测模型进行实时调整和优化。
其中,S104步骤包括:
S1041:根据确定的目标位置,计算目标与无人机云台相机当前视野的相对位置;
S1042:实时调整无人机云台相机的角度,计算目标的移动速度和方向,预测目标的下一位置,提前调整无人机云台相机的角度;
S1043:根据目标与相机的距离,动态调整相机的焦距,当目标临时失去或模糊时,通过目标反馈机制重新定位并跟踪目标。
其中,S1011步骤包括:
启动无人机云台相机时,根据实际目标位置与期望目标位置,在无人机云台坐标系下的差值设置云台伺服驱动控制器,云台伺服驱动控制器根据输入误差计算得到虚拟控制指令,驱动伺服执行机构调整云台水平方向与垂直方向的转动;
其中,无人机根据被跟踪目标所在位置及无人机当前飞行目标状态估计目标的实际位置,设定无人机飞行期望轨迹;无人机飞行控制器根据无人机飞行实际轨迹和期望轨迹计算虚拟控制指令,并驱动无人机执行机构完成无人机飞行控制。
其中,S1022步骤包括:
利用动态目标相对位置识别模型对视频流中的目标进行实时识别过程中,读取视频流中的视频序列图像,并判断视频序列图像是否为第一帧图像;若为第一帧图像,则利用目标检测算法对输入图像全局检测,并选取设定范围内的置信度得分最高的目标选框作为被跟踪目标的初始位置信息;若不是第一帧图像,则裁剪图像,使图像大小为前一帧检测得到的目标选框尺寸的5倍,裁剪图像中心位置为前一帧目标选框的中心坐标,若无前一帧检测结果,则以目标检测结果作为裁剪标准,根据目标初始位置信息裁剪包括目标图信息,并利用网络模板分支提取目标特征信息,输出6×6×256特性图;
将6×6×256特性图作为动态目标相对位置识别模型网络输入,利用已训练的两个卷积层将特征图扩展为4×4(×2k×256)通道的特征图与4×4(×4k×256)通道的特征图,其中,k表示k个锚点;利用检测分支提取裁剪图像特征信息,并输出大小为22×22×256的特征图;对特征图中k个锚点进行排序,并选择设定范围得分最高的锚点作为目标跟踪检测结果,并输出该锚点的得分与坐标信息,该坐标信息为当前帧目标位置信息。
其中,S1031步骤包括:
当目标发生形变、遮挡或有物体干扰,启动目标区域预测模型时,将目标区域预测模型中的卷积层后增加对应通道选择层,根据已知帧目标及周围背景区域像素点的类别标注,对最后一个卷积层的通道进行排序和筛选,通过排序和筛选获得目标的语义特征,对语义特征进行二值化操作,二值化后的语义特征被当作掩膜模板将目标分块,在对候选目标进行表示时,通过对可靠区域和不可靠区域表示系数的差值项进行设定范数约束,保证同一个候选目标不同局部区域在选择字典原子及类别判断上的一致性。
其中,基于人工智能的无人机云台相机目标识别跟踪***,包括:
捕获视频流单元,用于通过无人机云台相机捕获实时视频流,并将视频流数据上传至基于人工智能算力的机载计算机;
目标识别单元,用于基于人工智能算力的机载计算机利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,提取目标的特征参数,特征参数包括目标的形状、颜色、纹理、位置和运动轨迹;
目标与背景区分单元,用于当目标发生形变、遮挡、或有物体干扰时,基于目标区域预测模型,确定目标与背景的区分,获取目标位置;
目标跟踪单元,用于根据确定的目标位置,实时调整无人机云台相机的角度和焦距,确保目标处于相机的视野中,并通过无人机云台相机进行持续跟踪。
其中,捕获视频流单元包括:
捕获视频流第一子单元,用于启动无人机云台相机,基于预设的目标捕获参数,自动调整相机设置,其中,目标捕获参数包括焦距、曝光时间和光圈大小;
捕获视频流第二子单元,用于无人机云台相机实时捕获视频流,其中,通过内置的图像处理算法,对捕获的视频流进行实时压缩和编码,获取编码后的视频流数据;
捕获视频流第三子单元,用于通过预设的无线通信协议,将编码后的视频流数据实时上传至基于人工智能算力的机载计算机,同时确保数据的完整性和安全性。
与现有技术相比,本发明具有以下优点:
基于人工智能的无人机云台相机目标识别跟踪方法,包括:通过无人机云台相机捕获实时视频流,并将视频流数据上传至基于人工智能算力的机载计算机;基于人工智能算力的机载计算机利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,提取目标的特征参数,特征参数包括目标的形状、颜色、纹理、位置和运动轨迹;当目标发生形变、遮挡、或有物体干扰时,基于目标区域预测模型,确定目标与背景的区分,获取目标位置;根据确定的目标位置,实时调整无人机云台相机的角度和焦距,确保目标处于相机的视野中,并通过无人机云台相机进行持续跟踪。能够在目标形变、遮挡或有物体干扰的情况下,准确地确定目标位置,提高目标识别和跟踪的精准度。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中人工智能的无人机云台相机目标识别跟踪方法的流程图;
图2为本发明实施例中捕获实时视频流的流程图;
图3为本发明实施例中对视频流中的目标进行实时识别的流程图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提供了基于人工智能的无人机云台相机目标识别跟踪方法,包括:
S101:通过无人机云台相机捕获实时视频流,并将视频流数据上传至基于人工智能算力的机载计算机;
S102:基于人工智能算力的机载计算机利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,提取目标的特征参数,特征参数包括目标的形状、颜色、纹理、位置和运动轨迹;
S103:当目标发生形变、遮挡、或有物体干扰时,基于目标区域预测模型,确定目标与背景的区分,获取目标位置;
S104:根据确定的目标位置,实时调整无人机云台相机的角度和焦距,确保目标处于相机的视野中,并通过无人机云台相机进行持续跟踪。
上述技术方案的工作原理为:无人机搭载云台相机,通过传感器捕获周围环境的视频流,并将视频流数据传输至基于人工智能算力的机载计算机;基于人工智能算力的机载计算机利用动态目标相对位置识别模型对视频流中的目标进行实时识别,该模型是基于深度学习的目标检测算法,通过训练模型来识别不同类别的目标;当识别到目标时,基于人工智能算力的机载计算机提取目标的特征参数,包括目标的形状、颜色、纹理、位置和运动轨迹等,这些特征参数可以用于后续的目标跟踪和识别;当目标发生形变、遮挡或有物体干扰时,基于目标区域预测模型确定目标与背景的区分,获取目标位置,目标区域预测模型是基于机器学习的分类器或深度学习的图像分割算法,通过训练模型来预测目标的位置;根据确定的目标位置,基于人工智能算力的机载计算机实时调整无人机云台相机的角度和焦距,确保目标处于相机的视野中,通过控制云台的电机或舵机来实现;通过无人机云台相机进行持续跟踪,保持目标在相机视野中的中心位置。可以使用目标跟踪算法,如粒子滤波器等,根据目标的运动模式和外观特征来预测目标的位置并进行跟踪。
基于人工智能算力的机载计算机是一种集成了人工智能(AI)算法和计算能力的计算设备,通常安装在飞机、汽车、机器人等载体上,用于实时处理和分析大量的数据,并进行复杂的AI算法运算。
上述技术方案的有益效果为:通过基于人工智能算力的机载计算机对视频流进行实时处理,能够快速准确地识别和跟踪目标,实现实时监控和跟踪功能;无人机云台相机通过自动调整角度和焦距,能够自动跟踪目标,减少人工干预,提高操作效率;通过提取目标的特征参数和使用预测模型,能够在目标形变、遮挡或有物体干扰的情况下,准确地确定目标位置,提高目标识别和跟踪的精准度;该方法可以应用于无人机的航拍、监控、搜救等领域,提高无人机的自主性和智能化水平,拓展了无人机的应用范围和功能。
在另一实施例中,S101步骤包括:
S1011:启动无人机云台相机,基于预设的目标捕获参数,自动调整相机设置,其中,目标捕获参数包括焦距、曝光时间和光圈大小;
S1012:无人机云台相机实时捕获视频流,其中,通过内置的图像处理算法,对捕获的视频流进行实时压缩和编码,获取编码后的视频流数据;
S1013:通过预设的无线通信协议,将编码后的视频流数据实时上传至基于人工智能算力的机载计算机,同时确保数据的完整性和安全性。
上述技术方案的工作原理为:通过无人机的控制***启动云台相机,确保相机正常工作;根据预设的目标捕获参数,自动调整相机的焦距、曝光时间和光圈大小等设置,这些参数的调整通过控制相机的电子或机械部件来实现;无人机云台相机实时捕获周围环境的视频流,视频流通过相机的传感器捕获,并经过图像处理算法进行实时处理;通过内置的图像处理算法,对捕获的视频流进行实时压缩和编码,这可以减小视频流的数据量,提高数据传输的效率;通过预设的无线通信协议,将编码后的视频流数据实时上传至基于人工智能算力的机载计算机,这可以通过无线网络或其他通信方式实现,同时,确保数据的完整性和安全性,采用数据加密和校验的技术手段。
其中,无人机云台相机具有自适应光学变焦功能,根据目标的大小和距离,自动调整焦距,确保目标的清晰捕获;基于人工智能算力的机载计算机采用分布式存储***,确保上传的视频流数据的高可用性和快速访问;无人机云台相机内置有图像稳定技术,确保在飞行过程中捕获的视频流稳定且无抖动;无人机云台相机具有低光增强功能,确保在低光环境下也能捕获清晰的视频流。
无人机云台相机实时捕获视频流,包括:获取无人机云台相机的实时视频流;
基于预设的第一捕获模板(第一捕获模板用于解析实时视频流,获取视频流配置条件的预设模板),对实时视频流进行解析,获取视频流配置条件(视频流配置条件指视频流的特定要求,例如分辨率、帧率、编码格式);
获取无人机云台相机的配置信息(配置信息包括相机的硬件参数和软件设置);
判断无人机云台相机配置信息是否满足视频流配置条件;
当是时,将对应实时视频流作为适用视频流(适用视频流:指满足视频流配置条件的实时视频流);
基于预设的第二捕获模板(第二捕获模板指用于解析适用视频流,获取视频特征集和视频流类型的预设模板),对适用视频流进行解析,获取视频特征集(视频特征集指视频流中的一组特征数据,例如颜色直方图、运动特征)和视频流类型;
获取视频特征集中每一视频特征的特征类型(特征类型是指视频特征的分类或标识,用于后续的图像处理算法构建);
基于特征类型,构建图像处理算法模板(图像处理算法模板是指根据视频特征类型设计的一组算法或规则,用于对适用视频流进行实时压缩和编码);
基于图像处理算法模板,对适用视频流进行实时压缩和编码,获得编码后的视频流数据;
将编码后的视频流数据与视频特征集进行匹配,获取第一匹配度(第一匹配度:指编码后的视频流与视频特征集的匹配度);
若第一匹配度大于等于预设的第一匹配度阈值,将视频流类型作为编码后的视频流。
上述技术方案的有益效果为:通过预设的目标捕获参数,无人机云台相机能够自动调整相机设置,减少人工干预,提高操作效率;无人机云台相机实时捕获视频流,并通过实时压缩和编码,能够快速将视频流数据上传至基于人工智能算力的机载计算机,实现实时监控和处理;通过实时压缩和编码,减小视频流的数据量,提高数据传输的效率,减少带宽占用和传输延迟;通过预设的无线通信协议,确保数据的完整性和安全性,采用数据加密和校验等技术手段,保护视频流数据的安全;将视频流数据上传至基于人工智能算力的机载计算机,可以实现远程处理和分析,拓展了无人机应用的功能和应用场景。
在另一实施例中,S102步骤包括:
S1021:基于深度学习算法,对目标识别数据库中的目标识别捕获数据进行特征提取,根据获取的特征,构建动态目标相对位置识别模型,将特征和对应的目标位置作为输入,通过反向传播算法优化动态目标相对位置识别模型参数;
S1022:利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,启动特征参数提取过程;
S1023:提取目标的特征参数,对目标的形状、颜色、纹理进行分析,再计算目标的位置和运动轨迹。
上述技术方案的工作原理为:使用深度学习算法(如卷积神经网络)对目标识别数据库中的目标识别捕获数据进行特征提取,通过训练深度学习模型,提取图像中的高级特征,如形状、颜色、纹理等;根据特征提取得到的特征,构建动态目标相对位置识别模型,其中采用全连接层、卷积层和池化层的组合构建模型结构,以适应目标识别和位置预测任务;使用特征和对应的目标位置作为输入,通过反向传播算法优化动态目标相对位置识别模型的参数,训练过程中,使用标注数据进行模型训练,以提高模型的准确性和鲁棒性;利用训练好的动态目标相对位置识别模型,对视频流中的目标进行实时识别,通过输入视频流数据,使用模型对目标进行分类和定位;当识别到目标时,启动特征参数提取过程,根据目标的形状、颜色、纹理等特征,对目标进行分析和提取;通过计算机视觉算法和图像处理技术,获取目标的位置和运动轨迹信息,使用目标的位置信息进行目标跟踪,进一步分析目标的运动轨迹。
构建动态目标相对位置识别模型,包括:基于深度学习算法,构建动态目标相对位置识别模型;
基于大数据,获得目标识别数据库中的目标识别捕获数据集合(指目标识别数据库中的一组数据,这些数据包括目标的位置信息),以及目标的历史位置特征集合(指目标在过去的一段时间内被识别的图像的集合);
基于机器视觉检测,获得目标的历史识别图像集合;
将历史识别图像集合、目标识别捕获数据集合、历史位置特征集合(指描述目标在过去的位置变化情况的一组特征数据)和用于标识待识别目标信息的标识信息(指用于标识待识别目标的信息,例如目标的ID或其他唯一标识符)作为训练数据和验证数据;
采用对动态目标相对位置识别模型进行监督训练,训练至收敛或输出结果达到预设的准确率,其中,利用反向传播算法优化模型参数;
采用训练数据验证数据对动态目标相对位置识别模型进行验证,若动态目标相对位置识别模型的准确率满足预设条件,获得动态目标相对位置识别模型。
上述技术方案的有益效果为:深度学习算法能够提取图像中的高级特征,提高目标识别的准确性和鲁棒性;利用动态目标相对位置识别模型,能够实现对视频流中目标的实时识别,满足实时监控和处理的需求;通过提取目标的形状、颜色、纹理等特征参数,能够提供丰富的目标信息,为后续的目标跟踪、分析和其他应用提供支持;通过计算目标的位置和运动轨迹,可以实现目标跟踪、行为分析等应用,提供更全面的目标信息;基于深度学习算法构建的动态目标相对位置识别模型具有良好的扩展性,可以应用于不同场景和领域,如智能监控、自动驾驶等。
在另一实施例中,S103步骤包括:
S1031:当目标发生形变、遮挡或有物体干扰时,启动目标区域预测模型,利用目标区域预测模型,对视频中的目标与背景进行区分;
S1032:在目标与背景区分过程中,先对目标的形状、颜色、纹理和运动特性进行分析,然后根据目标区域预测模型确定目标与背景的界限;
S1033:根据目标区域预测模型的预测结果,获取目标对应位置,通过反馈机制对预测结果进行核对,若预测结果与实际情况不符时,对目标区域预测模型进行实时调整和优化。
上述技术方案的工作原理为:构建目标区域预测模型,用于区分视频中的目标与背景。可以采用卷积神经网络,对目标区域进行预测;对目标的形状、颜色、纹理和运动特性进行分析,可以使用计算机视觉算法和图像处理技术,提取目标的特征信息;根据目标特征分析的结果,结合目标区域预测模型,确定目标与背景的界限,通过对目标区域进行预测,将目标与背景进行区分;根据目标区域预测模型的预测结果,获取目标对应的位置信息,可以通过边界框或像素级分割等方式获取目标的位置;通过反馈机制对预测结果进行核对,将预测结果与实际情况进行比对,若存在不一致的情况,即预测结果与实际目标位置不符,需要对目标区域预测模型进行实时调整和优化。
上述技术方案的有益效果为:通过启动目标区域预测模型,能够应对目标发生形变、遮挡或有物体干扰的情况,提高目标识别的鲁棒性;通过对目标的形状、颜色、纹理和运动特性进行分析,能够更准确地确定目标与背景的界限,提高目标识别的精确性;通过反馈机制对预测结果进行核对,并对目标区域预测模型进行实时调整和优化,能够实现对目标位置的实时获取和准确性的提升;目标区域预测模型的实时调整和优化,使其能够适应不同场景和目标的变化,提高模型的适应性和泛化能力;通过综合利用目标区域预测模型和目标特征分析,能够提高目标识别的准确性和鲁棒性,为后续的目标跟踪、行为分析等应用提供更可靠的基础。
在另一实施例中,S104步骤包括:
S1041:根据确定的目标位置,计算目标与无人机云台相机当前视野的相对位置;
S1042:实时调整无人机云台相机的角度,计算目标的移动速度和方向,预测目标的下一位置,提前调整无人机云台相机的角度;
S1043:根据目标与相机的距离,动态调整相机的焦距,当目标临时失去或模糊时,通过目标反馈机制重新定位并跟踪目标。
上述技术方案的工作原理为:根据确定的目标位置,计算目标与无人机云台相机当前视野的相对位置,可以使用几何计算方法,如欧氏距离、角度计算;根据目标的移动速度和方向,预测目标的下一位置,并提前调整无人机云台相机的角度,使其能够跟随目标的移动;根据目标与相机的距离,动态调整相机的焦距,当目标与相机的距离较远时,适当增大焦距以保持目标清晰;当目标与相机的距离较近时,适当减小焦距以避免目标模糊;当目标临时失去或模糊时,通过目标反馈机制重新定位并跟踪目标,利用目标识别算法或运动估计算法,对目标进行重新定位,并根据新的目标位置进行相机角度和焦距的调整。
实时调整无人机云台相机的角度,包括:从无人机云台相机的当前角度确定目标的当前位置(通过相机角度和已知的相机参数,可以计算出目标在相机视野中的位置);
基于当前位置和目标的移动方向,构建第一方向向量(第一方向向量表示目标当前位置指向目标下一位置的方向);
将无人机云台相机的角度随机设置于当前位置旁;
获取目标的移动速度和预测的下一位置;
基于下一位置和目标的移动方向,构建第二方向向量(第二方向向量表示目标下一位置指向目标预测位置的方向);
计算第一方向向量与第二方向向量之间的第一向量夹角(指第一方向向量与第二方向向量之间的夹角);
获取当前位置与下一位置之间的第一直线距离(指当前位置与下一位置之间的直线距离);
对无人机云台相机的角度进行实时调整,直至当第一向量夹角等于预设第一夹角(指预先设定的第一方向向量与第二方向向量之间的夹角)值且第一直线距离等于预设第一距离值(指预先设定的当前位置与下一位置之间的直线距离)时,停止角度调整;
基于无人机云台相机的角度,生成目标的跟踪轨迹图(跟踪轨迹图可以用于记录目标的移动轨迹)。
上述技术方案的有益效果为:通过根据目标位置计算相对位置,实时调整相机角度和焦距,能够提高目标跟踪的准确性,保持目标在视野中的清晰度;通过实时调整相机角度和焦距,能够及时响应目标的移动和变化,实现实时跟踪和拍摄;根据目标与相机的距离动态调整焦距,能够适应不同距离的目标,保持目标的清晰度;通过目标反馈机制重新定位和跟踪目标,能够应对目标临时失去或模糊的情况,提高目标跟踪的鲁棒性;通过精确的跟踪和调整,能够实现更稳定、清晰的拍摄效果,提高无人机拍摄的质量和观赏性。
在另一实施例中,S1011步骤包括:
启动无人机云台相机时,根据实际目标位置与期望目标位置,在无人机云台坐标系下的差值设置云台伺服驱动控制器,云台伺服驱动控制器根据输入误差计算得到虚拟控制指令,驱动伺服执行机构调整云台水平方向与垂直方向的转动;
其中,无人机根据被跟踪目标所在位置及无人机当前飞行目标状态估计目标的实际位置,设定无人机飞行期望轨迹;无人机飞行控制器根据无人机飞行实际轨迹和期望轨迹计算虚拟控制指令,并驱动无人机执行机构完成无人机飞行控制。
上述技术方案的工作原理为:根据实际目标位置与期望目标位置的差值,设置云台伺服驱动控制器,通过计算得到虚拟控制指令,驱动伺服执行机构调整云台的水平和垂直转动,使相机对准目标;无人机根据被跟踪目标的位置和当前飞行目标状态,估计目标的实际位置,这可以通过目标检测和跟踪算法,结合无人机的传感器数据(如视觉、雷达等)进行实现;根据目标的实际位置估计结果,设定无人机的飞行期望轨迹,期望轨迹可以是预先设定的路径或根据目标位置动态调整的路径;无人机飞行控制器根据无人机的实际轨迹和期望轨迹计算虚拟控制指令。这可以通过控制算法(如PID控制器)结合无人机的动力学模型进行实现,虚拟控制指令驱动无人机执行机构,完成无人机的飞行控制,使其按照期望轨迹飞行。
上述技术方案的有益效果为:通过根据实际目标位置与期望目标位置的差值调整云台相机的转动,可以实现对目标的准确跟踪,提高目标识别和监测的效果;通过根据目标的实际位置估计和设定飞行期望轨迹,以及根据实际轨迹和期望轨迹计算虚拟控制指令,可以实现无人机飞行的稳定性和精确性;通过无人机飞行控制器的计算和驱动,实现对无人机飞行的自动化控制,减少人工干预,提高飞行的效率和安全性;通过实时估计目标位置和计算控制指令,可以实现对目标和无人机的实时跟踪和控制,适应动态变化的场景。
在另一实施例中,S1022步骤包括:
利用动态目标相对位置识别模型对视频流中的目标进行实时识别过程中,读取视频流中的视频序列图像,并判断视频序列图像是否为第一帧图像;若为第一帧图像,则利用目标检测算法对输入图像全局检测,并选取设定范围内的置信度得分最高的目标选框作为被跟踪目标的初始位置信息;若不是第一帧图像,则裁剪图像,使图像大小为前一帧检测得到的目标选框尺寸的5倍,裁剪图像中心位置为前一帧目标选框的中心坐标,若无前一帧检测结果,则以目标检测结果作为裁剪标准,根据目标初始位置信息裁剪包括目标图信息,并利用网络模板分支提取目标特征信息,输出6×6×256特性图;将6×6×256特性图作为动态目标相对位置识别模型网络输入,利用已训练的两个卷积层将特征图扩展为4×4(×2k×256)通道的特征图与4×4(×4k×256)通道的特征图,其中,k表示k个锚点;利用检测分支提取裁剪图像特征信息,并输出大小为22×22×256的特征图;对特征图中k个锚点进行排序,并选择设定范围得分最高的锚点作为目标跟踪检测结果,并输出该锚点的得分与坐标信息,该坐标信息为当前帧目标位置信息。
上述技术方案的工作原理为:读取视频流中的视频序列图像,并判断是否为第一帧图像。若是第一帧图像,则利用目标检测算法对输入图像进行全局检测,选取置信度得分最高的目标选框作为被跟踪目标的初始位置信息。若不是第一帧图像,则根据前一帧检测得到的目标选框尺寸,裁剪当前图像。裁剪图像的大小为前一帧目标选框尺寸的5倍,中心位置为前一帧目标选框的中心坐标。若无前一帧检测结果,则以目标检测结果作为裁剪标准。利用网络模板分支提取裁剪图像中的目标特征信息,并输出6×6×256的特征图。将6×6×256的特征图作为动态目标相对位置识别模型网络的输入。通过已训练的两个卷积层,将特征图扩展为4×4(×2k×256)通道的特征图和4×4(×4k×256)通道的特征图。利用检测分支提取裁剪图像的特征信息,并输出大小为22×22×256的特征图。对特征图中的k个锚点进行排序,并选择设定范围得分最高的锚点作为目标跟踪检测结果。输出该锚点的得分与坐标信息,作为当前帧目标的位置信息。
上述技术方案的有益效果为:通过利用目标检测算法对第一帧图像进行全局检测,可以快速获取目标的初始位置信息,实现实时的目标跟踪;目标连续性:通过裁剪图像并提取目标特征信息,可以保持目标的连续性,避免目标在跟踪过程中的丢失或漂移;通过网络模板分支和检测分支提取目标的特征信息,可以更准确地描述目标的外观和结构特征,提高目标识别和跟踪的准确性;多尺度适应:通过利用不同尺度的特征图和锚点,可以适应不同大小和形状的目标,提高目标跟踪的鲁棒性和适应性;通过裁剪图像和特征提取,可以减少计算量和存储需求,提高目标识别和跟踪的效率。
在另一实施例中,S1031步骤包括:
当目标发生形变、遮挡或有物体干扰,启动目标区域预测模型时,将目标区域预测模型中的卷积层后增加对应通道选择层,根据已知帧目标及周围背景区域像素点的类别标注,对最后一个卷积层的通道进行排序和筛选,通过排序和筛选获得目标的语义特征,对语义特征进行二值化操作,二值化后的语义特征被当作掩膜模板将目标分块,在对候选目标进行表示时,通过对可靠区域和不可靠区域表示系数的差值项进行设定范数约束,保证同一个候选目标不同局部区域在选择字典原子及类别判断上的一致性。
上述技术方案的工作原理为:输入帧图像经过目标区域预测模型的卷积层和通道选择层,得到目标的语义特征;对语义特征进行排序和筛选,获得目标的重要通道;对获得的语义特征进行二值化操作,得到目标的二值掩膜模板;
根据二值掩膜模板将目标分块,得到候选目标的局部区域;对候选目标的局部区域进行表示,通过设定范数约束,保证不同局部区域在选择字典原子及类别判断上的一致性。
上述技术方案的有益效果为:通过增加通道选择层和二值化操作,可以对目标发生形变、遮挡或有物体干扰时进行有效的预测和分割,提高目标区域预测的准确性;通过对语义特征进行排序和筛选,可以提取目标的重要特征,减少干扰因素的影响,提高目标区域预测的准确性;通过设定范数约束,保证同一个候选目标不同局部区域在选择字典原子及类别判断上的一致性,提高目标区域预测的一致性和稳定性;通过将目标分块并对局部区域进行表示,可以更好地捕捉目标的细节和边界信息,提高目标分割的准确性和精度。
在另一实施例中,基于人工智能的无人机云台相机目标识别跟踪***,包括:
捕获视频流单元,用于通过无人机云台相机捕获实时视频流,并将视频流数据上传至基于人工智能算力的机载计算机;
目标识别单元,用于基于人工智能算力的机载计算机利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,提取目标的特征参数,特征参数包括目标的形状、颜色、纹理、位置和运动轨迹;
目标与背景区分单元,用于当目标发生形变、遮挡、或有物体干扰时,基于目标区域预测模型,确定目标与背景的区分,获取目标位置;
目标跟踪单元,用于根据确定的目标位置,实时调整无人机云台相机的角度和焦距,确保目标处于相机的视野中,并通过无人机云台相机进行持续跟踪。
上述技术方案的工作原理为:通过捕获视频流单元,将无人机云台相机捕获的实时视频流上传至基于人工智能算力的机载计算机。在基于人工智能算力的机载计算机上,利用目标识别单元进行实时目标识别,提取目标的特征参数。当目标发生形变、遮挡或有物体干扰时,通过目标与背景区分单元确定目标与背景的区分,获取目标位置。然后,通过目标跟踪单元实时调整无人机云台相机的角度和焦距,确保目标处于相机的视野中,并进行持续跟踪。
上述技术方案的有益效果为:通过捕获视频流单元和基于人工智能算力的机载计算机,可以实现对实时视频流的处理和目标识别,保证目标跟踪的实时性;通过目标识别单元提取目标的特征参数,并通过目标与背景区分单元确定目标位置,可以提高目标跟踪的准确性;通过目标与背景区分单元的工作,可以应对目标发生形变、遮挡或有物体干扰的情况,提高目标跟踪的鲁棒性和适应性;通过目标跟踪单元实时调整无人机云台相机的角度和焦距,确保目标持续处于相机的视野中,实现持续跟踪。
在另一实施例中,捕获视频流单元包括:
捕获视频流第一子单元,用于启动无人机云台相机,基于预设的目标捕获参数,自动调整相机设置,其中,目标捕获参数包括焦距、曝光时间和光圈大小;
捕获视频流第二子单元,用于无人机云台相机实时捕获视频流,其中,通过内置的图像处理算法,对捕获的视频流进行实时压缩和编码,获取编码后的视频流数据;
捕获视频流第三子单元,用于通过预设的无线通信协议,将编码后的视频流数据实时上传至基于人工智能算力的机载计算机,同时确保数据的完整性和安全性。
上述技术方案的工作原理为:捕获视频流第一子单元用于启动无人机云台相机,并根据预设的目标捕获参数自动调整相机的设置,包括焦距、曝光时间和光圈大小,这样可以确保相机在捕获视频流时能够适应不同的环境和目标需求;捕获视频流第二子单元用于无人机云台相机实时捕获视频流,通过内置的图像处理算法,对捕获的视频流进行实时压缩和编码,获取编码后的视频流数据,这样可以减小数据量,提高传输效率捕获视频流第三子单元用于通过预设的无线通信协议,将编码后的视频流数据实时上传至基于人工智能算力的机载计算机,同时,确保数据的完整性和安全性,以保护视频流数据的隐私和保密性。
目标识别单元包括:
目标识别第一子单元,用于基于深度学习算法,对目标识别数据库中的目标识别捕获数据进行特征提取,根据获取的特征,构建动态目标相对位置识别模型,将特征和对应的目标位置作为输入,通过反向传播算法优化动态目标相对位置识别模型参数;
目标识别第二子单元,用于利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,启动特征参数提取过程;
目标识别第三子单元,用于提取目标的特征参数,对目标的形状、颜色、纹理进行分析,再计算目标的位置和运动轨迹。
目标跟踪单元包括:
目标跟踪第一子单元,用于根据确定的目标位置,计算目标与无人机云台相机当前视野的相对位置;
目标跟踪第二子单元,用于实时调整无人机云台相机的角度,计算目标的移动速度和方向,预测目标的下一位置,提前调整无人机云台相机的角度;
目标跟踪第三子单元,用于根据目标与相机的距离,动态调整相机的焦距,当目标临时失去或模糊时,通过目标反馈机制重新定位并跟踪目标。
上述技术方案的有益效果为:通过捕获视频流第一子单元的自动调整相机设置,可以根据预设的目标捕获参数,自动调整相机的焦距、曝光时间和光圈大小,提高视频流的质量和适应性;通过捕获视频流第二子单元的实时压缩和编码,可以减小视频流的数据量,提高传输效率,同时保持较好的视频质量;通过捕获视频流第三子单元的实时上传,可以将编码后的视频流数据快速传输至基于人工智能算力的机载计算机,实现实时处理和分析;通过采用预设的无线通信协议和相应的安全机制,可以确保视频流数据的完整性和安全性,保护数据的隐私和保密性。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (8)

1.基于人工智能的无人机云台相机目标识别跟踪方法,其特征在于,包括:
S101:通过无人机云台相机捕获实时视频流,并将视频流数据上传至基于人工智能算力的机载计算机;
S102:基于人工智能算力的机载计算机利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,提取目标的特征参数,特征参数包括目标的形状、颜色、纹理、位置和运动轨迹;其中,S102步骤进一步包括,
S1021:基于深度学习算法,对目标识别数据库中的目标识别捕获数据进行特征提取,根据获取的特征,构建动态目标相对位置识别模型,将特征和对应的目标位置作为输入,通过反向传播算法优化动态目标相对位置识别模型参数;
S1022:利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,启动特征参数提取过程;
S1023:提取目标的特征参数,对目标的形状、颜色、纹理进行分析,再计算目标的位置和运动轨迹;
S103:当目标发生形变、遮挡、或有物体干扰时,基于目标区域预测模型,确定目标与背景的区分,获取目标位置;其中,S103步骤进一步包括,
S1031:当目标发生形变、遮挡或有物体干扰时,启动目标区域预测模型,利用目标区域预测模型,对视频中的目标与背景进行区分;
S1032:在目标与背景区分过程中,先对目标的形状、颜色、纹理和运动特性进行分析,然后根据目标区域预测模型确定目标与背景的界限;
S1033:根据目标区域预测模型的预测结果,获取目标对应位置,通过反馈机制对预测结果进行核对,若预测结果与实际情况不符时,对目标区域预测模型进行实时调整和优化;
S104:根据确定的目标位置,实时调整无人机云台相机的角度和焦距,确保目标处于相机的视野中,并通过无人机云台相机进行持续跟踪。
2.根据权利要求1所述的基于人工智能的无人机云台相机目标识别跟踪方法,其特征在于,S101步骤包括:
S1011:启动无人机云台相机,基于预设的目标捕获参数,自动调整相机设置,其中,目标捕获参数包括焦距、曝光时间和光圈大小;
S1012:无人机云台相机实时捕获视频流,其中,通过内置的图像处理算法,对捕获的视频流进行实时压缩和编码,获取编码后的视频流数据;
S1013:通过预设的无线通信协议,将编码后的视频流数据实时上传至基于人工智能算力的机载计算机,同时确保数据的完整性和安全性。
3.根据权利要求1所述的基于人工智能的无人机云台相机目标识别跟踪方法,其特征在于,S104步骤包括:
S1041:根据确定的目标位置,计算目标与无人机云台相机当前视野的相对位置;
S1042:实时调整无人机云台相机的角度,计算目标的移动速度和方向,预测目标的下一位置,提前调整无人机云台相机的角度;
S1043:根据目标与相机的距离,动态调整相机的焦距,当目标临时失去或模糊时,通过目标反馈机制重新定位并跟踪目标。
4.根据权利要求2所述的基于人工智能的无人机云台相机目标识别跟踪方法,其特征在于,S1011步骤包括:
启动无人机云台相机时,根据实际目标位置与期望目标位置,在无人机云台坐标系下的差值设置云台伺服驱动控制器,云台伺服驱动控制器根据输入误差计算得到虚拟控制指令,驱动伺服执行机构调整云台水平方向与垂直方向的转动;
其中,无人机根据被跟踪目标所在位置及无人机当前飞行目标状态估计目标的实际位置,设定无人机飞行期望轨迹;无人机飞行控制器根据无人机飞行实际轨迹和期望轨迹计算虚拟控制指令,并驱动无人机执行机构完成无人机飞行控制。
5.根据权利要求1所述的基于人工智能的无人机云台相机目标识别跟踪方法,其特征在于,S1022步骤包括:
利用动态目标相对位置识别模型对视频流中的目标进行实时识别过程中,读取视频流中的视频序列图像,并判断视频序列图像是否为第一帧图像;若为第一帧图像,则利用目标检测算法对输入图像全局检测,并选取设定范围内的置信度得分最高的目标选框作为被跟踪目标的初始位置信息;若不是第一帧图像,则裁剪图像,使图像大小为前一帧检测得到的目标选框尺寸的5倍,裁剪图像中心位置为前一帧目标选框的中心坐标,若无前一帧检测结果,则以目标检测结果作为裁剪标准,根据目标初始位置信息裁剪包括目标图信息,并利用网络模板分支提取目标特征信息,输出6×6×256特性图;
将6×6×256特性图作为动态目标相对位置识别模型网络输入,利用已训练的两个卷积层将特征图扩展为4×4×2k×256通道的特征图与4×4×4k×256通道的特征图,其中,k表示k个锚点;利用检测分支提取裁剪图像特征信息,并输出大小为22×22×256的特征图;对特征图中k个锚点进行排序,并选择设定范围得分最高的锚点作为目标跟踪检测结果,并输出该锚点的得分与坐标信息,该坐标信息为当前帧目标位置信息。
6.根据权利要求1所述的基于人工智能的无人机云台相机目标识别跟踪方法,其特征在于,S1031步骤包括:
当目标发生形变、遮挡或有物体干扰,启动目标区域预测模型时,将目标区域预测模型中的卷积层后增加对应通道选择层,根据已知帧目标及周围背景区域像素点的类别标注,对最后一个卷积层的通道进行排序和筛选,通过排序和筛选获得目标的语义特征,对语义特征进行二值化操作,二值化后的语义特征被当作掩膜模板将目标分块,在对候选目标进行表示时,通过对可靠区域和不可靠区域表示系数的差值项进行设定范数约束,保证同一个候选目标不同局部区域在选择字典原子及类别判断上的一致性。
7.基于人工智能的无人机云台相机目标识别跟踪***,其特征在于,包括:
捕获视频流单元,用于通过无人机云台相机捕获实时视频流,并将视频流数据上传至基于人工智能算力的机载计算机;
目标识别单元,用于基于人工智能算力的机载计算机利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,提取目标的特征参数,特征参数包括目标的形状、颜色、纹理、位置和运动轨迹;其中,目标识别单元进一步用于,
基于深度学习算法,对目标识别数据库中的目标识别捕获数据进行特征提取,根据获取的特征,构建动态目标相对位置识别模型,将特征和对应的目标位置作为输入,通过反向传播算法优化动态目标相对位置识别模型参数;
利用动态目标相对位置识别模型,对视频流中的目标进行实时识别,当识别到目标时,启动特征参数提取过程;
提取目标的特征参数,对目标的形状、颜色、纹理进行分析,再计算目标的位置和运动轨迹;
目标与背景区分单元,用于当目标发生形变、遮挡、或有物体干扰时,基于目标区域预测模型,确定目标与背景的区分,获取目标位置;其中,目标与背景区分单元进一步用于,
当目标发生形变、遮挡或有物体干扰时,启动目标区域预测模型,利用目标区域预测模型,对视频中的目标与背景进行区分;
在目标与背景区分过程中,先对目标的形状、颜色、纹理和运动特性进行分析,然后根据目标区域预测模型确定目标与背景的界限;
根据目标区域预测模型的预测结果,获取目标对应位置,通过反馈机制对预测结果进行核对,若预测结果与实际情况不符时,对目标区域预测模型进行实时调整和优化;
目标跟踪单元,用于根据确定的目标位置,实时调整无人机云台相机的角度和焦距,确保目标处于相机的视野中,并通过无人机云台相机进行持续跟踪。
8.根据权利要求7所述的基于人工智能的无人机云台相机目标识别跟踪***,其特征在于,捕获视频流单元包括:
捕获视频流第一子单元,用于启动无人机云台相机,基于预设的目标捕获参数,自动调整相机设置,其中,目标捕获参数包括焦距、曝光时间和光圈大小;
捕获视频流第二子单元,用于无人机云台相机实时捕获视频流,其中,通过内置的图像处理算法,对捕获的视频流进行实时压缩和编码,获取编码后的视频流数据;
捕获视频流第三子单元,用于通过预设的无线通信协议,将编码后的视频流数据实时上传至基于人工智能算力的机载计算机,同时确保数据的完整性和安全性。
CN202311189736.3A 2023-09-14 2023-09-14 基于人工智能的无人机云台相机目标识别跟踪方法及*** Active CN117197695B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311189736.3A CN117197695B (zh) 2023-09-14 2023-09-14 基于人工智能的无人机云台相机目标识别跟踪方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311189736.3A CN117197695B (zh) 2023-09-14 2023-09-14 基于人工智能的无人机云台相机目标识别跟踪方法及***

Publications (2)

Publication Number Publication Date
CN117197695A CN117197695A (zh) 2023-12-08
CN117197695B true CN117197695B (zh) 2024-05-24

Family

ID=89001333

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311189736.3A Active CN117197695B (zh) 2023-09-14 2023-09-14 基于人工智能的无人机云台相机目标识别跟踪方法及***

Country Status (1)

Country Link
CN (1) CN117197695B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118247692A (zh) * 2024-05-23 2024-06-25 成都铂贝科技有限公司 一种无人场景搜索特定目标的方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338248A (zh) * 2015-11-20 2016-02-17 成都因纳伟盛科技股份有限公司 智能多目标主动跟踪监控方法及***
CN111385459A (zh) * 2018-12-28 2020-07-07 南京婆娑航空科技有限公司 一种无人机云台自动控制与对焦、测光方法
CN111932588A (zh) * 2020-08-07 2020-11-13 浙江大学 一种基于深度学习的机载无人机多目标跟踪***的跟踪方法
CN111966133A (zh) * 2020-08-29 2020-11-20 山东翔迈智能科技有限公司 一种云台视觉伺服控制***
CN113706444A (zh) * 2021-03-25 2021-11-26 腾讯科技(深圳)有限公司 一种图像处理方法、装置、设备及存储介质
CN114581516A (zh) * 2022-01-30 2022-06-03 天津大学 基于单目视觉的多无人机智能识别及相对定位方法
CN115205339A (zh) * 2022-08-11 2022-10-18 湖南工程学院 基于改进yolox的移动机器人目标跟随方法
CN116189019A (zh) * 2023-01-17 2023-05-30 中国计量大学 一种基于改进孪生神经网络的无人机跟踪地面目标方法
CN116489516A (zh) * 2023-04-14 2023-07-25 浪潮软件集团有限公司 特定物体跟踪拍摄方法及***

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11335026B1 (en) * 2020-02-03 2022-05-17 Science Applications International Corporation Detecting target objects in a 3D space

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338248A (zh) * 2015-11-20 2016-02-17 成都因纳伟盛科技股份有限公司 智能多目标主动跟踪监控方法及***
CN111385459A (zh) * 2018-12-28 2020-07-07 南京婆娑航空科技有限公司 一种无人机云台自动控制与对焦、测光方法
CN111932588A (zh) * 2020-08-07 2020-11-13 浙江大学 一种基于深度学习的机载无人机多目标跟踪***的跟踪方法
CN111966133A (zh) * 2020-08-29 2020-11-20 山东翔迈智能科技有限公司 一种云台视觉伺服控制***
CN113706444A (zh) * 2021-03-25 2021-11-26 腾讯科技(深圳)有限公司 一种图像处理方法、装置、设备及存储介质
CN114581516A (zh) * 2022-01-30 2022-06-03 天津大学 基于单目视觉的多无人机智能识别及相对定位方法
CN115205339A (zh) * 2022-08-11 2022-10-18 湖南工程学院 基于改进yolox的移动机器人目标跟随方法
CN116189019A (zh) * 2023-01-17 2023-05-30 中国计量大学 一种基于改进孪生神经网络的无人机跟踪地面目标方法
CN116489516A (zh) * 2023-04-14 2023-07-25 浪潮软件集团有限公司 特定物体跟踪拍摄方法及***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Peter Carr.Hybrid robotic/virtual pan-tilt-zom cameras for autonomous event recording.《MM '13: Proceedings of the 21st ACM international conference on Multimedia》.2013,第193–202页. *
赵燕伟 等.基于视觉-磁引导的无人机动态跟踪与精准着陆.《浙江大学学报(工学版)》.第96-108页. *

Also Published As

Publication number Publication date
CN117197695A (zh) 2023-12-08

Similar Documents

Publication Publication Date Title
US20210279444A1 (en) Systems and methods for depth map sampling
US11205274B2 (en) High-performance visual object tracking for embedded vision systems
Zhao et al. Detection, tracking, and geolocation of moving vehicle from uav using monocular camera
US10452951B2 (en) Active visual attention models for computer vision tasks
KR101645722B1 (ko) 자동추적 기능을 갖는 무인항공기 및 그 제어방법
CN113038016B (zh) 无人机图像采集方法及无人机
CN112703533B (zh) 对象跟踪
CN107851318A (zh) 用于对象跟踪的***和方法
KR101769601B1 (ko) 자동추적 기능을 갖는 무인항공기
CN117197695B (zh) 基于人工智能的无人机云台相机目标识别跟踪方法及***
CN111491093B (zh) 一种摄像头视场角的调整方法和装置
KR102177655B1 (ko) Mvs 기반의 무인항공기를 갖춘 객체 추적 시스템
CN112927264B (zh) 一种无人机跟踪拍摄***及其rgbd跟踪方法
CN113298045A (zh) 一种违章车辆的识别方法、***及装置
CN113359843A (zh) 一种无人机自主降落方法、装置、电子设备及存储介质
Passalis et al. Efficient camera control using 2d visual information for unmanned aerial vehicle-based cinematography
CN117152971A (zh) 一种基于高空全景视频的ai交通信号优化方法
CN111105429A (zh) 一种一体化无人机检测方法
WO2024083113A1 (en) Methods, systems, and computer-readable media for target tracking
Notz et al. Extraction and assessment of naturalistic human driving trajectories from infrastructure camera and radar sensors
US20210174079A1 (en) Method and apparatus for object recognition
CN113139985B (zh) 消除无人机与地面站通信延迟影响的跟踪目标框选方法
CN115909219A (zh) 一种基于视频分析的场景变更检测方法与***
Wang et al. Online drone-based moving target detection system in dense-obstructer environment
CN114782860A (zh) 一种监控视频中暴力行为检测***及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant