CN114556257A - 控制多个无人机的相机的方法 - Google Patents

控制多个无人机的相机的方法 Download PDF

Info

Publication number
CN114556257A
CN114556257A CN202180005970.9A CN202180005970A CN114556257A CN 114556257 A CN114556257 A CN 114556257A CN 202180005970 A CN202180005970 A CN 202180005970A CN 114556257 A CN114556257 A CN 114556257A
Authority
CN
China
Prior art keywords
drone
camera
target
location
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180005970.9A
Other languages
English (en)
Inventor
A·贝雷斯托夫
刘正一
陈剑非
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN114556257A publication Critical patent/CN114556257A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D7/00Control of flow
    • G05D7/06Control of flow characterised by the use of electric means
    • G05D7/0617Control of flow characterised by the use of electric means specially adapted for fluid materials
    • G05D7/0629Control of flow characterised by the use of electric means specially adapted for fluid materials characterised by the type of regulator means
    • G05D7/0635Control of flow characterised by the use of electric means specially adapted for fluid materials characterised by the type of regulator means by action on throttling means
    • G05D7/0641Control of flow characterised by the use of electric means specially adapted for fluid materials characterised by the type of regulator means by action on throttling means using a plurality of throttling means
    • G05D7/0658Control of flow characterised by the use of electric means specially adapted for fluid materials characterised by the type of regulator means by action on throttling means using a plurality of throttling means the plurality of throttling means being arranged for the control of a single flow from a plurality of converging flows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Accessories Of Cameras (AREA)

Abstract

一种用于捕获目标的图像的相机的相机控制方法包括至少四个步骤的序列。第一步骤实时确定无人机的地点和无人机上的相机的姿态。可以发生在第一步骤之前或之后的第二步骤实时确定参考对象的地点,参考对象的地点与目标的地点具有固定关系。第三步骤使用所确定的地点计算目标与无人机之间的以量值和方向为特征的距离。第四步骤使用计算出的距离控制相机的姿态,使得由相机捕获的图像包括目标。控制相机的姿态不需要对所捕获的图像进行任何分析。

Description

控制多个无人机的相机的方法
相关申请的交叉引用
本申请要求于2020年6月30日提交的标题为METHOD OF MULTI-DRONE CAMERACONTROL的美国临时专利申请系列No.16/917,671的权益,该申请为了所有目的通过引用并入本文,就像在本申请中完全阐述一样。
背景技术
在无人机电影摄影中,无人机携带的相机必须具有正确的位置和朝向才能根据电影导演的要求捕获每个图像中的目标。即使无人机正确定位和定向,如果无人机上的相机的朝向—出于本公开的目的而定义为姿态—不正确,或者如果相机参数(例如,诸如焦距设置)不合适,那么所捕获的图像也可能会错过目标或至少是质量上次优的(例如,失焦)。多个无人机的***中多个相机的控制特别复杂,因为目标(例如,演员)和无人机两者可能在移动,并且即使在静止时,每个相机的姿态也可能不完全由对应无人机的姿态确定,更不用说在移动时。该问题的当前解决方法涉及严格遵循先前准备的脚本,该脚本详细说明了目标/演员的所计划的移动,以及随着时间的推移跟踪该目标并拍摄好照片所必需的无人机轨迹、相机姿态和相机设置(图像捕获参数)。
在一些情况下,可能存在多于一个关注的目标,其中一个或多个无人机的子集被导引对这些目标中的不同目标进行成像。应该注意的是,要被成像的关注的目标可能不是演员,而是其位置根据演员的位置而变化的某个对象或场景。一个这样的示例是演员的影子。在一些情况下,目标可以是要被从多个不同的视图中成像的静态场景。
以捕获高质量图像序列所需的空间和时间协调执行如此复杂、耗时的任务极具挑战性。目前的***不足以实现三个重要因素的组合:定位目标和无人机的准确性,对目标位置的变化的快速和精确的无人机移动响应,以及相机姿态和图像捕获参数的自适应控制。
因此,需要改进的***和方法,这些***和方法不依赖于高精度“目标移动-无人机轨迹-相机姿态”脚本,而是专注于适用于无人机携带的相机的实时目标定位、相机姿态控制和图像捕获参数控制。理想情况下,将找到通用解决方案,该解决方案不限于无人机群控制的特定方法,并且不依赖于计算密集型视觉数据分析。可能期望该***和方法对于控制无人机和相机的人类操作员足够自动化,例如在提供微调或创造性地响应意外事件时是可选的,而不是对基本操作必不可少的。
发明内容
实施例一般而言涉及用于捕获目标的图像的相机控制的方法和***。在一个实施例中,该方法包括至少四个步骤的序列。在第一步骤中,使用第一技术实时确定无人机的地点和无人机上的相机的姿态。在可以发生在第一步骤之前或之后的第二步骤中,使用第二技术实时确定目标的地点。在第三步骤中,使用所确定的地点计算目标与无人机之间的以量值和方向为特征的距离。在第四步骤中,使用计算出的距离控制相机的姿态,使得由相机捕获的图像包括目标。控制相机的姿态不需要对所捕获的图像进行任何分析。
在一方面,第四步骤还包括通过控制相机的一个或多个图像捕获参数、基于计算出的距离调整至少一个图像捕获参数来优化图像质量,受控的图像捕获参数包括焦距、光圈、快门速度和变焦中的至少一个。
在另一方面,序列附加地包括在第四步骤之后的第五步骤。第五步骤包括将无人机移动到靠近移动目标的预期下一地点的位置。预期可以基于预定义的运动脚本或通过任何实时运动预测方法,例如卡尔曼滤波器或其变体。序列被重复且足够快地执行,以使得相机能够实时捕获运动中目标的一系列图像。
在另一实施例中,一种方法包括至少四个步骤的序列。在第一步骤中,使用第一技术针对多个无人机中的每个无人机实时确定该无人机的地点和该无人机上的相机的姿态。在可以发生在第一步骤之前或之后的第二步骤中,使用第二技术来确定目标的地点。在第三步骤中,针对多个无人机中的每个无人机,使用所确定的地点计算目标与该无人机之间的以量值和方向为特征的距离。在第四步骤中,针对多个无人机中的每个无人机,使用对应的计算出的距离控制对应相机的姿态,使得由该相机捕获的图像包括目标。每个相机的姿态的控制不需要对对应捕获图像进行任何分析。
在另一实施例中,一种***包括一个或多个处理器;以及在一个或多个非暂态介质中编码的逻辑,用于由一个或多个处理器执行,并且在被执行时可操作以通过执行至少四个步骤的序列来捕获目标的图像。在第一步骤中,使用第一技术针对多个无人机中的每个无人机实时确定该无人机的地点和该无人机上的相机的姿态。在可以发生在第一步骤之前或之后的第二步骤中,使用第二技术来确定目标的地点。在第三步骤中,针对多个无人机中的每个无人机,使用所确定的地点计算目标与该无人机之间的以量值和方向为特征的距离。在第四步骤中,针对多个无人机中的每个无人机,使用对应的计算出的距离控制对应相机的姿态,使得由该相机捕获的图像包括目标。每个相机的姿态的控制不需要对对应捕获图像进行任何分析。
可以通过参考说明书的其余部分和附图来实现对本文公开的特定实施例的性质和优点的进一步理解。
附图说明
图1图示了根据一个实施例的可操作的带有相机的无人机。
图2图示了根据一些实施例的***。
图3图示了根据一些实施例的***。
图4是根据一些实施例的方法的流程图。
图5是根据一些其它实施例的方法的流程图。
具体实施方式
在整个本公开中,应当理解术语“地点”、“朝向”和“姿态”与三维特性相关,因此,例如,确定地点意味着确定3D地点。术语“位置”用于涵盖地点和朝向或姿态,使其成为6维特性。术语“距离”是具有量值(magnitude)和方向的向量量。
虽然下文描述和图中所示的许多实施例假设使用包含相机的无人驾驶飞行器(UAV),但出于本公开的目的,将词语“无人机”定义为包括任何移动设备,该移动设备包括远程可操作的相机。例如,它可以基于地面或在水下移动。
图1图示了在本发明的一些实施例中使用的无人机100。无人机100借助于3维云台布置104支撑相机102。可以使用发送器110将由相机102捕获的图像作为视频馈送发送(参见虚线)到接收器106。发送器110可以与收发器(为简单起见未在图中单独标识)分离或作为为其一部分被包括,该收发器根据需要处理无线数据通信以用于确定无人机地点,以及用于控制无人机移动、无人机姿态和相机姿态,如下面将更详细描述的。视频馈送的实时监测可以可选地由观察者108执行。为简单起见,该图图示了用于云台和相机控制的集成无人机控制器。其它可能性包括使用两个分离的控制器,或者两者都在无人机上或在地面控制站处,或者一个在地面上控制无人机,另一个在无人机上控制相机。
在一些实施例中,无人机100可以携带多于一个相机。在一些实施例中,云台布置104可以由一些其它可控运动设备代替,以响应于从远程或本地(无人机)控制器接收到的命令以可跟踪、经校准的方式用于调整相机姿态的相同基本目的。无人机100包括IMU,为简单起见从图中省略。
图2示意性地图示了根据本发明的一些实施例的***200的元件。在这种情况下,目标是穿戴或携带接收器模块204的人202,该接收器模块204使得能够在3D全局坐标系中非常准确地确定人的地点。在其它实施例中,目标可以是动物或关注的其它对象。一种确定地点的技术取决于全球导航卫星***(GNSS)(这里通过卫星208的存在表示)结合实时运动定位(RTK)(这里通过RTK基站210表示)。通过初始化RTK-GNSS引用该技术。输出在全局坐标系中被表达为例如纬度、经度和高度。
在其它实施例中,代替RTK-GNSS技术,使用高质量无线传输,相对于全局坐标系具有已知的校准和空间变换的其它众所周知的方法(诸如LiDAR、立体相机、RGBD或多视图三角化)可以用于确定目标的地点。在又一些实施例中,可以使用RTK-GNSS-IMU技术,这意味着模块204包括含有诸如加速度计之类的感测设备的惯性测量单元(IMU)、倾斜传感器、RGBD相机、立体相机等。该选项允许对6D位置(3D朝向以及3D地点)进行测量,这具有将在下面描述的优点。
回到图2,在人202附近示出了三个无人机206,但是在其它情况下可以有构成所谓的无人机群的更多或更少的无人机。例如,无人机206可以具有与图1中所示的无人机100相同的设计。可以使用上述关于目标地点的任何一种技术来非常准确地确定群中每个无人机206的地点。此外,必须确定无人机上相机的姿态,这通常使用每个无人机上的IMU(未示出)来完成。因此,测量无人机地点和相机姿态两者的一种方便选择是使用如上所述的RTK-GNSS-IMU***。
应该注意的是,定位目标和无人机的顺序并不重要;任何一个都可以在另一个之前完成。在一些情况下,确定目标的姿态以及目标的地点可能是有用的,例如,如果我们希望在所捕获的图像中看到人的脸,或者从特定的相对角度捕获目标的某个其它视图。
一旦目标和无人机的地点已被准确确定,计算每个无人机与目标之间的距离就是相对简单的任务。图2中的虚线指示三个无人机206之一的距离D。虽然在图的平面中示为2D线,但当然距离实际上是向量,该向量不仅具有量值而且具有方向,该向量可以在用于目标地点的相同全局坐标系中被表达。
接下来,每个计算出的距离,或者更具体而言,给定的无人机和目标之间的每个计算出的距离的方向,用于控制对应无人机的相机的姿态,使得由该相机捕获的图像必然包括目标。应该注意的是,与其它众所周知的方法不同,在本发明中控制相机的姿态需要对所捕获的图像进行任何分析,在图像捕获之前基于地点和姿态测量以及相关联的计算被确定。这减少了对时间和计算资源的需求,并且可以自动实现,无需人工干预,从而允许实时多图像捕获。
在无人机被设计以使得其相机的姿态完全由其对应无人机的姿态来确定的情况下,控制相机姿态等同于控制无人机姿态。在其它情况下,控制相机姿态可能涉及控制无人机姿态的初始步骤。确切地如何和在哪里生成、传输和实现控制指令将根据给定应用的特定控制和通信拓扑而有所不同,一个极端是集中式的基于地面的控制,另一个极端是纯粹以无人机为中心的均匀分布式***,如将在下面更详细描述的。
确定目标地点、确定无人机的地点和相机姿态、计算距离以及相应地控制相机姿态的序列可以重复执行,以使由每个无人机相机能够捕获目标的一系列图像。
为了方便起见,图2中所示的实施例和下面讨论的其它实施例的描述涉及术语“目标”既用于关注的目标(例如,要被成像的人)又用于与该目标位于同一地点的参考对象的情况,参考对象允许准确确定该地点,如上文详述。在图示的情况下,参考对象是由人穿戴的接收器模块240。在其它情况下,参考对象可能位于距目标一定距离处,但前者的地点确定了后者的地点。例如,参考对象可以是附在由人戴的帽子上的模块,但是要被成像的关注的目标可以是由人在地面上投射的影子的一部分。或者,参考对象可以是靠近可能由无人机群的子集要成像的风景视点的静态标记。应该认识到的是,本发明的***和方法可以应用于所有这些情况。
在一些实施例中,除了控制相机姿态之外,目标(或者参考对象(如果两者不位于同一地点的话))和每个无人机之间的计算出的距离被进一步使用。强烈影响图像质量的几个可调相机参数直接或间接取决于相机与图像中主要关注的对象之间的距离的量值。这种类型的一个参数是相机的焦距,其可以被调整以保持对象清晰对焦。其它参数包括但不限于光圈、快门速度、相机变焦、帧速率、ISO值、白平衡和曝光(EV)。
例如,可以调整变焦以在期望放大倍率下保持对象的特征可见。因此,可以根据目标-无人机分离来优化图像质量。正如上面关于姿态控制所指出的,基于计算出的距离来调整相机参数避免了对图像分析的依赖,并在速度、便利性和易于自动化方面提供了对应的优势。同样如上所述,确切地如何和在哪里生成、传输和实现控制指令将根据给定应用的特定控制和通信拓扑而有所不同,一个极端是集中式的基于地面的控制,另一个极端是纯粹以无人机为中心的均匀分布式***,如将在下面更详细描述的。
如上所述,一些实施例包括对目标(或参考对象,如上所述)使用RTK-GNSS-IMU技术,这意味着测量3D朝向和3D地点。在这些情况下,可以控制相机姿态,不仅是在所捕获的图像中保留目标的某个代表性点,而且还例如通过在目标扭曲或倾斜等时选择目标的特定面以在视野中保持来进行更复杂的跟踪和捕获。
为简单起见,上述讨论已集中在相对简单的情况下,其中目标是静态的,并且无人机的初始定位足以捕获良好的图像。然而,在许多关注的情况下,目标可能正在运动,随着时间的推移产生一系列期望的图像,并且目标可能覆盖足够多的地面,以至于将需要移动无人机群中的至少一个无人机才能使其相机将目标保持在视野中。可以使用几种“群控制”策略之一来实现这种功能。
在图2的实施例中,存在地面控制站212,以及人类操作员214,其监督和/或控制个体无人机状态监测和反馈、群编队规划、个体无人机飞行命令、个体云台控制和个体相机控制的功能。可以在其它实施例中使用除所示“星形”拓扑之外的群通信拓扑,其中地面控制由分布式控制代替,位置数据在无人机之间直接交换,并且群的编队由一个“主”无人机或某些或全部无人机的组合确定。
图3示意性地图示了在一个“星形”实施例中的无人机位置和姿态监测,其中确定每个无人机306的地点和姿态包括由多个无人机共享的地面控制站(GCS)312与每个无人机中的无人机控制器(未示出)之间的数据交换。还示出了目标(或参考对象)302、GNSS卫星308、RTK基站312和可选的人类操作员314。在一些情况下,多个无人机中的一个无人机是主无人机,其具有与多个无人机中的每个其它无人机直接或间接通信的控制器。
考虑需要无人机的群的移动来跟踪移动目标的情况,在一些实施例中,GCS可以使用目标的当前位置来确定要创建的下一群编队。然后,它计算该编队下每个无人机的位置,并将个体移动命令发送到每个无人机。在其它实施例中,无人机可以简单地根据群编队和飞行轨迹的预定义脚本移动,但应该注意的是,无人机跟随脚本的运动中的任何不精确都可以被适应(与现有技术***不同),因为可以使用RTK-GNSS-IMU技术或上述替代方案之一持续监测和跟踪位置和姿态。可以容易地设想各种实施例具有群控制和个体无人机移动的不同方法,涉及地面控制、一个或多个人类操作员、由无人机控制器子集对整个群的自我确定等中的一个或组合。
当然,对于相机姿态和图像捕获参数的控制,也会存在类似的各种场景。
在这些“移动目标”的情况下,(确定目标(参考对象)地点、确定无人机的地点和姿态、计算距离、相应地控制相机姿态以及捕获图像的)操作的序列必须被扩展到包括将无人机移动到下一预期目标位置,并且经扩展的序列根据期望被重复多次,以使由每个无人机相机能够捕获对关注的移动目标进行跟踪的一系列图像。当然,各种操作必须足够快地执行,以使一系列图像组成充分对关注的移动目标进行跟踪的实时视频流。
图4和图5是示出了根据分别针对如以上所讨论的静态和移动目标的实施例的方法的步骤的流程图。
图4图示了方法400,其开始于初始化步骤402,在该初始化步骤402处,无人机被定位在关注的目标附近。在步骤404处,使用诸如RTK-GNSS技术的第一技术来准确确定目标(或参考对象)的地点。RTK-GNSS***在10公里范围内可达到的典型准确度为2厘米。在步骤406处,使用诸如RTK-GNSS-IMU技术的第二技术来准确确定无人机地点和相机姿态。在一些实施例中,步骤404和406的顺序可以颠倒。在步骤408处,目标(或参考对象)和无人机之间的距离根据在前两个步骤中确定的地点来计算。在步骤410处,根据计算出的距离(或更准确地说,根据计算出的距离的方向)调整无人机上相机的姿态,使得在该姿态处捕获的图像包括关注的目标。
虽然图4图示了单个无人机和单个图像捕获的情况,但可以清楚地修改方法400以涵盖涉及多个无人机的其它实施例,每个无人机具有从其自己的视点捕获图像的相机。
图5图示了用于具有移动目标的实施例的方法500。步骤502到510与方法410的步骤402到410相同,但是在步骤512处,无人机被移动到目标的预期下一地点,并且该方法流程循环回步骤504。新的无人机地点和相机姿态,以及目标(或参考对象)的实际(与预期相反)地点如前(在步骤504和506中)被准确测量,新距离被计算(在步骤508中)并且对应调整的相机姿态被用于新图像捕获(在步骤510中)。以这种方式,可以基于地点测量,实时捕获移动目标的一系列图像,从而根据需要移动无人机并调整其相机姿态,而不依赖于对关注的目标的实际所捕获的图像进行任何图像分析。
虽然图5图示了单个无人机的情况,但可以清楚地修改方法500以涵盖涉及多个无人机的其它实施例,每个无人机具有从其自己的视点捕获一系列图像的相机。
虽然已经针对其特定实施例描述了描述,但是这些特定实施例仅仅是说明性的,而不是限制性的。在一些实施例中,如上所述,要被成像的关注的目标可以是人或动物。应该注意的是,由本发明的实施例也可以跟踪和成像在地面或空中静止或运动的其它有生命的或无生命的对象。此外,即使在图像捕获的单个会话期间,也可以期望无人机群捕获一个目标的图像以重新定位和导引以拍摄不同目标的照片,或者将群分成子组,其中每个子组都专注于不同的目标。本公开中以上讨论的技术和选项可以容易地适用于处理这些情况。
本发明的其它有利特征包括通过高效地合成从多个视点同时所捕获的图像来构建移动目标的有效3D模型或点云、缩短图像捕获时间,以及从物理上不可能的视点生成场景的可能性。
在不背离本发明的精神的情况下,可以容易地设想许多其它可能性。
可以使用任何合适的编程语言(包括C、C++、Java、汇编语言等等)来实现特定实施例的例程。可以采用不同的编程技术,诸如过程式或面向对象。例程可以在单个处理设备或多个处理器上执行。虽然步骤、操作或计算可以以特定顺序呈现,但是这个顺序在不同的特定实施例中可以被改变。在一些特定实施例中,可以同时执行在本说明书中顺序示出的多个步骤。
特定实施例可以在由指令执行***、装置、***或设备使用或与其结合使用的计算机可读存储介质中实现。特定实施例可以以软件或硬件中的控制逻辑的形式或两者的组合来实现。当由一个或多个处理器执行时,控制逻辑可以可操作,以执行在特定实施例中描述的内容。
可以通过使用经编程的通用数字计算机、通过使用专用集成电路、可编程逻辑器件、现场可编程门阵列、光学、化学、生物、量子或纳米工程***、部件和机制来实现特定实施例。一般而言,特定实施例的功能可以通过本领域已知的任何手段来实现。可以使用分布式的、联网的***、部件和/或电路。数据的通信或传送可以是有线的,无线的或通过任何其它手段。
还将认识到的是,图/附图中描绘的元件中的一个或多个也可以以更分离或集成的方式实现,或者甚至在某些情况下被移除或渲染为不可操作,如根据特定应用是有用的。实现可以存储在机器可读介质中的程序或代码以允许计算机执行上述任何方法也在精神和范围内。
“处理器”包括处理数据、信号或其它信息的任何合适的硬件和/或软件***、机制或部件。处理器可以包括具有通用中央处理单元、多个处理单元、用于实现功能的专用电路的***,或其它***。处理不必限于地理地点,或者具有时间限制。例如,处理器可以“实时”、“离线”、以“批量模式”等等执行其功能。通过不同的(或相同的)处理,处理的部分可以在不同时间和不同地点处执行***。处理***的示例可以包括服务器、客户端、最终用户设备、路由器、交换机、联网的存储装置等等。计算机可以是与存储器通信的任何处理器。存储器可以是任何合适的处理器可读存储介质,诸如随机存取存储器(RAM)、只读存储器(ROM)、磁盘或光盘或者适于存储供处理器执行的指令的其它非暂态介质。
如在本文的描述中以及贯穿随后的权利要求所使用的,“一”、

Claims (20)

1.一种用于捕获目标的图像的相机的相机控制方法,所述方法包括:
至少四个步骤的序列,所述序列包括:
在第一步骤中,使用第一技术实时确定无人机的地点和无人机上的相机的姿态;
在可以发生在第一步骤之前或之后的第二步骤中,使用第二技术实时确定参考对象的地点,参考对象的地点与目标的地点具有固定关系;
在第三步骤中,使用所确定的地点计算参考对象与无人机之间的以量值和方向为特征的距离;以及
在第四步骤中,使用计算出的距离控制相机的姿态,使得由相机捕获的图像包括目标;
其中控制相机的姿态不需要对所捕获的图像进行任何分析。
2.如权利要求1所述的方法,其中第四步骤还包括通过控制相机的一个或多个图像捕获参数、基于计算出的距离调整至少一个图像捕获参数来优化图像质量,受控的图像捕获参数包括焦距、光圈、快门速度和变焦中的至少一个。
3.如权利要求1所述的方法,
其中所述序列附加地包括在第四步骤之后的第五步骤,第五步骤包括将无人机移动到靠近目标的预期下一地点的位置;以及
其中所述序列被重复且足够快地执行,以使得能够由相机实时捕获跟踪运动中的目标的一系列图像。
4.如权利要求1所述的方法,
其中第一技术是RTK-GNSS-IMU技术;以及
其中第二技术包括RTK-GNSS-IMU技术、LiDAR、立体相机的使用、RGBD相机的使用和多视图三角化中的一种。
5.如权利要求1所述的方法,其中确定无人机的地点和姿态包括地面控制站和无人机中的无人机控制器之间的数据交换。
6.如权利要求1所述的方法,其中控制相机的姿态包括使用由以下项之一控制的3D云台:无人机中的集成无人机控制器、无人机中的专用相机控制器和外部相机控制站。
7.一种用于捕获目标的图像的多个相机的相机控制方法,所述方法包括:
至少四个步骤的序列,所述序列包括:
在第一步骤中,针对多个无人机中的每个无人机,使用第一技术实时确定该无人机的地点和该无人机上的相机的姿态;
在可以发生在第一步骤之前或之后的第二步骤中,使用第二技术确定参考对象的地点,参考对象的地点与目标的地点具有固定关系;
在第三步骤中,针对所述多个无人机中的每个无人机,使用所确定的地点计算参考对象与该无人机之间的以量值和方向为特征的距离;以及
第四步骤中,针对所述多个无人机中的每个无人机,使用对应的计算出的距离控制对应相机的姿态,使得由该相机捕获的图像包括目标;
其中每个相机的姿态的控制不需要对对应捕获图像进行任何分析。
8.如权利要求7所述的方法,其中第四步骤还包括通过控制相机的一个或多个图像捕获参数、基于计算出的距离调整至少一个图像捕获参数来优化图像质量,受控的图像捕获参数包括焦距、光圈、快门速度和变焦中的至少一个。
9.如权利要求7所述的方法,
其中所述序列包括在第四步骤之后的第五步骤,第五步骤包括,针对所述多个无人机中的每个无人机,将无人机移动到靠近目标的预期下一地点的位置;以及
其中所述序列被重复且足够快地执行,以使得能够由相机实时捕获跟踪运动中的目标的一系列图像。
10.如权利要求9所述的方法,其中第一技术是RTK-GNSS-IMU技术,并且第二技术是RTK-GNSS-IMU技术、LiDAR、立体相机、RGBD相机和多视图三角化中的一种。
11.如权利要求7所述的方法,其中确定每个无人机的地点和姿态包括在由所述多个无人机共享的地面控制站与每个无人机中的无人机控制器之间的数据交换。
12.如权利要求7所述的方法,
其中所述多个无人机中的一个无人机是主无人机,该主无人机具有与所述多个无人机中的每个其它无人机直接或间接通信的控制器;以及
其中确定每个无人机的地点和姿态包括地面控制站GCS与主无人机中的控制器之间的数据交换,在GCS和所述多个无人机中除主无人机之外的任何其它无人机之间不发生通信。
13.如权利要求9所述的方法,其中将每个无人机移动到靠近移动目标的预期下一地点的位置不取决于基于目标的任何预定运动计划来计算所述预期下一地点。
14.如权利要求9所述的方法,其中将每个无人机移动到靠近移动目标的预期下一地点的位置部分地在人类操作员的监督下执行。
15.如权利要求7所述的方法,其中所述多个无人机根据随时间变化的模式分布在空间中,所述模式的变化在以下至少一项的控制下发生:与每个无人机直接通信的地面控制站,以及包括在所述多个无人机中的不同无人机上的控制器之间的通信的分布式控制***。
16.如权利要求7所述的方法,其中控制每个相机的姿态包括使用由以下项之一控制的3D云台:对应无人机中的集成无人机控制器、对应无人机中的专用相机控制器,以及由所述多个无人机中的所有无人机共享的相机控制站。
17.一种用于捕获目标图像的多个相机的相机控制***,所述***包括:
一个或多个处理器;以及
在一个或多个非暂态介质中编码的逻辑,用于由所述一个或多个处理器执行并且在被执行时可操作以通过执行至少四个步骤的序列来捕获目标的图像,所述序列包括:
在第一步骤中,针对多个无人机中的每个无人机,使用第一技术实时确定该无人机的地点和该无人机上的相机的姿态;
在可以发生在第一步骤之前或之后的第二步骤中,使用第二技术确定参考对象的地点,参考对象的地点与目标的地点具有固定关系;
在第三步骤中,针对所述多个无人机中的每个无人机,使用所确定的地点计算目标与该无人机之间的以量值和方向为特征的距离;以及
第四步骤中,针对所述多个无人机中的每个无人机,使用对应的计算出的距离控制对应相机的姿态,使得由该相机捕获的图像包括目标;
其中每个相机的姿态的控制不需要对对应捕获图像进行任何分析。
18.如权利要求17所述的***,其中第四步骤还包括通过控制相机的一个或多个图像捕获参数、基于计算出的距离调整至少一个图像捕获参数来优化图像质量,受控的图像捕获参数包括焦距、光圈、快门速度和变焦中的至少一个。
19.如权利要求17所述的***,
其中所述序列附加地包括在第四步骤之后的第五步骤,第五步骤包括,针对所述多个无人机中的每个无人机,将无人机移动到靠近移动目标的预期下一地点的位置;以及
其中所述序列被重复且足够快地执行,以使得能够由相机实时捕获跟踪运动中的目标的一系列图像。
20.如权利要求17所述的***,其中第一技术是RTK-GNSS-IMU技术,并且第二技术是RTK-GNSS-IMU技术、LiDAR、立体相机、RGBD相机和多视图三角化中的一种。
CN202180005970.9A 2020-06-30 2021-06-25 控制多个无人机的相机的方法 Pending CN114556257A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/917,671 US11256257B2 (en) 2020-06-30 2020-06-30 Method of multi-drone camera control
US16/917,671 2020-06-30
PCT/US2021/039161 WO2022005904A1 (en) 2020-06-30 2021-06-25 Method of multi-drone camera control

Publications (1)

Publication Number Publication Date
CN114556257A true CN114556257A (zh) 2022-05-27

Family

ID=79031850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180005970.9A Pending CN114556257A (zh) 2020-06-30 2021-06-25 控制多个无人机的相机的方法

Country Status (6)

Country Link
US (1) US11256257B2 (zh)
EP (1) EP4136026A4 (zh)
JP (1) JP2023531958A (zh)
KR (1) KR20220108146A (zh)
CN (1) CN114556257A (zh)
WO (1) WO2022005904A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102646894B1 (ko) * 2022-12-19 2024-03-14 주식회사 딥엑스 고정된 기기 또는 이동가능한 기기에 장착되고, 인공지능 반도체를 탑재한 전자 장치

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL201682A0 (en) * 2009-10-22 2010-11-30 Bluebird Aero Systems Ltd Imaging system for uav
US9104201B1 (en) * 2012-02-13 2015-08-11 C&P Technologies, Inc. Method and apparatus for dynamic swarming of airborne drones for a reconfigurable array
US9678506B2 (en) * 2014-06-19 2017-06-13 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
CN105518555B (zh) * 2014-07-30 2017-11-03 深圳市大疆创新科技有限公司 目标追踪***及方法
EP3062066A1 (en) * 2015-02-26 2016-08-31 Hexagon Technology Center GmbH Determination of object data by template-based UAV control
CN105184776B (zh) * 2015-08-17 2018-09-28 中国测绘科学研究院 目标跟踪方法
US10416667B2 (en) 2016-02-03 2019-09-17 Sony Corporation System and method for utilization of multiple-camera network to capture static and/or motion scenes
FR3056921B1 (fr) 2016-10-05 2018-11-23 Parrot Drones Systeme autonome de prise de vues animees par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible.
AT16628U1 (de) 2017-05-23 2020-03-15 Ars Electronica Linz Gmbh & Co Kg System zum Steuern von unbemannten Luftfahrzeugen in einem Schwarm, um ein bewegtes Objekt mit mehreren Kameras zu filmen
KR101945019B1 (ko) 2018-06-22 2019-02-01 전북대학교 산학협력단 농작물 재배분포 영상 획득을 위한 무인비행체 군집비행 시스템 및 그 방법
WO2020023534A1 (en) 2018-07-24 2020-01-30 Tg-17, Llc Systems and methods for autonomous machine tracking and localization of mobile objects

Also Published As

Publication number Publication date
EP4136026A1 (en) 2023-02-22
KR20220108146A (ko) 2022-08-02
US20210405637A1 (en) 2021-12-30
WO2022005904A1 (en) 2022-01-06
EP4136026A4 (en) 2023-09-06
JP2023531958A (ja) 2023-07-26
US11256257B2 (en) 2022-02-22

Similar Documents

Publication Publication Date Title
US11263761B2 (en) Systems and methods for visual target tracking
JP6991122B2 (ja) 目標追跡方法、目標追跡装置、目標追跡システム及びプログラム。
CN107329490B (zh) 无人机避障方法及无人机
US11906983B2 (en) System and method for tracking targets
WO2018098704A1 (zh) 控制方法、设备、***、无人机和可移动平台
US11678647B2 (en) Multiscopic whitetail scoring game camera systems and methods
KR101896654B1 (ko) 드론을 이용한 3d 영상 처리 시스템 및 방법
CN110139038B (zh) 一种自主环绕拍摄方法、装置以及无人机
US11122209B2 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium
US11460867B2 (en) System of multi-swarm drone capturing
Klingbeil et al. Towards autonomous navigation of an UAV-based mobile mapping system
CN110730934A (zh) 轨迹切换的方法和装置
US11256257B2 (en) Method of multi-drone camera control
CN111862197B (zh) 视频监控中的目标跟踪方法、***及球机
CN116360406A (zh) 可移动平台的控制方法、装置及控制***
JP7366349B2 (ja) マルチドローンビジュアルコンテンツ取り込みシステム
WO2023223933A1 (ja) 情報処理方法、情報処理装置、通信システム及びコンピュータプログラム
Scheider Automating precision drone landing and battery exchange
KR20230068761A (ko) 복수 무인 비행체 기반 스테레오 영상 획득 방법 및 장치
KR20180092496A (ko) 다수의 동적 자율 이동 비행체 기반 다중 시점 영상 제공 시스템 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination