CN108521862A - 用于跟踪拍摄的方法和设备 - Google Patents

用于跟踪拍摄的方法和设备 Download PDF

Info

Publication number
CN108521862A
CN108521862A CN201780006943.7A CN201780006943A CN108521862A CN 108521862 A CN108521862 A CN 108521862A CN 201780006943 A CN201780006943 A CN 201780006943A CN 108521862 A CN108521862 A CN 108521862A
Authority
CN
China
Prior art keywords
target object
movable equipment
described image
image acquisition
acquisition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780006943.7A
Other languages
English (en)
Other versions
CN108521862B (zh
Inventor
陶冶
苏冠樑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Shenzhen Dajiang Innovations Technology Co Ltd
Original Assignee
Shenzhen Dajiang Innovations Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Dajiang Innovations Technology Co Ltd filed Critical Shenzhen Dajiang Innovations Technology Co Ltd
Publication of CN108521862A publication Critical patent/CN108521862A/zh
Application granted granted Critical
Publication of CN108521862B publication Critical patent/CN108521862B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/20UAVs specially adapted for particular uses or applications for use as communications relays, e.g. high-altitude platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Aviation & Aerospace Engineering (AREA)

Abstract

提供了一种可移动设备,与控制设备通信连接并接受控制设备的控制指令。该可移动设备包括:感测元件,获取目标对象的位置信息;图像获取装置,获取包括目标对象的图像画面;控制器,调整图像获取装置的朝向,使图像获取装置始终朝向目标对象并获取包括目标对象的图像画面。控制器还被配置为:根据目标对象的位置信息,控制图像获取装置对目标对象进行对焦和/或测光。还提供了一种控制设备及其相应的方法。

Description

用于跟踪拍摄的方法和设备
技术领域
本公开涉及图像处理领域,更具体地,本公开涉及一种用于跟踪拍摄的方法和设备。
背景技术
当前,具有摄像装置的可移动设备得到了广泛的应用。例如,具有摄像头的无人机可以跟踪拍摄期望的对象,并将所拍摄的图像实时传送给用户。
在传统的跟踪过程中,当用户选择跟踪目标后,可移动设备会将其中的摄像装置设置为全局平均对焦模式。即,不仅要保证跟踪目标的清晰成像,还要保证包含跟踪目标的画面中的其他对象的清晰成像。此外,在摄像装置进行测光时,采用全局平均测光。
然而,当需要拍摄目标对象清晰而背景虚化的图像时,现有的跟踪拍摄模式无法满足这样的需求,因为在现有的跟踪拍摄模式下,摄像装置采用的是全局平均对焦。此外,由于现有的跟踪拍摄模式采用全局平均测光的方法,使得在强对比度的画面下,跟踪目标可能出现过暗或者过亮的情况,从而导致质量不高的画面。
发明内容
为了解决以上问题中的至少一部分,本公开提出一种在跟踪拍摄模式中提供局部对焦和/或测光的技术方案。在该技术方案中,能够在跟踪拍摄模式下针对跟踪目标进行对焦和/或对其测光,使得能够将跟踪目标之外的区域进行虚化和/或实现跟踪画面的合适亮度。
根据本公开的一个方面,提供了一种可移动设备,与控制设备通信连接并接受控制设备的控制指令。该可移动设备包括:感测元件,获取目标对象的位置信息;图像获取装置,获取包括目标对象的图像画面;控制器,调整图像获取装置的朝向,使图像获取装置始终朝向目标对象并获取包括目标对象的图像画面。控制器还被配置为:根据目标对象的位置信息,控制图像获取装置对目标对象进行对焦和/或测光。
根据本公开的另一个方面,提供了一种由可移动设备执行的方法。该可移动设备与控制设备通信连接并接受控制设备的控制指令。该可移动设备包括感测元件、图像获取装置和控制器。该方法包括:通过感测元件获取目标对象的位置信息;通过图像获取装置获取包括目标对象的图像画面;通过控制器调整图像获取装置的朝向,使图像获取装置始终朝向目标对象并获取包括目标对象的图像画面。其中,控制器根据目标对象的位置信息,控制图像获取装置对目标对象进行对焦和/或测光。
根据本公开的另一个方面,提供了一种用于控制可移动设备的控制设备,包括:
接收单元,从可移动设备接收可移动设备获取的图像画面;显示单元,显示所接收的图像画面;信息输入单元,获取用户输入的控制指令;处理器,根据用户输入的控制指令在图像画面中确定出待跟踪的目标对象,并将目标对象作为对焦和/或测光的对象;以及发送单元,向可移动设备发送指示信息,指示可移动设备捕捉目标对象,并对目标对象进行对焦和/或测光。
根据本公开的另一个方面,提供了一种由控制设备执行的方法,该控制设备用于控制可移动设备。该方法包括:从可移动设备接收可移动设备获取的图像画面;显示所接收的图像画面;获取用户输入的控制指令;根据用户输入的控制指令在图像画面中确定出待跟踪的目标对象,并将目标对象作为对焦和/或测光的对象;以及向可移动设备发送指示信息,指示可移动设备捕捉目标对象,并对目标对象进行对焦和/或测光。
根据本公开的另一个方面,提供了一种包括控制设备和可移动设备的跟踪拍摄***,其中控制设备和可移动设备通信连接。控制设备包括:接收单元,从可移动设备接收可移动设备获取的图像画面;显示单元,显示所接收的图像画面;信息输入单元,获取用户输入的控制指令;处理器,根据用户输入的控制指令在图像画面中确定出待跟踪的目标对象,并将目标对象作为对焦和/或测光的对象;以及发送单元,向可移动设备发送指示信息,指示可移动设备捕捉目标对象,并对目标对象进行对焦和/或测光。可移动设备包括:感测元件,获取目标对象的位置信息;图像获取装置,获取包括目标对象的图像画面;控制器,调整图像获取装置的朝向,使图像获取装置始终朝向目标对象并获取包括目标对象的图像画面。控制器还被配置为:根据目标对象的位置信息,控制图像获取装置对目标对象进行对焦和/或测光,并向控制设备发送包括目标对象的图像画面。
根据本公开的另一个方面,提供了一种用于跟踪拍摄***的方法。跟踪拍摄***包括控制设备和可移动设备,控制设备和可移动设备通信连接。该方法包括在控制设备处执行的以下操作:从可移动设备接收所述可移动设备获取的图像画面,并显示所接收的图像画面;获取用户输入的控制指令;根据用户输入的控制指令在图像画面中确定出待跟踪的目标对象,并将目标对象作为对焦和/或测光的对象;以及向可移动设备发送指示信息,指示可移动设备捕捉目标对象,并对目标对象进行对焦和/或测光。该方法还包括在可移动设备处执行的以下操作:获取目标对象的位置信息;调整可移动设备中的图像获取装置的朝向,使图像获取装置始终朝向目标对象并获取包括目标对象的图像画面;以及根据目标对象的位置信息,控制图像获取装置对目标对象进行对焦和/或测光,并向控制设备发送包括目标对象的图像画面。
采用本公开的技术方案,可以通过简便的交互方式,实现智能跟踪拍摄与局部对焦和/或测光的结合。在跟踪拍摄模式下,针对跟踪目标进行对焦和/或对其测光,使得能够将跟踪目标之外的区域进行虚化和/或实现跟踪画面的合适亮度。
附图说明
通过下文结合附图的详细描述,本公开的上述和其它特征将会变得更加明显,其中:
图1是示出了根据本公开一个实施例的可移动设备的框图。
图2是示出了根据本公开一个实施例的由可移动设备执行的方法的流程图。
图3是示出了根据本公开一个实施例的控制设备的框图。
图4是示出了根据本公开一个实施例的由控制设备执行的方法的流程图。
图5A-5D是示出了根据本公开一个实施例的跟踪拍摄应用的示意图。
需要注意的是,附图不一定按比例绘制,重点在于示出本文公开的技术的原理。另外,为了清楚起见,贯穿附图中的相似的附图标记指代相似的元素。
具体实施方式
下面结合附图和具体实施方式对本公开进行详细阐述。应当注意,本公开不应局限于下文所述的具体实施方式。另外,为了简便起见,省略了对与本公开没有直接关联的公知技术的详细描述,以防止对本公开的理解造成混淆。
图1是示出了根据本公开一个实施例的可移动设备10的框图。如图1所示,可移动设备10包括感测元件110、图像获取装置120和控制器130。
可移动设备10可以是各种形式的设备,包括但不限于无人机、无人车或无人船等。下文,以无人机作为可移动设备10的示例来描述本公开的原理。本领域技术人员可以理解,所描述的原理同样可以适应于其他形式的可移动设备。
感测元件110可以获取目标对象的位置信息。这里,“目标对象”是指用户感兴趣的、从而需要跟踪拍摄的对象。此外,感测元件110还可以获取可移动设备10本身的位置信息。感测元件110的示例可以包括GPS传感器、视觉传感器、超声波传感器、红外传感器、雷达中的一种或多种。
图像获取装置120可以获取包括目标对象的图像画面。例如,图像获取装置120可以包括一个或更多个摄像头,实时地拍摄包括目标对象的图像画面。本实施方式中,图像获取装置120为可见光相机。可以理解,图像获取装置120也可为红外相机等其他形式的可获取图像画面的装置。
控制器130调整图像获取装置120的朝向,使图像获取装置120始终朝向目标对象并获取包括目标对象的图像画面。例如,在跟踪拍摄模式下,目标对象的移动可能很频繁,而且运动不规律。在这种情况下,控制器130需要不断地获取感测元件110所感测的目标对象的实时位置信息,并基于该位置信息来调整图像获取装置120的朝向,使得图像获取装置120能够一直跟踪拍摄目标对象。
在本公开中,控制器130根据感测元件110所感测的目标对象的位置信息,控制图像获取装置120对目标对象进行对焦和/或测光。例如,图像获取装置120可以接收控制器130的控制指令,并根据所接收的控制指令来启动或停止对目标对象进行对焦和/或测光。
举例来说,如果期望仅对目标对象实现局部对焦,则控制器130根据所述目标对象的位置信息,可以控制图像获取装置120将对焦点设置在所跟踪的目标对象上。这样,在图像获取装置120所获取的图像画面中,目标对象本身是清晰的,而无需考虑图像画面中除了目标对象之外的其他对象的对焦是否清晰。当采用大光圈进行拍摄时,背景虚化的程度较高。而采用小光圈拍摄时,背景虚化的程度较低。本领域技术人员可以根据需要,采用合适的光圈值来实现相应的背景虚化。
另一方面,如果需要仅对目标对象实现局部测光,则图像获取装置120根据目标对象的位置信息,接收控制器130发出的控制指令,获取目标对象处的亮度,并根据该亮度来调整整个图像画面的亮度。这样,能够保证目标对象的亮度在整个图像画面中是适当的,从而使得目标对象清晰可辨。
优选地,图像获取装置120可以在对目标对象进行测光后,对目标对象的亮度进行补偿,并且基于补偿后的目标对象的亮度来设置整个图像画面的亮度。例如,可以设置两个阈值:第一阈值和第二阈值,其中第一阈值小于第二阈值。这两个阈值可以是预先确定的,或者可以是在跟踪拍摄过程中不断调整的。当目标对象的亮度小于第一阈值时,图像获取装置120执行补偿以提高目标对象的亮度。相反,当目标对象的亮度大于第二阈值时,图像获取装置120执行补偿以降低目标对象的亮度。所提高或降低的值可以根据实际需要来设置。这样,经过补偿后的目标对象的亮度不会太暗或太亮,从而基于该亮度调整的整个画面的亮度也会更加适当。
备选地,控制器130还可以控制图像获取装置120根据目标对象的位置信息拉近或拉远镜头,实现获取的图像画面的放大或缩小。这样做的优点是,用户可以根据需要调整目标对象的大小。当需要查看目标对象的细节时,控制器130可以控制图像获取装置120将镜头拉近,这样目标对象在画面中显示得更大,便于用户查看目标对象的细节。而当需要查看目标对象所处的整体环境时,控制器130可以控制图像获取装置120将镜头拉远,使得所拍摄的画面中能够容纳更多的信息,便于用户查看目标对象周围的环境。
备选地,控制器130还可以控制图像获取装置120调节白平衡和/或色彩滤镜。例如,由于天气条件不同,固定的白平衡设置可能无法获得良好的图像。因此,控制器130可以根据周围的光照情况来控制图像获取装置120调节白平衡设置和/或色彩滤镜,以获得更好的图像质量和/或期望的图像风格。
备选地,控制器130还可以控制可移动设备10跟随目标对象运动并与目标对象保持预设距离。另外,控制器130可以调整图像获取装置120的朝向,使图像获取装置120始终朝向目标对象的过程中,控制可移动设备10的朝向保持不变或调整可移动设备10电朝向目标对象。这样,可以更加方便地拍摄要跟踪的目标对象。控制器130也可控制可移动设备10位于某以特定位置,并控制图像获取装置120实时调整朝向以捕捉目标对象。
可以理解,本公开的上述局部对焦和局部测光技术可以单独应用,也可以组合应用。此外,本公开的上述镜头调整(拉近或拉远)、白平衡设置、色彩滤镜设置中的一种或更多种可以与局部对焦和/或测光一起应用。
采用本公开的技术方案,可以通过简便的交互方式,实现智能跟踪拍摄与局部对焦和/或测光的结合。在跟踪拍摄模式下,针对跟踪目标进行对焦和/或对其测光,使得能够将跟踪目标之外的区域进行虚化和/或实现跟踪画面的合适亮度。
图2是示出了根据本公开一个实施例的由可移动设备执行的方法的流程图。例如,该方法可以由图1所示的可移动设备10来执行。以下为了简便,省略了对可移动设备10的细节的描述。
如图2所示,在步骤S210,通过感测元件获取目标对象的位置信息。此外,感测元件还可以获取可移动设备的位置信息。如上文所述,感测元件可以包括GPS传感器、视觉传感器、超声波传感器、红外传感器、雷达中的一种或多种。
在步骤S220,通过图像获取装置获取包括目标对象的图像画面。例如,可以通过一个或更多个摄像头来实时拍摄包括目标对象的图像画面。
在步骤S230,通过控制器调整图像获取装置的朝向,使图像获取装置始终朝向目标对象并获取包括目标对象的图像画面。
在步骤S240,根据目标对象的位置信息,控制图像获取装置对目标对象进行对焦和/或测光。如上文所述,对焦和测光可以单独应用,也可以组合应用。此外,还可以结合上文描述的镜头调整(拉近或拉远)、白平衡设置、色彩滤镜设置中的一种或更多种一起应用,此处不再详细描述。
以上,描述了根据本公开的一个实施例的可移动设备及其执行的方法。下面,对与可移动设备相对应地操作的控制设备及其方法进行详细描述。
图3是示出了根据本公开一个实施例的控制设备的框图。如图3所示,控制设备30包括接收单元310、显示单元320、信息输入单元330、处理器340和发送单元350
控制设备30可以是各种形式的设备,包括但不限于智能手机、控制终端、平板电脑PAD等。下文,以智能手机作为控制设备30的示例来描述本公开的原理。本领域技术人员可以理解,所描述的原理同样可以适应于其他形式的控制设备。
接收单元310从可移动设备接收的图像画面。显示单元320显示所接收的图像画面。
信息输入单元330获取用户输入的控制指令。例如,信息输入单元330可以包括触摸屏、控制按键等。用户输入的控制指令可以包括使可移动设备执行对目标对象的跟踪拍摄功能,并且还可以使可移动设备执行上文描述的对目标对象进行对焦和/或测光的功能。
处理器340根据用户输入的控制指令在图像画面中确定出待跟踪的目标对象,并将该目标对象作为对焦和/或测光的对象。
发送单元350向可移动设备发送指示信息,指示可移动设备捕捉目标对象并对目标对象进行对焦和/或测光。在一个示例中,信息输入单元330获取用户在显示单元320上做出的框选指令,处理器340识别框选区域中的物体,并将符合预设条件的物体作为目标对象。备选地,处理器340可以将框选的目标对象的指示框设定为对焦的对焦框和/或测光的测光框。
此外,接收单元310还可以从可移动设备接收目标对象的实时位置信息,从而显示单元320可以显示目标对象的实时位置信息。
如上文所述,“目标对象”是指用户感兴趣的、需要跟踪拍摄的对象。可移动设备的图像获取装置获取画面并回传给控制设备30,控制设备30用户输入在所述画面中确定出目标对象,可移动设备在获得发送单元350所发送的指示消息后,可以利用图像获取装置(例如一个或更多个摄像头)实时地跟踪目标对象。可移动设备可以通过感测元件获取目标对象的实时位置信息,根据所接收的指示信息对目标对象进行对焦和/或测光,生成包括目标对象的图像画面并将其传送给控制设备30。
备选地,控制设备30还可以包括参数设置单元360(图3中的虚线所示)。该参数设置单元360可以设置用于测光的参数,而发送单元350可以向可移动设备发送由参数设置单元360所设置的参数。可以理解,所述参数设置单元360可以为信息输入单元330的一个子单元,用于设置参数。
例如,该参数可以包括用于对目标对象的测光结果进行补偿的补偿参数。假设可以设置两个阈值:第一阈值和第二阈值,其中第一阈值小于第二阈值。这两个阈值可以是预先确定的,或者可以是在跟踪拍摄过程中不断调整的。当目标对象的亮度小于第一阈值时,可移动设备执行补偿处理以提高目标对象的亮度。相反,当目标对象的亮度大于第二阈值时,可移动设备执行补偿处理以降低目标对象的亮度。所提高或降低的值可以根据实际需要来设置。这样,经过补偿后的目标对象的亮度不会太暗或太亮,从而基于该亮度调整的整个画面的亮度也会更加适当。
具体地,处理器340在确定出跟踪目标对象后根据用户输入的控制指令生成指示可移动设备对目标对象进行跟踪的指示信息。例如,该指示信息可以指示:控制可移动设备的图像获取装置朝向目标对象。即,可移动设备本身的朝向不会改变,而仅仅调整图像获取装置的朝向。
此外,该指示信息可以指示:控制可移动设备和图像获取装置两者均朝向目标对象。在此情况下,需要调整可移动设备本身及其所包括的图像获取装置两者,使得它们都朝向目标对象。优选地,当指示信息指示控制可移动设备和图像获取装置两者均朝向目标对象时,该指示信息还可以进一步指示:控制可移动设备跟随目标对象运动并与目标对象保持预设距离。
图4是示出了根据本公开一个实施例的由控制设备执行的方法的流程图。例如,该方法可以由图3所示的控制设备30来执行。以下为了简便,省略了对控制设备30的细节的描述。
如图4所示,在步骤S410,从可移动设备接收可移动设备获取的图像画面。在步骤S420,显示所接收的图像画面。
在步骤S430,获取用户输入的控制指令。在步骤S440,根据用户输入的控制指令在图像画面中确定出待跟踪的目标对象,并将目标对象作为对焦和/或测光的对象。例如,可以获取用户在显示单元上做出的框选指令,识别框选区域中的物体,并将符合预设条件的物体作为目标对象。可以将框选的目标对象的指示框设定为对焦的对焦框和/或测光的测光框。
在步骤S450,向可移动设备发送指示信息,指示可移动设备捕捉目标对象并对目标对象进行对焦和/或测光。
备选地,在确定出待跟踪的目标对象后,还可以根据用户输入的控制指令生成指示可移动设备对目标对象跟踪的指示信息,并发送该信息。例如,该指示信息可以指示:可移动设备的图像获取装置朝向目标对象,或者可移动设备和图像获取装置两者均朝向目标对象。优选地,当指示信息指示控制可移动设备和图像获取装置两者均朝向目标对象时,该指示信息还可以进一步指示:可移动设备跟随目标对象运动并与目标对象保持预设距离。
备选地,可以设置用于测光的参数,并且向可移动设备发送所设置的参数。例如,该参数可以包括用于对目标对象的测光结果进行补偿的补偿参数,如上文所述。
下面,结合附图5A-5D来详细描述根据本公开一个实施例的跟踪拍摄应用的示意场景。在附图5A-5D中,以智能手机作为控制设备的示例,而以无人机作为可移动设备的示例,来说明本公开的技术方案的原理。然而,本领域技术人员可以理解,本公开的原理可以在其他类型的控制设备和可移动设备中实现。
图5A-5D示出了智能手机上的屏幕所显示的内容。
在附图5A中,用户可以框选屏幕上的某个人作为跟踪目标。相应地,目标对象被确定为由附图标记501指示的区域。尽管图5A中所选择的目标对象处于画面的靠近中心的部分,本领域技术人员可以理解,目标对象的位置不限于此,而是可以处于屏幕上的任意位置。
在附图5B中,用户点击屏幕左侧的菜单栏中的圆形按钮,弹出了选项框502。在选项框502中,包含了多个选项按钮502a-502c。其中,选项按钮502a指示需要无人机执行跟踪功能,选项502b指示无人机执行“负载跟踪”功能,而选项按钮502c表示对目标对象进行对焦和/或测光。用户可以根据需要执行的功能来操作选项框502中的相应按钮。其中,在与按钮502a相对应的功能中,无人机的机头和图像获取装置均朝向目标对象;在与按钮502b相对应的功能中,仅图像获取装置朝向目标对象,而无人机保持自身朝向不变或保持其他朝向。
例如,用户已经选择了对附图标记501指示的区域进行跟踪,并希望无人机对该区域进行对焦和/或测光,由此来生成跟踪拍摄的画面。那么,用户可以先点击按钮502a以启用无人机的跟踪功能,然后点击选项按钮502c以启动无人机的局部对焦和/或测光功能。换句话说,点击选项按钮502c将使得无人机仅对目标对象501进行对焦和/或测光,并基于对焦和/或测光的结果产生实时跟踪的画面。
优选地,在用户点击按钮502c后,屏幕上弹出对话框,如附图5C所示。该对话框提示用户,无人机将对目标对象进行对焦和/或测光。这样,用户在第一次使用该功能时,能够更好地获得提示。当用户不希望之后点击按钮502c时再次显示该对话框时,可以勾选“不再显示”前的框。这样,当用户下次点击502c以启用局部对焦和/或测光时,不再弹出附图5C所示的对话框。
当然,如果用户不再希望无人机执行局部对焦和/或测光功能时,可以再次点击按钮502c,以禁用该功能。
附图5D示出了与附图5B类似的内容,不同之处在于选项框502还包括选项按钮502d。选项按钮502d用来控制无人机的飞行状态,包括:无人机跟随目标对象运动并与所述目标对象保持预设距离;无人机位置不变,仅调整图像获取装置(如相机)朝向目标对象,且目标对象活动时,实时调整所述图像获取装置,保证图像获取装置始终可以捕捉目标对象。
因此,用户可以在智能手机上控制无人机执行跟踪功能,并在跟踪拍摄的过程中方便地启用/禁用无人机的局部对焦和/或测光的功能,使得无人机拍摄的画面呈现背景虚化的能力,并改善目标对象在画面中的辨识度。此外,用户可以在智能手机上实时查看无人机所拍摄的跟踪画面。备选地,用户还可以在智能手机上实时查看目标对象和/或无人机的所在位置。
上文已经结合优选实施例对本公开的方法和涉及的设备进行了描述。本领域技术人员可以理解,上面示出的方法仅是示例性的。本公开的方法并不局限于上面示出的步骤和顺序。
应该理解,本公开的上述实施例可以通过软件、硬件或者软件和硬件两者的结合来实现。本公开的这种设置典型地提供为设置或编码在例如光介质(例如CD-ROM)、软盘或硬盘等的计算机可读介质上的软件、代码和/或其他数据结构、或者诸如一个或多个ROM或RAM或PROM芯片上的固件或微代码的其他介质、或一个或多个模块中的可下载的软件图像、共享数据库等。软件或固件或这种配置可安装在计算设备上,以使得计算设备中的一个或多个处理器执行本公开实施例所描述的技术方案。
此外,上述每个实施例中所使用的设备的每个功能模块或各个特征可以由电路实现或执行,所述电路通常为一个或多个集成电路。设计用于执行本说明书中所描述的各个功能的电路可以包括通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)或通用集成电路、现场可编程门阵列(FPGA)或其他可编程逻辑器件、分立的门或晶体管逻辑、或分立的硬件组件、或以上器件的任意组合。通用处理器可以是微处理器,或者所述处理器可以是现有的处理器、控制器、微控制器或状态机。上述通用处理器或每个电路可以由数字电路配置,或者可以由逻辑电路配置。此外,当由于半导体技术的进步,出现了能够替代目前的集成电路的先进技术时,本公开也可以使用利用该先进技术得到的集成电路。
运行在根据本发明的设备上的程序可以是通过控制中央处理单元(CPU)来使计算机实现本发明的实施例功能的程序。该程序或由该程序处理的信息可以临时存储在易失性存储器(如随机存取存储器RAM)、硬盘驱动器(HDD)、非易失性存储器(如闪速存储器)、或其他存储器***中。用于实现本发明各实施例功能的程序可以记录在计算机可读记录介质上。可以通过使计算机***读取记录在所述记录介质上的程序并执行这些程序来实现相应的功能。此处的所谓“计算机***”可以是嵌入在该设备中的计算机***,可以包括操作***或硬件(如***设备)。
如上,已经参考附图对本发明的实施例进行了详细描述。但是,具体的结构并不局限于上述实施例,本发明也包括不偏离本发明主旨的任何设计改动。另外,可以在权利要求的范围内对本发明进行多种改动,通过适当地组合不同实施例所公开的技术手段所得到的实施例也包含在本发明的技术范围内。此外,上述实施例中所描述的具有相同效果的组件可以相互替代。

Claims (49)

1.一种可移动设备,与控制设备通信连接并接受所述控制设备的控制指令,包括:
感测元件,获取目标对象的位置信息;
图像获取装置,获取包括所述目标对象的图像画面;
控制器,调整所述图像获取装置的朝向,使所述图像获取装置始终朝向所述目标对象并获取包括所述目标对象的图像画面;
其中,所述控制器还被配置为:根据所述目标对象的位置信息,控制所述图像获取装置对所述目标对象进行对焦和/或测光。
2.根据权利要求1所述的可移动设备,其中,所述图像获取装置被配置为:
接收所述控制器的控制指令;以及
根据所述控制指令来启动或停止对所述目标对象进行对焦和/或测光。
3.根据权利要求1所述的可移动设备,其中,所述感测元件获取所述目标对象的实时位置信息。
4.根据权利要求1或3所述的可移动设备,其中,所述感测元件获取所述目标对象的位置信息以及所述可移动设备的位置信息。
5.根据权利要求1所述的可移动设备,其中,所述感测元件包括GPS传感器、视觉传感器、超声波传感器、红外传感器及雷达中的一种或多种。
6.根据权利要求1或2所述的可移动设备,其中,所述图像获取装置接收所述控制器的控制指令,获取所述目标对象所在区域的亮度,并根据所述亮度调整整个画面的亮度。
7.根据权利要求6所述的可移动设备,其中,所述图像获取装置被配置为:
在对所述目标对象进行测光后,对所述目标对象的亮度进行补偿;以及
基于补偿后的所述目标对象的亮度来设置所述图像的亮度。
8.根据权利要求7所述的可移动设备,其中,所述图像获取装置被配置为:
如果所述目标对象的亮度小于第一阈值,则提高所述目标对象的亮度;或者
如果所述目标对象的亮度大于第二阈值,则降低所述目标对象的亮度;
其中,所述第二阈值大于所述第一阈值。
9.根据权利要求8所述的可移动设备,其中,所述第一阈值和所述第二阈值是预先确定的或者是可调整的。
10.根据权利要求1或2所述的可移动设备,其中,所述控制器控制所述图像获取装置根据所述目标对象的位置信息拉近或拉远镜头,实现获取的图像画面的放大或缩小。
11.根据权利要求1或2所述的可移动设备,其中,所述控制器控制所述图像获取装置调节白平衡和/或色彩滤镜。
12.根据权利要求1所述的可移动设备,其中,所述控制器还控制所述可移动设备跟随所述目标对象运动并与所述目标对象保持预设距离。
13.根据权利要求1所述的可移动设备,其中,所述控制器调整所述图像获取装置的朝向,使所述图像获取装置始终朝向所述目标对象的过程中,控制所述可移动设备的朝向保持不变或调整所述可移动设备也朝向所述目标对象。
14.根据权利要求1-13中任意一项所述的可移动设备,其中,所述可移动设备包括无人机、无人车或无人船。
15.一种由可移动设备执行的方法,所述可移动设备与控制设备通信连接并接受所述控制设备的控制指令,且所述可移动设备包括感测元件、图像获取装置和控制器,所述方法包括:
通过感测元件获取目标对象的位置信息;
通过图像获取装置获取包括所述目标对象的图像画面;
通过控制器调整所述图像获取装置的朝向,使所述图像获取装置始终朝向所述目标对象并获取包括所述目标对象的图像画面;
其中,所述控制器根据所述目标对象的位置信息,控制所述图像获取装置对所述目标对象进行对焦和/或测光。
16.根据权利要求15所述的方法,其中,所述图像获取装置接收所述控制器的控制指令,以及根据所述控制指令来启动或停止对所述目标对象进行对焦和/或测光。
17.根据权利要求15所述的方法,其中,所述感测元件获取所述目标对象的实时位置信息。
18.根据权利要求15或17所述的方法,其中,所述感测元件获取所述目标对象的位置信息以及所述可移动设备的位置信息。
19.根据权利要求15所述的方法,其中,所述感测元件包括GPS传感器、视觉传感器、超声波传感器、红外传感器、雷达中的一种或多种。
20.根据权利要求15或16所述的方法,其中,所述图像获取装置接收所述控制器的控制指令,获取所述目标对象所在区域的亮度,并根据所述亮度调整整个画面的亮度。
21.根据权利要求20所述的方法,其中,所述图像获取装置在对所述目标对象进行测光后,对所述目标对象的亮度进行补偿;以及基于补偿后的所述目标对象的亮度来设置所述图像的亮度。
22.根据权利要求21所述的方法,其中,
如果所述目标对象的亮度小于第一阈值,则所述图像获取装置提高所述目标对象的亮度;或者
如果所述目标对象的亮度大于第二阈值,则所述图像获取装置降低所述目标对象的亮度;
其中,所述第二阈值大于所述第一阈值。
23.根据权利要求22所述的方法,其中,所述第一阈值和所述第二阈值是预先确定的或者是可调整的。
24.根据权利要求15或16所述的方法,其中,所述控制器控制所述图像获取装置根据所述目标对象的位置信息拉近或拉远镜头,实现获取的图像画面的放大或缩小。
25.根据权利要求15或16所述的方法,其中,所述控制器控制所述图像获取装置调节白平衡和/或色彩滤镜。
26.根据权利要求15所述的方法,其中,所述控制器还控制所述可移动设备跟随所述目标对象运动并与所述目标对象保持预设距离。
27.根据权利要求15所述的方法,其中,所述控制器调整所述图像获取装置的朝向,使所述图像获取装置始终朝向所述目标对象的过程中,控制所述可移动设备的朝向保持不变或调整所述可移动设备也朝向所述目标对象。
28.根据权利要求15所述的方法,其中,所述方法还包括将所述图像获取装置获取的图像画面发送给所述控制设备。
29.根据权利要求15-28中任意一项所述的方法,其中,所述可移动设备包括无人机、无人车或无人船。
30.一种控制设备,用于控制可移动设备,包括:
接收单元,从所述可移动设备接收所述可移动设备获取的图像画面;
显示单元,显示所接收的图像画面;
信息输入单元,获取用户输入的控制指令;
处理器,根据所述用户输入的控制指令在所述图像画面中确定出待跟踪的目标对象,并将所述目标对象作为对焦和/或测光的对象;以及
发送单元,向所述可移动设备发送指示信息,指示所述可移动设备捕捉所述目标对象,并对所述目标对象进行对焦和/或测光。
31.根据权利要求30所述的控制设备,其中,所述信息输入单元获取用户输入的在显示单元中的框选指令,所述处理器识别所述框选区域中的物体,并将符合预设条件的物体作为目标对象。
32.根据权利要求30所述的控制设备,其中,所述处理器将所述框选目标对象的指示框设定为对焦的对焦框和/或测光的测光框。
33.根据权利要求30所述的控制设备,其中,所述接收单元还被配置为接收所述目标对象的实时位置信息,以及所述显示单元还被配置为显示所述目标对象的实时位置信息。
34.根据权利要求30所述的控制设备,还包括:
参数设置单元,被配置为设置用于测光的参数;
其中,所述发送单元被配置为向所述可移动设备发送所述参数。
35.根据权利要求34所述的控制设备,其中,所述参数包括:用于对所述对象的测光结果进行补偿的补偿参数。
36.根据权利要求30所述的控制设备,其中,所述处理器确定出待跟踪的目标对象后,根据所述用户输入的控制指令生成指示所述可移动设备对所述目标对象跟踪的指示信息。
37.根据权利要求36所述的控制设备,其中,所述指示信息包括;
控制所述可移动设备的图像获取装置朝向所述目标对象;或
控制所述可移动设备和所述图像获取装置均朝向所述目标对象。
38.根据权利要求37所述的控制设备,其中,当所述指示信息为控制所述可移动设备和所述图像获取装置均朝向所述目标对象时,所述指示信息还包括:
控制所述可移动设备跟随所述目标对象运动并与所述目标对象保持预设距离。
39.一种由控制设备执行的方法,所述控制设备用于控制可移动设备,所述方法包括:
从所述可移动设备接收所述可移动设备获取的图像画面;
显示所接收的图像画面;
获取用户输入的控制指令;
根据所述用户输入的控制指令在所述图像画面中确定出待跟踪的目标对象,并将所述目标对象作为对焦和/或测光的对象;以及
向所述可移动设备发送指示信息,指示所述可移动设备捕捉所述目标对象,并对所述目标对象进行对焦和/或测光。
40.根据权利要求39所述的方法,其中,获取用户输入的在显示单元中的框选指令,识别所述框选区域中的物体,并将符合预设条件的物体作为目标对象。
41.根据权利要求39所述的方法,其中,将所述框选目标对象的指示框设定为对焦的对焦框和/或测光的测光框。
42.根据权利要求39所述的方法,还包括:
接收所述目标对象的实时位置信息;以及
显示所述目标对象的实时位置信息。
43.根据权利要求39所述的方法,还包括:
设置用于测光的参数;以及
向所述可移动设备发送所述参数。
44.根据权利要求43所述的方法,其中,所述参数包括:用于对所述对象的测光结果进行补偿的补偿参数。
45.根据权利要求39所述的方法,其中,在确定出待跟踪的目标对象后,根据所述用户输入的控制指令生成指示所述可移动设备对所述目标对象跟踪的指示信息。
46.根据权利要求45所述的方法,其中,所述指示信息包括;
控制所述可移动设备的图像获取装置朝向所述目标对象;或
控制所述可移动设备和所述图像获取装置均朝向所述目标对象。
47.根据权利要求46所述的方法,其中,当所述指示信息为控制所述可移动设备和所述图像获取装置均朝向所述目标对象时,所述指示信息还包括:
控制所述可移动设备跟随所述目标对象运动并与所述目标对象保持预设距离。
48.一种跟踪拍摄***,包括如权利要求30-38中任一项所述的控制设备和如权利要求1-14中任一项所述的可移动设备,所述控制设备和所述可移动设备通信连接,其中
所述控制设备包括:
接收单元,从所述可移动设备接收所述可移动设备获取的图像画面;
显示单元,显示所接收的图像画面;
信息输入单元,获取用户输入的控制指令;
处理器,根据所述用户输入的控制指令在所述图像画面中确定出待跟踪的目标对象,并将所述目标对象作为对焦和/或测光的对象;以及
发送单元,向所述可移动设备发送指示信息,指示所述可移动设备捕捉所述目标对象,并对所述目标对象进行对焦和/或测光;
所述可移动设备包括:
感测元件,获取所述目标对象的位置信息;
图像获取装置,获取包括所述目标对象的图像画面;
控制器,调整所述图像获取装置的朝向,使所述图像获取装置始终朝向所述目标对象并获取包括所述目标对象的图像画面;
其中,所述控制器还被配置为:根据所述目标对象的位置信息,控制所述图像获取装置对所述目标对象进行对焦和/或测光,并向所述控制设备发送包括所述目标对象的图像画面。
49.一种用于跟踪拍摄***的方法,所述跟踪拍摄***包括如权利要求30-38中任一项所述的控制设备和如权利要求1-14中任一项所述的可移动设备,所述控制设备和所述可移动设备通信连接,所述方法包括:
在所述控制设备处执行的以下操作:
从所述可移动设备接收所述可移动设备获取的图像画面,并显示所接收的图像画面;
获取用户输入的控制指令;
根据所述用户输入的控制指令在所述图像画面中确定出待跟踪的目标对象,并将所述目标对象作为对焦和/或测光的对象;以及
向所述可移动设备发送指示信息,指示所述可移动设备捕捉所述目标对象,并对所述目标对象进行对焦和/或测光;以及
在所述可移动设备处执行的以下操作:
获取所述目标对象的位置信息;
调整所述可移动设备中的图像获取装置的朝向,使所述图像获取装置始终朝向所述目标对象并获取包括所述目标对象的图像画面;以及
根据所述目标对象的位置信息,控制所述图像获取装置对所述目标对象进行对焦和/或测光,并向所述控制设备发送包括所述目标对象的图像画面。
CN201780006943.7A 2017-09-22 2017-09-22 用于跟踪拍摄的方法和设备 Active CN108521862B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/102992 WO2019056312A1 (zh) 2017-09-22 2017-09-22 用于跟踪拍摄的方法和设备

Publications (2)

Publication Number Publication Date
CN108521862A true CN108521862A (zh) 2018-09-11
CN108521862B CN108521862B (zh) 2021-08-17

Family

ID=63433075

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780006943.7A Active CN108521862B (zh) 2017-09-22 2017-09-22 用于跟踪拍摄的方法和设备

Country Status (3)

Country Link
US (1) US20200221005A1 (zh)
CN (1) CN108521862B (zh)
WO (1) WO2019056312A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112243582A (zh) * 2019-08-30 2021-01-19 深圳市大疆创新科技有限公司 补光控制方法、装置、***和存储介质
WO2021237555A1 (zh) * 2020-05-28 2021-12-02 深圳市大疆创新科技有限公司 图像处理的方法、装置、可移动平台以及***
CN114342350A (zh) * 2019-09-03 2022-04-12 索尼集团公司 成像控制装置、成像控制方法、程序以及成像设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102681582B1 (ko) * 2017-01-05 2024-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101778214A (zh) * 2009-01-09 2010-07-14 华晶科技股份有限公司 具有亮度和对焦补偿的数字摄像装置及其影像补偿方法
CN104394326A (zh) * 2014-11-10 2015-03-04 广东欧珀移动通信有限公司 一种测光方法及终端
CN105391939A (zh) * 2015-11-04 2016-03-09 腾讯科技(深圳)有限公司 无人机拍摄控制方法和装置、无人机拍摄方法和无人机
CN105721787A (zh) * 2016-02-01 2016-06-29 广东欧珀移动通信有限公司 调整局部区域曝光的方法、装置及移动终端
CN106506982A (zh) * 2016-12-07 2017-03-15 浙江宇视科技有限公司 一种获取测光参数的方法、装置及终端设备
WO2017073310A1 (ja) * 2015-10-27 2017-05-04 三菱電機株式会社 構造物の形状測定用の画像撮影システム、構造物の形状測定に使用する構造物の画像を撮影する方法、機上制御装置、遠隔制御装置、プログラム、および記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5949591B2 (ja) * 2013-02-13 2016-07-06 ソニー株式会社 撮像装置、制御方法、及び、プログラム
CN104571135A (zh) * 2013-10-20 2015-04-29 郁杰夫 一种云台追踪摄影***和云台追踪摄影方法
CN105225254B (zh) * 2015-09-25 2017-12-05 凌云光技术集团有限责任公司 一种自动追踪局部目标的曝光方法及***
CN107147882A (zh) * 2017-06-08 2017-09-08 柳州智视科技有限公司 一种自动实时跟踪目标对象的多分辨率观测***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101778214A (zh) * 2009-01-09 2010-07-14 华晶科技股份有限公司 具有亮度和对焦补偿的数字摄像装置及其影像补偿方法
CN104394326A (zh) * 2014-11-10 2015-03-04 广东欧珀移动通信有限公司 一种测光方法及终端
WO2017073310A1 (ja) * 2015-10-27 2017-05-04 三菱電機株式会社 構造物の形状測定用の画像撮影システム、構造物の形状測定に使用する構造物の画像を撮影する方法、機上制御装置、遠隔制御装置、プログラム、および記録媒体
CN105391939A (zh) * 2015-11-04 2016-03-09 腾讯科技(深圳)有限公司 无人机拍摄控制方法和装置、无人机拍摄方法和无人机
CN105721787A (zh) * 2016-02-01 2016-06-29 广东欧珀移动通信有限公司 调整局部区域曝光的方法、装置及移动终端
CN106506982A (zh) * 2016-12-07 2017-03-15 浙江宇视科技有限公司 一种获取测光参数的方法、装置及终端设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112243582A (zh) * 2019-08-30 2021-01-19 深圳市大疆创新科技有限公司 补光控制方法、装置、***和存储介质
CN114342350A (zh) * 2019-09-03 2022-04-12 索尼集团公司 成像控制装置、成像控制方法、程序以及成像设备
US12041337B2 (en) 2019-09-03 2024-07-16 Sony Group Corporation Imaging control apparatus, imaging control method, program, and imaging device
WO2021237555A1 (zh) * 2020-05-28 2021-12-02 深圳市大疆创新科技有限公司 图像处理的方法、装置、可移动平台以及***

Also Published As

Publication number Publication date
WO2019056312A1 (zh) 2019-03-28
CN108521862B (zh) 2021-08-17
US20200221005A1 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
US7860382B2 (en) Selecting autofocus area in an image
JP5867424B2 (ja) 画像処理装置、画像処理方法、プログラム
KR100890949B1 (ko) 이미지 데이터 처리를 위한 전자 장치 및 전자 장치에서의방법
CN107820021B (zh) 自动图像捕捉
JP5159515B2 (ja) 画像処理装置およびその制御方法
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
US8265475B2 (en) Focus-point selection system, autofocus system, and camera
CN110557573A (zh) 用于成像的统一包围曝光方法
JPWO2016016984A1 (ja) 撮像装置およびその被写体追尾方法
CN108521862A (zh) 用于跟踪拍摄的方法和设备
JP2010141616A (ja) 画像処理装置および画像処理方法、ならびに、撮像装置
CN110677592B (zh) 主体对焦方法、装置、计算机设备和存储介质
US9521329B2 (en) Display device, display method, and computer-readable recording medium
WO2024131693A1 (zh) 鸟类识别方法、鸟类识别设备和鸟类识别***
CN105872355A (zh) 焦点调节装置和焦点调节方法
KR20220058593A (ko) 스마트한 파노라마 이미지를 획득하기 위한 시스템 및 방법
CN104000555A (zh) 眼底信息获取装置、方法和程序
JP4506779B2 (ja) 撮像装置及びプログラム
US20130308829A1 (en) Still image extraction apparatus
US11190670B2 (en) Method and a system for processing images based a tracked subject
JP2010154306A (ja) 撮像制御装置、撮像制御プログラム及び撮像制御方法
JP5693664B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
US20220408027A1 (en) Imaging apparatus
CN110063054A (zh) 控制设备、控制方法和程序

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant