CN114019990A - 用于控制可移动物体的***和方法 - Google Patents
用于控制可移动物体的***和方法 Download PDFInfo
- Publication number
- CN114019990A CN114019990A CN202111129918.2A CN202111129918A CN114019990A CN 114019990 A CN114019990 A CN 114019990A CN 202111129918 A CN202111129918 A CN 202111129918A CN 114019990 A CN114019990 A CN 114019990A
- Authority
- CN
- China
- Prior art keywords
- movable object
- uav
- mode
- control
- operating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000003993 interaction Effects 0.000 claims description 29
- 230000002452 interceptive effect Effects 0.000 claims description 16
- 238000004891 communication Methods 0.000 description 23
- 230000007246 mechanism Effects 0.000 description 21
- 230000035939 shock Effects 0.000 description 15
- 238000005259 measurement Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000013016 damping Methods 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 8
- 230000007704 transition Effects 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000005055 memory storage Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000005021 gait Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000006096 absorbing agent Substances 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000006260 foam Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000012781 shape memory material Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
- A61B1/00149—Holding or positioning arrangements using articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000095—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00188—Optical arrangements with focusing or zooming features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/042—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
- A61B1/3132—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Signal Processing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
***和方法可以在存在活动物体时控制诸如无人载运工具之类的可移动物体。控制器可以检测可移动物体的周围区域内的活动物体,其中,所述可移动物体的周围区域被配置为多个操作区域。然后,控制器可以利用在所述可移动物体的周围区域内检测到的所述活动物体,确定操作所述可移动物体的操作模式,以在所述活动物***于不同的操作区域时,应用不同的操作模式操作所述可移动物体。此外,控制器可以应用与操作模式相关联的控制方案来控制可移动物体的操作。
Description
技术领域
本公开的实施例总体上涉及可移动物体的控制,更进一步地,但不限于控制无人载运工具。
背景技术
诸如无人飞行器(UAV)之类的无人载运工具可用于执行针对各种应用的监视、侦察和勘探任务。由于UAV的广泛普及以及UAV市场的高度期望,需要在UAV中增加更具吸引力的功能。例如,希望UAV在存在活动物体的环境中进行操作。这是本发明的实施例意图针对的一般领域。
发明内容
本文描述的是可以在存在活动物体时控制无人载运工具的***和方法。控制器可以检测可移动物体的附近区域内的活动物体。然后,控制器可以利用可移动物体的附近区域内的活动物体,确定操作可移动物体的操作模式。此外,控制器可以应用与操作模式相关联的控制方案来控制可移动物体的操作。
附图说明
图1示出了根据本发明各种实施例的可移动物体环境。
图2示出了根据实施例的可移动物体环境中的示例性载体。
图3示出了根据本发明各种实施例的在存在一个或多个活动物体的情况下对UAV移动的控制。
图4示出了根据本发明各种实施例的用于说明各种UAV操作模式之间的转换的示例性图。
图5示出了根据本发明各种实施例的示例性UAV操作机制。
图6示出了根据本发明各种实施例的对活动物体和UAV之间的交互的支持。
图7示出了根据本发明各种实施例的用于控制UAV的示例性控制方案。
图8示出了根据本发明各种实施例的用于支持交互模式的示例性控制方案。
图9示出了根据本发明各种实施例的在交互模式下对UAV的控制。
图10示出了根据本发明各种实施例的在可移动物体环境中存在活动物体时对可移动物体进行控制的流程图。
具体实施方式
作为示例而非限制,在附图的各图中示出了本发明的实施方式,其中相似的附图标记指示相似的元素。应当注意到:在本公开中针对“实施例”或“一个实施例”或“一些实施例”的引用不一定是指相同的实施例,并且这种引用意味着至少一个实施例。
以下对本发明的描述使用无人飞行器(UAV)作为可移动物体的示例。本领域技术人员显而易见的是,可以使用其他类型的可移动物体而没有限制。
根据本发明的各种实施例,***可以例如使用诸如无人飞行器(UAV)之类的可移动物体(其例如在计算能力和电力资源方面具有有限的资源)长时间自动跟踪和检测目标活动物体此外,一旦目标丢失,***可以提供重新定位能力。
图1示出了根据本发明各种实施例的可移动物体环境。如图1所示,可移动物体环境100中的可移动物体118可以包括载体102和负载104。尽管可移动物体118可以被描绘为飞行器,但是该描述并不旨在限制,并且可以使用任何合适类型的可移动物体。本领域技术人员将理解,本文在飞行器***的上下文中描述的任何实施例可以应用于任何合适的可移动物体(例如,UAV)。在一些情况下,负载104可以设置在可移动物体118上,而不需要载体102。
根据本发明的各种实施例,可移动物体118可以包括一个或多个移动机构106(例如,推进机构)、感测***108和通信***110。
移动机构106可以包括旋翼、螺旋桨、叶片、发动机、电机、轮子、轴、磁体、喷嘴、动物或人类中的一个或多个。例如,可移动物体可以具有一个或多个推进机构。全部移动结构106可以是相同类型的。备选地,移动结构106可以是不同类型的移动机构。移动机构106可以使用诸如支撑元件(例如,驱动轴)的任何合适的方法安装在可移动物体118上(或反之亦然)。移动机构106可以安装在可移动物体118的任何合适的部分上,例如顶部、底部、前部、后部、侧面或其合适的组合。
在一些实施例中,移动机构106可以使可移动物体118能够垂直地从表面起飞或者垂直地降落于表面,而不需要可移动物体118的任何水平移动(例如,不需要沿着跑道行进)。可选地,移动机构106可以可操作地允许可移动物体118以特定位置和/或朝向悬停在空气中。移动机构106中的一个或多个可以独立于其它移动机构受到控制。备选地,移动机构106可以被配置为同时受到控制。例如,可移动物体118可以具有多个水平朝向的旋翼,其可以向可移动物体提供升力和/或推力。可以驱动多个水平朝向的旋翼以向可移动物体118提供垂直起飞、垂直降落和悬停能力。在一些实施例中,水平朝向的旋翼中的一个或多个可沿顺时针方向旋转,当然水平旋翼中的一个或多个也可沿逆时针方向旋转。例如,顺时针旋翼的数量可以等于逆时针旋翼的数量。为了控制由每个旋翼产生的升力和/或推力,由此调整可移动物体118(例如,相对于最多三个平移度和三个旋转度)的空间布置、速度和/或加速度,可以独立地改变每个水平朝向的旋翼的转速。
感测***108可以包括可感测可移动物体118(例如,相对于各种平移度和各种旋转度)的空间布置、速度和/或加速度的一个或多个传感器。一个或多个传感器可以包括任何传感器,包括GPS传感器、运动传感器、惯性传感器、近距离传感器或图像传感器。感测***108提供的感测数据可用于(例如,使用合适的处理单元和/或控制模块)控制可移动物体118的空间布置、速度和/或朝向。备选地,感测***108可用于提供关于可移动物体周围的环境的数据,例如天气条件、接近潜在障碍物、地理特征的位置、人造结构的位置等。
通信***110能够经由无线信号116与具有通信***114的终端112进行通信。通信***110、114可以包括适合于无线通信的任意数量的发射机、接收机和/或收发机。所述通信可以是单向通信,使得数据只能在一个方向上发送。例如,单向通信可以仅涉及可移动物体118向终端112发送数据,反之亦然。可以从通信***110的一个或多个发射机向通信***112的一个或多个接收机发送数据,或者反之亦然。备选地,所述通信可以是双向通信,使得可以在可移动物体118和终端112之间的两个方向上发送数据。双向通信可以涉及从通信***110的一个或多个发射机向通信***114的一个或多个接收机发送数据,并且反之亦然。
在一些实施例中,终端112可以向可移动物体118、载体102和负载104中的一个或多个提供控制数据,并且从可移动物体118、载体102和负载104中的一个或多个接收信息(例如,可移动物体、载体或负载的位置和/或运动信息;由负载感测的数据,诸如由负载相机捕获的图像数据;和从负载相机捕获的图像数据产生的数据)。在一些情况下,来自终端的控制数据可以包括用于可移动物体、载体和/或负载的相对位置、移动、致动或控制的指令。例如,控制数据(例如,经由移动机构106的控制)可以导致可移动物体的位置和/或朝向的改变,或(例如,经由载体102的控制)导致负载相对于可移动物体的移动。来自终端的控制数据可以导致对负载的控制,诸如对相机或其他图像捕获装置的操作的控制(例如,拍摄静止或运动图片、放大或缩小、打开或关闭、切换成像模式、改变图像分辨率、改变焦点、改变景深、改变曝光时间、改变视角或视野)。
在一些情况下,来自可移动物体、载体和/或负载的通信可以包括来自一个或多个传感器(例如,感测***108或负载1104的)的信息和/和基于感测信息产生的数据。通信可以包括来自一个或多个不同类型的传感器(例如,GPS传感器、运动传感器、惯性传感器、近距离传感器或图像传感器)的感测信息。这种信息可以涉及可移动物体、载体和/或负载的位置(例如,定位、朝向)、移动或加速度。来自负载的这种信息可以包括由负载捕获的数据或负载的感测状态。由终端112发送的控制数据可以被配置为控制可移动物体118、载体102或负载104中的一个或多个的状态。备选地或组合地,载体102和负载104也可以各自包括被配置为与终端112进行通信的通信模块,使得该终端可以独立地与可移动物体118、载体102和负载104中的每一个进行通信并对其进行控制。
在一些实施例中,可移动物体118可以被配置为除了终端112之外还与另一远程装置进行通信,或者代替终端112而与另一远程装置进行通信。除了可移动物体118之外,终端112还可以被配置为与另一远程装置进行通信。例如,可移动物体118和/或终端112可以与另一可移动物体或另一可移动物体的载体或负载进行通信。当需要时,远程装置可以是第二终端或其他计算装置(例如,计算机、膝上型电脑、平板电脑、智能电话或其他移动装置)。远程装置可以被配置为向可移动物体118发送数据、从可移动物体118接收数据、向终端112发送数据,和/或从终端112接收数据。可选地,远程装置可以与因特网或其他电信网络连接,使得从可移动物体118和/或终端112接收的数据可以上传到网站或服务器。
图2示出了根据实施例的可移动物体环境中的示例性载体。载体200可用于将诸如图像捕获装置的负载202连接到诸如UAV的可移动物体。
载体200可以被配置为允许负载202围绕一个或多个轴相对于可移动物体旋转,诸如三个轴:X轴或俯仰轴、Z轴或横滚轴、以及Y轴或偏航轴。例如,载体200可以被配置为允许负载202仅围绕一个、两个、或三个轴旋转。轴可以彼此正交或可以不彼此正交。围绕任何轴的旋转范围可以受到限制,也可以不受限制,并且可以针对每个轴而变化。旋转轴可以彼此相交或不相交。例如,正交轴可以彼此相交。它们可以在负载202处相交,或者可以不在负载202处相交。备选地,它们可以不相交。
载体200可以包括包含一个或多个框架构件的框架组件211。例如,框架构件可以被配置为与负载202(例如,图像捕获装置)连接并支撑负载202(例如,图像捕获装置)。
在一些实施例中,载体201可以包括一个或多个载体传感器213,用于确定载体201的状态或由载体201承载的负载202的状态。状态信息可以包括空间布置(例如,位置、朝向或姿态)、速度(例如,线速度或角速度)、加速度(例如,线加速度或角加速度)、和/或关于载体、其部件和/或负载202的其他信息。在一些实施例中,从传感器数据获取或计算的状态信息可以用作反馈数据以控制载体的部件(例如,框架构件)的旋转。这种载体传感器的示例可以包括运动传感器(例如,加速度计)、旋转传感器(例如,陀螺仪)、惯性传感器等。
载体传感器213可以连接到载体的任何合适的一个或多个部分(例如,框架构件和/或致动器构件),并且可以相对于UAV可移动或相对于UAV不可移动。附加地或备选地,载体传感器中的至少一些可以直接连接到由载体201承载的负载202。
载体传感器213可以与载体的一些或所有致动器构件相连接。例如,三个载体传感器可以分别连接到针对三轴载体的致动器构件212,并且配置为测量针对三轴载体的相应致动器构件212的驱动。这种传感器可以包括电位器或其他类似的传感器。在一个实施例中,传感器(例如,电位器)可以插在电机的电机轴上,以便测量电机转子和电机定子的相对位置,由此测量转子和定子的相对位置并产生代表其的位置信号。在一个实施例中,每个与致动器连接的传感器被配置为针对其测量的对应致动器构件提供位置信号。例如,第一电位器可用于产生针对第一致动器构件的第一位置信号,第二电位器可用于产生针对第二致动器构件的第二位置信号,并且第三电位器可用于产生针对第三致动器构件的第三位置信号。在一些实施例中,载体传感器213还可以连接到载体的一些或所有框架构件。传感器可以能够传达关于载体的一个或多个框架构件和/或图像捕获装置的位置和/或朝向的信息。传感器数据可以用于确定图像捕获装置相对于可移动物体和/或参考系的位置和/或朝向。
载体传感器213可以提供位置和/或朝向数据,该数据可以被发送到载体或可移动物体上的一个或多个控制器(未示出)。传感器数据可以用在基于反馈的控制方案中。控制方案可用于控制一个或多个致动器构件(诸如一个或多个电机)的驱动。一个或多个控制器可以位于载体上或承载载体的可移动物体上,可以产生用于驱动致动器构件的控制信号。在一些情况下,可以基于从载体传感器接收的数据产生控制信号,所述数据指示载体或由载体201承载的负载202的空间布置。载体传感器可以位于载体或负载202上,如本文先前所述。由控制器产生的控制信号可以由不同的致动器驱动器接收。基于控制信号,不同的致动器驱动器可以控制不同的致动器构件的驱动,例如,以实现载体的一个或多个部件的旋转。致动器驱动器可以包括适于控制相应致动器构件的驱动和从相应传感器(例如,电位器)接收位置信号的硬件和/或软件部件。控制信号可以同时发送到致动器驱动器,以产生致动器构件的同时驱动。备选地,控制信号可以顺序发送,或者仅传输到致动器驱动器中的一个。有利地,控制方案可用于提供用于驱动载体的致动器构件的反馈控制,由此实现载体部件的更精确和准确的旋转。
在一些情况下,载体201可以经由一个或多个减震元件间接地连接到UAV。减震元件可以被配置为减少或消除由可移动物体(例如,UAV)的移动引起的负荷(例如,负载、载体或以上两者)的移动。减震元件可以包括适于对所连接的负荷的运动进行减震的任何元件,诸如主动减震元件、被动减震元件或具有主动和被动减震特性的混合减震元件。由本文提供的减震元件减震的运动可以包括振动、摆动、摇动或撞击中的一个或多个。这种运动可能源自传递到负荷的可移动物体的运动。例如,所述运动可以包括由推进***和/或UAV的其他部件的操作引起的振动。
减震元件可以通过消散或减少传递到负荷的运动量来将负荷与不希望的运动源隔离(例如,振动隔离),从而提供运动减震。减震元件可以减小可能由负荷经历的运动的幅度(例如,幅值)。由减震元件208施加的运动减震可以用于稳定负荷,由此改善由负荷(例如,图像捕获装置)捕获的图像的质量,并降低基于所捕获的图像产生全景图像所需的图像拼接步骤的计算复杂度。
本文所述的减震元件可以由任何合适的材料或材料组合形成,包括固体、液体或气体材料。用于减震元件的材料可以是可压缩的和/或可变形的。例如,减震元件可以由海绵、泡沫、橡胶、凝胶等制成。例如,减震元件可以包括大致球形的橡胶球。减震元件可以是任何合适的形状,例如大致球形、矩形、圆柱形等。备选地或附加地,减震元件可以包括压电材料或形状记忆材料。减震元件可以包括一个或多个机械元件,例如弹簧、活塞、液压装置、气动装置、缓冲器、减震器、隔离器等。可以选择减震元件的属性以提供预定量的运动减震。在一些情况下,减震元件可以具有粘弹属性。减震元件的属性可以是各向同性的或各向异性的。例如,减震元件可以沿所有运动方向均匀地提供运动减震。相反,减震元件可以仅沿着运动方向的子集(例如,沿着单个运动方向)提供运动减震。例如,减震元件可以主要沿着Y(偏航)轴提供减震。这样,所示的减震元件可以被配置为减少垂直运动。
尽管各种实施例可以被描述为利用单一类型的减震元件(例如,橡胶球),但是应该理解,可以使用多种类型的减震元件的任何合适组合。例如,可以使用任何合适的一种或多种类型的一个或多个减震元件来将载体连接到可移动物体。减震元件可以具有相同或不同的特性或属性,例如刚度、粘弹性等。每个减震元件可以连接到负荷的不同部分或仅连接到负荷的特定部分。例如,减震元件可以位于负荷和可移动物体之间的接触点或连接点或表面的附近。在一些情况下,负荷可以嵌入一个或多个减震元件内或由一个或多个减震元件包围。
图3示出了根据本发明各种实施例的在存在一个或多个活动物体的情况下对UAV移动的控制。如图3所示,UAV 301可以检测存在于UAV操作环境300中的一个或多个活动物体311、312和313。例如,活动物体311、312或313中的每一个可以是人、动物、宠物或活着的任何其他形式的物体。此外,活动物体311、312或313可以是可以表现得像活着的物体的任何物体(例如机器人),但不限于此。
根据本发明的各种实施例,活动物体311、312或313的检测可以基于环境变化的检测。例如,UAV 301可以使用UAV 301上和/或UAV 301外的一个或多个传感器来检测活动物体311、312或313。
根据各种实施例,UAV上或UAV外的传感器可以收集各种类型的环境信息。单个传感器可以能够收集环境中的一组信息,或者一组传感器可以一起工作以收集环境中的一组信息。除了位置映射、位置之间的导航和障碍物的检测之外,传感器还可以用于检测活动物体。传感器还可以用于监视环境或感兴趣的对象。传感器可以用于识别活动物体。可以将活动物体与环境中的其他物体区分开。传感器可以用于识别由活动物体佩戴或携带的物体。可以将佩戴或携带的物体与环境中的其他物体区分开。此外,UAV上或UAV外的传感器可以收集诸如活动物体的位置、UAV的位置和UAV的朝向之类的信息。
传感器的各种示例可以包括但不限于位置传感器(例如,全球定位***(GPS)传感器、实现位置三角测量的移动装置发射机)、视觉传感器(例如,能够检测可见光、红外光或紫外光的成像装置,例如相机)、近距离传感器或范围传感器(例如,超声波传感器、激光雷达(LADAR)、飞行时间相机或深度相机)、惯性传感器(例如加速度计、陀螺仪、惯性测量单元(IMU))、高度传感器、姿态传感器(例如,罗盘)、压力传感器(例如,气压计)、音频传感器(例如,麦克风)或场传感器(例如磁力计、电磁传感器)。可以使用任何合适数量的传感器和的传感器的组合,例如一个、两个、三个、四个、五个或更多个传感器。
可选地,可以从不同类型的传感器(例如,两种、三种、四种、五种或更多种类型)接收数据。不同类型的传感器可以测量不同类型的信号或信息(例如,位置、朝向、速度、加速度、接近度、压力等)和/或利用不同类型的测量技术来获得数据。例如,传感器可以包括有源传感器(例如,从其自己的能量源产生和测量能量的传感器)和无源传感器(例如,检测可用能量的传感器)的任何合适的组合。作为另一示例,一些传感器可以产生根据全局坐标系提供的绝对测量数据(例如,由GPS传感器提供的位置数据、由罗盘或磁力计提供的姿态数据),而其他传感器可以产生根据局部坐标系提供的相对测量数据(例如,由陀螺仪提供的相对角速度;由加速度计提供的相对平移加速度;由视觉传感器提供的相对姿态信息;由超声波传感器、激光雷达(LADAR)或飞行时间相机提供的相对距离信息)。
在一些实施例中,UAV 301可以具有UAV 301上的传感器,其直接从环境收集信息。例如,当UAV上的视觉传感器或音频传感器捕获指示活动物体311、312或313的存在的图像或声音时,UAV 301可以检测到活动物体311、312或313的存在。在一些实施例中,这种检测可以基于将检测到的物体的一个或多个观察到的特征与一个或多个活动物体识别标志特征(例如,体温和某些移动特征)进行匹配。
在一个示例中,UAV 301可以包括视觉传感器,例如,相机。视觉传感器可以封装在UAV的主体中,或者由UAV作为外部负载携带。例如,当视觉传感器作为负载在外部携带时,视觉传感器可以定向在UAV的主体下方。此外,视觉传感器可以通过载体附着于UAV。载体可以被配置为使得视觉传感器可以相对于UAV旋转和/或倾斜。此外,载体允许视觉传感器以三维方式平移和/或旋转。例如,载体可以允许视觉传感器仅围绕一个或两个轴旋转。
在另一示例中,UAV 301可以包括音频传感器。音频传感器可以封装在UAV 301的主体中,或者由UAV 301作为外部负载携带。音频传感器可以布置在UAV 301的主体的不同部分上,或者围绕UAV 301朝向不同方向来定向。此外,音频传感器可以利用噪声滤波器,其可以滤除诸如电机噪声、螺旋桨噪声或风噪声的背景噪声。此外,UAV上的音频传感器可以接收由安装在周围环境中的音频接收器收集的音频信号。
在又一示例中,UAV 301可以包括热传感器。热传感器可以位于UAV 301的主体中,或者由UAV 301作为外部负载携带。热传感器可以检测UAV 301周围环境中的温度变化,例如,基于红外光检测。然后,基于温度读数和/或相关移动特性评估(例如,步态识别),UAV可以知道周围邻域中的活动物体(例如,用户)的存在。
在一些实施例中,UAV 301可以依赖于UAV外的一个或多个传感器来收集指示环境变化的数据。可以在UAV操作的环境中安装各种传感器。UAV可以直接或间接地接收由UAV外的传感器收集的信息,以检测在UAV 301的附近区域内(例如,在距离UAV 301的预定距离阈值内)的操作环境中是否存在活动物体。
根据本发明的各种实施例,一旦从活动物体311接收到信号,UAV 301就可以检测到活动物体311。例如,活动物体311可以是用户。用户可以位于诸如房屋、院子、房间、建筑物、载运工具或另一空间或区域的位置处。用户可以经由电子装置与UAV 301上的一个或多个处理器进行通信。电子装置可以是或者可以不是移动装置。电子装置可以是或者可以不是能够手动控制UAV的飞行的远程终端。电子装置可以通过有线或无线连接直接与UAV进行通信。电子装置还可以通过有线或无线连接与处理器进行通信,该处理器还可以通过有线或无线连接与UAV进行通信。备选地,该处理器可以在电子装置上和/或在UAV 301上。例如,UAV可以具有一个或多个机载处理器。该一个或多个机载处理器可以与外部处理器和/或具有用户界面的电子装置进行通信。在一个示例中,该通信可以基于用户界面,所述用户界面可以位于电子显示器上,该电子显示器例如是台式电脑、膝上型电脑、智能电话、智能手表、智能眼镜、平板电脑或被配置为与该一个或多个处理器进行通信的另一装置。机载处理器可以执行本文描述的处理器的任何功能。备选地,UAV 301可以直接与电子装置进行通信以与中间装置或处理器进行通信。
根据各种实施例,UAV 301可以通过检测从活动物体发出的信号来检测活动物体的存在。例如,活动物体可以携带或嵌入有可以被自动识别或跟踪的电子装置或标签。例如,这种电子装置或标签可以基于射频识别(RFID)、蓝牙或任何近场通信(NFC)技术。标签可以从UAV 301上的询问RFID读取器被动地收集能量,或者使用本地电力主动地向周围环境发射信号。
根据各种实施例,活动物体104可以可选地具有可穿戴标识符。例如,活体物体可以佩戴戒指、项链、腕带或衣领。UAV视觉传感器可以检测可穿戴标识符上的视觉图案,以便定位目标活动物体。备选地,可穿戴标识符可以嵌入有可以由UAV上的传感器电子地识别的电子装置或标签。
在一些实施例中,可以通过对不同的传感器进行协作来实现对活动物体311、312或313的检测,所述不同的传感器包括UAV上的传感器和UAV 301外的传感器。例如,一个或多个运动检测器可以安装在UAV操作环境300中的地面上。一旦运动检测器检测到活动物体,就可以向UAV 301发送这样的信息,UAV 301相应地可以确认活动物体的存在以及活动物体相对于UAV的朝向和距离。此外,UAV 301可以通过测量活动物体的速度和/或获得活动物体的尺寸(例如,活动物体的高度)来细化活动物体的检测。例如,进入房屋的小偷可以触发运动检测器,其可以通知UAV。然后,UAV可以启动跟踪模式并且基于由UAV上的传感器测量的小偷的移动来跟踪小偷。
根据各种实施例,UAV操作环境300中的UAV 301可以检测存在于UAV 301周围区域内的活动物体。此外,UAV 301的周围区域(例如,UAV 301的周围区域)可以被配置为多个区域。例如,UAV 301的周围区域可以被配置为诸如正常区域、安全区域和交互区域之类的各种操作区域。
如图3所示,UAV 301的周围区域可以被配置为多个区域310-330,如地理半径所定义的。例如,活动物体311位于正常区域330(例如,在UAV 301附近区域的外部),而活动物体312位于安全区域320并且活动物体313位于交互区域310(例如,在UAV 301的附近区域内)。
在一些实施例中,地理半径可以定义以UAV 301的当前位置为中心的半径区域。备选地,地理半径可以定义以活动物体(例如,用户)的位置为中心的半径区域。在一些实施例中,可以使用各种几何形状(诸如多边形、椭圆形和其他几何形状)来定义周围区域。用户可以使用全局坐标或局部坐标来定义地理区域。在一些情况下,地理区域可以被定义为用户例如使用全局坐标定义的边界内的区域。
根据各种实施例,用户可以经由与UAV 301上或UAV 301外的处理器进行通信的用户界面来定义UAV 301的周围区域。一个或多个处理器可以与一个或多个存储器存储单元进行通信。存储器存储单元可以存储过去的用户定义区域。存储器存储器件单元可以存储地理数据(例如,可以可选地更新的地图)。每当UAV检测到活动物体时,用户可以可选地定义周围区域。例如,周围区域可以被定义为:活动物体可以在其中安全地行进而不干扰UAV的区域、活动物体在跨过其时可能干扰UAV的边界、和/或活动物体在其中时可能干扰UAV的区域。
在各种实施例中,用户可以提供视觉地图。可以在电子装置上的用户界面中生成视觉地图。用户界面可以提供选定空间或局部空间的地图,在该空间中活动物体可以与UAV交互。用户可以在由用户界面提供的地图上标记允许或不允许UAV和/或活动物体行进的区域。在一些情况下,用户可以使用用户界面上提供的触摸屏来标记地图上的区域。用户的手指或指针(例如,鼠标指针、轨迹球指针等)可以用于勾画边界的轮廓。用户可以在用户界面上绘制圆圈以定义区域。备选地,用户可以点击或触摸点以定义区域的坐标。
根据各种实施例,UAV 301上的一个或多个处理器可以监视活动物体,并同时接收UAV上或UAV外的一个或多个位置信号。例如,UAV可以例如使用诸如无人飞行器(UAV)之类的可移动物体(例如在计算能力和电力资源方面具有有限的资源)长时间自动跟踪和检测目标活动物体。此外,一旦目标活动物体丢失,***可以提供重新定位能力。
根据各种实施例,在检测到活动物体之后,UAV 301可以改变操作模式。这种确定可以基于距离、速度或其他因素。例如,当UAV 301在正常区域中操作时,UAV 301可以处于正常操作模式。备选地,当UAV在安全区域中操作时,UAV 301可以处于安全操作模式,并且当UAV处于交互区域时,UAV 301可以处于交互操作模式。在一些实施例中,在检测到活动物体之后,UAV 301可以改变操作模式。这种确定可以基于距离、速度和/或其他因素。此外,操作模式的确定可以基于环境类型。在一些实施例中,区域的配置可以通过诸如UAV是在室内环境还是室外环境中之类的因素来实现。例如,当UAV在室外环境中操作时,可以使用更大的半径或以规则的形状来定义操作区域。另一方面,当UAV在室内环境中操作时,可以使用较小的半径或以不规则的形状来定义操作区域。
图4示出了根据本发明各种实施例的用于说明各种UAV操作模式之间的转换的示例性图。如图4所示,UAV 400可以被配置为在各种操作模式401-404中操作。
例如,当没有检测到活动物体或者位于正常区域中时,UAV 400可以在正常模式401中操作。另一方面,当UAV 400检测到UAV 400的附近区域内(例如,安全区域)的活动物体时,UAV 400可以转换到安全模式402。在这种情况下,UAV 400可以应用各种安全方案,以便安全、可靠和方便地操作UAV 400。例如,这种安全方案可以包括限制UAV 400的移动速度以防止与活动物体碰撞,或者包括将UAV 400控制为悬停状态。
此外,在UAV 400确定用户表示出与UAV进行交互的意图(例如,通过靠近UAV 301或挥手)之后,UAV 400可以转换到交互就绪模式403。在一些实施例中,当UAV 301处于交互就绪模式时,UAV 301可以使其自身准备好进行交互。
根据各种实施例,UAV可以采用不同的机制来支持与诸如用户之类的活动物体的交互。例如,UAV可以保持稳定(即,保持悬停)以进行用户交互。因此,用户可以按下UAV主体上的按钮。此外,UAV可以升高旋翼以允许用户容易地接近。
如图4所示,一旦用户开始(或即将)与UAV 400交互,UAV 400就可以进入交互模式404(例如,从交互就绪模式403进入)。根据各种实施例,UAV可以采用不同的控制方案或重新配置控制方案以支持活动物体和UAV 400之间的交互。备选地,UAV可以直接从安全模式402转换到交互模式404。
一旦用户完成与用户的交互,或者如果用户决定不与UAV进行交互(例如,通过远离UAV),则UAV可以在返回到正常模式401之前返回到安全模式402。备选地,UAV可以从交互模式404转换到交互就绪模式403,使得UAV可以针对活动物体的交互保持准备就绪(或准备好)的状态。例如,如果用户与UAV重新建立关系,则UAV可以从交互就绪模式403转换到交互模式404。
此外,当活动物体决定不与UAV进行交互或者无法与UAV进行交互时(例如,当活体物体离UAV很远的时候),UAV可以从安全模式402转换到正常模式401。
图5示出了根据本发明各种实施例的示例性UAV操作机制。如图5所示,UAV 500可以被配置为在UAV操作模式510中操作。UAV操作模式501可以确定UAV 500如何在特定环境下(例如,在检测到活动物体501之后)操作。例如,UAV 500可以被配置为当UAV 500在安全模式中操作时采取某些安全措施。备选地,UAV可以处于交互就绪模式中,以准备进入交互模式。在一些实施例中,当在可移动物体的附近区域内检测到活动物体时,***可以应用第一部件操作模式(例如,安全模式),并且当在可移动物体的附近区域内没有检测到活动物体时,***可以应用第二部件操作模式(例如,正常模式),并且,其中,第一部件操作模式和第二部件操作模式不同。
根据各种实施例,当UAV 500在UAV操作模式510中操作时,UAV 500可以被配置为在UAV部件操作模式502中操作。UAV部件操作模式502可以针对与不同的UAV操作模式501相对应的UAV 500上的各种部件(例如,传感器、旋翼和电机)而不同地配置。此外,可以预选择或预定义可以采用UAV部件操作模式的一组UAV部件。例如,当UAV在交互模式中操作时,诸如视觉传感器和超声波雷达之类的一组部件可以被配置为在交互模式中操作,而气压计和惯性测量单元保持在正常模式中操作。在一些实施例中,当UAV 500的操作转换为交互模式时,UAV部件的操作可以相应地调整,以支持交互模式。例如,由于传感器的操作可能受到活动物体的干扰,诸如UAV上的传感器之类的UAV部件的操作可以采用UAV部件操作模式。
根据各种实施例,当UAV的操作在不同操作模式之间转换时,UAV可以利用采用不同控制逻辑的不同的UAV部件操作模式502。在一些实施例中,当UAV在交互模式或交互就绪模式中操作时,视觉传感器或超声波传感器的测量可能受到干扰。例如,当用户在交互模式下从下面握住或触摸UAV时,当传感器被用户的手阻挡时,安装在UAV底部的传感器的测量可能被损坏并且不可信。UAV可以采用可以排除或修改由受干扰的传感器产生的测量(例如,数据跳跃)的逻辑。例如,***可以选择信任并使用由不受干扰的传感器产生的测量,不受干扰的传感器例如是安装在UAV顶部的传感器或不同类型的传感器,例如气压计或惯性测量单元(IMU)。
根据各种实施例,当UAV 500在UAV操作模式501中操作时,UAV 500可以被配置为在UAV负载操作模式512中操作。例如,当在可移动物体的附近区域内检测到活动物体时,***可以应用第一负载操作模式(例如,安全模式),并且当在可移动物体的附近区域内没有检测到活动物体时,***可以应用第二负载操作模式(例如,正常模式),并且其中第一负载操作模式和第二负载操作模式不同。
在一些实施例中,可以针对不同的UAV操作模式501而不同地配置UAV负载操作模式512。在一些实施例中,附着到UAV 500的负载(例如,相机)可以与UAV 500的操作模式相对应地进行操作(例如,通过采用对应的UAV负载操作模式)。例如,当UAV 500在正常模式中操作时,针对承载负载(例如,相机)的载体的控制逻辑可以使相机稳定以面向特定方向。另一方面,当UAV 500进入交互模式时,针对载体的控制逻辑可以允许用户自由旋转相机以指向期望的随机方向。
图6示出了根据本发明各种实施例的对活动物体和UAV之间的交互的支持。如图6所示,UAV 601可以将操作模式602与控制方案603相关联。例如,控制方案603可以基于各种控制方法,例如比例–积分–微分(PID)控制方案。
根据各种实施例,UAV 601可以被配置为针对不同的操作模式表现不同。例如,可以采用不同的控制方案603来在不同的操作模式602中配置UAV。备选地,控制方案603可以用于处理不同的操作模式。
如图6所示,当在UAV 601的附近区域610外检测到活动物体611时,UAV 601可以在正常操作模式中操作。在这种情况下,UAV 601可以采用正常控制方案来控制UAV 601的各种运动特性(例如,UAV 601的位置、速度、朝向和倾斜)。相应地,预定或选定的一组UAV部件和负载可以在正常操作模式中操作。另一方面,当活动物体612移动到UAV 601的附近区域610内时,UAV 601可以在安全模式或交互就绪模式中操作。在这种情况下,UAV 601可以采用可以以不同方式控制UAV的移动特性的控制方案。例如,UAV 601可以应用速度限制或进入悬停状态。此外,当活动物体613在交互模式中操作时,诸如UAV 601上的传感器和由UAV承载的负载之类的部件可以在对应的交互模式中操作。
根据各种实施例,UAV 601可以被配置为采用与不同的操作模式相对应的不同的控制方案。例如,在第一操作模式下,***可以允许用户相对于两个轴旋转UAV 601。另一方面,在第二操作模式下,***可以允许用户相对于所有三个轴旋转UAV 601。此外,UAV 601可以被配置为采用与不同的活动物体相对应的不同的控制方案。例如,通过利用各种步态识别技术,UAV 601可以知道不同类型的活动物体(例如,区分用户和宠物)。此外,***可以基于不同的用户简档来为不同的用户分配不同的角色和/或关联不同的特权。例如,成人用户可以完全控制UAV 601,而小孩用户可以仅具有该能力的子集。此外,UAV 601可以被配置为基于各种附加因素而采用不同的控制方案,各种附加因素例如是环境类型(例如,室内/拥挤空间对比室外/空旷空间)和UAV或其部件的状态(例如,高度、速度、朝向、电池寿命、传感器状态)。此外,各种控制方案与不同的操作模式的对应关系可以是基于规则的,可以实时进行配置。
图7示出了根据本发明各种实施例的用于控制UAV的示例性控制方案。如图7所示,UAV 701可以采用包括位置控制部件703、速度控制部件704、倾斜控制部件705和朝向控制部件706在内的控制方案700。
根据各种实施例,UAV 701上的感测***可以测量UAV 701的状态。此外,***可以基于各种数据融合技术702来获得估计的飞行状态。感测***可以获得测量得到的UAV位置、速度、朝向、倾斜和角速度。例如,GPS传感器可以获得UAV 701的估计位置,可能包括陀螺仪、加速度计和磁力计的IMU可以获得UAV 701的估计加速度和角速度,以及UAV 701的估计朝向。
根据各种实施例,可以调整控制方案700以在不同环境中控制UAV 701。例如,为了使UAV 701保持悬停在固定位置或沿着期望路径行进,位置控制部件703可以产生期望速度722以抵消UAV 701远离其期望位置721的任何漂移移动。此外,速度控制部件704可以产生期望倾斜723以实现期望速度722。然后,倾斜控制部件705可以基于估计倾斜714和估计角速度715来产生用于实现期望倾斜723的电机控制信号。这种电机控制信号可以用于控制与UAV 701相关联的各种移动机构731-733。
如图7所示,基于期望位置721和估计位置711的差,位置控制部件703可以获得期望速度722。此外,基于期望速度722和估计速度712之间的差,速度控制部件704可以获得期望倾斜723。此外,基于估计角速度715并且基于期望倾斜723和估计倾斜714之间的差,倾斜控制部件705可以计算电机控制信号。
此外,UAV 701可以保持固定朝向或期望朝向,朝向控制部件可以产生电机控制信号,用于产生可以抵消UAV朝向的任何漂移的力。同样如图7所示,基于期望朝向724和估计朝向713之间的差,朝向控制部件706可以产生电机控制信号。因此,组合或集成的电机控制信号可以用于控制与UAV 701相关联的各种移动机构731-733,其移动特性可被测量并且可被用于产生用于实时控制UAV 701的其他控制信号。
根据各种实施例,控制方案700可以被配置为针对不同的操作模式。例如,***可以限制朝向控制部件706中的控制增益,使得当用户从侧方向(例如,偏航方向)向UAV施加力时,UAV 701可以根据用户的需要转动。另一方面,如果控制方案未被修改,则UAV 701可以产生用于将UAV 701保持在当前朝向的阻力。
根据各种实施例,***可以以类似的方式限制位置控制部件703中的控制增益,使得当用户从侧方向向UAV 701施加力时,UAV 701可以移动到用户期望的不同位置。另一方面,如果控制方案未被修改,则UAV 701可以产生可以尝试维持当前位置的阻力。
图8示出了根据本发明各种实施例的用于支持交互模式的示例性控制方案。如图8所示,UAV 801可以采用包括倾斜控制部件804在内的控制方案800,同时限制针对其他控制部件(未示出)的控制增益。
根据各种实施例,基于UAV的不同测量状态,UAV 801可以获得估计倾斜812。例如,UAV 801上的惯性测量模块802可以测量UAV的状态,例如由陀螺仪测量的角速度和由加速度计测量的倾斜。可以基于能够执行不同类型的测量的数据融合的滤波器803进行估计。然后,基于期望倾斜811和估计倾斜812之间的差,倾斜控制部件804可以确定针对UAV 801的电机821-823的预期控制信号。
根据各种实施例,安全控制机构810可以应用在控制方案中,使得UAV 801可以以安全、可靠和方便的方式操作。在一些实施例中,一旦检测到异常情况,UAV就可以引导电机停止移动。例如,一旦UAV检测到电机中的电流突然上升,安全控制机构810就可以引导电机停止运行,电机中的电流突然上升可以指示潜在的电机失速(电机停止旋转的情况)。当负荷力矩大于电机轴力矩时(例如,在碰撞情况下),发生失速情况。在失速情况中,电机消耗最大电流但电机并不旋转。
图9示出了根据本发明各种实施例的在交互模式中对UAV进行的控制。在交互模式中,可以采用控制方案900来将UAV保持在水平面中,同时允许用户将UAV自由旋转到期望的朝向或者将UAV自由地移动到期望的位置。
如图9A所示,可以沿偏航方向施加力F,以便在水平面(例如,x-y平面)中调整UAV的朝向901。在释放力F之后,作为由用户施加力F的结果,UAV可以保持在朝向911。因此,用户可以例如为了拍照或监视宠物的目的而自由地将UAV旋转到期望的朝向。
另一方面,如图9B所示,用户可以沿垂直方向(例如,在x-z平面中)施加力F’以将UAV保持在倾斜位置912。一旦释放力F’,由于控制方案中的倾斜控制部件可以产生反作用力以将UAV返回水平位置,UAV可以返回到原始水平姿态902。因此,控制方案900可以防止UAV在水平方向上漂移(由于在倾斜位置时,UAV可以水平移动)。结果,UAV可以保持在严格控制的空间中,并且可以避免与诸如活动物体之类的周围物体碰撞。
根据各种实施例,当在UAV上施加随机力时,控制方案900可以被配置为仅响应所施加的力的分量(或部分)。例如,使用如图8所示的控制方案,只有所施加的力的偏航分量可以生效,同时可以产生反作用力以将UAV保持在水平姿态。换句话说,UAV可以被配置为允许用户沿着偏航方向自由旋转UAV,并且一旦释放力就返回到水平姿态。因此,可以防止UAV在水平方向上漂移,由于活动物体的存在,水平方向上的漂移是不利的并且可能是危险的(例如,为了避免撞击用户)。
在一些实施例中,控制方案900可以以各种不同的方式配置。例如,UAV可以被配置为保持偏航和俯仰姿态,同时允许用户围绕横滚轴旋转UAV。此外,UAV可以被配置为保持偏航和横滚姿态,同时允许用户沿俯仰方向旋转UAV。备选地,UAV可以被配置为仅保持偏航、横滚和俯仰姿态中的一个,同时允许用户围绕其他两个轴旋转UAV。
根据各种实施例,类似的控制方案可以应用于UAV上的负载或部件。例如,用户可以首先将UAV移动到具有特定朝向的特定位置。然后,用户可以调整由UAV承载的相机以指向特定方向,以便拍摄照片(通过限制针对载体(例如,云台)的各种控制部件的控制增益)。
图10示出了根据本发明各种实施例的在可移动物体环境中存在活动物体时对可移动物体的控制的流程图。如图10所示,在步骤1001,***可以检测可移动物体的附近区域内的活动物体。然后,在步骤1002,***可以利用可移动物体的附近区域内的活动物体,确定操作可移动物体的操作模式。此外,在步骤1003,***可以应用与操作模式相关联的控制方案来控制可移动物体的操作。
本发明的许多特征可以以硬件、软件、固件或其组合的形式执行,或者使用硬件、软件、固件或其组合执行,或者借助于硬件、软件、固件或其组合执行。因此,本发明的特征可以使用处理***(例如,包括一个或多个处理器)来实现。示例性处理器可以包括但不限于一个或多个通用微处理器(例如,单核或多核处理器)、专用集成电路、专用指令集处理器、图形处理单元、物理处理单元、数字信号处理单元、协处理器、网络处理单元、音频处理单元、加密处理单元等。
本发明的特征可以使用或借助于计算机程序产品来实现,计算机程序产品是具有存储在其上/内的指令的存储介质(媒介)或计算机可读介质(媒介),这些指令可用于对处理***进行编程以执行本文陈述的任何特征。存储介质可以包括(但不限于)任何类型的盘,包括软盘、光盘、DVD、CD-ROM、微型驱动器和磁光盘、ROM、RAM、EPROM、EEPROM、DRAM、VRAM、闪存装置、磁卡或光卡、纳米***(包括分子存储器IC)或者适于存储指令和/或数据的任何类型的介质或装置。
存储在任何机器可读介质(媒介)上的本发明的特征可以并入软件和/或固件中,用来对处理***的硬件进行控制,并且用来使处理***能够利用本发明的结果与其他机构进行交互。这样的软件或固件可以包括但不限于应用代码、装置驱动程序、操作***和执行环境/容器。
本发明的特征也可以以硬件实现,例如,以硬件部件实现,硬件部件例如专用集成电路(ASIC)和现场可编程门阵列(FPGA)器件。实现硬件状态机以便执行本文描述的功能,这对本领域的技术人员将是显而易见的。
此外,可以使用包括一个或多个处理器、存储器和/或根据本公开的教导编程的计算机可读存储介质在内的一个或多个常规通用或专用数字计算机、计算装置、机器或微处理器,来方便地实现本发明。编程技术人员可以根据本公开的教导容易地准备适当的软件编码,这对软件领域的技术人员将是显而易见的。
尽管上面已经描述了本发明的各种实施例,但是应当理解,它们仅仅是作为示例而不是限制来呈现的。本领域普通技术人员应该清楚的是在不脱离本发明的精神和范围的情况下可以进行形式和细节上的各种变化。
以上已经在功能构建块的辅助下描述了本发明,这些功能构建块示出了指定功能及其关系的执行。为便于描述,本文通常任意定义这些功能构建块的边界。只要所指定的功能及其关系被适当地执行,就可以定义替代的边界。因此,任何这样的替代的边界都在本发明的范围和精神内。
已经提供了本发明的上述描述,用于说明和描述的目的。不是旨在是穷尽性的或将公开的精确形式作为对本发明的限制。本发明的宽度和范围不应当受到上述示例性实施例中任意一个的限制。许多修改和变化对于本领域普通技术人员将是明显的。修改和变化包括公开特征的任何相关组合。对实施例的选择和描述是为了最好地解释本发明的原理及其实际应用,从而使得本领域的其他技术人员能够理解本发明以及具有适合于预期特定用途的各种修改的各种实施例。旨在由以下权利要求及其等同物来定义本发明的范围。
Claims (10)
1.一种用于控制可移动物体的方法,包括:
检测所述可移动物体的周围区域内的活动物体;其中,所述可移动物体的周围区域被配置为多个操作区域;
利用在所述可移动物体的周围区域内检测到的所述活动物体,确定操作所述可移动物体的操作模式,以在所述活动物***于不同的操作区域时,应用不同的操作模式操作所述可移动物体;以及
应用与所述操作模式相关联的控制方案来控制所述可移动物体的操作。
2.根据权利要求1所述的方法,其中,所述可移动物体的周围区域被配置为正常区域、安全区域、交互区域中的至少一种。
3.根据权利要求1所述的方法,其中,从正常模式、安全模式、交互就绪模式和交互模式中选择所述操作模式。
4.根据权利要求3所述的方法,其中,
当检测到的所述活动物***于正常区域时,应用正常模式操作所述可移动物体;
当检测到的所述活动物***于安全区域时,应用安全模式操作所述可移动物体;
当检测到的所述活动物***于交互区域时,应用交互模式操作所述可移动物体。
5.根据权利要求1所述的方法,其中,所述控制方案使用一个或多个控制部件来控制一组移动特性。
6.根据权利要求5所述的方法,还包括:
当所述活动物体与所述可移动物体交互时,在所述控制方案中限制至少一个控制部件的控制增益。
7.根据权利要求1所述的方法,还包括:
当在所述可移动物体的安全区域内检测到所述活动物体时,控制所述可移动物体保持悬停状态。
8.根据权利要求1所述的方法,还包括:
当所述可移动物体在所述交互模式中操作时,允许所述可移动物体具有偏航移动。
9.一种用于控制可移动物体的***,包括:
一个或多个微处理器;
运行在所述一个或多个微处理器上的控制器,其中,所述控制器操作包括:
检测所述可移动物体的周围区域内的活动物体;其中,所述可移动物体的周围区域被配置为多个操作区域;
利用在所述可移动物体的周围区域内检测到的所述活动物体,确定操作所述可移动物体的操作模式,以在所述活动物***于不同的操作区域时,应用不同的操作模式操作所述可移动物体;以及
应用与所述操作模式相关联的控制方案来控制所述可移动物体的操作。
10.一种无人飞行器(UAV),包括:
一个或多个感测装置,用于从所述UAV的周围区域收集信息;
运行在一个或多个微处理器上的控制器,其中,所述控制器操作以:
检测所述可移动物体的周围区域内的活动物体;其中,所述可移动物体的周围区域被配置为多个操作区域;
利用在所述可移动物体的周围区域内检测到的所述活动物体,确定操作所述可移动物体的操作模式,以在所述活动物***于不同的操作区域时,应用不同的操作模式操作所述可移动物体;以及
应用与所述操作模式相关联的控制方案来控制所述可移动物体的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111129918.2A CN114019990A (zh) | 2016-02-24 | 2016-09-27 | 用于控制可移动物体的***和方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016033031 | 2016-02-24 | ||
CN202111129918.2A CN114019990A (zh) | 2016-02-24 | 2016-09-27 | 用于控制可移动物体的***和方法 |
CN201680082114.2A CN108700877B (zh) | 2016-09-27 | 2016-09-27 | 用于在存在活动物体时控制无人载运工具的***和方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680082114.2A Division CN108700877B (zh) | 2016-02-24 | 2016-09-27 | 用于在存在活动物体时控制无人载运工具的***和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114019990A true CN114019990A (zh) | 2022-02-08 |
Family
ID=59684942
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111129918.2A Pending CN114019990A (zh) | 2016-02-24 | 2016-09-27 | 用于控制可移动物体的***和方法 |
CN201680082111.9A Active CN108697304B (zh) | 2016-02-24 | 2016-11-28 | 医疗用信息处理装置、信息处理方法、医疗用信息处理*** |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680082111.9A Active CN108697304B (zh) | 2016-02-24 | 2016-11-28 | 医疗用信息处理装置、信息处理方法、医疗用信息处理*** |
Country Status (5)
Country | Link |
---|---|
US (1) | US11033338B2 (zh) |
EP (1) | EP3420878B1 (zh) |
JP (1) | JP7067467B2 (zh) |
CN (2) | CN114019990A (zh) |
WO (1) | WO2017145475A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7081584B2 (ja) | 2017-02-28 | 2022-06-07 | ソニーグループ株式会社 | 医療用観察システム、制御装置及び制御方法 |
US11256963B2 (en) * | 2017-05-31 | 2022-02-22 | Eizo Corporation | Surgical instrument detection system and computer program |
WO2019049503A1 (ja) * | 2017-09-07 | 2019-03-14 | 富士フイルム株式会社 | 診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法 |
WO2019116593A1 (ja) * | 2017-12-14 | 2019-06-20 | オリンパス株式会社 | 手術支援装置 |
CN110131532A (zh) * | 2018-02-08 | 2019-08-16 | 泰科电子(上海)有限公司 | 成像设备 |
JP2020072457A (ja) * | 2018-11-02 | 2020-05-07 | ソニー株式会社 | 映像処理装置、映像処理方法、およびプログラム |
GB2580625B (en) * | 2019-01-17 | 2023-04-19 | Mo Sys Engineering Ltd | Camera control |
US11026561B2 (en) * | 2019-03-21 | 2021-06-08 | Verb Surgical Inc. | Method and system for automatically repositioning a viewable area within an endoscope video view |
CN113543741A (zh) * | 2019-03-22 | 2021-10-22 | 索尼奥林巴斯医疗解决方案公司 | 控制装置和医学观察*** |
JP2020156800A (ja) * | 2019-03-27 | 2020-10-01 | ソニー株式会社 | 医療用アームシステム、制御装置、及び制御方法 |
EP3739372A1 (en) * | 2019-05-15 | 2020-11-18 | Leica Microsystems CMS GmbH | Controller and method for providing an operational setting of an imaging device |
JP7480477B2 (ja) * | 2019-07-10 | 2024-05-10 | ソニーグループ株式会社 | 医療用観察システム、制御装置及び制御方法 |
JP2022020592A (ja) | 2020-07-20 | 2022-02-01 | ソニーグループ株式会社 | 医療用アーム制御システム、医療用アーム制御方法、及びプログラム |
WO2022254836A1 (ja) * | 2021-06-03 | 2022-12-08 | ソニーグループ株式会社 | 情報処理装置、情報処理システム及び情報処理方法 |
DE102022116672A1 (de) | 2022-07-04 | 2024-01-04 | Karl Storz Se & Co. Kg | Bildgebende Vorrichtung mit erweiterter Zoomfunktionalität und Fokusnachführung |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100206995A1 (en) * | 2009-02-19 | 2010-08-19 | Yoshinobu Inada | Method for three-dimensional group control of moving objects |
CN102246125A (zh) * | 2008-10-15 | 2011-11-16 | 因文森斯公司 | 具有运动姿态识别的移动设备 |
CN104007892A (zh) * | 2013-02-22 | 2014-08-27 | 三星电子株式会社 | 用于控制多个对象的显示的方法及其移动终端 |
US20150081338A1 (en) * | 2012-05-22 | 2015-03-19 | Intouch Technologies, Inc. | Clinical workflows utilizing autonomous and semiautonomous telemedicine devices |
US20160068267A1 (en) * | 2014-09-05 | 2016-03-10 | SZ DJI Technology Co., Ltd | Context-based flight mode selection |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08164148A (ja) | 1994-12-13 | 1996-06-25 | Olympus Optical Co Ltd | 内視鏡下手術装置 |
JP3668269B2 (ja) * | 1995-01-10 | 2005-07-06 | オリンパス株式会社 | 体腔内手術用マニピュレータ装置 |
JP3744974B2 (ja) * | 1995-07-20 | 2006-02-15 | オリンパス株式会社 | 内視鏡下外科手術装置 |
JPH10118076A (ja) * | 1996-10-24 | 1998-05-12 | Olympus Optical Co Ltd | 内視鏡下外科手術装置 |
JP2001197347A (ja) | 2000-01-05 | 2001-07-19 | Fuji Photo Film Co Ltd | 情報記録装置、情報取得方法、およびデジタルカメラ |
JP2002159444A (ja) | 2000-11-28 | 2002-06-04 | Olympus Optical Co Ltd | 撮像画像表示システム |
JP2002172083A (ja) * | 2000-12-06 | 2002-06-18 | Olympus Optical Co Ltd | 内視鏡装置 |
JP2005046233A (ja) | 2003-07-31 | 2005-02-24 | Fujinon Corp | 電子内視鏡装置 |
JP4027876B2 (ja) * | 2003-10-20 | 2007-12-26 | オリンパス株式会社 | 体腔内観察システム |
US10588486B2 (en) * | 2013-09-19 | 2020-03-17 | Physio-Control, Inc | Multi-function video system with interchangeable medical tool |
JP5131951B2 (ja) * | 2006-02-21 | 2013-01-30 | 富士フイルム株式会社 | 体腔内観察装置 |
JP2008252348A (ja) * | 2007-03-29 | 2008-10-16 | Fujifilm Corp | デジタルカメラ及びデジタルカメラの制御方法 |
US8808164B2 (en) * | 2008-03-28 | 2014-08-19 | Intuitive Surgical Operations, Inc. | Controlling a robotic surgical tool with a display monitor |
US8418073B2 (en) * | 2009-03-09 | 2013-04-09 | Intuitive Surgical Operations, Inc. | User interfaces for electrosurgical tools in robotic surgical systems |
KR101057702B1 (ko) * | 2009-04-09 | 2011-08-18 | 의료법인 우리들의료재단 | 수술용 로봇의 제어 방법 및 그 시스템 |
JP6006199B2 (ja) * | 2011-03-31 | 2016-10-12 | オリンパス株式会社 | 蛍光観察装置 |
WO2014093824A1 (en) * | 2012-12-14 | 2014-06-19 | The Trustees Of Columbia University In The City Of New York | Markerless tracking of robotic surgical tools |
EP3031386B1 (en) * | 2013-09-10 | 2021-12-29 | Sony Group Corporation | Image processing device and program |
JP6150130B2 (ja) * | 2014-01-30 | 2017-06-21 | ソニー株式会社 | 内視鏡システム、内視鏡画像処理装置、画像処理方法、およびプログラム |
KR101740286B1 (ko) | 2015-12-17 | 2017-05-29 | (주)미래컴퍼니 | 수술 로봇 시스템 및 적응 제어 방법 |
US10917543B2 (en) * | 2017-04-24 | 2021-02-09 | Alcon Inc. | Stereoscopic visualization camera and integrated robotics platform |
-
2016
- 2016-09-27 CN CN202111129918.2A patent/CN114019990A/zh active Pending
- 2016-11-28 WO PCT/JP2016/085189 patent/WO2017145475A1/ja unknown
- 2016-11-28 CN CN201680082111.9A patent/CN108697304B/zh active Active
- 2016-11-28 US US16/070,317 patent/US11033338B2/en active Active
- 2016-11-28 EP EP16891631.0A patent/EP3420878B1/en active Active
- 2016-11-28 JP JP2018500997A patent/JP7067467B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102246125A (zh) * | 2008-10-15 | 2011-11-16 | 因文森斯公司 | 具有运动姿态识别的移动设备 |
US20100206995A1 (en) * | 2009-02-19 | 2010-08-19 | Yoshinobu Inada | Method for three-dimensional group control of moving objects |
US20150081338A1 (en) * | 2012-05-22 | 2015-03-19 | Intouch Technologies, Inc. | Clinical workflows utilizing autonomous and semiautonomous telemedicine devices |
CN104007892A (zh) * | 2013-02-22 | 2014-08-27 | 三星电子株式会社 | 用于控制多个对象的显示的方法及其移动终端 |
US20160068267A1 (en) * | 2014-09-05 | 2016-03-10 | SZ DJI Technology Co., Ltd | Context-based flight mode selection |
Also Published As
Publication number | Publication date |
---|---|
EP3420878A1 (en) | 2019-01-02 |
WO2017145475A1 (ja) | 2017-08-31 |
EP3420878A4 (en) | 2019-01-30 |
EP3420878B1 (en) | 2021-11-17 |
JPWO2017145475A1 (ja) | 2018-12-20 |
CN108697304A (zh) | 2018-10-23 |
JP7067467B2 (ja) | 2022-05-16 |
CN108697304B (zh) | 2021-04-13 |
US11033338B2 (en) | 2021-06-15 |
US20190053857A1 (en) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114019990A (zh) | 用于控制可移动物体的***和方法 | |
US10802491B2 (en) | Methods and systems for target tracking | |
US20210223795A1 (en) | System and method for supporting smooth target following | |
US11632497B2 (en) | Systems and methods for controlling an image captured by an imaging device | |
US11475682B2 (en) | System and method for controlling an unmanned vehicle with presence of live object | |
US10563985B2 (en) | Inertial sensing device | |
US11669987B2 (en) | Obstacle avoidance during target tracking | |
WO2018218516A1 (zh) | 无人机返航路径规划方法及装置 | |
US10896520B2 (en) | System and method for moment capturing | |
KR20200083951A (ko) | Rfid 태그 경로를 패트롤하는 카메라와 지향성 스피커를 구비하는 드론의 제어 시스템 및 방법 | |
WO2022141187A1 (en) | Systems and methods for controlling an unmanned aerial vehicle using a body-attached remote control | |
JP2021073796A (ja) | 制御装置、及び画像を取得する方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |