ES2684643T3 - Sistema y procedimiento de evaluación de estructura mediante aeronave no tripulada - Google Patents

Sistema y procedimiento de evaluación de estructura mediante aeronave no tripulada Download PDF

Info

Publication number
ES2684643T3
ES2684643T3 ES15734836.8T ES15734836T ES2684643T3 ES 2684643 T3 ES2684643 T3 ES 2684643T3 ES 15734836 T ES15734836 T ES 15734836T ES 2684643 T3 ES2684643 T3 ES 2684643T3
Authority
ES
Spain
Prior art keywords
image
unmanned aircraft
information
camera
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15734836.8T
Other languages
English (en)
Inventor
Stephen L. Schultz
John MONACO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pictometry International Corp
Original Assignee
Pictometry International Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pictometry International Corp filed Critical Pictometry International Corp
Application granted granted Critical
Publication of ES2684643T3 publication Critical patent/ES2684643T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/5866Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/587Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0039Modification of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Traffic Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Astronomy & Astrophysics (AREA)

Abstract

Un sistema informático, que comprende: un sistema informático que tiene una unidad de entrada, una unidad de visualización, uno o más procesadores y uno o más medios legibles por ordenador no transitorios, uno o más procesadores que ejecutan software de visualización y análisis de imágenes para hacer que el o los procesadores: reciban una identificación de una estructura de la unidad de entrada, la estructura tiene múltiples lados y un contorno; obtengan datos indicativos de múltiples posiciones geográficas pertenecientes a un esquema de una estructura con múltiples lados e información sobre la altura de la estructura; obtengan las características de una cámara montada en una aeronave no tripulada; generen información de aeronaves no tripuladas que incluye: la información de la trayectoria de vuelo configurada para dirigir la aeronave no tripulada para volar una trayectoria de vuelo alrededor de la estructura que está desplazada lateral y verticalmente de las posiciones geográficas del contorno de la estructura, las desviaciones lateral y vertical dependiendo de la información de altura de la estructura, una orientación de la cámara en relación con la aeronave no tripulada, y las características de la cámara; y, almacenen la información de la aeronaves no tripulada en uno o más medios legibles por ordenador no transitorios.

Description

DESCRIPCIÓN
Sistema y procedimiento de evaluación de estructura mediante aeronave no tripulada
5 [0001] La presente solicitud de patente incorpora por referencia toda la solicitud provisional de patente
identificada por el número de serie de Estados Unidos 61/926.137, presentado el 10 de enero de 2014, y reclama prioridad con respecto a 35 USC 119 (e).
Antecedentes
10
[0002] Los vehículos aéreos no tripulados (UAV), comúnmente conocidos como drones, son aeronaves sin un
piloto humano a bordo. El vuelo puede ser controlado por ordenadores o por control remoto de un piloto ubicado en el suelo.
15 [0003] Dentro de la industria de seguros, el uso de UAV puede ayudar a obtener estimaciones de evaluación
para estructuras, tales como tejados, que pueden ser de difícil acceso. Por ejemplo, una cámara puede colocarse en el UAV para poder ver el tejado de una estructura sin tener que subir físicamente al tejado. Tal sistema y un procedimiento asociado se divulgan por ejemplo en el documento US 2013/0317667 A1.
20 [0004] El plan de vuelo del UAV puede basarse en la evaluación del área geográfica alrededor de la estructura,
y generalmente individualizado para cada estructura. Actualmente dentro de la industria, los planes de vuelo y las ubicaciones de las imágenes de captura se seleccionan generalmente manualmente por un usuario.
Breve descripción de las diversas vistas de los dibujos
25
[0005] Los números de referencia análogos en las figuras representan y se refieren al elemento o función igual o similar. Las implementaciones de la descripción pueden entenderse mejor cuando se tiene en cuenta la siguiente descripción detallada de la misma. Tal descripción hace referencia a las ilustraciones pictóricas anexas, esquemas, gráficos, dibujos y apéndices. En los dibujos:
30
La Fig. 1 es un diagrama esquemático de una realización de un sistema de evaluación de estructura de aeronave no tripulada de acuerdo con la descripción instantánea.
La Fig. 2 es una imagen de un avión no tripulado con una cámara colocada alrededor de una estructura de interés.
La Fig. 3 es un diagrama de flujo de una realización ejemplar de una lógica de programa según la presente descripción. 35 La Fig. 4 es una captura de pantalla ejemplar de una imagen oblicua de la estructura de interés mostrada en la Fig. 2. La Fig. 5 es un diagrama ejemplar que ilustra el desplazamiento lateral y vertical de una aeronave no tripulada en relación con una estructura de acuerdo con la presente descripción.
La Fig. 6 es una captura de pantalla ejemplar de una imagen de nadir de la estructura de interés mostrada en la Fig. 4, la captura de pantalla que ilustra un plan de vuelo ejemplar para una aeronave no tripulada.
40 La Fig. 7 es otro ejemplo de captura de pantalla de la imagen nadir de la estructura mostrada en la Fig. 6, la captura de pantalla que ilustra otro plan de vuelo ejemplar para una aeronave no tripulada.
La Fig. 8 es una captura de pantalla ejemplar de una imagen de nadir de la estructura de interés mostrada en la Fig. 4, la captura de pantalla que ilustra una trayectoria de cámara de una aeronave no tripulada.
La Fig. 9 es una captura de pantalla ejemplar de un informe de estructura visualizado en una unidad de visualización 45 de un terminal de usuario.
La Fig. 10 es una captura de pantalla ejemplar de dos imágenes oblicuas de una estructura, cada imagen oblicua que muestra la estructura en un período de tiempo distinto.
DESCRIPCIÓN DETALLADA
50
[0006] Antes de explicar al menos una realización del concepto de la invención descrita en este documento en detalle, debe entenderse que el concepto inventivo no está limitado en su aplicación a los detalles de construcción y la disposición de los componentes o pasos o metodologías establecidos en la siguiente descripción o ilustrados en los dibujos. El concepto inventivo descrito aquí es capaz de otras formas de realización o de practicarse o llevarse a cabo
55 de varias maneras. Además, debe entenderse que la fraseología y la terminología empleadas en este documento son para fines de descripción y no deben ser consideradas como limitantes de ninguna manera.
[0007] En la siguiente descripción detallada de las realizaciones del concepto inventivo, se establecen numerosos detalles específicos para proporcionar una comprensión más completa del concepto inventivo. Será
evidente para cualquiera con conocimientos de la técnica, sin embargo, que el concepto inventivo dentro de la descripción puede practicarse sin estos detalles específicos. En otros casos, las características bien conocidas no se han descrito en detalle para evitar complicar innecesariamente la descripción instantánea.
5 [0008] Como se usa en el presente documento, los términos "basado en la red", "basado en la nube" y cualquier
variación de los mismos, están destinados a incluir la provisión de recursos informáticos configurables bajo pedido a través de la interfaz con un ordenador y/o red de ordenadores, con software o datos al menos parcialmente ubicados en la computadora o la red de computadoras, mediante la agrupación de potencia de procesamiento de dos o más procesadores en red.
10
[0009] Como se usa en el presente documento, los términos "comprende", "comprendiendo", "incluye", "incluyendo", "tiene", "teniendo", o cualquier otra variación de los mismos, están destinados a ser inclusiones no exclusivas. Por ejemplo, un proceso, procedimiento, artículo o aparato que comprende un conjunto de elementos no está limitado solo a esos elementos, sino que puede incluir otros elementos no enumerados expresamente o incluso
15 inherentes a dicho proceso, procedimiento, artículo o aparato.
[0010] Como se usa en la presente descripción, los términos "proporcionar", "proporciona" y variaciones de los mismos comprenden visualizar o proporcionar la visualización de una página web (p. ej., una página web de cubierta) a uno o más terminales de usuario que interactúan con un ordenador y/o la(s) red(es) de ordena y/o permitiendo la
20 participación de una o más terminales del usuario(s), tal como al interactuar con uno o más mecanismos en una página web (por ejemplo, página web de cubiertas) enviando y/o recibiendo señales (por ejemplo, digitales, ópticas, y/o similares) a través de una interfaz de red de computadora (por ejemplo, puerto Ethernet, puerto TCPIIP, puerto óptico, cable módem y combinaciones de los mismos).Un usuario puede tener una página web en un navegador web, o en una aplicación de software, por ejemplo.
25
[0011] Como se usa en el presente documento, el término "solicitud de estructura", "orden de estructura", "solicitud de plan de vuelo", "orden de plan de vuelo", y cualquiera de sus variaciones pueden comprender una característica de la interfaz gráfica de usuario o una característica de una aplicación de software, lo que permite a un usuario indicar a un sistema host que el usuario desea para realizar un pedido, como al interactuar con el sistema host
30 a través de una red informática e intercambiando señales (por ejemplo, digitales, ópticas, y similares), con el sistema host utilizando un protocolo de red, por ejemplo. Tal mecanismo puede implementarse con código ejecutable de ordenador ejecutado por uno o más procesadores, por ejemplo, con un botón, un hipervínculo, un icono, un símbolo sobre el que se puede hacer clic y combinaciones de los mismos, que pueden activarse por un terminal de usuario que interactúa con el al menos un procesador a través de una red informática, por ejemplo.
35
[0012] Además, a menos que se indique expresamente lo contrario, "o" se refiere a un todo inclusivo y no a un exclusivo o. Por ejemplo, una condición A o B es satisfecha por cualquiera de los siguientes: A es verdadera (o presente) y B es falsa (o no está presente), A es falso (o no está presente) y B es verdadero (o presente), y tanto A como B son verdaderos (o presentes).
40
[0013] Además, se usa "un" o "uno/a" para describir elementos y componentes de las realizaciones de la presente. Esto se hace simplemente por conveniencia y para dar una idea general del concepto inventivo. Esta descripción debería leerse para incluir uno o más, y el singular también incluye el plural a menos que sea obvio que se entienda de otra manera.
45
[0014] Finalmente, como se usa en este documento, cualquier referencia a "una realización" significa que un elemento particular, característica, o estructura descrita en conexión con la realización se incluye en al menos una realización. La aparición de la frase "en una realización" en varios lugares de la especificación no necesariamente se refiere a todos los casos a la misma realización.
50
[0015] Con referencia ahora a las Figs. 1 y 2, que se muestran en este documento, es una realización ejemplar de un sistema de evaluación de una estructura de aeronave no tripulada 10 de acuerdo con la presente descripción. El sistema de evaluación de la estructura de aeronaves no tripuladas 10 comprende uno o más sistemas host 12 que interactúan y/o se comunican con uno o más terminales 14 de usuario a través de una red 16. En general, uno o más
55 sistemas host 12 reciben información de identificación relacionada con una estructura de interés 21 (por ejemplo, edificio) a través de los terminales de usuario 14, y datos indicativos de las posiciones geográficas de la estructura. Usando la información de identificación y el posicionamiento geográfico de la estructura de interés 21, uno o más sistemas host 12 pueden generar información de aeronaves no tripuladas, incluida la información de ruta de vuelo, información de control de la cámara y/o información de control de cardán. La información de un avión no tripulado
puede ser utilizada por una aeronave no tripulada 18 para capturar una o más imágenes aéreas (por ejemplo, imágenes oblicuas) de la estructura de interés 21. En algunas realizaciones, la información de trayectoria de vuelo, control la información de la cámara, y/o la información de control cardánico se puede determinar automáticamente mediante el análisis y uso de imágenes georreferenciadas. Como tal, la manipulación manual y el análisis por parte 5 de un usuario pueden minimizarse y/o eliminarse. En otras realizaciones, la información de trayectoria de vuelo, la información de control de la cámara o la información de control del cardán pueden determinarse con la ayuda de un usuario que suministra datos haciendo clic en una o más imágenes oblicuas de la estructura de interés 21 y/o de otro modo introduce datos en uno o más de los terminales de usuario 14.
10 [0016] La estructura de interés 21 puede ser una estructura hecha por el hombre, tal como un edificio. Por
ejemplo, en la Fig. 2, la estructura de interés 21 es un edificio residencial. Alternativamente, la estructura puede ser una estructura natural, tal como un árbol, por ejemplo.
[0017] La aeronave no tripulada 18 puede ser cualquier tipo de vehículo aéreo no tripulado que se pueda 15 controlar utilizando un plan de vuelo. El vuelo de la aeronave no tripulada 18 se puede controlar de forma autónoma
como se describe con más detalle en este documento. En algunas realizaciones, el vuelo puede controlarse usando un plan de vuelo en combinación con el pilotaje por un usuario ubicado en el suelo. Un ejemplar de aeronave no tripulada 18 puede incluir la cámara dron UCR Professional SR100 fabricado y distribuido por Cadence Technology ubicado en Singapur.
20
[0018] Generalmente, la aeronave no tripulada 18 puede incluir una o más cámaras 19 configuradas para proporcionar imágenes aéreas. En algunas realizaciones, la cámara 19 se puede montar en un soporte de cardán (por ejemplo, cardán de tres ejes). Además, en algunas realizaciones, la aeronave no tripulada 18 puede incluir uno o más receptores del sistema de posicionamiento global (GPS), una o más unidades de navegación inercial (INU), uno o más
25 relojes, uno o más giroscopios, uno o más brújulas, uno o más altímetros, y similares para que la posición y orientación de la aeronave no tripulada 18 en instancias específicas de tiempo pueda monitorearse, grabarse y/o almacenarse con y/o correlacionarse con imágenes particulares.
[0019] La una o más cámaras 19 pueden ser capaces de capturar imágenes fotográficamente o 30 electrónicamente así como grabar la hora en que se capturan las imágenes particulares. En una realización, esto se
puede lograr mediante el envío de una señal a un procesador (que recibe señales de tiempo del GPS) cada vez que se captura una imagen. La o las cámaras 19 pueden incluir, pero no se limitan a, cámaras convencionales, cámaras digitales, sensores digitales, dispositivos de acoplamiento de carga, y similares. En algunas realizaciones, una o más cámaras 19 pueden ser cámaras de resolución ultra alta.
35
[0020] La o las cámaras 19 pueden incluir características conocidas o determinables que incluyen, pero no se limitan a, longitud focal, tamaño del sensor, relación de aspecto, términos radiales y otros términos de distorsión, desplazamiento del punto principal, paso de píxeles, alineación, y/u otros.
40 [0021] Con referencia a la Fig. 1, la aeronave no tripulada 18 puede comunicarse con la o las terminales de
usuario 14. La o las terminales de usuario 14 pueden implementarse como un ordenador personal, un portátil, un teléfono inteligente, un ordenador de mano, un televisor con capacidad de red, un decodificador de TV, una tableta, un lector de libros electrónicos, un ordenador de escritorio, un dispositivo de mano con capacidad de red, una consola de videojuegos, un servidor, un grabador de vídeo digital, un reproductor de DVD, un reproductor de BIu-Ray y una 45 combinación de los mismos, por ejemplo. En una realización ejemplar, el uso del terminal 14 puede comprender una unidad de entrada 20, una unidad de visualización 22, un procesador (no mostrado) capaz de interconectarse con la red 16, un código ejecutable por procesador (no se muestra), y un navegador web capaz de acceder a un sitio web y/o de comunicar información y/o datos en una red, como la red16.Como entenderán las personas con experiencia ordinaria en la técnica, el o los terminales de usuario 14 pueden comprender una o más memorias no transitorias que 50 comprenden el código ejecutable del procesador y/o aplicaciones de software, por ejemplo.
[0022] La unidad de entrada 20 puede ser capaz de recibir información de entrada de un usuario y/o de otro(s)
procesador(es), y transmitir dicha información al terminal 14 de usuario y/o al uno o más sistemas host 12. La unidad de entrada 20 puede implementarse como un teclado, una pantalla táctil, un ratón, una bola de seguimiento, un 55 micrófono, un lector de huellas digitales, un puerto infrarrojo, un teclado deslizable, un teclado desplegable, un teléfono móvil, una PDA, un controlador de videojuegos, un control remoto, un fax, una interfaz de red, y combinaciones de los mismos, por ejemplo. En algunas realizaciones, el terminal de usuario 14 tiene un software de gestión de vuelo para controlar la aeronave no tripulada 18.
[0023] La unidad de visualización 22 puede generar información en una forma perceptible por un usuario y/u otro procesador o procesadores. Por ejemplo, la unidad de visualización 22 puede ser un servidor, un monitor de computadora, una pantalla, una pantalla táctil, un altavoz, un sitio web, un televisor establecer, un teléfono inteligente, un PDA, un teléfono celular, una máquina de fax, una impresora, un portátil, una pantalla portátil, y/o combinaciones
5 de los mismos. Debe entenderse que en algunas realizaciones a modo de ejemplo, la unidad de entrada 20 y la unidad de visualización 22 pueden implementarse como un único dispositivo, tal como, por ejemplo, una pantalla táctil o una tableta. Se debe entender también que tal como se usa en el presente documento, el término usuario no se limita a un ser humano, y puede comprender un ordenador, un servidor, un sitio web, un procesador, una interfaz de red, un humano, un terminal de usuario, un ordenador virtual y combinaciones de los mismos, por ejemplo.
10
[0024] Como se discutió anteriormente, el sistema 10 puede incluir uno o más sistemas host 12. El uno o los sistemas host 12 puede(n) estar parcial o completamente basado(s) en la red o en la nube, y no necesariamente ubicado(s) en una única ubicación física. Cada uno de los sistemas host 12 puede además ser capaz de interactuar y/o comunicarse con una o más terminales de usuario 14 a través de la red 16, tal como intercambiando señales (por
15 ejemplo, digitales, ópticas, y similares) a través de uno o más puertos (por ejemplo, físicos o virtuales) usando un protocolo de red, por ejemplo. Además, cada sistema host 12 puede ser capaz de interfaz y/o comunicación con otros sistemas host directamente y/o a través de la red 16, tal como mediante el intercambio de señales (por ejemplo, digitales, ópticas, y similares) a través de uno o más puertos.
20 [0025] Debe observarse que múltiples sistemas anfitriones 12 pueden ser controlados independientemente por
entidades separadas. Por ejemplo, en algunas realizaciones, el sistema 10 puede incluir dos sistemas host 12 con un primer sistema host controlado por una primera compañía y un segundo sistema host controlado por una segunda compañía distinta de la primera compañía.
25 [0026] El uno o los sistemas anfitriones 12 pueden comprender uno o más procesadores 24 trabajando juntos,
o de forma independiente para ejecutar el código ejecutable del procesador, una o más memorias 26 capaces de almacenar el código ejecutable del procesador, uno o más dispositivos de entrada 28, y uno o más dispositivos de salida 30. Cada elemento del o de los sistemas host 12 puede(n) estar parcial o completamente basado(s) en la red o en la nube, y no necesariamente ubicado(s) en una única ubicación física. Además, en realizaciones que tienen
30 múltiples sistemas hosts 12, cada sistema host puede comunicarse directamente con sistemas host adicionales y/o sistemas de terceros a través de la red 16.
[0027] El o los procesadores 24 pueden implementarse como un o una pluralidad de procesadores 24 trabajando juntos, o independientemente para ejecutar la lógica como se describe aquí. Ejemplos de realización de
35 uno o más procesadores 24 incluyen un procesador de señal digital (DSP), una unidad de procesamiento central (CPU), un arreglo de compuerta programable de campo (FPGA), un microprocesador, un procesador de múltiples núcleos y combinaciones de los mismos. El o los procesadores 24 pueden ser capaces de comunicarse con una o más memorias 26 a través de una ruta (por ejemplo, bus de datos). Uno o más procesadores 24 pueden ser capaces de comunicarse con los dispositivos de entrada 28 y los dispositivos de salida 30.
40
[0028] El o los procesadores 24 pueden ser más capaces de interconexión y/o comunicación con el o los terminales de usuario 14 y/o aeronave no tripulada 18 a través de la red 16. Por ejemplo, el o los procesadores 24 puede(n) ser capaces de comunicarse a través de la red 16 mediante el intercambio de señales (por ejemplo, digitales, ópticas, y similares) a través de uno o más puertos físicos o virtuales (es decir, puertos de comunicación) que usan un
45 protocolo de red. Debe entenderse que en ciertas realizaciones que usan más de un procesador 24, uno o más procesadores 24 pueden estar ubicados remotamente unos a otros, ubicados en el mismo lugar, o que comprenden un procesador unitario de múltiples núcleos (no mostrado). El o los procesadores 24 pueden ser capaces de leer y/o ejecutar el código ejecutable del procesador y/o crear, manipular, alterar, y/o almacenar estructuras de datos informáticos en una o más memorias 26.
50
[0029] La o las memorias 26 pueden ser capaces de almacenar el código ejecutable del procesador. Además, la o las memorias 26 se pueden implementar como una memoria no transitoria convencional, tal como, por ejemplo, memoria de acceso aleatorio (RAM), un CD-ROM, un disco duro, una unidad de estado sólido, una unidad flash, una tarjeta de memoria, un DVD-ROM, un disco flexible, una unidad óptica, y una combinación de las mismas. Debe
55 entenderse que, si bien una o más memorias 26 pueden estar ubicadas en la misma ubicación física que el sistema host 12, la las memorias 26 pueden estar ubicadas remotamente desde el sistema host 12, y puede comunicarse con el uno o más procesadores 24 a través de la red 16. Además, cuando se usan más de una memoria 26, una primera memoria puede estar ubicada en la misma ubicación física que el sistema host 12, y memorias adicionales 26 pueden estar ubicadas en una ubicación física remota desde el sistema host 12. La(s) ubicación(es) física(s) de la o las
memorias 26 puede variarse. Además, una o más memorias 26 pueden implementarse como una "memoria de nube" (es decir, una o más memorias 26 pueden estar parcial o completamente basadas o accedidas usando la red 16).
[0030] El o los dispositivos de entrada 28 pueden transmitir datos a los procesadores 24, y pueden
5 implementarse como un teclado, un ratón, una pantalla táctil, una cámara, un teléfono móvil, una tableta, un teléfono inteligente, una PDA, un micrófono, un adaptador de red, un portátil y/o combinaciones de los mismos. Los dispositivos de entrada 28 pueden estar ubicados en el mismo lugar físico que el sistema host 12, o puede estar ubicados a distancia y/o parcial o completamente basados en la red.
10 [0031] El o los dispositivos de salida 30 pueden transmitir información desde el procesador 24 a un usuario, de
manera que la información pueda ser percibida por el usuario. Por ejemplo, los dispositivos de salida 30 pueden implementarse como un servidor, un monitor del ordenador, un teléfono celular, una tableta, un altavoz, un sitio web, una PDA, un fax, una impresora, un proyector, un monitor de portátil, una pantalla portátil y/o combinaciones de los mismos. El dispositivo de salida 30 puede estar físicamente asociado con el sistema host 12, o puede estar ubicado 15 de forma remota desde el sistema host 12, y puede estar parcial o completamente basado en la red (por ejemplo, sitio web).
[0032] Como se usa en este documento, el término "usuario" no se limita a un ser humano, y puede comprender un ser humano, un ordenador, un sistema host, un teléfono inteligente, una tableta y combinaciones de los mismos,
20 por ejemplo. La red 16 puede permitir la comunicación bidireccional de información y datos entre el o los sistemas host 12, los terminales de usuario 14 y/o la aeronave no tripulada 18. La red 16 puede interactuar con el o más sistemas host 12, los terminales de usuario 14 y la aeronave no tripulada 18 en una variedad de formas. En algunas realizaciones, el o los sistemas host 12, los terminales de usuario 14 y/o la aeronave no tripulada 18 pueden comunicarse a través de un puerto de comunicación. Por ejemplo, la red 16 puede interactuar mediante interfaces 25 ópticas o electrónicas, y/o puede usar una pluralidad de topografías de red y/o protocolos que incluyen, pero no se limitan a, Ethernet, TCPIIP, rutas de conmutación de circuitos, y/o combinaciones de los mismos. Por ejemplo, la red 16 puede implementarse como la World Wide Web (o Internet), una red de área local (LAN), una red de área amplia (WAN), una red metropolitana, una red inalámbrica, una red celular, una red GSM, una red CDMA, una red 3G, una red 4G, una red de satélite, una red de radio, una red óptica, una red de cable, una red telefónica pública conmutada, 30 una red Ethernet y/o sus combinaciones. Además, la red 16 puede usar una variedad de protocolos de red para permitir la comunicación bidireccional y/o la comunicación de datos y/o información entre uno o más sistemas host 12, uno o más terminales de usuario 14 y/o la aeronave no tripulada 18.
[0033] En algunas realizaciones, el o los sistemas anfitriones 12, los terminales de usuario 14 y/o la aeronave 35 no tripulada 18 puede comunicarse utilizando un medio legible por ordenador no transitorio. Por ejemplo, los datos
obtenidos del terminal del usuario 14 puede almacenarse en una unidad USB flash. La unidad USB flash puede ser transferida y recibida por la aeronave no tripulada 18 comunicando de ese modo información, tal como la información de la aeronave no tripulada, incluida la información del recorrido del vuelo, información de control de cámara, y/o información de control de cardán desde el terminal de usuario 14 a la aeronave no tripulada 18. La unidad USB flash 40 también se puede usar para transferir imágenes capturadas por la cámara 19, posición, orientación y fecha y hora a la(s) terminal(es) de usuario 14.
[0034] Con referencia a las Figuras 1 y 2, la una o más memorias 26 pueden almacenar código ejecutable del procesador y/o información que comprende una base de datos de estructura 32, una o más bases de datos de
45 imágenes 34 y lógica de programa 36. El código ejecutable por procesador puede almacenarse como una estructura de datos, tal como una base de datos y/o una tabla de datos, por ejemplo. En algunas realizaciones, una o más memorias del terminal de usuario 14 pueden incluir una base de datos de estructura 32, una o más bases de datos de imágenes 34 y lógica de programa 36 como se describe con más detalle en el presente documento.
50 [0035] La base de datos de estructura 32 puede incluir información (por ejemplo, ubicación, datos de GIS)
sobre la estructura de interés. Por ejemplo, la base de datos de estructura 32 puede almacenar información de identificación sobre la estructura que incluye, pero no está limitada a, dirección, ubicación geográfica, latitud/longitud, y/o similar.
55 [0036] La o las memorias 26 pueden incluir una o más bases de datos de imágenes 34. La o las bases de datos
de imágenes 34 pueden almacenar imágenes georreferenciadas. Dichas imágenes pueden estar representadas por un solo mapa de píxeles, y/o por una serie de mapas de píxeles segmentados que cuando se agregan recrean el mapa de píxeles de la imagen. Las imágenes pueden incluir imágenes nadir, ortorectificadas y/u oblicuas georreferenciadas. El o los procesadores 24 pueden proporcionar las imágenes a través de la base de datos de imágenes 34 a usuarios
en la o las terminales de usuario 14. En algunas realizaciones, se pueden incluir una o más bases de datos de imágenes 34 dentro de las terminales de usuario 14.
[0037] La una o las memorias 26 pueden almacenar además el código ejecutable del procesador y las 5 instrucciones, que pueden comprender la lógica del programa 36. La lógica 36 del programa puede comprender
instrucciones y/o código ejecutable del procesador, que cuando es ejecutado por el procesador 24, puede hacer que el procesador 24 ejecute la visualización de la imagen y el software de análisis para generar, mantener, proporcionar y/o alojar un sitio web que proporcione una o más solicitudes de evaluación de estructura, por ejemplo. La lógica 36 del programa puede causar además que el procesador 24 recopile información de identificación sobre la estructura de 10 interés 21 (por ejemplo, dirección), permitir que uno o más usuarios validen una ubicación de la estructura, obtener posiciones geográficas de la estructura, y similares, como se describe en este documento.
[0038] Con referencia a la Fig. 3, que se muestra en este documento, es un diagrama de flujo ejemplar 40 de la lógica de programa 36 para crear un informe de evaluación de la estructura de acuerdo con la presente descripción.
15 La lógica de programa 36 puede comprender código ejecutable, que cuando se ejecute por uno o más procesadores 24 pueden hacer que el uno o más procesadores 24 ejecuten uno o más de los siguientes pasos.
[0039] En una etapa 42, uno o más sistemas host 12 pueden recibir información de identificación de la estructura de la terminal de usuario 14. Por ejemplo, uno o más sistemas host 12 pueden recibir la dirección de la
20 estructura, ubicación geográfica de la estructura (por ejemplo, coordenadas X, Y, Z, coordenadas de latitud/longitud), una ubicación del terminal de usuario 14 determinada por un Sistema de Posición Geográfica (GPS) y similares.
[0040] En algunas realizaciones, el usuario puede validar la ubicación de la estructura de interés 21. Uno o más procesadores 24 pueden proporcionar una o más imágenes a través de la base de datos de imágenes 34 a la
25 unidad de visualización 22 del terminal de usuario 14. Por ejemplo, La Fig. 4 ilustra una captura de pantalla ejemplar 60 de una imagen oblicua 62 de la estructura de interés 21 que puede mostrarse en la unidad de visualización 22 del terminal de usuario 14, que se muestra en el diagrama de bloques de la Fig. 1. La o las imágenes 62 puede ser imágenes georreferenciadas que ilustren porciones o toda la estructura de interés 21. Con referencia a las Figuras 1 y 4, la lógica del programa 36 puede hacer que el procesador 24 proporcione a los usuarios la o las imágenes 30 georreferenciadas 62 (por ejemplo, a través de la unidad de visualización 22), y permitir al usuario validar la ubicación de la estructura de interés 21 (por ejemplo, a través de la unidad de entrada 20). Por ejemplo, el usuario puede ser capaz de usar un elemento de arrastrar y soltar proporcionado por la lógica de programa 36 a través del terminal de usuario 14 para seleccionar la estructura de interés 21 dentro de una o más imágenes georreferenciadas 62. Selección de la estructura de interés 21 dentro de la una o más imágenes georreferenciadas 62 puede proporcionar una o más 35 imágenes validadas y una ubicación validada de la estructura de interés. Debe observarse que, en algunas realizaciones, la lógica del programa del terminal de usuario 14, con o en lugar de la lógica de programa 36 del procesador 24, puede proporcionar a los usuarios la una o más imágenes georreferenciadas 62 para permitir la validación de la ubicación de la estructura de interés 21.
40 [0041] En algunas realizaciones, la validación de las imágenes georreferenciadas puede ser proporcionada por
uno o más sistemas host a través de uno o más procesadores 24 en lugar de, o en combinación con el sistema host 12. Por ejemplo, el sistema host 12 puede dirigir al usuario a un segundo sistema host donde uno o más procesadores del segundo sistema host pueden proporcionar imágenes georreferenciadas 62 de la base de datos de imágenes al usuario para la validación de una o más estructuras de interés 21.
45
[0042] En algunas realizaciones, la ubicación geográfica puede incluir coordenadas y la validación de la localización geográfica puede proporcionarla el usuario alterando una o más coordenadas de la ubicación geográfica. Los usuarios pueden alterar la o las coordenadas por procedimientos que incluyen, pero no se limitan a, manipulación manual, arrastrar y soltar elementos y similares.
50
[0043] En algunas realizaciones, la ubicación de la estructura de interés 21 puede determinarse automáticamente por ubicación de la terminal de usuario 14. Por ejemplo, un usuario puede estar físicamente presente en la estructura de interés 21, y el usuario puede sujetar el terminal de usuario 14 que determina su ubicación usando cualquier tecnología adecuada, tal como GPS. Utilizando las coordenadas de ubicación del terminal de usuario 14, se
55 puede determinar la ubicación de la estructura de interés 21.
[0044] En un paso 44, se puede determinar una huella de la estructura de interés 21. La huella puede proporcionar un límite bidimensional (p. ej., lados) y/o contorno de la estructura de interés 21. Por ejemplo, el contorno de la estructura de interés 21 se puede determinar usando sistemas y procedimientos que incluyen, pero no se limitan
a, los descritos en la Patente de Estados Unidos Publicación N.° 2010/0179787, Publicación de Patente de Estados Unidos N.° 2010/0110074, Publicación de Patente de Estados Unidos N.° 2010/0114537, Publicación de Patente de los Estados Unidos N.° 2011/0187713, Patente de los Estados Unidos N.° 8.078.436 y N.° de serie de Estados Unidos 12/090.692, todas las cuales incorporadas por referencia en este documento en su totalidad. En algunas realizaciones, 5 la huella de la estructura de interés 21 puede proporcionarse al usuario a través de la unidad de visualización 22. Por ejemplo, en algunas realizaciones, la huella de la estructura de interés 21 puede mostrarse como una capa en una o más imágenes (por ejemplo, imagen de nadir) a través de la unidad de visualización 22.
[0045] En algunas realizaciones, uno o más procesadores 24 pueden proporcionar, a través de la unidad de 10 visualización 22, uno o más sitios web al usuario para la evaluación de múltiples imágenes oblicuas para proporcionar
la huella de la estructura de interés 21. Por ejemplo, el usuario y/o los procesadores 24 pueden identificar los bordes de la estructura de interés 21. De las imágenes puede obtenerse información bidimensional y/o tridimensional con respecto a los bordes (por ejemplo, posición, orientación y longitud) utilizando la selección del usuario de los puntos dentro de las imágenes y las técnicas enseñadas en la Patente de los Estados Unidos N.° 7.424.133, y/o 15 estereofotogrametría. Usando de la información bidimensional o tridimensional (p. ej., orientación de posición, y/o longitud), los segmentos de línea se pueden determinar con múltiples segmentos de línea que forman al menos una parte de la huella de la estructura de interés 21.
[0046] En un paso 46, se pueden obtener datos indicativos de posiciones geográficas pertenecientes a la huella 20 de la estructura de interés 21 y/o sobre la altura de la estructura. Por ejemplo, en algunas realizaciones, la altura de
la estructura de interés 21 sobre el suelo puede determinarse. La altura de la estructura de interés 21 sobre el suelo puede ayudar a determinar la altitud para el plano de vuelo de la aeronave no tripulada 18 como se discute en mayor detalle en el presente documento. Las mediciones de las posiciones geográficas de la estructura de interés 21, como una estructura vertical, pueden incluir técnicas como la descrita en la Patente de Estados Unidos N.° 7.424.133, que 25 se incorpora aquí como referencia en su totalidad. El término "estructuras verticales", como se usa en este documento, incluye estructuras que tienen al menos una porción de una superficie que no es completamente horizontal. Por ejemplo, las "estructuras verticales" como se describe aquí incluyen estructuras que son completamente verticales y estructuras que no son completamente verticales, como las estructuras que están inclinadas en un ángulo o que caen al suelo. El lado de una estructura no se limita a una o más paredes de la estructura de interés 21, sino que puede 30 incluir todas las partes visibles de la estructura de interés 21 desde un punto de vista. Por ejemplo, cuando la presente descripción se refiere a una estructura de interés 21, como una casa, un "lado" o "lado vertical" incluye la pared de la casa y el techo sobre la pared hasta el punto más alto de la casa.
[0047] En algunas realizaciones, puede usarse más de una altura. Por ejemplo, si la estructura de interés 21 35 es un edificio por niveles que tiene una parte de una planta y una de dos plantas, se puede determinar una primera
altura para la primera planta y una segunda altura se puede determinar para la segunda planta. La altitud para la trayectoria de vuelo de la aeronave no tripulada 18 puede variar en función de las diferentes alturas de la estructura de interés 21.
40 [0048] En algunas realizaciones, usando la unidad de entrada 20 y/o la unidad de visualización 22, el usuario
puede dar detalles adicionales con respecto a las posiciones geográficas pertenecientes al contorno de la estructura de interés 21 y/o la información sobre la altura de la estructura. Por ejemplo, si la estructura de interés 21 es el techo de un edificio, el usuario puede incluir la identificación de áreas tales como aleros, bordes de goteo, cumbreras, y/o similares. Además, el usuario puede dar manualmente valores de inclinación, distancia, ángulo, y/u otros. 45 Alternativamente, uno o más procesadores 24 pueden evaluar imágenes y determinar áreas que incluyen aleros, bordes de goteo, cumbreras y similares sin intervención manual del usuario.
[0049] En un paso 48, usando la huella, altura y posiblemente posiciones geográficas adicionales o información perteneciente a la estructura de interés 21, incluida la ubicación geográfica de las obstrucciones en posibles rutas de
50 vuelo, como árboles y cables de servicios públicos, la información de aeronaves no tripuladas puede ser generada por uno o más sistemas host 12 y/o la terminal del usuario 14. La información de la aeronave no tripulada puede incluir información de ruta de vuelo, información de control de la cámara y/o información de control de cardán.
[0050] La información de trayectoria de vuelo puede configurarse para dirigir la aeronave no tripulada 18 para 55 volar una ruta de vuelo alrededor de la estructura de interés 21. En algunas realizaciones, una ruta de vuelo puede
mostrarse al usuario en una o más imágenes (por ejemplo, nadir, oblicuo) a través de la unidad de visualización 22. Por ejemplo, la Fig. 6 ilustra una captura de pantalla ejemplar 66 de una imagen de nadir 68 mostrando un camino de vuelo 70 sobre la estructura de interés 21. En algunas realizaciones, la trayectoria de vuelo 70 puede mostrarse como
una capa que se superpone a la imagen de nadir 68 de la estructura de interés 21 en la unidad de visualización 22 de la Fig. 1.
[0051] Generalmente, la información de trayectoria de vuelo dirige la aeronave no tripulada 18 en tres 5 dimensiones. Con referencia a las Figuras 5 y 6, la información de la trayectoria de vuelo puede determinarse de
manera que la trayectoria de vuelo 70 alrededor de la estructura de interés 21 sea compensada lateralmente o verticalmente desde las posiciones geográficas del contorno de la estructura de interés 21. En particular, el desplazamiento lateral Loffset y el de desplazamiento vertical Voffset pueden depender de la altura H de la estructura 21, orientación de la cámara con relación a la aeronave no tripulada 18, y características de la cámara 19.
10
[0052] Con referencia a la Fig. 5, generalmente para determinar el desplazamiento desde la estructura 21, el campo de visión (FOV) de la cámara 19 puede colocarse de manera que un centro C1 esté a la altura H de la estructura 21, por ejemplo. Además, pueden añadirse una o más regiones buffer B al campo de visión. Las regiones buffer B pueden aumentar el ángulo del campo de visión en un porcentaje. Por ejemplo, las regiones buffer B1 y 32
15 ilustradas en la Fig. 5 pueden aumentar el ángulo del campo de visión en un 20-50 %. Para determinar el desplazamiento lateral Loffset y el desplazamiento vertical Voffset de la cámara 19 desde la estructura 21, se puede establecer un ángulo predeterminado 0 dentro de un rango de 25-75 grados. Una vez que se establece el ángulo 0, el desplazamiento lateral Loffset y el desplazamiento vertical Voffset de la cámara 19 con relación a la estructura 21 puede determinarse usando principios trigonométricos, por ejemplo. Por ejemplo, el desplazamiento lateral Loffset 20 se puede determinar en base a la siguiente ecuación:
Loffset = C1 * Sen (0) (EQ.1)
donde C1 es la línea central del campo de visión FOV. El Voffset de compensación vertical se puede determinar en 25 función de la siguiente ecuación:
Voffset = C1 * Cos (0) (EQ-2)
donde C1 es la línea central del campo de visión FOV.
30
[0053] La información de trayectoria de vuelo puede dirigir opcionalmente el balanceo, cabeceo y guiñada de la aeronave no tripulada 18. Por ejemplo, algunas versiones de la aeronave no tripulada 18 pueden no tener un dispositivo multieje y, como tal, pueden dirigirse para apuntar a la cámara 19 cambiando la guiñada, cabeceo o balanceo del avión no tripulado 18. Los actuales guiñada, cabeceo y balanceo de la aeronave no tripulada el avión
35 18 puede medirse utilizando un sistema de posición y orientación que es una parte de la aeronave no tripulada 18. En algunas formas de realización, el sistema de posición y orientación puede implementarse usando acelerómetros y/o girómetros basados en microelectromecánica.
[0054] En muchos casos, puede haber obstáculos que se encuentran a lo largo del camino de vuelo. Algunos 40 de esos obstáculos pueden ser detectados por el sistema a través del uso de las imágenes. En algunas
realizaciones, la trayectoria de vuelo 70 puede determinarse de modo que la interferencia con elementos externos (p. ej., árboles y cables telefónicos) pueda minimizarse. Por ejemplo, la Figura 7 ilustra una variación de la trayectoria de vuelo 70 determinada en la Fig. 4 donde la trayectoria de vuelo 70a de la Fig. 7 minimiza la interferencia siguiendo el contorno de la estructura de interés 21.
45
[0055] Un mapa de confianza sobre el suelo, como se describe en la Patente de los Estados Unidos N.° 8.588.547, cuya divulgación se incorpora por la presente por referencia, podría usarse para identificar objetos para los cuales hay un alto grado de confianza de que el objeto está elevado sobre el suelo. Los procedimientos de autocorrelación y triangulación autoaérea podrían usarse para determinar las alturas de estas posibles
50 obstrucciones. Si la trayectoria de vuelo atravesara una de estas obstrucciones, podría marcarse y el algoritmo podría intentar encontrar la mejor solución para superar las obstrucciones: o volando más cerca de la estructura de interés 21 como se muestra en la Fig. 7, lo que podría requerir pases adicionales debido a una resolución más fina y por lo tanto, un ancho de camino más pequeño, o al sobrevolar la obstrucción y apuntar la cámara 19 en un ángulo oblicuo más pronunciado, que de nuevo puede requerir un ajuste en la ruta de vuelo para garantizar una cobertura 55 completa. Para cualquier ruta de vuelo que esté marcada por posibles obstrucciones, un operador del sistema puede validar la ruta correctiva elegida y modificarla según sea necesario.
[0056] Además de los obstáculos que se identifican dentro de la imagen, también puede haber obstáculos que no pueden identificarse en la imagen. Estos podrían ser árboles o estructuras más nuevos que no estaban en las
imágenes originales utilizadas para el plan de vuelo, cables u otros objetos que pueden no aparecer en las imágenes con suficiente detalle para poder determinar su ubicación, u otros obstáculos inesperados. Como tal, la aeronave no tripulada 18 también puede incorporar una detección de colisión y sistema de evitación de colisión y/o sistema de seguridad en algunas realizaciones. El sistema de detección y evitación de colisiones podría estar basado en 5 imágenes, o basado en un sensor activo. Cuando un obstáculo se encuentra a lo largo de la trayectoria de vuelo, el software que guía a la aeronave no tripulada 18 podría primero intentar acercarse a la estructura de interés 21 a lo largo del camino desde la ruta de vuelo a la ruta de destino. Si después de un umbral adecuado, que se puede establecer al 10 % de la distancia (104 'en los ejemplos anteriores, por lo que el 10 % es 10,4') para que el 20 % de superposición aún garantiza una cobertura completa, si la aeronave no tripulada 18 no puede evitar el obstáculo, el
10 sistema de detección y de evasión de colisión dirigirá la aeronave no tripulada 18 a su punto original de detección de colisión y luego intentaría volar por encima del obstáculo.
[0057] Dado que el software que controla la aeronave no tripulada 18 mantiene la cámara 19 dirigida a la trayectoria objetivo, volando más alto quizás puede aún capturar las porciones necesarias de la estructura de interés
15 21; pero el ángulo oblicuo hacia abajo puede cambiar y la resolución puede volverse un poco más baja. En circunstancias extremas, la aeronave no tripulada 18 puede requerir intervención del operador para negociar adecuadamente alrededor del obstáculo. En estos casos, el software que se ejecuta en un procesador de la aeronave no tripulada 18 transmitiría una señal al operador en forma de alarma audible, por ejemplo, y permitiría el operador dirigir el avión no tripulado 18 alrededor del obstáculo. A medida que el avión no tripulado 18 pasa los puntos de
20 captura de vuelo, la(s) cámara(s) 19 se dispararían. Para garantizar esto, los puntos de captura de vuelo no son solo puntos, sino que pueden ser un plano vertical que es perpendicular a la trayectoria de vuelo y que pasa a través del punto de captura de vuelo. Por lo tanto, incluso si la aeronave no tripulada 18 está 30' por encima o lejos de la trayectoria de vuelo en el momento, a medida que pasa por ese plano, y por lo tanto sobre o al lado del punto de captura de vuelo, el software que controla la aeronave no tripulada 18 causaría que la cámara 19 disparara.
25
[0058] La información de control de la cámara se puede cargar en el software que se ejecuta en el procesador de las aeronaves no tripuladas 18 para controlar el accionamiento de la cámara 19 de la aeronave no tripulada 18. Por ejemplo, la información de control de la cámara puede dirigir la cámara 19 para capturar imágenes (por ejemplo, imágenes oblicuas) en una o más ubicaciones geográficas predefinidas 74 (que se denominan a continuación puntos
30 de captura de vuelo), como se ilustra en la captura de pantalla 72 de la Fig. 8. En algunas realizaciones la información de control de la cámara puede dirigir la cámara 19 para capturar imágenes en un horario (por ejemplo, periódico, al azar). Además, la información de control de la cámara puede controlar los parámetros de la cámara, incluyendo, entre otros, el zoom, la distancia focal, el control de exposición y similares.
35 [0059] La información de control de la cámara se puede cargar en el software que se ejecuta en el procesador
de las aeronaves no tripuladas 18 para controlar la dirección de la cámara 19 en relación con la estructura de interés 21. Por ejemplo, el control cardánico puede controlar la orientación de la cámara 19 en tres dimensiones, de modo que durante la captura de una imagen, la cámara 19 se alinea con una ubicación predeterminada en la estructura de interés 21 a la que se hace referencia a continuación como puntos de captura de objetivo.
40
[0060] En un paso 50, la información de la aeronave no tripulada puede almacenarse en uno o más medios no transitorios legibles por ordenador del sistema host 12 y/o terminal de usuario 14. Por ejemplo, en algunas realizaciones, el sistema host 12 puede determinar la información de la aeronave no tripulada, comunicar la información de la aeronave no tripulada al terminal de usuario 14 a través de la red 16 de modo que la información de
45 la aeronave no tripulada se pueda almacenar en uno o más medios no transitorios legibles por ordenador. Alternativamente, el terminal de usuario 14 puede determinar la información de la aeronave no tripulada y almacenar la información de aeronaves no tripuladas en uno o más medios legibles por ordenador no transitorios. En algunas realizaciones, el o los medios legibles por computadora no transitorios pueden incluir un dispositivo USB flash u otro dispositivo similar de almacenamiento de datos.
50
[0061] En una etapa 52, la información de la aeronave no tripulada puede cargarse en la aeronave no tripulada 18. Por ejemplo, la información de la aeronave no tripulada puede entonces cargarse en la aeronave no tripulada 18 mediante la transferencia del medio de información no transitoria legible por ordenador (por ejemplo, unidad de flash USB) desde el terminal de usuario 14. Debe tenerse en cuenta que la información de la aeronave no tripulada puede
55 cargarse y/o almacenarse en la aeronave no tripulada 18 por cualquier comunicación, incluyendo comunicaciones a través de la red 16.
[0062] La aeronave no tripulada 18 puede usar la información de la aeronave no tripulada para capturar una o más imágenes oblicuas de la estructura de interés 21. En general, la aeronave no tripulada 18 puede seguir la
trayectoria de vuelo dentro de la información de la aeronave no tripulada obteniendo una o más imágenes oblicuas tal como se establece dentro de la información de control de la cámara y de control del cardán. En algunas realizaciones, un usuario puede manipular manualmente la ruta de vuelo 70 de la información de la aeronave no tripulada durante el vuelo de la aeronave no tripulada 18. Por ejemplo, el usuario puede solicitar que la aeronave no tripulada 18 agregue 5 una trayectoria de vuelo 70 o repita la misma trayectoria de vuelo 70 para obtener imágenes adicionales.
[0063] En una etapa 54, uno o más procesadores 24 pueden recibir una o más imágenes oblicuas capturadas por la aeronave no tripulada 18. La información de la trayectoria de vuelo, de control de la cámara y la información de control del cardán pueden dirigir las aeronaves no tripuladas 18 para capturar una o más imágenes oblicuas en
10 ubicaciones y tiempos predeterminados como se describe aquí. La o las imágenes oblicuas o se pueden comunicar al o a los procesadores 24 a través de la red y/o almacenadas en uno o más medios legibles por ordenador no transitorios. La o las imágenes oblicuas se pueden almacenar en una o más base de datos de imágenes 34. En algunas realizaciones, la o las imágenes oblicuas pueden comunicarse al terminal de usuario 14, y el terminal de usuario 14 puede comunicar las imágenes al o a los procesadores 24.
15
[0064] En un paso 56, uno o más procesadores 24 pueden generar un informe de estructura. La lógica del programa 36 puede facilitar que uno o más terminales de usuario 14 que interactúan con el procesador 24 a través de la red 16 proporcionen una o más páginas web que permiten a los usuarios ver el informe de estructura. Por ejemplo, la Fig. 9 ilustra una captura de pantalla ejemplar 76 de un informe de estructura 78 en la unidad de visualización 22
20 de un terminal de usuario 14.
[0065] Una o más imágenes 80 obtenidas de la cámara 19 de la aeronave no tripulada 18 pueden usarse para evaluación de la estructura de interés 21 para el informe de estructura 78. Por ejemplo, si la estructura de interés 21 es un edificio, las imágenes obtenidas de la cámara 19 se pueden usar en una evaluación de seguro (por ejemplo,
25 daño de inundación, daño por granizo, daño por tornado).
[0066] Una o más imágenes 80 obtenidas de la cámara pueden proporcionarse en el informe de estructura 78. Por ejemplo, el informe de estructura 78 en la Fig. 9 incluye un conjunto de datos de imagen 82. El conjunto de datos de imágenes 82 puede incluir imágenes nadir y/o oblicuas 80 de la estructura de interés 21. Además, el conjunto de
30 datos de imágenes 82 puede incluir una o más imágenes 80 de objetos de interés sobre y/o dentro de la estructura de interés 21. Por ejemplo, si el informe de estructura 78 informa del daño a una cubierta de la estructura de interés 21, se pueden incluir dentro del conjunto de datos de imagen 82 una o más imágenes 80 del daño a la cubierta. En algunas realizaciones, se pueden incluir imágenes de terceros de la estructura de interés 21 dentro del informe de estructura 78.
35
[0067] Los detalles estructurales se pueden proporcionar en el informe de estructura 78 dentro de un conjunto de datos de estructura 84 como se ilustra en la Fig. 9. El conjunto de datos de estructura 84 puede incluir información relacionada con la estructura de interés 21 que incluye, pero no se limita a, área de la estructura de interés 21 (p. ej., metros cuadrados), detalles del techo (p. ej., inclinación, longitud de la arista, longitud del valle, longitud del alero,
40 desnivel), altura de la estructura de interés 21, y/o similares. Además, el conjunto de datos de estructura 84 puede incluir otra información para el informe de estructura 78. Por ejemplo, el conjunto de datos de estructura 84 puede incluir información sobre el momento en que se realizó el pedido del informe de estructura 78, el momento en que se completó el pedido del informe de estructura 78, el mecanismo de entrega para el informe de estructura 78, el precio del pedido para el informe 78 de estructura, y similares, por ejemplo.
45
[0068] Basado en la información de ruta de vuelo, la información de control de la cámara y la información de control del cardán, durante la captura de imagen, también se puede conocer la ubicación de la cámara 19 con relación a la estructura de interés 21 para las imágenes capturadas. Por ejemplo, en algunas realizaciones, la ubicación X, Y, Z (por ejemplo, latitud, longitud y altitud) de una ubicación vista dentro de cada imagen puede determinarse. La
50 información se puede usar para evaluar más objetos en y dentro de la estructura de interés 21. En algunas realizaciones, las imágenes 80 capturadas por la aeronave no tripulada 18 se pueden usar para generar un modelo bidimensional o tridimensional de la estructura de interés 21.
[0069] El sistema de evaluación de estructura de aeronave no tripulada 10 se puede usar de la siguiente 55 manera.
[0070] Un perito del seguro u otro operador de campo llegaría a la casa que está siendo evaluada por daños o por suscripción. Iría a una aplicación en línea en un dispositivo informático en red portátil (por ejemplo, el terminal de usuario 14), como una tableta, un teléfono inteligente o portátil, y seleccionaría la propiedad y la estructura de interés
21. Esta selección podría hacerse con información de identificación, como un GPS que determina su ubicación actual, ingresando una dirección en la barra de búsqueda, al ingresar la ubicación geográfica en el terminal de usuario 14, al desplazarse por un mapa o imagen aérea mostrada en el terminal de usuario 14 de la ubicación actual, o a través de una propiedad de destino preseleccionada hecha por virtualmente cualquier procedimiento que resulte en encontrar 5 la propiedad y almacenarla para su posterior recuperación.
[0071] Una vez que se encuentra la ubicación, se muestra una imagen o modelo en 3-D para que esa propiedad
y estructura de interés 21 se muestre en la pantalla. Una imagen oblicua, o una imagen del lado de la calle, proporcionaría más información al operador para verificación de la propiedad ya que las imágenes ortogonales 10 tradicionales no incluyen ninguna porción del lado de la imagen. El modelo 3D (que puede estar texturizado con una imagen oblicua o del lado de la calle) también funcionaría. El operador verifica que la propiedad y la estructura de interés 21 en la pantalla coincide con la propiedad y la estructura de interés 21 frente a la cual se encuentra para asegurarse de que el operador genera el informe adecuado.
15 [0072] El operador luego hace clic en la estructura de interés 21 y solicita un plan de vuelo para esa estructura
de interés 21. El software, que se ejecuta en uno o ambos terminales de usuario 14 y el sistema host 12, aísla la estructura de interés 21 y genera un esquema como se describe arriba. El software también hace que el sistema del terminal de usuario 14 determine la altura H de la estructura, ya sea utilizando un procedimiento automatizado, o haciendo que el operador use una herramienta de altura en la imagen oblicua, tal como a través del procedimiento 20 descrito en la Patente de Estados Unidos N.° 7.424.133. Esta altura H se usa entonces para determinar automáticamente la altura de vuelo adecuada, el desplazamiento lateral Loffset y la compensación de desplazamiento vertical Voffset para la trayectoria de vuelo para la aeronave no tripulada 18 (que puede ser un sistema aéreo no tripulado). La altura H también puede usarse para apuntar la cámara orientable 19 llevada por la aeronave no tripulada 18.
25
[0073] En esta realización, en primer lugar, se genera una "Ruta de destino" que sigue la trayectoria del perímetro de la estructura 21 y que está a una altura sobre el suelo tal que un centro C1 del campo de visión se puede ubicar a la mitad de la altura de la estructura de interés 21 como se ilustra en la Fig. 5. De esta manera, si se trata de una estructura de dos pisos y medio de 28 'de altura, la trayectoria objetivo se generaría de manera que el centro C1
30 del campo de visión pueda estar a 14 'de altura sobre el suelo. Sin embargo, debería entenderse que la altura sobre el suelo no tiene que colocar el centro 01 del campo de visión en la mitad de la altura de la estructura de interés 21 y puede variar.
[0074] A continuación, se pueden usar características de la cámara 19, tales como, por ejemplo, la resolución 35 efectiva deseada de la imagen así como el tamaño total del sensor de la cámara 19 a bordo de la aeronave no tripulada
18, para determinar el ancho de franja vertical máxima que puede capturarse en una sola pasada. Entonces, por ejemplo, si la resolución de imagen efectiva deseada es 1A "GSD, y el sensor tiene 4.000 píxeles en la orientación vertical, el ancho máximo vertical de la franja sería de 1,000 "o 125 '. Se puede restar un buffer significativo B para permitir errores de posición y orientación durante el vuelo, para golpear debido al viento, y para errores de posición 40 absoluta en las imágenes de referencia. El tamaño del buffer B puede variar, pero puede haber alrededor de un 20 % de buffer en todos los lados de las imágenes. Así, en este ejemplo, el ancho máximo de la franja vertical sería 75 '. Si la estructura de interés 21 tiene una altura H mayor que esta, entonces la estructura de interés 21 puede necesitar ser capturada en múltiples pases. Si es así, utilizando los mismos números de ejemplo anteriores, se capturará el primer pase a 37.5 'sobre el suelo, el segundo a 112.5' sobre el suelo, el tercero a 187.5 'sobre el suelo, y así sucesivamente 45 hasta cubrir la totalidad de la estructura de interés 21.
[0075] Si la estructura de interés 21 es más pequeña que el ancho de franja vertical máxima, entonces la resolución puede aumentarse más allá de la resolución de imagen efectiva deseada. Así en el ejemplo anterior de la casa de dos pisos y medio, la resolución podría cambiarse a % ", lo que arrojaría un ancho máximo de franja de 37.5
50 'que es más que suficiente para cubrir los 28 'de altura de la estructura al tiempo que se incluye el 20 % de buffer B en todos los lados.
[0076] Una vez que se ha determinado la resolución de imagen efectiva, el desplazamiento lateral Loffset y el desplazamiento vertical Voffset se pueden determinarse calculando la longitud de la ruta que logra la resolución
55 determinada. Por ejemplo, con un tamaño de paso de 5 micras del sensor micrométrico y una lente de 50 mm, la longitud de la trayectoria sería 104 '. Si las imágenes deseadas se capturarán en un 0 de 40 grados (un ángulo de 40 grados a 50 grados por debajo de la horizontal es típicamente óptimo para imágenes oblicuas aéreas) que se traduce en un desplazamiento lateral Loffset de 79,6 ' de distancia de separación (coseno de 40 x 104') y un desplazamiento vertical Voffset de 66,8 ' de ajuste de altura vertical (seno de 40 x 104').
[0077] Usando la ruta de destino como punto de partida, la ruta ahora crecerá con el desplazamiento lateral
requerido Loffset y la distancia Voffset de compensación vertical usando la geometría estándar o los operadores morfológicos para crear la ruta de vuelo. Por ejemplo, si la ruta del objetivo fuera un círculo perfecto, el radio se
5 extendería en la distancia Loffset de desplazamiento lateral de 79,6 '. Si la ruta de destino fuera un rectángulo, cada lado se extendería hacia afuera por la distancia Loffset de desplazamiento lateral de 79,6 '. La altitud de vuelo de la trayectoria de vuelo se determinaría sumando la distancia Voffset de compensación vertical a la altura de la ruta de destino y luego agregando eso a la elevación del terreno para el punto de inicio de la ruta de vuelo. En el ejemplo de la casa de 28 ', la altitud de vuelo sería la suma de la altura de la trayectoria objetivo de 14' sobre el suelo, la 10 compensación vertical de 66,8 ' Voffset para la resolución deseada, y la elevación de la base al inicio, que para este ejemplo será 280 'por encima del elipsoide. Por lo tanto, la altura de vuelo resultante sería 360,8 'por encima del elipsoide.
[0078] Las alturas elipsoidales son utilizadas por sistemas basados en GPS. Si los datos de elevación están 15 disponibles, como un modelo de elevación digital estándar o como la información del plano de tierra teselado contenido
en las imágenes oblicuas, como se describe en la patente de los Estados Unidos N.° 7.424.133, se define en el nivel medio del mar, el valor de separación geoidal para esa área puede retirarse para llegar a una altura elipsoidal, una práctica fotogramétrica bien conocida. Desde el punto de vista del software, una biblioteca de software como la disponible en Blue Marble Geo se puede usar para realizar esta conversión automáticamente.
20
[0079] A continuación, el software determinará los Puntos de captura objetivo de la información de control de la cámara. Los puntos de captura objetivos pueden estar espaciados a lo largo de la ruta de destino de tal manera que se garantice una cobertura completa de la estructura vertical de interés 21. Esto se determinaría usando un procedimiento similar al que se hizo con el ancho de franja vertical máxima. Una vez conocida la resolución deseada,
25 se multiplica por el número de píxeles en la orientación horizontal del sensor de la cámara 19, y luego se resta la superposición suficiente. Usando el ejemplo anterior, si hay 3.000 píxeles en el sensor de la cámara 19 en la orientación horizontal y el software utiliza el mismo 20 % de superposición y 1A5 " de resolución de imagen efectiva GSD que se comentó anteriormente, entonces una distancia de espaciado adecuada para los Puntos de captura objetivo sería 18,75 '. Por lo tanto, se seleccionaría un punto de inicio arbitrario (normalmente se usa una esquina a lo 30 largo de la pared frontal) y luego se iría en una dirección arbitraria, y se colocaría un punto de captura objetivo en la ruta de destino cada 18.75 'y uno en la siguiente esquina si ocurre antes de un incremento completo. Un punto de captura objetivo puede colocarse al comienzo del siguiente segmento a lo largo del recorrido objetivo y este patrón pueden repetirse hasta que todos los segmentos tengan Puntos de Captura Objetivos.
35 [0080] Una vez que se han determinado todos los puntos de captura objetivo, los puntos de captura objetivo
pueden proyectarse en la ruta de vuelo para crear puntos de captura de vuelo. Esta proyección se puede lograr extendiendo una línea hacia afuera que es perpendicular a la ruta de destino y encontrando donde se cruza con la ruta de vuelo. Esto tiene el efecto de aplicar la distancia Loffset de compensación lateral y Voffset de compensación vertical calculadas anteriormente. Estos puntos de captura de vuelo se usan entonces para disparar la cámara 19 40 cuando la aeronave no tripulada 18 pasa por los puntos de captura de vuelo. Al hacerlo, la aeronave no tripulada 18 mantiene la cámara apuntada al punto de captura objetivo correspondiente. Este objetivo se puede lograr por una serie de procedimientos, como una aeronave no tripulada 18 que puede girar, pero se logra mejor con un cardán controlado por ordenador para la cámara 19.
45 [0081] Alternativamente, la cámara 19 de la aeronave no tripulada 18 podría ponerse en "modo de vídeo de
movimiento completo" mediante el cual las imágenes continuas se capturan a una alta velocidad (por lo general, más de 1 fotograma por segundo e incluso más de 30 fotogramas por segundo). La captura a altas velocidades de fotogramas asegura una superposición suficiente. Sin embargo, la captura a altas velocidades también da como resultado una cantidad mucho mayor de datos de imagen de la necesaria, lo que significa tiempos de carga más 50 largos. Adicionalmente, muchas cámaras 19 pueden capturar imágenes de mayor resolución en el modo de "vídeo de fotograma fijo" frente al modo de "vídeo de movimiento completo". Pero mientras el modo de vídeo de fotograma fijo se prefiere desde un punto de vista de resolución y transferencia de datos, si la cámara 19 tiene un modo de vídeo de movimiento completo, también se puede utilizar el modo de vídeo de movimiento completo. Cuando está en modo de vídeo en movimiento, la aeronave no tripulada 18 simplemente sigue la ruta de vuelo manteniendo la cámara 19 55 apuntando hacia la ruta de destino.
[0082] La aeronave no tripulada 18 seguiría la trayectoria de vuelo indicada mediante un vuelo autónomo. Hay
numerosos sistemas informáticos que pueden configurarse como un sistema de gestión de vuelo para lograr esto disponibles en el mercado hoy en día. El sistema de gestión de vuelo, ya sea a bordo o en tierra y comunicándose a
la aeronave no tripulada 18 a través de alguna forma de comunicación remota, luego rastrearía el progreso de la aeronave no tripulada 18 a lo largo de la ruta de vuelo y cada vez que la aeronave no tripulada 18 pasa un Punto de Captura de Vuelo, la cámara 19 se activaría para capturar un fotograma. O en el caso de que se haya seleccionado el vídeo de movimiento completo, la cámara 19 dispararía continuamente durante el vuelo a lo largo de la trayectoria 5 de vuelo. La posición y la orientación de la aeronave no tripulada 18 se monitorearían y la cámara 19 se dirigiría al punto de captura objetivo correspondiente, o en caso de que se haya seleccionado el vídeo de movimiento completo, el sistema de gestión de vuelo mantendría la cámara apuntando hacia el punto más cercano en la ruta de destino. Esto puede hacerse calculando el desplazamiento direccional relativo entre la línea que se mueve en la trayectoria del vuelo y la línea desde el punto de captura de vuelo al punto de captura objetivo (o el punto más cercano en la ruta de 10 vuelo para vídeo de movimiento completo). Esto entonces resulta en una desviación de guiñada y declinación para el cardán de la cámara. Típicamente, estas compensaciones van a ser una guiñada relativa de 90 grados y una declinación relativa igual al ángulo oblicuo de inclinación hacia abajo seleccionado arriba (en el ejemplo, 40 grados). Sin embargo, dado que los sistemas aerotransportados se mueven continuamente por el aire, se compensan para un cambio de posición, un cambio debido al cangrejeo, o un cambio en la guiñada, cabeceo o balanceo de la aeronave 15 no tripulada 18 necesitarían ser contabilizados. De nuevo, esto puede hacerse utilizando la ruta de acceso a lo largo de la ruta de vuelo en la que se encuentra actualmente la aeronave no tripulada 18 y compensarla por las desviaciones relativas de guiñada, cabeceo y balanceo de la aeronave no tripulada 18 según lo medido por el sistema de posición y orientación, y luego ajustado por la inclinación y declinación relativa como se describe arriba.
20 [0083] Una vez que se ha completado el circuito completo de la trayectoria de vuelo, el sistema de gestión de
vuelo puede instruir a la aeronave no tripulada 18 para regresar a su punto de lanzamiento y aterrizar. El operador puede tirar de cualquier almacenamiento desmontable o transferir las imágenes de otra manera desde el almacenamiento integrado a un sistema de almacenamiento extraíble o transferir las imágenes a través de alguna forma de red o enlace de comunicaciones. Las imágenes resultantes pueden ser utilizadas por el terminal de usuario 25 14 y/o el sistema host 12 para producir un informe de estructura y de daños. Se describen sistemas para producir un informe de daños y/o estructura en las patentes de los Estados Unidos N.° 8.078.436; 8.145.578; 8.170.840; 8.209.152; 8.401.222, y una solicitud de patente identificada por el número de serie de Estados Unidos 12/909,962, cuyo contenido completo se incorpora aquí como referencia. El informe completado se le proporcionará entonces al operador.
30
[0084] En algunas realizaciones, pueden incluirse conjuntos de datos adicionales dentro del informe de
estructura 78. Por ejemplo, los conjuntos de datos pueden incluir, entre otros, datos meteorológicos, datos de seguros/valoración, datos del censo, datos del distrito escolar, datos inmobiliarios y similares.
35 [0085] Los conjuntos de datos meteorológicos pueden ser proporcionados por una o más bases de datos que
almacenan información asociada con el clima (por ejemplo, inclemencias del tiempo). Un conjunto de datos meteorológicos dentro del informe de estructura 78 puede incluir, pero no se limita a, información y/o ubicación sobre el historial de granizo, datos de viento, datos de tormentas severas, datos de huracanes, datos de tornado, y similares. En algunas formas de realización, la una o las bases de datos que proporcionan información meteorológica pueden 40 alojarse en un sistema separado (por ejemplo, LiveHailMap.com) y proporcionar información al sistema host 12.
[0086] Los conjuntos de datos de seguro y valoración pueden ser proporcionados por una o más bases de datos que almacenan información asociada con el seguro de vivienda y/o valoración. Un conjunto de datos de seguro y/o valoración puede incluir, entre otros, valor asegurado del hogar, monto de la prima del seguro, tipo de residencia
45 (p. ej., multifamiliar, unifamiliar), cantidad de pisos (p. ej., piso múltiple, piso único), tipo de construcción, y similares. En algunas realizaciones, la una o las bases de datos pueden estar alojadas en un sistema separado (p. ej., Bluebook, MSB, 360Value) y proporcionar información al sistema host 12.
[0087] El conjunto de datos de seguro y valoración puede incluirse dentro del informe de estructura 78 y 50 proporcionarse al usuario. Por ejemplo, durante el aseguramiento de una casa, una compañía de seguros puede
solicitar el informe de la estructura 78 en una casa que se compró recientemente. La información dentro del informe de estructura 78 se puede integrar con la información del seguro proporcionada por una base de datos de seguros y utilizada para formar un informe de cotización. El informe de cotización puede ser enviado al usuario y/o compañía de seguros. Alternativamente, el informe de estructura 78 puede enviarse únicamente a la compañía de seguros y la 55 compañía de seguros usará la información para formular una cotización.
[0088] En otro ejemplo, el informe de estructura 78 puede usarse en una demanda de seguro. En el caso de una catástrofe de un cliente, se pueden usar una o más bases de datos para proporcionar un conjunto de datos de seguro con información de reclamación en el informe de estructura 78. Por ejemplo, una base de datos de seguros
con una póliza en vigor (PIF) y una base de datos meteorológicos se pueden usar para correlacionar información con respecto a una reclamación de seguro para un techo en particular. Esta información puede ser proporcionada dentro del informe de estructura 78. Además, en el caso de pérdida o alteraciones sustanciales de la estructura 21, múltiples imágenes pueden proporcionar dentro del informe de estructura 78 que muestra la estructura 21 en diferentes periodos 5 de tiempo (por ejemplo, antes de la pérdida, después de la pérdida). Por ejemplo, la Fig. 9 ilustra una captura de pantalla ejemplar 86 de la estructura 21 que tiene una imagen 88a capturada en un primer período de tiempo (por ejemplo, antes de la pérdida), y una imagen 88b capturada en un segundo período de tiempo (por ejemplo, después de la pérdida).
10 [0089] Los conjuntos de datos inmobiliarios o censales también pueden incluirse dentro del informe de
estructura 78. Los datos inmobiliarios y/o censales pueden ser proporcionados por una o más bases de datos que tengan información detallada de un hogar. Por ejemplo, el conjunto de datos inmobiliarios puede incluir, entre otros, el nombre del propietario, el precio de compra de la casa, el número de veces que la casa ha estado en el mercado, el número de días que la casa ha estado en el mercado, el tamaño del lote, y/o similares. El conjunto de datos del censo 15 puede incluir información sobre el número de residentes dentro del hogar. En algunas formas de realización, la o las bases de datos pueden estar alojadas en un sistema separado (por ejemplo, Core Logic) y proporcionar información al sistema host 12 para proporcionar conjuntos de datos como se describe en este documento.
[0090] Se pueden proporcionar otros servicios relacionados con la estructura dentro del informe de estructura 20 78. Por ejemplo, usando la superficie en metros cuadrados de la huella del techo, se puede generar una cotización
sobre el costo del aislamiento del techo (p. ej., eficiencia energética, reemplazo de aislamiento y similares). Además, las auditorías se pueden realizar utilizando información dentro de una o más bases de datos. Por ejemplo, utilizando el área de cubierta de una estructura, reclamaciones de seguros pagados históricamente por comparables, y la validación del pago de una reclamación específica para el hogar, se puede hacer una comparación para determinar si 25 el pago del servicio de la reclamación específica estaba dentro de un cierto umbral. La auditoría, se debe entender, se puede aplicar a otras áreas como se describe aquí también.
[0091] Aunque las imágenes de las estructuras residenciales se muestran en el presente documento, debe tenerse en cuenta que los sistemas y procedimientos en la presente descripción se pueden aplicar a cualquier edificio
30 o estructura residencial y comercial. Además, los sistemas y los procedimientos en la presente descripción se pueden aplicar a cualquier estructura hecha por el hombre y/o estructura natural.

Claims (12)

  1. REIVINDICACIONES
    1. Un sistema informático, que comprende:
    5 un sistema informático que tiene una unidad de entrada, una unidad de visualización, uno o más procesadores y uno o más medios legibles por ordenador no transitorios, uno o más procesadores que ejecutan software de visualización y análisis de imágenes para hacer que el o los procesadores:
    reciban una identificación de una estructura de la unidad de entrada, la estructura tiene múltiples lados y un contorno; 10 obtengan datos indicativos de múltiples posiciones geográficas pertenecientes a un esquema de una estructura con múltiples lados e información sobre la altura de la estructura; obtengan las características de una cámara montada en una aeronave no tripulada; generen información de aeronaves no tripuladas que incluye:
    la información de la trayectoria de vuelo configurada para dirigir la aeronave no tripulada para volar una trayectoria de 15 vuelo alrededor de la estructura que está desplazada lateral y verticalmente de las posiciones geográficas del contorno de la estructura, las desviaciones lateral y vertical dependiendo de la información de altura de la estructura, una orientación de la cámara en relación con la aeronave no tripulada, y las características de la cámara; y, almacenen la información de la aeronaves no tripulada en uno o más medios legibles por ordenador no transitorios.
    20 2. El sistema informático de la reivindicación 1, donde el software de visualización y análisis de imágenes
    hace que el o los procesadores provoquen que una cámara en la aeronave no tripulada capture al menos una imagen de al menos uno de los lados de la estructura.
  2. 3. El sistema informático de la reivindicación 2, donde el software de visualización y análisis de imágenes
    25 hace que el o los procesadores muestren una imagen de la estructura en la unidad de visualización, la imagen que
    representa al menos una parte del contorno de la estructura.
  3. 4. El sistema informático de la reivindicación 3, donde la imagen es una primera imagen, y en la que el software de visualización y análisis de imagen hace que uno o más procesadores muestren una segunda imagen y
    30 una capa de trayectoria de vuelo que se superpone a la segunda imagen, la capa de trayectoria de vuelo que indica la ruta de vuelo en la que la información de ruta de vuelo está configurada para dirigir a las aeronaves no tripuladas para volar.
  4. 5. El sistema informático de la reivindicación 4, donde la primera imagen se selecciona de un grupo que
    35 consiste en una imagen oblicua y una imagen nadir; y la segunda imagen se selecciona de un grupo que consiste en
    una imagen oblicua y una imagen nadir.
  5. 6. El sistema informático de una cualquiera de las reivindicaciones 2, 3 o 4, donde el sistema informático incluye un puerto de comunicación y donde el software de visualización y análisis de imágenes hace que el o los
    40 procesadores reciban, a través del puerto de comunicación, una o más imágenes oblicuas capturadas por la aeronave no tripulada y almacena el o las imágenes oblicuas en uno o más medios legibles por ordenador no transitorios.
  6. 7. El sistema computarizado de la reivindicación 6, donde el sistema informático incluye un terminal de usuario que tiene uno o más primeros procesadores que se comunican con un sistema informático que tiene uno o
    45 más segundos procesadores y que alojan una base de datos de imágenes aéreas, y donde el software de visualización y análisis de imágenes hace que el o los procesadores reciban la o las imágenes oblicuas capturadas por la aeronave no tripulada y se comuniquen con el o los segundos procesadores para cargar una o más imágenes oblicuas en la base de datos de imágenes aéreas.
    50 8. El sistema computarizado de la reivindicación 7, donde las imágenes oblicuas son primeras imágenes,
    y donde uno o más segundas imágenes se almacenan en uno o más medios legibles por computadora no transitorios, y en donde el software de visualización y análisis de la imagen y el software de análisis hace que el uno o más procesadores muestren las primeras imágenes y la o las segundas imágenes simultáneamente en la unidad de visualización.
    55
  7. 9. El sistema informático de una cualquiera de las reivindicaciones 1-5 y 7-8, donde el sistema informático
    incluye un puerto de comunicación y donde el software de visualización y análisis de imágenes hace que el o los procesadores carguen la información de la aeronave no tripulada en la aeronave no tripulada a través del puerto de comunicación.
  8. 10. Un procedimiento informático, que comprende los pasos de:
    generar información de aeronave no tripulada, incluida la información de ruta de vuelo configurada para dirigir una 5 aeronave no tripulada que lleva una cámara para volar una trayectoria de vuelo alrededor de una estructura identificada que tiene un perfil que sustancialmente sigue el contorno de la estructura y se compensa lateral y verticalmente desde las posiciones geográficas del contorno de la estructura, el desplazamiento lateral y vertical dependiendo de la información de la altura de la estructura, una orientación de una cámara relativa a la aeronave no tripulada, y al menos una característica de la cámara; y, que guía a la aeronave no tripulada con la información de ruta de vuelo.
    10
  9. 11. El procedimiento computarizado de la reivindicación 10, donde el paso de generar información de la aeronave no tripulada incluye generar información de control de la cámara configurada para provocar que una cámara en el avión no tripulado capture imágenes oblicuas de al menos uno de los lados de la estructura, y además comprende el paso de controlar la cámara con la información de control de la cámara para hacer que la cámara de la aeronave
    15 no tripulada capture imágenes oblicuas de al menos uno de los lados de la estructura.
  10. 12. El procedimiento informático de la reivindicación 11, que comprende además hacer que la cámara de la aeronave no tripulada capture al menos una imagen de al menos uno de los lados de la estructura.
    20 13. El procedimiento computarizado de la reivindicación 12, que comprende además visualizar una imagen
    de la estructura en una unidad de visualización, la imagen que representa al menos una parte del contorno de la estructura.
  11. 14. El procedimiento computarizado de la reivindicación 13, donde la imagen es una primera imagen, y que 25 comprende además mostrar una segunda imagen y una capa de trayectoria de vuelo que se superpone a la segunda
    imagen, la capa de trayectoria de vuelo que representa la trayectoria de vuelo que la información de trayectoria de vuelo está configurada para dirigir el avión no tripulado para volar.
  12. 15. El sistema informático de la reivindicación 14, donde la primera imagen se selecciona de un grupo que 30 consiste en una imagen oblicua y una imagen nadir; y la segunda imagen se selecciona de un grupo que consiste en
    una imagen oblicua y una imagen nadir.
ES15734836.8T 2014-01-10 2015-01-07 Sistema y procedimiento de evaluación de estructura mediante aeronave no tripulada Active ES2684643T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461926137P 2014-01-10 2014-01-10
US201461926137P 2014-01-10
PCT/US2015/010496 WO2015105886A1 (en) 2014-01-10 2015-01-07 Unmanned aircraft structure evaluation system and method

Publications (1)

Publication Number Publication Date
ES2684643T3 true ES2684643T3 (es) 2018-10-03

Family

ID=53524310

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15734836.8T Active ES2684643T3 (es) 2014-01-10 2015-01-07 Sistema y procedimiento de evaluación de estructura mediante aeronave no tripulada

Country Status (7)

Country Link
US (14) US9612598B2 (es)
EP (2) EP3092625B1 (es)
AU (4) AU2015204838B2 (es)
CA (3) CA3161755A1 (es)
ES (1) ES2684643T3 (es)
MX (1) MX2016008890A (es)
WO (1) WO2015105886A1 (es)

Families Citing this family (172)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190146462A1 (en) * 2017-11-10 2019-05-16 General Electric Company Robotic inspection system with data transmission
ES2684643T3 (es) * 2014-01-10 2018-10-03 Pictometry International Corp. Sistema y procedimiento de evaluación de estructura mediante aeronave no tripulada
DE102014201238A1 (de) * 2014-01-23 2015-07-23 Siemens Aktiengesellschaft Verfahren und System zur Erstellung einer Vektorkarte
US11549827B1 (en) * 2014-02-28 2023-01-10 Infrared Cameras, Inc. System and method for automated condition value reporting
JP6555255B2 (ja) * 2014-04-25 2019-08-07 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
CN111717407B (zh) * 2014-04-25 2023-09-29 索尼公司 控制方法和控制装置
US9817396B1 (en) * 2014-06-09 2017-11-14 X Development Llc Supervisory control of an unmanned aerial vehicle
US9978030B2 (en) * 2014-06-11 2018-05-22 Hartford Fire Insurance Company System and method for processing of UAV based data for risk mitigation and loss control
US12007763B2 (en) 2014-06-19 2024-06-11 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9812021B2 (en) * 2014-06-25 2017-11-07 Amazon Technologies, Inc. Object avoidance for automated aerial vehicles
WO2016053438A2 (en) * 2014-07-21 2016-04-07 King Abdullah University Of Science And Technology STRUCTURE FROM MOTION (SfM) PROCESSING FOR UNMANNED AERIAL VEHICLE (UAV)
CA2958075C (en) 2014-08-29 2024-02-13 Spookfish Innovations Pty Ltd An aerial survey image capture system
US20210192629A1 (en) 2014-09-22 2021-06-24 State Farm Mutual Automobile Insurance Company Disaster damage analysis and loss mitigation implementing unmanned aerial vehicles (uavs)
US10134092B1 (en) 2014-10-09 2018-11-20 State Farm Mutual Automobile Insurance Company Method and system for assessing damage to insured properties in a neighborhood
US9129355B1 (en) 2014-10-09 2015-09-08 State Farm Mutual Automobile Insurance Company Method and system for assessing damage to infrastructure
US9875509B1 (en) 2014-10-09 2018-01-23 State Farm Mutual Automobile Insurance Company Method and system for determining the condition of insured properties in a neighborhood
US9928553B1 (en) 2014-10-09 2018-03-27 State Farm Mutual Automobile Insurance Company Method and system for generating real-time images of customer homes during a catastrophe
US20160239976A1 (en) 2014-10-22 2016-08-18 Pointivo, Inc. Photogrammetric methods and devices related thereto
US10538325B1 (en) * 2014-11-11 2020-01-21 United Services Automobile Association Utilizing unmanned vehicles to initiate and/or facilitate claims processing
US20160246297A1 (en) * 2015-02-24 2016-08-25 Siemens Corporation Cloud-based control system for unmanned aerial vehicles
EP3062066A1 (en) * 2015-02-26 2016-08-31 Hexagon Technology Center GmbH Determination of object data by template-based UAV control
US10509417B2 (en) * 2015-03-18 2019-12-17 Van Cruyningen Izak Flight planning for unmanned aerial tower inspection with long baseline positioning
US20160314224A1 (en) * 2015-04-24 2016-10-27 Northrop Grumman Systems Corporation Autonomous vehicle simulation system
US10015762B2 (en) * 2015-05-28 2018-07-03 Facebook, Inc. Doppler shift estimation and correction for broadband communication in unmanned aerial vehicles
US10977734B1 (en) * 2015-05-29 2021-04-13 State Farm Mutual Automobile Insurance Company Method and system for collaborative inspection of insured properties
US9953540B2 (en) 2015-06-16 2018-04-24 Here Global B.V. Air space maps
JP6228679B2 (ja) * 2015-07-10 2017-11-08 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd ジンバル及びジンバルシミュレーションシステム
KR102364730B1 (ko) 2015-07-29 2022-02-18 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US9928649B2 (en) 2015-08-03 2018-03-27 Amber Garage, Inc. Interface for planning flight path
US9947230B2 (en) 2015-08-03 2018-04-17 Amber Garage, Inc. Planning a flight path by identifying key frames
EP3922565B1 (en) 2015-08-17 2024-03-13 H3 Dynamics Holdings Pte. Ltd. Drone box
EP3351692A4 (en) 2015-09-15 2018-09-05 Sumitomo (S.H.I.) Construction Machinery Co., Ltd. Shovel
US9772395B2 (en) 2015-09-25 2017-09-26 Intel Corporation Vision and radio fusion based precise indoor localization
JP6569114B2 (ja) * 2015-10-19 2019-09-04 エナジー・ソリューションズ株式会社 検査システム、及び検査方法
US10008123B2 (en) * 2015-10-20 2018-06-26 Skycatch, Inc. Generating a mission plan for capturing aerial images with an unmanned aerial vehicle
US9508263B1 (en) * 2015-10-20 2016-11-29 Skycatch, Inc. Generating a mission plan for capturing aerial images with an unmanned aerial vehicle
US9940842B2 (en) * 2015-11-02 2018-04-10 At&T Intellectual Property I, L.P. Intelligent drone traffic management via radio access network
US20230177616A1 (en) * 2015-11-17 2023-06-08 State Farm Mutual Automobile Insurance Company System and computer-implemented method for using images to evaluate property damage claims and perform related actions
US10540901B2 (en) * 2015-11-23 2020-01-21 Kespry Inc. Autonomous mission action alteration
CA3006974A1 (en) * 2015-11-23 2017-06-01 Kespry Inc. Autonomous mission action alteration
USD820768S1 (en) 2015-11-30 2018-06-19 SZ DJI Technology Co., Ltd. Aerial vehicle
US10832332B1 (en) 2015-12-11 2020-11-10 State Farm Mutual Automobile Insurance Company Structural characteristic extraction using drone-generated 3D image data
US10301019B1 (en) * 2015-12-17 2019-05-28 Amazon Technologies, Inc. Source location determination
US9630713B1 (en) * 2015-12-17 2017-04-25 Qualcomm Incorporated Unmanned aerial vehicle with adjustable aiming component
US9740200B2 (en) * 2015-12-30 2017-08-22 Unmanned Innovation, Inc. Unmanned aerial vehicle inspection system
US9618940B1 (en) 2015-12-31 2017-04-11 Unmanned Innovation, Inc. Unmanned aerial vehicle rooftop inspection system
WO2017127711A1 (en) 2016-01-20 2017-07-27 Ez3D, Llc System and method for structural inspection and construction estimation using an unmanned aerial vehicle
WO2017131194A1 (ja) * 2016-01-29 2017-08-03 住友建機株式会社 ショベル及びショベルの周囲を飛行する自律式飛行体
US9934591B2 (en) * 2016-04-08 2018-04-03 Orbital Insight, Inc. Remote determination of quantity stored in containers in geographical region
US10627821B2 (en) * 2016-04-22 2020-04-21 Yuneec International (China) Co, Ltd Aerial shooting method and system using a drone
US11029352B2 (en) 2016-05-18 2021-06-08 Skydio, Inc. Unmanned aerial vehicle electromagnetic avoidance and utilization system
US10430890B1 (en) * 2016-06-09 2019-10-01 Allstate Insurance Company Image-based processing for products
JP6020872B1 (ja) * 2016-06-24 2016-11-02 株式会社アドインテ 分析システム及び分析方法
WO2017222541A1 (en) * 2016-06-24 2017-12-28 Intel IP Corporation Unmanned aerial vehicle
US10460279B2 (en) * 2016-06-28 2019-10-29 Wing Aviation Llc Interactive transport services provided by unmanned aerial vehicles
JP6785412B2 (ja) * 2016-07-22 2020-11-18 パナソニックIpマネジメント株式会社 無人航空機システム
USD855007S1 (en) * 2016-08-12 2019-07-30 Guangzhou Ehang Intelligent Technology Co., Ltd. Aircraft
US10520943B2 (en) * 2016-08-12 2019-12-31 Skydio, Inc. Unmanned aerial image capture platform
US10032310B2 (en) 2016-08-22 2018-07-24 Pointivo, Inc. Methods and systems for wireframes of a structure or element of interest and wireframes generated therefrom
CN107783106B (zh) * 2016-08-25 2021-02-26 大连楼兰科技股份有限公司 无人机与障碍物之间的数据融合方法
US10853942B1 (en) * 2016-08-29 2020-12-01 Amazon Technologies, Inc. Camera calibration in a mobile environment
US10121117B1 (en) * 2016-09-08 2018-11-06 Amazon Technologies, Inc. Drone location signature filters
US10049589B1 (en) 2016-09-08 2018-08-14 Amazon Technologies, Inc. Obstacle awareness based guidance to clear landing space
US10198955B1 (en) 2016-09-08 2019-02-05 Amazon Technologies, Inc. Drone marker and landing zone verification
US10020872B2 (en) * 2016-10-11 2018-07-10 T-Mobile Usa, Inc. UAV for cellular communication
US9866313B1 (en) 2016-12-14 2018-01-09 T-Mobile Usa, Inc. UAV cellular communication service delivery
CN113038020B (zh) * 2016-10-14 2023-07-11 深圳市大疆创新科技有限公司 用于时刻捕获的***和方法
US10353388B2 (en) * 2016-10-17 2019-07-16 X Development Llc Drop-off location planning for delivery vehicle
CN109952755B (zh) * 2016-10-17 2021-08-20 深圳市大疆创新科技有限公司 飞行路径生成方法、飞行路径生成***、飞行体以及记录介质
JP6688901B2 (ja) * 2016-10-17 2020-04-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 3次元形状推定方法、3次元形状推定システム、飛行体、プログラム、及び記録媒体
AU2017344757B2 (en) * 2016-10-20 2022-08-04 Spookfish Innovations Pty Ltd An aerial camera boresight calibration system
WO2018083698A1 (en) * 2016-11-03 2018-05-11 Datumate Ltd. System and method for automatically acquiring two-dimensional images and three-dimensional point cloud data of a field to be surveyed
US10521664B2 (en) 2016-11-04 2019-12-31 Loveland Innovations, LLC Systems and methods for autonomous perpendicular imaging of test squares
US10928821B2 (en) * 2016-11-04 2021-02-23 Intel Corporation Unmanned aerial vehicle-based systems and methods for generating landscape models
US9823658B1 (en) 2016-11-04 2017-11-21 Loveland Innovations, LLC Systems and methods for adaptive property analysis via autonomous vehicles
AU2017203165B2 (en) * 2016-11-09 2022-08-18 Aerologix Group Pty Ltd Method and System for Collection of Photographic Data
CN107003679A (zh) * 2016-11-23 2017-08-01 深圳市大疆创新科技有限公司 无人飞行器的避障控制方法及无人飞行器
KR101765235B1 (ko) * 2016-11-28 2017-08-04 한국건설기술연구원 사물인터넷 기반 센서와 무인비행체를 이용한 시설물 유지관리 시스템 및 그 방법
US11295458B2 (en) 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors
KR20180068469A (ko) * 2016-12-14 2018-06-22 현대자동차주식회사 무인비행장치 및 이를 포함하는 시스템
US10692160B1 (en) * 2017-01-04 2020-06-23 State Farm Mutual Automobile Insurance Company Property damage estimator
US11043026B1 (en) 2017-01-28 2021-06-22 Pointivo, Inc. Systems and methods for processing 2D/3D data for structures of interest in a scene and wireframes generated therefrom
US10726558B2 (en) 2017-02-27 2020-07-28 Dolphin AI, Inc. Machine learning-based image recognition of weather damage
US10554950B1 (en) 2017-03-16 2020-02-04 Amazon Technologies, Inc. Collection of camera calibration data using augmented reality
US10447995B1 (en) 2017-03-16 2019-10-15 Amazon Technologies, Inc. Validation of camera calibration data using augmented reality
US9986233B1 (en) * 2017-03-16 2018-05-29 Amazon Technologies, Inc. Camera calibration using fixed calibration targets
US10455520B2 (en) 2017-03-30 2019-10-22 At&T Intellectual Property I, L.P. Altitude based device management in a wireless communications system
US11157907B1 (en) * 2017-04-26 2021-10-26 Wells Fargo Bank, N.A. Transaction validation and fraud mitigation
EP3635619A4 (en) 2017-05-07 2021-01-20 Manam Applications Ltd. SYSTEM AND PROCESS FOR 3D MODELING AND ANALYSIS OF A CONSTRUCTION
US10682677B2 (en) 2017-05-10 2020-06-16 General Electric Company System and method providing situational awareness for autonomous asset inspection robot monitor
US10984182B2 (en) 2017-05-12 2021-04-20 Loveland Innovations, LLC Systems and methods for context-rich annotation and report generation for UAV microscan data
WO2018217193A1 (en) 2017-05-24 2018-11-29 Google Llc Bayesian methodology for geospatial object/characteristic detection
WO2018222945A1 (en) 2017-05-31 2018-12-06 Geomni, Inc. System and method for mission planning and flight automation for unmanned aircraft
US20210295457A1 (en) 2017-06-27 2021-09-23 State Farm Mutual Automobile Insurance Company Systems and methods for controlling a fleet of drones for data collection
CN107272028B (zh) * 2017-07-18 2019-08-02 中国民用航空总局第二研究所 基于无人机的导航设备在线监测及飞行校验***和方法
US10642264B2 (en) * 2017-07-19 2020-05-05 Superior Communications, Inc. Security drone system
GB2566023B (en) * 2017-08-30 2020-06-17 Jaguar Land Rover Ltd Controller for an unmanned aerial vehicle
US10880465B1 (en) 2017-09-21 2020-12-29 IkorongoTechnology, LLC Determining capture instructions for drone photography based on information received from a social network
US10364027B2 (en) 2017-10-24 2019-07-30 Loveland Innovations, LLC Crisscross boustrophedonic flight patterns for UAV scanning and imaging
US10713839B1 (en) 2017-10-24 2020-07-14 State Farm Mutual Automobile Insurance Company Virtual vehicle generation by multi-spectrum scanning
CN107543549B (zh) * 2017-10-27 2020-09-01 上海理工大学 无人机单侧成像约束条件下的路线规划方法
US10872534B2 (en) 2017-11-01 2020-12-22 Kespry, Inc. Aerial vehicle inspection path planning
US10725468B2 (en) * 2017-11-13 2020-07-28 Intel IP Corporation Bounding-volume based unmanned aerial vehicle illumination management system
WO2019094932A1 (en) * 2017-11-13 2019-05-16 Geomni, Inc. System and method for mission planning, flight automation, and capturing of high-resolution images by unmanned aircraft
EP3591490B1 (en) * 2017-12-15 2021-12-01 Autel Robotics Co., Ltd. Obstacle avoidance method and device, and unmanned aerial vehicle
WO2019127019A1 (zh) * 2017-12-26 2019-07-04 深圳市道通智能航空技术有限公司 无人飞行器路径规划方法、装置和飞行管理方法、装置
US11048257B2 (en) * 2018-01-23 2021-06-29 Gopro, Inc. Relative image capture device orientation calibration
US10607406B2 (en) * 2018-01-25 2020-03-31 General Electric Company Automated and adaptive three-dimensional robotic site surveying
GB2570497B (en) * 2018-01-29 2020-07-29 Ge Aviat Systems Ltd Aerial vehicles with machine vision
US10521962B1 (en) * 2018-03-08 2019-12-31 State Farm Mutual Automobile Insurance Company Method and system for visualizing overlays in virtual environments
US10970923B1 (en) * 2018-03-13 2021-04-06 State Farm Mutual Automobile Insurance Company Method and system for virtual area visualization
JP7079125B2 (ja) * 2018-03-20 2022-06-01 株式会社パスコ 空中写真撮影管理システム及びプログラム
EP3776493A1 (en) * 2018-03-28 2021-02-17 Mobile Devices Ingenierie Method and system to improve driver information and vehicle maintenance
US10732001B1 (en) 2018-04-06 2020-08-04 State Farm Mutual Automobile Insurance Company Methods and systems for response vehicle deployment
WO2019195991A1 (zh) * 2018-04-09 2019-10-17 深圳市大疆创新科技有限公司 运动轨迹确定、延时摄影方法、设备及机器可读存储介质
US10832476B1 (en) 2018-04-30 2020-11-10 State Farm Mutual Automobile Insurance Company Method and system for remote virtual visualization of physical locations
US11272081B2 (en) * 2018-05-03 2022-03-08 Disney Enterprises, Inc. Systems and methods for real-time compositing of video content
US10691944B2 (en) * 2018-05-21 2020-06-23 The Boeing Company Geo-registering an aerial image by an object detection model using machine learning
US10642284B1 (en) * 2018-06-08 2020-05-05 Amazon Technologies, Inc. Location determination using ground structures
US11526935B1 (en) 2018-06-13 2022-12-13 Wells Fargo Bank, N.A. Facilitating audit related activities
US11106911B1 (en) 2018-06-13 2021-08-31 Pointivo, Inc. Image acquisition planning systems and methods used to generate information for structures of interest
US10836762B2 (en) * 2018-06-20 2020-11-17 Quixotic Holdings LLC Network-centric sensor coverage management
SG11202012189SA (en) * 2018-07-04 2021-01-28 H3 Dynamics Pte Ltd Defect detection system using a camera equipped uav for building facades on complex asset geometry with optimal automatic obstacle deconflicted flightpath
US10545501B1 (en) * 2018-07-05 2020-01-28 Marc Lipton Autonomous aerial vehicle for lighting inspection and replacement and methods for use therewith
EP3825763A1 (en) * 2018-07-18 2021-05-26 SZ DJI Technology Co., Ltd. Image photographing method and unmanned aerial vehicle
US10983528B2 (en) * 2018-07-25 2021-04-20 Toyota Research Institute, Inc. Systems and methods for orienting a robot in a space
US11205072B2 (en) 2018-08-24 2021-12-21 Loveland Innovations, LLC Solar ray mapping via divergent beam modeling
US10366287B1 (en) 2018-08-24 2019-07-30 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure
CN112601710B (zh) * 2018-08-24 2022-07-15 三菱电机株式会社 电梯的标记定位装置
US11210514B2 (en) 2018-08-24 2021-12-28 Loveland Innovations, LLC Image analysis and estimation of rooftop solar exposure via solar ray mapping
US11055531B1 (en) * 2018-08-24 2021-07-06 United Services Automobiie Association (USAA) Augmented reality method for repairing damage or replacing physical objects
US10775174B2 (en) 2018-08-30 2020-09-15 Mapbox, Inc. Map feature extraction system for computer map visualizations
WO2020056041A1 (en) * 2018-09-11 2020-03-19 Pointivo, Inc. Improvements in data acquistion, processing, and output generation for use in analysis of one or a collection of physical assets of interest
AU2019345276A1 (en) 2018-09-21 2021-05-27 Eagle View Technologies, Inc. Method and system for determining solar access of a structure
WO2020079309A1 (en) * 2018-10-15 2020-04-23 Nokia Solutions And Networks Oy Obstacle detection
US11024099B1 (en) 2018-10-17 2021-06-01 State Farm Mutual Automobile Insurance Company Method and system for curating a virtual model for feature identification
US11556995B1 (en) 2018-10-17 2023-01-17 State Farm Mutual Automobile Insurance Company Predictive analytics for assessing property using external data
US11810202B1 (en) 2018-10-17 2023-11-07 State Farm Mutual Automobile Insurance Company Method and system for identifying conditions of features represented in a virtual model
CN110785355A (zh) * 2018-10-30 2020-02-11 深圳市大疆创新科技有限公司 一种无人机测试方法、设备及存储介质
KR102202585B1 (ko) * 2019-01-07 2021-01-13 (주) 한국융합기술개발원 자동리프트장치가 구비된 드론
US10873724B1 (en) 2019-01-08 2020-12-22 State Farm Mutual Automobile Insurance Company Virtual environment generation for collaborative building assessment
US11107162B1 (en) * 2019-01-10 2021-08-31 State Farm Mutual Automobile Insurance Company Systems and methods for predictive modeling via simulation
US11508056B2 (en) * 2019-02-28 2022-11-22 Measure Global, Inc. Drone inspection analytics for asset defect detection
US10937247B1 (en) 2019-03-11 2021-03-02 Amazon Technologies, Inc. Three-dimensional room model generation using ring paths and photogrammetry
US11024079B1 (en) 2019-03-11 2021-06-01 Amazon Technologies, Inc. Three-dimensional room model generation using panorama paths and photogrammetry
US10643344B1 (en) 2019-03-11 2020-05-05 Amazon Technologies, Inc. Three-dimensional room measurement process
US10706624B1 (en) 2019-03-11 2020-07-07 Amazon Technologies, Inc. Three-dimensional room model generation using panorama paths with augmented reality guidance
US10645275B1 (en) 2019-03-11 2020-05-05 Amazon Technologies, Inc. Three-dimensional room measurement process with augmented reality guidance
CA3132165A1 (en) * 2019-04-06 2021-01-07 Naganand Murty System, devices and methods for tele-operated robotics
KR20220017893A (ko) * 2019-04-06 2022-02-14 일렉트릭 쉽 로보틱스, 아이앤씨. 원격작동로봇을 위한 시스템, 장치 및 방법
US11049072B1 (en) 2019-04-26 2021-06-29 State Farm Mutual Automobile Insurance Company Asynchronous virtual collaboration environments
US11032328B1 (en) 2019-04-29 2021-06-08 State Farm Mutual Automobile Insurance Company Asymmetric collaborative virtual environments
CN110113094B (zh) * 2019-05-09 2021-08-13 西安爱生技术集团公司 一种升空通信中继无人机通视计算方法
US11455771B2 (en) * 2019-05-15 2022-09-27 Electronic Theatre Controls, Inc. Venue survey using unmanned aerial vehicle
US11565807B1 (en) 2019-06-05 2023-01-31 Gal Zuckerman Systems and methods facilitating street-level interactions between flying drones and on-road vehicles
US11022972B2 (en) * 2019-07-31 2021-06-01 Bell Textron Inc. Navigation system with camera assist
US10992921B1 (en) 2019-08-28 2021-04-27 Amazon Technologies, Inc. Self-calibrating stereo camera pairs provided aboard aerial vehicles
JP7377651B2 (ja) * 2019-09-02 2023-11-10 株式会社野村総合研究所 コンピュータプログラム
US11566894B2 (en) * 2019-10-15 2023-01-31 Flir Unmanned Aerial Systems Ulc Systems and methods for generating a two-dimensional map
US20210125507A1 (en) * 2019-10-23 2021-04-29 Airmatrix Inc. Method and system for unmanned aerial vehicle flight highway
US11877844B2 (en) 2020-02-19 2024-01-23 Hill-Rom Services, Inc. Respiration detection using radar
US11741843B2 (en) * 2020-04-03 2023-08-29 The Boeing Company Systems and methods of radar surveillance on-board an autonomous or remotely piloted aircraft
EP4136516A4 (en) * 2020-04-17 2024-03-20 Insurance Services Office, Inc. SYSTEMS AND METHODS FOR MOBILE AIR FLIGHT PLANNING AND IMAGE CAPTURE BASED ON STRUCTURE FOOTPRINTS
US11600185B2 (en) 2020-05-01 2023-03-07 Honeywell International Inc. Systems and methods for flight planning for conducting surveys by autonomous aerial vehicles
EP3910928B1 (de) * 2020-05-15 2024-03-13 Parkling GmbH Verfahren zum erstellen eines räumlich hochgenauen, verorteten strassenzugpanoramabildes und system hierfür
EP3926432A1 (en) * 2020-06-16 2021-12-22 Hexagon Geosystems Services AG Touch control of unmanned aerial vehicles
CN112000082B (zh) * 2020-08-31 2021-11-26 广州机械科学研究院有限公司 一种无人航空器感知规避能力检测评估***及方法
JP7456908B2 (ja) 2020-09-30 2024-03-27 大和ハウス工業株式会社 屋根点検用の無人航空機の制御装置
US11532116B2 (en) 2020-10-30 2022-12-20 Loveland Innovations, Inc. Graphical user interface for controlling a solar ray mapping
US20220381594A1 (en) * 2021-05-28 2022-12-01 Contitech Transportbandsysteme Gmbh Volume flow measurement of material using 3d lidar
WO2023280377A1 (en) * 2021-07-05 2023-01-12 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for positioning an inspection drone with respect to a structure
US11790790B2 (en) * 2022-01-13 2023-10-17 Beta Air, Llc Methods and apparatuses for generating an electric aircraft flight plan

Family Cites Families (263)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2273876A (en) 1940-02-12 1942-02-24 Frederick W Lutz Apparatus for indicating tilt of cameras
US3153784A (en) 1959-12-24 1964-10-20 Us Industries Inc Photo radar ground contour mapping system
US5345086A (en) 1962-11-28 1994-09-06 Eaton Corporation Automatic map compilation system
US3621326A (en) 1968-09-30 1971-11-16 Itek Corp Transformation system
US3594556A (en) 1969-01-08 1971-07-20 Us Navy Optical sight with electronic image stabilization
US3661061A (en) 1969-05-05 1972-05-09 Atomic Energy Commission Picture position finder
US3614410A (en) 1969-06-12 1971-10-19 Knight V Bailey Image rectifier
US3716669A (en) 1971-05-14 1973-02-13 Japan Eng Dev Co Mapping rectifier for generating polarstereographic maps from satellite scan signals
US3725563A (en) 1971-12-23 1973-04-03 Singer Co Method of perspective transformation in scanned raster visual display
US3864513A (en) 1972-09-11 1975-02-04 Grumman Aerospace Corp Computerized polarimetric terrain mapping system
US4015080A (en) 1973-04-30 1977-03-29 Elliott Brothers (London) Limited Display devices
JPS5223975Y2 (es) 1973-05-29 1977-05-31
US3877799A (en) 1974-02-06 1975-04-15 United Kingdom Government Method of recording the first frame in a time index system
DE2510044A1 (de) 1975-03-07 1976-09-16 Siemens Ag Anordnung zum aufzeichnen von zeichen unter verwendung von mosaikschreibwerken
US4707698A (en) 1976-03-04 1987-11-17 Constant James N Coordinate measurement and radar device using image scanner
US4240108A (en) 1977-10-03 1980-12-16 Grumman Aerospace Corporation Vehicle controlled raster display system
JPS5637416Y2 (es) 1977-10-14 1981-09-02
IT1095061B (it) 1978-05-19 1985-08-10 Conte Raffaele Apparecchiatura per la registrazione magnetica di eventi casuali relativi a mezzi mobili
US4396942A (en) 1979-04-19 1983-08-02 Jackson Gates Video surveys
FR2461305B1 (fr) 1979-07-06 1985-12-06 Thomson Csf Systeme indicateur cartographique destine plus particulierement a la navigation aerienne
DE2939681A1 (de) 1979-09-29 1981-04-30 Agfa-Gevaert Ag, 5090 Leverkusen Verfahren und vorrichtung zur ueberwachung der qualitaet bei der herstellung von fotografischen bildern
DE2940871C2 (de) 1979-10-09 1983-11-10 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
US4387056A (en) 1981-04-16 1983-06-07 E. I. Du Pont De Nemours And Company Process for separating zero-valent nickel species from divalent nickel species
US4382678A (en) 1981-06-29 1983-05-10 The United States Of America As Represented By The Secretary Of The Army Measuring of feature for photo interpretation
US4463380A (en) 1981-09-25 1984-07-31 Vought Corporation Image processing system
US4495500A (en) 1982-01-26 1985-01-22 Sri International Topographic data gathering method
US4490742A (en) 1982-04-23 1984-12-25 Vcs, Incorporated Encoding apparatus for a closed circuit television system
US4586138A (en) 1982-07-29 1986-04-29 The United States Of America As Represented By The United States Department Of Energy Route profile analysis system and method
US4491399A (en) 1982-09-27 1985-01-01 Coherent Communications, Inc. Method and apparatus for recording a digital signal on motion picture film
US4527055A (en) 1982-11-15 1985-07-02 Honeywell Inc. Apparatus for selectively viewing either of two scenes of interest
FR2536851B1 (fr) 1982-11-30 1985-06-14 Aerospatiale Systeme de reconnaissance comportant un vehicule aerien tournant autour de son axe longitudinal
US4489322A (en) 1983-01-27 1984-12-18 The United States Of America As Represented By The Secretary Of The Air Force Radar calibration using direct measurement equipment and oblique photometry
US4635136A (en) 1984-02-06 1987-01-06 Rochester Institute Of Technology Method and apparatus for storing a massive inventory of labeled images
US4686474A (en) 1984-04-05 1987-08-11 Deseret Research, Inc. Survey system for collection and real time processing of geophysical data
US4814711A (en) 1984-04-05 1989-03-21 Deseret Research, Inc. Survey system and method for real time collection and processing of geophysicals data using signals from a global positioning satellite network
US4673988A (en) 1985-04-22 1987-06-16 E.I. Du Pont De Nemours And Company Electronic mosaic imaging process
US4653136A (en) 1985-06-21 1987-03-31 Denison James W Wiper for rear view mirror
EP0211623A3 (en) 1985-08-01 1988-09-21 British Aerospace Public Limited Company Identification of ground targets in airborne surveillance radar returns
US4953227A (en) 1986-01-31 1990-08-28 Canon Kabushiki Kaisha Image mosaic-processing method and apparatus
US4653316A (en) 1986-03-14 1987-03-31 Kabushiki Kaisha Komatsu Seisakusho Apparatus mounted on vehicles for detecting road surface conditions
US4688092A (en) 1986-05-06 1987-08-18 Ford Aerospace & Communications Corporation Satellite camera image navigation
US4956872A (en) 1986-10-31 1990-09-11 Canon Kabushiki Kaisha Image processing apparatus capable of random mosaic and/or oil-painting-like processing
JPS63202182A (ja) 1987-02-18 1988-08-22 Olympus Optical Co Ltd 傾斜ドツトパタ−ン形成方法
US4814896A (en) 1987-03-06 1989-03-21 Heitzman Edward F Real time video data acquistion systems
US5164825A (en) 1987-03-30 1992-11-17 Canon Kabushiki Kaisha Image processing method and apparatus for mosaic or similar processing therefor
US4807024A (en) 1987-06-08 1989-02-21 The University Of South Carolina Three-dimensional display methods and apparatus
US4899296A (en) 1987-11-13 1990-02-06 Khattak Anwar S Pavement distress survey system
IL85731A (en) 1988-03-14 1995-05-26 B T A Automatic Piloting Syste Aircraft control facility and method, in particular remotely controlled aircraft
US4843463A (en) 1988-05-23 1989-06-27 Michetti Joseph A Land vehicle mounted audio-visual trip recorder
GB8826550D0 (en) 1988-11-14 1989-05-17 Smiths Industries Plc Image processing apparatus and methods
US4906198A (en) 1988-12-12 1990-03-06 International Business Machines Corporation Circuit board assembly and contact pin for use therein
JP2765022B2 (ja) 1989-03-24 1998-06-11 キヤノン販売株式会社 立体画像形成装置
US5617224A (en) 1989-05-08 1997-04-01 Canon Kabushiki Kaisha Imae processing apparatus having mosaic processing feature that decreases image resolution without changing image size or the number of pixels
US5086314A (en) 1990-05-21 1992-02-04 Nikon Corporation Exposure control apparatus for camera
JPH0316377A (ja) 1989-06-14 1991-01-24 Kokusai Denshin Denwa Co Ltd <Kdd> 2値画像の縮小方法及び装置
US5166789A (en) 1989-08-25 1992-11-24 Space Island Products & Services, Inc. Geographical surveying using cameras in combination with flight computers to obtain images with overlaid geographical coordinates
FR2655448B1 (fr) 1989-12-04 1992-03-13 Vigilant Ltd Systeme de controle d'un aeronef teleguide.
JP3147358B2 (ja) 1990-02-23 2001-03-19 ミノルタ株式会社 撮影地データを記録できるカメラ
US5335072A (en) 1990-05-30 1994-08-02 Minolta Camera Kabushiki Kaisha Photographic system capable of storing information on photographed image data
EP0464263A3 (en) 1990-06-27 1992-06-10 Siemens Aktiengesellschaft Device for obstacle detection for pilots of low flying aircrafts
US5191174A (en) 1990-08-01 1993-03-02 International Business Machines Corporation High density circuit board and method of making same
US5200793A (en) 1990-10-24 1993-04-06 Kaman Aerospace Corporation Range finding array camera
US5155597A (en) 1990-11-28 1992-10-13 Recon/Optical, Inc. Electro-optical imaging array with motion compensation
JPH04250436A (ja) 1991-01-11 1992-09-07 Pioneer Electron Corp 撮像装置
US5265173A (en) 1991-03-20 1993-11-23 Hughes Aircraft Company Rectilinear object image matcher
US5369443A (en) 1991-04-12 1994-11-29 Abekas Video Systems, Inc. Digital video effects generator
EP0509822B1 (en) 1991-04-16 1995-08-30 Nec Corporation Image pickup system with an image pickup device for control
US5555018A (en) 1991-04-25 1996-09-10 Von Braun; Heiko S. Large-scale mapping of parameters of multi-dimensional structures in natural environments
US5231435A (en) 1991-07-12 1993-07-27 Blakely Bruce W Aerial camera mounting apparatus
DE69123578T2 (de) 1991-09-05 1997-04-03 Nippon Electric Co Bildaufnahmesystem, das korrekte Bildsignale einer Objektzone erzeugen kann
US5677515A (en) 1991-10-18 1997-10-14 Trw Inc. Shielded multilayer printed wiring board, high frequency, high isolation
US5402170A (en) 1991-12-11 1995-03-28 Eastman Kodak Company Hand-manipulated electronic camera tethered to a personal computer
US5247356A (en) 1992-02-14 1993-09-21 Ciampa John A Method and apparatus for mapping and measuring land
US5251037A (en) 1992-02-18 1993-10-05 Hughes Training, Inc. Method and apparatus for generating high resolution CCD camera images
US5270756A (en) 1992-02-18 1993-12-14 Hughes Training, Inc. Method and apparatus for generating high resolution vidicon camera images
US5372337A (en) 1992-05-01 1994-12-13 Kress; Robert W. Unmanned aerial aircraft having a single engine with dual jet exhausts
US5277380A (en) 1992-06-22 1994-01-11 United Technologies Corporation Toroidal fuselage structure for unmanned aerial vehicles having ducted, coaxial, counter-rotating rotors
US5506644A (en) 1992-08-18 1996-04-09 Olympus Optical Co., Ltd. Camera
US5481479A (en) 1992-12-10 1996-01-02 Loral Fairchild Corp. Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance
US5342999A (en) 1992-12-21 1994-08-30 Motorola, Inc. Apparatus for adapting semiconductor die pads and method therefor
US5414462A (en) 1993-02-11 1995-05-09 Veatch; John W. Method and apparatus for generating a comprehensive survey map
US5508736A (en) 1993-05-14 1996-04-16 Cooper; Roger D. Video signal processing apparatus for producing a composite signal for simultaneous display of data and video information
US5467271A (en) 1993-12-17 1995-11-14 Trw, Inc. Mapping and analysis system for precision farming applications
CA2190596C (en) 1994-05-19 2002-03-26 Theodore M. Lachinski Method for collecting and processing visual and spatial position information
US5581250A (en) 1995-02-24 1996-12-03 Khvilivitzky; Alexander Visual collision avoidance system for unmanned aerial vehicles
RU2153700C2 (ru) 1995-04-17 2000-07-27 Спейс Системз/Лорал, Инк. Система управления ориентацией и формированием изображения (варианты)
US5604534A (en) 1995-05-24 1997-02-18 Omni Solutions International, Ltd. Direct digital airborne panoramic camera system and method
US5581258A (en) 1995-06-07 1996-12-03 The United States Of America As Represented By The Secretary Of The Navy Portable antenna controller
US5668593A (en) 1995-06-07 1997-09-16 Recon/Optical, Inc. Method and camera system for step frame reconnaissance with motion compensation
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US5904724A (en) 1996-01-19 1999-05-18 Margolin; Jed Method and apparatus for remotely piloting an aircraft
US5835133A (en) 1996-01-23 1998-11-10 Silicon Graphics, Inc. Optical system for single camera stereo video
US5894323A (en) 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
US5844602A (en) 1996-05-07 1998-12-01 Recon/Optical, Inc. Electro-optical imaging array and camera system with pitch rate image motion compensation which can be used in an airplane in a dive bomb maneuver
US5798786A (en) 1996-05-07 1998-08-25 Recon/Optical, Inc. Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions
US5841574A (en) 1996-06-28 1998-11-24 Recon/Optical, Inc. Multi-special decentered catadioptric optical system
WO1998020301A1 (en) 1996-11-05 1998-05-14 Lockheed Martin Corporation Electro-optical reconnaissance system with forward motion compensation
US6108032A (en) 1996-11-05 2000-08-22 Lockheed Martin Fairchild Systems System and method for image motion compensation of a CCD image sensor
RU2127075C1 (ru) 1996-12-11 1999-03-10 Корженевский Александр Владимирович Способ получения томографического изображения тела и электроимпедансный томограф
US6222583B1 (en) 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US6597818B2 (en) 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
US6157747A (en) 1997-08-01 2000-12-05 Microsoft Corporation 3-dimensional image rotation method and apparatus for producing image mosaics
US6097854A (en) 1997-08-01 2000-08-01 Microsoft Corporation Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping
WO1999018732A1 (en) 1997-10-06 1999-04-15 Ciampa John A Digital-image mapping
US5852753A (en) 1997-11-10 1998-12-22 Lo; Allen Kwok Wah Dual-lens camera with shutters for taking dual or single images
AU1048399A (en) 1997-11-10 1999-05-31 Gentech Corporation System and method for generating super-resolution-enhanced mosaic images
US6037945A (en) 1997-12-16 2000-03-14 Xactware, Inc. Graphical method for modeling and estimating construction costs
US6094215A (en) 1998-01-06 2000-07-25 Intel Corporation Method of determining relative camera orientation position to create 3-D visual images
US6130705A (en) 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
JP4245699B2 (ja) 1998-09-16 2009-03-25 オリンパス株式会社 撮像装置
US6434265B1 (en) 1998-09-25 2002-08-13 Apple Computers, Inc. Aligning rectilinear images in 3D through projective registration and calibration
JP3440009B2 (ja) * 1998-12-09 2003-08-25 株式会社エヌ・ティ・ティ・データ 撮影画像管理方法及び遠隔撮影システム
DE19857667A1 (de) 1998-12-15 2000-08-17 Aerowest Photogrammetrie H Ben Verfahren zur Erzeugung einer drei-dimensionalen Objektbeschreibung
US6167300A (en) 1999-03-08 2000-12-26 Tci Incorporated Electric mammograph
DE19922341C2 (de) 1999-05-14 2002-08-29 Zsp Geodaetische Sys Gmbh Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes
AUPQ056099A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
JP3410391B2 (ja) 1999-05-31 2003-05-26 株式会社エヌ・ティ・ティ・データ 遠隔撮影システム、撮影指示装置、撮影装置、情報表示装置及び遠隔撮影方法
JP5210473B2 (ja) 1999-06-21 2013-06-12 株式会社半導体エネルギー研究所 表示装置
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
WO2001048683A1 (en) 1999-12-29 2001-07-05 Geospan Corporation Any aspect passive volumetric image processing method
US6826539B2 (en) 1999-12-31 2004-11-30 Xactware, Inc. Virtual structure data repository and directory
US6829584B2 (en) 1999-12-31 2004-12-07 Xactware, Inc. Virtual home data repository and directory
US6810383B1 (en) 2000-01-21 2004-10-26 Xactware, Inc. Automated task management and evaluation
WO2001058129A2 (en) 2000-02-03 2001-08-09 Alst Technical Excellence Center Image resolution improvement using a color mosaic sensor
AU2001271238A1 (en) 2000-03-16 2001-09-24 The Johns-Hopkins University Light detection and ranging (lidar) mapping system
AU2001259026A1 (en) 2000-03-29 2001-10-08 Astrovision International, Inc. Direct broadcast imaging satellite system apparatus and method for providing real-time, continuous monitoring of earth from geostationary earth orbit and related services
US7184072B1 (en) * 2000-06-15 2007-02-27 Power View Company, L.L.C. Airborne inventory and inspection system and apparatus
US6834128B1 (en) 2000-06-16 2004-12-21 Hewlett-Packard Development Company, L.P. Image mosaicing system and method adapted to mass-market hand-held digital cameras
US6484101B1 (en) 2000-08-16 2002-11-19 Imagelinks, Inc. 3-dimensional interactive image modeling system
US7313289B2 (en) 2000-08-30 2007-12-25 Ricoh Company, Ltd. Image processing method and apparatus and computer-readable storage medium using improved distortion correction
US6421610B1 (en) 2000-09-15 2002-07-16 Ernest A. Carroll Method of preparing and disseminating digitized geospatial data
US6959120B1 (en) 2000-10-27 2005-10-25 Microsoft Corporation Rebinning methods and arrangements for use in compressing image-based rendering (IBR) data
EP3388784B1 (en) 2001-05-04 2019-07-17 Vexcel Imaging GmbH Method and large format camera for acquiring a large format image of a large area object
US7046401B2 (en) 2001-06-01 2006-05-16 Hewlett-Packard Development Company, L.P. Camera-based document scanning system using multiple-pass mosaicking
US7509241B2 (en) 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
US20030043824A1 (en) 2001-08-31 2003-03-06 Remboski Donald J. Vehicle active network and device
US6847865B2 (en) 2001-09-27 2005-01-25 Ernest A. Carroll Miniature, unmanned aircraft with onboard stabilization and automated ground control of flight path
US6747686B1 (en) 2001-10-05 2004-06-08 Recon/Optical, Inc. High aspect stereoscopic mode camera and method
US7262790B2 (en) 2002-01-09 2007-08-28 Charles Adams Bakewell Mobile enforcement platform with aimable violation identification and documentation system for multiple traffic violation types across all lanes in moving traffic, generating composite display images and data to support citation generation, homeland security, and monitoring
TW550521B (en) 2002-02-07 2003-09-01 Univ Nat Central Method for re-building 3D model of house in a semi-automatic manner using edge segments of buildings
US6894809B2 (en) 2002-03-01 2005-05-17 Orasee Corp. Multiple angle display produced from remote optical sensing devices
JP4184703B2 (ja) 2002-04-24 2008-11-19 大日本印刷株式会社 画像修正方法およびシステム
US7725258B2 (en) 2002-09-20 2010-05-25 M7 Visual Intelligence, L.P. Vehicle based data collection and processing system and imaging sensor system and methods thereof
WO2004028134A2 (en) 2002-09-20 2004-04-01 M7 Visual Intelligence, Lp Vehicule based data collection and porcessing system
US7424133B2 (en) 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
EP1696204B1 (en) 2002-11-08 2015-01-28 Pictometry International Corp. Method for capturing, geolocating and measuring oblique images
US6742741B1 (en) 2003-02-24 2004-06-01 The Boeing Company Unmanned air vehicle and method of flying an unmanned air vehicle
SE0300871D0 (sv) 2003-03-27 2003-03-27 Saab Ab Waypoint navigation
US7343232B2 (en) 2003-06-20 2008-03-11 Geneva Aerospace Vehicle control system including related methods and components
US7018050B2 (en) 2003-09-08 2006-03-28 Hewlett-Packard Development Company, L.P. System and method for correcting luminance non-uniformity of obliquely projected images
US7130741B2 (en) 2003-10-23 2006-10-31 International Business Machines Corporation Navigating a UAV with a remote control device
JP2005151536A (ja) 2003-10-23 2005-06-09 Nippon Dempa Kogyo Co Ltd 水晶発振器
US7916940B2 (en) 2004-01-31 2011-03-29 Hewlett-Packard Development Company Processing of mosaic digital images
WO2005088251A1 (en) 2004-02-27 2005-09-22 Intergraph Software Technologies Company Forming a single image from overlapping images
US20060028550A1 (en) 2004-08-06 2006-02-09 Palmer Robert G Jr Surveillance system and method
WO2006121457A2 (en) 2004-08-18 2006-11-16 Sarnoff Corporation Method and apparatus for performing three-dimensional computer modeling
US8078396B2 (en) 2004-08-31 2011-12-13 Meadow William D Methods for and apparatus for generating a continuum of three dimensional image data
CA2484422A1 (en) 2004-10-08 2006-04-08 Furgro Airborne Surveys Unmanned airborne vehicle for geophysical surveying
US7348895B2 (en) 2004-11-03 2008-03-25 Lagassey Paul J Advanced automobile accident detection, data recordation and reporting system
US7142984B2 (en) 2005-02-08 2006-11-28 Harris Corporation Method and apparatus for enhancing a digital elevation model (DEM) for topographical modeling
KR100939010B1 (ko) 2005-04-01 2010-01-26 야마하하쓰도키 가부시키가이샤 제어 방법, 제어 장치, 및 무인 헬리콥터
US7466244B2 (en) 2005-04-21 2008-12-16 Microsoft Corporation Virtual earth rooftop overlay and bounding
US7554539B2 (en) 2005-07-27 2009-06-30 Balfour Technologies Llc System for viewing a collection of oblique imagery in a three or four dimensional virtual scene
US7844499B2 (en) 2005-12-23 2010-11-30 Sharp Electronics Corporation Integrated solar agent business model
US7778491B2 (en) 2006-04-10 2010-08-17 Microsoft Corporation Oblique image stitching
US20070244608A1 (en) 2006-04-13 2007-10-18 Honeywell International Inc. Ground control station for UAV
US7922115B2 (en) 2006-04-21 2011-04-12 Colgren Richard D Modular unmanned air-vehicle
US20080158256A1 (en) * 2006-06-26 2008-07-03 Lockheed Martin Corporation Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data
US20080144884A1 (en) * 2006-07-20 2008-06-19 Babak Habibi System and method of aerial surveillance
US7873238B2 (en) 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
US20100121574A1 (en) 2006-09-05 2010-05-13 Honeywell International Inc. Method for collision avoidance of unmanned aerial vehicle with other aircraft
DE102007030781A1 (de) 2006-10-11 2008-04-17 Gta Geoinformatik Gmbh Verfahren zur Texturierung virtueller dreidimensionaler Objekte
IL179344A (en) 2006-11-16 2014-02-27 Rafael Advanced Defense Sys Mobile Platform Tracking Method
US20100250022A1 (en) 2006-12-29 2010-09-30 Air Recon, Inc. Useful unmanned aerial vehicle
TWI324080B (en) 2007-03-23 2010-05-01 Yu Tuan Lee Remote-controlled motion apparatus with sensing terrestrial magnetism and remote control apparatus therefor
TWI361095B (en) 2007-03-23 2012-04-01 Yu Tuan Lee Remote-controlled motion apparatus with acceleration self-sense and remote control apparatus therefor
US8078436B2 (en) 2007-04-17 2011-12-13 Eagle View Technologies, Inc. Aerial roof estimation systems and methods
US8145578B2 (en) 2007-04-17 2012-03-27 Eagel View Technologies, Inc. Aerial roof estimation system and method
US7832267B2 (en) 2007-04-25 2010-11-16 Ecometriks, Llc Method for determining temporal solar irradiance values
EP2153245A1 (en) 2007-05-04 2010-02-17 Teledyne Australia Pty Ltd. Collision avoidance system and method
US7970532B2 (en) * 2007-05-24 2011-06-28 Honeywell International Inc. Flight path planning to reduce detection of an unmanned aerial vehicle
US8346578B1 (en) 2007-06-13 2013-01-01 United Services Automobile Association Systems and methods for using unmanned aerial vehicles
WO2009025928A2 (en) 2007-06-19 2009-02-26 Ch2M Hill, Inc. Systems and methods for solar mapping, determining a usable area for solar energy production and/or providing solar information
US9026272B2 (en) * 2007-12-14 2015-05-05 The Boeing Company Methods for autonomous tracking and surveillance
US8417061B2 (en) 2008-02-01 2013-04-09 Sungevity Inc. Methods and systems for provisioning energy systems
US8275194B2 (en) 2008-02-15 2012-09-25 Microsoft Corporation Site modeling using image data fusion
US8131406B2 (en) 2008-04-09 2012-03-06 Lycoming Engines, A Division Of Avco Corporation Piston engine aircraft automated pre-flight testing
WO2009129496A2 (en) 2008-04-17 2009-10-22 The Travelers Indemnity Company A method of and system for determining and processing object structure condition information
CN101978395B (zh) 2008-04-23 2012-10-03 株式会社博思科 建筑物屋顶轮廓识别装置及建筑物屋顶轮廓识别方法
WO2009131542A1 (en) 2008-04-23 2009-10-29 Drone Technology Pte Ltd Module for data acquisition and control in a sensor/control network
US8588547B2 (en) 2008-08-05 2013-11-19 Pictometry International Corp. Cut-line steering methods for forming a mosaic image of a geographical area
JP5134469B2 (ja) 2008-08-21 2013-01-30 三菱重工業株式会社 無人機システム及びその運用方法
US20100079267A1 (en) 2008-09-29 2010-04-01 Tsun-Huang Lin Automobile Anti-Collision Early-Warning Device
US7969346B2 (en) 2008-10-07 2011-06-28 Honeywell International Inc. Transponder-based beacon transmitter for see and avoid of unmanned aerial vehicles
US8543265B2 (en) 2008-10-20 2013-09-24 Honeywell International Inc. Systems and methods for unmanned aerial vehicle navigation
US8209152B2 (en) 2008-10-31 2012-06-26 Eagleview Technologies, Inc. Concurrent display systems and methods for aerial roof estimation
US8170840B2 (en) 2008-10-31 2012-05-01 Eagle View Technologies, Inc. Pitch determination systems and methods for aerial roof estimation
US9437044B2 (en) 2008-11-05 2016-09-06 Hover Inc. Method and system for displaying and navigating building facades in a three-dimensional mapping system
US8422825B1 (en) 2008-11-05 2013-04-16 Hover Inc. Method and system for geometry extraction, 3D visualization and analysis using arbitrary oblique imagery
US8242623B2 (en) 2008-11-13 2012-08-14 Honeywell International Inc. Structural ring interconnect printed circuit board assembly for a ducted fan unmanned aerial vehicle
US20100286859A1 (en) 2008-11-18 2010-11-11 Honeywell International Inc. Methods for generating a flight plan for an unmanned aerial vehicle based on a predicted camera path
US20100215212A1 (en) * 2009-02-26 2010-08-26 Honeywell International Inc. System and Method for the Inspection of Structures
US20100228406A1 (en) 2009-03-03 2010-09-09 Honeywell International Inc. UAV Flight Control Method And System
US8380367B2 (en) 2009-03-26 2013-02-19 The University Of North Dakota Adaptive surveillance and guidance system for vehicle collision avoidance and interception
US8401222B2 (en) 2009-05-22 2013-03-19 Pictometry International Corp. System and process for roof measurement using aerial imagery
KR101262968B1 (ko) 2009-09-02 2013-05-09 부산대학교 산학협력단 구형 탑재부를 구비한 무인항공기 및 무인항공기 탑재를 위한 무인지상차량을 포함하는 무인 항공 장치
JP2013512147A (ja) 2009-11-25 2013-04-11 エアロバイロメント,インコーポレイテッド デバイスの自動構成制御
WO2011094760A2 (en) 2010-02-01 2011-08-04 Eagle View Technologies Geometric correction of rough wireframe models derived from photographs
US9036861B2 (en) 2010-04-22 2015-05-19 The University Of North Carolina At Charlotte Method and system for remotely inspecting bridges and other structures
EP2558817B1 (en) * 2010-09-30 2019-05-15 Empire Technology Development LLC Automatic flight control for uav based solid modeling
US20120143482A1 (en) 2010-12-02 2012-06-07 Honeywell International Inc. Electronically file and fly unmanned aerial vehicle
KR101727122B1 (ko) * 2010-12-02 2017-04-14 건국대학교 산학협력단 무인 비행체의 가이드 비행 데이터 생성 시스템 및 그 방법
FR2970801B1 (fr) * 2011-01-20 2013-08-09 Galderma Res & Dev Procede de determination de l'efficacite d'un traitement et systeme de traitement d'image associe
DE102011010679A1 (de) 2011-02-08 2012-08-09 Eads Deutschland Gmbh Unbemanntes Luftfahrzeug mit eingebautem Kollisionswarnsystem
FR2972364B1 (fr) 2011-03-08 2014-06-06 Parrot Procede de pilotage suivant un virage curviligne d'un drone a voilure tournante a rotors multiples.
DE102011017564B4 (de) 2011-04-26 2017-02-16 Airbus Defence and Space GmbH Verfahren und System zum Prüfen einer Oberfläche auf Materialfehler
US8676406B2 (en) * 2011-05-03 2014-03-18 Raytheon Company Unmanned aerial vehicle control using a gamepad
CA2845094A1 (en) 2011-08-16 2013-04-18 Unmanned Innovation Inc. Modular flight management system incorporating an autopilot
TW201328344A (zh) * 2011-12-27 2013-07-01 Hon Hai Prec Ind Co Ltd 控制無人飛行載具進行影像採集的系統及方法
US9183538B2 (en) 2012-03-19 2015-11-10 Pictometry International Corp. Method and system for quick square roof reporting
US9170106B2 (en) 2012-04-19 2015-10-27 Raytheon Corporation Shock-resistant device and method
US9501760B2 (en) 2012-04-24 2016-11-22 Michael Paul Stanley Media echoing and social networking device and method
US9609284B2 (en) 2012-05-22 2017-03-28 Otoy, Inc. Portable mobile light stage
US20140018979A1 (en) 2012-07-13 2014-01-16 Honeywell International Inc. Autonomous airspace flight planning and virtual airspace containment system
US9545207B2 (en) * 2012-07-25 2017-01-17 Cardiac Pacemakers, Inc. Temporary implantable medical electrical stimulation lead
JP2016505435A (ja) 2012-11-15 2016-02-25 エスゼット ディージェイアイ テクノロジー カンパニー,リミテッド 多重回転子無人航空機
US8874283B1 (en) 2012-12-04 2014-10-28 United Dynamics Advanced Technologies Corporation Drone for inspection of enclosed space and method thereof
US20140316614A1 (en) 2012-12-17 2014-10-23 David L. Newman Drone for collecting images and system for categorizing image data
US9162753B1 (en) * 2012-12-31 2015-10-20 Southern Electrical Equipment Company, Inc. Unmanned aerial vehicle for monitoring infrastructure assets
US9075415B2 (en) 2013-03-11 2015-07-07 Airphrame, Inc. Unmanned aerial vehicle and methods for controlling same
US20160148363A1 (en) 2013-03-14 2016-05-26 Essess, Inc. Methods and systems for structural analysis
US8931144B2 (en) 2013-03-14 2015-01-13 State Farm Mutual Automobile Insurance Company Tethering system and method for remote device
US8818572B1 (en) 2013-03-15 2014-08-26 State Farm Mutual Automobile Insurance Company System and method for controlling a remote aerial device for up-close inspection
WO2014158273A1 (en) * 2013-03-29 2014-10-02 Intel IP Corporation Techniques to facilitate dual connectivity
US20160086497A1 (en) * 2013-04-16 2016-03-24 Bae Systems Australia Limited Landing site tracker
US9330504B2 (en) 2013-04-30 2016-05-03 Hover Inc. 3D building model construction tools
US8991758B2 (en) 2013-05-13 2015-03-31 Precisionhawk Inc. Unmanned aerial vehicle
US9798928B2 (en) 2013-07-17 2017-10-24 James L Carr System for collecting and processing aerial imagery with enhanced 3D and NIR imaging capability
EP3028464B1 (en) 2013-08-02 2019-05-01 Xactware Solutions Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
WO2015102731A2 (en) 2013-10-18 2015-07-09 Aerovironment, Inc. Privacy shield for unmanned aerial systems
WO2015108586A2 (en) 2013-10-21 2015-07-23 Kespry, Inc. System and methods for execution of recovery actions on an unmanned aerial vehicle
US10124908B2 (en) 2013-10-21 2018-11-13 Kespry Inc. Systems and methods for unmanned aerial vehicle landing
WO2015082595A1 (en) 2013-12-06 2015-06-11 Bae Systems Plc Imaging method and apparatus
ES2684643T3 (es) * 2014-01-10 2018-10-03 Pictometry International Corp. Sistema y procedimiento de evaluación de estructura mediante aeronave no tripulada
US11314905B2 (en) 2014-02-11 2022-04-26 Xactware Solutions, Inc. System and method for generating computerized floor plans
US11306114B2 (en) 2014-02-18 2022-04-19 Heartland Consumer Products Llc Process for separation, isolation and characterization of steviol glycosides
US20150254738A1 (en) 2014-03-05 2015-09-10 TerrAvion, LLC Systems and methods for aerial imaging and analysis
CN105247593B (zh) * 2014-04-17 2017-04-19 深圳市大疆创新科技有限公司 飞行禁区的飞行控制
WO2016025044A2 (en) 2014-05-12 2016-02-18 Unmanned Innovation, Inc. Distributed unmanned aerial vehicle architecture
US9256994B2 (en) 2014-05-12 2016-02-09 Unmanned Innovation, Inc. Unmanned aerial vehicle authorization and geofence envelope determination
KR102165450B1 (ko) * 2014-05-22 2020-10-14 엘지전자 주식회사 무인 항공기를 제어하는 포터블 디바이스 및 그 제어 방법
US9798322B2 (en) 2014-06-19 2017-10-24 Skydio, Inc. Virtual camera interface and other user interaction paradigms for a flying digital assistant
US9563201B1 (en) * 2014-10-31 2017-02-07 State Farm Mutual Automobile Insurance Company Feedback to facilitate control of unmanned aerial vehicles (UAVs)
US11768508B2 (en) 2015-02-13 2023-09-26 Skydio, Inc. Unmanned aerial vehicle sensor activation and correlation system
WO2016130994A1 (en) 2015-02-13 2016-08-18 Unmanned Innovation, Inc. Unmanned aerial vehicle remote flight planning system
US9740200B2 (en) 2015-12-30 2017-08-22 Unmanned Innovation, Inc. Unmanned aerial vehicle inspection system
US9513635B1 (en) 2015-12-30 2016-12-06 Unmanned Innovation, Inc. Unmanned aerial vehicle inspection system
US9618940B1 (en) 2015-12-31 2017-04-11 Unmanned Innovation, Inc. Unmanned aerial vehicle rooftop inspection system
WO2017116860A1 (en) 2015-12-31 2017-07-06 Unmanned Innovation, Inc. Unmanned aerial vehicle rooftop inspection system
US10762795B2 (en) 2016-02-08 2020-09-01 Skydio, Inc. Unmanned aerial vehicle privacy controls
US9592912B1 (en) 2016-03-08 2017-03-14 Unmanned Innovation, Inc. Ground control point assignment and determination system
US9658619B1 (en) 2016-03-31 2017-05-23 Unmanned Innovation, Inc. Unmanned aerial vehicle modular command priority determination and filtering system
US9823658B1 (en) * 2016-11-04 2017-11-21 Loveland Innovations, LLC Systems and methods for adaptive property analysis via autonomous vehicles

Also Published As

Publication number Publication date
US10204269B2 (en) 2019-02-12
US10037464B2 (en) 2018-07-31
US9612598B2 (en) 2017-04-04
AU2020260445B2 (en) 2022-03-03
AU2015204838A1 (en) 2016-07-14
US20180336409A1 (en) 2018-11-22
US10037463B2 (en) 2018-07-31
US20180068186A1 (en) 2018-03-08
US11087131B2 (en) 2021-08-10
AU2020200652B2 (en) 2020-07-30
EP3435188A1 (en) 2019-01-30
US20180357477A1 (en) 2018-12-13
US20220139079A1 (en) 2022-05-05
US20190325217A1 (en) 2019-10-24
EP3092625A1 (en) 2016-11-16
AU2020200652A1 (en) 2020-02-20
US10181081B2 (en) 2019-01-15
AU2022203756A1 (en) 2022-06-23
CA3161755A1 (en) 2015-07-16
US20180053054A1 (en) 2018-02-22
AU2015204838B2 (en) 2020-01-02
EP3092625B1 (en) 2018-06-27
US20180357478A1 (en) 2018-12-13
AU2020260445A1 (en) 2020-11-26
EP3435188B1 (en) 2021-11-10
US10181080B2 (en) 2019-01-15
WO2015105886A1 (en) 2015-07-16
US20170206414A1 (en) 2017-07-20
US20160313736A1 (en) 2016-10-27
US20180068187A1 (en) 2018-03-08
US20180068185A1 (en) 2018-03-08
US10032078B2 (en) 2018-07-24
US11747486B2 (en) 2023-09-05
US20240103183A1 (en) 2024-03-28
US20200143164A1 (en) 2020-05-07
US20180060658A1 (en) 2018-03-01
CA2935457C (en) 2022-08-09
CA2935457A1 (en) 2015-07-16
CA3161756A1 (en) 2015-07-16
US11120262B2 (en) 2021-09-14
AU2022203756B2 (en) 2024-03-21
EP3092625A4 (en) 2017-07-05
MX2016008890A (es) 2017-01-16
US10318809B2 (en) 2019-06-11

Similar Documents

Publication Publication Date Title
ES2684643T3 (es) Sistema y procedimiento de evaluación de estructura mediante aeronave no tripulada
ES2968959T3 (es) Aeronave no tripulada de navegación que utiliza cabeceo