ES2686470T3 - Dispositivo modular para un análisis de vibraciones de vídeo a alta velocidad - Google Patents

Dispositivo modular para un análisis de vibraciones de vídeo a alta velocidad Download PDF

Info

Publication number
ES2686470T3
ES2686470T3 ES15199331.8T ES15199331T ES2686470T3 ES 2686470 T3 ES2686470 T3 ES 2686470T3 ES 15199331 T ES15199331 T ES 15199331T ES 2686470 T3 ES2686470 T3 ES 2686470T3
Authority
ES
Spain
Prior art keywords
speed video
captured
unit
speed
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15199331.8T
Other languages
English (en)
Inventor
Antonio Pérez Acal
Gianluca Marsiglia
Daniele Nadalutti
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
Airbus Defence and Space GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Defence and Space GmbH filed Critical Airbus Defence and Space GmbH
Application granted granted Critical
Publication of ES2686470T3 publication Critical patent/ES2686470T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H9/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M7/00Vibration-testing of structures; Shock-testing of structures
    • G01M7/02Vibration-testing by means of a shake table
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/214Image signal generators using stereoscopic image cameras using a single 2D image sensor using spectral multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un dispositivo para análisis de vibraciones de vídeo a alta velocidad, comprendiendo el dispositivo: una disposición de cámaras adaptada para generar dos flujos de vídeo a alta velocidad de una estructura, en donde la disposición de cámaras comprende una cámara de vídeo a alta velocidad que está configurada para funcionar en un espectro visible, y una cámara de vídeo a alta velocidad que está configurada para funcionar en un espectro no visible, y en donde cada una de las cámaras a alta velocidad genera un flujo de vídeo a alta velocidad; una unidad de analizador de datos, conectada a la disposición de cámaras, comprendiendo la unidad de analizador de datos: una unidad de procesamiento adaptada para: la estimación, a partir de al menos uno de los dos flujos de vídeo a alta velocidad, de deformaciones de al menos una parte de la estructura capturada a lo largo de un primer plano, la determinación, a partir de los dos flujos de vídeo a alta velocidad, de información de profundidad de al menos una parte de la estructura capturada a lo largo de un segundo plano, diferente del primer plano, o a lo largo de un eje incluido en el segundo plano, y la extracción de datos de vibraciones de al menos una parte de la estructura capturada mediante la consideración de las deformaciones estimadas, y la información de profundidad determinada.

Description

5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Dispositivo modular para un análisis de vibraciones de vídeo a alta velocidad
La presente idea inventiva se refiere, en general, al campo del análisis de vibraciones. Más concretamente, la presente invención se refiere a una técnica para el análisis de estructuras de vibraciones de vídeo a alta velocidad.
Actualmente, las pruebas de vibraciones y salud estructural en la industria y, más concretamente, las pruebas terrestres y en vuelo en la industria aeronáutica, están basadas, fundamentalmente, en dispositivos conocidos como acelerómetros. A pesar de ser muy exactos y fiables, los acelerómetros requieren un largo tiempo de preparación e instalación, demandan operadores altamente calificados, cargan la estructura bajo prueba con su propia masa (alterando así la respuesta de vibraciones de la estructura) y solamente pueden medir en puntos discretos.
La tecnología más moderna sin contacto está representada por Vibrómetros Doppler Láser (LDV). Los LDVs se aplican, principalmente, en la industria de la automoción, aunque en un determinado grado, los campos aeronáutico, civil, acústico, de defensa y de seguridad también hacen uso de esta tecnología. Los principales inconvenientes de los LDVs están presentes en la asequibilidad (precio muy elevado), la funcionalidad (el rendimiento de los LDVs empeora con la exposición a la luz solar externa y disminuye rápidamente cuando aumenta la distancia al objetivo) y la versatilidad (son sistemas ópticos activos, caracterizados por un alto consumo de energía y suelen ser "voluminosos", es decir, no pueden utilizarse en un espacio limitado o muy lejos de la superficie que ha de observarse).
Además, solamente pueden probarse objetivos con un tamaño limitado (normalmente del orden de un metro cuadrado) con LDVs, y la superficie bajo observación debe ser perpendicular al rayo láser.
El documento US 2013/0329953 A1 da a conocer aparatos y métodos relacionados con la medición de movimiento o deformaciones de objetos vibratorios. Se adquiere una pluralidad de imágenes de un objeto en sincronización con una pluralidad de tiempos de interés determinados durante la oscilación del objeto. La pluralidad de imágenes se compara para obtener una o más cantidades de interés del objeto, sobre la base, al menos en parte, en la pluralidad de imágenes.
El documento de Mark N Helfrick et al, titulado: "Métodos de correlación de imagen digital en 3D para mediciones de vibraciones de campo completo", da a conocer la Correlación de Imagen Digital (DIC) para registrar las vibraciones de la superficie para identificar la información modal de vectores/formas.
El documento de Chen Justin G et al, titulado: "Identificación modal de estructuras simples con vídeo a alta velocidad utilizando aumento de movimiento", da a conocer un aumento de movimiento para extraer desplazamientos de vídeo a alta velocidad y la capacidad del algoritmo de identificar, de forma cualitativa, las formas de desviaciones operativas de una viga en voladizo y una sección transversal de tubería procedente de un vídeo.
El documento de Davis Abe et al, titulado: "Vibrometría visual: Estimación de propiedades del material a partir de pequeños movimientos en vídeo", da a conocer la posibilidad de aprender a cerca de las propiedades del material de objetos visibles mediante el análisis de vibraciones sutiles, a menudo imperceptibles, en vídeo.
El documento de Zhengyou Zhang, titulado: "El sensor Kinect de Microsoft y su efecto", da a conocer tecnologías habilitadoras subyacentes de Kinect y analiza el Efecto Kinect que, potencialmente transformará la interacción hombre-ordenador. Zonas de investigación adicional incluyen reconocimiento de gestos manuales, reconocimiento de actividad humana, estimación de la biométrica corporal, reconstrucción de superficies en 3D y aplicaciones de atención médica.
Por lo tanto, existe la necesidad de una técnica mejorada para el análisis de vibraciones de estructuras.
De conformidad con un primer aspecto, se da a conocer un dispositivo para el análisis de vibraciones de vídeo a alta velocidad de una estructura. El dispositivo comprende una disposición de cámaras y una unidad de analizador de datos. La disposición de cámaras comprende una cámara de vídeo a alta velocidad que está configurada para funcionar en un espectro visible, y una cámara de vídeo a alta velocidad que está configurada para funcionar en un espectro no visible, y en donde cada una de las cámaras a alta velocidad genera un flujo de vídeo a alta velocidad.
La disposición de cámaras está adaptada para generar dos flujos de vídeo a alta velocidad de la estructura. La unidad de analizador de datos está conectada a la disposición de cámaras y comprende una unidad de procesamiento. La unidad de procesamiento está adaptada para estimar, a partir de al menos uno de los dos flujos de vídeo a alta velocidad, deformaciones de al menos una parte de la estructura capturada a lo largo de un primer plano. La unidad de procesamiento está adaptada, además, para determinar, a partir de los dos flujos de vídeo a alta velocidad, información de profundidad de al menos una parte de la estructura capturada a lo largo de un segundo plano, distinto del primer plano, o a lo largo de un eje incluido en el segundo plano. La unidad de procesamiento está adaptada, además, para extraer datos de vibraciones de al menos una parte de la estructura capturada,
5
10
15
20
25
30
35
40
45
50
55
60
65
considerando las deformaciones estimadas de al menos la parte de la estructura capturada a lo largo del primer plano, y la información de profundidad determinada de al menos la parte de la estructura capturada a lo largo de un segundo plano, o a lo largo del eje incluido en el segundo plano.
De este modo, se puede conseguir el análisis de vibraciones de estructuras basadas en el procesamiento de vídeo a alta velocidad. En este caso, el término "vídeo a alta velocidad" puede entenderse como cualquier vídeo grabado con una alta resolución temporal, p.ej., al menos el doble de la frecuencia temporal máxima de las vibraciones de interés de la estructura. El dispositivo para el análisis de vibraciones de vídeo a alta velocidad puede realizar un análisis de vibraciones sin contacto/entrar en contacto basado en el procesamiento de vídeo a alta velocidad. Dicho de otro modo, el dispositivo puede ser adecuado para realizar análisis de vibraciones sin contacto basado en vídeo a alta velocidad de una estructura. El dispositivo para análisis de vibraciones de vídeo a alta velocidad puede ser referido como, además, dispositivo modular para análisis de vibraciones de vídeo a alta velocidad.
Las partes de la estructura antes mencionadas pueden ser las mismas, p.ej., puede tener el mismo tamaño, forma y/o posición. A modo de ejemplo, la unidad de procesamiento puede estar adaptada para estimar, a partir de, exactamente, uno de los al menos dos flujos de vídeo a alta velocidad, las deformaciones de al menos la parte de la estructura capturada a lo largo de un primer plano. El eje incluido en el segundo plano puede ser un eje fuera de plano, o puede ser paralelo al eje fuera de plano. El eje fuera de plano se describirá con más detalle a continuación.
Una deformación se puede referir a una deformación de la estructura, que puede representarse mediante una deformación de la estructura capturada en un flujo de vídeo a alta velocidad, existiendo cualquier clase de variación, movimiento o vibración, que pueden dar lugar a datos vibracionales.
La unidad de procesamiento puede estar adaptada para extraer los datos de vibraciones de al menos la parte de la estructura capturada, mediante la combinación de las deformaciones estimadas de al menos la parte de la estructura capturada a lo largo del primer plano, y la información de profundidad determinada de al menos la parte de la estructura capturada a lo largo de un segundo plano.
La consideración, p.ej., combinación, de la estimación de las deformaciones, y la determinación de la información de profundidad hace posible la extracción de datos de vibraciones a partir de dos planos ortogonales. En consecuencia, es posible detectar cualquier variación de la estructura en cualquier dirección en el espacio, en donde la disposición de cámaras, p.ej., una o más cámaras a alta velocidad, puede funcionar, además, en condiciones de luz natural. Las una o más cámaras a alta velocidad, de la disposición de cámaras, pueden ser sensores ópticos pasivos, en donde no se requiere emisión de energía y se puede gestionar una distancia a la estructura y/o la extensión espacial de las estructuras, simplemente ajustando la configuración óptica (es decir, distancia focal y campo de visión).
En una o más formas de realización, la unidad de analizador de datos puede comprender, además, una unidad de adquisición que está adaptada para controlar la disposición de cámaras y/o para sincronizar los dos flujos de vídeo a alta velocidad.
La unidad de procesamiento puede estar adaptada, además, para rectificar los dos flujos de vídeo a alta velocidad en el primer plano.
La unidad de procesamiento puede estar configurada, además, para detectar modos de vibraciones asociados con las deformaciones estimadas de al menos la parte de la estructura capturada a lo largo del primer plano.
La unidad de procesamiento puede estar configurada, además, para extraer los datos de vibraciones de al menos la parte de la estructura capturada mediante la combinación de las deformaciones estimadas de al menos la parte de la estructura capturada a lo largo del primer plano, los modos de vibraciones detectados, asociados con las deformaciones estimadas de al menos la parte de la estructura capturada a lo largo del primer plano, y las deformaciones calculadas de al menos la parte de la estructura capturada a lo largo de un segundo plano.
Cada cámara puede organizarse y adaptarse para capturar y generar un flujo de vídeo a alta velocidad.
Tal como se indicó con anterioridad, el segundo plano es diferente del primer plano. El segundo plano puede ser perpendicular al primer plano. A modo de ejemplo, el primer plano puede ser, o comprender, un plano de la disposición de cámaras, por ejemplo, la así denominado 'en plano', p.ej., el plano de la disposición de cámaras sobre el cual se proyecta la estructura capturada/p.ej., filmada y, potencialmente, su entorno. Dicho de otro modo, el primer plano se puede referir como 'en el plano', que representa la proyección de la estructura capturada y su entorno, sobre los planos de imagen de las cámaras a alta velocidad.
El segundo plano puede ser, o comprender, una disposición denominada 'fuera de plano'. La disposición fuera de plano puede ser perpendicular a la de 'en plano' y puede producir por al menos una dirección de visión de una cámara a alta velocidad. El segundo plano puede ser o comprender, un eje 'fuera de plano', p.ej., el eje óptico de la disposición de cámaras. En el caso de la disposición de cámaras que comprende al menos dos cámaras a alta velocidad, las al menos dos cámaras pueden estar separadas entre sí por una línea de referencia, que puede formar
5
10
15
20
25
30
35
40
45
50
55
60
65
parte del primer plano (p.ej., la configuración 'en plano'), en donde la línea de referencia puede tener un eje ortogonal, que puede formar el segundo plano (p.ej., la configuración 'fuera de plano'). Además, es posible que la línea de referencia pueda construir el segundo plano y, que el plano perpendicular correspondiente sea el primer plano, respectivamente. Además, el segundo plano puede ser, o comprender, un eje normal para el primer plano, o el primer plano puede ser o comprender un eje normal para el segundo plano.
El dispositivo para el análisis de vibraciones de vídeo a alta velocidad puede comprender una unidad de presentación visual. La unidad de presentación visual puede estar adaptada para mostrar al menos una de entre una entrada de usuario, un ajuste de usuario, uno o más de los dos flujos de vídeo a alta velocidad, los datos de vibraciones extraídos de al menos la parte de la estructura capturada, una representación sintética o basada en modelo de las deformaciones estimadas, y/o la información de profundidad determinada. La unidad de presentación visual puede estar conectada, además, a la unidad de analizador de datos a través de al menos uno de entre un enlace de datos de amplio ancho de banda dedicado y un bus de datos.
El dispositivo para el análisis de vibraciones de vídeo a alta velocidad puede comprender una interfaz gráfica de usuario. La interfaz gráfica de usuario puede estar adaptada para importar y mostrar resultados basados en modelos y alinear los resultados basados en modelos con los datos de vibraciones extraídos, p.ej., mediante controles dedicados y ventanas de la interfaz gráfica de usuario. La interfaz gráfica de usuario puede adaptarse para importar y mostrar resultados basados en modelos producidos por un software de terceros. La interfaz gráfica de usuario puede, además, estar adaptada para alinear los resultados basados en modelos con los datos de vibraciones extraídos mediante controles dedicados y ventanas de la interfaz gráfica de usuario. Los controles y ventanas pueden ser botones y deslizadores de mando, que se visualizan en la interfaz gráfica de usuario, lo que proporciona al usuario un control sobre los parámetros que influyen en la unidad de procesamiento. Los controles y ventanas pueden ser un selector para recortar una trama de los al menos dos flujos de vídeo a alta velocidad para seleccionar un punto o zona de la al menos una parte de la estructura capturada. Los controles y ventanas pueden ser un control para especificar una dirección que ha de investigarse en el primer plano y/o el segundo plano. Un usuario puede utilizar la unidad de presentación visual para controlar la interfaz gráfica de usuario.
El dispositivo modular para análisis de vibraciones de vídeo a alta velocidad se puede adaptar para soportar diferentes tipos de periféricos de vídeo que funcionan en un espectro visible, o en un espectro no visible, a modo de ejemplo infrarrojos lejanos/medios/cercanos, ultravioletas. Es posible que la tasa de presentación visual de vídeo pueda variar desde 25 Hz a 120 Hz a tasas de trama a alta velocidad superiores a 120 Hz, a modo de ejemplo, 1000 o 10000 tramas por segundo o más. El uso de configuraciones mixtas de periféricos es una opción para ser explotada junto con técnicas de fusión de sensores.
El dispositivo para análisis de vibraciones de vídeo a alta velocidad puede comprender, además, una unidad de interfaz común. La unidad de interfaz común puede estar conectada a la unidad de analizador de datos. La unidad de interfaz común puede estar adaptada para realizar la entrada del usuario y puede incluir al menos de entre una pantalla táctil, un teclado dedicado, un ratón y un bus serie universal.
El dispositivo para análisis de vibraciones de vídeo a alta velocidad puede incluir, además, una unidad de almacenamiento de memoria. La unidad de almacenamiento de memoria puede estar conectada a la unidad de analizador de datos a través de al menos uno de entre un enlace de datos de amplio ancho de banda dedicado y un bus de datos. La unidad de almacenamiento de memoria puede estar adaptada para memorizar un flujo de vídeo a alta velocidad.
El dispositivo para análisis de vibraciones de vídeo a alta velocidad puede comprender una unidad de refrigeración. La unidad de refrigeración puede estar conectada a la unidad de analizador de datos, y puede estar dispuesta y adaptada para disipar calor.
El dispositivo para análisis de vibraciones de vídeo a alta velocidad puede comprender una unidad de suministro de energía. La unidad de suministro de energía puede estar dispuesta y adaptada para proporcionar energía a la disposición de cámaras, p.ej., las al menos dos cámaras a alta velocidad, la unidad de analizador de datos y la unidad de refrigeración.
La unidad de analizador de datos del dispositivo para análisis de vibraciones de vídeo a alta velocidad puede incluir al menos uno de entre un monitor y una unidad de control y un generador de símbolos informáticos. El monitor y la unidad de control pueden estar adaptados para sincronizar la transferencia de datos y el procesamiento de datos de la unidad de analizador de datos. El generador de símbolos informáticos puede estar adaptado para combinar los datos de vibraciones extraídos con al menos uno de los al menos dos flujos de vídeo a alta velocidad, una entrada de usuario, un ajuste de usuario y/o resultados basados en modelos que se producen por un software de terceros.
La disposición de cámaras y la unidad de analizador de datos pueden ser mecánicamente y eléctricamente modulares. La disposición de cámaras y la unidad de analizador de datos pueden estar conectadas a través de un enlace de vídeo de amplio ancho de banda dedicado y un enlace energético dedicado.
5
10
15
20
25
30
35
40
45
50
55
60
65
Un control a distancia, a modo de ejemplo, un ordenador de tableta electrónica portátil, puede conectarse o estar conectada a la unidad de analizador de datos de conformidad con un enlace de datos inalámbrico. A este respecto, la unidad de analizador de datos se puede utilizar como una estación de depósito para recargar una batería del control a distancia. El dispositivo para análisis de vibraciones de vídeo a alta velocidad se puede adaptar para ser memorizable o estar memorizado en una caja de hardware portátil.
El dispositivo para análisis de vibraciones de vídeo a alta velocidad puede incluir una unidad de cabecera de sensor. La unidad de cabecera de sensor puede estar dispuesta y adaptada para incluir al menos dos cámaras a alta velocidad que pueden girar en sentido azimutal y en alzado para ser controladas por la unidad de analizador de datos. Dicho de otro modo, la disposición de cámaras, p.ej., las una o más cámaras, se pueden montar en, o encerrarse, en la unidad de cabecera de sensor, que puede conectarse a la unidad de analizador de datos. La unidad de cabecera de sensor puede comprender un riel de guía para deslizar las una o más, p.ej., al menos dos cámaras a alta velocidad.
La unidad de analizador de datos puede estar adaptada para sincronizar la unidad de cabecera de sensor y para controlar una distancia entre las al menos dos cámaras a alta velocidad, una orientación de la unidad de cabecera de sensor y una alineación de las al menos dos cámaras a alta velocidad para el objetivo/estructura.
El dispositivo para análisis de vibraciones de vídeo a alta velocidad puede incluir un acelerómetro de estado sólido y/o sensor giroscópico. El acelerómetro de estado sólido y/o el sensor giroscópico pueden estar situados en la unidad de cabecera de sensor para compensación de vibraciones de la unidad de cabecera de sensor.
El dispositivo para análisis de vibraciones de vídeo a alta velocidad puede comprender una plataforma móvil sobre la que se coloca la disposición de cámaras. La plataforma móvil puede ser una plataforma robótica. El movimiento de la plataforma puede ser controlado a distancia.
La plataforma móvil puede comprender sus propios sensores. A modo de ejemplo, la plataforma puede incluir al menos uno de los acelerómetros y sensores giroscópicos.
Un segundo aspecto se refiere a la utilización del dispositivo para análisis de vibraciones de vídeo a alta velocidad, de conformidad con el primer aspecto en el análisis de vibraciones sin contacto de vehículos aeroespaciales u otra clase de dispositivos o estructuras, a modo de ejemplo máquinas, automóviles, edificios o puentes.
De conformidad con un tercer aspecto, se da a conocer un método para análisis de vibraciones de vídeo a alta velocidad de una estructura. El método incluye la generación, mediante una disposición de cámaras, de dos flujos de vídeo a alta velocidad de la estructura. La disposición de cámaras comprende una cámara de vídeo a alta velocidad que está configurada para funcionar en un espectro visible, y una cámara de vídeo a alta velocidad que está configurada para funcionar en un espectro no visible, y en donde cada una de las cámaras a alta velocidad genera un flujo de vídeo a alta velocidad.
El método comprende, además, la estimación, por una unidad de procesamiento de una unidad de analizador de datos, a partir de al menos una de los dos flujos de vídeo a alta velocidad, de deformaciones de al menos una parte de la estructura a lo largo de un primer plano. El método incluye, además, la determinación, por la unidad de procesamiento, a partir de los dos flujos de vídeo a alta velocidad, de información de profundidad de al menos una parte de la estructura a lo largo de un segundo plano, diferente del primer plano, o a lo largo de un eje incluido en el segundo plano. El método comprende, además, la extracción, por la unidad de procesamiento, de datos de vibraciones de al menos la parte de la estructura capturada considerando las deformaciones estimadas de al menos la parte de la estructura capturada a lo largo del primer plano, y la información de profundidad determinada de al menos la parte de la estructura capturada a lo largo de un segundo plano, o a lo largo del eje incluido en el segundo plano.
La parte de la estructura capturada puede ser un punto y/o zona de la estructura que se selecciona por el usuario.
Las etapas de estimación, determinación y extracción se pueden realizar en un orden seleccionado por el usuario.
Los datos de vibraciones de conformidad con el primero, el segundo y el tercer aspecto pueden convertirse en un conjunto adecuado de salidas, a modo de ejemplo marcadores sintéticos en la zona/punto de interés, superpuestos a los flujos de vídeo a alta velocidad. Otra salida adecuada pueden ser desviaciones virtuales superpuestas a la señal de vídeo de la estructura y coloreadas de conformidad con sus amplitudes. Otra salida adecuada pueden ser gráficos dinámicos y trazados con la evolución en tiempo de ejecución de frecuencias, amplitudes, velocidades, aceleraciones y Transformadas de Fourier. Otra salida adecuada puede ser ficheros de datos, en donde se memorizan todos los ajustes del usuario, flujos de vídeo de entrada y salidas de procesamiento relacionadas. Otra salida adecuada puede ser advertencias de audio que se inician por eventos definidos por el usuario, a modo de ejemplo, cuando la amplitud o desviación estimada, en una zona/punto de interés específico supera un umbral predefinido, configurado a través de una interfaz gráfica de usuario. Otra salida adecuada puede ser tablas y/o modelos en 3D, en donde los datos procedentes de análisis previos, a modo de ejemplo estudios FEM, se comparan
5
10
15
20
25
30
35
40
45
50
55
60
65
y/o se superponen con los flujos de vídeo a alta velocidad entrantes. La etapa de superposición se puede realizar por una unidad generadora de símbolos informáticos.
La estructura aquí mencionada puede ser un vehículo aeroespacial (p.ej., un avión, un helicóptero o un satélite) u otra estructura. De conformidad con lo anterior, la parte de la estructura puede ser una zona de la estructura, una parte de la estructura y/o un componente de la estructura.
En general, las etapas de uno cualquiera de los aspectos del método aquí descritos se pueden realizar, igualmente, en uno o más componentes, dispositivos o unidades adecuados, p.ej., en componentes adecuados del dispositivo de análisis de vibraciones, a modo de ejemplo, la unidad de analizador de datos, la unidad de procesamiento, la disposición de cámaras y similares.
De conformidad con un cuarto aspecto, se da a conocer un programa informático. El programa informático comprende partes de código de programa para hacer que se pongan en práctica las etapas de uno cualquiera de los aspectos del método descritos en este documento, cuando el programa informático se ejecuta en un sistema informático o en uno o más dispositivos informáticos. El programa informático se puede memorizar en un soporte de grabación legible por ordenador o puede descargarse como una señal.
A continuación, la presente invención se describirá, además, con referencia a formas de realización a modo de ejemplo, ilustradas en las Figuras, en las que:
La Figura 1 es una representación esquemática de una forma de realización de un dispositivo modular para análisis de vibraciones de vídeo a alta velocidad;
La Figura 2 es una representación esquemática de una estructura que ha de capturarse por dos cámaras a alta velocidad;
La Figura 3 es una representación esquemática de una unidad de cabecera de sensor, ilustrada como un sistema estabilizado por gimbal que comprende dos cámaras a alta velocidad;
La Figura 4 es una representación esquemática de una forma de realización de un dispositivo modular para análisis de vibraciones de vídeo a alta velocidad con una unidad de cabecera de sensor estabilizado por gimbal;
La Figura 5 es una representación esquemática de un escenario con dos unidades de cabecera de sensor estabilizado por gimbal, conectadas a una unidad de analizador de datos mejorada, capturando un objetivo;
La Figura 6 es una representación esquemática de una unidad de presentación visual y una unidad de interfaz común sobre una caja de analizador de datos con entradas de aire;
La Figura 7 es una representación esquemática de un dispositivo portátil separable y una estación de depósito utilizable con el analizador de datos aquí descrito;
La Figura 8 es un diagrama de flujo esquemático de una forma de realización de un método para análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura;
La Figura 9a es un diagrama de flujo esquemático de una forma de realización de un método para análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura;
La Figura 9b es un diagrama de flujo esquemático de un proceso de calibración que puede ser parte de las formas de realización para el análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura;
La Figura 9c es un diagrama de flujo esquemático de un proceso de adquisición de vídeo que puede ser parte de las formas de realización para el análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura;
La Figura 9d es un diagrama de flujo esquemático de un proceso de adquisición de vídeo con procesamiento de correspondencia múltiple que puede ser parte de formas de realización para el análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura;
La Figura 9e es un diagrama de flujo esquemático de un proceso de correspondencia estéreo que puede ser parte de formas de realización para el análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura;
La Figura 9f es un diagrama de flujo esquemático de un proceso de pre-procesamiento que puede ser parte de las formas de realización, o análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura;
5
10
15
20
25
30
35
40
45
50
55
60
65
La Figura 9g es un diagrama de flujo esquemático de un cálculo de puntos de coincidencia que puede ser parte de formas de realización para análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura;
La Figura 9h es un diagrama de flujo esquemático de un proceso de triangulación que puede ser parte de las formas de realización para análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura;
La Figura 9i es un diagrama de flujo esquemático de un cálculo de desplazamiento que puede ser parte de las formas de realización para análisis de vibraciones sin contacto, basado en video a alta velocidad, de una estructura;
y
La Figura 9j es un diagrama de flujo esquemático de un análisis modal en 3D que puede ser parte de formas de realización para análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura.
En la siguiente descripción, para fines de explicación y no de limitación, se establecen detalles específicos, tales como algoritmos específicos, con el fin de proporcionar una comprensión exhaustiva de la presente idea inventiva. A modo de ejemplo, es concebible cualquier cantidad de cámaras a alta velocidad.
Los expertos en esta técnica apreciarán, además, que las funciones explicadas a continuación se pueden poner en práctica utilizando un conjunto de circuitos de hardware individual, utilizando software que funciona en conjunción con un microprocesador programado, o un ordenador de finalidad general, que utiliza un Circuito Integrado Específico de la Aplicación (ASIC), y/o utilizando uno o más Procesadores de Señal Digital (DSP). Ha de apreciarse, además, que cuando la presente invención se describe como un método, se puede incorporar, además, en un procesador informático y una memoria acoplada a un procesador, en donde la memoria está codificada con uno o más programas para hacer que el procesador realice los métodos aquí descritos cuando son ejecutados por el procesador.
La Figura 1 ilustra, esquemáticamente, una forma de realización del dispositivo para análisis de vibraciones de vídeo a alta velocidad que se denomina, a continuación, como un dispositivo modular 100 para el análisis de vibraciones de vídeo a alta velocidad 100. El dispositivo modular para análisis de vibraciones de vídeo a alta velocidad 100 comprende dos cámaras a alta velocidad 10, que forman parte de la disposición de cámaras en esta forma de realización. Las cámaras modulares a alta velocidad 10 están conectadas, mediante líneas de alimentación eléctrica y líneas de transmisión de datos, a la unidad de analizador de datos 20. Aunque, a modo de ejemplo, se ilustran dos cámaras en la Figura 1, la presente idea inventiva no está limitada a dos cámaras a alta velocidad. La unidad de analizador de datos 20 comprende, a modo de ejemplo en la Figura 1, una unidad de adquisición 11, una unidad de procesamiento 12, una unidad de almacenamiento de memoria 13, un monitor y unidad de control 14 y un generador de símbolos informáticos 15. La unidad de adquisición 11 controla las operaciones de cámara a alta velocidad y la captura de flujos de vídeo a alta velocidad desde las cámaras a alta velocidad 10.
La unidad de procesamiento 12 comprende dos etapas principales canalizadas, denominadas como una etapa de procesamiento previo, y una etapa de procesamiento posterior. La etapa de pre-procesamiento realiza el filtrado temporal espacial de los flujos de vídeo entrantes por medio de técnicas de procesamiento de imágenes. La etapa de post-procesamiento funciona en el flujo de vídeo previamente procesado mediante la extracción de movimientos/vibraciones de la estructura capturada, en lo sucesivo denominadas deformaciones, siendo filmadas/capturadas a lo largo del plano de superficie observado (eje 'en el plano') y/o normales al mismo (eje 'fuera de plano'). El movimiento fuera de plano se puede extrapolar por medio de técnicas de procesamiento de visión estereoscópica de última generación, por ejemplo, imagen de disparidad, acoplada con modelos estadísticos para gestionar las incertidumbres de la profundidad de pixels calculada (profundidad inferida). Los datos de movimiento referidos al sistema de coordenadas de la superficie/estructura observada, se pueden referir a otro sistema de coordenadas, a modo de ejemplo, el sistema de cámara x-y-z, por medio de una transformación geométrica canónica. La unidad de procesamiento 12 puede explotar agrupaciones extensibles de unidades de procesamiento de gráficos y unidades centrales de procesamiento con el fin de conseguir el procesamiento, en paralelo, de los flujos de vídeo a alta velocidad entrantes.
La unidad de almacenamiento de memoria 13 está conectada a la unidad de analizador de datos a través de un enlace de datos de amplio ancho de banda y un enlace de suministro de energía dedicado, memoriza los flujos de video a alta velocidad/sesiones de vídeo incorporadas/capturadas y los proporciona para reproducción. La unidad de memoria 13 está adaptada, además, para memorizar ajustes de prueba, entradas y salidas, según se requiera por un usuario. El acceso al contenido de la unidad de almacenamiento de memoria es posible a través de una interfaz gráfica de usuario basada en software del dispositivo. La copia de seguridad/carga de los datos memorizados en la unidad de almacenamiento de memoria se puede realizar mediante una unidad de memoria comercial externa, conectada al dispositivo a través de interfaces estándar comerciales, tales como buses en serie universal.
El monitor y la unidad de control 14 sincronizan la transferencia de datos, el procesamiento de datos y todas las entradas y salidas cableadas/inalámbricas de la unidad de analizador de datos 20. El generador de símbolos informáticos 15 combina las salidas de la unidad de procesamiento 12, a modo de ejemplo, frecuencias y amplitudes, con un vídeo adquirido, entradas de usuario y ajustes del usuario, resultados basados en modelos del
5
10
15
20
25
30
35
40
45
50
55
60
65
análisis de vibraciones (si están disponibles).
La Figura 1 ilustra, además, a modo de ejemplo, una unidad de suministro de energía 16, una unidad de refrigeración 17, una unidad de interfaz común 18 y una unidad de presentación visual 19, cada una separada de la unidad de analizador de datos 20. La unidad de suministro de energía 16 proporciona energía a la unidad de refrigeración 17, las cámaras a alta velocidad 10 y la unidad de analizador de datos 20. La unidad de refrigeración 17 proporciona disipación de calor para la unidad de analizador de datos 20. La unidad de interfaz común 18 proporciona un teclado dedicado, un ratón y/o un puerto de bus serie universal. La unidad de presentación visual 19 proporciona una pantalla para entradas de usuario y ajustes de usuario, vídeo de entrada, a modo de ejemplo un modo de reproducción, datos de vibraciones extraídos, vídeo post-procesado y/o cualquier representación sintética o basada en modelos de los movimientos/vibraciones/deformaciones detectados. Todas las unidades del dispositivo modular para análisis de vibraciones de vídeo a alta velocidad 100 pueden ser modulares de forma mecánica, eléctrica y de procedimiento.
La Figura 2 ilustra, esquemáticamente, una disposición que comprende dos cámaras de vídeo a alta velocidad 10 y una estructura 1 para ser filmada, en donde el término "filmada" se puede entender como que se captura la estructura por las dos cámaras a alta velocidad 10. Es posible que más de dos cámaras 10 capturen la estructura 1. Como alternativa, solamente una cámara 10 puede estar dispuesta para capturar la estructura, en donde la cámara 10 se puede desplazar para capturar la estructura 10 desde diferentes perspectivas y/o la propia cámara 10 comprende elementos ópticos para generar imágenes que corresponden a imágenes tomadas desde diferentes perspectivas. La disposición ilustra las dos cámaras a alta velocidad 10 separadas entre sí a través de una línea de referencia. Las dos cámaras a alta velocidad 10 capturan la estructura 1 desde diferentes ángulos, y cada una de las cámaras a alta velocidad 10 genera un flujo de vídeo a alta velocidad. Las dos cámaras a alta velocidad están conectadas a una unidad de analizador de datos, tal como la unidad de analizador de datos 20, y están sincronizadas por la unidad de analizador de datos, p.ej., unidad de analizador de datos 20. Las cámaras a alta velocidad 10 se pueden conectar a la unidad de analizador de datos, p.ej., unidad de analizador de datos 20, a través de enlaces de vídeo de amplio ancho de banda dedicado y enlaces de suministro de energía dedicados. Las cámaras a alta velocidad 10 se ilustran como estando montadas en plataformas transportables tales como trípodes 2, separadas de la unidad de analizador de datos, p.ej., unidad de analizador de datos 20, alineada con los puntos de vista de interés de la estructura 1.
La Figura 3 ilustra, esquemáticamente, una unidad de cabecera de sensor 21 que proporciona el dispositivo modular para el análisis de vibraciones de vídeo a alta velocidad 100 con dos cámaras 10 posicionadas en la unidad de cabecera de sensor 21. Proporciona un motor de alzado y un motor de azimut, que permiten una oscilación de alzado/rotación y una oscilación de azimut/rotación (o balanceo y paso). La unidad de cabecera de sensor 21 se ilustra como montada en la unidad de analizador de datos 20, pero puede estar situada, además, como un dispositivo independiente, o montarse en una estructura separada similar a un trípode. La unidad de cabecera de sensor 21 comprende un riel de guía extensible con puntos de fijación deslizantes para las cámaras a alta velocidad 10. Las dos cámaras a alta velocidad 10 están separadas entre sí por intermedio de una línea de referencia. La longitud de la línea de referencia está regulada para el procesamiento de visión estereoscópica que proporciona un medio para controlar la precisión global de la profundidad inferida de la estructura que ha de capturarse. La unidad de cabecera de sensor 21 se puede desplazar, además, en dirección de alzado y dirección de azimut, lo que proporcionan una iluminación en el espacio. La unidad de cabecera del sensor 21 proporciona una orientación óptima hacia las partes de la estructura que han de controlarse, y proporciona una gama más amplia de condiciones de prueba. Cuando se utilizan elementos ópticos de zoom dedicados para las cámaras a alta velocidad 10, se pueden analizar las estructuras situadas a prácticamente cualquier distancia desde el operador. Se considera que las cámaras a alta velocidad 10 son fáciles de separar de la unidad de cabecera de sensor 21, lo que lleva a una capacidad de mantenimiento/reparabilidad mejorada del equipo. Los desplazamientos de la línea de referencia y las rotaciones de estabilización por gimbal de la unidad de cabecera de sensor se pueden configurar manualmente, o controlarse activamente a través de motores y accionadores mediante la unidad de analizador digital 20. Mediante el uso adicional de acelerómetros de estado sólido y sensores giroscópicos, unidos a una plataforma estabilizada por gimbal motorizada y/o volquetes pasivos, se obtiene una unidad de cabecera de sensor 21 controlada de forma activa y, con movimiento estabilizado, que permite una auto-compensación de movimiento (por ejemplo, una prueba de vuelo), con el fin de eliminar vibraciones no deseadas. La plataforma se puede almacenar fácilmente en un hardware portátil adecuado/caja reforzada, lo que lleva a un sistema fácil de instalar.
La Figura 4 ilustra, esquemáticamente, el dispositivo modular para análisis de vibraciones de vídeo a alta velocidad 100, con las cámaras a alta velocidad 10 montadas en un sistema estabilizador denominado gimbal 21 con un gimbal de alzado y un gimbal de azimut, y dos rieles deslizantes que proporcionan una distancia de línea de referencia variable. Además de la Figura 1, la Figura 4 ilustra un control para la unidad de cabecera de sensor 21, que es un sistema estabilizador gimbal 21 en esta forma de realización. La unidad de analizador de datos 20 recibe un estado de la unidad principal del sensor y reacciona en función del estado controlando la orientación de la unidad de cabecera de sensor.
La Figura 5 ilustra, esquemáticamente, una forma de realización del dispositivo modular para análisis de vibraciones de vídeo a alta velocidad 100, capturando/filmando una estructura objetivo 1 por dos sistemas de cámara a alta
5
10
15
20
25
30
35
40
45
50
55
60
65
velocidad separados 21, montados sobre, (o encerrados en), una estructura independiente separada, un sistema estabilizador gimbal. La estructura objetivo 1 se captura por ambas unidades de cabecera de sensor 21, alineadas ambas en un ángulo ortogonal entre sí. Se proporciona, además, una unidad de analizador de datos mejorada 20 con dos unidades de adquisición 11 para controlar y conectar la adquisición sincronizada desde múltiples unidades de cabecera de sensor independientes 21. Este ajuste proporciona una representación exacta de las deformaciones/vibraciones/movimientos de la estructura objetivo, a modo de ejemplo, una torsión/flexión que se acoplan en un perfil de aletas. Esta arquitectura de sistema permite la validación cruzada de datos de vibraciones (modos de 'en el plano'/'fuera de plano' y deformaciones), calculados desde diferentes perspectivas, a modo de ejemplo, comparando las deformaciones de la estructura a lo largo de una vista frontal y una vista lateral. Esta arquitectura del sistema permite, además, la fusión de datos de vibraciones de varias unidades de cabecera de sensor 21 mejorando así la precisión y solidez del dispositivo modular para salidas de análisis de vibraciones de vídeo a alta velocidad (fusión de sensor).
La Figura 6 ilustra, esquemáticamente, una parte del dispositivo modular para análisis de vibraciones de vídeo a alta velocidad 100, que incluye una unidad de presentación visual 19, una unidad de interfaz común 18 y una unidad de analizador de datos 20, en donde la unidad de analizador de datos 20 se proporciona dentro de una caja reforzada/hardware. La unidad de presentación visual 19 se ilustra como estando integrada en un ordenador portátil, que está conectado a la unidad de analizador de datos 20, que tiene entradas de aire para resolver problemas de refrigeración.
La Figura 7 ilustra, esquemáticamente, una pantalla inalámbrica portátil 19, a modo de ejemplo, un dispositivo de tableta electrónica, una estación de depósito y la unidad de interfaz común 18. Se ilustra una posibilidad de extraer o insertar la pantalla inalámbrica portátil 19 en la estación de depósito, en donde la estación de depósito está conectada a la unidad de analizador de datos 20. El ordenador puede ser un ordenador portátil, una tableta electrónica o un dispositivo similar, que puede conectarse por cable, o de forma inalámbrica, a la unidad de analizador de datos 20. El dispositivo tipo tableta combina una interfaz de entrada de usuario y la unidad de presentación visual 19 en un solo elemento portátil. La estación de depósito se utiliza como una estación de depósito para una recarga de batería de la batería de la tableta electrónica. Lo que antecede es útil y adecuado para el control a distancia cada vez que el dispositivo se vaya a utilizar en zonas peligrosas/de seguridad crítica, en donde la seguridad del operador es una preocupación principal.
La Figura 8 ilustra un diagrama de flujo esquemático de una forma de realización de un método para análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura. La forma de realización del método se puede poner en práctica mediante cualquier forma de realización adecuada del dispositivo de análisis de vibraciones de vídeo a alta velocidad 100 aquí descrito. La disposición de cámaras genera (en la etapa S1) al menos dos flujos de vídeo a alta velocidad de la estructura. La unidad de procesamiento estima (en la etapa S2), a partir de al menos uno de los al menos dos flujos de vídeo a alta velocidad, deformaciones de al menos una parte de la estructura a lo largo de un primer plano. La unidad de procesamiento determina, además, (en la etapa S3), a partir de los al menos dos flujos de vídeo a alta velocidad, información de profundidad de al menos una parte de la estructura a lo largo de un segundo plano. El segundo plano es diferente del primer plano. La unidad de procesamiento extrae, además, (en la etapa S4) datos de vibraciones de al menos la parte de la estructura capturada, mediante la combinación de las deformaciones estimadas de al menos la parte de la estructura capturada a lo largo del primer plano, y la información de profundidad determinada de al menos la parte de la estructura capturada a lo largo de un segundo plano.
Las Figuras 9a a 9j pueden ser, respectivamente, parte de una forma de realización de un método del análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura. La forma de realización del método que comprende uno o más de los métodos que se ilustran, respectivamente, en las Figuras 9a a 9j, se pueden considerar una versión más detallada de la forma de realización del método de la Figura 8. La forma de realización del método que comprende uno o más de los métodos ilustrados, respectivamente, en las Figuras 9a a 9j, se puede poner en práctica mediante cualquier forma de realización adecuada del dispositivo de análisis de vibraciones de vídeo a alta velocidad 100 aquí descrito.
La Figura 9a ilustra un diagrama de flujo esquemático de una forma de realización de un método del análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura. La forma de realización del método de la Figura 9a comprende, a modo de ejemplo, las etapas de rectificación del vídeo (etapa S14, que se ilustra, en detalle, en las Figuras 9c y 9d), procesamiento de correspondencia estéreo (etapa S16, ilustrado, en detalle, en la Figura 9e), cálculo de desplazamiento del flujo óptico (etapa S40, que se ilustra, en detalle, en la Figura 9i) y análisis modal en 3D (etapa S54, ilustrado, en detalle, en la Figura 9j).
Estas etapas de proceso del análisis de vibraciones sin contacto, basado en vídeo a alta velocidad, de una estructura, se ilustran en detalle en al menos algunas de las Figuras 9b a 9j.
La Figura 9b ilustra un diagrama de flujo esquemático de un proceso de calibración (S11) para el dispositivo modular para análisis de vibraciones de vídeo a alta velocidad 100. Uno o más patrones de calibración conocidos 1a son capturados a través del presente campo de luz 1, y el campo de luz 2, mediante adquisición de vídeo (etapa S10).
5
10
15
20
25
30
35
40
45
50
55
60
65
La adquisición de vídeo se puede considerar una etapa combinada de las cámaras a alta velocidad 10 y la unidad de adquisición 11, que proporcionan un vídeo original 1 y un vídeo original 2 al proceso de calibración fuera de línea (etapa S12). El proceso de calibración (etapa S12) proporciona, en consecuencia, datos de calibración estéreo. El proceso de calibración fuera de línea (etapa S12) calcula los parámetros intrínsecos, a modo de ejemplo, distancia focal, centros de imagen y distorsión de lentes. El proceso de calibración fuera de línea (etapa S12) calcula, además, los parámetros extrínsecos, por ejemplo, una matriz afín que define la alineación entre las cámaras a alta velocidad. Los datos de calibración estéreo se proporcionan a un proceso de rectificación de vídeo (transformación y filtrado de vídeo), la etapa de proceso previo (mejora de SNR sobre una base de trama por trama), el proceso de triangulación (calculando la profundidad de pixels, profundidad inferida) y la etapa de reconstruir un vector de desplazamiento 3D dentro de un análisis modal 3D (evaluar datos de vibraciones).
La Figura 9c ilustra un diagrama de flujo esquemático del proceso de captura (etapa S13) de un objetivo/estructura 1, que se captura a través del campo de luz 1 y el campo de luz 2, por la adquisición de vídeo (etapa S10). A continuación, el vídeo original 1, y el vídeo original 2, se proporcionan al proceso de rectificación de vídeo (etapa S14). El proceso de rectificación de vídeo (etapa S14) se proporciona con datos de calibración estéreo, y el proceso de rectificación de vídeo (S14) proporciona, a la salida, un vídeo rectificado 1 y un vídeo rectificado 2, a un proceso de correspondencia estéreo. El proceso de rectificación de vídeo (S14) convierte un par de señales de vídeo estéreo originales a una forma estándar mediante el uso de técnicas de eliminación de distorsión de lentes y técnicas de roto-traslación (espacio de objetos en 3D para plano de cámara en 2D).
La Figura 9d ilustra un diagrama de flujo esquemático de una extensión del proceso de adquisición de la Figura 9c, mediante al menos otra adquisición de vídeo de campo de luz (S10) y un proceso de correspondencia múltiple (S16), en lugar de los procesos de correspondencia estéreo ilustrados en la Figura 9c. El proceso de correspondencia múltiple se proporciona por los múltiples vídeos rectificados, que han sido rectificados por el proceso de rectificación de vídeo (S14).
La Figura 9e ilustra un diagrama de flujo esquemático del proceso de correspondencia estéreo (S16), que tiene como objetivo encontrar puntos de "coincidencia" homólogos en el par de vídeo entrante. Es alimentado por el vídeo rectificado 1 y el vídeo rectificado 2. La etapa de pre-proceso (etapa S18, que se ilustra, en detalle, en la Figura 9f) incluye la mejora de la SNR (Relación de Señal a Ruido) sobre una base de trama por trama. La etapa de procesamiento previo genera un par de pirámides de vídeo pre-procesadas. Después, con el uso de puntos y zonas de interés seleccionados por el usuario (etapa S24) a partir de la interfaz gráfica de usuario (GUI), se calculan los puntos de coincidencia (etapa S20, ilustrada, en detalle, en la Figura 9g). Como resultado de este cálculo, un mapa de disparidad reajustado, y puntos coincidentes reajustados, son emitidos y utilizados por un proceso de triangulación (etapa S22, que se ilustra en detalle en la Figura 9h) que, a su vez, emite una variación de tiempo de mapa de profundidad calculado Adepth(i), que aquí se refiere a la profundidad inferida y la variación de profundidad estimada a lo largo del tiempo.
La Figura 9f ilustra un diagrama de flujo esquemático del procesamiento previo (etapa S18) mejorando la SNR en una base de trama por trama, calculando una pirámide de imagen (S26) para cada trama i con Ng niveles de sub- muestreo y a continuación, filtrado 2D de imagen (S28) de cada trama i del flujo de vídeo a alta velocidad, por ejemplo, corrección fotométrica o mejora de bordes. La pirámide de imágenes puede ser una pirámide Gaussiana o una pirámide Laplaciana, o una combinación de las mismas, por ejemplo. Después de construir la pirámide de imágenes (etapa S26), solamente se emite un flujo de vídeo para un cálculo de desplazamiento, pero se puede extender a dos o más flujos de vídeo. Después del filtrado 2D de la imagen (etapa S28), se analiza un par de pirámides de vídeo pre-procesadas (Pyr1(i,p) y Pyr2(i, p)) para el cálculo de los puntos coincidentes.
La Figura 9g ilustra un diagrama de flujo esquemático del cálculo de los puntos de coincidencia (etapa S20), en donde el cálculo está basado en el par de pirámides de vídeo previamente procesado y los puntos/zonas de interés seleccionados por el usuario a partir de la interfaz gráfica de usuario (GUI) (etapa s24). El cálculo/agregación de costes de coincidencia (etapa S30) se proporciona por los puntos/zonas de interés, y proporciona el cálculo de disparidad (etapa S32) con los puntos coincidentes encontrados en el par de pirámides de vídeo. Se calcula un mapa de disparidad sin corregir mediante métodos de cálculo de disparidad (etapa S32) y se refina el mapa de disparidad sin corregir (etapa S34), lo que conduce a proporcionar, a la salida, de puntos de coincidencia reajustados y un mapa de disparidad refinada. Estos dos se proporcionan al proceso de triangulación, en donde los puntos de coincidencia reajustados se proporcionan, además, al cálculo de desplazamiento.
La Figura 9h ilustra un diagrama de flujo esquemático del proceso de triangulación (S22) con las entradas de un mapa de disparidad refinada y puntos coincidentes reajustados, en donde el proceso de triangulación (etapa S22) se alimenta con datos de calibración estéreo. El proceso de triangulación (etapa S22) calcula (etapa S36) un mapa de profundidad, calcula una variación de tiempo de mapa de profundidad siguiente (etapa S38) y proporciona el análisis modal en 3D con el cambio en profundidad de pixels (profundidad inferida ADepth(i)).
La Figura 9i ilustra un diagrama de flujo esquemático del cálculo de desplazamiento (etapa S40) que se emite por solamente un flujo de vídeo con las pirámides de imagen (tramas) incluidas. En primer lugar, se extraen características de imagen local (a modo de ejemplo, fase local y amplitud) (etapa 42), en donde se puede calcular,
5
10
15
20
25
30
35
40
45
50
55
de forma opcional, una amplificación de movimiento (etapa 44) y se puede generar un vídeo ampliado en movimiento. A continuación, se evalúan las velocidades de desplazamiento alrededor de los puntos coincidentes reajustados (etapa S46) con la ayuda de puntos coincidentes reajustados. Posteriormente, se mejora la SNR (etapa S48) y se reconstruye la señal de desplazamiento (etapa S50), lo que lleva a una señal de desplazamiento 'en el plano' que alimenta el proceso de análisis modal en 3D. Los modos de vibraciones se detectan (etapa S52) a través de la señal de desplazamiento 'en el plano', proporcionando así el análisis en modal 3D con modos de vibraciones.
Estas dos señales se combinan en el análisis modal en 3D (etapa S54), ilustrado en la Figura 9j, como un diagrama de flujo esquemático. Las dos señales se combinan en un filtro temporal de paso de banda (etapa S56) con una entrada adicional de la diferencia de profundidad inferida Adepth(i) de cada trama del flujo de vídeo a alta velocidad. Después del filtrado temporal de paso de banda (S56), se reconstruye un vector de desplazamiento tridimensional (etapa S58, en desplazamiento 'en plano'/'fuera de plano' para cada frecuencia modal, alrededor de cada punto de interés/zona de interés). El resultado del análisis modal en 3d se proporciona como datos de vibraciones.
Con ayuda de las formas de realización descritas anteriormente, es posible supervisar y hacer funcionar un sensor basado en vídeo capaz de detección precoz/alerta precoz de vibraciones/deformaciones estructurales peligrosas, que se pueden aplicar en la industria de automoción, aeroespacial (aviones, helicópteros, satélites), obra civil (estructuras de edificios, puentes, carreteras, ferrorieles), transporte (trenes, barcos), defensa y seguridad, a modo de ejemplo sensores electro-ópticos y electro-acústicos, capaces de detectar (rastrear) lejos/rápido/objetos poco observables, mediante el análisis de vibraciones ópticas/acústicas producidas en el entorno circundante (es decir, avisador de misiles de infrarrojos o detectores de minas terrestres) e imágenes médicas. El dispositivo modular puede realizar pruebas de vibraciones en estructuras amplio ancho de bandas y/o complejas mediante el análisis de vibraciones de vídeo a alta velocidad, y no está limitado en rendimiento y portabilidad. Además, las cámaras a alta velocidad pueden ser sensores ópticos pasivos que no emiten energía y consiguen muy altas resoluciones digitales. Se prevé una reducción importante de los costos de desarrollo, producción, prueba y mantenimiento, así como los costos relacionados con la "falta de calidad". Por lo tanto, se reduce, de forma considerable, los costos por hora- hombre y también los costos asociados a la falta de calidad (mantenimiento y reparación).
De conformidad con lo que antecede, al menos se mantiene la experiencia del usuario en comparación con los logros actuales por medio de LDVs. Además, se ofrecen ventajas importantes en comparación con los LDVs, a modo de ejemplo, al ser mucho más asequible en términos de costos directos, y más versátil en términos de condiciones operativas.
Además, el dispositivo descrito en este documento puede ser para uso en interiores y exteriores, se puede situar prácticamente en cualquier orientación y distancia al objetivo y puede controlar estructuras de cualquier tamaño.
Además, se pueden reducir los costes de desarrollo, producción y falta de calidad de los elementos/estructuras que se fabrican, y la calidad del producto se puede mejorar, simultáneamente. Esta circunstancia conduce a la mitigación de una serie de problemas a los que se enfrentan, constantemente, en áreas como ingeniería, funcionamiento y producción (es decir, limitaciones de tiempo o falta de espacio y recursos).
De forma adicional, la técnica de análisis de vibraciones sin contacto descrita en este documento puede
a) requerir un tiempo de configuración más rápido y rentable (si se compara con los acelerómetros), y
b) ser más versátil para funcionar, tanto en entornos de pruebas interiores como exteriores, así como para pruebas en tierra y en vuelo.

Claims (14)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    65
    REIVINDICACIONES
    1. Un dispositivo para análisis de vibraciones de vídeo a alta velocidad, comprendiendo el dispositivo:
    una disposición de cámaras adaptada para generar dos flujos de vídeo a alta velocidad de una estructura, en donde la disposición de cámaras comprende una cámara de vídeo a alta velocidad que está configurada para funcionar en un espectro visible, y una cámara de vídeo a alta velocidad que está configurada para funcionar en un espectro no visible, y en donde cada una de las cámaras a alta velocidad genera un flujo de vídeo a alta velocidad;
    una unidad de analizador de datos, conectada a la disposición de cámaras, comprendiendo la unidad de analizador de datos:
    una unidad de procesamiento adaptada para:
    la estimación, a partir de al menos uno de los dos flujos de vídeo a alta velocidad, de deformaciones de al menos una parte de la estructura capturada a lo largo de un primer plano,
    la determinación, a partir de los dos flujos de vídeo a alta velocidad, de información de profundidad de al menos una parte de la estructura capturada a lo largo de un segundo plano, diferente del primer plano, o a lo largo de un eje incluido en el segundo plano, y
    la extracción de datos de vibraciones de al menos una parte de la estructura capturada mediante la consideración de las deformaciones estimadas, y la información de profundidad determinada.
  2. 2. El dispositivo según la reivindicación 1, en donde la unidad de analizador de datos comprende una unidad de adquisición que está adaptada para controlar la disposición de cámaras y/o para sincronizar los dos flujos de vídeo a alta velocidad.
  3. 3. El dispositivo según la reivindicación 1 o 2, en donde la unidad de procesamiento está adaptada para rectificar los dos flujos de vídeo a alta velocidad sobre el primer plano.
  4. 4. El dispositivo según una cualquiera de las reivindicaciones 1 a 3, en donde la unidad de procesamiento está configurada para detectar modos de vibraciones asociados con las deformaciones estimadas de al menos la parte de la estructura capturada a lo largo del primer plano.
  5. 5. El dispositivo según la reivindicación 4, en donde la unidad de procesamiento está configurada para extraer los datos de vibraciones de al menos la parte de la estructura capturada mediante la combinación de las deformaciones estimadas de al menos la parte de la estructura capturada a lo largo del primer plano, los modos de vibraciones detectados, asociados con las deformaciones estimadas de al menos la parte de la estructura capturada a lo largo del primer plano, y las deformaciones calculadas de al menos la parte de la estructura capturada a lo largo de un segundo plano.
  6. 6. El dispositivo según una cualquiera de las reivindicaciones 1 a 5, en donde cada cámara está dispuesta y adaptada para capturar la estructura, y para generar un flujo de vídeo a alta velocidad.
  7. 7. El dispositivo según una cualquiera de las reivindicaciones 1 a 6, en donde el segundo plano es perpendicular al primer plano.
  8. 8. El dispositivo según una cualquiera de las reivindicaciones 1 a 7, que comprende, además:
    una unidad de presentación visual adaptada para mostrar al menos una de entre una entrada de usuario, un ajuste de usuario, uno o más de los dos flujos de vídeo a alta velocidad, los datos de vibraciones extraídos de al menos la parte de la estructura capturada, y una representación sintética o basada en modelos, de las deformaciones estimadas y/o la información de profundidad calculada.
  9. 9. El dispositivo según cualquiera de las reivindicaciones 1 a 8, que comprende, además:
    una interfaz gráfica de usuario adaptada para importar y mostrar resultados basados en modelos, y alinear los resultados basados en modelos con los datos de vibraciones extraídos mediante controles dedicados y ventanas de la interfaz gráfica de usuario.
  10. 10. El dispositivo según cualquiera de las reivindicaciones 1 a 9, que comprende una plataforma móvil sobre la que se coloca la disposición de cámaras.
  11. 11. El dispositivo según la reivindicación 10, comprendiendo la plataforma móvil al menos uno de entre acelerómetros y sensores giroscópicos.
    5
    10
    15
    20
    25
    30
  12. 12. Uso del dispositivo para análisis de vibraciones de vídeo a alta velocidad según cualquiera de las reivindicaciones 1 a 11, en el análisis de vibraciones, sin contacto, de un vehículo aeroespacial u otro tipo de dispositivos o estructuras, a modo de ejemplo máquinas, automóviles, edificios o puentes.
  13. 13. Un método para análisis de vibraciones de vídeo a alta velocidad de una estructura, comprendiendo dicho método:
    la generación, mediante una disposición de cámaras, de dos flujos de vídeo a alta velocidad de una estructura, en donde la disposición de cámaras comprende una cámara de vídeo a alta velocidad que está configurada para funcionar en un espectro visible, y una cámara de vídeo a alta velocidad que está configurada para operar en un espectro no visible, y en donde cada una de las cámaras a alta velocidad genera un flujo de vídeo a alta velocidad;
    la estimación, por una unidad de procesamiento de una unidad de analizador de datos, a partir de al menos uno de los dos flujos de vídeo a alta velocidad, de deformaciones de al menos una parte de la estructura a lo largo de un primer plano;
    la determinación, por la unidad de procesamiento, a partir de los dos flujos de vídeo a alta velocidad, de información de profundidad de al menos una parte de la estructura a lo largo de un segundo plano, diferente del primer plano, o a lo largo de un eje incluido en el segundo plano; y
    la extracción, por la unidad de procesamiento, de datos de vibraciones de al menos una parte de la estructura capturada considerando las deformaciones estimadas y la información de profundidad determinada.
  14. 14. El método según la reivindicación 13, en donde la parte de la estructura capturada es un punto seleccionado por el usuario y/o una zona de la estructura y/o en donde las etapas de estimación, determinación y extracción se realizan en un orden seleccionado por el usuario.
ES15199331.8T 2015-12-10 2015-12-10 Dispositivo modular para un análisis de vibraciones de vídeo a alta velocidad Active ES2686470T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP15199331.8A EP3179440B1 (en) 2015-12-10 2015-12-10 Modular device for high-speed video vibration analysis

Publications (1)

Publication Number Publication Date
ES2686470T3 true ES2686470T3 (es) 2018-10-18

Family

ID=55024752

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15199331.8T Active ES2686470T3 (es) 2015-12-10 2015-12-10 Dispositivo modular para un análisis de vibraciones de vídeo a alta velocidad

Country Status (6)

Country Link
US (1) US10127678B2 (es)
EP (1) EP3179440B1 (es)
KR (1) KR20170069171A (es)
CN (1) CN106872011B (es)
ES (1) ES2686470T3 (es)
RU (1) RU2743112C2 (es)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018012123A1 (ja) * 2016-07-12 2018-01-18 三菱電機株式会社 診断装置および診断システム
US20200393289A1 (en) * 2017-11-14 2020-12-17 Nec Corporation Measurement system, correction processing apparatus, correction processing method, and computer-readable recording medium
JP6954367B2 (ja) * 2017-11-14 2021-10-27 日本電気株式会社 計測システム、補正処理装置、補正処理方法、及びプログラム
KR102518400B1 (ko) 2017-11-22 2023-04-06 삼성전자주식회사 진동을 제공하는 방법 및 이를 지원하는 전자 장치
DE102018202559A1 (de) * 2018-02-20 2019-08-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtungen und verfahren zur vibrationsanalyse
DE102018104913A1 (de) * 2018-03-05 2019-09-05 Prüftechnik Dieter Busch AG Schwingungsüberwachung eines Objekts mittels Videokamera
JP6954452B2 (ja) * 2018-03-29 2021-10-27 日本電気株式会社 振動計測システム、振動計測装置、振動計測方法、及びプログラム
CN111936830A (zh) * 2018-04-10 2020-11-13 夏普株式会社 振动分析装置、振动分析装置的控制方法、振动分析程序以及记录介质
AU2019333159B2 (en) * 2018-08-30 2022-07-28 Voestalpine Signaling Usa Inc. Railcar acoustic monitoring system and method of use
US20200302025A1 (en) * 2019-03-18 2020-09-24 The Boeing Company Automated Method for Support Material Placement in Additive Manufacturing for Improved Finish Machining Performance
CN110595601B (zh) * 2019-04-26 2021-10-15 深圳市豪视智能科技有限公司 桥梁振动检测方法及相关装置
CN110631680B (zh) * 2019-04-26 2021-10-15 深圳市豪视智能科技有限公司 振动检测***
CN110595603B (zh) * 2019-04-26 2022-04-19 深圳市豪视智能科技有限公司 基于视频进行振动分析方法及相关产品
CN110617973B (zh) * 2019-04-26 2021-08-27 深圳市豪视智能科技有限公司 振动检测方法及相关装置
CN110672342B (zh) * 2019-04-26 2021-10-12 深圳市豪视智能科技有限公司 洗衣机振动故障检测方法及装置
CN110595605A (zh) * 2019-04-26 2019-12-20 深圳市豪视智能科技有限公司 振动检测***
CN110956645B (zh) * 2019-08-28 2023-10-31 深圳市广宁股份有限公司 多模输出的智能振动检测方法及装置
CN110631690B (zh) * 2019-08-29 2022-01-14 深圳市广宁股份有限公司 基于数字孪生的智能振动检测方法及装置
CN110674700B (zh) * 2019-08-31 2023-07-21 深圳市广宁股份有限公司 基于数字孪生模型的电子设备的智能健康预测方法及装置
CN110806257A (zh) * 2019-10-22 2020-02-18 同济大学 一种基于移动平台的结构振动测量设备
US11483547B2 (en) * 2019-12-04 2022-10-25 Nxp Usa, Inc. System and method for adaptive correction factor subsampling for geometric correction in an image processing system
CN110987148A (zh) * 2019-12-05 2020-04-10 浙江理工大学 基于图像示踪点动态跟踪分析的织针振动检测***及方法
CN112378507B (zh) * 2020-11-05 2021-10-01 浙江大学 一种基于运动补偿的计算机视觉结构振动监测方法
US20220279123A1 (en) * 2021-02-26 2022-09-01 Xing Li Non-contact vibration detection system and method
CN113063484B (zh) * 2021-03-31 2022-10-04 中煤科工集团重庆研究院有限公司 一种振动识别放大方法
CN113340403B (zh) * 2021-05-31 2022-08-16 福州大学 基于圆周条纹和线阵相机的转轴径向振动测量方法
US11961240B2 (en) 2021-06-11 2024-04-16 Mechanical Solutions Inc. Systems and methods for improved observation and detection using time video synchronization and synchronous time averaging
CN114441126A (zh) * 2022-02-10 2022-05-06 上海电气集团股份有限公司 基于数字孪生的振动试验方法、***、设备和介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7983802B2 (en) * 1997-10-22 2011-07-19 Intelligent Technologies International, Inc. Vehicular environment scanning techniques
UA48774A (uk) * 2001-12-05 2002-08-15 Технологічний Університет Поділля Спосіб безконтактного вимірювання параметрів вібрацій та визначення форм коливань об'єктів
WO2006084385A1 (en) * 2005-02-11 2006-08-17 Macdonald Dettwiler & Associates Inc. 3d imaging system
US7193720B2 (en) * 2005-05-17 2007-03-20 Lockheed Martin Coherent Technologies, Inc. Optical vibration imager
US9262840B2 (en) * 2012-06-08 2016-02-16 Correlated Solutions, Inc. Optical non-contacting apparatus for shape and deformation measurement of vibrating objects using image analysis methodology
JP6235022B2 (ja) * 2012-09-10 2017-11-22 アエマス,インコーポレイテッド 複数デバイスを使用した周辺環境の多次元データキャプチャ
US10129658B2 (en) * 2013-07-22 2018-11-13 Massachusetts Institute Of Technology Method and apparatus for recovering audio signals from images
RU2551396C1 (ru) * 2013-11-06 2015-05-20 Российская Федерация, от имени которой выступает Министерство промышленности и торговли Российской Федерации (Минпромторг России) Способ бесконтактных измерений геометрических параметров объекта в пространстве и устройство для его осуществления
FR3021784B1 (fr) * 2014-05-27 2017-10-13 European Aeronautic Defence & Space Co Eads France Procede de projection de donnees virtuelles et dispositif permettant cette projection
US10062411B2 (en) * 2014-12-11 2018-08-28 Jeffrey R. Hay Apparatus and method for visualizing periodic motions in mechanical components
US10459615B2 (en) * 2014-12-11 2019-10-29 Rdi Technologies, Inc. Apparatus and method for analyzing periodic motions in machinery
WO2017070629A1 (en) * 2015-10-23 2017-04-27 Fluke Corporation Imaging tool for vibration and/or misalignment analysis

Also Published As

Publication number Publication date
US10127678B2 (en) 2018-11-13
RU2743112C2 (ru) 2021-02-15
EP3179440B1 (en) 2018-07-11
RU2016148422A (ru) 2018-06-09
CN106872011B (zh) 2019-08-30
RU2016148422A3 (es) 2020-05-15
KR20170069171A (ko) 2017-06-20
CN106872011A (zh) 2017-06-20
EP3179440A1 (en) 2017-06-14
US20170169575A1 (en) 2017-06-15

Similar Documents

Publication Publication Date Title
ES2686470T3 (es) Dispositivo modular para un análisis de vibraciones de vídeo a alta velocidad
JP7260269B2 (ja) 航空非破壊検査用の測位システム
US8699005B2 (en) Indoor surveying apparatus
US20190186905A1 (en) Aerial device having a three-dimensional measurement device
CN101493318B (zh) 一种舵偏角同步动态测量***及其实现方法
US20080050042A1 (en) Hardware-in-the-loop simulation system and method for computer vision
JP6251142B2 (ja) 測定対象物の非接触検知方法及びその装置
JP2014529727A (ja) 自動シーン較正
CN108156819A (zh) 用于计算从飞行器到地面目标的距离的方法
Perry et al. A portable three-component displacement measurement technique using an unmanned aerial vehicle (UAV) and computer vision: A proof of concept
CN105424006A (zh) 基于双目视觉的无人机悬停精度测量方法
JP2011203057A (ja) 飛翔体用距離測定装置及び飛翔***置測定装置
Chen et al. Color and depth data fusion using an RGB‐D sensor for inexpensive and contactless dynamic displacement‐field measurement
CN110470226A (zh) 一种基于无人机***的桥梁结构位移测量方法
CN102927917A (zh) 多目铁塔视觉测量方法
Sobel et al. Camera calibration for tracked vehicles augmented reality applications
Liu et al. High-precision pose measurement method in wind tunnels based on laser-aided vision technology
Hill et al. Ground-to-air flow visualization using Solar Calcium-K line Background-Oriented Schlieren
Tijtgat et al. Real-time hazard symbol detection and localization using UAV imagery
CN105737803B (zh) 航空双面阵立体测绘***
Nayyerloo et al. Seismic structural displacement measurement using a high-speed line-scan camera: experimental validation
Kirmse et al. Advanced methods for in-flight flap gap and wing deformation measurements in the project AWIATOR
JP5409451B2 (ja) 3次元変化検出装置
CN202084081U (zh) 运动体运动姿态感知***
JP2011232131A (ja) 画像目標標定装置および画像目標標定方法