ES2890715B2 - Sistema para analizar una practica de actividad motora con participantes - Google Patents

Sistema para analizar una practica de actividad motora con participantes

Info

Publication number
ES2890715B2
ES2890715B2 ES202030707A ES202030707A ES2890715B2 ES 2890715 B2 ES2890715 B2 ES 2890715B2 ES 202030707 A ES202030707 A ES 202030707A ES 202030707 A ES202030707 A ES 202030707A ES 2890715 B2 ES2890715 B2 ES 2890715B2
Authority
ES
Spain
Prior art keywords
participant
movements
typified
movement
practice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES202030707A
Other languages
English (en)
Other versions
ES2890715A1 (es
Inventor
Martin Olga Santos
San Millán Jon Etxeberria
Garcia Pedro Sanchez
Hernández Marcos Martín
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad Nacional de Educacion a Distancia UNED
Original Assignee
Universidad Nacional de Educacion a Distancia UNED
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad Nacional de Educacion a Distancia UNED filed Critical Universidad Nacional de Educacion a Distancia UNED
Priority to ES202030707A priority Critical patent/ES2890715B2/es
Priority to PCT/ES2021/070433 priority patent/WO2022008768A1/es
Publication of ES2890715A1 publication Critical patent/ES2890715A1/es
Application granted granted Critical
Publication of ES2890715B2 publication Critical patent/ES2890715B2/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

DESCRIPCIÓN
SISTEMA PARA ANALIZAR UNA PRÁCTICA DE ACTIVIDAD MOTORA CON
PARTICIPANTES
Campo técnico de la invención
La presente invención se relaciona con los dispositivos y sistemas para monitorizar el desarrollo de una práctica deportiva o de otro tipo con actividad motora con varios participantes.
Estado de la Técnica
Recientemente, los teléfonos móviles inteligentes cuentan con sensores para medir diferentes variables físicas. También, desde hace unos años, existen dispositivos ponibles denominados comúnmentewearables,como los que recogen información inercial y parámetros biométricos y fisiológicos adicionales. También se puede recoger información del entorno a través de dispositivos desarrollados dentro del llamado Internet de las Cosas, por ejemplo, para medir la temperatura de la sala o la presión que se ejerce sobre el suelo, que pueden llamarse contextuales. Todas estas variables aportan información física.
Estos dispositivos correctamente dispuestos sobre la persona y/o sus complementos para la realización de la actividad (por ejemplo, pulseras), vestimenta específica e incluso en el entorno físico donde se desarrolla la actividad, sirven para adquirir datos de utilidad para analizar la correcta práctica de una actividad motora.
Sin embargo, existen limitaciones para emplear estos datos junto con imágenes reales obtenidas durante la práctica entre dos o más participantes para ofrecer información en tiempo real e incluso un análisis a posteriori de la práctica realizada y posibles mejoras relacionadas con la ejecución, seguridad, rendimiento, motivación (i.e., estado mental/emocional), etc., especialmente de forma síncrona entre los participantes.
Se desconocen soluciones tecnológicas que den respuesta a estas necesidades.
Breve descripción de la invención
Sería pues deseable disponer de un sistema para realizar un análisis instantáneo de la práctica monitorizada para identificar movimientos tipificados por cada participante y enriquecer la información de las imágenes grabadas por una o varias cámaras. Se debe cuidar la ergonomía de los sensores portados por los participantes para no impactar en el desempeño de la actividad.
Mediante el sistema objeto de la presente invención es posible obtener múltiples ventajas. Por ejemplo, se pueden identificar los movimientos realizados por cada participante al comparar sus señales con los de los movimientos tipificados almacenados en un repositorio. Se pueden enriquecer las imágenes grabadas (mediante sobreimpresión de etiquetas informativas) con datos relevantes recogidos por sensores o con la identificación de los movimientos. Se pueden representar de forma esquemática los movimientos realizados. Se pueden detectar fallos en movimientos realizados por los participantes comparándolos con movimientos tipificados ejecutados por un experto. Se pueden comparar los esfuerzos que realizan los participantes de una forma más cuantitativa y avisar cuando no sean los esperados, tanto para prevenir lesiones como para ayudar en el aprendizaje de los movimientos. También se puede detectar la motivación del participante a la hora de ejecutar los movimientos, por ejemplo, si está concentrado o no. Se puede incluso identificar cadenas de movimientos, reacciones frecuentes a los movimientos de otros participantes, etc. y en el caso de un combate, por ejemplo, si la estrategia de cada participante es defensiva u ofensiva. Esto último puede ayudar a predecir el resultado (por ejemplo, victoria o derrota). Todo esto se logra aplicando un algoritmo inteligente que otorgue diferentes pesos a la información recogida por los sensores en combinación con información de los movimientos identificados bien individualmente para cada participante, bien teniendo en cuenta la acción-reacción entre participantes. En todo caso, el sistema puede ser de utilidad para detectar el inicio del movimiento antes de que se perciba por el ojo humano, permitiendo a los practicantes mejorar la anticipación al movimiento del otro participante. También se puede informar en tiempo real al propio participante mediante voz (sintética o natural) o actuador táctil ubicado sobre el cuerpo o vestimenta del participante cómo está ejecutando los movimientos.
Algunas ventajas anteriores se refieren a los participantes y al entrenador, otras ventajas se relacionan con la retransmisión de la práctica que puede ser enriquecida con información sobre los movimientos realizados.
Aparte de las anteriores, es importante destacar que existe una ventaja específica para el procesamiento que se aborda a continuación.
Disponer de varias fuentes de información, una de carácter visual con las imágenes grabadas y otra inercial con los sensores de aceleración, una tercera fisiológica o biométrica con datos de constantes corporales del participante y una cuarta con información contextual es útil para identificar de forma más precisa y más rápida un movimiento realizado por un participante. Incluso, se puede identificar el movimiento al comienzo del mismo sin esperar a que finalice. Cruzando los datos esperables obtenidos por los sensores se puede descartar o confirmar un posible candidato a movimiento tipificado realizado por dicho participante. Se puede descartar o confirmar, por ejemplo, en relación al movimiento previo realizado por otro participante. Usar los datos de los sensores inerciales y fisiológicos en diferentes momentos, bien de un participante, bien de varios participantes, proporciona mayor precisión en el resultado y menor carga computacional en el proceso de imágenes.
El movimiento tipificado de la práctica incluye una secuencia de imágenes patrón e información sobre los rangos de las mediciones de variables físicas. Reduciendo el conjunto de movimientos tipificados compatibles con los datos de los sensores se obtiene una mayor rapidez para llegar al resultado. Un ejemplo de movimiento tipificado es una patada lateral que se puede caracterizar por varias imágenes en las que el cuerpo del participante va adoptando diferentes posturas (levanta la rodilla de la pierna de ataque, gira el pie de la pierna de apoyo, etc.). En cuanto a los datos de los sensores se puede caracterizar inercialmente por una inclinación hacia atrás del cuerpo; contextualmente por un cambio de presión de dos pies a uno sólo; fisiológicamente se puede identificar un lapso de tiempo con la respiración contenida. Este movimiento va a generar en el oponente una reacción mediante otro movimiento para desviarse de la trayectoria del golpe y poder lanzar su ataque por otro lado.
La precisión y la rapidez son importantes ya que para establecer una relación síncrona y en tiempo real de la información recogida de los sensores con imágenes de los participantes es un reto disponer de datos con una latencia reducida y procesarlos rápidamente.
Breve descripción de las figuras
Para complementar la descripción que se está realizando y con objeto de ayudar a una mejor comprensión de las características de la invención, se acompaña como parte integrante de dicha descripción, un juego de dibujos en donde con carácter ilustrativo y no limitativo, se ha representado lo siguiente:
La FIG. 1A muestra esquemáticamente a dos participantes interactuando a través de sus movimientos.
La FIG. 1B muestra esquemáticamente a tres participantes moviéndose independientemente según una secuencia de movimientos estipulada.
La FIG. 2 muestra esquemáticamente una secuencia de dos movimientos de una práctica con dos participantes, donde los movimientos son captados con sensores y usando las cámaras instaladas en sendos drones de forma equidistante
La FIG. 3 muestra esquemáticamente dos participantes con actuadores instalados para recibir información sobre los movimientos realizados analizados por el sistema de forma inmediata (además de sensores inerciales y fisiológicos sobre los participantes y sensores contextuales en el entorno, así como cámaras fijas, todo ello para la recogida de información).
La FIG. 4 un diagrama esquemático de bloques funcionales de acuerdo con la invención.
Referencias numéricas:
1a, 1b: Sensor inercial.
2a, 2b, 2: Cámara.
3a, 3b: Unidad inalámbrica.
4a, 4b: Sensor fisiológico.
5a, 5b: Dron.
6: Sensor contextual.
7: Ordenador.
8a, 8b: Actuador.
10a, 10b, 10c: Participante.
11: Pantalla.
12: Interfaz.
16: Unidad de comunicación del sensor contextual.
20: Entrenador.
71 Procesamiento de vídeo.
72 Función comparación de imágenes.
73 Valores medidos por sensores.
74 Información relacionada con un movimiento detectado.
75 Función de control del dron.
76 Función de control de la cámara.
77 Indicadores de rendimiento.
78 Repositorio con imágenes patrón y rangos esperables.
79 Repositorio adicional de datos previos de participantes.
Descripción detallada de la invención
La FIG. 1A ilustra una práctica de tipo libre donde dos participantes10a,10binteractúan entre sí al realizar los movimientos, condicionando los siguientes movimientos. Por ejemplo, un combate.
La FIG. 1B ilustra una práctica estipulada en un caso sin interacción donde unos participantes10a,10b,10cejecutan los movimientos de forma conjunta sin influencia directa entre sí (aunque deben, por ejemplo, repartirse el espacio en la sala para no chocarse y tratar de hacer el mismo movimiento simultáneamente). Por ejemplo, una coreografía.
El sistema descrito propone nuevas técnicas para la medición de parámetros inerciales, fisiológicos y contextuales de utilidad y su relación con imágenes captadas en el momento de la medición para realizar un análisis tanto de un participante individualmente como con otro participante para efectuar comparativas y recomendaciones bien con referencia a la práctica previa de los propios participantes o bien de otros participantes que hayan realizado la práctica en el pasado.
El sistema se puede aplicar tanto a una práctica de movimientos libres (FIG. 1A) como a una práctica con secuencias de movimientos estipulados (FIG. 1B).
Una realización esquemática del sistema para dos participantes10a,10ben dos instantes de tiempo se ilustra en las FIG. 2A y 2B. Notar que en la FIG 2A el participante10aestá a la izquierda y el10ba la derecha, mientras que en la FIG 2B, que refleja un momento de tiempo posterior, el participante10ase ha desplazado a la derecha con un salto y el10bse ha colocado a su izquierda, y en ambos casos, el dron que sigue a cada participante mantiene la misma distancia y ángulo con el participante al que está asociado. El sistema incluye los siguientes dispositivos:
Sensores inerciales1a,1b(generalmente un acelerómetro y un giroscopio) y sensores fisiológicos4a,4b(sensor cardiaco, sensor de temperatura corporal, sensor de respiración, etc.).
Una cámara2a,2binstalada en un dron5a,5b.
La información se envía de forma inalámbrica a unos medios de proceso7mediante una unidad inalámbrica3a,3b(por ejemplo, basada en una placa de Arduino).
La información se puede enriquecer con sensores contextuales6(un GPS, termómetro de sala, sensor de presión de suelo).
Unos medios de proceso incluyen un ordenador7y una placa de Arduino con una unidad inalámbrica3a,3binstalada en cada participante10a,10bpara gestionar los sensores inerciales1a,1by fisiológicos4a,4b, así como los contextuales6con su correspondiente unidad de comunicación16cableada con el ordenador7aunque puede ser también inalámbrica. Cada cámara2a,2bgraba las imágenes y las envía al ordenador7. Se transmiten así de forma continua los datos de imágenes de vídeo y los datos de valores de los sensores. En el ordenador7, los datos de vídeo se procesan para extraer patrones en las imágenes que correspondan con movimientos tipificados asociados a la práctica concreta. En este ejemplo son dos las cámaras2a,2bcada una instalada en un dron5a,5bque se controla desde el ordenador7para mantener una distancia fijada, dbcon el participante10a,10bque está siendo grabado.
El ordenador7recibe cada intervalo de tiempo mensajes de cada unidad de comunicación inalámbrica3a, 3bde cada participante10a,10bcon valores medidos así como de la unidad de comunicación16(que puede ser también inalámbrica) para transmitir los datos de los sensores contextuales6de variables físicas del entorno. También recibe de las cámaras2a,2buna secuencia de imágenes de cada participante10a, 10b. Detecta el inicio de un movimiento identificando articulaciones en el cuerpo de cada participante y localizando cambios entre dos imágenes respecto de las articulaciones. De esta forma, es posible identificar, sincronizadamente en cada intervalo de tiempo y para cada participante, un movimiento tipificado de la práctica que sea compatible con el inicio de movimiento detectado y con los correspondientes valores medidos por los diferentes sensores inerciales1a,1be incluso fisiológicos4a,4b.
El empleo de los datos de los sensores inerciales1a,1bes de ayuda para reconocer movimientos tipificados (por ejemplo, un gancho, una patada lateral, etc. tienen asociados determinados valores de magnitudes físicas medibles por sensores) y procesar de forma más eficiente las imágenes de la cámara2a,2b. También es de ayuda para el procesado de imágenes de un participante, ya que en el caso de que exista una asociación entre movimientos tipificados ya sea de un mismo participante (concatenación de movimientos) o del contrario (pareja de movimientos acciónreacción) se puede ahorrar tiempo de procesamiento descartando movimientos no asociados frecuentemente y se puede aumentar la precisión confirmando que un determinado movimiento es frecuente que se produzca en asociación con otros.
Se ilustra en la FIG. 3 otro ejemplo sin drones donde hay una única cámara2fija y los participantes10a, 10btambién incorporan sensores fisiológicos tales como de ritmo respiratorio, de ritmo cardiaco, de sudoración, de temperatura corporal, de ondas cerebrales EGG, de activación muscular EMG, etc. Se emplean algoritmos que indican y detectan cuándo se inicia y dónde el movimiento de lo que la cámara2está captando. Con los movimientos tipificados identificados junto con información de los sensores inerciales1a,1b, sensores fisiológicos4a,4by sensores contextuales6se puede mostrar información de cada participante10a,10bpara que sea visualizada por ejemplo en una pantalla11para el público o para el entrenador, o bien de forma exclusiva para el entrenador20en una interfaz12que le permite revisar y modificar el funcionamiento del sistema.La información se envía al ordenador7desde los sensores inerciales1a,1b, sensores fisiológicos4a,4bcon la unidad de comunicación inalámbrica3a, 3b.La información de los sensores contextuales6se envía con una unidad de comunicación16(en este caso inalámbrica). Mostrar la información puede hacerse dividiendo una pantalla11en varios paneles, uno por participante, donde se visualizar en tiempo real simultáneamente los movimientos tipificados con los datos de ambos. A través de una interfaz12asociada al ordenador7, el entrenador20puede revisar y modificar el funcionamiento del sistema.
También puede generar el sistema información para trasladarla al propio participante mediante actuadores8a, 8b(de forma táctil o auditiva) a través de las unidades inalámbricas3a, 3bque están gestionadas desde el ordenador7. Esta información puede ser en forma de avisos o recomendaciones inferidas del análisis realizado de la práctica.
En el ordenador7, una aplicación puede calcular, para posteriormente mostrar en la pantalla11,la evolución del movimiento con datos de las imágenes y de los sensores inerciales a través de un vector de orientación. Es posible también estimar el esfuerzo que realiza cada participante a partir de la distancia recorrida, los valores de los sensores inerciales, el pulso, el ritmo respiratorio, etc. De esta forma, el sistema puede programarse para proporcionar estimaciones del esfuerzo de acuerdo con una definición dada. Más adelante se ofrece un ejemplo.
En la FIG. 4 se muestra un diagrama de bloques funcionales del sistema. Los sensores inerciales1amiden variables físicas de cada participante, los sensores contextuales6miden variables físicas del entorno, los sensores fisiológicos4amiden variables corporales y una unidad inalámbrica3aenvía, cada intervalo de tiempo, un mensaje con los valores medidos de los sensores portados por cada participante. Otra unidad de comunicación16se encarga de enviar los datos de los sensores contextuales6. Por claridad de la ilustración, solamente se muestran los elementos (sensores, actuadores y unidad inalámbrica) para un participante10a. Se debe entender que el sistema puede gestionar sensores y actuadores de múltiples participantes.
El ordenador7recibe los datos de sensores de manera inalámbrica junto con la secuencia de imágenes grabadas por una cámara2ade un dron5a. El ordenador7procesa, de forma sincronizada cada intervalo de tiempo, datos de sensores e imágenes. Detecta en la secuencia de imágenes el inicio de un posible movimiento, identificando un movimiento tipificado de la práctica compatible con la información recogida. El movimiento tipificado de la práctica se define a partir de una secuencia de imágenes patrón e información sobre los rangos de las mediciones de variables físicas con los que comparar. Tras el proceso, el ordenador7puede transmitir información de los movimientos tipificados identificados de cada participante. Esta información de movimientos tipificados puede ser en forma de etiquetas para mostrarse en una pantalla11, en la interfaz12del ordenador7en la que el entrenador20puede revisar y modificar el funcionamiento del sistema, o también se puede adaptar para trasladarse al propio participante mediante un actuador8acomo mensajes de audio, o secuencias de vibración.
En el procesamiento de la información temporal se pueden utilizar técnicas de alineamiento dinámico temporal (dynamic time warping -DTW) y algoritmos basados en los modelos ocultos de Markov. Al comparar señales de sensores inerciales se identifican los puntos en los que se diferencian los movimientos. Si la práctica es un combate, donde los movimientos son libres, también puede detectar una secuencia de movimientos seguidos y buscar coincidencias con patrones de movimientos almacenados.
Los videos se forman mediante secuencias de imágenes obtenidas también de forma periódica en instantes de tiempo según indique la frecuencia de muestreo de la cámara2a. Esta secuencia de imágenes se recibe como un flujo sin necesidad de almacenamiento durante el proceso.
Las imágenes recibidas son procesadas en tiempo real (por ejemplo con JavaCV) para detectar movimientos que pueden alternarse entre participantes. Una vez detectados, los medios de proceso pueden mostrar determinados puntos del cuerpo del participante donde se inicia un movimiento tipificado para comprobar que se realiza con la técnica óptima. Algunos algoritmos adecuados para el análisis de las imágenes son:
- Algoritmos de detección de movimiento mediante comparación con el fondo. De inicio el fondo está negro, según aparece el movimiento se capta parte del cuerpo que se está moviendo en la zona de visión. En color blanco se muestra el objeto en movimiento.
- Algoritmos de detección mediante puntos en movimiento en el campo visual de la cámara donde identifica qué parte del cuerpo está moviendo. Esto es útil para saber si un participante, por ejemplo, un luchador a la hora de lanzar un ataque en un combate mueve muchas partes más de lo debido, o si el ataque es limpio y correcto.
Es posible filtrar características en las imágenes según interese para una práctica determinada. También pueden aplicarse otros algoritmos de visión artificial para identificar puntos de articulación, capturar posturas corporales y reconocer ciertas 'combinaciones' (concatenación de una sucesión de movimientos predeterminados).
El sistema puede realizar múltiples análisis a partir de los valores recogidos. Por ejemplo, en el caso de un combate, estimar el nivel de cada participante en la práctica, clasificar si la estrategia es ofensiva o defensiva, o predecir posible victoria/derrota.
Como ejemplo práctico se emplea el caso del Karate en donde se pueden desarrollar combates denominados kumites. Si se establece un modelo de datos para ayudar a identificar el tipo de estrategia utilizada (que sería la clase), un ejemplo de las características que se podrían considerar son el cinturón (nivel), la altura, el pulso medio desde el inicio hasta el momento actual, el pulso instantáneo en ese momento, y el esfuerzo actual, acumulado, e incluso la diferencia de su esfuerzo con la del otro participante. Se podrían usar tantas características (y posibles características derivadas tanto en el dominio del tiempo como de la frecuencia a partir de ellas) como información proporcionen los sensores utilizados.
Con esa información, mediante técnicas de Inteligencia Artificial que pueden consistir en algoritmos de clasificación (árboles de decisión, bosque aleatorio, máquinas de vector soporte, redes neuronales, vecino más cercano, regresión logística, bayesiano, etc.), se compara cuál de los algoritmos probados da mejores clasificaciones y qué características de las empleadas son las que aportan mayor información para la clasificación (lo cual es especialmente importante cuando el número de características consideradas es muy alto).
Con la selección de un algoritmo de clasificación y de unas características discriminantes se puede hacer una predicción con un porcentaje de probabilidad según los ejemplos utilizados. Si el número de ejemplos utilizados es variado y grande, y si no cambian significativamente las características de los datos de entrada, el algoritmo proporcionará resultados consistentes. En caso contrario, habría que reentrenar al algoritmo de clasificación y/o seleccionar otro más apropiado y/u otro conjunto de características.
A partir de los datos obtenidos por los sensores inerciales, se realiza una construcción de un vector de visualización del movimiento. Este vector de orientación indica la direccionalidad del movimiento en función de la posición que toma cada participante durante la práctica.
A partir del módulo del vector de aceleración, la velocidad inicial, la distancia recorrida y la cantidad de tiempo, se puede hacer una estimación del esfuerzo. Por ejemplo, se puede definir y calcular el esfuerzo obteniendo el módulo de las coordenadas del acelerómetro y dividiendo esta distancia por una medida de pies que da un número de pies recorrido o esfuerzo. Más concretamente, el esfuerzo total realizado que es un cálculo aproximado en función de la distancia recorrida.
Fórmula para distancia desde la aceleraciónd = vt(1/2}af
- d distancia recorrida en un tiempo determinado (t);
- v velocidad inicial;
- a es la aceleración;
- t cantidad de tiempo (t);
Se calcula la distancia obteniendo la velocidad de los datos del giroscopio y la aceleración del acelerómetro. De la distancia, dividiendo el valor por una distancia similar a un paso nos sale el esfuerzo realizado por cada participante.
Esfuerzo = d (distancia) / medida (paso)
La resta de los esfuerzos de los dos participantes indica quién realiza más esfuerzo. Para obtener el paso, se pueden utilizar sensores contextuales consistentes en colchonetas sensorizadas que miden la presión sobre el suelo.
Recapitulando, de forma general, el ordenador7se puede encargar de diversas tareas entre las que se destacan en la FIG. 4 el control de movimiento75del dron5a,el control76de la cámara2a, el procesamiento del vídeo71incluyendo la comparación de imágenes72para identificar un movimiento tipificado almacenado en un repositorio78con secuencias de imágenes patrón y rangos esperables de valores de sensores que se comparan con los valores medidos73por los diferentes sensores1a,4a,6en tiempo real. De esta forma se puede determinar el movimiento tipificado y enviar la información74relacionada con dicho movimiento a los actuadores8apara que el participante pueda conocerla. En un repositorio adicional79se almacenan datos históricos de prácticas previas de los participantes con objeto de inferir indicadores77relacionados con el rendimiento de la práctica actual. Esta información se puede enviar a los actuadores8apara que el participante10apueda conocerla también. También se puede enviar a una pantalla11para que la visualice el público, el participante o el entrenador20(esta información también puede mostrarse en la interfaz12que usa el entrenador20para revisar y modificar el funcionamiento del sistema).

Claims (14)

REIVINDICACIONES
1. Sistema para analizar una práctica de actividad motora con participantes (10a, 10b) caracterizado por que el sistema comprende:
uno o más sensores inerciales (1a) para medir una pluralidad de variables físicas inerciales de un primer participante (10a) y una unidad inalámbrica (3a) configurada para enviar, cada intervalo de tiempo, datos con los valores medidos del primer participante (10a);
uno o más sensores inerciales (1b) para medir una pluralidad de variables físicas inerciales de un segundo participante (10b) y una unidad inalámbrica (3b) configurada para enviar, cada intervalo de tiempo, datos con los valores medidos del segundo participante (10b);
medios de proceso (7) configurados para:
recibir los datos de cada participante (10a, 10b) con los valores medidos en cada intervalo de tiempo;
conectarse con una cámara (2, 2a, 2b) para adquirir una secuencia de imágenes de cada participante, cada intervalo de tiempo, y detectar en dicha secuencia de imágenes el inicio de un movimiento identificando articulaciones en el cuerpo de cada participante (10a, 10b) y localizando cambios entre dos imágenes respecto de las articulaciones;
identificar, de forma sincronizada para cada participante, un movimiento tipificado de la práctica compatible con el inicio de movimiento detectado y los correspondientes valores medidos en cada intervalo de tiempo, donde el movimiento tipificado de la práctica incluye una secuencia de imágenes patrón e información sobre los rangos de valores de variables físicas medidas;
enviar información sobre los movimientos tipificados identificados de cada participante (10a, 10b);
determinar, mediante una comparación con parejas de movimientos de acciónreacción entre participantes previamente almacenadas, si una pareja de movimientos tipificados de un primer participante y de un segundo participante están interrelacionados y determinar con qué probabilidad ocurre dicha interrelación;
determinar, dado un movimiento tipificado de un primer participante, el movimiento tipificado esperable de un segundo participante (10b) en función de su probabilidad como pareja de movimientos de acción-reacción entre participantes (10a, 10b).
2. Sistema según la reivindicación 1, que comprende además uno o más sensores fisiológicos (4a, 4b) configurados para medir variables fisiológicas de un participante (10a, 10b).
3. Sistema según la reivindicación 1 o 2, donde el sensor fisiológico (4a, 4b) comprende un sensor de respiración para medir el ritmo respiratorio.
4. Sistema según una cualquiera de las reivindicaciones 1 a 3, donde el sensor fisiológico (4a, 4b) comprende un sensor cardíaco configurado para medir el ritmo cardíaco de un participante de la práctica (10a, 10b).
5. Sistema según una cualquiera de las reivindicaciones 1 a 4, que comprende además uno o más sensores contextuales (6) configurados para medir variables físicas del entorno donde se realiza la práctica y una unidad de comunicaciones (16) configurada para enviar, cada intervalo de tiempo, datos con los valores medidos.
6. Sistema según una cualquiera de las reivindicaciones 1 a 5, donde los sensores inerciales (1a, 1b) se instalan en cada participante (10a, 10b) con dispositivos portables.
7. Sistema según una cualquiera de las reivindicaciones 1 a 6, donde los sensores fisiológicos (4a, 4b) se instalan en cada participante (10a, 10b) con dispositivos portables.
8. Sistema según una cualquiera de las reivindicaciones 1 a 7, que comprende además:
un actuador (8a, 8b) configurado para recibir la información sobre los movimientos tipificados identificados y para informar a un participante (10a, 10b) de la práctica.
9. Sistema según la reivindicación 8, donde el actuador (8a, 8b) es auditivo.
10. Sistema según la reivindicación 8 o 9, donde el actuador (8a, 8b) es táctil.
11. Sistema según una cualquiera de las reivindicaciones 1 a 12, donde, para adquirir una secuencia de imágenes de cada participante (10a) durante un intervalo de tiempo, los medios de proceso (7) se conectan con dos cámaras (2a, 2b), cada cámara para cada grabar a un participante (10a, 10b).
12. Sistema según la reivindicación 11, donde la cámara (2a, 2b) para grabar está instalada en un dron (5a, 5b) controlado por los medios de proceso para volar manteniendo una distancia fija con un punto del cuerpo del participante (10a, 10b).
13. Sistema según una cualquiera de las reivindicaciones 1 a 12, donde la información sobre los movimientos tipificados identificados de cada participante (10a, 10b) comprende datos acerca de la distancia recorrida, aceleración, tiempo empleado.
14. Sistema según una cualquiera de las reivindicaciones 1 a 13, donde los medios de proceso (7) están configurados para aplicar unas reglas heurísticas mediante la aplicación de técnicas de Inteligencia Artificial sobre una pluralidad de movimientos tipificados de interacción habitual para elegir el movimiento tipificado siguiente más probable.
ES202030707A 2020-07-09 2020-07-09 Sistema para analizar una practica de actividad motora con participantes Active ES2890715B2 (es)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ES202030707A ES2890715B2 (es) 2020-07-09 2020-07-09 Sistema para analizar una practica de actividad motora con participantes
PCT/ES2021/070433 WO2022008768A1 (es) 2020-07-09 2021-06-14 Sistema para analizar una práctica de actividad motora con participantes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES202030707A ES2890715B2 (es) 2020-07-09 2020-07-09 Sistema para analizar una practica de actividad motora con participantes

Publications (2)

Publication Number Publication Date
ES2890715A1 ES2890715A1 (es) 2022-01-21
ES2890715B2 true ES2890715B2 (es) 2024-02-07

Family

ID=79552828

Family Applications (1)

Application Number Title Priority Date Filing Date
ES202030707A Active ES2890715B2 (es) 2020-07-09 2020-07-09 Sistema para analizar una practica de actividad motora con participantes

Country Status (2)

Country Link
ES (1) ES2890715B2 (es)
WO (1) WO2022008768A1 (es)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160136482A1 (en) * 2014-11-19 2016-05-19 Mark West Askew, Jr. Devices, systems, and methods for providing features to improve activity sport sessions
WO2018039341A1 (en) * 2016-08-23 2018-03-01 Pillar Vision, Inc. Systems and methods for tracking basketball player performance
US20190107845A1 (en) * 2017-10-09 2019-04-11 Intel Corporation Drone clouds for video capture and creation
WO2019102498A1 (en) * 2017-11-27 2019-05-31 Nagarajan Bharath System and method for tracking performance of physical activity of a user

Also Published As

Publication number Publication date
WO2022008768A1 (es) 2022-01-13
ES2890715A1 (es) 2022-01-21

Similar Documents

Publication Publication Date Title
US10089763B2 (en) Systems and methods for real-time data quantification, acquisition, analysis and feedback
US20200214559A1 (en) Ocular-performance-based head impact measurement using a faceguard
US10352962B2 (en) Systems and methods for real-time data quantification, acquisition, analysis and feedback
EP2772828B1 (en) Individual body discrimination device and individual body discrimination method
ES2659176T3 (es) Detección y caracterización de impactos en la cabeza
US20110246123A1 (en) Personal status monitoring
CA2837239C (en) Registration of head impact detection assembly
US11679300B2 (en) Systems and methods for real-time data quantification, acquisition, analysis, and feedback
KR101811888B1 (ko) 연상 능력 검사 및/또는 훈련
Ma et al. Basketball movements recognition using a wrist wearable inertial measurement unit
KR20190089568A (ko) 웨어러블 기반의 모션 센싱 기술을 이용한 태권도 품새 평가 시스템
Smerdov et al. Detecting video game player burnout with the use of sensor data and machine learning
Martínez-Villaseñor et al. Deep learning for multimodal fall detection
ES2890715B2 (es) Sistema para analizar una practica de actividad motora con participantes
US20210265038A1 (en) Virtual reality enabled neurotherapy for improving spatial-temporal neurocognitive procesing
US20240212845A1 (en) Animal data-based identification and recognition system and method
WO2018232538A1 (es) Sistema y metodo para prevenir actos terroristas basados en evaluaciones psicometricas, de los sentidos, de reflejos y fisiológicas
JP6149084B2 (ja) 個体判別装置および個体判別方法
ES2886261B2 (es) Sistema y metodo para la evaluacion de movimientos articulares especificos del cuerpo humano
Shen Explainable and Robust Data-Driven Machine Learning Methods for Digital Healthcare Monitoring
Mitchell A machine learning framework for automatic human activity classification from wearable sensors
Sposaro Performance Gains Through Sensory Systems: A Dissertation

Legal Events

Date Code Title Description
BA2A Patent application published

Ref document number: 2890715

Country of ref document: ES

Kind code of ref document: A1

Effective date: 20220121

FG2A Definitive protection

Ref document number: 2890715

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20240207