ES2791722T3 - Maqueta virtual con ayuda portátil háptica - Google Patents

Maqueta virtual con ayuda portátil háptica Download PDF

Info

Publication number
ES2791722T3
ES2791722T3 ES12380006T ES12380006T ES2791722T3 ES 2791722 T3 ES2791722 T3 ES 2791722T3 ES 12380006 T ES12380006 T ES 12380006T ES 12380006 T ES12380006 T ES 12380006T ES 2791722 T3 ES2791722 T3 ES 2791722T3
Authority
ES
Spain
Prior art keywords
glove
finger
dedicated
aircraft
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12380006T
Other languages
English (en)
Inventor
Ceprian Oscar Ciudad
Muñoz Jonathan Martinez
Sanchez Antonio José Lopez
Jiménez Arturo Simon Garcia
Masso José Pascual Molina
Lopez Pascual Gonzalez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Helicopters Espana
Original Assignee
Airbus Helicopters Espana
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Helicopters Espana filed Critical Airbus Helicopters Espana
Application granted granted Critical
Publication of ES2791722T3 publication Critical patent/ES2791722T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/30Simulation of view from aircraft
    • G09B9/307Simulation of view from aircraft by helmet-mounted projector or display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/08Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
    • G09B9/46Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer the aircraft being a helicopter

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Método de funcionamiento de una maqueta (1) de simulador de aeronave que reproduce de manera virtual una interfaz (2) hombre-máquina en una aeronave (A) dedicada, en particular un helicóptero, para realizar lecciones prácticas con respecto a procedimientos de emergencia que se proporcionan para la aeronave (A) dedicada, incluyendo al menos dicha maqueta (1) de simulador de aeronave: - un ordenador (3) con un procesador (11), un medio (10) legible por ordenador no transitorio que contiene comandos informáticos, haciendo dichos comandos informáticos, cuando se ejecutan, que el procesador (11) del ordenador (3) realice automáticamente operaciones que reproducen dicha interfaz (2) hombre-máquina, visualizando un avatar (5) de operario humano en la interfaz (2) hombre-máquina reproducida, y visualizando entornos (26) de aterrizaje/vuelo de la aeronave (A) dedicada, ilustrando dicha interfaz (2) hombre-máquina reproducida una cabina de vuelo de la aeronave (A) dedicada que tiene una pluralidad de objetos (40) simulados que comprenden al menos un panel (41), botones (42), botones (43) giratorios, palancas (44), pedales (45) e interruptores (46); - un sistema (4) de instrucciones/retroalimentación sensitiva funcionalmente acoplado al menos con un órgano corporal de un operario (5) humano de la maqueta (1) de simulador de aeronave, y también acoplado con dicho ordenador (3), para recopilar a partir del operario humano entradas sensitivas para la maqueta (1) de simulador de aeronave y también para indicar información de funcionamiento de la maqueta (1) de simulador de aeronave a dicho operario humano; estando dicho sistema (4) de instrucciones/retroalimentación sensitiva equipado al menos con: - un guante (6) que se puede poner en la mano con fundas para dedos y sensor (19-20) de tarea de interacción y medios (21) de detección de movimiento global en 3D, dispuestos alineados con el guante (6) para permitir el seguimiento de movimientos de dicho guante que se puede poner con respecto a un punto de referencia en 3D estático (XYZ); - un elemento (8) de visualización visual que puede mostrar los objetos (40) simulados de la interfaz (2) hombre-máquina reproducida, para permitir manipular de manera virtual dichos objetos simulados mediante el guante (6) durante el funcionamiento de la maqueta (1) de simulador de aeronave; realizando dicho método automáticamente las siguientes operaciones con el fin de permitir que el operario humano realice lecciones prácticas con respecto a los procedimientos de emergencia que se proporcionan para la aeronave (A) dedicada: - una etapa (21) de detección de movimiento global en 3D configurada para permitir la realización de una acción relacionada con los procedimientos de emergencia que se proporcionan para la aeronave (A) dedicada, en el que una entrada (29) sensible de ubicación en 3D global refleja una posición instantánea del guante (6), proporcionándose dicha entrada (29) sensible de ubicación en 3D global al ordenador, gracias al sistema (4) de instrucciones/retroalimentación sensitiva, en el que se visualiza un avatar (5) de operario humano en el elemento (8) de visualización visual para visualizar la posición instantánea del guante (6) en la interfaz (2) hombre-máquina reproducida, y en el que la etapa (21) de detección de movimiento global dedicada en 3D comprende el procesamiento de una entrada de zoom de visualización para aumentar al menos un objeto (40) simulado seleccionado tal como se visualiza en el elemento (8) de visualización visual; - una etapa (19) de interacción entre dedo y objetivo configurada para permitir la realización de una acción relacionada con los procedimientos de emergencia que se proporcionan para la aeronave (A) dedicada, en el que una entrada (30) de contacto sensitiva entre dedo y dedo refleja un contacto físico reciente entre al menos una almohadilla (19) de funda para dedos en contacto con una serie de almohadillas (19-20) de objetivo que forman sensores (19-20) de tareas de interacción, reflejándose el contacto físico reciente entre al menos una almohadilla (19) de funda para dedos en contacto con una almohadilla (19-20) de objetivo mediante los sensores (19-20) de tareas de interacción integrados en el guante (6); y - una etapa (27) de retroalimentación háptica dedicada, en la que un contacto físico reciente entre al menos almohadilla (19) de fundas para dedos/almohadilla (19-20) de objetivo/medios (21) de detección de movimiento global en 3D en contacto se refleja con una entrada (31) de vibración táctil de retroalimentación háptica, estando la entrada (31) de vibración táctil de retroalimentación háptica en una porción correspondiente del guante (6) ubicada en dicha almohadilla de funda para dedos/almohadilla de objetivo, gracias a que al menos una de dichas dos fundas para dedos en contacto tiene integrado en la misma un componente (27) de retroalimentación háptica, en el que la etapa (27) de retroalimentación háptica dedicada confirma al menos parcialmente al menos una de las siguientes entradas sensitivas de operario humano, para la maqueta (1) de simulador de aeronave, de: seleccionar, deseleccionar, destacar, aumentar y manipular al menos uno de dichos objetos (40) simulados en el elemento (8) de visualización visual.

Description

DESCRIPCIÓN
Maqueta virtual con ayuda portátil háptica
Campo de la invención
La invención se refiere al dominio técnico general de la informática.
La invención también se refiere al dominio técnico de las disposiciones de simulación sensitiva e interactiva también denominadas disposiciones de interfaz. Tales disposiciones de interfaz son, por ejemplo, para transferir datos de entrada que van a procesarse desde la disposición para dar una forma que puede manipularse por un ordenador, así como datos de salida que van a transferirse desde una unidad de procesamiento informática hasta dicha disposición. Por ejemplo, tales disposiciones de transferencia de datos de simulación interactivas comprenden al menos una disposición de entrada/salida que se lleva puesta en la mano, por ejemplo, un guante de datos con aparatos de detección/retroalimentación integrados.
Estas técnicas deben aplicarse en relación con interfaces hombre-máquina (HMI), por ejemplo, dedicadas a aeronaves tales como aeronaves de ala rotatoria.
La invención se aplica de manera favorable a simuladores asistidos por ordenador con fines de control, enseñanza o formación, por ejemplo, para enseñar el control de vehículos basándose en una simulación sensitiva e interactiva de partes relevantes de estos vehículos.
Normalmente, la invención se refiere a la simulación de control de aeronave, con fines de diseño, pruebas, pilotaje (real a bordo/remoto) y mantenimiento.
Antecedentes de la invención
El documento XP031863526 “Effective manipulation of virtual objects within arm reach” se considera como la técnica correspondiente a la porción de preámbulo de la reivindicación principal. Para reproducir una HMI en un vehículo automóvil, incluye un guante con una detección de pellizco, un sistema de seguimiento de dedos y un sistema de retroalimentación táctil.
El documento XP011345991 “A survey of glove-based systems and their application” describe diversas aplicaciones de adquisición de datos de movimiento de mano.
Algunos antecedentes adicionales están disponibles sobre disposiciones de transferencia de datos de simulación interactiva.
En cuanto a las disposiciones que se llevan puestas en la mano, algunos antecedentes distinguen entre disposiciones de aparatos de esqueleto añadido y disposiciones integradas. Con las disposiciones de aparatos de esqueleto añadido, hay una serie de aparatos de detección/retroalimentación añadidos en un esqueleto externo que está acoplado fuera de la disposición. Aunque resulta práctico, por ejemplo, para la producción automatizada de películas de animación, tales disposiciones son voluminosas, pesadas y caras.
En cuanto a las disposiciones integradas, incluyen una serie limitada de aparatos de detección/retroalimentación, directamente sobre la disposición. En ocasiones, tales disposiciones integradas se usan para la simulación de control de aeronaves. Las tecnologías actuales sólo proporcionan secuencias de panel de control bastante limitadas, selección de objetos simulados bastante imprecisa y también sensación bastante confusa por parte del usuario humano, principalmente cuando se hace funcionar un elemento de visualización visual de simulación a través de un ordenador (de sobremesa o portátil). Además, la disposición integrada conocida ofrece secuencias de control bastante escasas, así como señales de retroalimentación inciertas.
Un ejemplo de una disposición integrada de este tipo, denominada guante PhaseSpace IMPULSE, se presenta en la ficha técnica en: http://www.phasespace.com/gloves.html.
Este guante IMPULSE se presenta con ocho LED: uno en las puntas de los dedos (dos LED en el pulgar), y dos LED en la parte trasera de la mano. Este guante también está disponible con LED infrarrojos. El guante se conecta a una placa de múltiples LED.
El documento US6324296 se refiere de manera general a detalles técnicos dedicados a la disposición integrada anterior.
Otro ejemplo de una disposición integrada de este tipo denominada Pinch Gloves y propuesta por Fakespace Labs, se presenta en la ficha técnica en: http://www.inition.co.uk/sites/default/files/vrgloves_fakespace_pinch%5B1%5D.pdf El dispositivo Pinch Gloves se fabrica de tela y está equipado con sensores eléctricos en la punta de cada dedo. El contacto entre dos dedos cualesquiera o más completa un trayecto conductor, y puede programarse en aplicaciones con una compleja variedad de acciones basándose en estos gestos sencillos de “pellizco”.
Todavía otro ejemplo de una disposición integrada de este tipo denominada CyberTouch Glove y propuesta por Cyber Glove Systems se presenta en la ficha técnica en: http://www.cyberglovesystems.com/sites/default/files/CyberTouchBrochure2009.pdf
Hay una opción de retroalimentación táctil disponible para el guante Cyber Touch cableado e instrumentado. Presenta pequeños estimuladores vibrotáctiles en cada dedo y en la palma del guante. Cada estimulador puede programarse individualmente para variar la intensidad de la sensación de tacto.
El documento US5320538 describe un guante de detección de dedos en el que movimientos individuales de, y presiones ejercidas por, dedos individuales en una mano se detectan dentro del entramado de un simulador de cabina de vuelo virtual.
El documento WO2004109487 describe un sistema de control de misión que tiene un asiento de operario; un elemento de visualización montado en la cabeza y guantes digitales que lleva puestos el operario; unos cascos que tienen un micrófono e integrados en el elemento de visualización montado en la cabeza; un elemento de seguimiento para realizar un seguimiento de los movimientos del elemento de visualización montado en la cabeza y los guantes digitales; y un ordenador de misión alojado en el asiento de operario y conectado al elemento de visualización montado en la cabeza, a los guantes digitales, a los cascos, al micrófono y al elemento de seguimiento, para permitir que el operario confiera comandos de gestos por medio de los guantes digitales, y comandos de voz por medio del micrófono, y que reciba información visual por medio del elemento de visualización montado en la cabeza, e información de audio por medio de los cascos. Este documento describe guantes digitales usados para simular un elemento de seguimiento convencional, tal como un ratón o bola de seguimiento.
El documento US20110004074 describe un aparato que comprende: un guante para múltiples dedos, fundas elastoméricas posicionadas en los dedos del guante, sensores fisiológicos portados en los dedos del guante, adyacentes a un extremo de los mismos. El sensor se selecciona de una clase que incluye: dosímetro de pulso, sensor térmico, sensor de la tensión arterial y sensor de la frecuencia de pulso. El aparato incluye un transmisor soportado por el guante, acoplado al sensor mediante un enlace de fibra óptica. El sensor está unido a un extremo de la funda. Una unidad de monitorización desplazada está en comunicación inalámbrica con el transmisor.
El documento TW200952352 describe un método de control remoto usando un gesto de la mano. Un dispositivo de control remoto está dispuesto en un guante y un dispositivo de control remoto incluye un sensor de curvatura, un indicador de inclinación, una unidad de procesamiento y un transmisor. Usando este método, la conversión de un gesto específico en una variación de señales de control remoto específicas integra una variedad de controladores remotos, posiblemente con control de múltiples dispositivos con una mano.
El documento US2011071709 describe una maqueta con intercambios eléctricos relacionados con señales analógicas y/o discretas que se simulan. Para los modelos digitales, su nivel de representatividad es tal que pueden mezclarse mediante una tarjeta de interfaz con elementos de equipo reales. Pueden simularse varios elementos de equipo y/o componentes incluyendo divisiones según el protocolo ARINC653.
El documento WO2008052094 describe una interfaz hombre-máquina activa que se implementa sin un detector de fuerza, pero con un detector de posición neutra y produciéndose una señal que es representativa de dicha posición. Por tanto, este documento intenta proporcionar retroalimentación al piloto que reproduce una sensación que informa al piloto sobre los esfuerzos aplicados en cualquier momento dado a los elementos de control que está usando el piloto.
Ahora que se han mencionado estas divulgaciones, se exponen los diversos problemas técnicos para los que la invención propone soluciones técnicas.
A partir de lo anterior, puede entenderse que en el campo de la realidad virtual que implica instrucciones/sistemas sensitivos (por ejemplo, guantes, elementos de seguimiento de movimiento y elementos de visualización montados en la cabeza), en la actualidad se requieren medios complejos, voluminosos y caros, para proporcionar una experiencia de usuario rica cuando se simula una interfaz hombre-máquina (HMI) compleja, tal como las de cabinas de vuelo de helicóptero. Una HMI de este tipo implica un gran número de botones, botones giratorios, palancas, pedales e interruptores simulados (denominados objetos simulados y también denominados “widgets”).
Tales HMI virtuales en 3D, por ejemplo, una maqueta de simulador que reproduce de manera virtual una estación de control de vehículo (por ejemplo, cabina de vuelo de aeronave), están volviéndose cada vez más útiles, permitiendo que un operario humano (por ejemplo, el usuario final del vehículo y/o el ingeniero de diseño) interaccione con equipos virtuales y objetos simulados de tablero de instrumentos, como en un vehículo físico real.
Esto permite realizar formación, pruebas y otras tareas de ingeniería sin necesidad de usar un vehículo físico real y caro o una estación autónoma dedicada (por ejemplo, una maqueta de cabina de vuelo).
Algunas tareas que no eran posibles con un vehículo/maqueta real, ahora están disponibles con uno virtual, tales como comprobación temprana de diseños para vehículos futuros.
Sin embargo, sigue sin ser tan fácil o económicamente aceptable proporcionar a los usuarios un vehículo de realidad virtual, la capacidad de interaccionar con todas las HMI virtuales (acciones realizadas con una combinación de dedos en interruptores, botones giratorios y botones) sin restricciones operativas y de manera suficientemente intuitiva, sin requerir un entorno de formación específico.
Por ejemplo, en estaciones autónomas dedicadas tales como maquetas de cabina de vuelo o estudios de captación de películas, el operario humano está orientado hacia un elemento de visualización visual de tipo pared mayor que el tamaño de una persona, en el que el detalle de resolución es alto, la superficie de pantalla disponible está muy extendida, y por tanto permite inserciones laterales (posiblemente mediante elementos de visualización laterales complementarios). Algunos simuladores virtuales requieren que tales equipos sistemáticos funcionen de manera apropiada. Por tanto, una pantalla de tamaño reducido tal como elementos de visualización visuales de ordenador portátil/de sobremesa no resultan convenientes para tales simuladores.
En algunas condiciones ambientales, por ejemplo, una campaña militar o humanitaria de emergencia, sesiones de realidad virtual que tienen lugar de manera remota con respecto a cualquier instalación dedicada serán algunas veces muy útiles, por ejemplo, permitiendo formación y pruebas de HMI/vehículos reales (actualizados/actualmente ocupados) a través de unos reproducidos. En tal caso, un simulador virtual compuesto principalmente por un ordenador comercial (ordenador portátil/de sobremesa/tipo tableta) con un número reducido de equipos de retroalimentación e instrucciones ligeras/compactas (por ejemplo, un simple par de guantes de tela conectados más unos cascos fónicos que incluyen auriculares comerciales con micrófonos) sería enormemente beneficioso.
La interacción de usuario en una cabina de vuelo real se obtiene al pulsar, tirar, mover o girar el usuario los diferentes interruptores de HMI. En un entorno virtual puede obtenerse el mismo efecto detectando la colisión de los dedos del usuario con los diferentes widgets. Pero de esta manera la sensación y realidad de las acciones no son precisas, ni ergonómicas, son algo limitadas y no son tan parecidas a la realidad.
El objetivo de la invención es dejar que un usuario interaccione fácilmente con una HMI muy compleja y densa, tal como cabinas de vuelo de helicópteros de última generación, que cosiste en cientos de interruptores, muy cerca unos de otros. En entornos tales como este, aún no se ha logrado una buena interacción, por ejemplo, por los siguientes motivos:
• no hay resolución suficiente en elementos de visualización de HMI virtual como para leer el contenido de tablero de instrumentos,
• falta de precisión para las operaciones,
• problemas ergonómicos y usuario nervioso cuando intenta mantener una determinada posición realista o realizar movimientos precisos.
Dado esto, hay restricciones físicas inevitables, tales como la falta de un objeto real sobre el que apoyar los dedos (lo cual implica fatiga física para el operario humano), mientras que el uso de metáforas y técnicas de interacción fáciles de entender que ayuden al usuario a superar estas limitaciones resulta vital.
Para ello, la invención propone características novedosas y no evidentes que forman soluciones útiles a los problemas anteriores, así como mejoras beneficiosas para las técnicas actuales.
Sumario de la invención
En un aspecto, la invención proporciona un método de funcionamiento de una maqueta de simulador de aeronave que reproduce de manera virtual una interfaz hombre-máquina (HMI) en un vehículo según la reivindicación 1. Dicha maqueta de simulador de aeronave incluye un ordenador con un procesador, un medio legible por ordenador no transitorio que contiene comandos informáticos, dichos comandos informáticos, cuando se ejecutan, hacen que el procesador del ordenador realice automáticamente operaciones que reproducen dicha interfaz hombre-máquina.
Además, un sistema de instrucciones/retroalimentación sensitiva está funcionalmente acoplado al menos con un órgano corporal de un operario humano de la maqueta de simulador, y también está acoplado con dicho ordenador, para recopilar a partir del operario humano entradas sensitivas para la maqueta de simulador y también para indicar información de funcionamiento de la maqueta de simulador a dicho operario humano.
En una realización, la invención proporciona una maqueta de simulador de aeronave que reproduce de manera virtual una interfaz hombre-máquina (HMI) en un vehículo aéreo, en particular una aeronave de ala rotatoria, según la reivindicación 12.
La invención se define en las reivindicaciones adjuntas.
Breve descripción de los dibujos
La invención y sus ventajas se presentan con mayor detalle en la siguiente descripción de realizaciones facilitada a modo de ilustración y con referencia a las figuras adjuntas, en las que:
• la figura 1 es una vista parcial en perspectiva esquemática de una maqueta de simulador que reproduce de manera virtual una interfaz hombre-máquina en un vehículo, incluyendo dicha maqueta de simulador al menos: el grupo de hardware de maqueta de simulador, una HMI reproducida de un helicóptero (parabrisas, tablero de instrumentos, pedales, palancas, entorno, etc.), un ordenador de pilotaje (con procesador, memoria, software, etc.), una serie de elementos en un sistema de instrucciones/retroalimentación sensitiva (incluyendo elementos de visualización visuales, un elemento de seguimiento de cascos y guante o guantes que se pueden poner en la mano, etc.), un avatar de operario humano visualizado por el simulador, una pluralidad de objetos virtuales que van a manipularse.
• la figura 2 es una vista vertical de lado de palma de un guante que se puede poner según la invención, incluyendo este guante una serie de sensores de tareas de interacción, así como una pluralidad de componentes de retroalimentación háptica, sobre el lado de palma de fundas para dedos y/o sobre la porción de palma;
• la figura 3 es una vista vertical de lado posterior de un guante que se puede poner similar al de la figura 2, desde el lado dorsal, incluyendo este guante una serie de componentes de retroalimentación háptica y de medios de detección de movimiento global en 3D, sobre porciones de lado posterior de palma y lado posterior de fundas para dedos.
• la figura 4 es un diagrama de flujo de procedimiento lógico que ilustra parcialmente el funcionamiento de un método según la invención, incluyendo este diagrama de flujo tareas de interacción de: mirar alrededor mediante un elemento de seguimiento de cabeza monitorizado a través de un detector de cascos, aumentar una porción seleccionada (por ejemplo un panel completo/un widget desplegable) mediante una combinación de selección previa de toque más una confirmación de pellizco más una acción de tracción en 3D, seleccionar previamente un objeto virtual/simulado mediante una acción de toque, confirmar: desactivar aumento mediante un gesto de pellizco múltiple; seleccionar: deseleccionar mediante un gesto de pellizco único, conmutar un interruptor mediante un gesto de pellizco de pulgar-índice combinado con un movimiento de guante global.
• la figura 5 es un diagrama de flujo de procedimiento lógico que ilustra parcialmente el funcionamiento de un método según la invención, incluyendo este diagrama de flujo técnicas de interacción de: un diagrama de estado para widgets desplegables, diagrama de estado para acciones de desactivación, diagrama de estado para selección/deselección de toque y pellizco y un diagrama de estado para interacción de manipulación (gestión) de baja fidelidad; y,
• la figura 6 es un diagrama de flujo de procedimiento lógico que ilustra parcialmente el funcionamiento de un método según la invención, incluyendo este diagrama de flujo secuencias de tareas de interacción de: mirar alrededor, aumentar, seleccionar un panel/widget, manipular este widget, deseleccionar este widget y desactivar el aumento.
Más descripción detallada
En la figura 1 se hace referencia a un vehículo A. Este vehículo A es una aeronave en los ejemplos, y de hecho sólo se representa parcialmente, mediante una maqueta 1 de simulador.
Una maqueta 1 de simulador de este tipo está dedicada, por ejemplo, a los denominados “formadores de procedimientos de cabina de vuelo virtual” (VCPT) disponibles para aeronaves de ala rotatoria A, con el fin de la mejora, actualización y práctica de usuarios de tales aeronaves.
Por ejemplo, los servicios de formación en la industria de aeronaves necesitan un formador de procedimientos de cabina de vuelo virtual (VCPT). Un formador de procedimientos de cabina de vuelo virtual (VCPT) comprende software de formación (más hardware) que está diseñado para poner de manera virtual a operarios 5 humanos (o “usuarios”) algunas veces denominados “aprendices” en la cabina de vuelo virtual (interfaz hombre-máquina o HMI: con referencia 2) de la aeronave A y para someter a prueba sus habilidades con imágenes de vida real simuladas en 3D (tridimensionales).
Por ejemplo, usando procedimientos de emergencia tomados directamente del manual de vuelo oficial, un VCPT visualiza una cabina de vuelo realista, totalmente operativa, en un entorno en 3D y requiere que al menos un operario 5 humano interaccione siguiendo lecciones prácticas en tres modos diferentes: tutorial, formación y prueba. Por ejemplo, el operario 5 humano puede seguir en primer lugar un formato de lección guiada en el que el VCPT mostrará la manera correcta de realizar determinadas acciones y proporcionará explicaciones para abordar el procedimiento de emergencia. Después, el procedimiento de formación permite la revisión antes de un examen final, en el que no se proporciona ninguna ayuda automatizada y el operario 5 humano debe pasar la prueba usando las habilidades adquiridas. Este modo de prueba permite a los pilotos revisar el conocimiento del operario 5 humano sobre procedimientos antes de un vuelo y/o sesiones de simulador.
El VCPT también ofrece a operarios 5 humanos tales como jefes de pilotos o directores la posibilidad de verificar el conocimiento de los aprendices sobre procedimientos de emergencia y mantener un seguimiento de los informes de prueba.
A partir de la figura 1, se muestra que una maqueta 1 de simulador que forma un VCPT se suministra en un ordenador 3 (por ejemplo, ordenador de sobremesa, miniordeandor portátil, ordenador portátil u ordenador de tipo tableta), con el software 9 cargado en una memoria 10 (medio legible por ordenador no volátil) y en un procesador 11 para estar listo para ejecutarse.
La maqueta 1 completa también comprende uno o una pluralidad de elementos de visualización visuales, con la referencia 8.
En las figuras 1-5, se representan tres direcciones mutuamente ortogonales X, Y y Z. Estas tres direcciones mutuamente ortogonales X, Y y Z representan un denominado punto de referencia en 3D estático XYZ.
Por ejemplo, una dirección “longitudinal” X corresponde a las longitudes o dimensiones principales de las estructuras/movimientos que se describen. Considerando una aeronave A, la componente principal de la velocidad de trayectoria de vuelo o del empuje hacia delante se extiende en esta dirección X. En la aviación, esta dirección X corresponde generalmente al eje de alabeo.
Otra dirección, una dirección “transversal” Y, corresponde a las anchuras o dimensiones laterales de las estructuras/movimientos descritos. Algunas veces se dice que la dirección longitudinal X y la dirección transversal Y son horizontales, con fines de simplificación. También es con respecto a esta dirección Y que se definen los términos “izquierda” y “derecha”.
Se dice que una tercera dirección Z es una dirección de elevación y corresponde a las dimensiones de altura de las estructuras/movimientos descritos: los términos arriba/abajo son con respecto a esto. Algunas veces, se dice que esta dirección de elevación Z es vertical. En la aviación, esta dirección de elevación Z corresponde generalmente al eje de guiñada de una aeronave A.
La maqueta 1 de simulador reproduce de hecho de manera virtual una interfaz hombre-máquina (HMI) en un vehículo A.
En resumen, dicho ordenador 3 tiene un medio 10 legible por ordenador no transitorio que contiene comandos informáticos de software 9. Para realizar automáticamente operaciones que reproducen una interfaz hombremáquina, HMI, real, se ejecutan dichos comandos informáticos de software 9 por el procesador 11. Cuando se reproduce por la maqueta 1 de simulador, la HMI tiene la referencia 2.
Además, la maqueta 1 de simulador comprende uno o una pluralidad de sistemas 4 de instrucciones/retroalimentación sensitiva. Un sistema 4 de instrucciones/retroalimentación sensitiva de este tipo incluye una pluralidad de elementos interactivos (que van a describirse a continuación en el presente documento), funcionalmente acoplados con al menos un órgano corporal (por ejemplo, un brazo y una mano) de un operario 5 humano. Algunos de estos elementos interactivos se llevan puestos físicamente o se perciben de manera sensitiva por el operario 5 humano.
Este elemento interactivo del sistema 4 de instrucciones/retroalimentación sensitiva también está acoplado con dicho ordenador 3, para recopilar a partir del operario 5 humano entradas sensitivas para la maqueta 1 de simulador y también para indicar información de funcionamiento (denominada retroalimentación) de la maqueta 1 de simulador a dicho operario 5 humano.
Dicho sistema de instrucciones/retroalimentación sensitiva está equipado con, es decir comprende, uno (o una pluralidad de) guantes 6 que se pueden poner en la mano. Evidentemente, este guante 6 (o par de guantes) se lleva puesto por el operario 5 humano.
Con este fin, un guante 6 de este tipo es una estructura blanda, por ejemplo, realizada de fragmentos de tela o similar. Una estructura de tipo tela blanda de este tipo debe distinguirse de los denominados guantes de esqueleto caros, voluminosos y pesados, realizados de ramificaciones externas rígidas, articuladas entre sí y fijadas a un guante protector blando para controlarse mediante movimientos de la mano. En las figuras 2 y 3, el guante 6 comprende desde abajo hacia arriba:
• una porción 12 de muñeca,
• una porción 13 de palma,
• desde dos hasta cinco fundas 14 para dedos, entre ellas:
• una funda 15 para dedo pulgar, y,
• desde una hasta cuatro fundas 16 para dedos opuestas.
El guante 6 que se puede poner en la mano comprende dos lados, siendo uno (mostrado en la figura 2) un lado 17 de palma, siendo el otro (mostrado en la figura 3) un lado 18 dorsal (trasero o posterior).
Tal como se observa a partir de las figuras 2 y 3, el guante 6 de la invención también está equipado con sensores 19-20 de tareas de interacción, también denominados almohadillas de dedo/objetivo.
A partir de las figuras 2 y 3 se observa que estos sensores 19 de tareas de interacción están ubicados principalmente en el lado 17 de palma. Estos sensores 19 de tareas de interacción están integrados en el guante 6, es decir están estrechamente unidos o fusionados con la estructura blanda (de tipo tela) del guante 6.
Por ejemplo, tales sensores 19 de tareas de interacción son zonas locales tejidas a partir de cable (eléctricamente) conductor, parches impresos de material conductor, sellos (blandos) pegados con una capa superior conductora, sellos (blandos) cosidos con una capa superior conductora o unidos a la estructura de tipo tela del guante 6.
Dicho de otro modo, a diferencia de las estructuras exteriores añadidas de esqueleto, la invención propone un guante 6 en el que los diversos elementos que actúan para el sistema 4 de instrucciones/retroalimentación sensitiva están generalmente alineados con la estructura de tipo tela del guante 6, sin protuberancias principales.
Estos diversos elementos del sistema 4 de instrucciones/retroalimentación sensitiva están estructurados como: • fusionados con la estructura de tipo tela del guante 6 (por ejemplo, cuando un cable tejido conductor forma alguno de estos elementos), y/o,
• lo suficientemente delgados y blandos como para solaparse tan sólo ligeramente con respecto a la estructura de tipo tela del guante 6 (por ejemplo, cuando se unen parches impresos y/o sellos unidos, por ejemplo, en una porción hueca dedicada de forma complementaria de la estructura de tipo tela del guante 6), y/o,
• elementos macizos y delgados, lo suficientemente rígidos y pequeños como para solaparse como máximo ligeramente con respecto a la estructura de tipo tela del guante 6.
Habitualmente, estos elementos integrados en el guante 6 están alineados con la estructura de tipo tela del guante 6.
Además, ubicaciones en el guante 6 de estos diversos elementos del sistema 4 de instrucciones/retroalimentación sensitiva están predeterminadas no sólo teniendo en cuenta la función final que adoptan, sino también equilibrando esto con requisitos ergonómicos y de comodidad.
Por ejemplo, algunos elementos predeterminados del sistema 4 de instrucciones/retroalimentación sensitiva están, por ejemplo, integrados en el lado 18 dorsal del guante 6, manteniendo por tanto fuera del lado 17 de palma otros de tales elementos.
A partir de la figura 2, se observa una realización de los sensores 19 de tareas de interacción, integrados en el lado 17 de palma y ubicados de manera remota con respecto a las diversas fundas 14 para dedos, es decir, dentro de una porción 20 orientada hacia la palma central del guante 6. Estos sensores 19 de tareas de interacción en la porción 20 orientada hacia la palma central tienen generalmente forma ovalada con la dimensión ovalada pequeña relativamente a lo largo de la dirección X mientras que la dimensión ovalada grande se encuentra relativamente a lo largo de la dirección Y.
Esto permite un curvado suave y cómodo de las fundas 14 para dedos hacia la porción 20 orientada hacia la palma central, con una rigidez/resistencia a la deformación mínima opuesta a estos movimientos de curvado.
Debido a esto, el guante 6 completo es compacto y fácil de transportar, suave y cómodo de portar, al tiempo que logra una precisión imprevista en las funciones con un coste de producción bajo.
A partir de la figura 3, se observan algunos elementos del sistema 4 de instrucciones/retroalimentación sensitiva que funcionan como medios 21 de detección de movimiento global en 3D. En este ejemplo, cada uno de estos medios 21 de detección de movimiento global en 3D comprenden una disposición de LED, que emite en un espectro e intensidad predeterminados, y funcionalmente acoplada con un receptor 22 compatible lógicamente conectado al ordenador 3, que detecta por tanto la posición instantánea con respecto al punto de referencia en 3D estático XYZ de estos medios 21.
A partir de la posición instantánea de estos medios 21 con respecto al punto de referencia en 3D estático XYZ, el ordenador 3 calcula la ubicación real/presente efectiva del guante 6 con respecto a este punto de referencia en 3D estático XYZ.
Dependiendo de realizaciones de la invención, estos medios 21 de detección de movimiento global en 3D están funcionalmente acoplados con un receptor 22 compatible, para la comunicación de datos/suministro eléctrico, mediante:
• una banda 23 de cable eléctricamente conductora, por ejemplo, parcialmente integrada en la estructura de tipo tela del guante 6; y/o,
• un emisor/receptor 24 de transpondedor inalámbrico, por ejemplo, parcialmente integrado en la estructura de tipo tela del guante 6.
En realizaciones de la invención, el suministro de corriente eléctrica de los elementos del sistema 4 de instrucciones/retroalimentación sensitiva integrado en el guante 6 se realiza por ejemplo mediante:
- la banda 23 de cable eléctricamente conductora que está conectada a una fuente de potencia: esta fuente es remota con respecto al guante 6 (posiblemente un concentrador USB del ordenador 3 o similar) y/o fijada al sistema 2 tal como baterías de células y/o células fotovoltaicas); y/o,
- el emisor/receptor 24 de transpondedor inalámbrico, gracias a la producción de energía por radiofrecuencia.
Estas soluciones de comunicación de datos/suministro eléctrico, así como otras disponibles para los expertos en la técnica, se aplican igualmente a la mayoría de los elementos de la invención del sistema 4 de instrucciones/retroalimentación sensitiva del guante 6, independientemente de sus funciones y tecnologías.
Considerando ahora un plano de referencia XY formado por las direcciones X e Y, se ilustran diversas distribuciones espaciales de estos medios 21.
Tal como se observa en el ejemplo de la figura 3, estos medios 21 de detección de movimiento global en 3D están ubicados e integrados en el lado 18 dorsal (posterior) del guante 6, relativamente alineados con la estructura de tipo tela.
La figura 3 muestra una pluralidad de medios 21 de detección de movimiento global en 3D integrados por ejemplo alrededor de extremos de punta de fundas 14 para dedos predeterminadas, en el lado 18 dorsal. Realizaciones de la invención sólo proporcionan dos o tres medios 21 de detección de movimiento global en 3D en las fundas 14 para dedos, por ejemplo, en el dedo pulgar, índice y/o meñique (dedo pequeño).
Otras realizaciones de la invención proporcionan hasta cuatro o cinco medios 21 de detección de movimiento global en 3D en las fundas 14 para dedos, por ejemplo, en el dedo pulgar, índice y/o corazón y/o anular y/o meñique. Además, la realización de las figuras 3 y 4 muestra medios 21 de detección de movimiento global en 3D adicionales a los de las fundas 14 para dedos.
En la figura 3, tres de tales medios 21 están dispuestos alrededor del centro del lado 18 dorsal.
Estos medios 21 de detección de movimiento global en 3D adicionales están formando generalmente un triángulo isósceles. El baricentro de este triángulo está adyacente/dirigido hacia el centro del lado 18 dorsal, un ángulo proximal está aproximadamente orientado hacia la porción de muñeca del lado 18 dorsal y un borde opuesto es sustancialmente paralelo a la dirección Y mientras está en una ubicación alrededor de la del centro de la funda 15 para dedo pulgar.
En la figura 4, cuatro de tales medios 21 están dispuestos de manera remota con respecto al centro del lado 18 dorsal. En una porción de muñeca del guante 6, tres medios 21 de detección de movimiento global en 3D adicionales están formando generalmente un triángulo isósceles. Cerca de la ubicación de la articulación entre las fundas 16 para dedos índice-meñique, otros medios 21 de detección de movimiento global en 3D están integrados en la estructura de tipo tela del lado 18 dorsal.
Otras distribuciones de los medios 21 de detección de movimiento global en 3D se implementan mediante la invención, así como diversas cantidades de elementos en los medios 21 entre el sistema 4 de un guante 6 dado. Dado que la maqueta 1 de simulador también incluye uno o una pluralidad de elementos 8 de visualización visual, por ejemplo, pantalla(s) 25 (figura 1) que pueden mostrar objetos simulados incluyendo una imagen del guante 6. En paralelo de la interfaz 2 hombre-máquina reproducida (HMI) así como un entorno 26 virtual tal como entorno de aterrizaje/vuelo de la aeronave A), esto permite que algunos objetos 40 simulados sobre los que puede actuarse se manipulen de manera virtual mediante el guante 6 que se puede poner en la mano durante el funcionamiento de la maqueta 1 de simulador. Durante este funcionamiento, los medios 21 permiten refrescar la ubicación en 3D global del guante 6, con respecto al punto de referencia en 3D estático XYZ, y visualizarla en las pantallas 25.
Aunque la maqueta 1 de simulador es compatible con cualquier clase de elemento de visualización visual, incluyendo los de tipo pared tal como en estaciones dedicadas autónomas, la invención hace que sea conveniente y preciso el uso de pantallas 25 más pequeñas, por ejemplo, tales como las de los ordenadores 3 comerciales, incluso portátiles/de mano.
Según la invención, además de los medios 21 de detección de movimiento global en 3D y la “almohadilla de funda/almohadilla de objetivo” de los sensores 19 de tareas de interacción, una pluralidad de componentes 27 de retroalimentación háptica están integrados en el guante 6. El significado del término “integrado” es similar con respecto a los componentes 27 de retroalimentación háptica y los medios 21 o sensores 19 (véase anteriormente). En cuanto a la comunicación de datos/suministro eléctrico, las soluciones que se aplican a estos sensores 19 y medios 21 también se aplican a los componentes 27 de retroalimentación háptica.
En la figura 2, el lado 17 de palma del guante 6 está equipado con dos componentes 27 de retroalimentación háptica. Uno de estos componentes 27 está alineado con la funda 14, 15 para dedo pulgar alrededor del extremo de punta de esta última. Otro de estos componentes 27 está alineado con la funda 14, 16 para dedo índice, alrededor del extremo de punta de esta última.
Desde un punto de vista estructural, tales componentes 27 de retroalimentación háptica son del grupo que incluye: micromotor, nanoobjeto o MEM y similares. Tales componentes 27 están, por ejemplo, intercalados entre dos capas de una estructura de tipo tela del guante 6 o simplemente alineados en el exterior con la misma.
Antes de explicar con más detalle la manera en la que funciona la invención, se entiende que los componentes 27 de retroalimentación háptica de pulgar más índice proporcionan vibraciones táctiles, que van a percibirse por el operario 5 humano.
Tales vibraciones táctiles van a entenderse por este operario 5 humano, por ejemplo, como un mensaje de confirmación. Se conoce la inducción de retroalimentación háptica que refleja un contacto de toque, por ejemplo, en palancas de mando de videojuegos.
La invención proporciona una aplicación nueva y útil de retroalimentación táctil para traducir el hecho de que se activa una etapa/fase/acción dada en un elemento y/o serie de elementos (tal como reproducción virtual de un panel en un tablero de instrumentos de vehículo), a pesar del hecho de que la imagen virtual del guante 6 es remota con respecto a este elemento y/o serie de elementos (denominados objetos simulados). Por ejemplo, siempre que un objeto simulado de la maqueta 1 esté “activado” o “disponible” o “previamente seleccionado”, se realiza una retroalimentación háptica táctil por uno o una pluralidad de componentes 27 de retroalimentación háptica.
Además, el funcionamiento de tales componentes 27 de retroalimentación háptica se combina con el de otros elementos del sistema 4, de una manera nueva y útil.
La primera de estas funciones realizadas por dichos componentes 27 de retroalimentación háptica es permitir que el guante 6 que se puede poner en la mano refleje hacia el operario 5 humano una vibración táctil de retroalimentación háptica, por ejemplo, cuando se produce un contacto físico entre al menos dos almohadillas de funda/almohadillas de objetivo.
En la HMI 2 hay diversos objetos simulados con la referencia general 40 (figura 1): entre estos objetos 40 simulados, hay un panel 41 completo, botones 42, botones 43 giratorios, palancas 44, pedales 45, interruptores 46 y similares. Ahora se detallan ejemplos del procedimiento de funcionamiento global de la invención.
De manera general, el método según la invención realiza automáticamente las siguientes operaciones (nombradas de acuerdo con las estructuras materiales correspondientes, cuando sea), basándose en comandos 29 informáticos, dichos comandos 29 informáticos, cuando se ejecutan, hacen que el procesador 11 y el software 9 funcionen automáticamente para reproducir dicha interfaz 2 hombre-máquina (HMI).
Estas operaciones hacen que estén disponibles, al menos:
• una etapa 21 de detección de movimiento global en 3D, en la que una entrada 29 sensible de ubicación en 3D global refleja una posición instantánea del guante 6 que se puede poner completo, proporcionándose dicha entrada 29 sensible de ubicación en 3D global al ordenador 3, gracias al sistema 4 de instrucciones/retroalimentación sensitiva que incluye dichos medios 21 de detección de movimiento global en 3D, dispuestos alineados con el guante 6 para realizar el seguimiento de movimientos de dicho guante 6 con respecto al punto de referencia en 3D estático,
• una etapa 19 de interacción entre dedo y objetivo, en la que una entrada 30 de contacto sensitiva entre dedo y objetivo refleja un contacto físico reciente entre al menos una almohadilla (19) de funda para dedos en contacto con una almohadilla (19, 20) de objetivo, gracias a dichas almohadillas 19-20 de funda(s) para dedos en contacto/de objetivo que actúan cada una como sensor de tarea de interacción integrado en el guante 6, y,
• una etapa 27 de retroalimentación háptica dedicada, en la que un contacto físico reciente entre al menos las almohadillas de funda para dedos de contacto/almohadilla (19-20) de objetivo se refleja mediante una entrada 31 de vibración táctil de retroalimentación háptica, en una porción correspondiente del guante 6 ubicada junto a la(s) almohadilla(s) 19-20 de funda para dedos/de objetivo, gracias a al menos una de dichas dos fundas 14-16 para dedos en contacto (más la porción 13 de palma) que tienen integradas en las mismas un componente de retroalimentación háptica también con la referencia 27.
A diferencia de videojuegos o similares, la invención realiza una etapa 27 de retroalimentación háptica dedicada, no sólo cuando comienza un contacto físico reciente, o mientras se mantenga un elemento virtual de un sistema 4 de instrucciones/retroalimentación sensitiva apuntando a un objeto simulado dado, sino de manera más amplia para contacto físico “reciente” previamente seleccionado. Por ejemplo, mientras un objeto 40 simulado de la maqueta 1 está “activado” o “disponible” o “previamente seleccionado”, se realiza una etapa 27 de retroalimentación háptica táctil.
En la figura 4, se muestra un diagrama de flujo de procedimiento lógico que ilustra parcialmente el funcionamiento de un método según la invención. Este diagrama de flujo incluye tareas de interacción de:
• tarea 32 de mirar alrededor: la tarea 32 de mirar alrededor se realiza mediante un dispositivo 34 que puede llevarse puesto de seguimiento de cabeza (por ejemplo, gafas) que es un elemento del sistema 4, y se monitoriza mediante un detector 33 de cascos remoto (que también pertenece al sistema 4, y está instalado, por ejemplo, mediante un concentrador USB mediante conexión al ordenador 3),
• tarea 35 de aumentar: la tarea 35 de aumentar resulta de la selección de un objeto 40 dado (por ejemplo, un panel 41 completo/un widget 40; 42-45 emergente), por ejemplo, mediante una combinación de:
- selección previa de toque (coincidencia de ubicación virtual, deducida a partir de la etapa 21) seguida por:
- una confirmación de pellizco (etapa 19) seguida por
- una acción de tracción/manipulación en 3D (etapa 21),
- tarea 36 de seleccionar previamente: la tarea 36 de seleccionar previamente se realiza cuando un objeto 40 simulado se selecciona previamente mediante una acción de toque,
- tarea 37 de confirmar acción previa: la tarea 37 de confirmar acción previa se realiza con el fin, por ejemplo, de desactivar el aumento, y se indica mediante un gesto 38 de pellizco múltiple,
- tarea 39 de seleccionar/deseleccionar: la tarea 39 de seleccionar/deseleccionar se realiza mediante un gesto 48 de pellizco único,
- tarea 50 de “manipular un objeto”, por ejemplo, tarea de conmutar un interruptor: la tarea 50 de conmutar un interruptor se realiza según la referencia 48, mediante un gesto de pellizco único (pulgar-índice), en combinación con un movimiento 68 de guante global (etapa 21). Basándose en lo anterior y en la figura 4, se describen detalles de algunas técnicas de interacción de la invención. A continuación, la tabla 1 y la tabla 2 resumen la interacción propuesta, haciendo coincidir las tareas de interacción con sus técnicas de interacción respectivas, y acciones virtuales con las reales.
Tabla 1: tareas de interacción (y técnicas de interacción correspondientes).
Figure imgf000011_0002
Tabla 2: mapeo de acciones en este concepto de interacción propuesto.
Figure imgf000011_0001
En un ejemplo de la invención, dicha entrada 29 sensible de ubicación en 3D global refleja al menos parcialmente al menos una de las siguientes acciones de operario 5 humano, de: seleccionar, deseleccionar, destacar, aumentar y manipular al menos uno de dichos objetos 40 simulado en el/los elemento(s) 8 de visualización visual(es) por ejemplo en las pantallas 25.
Dependiendo de funciones predeterminadas, la entrada 30 sensitiva de contacto entre dedo y objetivo refleja al menos parcialmente al menos una de las siguientes entradas sensitivas de operario 5 humano, para la maqueta 1 de simulador, de: seleccionar, deseleccionar, destacar, aumentar y manipular al menos uno de dichos objetos 40 simulados en el/los elemento(s) 8 de visualización visual(es)/pantalla(s) 25.
En realizaciones, dicha etapa 27 de retroalimentación háptica dedicada confirma al menos parcialmente al menos una de las siguientes entradas (31) sensitivas de operario 5 humano, para la maqueta 1 de simulador, de: seleccionar, deseleccionar, destacar, aumentar y manipular al menos uno de dicho objeto 40 simulado en el/los elemento(s) 8 de visualización visual(es)/pantalla(s) 25.
Por ejemplo, la etapa 27 de retroalimentación háptica dedicada confirma al menos parcialmente al menos una entrada no de contacto, por ejemplo, una simple confirmación de terminación de una operación no táctil (por ejemplo, deseleccionar, destacar, aumentar).
Con la invención, dicha entrada 30 sensitiva de contacto entre dedo y objetivo refleja un contacto múltiple entre dos o más sensores 19 interactivos, por ejemplo, un contacto doble en secuencia rápida de almohadilla (19) de objetivo de fundas (14-16) de dedos en contacto. En un ejemplo, el operario 5 humano entra en contacto con dos sensores 19 interactivos integrados en una funda 16 para dedos índice más corazón con un sensor 20 de palma.
De manera similar, el guante 6 que incluye una funda 15 para dedo pulgar y en dos fundas 16 para dedos opuestas, ambas con sensores 19 interactivos, permite que una entrada 30 sensitiva de contacto entre dedo y objetivo predeterminada refleje el contacto entre el sensor 19 de pulgar con la almohadilla o sensor 19 de contacto opuesto integrado en las dos fundas 16 para dedos opuestas. Con tal fin, el/los elemento(s) 8 de visualización visual(es)/pantalla(s) 25 son de tipo táctil en algunas realizaciones.
Cuando el guante 6 incluye al menos una almohadilla de contacto de palma (sensor 20) integrada en una porción 12 de palma del guante 6, y dicha entrada 30 sensitiva de contacto entre dedo y objetivo refleja el contacto entre al menos una funda para dedos (sensor 19) con dicha almohadilla de contacto de palma (sensor 20).
Una etapa 19 de interacción entre dedo y objetivo predeterminada según la invención, permite que se use un dedo índice para seleccionar uno o una pluralidad de objetos 40 simulados, de tal manera que cuando una almohadilla de contacto (sensor 19) en la funda (16) para dedo índice colisiona con dicho(s) objeto(s) 40 simulado(s) visualizado(s) en un elemento 8 de visualización visual, se provoca una etapa 27 de retroalimentación háptica dedicada que implica una vibración, por ejemplo, permaneciendo dicha vibración activada hasta que termina la colisión entre la funda 16 y el objeto 40 visualizado.
En una realización, se logra una combinación de una etapa 27 de interacción entre dedo y objetivo con una etapa 27 de detección de movimiento global dedicada en 3D. Esta combinación implica una acción de interacción con puño ordenada manteniendo un denominado contacto con mano cerrada (uno o una pluralidad de dedos 16 opuestos entran en contacto con la porción 13 de palma) cortocircuitando por tanto eléctricamente el/los sensor(es) 19 de dedo correspondiente(s) con el sensor 20 de palma.
Esto da como resultado que se produzca una entrada 29 sensible de ubicación en 3D global que refleja el movimiento de uno o una pluralidad de objetos 40 simulados.
Por ejemplo, una combinación adicional de esta combinación de la etapa 19 de interacción entre dedo y objetivo más la etapa 21 de detección de movimiento global dedicada en 3D se logra con una combinación de la etapa 27 de retroalimentación háptica dedicada, activando al menos un componente 27 de vibración de retroalimentación háptica integrado en un lado 18 dorsal del guante 6, indicando por tanto al operario 5 humano que dicha acción de interacción con puño está realizándose correctamente.
En una realización, una etapa 27 de detección de movimiento global dedicada en 3D implica una etapa 49 de filtrado que inhibe entradas debidas a movimientos sutiles del guante 6, que tienen amplitud inferior a un valor de distancia mínimo predeterminado, por ejemplo 1-5 mm.
Posiblemente, esta etapa 49 de filtrado se limita a una de las direcciones X, Y y/o Z del punto de referencia en 3D estático, por ejemplo, la dirección X.
En otra realización, una etapa 21 de detección de movimiento global dedicada en 3D, por ejemplo, a lo largo de dirección X, pero en un sentido alejándose del elemento 8 de visualización visual, implica una entrada 51 de zoom de visualización, para aumentar al menos un objeto 40 simulado tal como se visualiza en el elemento 8 de visualización visual.
Esto permite ofrecer un aumento de la resolución visual en zonas de interés actual, por ejemplo, en una pantalla 25 de ordenador de sobremesa/portátil, para ver con un aumento o vista agrandada.
Por ejemplo, un gesto de pellizco doble (según 38) controla una acción de aumento de este tipo.
Tabla 3: (técnica de interacción) tarea de “aumentar”.
Figure imgf000012_0001
En los ejemplos, una etapa 27 de retroalimentación háptica dedicada se termina cuando el contacto entre los sensores 19-20 previamente puestos en contacto en conjunto se interrumpe. Esto indica que se ha logrado una etapa 19 de interacción entre dedo y objetivo con la que estaba combinada dicha etapa 27 de retroalimentación háptica dedicada.
En otras realizaciones:
• una primera etapa 21 de detección de movimiento global dedicada en 3D provoca la selección previa de un objeto 40 simulado,
• una etapa 19 de interacción entre dedo y objetivo provoca la validación de la selección de este objeto 40 simulado, mientras que
• una etapa 21 de detección de movimiento global dedicada en 3D adicional provoca el control de ese objeto 40 simulado según movimientos predeterminados del guante 6 con respecto al punto de referencia en 3D estático XYZ. Dicha selección previa y validación de selección se mantienen oportunamente a pesar de la etapa 21 de detección de movimiento global dedicada en 3D adicional, aunque dichos movimientos predeterminados del guante 6 dejen de coincidir mientras tanto con el objeto 40 de simulación.
Por tanto, la selección previa y validación de selección oportunas se mantienen siempre que se mantenga la selección mediante dicha etapa 19 de interacción entre dedo y objetivo.
Para ilustrar lo anterior, la figura 5 es un diagrama de flujo de procedimiento lógico que ilustra parcialmente el funcionamiento de un método según la invención. Este diagrama de flujo incluye técnicas de interacción de: un diagrama de estado para widgets desplegables, diagrama de estado para acciones de desactivación, diagrama de estado para selección/deselección de toque y pellizco y un diagrama de estado para interacción de manipulación (gestión) de baja fidelidad, etc.
En la figura 5, se muestra un diagrama de estado para la técnica de interacción de “widgets desplegables”.
Esta técnica implica una etapa 52 que permite tocar un objeto 40 objetivo (referencia 54), delinear el contorno de una imagen visual del guante 6 en el elemento 8 de visualización, destacar los objetos 40 interesantes de la HMI 2, mientras se reproduce un “sonido de toque” mediante una disposición 53 de altavoz (véase la figura 1) que pertenece al sistema 4.
Una etapa 55 implica una secuencia de tiempo durante la cual se espera una confirmación. Después, un gesto (38) de pellizco doble del guante 6 provoca que aparezcan los objetos 40 desplegables.
De lo contrario, si se produce un gesto 56 de cese de toque, se visualiza de nuevo el guante 6 de mano sólido, mientras que se deshabilita el destacado.
En una etapa 57, se explica una técnica de interacción para “desactivar aumento”. La tabla 4 a continuación se refiere a esto. Dicho de otro modo, cuando se toca (54) una zona aumentada en el elemento 8 de visualización, se delinea el contorno de la imagen del guante 6, esta zona se destaca mientras se reproduce un “sonido de toque”. Una etapa 55 implica una secuencia de tiempo durante la cual se espera una confirmación de “acción de desactivación”. Después, un gesto (38) de pellizco doble provoca que se restauren objetos 40 relevantes desplegables mientras se reproduce un sonido de “reducción de zoom”.
De lo contrario, si se produce un gesto 56 de cese de toque, se visualiza de nuevo el guante 6 de mano sólido, mientras que se deshabilita el destacado.
Tabla 4: técnica de interacción (“desactivar aumento”).
Figure imgf000013_0001
Figure imgf000014_0003
En una etapa 58, se explica una técnica de interacción “selección de tarea”. La tabla 5 a continuación se refiere a esto.
En la misma, cuando se toca (54) una zona en el elemento 8 de visualización, se delinea el contorno de la imagen del guante 6, se destaca esta zona mientras se reproduce un “sonido de toque”.
Una etapa 55 implica una secuencia de tiempo que espera la confirmación.
Cuando se ha producido la confirmación mediante un gesto (54) de toque, los objetos 40 seleccionados se destacan (en un color diferente), mientras se reproduce un sonido de “objeto seleccionado”.
Aunque cese el toque, los objetos 40 seleccionados permanecen destacados y esperan acciones adicionales.
Tabla 5. Técnica de interacción para “selección”.
Figure imgf000014_0001
Para la selección o deselección de “toque y pellizco”, se producen las mismas tareas y resultados.
En cuanto a la etapa 58, se explica una técnica de interacción para “desactivar aumento”. La tabla 6 a continuación se refiere a esto. Dicho de otro modo, cuando se toca (54) un objeto 40 en el elemento 8 de visualización, se destaca la imagen de este objeto 40, mientras se reproduce un “sonido de toque”.
Una etapa 55 implica una secuencia de tiempo durante la cual se espera una “confirmación”. Después, un gesto de pellizco único provoca cambios en la visualización destacada de los objetos 40 mientras que se reproduce un sonido de “deselección”. Un gesto de pellizco único adicional en cualquier otro objeto 40 deshabilita el destacado mientras que se reproduce un sonido de “deselección”. De lo contrario, si se produce un gesto 56 de cese de toque, se deshabilita el destacado.
Tabla 6. Técnica de interacción (“deselección”).
Figure imgf000014_0002
Figure imgf000015_0001
En una etapa 59, se explica una técnica de interacción para “manipulación”. La tabla 7 a continuación se refiere a esto.
Cuando se selecciona un objeto 40 en el elemento 8 de visualización (véase anteriormente), comienza el pellizco. Se cambia el destacado del objeto que va a manipularse mientras que se reproduce un “sonido de manipulación”. Una etapa 60 muestra una acción de arrastre realizada mediante la etapa 21 en 3D, que implica que dicho objeto 40 se mueve junto con movimientos aplicados por el operario 5 humano al guante 6.
Por ejemplo, un movimiento de este tipo provoca un giro virtual de un interruptor (objeto 40).
Cuando termina un pellizco, se restaura el destacado del objeto 40 manipulado. Un bucle 61 comprueba que el guante 6 se somete a un movimiento 68.
Tabla 7: técnica de interacción para la tarea de “manipulación”.
Figure imgf000015_0002
Haciendo ahora referencia a la figura 6, se explica un diagrama de flujo de procedimiento lógico que ilustra parcialmente el funcionamiento de un método según la invención. Este diagrama de flujo incluye secuencias de tareas de interacción de: mirar alrededor, aumentar, seleccionar un panel/widget, manipular este objeto 40, deseleccionar este objeto 40 y desactivar el aumento.
La figura 6 expone algunos de los principios de la invención, proporcionando al operario 5 humano un conjunto innovador de características de interacción, fáciles de usar y personalizar, para hacer funcionar una HMI compleja, por ejemplo, en cabinas de vuelo de helicóptero virtuales.
Estas características de interacción, también conocidas como conceptos de interacción, están compuestas por una secuencia de técnicas de interacción predefinidas que al mismo tiempo son un procedimiento para realizar una tarea de interacción específica. En resumen, los siguientes términos y expresiones se explican mediante:
• Tarea de interacción: una de las acciones implicadas para usar un objeto 40,
• Técnica de interacción: método para realizar una tarea de interacción,
• Concepto/método de interacción: una secuencia particular de técnicas de interacción, que conduce al objetivo de usar un objeto 40 (o grupo de objetos). Cada método de interacción consiste en la siguiente secuencia de tareas según la figura 6.
En la figura 6, el bloque 32 representa:
• una “tarea de mirar alrededor” ejecutada con el detector 33 de cascos,
• una “tarea 35 de aumento”, ejecutada por ejemplo mediante un gesto 38 de pellizco doble,
• una “tarea 39 de selección”, ejecutada mediante un gesto 48 de pellizco único,
• una tarea 50 de “manipular un objeto”, que implica un gesto 48 de pellizco único combinado con una tarea 68 de movimiento del guante,
• después de esto, la secuencia proporciona posiblemente una “tarea de deselección” también con la referencia 39, y,
• o bien la secuencia vuelve a la “tarea 39 de selección” anterior, o bien pasa a una tarea 57 de “desactivar aumento”.
Por tanto, el operario 5 humano puede definir, en archivos de configuración dedicados del software 9, la técnica de interacción particular para cada tarea. La siguiente tabla resume los ejemplos de interacción que pueden elegirse para implementar una tarea particular:
Tabla 8: catálogo de ejemplos de características.
Figure imgf000016_0001
Un ejemplo de configuración de este tipo permite aplicar diferentes conceptos de interacción a diferentes tipos de objetos 40 unitarios (o grupos de objetos 40). Para soportar todo esto, se proporciona el guante 6 de la invención, mezclando las siguientes capacidades de detección de movimiento y retroalimentación de vibración:
- El uso de sensores 19-20 eléctricos para determinar sin error cuándo dos o más dedos, los que sean, entran en contacto, detectando por tanto cualquier combinación de contactos de dedo(s) y porción de guante 6.
- Contacto eléctrico en la porción 13 de palma, con lo cual pueden detectarse nuevos gestos tales como agarre. El sensor 20 de tarea de interacción también puede combinarse con los sensores 19 de dedos para proporcionar diferentes acontecimientos/acciones.
- El uso de almohadillas de funda/almohadillas 27 de objetivo que actúan como elementos de vibración proporciona retroalimentación táctil, pero sólo en lugares útiles para las operaciones de la HMI 2.
Esta solución, más la tecnología existente de seguimiento del movimiento y HMI 2, proporciona la capacidad de realizar todos los conjuntos de técnicas de interacción.
Algunas características de la invención están adaptadas para propósitos adicionales:
• La almohadilla 19 de contacto adicional en el dedo 15 de funda de pulgar (y/o en el dedo 16 de funda de índice) puede facilitar el contacto con tal(es) dedo(s) 15/16 de funda de pulgar/índice, no sólo en la punta del dedo.
• Configuración de mano doble para gestos incluso más completos, incluyendo entones el sistema 4 un par de dos guantes 6 que se pueden poner en la mano, no sólo uno.
Otra realización incluye la combinación de este/estos guante(s) 6 con superficies táctiles, posicionadas a la misma distancia que los paneles de cabina de vuelo. De esta manera, el guante 6 puede descansar sobre la superficie y también puede recopilarse un gesto sobre la superficie (útil para botones giratorios y teclados).
Junto con esto, realizaciones de la invención proporcionan técnicas de interacción que se implementan en el software 9, basándose en entradas (29, 30, 31, etc.) a partir del conjunto de guante(s) 6 y/o gafas 34 (es decir una realización del elemento 8 de visualización visual) más cascos 33, más detección de colisión a partir de una aplicación de realidad virtual. Los conceptos de interacción se definen en la HMI 2 virtual en un archivo de configuración que indica los diferentes estados y transiciones, para cada tipo de objeto(s) 40.
Está disponible un catálogo de objetos 40, de modo que el operario 5 humano puede añadirlos a la situación de realidad virtual en la posición correcta.
Este operario 5 humano asigna un concepto de interacción para cada tipo de objeto 40 (o grupo de objetos). El operario 5 humano puede crear y aplicar nuevas configuraciones, indicando en la configuración los diferentes estados y transiciones y qué técnica de interacción debe usarse para cada tarea de interacción.
La configuración indica qué acontecimiento, generado mediante técnicas de interacción, provoca la transición entre estados.
En un guante 6, una combinación de sensores 19-20 de contacto y/o componentes 27 proporciona un conjunto rico de acontecimientos para la detección de gestos de contacto con el fin, por ejemplo, de aumentar, seleccionar y manipular elementos de la HMI 2. Con este dispositivo pueden realizarse muchas técnicas de interacción que no son posibles con la técnica anterior, tales como:
• Agarrar: muy intuitivo y útil para mover el avatar del operario 5 humano (es decir, la imagen de este operario 5 humano en el/los elemento(s) 8 de visualización y/o pantalla(s) 25, en el entorno virtual de la HMI 2, o para aumentar elementos de la misma).
• Los gestos para manipular objetos 40 pequeños resultan naturales y parecidos a la acción en la vida real.
• Con la invención está disponible una combinación de técnicas de interacción que puede proporcionar una realización rápida de operaciones (por ejemplo, seleccionar y pulsar de manera rápida y repetitiva un objeto 40 de tipo botón).
El uso con los componentes 27 de un receptor 22 compatible tal como un elemento de seguimiento de LED activo externo reduce la complejidad y el peso del guante 6 y mejora la precisión de seguimiento.
Ahora se exponen ejemplos adicionales de conceptos de interacción proporcionados por realizaciones de la siguiente manera:
• Un conjunto de capacidades de interacción se dirigen a muchos usos diferentes. La posibilidad de cambiar los métodos específicos por parte del operario 5 humano mejora las técnicas existentes, que son más rígidas.
• La secuencia predefinida de tareas que impulsa la construcción de métodos de interacción ha demostrado ser una manera genérica y útil de adaptarse a necesidades de operario 5 humano específicas.
• La adición de widgets a partir de un catálogo a una situación es similar a la vida real. Los objetos 40 ya tienen un concepto de interacción asignado a los mismos, de modo que una vez que se añaden, pueden usarse fácilmente. • La configuración de máquina de estados modificable por el operario 5 humano para conceptos de interacción añade flexibilidad al entorno de una HMI 2.
• El uso de conceptos de interacción ha demostrado que un uso eficaz de una cabina de vuelo virtual, con la totalidad de su HMI 2, es posible y cómodo en realidad virtual.
Se usan componentes 27 de vibración para la retroalimentación háptica de dos maneras diferentes:
como retroalimentación táctil directa tras el contacto con geometrías sólidas que aceptan manipulación: con el fin de indicar al operario 5 humano que está tocando algún/algunos objeto(s) 40 utilizable(s) (widget/panel), tal como se notifica mediante detección de colisión.
Para informar al operario 5 humano sobre el estado de acciones que están realizándose, no es necesario según la invención, relacionarlas con la detección (54) de colisión.
Esto presenta un gran valor con el fin de ayudar a usar objetos 40 simulados de manera cómoda y resolviendo por tanto problemas ergonómicos.
Ahora se resumen algunos ejemplos de la invención.
Ejemplo 1: se usa siempre el índice para seleccionar objetos 40 simulados (por ejemplo, paneles/widgets). Cuando el índice colisiona con un objeto 40 simulado, se activa el elemento de vibración en ese dedo y permanece activado hasta que termina la colisión.
Ejemplo 2: cuando está realizándose un concepto de interacción de puño (cerrar la mano y mover el avatar en el espacio), se activa el elemento de vibración en la parte posterior del guante 6. Esto indica al operario 5 humano que está realizándose un puño. El operario 5 humano no detectará movimientos sutiles, y las vibraciones ayudan a percibir que está realizándose un puño. Una vez que se liberan los dedos y se termina el puño, la vibración termina. Ejemplo 3: una vez que se selecciona un objeto 40, la manipulación no obliga al operario 5 humano a mantener la posición sobre el objeto 40, ya que esto sería frustrante y aumentaría el cansancio del operario 5 humano.
En la mayoría de los conceptos de interacción implementados, el objeto 40 se selecciona con un pellizco (38/48) entre el pulgar y el corazón, y puede manipularse mediante un movimiento de la mano hasta que se libera el pellizco. Usado de esta manera puede moverse el guante 6 cómodamente, y se usa vibración en el pulgar para indicar al operario 5 humano que está realizándose la manipulación del objeto 40, aunque el guante 6 esté visualmente alejado de este objeto 40.
La invención hace posible, en una simulación de HMI, el uso de un guante 6 que incluye algunos dispositivos inteligentes (por ejemplo, sensores de contacto, elementos de vibración y LED de posicionamiento), para potenciar, por ejemplo, un procedimiento de formación. Con nuevas combinaciones mediante las cuales se hacen funcionar de manera virtual objetos 40 simulados (por ejemplo, acoplando la punta del pulgar con la punta del índice, en las que están incorporados los sensores 19 de contacto en el guante 6, más moviendo todo el guante 6) pueden proporcionarse señales de control precisas y fiables a la maqueta 1 de simulador.
Se aumenta la seguridad mediante retroalimentación táctil “háptica”, que confirma que un objeto 40 simulado se activa realmente (vibraciones de inicio) o se libera (vibraciones de parada).
Otra solución técnica nueva y útil que se hace posible gracias a la invención es el funcionamiento conveniente, cómodo y preciso de una maqueta 1 de simulador, sin tener que requerir un gran elemento de visualización visual, dado que incluso las pantallas de ordenadores portátiles son perfectamente convenientes.
Ahora se expone una situación de las siguientes operaciones según la invención mediante secuencias cronológicas. Esta situación tiene el objetivo de “activar” de manera virtual un cebado de bomba de combustible. El interruptor de cebado de bomba de combustible está inicialmente “desactivado” de manera virtual. Las siguientes acciones describen las primeras secuencias de un procedimiento de “arranque del primer motor”, de una adición de helicóptero reciente, tal como se realiza usando las técnicas de interacción:
Secuencia 01: el operario 5 humano está sentado en el asiento del piloto, mirando alrededor por el interior de la cabina de vuelo para encontrar el interruptor de cebado de bomba de combustible, es decir un objeto 40.
Secuencia 02: el operario 5 humano localiza este objeto 40 en el panel de pedestal virtual.
Secuencia 03: el operario 5 humano mira para ver el guante 6 virtual, sólido y articulado, y lo mueve hacia el panel de pedestal.
Secuencia 04: cuando el guante 6 se aproxima al panel, colisiona con el volumen limitante invisible de ese panel y se vuelve transparente, sólo son visibles su contorno y un cursor en 3D en la punta del dedo índice (por ejemplo, una esfera roja en el elemento 8 de visualización visual).
Secuencia 05: el grupo de objetos 40 cerca del punto de colisión se destaca automáticamente, de modo que el operario 5 humano puede ver fácilmente el/los elemento(s) 8 de visualización en el/los que van a aumentarse esos objetos 40.
Secuencia 06: el operario 5 humano realiza un gesto (38) de pellizco doble con el pulgar y el índice que confirma que tiene que aumentarse el grupo de objetos 40. Después se aumenta el grupo de objetos 40 en un plano paralelo al panel de pedestal (widgets desplegables).
Secuencia 07: una vez realizado el gesto 38, el operario 5 humano puede interaccionar con los objetos 40 en el mismo. Por tanto, la selección se realiza en los widgets aumentados, no en los de tamaño normal (pequeños). Si el objeto 40 objetivo no está en el grupo aumentado grupo, el operario 5 humano puede desactivar el aumento aumentando otro grupo de widgets.
Secuencia 08: el operario 5 humano mueve el índice alrededor del panel aumentado (agrandado). Cada vez que la punta del dedo índice colisiona con el volumen limitante invisible de un widget, se destaca este último objeto 40 (retroalimentación visual).
Secuencia 09: se alcanza el widget objetivo (objeto 40 = cebado de bomba de combustible).
Secuencia 10: mientras se mantiene el índice en el objeto 40 objetivo, el operario 5 humano realiza un gesto de pellizco con el pulgar y el corazón para seleccionarlo (tocar y pellizcar = 48 68).
Secuencia 11: el color destacado en el elemento 8 de visualización cambia, confirmando que el objeto 40 o widget ya está seleccionado y que ningún otro widget escuchará las acciones de manipulación hasta que se deseleccione. Secuencia 12: el operario 5 humano puede ahora mover el guante 6 a una posición más cómoda. Dado que no hay necesidad de mantener el guante 6 en el widget, el operario 5 humano sólo necesita mantener el guante 6 lejos de otros objetos 40 de la HMI 2 mientras realiza la manipulación.
Secuencia 13: el operario 5 humano realiza un gesto de pellizco con el pulgar y el índice, y mueve el guante 6 hacia delante para manipular el/los objeto(s) 40 objetivo (por ejemplo, con manipulación de baja fidelidad).
El interruptor de cebado de bomba de combustible está ahora activado de manera virtual.
Secuencia 14: una vez que se libera el gesto de pellizco de manipulación, el operario 5 humano puede o bien seleccionar otro(s) objeto(s) 40/widget o bien realizar el gesto de pellizco en cualquier otro objeto 40 en la HMI 2 con el fin de deseleccionar el widget original (deselección).
Secuencia 15: ahora que el operario 5 humano ha terminado la manipulación y la selección del widget, puede realizarse la desactivación de aumento aumentando otro grupo de objeto(s) 40 o realizando un gesto de pellizco doble en el panel aumentado.
Secuencia 16: se restaura el estado original.
Evidentemente, la invención puede someterse a variaciones en cuanto a su implementación, no pudiendo identificarse dichas variaciones de manera exhaustiva.

Claims (13)

  1. REIVINDICACIONES
    Método de funcionamiento de una maqueta (1) de simulador de aeronave que reproduce de manera virtual una interfaz (2) hombre-máquina en una aeronave (A) dedicada, en particular un helicóptero, para realizar lecciones prácticas con respecto a procedimientos de emergencia que se proporcionan para la aeronave (A) dedicada, incluyendo al menos dicha maqueta (1) de simulador de aeronave:
    - un ordenador (3) con un procesador (11), un medio (10) legible por ordenador no transitorio que contiene comandos informáticos, haciendo dichos comandos informáticos, cuando se ejecutan, que el procesador (11) del ordenador (3) realice automáticamente operaciones que reproducen dicha interfaz (2) hombremáquina, visualizando un avatar (5) de operario humano en la interfaz (2) hombre-máquina reproducida, y visualizando entornos (26) de aterrizaje/vuelo de la aeronave (A) dedicada, ilustrando dicha interfaz (2) hombre-máquina reproducida una cabina de vuelo de la aeronave (A) dedicada que tiene una pluralidad de objetos (40) simulados que comprenden al menos un panel (41), botones (42), botones (43) giratorios, palancas (44), pedales (45) e interruptores (46);
    - un sistema (4) de instrucciones/retroalimentación sensitiva funcionalmente acoplado al menos con un órgano corporal de un operario (5) humano de la maqueta (1) de simulador de aeronave, y también acoplado con dicho ordenador (3), para recopilar a partir del operario humano entradas sensitivas para la maqueta (1) de simulador de aeronave y también para indicar información de funcionamiento de la maqueta (1) de simulador de aeronave a dicho operario humano; estando dicho sistema (4) de instrucciones/retroalimentación sensitiva equipado al menos con:
    - un guante (6) que se puede poner en la mano con fundas para dedos y sensor (19-20) de tarea de interacción y medios (21) de detección de movimiento global en 3D, dispuestos alineados con el guante (6) para permitir el seguimiento de movimientos de dicho guante que se puede poner con respecto a un punto de referencia en 3D estático (XYZ);
    - un elemento (8) de visualización visual que puede mostrar los objetos (40) simulados de la interfaz (2) hombre-máquina reproducida, para permitir manipular de manera virtual dichos objetos simulados mediante el guante (6) durante el funcionamiento de la maqueta (1) de simulador de aeronave;
    realizando dicho método automáticamente las siguientes operaciones con el fin de permitir que el operario humano realice lecciones prácticas con respecto a los procedimientos de emergencia que se proporcionan para la aeronave (A) dedicada:
    - una etapa (21) de detección de movimiento global en 3D configurada para permitir la realización de una acción relacionada con los procedimientos de emergencia que se proporcionan para la aeronave (A) dedicada, en el que una entrada (29) sensible de ubicación en 3D global refleja una posición instantánea del guante (6), proporcionándose dicha entrada (29) sensible de ubicación en 3D global al ordenador, gracias al sistema (4) de instrucciones/retroalimentación sensitiva, en el que se visualiza un avatar (5) de operario humano en el elemento (8) de visualización visual para visualizar la posición instantánea del guante (6) en la interfaz (2) hombre-máquina reproducida, y en el que la etapa (21) de detección de movimiento global dedicada en 3D comprende el procesamiento de una entrada de zoom de visualización para aumentar al menos un objeto (40) simulado seleccionado tal como se visualiza en el elemento (8) de visualización visual;
    - una etapa (19) de interacción entre dedo y objetivo configurada para permitir la realización de una acción relacionada con los procedimientos de emergencia que se proporcionan para la aeronave (A) dedicada, en el que una entrada (30) de contacto sensitiva entre dedo y dedo refleja un contacto físico reciente entre al menos una almohadilla (19) de funda para dedos en contacto con una serie de almohadillas (19-20) de objetivo que forman sensores (19-20) de tareas de interacción, reflejándose el contacto físico reciente entre al menos una almohadilla (19) de funda para dedos en contacto con una almohadilla (19-20) de objetivo mediante los sensores (19-20) de tareas de interacción integrados en el guante (6); y
    - una etapa (27) de retroalimentación háptica dedicada, en la que un contacto físico reciente entre al menos almohadilla (19) de fundas para dedos/almohadilla (19-20) de objetivo/medios (21) de detección de movimiento global en 3D en contacto se refleja con una entrada (31) de vibración táctil de retroalimentación háptica, estando la entrada (31) de vibración táctil de retroalimentación háptica en una porción correspondiente del guante (6) ubicada en dicha almohadilla de funda para dedos/almohadilla de objetivo, gracias a que al menos una de dichas dos fundas para dedos en contacto tiene integrado en la misma un componente (27) de retroalimentación háptica, en el que la etapa (27) de retroalimentación háptica dedicada confirma al menos parcialmente al menos una de las siguientes entradas sensitivas de operario humano, para la maqueta (1) de simulador de aeronave, de: seleccionar, deseleccionar, destacar, aumentar y manipular al menos uno de dichos objetos (40) simulados en el elemento (8) de visualización visual.
  2. 2. Método según la reivindicación 1,
    caracterizado porque dicha entrada (29) sensible de ubicación en 3D global refleja al menos parcialmente al menos una de las siguientes entradas sensitivas de operario humano para la maqueta (1) de simulador de aeronave, de: seleccionar, deseleccionar, destacar, aumentar y manipular al menos uno de dicho objeto (40) simulado en el elemento (8) de visualización visual.
  3. 3. Método según la reivindicación 1,
    caracterizado porque dicha entrada (30) sensitiva de contacto entre dedo y objetivo refleja al menos parcialmente al menos una de las siguientes entradas sensitivas de operario humano, para la maqueta (1) de simulador de aeronave, de: seleccionar, deseleccionar, destacar, aumentar y manipular al menos uno de dicho objeto (40) simulado en el elemento (8) de visualización visual que incluye al menos una de una pantalla (25) de ordenador de sobremesa/portátil.
  4. 4. Método según la reivindicación 1,
    caracterizado porque dicha entrada (30) sensitiva de contacto entre dedo y objetivo refleja un contacto múltiple, por ejemplo, un contacto (38) doble en secuencia rápida, entre la almohadilla (19) de fundas para dedos/almohadilla (19-20) de objetivo en contacto.
  5. 5. Método según la reivindicación 1,
    caracterizado porque el guante que se puede poner en la mano incluye una funda (15) para dedo pulgar para llevarse puesta en el pulgar del operario (5) humano y al menos dos fundas (16) para dedos opuestas para llevarse puestas en dedos oponibles del operario (5) humano, y porque dicha entrada (30) sensitiva de contacto entre dedo y objetivo refleja el contacto entre una almohadilla (19) de contacto de pulgar integrada en la funda (15) para dedo pulgar y al menos una almohadilla (19) de contacto opuesta integrada en las fundas (16) para dedos opuestas.
  6. 6. Método según la reivindicación 1,
    caracterizado porque el guante (6) incluye al menos una porción (17) de palma con una almohadilla (20) de contacto de objetivo integrada en un lado (17) de palma del guante (6), y porque dicha entrada (30) sensitiva de contacto entre dedo y objetivo refleja el contacto entre al menos una almohadilla (19) de contacto de funda (15-16) para dedos integrada en funda(s) para dedos correspondiente(s) y dicha almohadilla (20) de contacto de palma.
  7. 7. Método según la reivindicación 1,
    caracterizado porque en una etapa (19) de interacción entre dedo y objetivo, se usa un dedo índice para seleccionar uno o una pluralidad de objetos (40) simulados que reproducen al menos un panel de control/tablero de instrumentos, de modo que cuando unos medios (21) de detección de movimiento global en 3D en la funda para dedo índice colisionan con dicho objeto (40) simulado, una etapa (27) de retroalimentación háptica dedicada implica una vibración táctil.
  8. 8. Método según la reivindicación 1,
    caracterizado porque se logra una combinación de una etapa (19) de interacción entre dedo y objetivo con una etapa (21) de detección de movimiento global dedicada en 3D, con una acción de interacción con puño ordenada manteniendo un denominado contacto con mano cerrada entre al menos una almohadilla (19) de funda para dedos junto con una almohadilla (20) de palma, y reflejando una entrada (30) sensitiva de ubicación en 3D un movimiento en dicho punto de referencia en 3D estático de al menos un objeto (40) simulado.
  9. 9. Método según la reivindicación 1,
    caracterizado porque una etapa (21) de detección de movimiento global dedicada en 3D implica una etapa (49) de filtrado que inhibe entradas (29) debidas a movimientos sutiles del guante (6) con una amplitud inferior a un valor de distancia mínimo predeterminado.
  10. Método según la reivindicación 1,
    caracterizado porque una etapa (27) de retroalimentación háptica dedicada se termina cuando se interrumpe un contacto entre una almohadilla (19-2) de dedo/objetivo predeterminada, indicando por tanto que se ha logrado una etapa (19) de interacción entre dedo y objetivo con la que estaba combinada dicha etapa (27) de retroalimentación háptica dedicada.
  11. Método según la reivindicación 1,
    caracterizado porque:
    - una primera etapa (21) de detección de movimiento global dedicada en 3D provoca la selección previa de un objeto (40) simulado,
    - una etapa (19) de interacción entre dedo y objetivo provoca la validación de la selección de este objeto (40) simulado, mientras que
    - una etapa (21) de detección de movimiento global dedicada en 3D adicional provoca el control de ese objeto (40) simulado según movimientos predeterminados del guante (6) con respecto al punto de referencia en 3D estático (XYZ),
    manteniéndose oportunamente dicha selección previa y validación de selección a pesar de la etapa de detección de movimiento global dedicada en 3D adicional, aunque dichos movimientos predeterminados del guante (6) dejen de coincidir con el objeto (40) de simulación, pero siempre que se mantenga la selección mediante dicha etapa (19) de interacción entre dedo y objetivo.
  12. Maqueta (1) de simulador de aeronave que reproduce de manera virtual una interfaz (2) hombre-máquina en una aeronave (A), en particular un helicóptero, para realizar lecciones prácticas con respecto a procedimientos de emergencia que se proporcionan para la aeronave (A) dedicada,
    incluyendo dicha maqueta (1) de simulador de aeronave al menos:
    - un ordenador (3) con un procesador (11), un medio (10) legible por ordenador no transitorio que contiene comandos informáticos, haciendo dichos comandos informáticos, cuando se ejecutan, que el procesador (11) del ordenador (3) realice automáticamente operaciones que reproducen dicha interfaz (2) hombremáquina, visualizando un avatar (5) de operario humano en la interfaz (2) hombre-máquina reproducida, y visualizando entornos (26) de aterrizaje/vuelo de la aeronave (A) dedicada, ilustrando dicha interfaz (2) hombre-máquina una cabina de vuelo de la aeronave (A) dedicada que tiene una pluralidad de objetos (40) simulados que comprenden al menos un panel (41), botones (42), botones (43) giratorios, palancas (44), pedales (45) e interruptores (46);
    - un sistema (4) de instrucciones/retroalimentación sensitiva funcionalmente acoplado al menos con un órgano corporal de un operario (5) humano de la maqueta (1) de simulador de aeronave, y también acoplado con dicho ordenador (3), para recopilar a partir del operario (5) humano entradas sensitivas para la maqueta (1) de simulador de aeronave y también para indicar información de funcionamiento de la maqueta (1) de simulador de aeronave a dicho operario humano;
    - estando dicho sistema (4) de instrucciones/retroalimentación sensitiva equipado al menos con:
    - un guante (6) que se puede poner en la mano con fundas para dedos y sensor (19-20) de tarea de interacción y medios (21) de detección de movimiento global en 3D dispuestos alineados con el guante (6) para permitir el seguimiento de movimientos de dicho guante que se puede poner con respecto a un punto de referencia en 3D estático (XYZ), en la que al menos una almohadilla (19) de funda/almohadilla (19-20) de objetivo que forman sensores de tareas de interacción de toque está integrada en el guante (6), y en la que una pluralidad de componentes (27) de retroalimentación háptica están integrados en el guante (6), permitiendo dichos componentes (27) de retroalimentación háptica que el guante (6) refleje una vibración táctil;
    - un elemento (8) de visualización visual que puede mostrar los objetos (40) simulados de la interfaz (2) hombre-máquina reproducida, para permitir manipular de manera virtual dichos objetos simulados mediante el guante (6) durante el funcionamiento de la maqueta (1) de simulador de aeronave;
    caracterizada porque dicha maqueta (1) de simulador de aeronave está configurada para realizar el método de al menos una de las reivindicaciones 1 a 11.
  13. 13. Maqueta (1) de simulador de aeronave según la reivindicación 12, en la que:
    - los al menos unos medios (21) de detección de movimiento global en 3D comprenden LED que van a seleccionarse como objetivo por un receptor (22) de ubicación de LED acoplado de manera lógica a dicho ordenador (3), y/o
    - el al menos un componente (27) de retroalimentación háptica es del grupo que incluye: micromotor, nanoobjeto o MEM, integrado en y/o en el interior del guante (6); y/o
    - la al menos una almohadilla (19) de funda/almohadilla (19-20) de objetivo es una zona eléctricamente conductora integrada alineada con el guante (6).
ES12380006T 2012-02-02 2012-02-02 Maqueta virtual con ayuda portátil háptica Active ES2791722T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP12380006.2A EP2624238B1 (en) 2012-02-02 2012-02-02 Virtual mock up with haptic hand held aid

Publications (1)

Publication Number Publication Date
ES2791722T3 true ES2791722T3 (es) 2020-11-05

Family

ID=45656839

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12380006T Active ES2791722T3 (es) 2012-02-02 2012-02-02 Maqueta virtual con ayuda portátil háptica

Country Status (2)

Country Link
EP (1) EP2624238B1 (es)
ES (1) ES2791722T3 (es)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9632315B2 (en) 2010-10-21 2017-04-25 Lockheed Martin Corporation Head-mounted display apparatus employing one or more fresnel lenses
US10359545B2 (en) 2010-10-21 2019-07-23 Lockheed Martin Corporation Fresnel lens with reduced draft facet visibility
US9720228B2 (en) 2010-12-16 2017-08-01 Lockheed Martin Corporation Collimating display with pixel lenses
US9248840B2 (en) 2013-12-20 2016-02-02 Immersion Corporation Gesture based input system in a vehicle with haptic feedback
US20150185845A1 (en) * 2013-12-26 2015-07-02 Wes A. Nagara Providing tactle feedback for gesture based inputs
WO2015134336A2 (en) 2014-03-02 2015-09-11 Drexel University Wearable devices, wearable robotic devices, gloves, and systems, methods, and computer program products interacting with the same
US10684476B2 (en) 2014-10-17 2020-06-16 Lockheed Martin Corporation Head-wearable ultra-wide field of view display device
CN104658361B (zh) * 2015-02-03 2017-10-10 北京理工大学 一种半实物仿真驾舱
WO2016141054A1 (en) 2015-03-02 2016-09-09 Lockheed Martin Corporation Wearable display system
DE102015103735A1 (de) * 2015-03-13 2016-09-15 Airbus Defence and Space GmbH Verfahren und Vorrichtung zum Testen eines in einem Luftfahrzeug zu bedienenden Geräts
US10156908B2 (en) * 2015-04-15 2018-12-18 Sony Interactive Entertainment Inc. Pinch and hold gesture navigation on a head-mounted display
US10754156B2 (en) 2015-10-20 2020-08-25 Lockheed Martin Corporation Multiple-eye, single-display, ultrawide-field-of-view optical see-through augmented reality system
KR101636360B1 (ko) * 2015-10-26 2016-07-06 국방과학연구소 가상 현실을 이용한 가상 정비 훈련 시스템
WO2017095254A1 (ru) * 2015-12-01 2017-06-08 Общество С Ограниченной Ответственностью "Интеллект Моушн" Носимое устройство тактильного восприятия и система его реализующая
US10976819B2 (en) 2015-12-28 2021-04-13 Microsoft Technology Licensing, Llc Haptic feedback for non-touch surface interaction
US9971408B2 (en) * 2016-01-27 2018-05-15 Ebay Inc. Simulating touch in a virtual environment
US9995936B1 (en) 2016-04-29 2018-06-12 Lockheed Martin Corporation Augmented reality systems having a virtual image overlaying an infrared portion of a live scene
US9972119B2 (en) 2016-08-11 2018-05-15 Microsoft Technology Licensing, Llc Virtual object hand-off and manipulation
DE102016218824A1 (de) * 2016-09-29 2018-03-29 Siemens Aktiengesellschaft Bedienungsvorrichtung, Arbeitskleidung und Maschine
CN107093345A (zh) * 2017-05-18 2017-08-25 苏州凯联航空科技有限公司 一种两轴360°全向飞行模拟器
CN106951098A (zh) * 2017-05-22 2017-07-14 杨怀宁 一种vr***触感手套装置及其实现方法
WO2018236367A1 (en) * 2017-06-21 2018-12-27 Hewlett-Packard Development Company, L.P. SENSORY FEEDBACK
CN109557998B (zh) * 2017-09-25 2021-10-15 腾讯科技(深圳)有限公司 信息交互方法、装置、存储介质和电子装置
TR201806590A2 (tr) * 2018-05-09 2018-07-23 Havelsan Hava Elektronik Sanayi Ve Ticaret Anonim Sirketi Patlayici eği̇ti̇m si̇mülatör düzeneği̇
CN110728158B (zh) * 2018-07-17 2024-05-03 手持产品公司 用于触发移动扫描设备的装置和***
US10748440B1 (en) 2018-10-03 2020-08-18 Lockheed Martin Corporation Projectorless simulator with adjustable size canopy
FR3106687A1 (fr) * 2020-01-24 2021-07-30 Fondation B-Com Procédé de génération d’un contenu virtuel pour une plateforme interactive, et dispositif correspondant.
CN111319026A (zh) * 2020-02-06 2020-06-23 北京凡川智能机器人科技有限公司 一种沉浸式双臂机器人仿人远程操控方法
US11337034B1 (en) 2020-08-13 2022-05-17 Rockwell Collins, Inc. Staggered examination of non-trusted receiver information
US11455039B2 (en) 2020-09-17 2022-09-27 Rockwell Collins, Inc. Advanced haptics in touchscreen avionics lower level device simulators
CN113220117B (zh) * 2021-04-16 2023-12-29 邬宗秀 一种用于人-计算机交互的装置
EP4141592A1 (en) * 2021-08-24 2023-03-01 Technische Universität Darmstadt Controlling industrial machines by tracking movements of their operators
CN114373064B (zh) * 2021-12-14 2024-07-16 聚好看科技股份有限公司 一种vrar内容编辑方法、装置、设备及介质
CN114770571B (zh) * 2022-04-01 2024-01-05 苏州大学 气动反馈机械手

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5320538A (en) 1992-09-23 1994-06-14 Hughes Training, Inc. Interactive aircraft training system and method
US6324296B1 (en) 1997-12-04 2001-11-27 Phasespace, Inc. Distributed-processing motion tracking system for tracking individually modulated light points
ITTO20030426A1 (it) 2003-06-06 2004-12-07 Galileo Avionica Spa Apparato di gestione missione e veicolo equipaggiato con tale apparato di gestione missione
US7750593B2 (en) 2006-10-26 2010-07-06 Honeywell International Inc. Active human-machine interface system without a force sensor
TW200952352A (en) 2008-06-04 2009-12-16 Univ Southern Taiwan Remote-control method using hand gesture
US20110004074A1 (en) 2009-07-06 2011-01-06 Honeywell International Inc. Protective glove with wireless physiological sensor
FR2950449A1 (fr) 2009-09-23 2011-03-25 Eurocopter France Simulation en temps reel hautement representative d'un systeme avionique

Also Published As

Publication number Publication date
EP2624238A1 (en) 2013-08-07
EP2624238B1 (en) 2020-04-22

Similar Documents

Publication Publication Date Title
ES2791722T3 (es) Maqueta virtual con ayuda portátil háptica
US11144121B2 (en) Wearable interactive user interface
Stanney et al. Usability engineering of virtual environments (VEs): identifying multiple criteria that drive effective VE system design
Bowman et al. 3d user interfaces: New directions and perspectives
US20160019808A1 (en) Aircraft pilot training system, method and apparatus for theory, practice and evaluation
CN107209582A (zh) 高直观性人机界面的方法和装置
CN105144035A (zh) 利用触觉单元阵列模拟有形用户界面交互和手势
Aslandere et al. Virtual hand-button interaction in a generic virtual reality flight simulator
US11150800B1 (en) Pinch-based input systems and methods
KR20220016831A (ko) 햅틱 렌더링
Spirkovska Summary of tactile user interfaces techniques and systems
Springer et al. State-of-the-art virtual reality hardware for computer-aided design
Nguyen Enhancing touchless interaction with the leap motion using a haptic glove
Michael-Grigoriou et al. Intuitive interaction for exploring human anatomy in a VR setup
US10692401B2 (en) Devices and methods for interactive augmented reality
Chen A virtual environment system for the comparative study of dome and hmd
Rehman et al. Measuring the student’s success rate using a constraint based multi-modal virtual assembly environment
RU160084U1 (ru) Водительский тренажер виртуальной реальности с дополнением реальными объектами
US11836828B2 (en) Controlling interactions with virtual objects
WO2019073490A1 (en) 3D MOUSE AND ULTRA-FAST KEYBOARD
Alanko Comparing Inside-out and Outside-in Tracking in Virtual Reality
Ghosh et al. Education Applications of 3D Technology
Rebelo VR Lab: User Interaction in Virtual Environments using Space and Time Morphing
KR102256607B1 (ko) 다중 콘텐츠 표현이 가능한 다중 가상현실 콘텐츠 제공 시스템
Piviotti Providing force and vibrotactile feedback with haptic devices for simulating industrial tools in immersive Virtual Reality