ES2384572T3 - Dispositivos apuntadores en el espacio libre con compensación de inclinación y usabilidad mejorada - Google Patents

Dispositivos apuntadores en el espacio libre con compensación de inclinación y usabilidad mejorada Download PDF

Info

Publication number
ES2384572T3
ES2384572T3 ES05744089T ES05744089T ES2384572T3 ES 2384572 T3 ES2384572 T3 ES 2384572T3 ES 05744089 T ES05744089 T ES 05744089T ES 05744089 T ES05744089 T ES 05744089T ES 2384572 T3 ES2384572 T3 ES 2384572T3
Authority
ES
Spain
Prior art keywords
pointing device
free space
rotation
user
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES05744089T
Other languages
English (en)
Inventor
Matthew G. Liberty
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hillcrest Laboratories Inc
Original Assignee
Hillcrest Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=35320764&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2384572(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Hillcrest Laboratories Inc filed Critical Hillcrest Laboratories Inc
Application granted granted Critical
Publication of ES2384572T3 publication Critical patent/ES2384572T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Switches With Compound Operations (AREA)

Abstract

Dispositivo apuntador de mano (400) que comprende: un primer sensor de rotación (502) para determinar la rotación de dicho dispositivo apuntador en torno a un primer eje y para generar una primera salida rotacional (αy) asociada a la misma;un segundo sensor de rotación (504) para determinar la rotación de dicho dispositivo apuntador en torno a un segundo eje y para generar una segunda salida rotacional (αz) asociada a la misma; un acelerómetro triaxial (506) para determinar una aceleración de dicho dispositivo apuntador y dar de salida una salida de aceleración (x, y, z) asociada a la misma; y una unidad de procesamiento (800) para recibir dichas salidas rotacionales primera y segunda y dicha salida de 10 aceleración y para: (a) determinar una inclinación (θ) relativa a la gravedad y asociada a una orientación en la cual es sostenido dicho dispositivo apuntador de mano, en donde dicha inclinación es determinada sobre la base de la salida de aceleración, (b) convertir dichas salidas rotacionales primera y segunda para llevarlas de un marco de referencia asociado a dicho dispositivo apuntador de mano a un marco de referencia del usuario a fin de eliminar los efectos de dicha inclinación determinada; y (c) determinar datos asociados a coordenadas x e y que están a su vez asociadas al movimiento de un cursor de pantalla (410), estando dichos datos basados en dichas salidas rotacionales primera y segunda convertidas, en donde dicho paso de conversión hace que dicho movimiento de dicho cursor de pantalla sea independiente de dicha inclinación.

Description

Dispositivos apuntadores en el espacio libre con compensación de inclinación y usabilidad mejorada
Antecedentes de la invención
[0001] La presente invención se refiere en general a los dispositivos apuntadores de mano, y más específicamente a los dispositivos apuntadores en el espacio libre y a las técnicas de compensación de inclinación y usabilidad mejorada asociadas a los mismos.
[0002] Las tecnologías asociadas a la comunicación de información han evolucionado rápidamente a lo largo de las varias últimas décadas. La televisión, la telefonía móvil, Internet y las técnicas de comunicación óptica (para mencionar tan sólo unas pocas cosas) se combinan para inundar a los consumidores con información disponible y opciones de entretenimiento. Tomando la televisión como ejemplo, las tres últimas décadas han visto la introducción del servicio de televisión por cable, del servicio de televisión por satélite, de las películas de pago por visión y del vídeo sobre demanda. Mientras que los televidentes de la década de los 60 podían típicamente recibir quizá cuatro o cinco canales de TV por aire en sus aparatos de televisión, los televidentes de hoy en día tienen la oportunidad de elegir entre cientos, miles y potencialmente millones de canales de espectáculos y de información. La tecnología de vídeo sobre demanda, que se usa en la actualidad primariamente en hoteles y sitios similares, proporciona el potencial para la selección de entretenimientos en el hogar entre miles de títulos de películas.
[0003] La capacidad tecnología para suministrar tanta información y tantos contenidos a los usuarios finales les da oportunidades y asimismo les plantea desafíos a los diseñadores de sistemas y a los proveedores de servicios. Un desafío es el de que mientras que los usuarios finales típicamente prefieren tener más posibilidades de selección que menos, esta preferencia se ve contrapesada por su deseo de que el proceso de selección sea tanto rápido como sencillo. Desgraciadamente, el desarrollo de los sistemas e interfaces por medio de los cuales los usuarios finales acceden a los artículos de los medios ha redundado en procesos de selección que no son rápidos ni sencillos. Considérese de nuevo el ejemplo de los programas de televisión. Cuando la televisión estaba en su infancia, el determinar qué programa ver era un proceso relativamente sencillo debido primariamente al pequeño número de opciones. Se consultaba una guía impresa que estaba formateada, por ejemplo, como una serie de columnas y líneas que mostraban la correspondencia entre (1) los canales de televisión cercanos, (2) los programas que se transmitían en esos canales y (3) la fecha y la hora. Se sintonizaba la televisión al canal deseado ajustando un botón sintonizador, y el televidente veía el programa seleccionado. Más adelante fueron introducidos dispositivos de mando a distancia que les permitían a los televidentes sintonizar la televisión a distancia de la misma. Esta adición a la interfaz usuario-televisión creó el fenómeno conocido como “zapping” en virtud del cual un televidente podía ver rápidamente segmentos cortos difundidos en una serie de canales para averiguar rápidamente qué programas estaban disponibles a cualquier hora determinada.
[0004] A pesar del hecho de que han aumentado espectacularmente el número de canales y la cantidad de contenidos visionables, a lo largo de los últimos 30 años no han variado mucho las estructuras y opciones de dispositivos de control que como interfaces de usuario están en general disponibles para televisiones. Las guías impresas son todavía el mecanismo más predominante para transmitir información de programación. El mando a distancia con una pluralidad de botones con flechas de subida y de bajada es todavía el mecanismo de selección de canales y contenidos más predominante. La reacción de quienes diseñan e implementan la interfaz usuario-TV al incremento del contenido de medios disponible ha sido una directa ampliación de los procedimientos de selección y objetos de infertaz existentes. Así, el número de líneas en las guías impresas ha sido incrementado para dar cabida a más canales. El número de botones en los dispositivos de telemando ha sido incrementado para soportar la adicional funcionalidad y manipulación de contenidos, p. ej. como se muestra en la Figura 1. Sin embargo, este enfoque ha incrementado significativamente tanto el tiempo que necesita un televidente para examinar la información disponible como la complejidad de las acciones requeridas para llevar a la práctica una selección. Defendiblemente, la incómoda naturaleza de la interfaz existente ha obstaculizado la implementación comercial de algunos servicios, como p. ej. el vídeo sobre demanda, puesto que los consumidores se resisten a nuevos servicios que añadan complejidad a una interfaz que ya consideran como demasiado lenta y compleja.
[0005] Además de los incrementos del ancho de banda y de los contenidos, el problema que constituye el cuello de botella de la interfaz de usuario está siendo exacerbado por la agregación de tecnologías. Los consumidores están reaccionando positivamente a la posibilidad de tener la opción de comprar sistemas integrados en lugar de una serie de componentes segregables. Un ejemplo de esta tendencia es la combinación de televisión/VCR/DVD en la cual se venden frecuentemente hoy en día como una unidad integrada tres componentes anteriormente independientes. Esta tendencia es probable que continúe, potencialmente con el resultado final de que los de la mayoría si no la totalidad de los dispositivos de comunicación que se encuentran actualmente en el ámbito doméstico estarán reunidos como unidad integrada, como p. ej. una unidad de televisión/VCR/DVD/acceso a Internet/radio/estéreo. Incluso quienes continúen comprando componentes independientes con toda probabilidad desearán un control sin solución de continuidad de los componentes independientes y una interacción entre los mismos. Con esta incrementada agregación llega el potencial para más complejidad en la interfaz de usuario. Por ejemplo, cuando fueron introducidas las así llamadas unidades remotas (universales), p. ej. para combinar la funcionalidad de las unidades remotas de TV y las unidades remotas de VCR, el número de botones en estas unidades remotas universales era típicamente mayor que el número de botones en la unidad remota de TV o en la unidad remota de VCR individualmente. Esto añadió una serie de botones, y la funcionalidad hace que sea muy difícil controlar cualquier cosa que no sea los aspectos más sencillos de una TV o de una VCR (VCR = grabadora de vídeocasete) sin tener que andar buscando el botón exactamente correcto en el mando a distancia. Muchas veces, estos telemandos universales no cuentan con suficientes botones para acceder a muchos niveles de control o características singulares para ciertas televisiones. En estos casos sigue siendo necesaria la unidad remota del dispositivo original, y sigue habiendo el original jaleo de manejar una pluralidad de mandos a distancia debido a problemas de interfaz de usuario que se derivan de la complejidad de agregación. Algunas unidades remotas
han abordado este problema añadiendo botones “soft” (botones “soft” = botones de función programable) que pueden
ser programados con los comandos expertos. Estos botones de función programable a veces tienen visualizadores LCD acompañantes para indicar su acción. También éstos tienen el defecto de que son difíciles de usar sin apartar la mirada de la TV para mirar el mando a distancia. Aun otro defecto de estas unidades remotas es el uso de modos en un intento de reducir el número de botones. En estas unidades remotas universales “con modos” existe un botón especial para seleccionar si el mando a distancia debe comunicarse con la TV, el reproductor de DVD, la caja de televisión por cable, la VCR, etc. Esto ocasiona muchos problemas de usabilidad que incluyen el envío de órdenes al dispositivo equivocado y el que el usuario se vea obligado a mirar el mando a distancia para asegurarse de que esté en el modo correcto, y no aporta simplificación alguna a la integración de una pluralidad de dispositivos. Las más avanzadas de estas unidades remotas universales proporcionan cierta integración permitiéndole al usuario programar en el mando a distancia secuencias de órdenes para los de una pluralidad de dispositivos. Ésta es una tarea tan difícil, que muchos usuarios contratan los servicios de instaladores profesionales para que programen sus unidades remotas universales.
[0006] También se han hecho algunos intentos para modernizar la interfaz de pantalla entre los usuarios finales y los sistemas de medios. Sin embargo, estos intentos típicamente adolecen de, entre otros inconvenientes, una incapacidad para efectuar fácilmente una adaptación a escala entre grandes colecciones de artículos de los medios y pequeñas colecciones de artículos de los medios. Por ejemplo, las interfaces que se basan en listas de artículos pueden funcionar bien para pequeñas colecciones de artículos de los medios, pero son pesadas de hojear para grandes colecciones de artículos de los medios. Las interfaces que se basan en la navegación jerárquica (como p. ej. las estructuras en árbol) pueden ser más rápidas de recorrer que las interfaces de listas para grandes colecciones de artículos de los medios, pero no son fácilmente adaptables a las pequeñas colecciones de artículos de los medios. Adicionalmente, los usuarios tienden a perder interés en los procesos de selección en los que el usuario tiene que moverse por tres o más capas en una estructura en árbol. Para todos estos casos, las actuales unidades remotas hacen que este proceso de selección resulte aun más pesado al obligar al usuario a pulsar repetidamente los botones de subida y bajada para navegar por la lista de jerarquías. Cuando están disponibles mandos de saltar selección tales como subir página y bajar página, el usuario habitualmente tiene que mirar el mando a distancia para encontrar estos botones especiales, o bien tiene que hacer un aprendizaje para saber que siquiera existen. En consecuencia, en la Solicitud de Patente U.S. que tiene el Nº de Depósito 10/768.432, fue presentada el 30 de enero de 2004 y se titula “Estructura de Control con una Interfaz Gráfica de Usuario Zoomable para Organizar, Seleccionar y Lanzar Artículos de los Medios” se han propuesto
estructuras organizativas, técnicas y sistemas para simplificar la interfaz de mando y pantalla entre los usuarios y los sistemas de medios, así como para y acelerar el proceso de selección, permitiéndoles al mismo tiempo a los proveedores de servicios aprovechar la ventaja de los incrementos del ancho de banda disponible para los equipos de los usuarios finales facilitando el suministro de un gran número de artículos de los medios y de nuevos servicios al usuario.
[0007] Son de particular interés para esta memoria descriptiva los dispositivos remotos usables para interactuar con tales estructuras, así como con otras aplicaciones y sistemas. Como se menciona en la solicitud anteriormente citada, con tales estructuras pueden usarse varios tipos distintos de dispositivos remotos entre los que se incluyen, por ejemplo,
las bolas de guía, los dispositivos apuntadores tipo “ratón”, los lápices luminosos, etc. Sin embargo, otra categoría de
dispositivos remotos que pueden usarse con tales estructuras (y otras aplicaciones) es la de los dispositivos apuntadores en el espacio libre. La frase “apuntador en el espacio libre” se usa en esta memoria descriptiva para hacer referencia a la capacidad de un dispositivo de entrada para moverse en tres (o más) dimensiones en el aire enfrente de una pantalla de visualización, p. ej., y a la correspondiente capacidad de la interfaz de usuario para transformar esos movimientos directamente en órdenes de interfaz de usuario, como p. ej. el movimiento de un cursor en la pantalla de visualización. La transferencia de datos entre el dispositivo apuntador en el espacio libre y otro dispositivo puede ser llevada a cabo de manera inalámbrica o bien por medio de un cable que conecte el dispositivo apuntador en el espacio
libre al otro dispositivo. Así, la técnica de los dispositivos “apuntadores en el espacio libre” se diferencia de p. ej. las
técnicas de apuntamiento con el ratón de ordenador convencional que usan una superficie, como p. ej. una superficie de una mesa de trabajo o una esterilla de ratón, como superficie sustituta desde la cual el movimiento relativo del ratón es transformado en movimiento del cursor en la pantalla de visualización del ordenador. En la Patente U.S. Nº 5.440.326 puede encontrarse un ejemplo de un dispositivo apuntador en el espacio libre.
[0008] La patente ‘326 describe, entre otras cosas, un giroscopio vertical que está adaptado para ser usado como dispositivo apuntador para controlar la posición de un cursor en la unidad de representación visual de un ordenador. Un motor en el núcleo del giroscopio está suspendido mediante dos parejas de suspensiones a la cardán ortogonales de un dispositivo controlador de mano y es orientado nominalmente con su eje de rotación vertical por un dispositivo pendular. Codificadores electroópticos del ángulo del eje detectan la orientación de un dispositivo controlador de mano al ser el mismo manipulado por un usuario, y la salida eléctrica resultante es llevada a un formato usable por un ordenador para controlar el movimiento del cursor en la pantalla de la unidad de representación visual del ordenador.
[0009] Sin embargo, la libertad de uso que va asociada a los apuntadores en el espacio libre crea retos adicionales. Por ejemplo, puesto que en general no hay superficie sustituta en la que descanse el dispositivo apuntador en el espacio libre, la orientación del dispositivo de control de mano puede variar considerablemente de usuario a usuario o incluso de uso a uso. Si un dispositivo apuntador en el espacio libre es usado para por ejemplo controlar el movimiento de un cursor visualizado en una pantalla, entonces se lleva a cabo alguna transformación entre el movimiento detectado del dispositivo de mano y el movimiento del cursor en la pantalla.
[0010] Una técnica para llevar a cabo esta transformación es la de usar el marco del cuerpo del dispositivo como el marco de referencia para transformar el movimiento detectado del dispositivo apuntador en el espacio libre en el pretendido movimiento del cursor. La expresión “marco del cuerpo” hace referencia a un conjunto de ejes asociados al cuerpo del objeto que se mueve como se describe más detalladamente a continuación. El usar el marco de referencia del cuerpo para llevar a cabo la transformación, sin embargo, tiene ciertos inconvenientes. Por ejemplo, le exige al usuario mantener el dispositivo en una orientación determinada a fin de obtener el movimiento del cursor que dicho usuario desea. Por ejemplo, si el usuario sostiene el dispositivo de lado y mueve el dispositivo de izquierda a derecha, el cursor se moverá verticalmente, y no horizontalmente, en la pantalla. La US 5.598.187 da a conocer un dispositivo apuntador de mano que tiene detectores de movimiento primero y segundo para detectar los movimientos horizontales y verticales del dispositivo, que son transformados en movimientos de un cursor en una pantalla. El dispositivo adicionalmente incluye un sensor de rotación para detectar las rotaciones indeseadas cuando el usuario tuerce inconscientemente su muñeca mientras mueve el dispositivo. El movimiento lineal detectado es corregido sobre la base de esta rotación detectada.
Sumario
[0011] Los sistemas y métodos según la presente invención incluyen dispositivos apuntadores en el espacio libre que acrecientan la usabilidad transformando datos de movimiento detectados de un marco de referencia del cuerpo asociado al dispositivo apuntador en el espacio libre en datos de movimiento asociados a un marco de referencia del usuario, en donde son eliminados los efectos asociados a una orientación de inclinación relativa a la gravedad en la cual el dispositivo apuntador en el espacio libre es sostenido por el usuario.
[0012] Están definidos ejemplos de realización de la invención en las adjuntas reivindicaciones independientes 1 para un dispositivo apuntador de mano y 4 para un método para hacer funcionar un dispositivo apuntador en el espacio libre. Están definidas ventajosas realizaciones de la invención en las adjuntas reivindicaciones dependientes 2, 3, 5 y 6.
Breve descripción de los dibujos
[0013] Los dibujos acompañantes ilustran ejemplos de realización de la presente invención, en donde:
[0014] La FIG. 1 representa un mando a distancia convencional para un sistema de entretenimiento;
[0015] La FIG. 2 representa un ejemplo de sistema de medios en el cual pueden implementarse ejemplos de realización de la presente invención;
[0016] La FIG. 3 muestra un dispositivo apuntador en el espacio libre según un ejemplo de realización de la presente invención;
[0017] La FIG. 4 ilustra una vista con una parte eliminada del dispositivo apuntador en el espacio libre de la FIG. 3 que incluye dos sensores de rotación y un acelerómetro;
[0018] La FIG. 5 es un diagrama de bloques que ilustra el procesamiento de datos asociado a los dispositivos apuntadores en el espacio libre según un ejemplo de realización de la presente invención;
[0019] Las FIGS. 6(a) - 6(d) ilustran los efectos de la inclinación;
[0020] La FIG. 7 representa una arquitectura de hardware (hardware = soporte físico) de un dispositivo apuntador en el espacio libre según un ejemplo de realización de la presente invención;
[0021] La FIG. 8 es un diagrama de estado que representa un mecanismo de detección de la estacionariedad según un ejemplo de realización de la presente invención; [0022] La FIG. 9 es una diagrama de bloques que ilustra la transformación de datos de movimiento detectado para llevarlos de un primer marco de referencia a un segundo marco de referencia según un ejemplo de realización de la presente invención; y
[0023] La FIG. 10 ilustra gráficamente la transformación de datos de movimiento detectado para llevarlos de un primer marco de referencia a un segundo marco de referencia según un ejemplo de realización de la presente invención.
Descripción detallada
[0024] La siguiente descripción detallada de la invención hace referencia a los dibujos acompañantes. Los números de referencia iguales en distintos dibujos identifican a elementos o similares. Asimismo, la siguiente descripción detallada no limita la invención. En lugar de ello, el alcance de la invención es el definido por las reivindicaciones adjuntas.
[0025] A fin de establecer un contexto para esta discusión, se describirá en primer lugar con respecto a la Figura 2 un ejemplo de sistema de medios agregados 200 en el cual puede implementarse la presente invención. Los expertos en la materia comprenderán, sin embargo, que la presente invención no queda limitada a la implementación en este tipo de sistema de medios, y que pueden estar ahí incluidos más o menos componentes. Ahí, un bus de entrada/salida (E/S) 210 conecta entre sí los componentes del sistema en el sistema de medios 200. El bus de E/S 210 representa a cualesquiera de los de una serie de distintos mecanismos y técnicas para encaminar señales entre los componentes del sistema de medios. Por ejemplo, el bus de E/S 210 puede incluir un número apropiado de cables “parche” de audio independientes que encaminen señales de audio, cables coaxiales que encaminen señales de vídeo, líneas seriales bifilares o transceptores de infrarrojos o de radiofrecuencia que encaminen señales de control, fibra óptica o cualesquiera otros mecanismos de encaminamiento que encaminen otros tipos de señales.
[0026] En este ejemplo de realización, el sistema de medios 200 incluye un televisor/monitor 212, una grabadora de videocasetes (VCR) 214, un dispositivo grabador/reproductor de discos de vídeo digital (DVD) 216, un sintonizador de audio/vídeo 218 y un reproductor de discos compactos 220 acoplados al bus de E/S 210. La VCR 214, el grabador/reproductor de DVD 216 y el reproductor de discos compactos 220 pueden ser dispositivos de disco único o de casete único, o bien como alternativa pueden ser dispositivos de disco múltiple o casete múltiple. Estas unidades pueden ser unidades independientes, o bien pueden estar integradas en un conjunto. Por añadidura, el sistema de medios 200 incluye un sistema de micrófono y altavoces 222, una cámara de vídeo 224 y un dispositivo inalámbrico de control de E/S 226. Según ejemplos de realización de la presente invención, el dispositivo inalámbrico de control de E/S 226 es un dispositivo apuntador en el espacio libre según uno de los ejemplos de realización que se describen más adelante. El dispositivo inalámbrico de control de E/S 226 puede comunicarse con el sistema de entretenimiento 200 usando, p. ej., un transmisor o transceptor de infrarrojos o de radiofrecuencia. Como alternativa, el dispositivo de control de E/S puede estar conectado al sistema de entretenimiento 200 por medio de un cable.
[0027] El sistema de entretenimiento 200 también incluye un controlador del sistema 228. Según un ejemplo de realización de la presente invención, el controlador del sistema 228 sirve para almacenar y visualizar datos del sistema de entretenimiento disponibles procedentes de las de una pluralidad de fuentes de datos del sistema de entretenimiento y para controlar una amplia variedad de características asociadas a cada uno de los componentes del sistema. Como se muestra en la Figura 2, el controlador del sistema 228 queda directa o indirectamente acoplado a cada uno de los componentes del sistema, según sea necesario, a través del bus de E/S 210. Adicionalmente al bus de E/S 210 o bien en lugar del mismo, el controlador del sistema 228 está configurado con un transmisor (o transceptor) de comunicación inalámbrica que es capaz de comunicarse con los componentes del sistema por medio de señales de infrarrojos o señales de radiofrecuencia. Independientemente del medio de control, el controlador del sistema 228 está configurado para controlar los componentes de medios del sistema de medios 200 por medio de una interfaz gráfica de usuario que se describe más adelante.
[0028] Como está demás ilustrado en la Figura 2, el sistema de medios 200 puede estar configurado para recibir artículos de los medios de varias fuentes de medios y proveedores de servicios. En este ejemplo de realización, el sistema de medios 200 recibe entrada de medios de y opcionalmente envía información a cualesquiera o la totalidad de las fuentes siguientes: difusión por cable 230, difusión por satélite 232 (p. ej. por medio de una antena de satélite), comunicación por radiofrecuencia de muy alta frecuencia (VHF) o de ultra-alta frecuencia (UHF) de las redes de difusión de televisión 234 (p. ej. por medio de una antena aérea), red telefónica 236 y módem de cable 238 (u otra fuente de contenidos de Internet). Los expertos en la materia comprenderán que los componentes de medios y las fuentes de medios que se ilustran y describen con respecto a la Figura 2 son puramente ejemplificativos y que el sistema de medios 200 puede incluir un mayor o un menor número de ambos. Por ejemplo, otros tipos de entradas al sistema incluyen la radio de AM/FM y la radio por satélite.
[0029] Pueden encontrarse más detalles relativos a este ejemplo de sistema de entretenimiento y de estructuras
asociadas al mismo en la anteriormente citada Solicitud de Patente U.S. titulada “Estructura de control con una interfaz gráfica de usuario zoomable para organizar, seleccionar y lanzar artículos de los medios”. Como alternativa, los
dispositivos remotos según la presente invención pueden ser usados en conjunción con otros sistemas, como por ejemplo sistemas informáticos que incluyan, p. ej., una unidad de representación visual, un procesador y un sistema de memoria, o con otros varios sistemas y aplicaciones.
[0030] Como se menciona en la parte de los Antecedentes, los dispositivos remotos que operan como apuntadores en el espacio libre son de particular interés para la presente memoria descriptiva. Tales dispositivos permiten la transformación del movimiento, como p. ej. gestos, en órdenes a una interfaz de usuario. Está representado en la Figura 3 un ejemplo de dispositivo apuntador en el espacio libre 400. Ahí, el movimiento del dispositivo apuntador en el espacio libre producido por el usuario puede definirse, por ejemplo, en términos de una combinación del movimiento de postura con respecto al eje x (balanceo), de elevación con respecto al eje y (inclinación) y/o de orientación con respecto al eje z (guiñada) del dispositivo apuntador en el espacio libre 400. Además, algunos ejemplos de realización de la presente invención pueden también medir el movimiento lineal del dispositivo apuntador en el espacio libre 400 a lo largo de los ejes x, y y z para generar órdenes de movimiento del cursor u otras órdenes de interfaz de usuario. En el ejemplo de realización de la Figura 3, el dispositivo apuntador en el espacio libre 400 incluye dos botones 402 y 404 así como una rueda de desplazamiento 406, si bien otros ejemplos de realización incluirán otras configuraciones físicas. Según ejemplos de realización de la presente invención, se prevé que los dispositivos apuntadores en el espacio libre 400 serán sostenidos por un usuario enfrente de una unidad de representación visual 408 y que el movimiento del dispositivo apuntador en el espacio libre 400 será trasformado por el dispositivo apuntador en el espacio libre en una salida que es usable para interactuar con la información representada visualmente en la unidad de representación visual 408, p. ej. para mover el cursor 410 en la unidad de representación visual 408. Por ejemplo, la rotación del dispositivo apuntador en el espacio libre 400 en torno al eje y puede ser detectada por el dispositivo apuntador en el espacio libre 400 y transformada en una salida susceptible de ser usada por el sistema para mover el cursor 410 a lo largo del eje y2 de la unidad de representación visual 408. Análogamente, la rotación del dispositivo apuntador en el espacio libre 408 en torno al eje z puede ser detectada por el dispositivo apuntador en el espacio libre 400 y transformada en una salida susceptible de ser usada por el sistema para mover el cursor 410 a lo largo del eje x2 de la unidad de representación visual 408. Se comprenderá que la salida del dispositivo apuntador en el espacio libre 400 puede ser usada para interactuar con la unidad de representación visual 408 de una serie de maneras distintas del (o adicionales al) movimiento del cursor, y así por ejemplo dicha salida puede controlar el desvanecimiento del cursor, el volumen o el transporte del soporte (reproducción, pausa, marcha rápida hacia adelante y rebobinado). Las órdenes de entrada pueden incluir otras operaciones además del movimiento del cursor, como por ejemplo un aumento o una disminución en una zona determinada de una visualización. Un cursor puede ser o no ser visible. Análogamente, la rotación del dispositivo apuntador en el espacio libre 400 detectada en torno al eje x del dispositivo apuntador en el espacio libre 400 puede ser usada adicionalmente o bien como alternativa a la rotación en torno al eje y y/o al eje z para suministrarle una entrada a una interfaz de usuario.
[0031] Según un ejemplo de realización de la presente invención, como se muestra en la Figura 4 pueden emplearse como sensores en el dispositivo apuntador en el espacio libre 400 dos sensores de rotación 502 y 504 y un acelerómetro 506. Los sensores de rotación 502 y 504 pueden por ejemplo ser implementados usando sensores ADXRS150 o ADXRS401 fabricados por la Analog Devices. Los expertos en la materia comprenderán que pueden emplearse como sensores de rotación 502 y 504 otros tipos de sensores de rotación, y que los sensores ADXRS150 y ADXRS401 se usan puramente a título de ejemplo ilustrativo. A diferencia de los giroscopios tradicionales, los sensores de rotación ADXRS150 usan tecnología de MEMS (MEMS = sistemas micro-electromecánicos) para contar con una masa resonante que está unida a una estructura de forma tal que puede resonar tan sólo en una dirección. La masa resonante es desplazada cuando el cuerpo al cual el sensor está unido es girado en torno al eje sensor del sensor. Este desplazamiento puede ser medido usando el efecto de aceleración de Coriolis para determinar una velocidad angular asociada a una rotación a lo largo del eje sensor. Si los sensores de rotación 502 y 504 tienen un único eje sensor (como por ejemplo los ADXRS150s), entonces los mismos pueden montarse en el dispositivo apuntador en el espacio libre 400 de forma tal que sus ejes sensores queden alineados con las rotaciones a medir. Para este ejemplo de realización de la presente invención, esto significa que el sensor de rotación 504 está montado de forma tal que su eje sensor es paralelo al eje y, y que el sensor de rotación 502 está montado de forma tal que su eje sensor es paralelo al eje z, como se muestra en la Figura 4. Obsérvese, sin embargo, que no se requiere alinear los ejes sensores de los sensores de rotación 502 y 504 paralelamente a los deseados ejes de medición, puesto que ejemplos de realización de la presente invención también prevén técnicas para compensar la desviación entre ejes.
[0032] Un reto que se plantea al poner en ejecución ejemplos de dispositivos apuntadores en el espacio libre 400 según la presente invención es el de emplear componentes, como p. ej. sensores de rotación 502 y 504, que no sean demasiado costosos, mientras que al mismo tiempo proporcionen un alto grado de correlación entre el movimiento del dispositivo apuntador en el espacio libre 400, las expectativas del usuario con respecto a cómo la interfaz de usuario reaccionará a ese movimiento particular del dispositivo apuntador en el espacio libre, y la actuación real de la interfaz de usuario en respuesta a ese movimiento. Por ejemplo, si el dispositivo apuntador en el espacio libre 400 no está en movimiento, lo más probable es que el usuario espere que el cursor no avance a través de la pantalla. Análogamente, si el usuario gira el dispositivo apuntador en el espacio libre 400 puramente en torno al eje y, será de suponer que no esperará ver que el resultante movimiento del cursor en la unidad de representación visual 408 contenga componente del eje x2 significativa alguna. Para lograr estos y otros aspectos de ejemplos de realización de la presente invención, son llevados a cabo por el dispositivo de mano 400 varias mediciones y varios cálculos que son usados para ajustar las salidas de uno o varios de los sensores 502, 504 y 506 y/o como parte de la entrada usada por un procesador para determinar una salida apropiada para la interfaz de usuario sobre la base de las salidas de los sensores, 502, 504 y 506. Estas mediciones y estos cálculos se usan para compensar factores que en términos generales quedan en dos categorías: (1) factores que son intrínsecos del dispositivo apuntador en el espacio libre 400, como p. ej. los errores asociados a los particulares sensores 502, 504 y 506 usados en el dispositivo 400, o de la manera cómo los sensores están montados en el dispositivo 400 y (2) factores que no son intrínsecos del dispositivo apuntador en el espacio libre 400 pero están en lugar de ello asociados a la manera cómo el usuario esté usando el dispositivo apuntador en el espacio libre 400, tal como p. ej. la aceleración lineal, la inclinación y el temblor. Se describen a continuación ejemplos de técnicas para manejar cada uno de estos efectos.
[0033] Está ilustrado en la Figura 5 un modelo de proceso 600 que describe el funcionamiento general de dispositivos apuntadores en el espacio libre según ejemplos de realización de la presente invención. Los sensores de rotación 502 y 504, así como el acelerómetro 506, producen señales analógicas que son muestreadas periódicamente, p. ej. a razón de 200 muestras/segundo. A los efectos de esta exposición, se aludirá a un conjunto de estas entradas usando la
notación (x, y, z, αy, αz), en donde x, y, z son los valores de salida muestreados del ejemplo de acelerómetro triaxial 506
que están asociados a la aceleración del dispositivo apuntador en el espacio libre en las direcciones del eje x, del eje y y
del eje z, respectivamente, αy es el valor de salida muestreado del sensor de rotación 502 asociado a la rotación del dispositivo apuntador en el espacio libre en torno al eje y, y αz es el valor de salida muestreado del sensor de rotación 504 asociado a la rotación del dispositivo apuntador en el espacio libre 400 en torno al eje z.
[0034] Se da la salida del acelerómetro 506 y, si el acelerómetro 506 da una salida analógica, entonces la salida es muestreada y digitalizada por un convertidor A/D (no ilustrado) para generar la salida del acelerómetro muestreada 602. Los valores de salida muestreados son convertidos para ser así pasados de unidades en bruto a unidades de aceleración, como p. ej. gravedades (g), como indica la función de conversión 604. El bloque de calibración de la aceleración 606 proporciona los valores que se usan para la función de conversión 604. Esta calibración de la salida 602 del acelerómetro puede incluir, por ejemplo, una compensación de uno o varios de los miembros del grupo que consta de errores de escala, de desviación y de desalineación de ejes asociados al acelerómetro 506. Pueden llevarse a cabo ejemplos de conversiones de los datos del acelerómetro usando la ecuación siguiente:
A = S * ((M-P).* G(T)) (1)
en donde M es un vector columna de 3x1 que se compone de los valores de salida muestreados (x, y, z), P es un vector columna de 3x1 de desviaciones de sensor, y S es una matriz de 3x3 que contiene compensación tanto de escala como de desalineación de ejes y de rotación de sensor. G(T) es un factor de ganancia que es función de la temperatura. El
operador “*” representa multiplicación de matriz y el operador “.*” representa multiplicación de elementos. El ejemplo de
acelerómetro 506 tiene un ejemplo de gama total de +/-2g. La desviación del sensor, P, se refiere a la salida del sensor,
M, para una medición del acelerómetro de 0g. “Escala” se refiere a factor de conversión entre el valor en las unidades
del muestreo y g. La escala real de cualquier sensor de acelerómetro dado puede desviarse de estos valores de escala nominales debido, p. ej., a varianzas de fabricación. En consecuencia, el factor de escala en las ecuaciones anteriormente indicadas será proporcional a esta desviación.
[0035] Las desviaciones de escala y de desviación del acelerómetro 506 pueden medirse, por ejemplo, aplicando 1 g de fuerza a lo largo de un eje y midiendo el resultado, R1. Luego se aplica una fuerza de -1 g, obteniéndose como resultado de ello la medición R2. La escala de eje individual, s, y la desviación de eje individual, p, pueden computarse de la manera siguiente:
s= (R1 -R2) / 2 (2) p = (R1 + R2) / 2 (3)
En este caso sencillo, P es el vector columna de la p para cada eje, y S es la matriz diagonal de 1/s para cada eje.
[0036] Sin embargo, además de la escala y de la desviación, las lecturas generadas por el acelerómetro 506 pueden también adolecer de efectos de ejes cruzados. Los efectos de ejes cruzados incluyen a los ejes no alineados, p. ej. en donde uno o varios de los ejes sensores del acelerómetro 506 tal como está(n) montado(s) en el dispositivo apuntador en el espacio libre 400 no están alineados con el correspondiente eje en el marco inercial de referencia, o a errores mecánicos asociados a la mecanización del propio acelerómetro 506, p. ej. en donde incluso aunque los ejes estén correctamente alineados, una fuerza de aceleración puramente según el eje y puede redundar en una lectura de sensor a lo largo del eje z del acelerómetro 506. Estos dos efectos pueden ser también medidos y añadidos a la calibración que es llevada a cabo por la función 606.
[0037] El acelerómetro 506 sirve para varias finalidades en ejemplos de dispositivos apuntadores en el espacio libre según ejemplos de realización de la presente invención. Por ejemplo, si se implementan los sensores de rotación 502 y 504 usando los ejemplos de sensores de rotación por efecto Coriolis anteriormente descritos, entonces la salida de los sensores de rotación 502 y 504 variará sobre la base de la aceleración lineal experimentada por cada sensor de rotación. Así, un ejemplo de uso del acelerómetro 506 es el de compensar las fluctuaciones de las lecturas generadas por los sensores de rotación 502 y 504 que son ocasionadas por varianzas de aceleración lineal. Esto puede llevarse a cabo multiplicando las lecturas de acelerómetro convertidas por una matriz de ganancia 610 y restando (o sumando) los resultados de (o a) los correspondientes datos de sensor de rotación muestreados 612. Por ejemplo, los datos de
rotación muestreados αy del sensor de rotación 502 pueden ser compensados para la aceleración lineal en el bloque
614 de la manera siguiente:
αy’ = αy - C * A (4)
en donde C es el vector fila de 1x3 de la susceptibilidad del sensor de rotación a la aceleración lineal a lo largo de cada eje dado en unidades/g y A es la aceleración lineal calibrada. Adicionalmente puede preverse en el bloque 614 la compensación de la aceleración lineal para los datos de rotación muestreados αz del sensor de rotación 504. Las matrices de ganancia, C, varían entre sensores de rotación debido a diferencias de fabricación. C puede computarse usando el valor medio para muchos sensores de rotación, o bien puede computarse individualmente para cada sensor de rotación.
[0038] Al igual como los datos del acelerómetro, los datos de rotación muestreados 612 son entonces convertidos para ser así pasados de un valor en las unidades del muestreo a un valor asociado a una velocidad de rotación angular, como p. ej. radianes/seg., en la función 616. Este paso de conversión puede también incluir una calibración proporcionada por la función 618 para compensar los datos de rotación muestreados para, p. ej., escala y desviación. La conversión/calibración tanto para αy como para αz puede llevarse a cabo usando, por ejemplo, la ecuación siguiente:
α rad/seg. = (α’ - desviación(T)) * escala + dDesviación (5)
en donde α’ se refiere al valor que se convierte/calibra, desviación(T) se refiere a un valor de desviación asociado a la temperatura, escala se refiere al factor de conversión entre el valor en las unidades del muestreo y rad/seg., y desviación se refiere a un valor de desviación dinámica. La ecuación (5) puede implementarse como una ecuación matricial, en cuyo caso todas las variables son vectores, exceptuando la escala. En forma de ecuación matricial, la escala corrige la desalineación de ejes y los factores de desviación rotacional. Se trata más detalladamente a continuación acerca de cada una de estas variables.
[0039] Los valores de desviación desviación(T) y dDesviación pueden determinarse de una serie de distintas maneras. Cuando el dispositivo apuntador en el espacio libre 400 no está siendo girado en, por ejemplo, la dirección del eje y, el sensor 502 deberá dar de salida su valor de desviación. Sin embargo, la desviación puede verse altamente afectada por la temperatura, con lo cual este valor de desviación probablemente variará. La calibración de la desviación para la temperatura puede ser llevada a cabo en la fábrica, en cuyo caso el (los) valor(es) para desviación(T) puede(n) ser preprogramado(s) en el dispositivo de mano 400, o bien y como alternativa, la calibración de la desviación para la temperatura puede también aprenderse dinámicamente durante el tiempo de vida del dispositivo. Para llevar a cabo la compensación de la desviación dinámica, se usa en la función de calibración de la rotación 618 una entrada procedente de un sensor de temperatura 619 para computar el valor actual para desviación(T). El parámetro desviación(T) elimina la mayor parte del sesgo de desviación de las lecturas de sensor. Sin embargo, el negar casi todo avance del cursor para movimiento cero puede ser útil para producir un dispositivo apuntador de altas prestaciones. Por consiguiente, el factor adicional dDesviación puede ser computado dinámicamente mientras está en uso el dispositivo apuntador en el espacio libre 400. La función de detección de estacionariedad 608 determina cuándo el dispositivo de mano está con la máxima probabilidad estacionario y cuándo deberá recalcularse la desviación. Se describen a continuación ejemplos de técnicas para implementar la función de detección de estacionariedad 608, así como otros usos para la misma.
[0040] Un ejemplo de implementación de computación de dDesviación emplea salidas de sensor calibrado que son filtradas en filtro de paso bajo. La función de detección de salida de estacionariedad 608 le proporciona a la función de calibración de rotación 618 una indicación para iniciar la computación de, por ejemplo, la media de la salida del filtro de paso bajo. La función de detección de salida de estacionariedad 608 puede también controlar cuándo la media recién computada es factorizada en forma del valor existente para dDesviación. Los expertos en la materia reconocerán que pueden usarse las de una multitud de distintas técnicas para computar el nuevo valor para dDesviación a partir del valor existente de dDesviación y de la nueva media, entre las cuales se incluyen, aunque sin carácter limitativo, las de simple promediado, la filtración de paso bajo y la filtración de Kalman. Adicionalmente, los expertos en la materia reconocerán que pueden emplearse numerosas variaciones para la compensación de desviación de los sensores de rotación 502 y
504. Por ejemplo, la función de desviación(T) puede tener un valor constante (p. ej. invariante con la temperatura), pueden usarse más de dos valores de compensación de desviación y/o puede computarse/usarse para la compensación de la desviación tan sólo un único valor de desviación.
[0041] Tras la conversión/calibración en el bloque 616, las entradas procedentes de los sensores de rotación 502 y 504 pueden ser adicionalmente procesadas para rotar esas entradas a un marco inercial de referencia, es decir, para compensar la inclinación asociada a la manera cómo el usuario está sosteniendo el dispositivo apuntador en el espacio libre 400, en la función 620. La corrección de la inclinación es otro aspecto importante de algunos ejemplos de realización de la presente invención por cuanto que está destinada a compensar las diferencias en los patrones de uso de los dispositivos apuntadores en el espacio libre según la presente invención. Más específicamente, la corrección de la inclinación según ejemplos de realización de la presente invención está destinada a compensar el hecho de que los usuarios sostendrán en sus manos los dispositivos apuntadores en distintas posiciones rotacionales según el eje x, pero de que los ejes sensores de los sensores de rotación 502 y 504 en los dispositivos apuntadores en el espacio libre 400 son fijos. Es deseable que la traslación del cursor a través de la unidad de representación visual 408 sea considerablemente insensible a la manera cómo el usuario sujeta el dispositivo apuntador en el espacio libre 400, y así
p. ej., la rotación en ambos sentidos del dispositivo apuntador en el espacio libre 400 de una manera que corresponda en general a la dimensión horizontal (eje x2) de la unidad de representación visual 408 debería redundar en una traslación del cursor a lo largo del eje x2, mientras que la rotación del dispositivo apuntador en el espacio libre hacia arriba y hacia abajo de una manera que en general corresponda a la dimensión vertical (eje y2) de la unidad de representación visual 408 debería redundar en una traslación del cursor a lo largo del eje y2, independientemente de la orientación en la que el usuario esté sosteniendo el dispositivo apuntador en el espacio libre 400.
[0042] Para mejor comprender la necesidad de la compensación de la inclinación según ejemplos de realización de la presente invención, considérese el ejemplo que se muestra en la Figura 6(a). Ahí, el usuario está sosteniendo el dispositivo apuntador en el espacio libre 400 en un ejemplo de marco inercial de referencia que puede definirse como uno que tiene un valor de rotación según el eje x de 0 grados, y así p. ej., el marco inercial de referencia puede ser aquél en el cual el dispositivo apuntador en el espacio libre tiene su fondo prácticamente paralelo a un suelo de una habitación en la cual esté situado p. ej. un televisor. El marco inercial de referencia puede, puramente como ejemplo, corresponder a la orientación que está ilustrada en la Figura 6(a), o bien puede estar definido como cualquier otra orientación. La rotación del dispositivo apuntador en el espacio libre 400 en las direcciones del eje y o del eje z será detectada por los sensores de rotación 502 y 504, respectivamente. Por ejemplo, la rotación del dispositivo apuntador en el espacio libre 400 en torno al eje z en una cantidad ∆z como se muestra en la Figura 6(b) redundará en una correspondiente traslación del cursor ∆x2 en la dimensión del eje x2 a través de la unidad de representación gráfica 408 (es decir, la distancia entre la versión de trazos del cursor 410 y la versión no de trazos).
[0043] Si, por otra parte, el usuario sostiene el dispositivo apuntador en el espacio libre 400 en una orientación distinta,
p. ej. con cierta cantidad de rotación según el eje x con respecto al marco inercial de referencia, entonces la información proporcionada por los sensores 502 y 504 no proporcionaría (en ausencia de la compensación de la inclinación) una precisa representación de las acciones de la interfaz perseguidas por el usuario. Por ejemplo, haciendo referencia a la Figura 6(c), considérese una situación en la que el usuario sostiene el dispositivo apuntador en el espacio libre 400 con una rotación según el eje x de 45 grados con respecto al ejemplo de marco inercial de referencia que se ilustra en la Figura 6(a). Suponiendo que le sea impartida por el usuario al dispositivo apuntador en el espacio libre 400 la misma rotación según el eje z ∆z como en el ejemplo de la Figura 6(b), el cursor 410 será en cambio trasladado tanto en la dirección del eje x2 como en la dirección del eje y2 como se muestra en la Figura 6(d). Esto es debido al hecho de que el eje sensor del sensor de rotación 502 está ahora orientado entre el eje y y el eje z (debido a la orientación del dispositivo en la mano del usuario). Análogamente, el eje sensor del sensor de rotación 504 está también orientado entre el eje y y el eje z (si bien en un cuadrante distinto). A fin de proporcionar una interfaz que sea transparente para el usuario en términos de cómo es sostenido el dispositivo apuntador en el espacio libre 400, la compensación de la inclinación según ejemplos de realización de la presente invención transforma la salida de las lecturas de los sensores de rotación 502 y 504 llevándola de nuevo al marco inercial de referencia como parte del procesamiento de las lecturas de estos sensores para su transformación en información indicativa del movimiento de rotación del dispositivo apuntador en el espacio libre 400.
[0044] Según ejemplos de realización de la presente invención, volviendo a la Figura 5, esto puede llevarse a cabo determinando la inclinación del dispositivo apuntador en el espacio libre 400 usando las entradas y y z recibidas del acelerómetro 506 en la función 622. Más específicamente, tras haber sido los datos de aceleración convertidos y calibrados como se ha descrito anteriormente, los mismos pueden ser filtrados en filtro de paso bajo en el LPF (LPF = filtro de paso bajo) 624 para proporcionarle un valor de aceleración (gravedad) media a la función de determinación de la inclinación 622. Entonces, la inclinación θ puede ser calculada en la función 622 como:
El valor θ puede ser computado numéricamente como atg2(y,z) para impedir la división por cero y dar el signo correcto. Entonces, la función 620 puede llevar a cabo la rotación R de las entradas convertidas/calibradas αy y αz usando la ecuación:
para rotar las entradas convertidas/calibradas αy y αz para compensar la inclinación θ. La compensación de la
inclinación tal como se la describe en este ejemplo de realización es un subconjunto de una técnica más general para trasladar las lecturas de sensor del marco de referencia del cuerpo al marco de referencia de un usuario según otro ejemplo de realización de la presente invención que se describe a continuación.
[0045] Una vez que las lecturas de sensor calibradas han sido compensadas para la aceleración lineal, transformadas en lecturas indicativas de la rotación angular del dispositivo apuntador en el espacio libre 400 y compensadas para la inclinación, puede llevarse a cabo el postprocesamiento en los bloques 626 y 628. Los ejemplos de postprocesamiento pueden incluir la compensación para varios factores tales como el temblor humano. A pesar de que el temblor puede ser eliminado usando varios métodos distintos, una manera de eliminar el temblor es la de usar la histéresis. La velocidad angular producida por la función de rotación 620 es integrada para producir una posición angular. Entonces se aplica a la posición angular histéresis de una magnitud calibrada. Se toma la derivada de la salida del bloque de histéresis para de nuevo producir una velocidad angular. La salida resultante es entonces escalada en la función 628 (p. ej. sobre la base del periodo de muestreo) y usada para generar un resultado dentro de la interfaz, como p. ej. el movimiento de un cursor 410 en una unidad de representación visual 408.
[0046] Habiéndose dado una descripción del proceso de ejemplos de dispositivos apuntadores en el espacio libre según la presente invención, la Figura 7 ilustra un ejemplo de arquitectura de hardware. Ahí, un procesador 800 se comunica con otros elementos del dispositivo apuntador en el espacio libre que incluyen una rueda de desplazamiento 802, un JTAG 804, LEDs 806, una matriz conmutadora 808, un fotodetector de IR 810, sensores de rotación 812, un acelerómetro 814 y un transceptor 816. La rueda de desplazamiento 802 es un componente de entrada opcional que le permite al usuario aportar entradas a la interfaz girando la rueda de desplazamiento 802 en el sentido horario o en el sentido antihorario. El JTAG 804 proporciona la interfaz de programación y depuración al procesador. Los LEDs 806 le proporcionan realimentación visual al usuario, por ejemplo al ser pulsado un botón. La matriz conmutadora 808 recibe entradas, como p. ej. indicaciones de que ha sido pulsado o soltado un botón del dispositivo apuntador en el espacio libre 400, siendo dichas entradas entonces pasadas al procesador 800. El fotodetector de IR 810 opcional puede preverse para capacitar al dispositivo apuntador en el espacio libre que se pone como ejemplo para aprender códigos de IR de otros mandos a distancia. Los sensores de rotación 812 le suministran al procesador 800 lecturas relativas p. ej. a la rotación según el eje y y según el eje z del dispositivo apuntador en el espacio libre como se ha descrito anteriormente. El acelerómetro 814 le suministra al procesador 800 lecturas relativas a la aceleración lineal del dispositivo apuntador en el espacio libre 400, las cuales pueden ser usadas como se ha descrito anteriormente, p. ej. para llevar a cabo compensación de la inclinación y para compensar los errores que la aceleración lineal introduce en las lecturas de rotación generadas por los sensores de rotación 812. El transceptor 816 se usa para comunicar información al y desde el dispositivo apuntador en el espacio libre 400, p. ej. al controlador del sistema 228 o a un procesador asociado a un ordenador. El transceptor 816 puede ser un transceptor inalámbrico que p. ej. funcione según los estándares Bluetooth para comunicación inalámbrica de corto alcance, o bien un transceptor de infrarrojos. Como alternativa, el dispositivo apuntador en el espacio libre 400 puede comunicarse con los sistemas por medio de una conexión por línea alámbrica.
[0047] En el ejemplo de realización de la Figura 4, el dispositivo apuntador en el espacio libre 400 incluye dos sensores de rotación 502 y 504, así como un acelerómetro 506. Sin embargo, según otro ejemplo de realización de la presente invención, un dispositivo apuntador en el espacio libre puede como alternativa incluir tan sólo un sensor de rotación, p. ej. para medir la velocidad angular en la dirección del eje z, y un acelerómetro. Para un ejemplo de realización de este tipo, puede preverse una funcionalidad similar a la anteriormente descrita usando el acelerómetro para determinar la velocidad angular según el eje que no es detectado por el sensor de rotación. Por ejemplo, la velocidad de rotación en torno al eje y puede computarse usando datos generados por el acelerómetro y calculando:
Además deben también eliminarse los efectos de aceleración parasitaria que no son medidos por un sensor de rotación. Estos efectos incluyen a la aceleración lineal real, la aceleración medida debido a la velocidad de rotación y a la aceleración rotacional, y la aceleración debida al temblor humano.
[0048] La función de detección de la estacionariedad 608, que ha sido brevemente mencionada con anterioridad, puede operar para determinar si el dispositivo apuntador en el espacio libre 400 está por ejemplo estacionario o bien activado (en movimiento). Esta categorización puede ser llevada a cabo de una serie de distintas maneras. Una manera, según un ejemplo de realización de la presente invención, es la de computar la varianza de los datos de entrada muestreados de todas las entradas (x, y, z, αy, αz) dentro de una ventana predeterminada, tal como p. ej. cada cuarto de segundo. Esta varianza es entonces comparada con un umbral para clasificar al dispositivo apuntador en el espacio libre como estacionario o bien como activo.
[0049] Otra técnica de detección de la estacionariedad según ejemplos de realización de la presente invención supone transformar las entradas para así llevarlas al dominio frecuencial llevando p. ej. a cabo una Transformada Rápida de Fourier (FFT) sobre los datos de entrada. Entonces los datos pueden ser analizados usando p. ej. métodos de detección de picos, para determinar si el dispositivo apuntador en el espacio libre 400 está en estado estacionario o bien en estado activo. Adicionalmente puede distinguirse una tercera categoría, que es específicamente el caso en el que el usuario está sosteniendo el dispositivo apuntador en el espacio libre 400 pero no lo mueve (a este estado se le llama aquí también estado “estable”). Esta tercera categoría puede distinguirse de los estados estacionarios (no sostenido) y activo detectando el pequeño movimiento del dispositivo apuntador en el espacio libre 400 que es introducido por el temblor de la mano del usuario cuando el dispositivo apuntador en el espacio libre 400 está siendo sostenido por un usuario. La detección de picos puede también ser usada por la función de detección de la estacionariedad 608 para hacer esta determinación. Los picos que están situados dentro de la gama de frecuencias del temblor humano, que es
p. ej. nominalmente de 8-12 Hz, típicamente excederán del suelo de ruido del dispositivo (que se experimenta cuando el dispositivo está estacionario y no está siendo sostenido) en aproximadamente 20 dB.
[0050] En los ejemplos anteriores, las varianzas en el dominio frecuencial fueron detectadas dentro de una particular gama de frecuencias, si bien puede variar la gama de frecuencias real a supervisar y a usar para caracterizar el estado del dispositivo apuntador en el espacio libre 400. Por ejemplo, la gama de frecuencias de temblor nominal puede variar sobre la base de p. ej. la ergonomía y el peso del dispositivo apuntador en el espacio libre 400, yendo p. ej. de 8-12 Hz a 4-7 Hz.
[0051] Según otro ejemplo de realización de la presente invención, el mecanismo de detección de la estacionariedad 608 puede incluir una máquina de estado. Se muestra en la Figura 8 un ejemplo de máquina de estado. Ahí, el estado ACTIVO es en este ejemplo el estado por defecto durante el cual el dispositivo apuntador en el espacio libre 400 está en movimiento y está siendo usado para p. ej. suministrar entradas a una interfaz de usuario. El dispositivo apuntador en el espacio libre 400 puede entrar en el estado ACTIVO al realizarse la conexión de corriente del dispositivo como indica la entrada de reinicialización. Si el dispositivo apuntador en el espacio libre 400 deja de moverse, puede entonces entrar en el estado INACTIVO. Las diversas transiciones entre estados que se ilustran en la Figura 8 pueden ser iniciadas por cualesquiera de los de una serie de distintos criterios entre los que se incluyen, aunque sin carácter limitativo, una salida de datos de uno de los sensores de rotación 502 y 504 o de ambos, una salida de datos del acelerómetro 506, datos del dominio temporal, datos del dominio frecuencial o cualquier combinación de los mismos. A las condiciones de transición
entre estados se aludirá genéricamente en la presente usando la convención “CondiciónestadoA→estadoB”. Por ejemplo, el
dispositivo apuntador en el espacio libre 400 pasará del estado ACTIVO al estado INACTIVO cuando se dé la condiciónactivo→inactivo. A efectos exclusivamente ilustrativos, considérese que en un ejemplo de dispositivo apuntador en el espacio libre 400 la condiciónactivo→inactivo puede darse cuando valores de la media y/o de la desviación estándar tanto del (de los) sensor(es) de rotación como del acelerómetro quedan por debajo de primeros valores umbrales predeterminados por espacio de un primer periodo de tiempo predeterminado.
[0052] Las transiciones entre estados pueden ser determinadas por una serie de distintas condiciones basadas en las salidas de sensor interpretadas. Los ejemplos de métricas condicionales incluyen la varianza de las señales interpretadas dentro de una ventana de tiempo, el valor umbral entre un valor de referencia y la señal interpretada dentro de una ventana de tiempo, el umbral entre un valor de referencia y la señal interpretada filtrada dentro de una ventana de tiempo y el umbral entre un valor de referencia y la señal interpretada desde un tiempo de puesta en funcionamiento, que pueden usarse para determinar las transiciones entre estados. Todas estas métricas condicionales
o cualquier combinación de las mismas pueden usarse para iniciar transiciones entre estados. Como alternativa, pueden también usarse otras métricas. Según un ejemplo de realización de la presente invención, se da una transición del estado INACTIVO al estado ACTIVO cuando (1) un valor medio de una salida de sensor o de salidas de sensor dentro de una ventana de tiempo es mayor que un umbral predeterminado o que umbrales predeterminados, o (2) una varianza de valores de salida(s) de sensor dentro de una ventana de tiempo es mayor que el umbral predeterminado o que los umbrales predeterminados, o (3) una delta instantánea entre valores de sensor es mayor que un umbral predeterminado.
[0053] El estado INACTIVO le permite al mecanismo de detección de la estacionariedad 608 distinguir entre las pausas breves durante las cuales el dispositivo apuntador en el espacio libre 400 está aún siendo usado, siendo las mismas p. ej. del orden de una décima de segundo, y una transición real para pasar a una condición estable o estacionaria. Esto protege contra que las funciones que son llevadas a cabo durante los estados ESTABLE y ESTACIONARIO, que se describen más adelante, sean llevadas a cabo involuntariamente cuando está siendo usado el dispositivo apuntador en el espacio libre. El dispositivo apuntador en el espacio libre 400 regresará al estado ACTIVO cuando se dé la condicióninactivo→activo, p. ej. si el dispositivo apuntador en el espacio libre 400 empieza a moverse de nuevo de forma tal que las salidas medidas del (de los) sensor(es) de rotación y del acelerómetro exceden del primer umbral antes de haber transcurrido un periodo de tiempo predeterminado en el estado INACTIVO.
[0054] El dispositivo apuntador en el espacio libre 400 pasará al estado ESTABLE o al estado ESTACIONARIO tras haber transcurrido el segundo periodo de tiempo predeterminado. Como se ha mencionado anteriormente, el estado ESTABLE refleja la caracterización del dispositivo apuntador en el espacio libre 400 como la de un dispositivo que está siendo sostenido por una persona pero que prácticamente no está en movimiento, mientras que el estado ESTACIONARIO refleja una caracterización del dispositivo apuntador en el espacio libre como la de un dispositivo que no está siendo sostenido por una persona. Así, un ejemplo de máquina de estado según la presente invención puede dar lugar a una transición al estado ESTABLE tras haber transcurrido el segundo periodo de tiempo predeterminado si está presente un movimiento mínimo asociado a un temblor de la mano, o de lo contrario puede dar lugar a que se pase al estado ESTACIONARIO.
[0055] Los estados ESTABLE y ESTACIONARIO definen espacios de tiempo durante los cuales el dispositivo apuntador en el espacio libre 400 puede llevar a cabo varias funciones. Por ejemplo, puesto que el estado ESTABLE está destinado a reflejar los periodos de tiempo en los cuales el usuario está sosteniendo el dispositivo apuntador en el espacio libre 400 pero no está moviéndolo, el dispositivo puede registrar el movimiento del dispositivo apuntador en el espacio libre 400 cuando el mismo está en el estado ESTABLE p. ej. almacenando salidas del (de los) sensor(es) de rotación y/o del acelerómetro mientras el dispositivo está en este estado. Estas mediciones almacenadas pueden ser usadas para determinar un patrón de temblor asociado a un determinado usuario o a determinados usuarios como se describe más adelante. Análogamente, cuando está en el estado ESTACIONARIO, el dispositivo apuntador en el espacio libre 400 puede tomar lecturas de los sensores de rotación y/o del acelerómetro para usarlas para compensar la desviación como se ha descrito anteriormente.
[0056] Si el dispositivo apuntador en el espacio libre 400 empieza a moverse mientras está en el estado ESTABLE o ESTACIONARIO, esto puede iniciar un regreso al estado ACTIVO. De lo contrario, tras haber sido tomadas las mediciones, el dispositivo puede pasar al estado DURMIENTE. Mientras está en el estado durmiente, el dispositivo puede entrar en un modo de reducción del consumo de energía en el que es reducido el consumo de energía del dispositivo apuntador en el espacio libre y p. ej. también se reduce la tasa de muestreo de los sensores de rotación y/o del acelerómetro. También puede entrarse en el estado DURMIENTE por medio de una orden externa, con lo cual el usuario u otro dispositivo puede ordenarle al dispositivo apuntador en el espacio libre 400 que entre en el estado DURMIENTE.
[0057] Al recibir otra orden, o bien si el dispositivo apuntador en el espacio libre 400 empieza a moverse, el dispositivo puede pasar del estado DURMIENTE al estado DESPIERTO. Al igual como el estado INACTIVO, el estado DESPIERTO proporciona una oportunidad para que el dispositivo confirme que está justificada una transición para pasar al estado ACTIVO, o sea p. ej. que el dispositivo apuntador en el espacio libre 400 no fue empujado involuntariamente.
[0058] Las condiciones para las transiciones entre estados pueden ser simétricas o bien pueden ser distintas. Así, el umbral asociado a la condiciónactivo→inactivo puede ser igual a (o distinto de) el (los) umbral(es) asociado(s) a la condicióninactivo→activo. Esto les permite a los dispositivos apuntadores en el espacio libre según la presente invención capturar con mayor precisión las entradas del usuario. Por ejemplo, ejemplos de realización que incluyen una implementación de máquina de estado permiten, entre otras cosas, que el umbral para pasar a una condición estacionaria sea distinto del umbral para salir de una condición estacionaria.
[0059] El entrar en un estado o el salir de un estado puede usarse para iniciar asimismo otras funciones del dispositivo. Por ejemplo, la interfaz de usuario puede ser conectada sobre la base de un paso de cualquier estado al estado ACTIVO. A la inversa, el dispositivo apuntador en el espacio libre y/o la interfaz de usuario pueden ser desconectados (o entrar en un modo durmiente) cuando el dispositivo apuntador en el espacio libre pasa de un estado ACTIVO o ESTABLE a un estado ESTACIONARIO o INACTIVO. Como alternativa, el cursor 410 puede ser visualizado o eliminado de la pantalla sobre la base de la transición fuera del estado estacionario o de la transición al estado estacionario del dispositivo apuntador en el espacio libre 400.
[0060] Como se ha mencionado anteriormente, ejemplos de realización de la presente invención procesan los datos de movimiento recibidos del (de los) sensor(es) del dispositivo apuntador en el espacio libre para trasladar estos datos del marco de referencia del cuerpo del dispositivo apuntador en el espacio libre a otro marco de referencia, como p. ej. el marco de referencia del usuario. En el ejemplo de aplicación de un dispositivo apuntador en el espacio libre en el que dicho dispositivo se usa para controlar una interfaz de usuario visualizada en una pantalla, tal como p. ej. en un televisor, el marco de referencia del usuario podría ser un sistema de coordenadas asociado a la pantalla de televisión. Independientemente de ello, el traslado de los datos del marco de referencia del cuerpo a otro marco de referencia mejora la usabilidad del dispositivo de mano redundando en un funcionamiento que es desde la perspectiva del usuario en lugar de desde la perspectiva del dispositivo. Así, cuando el usuario mueve su mano de izquierda a derecho enfrente de una unidad de representación visual mientras está sosteniendo el dispositivo apuntador en el espacio libre, el cursor se moverá de izquierda a derecha independientemente de la orientación del dispositivo apuntador en el espacio libre.
[0061] Para simplificar esta exposición se muestra en la Figura 9 un ejemplo de sistema de procesamiento asociado a un dispositivo apuntador en el espacio libre como se ha descrito en mayor detalle anteriormente. Ahí, el sistema de mano detecta el movimiento usando uno o varios sensores 901, tales como p. ej. sensor(es) de rotación, giroscopio(s), acelerómetro(s), magnetómetro(s), sensor(es) óptico(s), cámara(s) o cualquier combinación de los mismos. Los sensores son entonces interpretados en el bloque 902 para producir una valoración del movimiento que se produjo. El bloque de procesamiento 903 transforma entonces el movimiento medido llevándolo del marco de referencia natural (del cuerpo) del dispositivo al marco de referencia del usuario. El movimiento es entonces transformado en 904 en acciones significativas que son interpretadas en el bloque 905 y enviadas al sistema para producir una respuesta significativa, tal como la de mover un cursor de pantalla.
[0062] El bloque 903 convierte el movimiento detectado llevándolo al marco de referencia del usuario en lugar de al marco de referencia del dispositivo. La orientación puede ser representada por muchos y distintos métodos matemáticamente similares que incluyen a los ángulos de Euler, a una matriz de cósenos directores (DCM), o a un cuaternión unidad. La posición es generalmente representada como una desviación con respecto al origen del sistema de coordenadas en unidades consistentes que incluyen, aunque sin carácter limitativo, a los miembros del grupo que consta de metros, centímetros, pies, pulgadas y millas. En un ejemplo de realización anteriormente descrito, un dispositivo apuntador en el espacio libre mide fuerzas inerciales entre las que se incluyen la aceleración y la velocidad de rotación. Estas fuerzas son medidas con respecto al cuerpo del dispositivo por sensores montados en el mismo. A fin de trasladar los datos medidos al marco de referencia del usuario, el dispositivo calcula tanto su posición como su orientación.
[0063] En este ejemplo de realización, se supone que el marco de referencia del usuario es estacionario y tiene una orientación fija, si bien los expertos en la materia comprenderán que esta técnica según la presente invención puede fácilmente extenderse a los casos en los que el marco de referencia del usuario es no estacionario a base de efectuar una transformación directa para pasar al marco de variación temporal o bien pasando primeramente a un marco estacionario y luego pasando al marco móvil. Para el ejemplo del marco de referencia del usuario de orientación fija y estacionario, la conversión para pasar del marco del cuerpo al marco del usuario puede llevarse a cabo mediante el uso de las ecuaciones siguientes:
Pu = Rotar(Pb, Q) + Pdelta
Pu’ = Rotar(Pb’, Q) Pu’’ = Rotar(Pb’’, Q)
Wu = Rotar(Wb, Q)
Wu’ = Rotar(Wb’, Q) donde: Rotar representa al operador de rotación cuaternión de forma tal que Rotar(A, Q) es igual a Q* A Q donde Q* es el conjugado del cuaternión y el vector A es un cuaternión con la componente compleja igual a A y la componente real igual a 0; Pu es la posición en el marco de referencia del usuario; Pb es la posición en el marco de referencia del dispositivo; ‘ representa la derivada. Por consiguiente, Pu’ es la derivada de la posición en el marco de referencia del usuario que es la velocidad en el marco de referencia del usuario; Wu es la velocidad angular del dispositivo en ángulos corporales en el marco de referencia del usuario; Wb es la velocidad angular del dispositivo en ángulos corporales en el marco del cuerpo del dispositivo; Pdelta es la diferencia entre el origen del marco de referencia del usuario y del marco de referencia del cuerpo en el sistema de coordenadas del marco de referencia del usuario; Q es el cuaternión de rotación normalizado que representa la rotación del marco del cuerpo al marco del usuario. Puesto que el cuaternión de rotación para rotar del marco del usuario al marco del cuerpo es Q*, podríamos sustituir Q por R*, donde R es la rotación del marco del usuario al marco del cuerpo. Obsérvese que Q puede representarse en una serie de formas equivalentes entre las que se incluyen los ángulos de Euler y la matriz de cósenos directores (DCM), y que las ecuaciones anteriores pueden variar ligeramente en sus formas equivalentes basadas en distintas representaciones de Q. La Figura 10 ilustra gráficamente la transformación en la que se pasa de un marco de referencia del cuerpo a un marco de referencia del usuario.
[0064] Durante el funcionamiento, el dispositivo calcula Q de una manera dependiente de la implementación para llevar a cabo esta transformación. Un ejemplo de implementación anteriormente descrito supone compensar la inclinación (es decir, las variaciones en el balanceo según el eje x del dispositivo apuntador en el espacio libre sobre la base de la manera cómo el mismo es sostenido por un usuario). La orientación es computada calculando primeramente la componente de aceleración debida a la gravedad en el marco del cuerpo, Ab. Por definición, el vector de aceleración debida a la gravedad en el marco del usuario, Ag, está ajustado a [0, 0, -1]. Puesto que la gravedad no puede calcular la orientación (rotación en torno al eje z), se usa la valoración del marco del cuerpo para la orientación. Por consiguiente, el cuaternión de rotación tiene un eje de rotación en el plano z = 0. El siguiente es uno de varios métodos La posición es entonces computada como la doble integral de la aceleración en el marco del usuario. La aceleración en el marco del usuario es la aceleración del marco del cuerpo rotada al marco del usuario por el Q anteriormente mencionado. Normalmente se supone que el origen es cero cuando el dispositivo es activado por primera vez, pero el origen puede ser reinicializado manual o automáticamente durante el funcionamiento normal.
[0065] En general, cuando el dispositivo no está en movimiento, Pu’, Pu’’, Wu y Wu’’ son todas ellas 0. En este ejemplo de realización se miden Pb’ y Wb. A pesar de que existe un número infinito de rotaciones Q, la rotación mínima puede seleccionarse de entre las del conjunto disponible y puede usarse para calcular Wu sobre la base de Wb. Como alternativa, Q puede computarse usando una supuesta orientación de desviación de partida Qo, integrando Wb en el tiempo como se muestra usando la integral de tiempo discreto que se indica a continuación:
Donde * representa multiplicación y ** representa multiplicación de cuaterniones. Una estabilidad adicional puede ser proporcionada por vectores de campo constante entre los que se incluyen la gravedad y el campo magnético de la tierra, y puede ser combinada con los resultados anteriormente indicados. La combinación puede lograrse usando varios métodos numéricos y de filtración entre los que se incluye, aunque sin carácter limitativo, la filtración de Kalman.
[0066] Podría emplearse una variedad de distintos sensores siempre que los mismos midan el movimiento con respecto al cuerpo del dispositivo. Los ejemplos de sensores incluyen a los miembros del grupo que consta de acelerómetros, sensores de rotación, giroscopios, magnetómetros y cámaras. El marco del usuario no tiene que ser estacionario. Por ejemplo, si se selecciona que el marco de referencia del usuario sea el antebrazo del usuario, el dispositivo respondería entonces tan sólo al movimiento de la muñeca y de los dedos.
[0067] Un experto en la materia reconocerá que la propiedad conmutativa se aplica a las transformaciones del marco de referencia que se describen en esta invención. Por consiguiente, el orden de las operaciones matemáticas puede ser alterado sin afectar materialmente a la invención que aquí se describe. Además, muchos algoritmos de procesamiento del movimiento pueden operar de manera equivalente en cualquier marco de referencia, especialmente cuando se elija que el marco del usuario sea estacionario con una orientación constante.
[0068] Además de proporcionar facilidad de uso, las transformaciones del marco de referencia según este ejemplo de realización de la presente invención pueden también ser usadas para abordar otros retos en las implementaciones de dispositivos de mano. Por ejemplo, si un sensor (tal como un acelerómetro) no está situado exactamente en el centro de rotación en el marco de referencia del cuerpo, la aceleración medida incluirá tanto la aceleración del marco como las componentes de aceleración debidas a la rotación del marco. Por consiguiente, la aceleración medida puede ser primeramente transformada para pasarla a una distinta ubicación diana dentro del marco del cuerpo del dispositivo usando la relación siguiente:
donde R es el vector del acelerómetro a la ubicación diana, ω es la velocidad angular del marco de referencia del cuerpo y ω’ es la aceleración angular del marco de referencia del cuerpo. Si el marco de referencia del cuerpo está
construido de forma tal que está situado a R del acelerómetro, entonces debería tener efectos de aceleración angular cero y puede ser usado más fácilmente para computar el movimiento del dispositivo en el marco del usuario. Esto compensa la desalineación voluntaria o involuntaria entre el acelerómetro y el centro del marco de referencia del cuerpo. Por añadidura, la valoración del vector de gravedad deviene mucho más sencilla puesto que hay menos fuerzas que actúen en el centro de rotación. Entonces,
Ausuario = Rotar(Acuerpo, Q)
donde Q es la rotación en virtud de la que se pasa del marco de referencia del cuerpo al marco de referencia del acelerómetro.
[0069] Desgraciadamente, distintos usuarios tienen distintos valores para R. Por ejemplo, un usuario puede usar el dispositivo de mano girando el codo, mientras que otro puede usar el dispositivo girando la muñeca. Además, las personas tienen muñecas y antebrazos de distintas dimensiones. Para una usabilidad mejorada este ejemplo de realización del dispositivo de mano computa dinámicamente R y desplaza el origen del cuerpo de forma tal que tenga unas mínimas componentes de aceleración debidas al movimiento angular. El ejemplo de realización calcula R definiendo R como [Rx, 0, 0] y resolviendo para Rx usando y minimizando Acuerpo -Rotar[Ag, Q]. Obsérvese que existen muchos métodos numéricos entre los que se incluyen el de los mínimos cuadrados recursivos y el de la filtración de Kalman, que pueden llevar a cabo una minimización para computar Rx.
[0070] Sobre la base de lo expuesto anteriormente, se apreciará que la presente invención describe varias técnicas para transformar el movimiento detectado de un dispositivo de mano para llevarlo de un marco de referencia (como p. ej. un marco de referencia del cuerpo) a otro marco de referencia (como p. ej. el marco de referencia de un usuario). Estas transformaciones pueden ser independientes de otras transformaciones asociadas al uso del dispositivo de mano, como
p. ej. la transformación del movimiento detectado en movimiento de un cursor, o bien pueden ser combinadas con las mismas. Además, las transformaciones según la presente invención pueden ser llevadas a cabo para transformar el movimiento detectado en las tres dimensiones, para movimiento de traslación y movimiento de rotación o cualquier subconjunto de los mismos, desde la perspectiva del lado de entrada de la ecuación de movimiento o del lado de salida. Adicionalmente, puede hacerse de una serie de distintas maneras la selección del marco de referencia al cual se proyecta o transforma el movimiento detectado. Un ejemplo que se da anteriormente presenta al segundo marco de referencia como un marco de referencia del usuario asociado a la inclinación del dispositivo, si bien son posibles muchas otras variaciones. Por ejemplo, el usuario puede seleccionar su marco de referencia deseado, cuyo ajuste puede ser almacenado en el dispositivo de mano como una de las de una pluralidad de preferencias del usuario, y puede ser usado para llevar a cabo la transformación. El segundo marco de referencia puede ser seleccionado sobre la base de toda una serie de técnicas. El segundo marco de referencia puede ser seleccionado sobre la base de una orden explícita (como p. ej. la selección de un botón o interfaz de usuario) o bien automáticamente mediante reconocimiento del usuario determinado por patrones de uso del dispositivo, el temblor y otras biometrías.
[0071] Adicionalmente, a pesar de que algunos de los ejemplos de realización que se han descrito anteriormente operan sobre datos en el dominio de la velocidad, la presente invención no queda limitada a ello. La proyección o transformación según la presente invención puede ser como alternativa o bien adicionalmente llevada a cabo por ejemplo sobre datos de posición o de aceleración, y puede ser para el movimiento de traslación, para el movimiento de rotación, o bien para ambos. Asimismo no es crítico el orden de procesamiento. Por ejemplo, si el dispositivo de mano se usa para dar de salida órdenes gestuales, en primer lugar puede llevarse a cabo la proyección y luego puede determinarse el gesto, o bien puede determinarse en primer lugar el gesto y luego puede llevarse a cabo la proyección.
[0072] Los ejemplos de realización anteriormente descritos pretenden ser ilustrativos a todos los efectos, en lugar de limitativos, de la presente invención. Así, la presente invención es susceptible de ser objeto de muchas variaciones en cuanto a los detalles de implementación que podrán deducirse de la descripción aquí contenida por parte de un experto en la materia. Por ejemplo, a pesar de que los anteriores ejemplos de realización describen, entre otras cosas, el uso de sensores inerciales para detectar el movimiento de un dispositivo, otros tipos de sensores (como p. ej. ultrasónicos, magnéticos u ópticos) pueden ser usados en lugar de los sensores inerciales o bien adicionalmente a los mismos, en conjunción con el procesamiento de señales anteriormente descrito. Se considera que todas las variaciones y modificaciones de este tipo quedan dentro del alcance de la presente invención tal como se la define en las reivindicaciones siguientes. Ningún elemento, acto o instrucción de los que se usan en la descripción de la presente solicitud deberá considerarse como crítico o esencial para la invención a no ser que se le describa explícitamente como tal. Asimismo, en el sentido en el que se le utiliza en la presente, el artículo “un” (o “una”) se considera que incluye una o varias cosas.

Claims (6)

  1. REIVINDICACIONES
    1. Dispositivo apuntador de mano (400) que comprende: un primer sensor de rotación (502) para determinar la rotación de dicho dispositivo apuntador en torno a un
    primer eje y para generar una primera salida rotacional (αy) asociada a la misma;
    un segundo sensor de rotación (504) para determinar la rotación de dicho dispositivo apuntador en torno a un segundo eje y para generar una segunda salida rotacional (αz) asociada a la misma; un acelerómetro triaxial (506) para determinar una aceleración de dicho dispositivo apuntador y dar de salida una salida de aceleración (x, y, z) asociada a la misma; y una unidad de procesamiento (800) para recibir dichas salidas rotacionales primera y segunda y dicha salida de aceleración y para:
    (a) determinar una inclinación (θ) relativa a la gravedad y asociada a una orientación en la cual es sostenido
    dicho dispositivo apuntador de mano, en donde dicha inclinación es determinada sobre la base de la salida de aceleración,
    (b)
    convertir dichas salidas rotacionales primera y segunda para llevarlas de un marco de referencia asociado a dicho dispositivo apuntador de mano a un marco de referencia del usuario a fin de eliminar los efectos de dicha inclinación determinada; y
    (c)
    determinar datos asociados a coordenadas x e y que están a su vez asociadas al movimiento de un cursor de pantalla (410), estando dichos datos basados en dichas salidas rotacionales primera y segunda convertidas, en donde dicho paso de conversión hace que dicho movimiento de dicho cursor de pantalla sea independiente de dicha inclinación.
  2. 2.
    El dispositivo apuntador de mano de la reivindicación 1, en donde dicho marco de referencia del usuario está asociado a una pantalla de televisión.
  3. 3.
    El dispositivo apuntador de mano de la reivindicación 1, en donde dicho paso de conversión comprende adicionalmente el paso de: rotar dichas salidas rotacionales primera y segunda para así trasladarlas a dicho marco de referencia del usuario calculando:
    en donde θ es dicha inclinación determinada, αy es dicha salida rotacional primera y αz es dicha salida rotacional
    segunda.
  4. 4. Método que es para hacer funcionar a un dispositivo apuntador en el espacio libre (400) y comprende los pasos de:
    determinar, usando un acelerómetro triaxial (506), una inclinación θ relativa a la gravedad y asociada a una
    orientación en la que es sostenido dicho dispositivo apuntador en el espacio libre; detectar, usando sensores de rotación primero y segundo (502, 504), el movimiento de rotación (αy, αz) de dicho dispositivo apuntador en el espacio libre en torno a un primer eje y a un segundo eje respectivamente; y transformar dicho movimiento detectado para así llevarlo de un marco de referencia del cuerpo asociado a dicho dispositivo apuntador en el espacio libre a un marco de referencia inercial; en donde la transformación incluye el paso de compensar dicho movimiento rotacional detectado para corregir el movimiento rotacional detectado para dicha inclinación determinada.
  5. 5. El método de la reivindicación 4, en donde dicho paso de compensar dicho movimiento rotacional detectado para corregir para dicha inclinación comprende el paso de: rotar las salidas rotacionales primera y segunda de dichos sensores de rotación primero y segundo para llevarlas a dicho marco de referencia inercial calculando:
    en donde θ es dicha inclinación determinada, αy es dicha primera salida rotacional y αz es dicha segunda salida rotacional.
  6. 6. El método de la reivindicación 4, que comprende además el paso de: aportar como entrada a una interfaz de usuario información asociada a dicho movimiento detectado compensado.
ES05744089T 2004-04-30 2005-05-02 Dispositivos apuntadores en el espacio libre con compensación de inclinación y usabilidad mejorada Active ES2384572T3 (es)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US56644404P 2004-04-30 2004-04-30
US566444P 2004-04-30
US61257104P 2004-09-23 2004-09-23
US612571P 2004-09-23
US64141005P 2005-01-05 2005-01-05
US641410P 2005-01-05
PCT/US2005/015096 WO2005108119A2 (en) 2004-04-30 2005-05-02 Free space pointing devices with tilt compensation and improved usability

Publications (1)

Publication Number Publication Date
ES2384572T3 true ES2384572T3 (es) 2012-07-09

Family

ID=35320764

Family Applications (2)

Application Number Title Priority Date Filing Date
ES05744089T Active ES2384572T3 (es) 2004-04-30 2005-05-02 Dispositivos apuntadores en el espacio libre con compensación de inclinación y usabilidad mejorada
ES10014911.1T Active ES2664472T3 (es) 2004-04-30 2005-05-02 Dispositivos de señalización de espacio libre con compensación de inclinación y facilidad de uso mejorada

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES10014911.1T Active ES2664472T3 (es) 2004-04-30 2005-05-02 Dispositivos de señalización de espacio libre con compensación de inclinación y facilidad de uso mejorada

Country Status (11)

Country Link
US (4) US7158118B2 (es)
EP (1) EP1741088B1 (es)
JP (3) JP5053078B2 (es)
KR (1) KR101192514B1 (es)
AT (1) ATE550709T1 (es)
DE (1) DE202005022038U1 (es)
DK (1) DK2337016T3 (es)
ES (2) ES2384572T3 (es)
IN (1) IN2014DN09404A (es)
PL (1) PL1741088T3 (es)
WO (1) WO2005108119A2 (es)

Families Citing this family (356)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US7780967B2 (en) * 2000-02-08 2010-08-24 Allergan, Inc. Reduced toxicity Clostridial toxin pharmaceutical compositions
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US7033176B2 (en) * 2002-07-17 2006-04-25 Powergrid Fitness, Inc. Motion platform system and method of rotating a motion platform about plural axes
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US10086282B2 (en) * 2002-07-27 2018-10-02 Sony Interactive Entertainment Inc. Tracking device for use in obtaining information for controlling game program execution
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US20060282873A1 (en) * 2002-07-27 2006-12-14 Sony Computer Entertainment Inc. Hand-held controller having detectable elements for tracking purposes
US7782297B2 (en) 2002-07-27 2010-08-24 Sony Computer Entertainment America Inc. Method and apparatus for use in determining an activity level of a user in relation to a system
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US20060256081A1 (en) * 2002-07-27 2006-11-16 Sony Computer Entertainment America Inc. Scheme for detecting and tracking user manipulation of a game controller body
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US7674184B2 (en) 2002-08-01 2010-03-09 Creative Kingdoms, Llc Interactive water attraction and quest game
US7727117B2 (en) * 2002-12-04 2010-06-01 Ialabs-Ca, Llc Method and apparatus for operatively controlling a virtual reality scenario with a physically demanding interface
US7699755B2 (en) * 2002-12-04 2010-04-20 Ialabs-Ca, Llc Isometric exercise system and method of facilitating user exercise during video game play
US20070155589A1 (en) * 2002-12-04 2007-07-05 Philip Feldman Method and Apparatus for Operatively Controlling a Virtual Reality Scenario with an Isometric Exercise System
US20080146336A1 (en) * 2002-12-04 2008-06-19 Philip Feldman Exercise Gaming Device and Method of Facilitating User Exercise During Video Game Play
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
KR100784072B1 (ko) * 2003-09-22 2007-12-10 김형윤 구조물의 건전성 감시용 센서 및 시스템
US7489299B2 (en) 2003-10-23 2009-02-10 Hillcrest Laboratories, Inc. User interface devices and methods employing accelerometers
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7961909B2 (en) 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
US7826641B2 (en) * 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US8451221B2 (en) * 2008-08-11 2013-05-28 Imu Solutions, Inc. Instruction device and communicating method
WO2005109215A2 (en) * 2004-04-30 2005-11-17 Hillcrest Laboratories, Inc. Methods and devices for removing unintentional movement in free space pointing devices
JP4685095B2 (ja) 2004-04-30 2011-05-18 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 微動に基づいてユーザを識別するための方法およびデバイス
ES2384572T3 (es) 2004-04-30 2012-07-09 Hillcrest Laboratories, Inc. Dispositivos apuntadores en el espacio libre con compensación de inclinación y usabilidad mejorada
TWI376520B (en) * 2004-04-30 2012-11-11 Hillcrest Lab Inc Free space pointing devices and methods
US8629836B2 (en) 2004-04-30 2014-01-14 Hillcrest Laboratories, Inc. 3D pointing devices with orientation compensation and improved usability
WO2005119356A2 (en) 2004-05-28 2005-12-15 Erik Jan Banning Interactive direct-pointing system and calibration method
CA2578653A1 (en) 2004-07-29 2006-02-09 Kevin Ferguson A human movement measurement system
US9317108B2 (en) * 2004-11-02 2016-04-19 Pierre A. Touma Hand-held wireless electronic device with accelerometer for interacting with a display
US9900669B2 (en) 2004-11-02 2018-02-20 Pierre Touma Wireless motion sensor system and method
US8137195B2 (en) 2004-11-23 2012-03-20 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
EP1849123A2 (en) * 2005-01-07 2007-10-31 GestureTek, Inc. Optical flow based tilt sensor
US7852317B2 (en) 2005-01-12 2010-12-14 Thinkoptics, Inc. Handheld device for handheld vision based absolute pointing system
US20080174550A1 (en) * 2005-02-24 2008-07-24 Kari Laurila Motion-Input Device For a Computing Terminal and Method of its Operation
US7492367B2 (en) * 2005-03-10 2009-02-17 Motus Corporation Apparatus, system and method for interpreting and reproducing physical motion
JP5553987B2 (ja) * 2005-05-04 2014-07-23 ヒルクレスト・ラボラトリーズ・インコーポレイテッド ユーザインターフェースにおけるスクロールおよびポインティングの方法およびシステム
CN103257684B (zh) 2005-05-17 2017-06-09 高通股份有限公司 方向敏感的信号输出方法及装置
US20060262116A1 (en) * 2005-05-19 2006-11-23 Hillcrest Laboratories, Inc. Global navigation objects in user interfaces
JP4748657B2 (ja) * 2005-06-24 2011-08-17 任天堂株式会社 入力データ処理プログラムおよび入力データ処理装置
US9285897B2 (en) 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
US8313379B2 (en) 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7942745B2 (en) 2005-08-22 2011-05-17 Nintendo Co., Ltd. Game operating device
JP4805633B2 (ja) 2005-08-22 2011-11-02 任天堂株式会社 ゲーム用操作装置
US7927216B2 (en) 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
JP4262726B2 (ja) 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
US8870655B2 (en) 2005-08-24 2014-10-28 Nintendo Co., Ltd. Wireless game controllers
US8308563B2 (en) 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
JP4773170B2 (ja) * 2005-09-14 2011-09-14 任天堂株式会社 ゲームプログラムおよびゲームシステム
US7643850B2 (en) * 2005-10-11 2010-01-05 Sony Ericsson Mobile Communications Ab Cellular communication terminals and methods that sense terminal movement for cursor control
US20070113207A1 (en) * 2005-11-16 2007-05-17 Hillcrest Laboratories, Inc. Methods and systems for gesture classification in 3D pointing devices
KR100630806B1 (ko) * 2005-11-29 2006-10-04 한국전자통신연구원 동작 인식 장치를 이용한 명령 입력 방법
US7616186B2 (en) * 2005-12-09 2009-11-10 Sony Ericsson Mobile Communications Ab Acceleration reference devices, cellular communication terminal systems, and methods that sense terminal movement for cursor control
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
JP4895352B2 (ja) * 2006-02-07 2012-03-14 任天堂株式会社 対象選択プログラム、対象選択装置、対象選択システム、および対象選択方法
JP4202366B2 (ja) * 2006-03-08 2008-12-24 任天堂株式会社 動き判別装置および動き判別プログラム
JP4837405B2 (ja) * 2006-03-09 2011-12-14 任天堂株式会社 座標算出装置および座標算出プログラム
JP4530419B2 (ja) 2006-03-09 2010-08-25 任天堂株式会社 座標算出装置および座標算出プログラム
JP5424373B2 (ja) * 2006-03-09 2014-02-26 任天堂株式会社 画像処理装置、画像処理プログラム、画像処理システム、および画像処理方法
JP4260814B2 (ja) * 2006-03-09 2009-04-30 任天堂株式会社 ゲーム装置およびゲームプログラム
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
JP4330593B2 (ja) * 2006-03-13 2009-09-16 任天堂株式会社 ゲーム装置およびゲームプログラム
JP4547346B2 (ja) * 2006-03-22 2010-09-22 任天堂株式会社 傾き算出装置および傾き算出プログラムならびにゲーム装置およびゲームプログラム
JP4798705B2 (ja) * 2006-03-23 2011-10-19 任天堂株式会社 位置算出装置、位置算出プログラム、ゲーム装置、およびゲームプログラム
JP4684147B2 (ja) * 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
US20070291112A1 (en) * 2006-04-13 2007-12-20 Joseph Harris Remote control having magnetic sensors for determining motions of the remote control in three dimensions that correspond to associated signals that can be transmitted from the remote control
JP4795087B2 (ja) * 2006-04-14 2011-10-19 任天堂株式会社 ゲーム装置およびゲームプログラム
JP4917346B2 (ja) * 2006-05-02 2012-04-18 任天堂株式会社 ゲーム画像処理プログラムおよびゲーム画像処理装置
EP2016479A1 (en) * 2006-05-02 2009-01-21 Koninklijke Philips Electronics N.V. 3d input/navigation device with freeze and resume function
US8210943B1 (en) 2006-05-06 2012-07-03 Sony Computer Entertainment America Llc Target interface
KR100827236B1 (ko) * 2006-05-23 2008-05-07 삼성전자주식회사 포인팅 디바이스, 포인터 이동 방법 및 상기 포인터를디스플레이하는 디스플레이 장치
US8913003B2 (en) * 2006-07-17 2014-12-16 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer using a projection marker system
US20080030466A1 (en) * 2006-08-03 2008-02-07 Leigh Simeon Keates System and method for correcting positioning and triggering errors for aim-and-trigger devices
US8096880B2 (en) * 2006-08-15 2012-01-17 Nintendo Co., Ltd. Systems and methods for reducing jitter associated with a control device
WO2008027321A2 (en) * 2006-08-29 2008-03-06 Hillcrest Laboratories, Inc. Television control, playlist generation and dvr systems and methods
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
JP4979313B2 (ja) * 2006-09-13 2012-07-18 任天堂株式会社 ゲームプログラムおよびゲーム装置
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
GB0620332D0 (en) * 2006-10-13 2006-11-22 Malvern Scient Solutions Ltd Switch arrangement and method for effecting switching
JP5101080B2 (ja) * 2006-10-19 2012-12-19 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム制御方法
JP5131809B2 (ja) * 2006-11-16 2013-01-30 任天堂株式会社 ゲーム装置およびゲームプログラム
US9526995B2 (en) * 2006-11-22 2016-12-27 Sony Interactive Entertainment America Llc Video game recording and playback with visual display of game controller manipulation
US8094129B2 (en) 2006-11-27 2012-01-10 Microsoft Corporation Touch sensing using shadow and reflective modes
US8269746B2 (en) * 2006-11-27 2012-09-18 Microsoft Corporation Communication with a touch screen
US7924272B2 (en) * 2006-11-27 2011-04-12 Microsoft Corporation Infrared sensor integrated in a touch panel
CN101542420A (zh) * 2006-11-27 2009-09-23 皇家飞利浦电子股份有限公司 通过手持式指向设备进行数据处理的3d控制
US8508472B1 (en) 2006-11-28 2013-08-13 James W. Wieder Wearable remote control with a single control button
JP4689585B2 (ja) * 2006-11-29 2011-05-25 任天堂株式会社 情報処理装置および情報処理プログラム
TWI317498B (en) * 2006-12-12 2009-11-21 Ind Tech Res Inst Inertial input apparatus with six-axial detection ability and the opearting method thereof
TWI330802B (en) * 2006-12-13 2010-09-21 Ind Tech Res Inst Inertial sensing method and system
US8141424B2 (en) 2008-09-12 2012-03-27 Invensense, Inc. Low inertia frame for detecting coriolis acceleration
US8250921B2 (en) 2007-07-06 2012-08-28 Invensense, Inc. Integrated motion processing unit (MPU) with MEMS inertial sensing and embedded digital electronics
US8508039B1 (en) 2008-05-08 2013-08-13 Invensense, Inc. Wafer scale chip scale packaging of vertically integrated MEMS sensors with electronics
US8047075B2 (en) 2007-06-21 2011-11-01 Invensense, Inc. Vertically integrated 3-axis MEMS accelerometer with electronics
US20090262074A1 (en) * 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US20090265671A1 (en) * 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US8020441B2 (en) 2008-02-05 2011-09-20 Invensense, Inc. Dual mode sensing for vibratory gyroscope
US7934423B2 (en) 2007-12-10 2011-05-03 Invensense, Inc. Vertically integrated 3-axis MEMS angular accelerometer with integrated electronics
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US8952832B2 (en) 2008-01-18 2015-02-10 Invensense, Inc. Interfacing application programs and motion sensors of a device
US7796872B2 (en) 2007-01-05 2010-09-14 Invensense, Inc. Method and apparatus for producing a sharp image from a handheld device containing a gyroscope
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
JP5127242B2 (ja) 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
TWI330808B (en) * 2007-01-23 2010-09-21 Pixart Imaging Inc Quasi-analog knob controlling method and apparatus using the same
US9486703B2 (en) * 2007-01-31 2016-11-08 Broadcom Corporation Mobile communication device with game application for use in conjunction with a remote mobile communication device and methods for use therewith
JP4918376B2 (ja) * 2007-02-23 2012-04-18 任天堂株式会社 情報処理プログラムおよび情報処理装置
JP5060798B2 (ja) * 2007-02-23 2012-10-31 任天堂株式会社 情報処理プログラムおよび情報処理装置
US7657394B1 (en) * 2007-03-12 2010-02-02 Livermore Software Technology Corporation Direct determination of rigid body motion using data collected from independent accelerometers
JP5420824B2 (ja) * 2007-03-30 2014-02-19 任天堂株式会社 ゲーム装置およびゲームプログラム
US9176598B2 (en) * 2007-05-08 2015-11-03 Thinkoptics, Inc. Free-space multi-dimensional absolute pointer with improved performance
TW200844812A (en) * 2007-05-08 2008-11-16 Ming-Yan Lin Three-demensional mouse appratus
US20080291160A1 (en) * 2007-05-09 2008-11-27 Nintendo Co., Ltd. System and method for recognizing multi-axis gestures based on handheld controller accelerometer outputs
US8100769B2 (en) * 2007-05-09 2012-01-24 Nintendo Co., Ltd. System and method for using accelerometer outputs to control an object rotating on a display
US8147333B2 (en) * 2007-05-09 2012-04-03 Nintendo Co. Ltd. Handheld control device for a processor-controlled system
US8081162B2 (en) * 2007-05-16 2011-12-20 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical navigation device with surface and free space navigation
JP4916390B2 (ja) * 2007-06-20 2012-04-11 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US20100292007A1 (en) * 2007-06-26 2010-11-18 Nintendo Of America Inc. Systems and methods for control device including a movement detector
US7860676B2 (en) * 2007-06-28 2010-12-28 Hillcrest Laboratories, Inc. Real-time dynamic tracking of bias
US8195423B2 (en) * 2007-07-03 2012-06-05 Nxp, B.V. Calibration of an AMR sensor
CN101627281B (zh) * 2007-07-06 2012-12-12 索尼株式会社 输入装置、控制装置、控制***、控制方法和手持装置
US8902155B2 (en) * 2007-07-09 2014-12-02 Sony Corporation Electronic apparatus and control method therefor
US7826999B1 (en) 2007-08-20 2010-11-02 Pni Corporation Magnetic tilt compensated heading compass with adaptive zoffset
US20090055003A1 (en) * 2007-08-22 2009-02-26 Estes-Cox, Inc. Controlling Remote Control Devices
TWI334559B (en) * 2007-08-28 2010-12-11 Ind Tech Res Inst Interactive pointing device
CN101377722B (zh) * 2007-08-31 2011-04-20 财团法人工业技术研究院 具动作互动的空间指向装置
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
CN101632056B (zh) * 2007-09-12 2012-08-22 索尼株式会社 输入装置、控制装置、控制***以及控制方法
US8581845B2 (en) * 2007-09-14 2013-11-12 International Business Machines Corporation Hand activated input device with horizontal control surface
US8077143B2 (en) 2007-09-27 2011-12-13 Microsoft Corporation Motion based display management
JP4964729B2 (ja) 2007-10-01 2012-07-04 任天堂株式会社 画像処理プログラムおよび画像処理装置
JP5116424B2 (ja) * 2007-10-09 2013-01-09 任天堂株式会社 ゲームプログラムおよびゲーム装置
US8359545B2 (en) 2007-10-16 2013-01-22 Hillcrest Laboratories, Inc. Fast and smooth scrolling of user interfaces operating on thin clients
US7973768B2 (en) * 2007-11-16 2011-07-05 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Optical navigation device with consolidated processing for surface and free space navigation
US8150455B2 (en) * 2007-11-27 2012-04-03 Nvidia Corporation Method and system for integrating a computer mouse function in a mobile communication device
JP5131908B2 (ja) * 2007-11-30 2013-01-30 任天堂株式会社 歩数算出プログラム、歩数算出装置、歩数算出システム、および歩数算出方法
US9098122B2 (en) * 2007-12-12 2015-08-04 The Charles Stark Draper Laboratory, Inc. Computer input device with inertial instruments
US8542907B2 (en) * 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
KR20090065040A (ko) * 2007-12-17 2009-06-22 삼성전자주식회사 동작과 터치를 이용한 이중 포인팅 장치 및 방법
TW200929014A (en) * 2007-12-17 2009-07-01 Omni Motion Technology Corp Method that controls a controlled device by detecting movement of a hand-held control device, and the hand-held control device
JP5224832B2 (ja) * 2008-01-21 2013-07-03 任天堂株式会社 情報処理プログラムおよび情報処理装置
US8344998B2 (en) * 2008-02-01 2013-01-01 Wimm Labs, Inc. Gesture-based power management of a wearable portable electronic device with display
US9008995B2 (en) 2008-03-21 2015-04-14 Analog Devices, Inc. Activity detection in MEMS accelerometers
WO2009117687A1 (en) * 2008-03-21 2009-09-24 Analog Device, Inc. System and method for capturing an event in mems inertial sensors
WO2009145854A1 (en) * 2008-04-15 2009-12-03 Hillcrest Laboratories, Inc. Tracking determination based on intensity angular gradient of a wave
JP4626671B2 (ja) * 2008-04-24 2011-02-09 ソニー株式会社 入力装置及び制御システム
GB0808081D0 (en) * 2008-05-02 2008-06-11 In2Games Ltd Bridging ultrasonic position with accelerometer/gyroscope inertial guidance
US7650253B2 (en) * 2008-05-08 2010-01-19 L-3 Communications Corporation Accelerometer and method for error compensation
TWI396967B (zh) * 2008-05-16 2013-05-21 Htc Corp 信號過濾方法及應用其之電子裝置與可讀取記錄媒體
FR2933212B1 (fr) 2008-06-27 2013-07-05 Movea Sa Pointeur a capture de mouvement resolue par fusion de donnees
US20140184509A1 (en) * 2013-01-02 2014-07-03 Movea Sa Hand held pointing device with roll compensation
US8010313B2 (en) * 2008-06-27 2011-08-30 Movea Sa Hand held pointing device with roll compensation
EP2140919B1 (en) * 2008-06-30 2018-09-05 Nintendo Co., Ltd. Orientation calculation apparatus, storage medium having orientation calculation program stored therein, game apparatus, and storage medium having game program stored therein
EP2140915B1 (en) * 2008-06-30 2019-03-06 Nintendo Co., Ltd. Orientation calculation apparatus, storage medium having orientation calculation program stored therein, game apparatus, and storage medium having game program stored therein
EP2140917B1 (en) * 2008-06-30 2018-01-03 Nintendo Co., Ltd. Orientation calculation apparatus and storage medium having orientation calculation program stored therein
EP2140916B1 (en) 2008-06-30 2018-10-31 Nintendo Co., Ltd. Coordinate calculation apparatus and storage medium having coordinate calculation program stored therein
US7925467B2 (en) * 2008-06-30 2011-04-12 Nintendo Co., Ltd. Orientation calculation apparatus, storage medium having orientation calculation program stored therein, game apparatus, and storage medium having game program stored therein
JP5866199B2 (ja) * 2008-07-01 2016-02-17 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 3dポインタマッピング
KR101606834B1 (ko) * 2008-07-10 2016-03-29 삼성전자주식회사 움직임과 사용자의 조작을 이용하는 입력장치 및 이에적용되는 입력방법
JP5005627B2 (ja) * 2008-07-10 2012-08-22 任天堂株式会社 情報処理プログラムおよび情報処理装置
US8342926B2 (en) * 2008-07-13 2013-01-01 Sony Computer Entertainment America Llc Game aim assist
US8159455B2 (en) * 2008-07-18 2012-04-17 Apple Inc. Methods and apparatus for processing combinations of kinematical inputs
TWI400630B (zh) * 2008-08-11 2013-07-01 Imu Solutions Inc 選擇裝置及方法
JP5376874B2 (ja) 2008-09-05 2013-12-25 任天堂株式会社 画像処理プログラムおよび画像処理装置
JP2012503194A (ja) * 2008-09-23 2012-02-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 加速度計からの測定値を処理する方法
TWI459242B (zh) * 2008-10-01 2014-11-01 Imu Solutions Inc 慣性滑鼠與應用於其上之校正方法
US8682606B2 (en) * 2008-10-07 2014-03-25 Qualcomm Incorporated Generating virtual buttons using motion sensors
US9007396B2 (en) 2008-10-09 2015-04-14 Hillcrest Laboratories, Inc. Methods and systems for analyzing parts of an electronic file
US8223121B2 (en) * 2008-10-20 2012-07-17 Sensor Platforms, Inc. Host system and method for determining an attitude of a device undergoing dynamic acceleration
WO2010050736A2 (ko) * 2008-10-28 2010-05-06 실리콤텍 주식회사 격자신호 수신기 및 그것을 포함한 무선 포인팅 시스템
CN102197351A (zh) 2008-10-28 2011-09-21 硅立康通讯科技株式会社 网格信号接收器及具有网格信号接收器的无线指向***
GB0820621D0 (en) 2008-11-12 2008-12-17 Barnardo Christopher J A Remote control wand
KR101185589B1 (ko) * 2008-11-14 2012-09-24 (주)마이크로인피니티 움직임 감지를 통한 사용자 명령 입력 방법 및 디바이스
US20100123659A1 (en) * 2008-11-19 2010-05-20 Microsoft Corporation In-air cursor control
US8970707B2 (en) * 2008-12-17 2015-03-03 Sony Computer Entertainment Inc. Compensating for blooming of a shape in an image
US8761434B2 (en) * 2008-12-17 2014-06-24 Sony Computer Entertainment Inc. Tracking system calibration by reconciling inertial data with computed acceleration of a tracked object in the three-dimensional coordinate system
US8253801B2 (en) * 2008-12-17 2012-08-28 Sony Computer Entertainment Inc. Correcting angle error in a tracking system
JP5218016B2 (ja) 2008-12-18 2013-06-26 セイコーエプソン株式会社 入力装置およびデータ処理システム
JP5251482B2 (ja) * 2008-12-18 2013-07-31 セイコーエプソン株式会社 入力装置およびデータ処理システム
JP4702475B2 (ja) * 2008-12-25 2011-06-15 ソニー株式会社 入力装置、ハンドヘルド装置及び制御方法
US8587519B2 (en) 2009-01-07 2013-11-19 Sensor Platforms, Inc. Rolling gesture detection using a multi-dimensional pointing device
US8515707B2 (en) 2009-01-07 2013-08-20 Sensor Platforms, Inc. System and method for determining an attitude of a device undergoing dynamic acceleration using a Kalman filter
WO2010080793A2 (en) 2009-01-09 2010-07-15 Hillcrest Laboratories, Inc. Zooming and panning widget for internet browsers
JP2010170388A (ja) * 2009-01-23 2010-08-05 Sony Corp 入力装置および方法、情報処理装置および方法、情報処理システム、並びにプログラム
US20100188429A1 (en) * 2009-01-29 2010-07-29 At&T Intellectual Property I, L.P. System and Method to Navigate and Present Image Libraries and Images
US20100188579A1 (en) * 2009-01-29 2010-07-29 At&T Intellectual Property I, L.P. System and Method to Control and Present a Picture-In-Picture (PIP) Window Based on Movement Data
US20100192181A1 (en) * 2009-01-29 2010-07-29 At&T Intellectual Property I, L.P. System and Method to Navigate an Electonic Program Guide (EPG) Display
KR101554958B1 (ko) * 2009-03-06 2015-09-22 삼성전자주식회사 비주얼 코드를 이용한 원격 조작 방법 및 그 방법을 수행하는 장치
EP2228110B1 (en) 2009-03-09 2017-08-30 Nintendo Co., Ltd. Coordinate calculation apparatus and storage medium having coordinate calculation program stored therein
EP2251067B1 (en) * 2009-05-07 2018-01-03 Nintendo Co., Ltd. Storage medium storing information processing program, and information processing apparatus
JP5782431B2 (ja) * 2009-05-27 2015-09-24 オブロング・インダストリーズ・インコーポレーテッド 空間動作システムと共に用いるための空間マルチモード制御デバイス
US9058063B2 (en) * 2009-05-30 2015-06-16 Sony Computer Entertainment Inc. Tracking system calibration using object position and orientation
US20100309121A1 (en) * 2009-06-09 2010-12-09 Kai-Fen Huang Electonic apparatus with deviation correction of cursor position
TW201044226A (en) * 2009-06-10 2010-12-16 Weistech Technology Co Ltd Integrated wired/wireless virtual unit control apparatus and method
KR101607476B1 (ko) 2009-06-12 2016-03-31 삼성전자주식회사 휴대용 단말기에서 모션 인식 장치 및 방법
US9304601B2 (en) * 2009-07-08 2016-04-05 Open Invention Network, Llc System, method, and computer-readable medium for facilitating adaptive technologies
KR101607264B1 (ko) * 2009-07-10 2016-04-11 엘지전자 주식회사 3d 포인팅 디바이스, dtv, dtv의 제어방법 및 dtv 시스템
US9690386B2 (en) 2009-07-14 2017-06-27 Cm Hk Limited Method and apparatus for performing motion recognition using motion sensor fusion, and associated computer program product
US9760186B2 (en) 2010-01-06 2017-09-12 Cm Hk Limited Electronic device for use in motion detection and method for obtaining resultant deviation thereof
US8441438B2 (en) * 2010-01-06 2013-05-14 Cywee Group Limited 3D pointing device and method for compensating movement thereof
US20110050563A1 (en) * 2009-08-31 2011-03-03 Timothy Douglas Skutt Method and system for a motion compensated input device
US8438503B2 (en) 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
KR20110035609A (ko) * 2009-09-30 2011-04-06 삼성전자주식회사 움직임 감지 장치 및 방법
US9199825B2 (en) 2009-10-06 2015-12-01 Leonard Rudy Dueckman Method and an apparatus for controlling a machine using motion based signals and inputs
US20110093890A1 (en) * 2009-10-21 2011-04-21 John Araki User control interface for interactive digital television
US8325136B2 (en) 2009-12-01 2012-12-04 Raytheon Company Computer display pointer device for a display
US8649999B1 (en) * 2009-12-28 2014-02-11 Hillcrest Laboratories, Inc. Methods, devices and systems for determining the zero rate output of a sensor
US8552978B2 (en) 2010-01-06 2013-10-08 Cywee Group Limited 3D pointing device and method for compensating rotations of the 3D pointing device thereof
KR101646953B1 (ko) * 2010-01-12 2016-08-09 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US8810514B2 (en) * 2010-02-12 2014-08-19 Microsoft Corporation Sensor-based pointing device for natural input and interaction
CN101788851A (zh) * 2010-02-22 2010-07-28 中国电信股份有限公司 模拟手柄运动的方法与***
US20110231484A1 (en) * 2010-03-22 2011-09-22 Hillcrest Laboratories, Inc. TV Internet Browser
CN101819475A (zh) * 2010-04-06 2010-09-01 郭小卫 一种指示设备获取指示信息的方法
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US20110252349A1 (en) 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Folders
US8581905B2 (en) * 2010-04-08 2013-11-12 Disney Enterprises, Inc. Interactive three dimensional displays on handheld devices
US8760392B2 (en) * 2010-04-20 2014-06-24 Invensense, Inc. Wireless motion processing sensor systems suitable for mobile and battery operation
US9310887B2 (en) 2010-05-06 2016-04-12 James W. Wieder Handheld and wearable remote-controllers
EP2577427A4 (en) 2010-06-03 2016-01-27 Hillcrest Lab Inc DETERMINATION OF A FORWARD DIRECTION OF A PORTABLE DEVICE
US8966400B2 (en) * 2010-06-07 2015-02-24 Empire Technology Development Llc User movement interpretation in computer generated reality
WO2011163481A2 (en) 2010-06-23 2011-12-29 Hillcrest Laboratories Inc. Television sign on for personalization in a multi-user environment
JP5819965B2 (ja) 2010-08-27 2015-11-24 インテル・コーポレーション システム及び装置
TW201209638A (en) * 2010-08-30 2012-03-01 Rayfalcon Technology Corp Gesture wireless remote control system
KR20130143576A (ko) * 2010-10-01 2013-12-31 힐크레스트 래보래토리스, 인크. 중력 기준계에서의 장치에 부착된 움직임 센서 및 자력계의 측정치를 사용하여 장치의 요각을 추정하는 장치 및 방법
US8957909B2 (en) 2010-10-07 2015-02-17 Sensor Platforms, Inc. System and method for compensating for drift in a display of a user interface state
US8555205B2 (en) * 2010-10-08 2013-10-08 Cywee Group Limited System and method utilized for human and machine interface
US8704766B1 (en) 2010-10-29 2014-04-22 Hillcrest Laboratories, Inc. Apparatusses and methods to supress unintended motion of a pointing device
US8253684B1 (en) * 2010-11-02 2012-08-28 Google Inc. Position and orientation determination for a mobile computing device
US8907892B2 (en) 2010-11-22 2014-12-09 Hillcrest Laboratories, Inc. 3D pointing device with up-down-left-right mode switching and integrated swipe detector
KR101929595B1 (ko) 2010-11-22 2018-12-14 아이디에이치엘 홀딩스, 인크. 상-하-좌-우 모드 스위칭 및 통합형 스윕 검출기를 구비한 3d 포인팅 장치
EP2455841A3 (en) * 2010-11-22 2015-07-15 Samsung Electronics Co., Ltd. Apparatus and method for selecting item using movement of object
US11210674B2 (en) 2010-11-29 2021-12-28 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US10586036B2 (en) 2010-11-29 2020-03-10 Biocatch Ltd. System, device, and method of recovery and resetting of user authentication factor
US10897482B2 (en) 2010-11-29 2021-01-19 Biocatch Ltd. Method, device, and system of back-coloring, forward-coloring, and fraud detection
US10685355B2 (en) 2016-12-04 2020-06-16 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
US20240080339A1 (en) * 2010-11-29 2024-03-07 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US10834590B2 (en) 2010-11-29 2020-11-10 Biocatch Ltd. Method, device, and system of differentiating between a cyber-attacker and a legitimate user
US10949514B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. Device, system, and method of differentiating among users based on detection of hardware components
US10747305B2 (en) 2010-11-29 2020-08-18 Biocatch Ltd. Method, system, and device of authenticating identity of a user of an electronic device
US11223619B2 (en) 2010-11-29 2022-01-11 Biocatch Ltd. Device, system, and method of user authentication based on user-specific characteristics of task performance
US10728761B2 (en) 2010-11-29 2020-07-28 Biocatch Ltd. Method, device, and system of detecting a lie of a user who inputs data
US10970394B2 (en) 2017-11-21 2021-04-06 Biocatch Ltd. System, device, and method of detecting vishing attacks
US10404729B2 (en) 2010-11-29 2019-09-03 Biocatch Ltd. Device, method, and system of generating fraud-alerts for cyber-attacks
US10776476B2 (en) 2010-11-29 2020-09-15 Biocatch Ltd. System, device, and method of visual login
US10298614B2 (en) * 2010-11-29 2019-05-21 Biocatch Ltd. System, device, and method of generating and managing behavioral biometric cookies
US10621585B2 (en) 2010-11-29 2020-04-14 Biocatch Ltd. Contextual mapping of web-pages, and generation of fraud-relatedness score-values
US10917431B2 (en) 2010-11-29 2021-02-09 Biocatch Ltd. System, method, and device of authenticating a user based on selfie image or selfie video
US10069837B2 (en) 2015-07-09 2018-09-04 Biocatch Ltd. Detection of proxy server
US11269977B2 (en) 2010-11-29 2022-03-08 Biocatch Ltd. System, apparatus, and method of collecting and processing data in electronic devices
US10949757B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. System, device, and method of detecting user identity based on motor-control loop model
US20190158535A1 (en) * 2017-11-21 2019-05-23 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US10262324B2 (en) 2010-11-29 2019-04-16 Biocatch Ltd. System, device, and method of differentiating among users based on user-specific page navigation sequence
US10474815B2 (en) 2010-11-29 2019-11-12 Biocatch Ltd. System, device, and method of detecting malicious automatic script and code injection
JP5640716B2 (ja) * 2010-12-15 2014-12-17 ソニー株式会社 情報処理装置及び情報処理システム
JP2012141930A (ja) 2011-01-06 2012-07-26 Sony Corp 情報処理装置、情報処理システム及び情報処理方法
US9030405B2 (en) 2011-02-04 2015-05-12 Invensense, Inc. High fidelity remote controller device for digital living room
WO2012125596A2 (en) 2011-03-12 2012-09-20 Parshionikar Uday Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
FI20115250L (fi) 2011-03-14 2012-09-15 Vti Technologies Oy Osoittamismenetelmä, sitä varten laite ja järjestelmä
KR20120105818A (ko) 2011-03-16 2012-09-26 한국전자통신연구원 이벤트 기반의 정보입력 장치 및 방법
TWI494797B (zh) * 2011-03-28 2015-08-01 Cywee Group Ltd 用於動作感測的電子裝置及取得其結果偏差的方法
CN106959770A (zh) * 2011-03-28 2017-07-18 曦恩体感科技股份有限公司 3d指示装置与补偿3d指示装置的转动的方法
US8884877B2 (en) 2011-04-29 2014-11-11 Movea Pointing device
US8612426B2 (en) * 2011-06-20 2013-12-17 Conifer Research Llc Systems and methods for arranging participant interview clips for ethnographic research
KR101893601B1 (ko) * 2011-07-22 2018-08-31 삼성전자 주식회사 디스플레이장치의 입력장치, 디스플레이 시스템 및 그 제어방법
CN102915171A (zh) * 2011-08-04 2013-02-06 王振兴 移动轨迹产生方法
CN102289305B (zh) * 2011-08-29 2013-12-11 江苏惠通集团有限责任公司 姿态感知设备及其定位方法、鼠标指针的控制方法
FR2980005A1 (fr) 2011-09-09 2013-03-15 Movea Procede de controle d'un curseur par des mesures d'attitude d'un pointeur et pointeur mettant en oeuvre ledit procede
JP5816032B2 (ja) * 2011-09-09 2015-11-17 任天堂株式会社 入力装置、入力処理プログラム、入力処理方法、入力処理システム
US9142182B2 (en) * 2011-10-07 2015-09-22 Lg Electronics Inc. Device and control method thereof
US9007302B1 (en) 2011-11-11 2015-04-14 Benjamin D. Bandt-Horn Device and user interface for visualizing, navigating, and manipulating hierarchically structured information on host electronic devices
US9442517B2 (en) 2011-11-30 2016-09-13 Blackberry Limited Input gestures using device movement
US8994694B2 (en) 2011-11-30 2015-03-31 Blackberry Limited Optical interference based user input device
ITTO20111144A1 (it) * 2011-12-13 2013-06-14 St Microelectronics Srl Sistema e metodo di compensazione dell'orientamento di un dispositivo portatile
US9459276B2 (en) 2012-01-06 2016-10-04 Sensor Platforms, Inc. System and method for device self-calibration
US9316513B2 (en) 2012-01-08 2016-04-19 Sensor Platforms, Inc. System and method for calibrating sensors for different operating environments
US8610663B2 (en) * 2012-02-06 2013-12-17 Lg Electronics Inc. Portable device and method for controlling the same
KR20130092262A (ko) * 2012-02-10 2013-08-20 삼성전자주식회사 방송수신장치 및 이를 이용한 웹페이지 접근 경로 제공방법
US9228842B2 (en) 2012-03-25 2016-01-05 Sensor Platforms, Inc. System and method for determining a uniform external magnetic field
KR101956173B1 (ko) 2012-03-26 2019-03-08 삼성전자주식회사 3차원 위치/방향 추정 시스템의 보정 장치 및 방법
JP5602181B2 (ja) * 2012-04-24 2014-10-08 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
DE202013100255U1 (de) * 2012-06-20 2013-04-12 Samsung Electronics Co. Ltd. Anzeigevorrichtung, Fernbedienungsvorrichtung sowie Bedienungsfunktion derselben
US8913008B2 (en) * 2012-06-22 2014-12-16 Blackberry Limited Image data generation using a handheld electronic device
US9098516B2 (en) * 2012-07-18 2015-08-04 DS Zodiac, Inc. Multi-dimensional file system
US8752761B2 (en) 2012-09-21 2014-06-17 Symbol Technologies, Inc. Locationing using mobile device, camera, and a light source
JP2015535378A (ja) 2012-10-19 2015-12-10 インターフェイズ・コーポレーション 対話型表示システムにおける動き補償
TW201419047A (zh) * 2012-11-14 2014-05-16 Pixart Imaging Inc 手持式電子裝置、其操作方法及其電腦程式產品
US9726498B2 (en) 2012-11-29 2017-08-08 Sensor Platforms, Inc. Combining monitoring sensor measurements and system signals to determine device context
US9733729B2 (en) 2012-12-26 2017-08-15 Movea Method and device for sensing orientation of an object in space in a fixed frame of reference
JP5841958B2 (ja) * 2013-02-22 2016-01-13 セイコーエプソン株式会社 データ処理システム
US9244538B2 (en) * 2013-03-08 2016-01-26 Microsoft Technology Licensing, Llc Using portable electronic devices for user input
US20140281559A1 (en) * 2013-03-15 2014-09-18 Marc Trachtenberg Systems and Methods for Distributing, Displaying, Viewing, and Controlling Digital Art and Imaging
US20170039867A1 (en) 2013-03-15 2017-02-09 Study Social, Inc. Mobile video presentation, digital compositing, and streaming techniques implemented via a computer network
WO2014179449A1 (en) * 2013-05-01 2014-11-06 Hillcrest Laboratories, Inc. Mapped variable smoothing evolution method and device
US9482554B2 (en) * 2013-05-02 2016-11-01 Hillcrest Laboratories, Inc. Gyroscope stabilizer filter
US20140340300A1 (en) * 2013-05-17 2014-11-20 Rolocule Games Private Limited System and method for using handheld device as wireless controller
US20180046265A1 (en) * 2013-06-06 2018-02-15 Idhl Holdings, Inc. Latency Masking Systems and Methods
JP2015049822A (ja) * 2013-09-04 2015-03-16 ソニー株式会社 表示制御装置、表示制御方法、表示制御信号生成装置、表示制御信号生成方法、プログラム、および表示制御システム
CN110687969B (zh) 2013-10-30 2023-05-02 苹果公司 显示相关的用户界面对象
USD751072S1 (en) 2014-02-18 2016-03-08 Merge Labs, Inc. Mobile head mounted display
CA3027407A1 (en) 2014-02-18 2015-08-27 Merge Labs, Inc. Head mounted display goggles for use with mobile computing devices
CN103822645B (zh) * 2014-03-03 2016-08-17 上海电力学院 一种角度融合算法验证校正方法
WO2015153890A1 (en) 2014-04-02 2015-10-08 Hillcrest Laboratories, Inc. Systems and methods for touch screens associated with a display
JP6333075B2 (ja) * 2014-06-04 2018-05-30 株式会社トプコン 測量装置
JP2014241161A (ja) * 2014-08-28 2014-12-25 セイコーエプソン株式会社 入力装置およびデータ処理システム
CN105808182B (zh) 2015-01-15 2019-09-17 财团法人工业技术研究院 显示控制方法及***、广告破口判断装置、影音处理装置
US9977565B2 (en) 2015-02-09 2018-05-22 Leapfrog Enterprises, Inc. Interactive educational system with light emitting controller
USD755789S1 (en) 2015-02-20 2016-05-10 Merge Labs, Inc. Mobile head mounted display
USD760701S1 (en) 2015-02-20 2016-07-05 Merge Labs, Inc. Mobile head mounted display controller
FR3035718B1 (fr) * 2015-04-28 2017-05-26 Centre Nat Detudes Spatiales Cnes Procede de controle d'un dispositif de calcul via un element mobile et systeme de controle mettant en oeuvre ce procede
GB2539705B (en) 2015-06-25 2017-10-25 Aimbrain Solutions Ltd Conditional behavioural biometrics
EP3726385B1 (en) 2015-11-02 2022-04-20 Apple Inc. Restoring virtual network function (vnf) performance via vnf reset of lifecycle management
CN105371846B (zh) * 2015-11-13 2018-01-05 广州周立功单片机科技有限公司 载体姿态检测方法及其***
US10429935B2 (en) * 2016-02-08 2019-10-01 Comcast Cable Communications, Llc Tremor correction for gesture recognition
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
US10325462B2 (en) * 2016-06-03 2019-06-18 Arwin Technology Limited Wireless motion monitoring system and method thereof
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
GB2552032B (en) 2016-07-08 2019-05-22 Aimbrain Solutions Ltd Step-up authentication
CN106197376B (zh) * 2016-09-23 2018-08-07 华南农业大学 基于单轴mems惯性传感器的车身倾角测量方法
US10579784B2 (en) 2016-11-02 2020-03-03 Biocatch Ltd. System, device, and method of secure utilization of fingerprints for user authentication
US11099031B2 (en) 2016-12-19 2021-08-24 Idhl Holdings, Inc. Methods and apparatus for determining the zero rate output of a sensor using a learning algorithm
US10013081B1 (en) * 2017-04-04 2018-07-03 Google Llc Electronic circuit and method to account for strain gauge variation
US10635255B2 (en) 2017-04-18 2020-04-28 Google Llc Electronic device response to force-sensitive interface
US10397262B2 (en) 2017-07-20 2019-08-27 Biocatch Ltd. Device, system, and method of detecting overlay malware
FR3073622B1 (fr) * 2017-11-13 2021-06-25 Sas Joyeuse Procede de commande d'un objet portable et objet portable controle par un tel procede
US10555781B2 (en) * 2017-11-15 2020-02-11 Stryker Corporation High bandwidth and low latency hybrid communication techniques for a navigation system
US10701431B2 (en) * 2017-11-16 2020-06-30 Adobe Inc. Handheld controller gestures for virtual reality video playback
JP7191128B2 (ja) 2018-02-28 2022-12-16 シーバ・テクノロジーズ・インコーポレイテッド 平面磁力計キャリブレーション、方位決定、ジャイロスコープ支援磁力計振幅キャリブレーション、磁力計振幅およびアライメントキャリブレーション、磁力計マッピング、ならびにセンサ融合のための方法および装置
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
US11024262B2 (en) 2019-06-07 2021-06-01 Samsung Electronics Co., Ltd. Method for compensating for screen movement of display and electronic device for supporting the same
WO2020264507A1 (en) 2019-06-28 2020-12-30 Ceva Technologies, Inc. Methods, apparatus and systems using motion of various input devices for controlling consumer devices
CN110444149A (zh) * 2019-08-13 2019-11-12 四川长虹电器股份有限公司 Led屏幕与无线高亮显示控制器的联动***及其联动方法
DE102020205943B3 (de) * 2020-05-12 2021-05-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Verarbeiten der Sensorsignale einer Drehratensensoranordnung, Vorrichtung und Verfahren zum Betreiben der Vorrichtung
KR102349107B1 (ko) * 2020-07-20 2022-01-07 현대오토에버 주식회사 오토사 플랫폼에서 러너블 실행을 관리하는 방법
EP4002064A1 (en) * 2020-11-18 2022-05-25 XRSpace CO., LTD. Method and system for showing a cursor for user interaction on a display device
US11606353B2 (en) 2021-07-22 2023-03-14 Biocatch Ltd. System, device, and method of generating and utilizing one-time passwords

Family Cites Families (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3474241A (en) * 1966-10-06 1969-10-21 Jack Kuipers Coordinate transformer
US3660648A (en) * 1969-10-15 1972-05-02 Northrop Corp Angular rate coordinate transformer
US4038876A (en) * 1976-03-04 1977-08-02 Systron Donner Corporation Acceleration error compensated attitude sensing and control apparatus and method
NL7905061A (nl) * 1979-06-29 1980-12-31 Hollandse Signaalapparaten Bv Werkwijze en inrichting voor het automatisch meten van richtfouten en het verbeteren van richtwaarden bij het schieten en richten van ballistische wapens tegen bewegende doelen.
DE3103467A1 (de) * 1981-02-02 1982-08-26 Teldix Gmbh, 6900 Heidelberg Kurskreisel
GB8301653D0 (en) * 1983-01-21 1989-07-05 Secr Defence Improvements in or relating to gun laying
US4578674A (en) * 1983-04-20 1986-03-25 International Business Machines Corporation Method and apparatus for wireless cursor position control
JPS60143330A (ja) * 1983-12-29 1985-07-29 Matsushita Electric Ind Co Ltd 撮影装置
US4787051A (en) * 1986-05-16 1988-11-22 Tektronix, Inc. Inertial mouse system
US5369889A (en) * 1986-07-07 1994-12-06 Honeywell Inc. Single gyro northfinder
US4839838A (en) * 1987-03-30 1989-06-13 Labiche Mitchell Spatial input apparatus
RU2125853C1 (ru) 1987-04-29 1999-02-10 Др.Хельмут Хуберти Устройство для контроля нагрузки на части тела
US5045843B1 (en) * 1988-12-06 1996-07-16 Selectech Ltd Optical pointing device
US5327161A (en) * 1989-08-09 1994-07-05 Microtouch Systems, Inc. System and method for emulating a mouse input device with a touchpad input device
JP2881881B2 (ja) 1989-12-22 1999-04-12 日新電機株式会社 電子シャワー
JP2612949B2 (ja) 1990-02-01 1997-05-21 信越化学工業株式会社 光ファイバプリフォーム母材の製造方法
JP2867564B2 (ja) 1990-03-13 1999-03-08 オムロン株式会社 印刷装置
US5440326A (en) * 1990-03-21 1995-08-08 Gyration, Inc. Gyroscopic pointer
JPH03273531A (ja) 1990-03-23 1991-12-04 Seiko Epson Corp レンズアクチュエータ
US5138154A (en) * 1990-04-04 1992-08-11 Gyration Inc. Shaft angle encoder with rotating off-axis interference pattern
US5128671A (en) 1990-04-12 1992-07-07 Ltv Aerospace And Defense Company Control device having multiple degrees of freedom
US5396265A (en) * 1990-09-17 1995-03-07 Massachusetts Institute Of Technology Three-dimensional tactile computer input device
US5181181A (en) * 1990-09-27 1993-01-19 Triton Technologies, Inc. Computer apparatus input device for three-dimensional information
US5329276A (en) * 1990-12-19 1994-07-12 Kabushiki Kaisha Yaskawa Denki Multidimensional signal input device
US6069594A (en) * 1991-07-29 2000-05-30 Logitech, Inc. Computer input device with multiple switches using single line
EP0606388A4 (en) * 1991-10-04 1994-12-07 Micromed Systems Inc POCKET INPUT DEVICE AND METHOD FOR COMPUTERS.
US5459489A (en) * 1991-12-05 1995-10-17 Tv Interactive Data Corporation Hand held electronic remote control device
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
JPH0644005A (ja) * 1992-01-24 1994-02-18 Seiko Instr Inc 座標入力装置
US5280744A (en) * 1992-01-27 1994-01-25 Alliedsignal Inc. Method for aiming towed field artillery pieces
US5359348A (en) * 1992-05-21 1994-10-25 Selectech, Ltd. Pointing device having improved automatic gain control and information reporting
US5543591A (en) 1992-06-08 1996-08-06 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5481957A (en) * 1992-07-06 1996-01-09 Alliedsignal Inc. Aiming and pointing system for ground based weapons equipment
US5296871A (en) * 1992-07-27 1994-03-22 Paley W Bradford Three-dimensional mouse with tactile feedback
US5453758A (en) 1992-07-31 1995-09-26 Sony Corporation Input apparatus
US7098891B1 (en) 1992-09-18 2006-08-29 Pryor Timothy R Method for providing human input to a computer
US5430435A (en) * 1992-11-13 1995-07-04 Rhys Resources Adjustable athletic training system
NL9300171A (nl) 1993-01-28 1994-08-16 Josephus Godefridus Wilhelmus Computer-Muis gebaseerd op een daarin aangebracht stelsel van versnelling-opnemers.
JPH07284166A (ja) * 1993-03-12 1995-10-27 Mitsubishi Electric Corp 遠隔操作装置
US5822713A (en) * 1993-04-05 1998-10-13 Contraves Usa Guided fire control system
JPH0728591A (ja) * 1993-05-13 1995-01-31 Toshiba Corp 空間操作マウスシステム及び空間動作パターン入力方法
US5598187A (en) * 1993-05-13 1997-01-28 Kabushiki Kaisha Toshiba Spatial motion pattern input system and input method
US5373857A (en) * 1993-06-18 1994-12-20 Forte Technologies, Inc. Head tracking apparatus
US5484355A (en) 1993-10-01 1996-01-16 Smith & Nephew Roylan, Inc. System for therapeutic exercise and evaluation
JP2901476B2 (ja) 1993-12-27 1999-06-07 アルプス電気株式会社 位置検出装置および位置検出方法
GB2316482B (en) 1993-11-25 1998-07-01 Alps Electric Co Ltd Inclination detection apparatus and input apparatus
TW256900B (es) 1993-11-25 1995-09-11 Alps Electric Co Ltd
US5574479A (en) * 1994-01-07 1996-11-12 Selectech, Ltd. Optical system for determining the roll orientation of a remote unit relative to a base unit
US5615132A (en) * 1994-01-21 1997-03-25 Crossbow Technology, Inc. Method and apparatus for determining position and orientation of a moveable object using accelerometers
JP3406046B2 (ja) * 1994-03-03 2003-05-12 オリンパス光学工業株式会社 ブレ補正可能なカメラ
US5573011A (en) * 1994-04-08 1996-11-12 Felsing; Gary W. System for quantifying neurological function
GB2289756B (en) * 1994-05-26 1998-11-11 Alps Electric Co Ltd Space coordinates detecting device and input apparatus using same
US5645077A (en) * 1994-06-16 1997-07-08 Massachusetts Institute Of Technology Inertial orientation tracker apparatus having automatic drift compensation for tracking human head and other similarly sized body
WO1996010185A1 (fr) 1994-06-27 1996-04-04 Sergei Feodosievich Konovalov Accelerometre a compensation
US5572221A (en) 1994-10-26 1996-11-05 Telefonaktiebolaget Lm Ericsson Method and apparatus for detecting and predicting motion of mobile terminals
GB2319374B (en) 1994-11-30 1998-07-01 Alps Electric Co Ltd Remote coordinate designating device
US5835077A (en) * 1995-01-13 1998-11-10 Remec, Inc., Computer control device
US5757360A (en) * 1995-05-03 1998-05-26 Mitsubishi Electric Information Technology Center America, Inc. Hand held computer control device
JP3517482B2 (ja) 1995-06-08 2004-04-12 キヤノン株式会社 座標検出装置及び方法
US6002394A (en) * 1995-10-02 1999-12-14 Starsight Telecast, Inc. Systems and methods for linking television viewers with advertisers and broadcasters
US6049823A (en) * 1995-10-04 2000-04-11 Hwang; Ivan Chung-Shung Multi server, interactive, video-on-demand television system utilizing a direct-access-on-demand workgroup
GB2307133A (en) 1995-11-13 1997-05-14 Secr Defence Video camera image stabilisation system
US6100874A (en) 1995-11-17 2000-08-08 Immersion Corporation Force feedback mouse interface
US5892501A (en) 1996-01-17 1999-04-06 Lg Electronics Inc, Three dimensional wireless pointing device
US5867146A (en) 1996-01-17 1999-02-02 Lg Electronics Inc. Three dimensional wireless pointing device
US5703623A (en) * 1996-01-24 1997-12-30 Hall; Malcolm G. Smart orientation sensing circuit for remote control
US5698784A (en) * 1996-01-24 1997-12-16 Gyration, Inc. Vibratory rate gyroscope and methods of assembly and operation
US6164808A (en) * 1996-02-09 2000-12-26 Murata Mfg. Co., Ltd. Three-dimensional data input device
US5825350A (en) * 1996-03-13 1998-10-20 Gyration, Inc. Electronic pointing apparatus and method
JPH09282085A (ja) * 1996-04-15 1997-10-31 Mitsumi Electric Co Ltd 位置情報入力装置
US5835156A (en) * 1996-08-14 1998-11-10 Samsung Electroncis, Ltd. Television graphical user interface employing remote random access pointing device
US6016144A (en) * 1996-08-14 2000-01-18 Samsung Electronics Co., Ltd. Multi-layered television graphical user interface
US5955988A (en) * 1996-08-14 1999-09-21 Samsung Electronics Co., Ltd. Graphical user interface for establishing installation location for satellite based television system
US6115028A (en) * 1996-08-22 2000-09-05 Silicon Graphics, Inc. Three dimensional input system using tilt
US5745226A (en) * 1996-11-04 1998-04-28 Litton Systems, Inc. Passive optical velocity measurement device and method
US5883619A (en) 1996-11-12 1999-03-16 Primax Electronics Ltd. Computer mouse for scrolling a view of an image
US5796354A (en) 1997-02-07 1998-08-18 Reality Quest Corp. Hand-attachable controller with direction sensing
GB2325537B8 (en) 1997-03-31 2000-01-31 Microsoft Corp Query-based electronic program guide
JP3710603B2 (ja) * 1997-07-25 2005-10-26 株式会社リコー ペン型入力装置
JP3748483B2 (ja) * 1997-09-12 2006-02-22 株式会社リコー 姿勢入力装置、姿勢入力機能を備えるペン型入力装置及びそのペン型入力装置を有するペン型入力システム
US5912612A (en) * 1997-10-14 1999-06-15 Devolpi; Dean R. Multi-speed multi-direction analog pointing device
EP0919906B1 (en) 1997-11-27 2005-05-25 Matsushita Electric Industrial Co., Ltd. Control method
US6181329B1 (en) * 1997-12-23 2001-01-30 Ricoh Company, Ltd. Method and apparatus for tracking a hand-held writing instrument with multiple sensors that are calibrated by placing the writing instrument in predetermined positions with respect to the writing surface
EP1002559B8 (en) 1998-05-13 2006-04-26 Sega Corporation Gun-shaped controller
DE59901485D1 (de) 1998-08-10 2002-06-27 Deutsch Zentr Luft & Raumfahrt Anordnung zum Auslösen von technischen Steueroperationen und/oder zum Auslösen der Ausführung von technischen Funktionen
JP2000056897A (ja) * 1998-08-11 2000-02-25 Toshiba Corp コンピュータシステム
US6369794B1 (en) * 1998-09-09 2002-04-09 Matsushita Electric Industrial Co., Ltd. Operation indication outputting device for giving operation indication according to type of user's action
JP2000270237A (ja) 1999-03-15 2000-09-29 Nippon Hoso Kyokai <Nhk> 画像表示装置用選択装置
JP2000308756A (ja) 1999-04-27 2000-11-07 Taito Corp ゲーム装置の入力制御装置
US6473713B1 (en) 1999-09-20 2002-10-29 American Gnc Corporation Processing method for motion measurement
US6753849B1 (en) * 1999-10-27 2004-06-22 Ken Curran & Associates Universal remote TV mouse
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
JP2001175412A (ja) 1999-12-15 2001-06-29 Shigekazu Koshiba 多軸一体型加速度検出器による電子機器用リモートコントロール装置
US7500917B2 (en) 2000-02-22 2009-03-10 Creative Kingdoms, Llc Magical wand and interactive play experience
US20030159051A1 (en) * 2000-03-27 2003-08-21 Wilhelm Hollnagel Method for generating electronic signatures
JP2002011250A (ja) 2000-04-25 2002-01-15 Nintendo Co Ltd ゲームシステムおよび携帯ゲーム機
DE10029173A1 (de) 2000-06-19 2002-01-03 Deutsch Zentr Luft & Raumfahrt Verfahren und Anordnung zum Kommandieren von Steuerungsoperationen für kinematische Bewegungen eines Objekts unter Verwendung eines von Hand betätigbaren Eingabegerätes
JP4043702B2 (ja) * 2000-08-16 2008-02-06 日本放送協会 表示画面指示装置
JP2002091692A (ja) 2000-09-12 2002-03-29 Seiko Instruments Inc ポインティングシステム
US6757446B1 (en) * 2000-11-27 2004-06-29 Microsoft Corporation System and process for image-based relativistic rendering
JP2002312117A (ja) * 2001-04-17 2002-10-25 Japan Aviation Electronics Industry Ltd 円筒映像球面映像コントロール装置
US6929548B2 (en) 2002-04-23 2005-08-16 Xiaoling Wang Apparatus and a method for more realistic shooting video games on computers or similar devices
US6650313B2 (en) 2001-04-26 2003-11-18 International Business Machines Corporation Method and adapter for performing assistive motion data processing and/or button data processing external to a computer
US6847351B2 (en) * 2001-08-13 2005-01-25 Siemens Information And Communication Mobile, Llc Tilt-based pointing for hand-held devices
US6770863B2 (en) 2001-10-26 2004-08-03 Agilent Technologies, Inc. Apparatus and method for three-dimensional relative movement sensing
US6687390B2 (en) 2001-12-04 2004-02-03 Applied Neural Conputing Ltd. System for and method of web signature recognition system based on object map
US20030107551A1 (en) * 2001-12-10 2003-06-12 Dunker Garrett Storm Tilt input device
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US6982697B2 (en) 2002-02-07 2006-01-03 Microsoft Corporation System and process for selecting objects in a ubiquitous computing environment
DE10219198A1 (de) 2002-04-29 2003-11-06 Univ Leipzig Gerät zur Steuerung einer logischen Markierung auf einer Anzeige
JP2004062774A (ja) 2002-07-31 2004-02-26 Sharp Corp プレゼンテーション用表示装置
US6984208B2 (en) 2002-08-01 2006-01-10 The Hong Kong Polytechnic University Method and apparatus for sensing body gesture, posture and movement
JP2004086511A (ja) * 2002-08-27 2004-03-18 Innotech Corp 電子機器およびポインタ移動方法
JP2004126756A (ja) * 2002-09-30 2004-04-22 Pentel Corp 座標入力装置の補正値設定方法
US20040095317A1 (en) * 2002-11-20 2004-05-20 Jingxi Zhang Method and apparatus of universal remote pointing control for home entertainment system and computer
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US20050008148A1 (en) * 2003-04-02 2005-01-13 Dov Jacobson Mouse performance identification
US20040268393A1 (en) 2003-05-08 2004-12-30 Hunleth Frank A. Control framework with a zoomable graphical user interface for organizing, selecting and launching media items
US20040229693A1 (en) 2003-05-13 2004-11-18 Clifton Lind Multiple video display gaming machine and gaming system
US7038661B2 (en) * 2003-06-13 2006-05-02 Microsoft Corporation Pointing device and cursor for use in intelligent computing environments
US7489299B2 (en) * 2003-10-23 2009-02-10 Hillcrest Laboratories, Inc. User interface devices and methods employing accelerometers
US6998966B2 (en) * 2003-11-26 2006-02-14 Nokia Corporation Mobile communication device having a functional cover for controlling sound applications by motion
US7301529B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US7173604B2 (en) 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
JP4685095B2 (ja) * 2004-04-30 2011-05-18 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 微動に基づいてユーザを識別するための方法およびデバイス
ES2384572T3 (es) * 2004-04-30 2012-07-09 Hillcrest Laboratories, Inc. Dispositivos apuntadores en el espacio libre con compensación de inclinación y usabilidad mejorada
WO2005109215A2 (en) * 2004-04-30 2005-11-17 Hillcrest Laboratories, Inc. Methods and devices for removing unintentional movement in free space pointing devices
TWI376520B (en) * 2004-04-30 2012-11-11 Hillcrest Lab Inc Free space pointing devices and methods
JP2006113019A (ja) 2004-10-18 2006-04-27 Alps Electric Co Ltd 3軸型電子コンパス及びこれを用いた方位検出方法
US7683883B2 (en) * 2004-11-02 2010-03-23 Pierre Touma 3D mouse and game controller based on spherical coordinates system and system for use
US20060262116A1 (en) 2005-05-19 2006-11-23 Hillcrest Laboratories, Inc. Global navigation objects in user interfaces
WO2007005932A2 (en) 2005-07-01 2007-01-11 Hillcrest Laboratories, Inc. 3d pointing devices
CN100565438C (zh) 2005-07-11 2009-12-02 皇家飞利浦电子股份有限公司 控制在命令区域上控制点位置的方法和***
US7188045B1 (en) 2006-03-09 2007-03-06 Dean A. Cirielli Three-dimensional position and motion telemetry input
US7353134B2 (en) 2006-03-09 2008-04-01 Dean A. Cirielli Three-dimensional position and motion telemetry input
TWI317498B (en) 2006-12-12 2009-11-21 Ind Tech Res Inst Inertial input apparatus with six-axial detection ability and the opearting method thereof

Also Published As

Publication number Publication date
JP6026483B2 (ja) 2016-11-16
IN2014DN09404A (es) 2015-07-17
JP2012190479A (ja) 2012-10-04
US7414611B2 (en) 2008-08-19
US8072424B2 (en) 2011-12-06
US7262760B2 (en) 2007-08-28
US20070257885A1 (en) 2007-11-08
KR20100096257A (ko) 2010-09-01
DE202005022038U1 (de) 2012-07-12
US20080291163A1 (en) 2008-11-27
JP5670384B2 (ja) 2015-02-18
EP1741088A4 (en) 2008-04-09
US7158118B2 (en) 2007-01-02
EP1741088A2 (en) 2007-01-10
WO2005108119A3 (en) 2006-06-29
JP2007535776A (ja) 2007-12-06
US20070091068A1 (en) 2007-04-26
PL1741088T3 (pl) 2012-08-31
JP2015015058A (ja) 2015-01-22
JP5053078B2 (ja) 2012-10-17
WO2005108119A2 (en) 2005-11-17
KR101192514B1 (ko) 2012-10-17
DK2337016T3 (en) 2018-04-23
US20050243062A1 (en) 2005-11-03
ATE550709T1 (de) 2012-04-15
EP1741088B1 (en) 2012-03-21
ES2664472T3 (es) 2018-04-19

Similar Documents

Publication Publication Date Title
ES2384572T3 (es) Dispositivos apuntadores en el espacio libre con compensación de inclinación y usabilidad mejorada
US10782792B2 (en) 3D pointing devices with orientation compensation and improved usability
EP2337016B1 (en) Free space pointing devices with tilt compensation and improved usability
US7489299B2 (en) User interface devices and methods employing accelerometers
US10120463B2 (en) Determining forward pointing direction of a handheld device
JP2007535776A5 (es)
KR20070017400A (ko) 틸트 보상과 향상된 사용성을 갖는 3d 포인팅 장치