MX2010012263A - Sistema de entrada interactivo con marco optico. - Google Patents

Sistema de entrada interactivo con marco optico.

Info

Publication number
MX2010012263A
MX2010012263A MX2010012263A MX2010012263A MX2010012263A MX 2010012263 A MX2010012263 A MX 2010012263A MX 2010012263 A MX2010012263 A MX 2010012263A MX 2010012263 A MX2010012263 A MX 2010012263A MX 2010012263 A MX2010012263 A MX 2010012263A
Authority
MX
Mexico
Prior art keywords
frame
interactive
image
bands
indicator
Prior art date
Application number
MX2010012263A
Other languages
English (en)
Inventor
Jeremy Hansen
Trevor R Wellingon
Mark Slevinsky
Original Assignee
Smart Technologies Ulc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smart Technologies Ulc filed Critical Smart Technologies Ulc
Publication of MX2010012263A publication Critical patent/MX2010012263A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Image Input (AREA)

Abstract

Se describe un sistema de entrada interactivo (20) que comprende un marco (40 a 44) que rodea por lo menos parcialmente una región de interés. El marco tiene una pluralidad de bandas (102, 104) sobre el mismo con por lo menos algunas bandas adyacentes que tienen diversas propiedades ópticas. Por lo menos un dispositivo de formación de imagen (60) que se dirige a la región de interés y observa por lo menos un marco para que las imágenes adquiridas comprendan las regiones que corresponden a las bandas. La estructura de procesamiento (26) procesa los pixeles de una pluralidad de regiones para detectar la existencia de un indicador en la región de interés.

Description

ISTEMA DE ENTRADA INTERACTIVO CON MARCO OP po de la Invención La presente invención se refiere a un sistema de ractivo y por consiguiente a un marco. ecedentes de la Invención Son bien conocidos los sistemas de entrada interacti miten que los usuarios ingresen la entrada a un prog icación usando un indicador activo (por ejemplo, un i emite luz, sonido u otra señal), un indicador pas mplo, el dedo, cilindro u otro objeto) u otro dispos rada conveniente tal como, por ejemplo, un ratón o uimiento. Estos sistemas de entrada interactivos incluy se limitan a: sistemas táctiles que comprenden paneles to que utilizan la tecnología de resistencia análoga ctrónica para registrar la entrada de indicador tal c critos en las Patentes Estadounidenses Nos. 5, indicador; computadoras personales (PC, por sus si 1 é s ) de tipo tablilla; PCs portátiles; agenda electrónic sus siglas en inglés); y otros dispositivos similares.
La Patente Estadounidense No. 6,803,906 de Mo aboradores describe un sistema táctil que utiliza ctrónica para detectar la interacción del indicador erficie táctil en donde se presenta una imagen gener putadora. Un marco o armazón rectangular rodea la s til y soporta las cámaras digitales en sus esquin aras digitales tienen campos visuales traslapad prenden y observan generalmente a través de la s til. Las cámaras digitales adquieren las imágen ervan a través de la superficie táctil desde diferentes vista y generan los datos de imagen. Los datos de uiridos por las cámaras digitales son procesados cesadores de señal digital integrados para determin icador existe en los datos de imagen capturados. Cu putadora utiliza las coordenadas de indicador para ac imagen generada en computadora que se presenta erficie táctil. Los contactos del indicador en la superfic pueden, por lo tanto, registrar como escritura o d izar para controlar la ejecución de los programas de ap cutados por computadora.
La Publicación de Solicitud de Patente Estadounide 4/0179001 de Morrison y colaboradores describe un til y un método que distingue entre los indicadores dos para entrar en contacto con una superficie táctil p datos de posición de indicador generados en respues tacto del indicador con la superficie táctil se puedan p acuerdo con el tipo de indicador usado para entrar en la superficie táctil. El sistema táctil comprende una su til que se pondrá en contacto con un indicador pasivo nos un dispositivo de formación de imagen que tiene u al que observa generalmente a lo largo de la superfici putadora para controlar la ejecución de un progr icación ejecutado por computadora.
Para determinar el tipo de indicador usado para el la superficie táctil, en una modalidad una curva del incremento se utiliza para distinguir entre di icadores. Durante este método, un perfil de int izontal (HIP, por sus siglas en inglés) es formado cal suma a lo largo de cada fila de pixeles en cada uirida para de tal modo producir un perfil unidimensi e un número de puntos iguales a la dimensión de la fi gen adquirida. Una curva de incremento entonces es g artir del HIP formando la suma acumulativa del HIP.
Aunque los sistemas táctiles pasivos proporcionen tajas sobre los sistemas táctiles activos y remadamente bien, usando los indicadores activos y combinación con un sistema táctil, proporcion alidades de entrada más intuitivas con un número red ierda superior y derecha superior de una pant alización. El campo visual de cada cámara se extiend esquina opuesta de la pantalla de visua alelamente a la pantalla de visualización. Los dio sión infrarrojos se colocan cerca de las lentes de form gen de cada cámara e iluminan el área circundant talia de visualización. Un armazón de contorno se pro tres lados de la pantalla de visualización. Una cinta d exión de anchura estrecha se coloca cerca de la pan alización en el armazón de contorno. Una cinta n exiva se une al armazón de contorno a lo largo y en de la cinta de retro-reflexión. La cinta de retro-r eja la luz de los diodos de emisión infrarrojos permitie uz reflejada sea tomada como una señal blanca fuerte. dedo de un usuario se coloca cerca de la pant alización, el dedo aparece como una sombra sobre la la cinta de retro-reflexión. il, y el valor de coordenada entonces se envía putadora.
Cuando una pluma que tiene una punta retro-reflex antalla de visualización , la luz reflejada desde la mi cientemente fuerte para registrarse como una señal bla gen resultante no se distingue de la imagen de la o-reflexión. Sin embargo, la imagen resultante se d lmente de la imagen de la cinta negra. En este e cciona una línea de pixeles de la imagen negra ce de del armazón de contorno. Puesto que la señal de pixeles contiene la información relacionada a la u de está la pluma en contacto con la pantalla de visual circuito de control determina el valor de coordenad ición táctil de la pluma y el valor de coordenada ento \s a la computadora.
Aunque Ogawa puede determinar la diferencia en cadores asivos, el número de modalidades de ent siguiente un nuevo marco. ve Descripción de la Invención Por consiguiente, en un aspecto se proporciona un entrada interactivo que comprende un marco que por l ea parcialmente una región de interés, el marco ti ralidad de bandas sobre el mismo con por lo menos das adyacentes que tienen diversas propiedades ópti enos un dispositivo de formación de imagen que se di ión de interés y que observa por lo menos un marco p imágenes adquiridas comprendan las region responden a las bandas, y una estructura de proces procesa los pixeles de una pluralidad de region ectar la existencia de un indicador en la región de inter En una modalidad, la estructura de procesamiento pixeles para detectar discontinuidades en las r sadas por la existencia del indicador. En una modali das son eneralmente horizontales com renden ea parcialmente una región de interés, el marco ti alidad de bandas sobre el mismo con por lo menos das adyacentes que tienen diversas propiedades ópti enos un dispositivo de formación de imagen que se dir ión de interés y que observa el marco, y una estru cesamiento que se comunica con por lo menos un dis formación de imagen y procesa los datos de imag responden a una pluralidad de bandas para déte tencia de un indicador en la región de pendientemente del tipo de indicador. ve Descripción de los Dibujos Las modalidades ahora serán descritas más comple referencia a los dibujos anexos en donde: La figura 1 es una vista en perspectiva de un sist rada interactivo; La figura 2 es una vista elevada delantera esquemá ema de entrada interactivo de la figura 1; a figura 1 ; Las figuras 6a a 6c son marcos de imagen capturado taje de formación de imagen de la figura 3; Las figuras 7a a 7c muestran diagramas de alizados de VIPOScuro, VIPretro y D(x) calculados p mnas de pixeles de los armazones de imagen de las 6c; La figura 8 es una vista elevada lateral de una herr tipo pluma usada en combinación con el sistema de activo de la figura 1; La figura 9 es una vista elevada lateral parci liada de la herramienta de tipo pluma de la figura 8; La figura 10 es un diagrama de bloque de la herrami pluma de la figura 8; La figura 11 es una vista en perspectiva detallad taje de punta que forma parte de la herramienta de tip la figura 8; La figura 15 es una vista elevada lateral de una herr tipo pluma alternativa para el uso en combinación ema de entrada interactivo de la figura 1; Las figuras 16a y 16b son vistas elevadas laterales herramienta de tipo pluma para el uso en combinació erna de entrada interactivo de la figura 1; Las figuras 17a y 17b son vistas elevadas laterales herramienta de tipo pluma para el uso en combinació ema de entrada interactivo de la figura 1; La figura 18 es una vista elevada lateral de a ramienta de tipo pluma para el uso en combinación ema de entrada interactivo de la figura 1; La figura 19 muestra un menú desplegable presen superficie de exhibición del sistema de entrada intera puesta a la interacción entre una herramienta de tipo uperficie de exhibición; y La fi ura 20 muestra una vista elevada delantera ti como, por ejemplo, una televisión de plasma, un dis pantalla de cristal líquido (LCD, por sus siglas en ing ositivo con pantalla plana, un tubo catódico, etc. y qu superficie de exhibición 24 de la unidad de exhibi taje 22 utiliza la vista electrónica para detec icadores llevados a una región de interés cerca erficie de exhibición 24 y se comunica con por lo me ad de procesador de señal digital (DSP, por sus si lés) 26 vía las líneas de comunicación 28. Las lí unicación 28 se pueden incorporar al bus serial, bus p serial universal (USB, por sus siglas en inglés), c ernet u otra conexión alámbrica conveniente. La un P 26 a su vez se comunica con una computadora cuta uno o más programas de aplicación vía un cable rnativamente, la unidad DSP 26 se puede comunicar putadora 30 sobre otra conexión alámbrica tal co m lo, un bus aralelo, conexión RS-232, conexión E ad de DSP 26 y la computadora 30 permiten que la a indicador cerca de la superficie de exhibición istrada como la escritura o dibujo o sea utiliza trolar la ejecución de uno o más programas de ap cutados por la computadora 30.
El montaje 22 comprende un montaje de armazón q grado o unido a la unidad de exhibición y rodea la su exhibición 24. El montaje de armazón comprende un ma e tres segmentos de marco 40 a 44, cuatro piezas de , y un segmento de bandeja de herramienta 48. Los se marco 40 y 42 se extienden a lo largo de los bordes esto de la superficie de exhibición 24 mientras mento de marco 44 se extiende a lo largo del borde la superficie de exhibición 24. El segmento de ban ramienta 48 se extiende a lo largo del borde inferio erficie de exhibición 24 y soporta una o más herramie pluma activas P. Las piezas de esquina 46 ad acent ntaje de formación de imagen 60 que observa general és de toda la superficie de exhibición 24 desde di tos de vista. Los segmentos de marco 40 a 44 se a que sus superficies internamente opuestas sean obs los montajes de formación de imagen 60.
Volviendo ahora a la figura 3, uno de los mont ación de imagen 60 se ilustra mejor. Como pu ervado, el montaje de formación de imagen 60 compr sor de imagen 70 tal como el manufacturado por ic modelo No. MT9V022 equipado con una lente de 880 manufacturado por Boowon bajo el modelo No. BW te tiene un filtro de bloqueo de paso de IR/luz visible ma (no mostrado) y proporciona el sensor de imagen campo visual de 98 grados para que toda la super ibición 24 sea observada por el sensor de imagen sor de imagen 70 está conectado con un conector ibe una de las líneas de comunicación 28 vía un bus S infrarroja 82 que comprende una pluralidad de dio sión de luz (LED, por sus siglas en inglés) IR u otras radiación convenientes para proporcionar la iluminaci ión de interés y montajes de lente asociados así co inistro de energía 84 y al conector 72.
El receptor de reloj 76 y el serializador 78 util alización diferenciada de baja tensión (LVDS, por su inglés) para permitir las comunicaciones de alta veloci nidad de DSP 26 sobre el cableado económico. El rec j 76 recibe la información de tiempo de la unidad de D porciona las señales de reloj al sensor de imagen ermina la velocidad a la cual el sensor de imagen 70 c duce cuadros de imagen. Cada salida de cuadro de ima ensor de imagen 70 es serializada por el serializador da a la unidad de DSP 26 vía el conector 72 y las lí unicación 28.
La fi ura 4 muestra una orción de la su erficie e rf icie de exhibición 24 se forma de un material absorb ¡ación infrarroja. Para aprovechar mejor las característ erial retro-reflexivo, los segmentos de marco 40 a ntan para que sus superficies internamente opue iendan en un plano generalmente normal al de la supe ibición 24.
Volviendo ahora a la figura 5, la unidad de DSP 26 s or. Según lo observado, la unidad de DSP 26 compr trolador 120 tal como por ejemplo, un microprocesa rocontrolador, un DSP, etc. que tiene un puerto de v iectado con los conectores 122 y 124 vía los deseriali . El controlador 120 también está conectado a cada , 124 vía un interruptor de bus serial 128. El interru serial l2C 128 está conectado con los relojes 130 y 1 j está conectado a un conector respectivo de los co , 124. El controlador 120 se comunica con una antena vía un rece tor inalámbrico 138 un conector USB gen 60. Para facilidad de discusión, será descrita en ar ia operación del sistema de entrada interactivo 20, indicador pasivo se lleva cerca de la superficie de ex Durante la operación, el controlador 120 acondici jes 130 y 132 para producir las señales de reloj sportan a los montajes de formación de imagen 60 as de comunicación 28. El receptor de reloj 76 ntaje de formación de imagen 60 utiliza las señales a fijar la velocidad de cuadro del sensor de imagen a En esta modalidad, el controlador 120 genera las se j para que la velocidad de cuadro de cada sensor de sea dos veces la velocidad de salida de cuadro de eada. El controlador 120 también indica el módulo de corriente 80 de cada montaje de formación de imagen bus serial l2C. En respuesta, cada módulo de co riente 80 conecta la fuente de luz IR 82 al sumini gada.
Cuando las fuentes de luz IR 82 están encendidas, l las fuentes de luz IR inundan la región de interés erficie de exhibición 24 con iluminación infrarr inación infrarroja que afecta las bandas absorbe iación IR 104 de ¡os segmentos de marco 40 a 4 resa a los montajes de formación de imagen 60. La ilu arroja que afecta a las bandas retro-reflexivas 102 mentos de marco 40 a 44 se regresa a los mont ación de imagen 60. La configuración del LED de cad luz IR 82 se selecciona para que las bandas retro-re sean iluminadas generalmente de manera uniform as sus longitudes. Las configuraciones ejemplares de l luz IR para alcanzar generalmente incluso la ilumina rco se describen en la Solicitud de Patente Estadou 12/118,552 de Hansen y colaboradores titulada "Int u m And mina i n Assembl Therefor" resen iación IR 104 y una banda oscura inferior 164 que corr superficie de exhibición 24 según lo mostrado en la fi ndo un indicador se lleva cerca de la superficie de ex y está suficientemente distante de las fuentes de luz I icador bloquea la iluminación infrarroja reflejada das retro-reflexivas 102. Por lo tanto, el indicador o una región oscura 166 que interrumpe la banda brilla los cuadros de imagen capturados según lo mostrad ra 6b.
Según lo mencionado anteriormente, cada salida de imagen por el sensor de imagen 70 de cada mon ación de imagen 60 se transporta a la unidad de ndo la unidad de DSP 26 recibe los cuadros de image tajes de formación de imagen 60, el controlador 120 cuadros de imagen para detectar la existencia de un i los mismos y si existe un indicador, determina la posi montajes de formación de imagen 60. Como será apre indicador está cercano a un montaje de formación de la iluminación infrarroja emitida por la fuente de ciada 82 puede iluminar el indicador directamente da ultado que el indicador sean tan brillante como o más las bandas retro-reflexivas 102 en los cuadros de turados. Por lo tanto, el indicador no aparecerá en los imagen como una región oscura que interrumpe l iante 160 sino aparecerá como una región brillante 16 iende a través de la banda brillante 160 y de las uras superiores e inferiores 162 y 164 según lo mostra ra 6c.
El controlador 120 procesa los cuadros de imagen s ducidos por el sensor de imagen 70 de cada mon ación de imagen 60 en pares. Particularmente, cu ibe un cuadro de imagen, el controlador 120 alma la sustancialmente y no aparece en el cuadro de im inción.
Una vez que se ha generado el cuadro de ima inción, el controlador 120 procesa el cuadro de im inción y genera los valores de discontinuidad que repr robabilidad de que un indicador exista en el cuadro de distinción. Cuando no existe un indicador cerca erficie de exhibición 24, los valores de discontinua s. Cuando un indicador está cerca de la superf ibición 24, algunos de los valores de discon minuyen por debajo de un valor umbral permitiendo stencia del indicador en el cuadro de imagen de distin erminada fácilmente.
Para generar los valores de discontinuidad para cada imagen de distinción, el controlador 120 calcula un nsidad vertical (VIPretro) para cada columna de pix ementado durante la calibración en el arranque del entrada interactivo.
El VIPretr0 para cada columna de pixeles es c ando los valores de intensidad I de los pixeles N umna de pixeles entre las líneas de marco Bretr G?_?(?)· El valor de N se determina como el número de eles entre las líneas de marco Bretro T(X) y B retro B al a la anchura de las bandas retro-reflexivas lquiera de las líneas de marco se ubican parcialmente un pixel de cuadro de imagen de distinción, ento tribución de nivel de intensidad de ese pixel s porcionalmente a la cantidad de pixeles que se ubica las líneas de marco Bretr0_T(x) y ?G??G?_?(?)- Durante el VIPretr0 para cada columna de pixeles, la ubicación as de marco Bretro_T(x) y Bretro_B(X) dentro de esa col eles, se analiza en los componentes enteros B¡_r O_T(X) y Bretro_B(x) con la carga apropiada en los bo erdo con: VIPretro(x) = (Bf_retro_T(x)l(x, B¡_retro_T( retro_B(x)l(x, B¡_retro_B(x)) + suma(l(x, B¡_retro_T+j ) don etro B (x) -B¡ retro T(X)), j está en el intervalo de 0 a N e nsidad en la ubicación x entre las líneas de marco.
El VIPoscuro para cada columna de pixeles es c iando los valores de intensidad I de los pixeles K umna de pixeles entre las líneas de marco Boscur curo_B( ) El valor de K se determina como el número de eles entre las líneas de marco BOSCuro_T(x) y BOSCuro_B(x)f al a la anchura de las bandas absorbentes de radiación las líneas de marco se ubican parcialmente a travé el de cuadro de imagen de distinción, entonces la cont nivel de intensidad de ese pixel se carga proporcional cantidad de pixeles que se ubican dentro de las lí rco BOSCuro_T(x) y BOSCUro_B(x)- Durante el cálculo pa El VIPoscuro para cada columna de pixeles es calcu manera similar sumando los valores de intensidad I les K a lo largo de la columna de pixeles que están e as de marco Boscuro T(x) y BOSCuro_B(x) con la carga ap os bordes de acuerdo con: VIP0scuro(x) ~~ (Bf_oscuro_l(x) B ¡_oscu G?_? ( X ) ~ oscuro_B(x)l(x, Bi_oscuro_B(x)) + suma(l(x, B¡_oscuro_T+j) do scuro_B(x) -B¡_oscuro_T(x)), y j está en el intervalo de 0 a N Los VIPs son normalizados posteriormente dividiénd número correspondiente de filas de pixeles (N p iones retro-reflexivas, y K para las regiones oscuras). discontinuidad D(x) para cada columna de pixeles ento ulado determinando la diferencia entre VIPretro y VIP erdo con: D(x) = VIPretro(x) - VIPoscuro(x) La figura 7 muestra los diagramas de los una región que corresponde a la ubicación del indicad dro de imagen. La figura 7c muestra los diagramas ores normalizados de VIPoscuro, VIPretr0 y D(x) calculad columnas de pixeles de cuadro de imagen de la fi ún lo observado, la curva D(x) también disminuy ores bajos en una región que corresponde a la ubica icador en el cuadro de imagen.
Una vez que los valores de discontinuidad D(x) umnas de pixeles de cada cuadro de imagen de disti determinado, la curva D(x) resultante para cada cu gen de distinción se examina para determinar si la cu minuye por debajo de un valor umbral que sign stencia de un indicador y si es así para detectar los uierdos y derechos en la curva D(x) que representan l estos de un indicador. Particularmente, para local des izquierdos y derechos en cada cuadro de im Particularmente, un umbral T primero se aplica a la c diente VD(x) a modo que, para cada posición x, si oluto de la curva de gradiente VD(x) es menor que el valor de la curva de gradiente VD(x) se determine ún lo expresado por: VD(x) = 0, si| VD(x)| < T Después del procedimiento de umbralización, la c diente VD(x) umbral contiene un punto negativo y u itivo que corresponden al borde izquierdo y al borde representan los lados opuestos del indicador, y es lugar. Los bordes izquierdos y derechos, respectiv onces se detectan desde los dos puntos diferentes a ce va de gradiente VD(x) umbral. Para calcular el uierdo, la distancia central CDizquierda se calcula desde uierdo de la curva de gradiente VD(x) umbral iniciand olumna de pixeles XjZqu¡erda de acuerdo con: de izquierdo en la curva de gradiente VD(x) umbral e determina para que sea igual a Xi2quierda + CDizquierd ular el borde derecho, la distancia central CDderecha se de el punto derecho de la curva de gradiente VD(x) u olumna de pixeles Xderecha de acuerdo con: donde Xj es el número de c imna de pixeles de la pixeles j en el punto derecho de la curva de gradient bral, j se repite de 1 a la anchura del punto derech a de gradiente VD(x) umbral y Xderecha es la colu eles asociada a un valor a lo largo de la curva de g (x) cuyo valor se diferencia de cero (0) por un valor erminado de manera empírica con base en la interfere ema. El borde derecho en la curva de gradiente onces se determina para que sea igual a Xderecha + CDde ) con relación a la superficie de exhibición 24 us ngulación de la manera bien conocida tal como simi crita en la Patente Estadounidense No. 6,803,906 inco riormente de Morrison y colaboradores. La coorden cador calculada entonces es transportada por el con a la computadora 30 vía el cable USB 32. La computa u vez procesa la coordenada de indicador recibida y a alida de imagen proporcionada a la unidad de exhibici uiere, para que la imagen presentada en la super ibición 24 refleje la actividad del indicador. De este racción del indicador con la superficie de exhibició de registrar como escritura o dibujo o utilizarse para c jecución de uno o más programas de aplicación que fu la computadora 30.
Durante el procedimiento de hallazgo de marco reali rranque del sistema de entrada interactivo, un proce tan para formar una imagen de calibración de distinci tal modo eliminar los objetos de la iluminación a onces se determinan las filas de pixeles de interé gen de calibración de distinción (es decir, las filas de forman la banda brillante 160 que representa las ro-reflexivas 02).
Durante este proceso, la suma de valores de pixel a fila de pixeles de la imagen de distinción de calibr cula para generar un perfil de intensidad horizontal gen de distinción de calibración. Un filtro de g onces se aplica al perfil de intensidad horizontal. El díente toma el valor absoluto del segundo derivado d intensidad horizontal y aplica dieciséis (16) filtros d ussian para igualar el resultado. Cada región de da e valores mayores de cincuenta por ciento (50%) d ximo, entonces se examina para detectar la región que se selecciona de manera arbitraria una dirección de p esta modalidad, las columnas de pixeles de la ima inción de calibración se procesan de izquierda a d ante el proceso de cada columna de pixeles, una te de los datos de pixeles para la columna de pixeles base en la ubicación de la fila central de pixeles. alidad, la parte comprende cientos de filas de tradas en la fila central de pixeles. Cada parte de la correlaciona de manera cruzada con un modelo G do para aproximar las bandas retro-reflexivas nsidad y anchura. Los resultados de la correlación tifican la banda brillante 160 de la imagen de distin bración que representa las bandas retro-reflexivas eo. Esta correlación se multiplica con la imagen de cali fue capturada con la fuente de luz IR 82 encendi tacar adicionalmente la banda brillante 160 y para re bles en ta columna de pixeles y se pueden distingui a columna de pixeles donde se encuentran dos pi hura de la banda brillante 160 que representa las ba o-reflexivas y la banda que representa la reflexión das retro-reflexivas 102 en la superficie de exhibición erminadas encontrando ios bordes de aumento y dis rodean los picos detectados. Con la anchura de l iante 160 en las columnas de pixeles conocidas, se ular las líneas de marco Bretro_T(x) y Bretro_B(x)- par hura de la banda brillante 160, la banda oscura supe determina como directamente superior a la banda brilla ue tiene una anchura general igual a la de la banda b sto que línea de marco BOSCuro_B(x) es coincidente con marco Bretro_T(x), la línea de marco BOSCuro_T(x) puede ularse.
Las columnas de pixeles iniciales y finales del Después de que los puntos de inicio y final del marco ontrado, una verificación de continuidad se realiz firmar que los pixeles de la banda brillante 16 canos entre sí de columna de pixeles a columna de ante esta verificación, los pixeles de la banda brillante columnas de pixeles adyacentes se comparan para dét a distancia entre los mismos está más allá de una d ral que significa un punto. Para cada punto detect les de la banda brillante 160 en los lados opuesto ión del punto se interpolan y los valores interpol izan para sustituir los pixeles del punto. Este proceso espacios en la banda brillante 160 hechos eexposición del sensor de imagen u obstrucción de como iguala cualquier punto del marco no identificado.
Entonces se examina la anchura de la banda brilla el lado izquierdo y derecho de la imagen resultante. El cercana al sensor de imagen 70 se procesan primero to , durante el segundo paso, las columnas de pixele gen resultante se procesan de izquierda a derecha sor de imagen 70 en la esquina izquierda inferio erficie de exhibición 24 y de derecha a izquierda sor de imagen 70 en ia esquina derecha inferior erficie de exhibición 24 de la manera descrita anterio ante este segundo paso, el algoritmo de búsqueda de oca alrededor de los datos de columna de pixe responden a las líneas de marco calculadas Bretro Volviendo ahora a las figuras 8 a 14, una ramientas de tipo pluma P para el uso en combinació ema de entrada interactivo 20 es mostrada e iden eralmente por el número de referencia 200. Como s ervar, la herramienta de tipo pluma P comprende un la tarjeta de circuitos impresos 210. Un montaje de int punta 220 se monta en la tarjeta de circuitos impresos El montaje de interruptor de punta 220 compre uito flexible de poliéster 222 que tiene una porción que acomoda un área de circuito de contacto 2 ductor de contacto 226 se extiende desde el área de contacto 224 y experimenta un giro de noventa gra ción al plano de la porción circular 223. Los conducto unen al conductor de contacto 226 y terminan ectores de compresión 229. Los conectores de co reciben los contactos de interruptor de punta 218 par o conectar eléctricamente el montaje de interruptor d con el controlador 212. Un montaje de émbolo 230 s el circuito flexible 222. El montaje de émbolo 230 és de un casquillo 232 que se ajusta sobre el extr rpo 200. El casquillo 232 tiene una punta ndrico 246 que se extiende desde la taza 240. El tal del eje 244 tiene una punta 248 formada sobre el mi El montaje de borrador 204 comprende un port ería 250 que tiene conductores positivos y negativ eta de circuitos impresos 252 que contiene un interru está conectado eléctricamente con el controlador gura a un extremo del portador de batería 250. Un ém alinea con el interruptor 254 y pasa a través de un s que rodea la tarjeta de circuitos impresos 252 y un portador de batería 250 y que se ajusta sobre el extr rpo 200. Un casquillo 262 que tiene una capa sensi re el mismo es recibido por el sujetador 260. Un undario eléctrico 266 comercialmente disponible se de el otro extremo del portador de batería 250 a la ta uitos impresos 210 y es conservado por una media que acopla el extremo del portador de batería 250. Un icador pasivo. Sin embargo, dependiendo de la mane l la herramienta de tipo pluma P se pone en contact erficie de exhibición 24, la herramienta de tipo pluma porcionar la información de modo en el cual se utili rpretar la actividad de la herramienta de tipo plu ción a la superficie de exhibición 24. Particularmente, punta 248 de la herramienta de tipo pluma P se tacto con la superficie de exhibición 24 con suficiente je 244 del montaje de émbolo 230 se traslada interna rpo 200. Este movimiento interno del eje 244 hace que se flexione para de tal modo poner la capa conductora aza en contacto con el área de circuito de contacto uito flexible 222 dando por resultado la suspens ntaje de interruptor de punta 220. El cierre del mon rruptor de punta 220 es detectado por el controlado e que el controlador 212 acondicione la unidad inal rpo 200 para cerrar el montaje de interruptor de pu ticularmente, solamente aproximadamente una fue ivación de 30 g y un recorrido del eje aproximadamente mm, se requieren para que el montaje de interruptor d se cierre. Estos factores dan a la herramienta de tip una sensación de escritura mucho más dó nificativamente menos interferencia con respecto ramientas de tipo pluma de la técnica anterior.
Cuando el casquillo 262 de la herramienta de tipo pone en contacto con la superficie de exhibición iciente fuerza, el casquillo 262 se mueve al sujetador 2 tal modo hacer que el émbolo 256 cierre el interruptor rre del interruptor 254 es detectado por el controla do por resultado que el controlador 212 acondicione la lámbrica 214 para producir una señal modulada diferen se emite vía el transmisor inalámbrico 216b. Similarm ramienta de tipo pluma. El controlador 120 a su ve información para asignar la información de mod rdenadas de indicador generadas y transporta la info modo junto con las coordenadas de indicador a la comp para que las coordenadas de indicador sean procesada putadora 30 de la manera deseada. En esta mo ndo la punta 248 está en contacto con la superf ibición 24 y el montaje interruptor de punta 220 es cer ramienta de tipo pluma P se juzga como que opera en tinta, la información de modo de tinta se asigna rdenadas de indicador generadas por el controla ntras que la herramienta de tipo pluma P está en est a que la computadora 30 trate las coordenadas de i o escritura o dibujo (es decir, tinta) en la super ibición 24. Cuando el casquillo 262 está en contacto erficie de exhibición 24 y el interruptor 254 es cer ndicador pasivo. La información de modo del indic na a las coordenadas de indicador generadas trolador 120 mientras que la herramienta de tipo plur este modo de modo que la computadora 30 tr denadas de indicador como un gesto de ratón.
Si se desea, las fuentes de luz IR 82 se pueden ún lo descrito en la Solicitud de Patente Estadounide 118,521 de McReynolds y colaboradores titulada "Int t System with Controlled Lighting" presentada el 9 d 2008 y cedida a SMART Technologies ULC de erta, cuyo contenido es incorporado por referencia. o, se pueden generar los cuadros de imagen par taje de formación de imagen basados solamente tribución de la iluminación de su fuente de luz IR asoci da de las señales moduladas por la herramienta de tip uede también modularse. tipo pluma P se diferencia dependiendo del montaje d se pone en contacto con la superficie de exhibición 24 Las figuras 16a y 16b muestran aún otra herramienta a P para el uso en combinación con el sistema de ractivo 20. En esta modalidad, el montaje de punta ilar al mostrado en las modalidades anteriores. El mo rador 404 tiene una configuración física redondeada. C s modalidades anteriores, un interruptor deslizante 41 ible entre el ratón y las posiciones de borrador se pro el cuerpo 412 de la herramienta de tipo pluma P. La interruptor deslizante 410 es detectada por el controla tittzada para determinar la forma de la señal modulada ducida por la herramienta de tipo pluma P cuando el borrador 404 se pone en contacto con la superf ibición 24. Cuando el interruptor deslizante 410 se co posición de ratón según lo mostrado en la figura 1 y el montaje de borrador 404 se pone en contacto erficie de exhibición con suficiente fuerza para c rruptor 254, la herramienta de tipo pluma P produce u dulada diferentemente que se compara con la tabla de el controlador 120 para determinar que la herramienta ma está operando en un modo de borrador. El controla u vez asigna la información de modo de borrado rdenadas de indicador generadas.
Las figuras 17a y 17b muestran aún otra herramienta ma P para el uso en combinación con el sistema de ractivo 20. En esta modalidad, los montajes de punt que tienen generalmente la misma configuración fí porcionan en los extremos opuestos del cuerpo rruptor deslizante 510 se proporciona en el cuerpo 5 ramienta de tipo pluma P y se mueve hacia el mo ta 502 entre dos posiciones así como se mueve taje de interruptor de punta 220.
Cuando el interruptor deslizante 510 se coloca ición de tinta según lo mostrado en la figura 17a y el montaje de punta 502 se pone en contacto con la s exhibición 24 con suficiente fuerza para cerrar el mo rruptor de punta 220, la herramienta de tipo pluma señal modulada que es comparada con la tabla de el controlador 120 para determinar que la herramienta ma P está operando en un modo de tinta. El controlad vez asigna la información de modo de tinta a las coor indicador generadas. Similarmente, cuando el int lizante 510 se coloca en la posición de borrador s strado en la figura 17b y el émbolo del montaje de pu pone en contacto con la superficie de exhibición iciente fuerza para cerrar el montaje de interruptor d , la herramienta de tipo pluma produce una señal m pluma P produce aún otra señal modulada diferenteme omparada con la tabla de trazado por el controlador 1 rminar que la herramienta de tipo pluma P está oper modo de selección. El controlador 120 a su vez a rmación de modo de selección a las coordenadas de in eradas. Similarmente , cuando el interruptor deslizante ca en la posición de clic derecho según lo mostrad ra 17b y el émbolo del montaje de punta 504 se tacto con la superficie de exhibición 24 con suficient a cerrar este montaje de interruptor de punta ramienta de tipo pluma P aún produce aún otr ulada diferentemente que es comparada con la t ado por el controlador 120 para determinar que la herr tipo pluma está operando en un modo de cüc dere trolador 120 a su vez asigna la información de modo echo a las coordenadas de indicador generadas. tipo pluma P es diferente dependiendo del montaje d se pone en contacto con la superficie de exhibición 24 Si se desea, en lugar de tener los trazados de al modulada a herramienta de tipo pluma en la t ado asignados estáticamente, la computadora 30 pu sible a la entrada de usuario para presentar una int ario gráfica 700 que presente visualmente los tra mita que el usuario cambie el modo de herramienta ma que se asocia a cada señal modulada producida ramientas de tipo pluma P según lo mostrado en la figu Además de usar la salida de señal modulada ramienta de tipo pluma P para determinar el ramienta de tipo pluma (es decir, su modo de operac buto se puede asignar a la señal modulada para c cionalmente la manera mediante la cual la computa cesa las coordenadas de indicador. Por ejemplo, si el cesadas por la computadora 30.
Como será apreciado, aunque se describan los ecíficos de herramienta de tipo pluma, los experto nica apreciarán que los modos alternativos de la herr tipo pluma o diversas combinaciones de mo ramientas de tipo pluma se pueden asignar a las duladas producidas por las herramientas de tipo que se ilustren las herramientas de tipo pluma rruptores deslizantes, las herramientas de tipo plu rfaces de entrada alternativas se pueden por supuesto a permitir que el usuario seleccione los modos de herr tipo pluma. Por ejemplo, la herramienta de tipo pluma prender múltiples interruptores de botón, un solo int botón que cambie a través de múltiples pos rruptores giratorios, una o más ruedas de desplaz rruptores sensibles a presión u orientación, etc rru tor o osición de interru tor está asociado a un ccionado.
Aunque las modalidades específicas se hayan riormente con referencia a las figuras, los experto ica apreciarán que otras alternativas estén disponibl plo, en la modalidad anterior, la unidad de DSP stra como que comprende una antena 136 y un r ámbrico 138 para recibir las señales moduladas pro la herramienta de tipo pluma P. Alternativament taje de formación de imagen 60 se puede proporció antena y un receptor inalámbrico para recibir las uladas producidas por la herramienta de tipo plum caso, las señales moduladas recibidas por los mont ación de imagen se envía a la unidad de DSP 26 ju cuadros de imagen. La herramienta de tipo pluma P s bién unir al montaje 22 o a la unidad de DSP 26 per la salida de señales por la herramienta de tipo plum s ortada a uno o más de los monta es de form gen 60 pueden observar a través de la superficie de ex tal que la reflexión de la banda retro-reflexiva 102 que la superficie de exhibición 24 sea capturada en cua gen y aparezca en los cuadros de imagen como una b separada de y debajo de la banda brillante 160. Du cesamiento de estos cuadros de imagen, cada cu gen se separa en tres regiones, es decir, una región corresponde a la contribución de las bandas absorb iación IR 104 de los segmentos de marco, una reg liante (retro-reflexiva) que corresponde a la contribució das retro-reflexivas 102 de los segmentos de marc ¡ón brillante (reflexiva) que corresponde a la contribuci lexión de las bandas retro-reflexivas 102 que aparec erficie de exhibición 24.
Una vez separado, el controlador 120 genera los VI regiones individuales y procesa los VIPs para deter se marca la columna de pixeles del VIP retro-re onces, un procedimiento de dilatación se realiza para marcas falsas. Particularmente, para cada columna de cada del VIP retro-reflexivo, se hace una verificaci rminar si las columnas de pixeles en sus lados izqu cho también están marcadas. Si es así la columna de arca como que representa un indicador.
Entonces se realiza una verificación de continuidad. verificación de continuidad, cada valor de VIP del ion oscura se resta de su valor de VIP correspondiente exivo. Cada diferencia se examina nuevament rminar si es menor que un nivel umbral. Si es así la pixeles del VIP reflexivo se marca. Una dilatación simi crita anteriormente se realiza con respecto a las colu les marcadas del VIP reflexivo. Después de est lizar el indicador, las columnas de pixeles marcadas o-reflexiv el VIP reflexivo m aran r 4 se muestra como que comprende un par de ban en diversas características reflexivas, es decir prop o-reflexivas y absorbentes de radiación IR. Los expert ica apreciarán que el orden de las bandas se pueda bién, las bandas que tienen diversas propiedades re ueden utilizar. Por ejemplo, en lugar de usar una band exiva, se puede utilizar una banda formada de menté reflexivo. Alternativamente, los segmentos d prenden más de dos bandas, en donde se pueden util das que tienen propiedades reflexivas de disti rnancia. Por ejemplo, cada segmento de marco prender dos o más bandas retro-reflexivas y dos das absorbentes de radiación en una configuración alt rnativamente, una o más de las bandas retro-reflex dén sustituir por una banda altamente reflexiva. Cua dros de imagen se separan en diversas regione Si se desea la inclinación de cada segmento de m de ajustar para controlar la cantidad de luz reflejada e uperficie de exhibición y posteriormente hacia los sens gen 70 de los montajes de formación de imagen 60.
Aunque el montaje de armazón se describa como un dad de exhibición, ios expertos en la técnica apreciará ntaje de armazón puede tomar otras configuracion mplo, el montaje de armazón puede estar integrado rco 38. Si se desea, el montaje 22 puede comprender s el para cubrir la superficie de exhibición 24. En este ferido que el panel esté formado de material sustanci sparente para que la imagen presentada en la super ibición 24 sea claramente visible a través del p taje puede por supuesto ser utilizado con un dispos yección delantero o trasero y rodear un sustrato en el yecta la imagen generada por computadora. ración del sistema de entrada interactivo 20 se haya referencia a un solo indicador o herramienta de tipo se coloca cerca de la superficie de exhibición 24, el entrada interactivo 20 es capaz de detectar la existe Itiples indicadores/herramientas de tipo pluma que est la superficie de exhibición puesto que cada indicador los cuadros de imagen capturados por los sensores de i Aunque las modalidades preferidas se hayan desc ertos en la técnica apreciarán que las variaci dificaciones se puedan hacer sin apartarse del es ance de las mismas según lo definido por las reivindic xas.

Claims (1)

  1. REIVINDICACIONES 1. Un sistema de entrada interactivo, que compre un marco que por lo menos rodea parcialmente un interés, el marco tiene una pluralidad de bandas s mo con por lo menos algunas bandas adyacentes qu rsas propiedades ópticas; por lo menos un dispositivo de formación de ima erva la región de interés y que observa por lo menos u a que las imágenes adquiridas comprendan las regió responden a las bandas; y una estructura de procesamiento que procesa los pi pluralidad de regiones para detectar la existencia icador en la región de interés. 2. Un sistema de entrada interactivo de acuerdo indicación 1, en donde la estructura de proces cesa los pixeles para detectar las discontinuidades lquiera de las reivindicaciones 1 a 4, en donde las prenden por lo menos una banda que refleja la ilumin lo menos una banda que absorbe la iluminación. 6. Un sistema de entrada interactivo de acuerdo indicación 5, en donde por lo menos una banda que r iinación comprende una banda de material retro-reflexi 7. Un sistema de entrada interactivo de acuerdo indicación 5 ó 6, en donde por lo menos una ban orbe la iluminación comprende una banda de orbente de luz infrarroja. 8. Un sistema de entrada interactivo de acue lquiera de las reivindicaciones 1 a 7, en donde el mare os rodea parcialmente una superficie generalmente pla 9. Un sistema de entrada interactivo de acuerdo indicación 8, en donde la superficie generalmente p superficie de exhibición 10. Un sistema de entrada interactivo de acuerdo porcionadas, el plano de por lo menos una superficie d marco es generalmente normal al plano de la su eralmente plana. 12. Un sistema de entrada interactivo que compren un marco que por lo menos rodeaba parcialmente un interés, el marco tiene una pluralidad de bandas s mo con por lo menos algunas bandas adyacentes qu rsas propiedades ópticas; por lo menos un dispositivo de formación de ima erva la región de interés y que observa el marco; y una estructura de procesamiento que se comunica co os un dispositivo de formación de imagen y que pro os de imagen que corresponden a una pluralidad de a detectar la existencia de un indicador en la región de pendientemente del tipo de indicador. 13. Un sistema de entrada interactivo de acuerdo indicación 12, en donde las propiedades ópticas das adyacentes tienen diversas propiedades ópticas. 16. Un sistema de entrada interactivo de acue lquiera de las reivindicaciones 12 a 15, en donde las generalmente horizontales. 17. Un sistema de entrada interactivo de acue iquiera de las reivindicaciones 12 a 16, en donde el m enos rodea parcialmente una superficie generalmente 18. Un sistema de entrada interactivo de acuerdo indicación 16, en donde la superficie generalmente p superficie de exhibición 19. Un sistema de entrada interactivo de acuerdo indicación 18, en donde el marco comprende por lo me erficie generalmente plana en la cual las banda porcionadas, el plano de por lo menos una superficie d generalmente normal al plano de la superficie de exhibi 20. Un sistema de entrada interactivo de acuerdo indicación 13, en donde el marco comprende dos band ndicación 13, en donde el marco comprende por lo bandas. 24. Un sistema de entrada interactivo de acuerdo ndicación 23, en donde la estructura de procesa esa los datos de imagen para detectar las discontinu adas por la existencia del indicador.
MX2010012263A 2008-05-09 2009-05-08 Sistema de entrada interactivo con marco optico. MX2010012263A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/118,545 US8902193B2 (en) 2008-05-09 2008-05-09 Interactive input system and bezel therefor
PCT/CA2009/000643 WO2009135321A1 (en) 2008-05-09 2009-05-08 Interactive input system with optical bezel

Publications (1)

Publication Number Publication Date
MX2010012263A true MX2010012263A (es) 2011-02-22

Family

ID=41264388

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2010012263A MX2010012263A (es) 2008-05-09 2009-05-08 Sistema de entrada interactivo con marco optico.

Country Status (11)

Country Link
US (1) US8902193B2 (es)
EP (1) EP2274670A4 (es)
JP (1) JP2011521331A (es)
KR (1) KR20110005737A (es)
CN (1) CN102016773B (es)
AU (1) AU2009244012A1 (es)
BR (1) BRPI0911882A2 (es)
CA (1) CA2722824A1 (es)
MX (1) MX2010012263A (es)
RU (1) RU2010144572A (es)
WO (1) WO2009135321A1 (es)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI420357B (zh) * 2009-08-28 2013-12-21 Pixart Imaging Inc 觸控系統及其指示物座標偵測方法
US8624835B2 (en) * 2010-01-13 2014-01-07 Smart Technologies Ulc Interactive input system and illumination system therefor
EP2524285B1 (en) * 2010-01-14 2022-06-29 SMART Technologies ULC Interactive system with successively activated illumination sources
US8711125B2 (en) * 2010-02-04 2014-04-29 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Coordinate locating method and apparatus
US8937612B2 (en) * 2010-02-04 2015-01-20 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Coordinate locating method, coordinate locating device, and display apparatus comprising the coordinate locating device
US8872772B2 (en) * 2010-04-01 2014-10-28 Smart Technologies Ulc Interactive input system and pen tool therefor
US8610681B2 (en) * 2010-06-03 2013-12-17 Sony Corporation Information processing apparatus and information processing method
TWI439906B (zh) 2011-02-11 2014-06-01 Pixart Imaging Inc 感測系統
US8619027B2 (en) * 2011-02-15 2013-12-31 Smart Technologies Ulc Interactive input system and tool tray therefor
US9262011B2 (en) 2011-03-30 2016-02-16 Smart Technologies Ulc Interactive input system and method
GB201110156D0 (en) * 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch-sensitive display devices
WO2013040691A1 (en) * 2011-09-22 2013-03-28 Technologies Ulc Smart Interactive input system with variable reflector pen tool
JP5454722B2 (ja) * 2011-11-30 2014-03-26 株式会社リコー プロジェクタ、表示装置、方法およびプログラム
JP2013210956A (ja) * 2012-03-30 2013-10-10 Ricoh Co Ltd ディスプレイ装置
US20150029165A1 (en) * 2012-03-31 2015-01-29 Smart Technologies Ulc Interactive input system and pen tool therefor
US20130257825A1 (en) * 2012-03-31 2013-10-03 Smart Technologies Ulc Interactive input system and pen tool therefor
JP6241198B2 (ja) * 2012-12-07 2017-12-06 株式会社リコー 座標検知装置及び電子情報ボードシステム
CN103902104B (zh) * 2012-12-25 2017-03-08 北京汇冠新技术股份有限公司 用于红外触摸屏的扫描数据解析方法及装置
TWI536206B (zh) * 2013-11-05 2016-06-01 緯創資通股份有限公司 操作體的定位方法及裝置以及深度判定方法及裝置
US9471159B2 (en) * 2014-12-11 2016-10-18 Microsoft Technology Licensing, Llc Interactive stylus with discrete circuit multiplexing system
TWI582672B (zh) * 2015-01-20 2017-05-11 緯創資通股份有限公司 光學觸控裝置及其觸控偵測方法
JP2017027254A (ja) * 2015-07-17 2017-02-02 富士電機株式会社 光学式タッチパネル及び自動販売機
JP6569352B2 (ja) * 2015-07-17 2019-09-04 富士電機株式会社 光学式タッチパネル及び自動販売機
WO2017013955A1 (ja) * 2015-07-17 2017-01-26 富士電機株式会社 光学式タッチパネル及び自動販売機
WO2017013958A1 (ja) * 2015-07-17 2017-01-26 富士電機株式会社 受発光デバイスの付着物除去装置及び自動販売機
US9658702B2 (en) 2015-08-12 2017-05-23 Smart Technologies Ulc System and method of object recognition for an interactive input system
US10228771B2 (en) * 2015-09-25 2019-03-12 Smart Technologies Ulc System and method of pointer detection for interactive input
US10089907B2 (en) 2016-09-12 2018-10-02 Arizon Precision Sheet Metal Integrated wall-mounted digital signage assembly
WO2018049392A1 (en) * 2016-09-12 2018-03-15 Arizona Precision Sheet Metal Systems and methods for remotely controlling wall-mounted digital signage
CN111273992B (zh) * 2020-01-21 2024-04-19 维沃移动通信有限公司 一种图标显示方法及电子设备

Family Cites Families (432)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6512513B2 (en) 1919-04-01 2003-01-28 Wacom Co., Ltd. Pointer for use in digitizer systems
US2769374A (en) 1951-10-19 1956-11-06 Sick Erwin Electrical light screen
US3025406A (en) 1959-02-05 1962-03-13 Flightex Fabrics Inc Light screen for ballistic uses
US3187185A (en) 1960-12-22 1965-06-01 United States Steel Corp Apparatus for determining surface contour
US3128340A (en) 1961-12-21 1964-04-07 Bell Telephone Labor Inc Electrographic transmitter
DE1221927B (de) 1964-05-06 1966-07-28 Sick Erwin Lichtschranke, insbesondere Unfallschutzvorrichtung
US3478220A (en) 1966-05-11 1969-11-11 Us Navy Electro-optic cursor manipulator with associated logic circuitry
US3613066A (en) 1968-10-22 1971-10-12 Cii Computer input equipment
US3775560A (en) 1972-02-28 1973-11-27 Univ Illinois Infrared light beam x-y position encoder for display devices
US3764813A (en) 1972-04-12 1973-10-09 Bell Telephone Labor Inc Coordinate detection system
US3860754A (en) 1973-05-07 1975-01-14 Univ Illinois Light beam position encoder apparatus
US3857022A (en) 1973-11-15 1974-12-24 Integrated Sciences Corp Graphic input device
DE2550653C3 (de) 1975-11-11 1978-12-21 Erwin Sick Gmbh Optik-Elektronik, 7808 Waldkirch Drehstrahl-Lichtvorhang
US4144449A (en) 1977-07-08 1979-03-13 Sperry Rand Corporation Position detection apparatus
GB1575420A (en) 1978-02-01 1980-09-24 Marconi Co Ltd Position resolving apparatus
CA1109539A (en) 1978-04-05 1981-09-22 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of Communications Touch sensitive computer input device
US4243879A (en) 1978-04-24 1981-01-06 Carroll Manufacturing Corporation Touch panel with ambient light sampling
US4373804A (en) 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
JPS5630963A (en) 1979-08-22 1981-03-28 Ishihara Sangyo Kaisha Ltd N-pyridylaniline derivative, its preparation and agent for controlling noxious life
US4420261A (en) 1980-09-02 1983-12-13 Lowbar, Inc. Optical position location apparatus
US4468694A (en) 1980-12-30 1984-08-28 International Business Machines Corporation Apparatus and method for remote displaying and sensing of information using shadow parallax
US4639720A (en) 1981-01-12 1987-01-27 Harris Corporation Electronic sketch pad
JPS5936295B2 (ja) 1981-06-23 1984-09-03 株式会社日立国際電気 光学式座標入力装置
US4558313A (en) 1981-12-31 1985-12-10 International Business Machines Corporation Indicator to data processing interface
US4459476A (en) 1982-01-19 1984-07-10 Zenith Radio Corporation Co-ordinate detection system
US4507557A (en) 1983-04-01 1985-03-26 Siemens Corporate Research & Support, Inc. Non-contact X,Y digitizer using two dynamic ram imagers
US4553842A (en) 1983-05-09 1985-11-19 Illinois Tool Works Inc. Two dimensional optical position indicating apparatus
FR2554261B1 (fr) 1983-10-28 1987-04-30 Thomson Csf Dispositif sensitif d'affichage comportant un ecran a balayage
US4550250A (en) 1983-11-14 1985-10-29 Hei, Inc. Cordless digital graphics input device
US4766424A (en) 1984-03-30 1988-08-23 Zenith Electronics Corporation Light collecting and redirecting means
US4672364A (en) 1984-06-18 1987-06-09 Carroll Touch Inc Touch input device having power profiling
US4943806A (en) 1984-06-18 1990-07-24 Carroll Touch Inc. Touch input device having digital ambient light sampling
US4703316A (en) 1984-10-18 1987-10-27 Tektronix, Inc. Touch panel input apparatus
US4673918A (en) 1984-11-29 1987-06-16 Zenith Electronics Corporation Light guide having focusing element and internal reflector on same face
JPS61196317A (ja) 1985-02-27 1986-08-30 Nippon Telegr & Teleph Corp <Ntt> 情報入力方式
US4710760A (en) 1985-03-07 1987-12-01 American Telephone And Telegraph Company, At&T Information Systems Inc. Photoelastic touch-sensitive screen
US4688933A (en) 1985-05-10 1987-08-25 The Laitram Corporation Electro-optical position determining system
JPS61262917A (ja) 1985-05-17 1986-11-20 Alps Electric Co Ltd 光電式タツチパネルのフイルタ−
DE3616490A1 (de) 1985-05-17 1986-11-27 Alps Electric Co Ltd Optische koordinaten-eingabe-vorrichtung
US4980547A (en) 1985-05-24 1990-12-25 Wells-Gardner Electronics Corp. Light distribution and detection apparatus
SE8602233L (sv) 1985-06-05 1986-12-06 Illinois Tool Works Optisk legesbestemningsanordning
US4762990A (en) 1985-10-21 1988-08-09 International Business Machines Corporation Data processing input interface determining position of object
US4831455A (en) 1986-02-21 1989-05-16 Canon Kabushiki Kaisha Picture reading apparatus
US4822145A (en) 1986-05-14 1989-04-18 Massachusetts Institute Of Technology Method and apparatus utilizing waveguide and polarized light for display of dynamic images
JPS6375918A (ja) 1986-09-19 1988-04-06 Alps Electric Co Ltd 座標入力装置
US4782328A (en) 1986-10-02 1988-11-01 Product Development Services, Incorporated Ambient-light-responsive touch screen data input method and system
US4893120A (en) 1986-11-26 1990-01-09 Digital Electronics Corporation Touch panel using modulated light
US4868912A (en) 1986-11-26 1989-09-19 Digital Electronics Infrared touch panel
US5025411A (en) 1986-12-08 1991-06-18 Tektronix, Inc. Method which provides debounced inputs from a touch screen panel by waiting until each x and y coordinates stop altering
JPH0816931B2 (ja) 1987-02-06 1996-02-21 富士通株式会社 輪郭線抽出方式
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US4820050A (en) 1987-04-28 1989-04-11 Wells-Gardner Electronics Corporation Solid-state optical position determining apparatus
US4811004A (en) 1987-05-11 1989-03-07 Dale Electronics, Inc. Touch panel system and method for using same
US4990901A (en) 1987-08-25 1991-02-05 Technomarket, Inc. Liquid crystal display touch screen having electronics on one side
US4928094A (en) 1988-01-25 1990-05-22 The Boeing Company Battery-operated data collection apparatus having an infrared touch screen data entry device
JP2705156B2 (ja) 1988-03-07 1998-01-26 ソニー株式会社 タッチパネル装置
JPH01314324A (ja) 1988-06-14 1989-12-19 Sony Corp タッチパネル装置
US5164714A (en) 1988-06-20 1992-11-17 Amp Incorporated Modulated touch entry system and method with synchronous detection
JPH01320521A (ja) 1988-06-22 1989-12-26 Wacom Co Ltd 電子黒板装置及びその筆記具等
US4851664A (en) 1988-06-27 1989-07-25 United States Of America As Represented By The Secretary Of The Navy Narrow band and wide angle hemispherical interference optical filter
US5109435A (en) 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
US5196835A (en) 1988-09-30 1993-03-23 International Business Machines Corporation Laser touch panel reflective surface aberration cancelling
US4916308A (en) 1988-10-17 1990-04-10 Tektronix, Inc. Integrated liquid crystal display and optical touch panel
DE3836429A1 (de) 1988-10-26 1990-05-03 Paul Nolden Sensormatrix fuer bildschirme
JPH0354618A (ja) 1989-07-22 1991-03-08 Fujitsu Ltd 光学式位置指示装置
DE3932030A1 (de) 1989-09-26 1991-04-04 Philips Patentverwaltung Hochdruckgasentladungslampe
US5179369A (en) 1989-12-06 1993-01-12 Dale Electronics, Inc. Touch panel and method for controlling same
JP2917155B2 (ja) 1989-12-18 1999-07-12 株式会社日立製作所 画像結合装置及び方法
JP2896183B2 (ja) 1990-02-22 1999-05-31 株式会社ワコム 光学式複数2次元座標同時入力装置
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5105186A (en) 1990-05-25 1992-04-14 Hewlett-Packard Company Lcd touch screen
US5162783A (en) 1990-07-23 1992-11-10 Akzo N.V. Infrared touch screen device for a video monitor
US5025314A (en) 1990-07-30 1991-06-18 Xerox Corporation Apparatus allowing remote interactive use of a plurality of writing surfaces
US5103085A (en) 1990-09-05 1992-04-07 Zimmerman Thomas G Photoelectric proximity detector and switch
US6736321B2 (en) 1995-12-18 2004-05-18 Metrologic Instruments, Inc. Planar laser illumination and imaging (PLIIM) system employing wavefront control methods for reducing the power of speckle-pattern noise digital images acquired by said system
US5239152A (en) 1990-10-30 1993-08-24 Donnelly Corporation Touch sensor panel with hidden graphic mode
US5162618A (en) 1990-11-16 1992-11-10 Exzec, Inc. Acoustic touch position sensor with first order lamb wave reflective arrays
US5148015A (en) 1990-12-24 1992-09-15 Pitney Bowes Inc. Touch switch input device for computer system
US5239373A (en) 1990-12-26 1993-08-24 Xerox Corporation Video computational shared drawing space
JP3318897B2 (ja) 1991-01-29 2002-08-26 ソニー株式会社 ビデオモニタ付リモートコントローラ
US5097516A (en) 1991-02-28 1992-03-17 At&T Bell Laboratories Technique for illuminating a surface with a gradient intensity line of light to achieve enhanced two-dimensional imaging
JP3087345B2 (ja) 1991-05-28 2000-09-11 松下電器産業株式会社 入力装置
JPH04355815A (ja) 1991-06-03 1992-12-09 Pfu Ltd タッチスクリーン
US5168531A (en) 1991-06-27 1992-12-01 Digital Equipment Corporation Real-time recognition of pointing information from video
US5196836A (en) 1991-06-28 1993-03-23 International Business Machines Corporation Touch panel display
US5272470A (en) 1991-10-10 1993-12-21 International Business Machines Corporation Apparatus and method for reducing system overhead while inking strokes in a finger or stylus-based input device of a data processing system
US5448263A (en) 1991-10-21 1995-09-05 Smart Technologies Inc. Interactive display system
CA2367864C (en) 1991-10-21 2010-05-25 Smart Technologies Inc. Interactive display apparatus for displaying computer-generated image projected thereon
US6141000A (en) 1991-10-21 2000-10-31 Smart Technologies Inc. Projection display system with touch sensing on screen, computer assisted alignment correction and network conferencing
JPH05181605A (ja) 1991-12-27 1993-07-23 Seiko Instr Inc 座標読み取り機能付き投影表示装置およびその表示スクリーンおよびその表示装置
JPH05189137A (ja) 1992-01-16 1993-07-30 Sumitomo Heavy Ind Ltd 計算機用コマンド入力装置
JPH05197810A (ja) 1992-01-20 1993-08-06 Nippon Telegr & Teleph Corp <Ntt> 映像によるコマンド入力処理方法
GB2263765A (en) 1992-01-25 1993-08-04 Paul Philip Oliver Touch screen systems
GB9201949D0 (en) 1992-01-30 1992-03-18 Jenkin Michael Large-scale,touch-sensitive video display
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5605406A (en) 1992-08-24 1997-02-25 Bowen; James H. Computer input devices with light activated switches and light emitter protection
US5724743A (en) 1992-09-04 1998-03-10 Snap-On Technologies, Inc. Method and apparatus for determining the alignment of motor vehicle wheels
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US7084859B1 (en) 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US5422494A (en) 1992-10-16 1995-06-06 The Scott Fetzer Company Barrier transmission apparatus
DE69331433T2 (de) 1992-10-22 2002-10-02 Advanced Interconnection Technology, Inc. Einrichtung zur automatischen optischen Prüfung von Leiterplatten mit darin verlegten Drähten
US5317140A (en) 1992-11-24 1994-05-31 Dunthorn David I Diffusion-assisted position location particularly for visual pen detection
US5751355A (en) 1993-01-20 1998-05-12 Elmo Company Limited Camera presentation supporting system
US5374971A (en) 1993-03-12 1994-12-20 Picturetel Corporation Two-view video camera stand and support method
US5502568A (en) 1993-03-23 1996-03-26 Wacom Co., Ltd. Optical position detecting unit, optical coordinate input unit and optical position detecting method employing a pattern having a sequence of 1's and 0's
US5359155A (en) 1993-03-25 1994-10-25 Tiger Scientific Corp. Illumination apparatus for a digitizer tablet
US5729704A (en) 1993-07-21 1998-03-17 Xerox Corporation User-directed method for operating on an object-based model data structure through a second contextual image
JPH07230352A (ja) 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
US5490655A (en) 1993-09-16 1996-02-13 Monger Mounts, Inc. Video/data projector and monitor ceiling/wall mount
JPH07110733A (ja) 1993-10-13 1995-04-25 Nippon Signal Co Ltd:The 入力装置
US7310072B2 (en) 1993-10-22 2007-12-18 Kopin Corporation Portable communication display device
JP3419050B2 (ja) 1993-11-19 2003-06-23 株式会社日立製作所 入力装置
US5739850A (en) 1993-11-30 1998-04-14 Canon Kabushiki Kaisha Apparatus for improving the image and sound processing capabilities of a camera
US5484966A (en) 1993-12-07 1996-01-16 At&T Corp. Sensing stylus position using single 1-D image sensor
US5712658A (en) 1993-12-28 1998-01-27 Hitachi, Ltd. Information presentation apparatus and information display apparatus
GB2286100A (en) 1994-01-19 1995-08-02 Ibm Touch-sensitive display apparatus
US5457289A (en) 1994-03-16 1995-10-10 Microtouch Systems, Inc. Frontally shielded capacitive touch sensor system
US5577733A (en) 1994-04-08 1996-11-26 Downing; Dennis L. Targeting system
KR100300397B1 (ko) 1994-04-21 2001-10-22 김순택 터치판넬및디지타이저기능을겸비한시스템및구동방법
JPH08108689A (ja) 1994-05-31 1996-04-30 Nippon Typewriter Co Ltd 電子黒板
US5771039A (en) 1994-06-06 1998-06-23 Ditzik; Richard J. Direct view display device integration techniques
US5525764A (en) 1994-06-09 1996-06-11 Junkins; John L. Laser scanning graphic input system
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5737740A (en) 1994-06-27 1998-04-07 Numonics Apparatus and method for processing electronic documents
JPH0863326A (ja) 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
US5528290A (en) 1994-09-09 1996-06-18 Xerox Corporation Device for transcribing images on a board using a camera based board scanner
JPH0888785A (ja) 1994-09-16 1996-04-02 Toshiba Corp 画像入力装置
US5686942A (en) 1994-12-01 1997-11-11 National Semiconductor Corporation Remote computer input system which detects point source on operator
JPH08237407A (ja) 1994-12-09 1996-09-13 Xerox Corp 画像タイルの相対的なアラインメントを見当合わせすると共に透視歪みを修正するための方法
US5638092A (en) 1994-12-20 1997-06-10 Eng; Tommy K. Cursor control system
JPH08179888A (ja) 1994-12-21 1996-07-12 Hitachi Ltd 大画面ディスプレイ用入力装置
US5554828A (en) 1995-01-03 1996-09-10 Texas Instruments Inc. Integration of pen-based capability into a field emission device system
US5804773A (en) 1995-02-16 1998-09-08 Elo Touchsystems, Inc. Simplified touch screen with improved position accuracy
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5736686A (en) 1995-03-01 1998-04-07 Gtco Corporation Illumination apparatus for a digitizer tablet with improved light panel
JPH08240407A (ja) 1995-03-02 1996-09-17 Matsushita Electric Ind Co Ltd 位置検出入力装置
US5591945A (en) 1995-04-19 1997-01-07 Elo Touchsystems, Inc. Acoustic touch position sensor using higher order horizontally polarized shear wave propagation
KR19990008158A (ko) 1995-04-28 1999-01-25 모리시타요우이치 인터페이스 장치
JP3436828B2 (ja) 1995-05-08 2003-08-18 株式会社リコー 画像処理装置
JPH08315152A (ja) 1995-05-22 1996-11-29 Sony Corp 画像認識装置
US5698845A (en) 1995-05-23 1997-12-16 Stanley Electric Co., Ltd. Optical detection apparatus for detecting light interruption
US5786810A (en) 1995-06-07 1998-07-28 Compaq Computer Corporation Method of determining an object's position and associated apparatus
US5734375A (en) 1995-06-07 1998-03-31 Compaq Computer Corporation Keyboard-compatible optical determination of object's position
US5764223A (en) 1995-06-07 1998-06-09 International Business Machines Corporation Touch-screen input device using the monitor as a light source operating at an intermediate frequency
JPH09106320A (ja) 1995-08-24 1997-04-22 Symbios Logic Inc 図形入力装置および図形入力方法
JPH0991094A (ja) 1995-09-21 1997-04-04 Sekisui Chem Co Ltd タッチパネルの座標検出装置
US5818424A (en) 1995-10-19 1998-10-06 International Business Machines Corporation Rod shaped device and data acquisition apparatus for determining the position and orientation of an object in space
US6384743B1 (en) 1999-06-14 2002-05-07 Wisconsin Alumni Research Foundation Touch screen for the vision-impaired
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JPH09190284A (ja) 1996-01-11 1997-07-22 Canon Inc 情報処理装置およびその方法
TW394879B (en) 1996-02-09 2000-06-21 Sega Enterprises Kk Graphics processing system and its data input device
JPH09224111A (ja) 1996-02-16 1997-08-26 Hitachi Denshi Ltd 電子黒板
US5739479A (en) 1996-03-04 1998-04-14 Elo Touchsystems, Inc. Gentle-bevel flat acoustic wave touch sensor
US5940065A (en) 1996-03-15 1999-08-17 Elo Touchsystems, Inc. Algorithmic compensation system and method therefor for a touch sensor panel
US5784054A (en) 1996-03-22 1998-07-21 Elo Toughsystems, Inc. Surface acoustic wave touchscreen with housing seal
JP3807779B2 (ja) 1996-05-29 2006-08-09 富士通株式会社 座標検出装置
US7098392B2 (en) 1996-07-10 2006-08-29 Sitrick David H Electronic image visualization system and communication methodologies
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
JP3217972B2 (ja) 1996-08-02 2001-10-15 松下電器産業株式会社 タッチパネル付き携帯通信機器
US6208329B1 (en) 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
KR100269070B1 (ko) 1996-08-30 2000-10-16 모리 하루오 차량용네비게이션장치
US5745116A (en) 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US5936615A (en) 1996-09-12 1999-08-10 Digital Equipment Corporation Image-based touchscreen
US5819201A (en) 1996-09-13 1998-10-06 Magellan Dis, Inc. Navigation system with vehicle service information
JPH10124689A (ja) 1996-10-15 1998-05-15 Nikon Corp 画像記録再生装置
JP3625349B2 (ja) 1997-02-12 2005-03-02 株式会社東芝 画像入力装置および画像入力方法
EP0837418A3 (en) 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
JP3943674B2 (ja) 1996-10-25 2007-07-11 キヤノン株式会社 カメラ制御システム並びにカメラサーバ及びその制御方法
AU5156198A (en) 1996-10-29 1998-05-22 Xeotron Corporation Optical device utilizing optical waveguides and mechanical light-switches
US6061177A (en) 1996-12-19 2000-05-09 Fujimoto; Kenneth Noboru Integrated computer display and graphical input apparatus and method
DE69626208T2 (de) 1996-12-20 2003-11-13 Hitachi Europe Ltd., Maidenhead Verfahren und System zur Erkennung von Handgesten
JP3800274B2 (ja) 1996-12-25 2006-07-26 タッチパネル・システムズ株式会社 音響的接触検出装置
US6252989B1 (en) 1997-01-07 2001-06-26 Board Of The Regents, The University Of Texas System Foveated image coding system and method for image bandwidth reduction
JP3624070B2 (ja) 1997-03-07 2005-02-23 キヤノン株式会社 座標入力装置及びその制御方法
US6122865A (en) 1997-03-13 2000-09-26 Steelcase Development Inc. Workspace display
US5914709A (en) 1997-03-14 1999-06-22 Poa Sana, Llc User input device for a computer system
WO1998044316A1 (en) 1997-04-02 1998-10-08 Goszyk Kurt A Adjustable area coordinate position data-capture system
US6104387A (en) 1997-05-14 2000-08-15 Virtual Ink Corporation Transcription system
JP3876942B2 (ja) 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
US6346966B1 (en) 1997-07-07 2002-02-12 Agilent Technologies, Inc. Image acquisition system for machine vision applications
US6229529B1 (en) 1997-07-11 2001-05-08 Ricoh Company, Ltd. Write point detecting circuit to detect multiple write points
US5790910A (en) 1997-08-04 1998-08-04 Peerless Industries, Inc. Camera mounting apparatus
JPH1151644A (ja) 1997-08-05 1999-02-26 Honda Motor Co Ltd 車両用距離測定装置
EP0897161B1 (en) 1997-08-07 2007-10-10 Fujitsu Limited Optical scanning-type touch panel
JPH11110116A (ja) 1997-08-07 1999-04-23 Fujitsu Ltd 光学式位置検出装置
JPH1164026A (ja) 1997-08-12 1999-03-05 Fujitsu Ten Ltd ナビゲーション装置
US6161066A (en) 1997-08-18 2000-12-12 The Texas A&M University System Advanced law enforcement and response technology
US6188939B1 (en) 1997-08-18 2001-02-13 The Texas A&M University System Advanced law enforcement and response technology
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6243074B1 (en) 1997-08-29 2001-06-05 Xerox Corporation Handedness detection for a physical manipulatory grammar
JP3846981B2 (ja) 1997-09-02 2006-11-15 富士通株式会社 光学式位置検出装置付き情報表示装置
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6215477B1 (en) 1997-10-22 2001-04-10 Smart Technologies Inc. Touch sensitive display panel
CA2308213A1 (en) 1997-10-22 1999-04-29 James T. Sears Voice-output reading system with gesture-based navigation
CA2219886A1 (en) 1997-10-31 1999-04-30 Smart Technologies Inc. Method and system for interfacing applications software with electronic writeboard
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
TW449709B (en) 1997-11-17 2001-08-11 Hewlett Packard Co A method for distinguishing a contact input
US6310610B1 (en) 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
KR100595924B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
JPH11212692A (ja) 1998-01-28 1999-08-06 Ricoh Co Ltd タッチパネル入力装置とグラフィカルユーザインタフェース方法
AU2439399A (en) 1998-02-09 1999-08-23 Haim Azaria Video camera computer touch screen system
US6226035B1 (en) 1998-03-04 2001-05-01 Cyclo Vision Technologies, Inc. Adjustable imaging system with wide angle capability
US6222175B1 (en) 1998-03-10 2001-04-24 Photobit Corporation Charge-domain analog readout for an image sensor
US6847737B1 (en) 1998-03-13 2005-01-25 University Of Houston System Methods for performing DAF data filtering and padding
CA2268208C (en) 1998-04-06 2011-06-14 Smart Technologies, Inc. Method for erasing on an electronic writeboard
US6031531A (en) 1998-04-06 2000-02-29 International Business Machines Corporation Method and system in a graphical user interface for facilitating cursor object movement for physically challenged computer users
CA2267733A1 (en) 1998-04-06 1999-10-06 Smart Technologies, Inc. Method for editing objects representing writing on an electronic writeboard
JP2000105671A (ja) 1998-05-11 2000-04-11 Ricoh Co Ltd 座標入力/検出装置および電子黒板システム
US6232962B1 (en) 1998-05-14 2001-05-15 Virtual Ink Corporation Detector assembly for use in a transcription system
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
US6496122B2 (en) 1998-06-26 2002-12-17 Sharp Laboratories Of America, Inc. Image display and remote control system capable of displaying two distinct images
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000043484A (ja) 1998-07-30 2000-02-15 Ricoh Co Ltd 電子黒板システム
AU5572799A (en) 1998-08-18 2000-03-14 Digital Ink, Inc. Handwriting device with detection sensors for absolute and relative positioning
US7057647B1 (en) 2000-06-14 2006-06-06 E-Watch, Inc. Dual-mode camera system for day/night or variable zoom operation
JP4016526B2 (ja) 1998-09-08 2007-12-05 富士ゼロックス株式会社 3次元物体識別装置
JP2000089913A (ja) 1998-09-08 2000-03-31 Gunze Ltd タッチパネル入力座標変換装置
US6570612B1 (en) 1998-09-21 2003-05-27 Bank One, Na, As Administrative Agent System and method for color normalization of board images
DE19845030A1 (de) 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6972753B1 (en) 1998-10-02 2005-12-06 Semiconductor Energy Laboratory Co., Ltd. Touch panel, display device provided with touch panel and electronic equipment provided with display device
US6690357B1 (en) 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
US6731270B2 (en) 1998-10-21 2004-05-04 Luidia Inc. Piezoelectric transducer for data entry device
CA2252302C (en) 1998-10-30 2009-01-20 Smart Technologies Inc. Keyboard for an electronic writeboard and method
US6741267B1 (en) 1998-10-30 2004-05-25 Smart Technologies, Inc. Keyboard for an electronic writeboard and method
US6414673B1 (en) 1998-11-10 2002-07-02 Tidenet, Inc. Transmitter pen location system
DE19856007A1 (de) 1998-12-04 2000-06-21 Bayer Ag Anzeigevorrichtung mit Berührungssensor
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6597348B1 (en) 1998-12-28 2003-07-22 Semiconductor Energy Laboratory Co., Ltd. Information-processing device
US6633328B1 (en) 1999-01-05 2003-10-14 Steris Corporation Surgical lighting system with integrated digital video camera
JP2000222110A (ja) 1999-01-29 2000-08-11 Ricoh Elemex Corp 座標入力装置
US6335724B1 (en) 1999-01-29 2002-01-01 Ricoh Company, Ltd. Method and device for inputting coordinate-position and a display board system
JP4043128B2 (ja) 1999-02-24 2008-02-06 富士通株式会社 光走査型タッチパネル
US6179426B1 (en) 1999-03-03 2001-01-30 3M Innovative Properties Company Integrated front projection system
US6530664B2 (en) 1999-03-03 2003-03-11 3M Innovative Properties Company Integrated front projection system with enhanced dry erase screen configuration
US6545669B1 (en) 1999-03-26 2003-04-08 Husam Kinawi Object-drag continuity between discontinuous touch-screens
JP3481498B2 (ja) 1999-04-28 2003-12-22 日本航空電子工業株式会社 光学式タッチパネル
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
JP3830121B2 (ja) 1999-06-10 2006-10-04 株式会社 ニューコム 物体検出用光学ユニット及びそれを用いた位置座標入力装置
TW459192B (en) 1999-06-25 2001-10-11 Toshiba Corp Electronic apparatus and electronic system provided with the same
JP2001014091A (ja) 1999-06-30 2001-01-19 Ricoh Co Ltd 座標入力装置
JP3986710B2 (ja) 1999-07-15 2007-10-03 株式会社リコー 座標検出装置
JP2001060145A (ja) 1999-08-23 2001-03-06 Ricoh Co Ltd 座標入力/検出システムおよびその位置合わせ調整方法
JP4083941B2 (ja) 1999-09-03 2008-04-30 株式会社リコー 座標入力装置
JP2001075735A (ja) 1999-09-06 2001-03-23 Canon Inc 座標入力装置及びその方法、コンピュータ可読メモリ
JP3905670B2 (ja) 1999-09-10 2007-04-18 株式会社リコー 座標入力検出装置、情報記憶媒体及び座標入力検出方法
JP4057200B2 (ja) 1999-09-10 2008-03-05 株式会社リコー 座標入力装置および座標入力装置の記録媒体
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
AU7822300A (en) 1999-09-29 2001-04-30 James Loke Kie Chan A method and apparatus for detecting depression pressure in a stylus
WO2003007049A1 (en) 1999-10-05 2003-01-23 Iridigm Display Corporation Photonic mems and structures
AU1351001A (en) 1999-10-27 2001-05-08 Digital Ink, Inc. Tracking motion of a writing instrument
JP4052498B2 (ja) 1999-10-29 2008-02-27 株式会社リコー 座標入力装置および方法
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP3819654B2 (ja) 1999-11-11 2006-09-13 株式会社シロク 指示体の識別機能を有する光デジタイザ
US6328270B1 (en) 1999-11-12 2001-12-11 Elbex Video Ltd. Swivel joint with cable passage for a television camera or a case
CA2393164C (en) 1999-12-02 2008-04-01 Elo Touchsystems, Inc. Apparatus and method to improve resolution of infrared touch systems
JP2001184161A (ja) 1999-12-27 2001-07-06 Ricoh Co Ltd 情報入力方法、情報入力装置、筆記入力装置、筆記データ管理方法、表示制御方法、携帯型電子筆記装置および記録媒体
JP2001209487A (ja) 2000-01-25 2001-08-03 Uw:Kk 筆跡通信システムおよび該システムで使用される筆跡入力装置及び筆跡表示装置
US6529189B1 (en) 2000-02-08 2003-03-04 International Business Machines Corporation Touch screen stylus with IR-coupled selection buttons
JP3881148B2 (ja) 2000-02-18 2007-02-14 株式会社リコー 座標検出用受光装置、座標入力/検出装置、電子黒板、装着位置検出方法及び記憶媒体
EP1128318A3 (en) 2000-02-21 2002-01-23 Cyberboard A/S Position detection device
JP3934846B2 (ja) 2000-03-06 2007-06-20 株式会社リコー 座標入力/検出装置、電子黒板システム、受光素子の位置ズレ補正方法及び記憶媒体
JP2001265516A (ja) 2000-03-16 2001-09-28 Ricoh Co Ltd 座標入力装置
JP2001282445A (ja) 2000-03-31 2001-10-12 Ricoh Co Ltd 座標入力/検出装置および情報表示入力装置
JP4094796B2 (ja) 2000-03-31 2008-06-04 株式会社リコー 座標入力システム、座標入力システムの制御方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP3834766B2 (ja) 2000-04-03 2006-10-18 独立行政法人科学技術振興機構 マンマシーン・インターフェース・システム
DE10085455T1 (de) 2000-04-14 2003-02-27 Fujitsu Ltd Optische Positionsdetektiervorrichtung und Aufzeichnungsmedium
US6624833B1 (en) 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
US7084868B2 (en) 2000-04-26 2006-08-01 University Of Louisville Research Foundation, Inc. System and method for 3-D digital reconstruction of an oral cavity from a sequence of 2-D images
US7859519B2 (en) 2000-05-01 2010-12-28 Tulbert David J Human-machine interface
US6864882B2 (en) 2000-05-24 2005-03-08 Next Holdings Limited Protected touch panel display system
US6650318B1 (en) 2000-10-13 2003-11-18 Vkb Inc. Data input device
EP1316055A4 (en) 2000-05-29 2006-10-04 Vkb Inc DEVICE FOR ENTERING VIRTUAL DATA AND METHOD FOR ENTERING ALPHANUMERIC AND OTHER DATA
USRE40368E1 (en) 2000-05-29 2008-06-10 Vkb Inc. Data input device
US6690397B1 (en) 2000-06-05 2004-02-10 Advanced Neuromodulation Systems, Inc. System for regional data association and presentation and method for the same
US6690363B2 (en) 2000-06-19 2004-02-10 Next Holdings Limited Touch panel display system
US7692625B2 (en) 2000-07-05 2010-04-06 Smart Technologies Ulc Camera-based touch system
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7466843B2 (en) 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
US6531999B1 (en) 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP3851763B2 (ja) 2000-08-04 2006-11-29 株式会社シロク 位置検出装置、位置指示器、位置検出方法及びペンダウン検出方法
US6778207B1 (en) 2000-08-07 2004-08-17 Koninklijke Philips Electronics N.V. Fast digital pan tilt zoom video
JP4208394B2 (ja) 2000-08-09 2009-01-14 株式会社リコー 座標入力装置
US6747663B2 (en) 2000-08-24 2004-06-08 Sun Microsystems, Inc. Interpolating sample values from known triangle vertex values
NO20004514A (no) 2000-09-11 2002-01-14 Njoelstad Tormod Tegne-, skrive- og peke-redskap for datamaskinbaserte presentasjoner og kontorarbeid
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3793014B2 (ja) 2000-10-03 2006-07-05 キヤノン株式会社 電子源の製造装置、電子源の製造方法及び画像形成装置の製造方法
WO2002033541A2 (en) 2000-10-16 2002-04-25 Tangis Corporation Dynamically determining appropriate computer interfaces
US6774889B1 (en) 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US6518600B1 (en) 2000-11-17 2003-02-11 General Electric Company Dual encapsulation for an LED
US6590568B1 (en) 2000-11-20 2003-07-08 Nokia Corporation Touch screen drag and drop input technique
US6530702B2 (en) 2000-12-02 2003-03-11 Thomas H. S. Harris Operator supported remote camera positioning and control system
US7190348B2 (en) 2000-12-26 2007-03-13 International Business Machines Corporation Method for touchscreen data input
US6540679B2 (en) 2000-12-28 2003-04-01 Guided Therapy Systems, Inc. Visual imaging system for ultrasonic probe
US7914453B2 (en) 2000-12-28 2011-03-29 Ardent Sound, Inc. Visual imaging system for ultrasonic probe
CN100489881C (zh) 2001-01-08 2009-05-20 Vkb有限公司 数据输入装置和数据输入方法
JP3977018B2 (ja) 2001-02-07 2007-09-19 株式会社リコー 情報入力システム
US6741250B1 (en) 2001-02-09 2004-05-25 Be Here Corporation Method and system for generation of multiple viewpoints into a scene viewed by motionless cameras and for presentation of a view path
TW487593B (en) 2001-02-09 2002-05-21 Sampo Technology Corp Remote-controlled toy car set with camera and rear view mirror
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP4639293B2 (ja) 2001-02-27 2011-02-23 オプテックス株式会社 自動ドアセンサ
US6540366B2 (en) 2001-03-19 2003-04-01 Smart Technologies, Inc. Overhead projection system
CA2341918A1 (en) 2001-03-19 2002-09-19 Robert Sirotich Overhead projection system
JP4768143B2 (ja) 2001-03-26 2011-09-07 株式会社リコー 情報入出力装置、情報入出力制御方法およびプログラム
GB2374266A (en) 2001-04-04 2002-10-09 Matsushita Comm Ind Uk Ltd Virtual user interface device
JP4551018B2 (ja) 2001-04-05 2010-09-22 富士通株式会社 画像結合装置
US6738051B2 (en) 2001-04-06 2004-05-18 3M Innovative Properties Company Frontlit illuminated touch panel
US6517266B2 (en) 2001-05-15 2003-02-11 Xerox Corporation Systems and methods for hand-held printing on a surface or medium
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
CA2350152A1 (en) 2001-06-08 2002-12-08 Smart Technologies Inc. Camera-based system for capturing images of a target area
GB2378073B (en) 2001-07-27 2005-08-31 Hewlett Packard Co Paper-to-computer interfaces
US6927384B2 (en) 2001-08-13 2005-08-09 Nokia Mobile Phones Ltd. Method and device for detecting touch pad unit
US7202857B2 (en) 2001-08-29 2007-04-10 Microsoft Corporation Manual controlled scrolling
JP2003162370A (ja) 2001-09-14 2003-06-06 Ricoh Co Ltd 画像処理装置、タッチパネル付きディスプレイ装置、画像処理方法、および画像処理方法をコンピュータに実行させるプログラム
US7007236B2 (en) 2001-09-14 2006-02-28 Accenture Global Services Gmbh Lab window collaboration
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US7254775B2 (en) 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
JP3920067B2 (ja) 2001-10-09 2007-05-30 株式会社イーアイティー 座標入力装置
EP1443386A4 (en) 2001-11-09 2006-11-02 Minebea Co Ltd Touch Panel ASSEMBLY
JP2003158597A (ja) 2001-11-21 2003-05-30 Mitsubishi Rayon Co Ltd 手書き画像入力面として使用されるスクリーンを備えた画像表示装置
JP2003167669A (ja) 2001-11-22 2003-06-13 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
US7121470B2 (en) 2002-01-11 2006-10-17 Hand Held Products, Inc. Transaction terminal having elongated finger recess
JP3805259B2 (ja) 2002-01-29 2006-08-02 富士写真フイルム株式会社 画像処理方法、画像処理装置及び電子カメラ
US7091926B2 (en) 2002-02-08 2006-08-15 Kulas Charles J Computer display system using multiple screens
US6628216B2 (en) 2002-02-13 2003-09-30 Intersil Americas Inc. Calibration of resistor ladder using difference measurement and parallel resistive correction
CA2372868A1 (en) 2002-02-19 2003-08-19 Smart Technologies Inc. Method and system for cleaning images to highlight information recorded on a background surface
US7305115B2 (en) 2002-02-22 2007-12-04 Siemens Energy And Automation, Inc. Method and system for improving ability of a machine vision system to discriminate features of a target
JP2005535004A (ja) 2002-03-27 2005-11-17 ネルコアー ピューリタン ベネット インコーポレイテッド 赤外線タッチフレームシステム
US20030210803A1 (en) 2002-03-29 2003-11-13 Canon Kabushiki Kaisha Image processing apparatus and method
US7038659B2 (en) 2002-04-06 2006-05-02 Janusz Wiktor Rajkowski Symbol encoding apparatus and method
US20040144760A1 (en) 2002-05-17 2004-07-29 Cahill Steven P. Method and system for marking a workpiece such as a semiconductor wafer and laser marker for use therein
JP2004005272A (ja) 2002-05-31 2004-01-08 Cad Center:Kk 仮想空間移動制御装置及び制御方法並びに制御プログラム
US7499033B2 (en) 2002-06-07 2009-03-03 Smart Technologies Ulc System and method for injecting ink into an application
US20030226968A1 (en) 2002-06-10 2003-12-11 Steve Montellese Apparatus and method for inputting data
US7283126B2 (en) 2002-06-12 2007-10-16 Smart Technologies Inc. System and method for providing gesture suggestions to enhance interpretation of user input
US7330184B2 (en) 2002-06-12 2008-02-12 Smart Technologies Ulc System and method for recognizing connector gestures
CA2390503C (en) 2002-06-12 2010-08-17 Smart Technologies Inc. System and method for providing gesture suggestions to enhance interpretation of user input
US7260257B2 (en) 2002-06-19 2007-08-21 Microsoft Corp. System and method for whiteboard and audio capture
US20030234346A1 (en) 2002-06-21 2003-12-25 Chi-Lei Kao Touch panel apparatus with optical detection for location
US20040001144A1 (en) 2002-06-27 2004-01-01 Mccharles Randy Synchronization of camera images in camera-based touch system to enhance position determination of fast moving objects
US20040204129A1 (en) 2002-08-14 2004-10-14 Payne David M. Touch-sensitive user interface
JP2004078613A (ja) 2002-08-19 2004-03-11 Fujitsu Ltd タッチパネル装置
CA2502235A1 (en) 2002-10-10 2004-04-22 Waawoo Technology Inc. Pen-shaped optical mouse
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US20040125086A1 (en) 2002-12-30 2004-07-01 Hagermoser Edward S. Touch input device having removable overlay
US6972401B2 (en) 2003-01-30 2005-12-06 Smart Technologies Inc. Illuminated bezel and touch system incorporating the same
US20040221265A1 (en) 2003-02-07 2004-11-04 Smart Technologies Inc. Connected and overlapped shapes enhancements
CN100468303C (zh) 2003-02-14 2009-03-11 奈克斯特控股公司 触摸屏及光学探测物体相对于触摸屏是否存在的方法
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US7176905B2 (en) 2003-02-19 2007-02-13 Agilent Technologies, Inc. Electronic device having an image-based data input system
US20040169639A1 (en) 2003-02-28 2004-09-02 Pate Michael A. Visible pointer tracking with separately detectable pointer tracking signal
US6947032B2 (en) 2003-03-11 2005-09-20 Smart Technologies Inc. Touch system and method for determining pointer contacts on a touch surface
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7256772B2 (en) 2003-04-08 2007-08-14 Smart Technologies, Inc. Auto-aligning touch system and method
US7133032B2 (en) 2003-04-24 2006-11-07 Eastman Kodak Company OLED display and touch screen
US8330726B2 (en) 2003-05-19 2012-12-11 Xiroku, Inc. Position detection apparatus using area image sensor
WO2004102523A1 (en) 2003-05-19 2004-11-25 Itzhak Baruch Optical coordinate input device comprising few elements
US7432893B2 (en) 2003-06-14 2008-10-07 Massachusetts Institute Of Technology Input device based on frustrated total internal reflection
US7190496B2 (en) 2003-07-24 2007-03-13 Zebra Imaging, Inc. Enhanced environment visualization using holographic stereograms
JP4125200B2 (ja) 2003-08-04 2008-07-30 キヤノン株式会社 座標入力装置
JP4405766B2 (ja) 2003-08-07 2010-01-27 キヤノン株式会社 座標入力装置、座標入力方法
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
EP1668482A2 (en) 2003-09-22 2006-06-14 Koninklijke Philips Electronics N.V. Touch input screen using a light guide
JP2005107607A (ja) 2003-09-29 2005-04-21 Eit:Kk 光学式位置検出装置
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7145766B2 (en) 2003-10-16 2006-12-05 Hewlett-Packard Development Company, L.P. Display for an electronic device
US7265748B2 (en) 2003-12-11 2007-09-04 Nokia Corporation Method and device for detecting touch pad input
JP2005182423A (ja) 2003-12-19 2005-07-07 Totoku Electric Co Ltd 座標入力装置
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7265752B2 (en) 2004-01-09 2007-09-04 Microsoft Corporation Multi-chart geometry images
US7232986B2 (en) 2004-02-17 2007-06-19 Smart Technologies Inc. Apparatus for detecting a pointer within a region of interest
US7460110B2 (en) * 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7687736B2 (en) 2004-04-29 2010-03-30 Smart Technologies Ulc Tensioned touch panel and method of making same
US7492357B2 (en) 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US7178947B2 (en) 2004-06-04 2007-02-20 Dale Marks Lighting device with elliptical fresnel mirror
US7372456B2 (en) 2004-07-07 2008-05-13 Smart Technologies Inc. Method and apparatus for calibrating an interactive touch system
JP4442877B2 (ja) 2004-07-14 2010-03-31 キヤノン株式会社 座標入力装置およびその制御方法
US20080129707A1 (en) 2004-07-27 2008-06-05 Pryor Timothy R Method and apparatus employing multi-functional controls and displays
FR2874300B1 (fr) 2004-08-11 2006-11-24 Renault Sas Procede de calibration automatique d'un systeme de stereovision
US7619616B2 (en) 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US7559664B1 (en) 2004-12-27 2009-07-14 John V. Walleman Low profile backlighting using LEDs
TWI259409B (en) 2005-01-07 2006-08-01 Au Optronics Corp Touch panel for recognizing fingerprint and method of making the same
US20060158437A1 (en) 2005-01-20 2006-07-20 Blythe Michael M Display device
US7800594B2 (en) 2005-02-03 2010-09-21 Toshiba Matsushita Display Technology Co., Ltd. Display device including function to input information from screen by light
US7261388B2 (en) 2005-02-28 2007-08-28 Hewlett-Packard Development Company, L.P. Error reduction by print masks
US7696987B2 (en) 2005-03-04 2010-04-13 Smart Technologies Ulc Touch panel and method of manufacturing the same
US20090135162A1 (en) 2005-03-10 2009-05-28 Koninklijke Philips Electronics, N.V. System and Method For Detecting the Location, Size and Shape of Multiple Objects That Interact With a Touch Screen Display
CA2501214A1 (en) 2005-03-18 2006-09-18 Smart Technologies Inc. Overhead projection system
US7705835B2 (en) 2005-03-28 2010-04-27 Adam Eikman Photonic touch screen apparatus and method of use
WO2006105274A2 (en) 2005-03-29 2006-10-05 Wells-Gardner Electronics Corporation Video display and touchscreen assembly, system and method
US8487910B2 (en) 2005-05-02 2013-07-16 Smart Technologies Ulc Large scale touch system and methods for interacting with same
US7995039B2 (en) 2005-07-05 2011-08-09 Flatfrog Laboratories Ab Touch pad system
US20070019103A1 (en) 2005-07-25 2007-01-25 Vkb Inc. Optical apparatus for virtual interface projection and sensing
US7898532B2 (en) 2005-08-19 2011-03-01 Silverbrook Research Pty Ltd Force sensor with dilatant fluid stop
JP2007072501A (ja) * 2005-09-02 2007-03-22 Canon Inc 座標入力装置
US8847924B2 (en) 2005-10-03 2014-09-30 Hewlett-Packard Development Company, L.P. Reflecting light
US7599520B2 (en) 2005-11-18 2009-10-06 Accenture Global Services Gmbh Detection of multiple targets on a plane of interest
US20070125652A1 (en) 2005-12-02 2007-06-07 Buckley Paul W Electroform, methods of making electroforms, and products made from electroforms
TWI333572B (en) 2005-12-20 2010-11-21 Ind Tech Res Inst Light source package structure
AU2006332488A1 (en) 2005-12-30 2007-07-12 Apple Inc. Portable electronic device with multi-touch input
US20070165007A1 (en) 2006-01-13 2007-07-19 Gerald Morrison Interactive input system
US20070205994A1 (en) 2006-03-02 2007-09-06 Taco Van Ieperen Touch system and method for interacting with the same
JP4518092B2 (ja) 2006-03-31 2010-08-04 ソニー株式会社 物体認識装置、物体認識方法、物体認識プログラム、特徴量登録装置、特徴量登録方法、及び特徴量登録プログラム
WO2007132033A1 (es) 2006-05-17 2007-11-22 Smart Technology, S.A. Sistema de detección, guiado o seguimiento de dispositivos o personas
US7984995B2 (en) 2006-05-24 2011-07-26 Smart Technologies Ulc Method and apparatus for inhibiting a subject's eyes from being exposed to projected light
TW200803482A (en) 2006-06-01 2008-01-01 Micro Nits Co Ltd Image processing method of indicator input system
CN102937846B (zh) 2006-06-09 2015-07-01 苹果公司 触摸屏液晶显示器
US7333094B2 (en) 2006-07-12 2008-02-19 Lumio Inc. Optical touch screen
US7302156B1 (en) 2006-07-12 2007-11-27 Lumio Inc. Optical system
US7333095B1 (en) 2006-07-12 2008-02-19 Lumio Inc Illumination for optical touch panel
US8441467B2 (en) 2006-08-03 2013-05-14 Perceptive Pixel Inc. Multi-touch sensing display through frustrated total internal reflection
TWI355631B (en) 2006-08-31 2012-01-01 Au Optronics Corp Liquid crystal display with a liquid crystal touch
TWI354962B (en) 2006-09-01 2011-12-21 Au Optronics Corp Liquid crystal display with a liquid crystal touch
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8094129B2 (en) 2006-11-27 2012-01-10 Microsoft Corporation Touch sensing using shadow and reflective modes
US7268692B1 (en) 2007-02-01 2007-09-11 Lumio Inc. Apparatus and method for monitoring hand propinquity to plural adjacent item locations
WO2008128096A2 (en) 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
US20080259050A1 (en) 2007-04-20 2008-10-23 Pixart Imaging Incorporation Optical touch control apparatus and method thereof
US8325154B2 (en) 2007-04-20 2012-12-04 Pixart Imaging Incorporation Optical touch control apparatus and method thereof
CA2697856A1 (en) 2007-08-30 2009-03-05 Next Holdings, Inc. Low profile touch panel systems
KR20100055516A (ko) 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
US7874495B2 (en) * 2008-02-13 2011-01-25 Microsoft Corporation Reducing a visible presence of an optically readable tag
CN102057348A (zh) 2008-06-05 2011-05-11 智能技术无限责任公司 多指针模糊和阻挡分辨
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector

Also Published As

Publication number Publication date
EP2274670A4 (en) 2012-12-05
RU2010144572A (ru) 2012-06-20
EP2274670A1 (en) 2011-01-19
CN102016773A (zh) 2011-04-13
BRPI0911882A2 (pt) 2015-10-13
CA2722824A1 (en) 2009-11-12
US8902193B2 (en) 2014-12-02
AU2009244012A1 (en) 2009-11-12
JP2011521331A (ja) 2011-07-21
US20090277694A1 (en) 2009-11-12
CN102016773B (zh) 2013-06-05
KR20110005737A (ko) 2011-01-18
WO2009135321A1 (en) 2009-11-12

Similar Documents

Publication Publication Date Title
MX2010012263A (es) Sistema de entrada interactivo con marco optico.
US10324566B2 (en) Enhanced interaction touch system
CN102681664B (zh) 电子装置、信息处理方法、程序和电子装置***
MX2010012264A (es) Sistema de entrada interactivo y montaje de iluminacion para el mismo.
US8970478B2 (en) Autostereoscopic rendering and display apparatus
CA2521418C (en) Auto-aligning touch system and method
US20150015528A1 (en) Hybrid capacitive image determination and use
US8338725B2 (en) Camera based touch system
US20140028575A1 (en) Gesture and Touch Input Detection Through Force Sensing
US9507472B2 (en) Hybrid capacitive baseline management
US9721365B2 (en) Low latency modification of display frames
CN102016764A (zh) 交互输入***和及其笔工具
CN101673159A (zh) 光触摸屏
US20140070875A1 (en) Routing trace compensation
US10481742B2 (en) Multi-phase touch-sensing electronic device
CN105210013B (zh) 经由触摸缓冲器的输入装置噪声消减的***和方法
CN110244882A (zh) 减轻来自传感器电极的电磁辐射
CN106170747A (zh) 输入装置及输入装置的控制方法
CN104978018B (zh) 触控***及触控方法
US20130328835A1 (en) Optical touch panel
CN104049747A (zh) 一种用手指直接控制光标的鼠标装置
EP3170065A1 (en) Display apparatus and control method thereof
JP6837496B2 (ja) タッチパネル
US20130154989A1 (en) System and method for touch screen
CN203606780U (zh) 多点触摸和手势识别融合***

Legal Events

Date Code Title Description
FA Abandonment or withdrawal