BRPI0822675B1 - Sistema de display e método - Google Patents

Sistema de display e método Download PDF

Info

Publication number
BRPI0822675B1
BRPI0822675B1 BRPI0822675-0A BRPI0822675A BRPI0822675B1 BR PI0822675 B1 BRPI0822675 B1 BR PI0822675B1 BR PI0822675 A BRPI0822675 A BR PI0822675A BR PI0822675 B1 BRPI0822675 B1 BR PI0822675B1
Authority
BR
Brazil
Prior art keywords
aforementioned
cameras
screen
display
reflectors
Prior art date
Application number
BRPI0822675-0A
Other languages
English (en)
Inventor
Bradley Suggs
Original Assignee
Hewlett-Packard Development Company, L.P.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett-Packard Development Company, L.P. filed Critical Hewlett-Packard Development Company, L.P.
Publication of BRPI0822675A2 publication Critical patent/BRPI0822675A2/pt
Publication of BRPI0822675B1 publication Critical patent/BRPI0822675B1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

"moinho de rolo de moagem fina". a presente invenção refere-se a um moinho de rolo 1 o para pulverização do material fino possui um mecanismo de moagem, que inclui uma pluralidade de rolos de moagem 64 e um anel de moagem 66, que reveste para pulverizar o material dentro de um alojamento do moinho. o anel de moagem possui uma superfície interna de moagem em que a superfície interna inclui uma parte vertical superior e uma parte inferior internamente inclinada. a parte inferior do anel provê um meio para reter mais partículas finas no anel durante a pulverização, bem como um aumento na superfície de moagem. os rolos de moagem possuem uma forma geralmente cilíndrica, com uma superfície externa de moagem que inclui uma parte vertical superior e uma parte inferior da superfície externa de moagem. a superfície externa de moagem do rolo é complementar à superfície interna de moagem do anel de moagem.

Description

SISTEMA DE DlSPLAY E MÉTODO
Antecedentes
Uma tela de toque é um display que pode detectar a presença e localização de um toque, p.ex., por um dedo, dentro da área do display. As . capacidades de tela de toque podem ser habilitadas por uma faixa de tecnologias incluindo resistiva, onda acústica de superfície, capacitiva, infravermelho, medidor de tensão, formação de imagem de laser difuso, formação de imagem ótica, 10 tecnologia de sinal dispersivo, e reconhecimento de pulso acústico. Uma tela de toque permite a entrada do usuário sem requerer um dispositivo separado tal com um mouse ou uma janela multitoque [trackpad]. Ao contrário daqueles dispositivos, uma tela de toque permite um usuário 15 interagir com o que está exibido diretamente, na tela, 1 * onde e'stá exibido, ao invés de indiretamente.
As telas de toque são incorporadas crescentemente em dispositivos pequenos tais como telefones celulares,_ . PDAs, - tocadores* diqita'is “ de áudio, e unidades de 20 navegação. Displays de tela de toque grande também são crescentemente comuns em quiosques e outras instalações comerciais. Entretanto, os displays para computadores desktop usualmente não fornecem capacidades de tela de toque.
Os computadores TouchSmart®, disponíveis de HewlettPackard Company, são exceções notáveis. Os computadores incluem e são visualmente dominados por um display de tela de toque. Emissores infravermelhos nos cantos superiores do display irradiam luz que é normalmente 30 refletida por facetas de display opostas. Arranjos de detectores lineares detectam as reflexões e quaisquer sombras para localizar um toque trigonometricamente. As capacidades da tela de toque aumentam significativamente o custo dos computadores.
Descrição resumida dos desenhos
As características e vantagens da invenção bem como características e vantagens adicionais da mesma serão .t. mais claramente entendidas aqui a seguir como um resultado de uma descrição detalhada de uma configuração preferida da invenção quando tomada em conjunção com os desenhos seguintes nos quais:
A figura 1 é um diagrama esquemático de um sistema de computador incorporando um display de tela de toque de acordo com uma configuração da invenção;
A figura 2 é uma vista em planta de topo esquemática de um display da fig. 1 com refletores em posições de modo 10 de webcam [modo de câmera da web] permitindo os sensores serem usados como uma webcam estéreo;
A figura 3 é uma vista em planta de topo esquemática do display da fig. 1 com refletores em posições de modo de tela de toque permitindo os sensores serem usados para 15 efetuar capacidades de tela de toque; e . _ .
A figura 4 é um diagrama de fluxo de um método de acordo com uma configuração da invenção.
Estas figuras representam implementações/configurações_da
- - - - — - invenção e nâcT a’ ptópria invenção.
Descrição detalhada
A presente invenção provê o uso de um par de webcams (p.ex., ao invés de um par de sensores de arranjo linear) para prover funcionalidade de tela de toque. Economias de custos são conseguidas em parte devido à economia em 25 escala: os sensores webcam são mais baratos que, por exemplo, os sensores lineares usados em algumas implementações de tela de toque. A eficiência em custos é reforçada adicionalmente uma vez que as câmeras também podem ser usadas como webcams, provendo imagem estéreo e 30 controle de gestos 3D.
Um computador tudo-em-um AP1 de acordo com uma configuração da invenção é mostrado na fig. 1. O computador AP1 tem câmeras estéreo 11L e 11R, as quais são usadas: 1) para funcionalidade de tela de toque e 2) 35 funcionalidade de webcam, em outras palavras para formar imagens e para rastrear a posição de dedo ou apontador em um display. Embora a configuração ilustrada se relacione com computador tudo-em-um (computador e display como unidade monolítica) , outras configurações se relacionam com um display que é separado do próprio computador.
computador tudo-em-um AP1 inclui um alojamento 13, processadores 15, mídia de armazenagem lida por computador 17 (incluindo memória principal, disco, e armazenagem baseada em flash) , um processador de vídeo multi-imagem 19, e dispositivos de comunicações (incluindo 1/0), incluindo uma tela de display 21. O 10 alojamento 13 provê uma estrutura 23 para a tela de display 21, a qual inclui uma placa de vidro 25, como mostrada nas figs. 2 e 3. A estrutura 23 e tela de display 21 estão em ponte por uma faceta reterorrefletiva 27 .
As câmeras 11L e 11R estão localizadas por baixo da- placa de vidro 25 próximas dos respectivos cantos superiores 29L e 29R da tela de display 21. As câmeras 11L e 11R (fig. 1) têm respectivos campos de visão 31Le_31R_ (fig._
- - - — “ “ 2)t “Os “campos de visão 31L e 31R são direcionados geralmente para fora, com alguma inclinação no sentido de seu centro comum tal que eles convirjam no sentido de uma posição esperada do usuário como desejado para seus usos como webcams estéreos e para controle de gestos 3D. Mesmo com a inclinação, os campos de visão 31L e 31R são mais 25 ortogonais do que paralelos a (a superfície 2D de) a tela de display 21. Isto permite as câmeras 11L e 11R detectarem luz do objeto a partir de objetos centrados em relação a e pelo menos a um pé da tela de display 21
- - - - - tal que os objetos possam ter imagem formada.
Tal que as câmeras 11L e 11R possam ser usadas para funcionalidade de tela de toque, refletores de pálpebra 33L e 33R podem ser movidos para posições ocluindo respectivamente os campos de visão 31L e 31R. Nestas posições, os refletores 33L e 33R fazem a luz da tela de 35 toque chegando da faceta 27 ao longo da tela de display (e portanto não dentro dos campos de visão 31L e 31R) serem redirecionadas contra as respectivas câmeras 11L e
11R. Em uma configuração, esta luz é fornecida por uma superfície de face emissiva. Na configuração ilustrada, esta luz é provida por emissores infravermelhos de fonte pontual 35L e 35R, colocalizados grosseiramente com as câmeras 11L e 11R, respectivamente. Neste caso, a faceta é retrorrefletiva em que luz incidente 34 a partir de um emissor 35L, 35R é refletida como luz de tela de toque 36 de volta contra o emissor pela faceta com um mínimo de dispersão. Refletores de pálpebra 33L e 33R têm respectivas aberturas 37L e 37R (fig. 3), através as quais luz a partir dos emissores 35L e 35R é direcionada no sentido de lados opostos da faceta retrorrefletiva 27.
Cada emissor 35L, 35R emite luz infravermelha 35 e a direciona para os dois lados opostos da faceta 37. Mais 15 especificamente, o emissor 35L direciona ,a.luz JIV para c 'lado inferior 38B (fig. 1) e lado direito 39R da faceta retrorrefletiva 27, enquanto o emissor 35R direciona luz IV para o lado inferior 39B e lado esquerdo 39L da faceta.
- - -2-7 .- Os emissores'351. “e 35R e faceta 27 não estão nos campos 31L e 31R (fig. 2) . Portanto, com os refletores
33L e 33R em suas posições de modo de webcam, como mostrado na fig. 2, nem a luz IV 34 emitida pelos emissores 35L e 35R, nem a luz IV 36 refletida pela faceta 27 atinge as câmeras 11L e 11R-. Filtros ' de corte de IV 41L e 41R (fig. 2) limitam a luz de alcançar as câmeras 11L e 11R para luz visível tal que as câmeras 11L e 11R forneçam imagens que mais proximamente combinem com o que uma pessoa vê e não sejam superadas por luz IV.
- - As câmeras 111 é 11R são conectadas ao processador de 30 vídeo 19, o qual executa processamento dos sinais digitais a partir das câmeras. O processador de vídeo 19 detecta as posições dos refletores 33L e 33R para distinguir entre os modos de tela de toque e de webcam. O processador de vídeo 19 se comunica com outros 35 componentes do computador usando uma conexão USB interna.
Em configurações alternativas, IEEE 1394 (firewire) ou outras conexões de protocolo são usadas. Em um submodo de gesto 3D, o processamento reduz as imagens estéreas para um mapa de deslocamento (informação de distância) que o computador AP1 pode então interpretar e responder como comandos.
A transmissão de luz ao longo da tela de display 21 pode ser bloqueada por um objeto tocando ou de outra forma suficientemente próximo da tela de display 21. Quando o computador AP1 está em modo de tela de toque (com os refletores 33L e 33R ocluindo os campos de visão 31L e 10 31R), o processador de vídeo 19 pode detectar e localizar as sombras resultantes. O processador de vídeo 19 determina trigonometricamente a localização da tela de display 2D do objeto comparando o local de rupturas (sombras) como visto pelas câmeras 11L e 11R.
A mídia 17 tem dados e programas lidos por computador de _ - -instruções “executáveis por computador codificadas nela.
Um tal programa é um controlador de modo de tela de toque/webcam 43, o qual provê uma interface para_ sum usuário. comutar “entre cs’modos dè webcam e tela de toque 20 para o computador AP1. Quando um usuário comuta para o modo de tela de toque, os refletores 33L e 33R são movidos para dentro e portanto ocluem os campos de visão 31L e 31R tal que 11R. Um usuário pode selecionar o modo de webcam, movendo os refletores- -33L e 33R para suas 25 posições de webcam (fig. 2), fora dos campos de visão 31L e 31R. Na configuração ilustrada, os refletores 33L e 33R são movidos manualmente por um usuário e o movimento é detectado pelo controlador de modo 43. Em uma configuração- alternativa, os refletores são motorizados e 30 controlados pelo software controlador de modo.
Um usuário pode selecionar dentre vários modos providos pelo processador de vídeo 19: 1) no modo de tela de toque, o processador de vídeo 19 determina locais de toque; 2) em modo bruto, o processador 19 provê um par de 35 sinais de vídeo brutos; em modo de webcam 2D, um par de imagens de vídeo brutas (a maioria para o modo de webcam) ; 3) em modo de webcam 2D, o processador de vídeo combina imagens brutas para prover imagens de vídeo 2D misturadas; 4) em modo de webcam 3D, o processador de vídeo 19 combina imagens de vídeo brutas para prover imagens 3D; 5) em modo de comando 3D, o processador de vídeo 19 combina imagens de vídeo brutas com gestos que podem ser convertidos para comandos. O último modo provê controle baseado em gestos do computador AP1 como uma alternativa para controle por tela de toque. Este controle baseado em gestos pode ser sem modo (não 10 necessita mover os refletores 33L e 33R para posição) e mais confortável que o controle de tela de toque (algumas pessoas começam a se sentir desconfortáveis quando esticando seus braços para uma operação por toque de tela por longos períodos de tempo).
Um método ME1 de acordo com a invenção está representado . . em diagrama -de fluxô r.a fig. 4. Na etapa Ml, um usuário comuta modos (p.ex., movendo manualmente os refletores 33L e 33R) entre um modo de tela de toque Mil e um modo de webcam M21. . No caso - que o comüta’dor esteja para o modo 20 de tela de toque Mil, os refletores 33L e 33R são movidos tal que eles ocluam os respectivos campos de visão 31L e 31R das câmeras 11L e 11R na etapa M12. Em adição, os emissores de IV 35L e 35R podem ser ligados. Os refletores 33L e 33R redirecionam - luz a- partir de 25 trajetórias ao longo e portanto mais paralelas que ortogonais à tela de display 21 para uma trajetória mais ortogonal que paralela à tela de display 21 na etapa M13. Se um dedo ou apontador ou um objeto similar contatar ou pelo menos se aproximar da tela de display, ele bloqueará 30 a luz transmitida mais paralela que ortogonal para a tela de display. Em tal caso, sombras podem ser detectadas em imagens de video na etapa M14 . As posições das sombras nas respectivas imagens de câmera podem ser usadas para localizar uma posição 2D do objeto em relação à tela de 35 display na etapa M15. Esta informação de posição pode ser usada para interpretar gestos bidimensionais (toque, deslizamento, etc.) tal que os gestos possam ser interpretados (convertidos para) comandos na etapa M16.
No caso que, na etapa Ml, um usuário comute para um modo de webcam M21, os refletores 33L e 33R são movidos para fora de respectivos campos de visão de câmera 31L e 31R 5 na etapa M22; em adição, os emissores 35L e 35R podem ser desligados. Remover os refletores 33L e 33R permite luz transmitida mais ortogonal que paralela à tela de display alcançar as câmeras 11L e 11R na etapa M23 sem ser redirecionada. Isto permite várias imagens de vídeo de um uma
As uma
Em cabeça várias do usuário, serem podem ser 2D ou 3D imagens de vídeo imagem adição, ser convertidos para comandos gestos 3D detectados objeto distai, p.ex., geradas na etapa M24. combinadas para gerar unificada na etapa M25.
nas imagens de vídeo podem etc.) na etapa M26. aqui provê a de tela de toque disponíveis e (selecionar, mover, A -tecnologia ~ descrita marginal da tecnologia (webcams) amplamente teynologia, de- tela- deredução do custo 1) usando câmeras econômicas ^para; toque;’ ”e” '2) arranjar para que os componentes da tela de toque (p.ex., câmeras) sejam usados para outros propósitos (p.ex., funcionalidade de webcam mais alimentação de gesto 3D) . Provendo a funcionalidade tanto de tela de toque quanto de gesto, uma ponte é fornecida entre, as tecnologias de controle de ’ 'toque familiar e controle de gesto emergente.
A descrição anterior, para propósitos de explanação, foi descrita com referência a configurações específicas. Entretanto, as discussões ilustrativas não são intencionadas a serem exaustivas ou a limitar a invenção às formas precisas divulgadas. Muitas modificações e variações são possíveis em vista dos ensinamentos divulgados. As configurações foram escolhidas e descritas para mais bem explicar os princípios da invenção e suas aplicações práticas, para desta forma permitir outros experientes na técnica utilizarem melhor a invenção e várias configurações com várias modificações que sejam adequadas ao particular uso contemplado.
Como usado aqui, tela de toque se refere a qualquer tecnologia que é usada para identificar uma posição em uma tela de display que é contatada por um dedo, apontador, ou objeto similar. Embora algumas tecnologias 5 de tela de toque realmente detectem toque, a tecnologia baseada em imagem descrita aqui não é baseada em toque naquele sentido. Pelo contrário, a presente invenção detecta a posição por formação de imagem e não importa se objeto cuja imagem está sendo formada está realmente 10 tocando a tela de display ou se está somente próximo o suficiente da tela de display para interromper luz transmitida ao longo da tela de display.
Aqui, distai significa afastada o suficiente de uma tela de display que não possa ser detectado por luz usada 15 para localizar posição 2D no modo de tela de toque; na prática isto pode sèr um centímetro ou mais a partir da tela de display. Aqui, proximal significa em contato com ou próximo o suficiente para ser detectado por luz _ usadapara, localizar- a- -posi ção 2D’ em modo de tela de 20 toque. Tipicamente, proximal é menos que um centímetro.
A invenção provê muitas alternativas para a configuração ilustrada. A invenção provê para computador tudo-em-um e configurações de display. A invenção pode ser aplicada a utilidades não consideradas . . tipicamente - _a ’ ' Serem -25' computadores (embora elas possam incluir componentes de computador), p.ex., painéis de televisões e de displays em outros dispositivos tais como impressoras. As câmeras podem ser localizadas em outros lugares, p.ex., cantos inferiores ou ao longo das laterais de displays. Mais que 30 duas câmeras podem ser usadas; p.ex., uma terceira câmera no centro do topo ou fundo pode auxiliar a resolver a localização de um objeto tocando o display. A webcam central standard pode ser combinada com as câmeras estéreo para diferenciar entre dois toques em um modo de 35 tela de toque ou para refinar um mapa de deslocamento bem como prover economias no custo da lógica da interface e da placa de circuito.
A forma dos experientes refletores pode ser determinada na técnica dado que os por aqueles lados opostos da das câmeras estar dentro do campo de como modificado pelos refletores, configuração, os refletores podem transladar ou girar faceta devem visão
Dependendo da entre posições. Alternativamente, um refletor não móvel pode ser usado. Por exemplo, o refletor pode ser de material que possa ser controlado eletricamente tal que ele seja mais refletivo ou mais transmissivo. Em uma 10 outra configuração, o refletor trabalha como um meio espelho prateado ou divisor de feixe, permitindo alguma luz passar (para uso de tela de toque) e alguma ser transmitida (para uso de webcam).
Na configuração ilustrada, a radiação infravermelha é 15 usada em modo de tela de toque e luz visível é usada em modo. . de _ webcam. “Outras configurações fazem uso deste espectro dividido para permitir operação sem modo ou para prover comutação de modos comutando espectro. _Na configuração _ilustrada,--os * reflètõfès podem ser movidos 20 para uma posição entre um filtro de corte de IV e uma câmera. Em uma configuração alternativa, os emissores e a funcionalidade de tela de toque fazem uso de espectro visível ao invés de IV. Isto permite um filtro de corte de IV ser acoplado à câmera ao invés de ficar separado da .- 25 câmera pelo refletor. Ao invés dos emissores serem colocalizados com as câmeras, a faceta pode ser emissiva (de espectro IV ou visível). Em uma outra configuração, as câmeras são giradas de acordo com o modo; nesta configuração,, nenhum -refletor é requerido. Estas e outras variações e modificações para a configuração ilustrada são providas pela presente invenção, o escopo da qual é definido pelas reivindicações seguintes.

Claims (9)

1. Sistema de display compreendendo: uma tela de display plana dimensões; várias câmeras visão (31L, 31R) que se paralelos à citada tela distais; tela de tela de e um câmeras;
uma posição 2D objeto próximo de imagens citada luz o sistema (21) que se estende em duas (11L, 11R) tendo campos de estendem mais ortogonais que de display para ver objetos 33R) para redirecionar luz de uma direção ao longo da citada direção no sentido das citadas vídeo (19) para localizar refletores (33L, toque a partir de display para uma processador de em relação à citada tela de display de um à citada tela de display como geradas pelas citadas câmeras em de tela de toque, de display caracterizado pelo fato citados refletores terem uma condição de tela uma condição de webcam, os citados refletores citada luz de tela tela de toque, os objeto de objetos webcam.
de toque somente na citada citados refletores distais quando na uma função resposta à de que os de toque e dirigindo a condição detectando luz de citada condição de de acordo com a reivindicação
2. Sistema de display, de caracterizado pelo fato de: a citada condição de tela tela de toque dos citados refletores (33L eles ocluem os citados campos a citada condição de webcam dos citados refletores nas de toque envolver posições , 33R) nas quais de visão (31L, 31R); e envolver posições de webcam quais eles não ocluem os de citados campos de visão.
3. Sistema de display, de acordo com a reivindicação 1, caracterizado pelo fato de os citados refletores (33L, 33R) serem móveis tal que um usuário possa movê-los entre as citadas posições de tela de toque e as citadas posições de webcam.
4. Sistema de display, de acordo com a reivindicação 1, caracterizado pelo fato de o citado processador de vídeo (19) prover para interpretar gestos 3D como comandos.
Petição 870190049329, de 27/05/2019, pág. 5/9
5. Método, caracterizado pelo fato de compreender:
comutar entre um modo de webcam e um modo de tela de toque; no citado modo de webcam, formar imagem de um objeto distai de uma tela de display (21) usando duas ou mais câmeras (11L, 11R), e gerar uma imagem de vídeo do citado objeto; e no citado modo de tela de toque, refletir feixe de luz propagando mais paralelo que ortogonal à citada tela de display tal que ela seja redirecionada para ser mais ortogonal que paralela à citada tela de display tal que ela atinja as citadas câmeras, e determinar uma posição sobre uma superfície da citada tela de display contatada por um objeto como uma função da forma como a citada luz atinge as citadas câmeras.
6. Método, de acordo com a reivindicação 5, caracterizado pelo fato de a citada comutação envolver mover refletores (33L, 33R) entre:
a) posições nas quais eles ocluem os campos de visão (31L, 31R) de respectivas citadas câmeras (111, 11R); e
b) posições nas quais eles não ocluem os campos de visão de respectivas citadas câmeras.
7. Método, de acordo com a reivindicação 5, caracterizado pelo fato de compreender adicionalmente, no citado modo de webcam, converter gestos 3D pelo citado objeto em comandos como uma função de várias imagens de vídeo capturadas pelas citadas câmeras (11L, 11R).
8. Método, de acordo com a reivindicação 5, caracterizado pelo fato de compreender adicionalmente:
desligar emissores infravermelhos (35L, 35R) quando comutando do citado modo de câmera para o citado modo de tela de toque; e ligar os citados emissores quando comutando do citado modo de tela de toque para o citado modo de câmera.
9. Método, de acordo com a reivindicação 5, caracterizado pelo fato de as citadas câmeras (11L, 11R) serem localizadas em cantos superiores opostos da citada tela de display (21).
BRPI0822675-0A 2008-09-15 2008-09-15 Sistema de display e método BRPI0822675B1 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2008/076469 WO2010030296A1 (en) 2008-09-15 2008-09-15 Touchscreen display with plural cameras

Publications (2)

Publication Number Publication Date
BRPI0822675A2 BRPI0822675A2 (pt) 2015-06-30
BRPI0822675B1 true BRPI0822675B1 (pt) 2019-09-17

Family

ID=42005377

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0822675-0A BRPI0822675B1 (pt) 2008-09-15 2008-09-15 Sistema de display e método

Country Status (8)

Country Link
US (1) US8593434B2 (pt)
JP (1) JP5331887B2 (pt)
CN (1) CN102160018B (pt)
BR (1) BRPI0822675B1 (pt)
DE (1) DE112008003983T5 (pt)
GB (1) GB2475212B (pt)
TW (1) TW201011616A (pt)
WO (1) WO2010030296A1 (pt)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100177162A1 (en) * 2009-01-15 2010-07-15 Charles Macfarlane Method and system for enabling 3d video and image processing using one full resolution video stream and one lower resolution video stream
US8558804B2 (en) * 2009-12-14 2013-10-15 Silicon Motion, Inc. Touch control apparatus and touch point detection method
US9377903B2 (en) 2010-06-01 2016-06-28 Cho-Yi Lin Portable optical touch system
US9250749B2 (en) 2010-06-01 2016-02-02 Cho-Yi Lin Electrical apparatus
TWI569174B (zh) 2010-06-01 2017-02-01 林卓毅 可攜式光學觸控系統
EP2662819A2 (en) 2011-01-04 2013-11-13 AQ Co., Ltd System for providing advertisement information
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
TWI452510B (zh) * 2011-12-23 2014-09-11 Innolux Corp 顯示裝置及其偵測遠端物體移動之方法
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9507462B2 (en) * 2012-06-13 2016-11-29 Hong Kong Applied Science and Technology Research Institute Company Limited Multi-dimensional image detection apparatus
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US9098739B2 (en) 2012-06-25 2015-08-04 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching
US9069414B2 (en) 2012-08-02 2015-06-30 Nano-Optic Devices, Llc Touchscreen sensor for touchscreen display unit
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
JP2014102668A (ja) * 2012-11-20 2014-06-05 Toshiba Corp 表示装置
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
TWI492114B (zh) * 2013-02-05 2015-07-11 Quanta Comp Inc 光學式多點觸控裝置與其光學觸控模組
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
CN103780812A (zh) * 2013-11-26 2014-05-07 广东欧珀移动通信有限公司 显示装置及其摄像显示方法
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
CN103744596A (zh) * 2014-01-20 2014-04-23 联想(北京)有限公司 显示控制方法和电子设备
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN106681496A (zh) * 2016-12-07 2017-05-17 南京仁光电子科技有限公司 基于多侦测面的控制方法和装置
DE102017223674A1 (de) * 2017-12-22 2019-06-27 BSH Hausgeräte GmbH Gargerät und Verfahren zum Betreiben desselben
CN112188181B (zh) * 2019-07-02 2023-07-04 中强光电股份有限公司 图像显示设备、立体图像处理电路及其同步信号校正方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4847606A (en) * 1987-08-25 1989-07-11 Oak Industries Inc. Control and display system
US4990901A (en) * 1987-08-25 1991-02-05 Technomarket, Inc. Liquid crystal display touch screen having electronics on one side
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP2003087876A (ja) * 2001-09-14 2003-03-20 Takenaka Komuten Co Ltd 機器利用支援装置及び方法
US7629967B2 (en) * 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
AU2004211738B2 (en) * 2003-02-14 2007-04-19 Next Holdings Limited Touch screen signal processing
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US20060044282A1 (en) * 2004-08-27 2006-03-02 International Business Machines Corporation User input apparatus, system, method and computer program for use with a screen having a translucent surface
US7355594B2 (en) * 2004-09-30 2008-04-08 Symbol Technologies, Inc. Optical touch screen arrangement
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
JP4570145B2 (ja) * 2004-12-07 2010-10-27 株式会社シロク 位置検出平面外に撮像部を有する光学式位置検出装置
DE102007021537B4 (de) * 2006-12-13 2020-01-02 Lg Display Co., Ltd. Displayeinheit mit Mehrfachberührungs-Erkennungsfunktion
CN101971128B (zh) 2007-12-05 2013-07-17 阿尔梅瓦股份公司 屏幕与指针对象之间交互用的交互装置
US8213914B2 (en) * 2008-08-04 2012-07-03 Lg Electronics Inc. Mobile terminal capable of providing web browsing function and method of controlling the mobile terminal
US8111247B2 (en) * 2009-03-27 2012-02-07 Sony Ericsson Mobile Communications Ab System and method for changing touch screen functionality

Also Published As

Publication number Publication date
GB201104407D0 (en) 2011-04-27
JP2012503230A (ja) 2012-02-02
US20110134036A1 (en) 2011-06-09
GB2475212A (en) 2011-05-11
JP5331887B2 (ja) 2013-10-30
GB2475212B (en) 2013-03-20
DE112008003983T5 (de) 2011-07-21
CN102160018A (zh) 2011-08-17
US8593434B2 (en) 2013-11-26
BRPI0822675A2 (pt) 2015-06-30
WO2010030296A1 (en) 2010-03-18
CN102160018B (zh) 2014-09-24
TW201011616A (en) 2010-03-16

Similar Documents

Publication Publication Date Title
BRPI0822675B1 (pt) Sistema de display e método
RU2579952C2 (ru) Система и способ мультисенсорного взаимодействия и подсветки на основе камеры
JPWO2017125984A1 (ja) 空中表示装置
US20110291991A1 (en) Portable optical touch system
US9454260B2 (en) System and method for enabling multi-display input
KR102052752B1 (ko) 텍스트 입력장치와 포인터 위치정보 입력장치가 구비된 복합 휴먼 인터페이스 장치
US20150035799A1 (en) Optical touchscreen
US8664582B2 (en) Display with an optical sensor
JP5764266B2 (ja) 光ベースのタッチ感応電子デバイス
US9880669B2 (en) Touch panel with infrared light receiving elements, and display device
KR20150050546A (ko) 복합휴먼 인터페이스 장치
JP2023504590A (ja) 非接触型タッチ入力システム
US20130162597A1 (en) Optical touch control module
KR101359731B1 (ko) 반사부를 이용한 터치인식 시스템
TWI573043B (zh) The virtual two - dimensional positioning module of the input device
US20130161491A1 (en) Optical touch control module
KR100978437B1 (ko) 멀티터치 제어시스템 및 제어방법
CN105659193A (zh) 多功能人机交互设备
US20130265283A1 (en) Optical operation system
KR102189744B1 (ko) 텍스트 입력장치와 포인터 위치정보 입력장치가 구비된 복합 휴먼 인터페이스 장치
KR101504608B1 (ko) 광학방식 터치검출장치의 안정화 장치
US20230111346A1 (en) Touch Control System And Method
KR20130084734A (ko) 반사거울을 구비한 디스플레이용 터치센서모듈 및 이를 포함하는 광학장치
JP2022188689A (ja) 空間入力システム
KR20140044525A (ko) 모션 센서 카메라를 이용한 터치 스크린 프레임 및 이를 포함하는 디스플레이 시스템

Legal Events

Date Code Title Description
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 17/09/2019, OBSERVADAS AS CONDICOES LEGAIS. (CO) 10 (DEZ) ANOS CONTADOS A PARTIR DE 17/09/2019, OBSERVADAS AS CONDICOES LEGAIS

B21F Lapse acc. art. 78, item iv - on non-payment of the annual fees in time

Free format text: REFERENTE A 15A ANUIDADE.

B24J Lapse because of non-payment of annual fees (definitively: art 78 iv lpi, resolution 113/2013 art. 12)

Free format text: EM VIRTUDE DA EXTINCAO PUBLICADA NA RPI 2740 DE 11-07-2023 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDA A EXTINCAO DA PATENTE E SEUS CERTIFICADOS, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.