BR112020001912A2 - método para derivar uma correção de alinhamento entre uma tela do olho direito e uma tela do olho esquerdo e método para correção do alinhamento estereoscópico entre uma tela do olho direito e uma tela do olho esquerdo - Google Patents

método para derivar uma correção de alinhamento entre uma tela do olho direito e uma tela do olho esquerdo e método para correção do alinhamento estereoscópico entre uma tela do olho direito e uma tela do olho esquerdo Download PDF

Info

Publication number
BR112020001912A2
BR112020001912A2 BR112020001912-7A BR112020001912A BR112020001912A2 BR 112020001912 A2 BR112020001912 A2 BR 112020001912A2 BR 112020001912 A BR112020001912 A BR 112020001912A BR 112020001912 A2 BR112020001912 A2 BR 112020001912A2
Authority
BR
Brazil
Prior art keywords
camera
alignment
screen
image
augmented reality
Prior art date
Application number
BR112020001912-7A
Other languages
English (en)
Inventor
Yochay Danziger
Original Assignee
Lumus Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lumus Ltd. filed Critical Lumus Ltd.
Publication of BR112020001912A2 publication Critical patent/BR112020001912A2/pt

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0161Head-up displays characterised by mechanical features characterised by the relative positioning of the constitutive elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

Dispositivos binoculares de exibição de realidade aumentada e métodos correspondentes permitem que a calibração do alinhamento seja realizada pelo usuário final. De acordo com uma abordagem, uma câmera é posicionada para ter um campo de visão que inclui simultaneamente parte de uma imagem projetada no visor do olho esquerdo e parte de uma imagem projetada no visor do olho direito. Ao projetar através de cada tela pelo menos parte de uma imagem de calibração e identificar recursos de alinhamento de campo direito e esquerdo a partir da imagem amostrada pela câmera, uma correção de alinhamento pode ser obtida. As abordagens alternativas empregam correlações de imagens amostradas por câmeras prospectivas associadas rigidamente às respectivas unidades de exibição do olho direito e do olho esquerdo, ou exigem que o usuário insira um ajuste manual para alinhar as imagens da câmera trocadas transversalmente com o conteúdo visto no mundo real.

Description

“MÉTODO PARA DERIVAR UMA CORREÇÃO DE ALINHAMENTO ENTRE UMA TELA DO OLHO DIREITO E UMA TELA DO OLHO ESQUERDO E MÉTODO
PARA CORREÇÃO DO ALINHAMENTO ESTEREOSCÓPICO ENTRE UMA TELA DO OLHO DIREITO E UMA TELA DO OLHO ESQUERDO” Campo e Histórico da invenção
[0001] A presente invenção refere-se a telas de realidade aumentada e, em particular, refere-se a telas de realidade aumentada binoculares com disposições para ajustar o alinhamento das telas de olho esquerdo e direito de uma tela de realidade aumentada binocular e métodos de alinhamento correspondentes.
[0002] Os óculos de realidade aumentada devem ser alinhados com precisão, a fim de proporcionar uma experiência de observação binocular eficaz da imagem aumentada, e até um desalinhamento relativamente pequeno pode correr o risco de causar fadiga ocular ou dores de cabeça. As abordagens convencionais normalmente envolvem a montagem dos visores esquerdo e direito em uma estrutura de suporte comum mecanicamente rígida, ilustrada na FIG. 1A, para obter um alinhamento preliminar e uma posição relativa fixa das telas. O alinhamento fino final é alcançado por deslocamento eletrônico da imagem, como ilustrado esquematicamente na FIG. 1B, que mostra uma matriz geradora de imagens 30 (isto é, as extremidades físicas do campo de visão da tela) e uma imagem projetada transformada 32 de acordo com uma matriz de calibração, tipicamente programada no firmware associado a cada tela, para alcançar o alinhamento correto entre o exibe. As margens entre 30 e 32 são projetadas no sistema para acomodar qualquer transformação necessária para corrigir o desalinhamento dentro dos limites predefinidos.
[0003] Um exemplo de processo de alinhamento de acordo com esta abordagem é ilustrado aqui fazendo referência às FIGS. 1A-2. Os parâmetros de alinhamento eletrônico são gerados colocando os óculos na frente de duas câmeras alinhadas e comparando a orientação das imagens aumentadas geradas pelos dois projetores. Os dados de calibração derivados são introduzidos no firmware de transformação dos projetores de imagem. Como alternativa, o alinhamento mecânico do sistema óptico pode ter precisão dentro da precisão óptica necessária. O processo de alinhamento acima requer um banco de alinhamento óptico dedicado e é adequado apenas para implementação em uma instalação de produção.
[0004] É necessário implementar óculos de realidade aumentada em um formato leve e compacto para tornar a tecnologia mais adequada ao mercado consumidor. Implementações leves, no entanto, geralmente carecem de rigidez mecânica suficiente para garantir o alinhamento invariável das duas telas ao longo do tempo, estando sujeitas a variações devido a variações térmicas e outras influências mecânicas ou ambientais.
[0005] Além disso, a distância inter-pupilar (DIP, distância entre os olhos) pode variar em até 15 milímetros entre pessoas diferentes. Como resultado, se os dois projetores forem conectados rigidamente, cada uma das caixas oculares (ou seja, a área de iluminação de cada projetor onde se espera que a pupila esteja, mostrada como região 10 na FIG. 1A) deverá ser maior em 15/2=7,5mm para cada olho, a fim de acomodar todos os usuários possíveis com DIP dentro da margem definida. A caixa ocular maior exige uma óptica mais volumosa e mais cara. Se um mecanismo é fornecido para o ajuste da DIP, isso normalmente introduz incertezas adicionais no alinhamento entre os dois monitores, tornando qualquer correção de alinhamento pré-calibrada não confiável. Sumário da invenção
[0006] A presente invenção é uma tela de realidade aumentada binocular com uma disposição para ajustar o alinhamento das telas do olho esquerdo e do olho direito de uma tela de realidade aumentada binocular e um método de alinhamento correspondente.
[0007] De acordo com os ensinamentos de uma modalidade da presente invenção, dispõe-se de um método para derivar uma correção de alinhamento entre uma tela do olho direito e uma tela do olho esquerdo de um dispositivo de exibição de realidade aumentada binocular, com o método compreendendo as etapas de: (a) posicionar uma câmera com um campo de visão de modo que o campo de visão da câmera inclua simultaneamente parte de uma imagem projetada a partir da tela do olho esquerdo e parte de uma imagem projetada a partir da tela do olho direito; (b) projetar pelo menos parte de uma imagem de calibração através de cada uma das telas do olho direito e do olho esquerdo, incluindo ao menos um recurso de alinhamento do campo direito e ao menos um recurso de alinhamento do campo esquerdo; (c) empregar a câmera para amostrar uma imagem; (d) identificar na imagem o recurso de alinhamento do campo direito e o recurso de alinhamento do campo esquerdo; e (e) derivar de uma posição dentro da imagem do recurso de alinhamento do campo direito e do recurso de alinhamento do campo esquerdo uma correção de alinhamento entre a tela do olho direito e a tela do olho esquerdo do dispositivo de exibição de realidade aumentada.
[0008] De acordo com uma característica adicional de uma modalidade da presente invenção, a câmera está posicionada no lado de visualização do dispositivo de exibição de realidade aumentada, de modo que a imagem inclua o recurso de alinhamento do campo direito visualizado através do visor do olho direito e o recurso de alinhamento do campo esquerdo visualizado através do visor do olho esquerdo.
[0009] De acordo com uma característica adicional de uma modalidade da presente invenção, a imagem de calibração projetada é exibida com uma distância focal aparente e em que a câmera se foca na distância focal aparente.
[0010] De acordo com uma característica adicional de uma modalidade da presente invenção, a câmera está posicionada em um lado oposto ao lado de visualização do dispositivo de exibição de realidade aumentada, de modo que a câmera capture uma porção refletida para fora da iluminação da imagem da tela do olho direito e da tela do olho esquerdo, de modo que a imagem inclua o recurso de alinhamento do campo esquerdo visualizado através da tela do olho direito e o recurso de alinhamento do campo direito visualizado através da tela do olho esquerdo.
[0011] De acordo com uma característica adicional de uma modalidade da presente invenção, a câmera é uma câmera portátil, o método compreendendo ainda a exibição através da tela do olho direito e/ou da tela do olho esquerdo de ao menos uma indicação ao usuário para ajudar no posicionamento correto da câmera.
[0012] De acordo com uma característica adicional de uma modalidade da presente invenção: (a) características associadas ao dispositivo de exibição de realidade aumentada binocular suficiente para definir pelo menos três pontos fiduciais são identificadas na imagem; e (b) uma posição da câmera é determinada em relação aos pelo menos três pontos fiduciais.
[0013] De acordo com uma característica adicional de uma modalidade da presente invenção, o posicionamento inclui direcionar a câmera para um espelho, de modo que o campo de visão refletido inclua simultaneamente parte de uma imagem projetada a partir da tela do olho esquerdo e parte de uma imagem projetada a partir da tela do olho direito.
[0014] De acordo com uma característica adicional de uma modalidade da presente invenção, a câmera é uma câmera de um dispositivo móvel integrado a uma tela, o método compreendendo ainda a exibição através da tela de ao menos uma indicação ao usuário para ajudar no posicionamento correto da câmera.
[0015] De acordo com uma característica adicional de uma modalidade da presente invenção, uma correção de alinhamento para o dispositivo de exibição de realidade aumentada é implementada com base na correção de alinhamento derivada.
[0016] Também se dispõe, de acordo com os ensinamentos de uma modalidade da presente invenção, de um método para a correção do alinhamento estereoscópico entre uma tela do olho direito e uma tela do olho esquerdo de um dispositivo de exibição de realidade aumentada binocular, o método compreendendo as etapas de: (a) fornecer um dispositivo de realidade aumentada que compreende: (i) uma unidade de exibição do olho direito que compreende uma primeira tela de realidade aumentada rigidamente integrada com uma primeira câmera prospectiva, (ii) uma unidade de exibição do olho esquerdo que compreende uma segunda exibição de realidade aumentada rigidamente integrado com uma segunda câmera prospectiva e (iii) uma estrutura de suporte interconectada entre a unidade de exibição do olho direito e a unidade de exibição do olho esquerdo; (b) fornecer um primeiro mapeamento de alinhamento entre a primeira câmera e a primeira tela de realidade aumentada e um segundo mapeamento de alinhamento entre a segunda câmera e a segunda tela de realidade aumentada; (c) amostrar pelo menos uma imagem da primeira câmera; (d) amostrar pelo menos uma imagem da segunda câmera; (e) coprocessar as imagens da primeira e da segunda câmeras para derivar um mapeamento entre câmeras que seja indicativo de uma orientação relativa entre a primeira câmera e a segunda câmera; (f) combinar o mapeamento entre câmeras com o primeiro mapeamento de alinhamento e o segundo mapeamento de alinhamento para derivar um mapeamento de alinhamento entre telas que seja indicativo de uma orientação relativa da primeira tela de realidade aumentada e da segunda tela de realidade aumentada; e (g) implementar uma correção de alinhamento no dispositivo de exibição de realidade aumentada com base no mapeamento de alinhamento entre telas.
[0017] De acordo com uma característica adicional de uma modalidade da presente invenção, a imagem da primeira câmera e a da segunda câmera são amostradas para uma cena distante.
[0018] De acordo com uma característica adicional de uma modalidade da presente invenção, a imagem da primeira câmera e a da segunda câmera são múltiplas imagens, e o coprocessamento inclui derivar um modelo tridimensional de ao menos parte de uma cena incluído nas várias imagens.
[0019] Também fornece-se, de acordo com os ensinamentos de uma modalidade da presente invenção, um método para a correção do alinhamento estereoscópico entre uma tela de olho direito e uma tela de olho esquerdo de um dispositivo de exibição de realidade aumentada binocular, o método compreendendo as etapas de: (a) fornecer um dispositivo de realidade aumentada que compreenda uma tela de realidade aumentada do olho direito, uma tela de realidade aumentada do olho esquerdo, uma câmera direita espacialmente associada à tela de realidade aumentada do olho direito e uma câmera esquerda associada espacialmente à tela de realidade aumentada do olho esquerdo; (b) realizar um primeiro processo de registro cruzado que compreende: (i) obter pelo menos uma imagem de uma cena amostrada pela câmera direita, (ii) exibir através da tela de realidade aumentada do olho esquerdo pelo menos um recurso de alinhamento derivado de ao menos uma imagem amostrada pela câmera direita; (iii) receber uma entrada do usuário indicativa de um deslocamento de alinhamento entre ao menos um recurso de alinhamento e um recurso correspondente diretamente visualizado da cena; e (iv) corrigir uma posição de exibição de ao menos um recurso de alinhamento de acordo com a entrada do usuário até que ao menos um recurso de alinhamento esteja alinhado com o recurso correspondente diretamente visualizado da cena; (c) realizar um segundo processo de registro cruzado que compreende: (i) obter pelo menos uma imagem de uma cena amostrada pela câmera esquerda, (ii) exibir através da tela de realidade aumentada do olho direito ao menos um recurso de alinhamento derivado de ao menos uma imagem amostrada pela câmera esquerda; (iii) receber uma entrada do usuário indicativa de um deslocamento de alinhamento entre ao menos um recurso de alinhamento e um recurso correspondente diretamente visualizado da cena; e (iv) corrigir uma posição de exibição de ao menos um recurso de alinhamento de acordo com a entrada do usuário até que ao menos um recurso de alinhamento esteja alinhado com o recurso correspondente diretamente visualizado da cena; e (d) implementar uma correção de alinhamento no dispositivo de exibição de realidade aumentada com base nas entradas do usuário.
[0020] De acordo com uma característica adicional de uma modalidade da presente invenção, pelo menos um recurso de alinhamento para cada um dos processos de registro cruzado é ao menos parte da imagem amostrada.
[0021] De acordo com uma característica adicional de uma modalidade da presente invenção, o recurso de alinhamento para cada um dos processos de registro cruzado é um marcador de local correspondente a um recurso detectado na imagem amostrada.
[0022] De acordo com uma característica adicional de uma modalidade da presente invenção, obtém-se uma distância estimada para um objeto na imagem amostrada, sendo a distância estimada empregada para implementar a correção do alinhamento.
[0023] De acordo com uma característica adicional de uma modalidade da presente invenção, a câmera direita é montada rigidamente em relação à tela de realidade aumentada do olho direito, e a câmera esquerda é montada rigidamente em relação à tela do olho esquerdo, com a correção de alinhamento sendo implementada usando dados de alinhamento relativo para a câmera direita em relação à tela de realidade aumentada do olho direito e dados de alinhamento relativo para a câmera esquerda em relação à tela de realidade aumentada do olho esquerdo.
[0024] De acordo com uma característica adicional de uma modalidade da presente invenção, pelo menos um processo de registro adicional é realizado para receber entradas do usuário para corrigir um alinhamento de ao menos uma entre a tela de realidade aumentada do olho direito e a tela de realidade aumentada do olho esquerdo em relação à câmera correspondente entre a câmera direita e a câmera esquerda. Breve descrição dos desenhos
[0025] A invenção é aqui descrita, apenas a título de exemplo, com referência aos desenhos anexos, em que:
[0026] FIG. 1A, descrita acima, é uma vista superior de uma tela de realidade aumentada binocular de acordo com a técnica anterior;
[0027] FIG. 1B é uma representação esquemática que explica um princípio de correção de alinhamento eletrônico para telas de realidade aumentada;
[0028] FIG. 2 é um fluxograma que ilustra um processo de ajuste de fábrica para calibrar uma tela de realidade aumentada de acordo com a técnica anterior;
[0029] FIG. 3 é uma vista frontal esquemática de uma tela de realidade aumentada binocular com uma disposição para ajustar a DIP, construída e operada de acordo com uma modalidade da presente invenção;
[0030] FIG. 4 é uma vista lateral esquemática da tela da FIG. 3 em uso;
[0031] FIG. 5 é uma vista lateral esquemática do dispositivo da FIG. 4 durante um procedimento de calibração parcial de fábrica de acordo com uma primeira opção de implementação;
[0032] FIG. 6 é uma vista lateral esquemática do dispositivo da FIG. 4 durante um procedimento de calibração parcial de fábrica de acordo com uma segunda opção de implementação;
[0033] FIG. 7 é uma representação esquemática de um processo de calibração incluindo a amostragem de uma pluralidade de imagens de um objeto ou cena de diferentes direções;
[0034] FIG. 8 é um fluxograma que ilustra um método para calibração de alinhamento para a tela de realidade aumentada das FIGS. 3 e 4 de acordo com um aspecto da presente invenção;
[0035] As figs. 9A e 9B são vistas esquemáticas lateral e frontal, respectivamente, de um dispositivo de exibição de realidade aumentada que emprega uma técnica alternativa para calibração de alinhamento;
[0036] FIG. 9C é uma representação esquemática de um ajuste de alinhamento realizado por um usuário de acordo com este aspecto da presente invenção;
[0037] FIG. 10A é uma vista lateral esquemática de um dispositivo de exibição de realidade aumentada durante a implementação de uma calibração de alinhamento de acordo com um aspecto adicional da presente invenção;
[0038] FIG. 10B é uma vista lateral esquemática ampliada, mostrando duas possíveis geometrias de elementos ópticos que orientam a luz para fornecer uma imagem de realidade aumentada aos olhos de um usuário;
[0039] FIG. 11A é uma vista esquemática superior da disposição da FIG. 10A;
[0040] FIG. 11B é uma vista superior esquemática de uma implementação variante da disposição da FIG. 10A;
[0041] FIG. 11C é uma representação esquemática de um dispositivo de comunicação móvel empregado como uma câmera para a calibração de alinhamento da FIG. 10A;
[0042] FIG. 11D é uma representação esquemática de uma imagem de calibração para exibição através da exibição de realidade aumentada durante a realização de uma calibração de alinhamento de acordo com este aspecto da presente invenção;
[0043] FIG. 11E é uma representação esquemática de uma imagem amostrada por uma câmera durante a realização de uma calibração de alinhamento de acordo com este aspecto da presente invenção;
[0044] FIG. 11F é uma vista superior esquemática de uma implementação variante adicional da disposição da FIG. 10A; e
[0045] FIG. 12 é um diagrama de fluxo que ilustra um método para calibração de alinhamento de acordo com as disposições das FIGS. 10A, 11A, 11B e 11F. Descrição das modalidades preferidas
[0045] A presente invenção é uma tela de realidade aumentada binocular com uma disposição para ajustar o alinhamento das telas do olho esquerdo e do olho direito de uma tela de realidade aumentada binocular e métodos de alinhamento correspondentes.
[0046] Os princípios e operação de dispositivos e métodos de acordo com a presente invenção podem ser melhor compreendidos fazendo referência aos desenhos e à descrição anexa.
[0047] A título de introdução, a presente invenção trata de uma série de situações nas quais o alinhamento pré-
calibrado entre uma tela e olho direito e uma tela de olho esquerdo de uma tela de realidade aumentada binocular não existe ou não pode ser considerado confiável. Isso pode ser devido ao uso de componentes estruturais leves que não podem garantir o alinhamento rígido invariável dos componentes por um longo período de tempo e/ou sob condições ambientais variáveis, ou pode ser devido à presença de um mecanismo de ajuste, particularmente um mecanismo de ajuste de DIP, o que pode resultar em um alinhamento final impreciso das telas. A presença de um mecanismo de ajuste de DIP é particularmente preferida, permitindo assim que um dispositivo de exibição de realidade aumentada acomode usuários com diferentes distâncias interpupilares, reduzindo os requisitos para o tamanho da caixa dos olhos do projetor e consequente o volume, a complexidade e o custo do projetor. No entanto, um mecanismo de ajuste de DIP normalmente introduz variabilidade no alinhamento dos dois projetores de tela.
[0048] Para resolver esses problemas, a presente invenção fornece três grupos de soluções que permitem a calibração, ou recalibração, do alinhamento das telas dos olhos direito e esquerdo de um dispositivo binocular de realidade aumentada no ambiente de trabalho normal do usuário final e sem a necessidade de qualquer equipamento especializado. Especificamente, um primeiro subconjunto de técnicas de correção de alinhamento é implementado como um processo de alinhamento automatizado ou semi-automatizado, com base na correlação de imagens amostradas por câmeras bilaterais associadas às respectivas telas esquerda e direita. Um segundo subconjunto de técnicas de correção de alinhamento, também utilizando câmeras montadas no dispositivo, requer entradas do usuário para alinhar os recursos exibidos com os correspondentes recursos do mundo real. Finalmente, um terceiro subconjunto de técnicas de correção de alinhamento é aplicável sem depender de câmeras montadas no dispositivo, e sim de uma câmera externa. Cada um desses subconjuntos de técnicas também corresponde preferencialmente a uma implementação distinta de um dispositivo de realidade aumentada binocular com componentes de controle configurados para implementar as técnicas correspondentes. Cada abordagem será agora descrita em detalhe.
[0049] Com referência agora aos desenhos, as FIGs. 3-8 ilustram vários aspectos de um dispositivo de exibição de realidade aumentada binocular, um processo inicial de alinhamento parcial e um método correspondente para correção do alinhamento estereoscópico entre uma tela de olho direito e uma tela de olho esquerdo de um dispositivo de exibição de realidade aumentada binocular, tudo de acordo com a uma primeira abordagem de um aspecto da presente invenção. De acordo com essa abordagem, cada uma das duas telas (“projetores”) é fixada rigidamente a uma câmera prospectiva. Uma ponte de estrutura de suporte entre os projetores oculares é relativamente menos rígida e/ou pode ser modificada e travada pelo usuário de acordo com sua DIP pessoal. As imagens de uma cena recebida pelas câmeras são comparadas e uma matriz de transformação é derivada para os projetores.
[0050] Assim, em termos gerais, dispõe-se de um dispositivo de realidade aumentada que inclui uma unidade de exibição do olho direito com uma primeira tela de realidade aumentada rigidamente integrada com uma primeira câmera de visão prospectiva e uma unidade de exibição do olho esquerdo com uma segunda tela de realidade aumentada rigidamente integrado com uma segunda câmera prospectiva. O dispositivo de realidade aumentada também inclui uma estrutura de suporte interconectada entre a unidade de exibição do olho direito e a unidade de exibição do olho esquerdo. De acordo com um aspecto preferido dessa abordagem, cada unidade de exibição é rígida, de modo que cada câmera esteja em alinhamento fixo com a tela de realidade aumentada correspondente, e o sistema seja fornecido com um mapeamento de alinhamento entre cada câmera e a tela de realidade aumentada correspondente, normalmente na forma de uma matriz de transformação que mapeia o alinhamento da câmera com a tela, ou seja, que permitiria a exibição da imagem da câmera alinhada corretamente com o mundo real para uma cena distante vista através da tela de realidade aumentada. A estrutura de suporte, por outro lado, não é necessariamente considerada suficientemente rígida para fornecer alinhamento invariável entre as unidades de exibição do olho esquerdo e do olho direito durante um período de tempo e, em certas implementações particularmente preferidas, inclui um mecanismo de ajuste, permitindo ajuste da DIP para diferentes usuários, o que normalmente resulta em alguma variação do alinhamento angular durante o ajuste.
[0051] Uma correção de alinhamento é então preferencialmente realizada por um sistema de processamento associado ao dispositivo de exibição de realidade aumentada, que pode ser um sistema de processamento embarcado ou um sistema de processamento associado ao dispositivo por meio de uma conexão de comunicação de curto ou longo alcance. Aqui e em qualquer outra parte desta aplicação, o processamento descrito pode ser realizado por componentes de processamento padrão, que podem ser hardware de uso geral configurado por software adequado, ou ASICs ou outro hardware dedicado ou semidedicado, conforme escolhido por uma pessoa regularmente qualificada na técnica de acordo com o que for mais adequado às funções aqui descritas. Além disso, o processamento pode ser realizado em qualquer local ou combinação de locais, incluindo, entre outros, um ou mais processadores integrados que fazem parte do dispositivo de exibição de realidade aumentada, um dispositivo de comunicações móveis em conexão com ou sem fio com o dispositivo de exibição de AR (realidade aumentada), um servidor localizado em um local remoto e conectado ao dispositivo de exibição de AR por meio de uma rede WAN e uma máquina virtual de computação em nuvem composta por recursos de computação alocados dinamicamente. Os detalhes das implementações do sistema de processamento não são necessários para uma implementação da presente invenção e, portanto, não serão descritos aqui em mais detalhes.
[0052] O processo de correção de alinhamento, de acordo com um aspecto da presente invenção, inclui preferencialmente: i. amostragem de ao menos uma imagem da primeira câmera; ii. amostragem de ao menos uma imagem da segunda câmera; iii. coprocessamento das imagens da primeira e da segunda câmera para derivar um mapeamento entre câmeras que seja indicativo de uma orientação relativa entre a primeira câmera e a segunda câmera; iv. combinar o mapeamento entre câmeras com o primeiro mapeamento de alinhamento e o segundo mapeamento de alinhamento para derivar um mapeamento de alinhamento entre telas que seja indicativo de uma orientação relativa da primeira tela de realidade aumentada e da segunda tela de realidade aumentada; e v. implementar uma correção de alinhamento no dispositivo de exibição de realidade aumentada com base no mapeamento de alinhamento entre telas.
[0053] Esse processo será discutido em maior detalhe abaixo.
[0054] A Figura 3 representa esquematicamente uma vista frontal do sistema de acordo com esta invenção. Os conjuntos ópticos 40R e 40L projetam a imagem nos elementos ópticos transparentes correspondentes 42R e 42L, de preferência implementados como elementos ópticos de orientação de luz transparentes com refletores parciais ou elementos ópticos difrativos para transmitir uma imagem virtual aos olhos direito e esquerdo do observador, respectivamente. As câmeras prospectivas 44R e 44L são fixadas rigidamente aos seus projetores adjacentes, enquanto uma estrutura de suporte 46, preferencialmente implementada como um arranjo mecânico ajustável, conecta os dois projetores. Esse arranjo mecânico pode, de preferência, ser destravado para alterar a distância entre os projetores e depois travado novamente antes do uso. Isso permite o ajuste de DIP e, portanto, a redução do tamanho e da complexidade do projetor. Entende-se que paralelismo e a orientação precisos normalmente não podem ser mantidos após o destravamento e travamento do arranjo 46.
[0055] FIG. 4 mostra uma representação esquemática da vista lateral do projetor e da câmera da esquerda. A luz da óptica 40L passa através do guia de ondas 42L e é desviada em direção ao olho (o método de deflexão não está sendo descrito, mas costuma ser baseado em um substrato com facetas parcialmente refletivas oblíquas internas, disponíveis comercialmente com a Lumus Ltd., ou em um arranjo de elementos ópticos difrativos). O objeto 50 ou o cenário são fotografados pela câmera 44L. O mesmo objeto é fotografado pela câmera direita 44R.
[0056] O processo de correção do alinhamento de acordo com este aspecto da invenção requer a determinação de um mapeamento de alinhamento entre cada câmera e a tela de realidade aumentada correspondente para cada uma das unidades de exibição do olho direito e do olho esquerdo. Os parâmetros de transformação entre o eixo da câmera e o eixo do projetor são de preferência medidos após a integração câmera-projetor, de preferência como parte do processo de fabricação. Várias técnicas podem ser usadas para determinar o mapeamento do alinhamento. Duas opções serão agora descritas fazendo referência às FIGs. 5 e 6.
[0057] Na FIG. 5, um gabarito externo 52 mantém firmemente alinhados um projetor 54 e uma câmera 56. O projetor e a câmera são preferencialmente alinhados com seus eixos ópticos paralelos um ao outro e, mais preferencialmente, com precisão suficiente, de modo que nenhum parâmetro de transformação seja necessário entre os dois. O projetor 54 projeta uma 'imagem de referência' que é recebida pela câmera 44L. Um sistema de processamento injeta uma imagem centralizada semelhante no projetor 40L, que gera uma imagem projetada que é recebida através do elemento óptico 42L pela câmera 56. O sistema de processamento compara as imagens de 44L e 56 para definir os parâmetros de transformação entre 40L e 44L. A distância entre 44L e 42L (especificamente, o centro da caixa de olhos deste guia de ondas) também é preferencialmente registrada para cálculos de paralaxe, se necessário.
[0058] Na FIG. 6, dois projetores 54U e 54D são fixados rigidamente (ou alternativamente podem ser implementados como um único projetor com uma abertura suficientemente grande) e projetam uma imagem de calibração, tipicamente colimada até o infinito. A imagem de 54U é recebida pela câmera 44L e é "injetada" no projetor 40L. Neste caso, a câmera 56 recebe simultaneamente através do elemento óptico 42L uma sobreposição da imagem diretamente vista projetada por 54D e a imagem projetada pelo projetor 40L. As diferenças entre as duas imagens correspondem aos dados de transformação entre o projetor 40L e a câmera 44L. Mais preferencialmente, um processo de alinhamento automatizado pode ajustar o alinhamento da imagem gerada pelo projetor 40L até que uma imagem nítida (sobreposta com precisão) seja recebida pela câmera 56, embora um processo de ajuste controlado manualmente usando uma interface gráfica de usuário adequada (não mostrada) também seja possível. Na verdade, esse ajuste não precisa ser implementado no firmware do dispositivo, pois o alinhamento final também dependerá do alinhamento binocular. Para facilitar o alinhamento manual ou automatizado, a imagem de alinhamento pode ser uma mira X ou semelhante, e para maior clareza de diferenciação durante o processo de alinhamento, a cor da imagem de 40L pode ser alterada ou a imagem pode piscar. As duas miras X visualmente distintas precisam ser alinhadas.
[0059] Se a óptica no projetor 42L gerar a imagem virtual a uma distância finita, é preferível que as imagens de calibração e conversão de 54U e 54D também sejam definidas para essa distância, e a imagem projetada do projetor 40L seja deslocada quando injetada em 42L de acordo com a paralaxe entre a câmera 44L e o projetor 42L, já que os parâmetros de distância são conhecidos.
[0060] Os processos de alinhamento acima, ilustrados para a unidade de exibição do olho esquerdo, são claramente repetidos (ou executados simultaneamente) para a unidade de exibição do olho direito. O resultado é uma matriz de transformação bem definida que mapeia o alinhamento da câmera para a tela de cada uma das unidades de tela.
[0061] Depois de usar uma das técnicas de alinhamento acima, durante ou após a fabricação, para derivar a transformação de alinhamento entre cada projetor e sua câmera correspondente, as câmeras podem ser usadas em um processo de calibração realizado pelo usuário final para medir e corrigir o desalinhamento entre os dois projetores sempre que for necessário, por exemplo, após o ajuste da DIP, ou como um processo automatizado de auto-calibração executado de forma intermitente ou, em certas aplicações preferidas, sempre que o dispositivo for ligado.
[0062] A resolução da orientação relativa das câmeras 44L e 44R (após o ajuste de DIP, como descrito na FIG. 3) é particularmente direta quando as câmeras estão amostrando imagens de uma cena distante, uma vez que a paralaxe entre as duas imagens amostradas é desprezível. “Distante” neste contexto seria idealmente qualquer distância acima de 100 metros, o que garante que as variações angulares devido à convergência entre os olhos/câmeras sejam menores que a resolução angular da percepção visual humana. Em termos práticos, no entanto, “distante” aqui pode incluir qualquer distância maior do que 30 metros e, em alguns casos, distâncias de 10 ou 20 metros também podem permitir o uso desse processo simplificado de calibração com resultados aceitáveis. Assim, em um caso de calibração acionada pelo usuário, o usuário pode ser instruído a direcionar o dispositivo para uma cena distante antes de iniciar o processo de calibração. Da mesma forma, quando o dispositivo é usado em um ambiente externo, o dispositivo pode ser configurado para detectar, por meio de um sensor de alcance ou por processamento de imagem, quando as câmeras estão visualizando uma cena distante. A calibração pode então ser formada amostrando imagens da cena distante de cada câmera 44L e 44R e realizando a comparação/registro de imagens entre as duas imagens para determinar uma transformação entre as câmeras.
[0063] Às vezes, o registro direto da imagem pode ser usado para a correção do alinhamento, mesmo quando a cena está a uma curta distância, desde que haja pouca “profundidade” na cena e ambas as câmeras captem a mesma imagem. Um exemplo seria a calibração ao criar uma imagem de uma superfície plana, como um pôster ou outra imagem ou textura na parede. Nesse caso, são necessárias informações sobre a distância entre as câmeras e a superfície, a fim de corrigir o ângulo de convergência.
[0064] Para permitir a calibração em uma variedade de situações em que ‘cenários distantes” podem não estar disponíveis ou para um processo de calibração mais robusto adequado para ser executado automaticamente sem a cooperação do usuário, a calibração também pode ser realizada usando objetos próximos, para os quais a paralaxe entre as câmeras é significativa. Nesse caso, é necessária uma reconstrução 3D para “resolver” as posições relativas das câmeras. Pode ser necessário o movimento das câmeras para gerar várias imagens para soluções precisas, como ilustrado esquematicamente na FIG. 7. Os algoritmos para esse cálculo são bem conhecidos, por exemplo, na literatura e nas bibliotecas de código-fonte aberto relacionadas ao processamento SLAM (localização e mapeamento simultâneos). Ao empregar esses algoritmos, uma reconstrução 3D (ou “modelo”) de ao menos parte da cena é gerada para cada câmera. O deslocamento da reconstrução entre as câmeras é usado para determinar o deslocamento (espacial e orientação) entre os projetores.
[0065] Quando o processamento SLAM é usado para derivar um modelo, é necessário um fator de escala para resolver completamente o modelo. Esse fator de escala pode ser derivado de várias fontes, incluindo, entre outras: uma distância conhecida entre as duas câmeras no caso de um dispositivo sem ajuste de DIP; uma distância medida entre as duas câmeras, onde um codificador está incluído no mecanismo de ajuste de DIP; movimento da câmera como derivado de um arranjo de sensor de movimento inercial integrado ao dispositivo; uma distância a uma localização de pixel dentro de uma das imagens derivada, por exemplo, de um telêmetro integrado ao dispositivo; identificação de um objeto de dimensões conhecidas incluído no campo de visão das imagens; e introdução de restrições adicionais de parâmetros, como,
por exemplo, objetos que possuem bordas retas ou similares.
[0066] Uma visão geral exemplar do processo geral total em um caso de ajuste de DIP e realinhamento subsequente é mostrada na FIG. 8. Primeiro, presume-se que o processo aqui seja iniciado após um ajuste da distância entre os projetores, como por um ajuste de DIP (etapa 110), e pode ser iniciado pelo usuário ou disparado automaticamente. O processo também pode ser implementado como um processo automático ou semi-automatizado, realizado na inicialização do dispositivo ou acionado manualmente ou por um sinal de acionamento de software, opcionalmente com avisos gerados para solicitar que o usuário se mova em relação à cena visualizada.
[0067] Uma vez acionado, o dispositivo adquire imagens da cena para a câmera esquerda (etapa 112) e para a câmera direita (etapa 114), e o sistema de processamento (embarcado no dispositivo, local ou remoto) compara as imagens para derivar as orientações relativas das duas câmeras (etapa 116). Nos casos em que o processo de registro simples falha devido a variações de paralaxe entre as imagens, o sistema coleta amostras de imagens adicionais e aguarda movimento, se necessário (etapa 118) para derivar um modelo tridimensional ao menos parcial de parte de um campo de visão, permitindo assim a derivação das orientações relativas da câmera. Na etapa 120, esses dados relativos à orientação da câmera são usados em conjunto com os dados anteriormente derivados de transformação da câmera esquerda para o projetor esquerdo (122) e os dados de transformação da câmera direita para o projetor direito (124) para determinar uma correção de alinhamento geral para cada projetor que é introduzido no firmware correspondente (etapas 126 e 128), permitindo assim que uma imagem virtual esquerda seja convertida em uma imagem virtual transformada esquerda para projeção pelo projetor 40L e uma imagem virtual direita seja convertida em uma imagem virtual transformada direita para projeção pelo projetor 40R, para gerar imagens visualizadas alinhadas corretamente.
[0068] Voltando agora a um segundo subconjunto de métodos de correção de alinhamento para as telas do olho direito e do olho esquerdo de um dispositivo de exibição de realidade aumentada binocular, as FIGs. 9A e 9B ilustram esquematicamente uma disposição na qual um usuário fornece uma entrada para definir pelo menos parte da correção de alinhamento. Assim, na FIG. 9A, é mostrado um dispositivo óptico semelhante ao das FIGs. 3 e 4, mas com a adição de um dispositivo de entrada do usuário 130, que pode ser um joystick, uma tela sensível ao toque ou qualquer outro dispositivo adequado de entrada do usuário, opcionalmente implementado como um APP em execução em um dispositivo eletrônico móvel. Como antes, essa abordagem pressupõe a presença de uma câmera esquerda 44L associada espacialmente ao monitor de realidade aumentada do olho esquerdo (projetor 40L e elemento óptico de acoplamento externo 42L) e elementos correspondentes (uma câmera direita associada espacialmente à tela de realidade aumentada do olho direito) para o lado do olho direito do dispositivo (não mostrado).
[0069] É uma característica particular de certas implementações particularmente preferidas de acordo com este aspecto da presente invenção que o método de correção de alinhamento inclua um primeiro processo de registro cruzado incluindo:
i. obter pelo menos uma imagem de uma cena amostrada pela câmera direita, ii. exibir, pela tela de realidade aumentada do olho esquerdo, pelo menos um recurso de alinhamento derivado de ao menos uma imagem amostrada pela câmera direita, iii. receber uma entrada do usuário indicativa de um deslocamento de alinhamento entre ao menos um recurso de alinhamento e um recurso correspondente diretamente visualizado da cena, e iv. corrigir uma posição de exibição do pelo menos um recurso de alinhamento de acordo com a entrada do usuário até que ao menos um recurso de alinhamento esteja alinhado com o correspondente recurso visualizado diretamente da cena. Isto define uma transformação representada esquematicamente pela seta 78 na FIG. 9B.
[0070] De preferência, o processo de alinhamento também inclui o processo de registro cruzado invertido: i. obter pelo menos uma imagem de uma cena amostrada pela câmera esquerda, ii. exibir, pela tela de realidade aumentada do olho direito, pelo menos um recurso de alinhamento derivado de ao menos uma imagem amostrada pela câmera esquerda, iii. receber uma entrada do usuário indicativa de um deslocamento de alinhamento entre ao menos um recurso de alinhamento e um recurso correspondente diretamente visualizado da cena, e iv. corrigir uma posição de exibição do pelo menos um recurso de alinhamento de acordo com a entrada do usuário até que ao menos um recurso de alinhamento esteja alinhado com o correspondente recurso visualizado diretamente da cena. Isto define uma transformação representada esquematicamente pela seta 76 na FIG. 9B.
[0071] As entradas do usuário são então usadas para implementar uma correção de alinhamento no dispositivo de exibição de realidade aumentada. Quando cada câmera é montada rigidamente em relação à tela de realidade aumentada correspondente, como nos exemplos descritos acima, a correção do alinhamento é implementada usando dados de alinhamento relativos da câmera direita em relação à tela de realidade aumentada do olho direito (seta 74) e os dados de alinhamento relativo da câmera esquerda em relação à tela de realidade aumentada do olho esquerdo (seta 72). Tais dados podem ser disponibilizados através de um processo de alinhamento de fábrica, como foi descrito acima com referência às FIGs. 5 e
6.
[0072] De modo mais geral, quando as transformações 72 e 74 são desconhecidas ou podem variar devido à montagem não rígida (por exemplo, ajustável) das telas esquerda/direita em relação às câmeras, as transformações 72 e 74 podem ser obtidas por ao menos um processo de registro adicional para receber entradas do usuário para corrigir um alinhamento de ao menos uma entre a tela de realidade aumentada do olho direito e a tela de realidade aumentada do olho esquerdo em relação às correspondentes câmeras direita e esquerda. Esses processos de registro podem ser realizados essencialmente da mesma maneira que os processos de registro cruzado aqui descritos.
[0073] Se todas as quatro transformações 72, 74, 76 e 78 forem determinadas, há alguma redundância de informações, uma vez que, em princípio, quaisquer três dessas transformações são suficientes para determinar uma matriz de calibração geral entre as duas telas. Na prática, essa redundância é usada com vantagem para melhorar a precisão da correção do alinhamento.
[0074] Durante o processo de alinhamento, cada projetor é ativado separadamente. Uma sequência típica de operação de acordo com essa abordagem seria: 1) O usuário é instruído a observar objetos de cenário localizados na mesma distância nominal (distância aparente) da imagem virtual. O processo é mais simplesmente implementado usando objetos “distantes”, para evitar problemas de compensação de paralaxe, embora os problemas de paralaxe também possam ser corrigidos, conforme discutido abaixo. 2) O sistema de processamento injeta a imagem da câmera de um olho no projetor adjacente, para que o observador veja a mesma sobreposição aumentada e do ‘mundo real’. Se a cena não for uma cena “distante”, a compensação de paralaxe é introduzida na imagem projetada, de acordo com uma distância estimada para a cena. Haverá uma incompatibilidade de deslocamento (compensação) 57 (FIG. 9C) se os eixos da câmera e do projetor (após a compensação de paralaxe) não forem precisos. 3) O observador controla manualmente a posição e a rotação da imagem virtual e move a imagem de realidade aumentada para se sobrepor à imagem do ‘mundo real’ 57 (mapeamento 72). 4) Esse processo é repetido para o segundo olho de modo a gerar o mapeamento 74. Até agora, a calibração alcançada ocorre entre cada câmera e seu projetor adjacente. 5) O sistema de processamento injeta a imagem da câmera de um olho (44L) no projetor oposto (40R) e permite ao usuário alinhar a imagem, para determinar o mapeamento 76. O mesmo é repetido para a câmera e o projetor opostos gerarem o mapeamento 78. Agora, os dois projetores e as orientações de ambas as câmeras estão calibrados.
[0075] A imagem (recurso de alinhamento) projetada para este processo de alinhamento pode ser pelo menos parte da imagem amostrada. Nesse caso, o usuário obtém um efeito de “visão dupla” de imagens sobrepostas que não se encaixam perfeitamente e ajusta o alinhamento até que sejam adequadamente sobrepostas.
[0076] Alternativamente, a imagem de recurso de alinhamento projetada pode incluir um ou mais marcadores de localização derivados das imagens amostradas pelo processamento de imagens e correspondentes a um recurso detectado na imagem amostrada. Pode ser o contorno de um objeto ou vários marcadores que designam recursos de “canto” na imagem. Nesse caso, o usuário alinha esses marcadores de localização com as características correspondentes na visualização do mundo real.
[0077] Quando o processo acima for realizado usando uma cena que não é distante, será necessária uma estimativa da distância até a cena para realizar correções de paralaxe com base em uma distância conhecida entre cada câmera e o centro EMB correspondente. Essa distância pode ser inserida pelo usuário ou derivada pelo sistema a partir de qualquer combinação de sensores disponíveis e/ou processamento de imagens, dependendo dos detalhes da aplicação, como é conhecido na técnica. Exemplos não limitativos de como a distância pode ser derivada incluem: empregar um sensor de telêmetro, executar o processamento SLAM em imagens para derivar um modelo 3D (conforme detalhado acima) e amostrar imagens contendo um objeto com dimensões conhecidas.
[0078] Muitos projetores incluem uma óptica que projeta a imagem virtual a uma distância finita. Nesse caso, a calibração é preferencialmente realizada enquanto se visualiza uma cena a uma distância correspondente à distância aparente da imagem virtual. Por exemplo, se a imagem virtual for focada em 2 metros, a calibração também deve ser realizada preferencialmente em uma cena ou objeto localizado a uma distância de cerca de dois metros. A imagem injetada da câmera no projetor é deslocada de acordo com a paralaxe entre a câmera e o projetor (a distância relativa é conhecida) na distância especificada e no centro do campo.
[0079] É importante observar que os procedimentos de alinhamento descritos aqui são aplicáveis também se os dois pares de projetor/câmera forem combinados rigidamente durante o processo de produção, ou seja, sem espaçamento ajustável para a DIP. Nesse caso, as transformações 72 e 74 são tipicamente pré-calibradas, como descrito acima, e apenas as transformações 76 e 78 são alcançadas através da entrada do usuário.
[0080] Em todos os casos aqui mencionados, nos quais é feita referência à "correção do alinhamento estereoscópico", isso geralmente é implementado através da geração de uma matriz de calibração que relaciona cada olho ao mundo real ou define uma relação entre os olhos.
[0081] Uma abordagem alternativa para realizar o alinhamento cruzado de projetores para realidade aumentada binocular pode ser alcançada sem a dependência de câmeras externas (que podem ou não estar presentes no produto). Em vez disso, esse terceiro subconjunto de técnicas de correção de alinhamento emprega uma câmera, separada do dispositivo de exibição de realidade aumentada, para amostrar imagens simultaneamente do monitor do olho direito e do olho esquerdo e, em seguida, obter uma correção de alinhamento da imagem. Uma implementação exemplar dessa abordagem alternativa é apresentada abaixo.
[0082] Em termos gerais, um método para derivar uma correção de alinhamento entre uma tela do olho direito e uma tela do olho esquerdo de um dispositivo de exibição de realidade aumentada binocular de acordo com este aspecto da presente invenção inclui as etapas de: a) posicionar uma câmera com um campo de visão para que o campo de visão da câmera inclua simultaneamente parte de uma imagem projetada a partir da tela do olho esquerdo e parte de uma imagem projetada a partir da tela do olho direito; b) projetar através de cada uma das telas, a do olho direito e a do olho esquerdo, pelo menos parte de uma imagem de calibração, incluindo pelo menos um recurso de alinhamento do campo direito e ao menos um recurso de alinhamento do campo esquerdo; c) empregar a câmera para amostrar uma imagem; d) identificar na imagem o recurso de alinhamento do campo direito e o recurso de alinhamento do campo esquerdo; e e) derivar, a partir de uma posição dentro da imagem do recurso de alinhamento do campo direito e o recurso de alinhamento do campo esquerdo, uma correção de alinhamento entre a tela do olho direito e a tela do olho esquerdo do dispositivo de exibição de realidade aumentada.
[0083] Uma implementação desta abordagem é ilustrada aqui esquematicamente na FIG. 10A Deve-se notar que parte da luz projetada pelo guia de ondas 42 em direção ao olho do observador é refletida para frente (isto é, para fora em relação ao usuário), por exemplo, pela superfície externa do guia de ondas mais próximo ao olho. Na implementação ilustrada aqui, é essa luz refletida externamente que é detectada por uma câmera 80 posicionada em um lado oposto ao lado de visualização do dispositivo de exibição de realidade aumentada 40L, 42L, de modo que a câmera capture uma porção refletida externamente da iluminação da imagem a partir de cada uma das telas dos olhos direito e esquerdo.
[0084] O controlador do sistema injeta uma imagem no projetor 40 que ilumina o olho através do guia de ondas 42, como mostrado pelas setas de linha sólida. Parte da luz é refletida na direção oposta, como mostrado pelas setas tracejadas.
[0085] Uma câmera em um dispositivo portátil 80 recebe pelo menos parte da imagem refletida para frente e transmite a imagem ao controlador do sistema para processamento. (A câmera aqui é ilustrada apenas esquematicamente e será claramente orientada para o projetor e posicionada para capturar parte da iluminação da imagem refletida para a frente.) O processamento pode, opcionalmente, ser realizado no próprio dispositivo portátil.
[0086] Embora apenas parte do campo seja recebida pela câmera 80, a imagem é projetada para que seja possível derivar qual parte da imagem foi recebida, conforme será discutido mais adiante com referência à FIG. 11D. Dessa parte, o processador deriva a orientação da câmera em relação à imagem projetada para frente.
[0087] A Figura 10B mostra esquematicamente dois projetores 99L e 99R, cada um indicativo da orientação do projetor para os dois olhos do dispositivo correspondente. Em 99L, o raio 100 é projetado em direção ao observador perpendicularmente às faces do guia de ondas 99L e a reflexão 102 é, portanto, refletida na direção oposta, ao longo do eixo óptico. Por outro lado, no guia de ondas 99R, é mostrada uma geometria alternativa na qual o eixo óptico da imagem projetada indicado pelo raio de saída 104 não é perpendicular à superfície do guia de ondas 99R e, portanto, o raio refletido 106 não é oposto a 104. Portanto, uma matriz de calibração deve ser derivada para a compensação de 106 em relação a 104. Essa matriz de calibração deve ser derivada comparando-se imagens prospectivas (100 e 104) com imagens refletidas (102 e 106) durante a produção do projetor ou conforme descrito abaixo.
[0088] A aquisição de imagens de acordo com esta abordagem é realizada simultaneamente para ambos os projetores, como mostrado esquematicamente na vista esquemática na FIG. 11A. As setas pontilhadas representam a imagem refletida para a frente. A câmera 80 recebe seções diferentes das imagens refletidas dos dois projetores e deriva a orientação para os dois campos. Ao comparar essas orientações, é possível derivar a orientação relativa entre os projetores e corrigir o alinhamento eletronicamente, como explicado acima.
[0089] Maior precisão de calibração é alcançada se a câmera 80 for colocada mais longe dos projetores 42. No caso de uma câmera de mão, que não pode ser convenientemente mantida tão longe do dispositivo, é possível obter imagens de uma distância efetiva maior observando os projetores através de um espelho 57, como ilustrado na FIG. 11B. Essa geometria baseada em espelho também permite que essa técnica de calibração seja implementada usando uma câmera embutida do próprio dispositivo de exibição de realidade aumentada, principalmente em dispositivos fornecidos com uma única câmera central.
[0090] A orientação da câmera 80 pode ser otimizada, fornecendo orientações visuais ao usuário para o posicionamento correto da câmera durante a calibração. Por exemplo, se a câmera 80 é uma câmera de um dispositivo móvel integrado a uma tela, como um telefone celular, pelo menos uma indicação para um usuário pode ser exibida através da tela para ajudar no posicionamento correto da câmera, conforme ilustrado na FIG. 11C. Além disso, ou alternativamente, para qualquer câmera de mão, pelo menos uma indicação pode ser exibida ao usuário por meio de um ou de ambos os monitores de realidade aumentada para ajudar no posicionamento correto da câmera.
[0091] FIG. 11D mostra um exemplo de uma imagem que pode ser projetada pelos dois monitores para o processo de calibração. Outras imagens arbitrárias podem ser usadas, e esta é apresentada aqui como um exemplo não limitativo. A imagem possui marcações claras 90a e 90b, que servem respectivamente como um recurso de alinhamento do campo esquerdo e um recurso de alinhamento do campo direito. As características de alinhamento dos campos direito e esquerdo podem fazer parte de um padrão geométrico contíguo ou podem ser características isoladas e são preferencialmente distinguíveis uma da outra. Eles preferencialmente incluem recursos que são facilmente identificados e processados por técnicas de processamento de imagem para derivar posição e orientação. A imagem é projetada após a compensação de quaisquer distorções geométricas introduzidas pelo próprio projetor. Deve-se notar que apenas uma parte da imagem é capturada pela câmera 80 de cada projetor separado. A câmera está posicionada de modo que, no caso de uma câmera do lado de fora do projetor, a imagem amostrada inclua o recurso de alinhamento do campo esquerdo visualizado pela tela do olho direito e o recurso de alinhamento do campo direito visualizado pela tela do olho esquerdo.
[0092] A Figura 11E mostra esquematicamente uma imagem 100 recebida pela câmera 80. A distância da câmera 80 aos óculos pode ser derivada de parâmetros nos óculos, por exemplo, o tamanho de óculos 82 na imagem. Nos guias de onda 42R e 42L, os reflexos da imagem projetada são aparentes como 84R e 84L. As imagens nas duas reflexões incluem as marcações 90a e 90b. Medindo a distância angular na imagem entre as marcações 86 e considerando a paralaxe causada pela distância conhecida dos óculos, é possível conhecer o real desalinhamento entre os projetores 42R e 42L. O desalinhamento angular também pode ser obtido como mostrado pelo ângulo de inclinação designado
88. Essa arquitetura também permite a detecção da posição do olho 60R e 60L. Isso melhora ainda mais o alinhamento da projeção, levando em consideração as distorções causadas pela posição dos olhos na caixa de olhos do projetor.
[0093] Em um conjunto alternativo de implementações, a câmera 80 é posicionada no lado de visualização do dispositivo de exibição de realidade aumentada, isto é, o lado a partir do qual o usuário olha através do visor. Nesse caso, a imagem amostrada inclui o recurso de alinhamento do campo direito visualizado na tela do olho direito e o recurso de alinhamento do campo esquerdo visualizado na tela do olho esquerdo. Um exemplo desta implementação é mostrado na FIG. 11F.
[0094] É importante que a câmera 80 seja focada na imagem projetada. Se as lentes forem colocadas na frente dos projetores 42, a imagem virtual 51 será gerada a uma distância aparente finita (a distância focal aparente). Isso deve ser considerado ao derivar a paralaxe introduzida em 84R e 84L. No exemplo da FIG. 11F, o projetor inclui lentes para que a imagem 51 seja projetada como imagens virtuais 62L (de 42L) e 62R (de 42R) a uma distância focal aparente 61. Essas duas imagens devem ser levadas à exata relação de sobreposição para o alinhamento ideal. A imagem adquirida pela câmera 80 será equivalente a 84L e 84R (descritas na FIG. 11E), e a derivação do deslocamento entre 62L e 62R considerará a distância da imagem virtual 61 (predefinida pelas lentes) e da câmera 63 (novamente derivada, por exemplo, pela identificação de uma dimensão do dispositivo 82 na imagem).
[0095] Como mencionado, a distância da câmera 80 do dispositivo de exibição pode ser determinada pela identificação de recursos associados ao dispositivo de exibição, como uma dimensão de largura 82, dentro da imagem. Idealmente, para determinar a distância e a orientação da câmera em relação ao dispositivo de exibição, o sistema de processamento identifica, de preferência, recursos na imagem associados ao dispositivo de exibição de realidade aumentada binocular suficientes para definir pelo menos três, e mais preferencialmente quatro pontos fiduciais não colineares (e para quatro, não coplanares). Os recursos podem ser qualquer recurso relacionado à forma do dispositivo ou qualquer padrão de referência formado em uma superfície do dispositivo. Nos casos em que a imagem de calibração projetada é renderizada em uma profundidade focal específica, os recursos da imagem virtual projetada também podem, em alguns casos, ser usados como pontos fiduciais. Os pontos fiduciais são então processados para determinar uma posição da câmera em relação aos pontos fiduciais e, portanto, aos projetores.
[0096] Uma implementação não limitativa exemplar deste processo é descrita na FIG. 12. Como na FIG. 8 acima, a calibração pode ser necessária devido ao desalinhamento introduzido pelo ajuste da DIP (etapa 140), embora não esteja limitada a esses casos. Na etapa 142, a imagem de calibração ou “imagem de campo” é “injetada” para exibição através dos projetores de olho direito e esquerdo, e a câmera 80 é usada para amostrar uma imagem contendo uma parte da iluminação correspondente à imagem de calibração de cada um dos projetores e, de preferência, também gerando a imagem dos projetores ou outras características do próprio dispositivo de exibição (etapa 144).
[0097] Na etapa 146, os recursos do dispositivo de exibição são processados para determinar a orientação da câmera em relação a cada projetor. Isso fornece informações suficientes para permitir a derivação do alinhamento relativo dos projetores das partes da imagem de calibração adquiridas através de cada tela (etapa 148). Quando a câmera 80 é usada na parte externa da tela com iluminação refletida externamente e quando o eixo de projeção da imagem não é perpendicular às superfícies do guia de ondas, parâmetros de deslocamento de reflexões pré-medidos (150) também são empregados no cálculo do alinhamento. Os cálculos de alinhamento são então usados para gerar matrizes de calibração para atualizar o firmware de cada projetor (etapa 152).
[0098] A câmera no dispositivo portátil 80, também pode ser usada para ajudar o usuário durante o próprio ajuste mecânico de DIP (antes de executar a calibração descrita). De acordo com esta opção, o usuário altera a distância entre os projetores enquanto a câmera transmite continuamente a imagem da faceta para o processador. O processador compara a posição do olho com a posição do projetor óptico (que pode opcionalmente ter marcações para facilitar a detecção da posição do projetor) e gera uma saída para o usuário (normalmente um sinal de áudio e/ou uma exibição visual) para indicar como a posição relativa deve ser ajustada ainda mais, ou para informar o usuário quando uma posição ideal for alcançada para o usuário. O processo de calibração é então realizado preferencialmente, como aqui descrito.
[0099] Deve-se apreciar que as descrições acima se destinam apenas a servir como exemplos, e que muitas outras modalidades são possíveis dentro do escopo da presente invenção, conforme definido nas reivindicações anexas.

Claims (18)

REIVINDICAÇÕES
1. Método para derivar uma correção de alinhamento entre uma tela do olho direito e uma tela do olho esquerdo, de um dispositivo de exibição de realidade aumentada binocular, caracterizado pelo fato de o método compreender as etapas de: (a) posicionar uma câmera com um campo de visão para que o campo de visão da câmera inclua simultaneamente parte de uma imagem projetada a partir da tela do olho esquerdo e parte de uma imagem projetada a partir da tela do olho direito; (b) projetar, através de cada uma das telas do olho direito e do olho esquerdo, pelo menos parte de uma imagem de calibração, incluindo ao menos um recurso de alinhamento do campo direito e ao menos um recurso de alinhamento do campo esquerdo; (c) empregar a câmera para amostrar uma imagem; (d) identificar na imagem o recurso de alinhamento do campo direito e o recurso de alinhamento do campo esquerdo; e (e) derivar, a partir de uma posição dentro da imagem do recurso de alinhamento do campo direito e do recurso de alinhamento do campo esquerdo, uma correção de alinhamento entre a tela do olho direito e a tela do olho esquerdo do dispositivo de exibição de realidade aumentada.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de a câmera estar posicionada no lado de visualização do dispositivo de exibição de realidade aumentada, de modo que a imagem inclua o recurso de alinhamento de campo direito visualizado através da tela do olho direito e o recurso de alinhamento de campo esquerdo visualizado através da tela do olho esquerdo.
3. Método, de acordo com a reivindicação 2, caracterizado pelo fato de a imagem de calibração projetada ser exibida com uma distância focal aparente e em que a câmera é focada na distância focal aparente.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de a câmera estar posicionada em um lado oposto ao lado de visualização do dispositivo de exibição de realidade aumentada, de modo que a câmera capture uma porção refletida para fora da iluminação da imagem de cada uma das telas do olho direito e do olho esquerdo e de modo que a imagem inclua o recurso de alinhamento do campo esquerdo visualizado no visor do olho direito e o recurso de alinhamento do campo direito visualizado no visor do olho esquerdo.
5. Método, de acordo com a reivindicação 4, caracterizado pelo fato de a câmera ser uma câmera portátil, o método compreendendo ainda a exibição através da tela do olho direito e/ou da tela do olho esquerdo pelo menos uma indicação para um usuário para ajudar no posicionamento correto da câmera.
6. Método, de acordo com a reivindicação 1, caracterizado pelo fato de compreender as etapas de: (a) identificar, na imagem, características associadas ao dispositivo de exibição de realidade aumentada binocular suficientes para definir pelo menos três pontos fiduciais; e (b) determinar uma posição da câmera em relação aos ao menos três pontos fiduciais.
7. Método, de acordo com a reivindicação 1, caracterizado pelo fato de o referido posicionamento incluir direcionar a câmera para um espelho, de modo que o campo de visão refletido inclua simultaneamente parte de uma imagem projetada a partir da tela do olho esquerdo e parte de uma imagem projetada a partir da tela do olho direito.
8. Método, de acordo com a reivindicação 1, caracterizado pelo fato de a câmera ser uma câmera de um dispositivo móvel integrado a uma tela, o método compreendendo ainda a exibição através da referida tela de ao menos uma indicação ao usuário para ajudar no posicionamento correto da câmera.
9. Método, de acordo com a reivindicação 1, caracterizado pelo fato de compreender ainda a implementação de uma correção de alinhamento no dispositivo de exibição de realidade aumentada com base na referida correção de alinhamento derivada.
10. Método para correção do alinhamento estereoscópico entre uma tela do olho direito e uma tela do olho esquerdo, de um dispositivo de exibição de realidade aumentada binocular, caracterizado pelo fato de o método compreender as etapas de: (a) fornecer um dispositivo de realidade aumentada compreendendo: (i) uma unidade de exibição do olho direito que compreende uma primeira tela de realidade aumentada rigidamente integrada a uma primeira câmera prospectiva, (ii) uma unidade de exibição do olho esquerdo que compreende uma segunda tela de realidade aumentada rigidamente integrada a uma segunda câmera prospectiva, e (iii) uma estrutura de suporte interconectada entre a referida unidade de exibição do olho direito e a referida unidade de exibição do lado esquerdo; (b) fornecer um primeiro mapeamento de alinhamento entre a referida primeira câmera e a referida primeira tela de realidade aumentada e um segundo mapeamento de alinhamento entre a referida segunda câmera e a referida segunda tela de realidade aumentada; (c) amostrar pelo menos uma imagem da referida primeira câmera; (d) amostrar pelo menos uma imagem da referida segunda câmera; (e) coprocessar as referidas imagens das referidas primeira e segunda câmeras para derivar um mapeamento entre câmeras que seja indicativo de uma orientação relativa entre a referida primeira câmera e a referida segunda câmera; (f) combinar o referido mapeamento entre câmeras com o referido primeiro mapeamento de alinhamento e o referido segundo mapeamento de alinhamento para derivar um mapeamento de alinhamento entre telas que seja indicativo de uma orientação relativa da referida primeira tela de realidade aumentada e da referida segunda tela de realidade aumentada; e (g) implementar uma correção de alinhamento no dispositivo de exibição de realidade aumentada com base no mapeamento de alinhamento entre telas.
11. Método, de acordo com a reivindicação 10, caracterizado pelo fato de a referida imagem da referida primeira câmera e da referida segunda câmera ser amostrada para uma cena distante.
12. Método, de acordo com a reivindicação 10, caracterizado pelo fato de as referidas imagens da referida primeira câmera e da referida segunda câmera são imagens múltiplas e em que o referido coprocessamento inclui derivar um modelo tridimensional de ao menos parte de uma cena incluída nas referidas imagens múltiplas.
13. Método para correção do alinhamento estereoscópico entre uma tela do olho direito e uma tela do olho esquerdo, de um dispositivo de exibição de realidade aumentada binocular, caracterizado pelo fato de compreender as etapas de: (a) fornecer um dispositivo de realidade aumentada que compreende uma tela de realidade aumentada do olho direito, uma tela de realidade aumentada do olho esquerdo, uma câmera direita espacialmente associada à referida tela de realidade aumentada do olho direito e uma câmera esquerda espacialmente associada à referida tela de realidade aumentada do olho esquerdo; (b) realizar um primeiro processo de registro cruzado compreendendo: (i) obter ao menos uma imagem de uma cena amostrada por tal câmera direita, (ii) exibir através da referida tela de realidade aumentada do olho esquerdo pelo menos um recurso de alinhamento derivado da referida imagem amostrada pela referida câmera direita, (iii) receber uma entrada do usuário indicativa de um deslocamento de alinhamento entre ao menos um recurso de alinhamento e um recurso correspondente diretamente visualizado da cena, e (iv) corrigir uma posição de exibição do pelo menos um recurso de alinhamento de acordo com a entrada do usuário até que ao menos um recurso de alinhamento esteja alinhado com o correspondente recurso diretamente visualizado da cena; (c) realizar um segundo processo de registro cruzado compreendendo: (i) obter ao menos uma imagem de uma cena amostrada por tal câmera esquerda,
(ii) exibir através da referida tela de realidade aumentada do olho direito pelo menos um recurso de alinhamento derivado da referida imagem amostrada pela referida câmera esquerda, (iii) receber uma entrada do usuário indicativa de um deslocamento de alinhamento entre ao menos um recurso de alinhamento e um recurso correspondente diretamente visualizado da cena, e (iv) corrigir uma posição de exibição do pelo menos um recurso de alinhamento de acordo com a entrada do usuário até que ao menos um recurso de alinhamento esteja alinhado com o correspondente recurso diretamente visualizado da cena; (d) implementar uma correção de alinhamento no dispositivo de exibição de realidade aumentada com base em tais entradas do usuário.
14. Método, de acordo com a reivindicação 13, caracterizado pelo fato de o referido recurso de alinhamento para cada um dos referidos processos de registro cruzado ser ao menos parte da imagem amostrada.
15. Método, de acordo com a reivindicação 13, caracterizado pelo fato de o referido recurso de alinhamento para cada um dos referidos processos de registro cruzado ser um marcador de local correspondente a um recurso detectado na imagem amostrada.
16. Método, de acordo com a reivindicação 13, caracterizado pelo fato de compreender ainda a obtenção de uma distância estimada para um objeto na imagem amostrada, sendo a referida distância estimada empregada para implementar a referida correção de alinhamento.
17. Método, de acordo com a reivindicação 13, caracterizado pelo fato de a referida câmera direita ser montada rigidamente em relação à referida tela de realidade aumentada do olho direito e em que a referida câmera esquerda é montada rigidamente em relação à referida tela do olho esquerdo, sendo a referida correção de alinhamento implementada usando dados de alinhamento relativos para a referida câmera direita em relação à referida tela de realidade aumentada do olho direito e dados de alinhamento relativo para a referida câmera esquerda em relação à referida tela de realidade aumentada do olho esquerdo.
18. Método, de acordo com a reivindicação 13, caracterizado pelo fato de compreender ainda a execução de ao menos um processo de registro adicional para receber entradas do usuário para corrigir um alinhamento de ao menos uma das referidas telas de realidade aumentada no olho direito e a referida tela de realidade aumentada no olho esquerdo em relação à correspondente câmera entre as câmeras esquerda e direita.
BR112020001912-7A 2018-01-02 2019-01-02 método para derivar uma correção de alinhamento entre uma tela do olho direito e uma tela do olho esquerdo e método para correção do alinhamento estereoscópico entre uma tela do olho direito e uma tela do olho esquerdo BR112020001912A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862612740P 2018-01-02 2018-01-02
US62/612,740 2018-01-02
PCT/IB2019/050014 WO2019135169A1 (en) 2018-01-02 2019-01-02 Augmented reality displays with active alignment and corresponding methods

Publications (1)

Publication Number Publication Date
BR112020001912A2 true BR112020001912A2 (pt) 2020-07-28

Family

ID=67143650

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112020001912-7A BR112020001912A2 (pt) 2018-01-02 2019-01-02 método para derivar uma correção de alinhamento entre uma tela do olho direito e uma tela do olho esquerdo e método para correção do alinhamento estereoscópico entre uma tela do olho direito e uma tela do olho esquerdo

Country Status (13)

Country Link
US (1) US11223820B2 (pt)
EP (1) EP3735775A4 (pt)
JP (2) JP2021509482A (pt)
KR (1) KR20200102408A (pt)
CN (2) CN113777783B (pt)
AU (1) AU2019205611A1 (pt)
BR (1) BR112020001912A2 (pt)
CA (1) CA3068659A1 (pt)
IL (1) IL275615B (pt)
MX (1) MX2020002402A (pt)
RU (1) RU2020100251A (pt)
TW (1) TWI791728B (pt)
WO (1) WO2019135169A1 (pt)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10261321B2 (en) 2005-11-08 2019-04-16 Lumus Ltd. Polarizing optical system
IL232197B (en) 2014-04-23 2018-04-30 Lumus Ltd Compact head-up display system
IL237337B (en) 2015-02-19 2020-03-31 Amitai Yaakov A compact head-up display system with a uniform image
WO2018138714A1 (en) 2017-01-28 2018-08-02 Lumus Ltd. Augmented reality imaging system
CN111183393B (zh) 2017-09-29 2024-03-19 鲁姆斯有限公司 增强现实显示器
KR20200077511A (ko) 2017-10-22 2020-06-30 루머스 리미티드 광학 벤치를 사용하는 헤드 장착형 증강 현실 장치
WO2019106637A1 (en) 2017-12-03 2019-06-06 Lumus Ltd. Optical device alignment methods
JP2021509482A (ja) 2018-01-02 2021-03-25 ルムス エルティーディー. アクティブアライメントを備えた拡張現実ディスプレイおよび対応する方法
US10551544B2 (en) 2018-01-21 2020-02-04 Lumus Ltd. Light-guide optical element with multiple-axis internal aperture expansion
CN112005091B (zh) 2018-04-08 2023-08-11 鲁姆斯有限公司 用于对光学材料的样品进行光学测试的设备和方法、以及操作性地连接至该设备的控制器
WO2019220330A1 (en) 2018-05-14 2019-11-21 Lumus Ltd. Projector configuration with subdivided optical aperture for near-eye displays, and corresponding optical systems
JP7446620B2 (ja) 2018-05-17 2024-03-11 ルムス エルティーディー. オーバーラップするプロジェクター組立体を有するニアアイディスプレイ
IL259518B2 (en) 2018-05-22 2023-04-01 Lumus Ltd Optical system and method for improving light field uniformity
EP3791224B1 (en) 2018-05-23 2022-08-31 Lumus Ltd. Optical system including light-guide optical element with partially-reflective internal surfaces
IL279500B (en) 2018-06-21 2022-09-01 Lumus Ltd Measuring technique for refractive index inhomogeneity between plates of a light guide optical element (loe)
JP7411255B2 (ja) 2018-07-16 2024-01-11 ルムス エルティーディー. 偏光された内部反射体を採用する導光光学素子
MX2021002813A (es) 2018-09-09 2021-05-12 Lumus Ltd Sistemas opticos que incluyen elementos opticos de guia de luz con expansion bidimensional.
JP7402543B2 (ja) 2018-11-08 2023-12-21 ルーマス リミテッド ダイクロイックビームスプリッタカラーコンバイナを有する光学デバイスおよび光学システム
TW202026685A (zh) 2018-11-08 2020-07-16 以色列商魯姆斯有限公司 具有反射鏡的光導顯示器
DE202019106214U1 (de) 2018-11-11 2020-04-15 Lumus Ltd. Augennahe Anzeige mit Zwischenfenster
WO2020131277A1 (en) 2018-12-20 2020-06-25 Snap Inc. Flexible eyewear device with dual cameras for generating stereoscopic images
CN113330348B (zh) 2019-01-24 2023-01-24 鲁姆斯有限公司 包括具有三阶段扩展的loe的光学***
US11849262B2 (en) 2019-03-12 2023-12-19 Lumus Ltd. Image projector
US20220239888A1 (en) * 2019-06-07 2022-07-28 Sony Group Corporation Video distribution system, video distribution method, and display terminal
BR112021022229A2 (pt) 2019-06-27 2022-02-22 Lumus Ltd Aparelho
CN114599480B (zh) 2019-11-25 2024-03-19 鲁姆斯有限公司 抛光波导表面的方法
IL270991B (en) 2019-11-27 2020-07-30 Lumus Ltd A light guide with an optical element to perform polarization mixing
CA3223538C (en) 2019-12-05 2024-02-20 Lumus Ltd Light-guide optical element employing complementary coated partial reflectors, and light-guide optical element having reduced light scattering
US10965931B1 (en) * 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation
WO2021117033A1 (en) 2019-12-08 2021-06-17 Lumus Ltd. Optical systems with compact image projector
DE202021104723U1 (de) 2020-09-11 2021-10-18 Lumus Ltd. An ein optisches Lichtleiterelement gekoppelter Bildprojektor
US11379957B1 (en) * 2021-02-23 2022-07-05 Qualcomm Incorporated Head wearable display device calibrated for distortion correction using inter-pupillary distance
US11860369B2 (en) 2021-03-01 2024-01-02 Lumus Ltd. Optical system with compact coupling from a projector into a waveguide
CN113259649B (zh) * 2021-05-06 2022-08-09 青岛小鸟看看科技有限公司 基于场景摄像头重定位的虚拟现实方法、***
IL309966B1 (en) 2021-07-04 2024-03-01 Lumus Ltd Display with stacked light guide elements providing different parts of the field of view
US11863730B2 (en) 2021-12-07 2024-01-02 Snap Inc. Optical waveguide combiner systems and methods
US20230209032A1 (en) * 2021-12-23 2023-06-29 Meta Platforms Technologies, Llc Detection, analysis and correction of disparities in a display system utilizing disparity sensing port
CN114441142A (zh) * 2021-12-30 2022-05-06 歌尔光学科技有限公司 Ar成像***的校正参数获取方法及装置
US11961258B2 (en) 2022-01-26 2024-04-16 Industrial Technology Research Institute Calibration method for optical see-through display and calibration system
CN114465910B (zh) * 2022-02-10 2022-09-13 北京为准智能科技有限公司 一种基于增强现实技术的机械加工设备校准方法

Family Cites Families (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4720189A (en) 1986-01-07 1988-01-19 Northern Telecom Limited Eye-position sensor
FR2647556B1 (fr) 1989-05-23 1993-10-29 Thomson Csf Dispositif optique pour l'introduction d'une image collimatee dans le champ visuel d'un observateur et casque comportant au moins un tel dispositif
US5270748A (en) 1992-01-30 1993-12-14 Mak Technologies, Inc. High-speed eye tracking device and method
JPH08313843A (ja) 1995-05-16 1996-11-29 Agency Of Ind Science & Technol 視線追従方式による広視野高解像度映像提示装置
US6404550B1 (en) 1996-07-25 2002-06-11 Seiko Epson Corporation Optical element suitable for projection display apparatus
US6154321A (en) 1998-01-20 2000-11-28 University Of Washington Virtual retinal display with eye tracking
AU1084601A (en) 1999-10-14 2001-04-23 Stratos Product Development Company Virtual imaging system
US6264328B1 (en) 1999-10-21 2001-07-24 University Of Rochester Wavefront sensor with off-axis illumination
US6753828B2 (en) * 2000-09-25 2004-06-22 Siemens Corporated Research, Inc. System and method for calibrating a stereo optical see-through head-mounted display system for augmented reality
US6542307B2 (en) 2000-10-20 2003-04-01 Three-Five Systems, Inc. Compact near-eye illumination system
US7084838B2 (en) * 2001-08-17 2006-08-01 Geo-Rae, Co., Ltd. Method and system for controlling the motion of stereoscopic cameras using a three-dimensional mouse
IL148804A (en) 2002-03-21 2007-02-11 Yaacov Amitai Optical device
US20070165192A1 (en) 2006-01-13 2007-07-19 Silicon Optix Inc. Reduced field angle projection display system
US7640306B2 (en) 2002-11-18 2009-12-29 Aol Llc Reconfiguring an electronic message to effect an enhanced notification
US6879443B2 (en) 2003-04-25 2005-04-12 The Microoptical Corporation Binocular viewing system
IL157837A (en) 2003-09-10 2012-12-31 Yaakov Amitai Substrate-guided optical device particularly for three-dimensional displays
IL157838A (en) 2003-09-10 2013-05-30 Yaakov Amitai High-brightness optical device
IL162573A (en) 2004-06-17 2013-05-30 Lumus Ltd Optical component in a large key conductive substrate
US10073264B2 (en) 2007-08-03 2018-09-11 Lumus Ltd. Substrate-guide optical device
IL166799A (en) 2005-02-10 2014-09-30 Lumus Ltd Aluminum shale surfaces for use in a conductive substrate
EP1849033B1 (en) 2005-02-10 2019-06-19 Lumus Ltd Substrate-guided optical device utilizing thin transparent layer
US7751122B2 (en) 2005-02-10 2010-07-06 Lumus Ltd. Substrate-guided optical device particularly for vision enhanced optical systems
WO2006087709A1 (en) 2005-02-17 2006-08-24 Lumus Ltd. Personal navigation system
US10261321B2 (en) 2005-11-08 2019-04-16 Lumus Ltd. Polarizing optical system
IL171820A (en) 2005-11-08 2014-04-30 Lumus Ltd A polarizing optical component for light coupling within a conductive substrate
IL173715A0 (en) 2006-02-14 2007-03-08 Lumus Ltd Substrate-guided imaging lens
IL174170A (en) 2006-03-08 2015-02-26 Abraham Aharoni Device and method for two-eyed tuning
US7538876B2 (en) * 2006-06-12 2009-05-26 The Boeing Company Efficient and accurate alignment of stereoscopic displays
IL177618A (en) 2006-08-22 2015-02-26 Lumus Ltd Optical component in conductive substrate
EP2142953B1 (en) 2007-04-22 2019-06-05 Lumus Ltd A collimating optical device and system
IL183637A (en) 2007-06-04 2013-06-27 Zvi Lapidot Head display system
US8493662B2 (en) 2008-09-16 2013-07-23 Bae Systems Plc Waveguides
US8717392B2 (en) * 2009-06-02 2014-05-06 Nokia Corporation Apparatus for enabling users to view images, methods and computer readable storage mediums
US20110010988A1 (en) 2009-07-16 2011-01-20 Michael Lanoha Universal Underground Receptacle for a Cemetery Flower Vase Cylinder
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
JP5499985B2 (ja) 2010-08-09 2014-05-21 ソニー株式会社 表示装置組立体
KR101232036B1 (ko) 2010-10-13 2013-02-12 한국과학기술원 비접촉 전력전달 장치 및 자기유도 방식의 급전장치
JP5953311B2 (ja) * 2010-11-08 2016-07-20 シーリアル テクノロジーズ ソシエテ アノニムSeereal Technologies S.A. 表示装置
WO2012131970A1 (ja) 2011-03-31 2012-10-04 トヨタ自動車株式会社 内燃機関の制御装置およびそれを搭載する車両
US9170425B1 (en) 2011-08-17 2015-10-27 Lockheed Martin Corporation Multi-focal augmented reality lenses
GB201117029D0 (en) 2011-10-04 2011-11-16 Bae Systems Plc Optical waveguide and display device
US9311883B2 (en) * 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
EP2833375A4 (en) 2012-03-26 2015-11-11 Hitachi Ltd rare earth
WO2013145147A1 (ja) * 2012-03-28 2013-10-03 パイオニア株式会社 ヘッドマウントディスプレイ及び表示方法
IL219907A (en) 2012-05-21 2017-08-31 Lumus Ltd Integrated head display system with eye tracking
US8909985B2 (en) 2012-07-12 2014-12-09 International Business Machines Corporation Multiple hyperswap replication sessions
CN202864800U (zh) 2012-07-26 2013-04-10 诠钧实业有限公司 绞车的刹车机构
US20140160157A1 (en) * 2012-12-11 2014-06-12 Adam G. Poulos People-triggered holographic reminders
US20140191927A1 (en) * 2013-01-09 2014-07-10 Lg Electronics Inc. Head mount display device providing eye gaze calibration and control method thereof
US9638920B2 (en) 2013-04-15 2017-05-02 Microsoft Technology Licensing, Llc Torsional support for binocular display
US20160020965A1 (en) 2013-08-07 2016-01-21 Hitachi, Ltd. Method and apparatus for dynamic monitoring condition control
US9264702B2 (en) * 2013-08-19 2016-02-16 Qualcomm Incorporated Automatic calibration of scene camera for optical see-through head mounted display
US9405122B2 (en) * 2014-01-29 2016-08-02 Ricoh Co., Ltd Depth-disparity calibration of a binocular optical augmented reality system
JP6451222B2 (ja) * 2014-11-04 2019-01-16 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
IL232197B (en) 2014-04-23 2018-04-30 Lumus Ltd Compact head-up display system
US10198865B2 (en) * 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
US10070120B2 (en) * 2014-09-17 2018-09-04 Qualcomm Incorporated Optical see-through display calibration
IL235642B (en) 2014-11-11 2021-08-31 Lumus Ltd A compact head-up display system is protected by an element with a super-thin structure
US10764563B2 (en) * 2014-11-13 2020-09-01 Intel Corporation 3D enhanced image correction
KR102383425B1 (ko) * 2014-12-01 2022-04-07 현대자동차주식회사 전자 장치, 전자 장치의 제어 방법, 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체
IL236491B (en) 2014-12-25 2020-11-30 Lumus Ltd A method for manufacturing an optical component in a conductive substrate
IL236490B (en) 2014-12-25 2021-10-31 Lumus Ltd Optical component on a conductive substrate
IL237337B (en) 2015-02-19 2020-03-31 Amitai Yaakov A compact head-up display system with a uniform image
WO2016168913A1 (en) 2015-04-22 2016-10-27 Esight Corp. Methods and devices for optical aberration correction
US9910276B2 (en) 2015-06-30 2018-03-06 Microsoft Technology Licensing, Llc Diffractive optical elements with graded edges
JP2017108370A (ja) * 2015-07-06 2017-06-15 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム
US10192361B2 (en) * 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
KR102574490B1 (ko) * 2015-10-12 2023-09-04 삼성전자주식회사 머리 장착형 전자 장치
NZ742518A (en) * 2015-11-04 2019-08-30 Magic Leap Inc Dynamic display calibration based on eye-tracking
US9759923B2 (en) 2015-11-19 2017-09-12 Microsoft Technology Licensing, Llc Low-stress waveguide mounting for head-mounted display device
US10445860B2 (en) * 2015-12-08 2019-10-15 Facebook Technologies, Llc Autofocus virtual reality headset
US10178378B2 (en) * 2016-04-12 2019-01-08 Microsoft Technology Licensing, Llc Binocular image alignment for near-eye display
CA3021964A1 (en) * 2016-04-26 2017-11-02 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
JP6740366B2 (ja) 2016-05-18 2020-08-12 ルーマス リミテッドLumus Ltd. ヘッドマウント結像装置
US20170353714A1 (en) * 2016-06-06 2017-12-07 Navid Poulad Self-calibrating display system
CN106019602B (zh) 2016-08-03 2018-03-30 深圳酷酷科技有限公司 头戴式显示设备
US10133070B2 (en) 2016-10-09 2018-11-20 Lumus Ltd. Aperture multiplier using a rectangular waveguide
MX2018007164A (es) 2016-11-08 2019-06-06 Lumus Ltd Dispositivo de guia de luz con borde de corte optico y metodos de produccion correspondientes.
KR20190000456U (ko) 2016-12-02 2019-02-19 루머스 리미티드 소형 시준 이미지 프로젝터를 구비한 광학 시스템
KR102296369B1 (ko) 2016-12-31 2021-09-01 루머스 리미티드 도광 광학 소자를 통한 망막 이미징 기반 안구 추적기
WO2018127913A1 (en) 2017-01-04 2018-07-12 Lumus Ltd. Optical system for near-eye displays
IL292456B (en) 2017-02-22 2022-08-01 Lumus Ltd Optical assembly of a light guide
US11073695B2 (en) 2017-03-21 2021-07-27 Magic Leap, Inc. Eye-imaging apparatus using diffractive optical elements
KR20230025946A (ko) 2017-03-22 2023-02-23 루머스 리미티드 중첩 파셋
IL251645B (en) 2017-04-06 2018-08-30 Lumus Ltd Waveguide and method of production
JP7174929B2 (ja) 2017-07-19 2022-11-18 ルムス エルティーディー. Loeを介するlcos照明
CN111183393B (zh) 2017-09-29 2024-03-19 鲁姆斯有限公司 增强现实显示器
KR20200077511A (ko) 2017-10-22 2020-06-30 루머스 리미티드 광학 벤치를 사용하는 헤드 장착형 증강 현실 장치
AU2018372665B2 (en) 2017-11-21 2023-01-19 Lumus Ltd. Optical aperture expansion arrangement for near-eye displays
WO2019106637A1 (en) 2017-12-03 2019-06-06 Lumus Ltd. Optical device alignment methods
US20190170327A1 (en) 2017-12-03 2019-06-06 Lumus Ltd. Optical illuminator device
US11226261B2 (en) 2017-12-03 2022-01-18 Lumus Ltd. Optical device testing method and apparatus
KR20200097289A (ko) 2017-12-10 2020-08-18 루머스 리미티드 이미지 프로젝터
JP2021509482A (ja) 2018-01-02 2021-03-25 ルムス エルティーディー. アクティブアライメントを備えた拡張現実ディスプレイおよび対応する方法
US10506220B2 (en) 2018-01-02 2019-12-10 Lumus Ltd. Augmented reality displays with active alignment and corresponding methods
US10551544B2 (en) 2018-01-21 2020-02-04 Lumus Ltd. Light-guide optical element with multiple-axis internal aperture expansion
CN112005091B (zh) 2018-04-08 2023-08-11 鲁姆斯有限公司 用于对光学材料的样品进行光学测试的设备和方法、以及操作性地连接至该设备的控制器
WO2019220330A1 (en) 2018-05-14 2019-11-21 Lumus Ltd. Projector configuration with subdivided optical aperture for near-eye displays, and corresponding optical systems
JP7446620B2 (ja) 2018-05-17 2024-03-11 ルムス エルティーディー. オーバーラップするプロジェクター組立体を有するニアアイディスプレイ
IL259518B2 (en) 2018-05-22 2023-04-01 Lumus Ltd Optical system and method for improving light field uniformity
EP3791224B1 (en) 2018-05-23 2022-08-31 Lumus Ltd. Optical system including light-guide optical element with partially-reflective internal surfaces
JP3222489U (ja) 2018-05-27 2019-08-01 ルムス エルティーディー. 像面湾曲の影響を緩和した基板誘導ベースの光学系
US11415812B2 (en) 2018-06-26 2022-08-16 Lumus Ltd. Compact collimating optical device and system
JP7411255B2 (ja) 2018-07-16 2024-01-11 ルムス エルティーディー. 偏光された内部反射体を採用する導光光学素子
MX2021002813A (es) 2018-09-09 2021-05-12 Lumus Ltd Sistemas opticos que incluyen elementos opticos de guia de luz con expansion bidimensional.
DE202019106214U1 (de) 2018-11-11 2020-04-15 Lumus Ltd. Augennahe Anzeige mit Zwischenfenster
CN113330348B (zh) 2019-01-24 2023-01-24 鲁姆斯有限公司 包括具有三阶段扩展的loe的光学***

Also Published As

Publication number Publication date
IL275615B (en) 2022-08-01
AU2019205611A1 (en) 2020-01-30
KR20200102408A (ko) 2020-08-31
US20210099691A1 (en) 2021-04-01
MX2020002402A (es) 2020-07-22
CN110915210B (zh) 2021-10-15
JP2023081930A (ja) 2023-06-13
EP3735775A4 (en) 2022-01-19
CA3068659A1 (en) 2019-07-11
RU2020100251A (ru) 2022-02-03
EP3735775A1 (en) 2020-11-11
WO2019135169A1 (en) 2019-07-11
US11223820B2 (en) 2022-01-11
TW201932914A (zh) 2019-08-16
IL275615A (en) 2020-08-31
CN113777783A (zh) 2021-12-10
CN110915210A (zh) 2020-03-24
JP2021509482A (ja) 2021-03-25
CN113777783B (zh) 2024-04-12
TWI791728B (zh) 2023-02-11

Similar Documents

Publication Publication Date Title
BR112020001912A2 (pt) método para derivar uma correção de alinhamento entre uma tela do olho direito e uma tela do olho esquerdo e método para correção do alinhamento estereoscópico entre uma tela do olho direito e uma tela do olho esquerdo
US10869024B2 (en) Augmented reality displays with active alignment and corresponding methods
KR102373714B1 (ko) 멀티포트 투시에 의한 수술 장면의 정량적 3차원 영상화
US9961335B2 (en) Pickup of objects in three-dimensional display
TWI555379B (zh) 一種全景魚眼相機影像校正、合成與景深重建方法與其系統
JP4517049B2 (ja) 視線検出方法および視線検出装置
US20180124387A1 (en) Efficient augmented reality display calibration
EP2649932A1 (en) Method for detecting point of gaze and device for detecting point of gaze
WO2015051606A1 (zh) 定位方法及定位***
JP6596678B2 (ja) 視線測定装置および視線測定方法
JP2008014653A (ja) 測量機
US10048516B2 (en) Methods and systems for measuring human faces and eyeglass frames
JP6631951B2 (ja) 視線検出装置及び視線検出方法
WO2015051605A1 (zh) 图像采集定位方法及图像采集定位装置
KR102093953B1 (ko) 피검자의 비전 파라미터들을 결정하는 것을 돕는 방법
JP2023504252A (ja) 視覚化カメラ及び光学コヒーレンストモグラフィを統合するシステム及び方法
US20190236847A1 (en) Method and system for aligning digital display of images on augmented reality glasses with physical surrounds
ES2625729T3 (es) Sistema y método de medición estereoscópica
JP6496917B2 (ja) 視線測定装置および視線測定方法
ES2625730T3 (es) Sistema y método de medición estereoscópica
ES2971694T3 (es) Método para un sistema de cámara estereoscópica para detectar desviaciones de una calibración y sistema de cámara estereoscópica del mismo
WO2021237952A1 (zh) 一种增强现实的显示***及方法
JP2003264852A (ja) 立体画像表示装置及び方法
BR102015005263B1 (pt) Processo para exibição estereoscópica horizontal baseado em correspondências

Legal Events

Date Code Title Description
B350 Update of information on the portal [chapter 15.35 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 3A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2653 DE 09-11-2021 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.