JP2021507277A - 拡張現実ディスプレイシステム - Google Patents

拡張現実ディスプレイシステム Download PDF

Info

Publication number
JP2021507277A
JP2021507277A JP2020531465A JP2020531465A JP2021507277A JP 2021507277 A JP2021507277 A JP 2021507277A JP 2020531465 A JP2020531465 A JP 2020531465A JP 2020531465 A JP2020531465 A JP 2020531465A JP 2021507277 A JP2021507277 A JP 2021507277A
Authority
JP
Japan
Prior art keywords
display device
frame
waveguide
hinge
wearer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020531465A
Other languages
English (en)
Other versions
JP7171727B2 (ja
Inventor
トラバース,ポール
ポーター,タイラー
ロバート シュルツ,
ロバート シュルツ,
グレゴリー モエンズ,
グレゴリー モエンズ,
コナー ハック,
コナー ハック,
レイエス, アダルベルト ペレツ
レイエス, アダルベルト ペレツ
ケビン ロイド,
ケビン ロイド,
ポール エー. ボリス,
ポール エー. ボリス,
ダブリュー. グレイ,ロバート
ダブリュー. グレイ,ロバート
マーク ジェイ. クロルツィク,
マーク ジェイ. クロルツィク,
マイケル ジェイ. テレック,
マイケル ジェイ. テレック,
アレクサンダー ケリー,
アレクサンダー ケリー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vuzix Corp
Original Assignee
Vuzix Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vuzix Corp filed Critical Vuzix Corp
Publication of JP2021507277A publication Critical patent/JP2021507277A/ja
Priority to JP2022156455A priority Critical patent/JP2022188158A/ja
Application granted granted Critical
Publication of JP7171727B2 publication Critical patent/JP7171727B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B27/0103Head-up displays characterised by optical features comprising holographic elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0013Means for improving the coupling-in of light from the light source into the light guide
    • G02B6/0023Means for improving the coupling-in of light from the light source into the light guide provided by one optical element, or plurality thereof, placed between the light guide and the light source, or around the light source
    • G02B6/0026Wavelength selective element, sheet or layer, e.g. filter or grating
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0033Means for improving the coupling-out of light from the light guide
    • G02B6/005Means for improving the coupling-out of light from the light guide provided by one optical element, or plurality thereof, placed on the light output side of the light guide
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0075Arrangements of multiple light guides
    • G02B6/0076Stacked arrangements of multiple light guides of the same or different cross-sectional area
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0081Mechanical or electrical aspects of the light guide and light source in the lighting device peculiar to the adaptation to planar light guides, e.g. concerning packaging
    • G02B6/0086Positioning aspects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0081Mechanical or electrical aspects of the light guide and light source in the lighting device peculiar to the adaptation to planar light guides, e.g. concerning packaging
    • G02B6/0093Means for protecting the light guide
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C5/00Constructions of non-optical parts
    • G02C5/12Nose pads; Nose-engaging surfaces of bridges or rims
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C5/00Constructions of non-optical parts
    • G02C5/22Hinges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C9/00Attaching auxiliary optical parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computer Hardware Design (AREA)
  • Otolaryngology (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Eyeglasses (AREA)
  • Diffracting Gratings Or Hologram Optical Elements (AREA)

Abstract

着用者にバーチャル像を表示するための個人用ディスプレイ装置である。個人用ディスプレイ装置は、右側テンプル部、左側テンプル部、右後部、左後部、右目シースルー部、および左目シースルー部を有するフレームを備えている。着用者に画像を投射するために、投射ディスプレイデバイスがフレームに連結されている。少なくとも1つの導波路スタックモジュールがフレームに連結されている。この導波路スタックモジュールは、その長さに沿って画像担持光ビームを伝送する。少なくとも1つの導波路スタックモジュールは、投射ディスプレイデバイスからの画像を受けるとともに、着用者のタッチ操作を検出するように構成されている。タッチ操作は、着用者のタッチ運動の方向を感知するタッチパッドによって感知される。

Description

本開示は、拡張現実眼鏡(augmented reality eyewear)のディスプレイシステムのための装置および方法に関する。
ヘッドマウントディスプレイ(HMD)は、軍事、商業、産業、消防、エンターテイメントなど、さまざまな用途向けに開発されている。これらのアプリケーションの多くでは、HMD利用者の視野にある実際の画像に視覚的に重ね合わせることができるバーチャル像を形成することに特別な価値がある。光学画像光ガイドは、利用者への画像担持光を狭い空間において伝送し、バーチャル像を利用者の瞳孔に向け、上記重ね合わせ機能を可能にする。
現在、HMDにはHMDの有効性を低下させる多くの問題がある。たとえば、HMDは非常に高価で、発熱の問題があり、導波路の周囲に凝縮液が発生することがある。
有利なことに、本開示の実施形態は、バーチャル像を形成する光学イメージング装置を提供することができる。このバーチャル像は、光学イメージング装置の利用者が少なくとも1つの目で光学イメージング装置を通して見たときに知覚する現実世界のビューに、重ねられる。本開示はさらに、複数の人工知能(AI)システムとコーディネートし交流して、利用者および利用者の環境を監視し、フィードバック情報を利用者に提供することができる。このフィードバック情報は、部分的に、過去の利用者の行動(オンラインでの行動および現実世界での行動を含む)に基づいている。これにより、利用者の安全性が高められ、実行されるタスク、意思決定、エンターテイメントの効率が高められる。
したがって、拡張現実ディスプレイシステムのコストを削減しながら、利用者をより効果的に支援する拡張現実ディスプレイシステムが求められている。
本開示は、バーチャル像を着用者に表示するための個人用ディスプレイ装置を提供する。個人用ディスプレイ装置は、右側テンプル部、左側テンプル部、右後部、左後部を有するフレームと、前記フレームに連結され、着用者に画像を投射する投射ディスプレイデバイスと、前記フレームに連結された少なくとも1つの導波路スタックモジュールと、を備え、前記少なくとも1つの導波路スタックモジュールは、その長さに沿って画像担持光ビームを伝送するものであり、前記投射ディスプレイデバイスからの画像を受け取るように構成され、インカップリング回折光学素子とアウトカップリング回折光学素子を含み、前記インカップリング光学素子は、前記少なくとも1つの導波路スタックモジュールに沿って形成されており、前記投射ディスプレイデバイスからの画像担持光ビームを、前記少なくとも1つの導波路スタックモジュール内へと回折して、前記画像担持光ビームを角度的にエンコードされた形態で前記少なくとも1つの導波路スタックモジュールの長さに沿って伝送させ、前記アウトカップリング回折光学素子は、前記インカップリング回折光学素子から前記少なくとも1つの導波路スタックモジュールの長さに沿って離間しており、前記投射ディスプレイデバイスからの画像を見るために、前記少なくとも1つの導波路スタックモジュールからの前記画像担持光ビームを、角度的にデコードされた形態で回折し、さらに、前記投射ディスプレイデバイスに接続されたプロセッサと、前記プロセッサに接続されたタッチパッドと、前記プロセッサに接続された少なくとも1つのマイクとを備え、前記プロセッサは、画像を前記投射ディスプレイデバイスと前記少なくとも1つの導波路スタックモジュールに提供するように構成され、前記タッチパッドは、着用者のタッチ動作を感知し、入力タッチパッド信号を前記プロセッサに提供するように構成され、前記入力タッチパッド信号は個人用ディスプレイ装置の少なくとも1つの状態を変化させ、前記タッチパッドによる着用者の動作の感知は、着用者のタッチ動作の方向の感知を含み、少なくとも1つのマイクは、着用者からコマンドを受信し、入力マイク信号を前記プロセッサに提供するようにさらに構成され、前記入力マイク信号は、個人用ディスプレイ装置の少なくとも1つの状態を変化させる。
さらに次の構成が開示されている。
個人用ディスプレイ装置は、前記プロセッサに接続されたバイブレータをさらに備え、前記バイブレータは、前記プロセッサから入力バイブレータ信号を受信して、着用者に触覚フィードバックを提供するように構成されている。
前記インカップリング回折光学素子と前記アウトカップリング回折光学素子は、前面および背面を有し、前記インカップリング回折光学素子の前面は、前記インカップリング回折光学素子の背面と平行であり、前記アウトカップリング回折光学素子の前面は、前記アウトカップリング回折光学素子の背面と平行である。
個人用ディスプレイ装置は、前記右目シースルー部と前記左目シースルー部との間で前記フレームに取り外し可能に取り付けられた鼻梁アセンブリをさらに備えている。
個人用ディスプレイ装置は、周囲光の変化を検出するために前記フレームに配置され前記プロセッサに接続された周囲光センサーをさらに備えている。前記周囲光センサーが前記プロセッサに信号を提供するように構成されている。前記プロセッサは、前記周囲光センサーによって提供される信号に基づいて、前記投射ディスプレイデバイスによって伝送される画像を変更するように構成されている。
前記導波路スタックモジュールは、導波路ハウジングをさらに含み、前記導波路ハウジングは、前記インカップリング回折光学素子および前記アウトカップリング回折光学素子を収容するように構成されている。
前記導波路スタックモジュールが、前記インカップリング回折光学素子を通過する前記投射ディスプレイデバイスからの過剰な光を吸収するための黒化材料を含む。前記黒化材料は、コモト、カーボンフェザー、アクタール、および黒色塗料のうちの少なくとも1つから作られる。
前記導波路ハウジングは、前記導波路ハウジングと前記フレームとを位置合わせするための導波路・フレームアライナを含む。前記導波路スタックモジュールは、前記インカップリング回折光学素子と前記アウトカップリング回折光学素子を前記導波路ハウジング内に封止するための外カバーと内カバーをさらに含む。前記外カバーと前記内カバーは、前記外カバーと前記内カバーの周囲を囲むガスケットを含み、前記ガスケットは、前記外カバーと前記内カバーを前記導波路ハウジングに封止する。
前記投射ディスプレイデバイスは、プロジェクタ、プロジェクタ取付フレーム、およびディスプレイ接続モジュールを含む。前記プロジェクタ取付フレームは、アライメントピンとプロジェクタ・フレームアライナとを含み、前記プロジェクタ・フレームアライナは、前記プロジェクタ取付フレームと前記フレームとを位置合わせする。
前記導波路スタックモジュールが導波路ハウジングをさらに含み、前記導波路ハウジングが、前記導波路ハウジングと前記フレームとを位置合わせするための導波路・フレームアライナを含み、前記投射ディスプレイデバイスがプロジェクタ取付フレームを含み、前記プロジェクタ取付フレームが、前記プロジェクタ取付フレームと前記フレームとを位置合わせするためのプロジェクタ・フレームアライナを含み、前記フレームは、前記導波路・フレームアライナと前記プロジェクタ・フレームアライナを前記フレームに位置合わせするためのプロジェクタ・導波路・フレームアライナを含む。
個人用表示装置は、前記フレームの前記左側テンプル部と前記左後部との間に配置された左側ヒンジシステムと、前記フレームの右側テンプル部と前記右後部の間に配置された右側ヒンジシステムとをさらに備えている。前記左側ヒンジシステムと前記右側ヒンジシステムは、可撓性ケーブル、ヒンジ、ヒンジハウジング、およびヒンジピンを含む。前記ヒンジは、第1ハーフヒンジと第2ハーフヒンジを含み、前記第1ハーフヒンジと前記第2ハーフヒンジは、前記ヒンジピンによって回動可能に接続されるように構成されている。前記可撓性ケーブルが少なくとも6つの屈曲点を含み、前記可撓性ケーブルの少なくとも6つの屈曲点のうちの4つが前記ヒンジピンを取り囲むように構成されている。
添付の図面は、本明細書に開示される本発明のさらなる理解を提供するために含まれ、本明細書に組み込まれ、本明細書の一部を構成しており、本発明の態様を表し、記述とともに本発明の原理を説明するのに役立つ。
拡張現実眼鏡の斜視図である。
拡張現実眼鏡の底面図である。
拡張現実眼鏡の平断面図である。
拡張現実眼鏡の側面図である。
拡張現実眼鏡の背面図である。
拡張現実眼鏡によって伝送される第1のバーチャル像である。
拡張現実眼鏡によって伝送される第2のバーチャル像である。
拡張現実眼鏡の導波路スタックモジュールの斜視図である。
拡張現実眼鏡の導波路スタックモジュールに含まれる構成要素の分解図である。
拡張現実眼鏡の導波路スタックモジュールの導波路ハウジングおよび黒化材料を示す拡大背面図である。
導波路スタックモジュールの導波路アセンブリに含まれる構成要素の分解図である。
ガスケットを含む導波路スタックモジュールの平断面図である。
拡張現実眼鏡の投射ディスプレイデバイスの斜視図である。
拡張現実眼鏡の投射ディスプレイデバイスに含まれる構成要素の分解図である。
拡張現実眼鏡の投射ディスプレイデバイスの側面図である。
拡張現実眼鏡の導波路スタックモジュールおよびプロジェクタモジュールの斜視図である。
拡張現実眼鏡の導波路スタックモジュールおよびプロジェクタモジュールの拡大斜視図である。
導波路スタックモジュールを受け入れる拡張現実眼鏡のハウジングの内部領域とプロジェクタモジュールを示す斜視図である。
拡張現実眼鏡のヒンジシステムを含む構成要素の分解図である。
拡張現実眼鏡の最上層の一部が省かれた構成要素の分解図である。
拡張現実眼鏡のヒンジシステムの構成要素の分解図である。
拡張現実眼鏡のヒンジシステムを断面にして示す斜視図である。
拡張現実眼鏡のヒンジシステムの内部を示す斜視図である。
第1の位置にあるヒンジシステムの内部を示す斜視図である。
第2の位置にあるヒンジシステムを断面にして示す斜視図である。
拡張現実眼鏡の放熱システムの断面図である。
ある取得モードでの拡張現実眼鏡を用いた画像である。 異なる取得モードでの拡張現実眼鏡を用いた画像である。
人工知能および無線通信を利用する拡張現実ニアアイディスプレイシステムの斜視図である。
人工知能および無線通信を利用する拡張現実ヘッドマウントディスプレイの斜視図である。
以下に記載される詳細な説明は、本発明の様々な構成の説明として意図されており、本発明が実施可能な唯一の構成を示すことは意図されていない。当業者には、本発明が本明細書に記載された特定の詳細な構成に限定されず、当該特定の構成なしでも実施できることが明らかであろう。
本明細書において、「第1」、「第2」などの用語は、必ずしも順序、順次、または優先順位の関係を示すものではなく、特に指定のない限り、単に1つの要素または要素の集合を他の要素または要素の集合から明確に区別するために使用される。
「例示的」の用語は、「一例」であることを意味し、任意の好ましいまたは理想的な実施形態を示唆することを意図しない。
本明細書で使用される「集合」という用語は、要素やメンバーの集まりの概念として初等数学で広く理解されているように、空でない集合を指す。
「部分集合」という用語は、特に明記しない限り、本明細書では空ではない適切な部分集合、つまり1つまたは複数の要素を有する、より大きな集合における部分集合を指すために使用される。
集合Sの場合、部分集合は完全な集合Sを含むことができる。しかしながら、集合Sの「適切な部分集合」は、集合Sに厳密に含まれ、集合Sの少なくとも1つの要素を除外する。
本開示において、用語「波長帯域」および「波長範囲」は均等であり、カラー画像化の当業者によって使用される標準的な意味を有し、多色画像を表すために使用される光波長の連続範囲を指す。通常のカラー画像化アプリケーションでは、原色の赤、緑、青など、異なる波長帯域が異なるカラーチャネルを通るように方向付けられる。
本開示において、「結合された(カップル;coupled)」という用語は、2つ以上の構成要素間の物理的な関連付け、接続、関係、または連結を示すことを意図しており、1つの構成要素の配置が、これと結合される構成要素の空間的配置に影響を与える。
機械的結合の場合、2つの構成要素を直接接触させる必要はなく、1つ以上の中間構成要素を介して連結してもよい。
光結合(光学的カップリング;optical coupling)のための構成要素は、光エネルギーが光学装置に入力したり、光学装置から出力したりするのを可能にする。
「ビーム拡大器」および「瞳拡大器」という用語は同義であると考えられ、本明細書では互換的に使用される。これらの用語は、本明細書では一般に、後で説明するように、バーチャル像を形成するために使用される回折格子付きの平面導波路を示すために使用される。
本質的に平面の光導波路(例えば、平行板導波路)は、導波路の1つの領域から他の領域へと画像担持光を伝送するために用いることができる物理的構造である。このような画像伝送導波路の典型的な用途は、ヘッドマウント式の単眼または両眼のディスプレイシステムである。
「剛性」および「剛性連結」という用語は、機械的に剛性を有するまたは堅い構成要素を示すために使用される。
すべての剛性を有する機械材料およびシステムは、さまざまな程度に破壊することなく変形する能力を有することを理解されたい。
「可撓性電子回路」、「可撓性ケーブル」、および「可撓性回路」という用語は、基端から先端に1つ以上の電気信号または光信号を伝送することができる可撓性材料を示すために使用される。さらに、電気及び/又は光のエネルギーが、前記基端から前記先端へと伝送されてもよい。さらに、前記信号及び/又はパワーが前記先端から前記基端へと逆に伝送されてもよいことは、理解されるべきである。
「画像を表示する」、「バーチャル像を表示する」、「画像を投射する」、「バーチャル像を投射する」、「画像を提示」、「バーチャル像を提示」という用語は、本明細書で開示する拡張現実ディスプレイシステムの視覚的機能を説明するために使用される。拡張現実ディスプレイシステムは、実際の画像ではなく、バーチャル像を生成して利用者の目に提示することを理解されたい。
「利用者」および「着用者」という用語は、本明細書で開示される「拡張現実ディスプレイシステム」または「ニアアイディスプレイシステム」とも呼ばれる光学イメージングシステムを利用する人を、同義に使用する場合がある。
図1〜25には、拡張現実ディスプレイシステム100が示されている。拡張現実ディスプレイシステム100は、右側Rおよび左側Lを有するフレーム10を備えている。拡張現実ディスプレイシステム100はさらに、右目シースルー部(see-through section)20、左目シースルー部22、および右目シースルー部20と左目シースルー部22との間に配置された鼻梁部24を含んでいる。フレーム10は、右側テンプル部30、左側テンプル部32、右後部34、および左後部36を含むことができる。右後部34は、右側テンプル部30に連結され、右側テンプル部30は、右側シースルー部20に連結されている。左後部36は、左側テンプル部32に連結され、左側テンプル部32は、左側シースルー部22に連結される。
拡張現実ディスプレイシステム100はさらに、右側通過ヒンジ(pass-through hinge)40と左側通過ヒンジ42を含む。右後部34は右側通過ヒンジ40に連結され、この右側通過ヒンジ40は右側テンプル部30に連結される。左後部36は左側通過ヒンジ42に連結され、この左側通過ヒンジ42は左側テンプル部32に連結される。右側通過ヒンジ40および左側通過ヒンジ42については、以下でさらに説明する。
拡張現実ディスプレイシステム100の右後部34は、右側リアバッテリー50、右側振動デバイス52、および右側可撓性ケーブル(図示せず)を含むことができる。右側可撓性ケーブルは、電気ケーブル、または意図された目的に適しており当業者によって理解される任意の他のコネクタとすることができる。右側可撓性ケーブルは、右側リアバッテリー50と右側振動デバイス52を接続することができる。右側可撓性ケーブルは、右後部34および右側通過ヒンジ40を通過し、右側回路基板64に接続することができる。別の可撓性ケーブル(図示せず)は、右側テンプル部30内の右側回路基板64に接続し、右眼シースルー部20、鼻梁部24、および左目シースルー部22を通過して、拡張現実ディスプレイシステム100の左側テンプル部32内に配置されたプロセッサ54に接続することができる。プロセッサ54は、quad core ARM A53、または意図された目的に適しており当業者によって理解される他の任意のプロセッサとすることができる。
拡張現実ディスプレイシステム100の左後部36は、左側リアバッテリー56、左側振動デバイス58、および左側可撓性ケーブル(図示せず)を含む。左側可撓性ケーブルは、電気ケーブル、または意図された目的に適しており当業者によって理解される任意の他のコネクタとすることができる。左側可撓性ケーブルは、左側リアバッテリー56と左側振動デバイス58を接続することができる。左側可撓性ケーブルは、左後部36および左側通過ヒンジ42を通過し、拡張現実ディスプレイシステム100のプロセッサ54に接続することができる。
拡張現実ディスプレイシステム100の右側テンプル部30は、投射ディスプレイデバイス70およびタッチパッド72をさらに含むことができる。投射ディスプレイデバイス70およびタッチパッド72は、拡張現実ディスプレイシステム100のプロセッサ54に接続することができる。投射ディスプレイデバイス70については、以下でさらに説明する。
タッチパッド72は、利用者が拡張現実ディスプレイシステム100と相互作用(交流)して、投射ディスプレイデバイス70によって投射される画像を変更することを可能にする。利用者は、スワイプ(例えば、上向き、下向き、横向き、対角線方向、またはタップのよう内側方向に指をスワイプ)して、プロセッサ54に信号を送り、投射ディスプレイデバイス70によって投射される画像を変更し、及び/又は拡張現実ディスプレイシステム100の状態を変更する。タッチパッド72はまた、利用者の圧力の変化(例えば、利用者がタッチパッド72を押しつける)を感知して、投射ディスプレイデバイス70によって投写される画像を変更し、及び/又は拡張現実ディスプレイシステム100の状態を変更する。タッチパッド72からの信号及び/又はデータは、以下の動作をなすために構成することができる。
1)拡張現実ディスプレイシステム100のメモリ(図示せず)に格納されたソフトウェアの起動を開始する。
2)サードパーティ(外部;third party)のデバイス(図示しない)のソフトウエアを、拡張現実ディスプレイシステムと直接通信で(例えば有線通信で)、またはリモート通信で(例えば無線通信で; WiFi及び/又はBluetoothで)、開始する。
3)サードパーティのデバイスとのネットワーク通信を開始または終了する。
4)拡張現実ディスプレイシステム100に組み込まれたデバイスまたはサブシステム(例えば、カメラ、ビデオ記録、マイク、バイブレータ、投射システム、センサー、他のデバイス又はサブシステム)を開始または終了する。
拡張現実ディスプレイシステム100の右側シースルー部20は、右側外カバー76、右側内カバー78、および導波路スタックモジュール80を含むことができる。右側外カバー76、右側内カバー78、および導波路スタックモジュール80については、以下でさらに説明する。
拡張現実ディスプレイシステム100の左側テンプル部32は、プロセッサ54に接続することができる左側テンプルバッテリー60を含む。左側テンプルバッテリー60は、プロセッサ54に接続されて、拡張現実ディスプレイシステム100に追加の電力を提供することができる。
拡張現実ディスプレイシステム100の左シースルー部22は、左側外カバー82と左側内カバー84を含むことができる。右側外カバー76、右側内カバー78、左側外カバー82、および左側内カバー84は、保護カバー、または意図される目的に適しており当業者によって理解される他の任意のカバーとすることができる。
右側外カバー76と左側外カバー82は、プロセッサ54に電気的に結合することができる。プロセッサ54は、右リアバッテリー50、左リアバッテリー56、および左テンプルバッテリー60に電気的に結合することができる。これらバッテリーは拡張現実ディスプレイシステム100内に配置することができる。
右側外カバー76と左側外カバー82は、少なくともエレクトロクロミック材料、フォトクロミック材料、または意図される目的に適しており当業者によって理解される他の任意の材料を含むことができる。エレクトロクロミック材料またはフォトクロミック材料は、右側外カバー76と右側内カバー78の間、および左側外カバー82と左側内カバー84の間に配置されてもよい。エレクトロクロミック材料またはフォトクロミック材料は、右側外カバー76の外面および左側外カバー82の外面に配置されてもよい。エレクトロクロミック材料またはフォトクロミック材料は、右側外カバー76と左側外カバー82が、利用者の目から見て導波路スタックモジュール80の最も離れた面となるように、右側外カバー76および左側外カバー82の手前に配置された導波路スタックモジュール80の追加の表面であってもよい。
拡張現実ディスプレイシステム100の右目シースルー部20は、右側外カバー76と導波路アセンブリ89との間に配置される偏光子(polarizer;図示せず)をさらに含むことができる。偏光子は、導波路アセンブリ89と右側内カバー78との間に配置されてもよい。偏光子は、円形の偏光子であってもよい。偏光子は、右側外カバー76の内面からの反射光が導波路アセンブリ89に戻るのを阻止し、ひいては、利用者の目に入るのを阻止するよう、拡張現実ディスプレイシステム100を助けることができる。
拡張現実ディスプレイシステム100の鼻梁部24は、鼻梁アッセンブリ90を含むことができる。鼻梁アセンブリ90は、取り外し可能であっても、固定であってもよい。鼻梁アセンブリ90は、オプションの度付きレンズを鼻梁部24に固定するためのレンズ固定アセンブリ(図示せず)を含むことができる。オプションの度付きレンズは、例えば拡張現実ディスプレイシステム100の右側内カバー78および左側内カバー84の前など、利用者の目の近くに配置することができる。
拡張現実ディスプレイシステム100は、カメラアセンブリ12をさらに含むことができる。カメラアセンブリ12は、カメラ(図示せず)および周囲光センサー(図示せず)を含むことができる。カメラアセンブリ12は、拡張現実ディスプレイシステム100のプロセッサ54に接続することができる。カメラは、プロセッサ54にデータを提供して、拡張現実ディスプレイシステム100の投射ディスプレイデバイス70によって表示される画像を変更することができる。カメラは、毎秒30フレーム(FPS)で1080pの解像度、または意図する目的に適しており当業者によって理解される任意の他の解像度および速度で、画像を取得するように構成することができる。
複数のカメラを互いに離れて配置し、立体画像や正面、側面、背面の画像の取得などの追加の利点を提供することもできる。カメラアセンブリ12は、右目シースルー部20内に配置することができる。追加のカメラも、左眼シースルー部22および右眼シースルー部20のそれぞれの中に配置することができる。鼻梁部24内に別のカメラを配置することもできる。他のカメラを、右後部34、左後部36、右側テンプル部30、左側テンプル部32、右目シースルー部20、左目シースルー部22および鼻梁部24の少なくとも1つに配置してもよい。
少なくとも1つのカメラは、赤外線カメラ及び/又は紫外線カメラとすることができる。少なくとも別のカメラは、サポートソフトウェアと共に、セルフフォーカス機能やズーム機能を備えていてもよい。「ズーム機能」カメラは、カメラの光パワーを変更する機能を有するカメラアセンブリ12のカメラを含むことができる。
プロセッサ54は、周囲光センサーからデータを受信して、投射ディスプレイデバイス70によって投射される画像を変更するように構成することができる。例えば、周囲光が明るい場合(例えば、明るい部屋や晴れた日の屋外など)に投射ディスプレイデバイス70により表示されるコントラスト比や色は、周辺光が明るくない場合(例えば薄暗い部屋、曇った日の屋外、夜の屋外など)に表示されるコントラスト比や色と異ならせることができる。周囲光センサーからのデータを使用して、右側外カバー76及び/又は左側外カバー82の不透明度のレベルを調整することもできる。
拡張現実ディスプレイシステム100は、環境照明機能を提供して、困難な照明条件の期間において利用者が透明ディスプレイをより見やすくすることができる。環境照明機能は、環境照明条件に基づいて、異なる状態(例えば「テーマ」など)の間で利用者の視覚体験を調整することができる。
周囲光センサーからのデータが利用者定義の閾値に達すると、プロセッサ54は利用者に表示される視覚的体験を変えることができる。拡張現実ディスプレイシステム100は、変化する照明条件に対処することができる導波路スタックモジュール80に、様々なテーマを表示することができる。拡張現実ディスプレイシステム100にとって、「テーマ」は、プロセッサ54によって適用され得る様々な色、アイコン、および透過率を含むことができる。
たとえば、図6Aおよび図6Bは、導波路スタックモジュール80に表示され及び/又は伝送される、周囲光センサーを利用した「テーマ」の例である。図6Aは、暗い環境照明で用いられる、より透明な「カラーリング」スキームを含む「暗いテーマ」である。これは、低照明設定にあるときに、投射ディスプレイデバイス70から過度の明るさで利用者の視界を圧倒することを防ぐことができる。図6Bは、明るい環境で用いられる、高コントラストの「カラーリング」スキームを提供する「明るいテーマ」である。図6A、図6Bに関して、黒色は、拡張現実ディスプレイシステム100の表示画像の透明部分である。
拡張現実ディスプレイシステム100は、利用者による選択可能なオプションではなく、環境照明機能を自動的に利用してもよい。さらに、「テーマ」の設定は、常に暗い、常に明るい、または自動がある。利用者定義の閾値設定は、テーマの変更をトリガーする可能性のある周辺光レベルの範囲として定義できる。利用者定義の閾値には、プロセッサがテーマの変更をトリガーする前に、検知されたデータが環境光レベルの閾値を上回った時間の長さ又は下回った時間の長さも含むことができる。たとえば、突然「閃光」が発生し、利用者定義のしきい値を超えた場合、「閃光」の持続時間が短いため、テーマの切り替えは実行されない。周囲の閾値の変化が定義された期間継続している場合、導波路スタックモジュール80によって表示されるテーマは切り替えられる。
拡張現実ディスプレイシステム100は、第3の可撓性ケーブル(図示せず)をさらに含むことができる。この第3の可撓性ケーブルは、プロセッサ54を投射ディスプレイシステム70に接続することができ、左目シースルー部22、鼻ブリッジ部24、および右目シースルー部20の空洞(図示せず)を通過することができる。第3の可撓性ケーブルは、電気ケーブル、または意図された目的に適しており当業者によって理解される任意の他のケーブルであってよい。
追加の可撓性ケーブル(図示せず)を右側テンプル部30に配置し、右目シースルー部20、鼻梁部24、左目シースルー部22、および左側テンプル部32を通過させることができる。追加の可撓性ケーブルは、拡張現実ディスプレイシステム100の右側Rに配置された1つまたは複数の構成要素を左側Lの1つまたは複数の構成要素に接続することができる。
拡張現実ディスプレイシステム100はさらに、メモリカードスロット18、メモリカードスロットカバー19、内部メモリ(図示せず;例えば4GBフラッシュメモリ)、システムRAM(図示せず;例えば512MB)、およびアクセスポート44(例えば、マイクロUSBアクセスポート)を含むことができる。このアクセスポート44は、プロセッサ54への外部接続(例えば、USB 2.0高速接続)を確立するためのものである。メモリカードスロット18は、セキュアデジタル(SD)カード、MiniSDカード、コンパクトフラッシュカード、メモリースティック、xD-ピクチャーカード、または意図された目的に適しており当業者によって理解されている他の任意の記憶媒体を受け入れるように構成されている。メモリカードスロットカバー19は、メモリカードスロット18への密閉されたアクセスを提供することができる。例えば、メモリカードスロットカバー19は、防水性または耐水性とすることができる。
拡張現実ディスプレイシステム100の左側テンプル部32は、外向きマイクポート(図示せず)および内向きマイクポート(図示せず)をさらに含むことができる。これらマイクポートは、投射ディスプレイデバイス70によって表示される画像を変更するために利用される。すなわち、投射ディスプレイデバイス70によって表示される画像を変更し得るデータをプロセッサ54に送信することができる。例えば、利用者は、「次へ」と言うと、投射ディスプレイデバイス70によって表示される画像を次の画像に変更することができる。
マイクポートが利用可能な場合、関連するマイクは、マイクポートに配置され、電源(例えば、左側テンプルバッテリー60)およびプロセッサ54に接続することができる。プロセッサ54は、関連するマイクから電気音声信号を受信することができる。関連するマイクは、主にマイクポートを介して音声を受ける。
1つまたは複数のマイクポートおよび関連するマイクをさらに、右側テンプル部30に配置することができる。1つまたは複数のマイクポートおよび関連するマイクの他の位置は、鼻梁部24、右後部34、左後部36、右目シースルー部20、および左目シースルー部22を含むことができる。複数のマイクをバックグラウンドおよび環境ノイズを除去するために使用することができ、潜在的な環境の危険を着用者に警告するために使用することもできる。
利用者からの音声コマンドはまた、拡張現実ディスプレイシステム100に格納されたソフトウェア及び/又は拡張現実ディスプレイシステム100と直接通信または遠隔通信する外部(サードパーティ)のデバイスのソフトウェアを、開始することができる。音声コマンドは、拡張現実ディスプレイシステム100に組み込まれたデバイスやサブシステム(例えば、カメラアセンブリ12のカメラまたは投射ディスプレイデバイス70のプロジェクタ)の状態を変更したり、拡張現実ディスプレイシステム100の電源をオン/オフすることができる。音声コマンドはまた、拡張現実ディスプレイシステム100の状態を変更するか、または拡張現実ディスプレイシステム100の状態の変更を開始することができる。例えば、マイクが「オン」である場合、音声コマンドは、マイクを初期化して、データをプロセッサ54に提供し、それによって拡張現実ディスプレイシステム100の状態を変更することができる。音声コマンドにより拡張現実ディスプレイシステム100の状態を変更する他の例は、導波路スタックモジュール80によって表示される画像の変更、およびカメラアセンブリ12による画像の取得を含むことができる。
拡張現実ディスプレイシステム100の左側テンプル部32は、拡張現実ディスプレイシステム100を作動させるためのインジケータポート14(例えば、LEDインジケータポート)および電源ボタン16をさらに含むことができる。インジケータポート14は、電力レベル、状態、または意図された目的に適しており当業者によって理解される他の任意の情報を表示することができる。
拡張現実ディスプレイシステム100の回路基板62は、プロセッサ54、ボードメモリモジュール、方位センサー、加速度センサー、磁気センサー、音声符号化モジュール、無線モジュール、チップアンテナモジュール、カメラコネクタ、気圧センサー、近接センサーなどを含むことができる。
図25は、左側テンプル部32の断面背面図を示す。左側テンプル部32は、左側テンプル部外面300と、内部空洞304を形成する左側テンプル部内面302を有している。左側テンプル部32は、プロセッサ54によって生成された熱を左側テンプル部内面302に分配するために利用される放熱システム310を含むことができる。放熱システム310は、左側テンプル部32に配置された電気構成要素(例えば、プロセッサ54、左側テンプルバッテリー60、または回路基板62上の他の構成要素)を損傷する可能性がある1つ以上の局所的なホットスポットの発生を防止する。放熱システム310はまた、拡張現実ディスプレイシステム100の着用者に対する局所的なホットスポットによって引き起こされる不快感を防止することができる。
放熱システム310は、回路基板62の少なくとも一部と左側テンプル部内面302との間に配置された第1の伝熱シート312を含むことができる。第1の伝熱シート312は、左側テンプル部内面302と熱的及び/又は物理的に接触していてもよい。放熱システム310はまた、回路基板62の少なくとも一部と左側テンプルバッテリー60の一部との間に配置された第2の伝熱シート314を有してもよい。第2の伝熱シート314は、左側テンプル部の内面302の一部と熱的及び/又は物理的に接触していてもよい。
放熱システム310はまた、第2の伝熱シート314と左側テンプルバッテリー60との間に配置された断熱材316を有してもよい。断熱材316は、エアロゲル、ゴム、または意図される目的に適しており当業者によって理解される他の任意の材料から構成することができる。放熱システム310はまた、左側テンプルバッテリー60と左側テンプル部内面302との間に配置された第3の伝熱シート318を有してもよい。第3の伝熱シート318は、左側テンプル部内面302と熱的及び/又は物理的に接触していてもよい。第3の伝熱シート318はまた、左側テンプルバッテリー60の少なくとも一部と熱的及び/又は物理的に接触していてもよい。
第1の伝熱シート312、第2の伝熱シート314、および第3の伝熱シート318は、互いに熱的及び/又は物理的に接触していてもよい。第1の伝熱シート312、第2の伝熱シート314、および第3の伝熱シート318は、銅、銀、金、スズ、アルミニウム、純材料または複合材料、または意図する目的に適しており当業者によって理解される他の任意の材料で構成することができる。
導波路スタックモジュール
図7〜図11に示すように、拡張現実ディスプレイシステム100の導波路スタックモジュール80は、環境に対してシールすることができる。湿気、汚れ、および他の粒子が導波路スタックモジュール80の内部に入り込み、投射ディスプレイデバイス70によって提供される画像が台無しになるのを防ぐためである。例えば、導波路スタックモジュール80は、気密シールされてもよい。拡張現実ディスプレイシステム100の導波路スタックモジュール80は、導波路ハウジング86、導波路・フレームアライナ87、黒化材料88(黒色材料;blackening material)、および導波路アセンブリ89をさらに含むことができる。
拡張現実ディスプレイシステム100の右側外カバー76はまた、望ましくない反射の低減を助けるために反射防止コーティングを含むことができる。これにより、より高品質な画像を利用者に表示できる。右側外カバー76は、ごみが導波路スタックモジュール80に入ることを防ぐために、導波路ハウジング86との全周シールを含むことができる。例えば、にかわや接着剤を右側外カバー76の周囲に塗布して、右側外カバー76を導波路ハウジング86にシールすることができる。
導波路スタックモジュール80の導波路ハウジング86は、拡張現実ディスプレイシステム100内の他のモジュールを積み重ねることを可能にし、それによって拡張現実ディスプレイシステム100における積み重ね公差を低減することができる。導波路ハウジング86は、プラスチック、ポリカーボネート、ポリマー、または意図された目的に適しており当業者によって理解されている他の任意の材料で形成することができる。
導波路スタックモジュール80の黒化材料88は、導波路アセンブリ89を通過する投射ディスプレイデバイス70からの過剰な光を吸収することができ、これにより過剰な光が反射して導波路アセンブリ89内に戻らないようにする。黒化材料88は、コモト、カーボンフェザー、アクタール、黒色塗料、および意図された目的に適しており、当業者によって理解されている他の任意の材料でできていてもよい。黒化材料88は、導波路アセンブリ89に対して垂直な角度に配置することができる。
導波路スタックモジュール80の導波路アセンブリ89は、少なくとも1つの導波路92を含むことができる。導波路スタックモジュール80の導波路アセンブリ89はまた、2つの導波路92、96(または意図される目的に適しており当業者によって理解される任意の他の材料/光学素子)および紫外線活性化材料94(UV light activated material)を含むことができる。2つの導波路92、96は、導波路アセンブリ89の光学性能に適した平行を維持しながら、紫外線活性化材料94によって分離されている。平行性が高まると、画像の色分解が殆どまたは全く無くなる。2つの導波路92、96はまた平行な前面および背面を有することができ、これら面に1つまたは複数の回折格子を配置することができる。2つの導波路92、96および紫外線活性化材料94の縁は、光の吸収を助けるために黒くすることができる。紫外線活性化材料94はまた、2つの導波路92、96の周囲またはその近くに塗布された紫外線硬化接着剤とすることができる。紫外線活性化材料94は、導波路アセンブリ89の2つの導波路92、96の間に空洞を提供することができる。
2つの導波路92、96は、インカップリング回折光学素子およびアウトカップリング回折光学素子を有することができる。導波路スタックモジュール80の導波路アセンブリ89の2つの導波路92、96は、さらに、インカップリング回折光学素子とアウトカップリング回折光学素子との間に配置された少なくとも1つの回転回折格子を含むことができる。インカップリング回折光学素子、アウトカップリング回折光学素子、及び/又は回転回折格子は、回折格子、ホログラフィック光学素子、体積ホログラム、フォトニック結晶、光屈折結晶、ポリマー、重クロム酸ゼラチン、および感光性ガラスを含むことができる。
導波路スタックモジュール80の右側内カバー78は、反射防止コーティングおよび「汚れ」防止コーティングを含むことができる。異なるタイプのコーティングが、右側内カバー78のいずれかの側に適用されてもよい。汚れまたは油が2つの導波路92、96に直接存在する場合、導波路スタックモジュール80に表示される画像は劣化する。右側内カバー78は、画像の品質が環境の影響を受けにくくすることができる。
導波路スタックモジュール80はまた、右側内カバー78と接触することができるガスケット98(例えば、定位置ガスケット)を含むことができる。このガスケット98は、導波路スタックモジュール80とのより良好なシールを可能にする。ガスケットの利点は、導波路アセンブリ89に直接過剰な圧力を加えないことである。ガスケット98は、Dymax GA 142ガスケット材料、または意図される目的に適しており当業者によって理解される他の任意の材料から作ることができる。
一般に、導波路(例えば、平行板導波路)は、導波路材料内の光の反射を含む全内部反射率(TIR)に関与している。平行板導波路の表面が汚れている場合、または導波路材料に圧力点がある場合、TIRが乱れる可能性がある。反射防止コーティングを有する右側内カバー78は、追加の保護層を提供する。右側内カバー78に汚れがある場合、導波路アセンブリ89が直接汚れる場合ほどTIRに影響を与えない。これにより、ガスケット98を介して導波路アセンブリ89に圧力を加えることもできる。ガスケット98は、ごみ、湿気、および他の不要な粒子が光路に入り、拡張現実ディスプレイシステム100の画像を劣化させないように、環境シールの作成を助ける。ガスケット98は、環境シールを維持しながらのフレーム10の屈曲を可能にする。
投射ディスプレイデバイス
図12〜14に示すように、拡張現実ディスプレイ装置100の投射ディスプレイデバイス70は、プロジェクタ取付フレーム112、プロジェクタ114、アライメントピン116、およびアライメント穴118を含むことができる。プロジェクタ114は、Vuzix Cobra 2プロジェクタまたは意図された目的に適しており当業者によって理解される任意の他のプロジェクタであってもよい。アライメント穴118は、プロジェクタ114をプロジェクタ取付フレーム112に位置決めするために、アライメントピン116を受け入れるようになっている。
投射ディスプレイデバイス70は、この投射ディスプレイデバイス70を導波路スタックモジュール80に接続するディスプレイ接続モジュール110をさらに含むことができる。ディスプレイ接続モジュール110は、投射ディスプレイデバイス70を導波路スタックモジュール80に接続することができる光学接続モジュールとすることができる。一実施形態では、ディスプレイ接続モジュール110は、プリズムアセンブリとすることができる。プリズムアセンブリは、投影ディスプレイシステム70を導波路スタックモジュール80に光学的に接続することができる。プリズムアセンブリはまた、投射ディスプレイシステム70からの光の方向を変え、これにより、光が導波路スタックモジュール80の平行板導波路のインカップリング回折格子に当たった時に、光が正しいインカップリング角を有することを保証する。
プロジェクタ取付フレーム112は、ディスプレイ接続モジュール110およびプロジェクタ114をプロジェクタ取付フレーム112にアライメントさせるために、プリズムアライメントエッジ120とプロジェクタアライメントエッジ122を含むことができる。プロジェクタ114は、プロジェクタ取付フレーム112のプロジェクタアライメントエッジ122にぴたっと着座することができる。プロジェクタ取付フレーム112はまた、プロジェクタ・フレームアライナ124を含むことができる。
光学アセンブリと位置合わせ
図15〜図17に示されるように、拡張現実ディスプレイシステム100のフレーム10は、拡張現実ディスプレイシステム100内の許容誤差の積み重ねを低減するために、プロジェクタ・導波路・フレームアライナ126を含むことができる。このアライナ126は、投射ディスプレイデバイス70および導波路スタックモジュール80のための基準面となる。導波路・フレームアライナ87およびプロジェクタ・フレームアライナ124は、プロジェクタ・導波路・フレームアライナ126に当接して、拡張現実ディスプレイシステム100における全体の許容誤差の積み重ねを低減することができる。
ヒンジシステム
図18〜図24に示されるように、拡張現実ディスプレイシステム100はまた、ヒンジシステム200を含むことができる。ヒンジシステム200は、可撓性ケーブル210、ヒンジ220、ヒンジハウジング230、およびヒンジピン240を含むことができる。可撓性眼鏡のヒンジシステムを設計する場合、多くの課題がある。その課題には、眼鏡のテンプル部に適合するほど小さく、利用者からの酷使に耐えるのに十分な強度を維持しながら、可撓性電子回路を通過できるヒンジシステムが含まれる。
拡張現実ディスプレイシステム100のヒンジシステム200は、その設計によって上記課題を克服し、可撓性を維持し十分な強度を有しながら、眼鏡に収まるほど十分に小さい。ヒンジシステム200のヒンジ220は、一対の金属射出成形品からなるヒンジピースを含むことができ、各ヒンジピースは、拡張現実ディスプレイシステム100のフレーム10にインサート成形されている。これにより、ヒンジ220をフレーム10内で十分に小さくすることができ、拡張現実ディスプレイシステム100に必要な強度を提供することもできる。
ヒンジ220の形状は、可撓性ケーブル210がヒンジ220を通過できるようにする一方で、可撓性ケーブル210およびフレーム10の右後部34及び/又は左後部36が、第1の位置から第2の位置へと回転する間、可撓性ケーブル210を覆って保護することができるという点で独特である。ヒンジ220は、ヒンジピン240によって回動可能に接続され、回転可能なままで維持できる内側ヒンジ部222と外側ヒンジ部224を含むことができる。ヒンジ220の内側ヒンジ部222および外側ヒンジ部224の形状は、内側ヒンジ部222および外側ヒンジ部224が互いに重なり合うことを可能にする(例えば、内側ヒンジ部222が保護タブ226を含み、外側ヒンジ部224が保護タブ受部228を含む)とともに、ヒンジピン240を中心に回動可能でありながら、可撓性ケーブル210を覆い隠すように係合することを可能にする。
図23では、ヒンジ220が第1の位置で示されている。この第1位置では内側ヒンジ部222と外側ヒンジ部224はしっかりした係止位置(ソリッドストップ位置;solid stop position)を形成することができる。外側ヒンジ部224は外側係止タブ232を含み、内側ヒンジ部222は内側係止タブ234を含むことができる。第1の位置では、ヒンジ220の内側ヒンジ部分222および外側ヒンジ部分224は、フレーム10と一直線になるように互いに実質的に平行になる。第1の位置では、拡張現実ディスプレイシステム100は、「開いた」位置にある。ヒンジ220の一部は環境に露出しており、ヒンジ220に、配置及び/又は位置合わせのために押し付けられるフレーム10の堅固な壁を提供することができる。
可撓性ケーブル210は、ヒンジシステム200の結合位置でヒンジ220によって覆うことができる。可撓性ケーブル210はまた、フレーム10とヒンジハウジング230により、いずれかの側で支持することができる。拡張現実ディスプレイシステム100のフレーム10とヒンジハウジング230は、ヒンジピン240に回動可能に接続してもよい。
図24では、ヒンジシステム200が第2の位置で示されている。ヒンジシステム200の第2の位置は、折り曲げ位置または傾斜位置である。可撓性ケーブル210は、左後部36からヒンジピン240の軸線の近くのギャップを通過し、ヒンジピン240の周りを曲がり、拡張現実ディスプレイシステム100の左側テンプル部32に入る。可撓性ケーブル210はまた、拡張現実ディスプレイシステム100の左側回路基板62に取り付けることができる。拡張現実ディスプレイシステム100の左側回路基板62は、左側テンプル部32に配置されている。拡張現実ディスプレイシステム100の右側回路基板64は、右側テンプル部30に配置されている。フレーム10、ヒンジ220、およびヒンジハウジング230は、可撓性ケーブル210を封入し、可撓性ケーブル210が環境に露出するのを防ぐことができる。
図18〜図24は、拡張現実ディスプレイシステム100の左側Lのヒンジシステム200を示すが、ヒンジシステム200の同様の「鏡像」が、拡張現実ディスプレイシステム100の右側Rに存在してもよい。
ソフトウェア機能
拡張現実ディスプレイシステム100はまた、利用者がアプリケーションを開始したり起動したりせずに、ライブデータを含むアプリケーションの情報を表示することができる。
図6Aおよび図6Bに示すように、拡張現実ディスプレイシステム100の投射ディスプレイデバイス70と導波路スタックモジュール80は、「レール(rail)」内のアイコンがアクティブアイコン位置にフォーカス/選択されている間、アプリケーションのライブビューを自動的に利用者に提供することができる。拡張現実ディスプレイシステム100の「レール」は、アイコンのビューを提供し得る画像の一部とすることができる(例えば、アイコンは、垂直または水平の列にすることができる)。アイコンがアクティブアイコン位置にある場合、アプリケーションのウィジェットは、表示された画面(ホーム画面など)のウィジェット領域に自動的に表示され、アプリケーションで利用できる読み取り専用の情報を提供することができる。
拡張現実ディスプレイシステム100は、フレーム10内に配置される少なくとも1つの誘導充電コイル回路(図示せず)をさらに含むことができる。誘導充電コイル回路は、左側回路基板62および少なくとも1つのバッテリ(例えば、右側リアバッテリー50)に電気的に接続することができる。誘導充電コイル回路は、拡張現実ディスプレイシステム100の1つ以上のバッテリーを充電するために使用することができる。誘導充電コイル回路は、右目シースルー部20及び/又は左目シースルー部22の内周に巻き付けられる導電性材料のいくつかのループを含むことができる。誘導充電コイル回路は、右側テンプル部30、左側テンプル部32、右後部34、および左後部36の少なくとも1つの中に配置することもできる。
本開示は、拡張現実ディスプレイシステム100の実施形態を参照して説明されている。拡張現実ディスプレイシステム100の構成要素の位置は、左側Lから右側Rへ、および右側Rから左側Lへと、拡張現実ディスプレイシステム100の構成要素の形状の適切な鏡像変換を伴って、交換可能であることが理解される。例えば、本開示では、投射ディスプレイデバイス70および導波路スタックモジュール80を、拡張現実ディスプレイシステム100の右側にあるものとして説明している。しかし、本開示はまた、利用者の左目にバーチャル像を提供するために、投射ディスプレイデバイス70と導波路スタックモジュール80および再配向を達成するために必要な他の対応する構成要素が、拡張現実ディスプレイシステム100の左側にあることも想定している。
人工知能システム
人工知能システムを、拡張現実ディスプレイシステム100に利用してもよい。人工知能システムは、顔認識、ゲームプレイ(例えば、囲碁、チェスなど)、医療診断、ロボット操作、および実世界の対象との相互作用に利用できる。さらに、ディープラーニングシステム(人工知能の一種)は、利用者のオンライン交流(オンラインストアからのショッピング、ソーシャルメディアウエブサイト、電子メールシステムなどを含む)から収集されたデータに基づいて利用者の好みや行動を分析することができる。
複数の人工知能システムとの接続と相互作用を同時に管理するように構成されたヘッドマウントディスプレイの拡張現実システムは、利用者に利益をもたらす。このようなシステムは、利用者の環境、行動、健康および良好な生活状況を監視し、利用者の情報、認識および安全を強化するために利用者にフィードバックを提供する。これらのシステムは、利用者の行動や好みを監視および学習し、学習した利用者の好みや行動に基づいて応答することにより、利用者に個別の支援を提供できる。
拡張現実ディスプレイシステム100は、回路基板62及び/又は回路基板64に配置される追加のセンサーを含むことができる。追加のセンサーとして、近接センサー(着用者に向かって内側、及び/又は着用者が居る環境に向かって外側)、周囲光輝度センサー、音声マイク、温度センサー、湿度センサー、GPS位置要素、磁力計、加速度計、頭部方向センサー(例:傾斜と先端の方向)、着用者の視線方向センサーなどがあるが、これらに限定されない。センサーからのデータは、プロセッサ54およびこのプロセッサ54で実行されるアプリケーションによって収集することができる。データは編成されフォーマット化され、拡張現実ディスプレイシステム100の着用者の視野内の現実世界のシーンと重なるバーチャル像の一部として、着用者に表示される。フォーマット化しバーチャル像の一部として表示するために、追加の情報およびデータ(例えば、着用者の視線のコンパス方向、GPS位置、環境温度、着用者の視野内の対象物の名称など)を、他の外部デバイスやネットワークとの通信プロトコル(例えば ブルートゥース(Bluetooth;登録商標)、Wi-Fi、その他の通信プロトコル)を介して取得することができる。
図26Aは、図1の拡張現実ディスプレイシステム100の画像取得モードの図である。カメラアセンブリ12とプロセッサ54は、画像を取り込むための異なる動作モードを提供することができる。1つの動作モードでは、カメラアセンブリ12は、図26Aに示されるようにシーンの静止画像を取得することができる。別の動作モードでは、画像の連続ストリームを、カメラアセンブリ12およびプロセッサ54によって取得することができる。さらに別の動作モードでは、プロセッサ54は、データを着用者の2つの目のうちの少なくとも1つに現実世界のシーンに重ねられたバーチャル像として表示することができる。この情報としては、着用者の視線方向、環境温度、GPS位置などを含むセンサーからのデータは勿論のこと、着用者の視野に現れる対象物の対象物識別データなどがある。カメラアセンブリ12およびプロセッサ54は、カメラアセンブリ12によって取得された現実世界の画像と、着用者にバーチャル像として表示されたデータとを組み合わせて、将来の検索及び/又は他のデバイスへの送信のために記憶される最終的な取得画像を得ることができる。
図26Bは、現実世界のカメラ取得画像を示す。このカメラ取得画像は、最終的な取得画像を形成するために重ねられたデータのバーチャル像を含んでいる。別のモードでは、カメラアセンブリ12およびプロセッサ54は、連続的な動画取込み(video capture)を提供するように動作することができる。この動画取込みは、カメラアセンブリ12の視野内の現実世界の画像を、取得された現実世界の画像に重ね合わされるバーチャル像と組み合わせて、最終的な取得動画を形成する。
図27は、拡張現実(AR)ニアアイディスプレイ装置352を含むヘッドマウントディスプレイ拡張現実(HMD AR)のニアアイディスプレイシステム350を示す。ARニアアイディスプレイ装置352は、ARニアアイディスプレイ装置352内のハードウェア及び/又はソフトウェアで実装される少なくとも1つの内部人工知能(AI)システムを含むことができる。少なくとも1つの内部AIシステムは、部分的にまたは全体的に、エキスパートシステム、機械学習システム、深層学習(ディープラーニング)システム、ニューラルネットワークベースのシステム、及び/又は意図された目的に適しており当業者によって理解される他のタイプのシステムのうちの1つまたは複数を含み、及び/又は、これらシステムの1つまたは複数と組み合わすことができる。ARニアアイディスプレイ装置352は、GPSセンサー、頭部方向センサー及び/又は視線方向センサーなどのセンサーを含むとともに、Bluetooth、WiFi及び /又は他の通信プロトコルを含むネットワークおよびデバイス間通信モジュールを含むことができる。さらに、ARニアアイディスプレイ装置352は、少なくとも1つのカメラおよび少なくとも1つの音声マイクを含むことができる。ARニアアイディスプレイ装置352は、着用者の視野の少なくとも一部の現実世界のビューに重ねられるバーチャル像を着用者に伝えるためのディスプレイをさらに含むことができる。少なくとも1つの内部AIシステムは、ARニアアイディスプレイ装置352における少なくとも1つの内部AIシステムの一部と、1つ以上の通信プロトコルを利用してネットワークを介して外部デバイスとアクセス可能な少なくとも1つの内部AIシステムの一部と、を有するように分配されていてもよい。後者は、例えば、クラウドサービスに配置される少なくとも1つの内部AIシステムに関連するデータベースである。このデータベースへの音声コマンドAIインターフェースはARニアアイディスプレイ装置352に配置される。
少なくとも1つの内部AIシステムは、ARニアアイディスプレイ装置352の少なくとも1つの音声マイクを利用する自然言語処理システムとすることができる。自然言語処理システムは、ARニアアイディスプレイ装置352の着用者が音声コマンドを発することによって、ARニアアイディスプレイ装置352の1つまたは複数の動作パラメータを変更するコマンドを開始することを可能にする。
ARニアアイディスプレイ装置352は、Bluetooth及び/又はWiFi通信モジュールを利用して、外部ネットワーク、インターネット、クラウドアプリケーションなどと通信することができる。ARニアアイディスプレイ装置352の着用者は、AIシステムの内部の自然言語処理システムを介して、外部AIアプリケーションと通信することができる。着用者は、利用者の活動を強化及び/又は支援するために、内部および外部の両方のAIシステムと交流することができる。GPSセンサーと画像取り込みを利用するとともに、対象物識別のために画像を処理する内部および外部AIシステムを利用することにより、利用者は、着用者の環境にある対象物例えば修理が必要な装置などを識別することができる。内部及び/又は外部のAIシステムと通信することにより、着用者が破損した装置を修理するのを助けることができる。例えば、装置の場所と装置の画像に部分的に基づいて装置を識別した後、少なくとも1つの内部AIシステムが装置の製造元とモデルを決定し、装置についての追加のデータのために、他のネットワーク、データベース、AIシステムへの問い合わせを開始する。追加のデータとして、例えば、装置が最後の保守サービスを受けたのはいつか、このタイプの装置で知られる一般的な故障、装置の現在の問題を解消する方法などがある。内部および外部のAIシステムは、着用者と対話し、装置の障害と装置の修正方法を決定するための指示を着用者に提供する。ARニアアイディスプレイ装置352からの音声データとビジュアルデータの両方を1つまたは複数のAIシステムに送信して、装置の修正を支援することができる。
図28は、少なくとも1つのARスマートグラス410と少なくとも1つのAIシステム430を含むHMDのARディスプレイシステム400を示す。少なくとも1つのAIシステム430は、自然の(例えば、人間の)知能、推論、1つ以上のトピックの知識、計画、学習、自然言語処理(例えば、記述の言語及び/又は音声言語)、空間認識、顔認識などのうちの1つ以上を処理及び/又は表示できるハードウェア及び/又はソフトウェアを含むことができる。ARスマートグラス410は、利用者及び/又は環境の相互作用の少なくとも2つの異なるカテゴリ、すなわち、1)データ取得と2)フィードバックを含むことができる。
データ取得は以下を含むことができる
1)1つ以上のタッチパッド及び/又はタッチボタンからのタッチ取得。
2)1つ以上のカメラからの画像取得。
3)着用者の声及び/又は環境からの音を捕捉するために用いられる音声取得。
4)ARスマートグラス410と他のWiFi装置及び/又はネットワークとの間の通信を可能にするWiFiデータ取得。
5)ARスマートグラス410と他のブルートゥース装置及び/又はネットワークとの間の通信を可能にするブルートゥースデータ取得。
6)GPS、磁力計、加速度計、気圧計、温度センサー、心拍数センサー、視線方向センサー、方位センサー、モーションセンサーなどのセンサーを含むその他のデータ取得。
ARスマートグラス410の着用者へのフィードバックは、触覚、音声、視覚、及び/又は嗅覚のいずれか1つまたはそれらの組み合わせを含むことができる。
ARディスプレイシステム400は、コーディネーションシステム420をさらに含むことができる。コーディネーションシステム420は、少なくとも1つのAIシステム430の一部とすることができ、少なくとも1つのAIシステム430にコーディネートおよびインターフェースプロトコルを提供することができる。コーディネーションシステム420は、他のネットワークシステム、例えば、モノのインターネット(IoT)432へのコーディネートおよびインターフェースも提供することができる。IoT432は、物理的対象物に組み込まれた演算装置、ソフトウェア、センサー、及び/又はアクチュエーターがデータを送受信できるようにインターネットを介して接続された相互接続ネットワークである。コーディネーションシステム420は、ARスマートグラス410のハードウェア及び/又はソフトウェア内に組み込まれ又は搭載されていてもよい。コーディネーションシステム420は、ブルートゥース及び/又はWiFi接続を介してARスマートグラス410によってアクセス可能なクラウドコンピューティングアプリケーションであってもよい。コーディネーションシステム420は、スマートフォン412に部分的に組み込まれ又は搭載されていてもよい。スマートフォン412は、ブルートゥース、WiFi、他の無線通信プロトコルを介して、ARスマートグラス410と通信してもよく、及び/又は少なくとも1つのワイヤケーブルを介してARスマートグラス410に物理的に接続されていてもよい。コーディネーションシステム420は、ハードウェア及び/又はソフトウェアを含むことができる。コーディネーションシステム420は、ARスマートグラス410、スマートフォン412、及び/又はクラウドアプリケーションに部分的に分散してもよい。
ARスマートグラス410は、静止画像及び/又は画像のストリーム(例えば、ビデオ)をコーディネーションシステム420に提供する画像取得のための少なくとも1つのカメラを含むことができる。コーディネーションシステム420は、顔認識、現実空間の対象物識別などのために画像を処理することができる。コーディネーションシステム420は、画像を少なくとも1つのAIシステム430に渡すことにより、画像及び/又はビデオの処理を開始することができる。一例では、コーディネーションシステム420は、処理を開始し、画像を、顔認識のために少なくとも1つのAIシステム430のAIシステムに画像を渡し、対象物識別のために空間認識AIに渡し、そして文字認識及び/又は言語翻訳のために言語処理AIに渡すことができる。そのような、場合によっては複数のAI処理から得られる情報は、コーディネーションシステム420によって受信される。コーディネーションシステム420は、受信された情報を、1つまたは複数の適切な形式(例えば、触覚、音声、視覚、及び/又は嗅覚)にコーディネートしてARスマートグラス410の着用者に提示することができる。
ARディスプレイシステム400は、少なくとも1つのAIシステム430の1つである個人嗜好AIシステムを含むことができる。このAIシステムは、着用者の習慣及び/又は嗜好を学習するのに適している。そのような学習のデータは、ARスマートグラス410の着用者の利用の履歴データ、FacebookやTwitterなどのソーシャルメディアWebサイトの利用、アマゾンなどのオンラインショッピングWebサイト、Linkedlnなどの専門ウェブサイトの少なくとも1つから取得できる。さらに、個人嗜好AIシステムは、着用者の好みや習慣を学習するのに適したデータを、時計、カレンダー、GPSセンサー、音声コマンドなどの複数のセンサーやデータソースから、受信することができる。着用者の習慣を学習することにより、例えば、着用者がいつ仕事に行くか、旅行中に着用者がどのタイプの音楽を聴くことを好むかを学習することによって、個人嗜好AIシステムは、同様の音楽を着用者に提供し、ニュース及び/又は広告をフィルタリングして利用者が興味を持っている可能性のある情報を提示する。これらは、行動および嗜好のデータに基づいている。学習のための他のデータは、ARスマートグラス410の着用者を特定しない人々の行動を監視する他のAIシステムから取得することができる。人間の行動は、部分的には、多数の人々が関わる人間の行動データ(ショッピングデータ、オンラインソーシャルメディアデータ、投票記録、調査など)の統計や他の分析によって学習できる。このようなデータの利用は、個人嗜好AIシステムの一部とすることができる。
少なくとも1つのAIシステム430のうちの別のAIシステム、または少なくとも1つのAIシステム430のうちの1つ以上のAIシステムの組み合わせは、画像処理、空間認識および対象物認識を含むことができる。少なくとも1つのAIシステム430のうちのさらに別のAIシステムは、着用者及び/又は他の人々の手のジェスチャーを認識するのに適している。少なくとも1つのAIシステム430の別のAIシステムは、会話認識に適している。少なくとも1つのAIシステム430のさらに別のAIシステムは、翻訳に適している。少なくとも1つのAIシステム430の別のAIシステムは、植物学に適している。コーディネーションシステム420は、例えば、特定の木を指しているときに着用者によって提起された「その木の名前は」と言う質問に答えるよう、静的または動的に構成されている。空間認識AIを利用して、「その木はどれくらい遠くにありますか 」または「その木の高さは」といった質問が着用者により提起され、ARスマートグラス410を介して回答することができる。「動的に」とは、コーディネーションシステム420が、少なくとも1つのAIシステム430のうち、着用者によって提起された質問を理解して答えるのに必要な全てのAIシステムと即時に又は一定の通信を行なわず、少なくとも1つのAIシステム430のうち、質問に答えるのに適したAIシステムとの通信を開始する知識と能力を有することとして、定義することができる。そして、質問への回答が完了すると、少なくとも1つのAIシステム430の特定のAIシステムと通信する必要がなくなる。次に、コーディネーションシステム420は、少なくとも1つのAIシステム430の特定のAIシステムとの通信を停止ことができる。
少なくとも1つのAIシステム430の手ジェスチャーAIシステムを利用して、手話ジェスチャー(例えば、アメリカの手話)を認識することもできる。手ジェスチャーAIシステムを利用して、コーディネーションシステム420へのコマンドまたはARスマートグラス410の他の構成要素、例えば、タッチパッド72へのコマンドを認識することができる。
少なくとも1つのAIシステム430のうちのAIシステムの1つは、着用者がいる環境を知る空間認識AIとすることができる。空間認識AIは、着用者のGPS位置を取得するためのGPS位置デバイスを含むことができる。ARスマートグラス410のブルートゥースセンサーは、着用者の身近な環境におけるBluetoothビーコンを特定するために使用することができる。Bluetoothビーコンは、識別情報を送信するハードウェア送信機を含む。したがって、たとえば、企業は、企業を識別するためにBluetoothビーコンを設置することができる。ARスマートグラス410の着用者がBluetoothビーコンの範囲に入ると、コーディネーションシステム420は、Bluetoothビーコンに警告を受け、少なくとも1つのAIシステム430の他のAIシステムへのコマンドを開始して、追加の情報とフォーマットを取得し、フォーマットされた情報を着用者に提示することができる。例えば、コーディネーションシステム420は、特定のBluetoothビーコンに関連する企業についてのさらなる情報について、IoT、他のネットワーク、及び/又はデータベースに問い合わせることができる。コーディネーションシステム420はさらに、個人嗜好AIシステムに問い合わせて、着用者が企業に興味があるかどうかを判断することができる。着用者が興味を持ちそうな場合、コーディネーションシステム420は、空間認識AIに企業までの距離および方向を問い合わせることができる。次に、コーディネーションシステム420は、着用者に、企業が着用者の現在の場所にどれだけ近いか、企業にどのようにして到達するか、及び/又は企業によって提供されるアイテムの短いリスト(例えば、視覚または音声による)を、警告する。さらに、コーディネーションシステム420は、インターネットにさらに問い合わせて、企業の営業時間および可能性のある特別販売情報を決定することができる。
少なくとも1つのAIシステム430のうちの位置認識AIは、気象条件、予想される気象条件、及び/又は警報(例えば、竜巻警報)を着用者に提供することができる。さらに、位置認識AIは、ソーシャルメディアや電子メールを介して交流している知人、及び/又は直接会っている知人が近くにいると判断し、知人が着用者に近いことを着用者に警告することもできる。次に、着用者は、面会を要求することにより、知人と連絡を取るようにコーディネーションシステム420に指示することができる。さらに、コーディネーションシステム420は、知人に指示を与えることができる。あるいは、着用者は、知人に関するさらなる情報を遮断するようにコーディネーションシステム420に命令することができる。
コーディネーションシステム420は、要求された情報が、以前に別の人によって取得されておりインターネットまたは他の何らかのアクセス可能なネットワークにおいて利用可能であると判断することができる。そのような場合、コーディネーションシステム420は必要な情報を算定するために少なくとも1つのAIシステム430との通信を開始するのではなく、利用可能な情報を用いることを選択できる。
コーディネーションシステム420は、着用者の直接の環境のマッピングを開始することができ、そのような環境情報を他の利用者が利用できるようにしてもよい。このようにして着用者は、着用者が移動した特定の環境の最新データを、同様のARディスプレイシステムの他の着用者及び/又は他のAIシステムに、提供することができる。
少なくとも1つのAIシステム430の行動AIシステムは、着用者が着用者自身の行動を修正するのを支援することもできる。たとえば、行動AIシステムは、着用者が1日のうちにどれだけの運動を行うかを監視し、健康AIの推奨に従って着用者のために追加の運動を計画することができる。さらに、行動AIシステムは、少なくとも1つのAIシステム430の食事/栄養AIシステムと結合して、着用者がすでに食べた以前の食事に基づき食事を推奨することができる。行動AIシステムは、着用者に代替を提案することにより、「喫煙」などの「悪い」習慣の修正において着用者を支援することができる。
少なくとも1つのAIシステム430の空間認識AIシステムは、着用者の環境における危険、例えば着用者が通りを横断する時に近づいてくる車を、識別し着用者に通知するのを支援することができる。さらに、コーディネーションシステム420は、ARスマートグラス410のセンサー及び/又はカメラアセンブリ12からのデータをコーディネートすることができる。着用者の環境における化学的危険、環境中の危険な物(たとえば、野放しの動物、有毒なヘビやクモなど)、地面の穴、および環境の廃棄物を含む危険について着用者の環境を監視するために、コーディネーションシステム420はさらに、ARスマートグラス410からのデータを、少なくとも1つのAIシステム430にデータを渡すことにより、着用者の環境における他のセンサーとコーディネートすることができる。
現在の好ましい実施形態を特に参照して本発明を詳細に説明してきたが、本発明の精神および範囲内で変更および修正を行うことができることが理解されよう。したがって、現在開示されている実施形態は、すべての点で例示的であり、限定的ではないと見なされる。本発明の範囲は、添付の特許請求の範囲によって示され、その均等物の意味および範囲内にあるすべての変更は、その中に含まれることが意図されている。
明確にするため別個の実施形態で説明されている本発明の特徴は、単一の実施形態に組み合わせて提供することもできることは理解できるであろう。逆に、簡潔にするために単一の実施形態で説明されている本発明の様々な特徴は、別々にまたは任意の適切な組み合わせで提供することもできる。

Claims (20)

  1. 着用者にバーチャル像を表示するための個人用ディスプレイ装置であって、
    右側テンプル部、左側テンプル部、右後部、左後部、右目シースルー部、および左目シースルー部を有するフレームと、
    前記フレームに連結され、着用者に画像を投射する投射ディスプレイデバイスと、
    前記フレームに連結された少なくとも1つの導波路スタックモジュールと、
    を備え、
    前記少なくとも1つの導波路スタックモジュールは、その長さに沿って画像担持光ビームを伝送するものであり、前記投射ディスプレイデバイスからの画像を受け取るように構成され、インカップリング回折光学素子とアウトカップリング回折光学素子を含み、
    前記インカップリング光学素子は、前記少なくとも1つの導波路スタックモジュールに沿って形成されており、前記投射ディスプレイデバイスからの画像担持光ビームを、前記少なくとも1つの導波路スタックモジュール内へと回折して、前記画像担持光ビームを角度的にエンコードされた形態で前記少なくとも1つの導波路スタックモジュールの長さに沿って伝送させ、
    前記アウトカップリング回折光学素子は、前記インカップリング回折光学素子から前記少なくとも1つの導波路スタックモジュールの長さに沿って離間しており、前記投射ディスプレイデバイスからの画像を見るために、前記少なくとも1つの導波路スタックモジュールからの前記画像担持光ビームを、角度的にデコードされた形態で回折し、
    さらに、前記投射ディスプレイデバイスに接続されたプロセッサと、前記プロセッサに接続されたタッチパッドと、前記プロセッサに接続された少なくとも1つのマイクとを備え、
    前記プロセッサは、画像を前記投射ディスプレイデバイスと前記少なくとも1つの導波路スタックモジュールに提供するように構成され、
    前記タッチパッドは、着用者のタッチ動作を感知し、入力タッチパッド信号を前記プロセッサに提供するように構成され、前記入力タッチパッド信号は個人用ディスプレイ装置の少なくとも1つの状態を変化させ、前記タッチパッドによる着用者の動作の感知は、着用者のタッチ動作の方向の感知を含み、
    少なくとも1つのマイクは、着用者からコマンドを受信し、入力マイク信号を前記プロセッサに提供するようにさらに構成され、前記入力マイク信号は、個人用ディスプレイ装置の少なくとも1つの状態を変化させる、個人用ディスプレイ装置。
  2. 前記プロセッサに接続されたバイブレータをさらに備え、前記バイブレータは、前記プロセッサから入力バイブレータ信号を受信して、着用者に触覚フィードバックを提供するように構成されている、請求項1に記載の個人用ディスプレイ装置。
  3. 前記インカップリング回折光学素子と前記アウトカップリング回折光学素子は、前面および背面を有し、前記インカップリング回折光学素子の前面は、前記インカップリング回折光学素子の背面と平行であり、前記アウトカップリング回折光学素子の前面は、前記アウトカップリング回折光学素子の背面と平行である、請求項1に記載の個人用ディスプレイ装置。
  4. 前記右目シースルー部と前記左目シースルー部との間で前記フレームに取り外し可能に取り付けられた鼻梁アセンブリをさらに備える、請求項1に記載の個人用ディスプレイ装置。
  5. 周囲光の変化を検出するために前記フレームに配置され前記プロセッサに接続された周囲光センサーをさらに備える、請求項1に記載の個人用ディスプレイ装置。
  6. 前記周囲光センサーが前記プロセッサに信号を提供するように構成されている、請求項5に記載の個人用ディスプレイ装置。
  7. 前記プロセッサは、前記周囲光センサーによって提供される信号に基づいて、前記投射ディスプレイデバイスによって伝送される画像を変更するように構成されている、請求項6に記載の個人用ディスプレイ装置。
  8. 前記導波路スタックモジュールは、導波路ハウジングをさらに含み、前記導波路ハウジングは、前記インカップリング回折光学素子および前記アウトカップリング回折光学素子を収容するように構成されている、請求項1に記載の個人用ディスプレイ装置。
  9. 前記導波路スタックモジュールが、前記インカップリング回折光学素子を通過する前記投射ディスプレイデバイスからの過剰な光を吸収するための黒化材料を含む、請求項1に記載の個人用ディスプレイデバイス。
  10. 前記黒化材料は、コモト、カーボンフェザー、アクタール、および黒色塗料のうちの少なくとも1つから作られる、請求項9に記載の個人用ディスプレイ装置。
  11. 前記導波路ハウジングは、前記導波路ハウジングと前記フレームとを位置合わせするための導波路・フレームアライナを含む、請求項8に記載の個人用ディスプレイ装置。
  12. 前記導波路スタックモジュールは、前記インカップリング回折光学素子と前記アウトカップリング回折光学素子を前記導波路ハウジング内に封止するための外カバーと内カバーをさらに含む、請求項8に記載の個人用ディスプレイ装置。
  13. 前記外カバーと前記内カバーは、前記外カバーと前記内カバーの周囲を囲むガスケットを含み、前記ガスケットは、前記外カバーと前記内カバーを前記導波路ハウジングに封止する、請求項12に記載の個人用ディスプレイ装置。
  14. 前記投射ディスプレイデバイスは、プロジェクタ、プロジェクタ取付フレーム、およびディスプレイ接続モジュールを含む、請求項1に記載の個人用ディスプレイ装置。
  15. 前記プロジェクタ取付フレームは、アライメントピンとプロジェクタ・フレームアライナとを含み、前記プロジェクタ・フレームアライナは、前記プロジェクタ取付フレームと前記フレームとを位置合わせする、請求項14に記載の個人用ディスプレイ装置。
  16. 前記導波路スタックモジュールが導波路ハウジングをさらに含み、前記導波路ハウジングが、前記導波路ハウジングと前記フレームとを位置合わせするための導波路・フレームアライナを含み、
    前記投射ディスプレイデバイスがプロジェクタ取付フレームを含み、前記プロジェクタ取付フレームが、前記プロジェクタ取付フレームと前記フレームとを位置合わせするためのプロジェクタ・フレームアライナを含み、
    前記フレームは、前記導波路・フレームアライナと前記プロジェクタ・フレームアライナを前記フレームに位置合わせするためのプロジェクタ・導波路・フレームアライナを含む、請求項1に記載の個人用ディスプレイ装置。
  17. 前記フレームの前記左側テンプル部と前記左後部との間に配置された左側ヒンジシステムと、前記フレームの右側テンプル部と前記右後部の間に配置された右側ヒンジシステムとをさらに備えた、請求項1に記載の個人用ディスプレイ装置。
  18. 前記左側ヒンジシステムと前記右側ヒンジシステムは、可撓性ケーブル、ヒンジ、ヒンジハウジング、およびヒンジピンを含む、請求項17に記載の個人用ディスプレイ装置。
  19. 前記ヒンジは、第1ハーフヒンジと第2ハーフヒンジを含み、前記第1ハーフヒンジと前記第2ハーフヒンジは、前記ヒンジピンによって回動可能に接続されるように構成されている、請求項18に記載の個人用ディスプレイ装置。
  20. 前記可撓性ケーブルが少なくとも6つの屈曲点を含み、前記可撓性ケーブルの少なくとも6つの屈曲点のうちの4つが前記ヒンジピンを取り囲むように構成されている、請求項18に記載の個人用ディスプレイ装置。
JP2020531465A 2017-12-20 2018-12-18 拡張現実ディスプレイシステム Active JP7171727B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022156455A JP2022188158A (ja) 2017-12-20 2022-09-29 拡張現実ディスプレイシステム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762608222P 2017-12-20 2017-12-20
US62/608,222 2017-12-20
US201862626356P 2018-02-05 2018-02-05
US62/626,356 2018-02-05
PCT/US2018/066240 WO2019126175A1 (en) 2017-12-20 2018-12-18 Augmented reality display system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022156455A Division JP2022188158A (ja) 2017-12-20 2022-09-29 拡張現実ディスプレイシステム

Publications (2)

Publication Number Publication Date
JP2021507277A true JP2021507277A (ja) 2021-02-22
JP7171727B2 JP7171727B2 (ja) 2022-11-15

Family

ID=66993860

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020531465A Active JP7171727B2 (ja) 2017-12-20 2018-12-18 拡張現実ディスプレイシステム
JP2022156455A Pending JP2022188158A (ja) 2017-12-20 2022-09-29 拡張現実ディスプレイシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022156455A Pending JP2022188158A (ja) 2017-12-20 2022-09-29 拡張現実ディスプレイシステム

Country Status (5)

Country Link
US (1) US11921289B2 (ja)
EP (1) EP3701316A4 (ja)
JP (2) JP7171727B2 (ja)
CN (1) CN111512211B (ja)
WO (1) WO2019126175A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021110954A (ja) * 2020-01-10 2021-08-02 芋▲頭▼科技(杭州)有限公司 眼鏡テンプル折り畳み構造体およびそれを含むスマート眼鏡

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019156839A1 (en) * 2018-02-09 2019-08-15 Vuzix Corporation Image light guide with circular polarizer
TWI761685B (zh) * 2019-06-24 2022-04-21 緯創資通股份有限公司 穿戴式顯示裝置
USD1019747S1 (en) * 2019-09-09 2024-03-26 Amazon Technologies, Inc. Wearable device
CN210626813U (zh) * 2019-11-22 2020-05-26 中科海微(北京)科技有限公司 一种坐姿矫正眼镜
WO2021138607A1 (en) * 2020-01-03 2021-07-08 Digilens Inc. Modular waveguide displays and related applications
US11378817B2 (en) * 2020-02-18 2022-07-05 Snap Inc. Hyperextending hinge having FPC service loops for eyewear
US11543679B2 (en) 2020-02-18 2023-01-03 Snap Inc. Hyperextending hinge having cosmetic trim for eyewear
US11880093B2 (en) 2020-02-18 2024-01-23 Snap Inc. Hyperextending hinge for wearable electronic device
US11604367B2 (en) * 2020-04-08 2023-03-14 Facense Ltd. Smartglasses with bendable temples
WO2022170223A1 (en) * 2021-02-08 2022-08-11 Multinarity Ltd User interactions in extended reality
US12007810B2 (en) * 2020-04-23 2024-06-11 Apple Inc. Electronic devices with antennas and optical components
US11202043B1 (en) * 2020-08-25 2021-12-14 Facebook Technologies, Llc Self-testing display device
CN115826245A (zh) * 2020-08-26 2023-03-21 宁波舜宇光电信息有限公司 增强现实设备
USD1019748S1 (en) * 2020-09-01 2024-03-26 Vuzix Corporation Smart glasses
CN112198663B (zh) * 2020-09-21 2023-09-01 Oppo广东移动通信有限公司 镜片组件、制作方法以及智能眼镜
CN112415751B (zh) * 2020-11-30 2023-06-13 歌尔科技有限公司 Vr设备外壳及其制作方法、以及vr设备
CN112558328A (zh) * 2020-12-23 2021-03-26 桂林医学院 一种健康检测智能眼镜
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
JP2024507749A (ja) 2021-02-08 2024-02-21 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるコンテンツ共有
KR20230144042A (ko) 2021-02-08 2023-10-13 사이트풀 컴퓨터스 리미티드 생산성을 위한 확장 현실
CN117043709A (zh) * 2021-02-08 2023-11-10 视域电脑有限公司 用于生产力的扩展现实
US11532873B2 (en) * 2021-03-15 2022-12-20 Meta Platforms Technologies, Llc Wearable device antenna shields and related systems and methods
CN113176669B (zh) * 2021-04-22 2022-07-22 歌尔股份有限公司 显示***、显示眼镜和显示***控制方法
IT202100014759A1 (it) * 2021-06-07 2022-12-07 Matteo Sozzi Metodo e sistema per ottimizare l’efficienza di un servizio di distribuzione di prodotti alimentari
IT202100014753A1 (it) * 2021-06-07 2022-12-07 Matteo Sozzi Metodo e sistema per l’assistenza alla distribuzione di prodotti alimentari
GB2608186A (en) * 2021-06-25 2022-12-28 Thermoteknix Systems Ltd Augmented reality system
US11852822B2 (en) 2021-07-09 2023-12-26 Realwear, Inc. Convertible waveguide optical engine assembly for head-mounted device
US11940627B2 (en) * 2021-07-09 2024-03-26 Realwear, Inc. Opaque waveguide optical engine assembly for head-mounted device
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
TW202326232A (zh) * 2021-11-17 2023-07-01 美商元平台技術有限公司 在用於沉浸式實境應用的智能眼鏡中的鏡框彎曲補償
CN114280789B (zh) * 2021-12-29 2024-02-27 Oppo广东移动通信有限公司 近眼显示光学***及近眼显示光学设备
US11829312B2 (en) 2021-12-31 2023-11-28 Snap Inc. Debug access of eyewear having multiple socs
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US11758319B2 (en) * 2022-02-04 2023-09-12 Meta Platforms Technologies, Llc Microphone port architecture for mitigating wind noise
TW202339602A (zh) * 2022-02-04 2023-10-01 美商元平台技術有限公司 熱鉸鏈系統
USD1028069S1 (en) * 2022-02-15 2024-05-21 Christian Dior Couture Spectacles
WO2024015266A1 (en) * 2022-07-11 2024-01-18 Meta Platforms Technologies, Llc Optical assemblies, head-mounted displays, and related methods
US20240077729A1 (en) * 2022-09-06 2024-03-07 Meta Platforms Technologies, Llc Apparatuses, systems, and methods for aligning display projector assemblies included in head-mounted displays
USD1020855S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020863S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020850S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1019750S1 (en) * 2023-02-09 2024-03-26 Innovative Eyewear, Inc. Smartglasses
USD1024177S1 (en) * 2023-02-09 2024-04-23 Innovative Eyewear, Inc. Smartglasses
USD1020852S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc Smartglasses
USD1020856S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020853S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020857S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020851S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020854S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1019746S1 (en) * 2023-02-09 2024-03-26 Innovative Eyewear, Inc. Smartglasses
USD1020858S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1020849S1 (en) * 2023-02-09 2024-04-02 Innovative Eyewear, Inc. Smartglasses
USD1023123S1 (en) * 2023-02-13 2024-04-16 Innovative Eyewear, Inc. Smartglasses temples

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065310A (ja) * 2007-09-05 2009-03-26 Konica Minolta Holdings Inc 映像表示ユニットおよび面体ユニット
JP2014224847A (ja) * 2013-05-15 2014-12-04 セイコーエプソン株式会社 虚像表示装置
JP2015125222A (ja) * 2013-12-26 2015-07-06 セイコーエプソン株式会社 虚像表示装置
JP2015184560A (ja) * 2014-03-25 2015-10-22 ソニー株式会社 導光装置、画像表示装置及び表示装置
WO2015170555A1 (ja) * 2014-05-09 2015-11-12 アルプス電気株式会社 眼鏡型電子機器
US20160077338A1 (en) * 2014-09-16 2016-03-17 Steven John Robbins Compact Projection Light Engine For A Diffractive Waveguide Display
JP2016126188A (ja) * 2015-01-05 2016-07-11 コニカミノルタ株式会社 音声情報表示装置
US20170017083A1 (en) * 2015-03-16 2017-01-19 Magic Leap, Inc. Methods and systems for providing augmented reality content for treating color blindness
JP2017120302A (ja) * 2015-12-28 2017-07-06 セイコーエプソン株式会社 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2017120384A (ja) * 2015-12-25 2017-07-06 セイコーエプソン株式会社 虚像表示装置
WO2017120341A1 (en) * 2016-01-06 2017-07-13 Vuzix Corporation Double-sided imaging light guide

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5790230A (en) * 1996-02-16 1998-08-04 Sved; Robert Combination eyeglass assembly of sport or safety glasses with detachable prescription lenses
JP3908342B2 (ja) * 1997-08-13 2007-04-25 株式会社タバタ 水中めがね
TWI249271B (en) * 2004-08-27 2006-02-11 Adv Flexible Circuits Co Ltd Signal transmission cable assembly suitable for passing through revolving shaft mechanism
WO2007141588A1 (en) 2006-06-02 2007-12-13 Nokia Corporation Split exit pupil expander
US8605008B1 (en) * 2007-05-04 2013-12-10 Apple Inc. Head-mounted display
US20100045928A1 (en) * 2008-08-25 2010-02-25 Tri-Specs, Inc. Fashion eyewear frame that houses circuitry to effect wireless audio communication while providing extraneous background noise cancellation capability
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US7942521B2 (en) * 2009-03-16 2011-05-17 Brent Sheldon Glasses with reflective frames
US8482541B2 (en) * 2009-12-22 2013-07-09 Nissha Printing Co., Ltd. Touch panel and portable device using the same
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US8164886B1 (en) * 2010-04-22 2012-04-24 Lockheed Martin Corporation Ruggedized display enclosure
KR20140066258A (ko) 2011-09-26 2014-05-30 마이크로소프트 코포레이션 투시 근안 디스플레이에 대한 센서 입력에 기초한 비디오 디스플레이 수정
US9442305B2 (en) * 2012-06-14 2016-09-13 Mitsui Chemicals, Inc. Electronic eyeglasses and methods of manufacturing
EP2893388B1 (en) 2012-09-03 2016-08-03 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Head mounted system and method to compute and render a stream of digital images using a head mounted system
JP2016032485A (ja) * 2012-12-27 2016-03-10 国立大学法人 東京医科歯科大学 内視鏡下手術支援システム及び画像制御方法
US8873149B2 (en) * 2013-01-28 2014-10-28 David D. Bohn Projection optical system for coupling image light to a near-eye display
KR102153599B1 (ko) 2013-11-18 2020-09-08 삼성전자주식회사 머리 착용형 디스플레이 장치 및 머리 착용형 디스플레이 장치의 광 투과율 변경 방법
DE102013223964B3 (de) 2013-11-22 2015-05-13 Carl Zeiss Ag Abbildungsoptik sowie Anzeigevorrichtung mit einer solchen Abbildungsoptik
JP6465030B2 (ja) * 2013-11-26 2019-02-06 ソニー株式会社 ヘッドマウントディスプレイ
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9725939B2 (en) * 2014-03-28 2017-08-08 Hurco Companies, Inc. Rotatable hinge
KR102173699B1 (ko) 2014-05-09 2020-11-03 아이플루언스, 인크. 안구 신호들의 인식 및 지속적인 생체 인증을 위한 시스템과 방법들
WO2015196021A1 (en) * 2014-06-19 2015-12-23 M-I Drilling Fluids U.K. Ltd. Intrinsically safe safety goggles with data display, user input and data communication
US20160019423A1 (en) 2014-07-15 2016-01-21 Luis M. Ortiz Methods and systems for wearable computing device
US20160070343A1 (en) 2014-09-09 2016-03-10 Beijing Lenovo Software Ltd. Information processing method and electronic device
US9686338B1 (en) 2014-10-24 2017-06-20 Amazon Technologies, Inc. Streaming content adjustment based on camera feedback
US20160216792A1 (en) * 2015-01-26 2016-07-28 Seiko Epson Corporation Head mounted display, and control method and control program for head mounted display
WO2016123119A1 (en) * 2015-01-27 2016-08-04 Abominable Labs, Llc Interchangeable lens goggle adaptable to prevent fogging
US20160282626A1 (en) * 2015-03-27 2016-09-29 Osterhout Group, Inc. See-through computer display systems
US9482883B1 (en) * 2015-04-15 2016-11-01 Snapchat, Inc. Eyewear having linkage assembly between a temple and a frame
JP2017120336A (ja) 2015-12-28 2017-07-06 株式会社テレパシージャパン 頭部装着型画像表示装置
NZ745246A (en) * 2016-02-24 2020-01-31 Magic Leap Inc Polarizing beam splitter with low light leakage
US10042187B2 (en) * 2016-02-29 2018-08-07 Snap Inc. Heat management for electronic devices
TWM528439U (zh) * 2016-06-03 2016-09-11 You-Bang Wang 眼鏡側框鏡片插槽結構
US10168555B1 (en) 2016-06-30 2019-01-01 Google Llc Wiring in a head-mountable device
CA3056900A1 (en) * 2017-03-21 2018-09-27 Magic Leap, Inc. Methods, devices, and systems for illuminating spatial light modulators
JP2017146619A (ja) 2017-05-01 2017-08-24 セイコーエプソン株式会社 虚像表示装置
JP6833051B2 (ja) * 2017-09-22 2021-02-24 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ
KR102662955B1 (ko) * 2017-12-21 2024-05-02 스냅 아이엔씨 웨어러블 장치
JP2020071299A (ja) * 2018-10-30 2020-05-07 セイコーエプソン株式会社 頭部装着型表示装置
US11150480B1 (en) * 2018-11-06 2021-10-19 Facebook Technologies, Llc Systems and methods for translation of optical components

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065310A (ja) * 2007-09-05 2009-03-26 Konica Minolta Holdings Inc 映像表示ユニットおよび面体ユニット
JP2014224847A (ja) * 2013-05-15 2014-12-04 セイコーエプソン株式会社 虚像表示装置
JP2015125222A (ja) * 2013-12-26 2015-07-06 セイコーエプソン株式会社 虚像表示装置
JP2015184560A (ja) * 2014-03-25 2015-10-22 ソニー株式会社 導光装置、画像表示装置及び表示装置
WO2015170555A1 (ja) * 2014-05-09 2015-11-12 アルプス電気株式会社 眼鏡型電子機器
US20160077338A1 (en) * 2014-09-16 2016-03-17 Steven John Robbins Compact Projection Light Engine For A Diffractive Waveguide Display
JP2016126188A (ja) * 2015-01-05 2016-07-11 コニカミノルタ株式会社 音声情報表示装置
US20170017083A1 (en) * 2015-03-16 2017-01-19 Magic Leap, Inc. Methods and systems for providing augmented reality content for treating color blindness
JP2017120384A (ja) * 2015-12-25 2017-07-06 セイコーエプソン株式会社 虚像表示装置
JP2017120302A (ja) * 2015-12-28 2017-07-06 セイコーエプソン株式会社 表示装置、表示システム、表示装置の制御方法、及び、プログラム
WO2017120341A1 (en) * 2016-01-06 2017-07-13 Vuzix Corporation Double-sided imaging light guide

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021110954A (ja) * 2020-01-10 2021-08-02 芋▲頭▼科技(杭州)有限公司 眼鏡テンプル折り畳み構造体およびそれを含むスマート眼鏡

Also Published As

Publication number Publication date
JP2022188158A (ja) 2022-12-20
WO2019126175A1 (en) 2019-06-27
CN111512211A (zh) 2020-08-07
EP3701316A4 (en) 2021-08-04
EP3701316A1 (en) 2020-09-02
US11921289B2 (en) 2024-03-05
JP7171727B2 (ja) 2022-11-15
US20210103146A1 (en) 2021-04-08
CN111512211B (zh) 2022-06-21

Similar Documents

Publication Publication Date Title
JP7171727B2 (ja) 拡張現実ディスプレイシステム
US11778149B2 (en) Headware with computer and optical element for use therewith and systems utilizing same
CN105319717B (zh) 用于显示图像的头戴式显示设备及其方法
JP6632979B2 (ja) 拡張現実感のための方法とシステム
JP6675312B2 (ja) 拡張現実感のための方法とシステム
JP2020523628A (ja) アイウェア用の着脱可能な拡張現実システム
US20170246070A1 (en) Radar imagery in head-worn computing
TWI598634B (zh) 顯示影像用之頭戴顯示裝置及其方法
CN106662678A (zh) 具有解耦非球面的球面镜
CN103999445A (zh) 头戴式显示器
US11960093B1 (en) Head-mounted display systems with gaze tracker alignment monitoring
US11740466B1 (en) Optical systems with scanning mirror input couplers
CN112285928B (zh) 头戴式设备
KR20220068431A (ko) 증강 현실 웨어러블 전자 장치
KR20220089023A (ko) 전자 장치 및 그의 사용자 시선을 추적하고 증강 현실 서비스를 제공하는 방법
US20240242442A1 (en) Supplementing user perception and experience with augmented reality (ar), artificial intelligence (ai), and machine-learning (ml) techniques utilizing an artificial intelligence (ai) agent
CN113302548B (zh) 具有认证和隐私能力的光学***
US20240012246A1 (en) Methods, Apparatuses And Computer Program Products For Providing An Eye Tracking System Based On Flexible Around The Lens Or Frame Illumination Sources
US20240012473A1 (en) Methods, Apparatuses And Computer Program Products For Providing Multi-Functional Optical Modules With Micro-Light Emitting Diodes As Eye Tracking Illumination Sources
EP4307028A1 (en) Optical assembly with micro light emitting diode (led) as eye-tracking near infrared (nir) illumination source
US20240046530A1 (en) Method of controlling display module, and electronic device performing the method
KR20230065049A (ko) 비전 정보를 이용하여 전자기기를 제어하는 웨어러블 전자 장치 및 방법
KR20240062980A (ko) 메타버스에서 외부 장치를 사용하는 전자 장치 및 이의 제어 방법
KR20230072256A (ko) 증강 현실 객체의 앵커링을 위한 전자 장치 및 방법
KR20240097656A (ko) 외부 전자 장치로부터 획득된 생체 데이터에 기반하여 화면을 전환하기 위한 웨어러블 장치 및 그 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201002

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220627

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221102

R150 Certificate of patent or registration of utility model

Ref document number: 7171727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150