JP2020502849A - 複合現実較正のための眼球周囲試験 - Google Patents
複合現実較正のための眼球周囲試験 Download PDFInfo
- Publication number
- JP2020502849A JP2020502849A JP2019517930A JP2019517930A JP2020502849A JP 2020502849 A JP2020502849 A JP 2020502849A JP 2019517930 A JP2019517930 A JP 2019517930A JP 2019517930 A JP2019517930 A JP 2019517930A JP 2020502849 A JP2020502849 A JP 2020502849A
- Authority
- JP
- Japan
- Prior art keywords
- user
- hmd
- image
- eye
- fit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012360 testing method Methods 0.000 title description 4
- 238000003384 imaging method Methods 0.000 claims abstract description 135
- 238000009877 rendering Methods 0.000 claims abstract description 135
- 210000001508 eye Anatomy 0.000 claims description 387
- 238000000034 method Methods 0.000 claims description 180
- 210000003128 head Anatomy 0.000 claims description 107
- 238000004422 calculation algorithm Methods 0.000 claims description 76
- 238000013507 mapping Methods 0.000 claims description 51
- 238000010801 machine learning Methods 0.000 claims description 41
- 230000003190 augmentative effect Effects 0.000 claims description 36
- 230000008859 change Effects 0.000 claims description 33
- 230000000007 visual effect Effects 0.000 claims description 31
- 230000004044 response Effects 0.000 claims description 18
- 210000005252 bulbus oculi Anatomy 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 8
- 230000002207 retinal effect Effects 0.000 claims description 8
- 230000006872 improvement Effects 0.000 claims description 5
- 230000009466 transformation Effects 0.000 claims description 4
- 210000001747 pupil Anatomy 0.000 description 51
- 230000008569 process Effects 0.000 description 35
- 230000003287 optical effect Effects 0.000 description 32
- 230000033001 locomotion Effects 0.000 description 29
- 238000012545 processing Methods 0.000 description 29
- 238000013528 artificial neural network Methods 0.000 description 25
- 210000001331 nose Anatomy 0.000 description 20
- 230000004308 accommodation Effects 0.000 description 17
- 230000001815 facial effect Effects 0.000 description 16
- 238000000605 extraction Methods 0.000 description 15
- 210000004709 eyebrow Anatomy 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 210000004279 orbit Anatomy 0.000 description 9
- 210000003467 cheek Anatomy 0.000 description 8
- 230000001133 acceleration Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 239000000835 fiber Substances 0.000 description 7
- 210000001061 forehead Anatomy 0.000 description 7
- 238000000926 separation method Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000004424 eye movement Effects 0.000 description 6
- 239000000463 material Substances 0.000 description 6
- 230000008447 perception Effects 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- 239000006185 dispersion Substances 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 210000003786 sclera Anatomy 0.000 description 5
- 230000035807 sensation Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 210000004556 brain Anatomy 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 4
- 230000001976 improved effect Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 239000007787 solid Substances 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000036548 skin texture Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 208000001692 Esotropia Diseases 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 208000006550 Mydriasis Diseases 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 239000003181 biological factor Substances 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 230000008045 co-localization Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002570 electrooculography Methods 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 210000003284 horn Anatomy 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/20—Linear translation of whole images or parts thereof, e.g. panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0127—Head-up displays characterised by optical features comprising devices increasing the depth of field
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0181—Adaptation to the pilot/driver
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Optics & Photonics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
- Processing Or Creating Images (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、米国仮出願第62/404,419号、出願日2016年10月5日、発明の名称 “PERIOCULAR TEST FOR GLASSES REMOVAL”、米国仮出願第62/404,493号、出願日2016年10月5日、発明の名称 “PERIOCULAR TEST FOR GLASSES FIT”、および米国仮出願第62/416,341号、出願日2016年11月2日、発明の名称 “DYNAMIC DISPLAY CORRECTION BASED ON DISPLAY POSITION TRACKING”に対する35 U.S.C. § 119(e)のもとでの優先権の利益を主張するものであり、これらの全ての開示は、これらの全体が参照により本明細書中に援用される。
AR/VR/MRシステムのためのウェアラブルデバイスは、3次元(3D)画像をユーザに提示するための頭部搭載型デバイス(HMD)であることができる。HMDは、頭部搭載型ディスプレイを含んでもよく、これは、3次元(3D)仮想オブジェクトをユーザの環境の中にユーザの眼の視点からレンダリングすることができる。その結果、3D仮想オブジェクトは、実世界オブジェクトと類似様式においてユーザによって知覚され得る。HMDは、これは、ユーザの環境内のオブジェクト(仮想オブジェクトを含む)を示す、世界マップに基づいて、3D仮想オブジェクトをレンダリングすることができる。HMDは、世界マップに対応する色および強度を用いて、ディスプレイ上のピクセルを照明することができる。しかしながら、世界マップ内の点は、ユーザの眼が動き回るため、HMD上に所定のレンダリング場所を有していない場合がある。ディスプレイは、デバイスが最初にユーザによって使用されるとき等、ユーザの眼に対して較正され得るが、そのような較正は、ディスプレイがユーザの頭部に強固に添着されないであろうため、常時、信頼性があるわけではない場合がある。例えば、ディスプレイは、ユーザがユーザ移動を要求するビデオゲームをプレーしているとき等、ユーザがそれと相互作用するとき、移動し得る。さらに、ディスプレイは、ユーザの鼻の下方に若干滑動する、またはユーザの耳間の線に対して傾斜し得る。その結果、HMDは、ディスプレイの偏移(前方または片側への傾斜等)に起因して、仮想オブジェクトの現実的提示を提供することが不可能な場合がある。
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2Dまたは3D仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせまたは同等物における、静止画像、ビデオのフレーム、またはビデオであってもよい。ウェアラブルシステムの少なくとも一部は、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示し得る、ウェアラブルデバイス上に実装されることができる。ウェアラブルデバイスは、頭部搭載型デバイス(HMD)であることができ、これは、ARデバイス(ARD)と同義的に使用される。さらに、本開示の目的のために、用語「AR」は、用語「MR」と同義的に使用される。
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、4400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、そのウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
多くの実装では、ウェアラブルシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つ以上の触知デバイスまたはコンポーネントを含んでもよい。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力またはテクスチャの感覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトもしくはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
ウェアラブルシステムは、高被写界深度をレンダリングされたライトフィールド内で達成するために、種々のマッピング関連技法を採用してもよい。仮想世界をマッピングする際、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)のセットを収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを囲繞する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
図11は、例示的ウェアラブルデバイスを図示し、これは、ユーザの顔の画像を入手することができる。ウェアラブルデバイス1150は、図2を参照して説明される、例示的頭部搭載型デバイス(HMD)であることができる。ウェアラブルデバイス1150は、SARデバイスであってもよく、これは、仮想オブジェクトをユーザの眼の視点からレンダリングするための頭部搭載型ディスプレイを含んでもよい。ウェアラブルデバイスによって入手された画像は、静止画像、動画、ビデオからの個々のフレーム、またはビデオを含むことができる。
図11を参照して説明されるように、結像システム1160によって入手された画像は、ユーザの眼球周囲領域の一部を含んでもよい。眼球周囲領域は、1つ以上の眼球周囲特徴もしくは眼球周囲特徴の一部を含むことができる。眼球周囲特徴は、例えば、眼、眼窩、眉毛、鼻、頬、または前額を含んでもよい。顔の他の特徴またはユーザ特有の詳細もまた、眼球周囲特徴と見なされ得る。
図12Bは、眼球周囲領域1270の例示的画像を図示し、画像内の眼球周囲領域の一部は、ウェアラブルデバイスによってマスクされる。本実施例では、眼カメラは、眼球周囲領域1270の画像1200bを入手する。画像1200bは、眼球周囲領域1270が、眉毛1220b、眼1210b、および鼻1230b、頬1240b、および前額1250bの部分を含み得ることを示す。
ウェアラブルデバイスは、眼カメラによって入手された画像を使用して、機械学習モデルを訓練し、眼球周囲領域内の眼球周囲特徴を識別することができる。ウェアラブルデバイスはまた、オブジェクト認識装置708(図7に説明される)を使用して、識別を実施してもよい。オブジェクト認識装置708は、眼カメラによって入手された画像から訓練された機械学習モデルを実装してもよい。眼球周囲領域は、片眼または両眼と関連付けられてもよい。機械学習モデルは、あるグループの人々に一般的または個人に特有の眼球周囲特徴または眼球周囲特徴と関連付けられた特性を使用して訓練されてもよい。例えば、ウェアラブルデバイスは、ユーザの眉毛および眼窩等の眼球周囲特徴の特性に基づいて、機械学習モデルを訓練することができる。別の実施例として、ウェアラブルデバイスは、ユーザと同一または類似民族性および性別を有する他の人々の眼球周囲特徴および/または眼球周囲特徴の関連付けられた特性を使用して、機械学習モデルを訓練することができる。
ウェアラブルデバイスは、ウェアラブルデバイス上のカメラによって捕捉された画像内の眼球周囲領域内の眼球周囲特徴を識別することができ、識別された眼球周囲特徴およびその特性を使用して、ウェアラブルデバイスとユーザの顔との間の相対的位置を決定してもよい。ある実施形態では、ウェアラブルデバイスは、ウェアラブルデバイスとユーザとの間の相対的位置を眼毎に別個に計算することができる。例えば、ウェアラブルデバイスが、それぞれ、ユーザの片方の眼球周囲領域を結像するように構成される、2つの眼カメラを有するとき、ウェアラブルデバイスは、左眼と左眼カメラとの間の1つの相対的位置と、右眼と右眼カメラとの間の別の相対的位置とを計算してもよい。左眼とウェアラブルデバイスとの間および右眼とウェアラブルデバイスとの間の相対的位置が、次いで、計算されてもよい。いくつかの実施形態では、眼とウェアラブルデバイスとの間の距離の計算はまた、視野、焦点距離等のカメラ自体についての既知の技術的詳細に加え、ウェアラブルデバイス上の眼カメラの位置についての既知の幾何学的情報に依存し得る。
HMDとユーザの顔との間の相対的位置またはHMDの姿勢は、仮想オブジェクトのレンダリング場所に対する調節を算出するために使用されてもよい。
図16は、仮想オブジェクトのレンダリング場所を調節するための例示的プロセスを図示する。図16におけるプロセス1600は、ウェアラブルデバイスによって実施されてもよく、これは、仮想オブジェクトを物理的オブジェクトの中にユーザの眼の視点から提示し、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムを含み得る、HMDを含んでもよい。
HMDは、種々の要因を使用して、HMDがユーザにフィットしている程度を決定することができる。一実施例として、HMDは、機械学習技法を介して学習されたマッピングを適用することによって、眼カメラによって取得される画像を分析することができる。眼カメラによって入手された画像は、機械学習モデルを使用して訓練され、眼球周囲特徴を識別することができる。機械学習モデルは、HMDに関するフィット感空間に対する画像空間のマッピングを含むことができる。マッピングは、眼画像に適用され、眼球周囲領域が眼画像内に存在するかどうか(例えば、HMDがユーザの顔上にあるかどうかを決定するために)またはユーザの顔上のHMDのフィット感の品質を決定することができる。いくつかの実装では、1つのマッピングは、ウェアラブルデバイスのフィット感を分類するためと、眼球周囲領域が提示するかどうかを決定するための両方に使用されてもよい、または異なるマッピングが、フィット感およびHMDがユーザの顔上にあるかどうかのために使用されてもよい。
図15Aは、ウェアラブルデバイスのフィット感を決定するための例示的方法を図示する。プロセス1500aは、図2および4を参照して説明されるHMD等のウェアラブルデバイスによって実施されてもよい。HMDは、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムを有してもよい。
図13A、13B、および13Cを参照して説明されるように、ウェアラブルデバイスは、内向きに面した結像システムによって入手された画像を分析し、種々の要因を使用して、ウェアラブルデバイスが側方または前方に傾斜しているかどうか等、ユーザとウェアラブルデバイスとの間の相対的位置を決定することができる。
図15Bは、ウェアラブルデバイスの除去を決定するための例示的方法を図示する。図15Bにおけるプロセス1500bは、図2および4を参照して説明されるHMD等のウェアラブルデバイスによって実施されてもよい。HMDは、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムを有してもよい。
図15Cは、機械学習技法を適用し、フィット感の良好度に関するマッピングまたはHMDがユーザ上にあるかどうかを提供するための方法1500cの実施例である。ブロック1552では、眼画像が、アクセスされ、これは、教師ありまたは教師なし学習において訓練画像として使用され、マッピングを生成するために使用され得る。ブロック1554では、機械学習技法(例えば、深層ニューラルネットワーク)が、眼画像を分析し、ユーザ上のHMDのフィット感の品質またはHMD除去カテゴリ化(例えば、ユーザの頭部上にあるまたはない)のために使用され得る、マッピングを展開するために使用される。ブロック1556では、マッピングが、出力され(例えば、訓練されたニューラルネットワークから出力される)、特定のHMD(例えば、ローカルデータモジュール260または遠隔データリポジトリ280)と関連付けられたメモリ内に記憶されることができる。ブロック1562では、付加的眼画像が、アクセスされることができ、これは、ユーザに特定のものであってもよい。例えば、ユーザは、鏡の正面に立ち、HMDをユーザの顔上で移動させ、結果として生じるフィット感の品質のユーザの主観的印象を注釈することができる。ブロック1564では、機械学習技法は、例えば、ニューラルネットワークをさらに訓練することによって、マッピングを更新し、ユーザの個々の選好を反映させる。
第1の側面では、ユーザの頭部からの頭部搭載型ディスプレイの除去を検出するための方法であって、コンピュータプロセッサと、ユーザの眼球周囲領域を結像するように構成される、内向きに面した結像システムとを備える、頭部搭載型ディスプレイの制御下で、画像を内向きに面した結像システムから受信するステップと、画像を分析し、画像内の眼球周囲領域の眼球周囲特徴の存在度を識別するステップと、少なくとも部分的に、眼球周囲特徴の存在度に基づいて、頭部搭載型ディスプレイがユーザの頭部から除去された尤度を決定するステップと、尤度が閾値を超えたことの決定に応答して、頭部搭載型ディスプレイがユーザの頭部から除去されたことのインジケーションを提供するステップとを含む、方法。
本明細書に説明される、ならびに/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/もしくは電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全もしくは部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
Claims (20)
- 頭部搭載型デバイス(HMD)であって、
仮想オブジェクトをユーザの眼の視点からレンダリングするように構成される空間拡張現実(AR)ディスプレイシステムと、
前記HMDと前記ユーザの頭部との間の相対的位置の測定値を記憶するように構成される非一過性メモリと、
前記非一過性メモリおよび前記空間ARディスプレイシステムと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記HMDと前記ユーザの頭部との間の相対的位置の測定値にアクセスすることと、
少なくとも部分的に、前記HMDと前記ユーザの頭部との間の相対的位置に基づいて、前記仮想オブジェクトの正常レンダリング位置に対する調節を計算することと、
前記正常レンダリング位置に対する調節に基づいて、前記仮想オブジェクトのレンダリング場所を決定することと、
前記空間ARディスプレイシステムに、前記仮想オブジェクトを前記レンダリング場所にレンダリングするように命令することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、HMD。 - 前記HMDと前記ユーザの頭部との間の相対的位置の測定値は、視覚的特徴点を使用して眼球周囲特徴を追跡すること、または前記顔の領域と前記ユーザの頭部の少なくとも一部をエンコードする稠密マップを合致させることのうちの少なくとも1つを実施することによって計算される、請求項1に記載のHMD。
- 前記視覚的特徴点は、スケール不変特徴変換、スピードアップロバスト特徴、配向FASTおよび回転BRIEF、バイナリロバスト不変スケーラブルキーポイント、または高速網膜キーポイントのうちの少なくとも1つを使用して算出される、または前記稠密マップは、反復最近傍点アルゴリズムを使用して計算される、請求項2に記載のHMD。
- 前記ハードウェアプロセッサはさらに、前記HMDのレンダリング視点と関連付けられた前記ユーザの眼の正常静止位置を決定するようにプログラムされ、前記仮想オブジェクトの正常レンダリング位置は、前記ユーザの眼の正常静止位置に対応する、請求項1に記載のHMD。
- 前記仮想オブジェクトの正常レンダリング位置に対する調節を計算するために、前記ハードウェアプロセッサは、
少なくとも部分的に、前記HMDと前記ユーザの頭部との間の相対的位置に基づいて、前記正常静止位置に対する偏移を決定することと、
少なくとも部分的に、前記正常静止位置に対する偏移に基づいて、前記HMDのレンダリング視点と関連付けられた座標を偏移させることと
を行うようにプログラムされる、請求項4に記載のHMD。 - 前記HMDと前記ユーザの頭部との間の相対的位置は、前記正常静止位置に対する水平偏移、垂直偏移、深度偏移、側方傾斜、または前方傾斜のうちの1つ以上のものを含む、請求項5に記載のHMD。
- 前記HMDと前記ユーザの頭部との間の相対的位置は、前記ユーザの第1の眼に関する前記HMDとの間の第1の相対的位置と、前記ユーザの第2の眼に関する第2の相対的位置とを含む、請求項1に記載のHMD。
- 方法であって、
ハードウェアプロセッサと、コンピュータプロセッサと、仮想オブジェクトをレンダリングするように構成されるディスプレイシステムと、ユーザの顔の眼球周囲部分を結像するように構成される内向きに面した結像システムとを備える頭部搭載型デバイス(HMD)の制御下で、
画像を前記内向きに面した結像システムから受信することと、
オブジェクト認識装置によって、前記画像を分析し、前記ユーザの眼球周囲特徴を識別することと、
少なくとも部分的に、前記眼球周囲特徴に基づいて、前記HMDと前記ユーザの頭部との間の相対的位置を決定することと、
前記相対的位置と閾値条件を比較することによって、フィット感を決定することと、
前記HMDに、
前記HMDのディスプレイを調節し、前記相対的位置を補償すること、または
ユーザに前記フィット感と関連付けられたインジケーションを提供すること
のうちの少なくとも1つを実施させることと
を含む、方法。 - 前記相対的位置を決定することは、
前記HMDからユーザの眼までの距離を計算すること、
前記ユーザの眼間の瞳孔間距離を計算すること、
前記HMDと前記ユーザの眼との間の相対的位置を決定すること、
前記ユーザの眼の非対称性を決定すること、または
前記HMDの傾斜を決定することであって、前記傾斜は、前方傾斜または側方傾斜のうちの少なくとも1つを含む、こと
のうちの少なくとも1つを含む、請求項8に記載の方法。 - 前記HMDのディスプレイを調節し、前記相対的位置を補償することは、
前記ユーザの眼の正常静止位置と、前記ユーザの眼の正常静止位置に対応する前記仮想オブジェクトの正常レンダリング位置とを決定することと、
少なくとも部分的に、前記HMDと前記ユーザの頭部との間の相対的位置に基づいて、前記仮想オブジェクトの正常レンダリング位置に対する調節を計算することと、
前記正常レンダリング位置に対する調節に基づいて、前記仮想オブジェクトのレンダリング場所を決定することと
を含む、請求項8に記載の方法。 - 前記フィット感を決定することは、
前記ユーザの眼球周囲領域の画像にアクセスすることと、
前記眼球周囲領域の画像と前記ユーザ上の前記HMDのフィット感との間のマッピングにアクセスすることと、
前記マッピングを適用し、前記HMDのフィット感を決定することと
を含む、請求項8に記載の方法。 - 前記フィット感と関連付けられたユーザへのインジケーションは、
前記フィット感の改良に関する命令をユーザに提供することと、
付加的眼画像にアクセスすることと、
前記マッピングを前記付加的眼画像に適用し、更新されたフィット感を決定することと、
更新されたフィット感が閾値を超えるまで、付加的眼画像にアクセスし、更新されたフィット感を決定することと
を含む、請求項8に記載の方法。 - 前記相対的位置を決定することは、
第1の画像および第2の画像を前記内向きに面した結像システムから受信することであって、前記第1の画像および前記第2の画像は、シーケンスで入手される、ことと、
前記第1の画像および前記第2の画像を分析し、前記第1の画像および前記第2の画像内の眼球周囲領域のユーザに特有の眼球周囲特徴を識別することと、
少なくとも部分的に、前記眼球周囲特徴に基づいて、前記眼球周囲領域が前記第1の画像または前記第2の画像内にあるかどうかを決定することと、
少なくとも部分的に、前記第1および第2の画像内の前記眼球周囲特徴の出現に基づいて、前記相対的位置を決定することと
を含み、前記方法はさらに、
前記眼球周囲領域が前記第1の画像または前記第2の画像のいずれにも存在しないことの決定に応答して、前記HMDが前記ユーザの頭部から除去されたことのインジケーションを提供することと、
前記眼球周囲特徴が前記第1の画像または前記第2の画像のいずれかに存在することの決定に応答して、前記HMDに関する状態の変化を示すことと
を含む、請求項8に記載の方法。 - 頭部搭載型デバイス(HMD)であって、
ユーザの顔の眼球周囲領域を結像するように構成される内向きに面した結像システムであって、前記内向きに面した結像システムは、前記眼球周囲領域の少なくとも第1の画像を入手するように構成され、さらに、前記第1の画像内で捕捉された前記眼球周囲領域の一部をマスクするように構成される、内向きに面した結像システムと、
ハードウェアプロセッサであって、
画像を前記内向きに面した結像システムから受信することと、
オブジェクト認識装置によって、前記画像を分析し、前記ユーザの眼球周囲特徴を識別することと、
少なくとも部分的に、前記眼球周囲特徴に基づいて、前記HMDと前記ユーザの頭部との間の相対的位置を決定することと、
前記相対的位置と閾値条件を比較することによって、フィット感を決定することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、HMD。 - 前記フィット感を決定するために、前記ハードウェアプロセッサは、
前記ユーザの眼球周囲領域の画像にアクセスすることと、
前記眼球周囲領域の画像と前記ユーザ上の前記HMDのフィット感との間のマッピングにアクセスすることであって、前記マッピングは、機械学習モデルを使用して訓練される、ことと、
前記マッピングを適用し、前記HMDのフィット感を決定することと
を行うようにプログラムされる、請求項14に記載のHMD。 - 前記フィット感は、良好フィット感、適正フィット感、または不良フィット感のうちの少なくとも1つを含む、請求項14に記載のHMD。
- 前記ハードウェアプロセッサはさらに、前記フィット感に基づいて、仮想オブジェクトのレンダリング場所を調節するようにプログラムされる、請求項14に記載のHMD。
- 前記ハードウェアプロセッサはさらに、前記HMDの初期化位相において、ユーザに前記フィット感に関するインジケーションを提供するようにプログラムされる、請求項14に記載のHMD。
- 前記ハードウェアプロセッサはさらに、
前記フィット感の改良に関する命令をユーザに提供することと、
付加的眼画像にアクセスすることと、
前記マッピングを前記付加的眼画像に適用し、更新されたフィット感を決定することと、
更新されたフィット感が閾値を超えるまで、付加的眼画像にアクセスし、更新されたフィット感を決定することと
を行うようにプログラムされる、請求項18に記載のHMD。 - 前記相対的位置を決定するために、前記ハードウェアプロセッサは、
第1の画像および第2の画像を前記内向きに面した結像システムから受信することであって、前記第1の画像および前記第2の画像は、シーケンスで入手される、ことと、
前記第1の画像および前記第2の画像を分析し、前記第1の画像および前記第2の画像内の前記眼球周囲領域のユーザに特有の眼球周囲特徴を識別することと、
少なくとも部分的に、前記眼球周囲特徴に基づいて、前記眼球周囲領域が前記第1の画像または前記第2の画像内にあるかどうかを決定することと、
少なくとも部分的に、前記第1および第2の画像内の前記眼球周囲特徴の出現に基づいて、前記相対的位置を決定することと
を行うようにプログラムされる、請求項14に記載のHMD。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022034301A JP2022069522A (ja) | 2016-10-05 | 2022-03-07 | 複合現実較正のための眼球周囲試験 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662404493P | 2016-10-05 | 2016-10-05 | |
US201662404419P | 2016-10-05 | 2016-10-05 | |
US62/404,493 | 2016-10-05 | ||
US62/404,419 | 2016-10-05 | ||
US201662416341P | 2016-11-02 | 2016-11-02 | |
US62/416,341 | 2016-11-02 | ||
PCT/US2017/053753 WO2018067357A2 (en) | 2016-10-05 | 2017-09-27 | Periocular test for mixed reality calibration |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022034301A Division JP2022069522A (ja) | 2016-10-05 | 2022-03-07 | 複合現実較正のための眼球周囲試験 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020502849A true JP2020502849A (ja) | 2020-01-23 |
JP2020502849A5 JP2020502849A5 (ja) | 2021-10-21 |
JP7090601B2 JP7090601B2 (ja) | 2022-06-24 |
Family
ID=61757231
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019517930A Active JP7090601B2 (ja) | 2016-10-05 | 2017-09-27 | 複合現実較正のための眼球周囲試験 |
JP2022034301A Pending JP2022069522A (ja) | 2016-10-05 | 2022-03-07 | 複合現実較正のための眼球周囲試験 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022034301A Pending JP2022069522A (ja) | 2016-10-05 | 2022-03-07 | 複合現実較正のための眼球周囲試験 |
Country Status (6)
Country | Link |
---|---|
US (4) | US10573042B2 (ja) |
EP (1) | EP3523782A4 (ja) |
JP (2) | JP7090601B2 (ja) |
KR (4) | KR102402467B1 (ja) |
IL (2) | IL295059A (ja) |
WO (1) | WO2018067357A2 (ja) |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL308285B1 (en) * | 2013-03-11 | 2024-07-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
CA3160567A1 (en) | 2013-03-15 | 2014-09-18 | Magic Leap, Inc. | Display system and method |
US10359806B2 (en) * | 2016-03-28 | 2019-07-23 | Sony Interactive Entertainment Inc. | Pressure sensing to identify fitness and comfort of virtual reality headset |
US10573042B2 (en) | 2016-10-05 | 2020-02-25 | Magic Leap, Inc. | Periocular test for mixed reality calibration |
CN106873159A (zh) | 2017-02-27 | 2017-06-20 | 阿里巴巴集团控股有限公司 | 虚拟现实头戴设备 |
CN106932904A (zh) | 2017-02-27 | 2017-07-07 | 阿里巴巴集团控股有限公司 | 虚拟现实头戴设备 |
KR102324468B1 (ko) * | 2017-03-28 | 2021-11-10 | 삼성전자주식회사 | 얼굴 인증을 위한 장치 및 방법 |
US10488920B2 (en) * | 2017-06-02 | 2019-11-26 | Htc Corporation | Immersive headset system and control method thereof |
US11138301B1 (en) * | 2017-11-20 | 2021-10-05 | Snap Inc. | Eye scanner for user identification and security in an eyewear device |
CA3087333A1 (en) | 2018-01-17 | 2019-07-25 | Magic Leap, Inc. | Eye center of rotation determination, depth plane selection, and render camera positioning in display systems |
KR20200108857A (ko) | 2018-01-17 | 2020-09-21 | 매직 립, 인코포레이티드 | 디스플레이와 사용자의 눈들 사이의 정합을 결정하기 위한 디스플레이 시스템들 및 방법들 |
US10634913B2 (en) * | 2018-01-22 | 2020-04-28 | Symbol Technologies, Llc | Systems and methods for task-based adjustable focal distance for heads-up displays |
US20210056414A1 (en) * | 2018-02-02 | 2021-02-25 | National University Corporation Hokkaido University | Learning apparatus, learning method, and program for learning apparatus, as well as information output apparatus, information ouput method, and information output program |
US11093208B2 (en) * | 2018-02-16 | 2021-08-17 | Valve Corporation | Using detected pupil location to align optical components of a head-mounted display |
US10586344B2 (en) * | 2018-02-21 | 2020-03-10 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for feature screening in SLAM |
US10948983B2 (en) * | 2018-03-21 | 2021-03-16 | Samsung Electronics Co., Ltd. | System and method for utilizing gaze tracking and focal point tracking |
US10491890B1 (en) * | 2018-05-14 | 2019-11-26 | Dell Products L.P. | Systems and methods for automatic adjustment for vertical and rotational imbalance in augmented and virtual reality head-mounted displays |
CN110488489B (zh) * | 2018-05-15 | 2022-10-11 | 苹果公司 | 用于头戴式壳体的眼睛登记 |
US10846923B2 (en) * | 2018-05-24 | 2020-11-24 | Microsoft Technology Licensing, Llc | Fusion of depth images into global volumes |
CN108732764B (zh) * | 2018-06-06 | 2024-05-31 | 北京七鑫易维信息技术有限公司 | 一种智能眼镜、眼球轨迹的追踪方法、装置及存储介质 |
US11624909B2 (en) | 2018-06-18 | 2023-04-11 | Magic Leap, Inc. | Head-mounted display systems with power saving functionality |
US10867164B2 (en) * | 2018-06-29 | 2020-12-15 | Intel Corporation | Methods and apparatus for real-time interactive anamorphosis projection via face detection and tracking |
WO2020023672A1 (en) | 2018-07-24 | 2020-01-30 | Magic Leap, Inc. | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes |
JP7382387B2 (ja) | 2018-07-24 | 2023-11-16 | マジック リープ, インコーポレイテッド | ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法 |
US10823970B2 (en) | 2018-08-23 | 2020-11-03 | Apple Inc. | Head-mounted electronic display device with lens position sensing |
CN109344714B (zh) * | 2018-08-31 | 2022-03-15 | 电子科技大学 | 一种基于关键点匹配的视线估计方法 |
JP7093418B2 (ja) * | 2018-09-20 | 2022-06-29 | 富士フイルム株式会社 | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |
CN109558665B (zh) * | 2018-11-22 | 2023-01-10 | 杭州美戴科技有限公司 | 一种个性化柔性鼻托的自动设计方法 |
CN109756723B (zh) * | 2018-12-14 | 2021-06-11 | 深圳前海达闼云端智能科技有限公司 | 获取影像的方法和装置,存储介质和电子设备 |
WO2020152585A1 (en) | 2019-01-21 | 2020-07-30 | Insightness Ag | Transparent smartphone |
CN113614783A (zh) | 2019-01-25 | 2021-11-05 | 奇跃公司 | 使用具有不同曝光时间的图像的眼睛跟踪 |
US11099394B2 (en) * | 2019-02-26 | 2021-08-24 | Google Llc | Systems, devices, and methods for aligning a diffractive element in a wearable heads-up display |
DE102019107001A1 (de) * | 2019-03-19 | 2020-09-24 | OSRAM CONTINENTAL GmbH | Optische Vorrichtung, Anordnung, Fahrzeug und Verfahren |
WO2020197537A1 (en) | 2019-03-22 | 2020-10-01 | Hewlett-Packard Development Company, L.P. | Detecting eye measurements |
WO2020209491A1 (en) * | 2019-04-11 | 2020-10-15 | Samsung Electronics Co., Ltd. | Head-mounted display device and operating method of the same |
US11315288B2 (en) | 2019-05-20 | 2022-04-26 | Magic Leap, Inc. | Systems and techniques for estimating eye pose |
US11749018B1 (en) | 2019-05-28 | 2023-09-05 | Apple Inc. | Eye enrollment for head-mounted enclosure |
CN112233212A (zh) * | 2019-06-28 | 2021-01-15 | 微软技术许可有限责任公司 | 人像编辑与合成 |
EP3786767B1 (en) * | 2019-07-29 | 2023-11-08 | HTC Corporation | Eye tracking method, head-mounted display, and computer readable storage medium |
CN110688002B (zh) * | 2019-09-06 | 2023-12-19 | 广东虚拟现实科技有限公司 | 虚拟内容的调整方法、装置、终端设备及存储介质 |
SE543354C2 (en) | 2019-09-30 | 2020-12-15 | Tobii Ab | Methods and systems for a head-mounted device for updating an eye tracking model |
US11228745B2 (en) * | 2019-11-26 | 2022-01-18 | Varjo Technologies Oy | Display apparatus and method of correcting image distortion therefor |
US11269181B2 (en) | 2019-12-09 | 2022-03-08 | Magic Leap, Inc. | Systems and methods for operating a head-mounted display system based on user identity |
US11127380B2 (en) | 2019-12-13 | 2021-09-21 | Qualcomm Incorporated | Content stabilization for head-mounted displays |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
US11580657B2 (en) | 2020-03-30 | 2023-02-14 | Snap Inc. | Depth estimation using biometric data |
IL299775A (en) | 2020-07-15 | 2023-03-01 | Magic Leap Inc | Eye tracking using an aspheric cornea model |
US11379957B1 (en) * | 2021-02-23 | 2022-07-05 | Qualcomm Incorporated | Head wearable display device calibrated for distortion correction using inter-pupillary distance |
US12008157B2 (en) * | 2021-03-01 | 2024-06-11 | Qualcomm Incorporated | Movement detection of a head mounted device |
GB2606346B (en) * | 2021-04-28 | 2023-10-25 | Sony Interactive Entertainment Inc | System and method of head mounted display personalisation |
US11868523B2 (en) | 2021-07-01 | 2024-01-09 | Google Llc | Eye gaze classification |
US11740322B2 (en) * | 2021-09-10 | 2023-08-29 | Htc Corporation | Head mounted display device and position device thereof |
KR102409188B1 (ko) * | 2021-11-09 | 2022-06-15 | 주식회사 아진엑스텍 | 증강현실 영상 출력 제어 방법 및 장치 |
US11722655B2 (en) * | 2021-11-30 | 2023-08-08 | SoliDDD Corp. | Low latency networking of plenoptic data |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09193803A (ja) * | 1996-01-19 | 1997-07-29 | Furukawa Electric Co Ltd:The | プラットホーム付近の安全監視方法 |
WO2012172719A1 (ja) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | ヘッドマウントディスプレイおよびその位置ずれ調整方法 |
US20140375542A1 (en) * | 2013-06-25 | 2014-12-25 | Steve Robbins | Adjusting a near-eye display device |
JP2016526237A (ja) * | 2013-06-07 | 2016-09-01 | 株式会社ソニー・インタラクティブエンタテインメント | 頭部装着ディスプレイにおけるオペレーション・モード・スイッチング |
Family Cites Families (87)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US5844656A (en) | 1996-11-07 | 1998-12-01 | Xybernaut Corporation | Head mounted display with adjustment components |
EP1039417B1 (en) | 1999-03-19 | 2006-12-20 | Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. | Method and device for the processing of images based on morphable models |
US7312766B1 (en) | 2000-09-22 | 2007-12-25 | Canadian Space Agency | Method and system for time/motion compensation for head mounted displays |
US7255437B2 (en) | 2003-10-09 | 2007-08-14 | Howell Thomas A | Eyeglasses with activity monitoring |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
JP4379409B2 (ja) * | 2005-11-08 | 2009-12-09 | ソニー株式会社 | 撮像装置、および情報処理方法、並びにコンピュータ・プログラム |
US8066372B2 (en) | 2007-10-23 | 2011-11-29 | Mcgill University | Binocular vision assessment and/or therapy |
US20120249797A1 (en) | 2010-02-28 | 2012-10-04 | Osterhout Group, Inc. | Head-worn adaptive display |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
KR101890328B1 (ko) | 2010-12-24 | 2018-08-21 | 매직 립, 인코포레이티드 | 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템 |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
EP3462286A1 (en) | 2011-05-06 | 2019-04-03 | Magic Leap, Inc. | Massive simultaneous remote digital presence world |
US8184067B1 (en) | 2011-07-20 | 2012-05-22 | Google Inc. | Nose bridge sensor |
KR20140059213A (ko) * | 2011-08-30 | 2014-05-15 | 마이크로소프트 코포레이션 | 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이 |
US9025252B2 (en) | 2011-08-30 | 2015-05-05 | Microsoft Technology Licensing, Llc | Adjustment of a mixed reality display for inter-pupillary distance alignment |
WO2013049861A1 (en) | 2011-09-29 | 2013-04-04 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
US20130083003A1 (en) * | 2011-09-30 | 2013-04-04 | Kathryn Stone Perez | Personal audio/visual system |
CA3164530C (en) | 2011-10-28 | 2023-09-19 | Magic Leap, Inc. | System and method for augmented and virtual reality |
US8929589B2 (en) | 2011-11-07 | 2015-01-06 | Eyefluence, Inc. | Systems and methods for high-resolution gaze tracking |
US9311883B2 (en) * | 2011-11-11 | 2016-04-12 | Microsoft Technology Licensing, Llc | Recalibration of a flexible mixed reality device |
JP6250547B2 (ja) | 2011-11-23 | 2017-12-20 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 3次元仮想現実および拡張現実表示システム |
JP5632100B2 (ja) | 2011-11-24 | 2014-11-26 | 株式会社Nttドコモ | 表情出力装置及び表情出力方法 |
JP6028357B2 (ja) | 2012-03-22 | 2016-11-16 | ソニー株式会社 | ヘッドマウントディスプレイ及び手術システム |
CA3111134A1 (en) | 2012-04-05 | 2013-10-10 | Magic Leap, Inc. | Wide-field of view (fov) imaging devices with active foveation capability |
US9001427B2 (en) | 2012-05-30 | 2015-04-07 | Microsoft Technology Licensing, Llc | Customized head-mounted display device |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
CN107817555A (zh) | 2012-06-11 | 2018-03-20 | 奇跃公司 | 使用波导反射器阵列投射器的多深度平面三维显示器 |
US20130339433A1 (en) * | 2012-06-15 | 2013-12-19 | Duke University | Method and apparatus for content rating using reaction sensing |
WO2014043196A1 (en) | 2012-09-11 | 2014-03-20 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
JP2014064248A (ja) | 2012-09-24 | 2014-04-10 | Ntt Docomo Inc | 画像投影装置及び画像投影方法 |
US8860634B2 (en) * | 2012-10-11 | 2014-10-14 | Sony Computer Entertainment Europe Limited | Head mountable display |
US9996150B2 (en) | 2012-12-19 | 2018-06-12 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
IL293789B2 (en) | 2013-01-15 | 2023-08-01 | Magic Leap Inc | A system for scanning electromagnetic imaging radiation |
IL308285B1 (en) | 2013-03-11 | 2024-07-01 | Magic Leap Inc | System and method for augmentation and virtual reality |
CA3160567A1 (en) | 2013-03-15 | 2014-09-18 | Magic Leap, Inc. | Display system and method |
US9264803B1 (en) * | 2013-06-05 | 2016-02-16 | Google Inc. | Using sounds for determining a worn state of a wearable computing device |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US20140375540A1 (en) | 2013-06-24 | 2014-12-25 | Nathan Ackerman | System for optimal eye fit of headset display device |
US9256987B2 (en) | 2013-06-24 | 2016-02-09 | Microsoft Technology Licensing, Llc | Tracking head movement when wearing mobile device |
CN105492957B (zh) | 2013-06-27 | 2019-09-24 | Cy 视觉公司 | 采用成对眼镜形式的图像显示设备 |
US10345903B2 (en) | 2013-07-30 | 2019-07-09 | Microsoft Technology Licensing, Llc | Feedback for optic positioning in display devices |
KR102270674B1 (ko) | 2013-09-30 | 2021-07-01 | 삼성전자주식회사 | 생체인식 카메라 |
CA2927818C (en) | 2013-10-16 | 2021-11-30 | Magic Leap, Inc. | Virtual or augmented reality headsets having adjustable interpupillary distance |
IL305162A (en) | 2013-11-27 | 2023-10-01 | Magic Leap Inc | Virtual and augmented reality systems and methods |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
US8958158B1 (en) * | 2013-12-03 | 2015-02-17 | Google Inc. | On-head detection for head-mounted display |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
KR102207799B1 (ko) | 2014-01-31 | 2021-01-26 | 매직 립, 인코포레이티드 | 멀티-포컬 디스플레이 시스템 및 방법 |
WO2015117043A1 (en) | 2014-01-31 | 2015-08-06 | Magic Leap, Inc. | Multi-focal display system and method |
US10228562B2 (en) * | 2014-02-21 | 2019-03-12 | Sony Interactive Entertainment Inc. | Realtime lens aberration correction from eye tracking |
KR101950562B1 (ko) * | 2014-02-25 | 2019-02-20 | 아이베리파이 인크. | 시선 추적 |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10430985B2 (en) | 2014-03-14 | 2019-10-01 | Magic Leap, Inc. | Augmented reality systems and methods utilizing reflections |
US9754415B2 (en) * | 2014-03-27 | 2017-09-05 | Microsoft Technology Licensing, Llc | Display relative motion compensation |
US9672416B2 (en) | 2014-04-29 | 2017-06-06 | Microsoft Technology Licensing, Llc | Facial expression tracking |
US9652893B2 (en) * | 2014-04-29 | 2017-05-16 | Microsoft Technology Licensing, Llc | Stabilization plane determination based on gaze location |
EP3140780B1 (en) | 2014-05-09 | 2020-11-04 | Google LLC | Systems and methods for discerning eye signals and continuous biometric identification |
KR102193052B1 (ko) | 2014-05-30 | 2020-12-18 | 매직 립, 인코포레이티드 | 가상 또는 증강 현실 장치로 가상 콘텐츠 디스플레이를 생성하기 위한 방법들 및 시스템들 |
US9830739B2 (en) * | 2014-06-17 | 2017-11-28 | Google Inc. | Automultiscopic display with viewpoint tracking and scalability for multiple views |
US9965030B2 (en) | 2014-07-31 | 2018-05-08 | Samsung Electronics Co., Ltd. | Wearable glasses and method of displaying image via the wearable glasses |
KR102361025B1 (ko) * | 2014-07-31 | 2022-02-08 | 삼성전자주식회사 | 웨어러블 글래스 및 웨어러블 글래스를 통하여 영상을 디스플레이하는 방법 |
US9719871B2 (en) * | 2014-08-09 | 2017-08-01 | Google Inc. | Detecting a state of a wearable device |
US9389733B2 (en) * | 2014-08-18 | 2016-07-12 | Sony Corporation | Modal body touch using ultrasound |
US9922236B2 (en) * | 2014-09-17 | 2018-03-20 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable eyeglasses for providing social and environmental awareness |
US9808185B2 (en) * | 2014-09-23 | 2017-11-07 | Fitbit, Inc. | Movement measure generation in a wearable electronic device |
GB2534580B (en) | 2015-01-28 | 2020-06-17 | Sony Interactive Entertainment Europe Ltd | Image processing |
JP2016149660A (ja) * | 2015-02-13 | 2016-08-18 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
EP3335070B1 (en) * | 2015-09-30 | 2020-11-25 | Sony Interactive Entertainment Inc. | Methods for optimizing positioning of content on a screen of a head mounted display |
US9652896B1 (en) * | 2015-10-30 | 2017-05-16 | Snap Inc. | Image based tracking in augmented reality systems |
KR20170051013A (ko) | 2015-11-02 | 2017-05-11 | 엘지전자 주식회사 | 테더링 형 hmd 및 그 hmd의 제어 방법 |
CN108476311B (zh) | 2015-11-04 | 2021-04-27 | 奇跃公司 | 可穿戴显示***和用于校准可穿戴显示器的方法 |
KR102439768B1 (ko) | 2016-01-07 | 2022-09-01 | 매직 립, 인코포레이티드 | 심도 평면들에 걸쳐 분포된 동일하지 않은 수의 컴포넌트 컬러 이미지들을 갖는 가상 및 증강 현실 시스템들 및 방법들 |
KR102567431B1 (ko) | 2016-01-19 | 2023-08-14 | 매직 립, 인코포레이티드 | 눈 이미지 수집, 선택 및 결합 |
JP6775957B2 (ja) * | 2016-01-29 | 2020-10-28 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
KR20230144666A (ko) | 2016-02-11 | 2023-10-16 | 매직 립, 인코포레이티드 | 깊이 평면들 간의 감소된 스위칭을 갖는 다중-깊이 평면 디스플레이 시스템 |
US10133358B1 (en) * | 2016-06-01 | 2018-11-20 | Google Llc | Fitting detection for a bone conduction transducer (BCT) using an inertial measurement unit (IMU) sensor |
US10139644B2 (en) | 2016-07-01 | 2018-11-27 | Tilt Five, Inc | Head mounted projection display with multilayer beam splitter and color correction |
US10573042B2 (en) | 2016-10-05 | 2020-02-25 | Magic Leap, Inc. | Periocular test for mixed reality calibration |
US11494986B2 (en) | 2017-04-20 | 2022-11-08 | Samsung Electronics Co., Ltd. | System and method for two dimensional application usage in three dimensional virtual reality environment |
KR20200108857A (ko) | 2018-01-17 | 2020-09-21 | 매직 립, 인코포레이티드 | 디스플레이와 사용자의 눈들 사이의 정합을 결정하기 위한 디스플레이 시스템들 및 방법들 |
JP7382387B2 (ja) | 2018-07-24 | 2023-11-16 | マジック リープ, インコーポレイテッド | ディスプレイとユーザの眼との間の位置合わせを決定するためのディスプレイシステムおよび方法 |
-
2017
- 2017-09-27 US US15/717,747 patent/US10573042B2/en active Active
- 2017-09-27 IL IL295059A patent/IL295059A/en unknown
- 2017-09-27 KR KR1020217018967A patent/KR102402467B1/ko active IP Right Grant
- 2017-09-27 KR KR1020227017129A patent/KR102657100B1/ko active IP Right Grant
- 2017-09-27 KR KR1020247011712A patent/KR20240052085A/ko not_active Application Discontinuation
- 2017-09-27 KR KR1020197011884A patent/KR102269065B1/ko active IP Right Grant
- 2017-09-27 WO PCT/US2017/053753 patent/WO2018067357A2/en active Application Filing
- 2017-09-27 IL IL265734A patent/IL265734B/en unknown
- 2017-09-27 JP JP2019517930A patent/JP7090601B2/ja active Active
- 2017-09-27 EP EP17858914.9A patent/EP3523782A4/en active Pending
-
2020
- 2020-02-03 US US16/780,698 patent/US11100692B2/en active Active
-
2021
- 2021-07-26 US US17/385,724 patent/US11906742B2/en active Active
-
2022
- 2022-03-07 JP JP2022034301A patent/JP2022069522A/ja active Pending
-
2023
- 2023-12-29 US US18/401,020 patent/US20240134200A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09193803A (ja) * | 1996-01-19 | 1997-07-29 | Furukawa Electric Co Ltd:The | プラットホーム付近の安全監視方法 |
WO2012172719A1 (ja) * | 2011-06-16 | 2012-12-20 | パナソニック株式会社 | ヘッドマウントディスプレイおよびその位置ずれ調整方法 |
JP2016526237A (ja) * | 2013-06-07 | 2016-09-01 | 株式会社ソニー・インタラクティブエンタテインメント | 頭部装着ディスプレイにおけるオペレーション・モード・スイッチング |
US20140375542A1 (en) * | 2013-06-25 | 2014-12-25 | Steve Robbins | Adjusting a near-eye display device |
Also Published As
Publication number | Publication date |
---|---|
US20180096503A1 (en) | 2018-04-05 |
US20240134200A1 (en) | 2024-04-25 |
US10573042B2 (en) | 2020-02-25 |
WO2018067357A2 (en) | 2018-04-12 |
EP3523782A4 (en) | 2020-06-24 |
US11100692B2 (en) | 2021-08-24 |
KR20190058581A (ko) | 2019-05-29 |
KR20240052085A (ko) | 2024-04-22 |
KR20210077806A (ko) | 2021-06-25 |
IL295059A (en) | 2022-09-01 |
IL265734B (en) | 2022-09-01 |
KR20220072879A (ko) | 2022-06-02 |
US11906742B2 (en) | 2024-02-20 |
WO2018067357A3 (en) | 2019-05-23 |
JP2022069522A (ja) | 2022-05-11 |
IL265734A (en) | 2019-05-30 |
US20220020192A1 (en) | 2022-01-20 |
KR102402467B1 (ko) | 2022-05-25 |
US20200250872A1 (en) | 2020-08-06 |
KR102269065B1 (ko) | 2021-06-24 |
KR102657100B1 (ko) | 2024-04-12 |
JP7090601B2 (ja) | 2022-06-24 |
EP3523782A2 (en) | 2019-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11906742B2 (en) | Periocular test for mixed reality calibration | |
JP7378431B2 (ja) | フレーム変調機能性を伴う拡張現実ディスプレイ | |
JP7307119B2 (ja) | 完全な顔画像の眼球周囲およびオーディオ合成 | |
JP7186844B2 (ja) | ウェアラブルデバイスによる顔モデル捕捉 | |
US11906732B2 (en) | Head-mounted display systems with power saving functionality | |
JP7502292B2 (ja) | アバタ移動のためのマルチモードの手の場所および配向 | |
JP2023096152A (ja) | 眼追跡カメラからの顔の表情 | |
US20240027794A1 (en) | Virtual object movement speed curve for virtual and augmented reality display systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200924 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200924 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200924 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210408 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210707 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20210908 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220307 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220307 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220316 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220317 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7090601 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |