CN117425889A - 作为生物计量信号的弯曲估计 - Google Patents
作为生物计量信号的弯曲估计 Download PDFInfo
- Publication number
- CN117425889A CN117425889A CN202280035563.7A CN202280035563A CN117425889A CN 117425889 A CN117425889 A CN 117425889A CN 202280035563 A CN202280035563 A CN 202280035563A CN 117425889 A CN117425889 A CN 117425889A
- Authority
- CN
- China
- Prior art keywords
- user
- flexible device
- bend
- biometric data
- estimate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 62
- 238000005452 bending Methods 0.000 claims abstract description 33
- 238000012549 training Methods 0.000 claims abstract description 30
- 230000015654 memory Effects 0.000 claims description 39
- 230000003190 augmentative effect Effects 0.000 claims description 15
- 230000001815 facial effect Effects 0.000 claims description 6
- 239000011521 glass Substances 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 4
- 210000003128 head Anatomy 0.000 description 55
- 238000004891 communication Methods 0.000 description 36
- 230000003287 optical effect Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 17
- 230000000007 visual effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 7
- 239000008186 active pharmaceutical agent Substances 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000013000 roll bending Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 230000036772 blood pressure Effects 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 230000005693 optoelectronics Effects 0.000 description 2
- 150000003071 polychlorinated biphenyls Chemical class 0.000 description 2
- 230000004266 retinal recognition Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000278713 Theora Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000008261 resistance mechanism Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
描述了一种用于基于柔性设备的弯曲生成参考生物计量数据的方法。在一个方面,一种方法包括:形成训练数据,所述训练数据包括由第一用户佩戴的柔性设备的弯曲估计;基于该训练数据训练模型;以及基于该模型生成第一用户的参考生物计量数据。
Description
相关申请
本申请要求于2021年9月29日提交的美国申请序列号17/489,394的优先权的权益,该美国申请要求于2021年5月18日提交的美国临时专利申请序列号63/189,944的优先权,上述申请中的每一个通过引用整体并入于此。
技术领域
本文中公开的主题总体上涉及视觉跟踪***。具体地,本公开内容提出了用于基于视觉跟踪***的弯曲估计生成生物计量信号的***和方法。
背景技术
增强现实(AR)设备使用户能够观察场景,并且同时看到可以与设备的视野中的项、图像、对象或环境对准的相关虚拟内容。虚拟现实(VR)设备提供了比AR设备更沉浸式的体验。VR设备用基于VR设备的定位和取向显示的虚拟内容遮挡用户的视野。
附图说明
为了容易地标识对任何特定元素或动作的讨论,附图标记中的一个或多个最高位数字指代该元素被首次引入时所在的图号。
图1是示出根据一个示例实施方式的用于操作AR/VR显示设备的环境的框图。
图2是示出根据一个示例实施方式的AR/VR显示设备的框图。
图3是示出根据一个示例实施方式的视觉跟踪***的框图。
图4是示出根据一个示例实施方式的生物计量模块的框图。
图5是示出根据一个示例实施方式的用于生成生物计量数据的方法的流程图。
图6是示出根据一个示例实施方式的用于认证用户的方法的流程图。
图7是示出根据一个示例实施方式的用于认证用户的方法的流程图。
图8是示出根据一个示例实施方式的用于认证用户的方法的流程图。
图9示出了根据一个实施方式的柔性设备在不同头部尺寸上的弯曲。
图10示出了根据一个实施方式的由柔性设备的弯曲引起的未对准误差。
图11示出了根据一个实施方式的俯仰-滚转未对准。
图12示出了根据一个示例实施方式的头可穿戴装置。
图13示出了根据一个示例实施方式的其中可以实现头可穿戴装置的网络环境。
图14是示出根据示例实施方式的其内可以实现本公开内容的软件架构的框图。
图15是根据一个示例实施方式的呈计算机***形式的机器的图解表示,在该机器内,可以执行指令集合以使机器执行本文中讨论的方法中的任何一种或更多种方法。
具体实施方式
下面的描述描述了示出本主题的示例实施方式的***、方法、技术、指令序列和计算机器程序产品。在下面的描述中,出于说明的目的,阐述了许多具体细节以提供对本主题的各种实施方式的理解。然而,对于本领域技术人员而言将明显的是,可以在没有这些具体细节中的一些或其他细节的情况下实践本主题的实施方式。示例仅仅代表了可能的变型。除非另有明确说明,否则结构(例如,结构部件,诸如模块)是可选的,并且可以被组合或细分,并且操作(例如,在过程、算法或其他功能中)可以在顺序上变化或者被组合或细分。
本文中使用术语“增强现实”(AR)来指代真实世界环境的交互式体验,其中驻留在真实世界中的物理对象被计算机生成的数字内容(也称为虚拟内容或合成内容)所“增强”或加强。AR也可以指代一种***,该***实现真实和虚拟世界的结合,实时交互,以及虚拟和真实对象的3D注册。AR***的用户感知虚拟内容,该虚拟内容看起来与真实世界物理对象附接或交互。
本文中使用术语“虚拟现实”(VR)来指代完全不同于真实世界环境的虚拟世界环境的模拟体验。计算机生成的数字内容被显示在虚拟世界环境中。VR也指代一种***,该***使得VR***的用户能够完全沉浸在虚拟世界环境中,并与虚拟世界环境中存在的虚拟对象进行交互。
本文中使用术语“AR应用”来指代实现AR体验的计算机操作的应用。本文中使用术语“VR应用”来指代实现VR体验的计算机操作的应用。术语“AR/VR应用”指代实现AR体验或VR体验的结合的计算机操作的应用。
本文中使用术语“视觉跟踪***”来指代使得***能够跟踪在由视觉跟踪***的一个或更多个摄像装置捕获的图像中识别的视觉特征的计算机操作的应用或***。视觉跟踪***基于所跟踪的视觉特征来构建真实世界环境的模型。视觉跟踪***的非限制性示例包括:视觉同步定位和映射***(VSLAM)和视觉惯性里程计(VIO)***。VSLAM可以用于基于视觉跟踪***的一个或更多个摄像装置从环境或场景构建目标。VIO(也称为视觉惯性跟踪***)基于从设备的多个传感器(例如,光学传感器、惯性传感器)获取的数据来确定设备的最新姿势(例如,定位和取向)。
本文中使用术语“惯性测量单元”(IMU)来指代可以报告运动主体的惯性状态——包括运动主体的加速度、速度、取向和定位——的设备。IMU使得能够通过整合由IMU测量的加速度和角速度来跟踪主体的运动。IMU也可以指代加速度计和陀螺仪的组合,加速度计和陀螺仪可以分别确定和量化线性加速度和角速度。从IMU陀螺仪获得的值可以被处理,以获得IMU的俯仰、滚转和航向,并且因此,获得IMU与其相关联的主体的俯仰、滚转和航向。来自IMU的加速度计的信号也可以被处理,以获得IMU的速度和位移。
本文中使用术语“柔性设备”来指代能够弯曲而不破坏的设备。柔性设备的非限制性示例包括:诸如眼镜的头戴式设备、诸如AR/VR眼镜的柔性显示设备、或者能够弯曲而不破坏以适合用户身体部位的任何其他可穿戴设备。
AR和VR应用都允许用户访问信息,例如以在AR/VR显示设备(也称为显示设备、柔性设备、柔性显示设备)的显示器中呈现的虚拟内容的形式。虚拟内容的呈现可以基于显示设备相对于物理对象或相对于参照系(在显示设备外部)的定位,使得虚拟内容正确地出现在显示器中。对于AR,虚拟内容看起来与用户和AR显示设备的摄像装置感知到的物理对象对准。虚拟内容看起来附属于物理世界(例如,感兴趣的物理对象)。为了做到这一点,AR显示设备检测物理对象并跟踪AR显示设备相对于物理对象的定位的姿势。姿势对显示设备相对于参照系或相对于另一对象的定位和取向进行标识。对于VR,虚拟对象出现在基于VR显示设备的姿势的位置处。因此,基于设备的最新姿势来刷新虚拟内容。显示设备处的视觉跟踪***确定显示设备的姿势。
包括视觉跟踪***的柔性设备可以使用安装在柔性设备上的两个摄像装置来在立体视觉上操作。例如,一个摄像装置被安装至柔性设备的框架的左镜腿(temple),并且另一摄像装置被安装至柔性设备的框架的右镜腿。该柔性设备可以弯曲以适应不同的用户头部尺寸。弯曲的估计可以被收集并用于生成佩戴柔性设备的用户独有的生物计量数据。在一个示例中,柔性设备学习柔性设备的特定用户的头部尺寸和弯曲角度。
然后,基于弯曲的生物计量数据可以用于认证佩戴柔性设备的人。当柔性设备检测到弯曲估计与基于弯曲的生物计量数据不匹配时,柔性设备生成警报通知或生成认证程序(例如,请求用户通过其他方式认证他自己/她自己,所述其他方式例如输入用户名和密码或使用从柔性设备获得的其他生物计量数据(例如,声纹、虹膜/视网膜)。
在一个示例实施方式中,描述了一种用于基于柔性设备的弯曲生成参考生物计量数据的方法。在一个方面,一种方法包括:形成训练数据,所述训练数据包括由第一用户佩戴的柔性设备的弯曲估计;基于该训练数据训练模型;以及基于该模型生成第一用户的参考生物计量数据。
结果,本文中描述的方法中的一种或更多种方法有助于解决来自柔性设备的立体提取的不准确的深度感测的技术问题。换言之,柔性设备的弯曲导致深度感测的误差。目前描述的方法通过矫正来自被弯曲的柔性立体到深度设备的深度图来提供对计算设备的功能操作的改进。因此,本文中描述的方法中的一种或更多种方法可以避免对某些努力或计算资源的需要。这样的计算资源的示例包括处理器周期、网络流量、存储器使用、数据存储容量、功耗、网络带宽和冷却容量。
图1是示出根据一些示例实施方式的适于操作AR/VR显示设备106的环境100的网络图。环境100包括用户102、AR/VR显示设备106和物理对象104。用户102操作AR/VR显示设备106。用户102可以是人类用户(例如,人类)、机器用户(例如,由软件程序配置成与AR/VR显示设备106交互的计算机)或其任何合适的组合(例如,由机器辅助的人类或由人类监督的机器)。用户102与AR/VR显示设备106相关联。
AR/VR显示设备106包括柔性设备。在一个示例中,柔性设备包括具有显示器的计算设备,例如智能电话、平板计算机或可穿戴计算设备(例如,手表或眼镜)。计算设备可以是手持式的,或者可以可移动地安装到用户102的头部。在一个示例中,显示器包括显示用AR/VR显示设备106的摄像装置捕获的图像的屏幕。在另一示例中,设备的显示器可以是透明的,例如在可穿戴计算眼镜的镜片中。在其他示例中,显示器可以是不透明的、部分透明的、部分不透明的。在其他示例中,显示器可以由用户102可穿戴以覆盖用户102的视野。
AR/VR显示设备106包括基于用AR/VR显示设备106的摄像装置检测到的图像来生成虚拟内容的AR应用。例如,用户102可以指引AR/VR显示设备106的摄像装置捕获物理对象104的图像。AR应用生成与图像中的所识别对象(例如,物理对象104)相对应的虚拟内容,并在AR/VR显示设备106的显示器中呈现该虚拟内容。
AR/VR显示设备106包括视觉跟踪***108。视觉跟踪***108使用例如光学传感器(例如,启用深度的3D摄像装置、图像摄像装置)、惯性传感器(例如,陀螺仪、加速度计)、无线传感器(蓝牙、Wi-Fi)、GPS传感器和音频传感器来跟踪AR/VR显示设备106相对于真实世界环境110的姿势(例如,定位和取向)。视觉跟踪***108可以包括VIO***。在一个示例中,AR/VR显示设备106基于AR/VR显示设备106相对于真实世界环境110和/或物理对象104的姿势来显示虚拟内容。
图1中示出的机器、数据库或设备中的任何一个都可以在如下通用计算机中实现,该通用计算机被软件修改(例如,配置或编程)为专用计算机,以执行本文针对该机器、数据库或设备描述的功能中的一个或更多个功能。例如,下面参照图5至图8讨论能够实现本文中描述的方法中的任何一种或更多种方法的计算机***。如本文中使用的,“数据库”是数据存储资源,并且可以存储被结构化为文本文件、表格、电子表格、关系数据库(例如,对象-关系数据库)、三元组存储、分层数据存储或其任何合适组合的数据。此外,图1中示出的机器、数据库或设备中的任何两个或更多个可以组合成单个机器,并且本文中针对任何单个机器、数据库或设备描述的功能可以在多个机器、数据库或设备之间细分。
AR/VR显示设备106可以通过计算机网络进行操作。计算机网络可以是使得能够在机器、数据库和设备之间或之中进行通信的任何网络。因此,计算机网络可以是有线网络、无线网络(例如,移动或蜂窝网络)或其任何合适的组合。计算机网络可以包括构成专用网络、公共网络(例如,因特网)或其任何适当组合的一个或更多个部分。
图2是示出根据一些示例实施方式的AR/VR显示设备106的模块(例如,部件)的框图。AR/VR显示设备106包括传感器202、显示器204、处理器208和存储设备206。AR/VR显示设备106的示例包括可穿戴计算设备、台式计算机、车载计算机、平板计算机、导航设备、便携式媒体设备或智能电话。
传感器202包括例如光学传感器212(例如,诸如彩色摄像装置、热感摄像装置、深度传感器和一个或多个灰度、全局快门跟踪摄像装置的摄像装置)和惯性传感器214(例如,陀螺仪、加速度计)。传感器202的其他示例包括接近传感器或位置传感器(例如,近场通信、GPS、蓝牙、Wifi)、音频传感器(例如,麦克风)或其任何合适的组合。注意,本文中描述的传感器202是为了说明的目的,并且因此传感器202不限于上述的传感器。
显示器204包括被配置成显示由处理器208生成的图像的屏幕或监视器。在一个示例实施方式中,显示器204可以是透明的或半不透明的,使得用户102可以透过显示器204观看(在AR用例中)。在另一示例实施方式中,显示器204覆盖用户102的眼睛并遮挡用户102的整个视野(在VR用例中)。在另一示例中,显示器204包括被配置成经由触摸屏显示器上的接触来接收用户输入的触摸屏显示器。
处理器208包括AR/VR应用210、视觉跟踪***108和生物计量模块216。AR/VR应用210使用计算机视觉来检测和识别物理环境或物理对象104。AR/VR应用210基于所识别的物理对象104或物理环境来检索虚拟对象(例如,3D对象模型)。AR/VR应用210在显示器204中呈现虚拟对象。对于AR应用,AR/VR应用210包括本地渲染引擎,该本地渲染引擎生成覆盖(例如,叠加在其上或者以其他方式与其一起显示)在由光学传感器212捕获的物理对象104的图像上的虚拟对象的可视化。可以通过调整物理对象104相对于光学传感器212的定位(例如,其物理位置、取向或两者)来操纵虚拟对象的可视化。类似地,可以通过调整AR/VR显示设备106相对于物理对象104的姿势来操纵虚拟对象的可视化。对于VR应用,AR/VR应用210在基于AR/VR显示设备106的姿势确定的位置(在显示器204中)处在显示器204中显示虚拟对象。
视觉跟踪***108估计AR/VR显示设备106的姿势。例如,视觉跟踪***108使用来自光学传感器212和惯性传感器214的图像数据和对应惯性数据来跟踪AR/VR显示设备106相对于参照系(例如,真实世界环境110)的位置和姿势。在一个示例中,视觉跟踪***108包括如上面先前所描述的VIO***。
生物计量模块216基于由第一用户(例如,用户102)佩戴的AR/VR显示设备106的弯曲估计来形成训练数据。生物计量模块216基于训练数据训练并生成模型(使用机器学习或任何其他数据训练技术)。生物计量模块216基于该模型生成第一用户的参考生物计量数据。例如,参考生物计量数据指示用户102的可接受弯曲估计的范围。然后,参考生物计量数据可以用于认证佩戴柔性AR/VR显示设备106的任何用户。
在一个示例实施方式中,生物计量模块216访问来自视觉跟踪***108的VIO的VIO数据,以估计俯仰-滚转弯曲和偏航弯曲。在一个示例实施方式中,生物计量模块216通过使用VIO立体匹配来估计柔性AR/VR显示设备106的弯曲。
存储设备206存储虚拟对象内容218和生物计量数据220。生物计量数据220包括用户102的参考生物计量数据。虚拟对象内容218包括例如视觉参考(例如,图像)和对应体验(例如,三维虚拟对象、三维虚拟对象的交互特征)的数据库。
本文中描述的模块中的任何一个或更多个模块可以使用硬件(例如,机器的处理器)或硬件和软件的组合来实现。例如,本文中描述的任何模块都可以将处理器配置成执行本文中针对该模块描述的操作。此外,这些模块中的任何两个或更多个可以组合成单个模块,并且本文中针对单个模块描述的功能可以在多个模块之间细分。此外,根据各种示例实施方式,本文中描述为在单个机器、数据库或设备内实现的模块可以跨多个机器、数据库或设备分布。
图3示出了根据一个示例实施方式的视觉跟踪***108。视觉跟踪***108包括例如VIO***302和深度图***304。VIO***302访问来自惯性传感器214的惯性传感器数据和来自光学传感器212的图像。
VIO***302确定AR/VR显示设备106相对于参照系(例如,真实世界环境110)的姿势(例如,位置、定位、取向)。在一个示例实施方式中,VIO***302基于来自用光学传感器212捕获的图像的特征点的3D图和用惯性传感器214捕获的惯性传感器数据来估计AR/VR显示设备106的姿势。
深度图***304访问来自光学传感器212的图像数据,并且基于来自VIO***302的VIO数据(例如,特征点深度)生成深度图。例如,深度图***304基于左图像(由左侧摄像装置生成)与右图像(由右侧摄像装置生成)之间的匹配特征的深度来生成深度图。在另一示例中,深度图***304基于立体图像中元素差异的三角测量。
图4是示出根据一个示例实施方式的生物计量模块216的框图。生物计量模块216包括弯曲估计模块408、学习模块406和认证模块410。
弯曲估计模块408估计AR/VR显示设备106在由用户佩戴时的弯曲。例如,当用户佩戴AR/VR显示设备106时,弯曲估计模块408估计一段时间(例如,每分钟)内的弯曲。在另一示例中,每当用户102佩戴AR/VR显示设备106时,弯曲估计模块408估计AR/VR显示设备106的弯曲。在一个示例中,弯曲估计模块408访问来自VIO***412的VIO数据和来自深度图***414的深度数据以估计弯曲。
弯曲估计模块408包括俯仰-滚转弯曲模块402和偏航弯曲模块404。俯仰-滚转弯曲模块402确定导致AR/VR显示设备106的俯仰或滚转偏离的弯曲。偏航弯曲模块404确定导致AR/VR显示设备106的偏航偏离的弯曲。在一个示例中,偏航弯曲模块404通过访问由VIO***412确定的3D界标来估计偏航偏离,以获得具有时间一致性的宽基线。
学习模块406接收针对用户102的来自弯曲估计模块408的弯曲估计,并且基于弯曲估计形成训练数据。学习模块406使用机器学习部件(未示出)来基于训练数据训练并生成模型。该模型基于其他参数(例如,用户在夜间、户外、一段时间后佩戴等……)来识别可接受弯曲范围。在一个示例中,该模型基于训练数据生成参考生物计量模型。
认证模块410检测新用户对AR/VR显示设备106的佩戴。例如,认证模块410检测到AR/VR显示设备106被新用户打开并佩戴。该检测触发弯曲估计模块408估计AR/VR显示设备106的弯曲。认证模块410接收来自弯曲估计模块408的新的弯曲估计。认证模块410将新的弯曲估计与(与用户102相关联的)参考生物计量数据进行比较,以认证新用户。例如,认证模块410确定来自新用户的弯曲估计在用户102的参考生物计量数据的可接受弯曲范围内。认证模块410基于认证向AR/VR应用210发出关于是准许还是拒绝新用户(对用户102的AR应用账户的)访问的命令。
图5是示出根据一个示例实施方式的用于生成生物计量数据的方法500的流程图。方法500中的操作可以由AR/VR显示设备106使用以上参照图2描述的部件(例如,模块、引擎)来执行。因此,参照AR/VR显示设备106通过示例的方式描述方法500。然而,应当理解,方法500的操作中的至少一些操作可以被部署在各种其他硬件配置上,或者由驻留在别处的类似部件来执行。
在框502中,AR/VR显示设备106估计用户的柔性设备经过几次佩戴的弯曲。在框504中,AR/VR显示设备106基于弯曲数据训练机器学习模型。在框506中,AR/VR显示设备106基于机器学习模型生成用户的生物计量数据。
要注意的是,其他实施方式可以使用不同的排序、附加的或更少的操作以及不同的命名法或术语来完成类似的功能。在一些实施方式中,各种操作可以以同步或异步的方式与其他操作并行执行。本文中描述的操作被选择来以简化的形式说明一些操作原理。
图6是示出根据一个示例实施方式的用于认证用户的方法的流程图。方法600中的操作可以由AR/VR显示设备106使用以上参照图1描述的部件(例如,模块、引擎)来执行。因此,参照AR/VR显示设备106通过示例的方式描述方法600。然而,应当理解,方法600的操作中的至少一些可以被部署在各种其他硬件配置上,或者由驻留在别处的类似部件来执行。
在框602中,AR/VR显示设备106检测用户对柔性设备的佩戴。在框604中,AR/VR显示设备106估计柔性设备的弯曲。在框606中,AR/VR显示设备106基于估计弯曲与生物计量数据的比较来认证用户。
图7是示出根据一个示例实施方式的用于认证用户的方法的流程图。方法700中的操作可以由AR/VR显示设备106使用以上参照图2描述的部件(例如,模块、引擎)来执行。因此,参照AR/VR显示设备106通过示例的方式描述方法700。然而,应当理解,方法700的操作中的至少一些可以被部署在各种其他硬件配置上,或者由驻留在别处的类似部件来执行。
在框702中,AR/VR显示设备106检测用户对柔性设备的佩戴。在框704中,AR/VR显示设备106估计柔性设备的弯曲。在判定框706中,AR/VR显示设备106确定用户是否被认证。在框708中,AR/VR显示设备106拒绝用户访问(与用户102的账户相关联的)AR体验。在框710中,AR/VR显示设备106准许用户访问与用户102的账户相关联的AR体验。
图8是示出根据一个示例实施方式的用于认证用户的方法的流程图。方法800中的操作可以由AR/VR显示设备106使用以上参照图2描述的部件(例如,模块、引擎)来执行。因此,参照AR/VR显示设备106通过示例的方式描述方法800。然而,应当理解,方法800的操作中的至少一些可以被部署在各种其他硬件配置上,或者由驻留在别处的类似部件来执行。
在框802中,AR/VR显示设备106检测新用户对柔性设备的佩戴。在框804中,AR/VR显示设备106估计柔性设备的弯曲。在判定框806中,AR/VR显示设备106确定新用户是否被认证。在框808中,AR/VR显示设备106访问(佩戴AR/VR显示设备106的新用户的)其他生物计量数据。在判定框810中,AR/VR显示设备106确定新用户是否被认证。在框812中,AR/VR显示设备106准许新用户访问与用户102的账户相关联的AR体验。
图9示出了根据一个实施方式的柔性设备在不同头部尺寸(头部尺寸902和头部尺寸904)上的弯曲。在头部尺寸904中,柔性设备被弯曲,导致偏航角偏差。
图10示出了根据一个实施方式的由柔性设备的弯曲引起的未对准误差。示例1002示出了由于俯仰/滚转弯曲而不在同一光栅线上的特征对应。示例1004示出了由于偏航弯曲的z偏差1006。
图11示出了根据一个实施方式的俯仰-滚转未对准。示例1102示出了由于弯曲而不在同一光栅线上的对应特征(左侧与右侧之间)。示例1104示出了在同一光栅线上的对应特征。
图12示出了根据一个示例实施方式的头可穿戴装置1200。图12示出了根据一个示例实施方式的头可穿戴装置1200的透视图。在一些示例中,AR/VR显示设备106可以是头可穿戴装置1200。
在图12中,头可穿戴装置1200是一副眼镜。在一些实施方式中,头可穿戴装置1200可以是太阳镜或护目镜。一些实施方式可以包括一个或更多个可穿戴设备,诸如具有集成摄像装置的坠饰,该集成摄像装置与头可穿戴装置1200或AR/VR显示设备106集成、通信或耦接。任何期望的可穿戴设备可以与本公开内容的实施方式结合使用,任何期望的可穿戴设备例如手表、耳机、腕带、耳塞、衣服(例如具有集成电子器件的帽子或夹克)、夹式电子设备或任何其他可穿戴设备。应当理解,虽然未示出,但是包括在头可穿戴装置1200中的***的一个或更多个部分可以被包括在可以结合头可穿戴装置1200使用的AR/VR显示设备106中。
在图12中,头可穿戴装置1200是包括框架1210的一副眼镜,框架1210包括分别经由铰链和/或端件耦接至两个柄(或镜腿)的镜圈(eye wires)(或镜框)。框架1210的镜圈承载或保持一对镜片(例如,镜片1212和镜片1214)。框架1210包括耦接至第一柄的第一侧(例如,右侧)和耦接至第二柄的第二侧(例如,左侧)。第一侧与框架1210的第二侧相对。
头可穿戴装置1200还包括摄像装置模块(未示出),该摄像装置模块包括摄像装置镜头(例如,摄像装置镜头1206、摄像装置镜头1208)和至少一个图像传感器。摄像装置镜头1206和摄像装置镜头1208可以是透视摄像装置镜头或非透视摄像装置镜头。非透视摄像装置镜头可以是例如鱼眼镜头、广角镜头、全向镜头等。图像传感器通过摄像装置镜头1206和摄像装置镜头1208捕获数字视频。图像可以包括静止图像帧或包括多个静止图像帧的视频。摄像装置模块可以耦接至框架1210。如图12中所示,框架1210耦接至摄像装置镜头1206和摄像装置镜头1208,使得摄像装置镜头(例如,摄像装置镜头1206、摄像装置镜头1208)面向前方。摄像装置镜头1206和摄像装置镜头1208可以垂直于镜片1212和镜片1214。摄像装置模块可以包括由框架1210的宽度或头可穿戴装置1200的用户的头部的宽度分开的双前置摄像装置。
在图12中,两个柄(或镜腿)分别耦接至麦克风壳体1202和麦克风壳体1204。第一柄和第二柄耦接至头可穿戴装置1200的框架1210的相对侧。第一柄耦接至第一麦克风壳体1202,而第二柄耦接至第二麦克风壳体1204。麦克风壳体1202和麦克风壳体1204可以在框架1210和镜腿尖的位置之间耦接至柄。当用户佩戴头可穿戴装置1200时,麦克风壳体1202和麦克风壳体1204可以位于用户的镜腿的任一侧。
如图12中示出的,麦克风壳体1202和麦克风壳体1204包裹多个麦克风(未示出)。麦克风是将声音转换为电信号的空中接口声音拾取设备。更具体地,麦克风是将声压转换成电信号(例如,声学信号)的换能器。麦克风可以是数字或模拟微机电***(MEMS)麦克风。由麦克风生成的声学信号可以是脉冲密度调制(PDM)信号。
具有头可穿戴装置的***
图13示出了根据一个示例实施方式的其中可以实现头可穿戴装置1302的网络环境1300。图13是示例头可穿戴装置1302的高级功能框图,该示例头可穿戴装置1302经由各种网络1340通信地耦接移动客户端设备1338和服务器***1332。
头可穿戴装置1302包括摄像装置,诸如可见光摄像装置1312、红外发射器1314和红外摄像装置1316中的至少一个。客户端设备1338可以能够使用通信1334和通信1336两者与头可穿戴装置1302连接。客户端设备1338连接至服务器***1332和网络1340。网络1340可以包括有线连接和无线连接的任何组合。
头可穿戴装置1302还包括光学组件的图像显示器1304的两个图像显示器。光学组件的图像显示器1304的两个图像显示器包括与头可穿戴装置1302的左横向侧相关联的一个图像显示器和与右横向侧相关联的一个图像显示器。头可穿戴装置1302还包括图像显示器驱动器1308、图像处理器1310、低功率低功率电路***1326和高速电路***1318。光学组件的图像显示器1304用于向头可穿戴装置1302的用户呈现图像和视频,所述图像和视频包括可以包括图形用户界面的图像。
图像显示器驱动器1308命令并控制光学组件的图像显示器1304的图像显示器。图像显示器驱动器1308可以将图像数据直接递送至光学组件的图像显示器1304的图像显示器以用于呈现,或者可以必须将图像数据转换成适合于递送至图像显示设备的信号或数据格式。例如,图像数据可以是根据压缩格式(诸如H.264(MPEG-4Part 10)、HEVC、Theora、Dirac、RealVideo RV40、VP8、VP9等)格式化的视频数据,以及静止图像数据可以根据压缩格式(诸如便携式网络组(PNG)、联合摄影专家组(JPEG)、标签图像文件格式(TIFF)或可交换图像文件格式(Exif)等)而被格式化。
如上所述,头可穿戴装置1302包括框架和从框架的横向侧延伸的柄(或镜腿)。头可穿戴装置1302还包括用户输入设备1306(例如,触摸传感器或按钮),该用户输入设备1306包括头可穿戴装置1302上的输入表面。用户输入设备1306(例如,触摸传感器或按钮)将从用户接收输入选择,以操纵呈现的图像的图形用户接口。
图13中示出的用于头可穿戴装置1302的部件位于镜框或镜腿中的一个或更多个电路板(例如PCB或柔性PCB)上。可替选地或附加地,所描绘的部件可以位于头可穿戴装置1302的块、框架、铰链或鼻梁架中。左边和右边可以包括数字摄像装置元件,诸如互补金属氧化物半导体(CMOS)图像传感器、电荷耦合器件、摄像装置镜头或可以用于捕获数据的任何其他相应的可见或光捕获元件,包括具有未知对象的场景的图像。
头可穿戴装置1302包括存储器1322,该存储器1322存储执行本文中描述的功能的子集或全部的指令。存储器1322还可以包括存储设备。
如图13中所示,高速电路***1318包括高速处理器1320、存储器1322和高速无线电路***1324。在示例中,图像显示器驱动器1308耦接至高速电路***1318并由高速处理器1320操作,以驱动光学组件的图像显示器1304的左图像显示器和右图像显示器。高速处理器1320可以是能够管理头可穿戴装置1302所需的任何一般计算***的操作和高速通信的任何处理器。高速处理器1320包括管理使用高速无线电路***1324在通信1336到无线局域网(WLAN)上的高速数据传输所需的处理资源。在某些示例中,高速处理器1320执行操作***(诸如LINUX操作***或头可穿戴装置1302的其他这样的操作***),并且操作***被存储在存储器1322中以用于执行。除了任何其他职责之外,使用执行头可穿戴装置1302的软件架构的高速处理器1320来管理与高速无线电路***1324的数据传输。在某些示例中,高速无线电路***1324被配置成实现电气和电子工程师协会(IEEE)802.11通信标准(在本文中也被称为Wi-Fi)。在其他示例中,其他高速通信标准可以通过高速无线电路***1324来实现。
头可穿戴装置1302的低功率无线电路***1330和高速无线电路***1324可以包括短程收发器(蓝牙TM)和无线广域网、局域网或广域网收发器(例如,蜂窝或WiFi)。可以使用头可穿戴装置1302的架构的细节来实现包括经由通信1334和通信1336进行通信的收发器的客户端设备1338,网络1340的其他元件也可以。
存储器1322包括能够存储各种数据和应用的任何存储设备,所述各种数据和应用包括除其他外的由左和右红外摄像装置1316和图像处理器1310生成的摄像装置数据、以及由图像显示器驱动器1308生成以在光学组件的图像显示器1304的图像显示器上显示的图像。虽然存储器1322被示出为与高速电路***1318集成,但是在其他示例中,存储器1322可以是头可穿戴装置1302的独立的独立元件。在某些这样的示例中,电路由线可以提供通过包括高速处理器1320的芯片从图像处理器1310或低功率处理器1328至存储器1322的连接。在其他示例中,高速处理器1320可以管理存储器1322的寻址,使得低功率处理器1328将在需要涉及存储器1322的读或写操作的任何时间启动高速处理器1320。
如图13中所示,头可穿戴装置1302的低功率处理器1328或高速处理器1320可以耦接至摄像装置(可见光摄像装置1312;红外发射器1314或红外摄像装置1316)、图像显示器驱动器1308、用户输入设备1306(例如,触摸传感器或按钮)和存储器1322。
头可穿戴装置1302与主机计算机连接。例如,头可穿戴装置1302经由通信1336与客户端设备1338配对,或者经由网络1340连接至服务器***1332。服务器***1332可以是作为服务或网络计算***的一部分的一个或更多个计算设备,例如,所述一个或更多个计算设备包括处理器、存储器和通过网络1340与客户端设备1338和头可穿戴装置1302进行通信的网络通信接口。
客户端设备1338包括处理器和耦接至处理器的网络通信接口。网络通信接口允许通过网络1340、通信1334或通信1336进行通信。客户端设备1338还可以在客户端设备1338的存储器中存储用于生成双声道音频内容的指令的至少一部分,以实现本文中描述的功能。
头可穿戴装置1302的输出部件包括视觉部件,诸如显示器(诸如液晶显示器(LCD)、等离子显示板(PDP)、发光二极管(LED)显示器、投影仪或波导)。光学组件的图像显示器由图像显示器驱动器1308驱动。头可穿戴装置1302的输出部件还包括声学部件(例如,扬声器)、触觉部件(例如,振动马达)、其他信号生成器等。头可穿戴装置1302、客户端设备1338和服务器***1332的输入部件(诸如用户输入设备1306)可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他定点仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和力的触摸屏,或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
头可穿戴装置1302可以可选地包括附加的***设备元件。这样的***设备元件可以包括生物计量传感器、附加传感器或与头可穿戴装置1302集成的显示元件。例如,***设备元件可以包括任何I/O部件,所述I/O部件包括输出部件、运动部件、定位部件或本文中描述的任何其他这样的元件。
例如,生物计量部件包括检测表达(例如,手部表达、面部表达、声音表达、身体姿势或眼睛追踪)、测量生物信号(例如,血压、心率、体温、出汗或脑电波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)等。定位部件包括生成位置坐标的位置传感器部件(例如,全球定位***(GPS)接收器部件)、生成定位***坐标的WiFi或蓝牙TM收发器、海拔传感器部件(例如,检测气压的高度计或气压计,根据气压可以得到海拔)、取向传感器部件(例如,磁力计)等。这种定位***坐标也可以经由低功率无线电路***1330或高速无线电路***1324从客户端设备1338通过通信1336被接收。
图14是示出软件架构1404的框图1400,该软件架构可以安装在本文中描述的设备中的任何一个或更多个设备上。软件架构1404由诸如机器1402的硬件支持,机器1402包括处理器1420、存储器1426和I/O部件1438。在该示例中,软件架构1404可以概念化为层的堆叠,其中每个层提供特定的功能。软件架构1404包括诸如操作***1412、库1410、框架1408和应用1406的层。在操作上,应用1406通过软件堆栈来调用API调用1450并且响应于API调用1450接收消息1452。
操作***1412管理硬件资源并且提供公共服务。操作***1412包括例如内核1414、服务1416和驱动器1422。内核1414用作硬件和其他软件层之间的抽象层。例如,内核1414提供存储器管理、处理器管理(例如,调度)、部件管理、联网和安全设置以及其他功能。服务1416可以为其他软件层提供其他公共服务。驱动器1422负责控制底层硬件或与底层硬件对接。例如,驱动器1422可以包括显示器驱动器、摄像装置驱动器、或低能耗驱动器、闪存驱动器、串行通信驱动器(例如,通用串行总线(USB)驱动器)、/>驱动器、音频驱动器、电力管理驱动器等。
库1410提供由应用1406使用的低级别公共基础设施。库1410可以包括***库1418(例如,C标准库),该***库1418提供诸如存储器分配功能、字符串操纵功能、数学功能等的功能。另外,库1410可以包括API库1424,例如媒体库(例如,用于支持各种媒体格式的呈现和操纵的库,所述各种媒体格式例如运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)呈现的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供web浏览功能的WebKit)等。库1410还可以包括各种的其他库1428,以向应用1406提供许多其他API。
框架1408提供由应用1406使用的高级别公共基础设施。例如,框架1408提供各种图形用户界面(GUI)功能、高级别资源管理和高级别定位服务。框架1408可以提供可以由应用1406使用的广泛的其他API,其中一些可以专用于特定的操作***或平台。
在示例实施方式中,应用1406可以包括家庭应用1436、联系人应用1430、浏览器应用1432、书籍阅读器应用1434、位置应用1442、媒体应用1444、消息收发应用1446、游戏应用1448、以及诸如第三方应用1440的各种各样的其他应用。应用1406是执行程序中限定的功能的程序。可以采用各种编程语言来创建以各种方式构造的应用1406中的一个或更多个,编程语言例如面向对象的编程语言(例如Objective-C、Java或C++)或过程编程语言(例如C语言或汇编语言)。在特定示例中,第三方应用1440(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是在诸如IOSTM、ANDROIDTM、Phone的移动操作***或另外的移动操作***上运行的移动软件。在该示例中,第三方应用1440可以激活操作***1412所提供的API调用1450来促进本文中描述的功能。
图15是机器1500的图解表示,在该机器1500内,可以执行用于使机器1500执行本文所讨论的方法中的任何一种或更多种方法的指令1508(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1508可以使机器1500执行本文中描述的方法中的任何一种或更多种方法。指令1508将通用的未经编程的机器1500转换成被编程为以所描述的方式执行所描述和所示出的功能的特定机器1500。机器1500可以作为独立设备操作,或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1500可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器1500可以包括但不限于:服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、PDA、娱乐媒体***、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web设备、网络路由器、网络交换机、网络桥接器或能够顺序地或以其他方式执行指定要由机器1500采取的动作的指令1508的任何机器。此外,虽然仅示出了单个机器1500,但是术语“机器”还应当被视为包括单独地或联合地执行指令1508以执行本文中讨论的方法中的任何一种或更多种方法的机器的集合。
机器1500可以包括可以被配置成经由总线1544彼此通信的处理器1502、存储器1504和I/O部件1542。在示例实施方式中,处理器1502(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、ASIC、射频集成电路(RFIC)、其他处理器或其任何合适的组合)可以包括例如执行指令1508的处理器1506和处理器1510。术语“处理器”旨在包括多核处理器,所述多核处理器可以包括可以同时执行指令的两个或更多个独立的处理器(有时被称为“核”)。尽管图15示出了多个处理器1502,但是机器1500可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器或其任何组合。
存储器1504包括主存储器1512、静态存储器1514和存储单元1516,所述主存储器1512、静态存储器1514和存储单元1516均可由处理器1502经由总线1544访问。主存储器1504、静态存储器1514和存储单元1516存储体现本文所描述的方法或功能中的任何一种或更多种方法或功能的指令1508。指令1508在其被机器1500执行期间还可以完全地或部分地驻留在主存储器1512内、在静态存储器1514内、在存储单元1516内的机器可读介质1518内、在处理器1502中的至少一个处理器内(例如,在处理器的高速缓存存储器内)、或者在其任何合适的组合内。
I/O部件1542可以包括接收输入、提供输出、产生输出、传送信息、交换信息、捕获测量结果等的各种各样的部件。包括在特定机器中的具体I/O部件1542将取决于机器的类型。例如,便携式机器诸如移动电话可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将不太可能包括这样的触摸输入设备。应当理解,I/O部件1542可以包括在图15中未示出的许多其他部件。在各种示例实施方式中,I/O部件1542可以包括输出部件1528和输入部件1530。输出部件1528可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号发生器等。输入部件1530可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他定点仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和/或力的触摸屏或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在其他示例实施方式中,I/O部件1542可以包括生物计量部件1532、运动部件1534、环境部件1536或定位部件1538、以及各种其他部件。例如,生物计量部件1532包括检测表达(例如,手部表达、面部表达、声音表达、身体姿势或眼睛追踪)、测量生物信号(例如,血压、心率、体温、出汗或脑电波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1534包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)等。环境部件1536包括例如照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、听觉传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,出于安全用于检测危险气体浓度或测量大气中污染物的气体检测传感器)、或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。定位部件1538包括位置传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测可以从中得出海拔的气压的高度计或气压计)、取向传感器部件(例如,磁力计)等。
可以使用各种各样的技术来实现通信。I/O部件1542还包括通信部件1540,通信部件1540可操作成分别经由耦接1524和耦接1526将机器1500耦接至网络1520或设备1522。例如,通信部件1540可以包括网络接口部件或另一合适的设备以与网络1520对接。在其他示例中,通信部件1540可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、部件(例如,/>低能耗)、/>部件以及用于经由其他模态提供通信的其他通信部件。设备1522可以是另一机器或各种***设备中的任何***设备(例如,经由USB耦接的***设备)。
此外,通信部件1540可以检测标识符或包括可操作以检测标识符的部件。例如,通信部件1540可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品代码(UPC)条形码的一维条形码、诸如快速响应(QR)码的多维条形码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(Ultra Code)、UCC RSS-2D条形码和其他光学码的光学传感器)或声学检测部件(例如,用于识别标记的音频信号的麦克风)。另外,可以经由通信部件1540得出各种信息,例如经由因特网协议(IP)地理定位的位置、经由信号三角测量的位置、经由检测可以指示特定位置的NFC信标信号的位置等。
各种存储器(例如,存储器1504、主存储器1512、静态存储器1514和/或处理器1502的存储器)和/或存储单元1516可以存储由本文中所描述的方法或功能中的任何一个或更多个实现或使用的一组或更多组指令和数据结构(例如,软件)。这些指令(例如,指令1508)在由处理器1502执行时使各种操作实现所公开的实施方式。
可以经由网络接口设备(例如,包括在通信部件1540中的网络接口部件)使用传输介质并且使用多个公知的传输协议中的任何一个传输协议(例如,超文本传输协议(HTTP))通过网络1520来发送或接收指令1508。类似地,可以使用传输介质经由与设备1522的耦接1526(例如,对等耦接)来发送或接收指令1508。
如本文中使用的,术语“机器存储介质”、“设备存储介质”和“计算机存储介质”意指相同的事物,并且在本公开内容中可以互换地使用。这些术语指代存储可执行指令和/或数据的单个或多个存储设备和/或介质(例如,集中式或分布式数据库,和/或相关联的高速缓存和服务器)。因此,这些术语应当被视为包括但不限于固态存储器以及光学和磁性介质,包括处理器内部或外部的存储器。机器存储介质、计算机存储介质和/或设备存储介质的具体示例包括:非易失性存储器,包括例如半导体存储器设备,例如可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、现场可编程门阵列(FPGA)和闪存设备;磁盘,例如内部硬盘和可移动磁盘;磁光盘;以及CD-ROM和DVD-ROM盘。术语“机器存储介质”、“计算机存储介质”和“设备存储介质”明确地排除了载波、调制数据信号和其他这样的介质,载波、调制数据信号和其他这样的介质中的至少一些被涵盖在下面讨论的术语“信号介质”下。
术语“传输介质”和“信号介质”意指相同的事物,并且在本公开内容中可以互换地使用。术语“传输介质”和“信号介质”应当被视为包括能够存储、编码或承载由机器1400执行的指令1416的任何无形介质,并且包括数字或模拟通信信号或其他无形介质以促进这种软件的通信。因此,术语“传输介质”和“信号介质”应当被视为包括任何形式的调制数据信号、载波等。术语“调制数据信号”意指其各个特性中的一个或更多个特性以将信息编码在信号中的方式设置或改变的信号。
术语“机器可读介质”、“计算机可读介质”和“设备可读介质”意指相同的事物,并且在本公开内容中可以互换地使用。这些术语被定义成包括机器存储介质和传输介质两者。因此,这些术语包括存储设备/介质和载波/调制数据信号两者。
尽管已经参考特定示例实施方式描述了实施方式,但是将明显的是,在不脱离本公开内容的更广泛范围的情况下,可以对这些实施方式进行各种修改和改变。因此,说明书和附图应被认为是说明性的意义,而不是限制性的意义。形成本公开内容的一部分的附图通过说明而非限制的方式示出了其中可以实践主题的具体实施方式。所示的实施方式被足够详细地描述,以使得本领域技术人员能够实践本文公开的教导。可以利用并由此得出其他实施方式,使得可以在不脱离本公开内容的范围的情况下进行结构和逻辑替换和改变。因此,具体实施方式不应当被理解为限制性意义,并且各种实施方式的范围仅由所附权利要求以及这些权利要求所赋予的等效内容的全部范围来限定。
本发明主题的这些实施方式在本文中可以单独和/或集体地通过术语“发明”来指代,这仅仅是为了方便,并且如果事实上公开了一个以上的发明或发明构思,则并不旨在自愿地将本申请的范围限制为任何单个发明或发明构思。因此,尽管本文中已经示出和描述了具体实施方式,但是应当理解,计算以实现相同目的的任何布置都可以替代所示的具体实施方式。本公开内容旨在覆盖各种实施方式的任何和所有改编或变化。在回顾上述描述后,上述实施方式和本文未具体描述的其他实施方式的组合对于本领域技术人员来说将是明显的。
提供本公开内容的摘要以允许读者快速确定本技术公开内容的性质。以这样的理解提交摘要:即摘要将不用于解释或限制权利要求的范围或含义。此外,在前面的具体实施方式中,可以看出,出于简化本公开内容的目的,各种特征在单个实施方式中被组合在一起。本公开内容的该方法不应被解释为反映所要求保护的实施方式需要比在每个权利要求中明确叙述的特征更多的特征的意图。相反,如所附权利要求书所反映的,本发明主题在于少于单个公开实施方式的所有特征。因此,所述权利要求书在此被合并到具体实施方式中,其中每个权利要求独立作为单独的实施方式。
示例
所描述的主题的实现方式可以包括如下面通过示例的方式示出的单独的或组合的一个或更多个特征。
示例1是一种方法,包括:形成训练数据,所述训练数据包括由第一用户佩戴的柔性设备的弯曲估计;基于该训练数据训练模型;以及基于该模型生成第一用户的参考生物计量数据。
示例2包括示例1的方法,还包括:估计柔性设备在多个时段内的弯曲,每个时段包括第一用户对柔性设备的佩戴;以及基于多个时段内的弯曲形成弯曲估计。
示例3包括示例1的方法,其中,参考生物计量数据指示第一用户的可接受弯曲估计的范围。
示例4包括示例1的方法,还包括:检测第二用户对柔性设备的佩戴、以及在柔性设备处的与第一用户相关联的账户的增强现实(AR)应用的操作;估计由第二用户佩戴的柔性设备的弯曲;基于第二用户的弯曲估计和第一用户的生物计量数据来认证第二用户;以及响应于第二用户被认证,准许第二用户访问与第一用户相关联的账户的AR应用。
示例5包括示例1的方法,还包括:检测第二用户对柔性设备的佩戴、以及在柔性设备处的与第一用户相关联的账户的增强现实(AR)应用的操作;估计由第二用户佩戴的柔性设备的弯曲;确定由第二用户佩戴的柔性设备的弯曲估计与第一用户的参考生物计量数据不匹配;以及拒绝第二用户访问与第一用户相关联的账户的AR应用。
示例6包括示例1的方法,还包括:检测第二用户对柔性设备的佩戴、以及在柔性设备处的与第一用户相关联的账户的增强现实(AR)应用的操作;估计由第二用户佩戴的柔性设备的弯曲;确定由第二用户佩戴的柔性设备的弯曲估计与第一用户的生物计量数据不匹配;基于柔性设备的传感器检索第二用户的附加生物计量数据;以及基于第二用户的附加生物计量数据和第一用户的附加参考生物计量数据来认证第二用户。
示例7包括示例6的方法,其中,附加生物计量数据包括基于声音的生物计量数据、基于虹膜的生物计量数据或基于面部的生物计量数据中的至少一种。
示例8包括示例1的方法,其中,柔性设备是头戴式的并且包括:左镜腿、右镜腿和框架,其中,弯曲估计包括:左镜腿相对于框架或右镜腿的弯曲;以及右镜腿相对于框架或左镜腿的弯曲。
示例9包括示例1的方法,其中,弯曲估计包括俯仰-滚转弯曲估计和偏航弯曲估计的组合。
示例10包括示例8的方法,其中,弯曲估计基于将来自安装在左镜腿上的左摄像装置的左图像与来自安装在右镜腿上的右摄像装置的右图像、柔性设备的VIO数据以及基于左图像和右图像的深度图进行比较。
示例11是一种计算装置,包括:处理器;以及存储指令的存储器,所述指令在由处理器执行时配置该装置以:形成训练数据,所述训练数据包括由第一用户佩戴的柔性设备的弯曲估计;基于该训练数据训练模型;以及基于该模型生成第一用户的参考生物计量数据。
示例12包括示例11的计算装置,其中,指令还将装置配置成执行以下操作:估计柔性设备在多个时段内的弯曲,每个时段包括第一用户对柔性设备的佩戴;以及基于多个时段内的弯曲形成弯曲估计。
示例13包括示例11的计算装置,其中,参考生物计量数据指示第一用户的可接受弯曲估计的范围。
示例14包括示例11的计算装置,其中,指令还将装置配置成执行以下操作:检测第二用户对柔性设备的佩戴、以及在柔性设备处的与第一用户相关联的账户的增强现实(AR)应用的操作;估计由第二用户佩戴的柔性设备的弯曲;基于第二用户的弯曲估计和第一用户的生物计量数据来认证第二用户;以及响应于第二用户被认证,准许第二用户访问与第一用户相关联的账户的AR应用。
示例15包括示例11的计算装置,其中,指令还将装置配置成执行以下操作:检测第二用户对柔性设备的佩戴、以及在柔性设备处的与第一用户相关联的账户的增强现实(AR)应用的操作;估计由第二用户佩戴的柔性设备的弯曲;确定由第二用户佩戴的柔性设备的弯曲估计与第一用户的参考生物计量数据不匹配;以及拒绝第二用户访问与第一用户相关联的账户的AR应用。
示例16包括示例11的计算装置,其中,指令还将装置配置成执行以下操作:检测第二用户对柔性设备的佩戴、以及在柔性设备处的与第一用户相关联的账户的增强现实(AR)应用的操作;估计由第二用户佩戴的柔性设备的弯曲;确定由第二用户佩戴的柔性设备的弯曲估计与第一用户的生物计量数据不匹配;基于柔性设备的传感器检索第二用户的附加生物计量数据;以及基于第二用户的附加生物计量数据和第一用户的附加参考生物计量数据来认证第二用户。
示例17包括示例16的计算装置,其中,附加生物计量数据包括基于声音的生物计量数据、基于虹膜的生物计量数据或基于面部的生物计量数据中的至少一种。
示例18包括示例11的计算装置,其中,柔性设备是头戴式的并且包括:左镜腿、右镜腿和框架,其中,弯曲估计包括:左镜腿相对于框架或右镜腿的弯曲;以及右镜腿相对于框架或左镜腿的弯曲。
示例19包括示例11的计算装置,其中,弯曲估计包括俯仰-滚转弯曲估计和偏航弯曲估计的组合。
示例20是一种非暂态计算机可读存储介质,该计算机可读存储介质包括指令,所述指令在由计算机执行时使计算机:形成训练数据,所述训练数据包括由第一用户佩戴的柔性设备的弯曲估计;基于该训练数据训练模型;以及基于模型生成第一用户的参考生物计量数据。
Claims (20)
1.一种方法,包括:
形成训练数据,所述训练数据包括由第一用户佩戴的柔性设备的弯曲估计;
基于所述训练数据训练模型;以及
基于所述模型生成所述第一用户的参考生物计量数据。
2.根据权利要求1所述的方法,还包括:
估计所述柔性设备在多个时段内的弯曲,每个时段包括所述第一用户对所述柔性设备的佩戴;以及
基于所述多个时段内的所述弯曲形成所述弯曲估计。
3.根据权利要求1所述的方法,其中,所述参考生物计量数据指示所述第一用户的可接受弯曲估计的范围。
4.根据权利要求1所述的方法,还包括:
检测第二用户对所述柔性设备的佩戴、以及在所述柔性设备处的与所述第一用户相关联的账户的增强现实(AR)应用的操作;
估计由所述第二用户佩戴的所述柔性设备的弯曲;
基于所述第二用户的弯曲估计和所述第一用户的生物计量数据来认证所述第二用户;以及
响应于所述第二用户被认证,准许所述第二用户访问与所述第一用户相关联的所述账户的AR应用。
5.根据权利要求1所述的方法,还包括:
检测第二用户对所述柔性设备的佩戴、以及在所述柔性设备处的与所述第一用户相关联的账户的增强现实(AR)应用的操作;
估计由所述第二用户佩戴的所述柔性设备的弯曲;
确定由所述第二用户佩戴的所述柔性设备的弯曲估计与所述第一用户的参考生物计量数据不匹配;以及
拒绝所述第二用户访问与所述第一用户相关联的所述账户的AR应用。
6.根据权利要求1所述的方法,还包括:
检测第二用户对所述柔性设备的佩戴、以及在所述柔性设备处的与所述第一用户相关联的账户的增强现实(AR)应用的操作;
估计由所述第二用户佩戴的所述柔性设备的弯曲;
确定由所述第二用户佩戴的所述柔性设备的弯曲估计与所述第一用户的生物计量数据不匹配;
基于所述柔性设备的传感器检索所述第二用户的附加生物计量数据;以及
基于所述第二用户的附加生物计量数据和所述第一用户的附加参考生物计量数据来认证所述第二用户。
7.根据权利要求6所述的方法,其中,所述附加生物计量数据包括基于声音的生物计量数据、基于虹膜的生物计量数据或基于面部的生物计量数据中的至少一种。
8.根据权利要求1所述的方法,其中,所述柔性设备是头戴式的并且包括:左镜腿、右镜腿和框架,
其中,所述弯曲估计包括:
所述左镜腿相对于所述框架或所述右镜腿的弯曲;以及
所述右镜腿相对于所述框架或所述左镜腿的弯曲。
9.根据权利要求1所述的方法,其中,所述弯曲估计包括俯仰-滚转弯曲估计和偏航弯曲估计的组合。
10.根据权利要求8所述的方法,其中,所述弯曲估计基于将来自安装在所述左镜腿上的左摄像装置的左图像与来自安装在所述右镜腿上的右摄像装置的右图像、所述柔性设备的VIO数据以及基于所述左图像和所述右图像的深度图进行比较。
11.一种计算装置,包括:
处理器;以及
存储指令的存储器,所述指令在由所述处理器执行时将所述装置配置成执行以下操作:
形成训练数据,所述训练数据包括由第一用户佩戴的柔性设备的弯曲估计;
基于所述训练数据训练模型;以及
基于所述模型生成所述第一用户的参考生物计量数据。
12.根据权利要求11所述的计算装置,其中,所述指令还将所述装置配置成执行以下操作:
估计所述柔性设备在多个时段内的弯曲,每个时段包括所述第一用户对所述柔性设备的佩戴;以及
基于所述多个时段内的所述弯曲形成所述弯曲估计。
13.根据权利要求11所述的计算装置,其中,所述参考生物计量数据指示所述第一用户的可接受弯曲估计的范围。
14.根据权利要求11所述的计算装置,其中,所述指令还将所述装置配置成执行以下操作:
检测第二用户对所述柔性设备的佩戴、以及在所述柔性设备处的与所述第一用户相关联的账户的增强现实(AR)应用的操作;
估计由所述第二用户佩戴的所述柔性设备的弯曲;
基于所述第二用户的弯曲估计和所述第一用户的生物计量数据来认证所述第二用户;以及
响应于所述第二用户被认证,准许所述第二用户访问与所述第一用户相关联的所述账户的AR应用。
15.根据权利要求11所述的计算装置,其中,所述指令还将所述装置配置成执行以下操作:
检测第二用户对所述柔性设备的佩戴、以及在所述柔性设备处的与所述第一用户相关联的账户的增强现实(AR)应用的操作;
估计由所述第二用户佩戴的所述柔性设备的弯曲;
确定由所述第二用户佩戴的所述柔性设备的弯曲估计与所述第一用户的参考生物计量数据不匹配;以及
拒绝所述第二用户访问与所述第一用户相关联的所述账户的AR应用。
16.根据权利要求11所述的计算装置,其中,所述指令还将所述装置配置成执行以下操作:
检测第二用户对所述柔性设备的佩戴、以及在所述柔性设备处的与所述第一用户相关联的账户的增强现实(AR)应用的操作;
估计由所述第二用户佩戴的所述柔性设备的弯曲;
确定由所述第二用户佩戴的所述柔性设备的弯曲估计与所述第一用户的生物计量数据不匹配;
基于所述柔性设备的传感器检索所述第二用户的附加生物计量数据;以及
基于所述第二用户的附加生物计量数据和所述第一用户的附加参考生物计量数据来认证所述第二用户。
17.根据权利要求16所述的计算装置,其中,所述附加生物计量数据包括基于声音的生物计量数据、基于虹膜的生物计量数据或基于面部的生物计量数据中的至少一种。
18.根据权利要求11所述的计算装置,其中,所述柔性设备是头戴式的并且包括:左镜腿、右镜腿和框架,
其中,所述弯曲估计包括:
所述左镜腿相对于所述框架或所述右镜腿的弯曲;以及
所述右镜腿相对于所述框架或所述左镜腿的弯曲。
19.根据权利要求11所述的计算装置,其中,所述弯曲估计包括俯仰-滚转弯曲估计和偏航弯曲估计的组合。
20.一种非暂态计算机可读存储介质,所述计算机可读存储介质包括指令,所述指令在由计算机执行时使所述计算机:
形成训练数据,所述训练数据包括由第一用户佩戴的柔性设备的弯曲估计;
基于所述训练数据训练模型;以及
基于所述模型生成所述第一用户的参考生物计量数据。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163189944P | 2021-05-18 | 2021-05-18 | |
US63/189,944 | 2021-05-18 | ||
US17/489,394 US20220374505A1 (en) | 2021-05-18 | 2021-09-29 | Bending estimation as a biometric signal |
US17/489,394 | 2021-09-29 | ||
PCT/US2022/072338 WO2022246382A1 (en) | 2021-05-18 | 2022-05-16 | Bending estimation as a biometric signal |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117425889A true CN117425889A (zh) | 2024-01-19 |
Family
ID=84103453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280035563.7A Pending CN117425889A (zh) | 2021-05-18 | 2022-05-16 | 作为生物计量信号的弯曲估计 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220374505A1 (zh) |
EP (1) | EP4341833A1 (zh) |
KR (1) | KR20240008892A (zh) |
CN (1) | CN117425889A (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9934373B1 (en) * | 2014-01-24 | 2018-04-03 | Microstrategy Incorporated | User enrollment and authentication |
US11726321B2 (en) * | 2017-07-17 | 2023-08-15 | Vuzix Corporation | Image shift correction for binocular virtual imaging apparatus |
US11363992B2 (en) * | 2017-12-04 | 2022-06-21 | Advancing Technologies, Llc | Wearable device utilizing flexible electronics |
KR102668240B1 (ko) * | 2018-07-25 | 2024-05-22 | 삼성전자주식회사 | 사용자의 신체 상태를 추정하기 위한 방법 및 디바이스 |
WO2020028867A1 (en) * | 2018-08-03 | 2020-02-06 | Magic Leap, Inc. | Depth plane selection for multi-depth plane display systems by user categorization |
US11294188B1 (en) * | 2020-09-30 | 2022-04-05 | Snap Inc. | Geometry modeling of eyewear devices with flexible frames |
-
2021
- 2021-09-29 US US17/489,394 patent/US20220374505A1/en active Pending
-
2022
- 2022-05-16 EP EP22735273.9A patent/EP4341833A1/en active Pending
- 2022-05-16 CN CN202280035563.7A patent/CN117425889A/zh active Pending
- 2022-05-16 KR KR1020237043024A patent/KR20240008892A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
KR20240008892A (ko) | 2024-01-19 |
US20220374505A1 (en) | 2022-11-24 |
EP4341833A1 (en) | 2024-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230388632A1 (en) | Dynamic adjustment of exposure and iso to limit motion blur | |
US20230300464A1 (en) | Direct scale level selection for multilevel feature tracking under motion blur | |
US11765457B2 (en) | Dynamic adjustment of exposure and iso to limit motion blur | |
US20240176428A1 (en) | Dynamic initialization of 3dof ar tracking system | |
US12014523B2 (en) | Intrinsic parameters estimation in visual tracking systems | |
US20220365592A1 (en) | Reducing startup time of augmented reality experience | |
US11983897B2 (en) | Camera intrinsic re-calibration in mono visual tracking system | |
US11683585B2 (en) | Direct scale level selection for multilevel feature tracking under motion blur | |
WO2022240933A1 (en) | Depth-from- stereo bending correction | |
CN117461309A (zh) | 对于计算机立体视觉的未对准观察点缓解 | |
US20220374505A1 (en) | Bending estimation as a biometric signal | |
WO2022246382A1 (en) | Bending estimation as a biometric signal | |
US11941184B2 (en) | Dynamic initialization of 3DOF AR tracking system | |
US20240221212A1 (en) | Device pairing using machine-readable optical label | |
US20240221222A1 (en) | Camera intrinsic re-calibration in mono visual tracking system | |
US20240029302A1 (en) | Depth-from-stereo bending correction using visual inertial odometry features | |
CN117337422A (zh) | 三自由度增强现实跟踪***的动态初始化 | |
CN117441343A (zh) | 曝光和iso的动态调整的相关应用 | |
CN117425869A (zh) | 后期扭曲中的动态过度渲染 | |
CN117337575A (zh) | 用于运动模糊减轻的选择性图像金字塔计算 | |
CN117501208A (zh) | 利用步态印迹模仿的ar数据模拟 | |
CN117321635A (zh) | 用于多级别特征跟踪的直接尺度级别选择 | |
WO2024145124A1 (en) | Device pairing using machine-readable optical label | |
CN117321472A (zh) | 进行后期扭曲以最小化移动对象的延迟 | |
WO2024086538A1 (en) | Sign language interpretation with collaborative agents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |