CN105518416A - 基于透视头戴式设备的导航方法 - Google Patents
基于透视头戴式设备的导航方法 Download PDFInfo
- Publication number
- CN105518416A CN105518416A CN201480048501.5A CN201480048501A CN105518416A CN 105518416 A CN105518416 A CN 105518416A CN 201480048501 A CN201480048501 A CN 201480048501A CN 105518416 A CN105518416 A CN 105518416A
- Authority
- CN
- China
- Prior art keywords
- wearer
- image
- geographic position
- step process
- image procossing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 177
- 230000004438 eyesight Effects 0.000 claims abstract description 76
- 230000000007 visual effect Effects 0.000 claims abstract description 60
- 238000012800 visualization Methods 0.000 claims abstract description 45
- 230000006870 function Effects 0.000 claims description 77
- 230000006978 adaptation Effects 0.000 claims description 39
- 238000003860 storage Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 7
- 230000014759 maintenance of location Effects 0.000 claims description 4
- 230000000295 complement effect Effects 0.000 claims description 3
- 230000013011 mating Effects 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000007547 defect Effects 0.000 description 10
- 230000035945 sensitivity Effects 0.000 description 9
- 230000007613 environmental effect Effects 0.000 description 8
- 201000009310 astigmatism Diseases 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 230000001276 controlling effect Effects 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 241001393742 Simian endogenous retrovirus Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 206010034960 Photophobia Diseases 0.000 description 2
- 208000029091 Refraction disease Diseases 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000004430 ametropia Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 208000013469 light sensitivity Diseases 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 208000014733 refractive error Diseases 0.000 description 2
- 241000269627 Amphiuma means Species 0.000 description 1
- 206010017577 Gait disturbance Diseases 0.000 description 1
- 206010047531 Visual acuity reduced Diseases 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000004456 color vision Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000004300 dark adaptation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000004315 low visual acuity Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004973 motor coordination Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 201000010041 presbyopia Diseases 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 210000000162 simple eye Anatomy 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Navigation (AREA)
- Controls And Circuits For Display Device (AREA)
- Traffic Control Systems (AREA)
Abstract
一种针对透视头戴式设备的佩戴者的导航方法,该方法包括:·-佩戴者可视化参数提供步骤(S1),在该步骤过程中,提供至少一个佩戴者可视化参数,·-地理位置确定步骤(S2),在该步骤过程中,确定该佩戴者沿着路线的地理位置,·-地理位置比较步骤,在该步骤过程中,将在该地理位置确定步骤过程中所确定的佩戴者沿着路线的地理位置与多个存储的地理位置进行比较,以及·-导航视觉辅助功能适配步骤(S3),在该步骤过程中,在该佩戴者的地理位置与这些存储的地理位置之一匹配时,则基于该佩戴者视觉参数和该佩戴者的地理位置对该导航视觉辅助功能进行适配,以帮助引导该佩戴者。
Description
技术领域
本发明涉及一种针对透视头戴式设备的佩戴者的导航方法、涉及一种包括多条指令的计算机程序,这些指令当由处理器执行时引起处理器执行本发明的视觉辅助引导导航方法的步骤,并且涉及一种承载了该计算机程序的这些指令的计算机可读介质。
背景技术
基于例如GPS技术的导航设备是已知的。这类设备提供通常在显示屏上的视觉信息以及通常提供音频信息。
向使用者提供的信息是基于佩戴者的位置以及由使用者指定的“去往”点的。该设备基于所存储的地图和使用者参数计算路线并且向使用者提供引导导航。
这类设备不适合于具有低视力的使用者或更一般而言具有眼睛缺陷的使用者。
具有眼睛缺陷、使用这类设备的使用者行走困难、增加了路线误差并且行走时间被延长。
因此,希望提供一种视觉辅助引导导航方法,该方法适合于具有眼睛缺陷的使用者,具体而言具有视觉障碍的使用者。
为了提高佩戴者视觉舒适度,希望提供一种视觉辅助引导导航方法,其中,以一种特别适合于佩戴者的定制方式显示图像和文本。
此外,希望提供一种视觉辅助引导导航方法,该方法优化使用者导航并且提高具有眼睛缺陷的使用者的行走效率。
发明内容
本发明的目标是提供这样一种方法。
本发明总体上提供用于头戴式设备视觉辅助引导导航的方法和***,其中,通过将佩戴者特定的可视化参数考虑在内而实现导航的定制化。这类可视化参数包括与佩戴者眼科数据(如佩戴者处方数据)有关的参数。
根据本发明,佩戴者视觉体验和导航的质量可以通过将佩戴者特定的可视化参数考虑在内而得到增强。
为此,本发明提出一种针对透视头戴式设备的佩戴者的导航方法,该方法包括:
-佩戴者可视化参数提供步骤,在该步骤过程中,提供至少一个佩戴者可视化参数,
-地理位置确定步骤,在该步骤过程中,确定该佩戴者沿着路线的地理位置,
-地理位置比较步骤,在该步骤过程中,将在该地理位置确定步骤过程中所确定的该佩戴者沿着该路线的地理位置与多个存储的地理位置进行比较,以及
-导航视觉辅助功能适配步骤,在该步骤过程中,一旦将该佩戴者的地理位置与这些存储的地理位置之一匹配,则基于该佩戴者视觉参数和该佩戴者的地理位置两者对该导航视觉辅助功能进行适配,特别是帮助引导该佩戴者,
-其中,该导航视觉辅助是由该透视头戴式设备提供的。
有利地,通过沿着路线基于该佩戴者视觉参数和该佩戴者的地理位置适配该头戴式设备的导航视觉辅助功能,本发明的方法提供一种适合于佩戴者的眼睛缺陷的视觉引导导航方法。
增强并且帮助佩戴者行走。
此外,本发明的方法允许向使用者提供适合于其眼睛缺陷的路线的定制化识别功能,这帮助佩戴者行走。此外,预记录适合于每位佩戴者的眼睛缺陷的定制路线允许优化处理以及由头戴式设备沿着路线的显示,这可以沿着路线提供选择性且定性的信息以帮助具有严重眼睛缺陷的佩戴者。
根据可以单独地或以任何可能的组合来考虑的进一步的实施例:
-该头戴式设备包括显示设备并且该导航视觉辅助功能适配步骤进一步包括:
-经处理的图像选择步骤,在该步骤过程中,一旦将该佩戴者的地理位置与这些存储的地理位置之一匹配,则根据该佩戴者可视化参数选择与同该佩戴者的地理位置相匹配的存储的地理位置相关联的经处理的图像中的至少一张图像,
-显示步骤,在该步骤过程中,通过该透视头戴式显示设备向该佩戴者显示该佩戴者的视觉环境的经处理的图像;和/或
-该头戴式设备包括显示设备以及被适配成用于采集该佩戴者的视觉环境的图像的照相机,并且该导航视觉辅助功能适配步骤进一步包括:
-图像采集步骤,在该步骤过程中,由该照相机采集该佩戴者的视觉环境的至少一张图像,
-图像处理选择步骤,在该步骤过程中,一旦将该佩戴者的地理位置与这些存储的地理位置之一匹配,则根据该佩戴者可视化参数选择与同该佩戴者的地理位置相匹配的该存储的地理位置相关联的图像处理中的至少一者,
-图像处理步骤,在该步骤过程中,根据在图像处理选择步骤过程中所选择的该图像处理对在该图像采集步骤过程中所采集的视觉环境的图像进行处理,
-显示步骤,在该步骤过程中,由该透视头戴式显示设备向该佩戴者显示该视觉环境的该经处理的图像;和/或
-该导航视觉辅助功能适配步骤进一步包括:
-图像元素标识步骤,在该步骤过程中,分析该佩戴者的该视觉环境的该图像以便标识在预定义的元素列表中列举的至少一个预定义元素,这些预定义元素中的每个预定义元素与至少一种图像处理相关联,并且
-在该图像处理选择步骤过程中,当标识出该佩戴者的该视觉环境的该图像中的与在该预定义元素列表中列举的这些预定义元素中之一相对应的元素,选择与在该佩戴者的该视觉环境的该图像中标识出的该预定义元素相关联的图像处理;和/或
-该方法进一步包括:
-视觉环境参数确定步骤,在该步骤过程中,确定至少一个视觉环境参数,并且
-在该图像处理选择步骤过程中,根据该视觉环境参数选择该图像处理,和/或在该经处理的图像选择步骤过程中,根据该视觉环境参数选择该经处理的图像;和/或
-该方法进一步包括:
-发送步骤,在该步骤过程中,该地理位置被发送至远端实体以便与同至少一种图像处理相关联的多个存储的地理位置进行比较,
-接收步骤,在该步骤过程中,所选择的图像处理是从远端实体接收的;和/或
-该方法进一步包括:
-发送步骤,在该步骤过程中,该地理位置被发送至远端实体以便与同至少一种图像处理相关联的多个存储的地理位置进行比较,并且该佩戴者的该视觉环境的所采集的图像被发送至该远端实体以便基于与该地理位置相关联的该图像处理而被处理,
-接收步骤,在该步骤过程中,该经处理的图像是从远端实体接收的;和/或
-该远端实体是智能电话和/或智能手表;和/或
-该方法进一步包括基于视觉环境的经处理的图像显示互补视觉信息,该视觉环境基于该佩戴者的地理位置;和/或
-该头戴式显示设备包括主动功能和被配置成用于控制该主动功能的控制单元,并且在该导航视觉辅助功能适配步骤过程中对该主动功能进行适配;和/或
-该方法进一步包括基于该佩戴者的地理位置向该佩戴者提供多个音频指示;和/或
-该方法进一步包括在数据库中预登记佩戴者标识符与所述佩戴者可视化参数之间的关联的步骤;和/或
-与该佩戴者标识符相关联的所述佩戴者可视化参数中的至少一个参数被存储在经由网络与该头戴式设备连接的服务器上的佩戴者数据库中;和/或
-该方法进一步包括在数据库中预登记至少一条路线的预备步骤,该预备步骤包括以下子步骤:
-关联步骤,在该步骤过程中,将在该地理位置确定步骤过程中确定的沿着该路线的地理位置与至少一个导航视觉辅助功能修改相关联,以及
-存储步骤,在该步骤过程中,该地理位置和该相关联的至少一个导航视觉辅助功能修改被存储;和/或
-该预备步骤进一步包括:
-图像采集步骤,在该步骤过程中,由该照相机采集该佩戴者的视觉环境的至少一张图像,以及
-图像处理选择步骤,在该步骤过程中,根据该佩戴者可视化参数选择图像处理中的至少一种图像处理,
-图像处理步骤,在该步骤过程中,根据在图像处理选择步骤过程中所选择的该图像处理对在该图像采集步骤过程中所采集的该视觉环境的该图像进行处理,并且
-在该关联步骤过程中,将该经处理的图像与该地理位置关联;和/或
-根据所述佩戴者标识符、可选地根据访问权限定义该导航视觉辅助功能修改数据;和/或
-该关联步骤由该佩戴者执行;和/或
-该方法在该地理位置比较步骤之前进一步包括接收步骤,在该接收步骤过程中,从远端实体接收并存储与该导航视觉辅助功能修改相关联的这些存储的地理位置;和/或
-该预备步骤进一步包括:
-图像选择步骤,在该步骤过程中,选择至少一张图像,以及
-图像处理选择步骤,在该步骤过程中,根据该佩戴者可视化参数选择图像处理中的至少一种图像处理,
-图像处理步骤,在该步骤过程中,根据在图像处理选择步骤过程中所选择的该图像处理对所选择的图像进行处理,并且
-在该关联过程中,将该经处理的图像与该地理位置关联。
本发明进一步涉及一种头戴式透视电光设备,该头戴式透视电光设备包括被配置成用于控制该设备的导航视觉辅助功能的控制单元以及被适配成用于实现根据本发明方法的处理器。
根据进一步的方面,本发明涉及一种包括一个或多个存储的指令序列的计算机程序产品,该一个或多个存储指令序列可由处理器访问并且当由该处理器执行时引起该处理器实施根据本发明的方法的步骤。
本发明进一步涉及一种计算机可读介质,该计算机可读介质承载了根据本发明的计算机程序产品的一个或多个指令序列。
此外,本发明涉及一种使计算机执行本发明的方法的程序。
本发明还涉及一种其上记录有程序的计算机可读存储介质;其中,该程序使计算机执行本发明的方法。
本发明进一步涉及一种包括处理器的设备,该处理器被适配用于存储一个或多个指令序列并且实施根据本发明的方法的这些步骤中的至少一个步骤。
附图说明
现在将参考附图来描述本发明的非限制性实施例,在附图中:
o图1是流程图,表示根据本发明的实施例的方法的步骤,
o图2表示可以实施根据本发明实施例的方法的头戴式电光设备。
o图3是流程图,表示根据本发明的本地实现方式的透视头戴式设备功能适配步骤的子步骤,并且
-图4是流程图,表示根据本发明的远程实现方式的透视头戴式设备功能适配步骤的子步骤。
定义
提供了以下定义来对本发明进行描述。
“服务器”SERV在本领域中是已知的。服务器SERV可以经由扩展网络NETW与多个终端TERM连接。网络NETW允许数据传输并且可以依赖如射频通信等无线通信(Wi-Fi、蓝牙、3G、4G等)和/或光通信(Li-Fi、IR、近IR、可见光等)和/或有线通信(以太网、光纤)。服务器SERV可以包括一个或多个数据库DB和/或其可以连接到一个或多个数据库DB。
根据本发明的实施例(下文中的“本地”实现方式),由位于头戴式设备中的至少一个处理器本地地执行本发明的所有步骤。针对本发明的这种实现方式,该头戴式设备将至少包括存储器和处理器。
根据本发明的实施例(下文中的“远程”实现方式),由至少一个远程处理器执行本发明的这些步骤的至少一部分。远程处理器可以位于经由网络与该头戴式设备联接的远端服务器SERV中。
“头戴式设备”(HMD)在本领域中是已知的。这类设备有待佩戴在佩戴者的头上或周围。它们包括用于显示由佩戴者可视化的图像的光学装置。HMD可以是单目的(单眼)或双目的(双眼)。本发明的HMD可以采取各种形式,包括眼镜、面具(如滑雪或潜水面具)、眼罩等。HMD可以包括一个或多个镜片。所述镜片可以选自处方镜片。在优选实施例中,HMD是一副配备有多个镜片的眼镜。在图2展示了本发明的头戴式设备的实例。
“可视化参数数据”(VPD)包括佩戴者眼科数据OD(如处方数据PD、眼睛灵敏度数据SD和生物统计数据BD)和/或佩戴者眼睛数据(ED)中的一项或多项。所述VPD可以存储在内置于HMD中的存储器上和/或存储在经由服务器SERV可访问的专用数据库DB上。
“佩戴者眼科数据”或“眼科数据”OD在本领域中是已知的。佩戴者眼科数据包括佩戴者处方数据PD、佩戴者眼睛灵敏度数据SD和佩戴者的眼科生物统计数据BD。
“处方数据”PD在本领域中是已知的。处方数据指的是为佩戴者获得的并且为每只眼睛指示以下内容中的一项或多项数据:处方远视觉平均屈光力PFV、和/或处方散光值CYLFV和/或处方散光轴线AXEFV和/或适合于矫正每只眼睛的屈光不正和/或老花眼的处方下加光A。平均屈光力PFV是通过对处方散光值CYLFV的半值与处方球面值SPHFV进行求和获得的:PFV=SPHFV+CYLFV/2。然后,通过对处方下加光A与同一只眼睛的处方远视觉平均屈光力PFV进行求和获得每只眼睛的近距离(近)视觉的平均屈光力:PNV=PFV+A。在渐进式镜片的处方的情况下,处方数据包括为每只眼睛指示SPHFV、CYLFV及A的值的佩戴者数据。在优选实施例中,佩戴者处方数据PD选自散光模数、散光轴线、屈光力、棱镜和下加光。
“佩戴者眼睛灵敏度数据”SD在本领域中是已知的。佩戴者眼睛灵敏度数据包括光谱灵敏度(针对一个或多个波长或光谱带)的数据、如亮度灵敏度等一般灵敏度(例如,针对户外亮度灵敏度)、佩戴者双眼的颜色、佩戴者的光和/或眩光灵敏度或恢复。这类数据对于优化佩戴者的图像可视化对比度而言具有重要性。
“佩戴者眼科生物统计数据”或“生物统计数据”BD在本领域中是已知的。生物统计数据包括与佩戴者的形态有关的数据,并且通常包括以下各项中的一项或多项:单目瞳孔距离、瞳孔间距、眼睛的轴向长度、眼睛的转动中心的位置等。
“佩戴者眼睛数据”在本领域中是已知的。眼睛数据包括不与取决于头戴式设备的希望设置的眼科参数直接相关的参数,如使用者的黑暗适应力、使用者的色觉、视野、双目视觉、佩戴者的眼睛跳动、固视稳定性、佩戴者的视觉人工协调(visuomanualcoordination)、佩戴者的“头/眼”运动协调、佩戴者双眼在给定远距视觉下的注视方向等等、瞳孔扩大、眼睑位置。它还可以包括视觉疾病和/或视觉盲点的特点。
“佩戴者数据库”WEARDB是包括适合于存储并检索佩戴者可视化参数数据VPD的存储器的数据库。数据库和存储器在本领域中是已知的。可以通过使用专用指针(如可视化参数标识符VPID)实现对可视化参数数据的检索。例如,标识符WEARID可以充当可视化参数标识符VPID。每个佩戴者标识符WEARID1、2、…n允许对各处方数据PD进行检索,这些处方数据在此针对佩戴者的右眼RE和左眼的LE中的每一者被展示为屈光力P、散光ASTI、下加光ADD等。
具体实施方式
根据在图1上展示的本发明的实施例,针对透视头戴式设备的佩戴者的视觉辅助引导导航方法包括:
-佩戴者可视化参数提供步骤S1,
-地理位置确定步骤S2,
-地理位置比较步骤,以及
-透视头戴式设备功能适配步骤S3。
本发明的方法可以由计算机装置实现。
在佩戴者可视化参数提供步骤S1过程中,提供与佩戴者的视觉概况相关的至少一个佩戴者可视化参数数据VPD的值。
在本发明的意义上,佩戴者的视觉概况应被理解成与该佩戴者相关的参数集。该视觉概况包括以静态和动态方式对佩戴者的视觉进行限定的参数。
视觉概况包括佩戴者可视化参数数据VPD并且可以包括佩戴者眼睛数据ED和/或眼科数据OD,该眼科数据包括佩戴者的处方数据PD、佩戴者眼睛灵敏度数据SD和/或佩戴者眼科生物统计数据BD。
佩戴者视觉参数提供步骤S1可以是传输所述VPD数据的步骤。例如,该传输可以到达头戴式设备上的控制器。该传输可以是由无线通信或由通过闪驱(USB密钥)的输入实现。佩戴者视觉参数提供步骤S1还可以是通过在头戴式设备上手动提供设置(例如,通过转动在头戴式设备上的用于调整视觉参数来获得期望的焦点或来改变图像在佩戴者的视野中的位置的拇指轮)而执行的。
根据本发明的实施例,该方法可以包括佩戴者视觉参数确定步骤S0,在该步骤过程中,确定佩戴者的视觉概况中所包含的VPD数据的值。
可以由技术人员通过任何已知的手段(例如,使用速度传感器或通过经由网络与远端实体交换数据)来确定和/或更新VPD数据。
这些佩戴者参数的值可以通过从远端实体下载佩戴者的视觉概况来确定。通常,远端实体可以存储与佩戴者相关的数据。在这类数据当中,一些数据可以被标识为佩戴者的视觉概况的一部分。
可以执行多项视觉测试以确定佩戴者的视觉概况或此外佩戴者视觉概况的下载值,以便完成或调整佩戴者的视觉概况。
例如,佩戴者可以被请求注视近距离目标并且可以确定佩戴者双眼的注视方向。这样的注视方向可以用来确定佩戴者的观看距离。
根据实施例,佩戴者可视化参数确定步骤S0是通过一系列交互式测试来执行的,以评估视觉表现和对佩戴者的主观偏好的评价。
例如,敏锐度测试可视化字母、测试字体测试、测试空格字符、测试读数敏锐度、测试显示模式、眩光测试或眼睛移动测试可以被实现。
VPD数据可以通过在一些活动(如阅读、观看任何种类的媒体等)期间测量佩戴者的行为和现实世界场景来限定。
在本发明的另一个方面,步骤S1中的与可视化参数标识符VPID相关联的可视化参数数据VPD可以存储在存储器中,该存储器存储于服务器SERV上的佩戴者数据库WEARDB中,该服务器经由网络NETW与所述头戴式设备HMD连接。这个实施例是有利的,因为其允许更新可视化参数数据VPD。例如,针对给定的佩戴者,处方数据可以随时间而演变和/或佩戴者可以改变设备HMD。在本发明的方法中对服务器的使用提供了更新特征以由设备HMD如实定制图像显示。
可视化参数标识符VPID可以是单独的一个标识符,例如,标识给定佩戴者的唯一标识符。可视化参数标识符VPID也可以是通用标识符(群组标识符),例如,用于标识具有完全相同处方数据PD的一组佩戴者,例如具有相同近视矫正的多个佩戴者或者具有相同设备HMD型号的一组佩戴者。
可视化参数标识符VPID可以是位于HMD上的代码,如QR代码或RFID代码。
在地理位置确定步骤S2过程中,确定佩戴者的地理位置。
可以使用GPS***或等效物来实现对佩戴者的地理位置的确定。
根据本发明的实施例,佩戴者的地理位置可以另外地或代替GPS***包括图像识别***。该图像识别***至少包括被适配成用于采集佩戴者周围的视觉场景的图像的照相机以及被适配成用于图像识别的处理装置。
例如,该图像识别***可以被适配成用于识别一系列给定的地方,如在城市中的一系列具体建筑物。
图像识别***还可以被适配成用于识别一系列佩戴者可以遇见的经常出现的物体,如街灯、人行道、路标等。
在地理位置比较步骤过程中,将在地理位置确定步骤过程中所确定的佩戴者沿着路线的地理位置与多个存储的地理位置进行比较。
在导航视觉辅助功能适配步骤S3过程中,一旦将佩戴者沿着路线的地理位置与这些存储的地理位置之一匹配,则基于佩戴者可视化参数数据VPD和佩戴者的地理位置对头戴式设备的导航视觉辅助功能进行适配,以使对佩戴者的引导更加容易。
在本发明的意义上,导航视觉辅助功能与对HMD的任何适配或修改相关,该适配或修改通过增强佩戴者对使用过的路线视觉体验对于使引导佩戴者更加容易而言是有用的。
如在下面各个实施例中所描述的,导航视觉辅助功能适配可以是对HMD的主动功能的控制和/或在不同的预定头戴式设备功能之间的切换和/或与真实场景的图像和/或计算机生成的图像相关的任何功能。
根据本发明的实施例,当检测到佩戴者的给定地理位置,就根据佩戴者视觉参数对头戴式设备的导航视觉辅助功能进行适配。
例如,当检测到佩戴者正面向街灯的事实时,使用GPS定位和图像识别***,对头戴式设备的功能进行适配以便为佩戴者在视觉上强调该街灯。
根据本发明的实施例,该方法可以包括建议步骤,在该建议步骤过程中,向使用者建议经适配的头戴式设备功能。根据这样的实施例,该头戴式设备的经适配的头戴式设备功能在使用者验证所建议的经适配的头戴式设备功能时加以适配。
根据实施例,头戴式设备功能可以在不同的预定头戴式设备功能之间进行切换。
根据本发明的实施例,头戴式设备可以包括主动功能以及被配置成用于控制主动功能的控制单元。
在导航视觉辅助功能适配步骤过程中对主动功能进行适配。
在实施例中,主动功能是电致变色类型。
由电致变色设备透射的光量可以被控制,例如,通过控制电场强度或跨HMD的电致变色设备的电压。
可以在视觉辅助功能适配步骤过程中对电致变色设备的透射进行适配。
例如,基于佩戴者的光灵敏度,光透射的两个水平可以被确定。基于佩戴者的地理位置,电致变色设备可以被控制成在两个光透射水平之间切换。通常,当检测到佩戴者正进入建筑物或隧道时,光透射可以被设置为高水平,而当检测到佩戴者正退出建筑物或隧道时,光透射可被设置为较低水平。
因此,使用者可以沉稳、安全的方式沿着路线移动。
佩戴者的地理位置可以与用于确定头戴式设备的最适当功能的进一步信息相结合。
根据本发明的实施例,该方法可以在导航视觉辅助功能适配步骤S3之前进一步包括视觉环境参数提供步骤。
在视觉环境参数提供步骤过程中,提供与佩戴者的环境相关的至少一个参数的值。
例如,可以考虑一天的时长或一年的时间。也可以考虑直接环境数据。例如,头戴式设备可以包括被适配成用于测量环境亮度的光传感器。
可以考虑所述进一步信息对头戴式设备的功能(通常光透射)进行适配。
这类环境参数还可以与容貌检测、碰撞风险检测、头戴式设备状态(如电池电量)、通知、显示的内容或者与佩戴者的环境有关的任何其他参数相对应。
根据本发明的实施例,在导航视觉辅助功能步骤过程中对滤光器的透射、反射和/或吸收规格进行适配。
根据本发明的实施例,头戴式设备可以包括可编程镜片,该可编程镜片的屈光功能可以通过控制镜片上的张力而受控制。
可编程镜片的屈光功能可以被适配以便强调佩戴者的视觉环境中的元素。通常,当检测到佩戴者正面向街灯时,可编程镜片的屈光功能可以被适配以便向佩戴者提供街灯的清晰视景。
根据本发明的实施例,该头戴式设备是在图2上表示的头戴式显示设备。
在本实例中,镜架类似于常规眼镜架并且可以以类似的舒适度佩戴。然而,其他实施方式也是可能的,例如通过头盔、条带或其它装置而戴在使用者头上的面罩。该镜架包括镜架前部102和镜腿104和105。该镜架前部固持着用于使用者左眼的***片101和用于使用者右眼的***片103。左右取向是从使用者的角度来看的。左侧***片101包括透光光学部件122(如分束器),该分束器将增强的现实图像与来自现实世界场景的光混合,以便由左眼观看。
右侧***片103包括光学部件120(如分束器),该分束器将增强的现实图像与来自现实世界场景的光混合,以便由右眼观看。
右侧增强的现实发射器116经由臂114安装到该镜架上,并且左侧增强的现实发射器108经由臂110安装到该镜架上。
该头戴式设备包括被适配成用于采集面向佩戴者的真实世界场景的图像的场景照相机112。
电源130(例如,电池)为该头戴式设备的不同元件提供电力。
例如,可以通过该镜架中的导电路径形成适当的电气连接。
图3上展示了本发明的使用如在图2上所表示的头戴式设备的本地实现方式的示例。
根据这类实施例,该导航视觉辅助功能适配步骤可以进一步包括:
-图像采集步骤S31,
-图像处理选择步骤S33,
-图像处理步骤S34,以及
-显示步骤S35,
在图像采集步骤S31过程中,由场景照相机采集面向佩戴者的真实世界场景的至少一张图像。
根据本发明的本地实现方式,由场景照相机采集的图像被存储在包含于头戴式移除设备中的存储器中。
在地理位置比较步骤过程中,例如使用由位于头戴式设备中的GPS芯片确定的GPS坐标将在地理位置确定步骤过程中确定的佩戴者的地理位置与所存储的沿着路线得多个地理位置进行比较。
这些存储的地理位置与存储器中的至少一种图像处理相关联地被存储。这些地理位置以及相关联的图像处理可以被列举作为数据库,该数据库本地地储存在包含于头戴式设备中的存储器中。
根据本发明的实施例,该方法可以进一步包括图像元素标识步骤S321。
在图像元素标识步骤S321过程中,在图像采集步骤S31过程中采集的图像被分析以便标识在预定义元素列表中的至少一个预定义元素。预定义元素列表中的这些预定义元素中的每个预定义元素与至少一种图像处理相关联。
对图像的分析可以包括使用适当的算法标识图像中的元素并且当标识出元素时将所标识的元素与预先存储的元素进行比较。
有利地,图像元素标识步骤允许基于所标识的元素提供更具体的且经适配的图像处理。图像元素标识步骤还可以用于提供佩戴者的地理位置或者至少提高佩戴者的地理位置的精确度。
在图像处理选择步骤S33过程中,选择同与佩戴者的地理位置匹配的存储地理位置相关联的图像处理中的至少一种图像处理。
可以在由以下各项组成的列表中选择图像处理:
-图像的放大,和/或
-图像的重新映射,和/或
-颜色的最简化,和/或
-颜色的放大,和/或
-颜色的重新映射,和/或
-图像强度增强,和/或
-对比度增强,和/或
-亮度增强,和/或
-亮度调节视野,和/或
-图像的缩小,和/或
-轮廓增强,和/或
-图像的二值化。
图像处理还可以包括图像在佩戴者的视野中的显示位置(定位)(例如参照设备HMD的框架)和/或有待可视化的图像的焦点平面的位置。
例如,图像处理是在将在地理位置确定步骤过程中确定的地理位置与这些存储的地理位置之一匹配时而选择的。
通常,数据库可以包括与道路施工相对应的存储地理位置。基于佩戴者的眼睛缺陷,地理位置可以与不同的图像处理相关联,这些图像处理可以强调道路施工的指示。
例如,数据库可以包括与风险区警告相对应的存储地理位置。
例如,为了增强街道名标志,图像处理可以是与对比度增强相组合的图像放大。
为了增强火车站标志,图像处理可以是与亮度增强相组合的图像放大。
为了增强在数字屏幕上显示的信息,图像处理可以是与图像二值化相组合的图像放大。
例如,针对具有给定处方数据PD的给定近视佩戴者,根据本发明显示的图像将针对佩戴者的屈光不正/老花眼被定制并且对于所述佩戴者而言是完全清晰的,但是对于具有不同处方数据的其他佩戴者而言不清晰。
为了增强在墙上显示的信息(例如,地铁线路图),HMD的处理器执行计算步骤或处理步骤,以便提供适合于佩戴者VPD的经修改的图像数据。
有利地,根据本发明的方法提供可靠的安全装置来以容易且安全的方式沿着路线沉稳地移动。
多种图像处理可以与地理位置相关联。至少基于佩戴者视觉参数选择最适当的图像处理或图像处理的组合。
根据本发明的包括图像元素标识步骤的实施例,最适当的图像处理的选择可以进一步基于在图像中所标识的元素。
有利地,通过标识有待在所采集的图像中增强的多个元素大大地增加了图像处理的相关性。
所述最适当的图像处理的选择可以进一步基于在视觉环境参数确定步骤过程中确定的环境参数。在这些可能感兴趣的环境参数之中,如已经提及的,可以考虑一天(白天/夜晚)中的时间、一天中的时长和/或天气。
实际上,取决于环境参数,有待应用的图像处理可以是不同的并且甚至有待增强的信息的类型可以改变。
通常,某个道路信号(例如,滑路标志)可能在雨天需要被增强而在干燥状况下所述路标没有关系并因此不应被本发明的方法增强。
这些环境参数可以由技术人员通过任何已知的手段来确定,例如,使用速度传感器或通过经由网络与远端实体交换数据。这些环境参数还可以由佩戴者使用配备有头戴式设备的通信装置来提供。
所述最适当的图像处理的选择可以进一步基于在佩戴者活动参数确定步骤过程中确定的佩戴者活动参数。在这些可能相关的佩戴者活动参数之中,可以考虑步行、驾驶、骑自行车等活动。
实际上,取决于佩戴者的活动,有待应用的图像处理可以是不同的并且甚至有待增强的信息的类型可以改变。
通常,当佩戴者正在步行时人行道灯是特别感兴趣的,而当佩戴者正在驾驶时道路灯是特别感兴趣的。
在图像处理步骤S34过程中,根据所选择的图像处理对在图像采集步骤S31过程中采集的佩戴者的视觉环境的图像进行处理。
步骤S34可以包括单次(一次)计算或者可以包括例如针对图像的动态可视化的‘动态的’、连续的或实时的计算。根据本发明的本地实现方式,使用位于头戴式设备中的处理器对图像进行处理。
在显示步骤过程中,向佩戴者显示佩戴者的视觉环境的经处理的图像。使用透视头戴式显示设备显示经处理的图像。
在图4上展示了本发明的远程实现方式。
根据这种实施例,导航视觉辅助功能适配步骤包括:
-图像采集步骤S31,
-所采集的图像发送步骤S311,
-图像处理选择步骤S33,
-图像处理步骤S34,
-接收步骤S341,以及
-显示步骤S35。
图像采集步骤S31相当于针对本发明的本地实现方式详细描述的那个图像采集步骤。
在所采集的图像发送步骤S311过程中,在图像采集步骤S31过程中采集的该采集图像从头戴式设备被发送至远端实体,例如,远端服务器。
在地理位置确定步骤过程中采集的地理位置在地理位置发送步骤S21过程中被发送至远端实体。
地理位置比较步骤S32相当于针对本发明的本地实现方式详细描述的那个地理位置比较步骤,但所述步骤是在远端服务器处实现的除外。与图像处理相关联的这些存储地理位置例如作为数据库被存储在远端服务器的存储器中。
该方法可以进一步包括关于本地实现方式的图像元素标识步骤S321。由位于远端服务器侧的处理器执行图像元素标识步骤S321。
图像处理选择步骤S33和图像处理步骤S34相当于针对本发明的本地实现方式详细描述的那些步骤,但所述这些步骤是在远端服务器处实现除外。
在接收步骤S341过程中,经处理的图像由头戴式显示设备所接收。
至于本地实现的实施例,在显示步骤S35过程中向佩戴者显示所接收的经处理的图像。
本发明还提供了一种用于检索供显示经处理的图像的合适数据的方法。该数据可以被绑定于特定位置上,以便将信息、图片等‘标记’或‘打标’到那个特定位置上。该位置不需要是固定的GPS坐标。
在本实施例中,接收步骤可以是将所述经处理的图像数据从通信终端TERM传输到头戴式设备HMD的步骤。从佩戴者的观点来看,传输可以是‘推式’或‘拉式’,即,不考虑来自佩戴者的任何命令、或者由佩戴者的有效命令触发。
根据本实施例,该经处理的图像可以存储在所述终端TERM上的存储器上,或者存储在经由网络NETW与终端TERM相连接的数据库DB中。数据库DB可以包括多个数据集,其中,每个数据集对应于给定的内容(文本、图像等)。
根据替代性远程实施例,可以由位于头戴式设备中的处理器本地地实现对所采集的图像的处理。
有利地,根据这类实施例,带宽需求被减少,因为这些图像没有在头戴式设备与远端服务器之间传输。
根据另一个实施例,真实场景的图像采集步骤可以由图像检索步骤替换,在该图像检索步骤过程中,存储在数据库或存储器中的图像在图像处理选择步骤之后被检索从而被处理。
如果所存储的图像在存储之前已经被预处理,那么可以去除处理步骤和图像处理选择步骤。
因此,这些存储的地理位置与存储器中的至少一个图像和图像处理和/或与至少预处理的图像相关联地被存储。
该图像可以是计算机生成的图像或者由佩戴者之前采集的或下载的真实场景的图像。
所述数据可以存储在HMD的存储器中和/或存储在由服务器可访问的数据库中。
为了向佩戴者提供实时信息,以至少15Hz、优选地至少20Hz、最优选地至少24Hz的频率优选地重复本发明的方法的这些步骤。
除了经处理的图像,该方法可以包括除了基于佩戴者的地理位置的该佩戴者的视觉环境的经处理的图像之外还显示互补视觉信息。
通常,该方法可以显示交通信息、购物信息、方位信息或与佩戴者有关的任何其他类型的信息。
根据本发明的实施例,该方法可以进一步包括基于在地理位置确定步骤过程中确定的地理位置向佩戴者提供音频指示。
根据实施例中,本发明还提供一种用于创建经处理的图像(标记/内容)的方法。然后,所述经处理的图像可以随后被检索并被显示。该经处理的图像还可以与给定位置相关联,从而使得本发明还提供一种用于使用经处理的图像进行标记的方法。
在本实施例中,该方法可以包括可选的(i)检测配备有头戴式经处理的图像显示设备HMD的佩戴者的移动的步骤,和(ii)根据对步骤(i)的移动的识别采集数据的步骤。步骤(i)的移动可以是适合于生成用于命令的控制信号的任何移动。
采集数据的步骤(ii)可以包括选自以下各项中的一项或多项:从菜单中选择选项、在虚拟键盘上点击至少一个键、在虚拟记事本上手写、通过语音命令发出指令、拍摄数字图片或记录数字视频。步骤(ii)中的数据因此可以是文本、图片、其组合的数据等。本发明因此可以提供多个虚拟帖子,这些虚拟帖子是具有内容的计算机生成的经处理的图像标记。步骤(ii)还可以是虚拟注释步骤,例如,通过虚拟点击(从预定义的菜单或预定义的图标中进行选择,如选择虚拟按钮‘喜欢!’)或虚拟手写,其可以被识别并被转换成数字文本。
再次,通信终端可以或可以不经由网络连接到服务器上。在本发明的方法中,步骤(ii)可以被执行而无需连接到服务器上。替代地,所述至少一个通信终端TERM可以经由网络NETW连接到通信服务器SERV上并且该经处理的图像可以与位置相关联地存储在通信数据库DB中。所传输的数据与给定位置的关联允许定位标记(即,将经处理的图像(内容)与特定位置相关联)的选项。例如,可以在位于餐馆附近的终端上获得所述餐馆的顾客评论。与数据相关联的位置可以或可以不是佩戴者的位置:该位置可是当佩戴者出现在终端附近时佩戴者的位置,但是其还可能在佩戴者不再位于兴趣位置时为佩戴者提供数据与位置之间的关联,例如,通过经由网络使用另一个终端向服务器提供数据。
本发明还提供多个选项用于定义佩戴者概况和访问权限。佩戴者概况的定义对于为给定佩戴者提供所选择的相关信息是有用的。例如,如果佩戴者对体育运动感兴趣,可以使与运动相关的特定内容对于所述佩戴者而言是可用的从而进行可视化。可以定义访问权限来检索经处理的图像数据(用于将标记或内容可视化的受限访问)和/或来创建经处理的图像(用于生成标记或内容的受限访问)。
根据本发明的实施例,该方法可以在导航视觉辅助功能适配步骤S3之前进一步包括在数据库中预登记至少一条路线的预备步骤,该预备步骤包括以下子步骤:
-关联步骤,以及
-存储步骤。
在关联步骤过程中,路线的路点与至少一个导航视觉辅助功能修改和佩戴者可视化参数数据和/或可视化参数标识符相关联。
更具体地,在关联步骤过程中,佩戴者的不同地理位置被选择、确定并与至少一个导航视觉辅助功能修改(例如,图像处理)相关联。
如之前所指示的,可以通过技术人员已知的任何手段(如使用GPS芯片)来确定佩戴者的地理位置。
导航视觉辅助功能修改可以基于预定的规则被选择或者由佩戴者基于其偏好或两者的组合被选择。例如,可以向佩戴者提出一系列透视头戴式设备功能修改并且佩戴者选择最适当的修改。
导航视觉辅助功能修改与路线路点的关联可以由佩戴者定制和/或从远端实体下载。
远端实体可以提供待下载的一般佩戴者概况,其中,提出了沿着路线定制化视觉辅助功能修改的路点与可视化参数标识符之间的关联。
此外,该定制化可以与一组其他佩戴者共享。例如,具有相同类型的眼睛缺陷的多位佩戴者可以共享图像处理与沿着路线的地理位置的关联。
可以本地地执行关联步骤。地理位置及相关联的透视头戴式设备功能修改存储在位于头戴式设备中的存储器中。
可以远程地执行关联步骤。地理位置及相关联的透视头戴式设备功能修改被发送至并存储在远端实体(例如,服务器)中。
通常,佩戴者可以在城市周围导航并且一旦标识出特定位置则决定将该位置与透视头戴式设备功能修改(如,图像处理)相关联。因此,当再次经过所述特定位置时,透视头戴式设备将基于所选择的修改对透视头戴式设备功能进行适配。
根据本发明的实施例,由佩戴者选择的透视头戴式设备功能修改(如,图像处理)自动地与地理位置相关联并且被记住。
因此,当佩戴者在另一个旅行时经过同一位置时,之前选择的透视头戴式设备功能修改可以或者自动地应用于或者至少建议给佩戴者。
透视头戴式设备功能修改可以进一步与视觉环境参数相关联。因此,一旦标识出类似的环境参数,可以向佩戴者建议由佩戴者选择的透视头戴式设备功能修改。
在存储步骤过程中,地理位置及相关联的至少一个导航视觉辅助功能修改与佩戴者视觉概况一起被存储在数据库DB中。
在一个实施例中,图像数据被存储在服务器上的图像数据库中或被本地地存储。
此外,可以定义对某些图像的访问权限。因此,在图像数据被存储在图像数据库中的情况下,本发明的方法可以包括在所述数据库中预登记佩戴者标识符与所述佩戴者之间的关联以及可选地根据访问权限的图像数据的预备步骤。佩戴者标识符可以与可视化参数标识符VPID相同或不同。佩戴者标识符可以是位于设备HMD或服务器上的代码,例如,QR代码或RFID代码。因此,可以定义与图像数据库连接的访问权限的一个或多个级别。
以上在不限制总体发明构思的情况下已经借助于实施例描述了本发明。
对于参考了以上说明的实施例的本领域技术人员来说,还可以提出很多进一步的修改和变化,这些实施例仅以实例方式给出,无意限制本发明的范围,本发明的范围仅由所附权利要求书予以限定。
在权利要求书中,词“包括”并不排除其他的元件或步骤,并且不定冠词“一个”或“一种”并不排除复数。不同的特征在相互不同的从属权利要求中被叙述这个单纯的事实并不表示不能有利地使用这些特征的组合。权利要求书中的任何参考符号都不应当被解释为限制本发明的范围。
Claims (19)
1.一种针对透视头戴式设备的佩戴者的导航方法,该方法包括:
-佩戴者可视化参数提供步骤,在该步骤过程中,提供与该佩戴者的眼睛状况相关的至少一个佩戴者可视化参数,
-地理位置确定步骤,在该步骤过程中,确定该佩戴者沿着路线的地理位置,
-地理位置比较步骤,在该步骤过程中,将在该地理位置确定步骤过程中所确定的该佩戴者沿着该路线的地理位置与多个存储的地理位置进行比较,以及
-导航视觉辅助功能适配步骤,在该步骤过程中,在该佩戴者的地理位置与这些存储的地理位置之一匹配时,则基于该佩戴者可视化参数和该佩戴者的地理位置两者对该导航视觉辅助功能进行适配,
-其中,该导航视觉辅助是由该透视头戴式设备提供的。
2.根据权利要求1所述的导航方法,其中,该头戴式设备包括显示设备并且该导航视觉辅助功能适配步骤进一步包括:
-经处理的图像选择步骤,在该步骤过程中,一旦将该佩戴者的地理位置与这些存储的地理位置之一匹配,则根据该佩戴者可视化参数选择与同该佩戴者的地理位置相匹配的存储的地理位置相关联的经处理的图像中的至少一张图像,
-显示步骤,在该步骤过程中,通过该透视头戴式显示设备向该佩戴者显示该佩戴者的视觉环境的经处理的图像。
3.根据权利要求1或2所述的导航方法,其中,该头戴式设备包括显示设备以及被适配成用于采集该佩戴者的视觉环境的图像的照相机,并且该导航视觉辅助功能适配步骤进一步包括:
-图像采集步骤,在该步骤过程中,由该照相机采集该佩戴者的视觉环境的至少一张图像,
-图像处理选择步骤,在该步骤过程中,一旦将该佩戴者的地理位置与这些存储的地理位置之一匹配,则根据该佩戴者可视化参数选择与同该佩戴者的地理位置相匹配的该存储的地理位置相关联的图像处理中的至少一种图像处理,
-图像处理步骤,在该步骤过程中,根据在图像处理选择步骤过程中所选择的该图像处理对在该图像采集步骤过程中所采集的视觉环境的图像进行处理,
-显示步骤,在该步骤过程中,由该透视头戴式显示设备向该佩戴者显示该视觉环境的该经处理的图像。
4.根据权利要求3所述的导航方法,其中,该导航视觉辅助功能适配步骤进一步包括:
-图像元素标识步骤,在该步骤过程中,分析该佩戴者的该视觉环境的图像以便标识在预定义的元素列表中列举的至少一个预定义元素,这些预定义元素中的每个预定义元素与至少一种图像处理相关联,并且
-在该图像处理选择步骤过程中,当标识出该佩戴者的该视觉环境的该图像中的与在该预定义元素列表中列举的这些预定义元素中之一相对应的元素,选择与在该佩戴者的该视觉环境的该图像中标识出的该预定义元素相关联的图像处理。
5.根据权利要求3或4中任一项所述的导航方法,其中,该方法进一步包括:
-视觉环境参数确定步骤,在该步骤过程中,确定至少一个视觉环境参数,并且
-在该图像处理选择步骤过程中,根据该视觉环境参数选择该图像处理,和/或在该经处理的图像选择步骤过程中,根据该视觉环境参数选择该经处理的图像。
6.根据权利要求3至5中任一项所述的导航方法,其中,该方法进一步包括:
-发送步骤,在该步骤过程中,该地理位置被发送至远端实体以便与同至少一种图像处理相关联的多个存储的地理位置进行比较,
-接收步骤,在该步骤过程中,所选择的图像处理和/或该经处理的图像是从远端实体接收的。
7.根据权利要求3至5中任一项所述的导航方法,其中,该方法进一步包括:
-发送步骤,在该步骤过程中,该地理位置被发送至远端实体以便与同至少一种图像处理相关联的多个存储的地理位置进行比较,并且该佩戴者的该视觉环境的所采集的图像被发送至该远端实体以便基于和该地理位置相关联的图像处理而被处理,
-接收步骤,在该步骤过程中,该经处理的图像是从远端实体接收的。
8.根据权利要求2至7中任一项所述的导航方法,其中,该方法进一步包括基于视觉环境的经处理的图像显示互补视觉信息,该视觉环境基于该佩戴者的地理位置。
9.根据以上权利要求中任一项所述的导航方法,其中,该头戴式显示设备包括主动功能和被配置成用于控制该主动功能的控制单元,并且在该导航视觉辅助功能适配步骤过程中对该主动功能进行适配。
10.根据以上权利要求中任一项所述的导航方法,其中,该方法进一步包括在数据库中预登记佩戴者标识符与所述佩戴者可视化参数之间的关联的步骤。
11.根据权利要求10所述的导航方法,其中,与该佩戴者标识符相关联的所述佩戴者可视化参数中的至少一个可视化参数被存储在经由网络与该头戴式设备连接的服务器上的佩戴者数据库中。
12.根据以上权利要求中任一项所述的导航方法,其中,该方法进一步包括在数据库中预登记至少一条路线的预备步骤,该预备步骤包括以下子步骤:
-关联步骤,在该步骤过程中,将在该地理位置确定步骤过程中确定的沿着该路线的地理位置与至少一个导航视觉辅助功能修改相关联,以及
-存储步骤,在该步骤过程中,该地理位置和该相关联的至少一个导航视觉辅助功能修改被存储。
13.根据权利要求12所述的导航方法,其中,该预备步骤进一步包括:
-图像采集步骤,在该步骤过程中,由该照相机采集该佩戴者的视觉环境的至少一张图像,以及
-图像处理选择步骤,在该步骤过程中,根据该佩戴者可视化参数选择图像处理中的至少一种图像处理,
-图像处理步骤,在该步骤过程中,根据在图像处理选择步骤过程中所选择的该图像处理对在该图像采集步骤过程中所采集的该视觉环境的该图像进行处理,并且
-在该关联步骤过程中,将该经处理的图像与该地理位置关联。
14.根据权利要求12所述的导航方法,其中,该预备步骤进一步包括:
-图像选择步骤,在该步骤过程中,选择至少一张图像,以及
-图像处理选择步骤,在该步骤过程中,根据该佩戴者可视化参数选择图像处理中的至少一种图像处理,
-图像处理步骤,在该步骤过程中,根据在图像处理选择步骤过程中所选择的该图像处理对所选择的图像进行处理,并且
-在该关联步骤过程中,将该经处理的图像与该地理位置关联。
15.根据权利要求10至14所述的导航方法,其中,根据所述佩戴者标识符、可选地根据访问权限定义该导航视觉辅助功能修改数据。
16.根据权利要求12或13或14所述的导航方法,其中,该关联步骤由该佩戴者执行。
17.根据以上权利要求中任一项所述的导航方法,其中,该方法在该地理位置比较步骤之前进一步包括接收步骤,在该接收步骤过程中,从远端实体接收并存储与该导航视觉辅助功能修改相关联的这些存储的地理位置。
18.一种计算机程序产品,该计算机程序产品包括一个或多个存储的指令序列,该一个或多个指令序列对于处理器而言是可访问的并且在由该处理器执行时致使该处理器执行如权利要求1至17中任一项所述的步骤。
19.一种计算机可读介质,该计算机可读介质承载权利要求18所述的计算机程序产品的一个或多个指令序列。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP13306209.1 | 2013-09-04 | ||
EP13306209 | 2013-09-04 | ||
PCT/EP2014/068763 WO2015032833A1 (en) | 2013-09-04 | 2014-09-03 | Navigation method based on a see-through head-mounted device |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105518416A true CN105518416A (zh) | 2016-04-20 |
CN105518416B CN105518416B (zh) | 2019-05-21 |
Family
ID=49209304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480048501.5A Active CN105518416B (zh) | 2013-09-04 | 2014-09-03 | 基于透视头戴式设备的导航方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9976867B2 (zh) |
EP (1) | EP3042152B1 (zh) |
JP (1) | JP6600310B2 (zh) |
KR (1) | KR102263496B1 (zh) |
CN (1) | CN105518416B (zh) |
BR (1) | BR112016003445B1 (zh) |
CA (1) | CA2921104C (zh) |
WO (1) | WO2015032833A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108700942A (zh) * | 2016-05-17 | 2018-10-23 | 谷歌有限责任公司 | 在虚拟/增强现实***中改变对象位置的技术 |
CN111426268A (zh) * | 2020-04-20 | 2020-07-17 | 武汉大学中南医院 | 一种双目视觉相机匹配方法 |
CN111491280A (zh) * | 2019-01-25 | 2020-08-04 | 依视路国际公司 | 用于识别设备的方法 |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10528135B2 (en) | 2013-01-14 | 2020-01-07 | Ctrl-Labs Corporation | Wearable muscle interface systems, devices and methods that interact with content displayed on an electronic display |
WO2014186370A1 (en) | 2013-05-13 | 2014-11-20 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices that accommodate different user forms |
US11426123B2 (en) | 2013-08-16 | 2022-08-30 | Meta Platforms Technologies, Llc | Systems, articles and methods for signal routing in wearable electronic devices that detect muscle activity of a user using a set of discrete and separately enclosed pod structures |
US20150124566A1 (en) | 2013-10-04 | 2015-05-07 | Thalmic Labs Inc. | Systems, articles and methods for wearable electronic devices employing contact sensors |
US10042422B2 (en) | 2013-11-12 | 2018-08-07 | Thalmic Labs Inc. | Systems, articles, and methods for capacitive electromyography sensors |
US11921471B2 (en) | 2013-08-16 | 2024-03-05 | Meta Platforms Technologies, Llc | Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source |
US9788789B2 (en) | 2013-08-30 | 2017-10-17 | Thalmic Labs Inc. | Systems, articles, and methods for stretchable printed circuit boards |
JP6600310B2 (ja) * | 2013-09-04 | 2019-10-30 | エシロール エンテルナショナル | シースルー頭部装着型装置に基づいたナビゲーション方法 |
WO2015081113A1 (en) | 2013-11-27 | 2015-06-04 | Cezar Morun | Systems, articles, and methods for electromyography sensors |
US10199008B2 (en) | 2014-03-27 | 2019-02-05 | North Inc. | Systems, devices, and methods for wearable electronic devices as state machines |
US20150325202A1 (en) * | 2014-05-07 | 2015-11-12 | Thalmic Labs Inc. | Systems, devices, and methods for wearable computers with heads-up displays |
US9880632B2 (en) | 2014-06-19 | 2018-01-30 | Thalmic Labs Inc. | Systems, devices, and methods for gesture identification |
US9874744B2 (en) | 2014-06-25 | 2018-01-23 | Thalmic Labs Inc. | Systems, devices, and methods for wearable heads-up displays |
US9807221B2 (en) | 2014-11-28 | 2017-10-31 | Thalmic Labs Inc. | Systems, devices, and methods effected in response to establishing and/or terminating a physical communications link |
US9958682B1 (en) | 2015-02-17 | 2018-05-01 | Thalmic Labs Inc. | Systems, devices, and methods for splitter optics in wearable heads-up displays |
JP2018506744A (ja) | 2015-02-17 | 2018-03-08 | サルミック ラブス インコーポレイテッド | ウェアラブルヘッドアップディスプレイにおけるアイボックス拡張のためのシステム、機器、及び方法 |
CN104850138B (zh) * | 2015-04-22 | 2017-07-04 | 刘伟中 | 智能控制变焦训练设备 |
US10078435B2 (en) | 2015-04-24 | 2018-09-18 | Thalmic Labs Inc. | Systems, methods, and computer program products for interacting with electronically displayed presentation materials |
US10175488B2 (en) | 2015-05-04 | 2019-01-08 | North Inc. | Systems, devices, and methods for spatially-multiplexed holographic optical elements |
US10488661B2 (en) | 2015-05-28 | 2019-11-26 | North Inc. | Systems, devices, and methods that integrate eye tracking and scanning laser projection in wearable heads-up displays |
CN108474873A (zh) | 2015-09-04 | 2018-08-31 | 赛尔米克实验室公司 | 用于将全息光学元件与眼镜镜片整合在一起的***、制品和方法 |
CA3007196A1 (en) | 2015-10-01 | 2017-04-06 | Thalmic Labs Inc. | Systems, devices, and methods for interacting with content displayed on head-mounted displays |
US9904051B2 (en) | 2015-10-23 | 2018-02-27 | Thalmic Labs Inc. | Systems, devices, and methods for laser eye tracking |
US10802190B2 (en) | 2015-12-17 | 2020-10-13 | Covestro Llc | Systems, devices, and methods for curved holographic optical elements |
US10303246B2 (en) | 2016-01-20 | 2019-05-28 | North Inc. | Systems, devices, and methods for proximity-based eye tracking |
US10151926B2 (en) | 2016-01-29 | 2018-12-11 | North Inc. | Systems, devices, and methods for preventing eyebox degradation in a wearable heads-up display |
CN105867617B (zh) * | 2016-03-25 | 2018-12-25 | 京东方科技集团股份有限公司 | 增强现实设备、***、图像处理方法及装置 |
EP3443414A2 (en) | 2016-04-13 | 2019-02-20 | North Inc. | Systems, devices, and methods for focusing laser projectors |
EP3487395A4 (en) | 2016-07-25 | 2020-03-04 | CTRL-Labs Corporation | METHODS AND APPARATUS FOR PREDICTING MUSCULOSKELETAL POSITION INFORMATION USING PORTABLE SELF-CONTAINED SENSORS |
US11216069B2 (en) | 2018-05-08 | 2022-01-04 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
US10277874B2 (en) | 2016-07-27 | 2019-04-30 | North Inc. | Systems, devices, and methods for laser projectors |
WO2018027326A1 (en) | 2016-08-12 | 2018-02-15 | Thalmic Labs Inc. | Systems, devices, and methods for variable luminance in wearable heads-up displays |
CN106375448A (zh) * | 2016-09-05 | 2017-02-01 | 腾讯科技(深圳)有限公司 | 图像处理方法和装置及*** |
US10215987B2 (en) | 2016-11-10 | 2019-02-26 | North Inc. | Systems, devices, and methods for astigmatism compensation in a wearable heads-up display |
WO2018098579A1 (en) | 2016-11-30 | 2018-06-07 | Thalmic Labs Inc. | Systems, devices, and methods for laser eye tracking in wearable heads-up displays |
US10663732B2 (en) | 2016-12-23 | 2020-05-26 | North Inc. | Systems, devices, and methods for beam combining in wearable heads-up displays |
US10437073B2 (en) | 2017-01-25 | 2019-10-08 | North Inc. | Systems, devices, and methods for beam combining in laser projectors |
US10372207B2 (en) * | 2017-08-16 | 2019-08-06 | Disney Enterprises, Inc. | Adaptive VR/AR viewing based on a users eye condition profile |
US10438404B2 (en) | 2017-10-13 | 2019-10-08 | Disney Enterprises, Inc. | Ambient light characterization |
CN112040858B (zh) | 2017-10-19 | 2024-06-07 | 元平台技术有限公司 | 用于识别与神经肌肉源信号相关的生物结构的***和方法 |
WO2019079894A1 (en) | 2017-10-23 | 2019-05-02 | North Inc. | MULTIPLE LASER DIODE MODULES WITH FREE SPACES |
US10740938B2 (en) * | 2017-12-04 | 2020-08-11 | International Business Machines Corporation | Cognitive situation-aware vision deficiency remediation |
US11907423B2 (en) | 2019-11-25 | 2024-02-20 | Meta Platforms Technologies, Llc | Systems and methods for contextualized interactions with an environment |
US11481030B2 (en) | 2019-03-29 | 2022-10-25 | Meta Platforms Technologies, Llc | Methods and apparatus for gesture detection and classification |
US11493993B2 (en) | 2019-09-04 | 2022-11-08 | Meta Platforms Technologies, Llc | Systems, methods, and interfaces for performing inputs based on neuromuscular control |
US11567573B2 (en) | 2018-09-20 | 2023-01-31 | Meta Platforms Technologies, Llc | Neuromuscular text entry, writing and drawing in augmented reality systems |
US11961494B1 (en) | 2019-03-29 | 2024-04-16 | Meta Platforms Technologies, Llc | Electromagnetic interference reduction in extended reality environments |
US10937414B2 (en) | 2018-05-08 | 2021-03-02 | Facebook Technologies, Llc | Systems and methods for text input using neuromuscular information |
US11150730B1 (en) | 2019-04-30 | 2021-10-19 | Facebook Technologies, Llc | Devices, systems, and methods for controlling computing devices via neuromuscular signals of users |
US10592001B2 (en) | 2018-05-08 | 2020-03-17 | Facebook Technologies, Llc | Systems and methods for improved speech recognition using neuromuscular information |
WO2020047429A1 (en) | 2018-08-31 | 2020-03-05 | Ctrl-Labs Corporation | Camera-guided interpretation of neuromuscular signals |
CN113423341A (zh) | 2018-11-27 | 2021-09-21 | 脸谱科技有限责任公司 | 用于可穿戴电极传感器***的自动校准的方法和装置 |
US10621858B1 (en) | 2019-02-06 | 2020-04-14 | Toyota Research Institute, Inc. | Systems and methods for improving situational awareness of a user |
US11868531B1 (en) | 2021-04-08 | 2024-01-09 | Meta Platforms Technologies, Llc | Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof |
KR102321470B1 (ko) * | 2021-07-28 | 2021-11-03 | 주식회사 셀리코 | 전기변색층 기반의 시력 보조 장치 및 이를 포함하는 시력 보조 안경 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101505710A (zh) * | 2006-08-15 | 2009-08-12 | 皇家飞利浦电子股份有限公司 | 用于视觉缺陷人员的辅助*** |
DE102008042397A1 (de) * | 2008-09-26 | 2010-04-01 | Robert Bosch Gmbh | Navigationssystem mit kontaktanaloger Anzeige |
US20100177179A1 (en) * | 2009-01-15 | 2010-07-15 | International Business Machines Corporation | Apparatus and method for enhancing field of vision of the visually impaired |
US20120050144A1 (en) * | 2010-08-26 | 2012-03-01 | Clayton Richard Morlock | Wearable augmented reality computing apparatus |
WO2012114123A1 (en) * | 2011-02-24 | 2012-08-30 | Isis Innovation Limited | An optical device for the visually impaired |
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146778A (ja) * | 2004-11-24 | 2006-06-08 | Konica Minolta Photo Imaging Inc | ヘッドマウントディスプレイ装置 |
JP5040061B2 (ja) * | 2004-12-15 | 2012-10-03 | コニカミノルタホールディングス株式会社 | 映像表示装置及び情報提供システム |
JP4604747B2 (ja) * | 2005-02-07 | 2011-01-05 | コニカミノルタフォトイメージング株式会社 | 映像表示装置、及び眼鏡型映像表示装置 |
JP5309448B2 (ja) * | 2007-01-26 | 2013-10-09 | ソニー株式会社 | 表示装置、表示方法 |
KR101578721B1 (ko) * | 2008-12-15 | 2015-12-21 | 엘지전자 주식회사 | 네비게이션 단말기 및 네비게이션 단말기의 경로안내방법 |
US20140240313A1 (en) * | 2009-03-19 | 2014-08-28 | Real Time Companies | Computer-aided system for 360° heads up display of safety/mission critical data |
US8467133B2 (en) * | 2010-02-28 | 2013-06-18 | Osterhout Group, Inc. | See-through display with an optical assembly including a wedge-shaped illumination system |
US9940901B2 (en) * | 2012-09-21 | 2018-04-10 | Nvidia Corporation | See-through optical image processing |
US20140128161A1 (en) * | 2012-11-06 | 2014-05-08 | Stephen Latta | Cross-platform augmented reality experience |
US9401048B2 (en) * | 2013-03-15 | 2016-07-26 | Qualcomm Incorporated | Methods and apparatus for augmented reality target detection |
JP6600310B2 (ja) * | 2013-09-04 | 2019-10-30 | エシロール エンテルナショナル | シースルー頭部装着型装置に基づいたナビゲーション方法 |
US9798145B2 (en) * | 2014-05-23 | 2017-10-24 | Qualcomm Incorporated | Method and apparatus for see-through near eye display |
US9995933B2 (en) * | 2014-06-24 | 2018-06-12 | Microsoft Technology Licensing, Llc | Display devices with transmittance compensation mask |
-
2014
- 2014-09-03 JP JP2016539534A patent/JP6600310B2/ja active Active
- 2014-09-03 US US14/915,863 patent/US9976867B2/en active Active
- 2014-09-03 WO PCT/EP2014/068763 patent/WO2015032833A1/en active Application Filing
- 2014-09-03 CA CA2921104A patent/CA2921104C/en active Active
- 2014-09-03 KR KR1020167004202A patent/KR102263496B1/ko active IP Right Grant
- 2014-09-03 CN CN201480048501.5A patent/CN105518416B/zh active Active
- 2014-09-03 BR BR112016003445-7A patent/BR112016003445B1/pt active IP Right Grant
- 2014-09-03 EP EP14758575.6A patent/EP3042152B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101505710A (zh) * | 2006-08-15 | 2009-08-12 | 皇家飞利浦电子股份有限公司 | 用于视觉缺陷人员的辅助*** |
DE102008042397A1 (de) * | 2008-09-26 | 2010-04-01 | Robert Bosch Gmbh | Navigationssystem mit kontaktanaloger Anzeige |
US20100177179A1 (en) * | 2009-01-15 | 2010-07-15 | International Business Machines Corporation | Apparatus and method for enhancing field of vision of the visually impaired |
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
US20120050144A1 (en) * | 2010-08-26 | 2012-03-01 | Clayton Richard Morlock | Wearable augmented reality computing apparatus |
WO2012114123A1 (en) * | 2011-02-24 | 2012-08-30 | Isis Innovation Limited | An optical device for the visually impaired |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108700942A (zh) * | 2016-05-17 | 2018-10-23 | 谷歌有限责任公司 | 在虚拟/增强现实***中改变对象位置的技术 |
CN108700942B (zh) * | 2016-05-17 | 2021-07-16 | 谷歌有限责任公司 | 在虚拟/增强现实***中改变对象位置的技术 |
CN111491280A (zh) * | 2019-01-25 | 2020-08-04 | 依视路国际公司 | 用于识别设备的方法 |
CN111426268A (zh) * | 2020-04-20 | 2020-07-17 | 武汉大学中南医院 | 一种双目视觉相机匹配方法 |
Also Published As
Publication number | Publication date |
---|---|
CA2921104C (en) | 2022-04-26 |
US9976867B2 (en) | 2018-05-22 |
CA2921104A1 (en) | 2015-03-12 |
BR112016003445A2 (zh) | 2017-08-01 |
KR20160048775A (ko) | 2016-05-04 |
CN105518416B (zh) | 2019-05-21 |
EP3042152A1 (en) | 2016-07-13 |
US20170160093A9 (en) | 2017-06-08 |
BR112016003445B1 (pt) | 2022-10-25 |
KR102263496B1 (ko) | 2021-06-10 |
WO2015032833A1 (en) | 2015-03-12 |
JP2016532218A (ja) | 2016-10-13 |
EP3042152B1 (en) | 2022-11-09 |
BR112016003445A8 (pt) | 2018-08-14 |
JP6600310B2 (ja) | 2019-10-30 |
US20160202081A1 (en) | 2016-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105518416A (zh) | 基于透视头戴式设备的导航方法 | |
US11654074B2 (en) | Providing enhanced images for navigation | |
KR101808852B1 (ko) | 가상현실 헤드셋을 이용한 안경 렌즈 비교 시뮬레이션 시스템 및 그 방법 | |
JP6854647B2 (ja) | 光学レンズ装置を着用者に対して最適化する方法 | |
CN105164576B (zh) | 对适配于佩戴者的头戴式电光设备进行控制的方法 | |
CN103558909B (zh) | 交互投射显示方法及交互投射显示*** | |
CN112835211B (zh) | 控制可编程镜片装置的方法 | |
EP3216023A1 (en) | Visual stabilization system for head-mounted displays | |
JP2015529856A (ja) | 適応型眼用レンズシステムの光学的機能を適応化させる方法 | |
KR20220088678A (ko) | 투영 면에 시각적 장면을 매핑하는 장치 및 방법 | |
US11243401B2 (en) | Method for customizing a head mounted device adapted to generate a virtual image | |
US10345899B2 (en) | Method for adapting the sensorial output mode of a sensorial output device to a user | |
CN118377380A (zh) | 一种基于时空数据的智能眼镜装置和*** | |
KR20240043989A (ko) | 아이트래킹 기반으로 착용자의 상태를 분석하는 증강현실 글래스 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20180224 Address after: France Sharon Ton Le Pon Applicant after: Essilor International Ltd. Address before: France Sharon Ton Le Pon Applicant before: Essilor International General Optical Co., Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |