CN111699432B - 使用沉浸式***确定眼睛的屈光力的方法及其电子设备 - Google Patents

使用沉浸式***确定眼睛的屈光力的方法及其电子设备 Download PDF

Info

Publication number
CN111699432B
CN111699432B CN201980012294.0A CN201980012294A CN111699432B CN 111699432 B CN111699432 B CN 111699432B CN 201980012294 A CN201980012294 A CN 201980012294A CN 111699432 B CN111699432 B CN 111699432B
Authority
CN
China
Prior art keywords
eye
display
wearer
optotype
immersive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980012294.0A
Other languages
English (en)
Other versions
CN111699432A (zh
Inventor
艾希施·戈亚尔
维贾雅·纳拉扬·蒂瓦里
图莎尔·西尔卡
阿罗克纳特·德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN111699432A publication Critical patent/CN111699432A/zh
Application granted granted Critical
Publication of CN111699432B publication Critical patent/CN111699432B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

根据本公开的实施方式提供了用于确定佩戴者的眼睛的屈光力的方法。该方法包括通过第一电子设备(100)使得在第二电子设备(200)的显示器(202)上显示至少一个视标的虚拟图像。此外,该方法包括通过第一电子设备(100)改变视标的焦点以提供光学处方的变化。另外,该方法包括通过第一电子设备(100)基于视标的改变的焦点进行佩戴者的眼睛检查。进一步地,该方法包括通过第一电子设备(100)确定佩戴者的眼睛的屈光力。

Description

使用沉浸式***确定眼睛的屈光力的方法及其电子设备
技术领域
本公开涉及沉浸式***,并且更具体地涉及使用沉浸式***估计眼睛的屈光力的方法和***。
背景技术
人眼是复杂的相机类型的成像***,在该***中,在宽范围距离处的对象动态聚焦在视网膜(光敏组织)上。由于源自角膜和晶状体的组合,眼睛的屈光力可调节,因此可以实现动态聚焦。角膜提供固定的屈光力(即,约为眼睛总聚焦力的三分之二)。但是,晶状体可以改变其形状以将处于各种距离上的物体聚焦到视网膜上。这导致眼睛的光学能力可调节。晶状体形状的这种适应称为调节,而眼睛可以聚焦的距离范围称为调节范围。
眼球、角膜或晶状体的形状缺陷会导致难以或无法将光正确得聚焦到视网膜上,这种缺陷称为屈光误差,并且其症状可包括视力模糊、复视、头痛和眼睛疲劳。图1A-图1C示出了人眼屈光不正的常见类型、其后果及矫正情况。
如图1A所示,完全放松的眼睛将无限远处发出的光线清晰地聚焦在视网膜上,从而产生了理想的视力,这种情况称为正视眼。如图1B所示,来自无限远的光线聚焦在视网膜前面。这样会导致远处的物体显得模糊,而近处的物体则是清晰的。这种情况通常称为近视眼或近视。近视可以使用凹(负)透镜矫正。如图1C中,来自无限远的光线聚焦在视网膜之外。在这种情况下,远处的物体显得清晰,而近处的物体却是模糊的。这种情况通常称为远视眼或远视。远视可以使用凸透镜(即正透镜)矫正。另外,老花眼是眼睛的调节范围受损的一种情况,导致近距离物体和远处物体都显得模糊。其它屈光不正包括由于角膜的不规则形状导致径向不对称聚焦所致的散光和更高阶的误差。
此外,电子设备显示器和虚拟现实耳机的进步为通过交互式***进行远程眼部保健提供了新的机会。这样可以最小化对训练有素的专家和繁琐的临床设置的依赖。
当前,为了测量眼屈光力,人们必须去看临床医生/眼镜师,在那里尝试用不同的透镜读取>4m距离的字母/字母表。没有简单的方法在家中“按需”跟踪/监视视力障碍的进展。例如,用户可能想在拜访临床医生之前最早检测其视力的进展。此外,用户可能想使用电子设备(例如,智能电话)获知现有视力是否有任何变化。
在现有方法中,用于估计眼屈光力的两种方法是客观方法和主观方法。在客观方法中,该方法可以用于检测和估计屈光误差,而无需积极地使受试者参与。在视网膜检影法中,眼睛的眼底被照亮,检影镜用于研究瞳孔的光反射并测量眼睛的屈光状态。因此,通过将参考图案投影到眼底上,然后记录反射后的图像或对准询问图案,直接测量眼睛晶状体的形状。自动折射器将已知的光图案投射在受试者的眼睛中,并测量在视网膜上形成的图像的畸变。包括沙克哈特曼(Shack-Hartmann)技术在内的大多数自动验光仪都是基于舍纳(Scheiner)原理。客观方法需要专门的光学仪器和训练有素的专业人员,从而限制了其在远程眼部保健中的使用。客观方法中涉及复杂的仪器,该仪器具有用于光轴对准和控制调节的可移动光学部件以及特殊波长的发光器。通常需要进行监督,并且在临床设置之外很少使用仪器。
在主观方法中,屈光误差的测量是使用受试者主动参与的反馈来确定的。要求用户在受控距离和照明条件下读取包含标准符号或视标的校准图表、读取字母或对准图案等。屈光误差是通过记录受试者在佩戴各种试戴透镜后对视力图清晰度的判断来测量的。当无法与用户互动时(例如年幼的孩子),主观测试并不合适。寻找受试者的眼睛的矫正处方是一个复杂的过程,通常包括两个步骤。首先使用自动验光仪估计屈光误差,然后使用主观程序进行矫正。通常,在主观方法中使用具有移动部件以及发光器和检测器的专用硬件。使用移动屏幕,而不是专用和特定用途的发光器。使用微透镜阵列和针孔的组合来模拟有限的光场显示。不需要移动光学部件和光探测器。然而,所使用的光学部件在商业上不能用于其他目的,并且专门用于测量眼睛的屈光力。
以上信息仅作为背景信息呈现,以帮助理解本公开。关于以上内容中的任何内容是否可以用作关于本公开的现有技术,既没有做出确定,也没有做出断言。
发明内容
技术问题
本公开的实施方式是提供用于使用沉浸式***确定眼睛的屈光力的方法和***。
本公开的实施方式是在电子设备的显示器上显示至少一个视标的虚拟图像。
本文的公开的实施方式是改变视标的焦点以提供光学处方的变化。
本文的公开的实施方式是基于视标的改变的焦点对佩戴者进行眼睛检查。
问题的解决方案
根据本公开的实施方式,提供了用于确定佩戴者的眼睛的屈光力的方法。该方法包括通过第一电子设备使得在第二电子设备的显示器上显示至少一个视标的虚拟图像。此外,该方法包括通过第一电子设备改变视标的焦点以提供光学处方的变化。此外,该方法包括通过第一电子设备基于视标的改变的焦点对佩戴者进行眼睛检查。此外,该方法包括通过第一电子设备确定佩戴者的眼睛的屈光力。
在实施方式中,使用存在于第一电子设备中的正透镜和***于第一电子设备中的平面反射镜的组合形成显示的视标的虚拟图像。
在实施方式中,至少一个视标的虚拟图像在显示器(202)上显示在可变的光学距离上。
在实施方式中,平面反射镜放置在第一电子设备的内部,其中,平面反射镜放置在第二电子设备的显示器的前方,配置为生成可变的光学距离。
在实施方式中,通过第一电子设备使得在显示器上显示至少一个视标的虚拟图像包括:在第一距离处将定向视标随机地投影在第二电子设备的显示器上;在沿着正透镜(即正沉浸式透镜)的光轴与正透镜相距第二距离处,通过平面反射镜形成第一虚拟未放大正像,其中,第二距离是基于定向视标的第一距离改变的;以及在第三距离处通过平面反射镜形成第二虚拟未放大正像,其中,第二虚拟未放大正像是第一虚拟未放大正像的反射。
在实施方式中,通过将第二电子设备的显示器放置成靠近具有会聚透镜的用户,在第二电子设备的显示器上显示至少一个视标的虚拟图像。
在实施方式中,该方法还包括通过第一电子设备向佩戴者提供通知。
在实施方式中,基于用户历史、行为特征、用户偏好、用户概况信息和用户账户来确定佩戴者的眼睛的屈光力。
在实施方式中,基于语音输入机制、指纹机制、面部识别机制和虹膜识别机制来确定佩戴者的眼睛的屈光力。
在实施方式中,该方法还包括通过第一电子设备将佩戴者的眼睛的屈光力存储在存储器中。
在实施方式中,眼睛的屈光力表示球面屈光不正,其中,球面屈光不正包括近视、远视和老花眼中的至少一种。
在实施方式中,眼睛的屈光力为用户提供关于矫正球面透镜的建议。
根据本公开的实施方式,提供了用于确定佩戴者的眼睛的屈光力的***。该***包括第二电子设备,该第二电子设备包括显示器。显示器与第一电子设备联接。第一电子设备包括平面反射镜和正透镜。第一电子设备配置为在第二电子设备的显示器上显示至少一个视标的虚拟图像。第一电子设备配置为改变视标的焦点以提供光学处方的变化。第一电子设备配置为基于视标的改变的焦点对佩戴者进行眼睛检查。第一电子设备配置为确定佩戴者的眼睛的屈光力。
当结合以下描述和附图考虑时,将更好地领会和理解本文中的实施方式的这些和其他方面。然而,应当理解,以下描述虽然指示了示例性实施方式及其众多具体细节,但是它们是以说明性的而非限制性的方式给出的。在不脱离本发明的精神的情况下,可以在本文的实施方式的范围内做出许多改变和修改,并且本文中的实施方式包括所有这样的修改。
发明的有益效果
本公开的各种实施方式提供了用于更有效地估计眼睛的屈光力的方案。
附图说明
在附图中示出了该方法,在所有附图中,各个附图中相同的附图标记指示相应的部分。根据参考以下附图的描述将更好地理解本申请的实施方式,在附图中:
图1A示出了光线聚焦在人眼的视网膜上的示例;
图1B示出了光线聚焦在人眼的视网膜前面的示例;
图1C示出了光线聚焦在人眼的视网膜之外的示例;
图2示出了根据本公开的实施方式的***使用沉浸式***估计用户的球面屈光误差的示例场景;
图3示出了根据本公开的实施方式的典型VR环境的光学设置的概略图;
图4示出了根据本公开的实施方式的VR环境的提议的光学设置的概略图;
图5是根据本公开的实施方式的沉浸式***的分解图;
图6是根据本公开的实施方式的描绘了沉浸式***的布置和操作的示例性布置;
图7示出了根据本公开的实施方式的利用沉浸式***评估眼睛的屈光力的示例场景;
图8示出了根据本公开的实施方式的用于确定佩戴者的眼睛的屈光力的方法的流程图;
图9是示出根据本公开的实施方式的用于投影显示在显示器上的至少一个视标的虚拟图像的各种操作的流程图;
图10示出了根据本公开的实施方式的用于确定佩戴者的眼睛的屈光力的各种操作的示例性流程图;
图11示出了根据本公开的实施方式的用于验证显示对象的投影距离与其在显示器上的垂直坐标之间的关系的校准数据;
图12A是根据本公开的实施方式的显示各种视标的示例性场景;
图12B是根据本公开的实施方式的显示各种视标的另一示例性场景;
图12C是根据本公开的实施方式的显示各种视标的又一示例场景;
图12D是根据本公开的实施方式的显示各种视标的再一示例场景;
图13是根据本公开的实施方式的***确定佩戴者的眼睛的屈光力的示例性场景;以及
图14是根据本公开的实施方式的***确定佩戴者的眼睛的屈光力的另一示例性场景。
具体实施方式
参照在附图中示出并且在以下描述中详细描述的非限制性实施方式,更全面地说明本文的实施方式及其各种特征和有利细节。省略了公知的组件和处理技术的描述,以避免不必要地使本文的实施方式不清楚。另外,本文描述的各种实施方式不必互相排斥,因为一些实施方式可以与一个或多个其它实施方式结合以形成新的实施方式。除非另有说明,否则本文所用的术语“或”是指非排他性的“或”。本文使用的示例仅旨在帮助对可以实践本文实施方式的方式的理解,并且进一步使本领域技术人员能够实践本文的实施方式。因此,示例不应被解释为限制本文的实施方式的范围。
如本领域中的传统那样,实施方式可以以实现所描述的功能或多个功能的块的方式进行描述并示出。在本文中可称为单元或模块等的这些块通过诸如逻辑门的模拟或数字电路、集成电路、微处理器、微控制器、存储器电路、无源电子组件、有源电子组件、光学组件、固定电路等在物理上实现,并且可以可选地通过固件和软件进行驱动。例如,电路可以实施在一个或多个半导体芯片中,或者实施在诸如印刷电路板等的衬底支撑件上。构成块的电路可通过专用硬件或通过处理器(例如,一个或多个编程微处理器及相关联的电路)或通过执行块的一些功能的专用硬件和执行块的其他功能的处理器的组合来实现。在不脱离本发明的范围的情况下,实施方式的每个块可以在物理上被分成两个或更多个相互作用且分开的块。同样,在不脱离本发明的范围的情况下,实施方式的块可以物理地组合成更复杂的块。
附图用于帮助容易地理解各种技术特征,并且应当理解,本文呈现的实施方式不受附图的限制。由此,本公开应被解释为延伸到除了在附图中特别列出的那些之外的任何变化、等同和替代。尽管本文可以使用术语第一、第二等来描述各种元件,但是这些元件不应受到这些术语的限制。这些术语通常仅用于将一个元件与另一个元件区分开。
本文中使用的诸如“第一”、“第二”等的术语可以指本公开的各种实施方式的各种元件,但是不限制这些元件。例如,“第一用户设备”和“第二用户设备”可以指示不同的用户设备,而与其顺序或优先级无关。例如,“第一用户设备”和“第二用户设备”指示不同的用户设备。例如,在不脱离本公开的范围的情况下,第一元件可以被称为第二元件,并且类似地,第二元件可以被称为第一元件。
根据情况,本文中使用的表述“配置为”可以用作例如表述“适合于”、“具有…能力”、“设计为”、“适于”、“制造为”或“能够”。术语“配置为”不得仅表示硬件中的“专门设计为”。相反,表述“设备配置为”可以表示该设备“能够”与另一设备或其他组件一起操作。例如,“处理器配置为(或设置为)执行A、B和C”可以指用于执行相应操作的专用处理器(例如嵌入式处理器)或者通过执行存储在存储设备中的一个或多个软件程序来执行相应操作的通用处理器(例如中央处理单元(CPU)或应用处理器(AP))。
在本公开中,术语“佩戴者”、“用户”、“观看者”和“对象”可互换使用。在本公开中,术语“显示器”和“屏幕”可互换使用。
因此,本文的实施方式实现了用于确定佩戴者的眼睛的屈光力的方法。该方法包括通过沉浸式***使得在电子设备的显示器上显示的至少一个视标的虚拟图像进行显示。此外,该方法包括通过沉浸式***改变视标的焦点以提供光学处方的改变。此外,该方法包括通过沉浸式***基于视标的改变的焦点对佩戴者进行眼睛检查。此外,该方法包括通过沉浸式***确定佩戴者的眼睛的屈光力。
该方法可以用于以简单、成本有效和准确的方式使用沉浸式***(例如,虚拟现实(VR)装置、增强现实(AR)装置、混合AR装置等)来估计眼睛的屈光力。该方法可用于估计人眼的球面屈光误差,而无需另外的硬件元件,无需使用机械运动部件和专家的协助。该方法可以用于基于交互从用户接收反馈,从而以有效的方式自动地估计调节范围、球面屈光误差和聚焦速度。
在示例中,沉浸式***可用于独立评估每只眼睛,并且在对一只眼睛进行测试时,另一只眼睛的视线完全被遮蔽。沉浸式***配置为显示视标并记录多个观测值,以使***对猜测具有鲁棒性。此外,沉浸式***在受控深度处显示不同的符号(例如,视标等),并使用VR控制器记录用户对感知到的符号的清晰度的反馈。在示例中,显示出滚动的E表的字母“E”沿四个方向(例如,右方向、向上方向、向下方向和左方向)之一随机定向,并且要求用户在VR控制器的相应方向上滑动(如图12A所示)。如果显示的视标显示模糊且用户无法识别其定向,则用户可以双击VR控制器。
对于每次观测,可能会有三种类型的主体反馈,例如正确、错误和不确定响应。当用户针对特定距离记录了多个不正确和/或不确定的响应(对应于双击)时,沉浸式***会推断用户无法适应该距离并因此识别屈光误差。
所提出的方法可以用于使估计耐力和对专家的依赖性的***的体积最小化。
与常规方法和***不同,所提出的方法能够将显示在电子设备屏幕上的视标的虚拟图像直接投影到可变光学距离上,该可变光学距离可以通过逻辑来控制,而无需任何移动部件。使用已经存在于沉浸式***中的正透镜(即,正沉浸式透镜等)和可以***到沉浸式***中的平面反射镜的组合来形成显示的视标的虚拟图像。这使基于反射的深度模拟能够估计视力,检测近视、远视和老花眼以及自动屈光力处方。所提出的方法的主要优点是,佩戴者可以在其家庭环境中测量其眼耐力。此外,提出的***将允许捕获最早的视力障碍。另外,用户可以以频繁间隔比较并跟踪他们的视力。
此外,所提出的方法使电子设备能够使用沉浸式***来估计眼睛的屈光力,而无需更多额外的硬件需求。屈光力是通过记录主体聚焦于所显示的视标的能力来估计的。可以在不同的光学距离上投影各个视标。
该方法可用于提供屈光测试结果,从而以成本有效的方式得出用于球面屈光误差校正的处方。该方法可用于检测屈光不正并识别近视、远视和老花眼。该方法可用于通过更改视标的大小来确定未矫正和最佳矫正的视力。该方法可以用于检测用户可以聚焦的距离范围(即,调节范围)。该方法可用于测量调节速度。该方法允许用户在测试过程中随时休息,以免造成眼睛疲劳。在提出的方法中,沉浸式***中的光学***以距眼睛可编程的受控距离投影显示图案(例如,视标等)。
该方法可用于基于纵向测试数据自动预测和跟踪视觉屈光不正的发作和进展。这是基于存储在所提议的***的云/分析平台中的数据。该方法可用于通过消除由人工更换透镜引起的时间延迟,使用沉浸式***快速估计眼睛的屈光力。
各种显示图案和视标设计成消除对用户阅读任何语言或脚本的能力的依赖。该方法可用于基于用户数据以定制方式使用沉浸式***估计眼睛的屈光力。对于想要不戴眼镜佩戴VR头戴式耳机的用户而言,该方法可用于改善视觉体验。
现在参考附图,并且更具体地参考图2至图14,其中在所有附图中相似的附图标记始终表示对应的特征,其中示出了示例性实施方式。
图2示出了根据本公开的实施方式的***1000使用沉浸式***100估计用户的球面屈光误差的示例场景。在实施方式中,***1000包括沉浸式***100和电子设备200。沉浸式***100可以是例如但不限于VR装置、AR装置、混合AR装置、头戴式显示器、主观屈光力测量装置等。电子设备200可以是例如但不限于智能电话、移动电话、平板电脑、智能玻璃等。电子设备200包括显示器(未示出),其中该显示器与沉浸式***100联接。沉浸式***100包括平面反射镜(未示出)和正透镜(未示出)。沉浸式***100配置为投影出显示在电子设备200的屏幕(未示出)上的至少一个视标的虚拟图像。沉浸式***100和电子设备200可以实现为单个设备并且可以被称作电子设备。沉浸式***100和电子设备200可以实现为不同的设备,并且可以分别称为第一电子设备和第二电子设备。
在示例中,用户在眼睛检查期间通过正透镜看到显示在沉浸式***100上的像素。通过正透镜形成的任何图像可以是真实的也可以是虚拟的。在提议的***1000中,用户看到的图像是虚拟的。例如,如果在智能电话上显示向右的字母“E”,则用户会看到相同的字母。
在提议的***1000中,眼睛检查类似于临床主观屈光测试。在临床设置中,物理地戴上试戴透镜,然后要求用户阅读视力表,而在提议的***1000中,眼睛检查模拟了VR环境中的临床设置。眼睛检查的目的是确定用户的眼睛健康并提供光学处方。
在实施方式中,通过以第一距离在电子设备200的屏幕上随机地投影定向视标,将至少一个视标的虚拟图像投影在屏幕上,从而通过平面反射镜在沿着正透镜的光轴距正透镜第二距离处形成第一虚拟未放大正像,其中第二距离基于定向视标的第一距离而变化,并在第三距离处通过平面反射镜形成第二虚拟未放大正像,其中第二虚拟未放大正像是第一虚拟未放大正像的反射。
在实施方式中,通过靠近具有会聚透镜的用户放置电子设备的显示器,至少一个视标的虚拟图像显示在电子设备的屏幕上。
此外,沉浸式***100被配置为改变视标的焦点以用于提供光学处方(prescription)的变化。基于改变的视标焦点,沉浸式***100配置为进行佩戴者的眼睛检查。沉浸式***100配置为基于眼睛检查来确定佩戴者的眼睛的屈光力。
光学处方定义为每只眼睛恢复正常视力所需的矫正球面透镜的规格集。光学处方可随时间变化。在示例中,近视用户的光学处方为左眼-0.5距离,右眼-1.0距离,远视用户的光学处方为左眼+0.75距离,右眼+1.5距离。用于投影显示器上显示的至少一个视标的虚拟图像以及改变视标的焦点以提供光学处方的变化的各种操作将参照图9和图10进行说明。
在示例中,用户想要检查他/她的视力。用户佩戴沉浸式***100,并且如果存在任何历史的数据,则沉浸式***100基于用户的过去数据来选择视标大小、定向/顺序和投影距离,或者默认为预设值。显示视标,并使用图9中描述的流程来设置由提议的***1000确定的投影深度。此外,用户根据他/她是否可以清楚看到视标来记录他/她的响应。以不同的投影距离重复此过程。在每个距离处,沉浸式***100已经记录了用户的响应。用户的响应和投影距离的数据由提出的方法使用以在近视测试期间为用户计算矫正光学处方。对于远视测试和老花眼测试,可以延伸类似的步骤。
在实施方式中,基于用户数据(例如,用户历史、行为特征、用户偏好、用户概况信息、用户账户等)来确定佩戴者的眼睛的屈光力。
在实施方式中,基于语音输入机制、指纹机制、面部识别机制和虹膜识别机制来确定佩戴者的眼睛的屈光力。在实施方式中,眼睛的屈光力表示球面屈光不正,其中球面屈光不正包括近视、远视和老花眼中的至少一种。
在实施方式中,眼睛的屈光力为用户提供了关于矫正球面透镜的建议。
在示例中,需要用户数据(例如,用户历史、行为特征、用户偏好、用户概况信息和用户账户等)随着时间的推移逐步跟踪用户的眼睛健康。此外,生物信息(例如,语音输入机制、指纹机制、面部识别机制、虹膜识别机制等)用于进行用户识别和认证。考虑,用户通知沉浸式***100“请检查我的视力是否已改变”。由于对敏感健康数据的访问仅限于特定用户,因此,基于该查询,沉浸式***100将提示用户使用生物特征识别他/她自己。一旦完成认证和识别,沉浸式***100可以检索用户的历史数据,该数据包含先前进行的眼睛测试的结果。这允许沉浸式***100智能地控制投影深度,而不是使用预设值。当没有历史数据可用时,将使用预设值。智能控制减少了总检查时间和错误。
在实施方式中,使用沉浸式***100中存在的正透镜和***在沉浸式***100中的平面反射镜的组合来形成所显示的视标的虚拟图像。在实施方式中,至少一个视标的虚拟图像在屏幕上显示为可变的光学距离。
在实施方式中,平面反射镜放置在沉浸式***100内部,其中平面反射镜放置在电子设备200的显示器的前面,并且被配置为生成可编程的深度感知(depth perception)。在本公开中,改变光学距离和生成可编程深度感知是指与深度和光学距离相同的事物,在此两者均指用户所看到的视标的投影距离。
在实施方式中,沉浸式***100配置为向佩戴者提供通知。在实施方式中,沉浸式***100被配置为将佩戴者的眼睛的屈光力存储在存储器(未示出)中。
用户通常穿戴沉浸式***100,并通过沉浸式控制器(未示出)与逻辑交互。通过逻辑投影的对象的深度是可控制的,并且因此可以确定用户眼睛的焦点范围。该逻辑对应于控制用户通过显示器看到的视标的最终图像的投影深度。此外,由逻辑控制改变所显示的视标的像素位置,从而改变用户所看到的视标的最终图像的投影深度。
与常规***不同,所提议的***1000用于通过重复使用沉浸式***100和电子设备200的商用硬件来估计VR环境或AR环境中的屈光误差。***1000使用户能够通过与VR环境或AR环境中的逻辑进行简单交互来确定其球面屈光误差。沉浸式***100能够在距用户眼睛受约束的可编程距离处投影显示的对象,而无需昂贵、复杂或移动的光学部件。此外,***1000包括交互式程序,该程序模拟在VR环境或AR环境中的由试戴透镜、视力表和眼科医生组成的临床设置,从而允许屈光误差的远程测量。在图8至图10中说明了交互过程。
此外,沉浸式***包括存储器(未示出),该存储器还存储将由处理器(未示出)执行的指令。存储器可以包括非易失性存储元件。这样的非易失性存储元件的示例可以包括磁性硬盘、光盘、软盘、闪存或电可编程存储器(EPROM)或电可擦除及可编程(EEPROM)存储器的形式。另外,在一些示例中,存储器可以被认为是非暂时性存储介质。术语“非暂时性”可以指示存储介质没有体现在载波或传播的信号中。然而,术语“非暂时性”不应解释为存储器是不可移动的。在一些示例中,存储器可以被配置为存储比存储器更大的信息量。在某些示例中,非暂时性存储介质可以存储可随时间变化的数据(例如,在随机存取存储器(RAM)或高速缓存中)。
在实施方式中,沉浸式***100包括用于确定佩戴者的眼睛的屈光力的虚拟图像投影单元、视标聚焦改变单元、眼睛检查执行单元。
虽然图2示出了***1000的各种硬件组件,但是应当理解,其它实施方式不限于此。在其它实施方式中,***1000可以包括更少或更多数量的组件。此外,组件的标签或名称仅用于说明性目的,并不限制本发明的范围。可以将一个或多个组件组合在一起以执行相同或基本相似的功能,以确定佩戴者的眼睛的屈光力。
图3示出了根据本公开的实施方式的典型VR环境的光学设置的概略图。显示器202保持为非常靠近具有沉浸式透镜102(即会聚透镜)的用户(即观察者),使得显示器202比其焦点更靠近透镜,从而生成放大的虚拟图像。透镜的焦距为f,并且其距显示器的距离为u0。虚拟图像是在距透镜的距离v0处形成的,由薄透镜公式给出,等式1:
Figure GDA0002622586940000131
这里f为正,且u0<f。
图4示出了根据本公开的实施方式的提议的VR环境的光学设置的概略图。平面反射镜104(即,倾斜镜)被引入显示器202和透镜102之间,使得透镜102的反射侧面向观察者。显示器202的反射图像由灰色虚线和指示符(f)描绘。观察者v2通过透镜102看到该反射图像的虚拟图像,由黑色虚线和指示符(g)表示。考虑,反射镜104从透镜的光轴以θ弧度的角度倾斜,并且该光轴垂直于显示平面。从反射定律得出,显示器202及其反射图像在反射镜处对角相等,即(π/2)+θ。因此,显示器与其反射图像之间的锐角为2θ。如标记所指示的,考虑在显示器202上距其顶部距离z处的像素。如灰色虚线标记所示,其在反射镜104中的反射沿其光轴与透镜102的距离为v1=u0+z sin(2θ)。当通过透镜102观察时,该反射的虚拟图像在公式2给出的距离v2处形成:
Figure GDA0002622586940000141
通过改变显示器202上的像素位置,如观察者和他/她的眼睛所见,像素的焦平面之间的距离可以改变。因此,使用平面反射镜104,所提议的***1000以距观察者受约束的可编程距离实现显示对象的投影。
图5是根据本公开的实施方式的沉浸式***100的分解图。如图5所示,显示器202保持在非常靠近具有沉浸式透镜102的用户的位置。此外,平面反射镜104布置在显示器202与沉浸式透镜102之间,使得沉浸式透镜102的反射侧面向用户,使得几何光学创建可编程的深度感知。
图6是根据本公开的实施方式的示例性布置,其中示出了沉浸式***100的布置和操作。在沉浸式***100中,第1部分表示附接到VR头戴式耳机的显示器202。第2部分表示***VR耳机中的平面反射镜104。第3部分表示已经存在于VR头戴式耳机内的正透镜102。第4部分表示通过镜面反射部分在第1部分中显示的对象的虚拟未放大图像。第5部分表示通过透镜折射部分在第1部分中显示的对象的放大图像。第6部分表示通过透镜折射在第4部分中反射的虚拟图像的放大图像。该放大图像用于屈光力评估。
图7示出了根据本公开的实施方式的使用沉浸式***100估计眼睛的屈光力的示例场景。图7是示出图6中的光学器件的射线图。
图8示出了根据本公开的实施方式的用于确定佩戴者的眼睛的屈光力的方法的流程图800。操作(802-808)由沉浸式***100执行。在802处,该方法包括投影显示在电子设备200的显示器202上的至少一个视标的虚拟图像。在804处,该方法包括自动改变视标的焦点,以提供光学处方的变化。在806处,该方法包括基于视标的自动改变的焦点进行佩戴者的眼睛检查。在808处,该方法包括确定佩戴者的眼睛的屈光力。
流程图800中的各种行为、动作、框、步骤等可以以呈现的顺序、以不同的顺序或同时执行。此外,在一些实施方式中,在不背离本发明的范围的情况下,可以省略、添加、修改、跳过等一些行为、动作、框、步骤等。
图9是示出根据本公开的实施方式的用于投影显示在屏幕202上的至少一个视标的虚拟图像的各种操作的流程图900。操作(902-914)由沉浸式***100执行。
在902处,该方法包括在屏幕202上的位置(D0)处显示随机定向的视标。在904处,该方法包括在沿着正透镜102的光轴距正透镜102距离(D1)处通过平面反射镜104形成虚拟未放大正像。D1根据屏幕202中的视标的位置(D0)而改变。在906处,该方法包括获得通过透镜折射的反射图像,以及在距透镜102距离(D2)处形成另一虚拟的、正的且放大的图像,其中距离D2使用透镜制造商的公式从D1计算得出。在908处,该方法包括通过询问佩戴者识别所显示的视标的方向来确定佩戴者在距离D2处的聚焦能力。在910处,该方法包括确定是否覆盖了D2的整个范围。如果覆盖了D2的整个范围,则在912处,该方法包括在佩戴者确定他/她的屈光力的D2的范围内完成测试。如果没有覆盖D2的整个范围,则在914处,该方法包括通过改变D0来改变D2
流程图900中的各种行为、动作、框、步骤等可以以呈现的顺序、以不同的顺序或同时执行。此外,在一些实施方式中,在不背离本发明的范围的情况下,可以省略、添加、修改、跳过等一些行为、动作、框、步骤等。
图10示出了根据本公开的实施方式的用于确定佩戴者的眼睛的屈光力的各种操作的示例流程图。结合图4和图9说明改变光学距离的过程。在示例中,用户想要检查他/她的视力。用户佩戴沉浸式***100,并且如果存在任何过去的数据,则沉浸式***100基于用户过去的数据来选择视标大小、定向/顺序和投影距离,或默认为预设值。显示视标,并使用图9中描述的流程来设置由提议的***1000确定的投影深度。此外,用户根据他/她是否可以清楚看到视标来录入他/她的响应。以不同的投影距离重复此过程。在每个距离处,沉浸式***100已经记录了用户的响应。用户的响应和投影距离的数据由提出的方法用来在近视测试期间为用户计算矫正光学处方。对于远视测试和老花眼测试,可以延伸类似的步骤。
图11示出了根据本公开的实施方式的用于验证所显示的对象的投影距离与其在显示器上的垂直坐标之间的关系的校准数据。公式2将观察者(v2)感知到的像素深度关联至显示器上的像素坐标(z)和透镜的***设计参数焦距、显示器与透镜之间的距离(u0)、镜子的倾角(θ)。
焦距是根据沉浸式***制造商的说明书获得的,可以在设计设置时控制θ。此外,z是像素间距(像素密度的倒数)和像素坐标的函数。然而,焦距f和倾斜角θ容易受到制造误差的影响,并且u0通常是可调节的。因此,通过光学校准设置来验证***参数很重要。
根据所提议的方法,网格状图案以不同的z值进行显示,并使用保持在沉浸式***100附近的单镜头反射(SLR)相机,通过手动聚焦在图案上找到图案的投影距离。考虑沉浸式***100的指定焦距为50mm(20D),并且移动电话的显示器的像素间距为4.46×10-5m。此外,反射镜104从透镜102的光轴倾斜成θ=15度。此外,将屏幕202调整为距离透镜34cm。在公式2中使用这些值,可以得到投影距离的倒数,该倒数是显示对象的以像素为单位的垂直坐标的函数。如图11所示,在校准过程中获得的数据与此函数一致。
公式2可用于找到所提议的***1000可投影的最近距离和最远距离及其精度。为了找到所提议的***1000的范围,在***参数的约束下,***1000可以用于确定公式2中的1/v2的最小值和最大值。使公式3:
Figure GDA0002622586940000161
其中,y=z/μ是显示对象以像素为单位的垂直坐标,μ是像素间距。显示器分辨率为2960×1440。由于镜子位于显示器前面,所以只有整个屏幕的一半可以使用。因此,y的范围是(0,720)像素,于是,1/v2的范围是(-4.8,9.4)屈光度。但是,由于反射镜104的厚度和沉浸式***100中的视场限制,上述理论范围无法完全使用。精度Δ1/v2可以通过公式4计算:
Figure GDA0002622586940000171
此处,Δy是像素坐标的最小可能变化,显然为1。因此,深度投影的倒数的精度为1.93×10-4屈光度。值得注意的是,处方眼镜的精度通常为0.25屈光度。
图12A-图12D是根据本公开的实施方式的显示了各种视标的示例场景。如图12A-图12D中所示,考虑一种场景,在滚动E表中显示视标,并且在此说明相应的预期响应。如公式2所示,可以通过改变像素在显示器202上的坐标来精确地控制像素的感知深度。通过利用这种现象,模拟了沉浸式***100内的试戴透镜和视力表设置。使用Gear VR控制器显示受控深度的不同符号(视标)以及受试者对这些视标感知的清晰度的反馈记录。由于这些输入方法提供的控件数量有限,因此很难使用典型的VR控制器在常规图表(例如斯内伦、logMAR等)上录入受试者的反馈。因此,在所提议的方法中采用了两种图表的自适应。
显示图案–视标:在示例中,滚动E表:显示随机定向为四个方向(右、上、下和左)中的一个方向的字母“E”,并要求用户在控制器上在相应方向滑动。另外,如果显示的视标出现模糊并且用户无法识别其定向,则用户可以双击控制器。Gear VR控制器上叠加的箭头表示特定视标的滑动方向。
渲染视标:值得注意的是,尽管每个像素的放大因子取决于其垂直坐标,但配戴者只能感知到物体在其眼睛上所成的角度。该角度取决于图像尺寸与距眼睛的距离的比率。但是,图像的放大随着与透镜的距离而线性增加。此外,即使图像到眼睛的距离是其到透镜102的距离和眼睛到透镜单独的距离的总和,VR透镜102通常保持非常靠近眼睛并且可以忽略透镜102到眼睛单独距离分离。因此,独立于像素的位置以及由此的投影深度,每个像素似乎具有大致相同的大小。
如图4明显可见,由于来自倾斜反射镜104的反射,观察者通过透镜看到的最终图像是倾斜的。当显示有限大小的对象时,对象在观察者眼睛上形成的垂直角度缩小了cos(2x),而水平角度保持不变,从而产生了失真。在此,x是反射镜相对于透镜102的光轴的倾斜角。为了克服这种失真,***1000沿其垂直维度将所显示的对象拉长1/cos(2x)。
估计适应范围:采用单次通过程序来估计用户的适应范围。每只眼睛独立评估,并且在对一只眼睛进行测试时,另一只眼睛的视线完全被遮蔽。以从Dmin到∞的投影距离显示视标,其中Dmin=12.5cm是最小的可能投影距离。遵循以下规则来估计近点和远点:
近点:从Dmin开始,即***1000可以投影的最小距离,因此逐渐将投影移动到更远并找到用户录入的所有正确响应的最近距离,并将其表示为他/她的近点。
远点:从∞开始,逐渐将投影移近,且找到对象的所有响应都正确的最远的距离,并将其标记为他/她的远点。
建议屈光误差矫正:寻找对象的眼睛的矫正处方是复杂的过程,其中眼科医生分析客观和主观屈光的结果,并根据他/她的判断得出处方。然而,类似于自动验光仪,所提议的***1000可用于为近视和远视提供指示光学屈光力。尽管***1000在近视对象上得到了验证,但可以使用以下过程轻松地将其延伸到测试远视和老花眼:
近视:可以直接从对象的远点推断出校正模糊的远视所需的透镜102的光学屈光力。假设远点是dfar,则根据透镜公式得出,帮助对象聚焦在光学无限远处所需的校正屈光力为Pfar=-1/dfar
远视:从Dmax开始,即***1000可以投影到无穷远之外的最远距离(因为在无限远之外,因此为负),然后逐渐将投影平面移向无穷远,直到对象在某个距离处录入所有正确的响应,称为dhyp。正球面校正屈光力计算为Phyp=-1/dhyp(由于在无限远之外,dhyp为负)。这等效于在阅读20英尺外的视力表时,找到受试者可以忍受的最大正球面屈光力而不会引起模糊或不适。
老花眼:当近视和远视都变得模糊时,需要用于每种的单独的球面校正屈光力。使用与近视情况完全相同计算的负球面屈光力来矫正远视力模糊。但是,近屈光力是使用正球面屈光力来校正的,该正球面屈光力是根据对象的近点计算的。考虑对象的近点为dnear,以及理想的近点为dideal。值得注意的是,尽管我们使用35厘米作为理想的近点,但这是主观的,并且取决于每个对象的理想阅读距离。正屈光力的计算为Pnear=1/dideal-1/dnear。很显然,如果dnear≤dideal,则不需要近视矫正。
图13和图14是根据本公开的实施方式的***1000确定佩戴者的眼睛的屈光力的示例场景。如图13所示,用户最近开始戴眼镜,并且想要在不去诊所的情况下频繁地跟踪他/她的视力。基于提议的方法,人戴上VR设备并与类似游戏的逻辑进行交互,以使用他/她的过去数据进行个性化的眼睛测试。
如图14所示,人戴上VR设备并进行眼睛测试。双眼的结果用于VR显示器的球面差补偿渲染,以改善他/她的视觉体验并减少不适感。
本文公开的实施方式可以通过在至少一个硬件设备上运行并执行网络管理功能以控制元件的至少一个软件程序来实现。
对特定实施方式的前述描述将如此充分地揭示本文中的实施方式的一般性质,以至于其他人可以在不背离通用概念的情况下通过应用当前知识而容易地修改和/或调整此类特定实施方式的各种应用,并且因此,这样的调整和修改应该并且旨在被理解为在所公开的实施方式的等同内容的含义和范围内。应当理解,本文采用的措词或术语是出于描述而不是限制的目的。因此,尽管已经根据示例性实施方式描述了本文的实施方式,但是本领域技术人员将认识到,可以在如本文描述的实施方式的精神和范围内进行修改来实践本文的实施方式。

Claims (7)

1.用于确定佩戴者的眼睛的屈光力的***(1000),所述***包括:
移动终端(200),包括显示器(202),其中所述显示器(202)与沉浸式***(100)联接;以及
所述沉浸式***(100)包括平面反射镜(104)和正沉浸式透镜(102),其中,所述平面反射镜(104)与所述沉浸式***(100)中的正沉浸式透镜(102)的光轴成角度设置,并且所述光轴与所述显示器(202)垂直,
其中,所述移动终端(200)配置为将至少一个视标显示在所述显示器(202)上,
其中,所述沉浸式***(100)配置为:
在使用中,通过改变所述至少一个视标在所述显示器(202)上的位置,改变用所述平面反射镜(104)反射的所述至少一个视标的焦点;
从所述佩戴者获得所述佩戴者对观看到的所述至少一个视标的改变的焦点的响应;以及
基于所述响应确定所述佩戴者的眼睛的所述屈光力。
2.根据权利要求1所述的***(1000),其中,所述至少一个视标的虚拟图像在所述显示器(202)上显示在可变的光学距离上。
3.根据权利要求1所述的***(1000),其中,所述移动终端(200)的所述显示器(202)被放置成靠近具有所述正沉浸式透镜(102)的所述佩戴者的眼睛,以使所述至少一个视标的虚拟图像在所述移动终端(200)的所述显示器(202)上显示到可变的光学距离上。
4.根据权利要求1所述的***(1000),其中,所述沉浸式***(100)配置为向所述佩戴者提供通知。
5.根据权利要求1所述的***(1000),其中,所述沉浸式***(100)配置为基于用户历史、行为特征、用户偏好、用户概况信息和用户账户来确定所述佩戴者的眼睛的所述屈光力。
6.根据权利要求1所述的***(1000),其中,所述沉浸式***(100)配置为基于语音输入机制、指纹机制、面部识别机制和虹膜识别机制来确定所述佩戴者的眼睛的所述屈光力。
7.根据权利要求1所述的***(1000),其中,所述沉浸式***(100)配置为将所述佩戴者的眼睛的所述屈光力存储在存储器中。
CN201980012294.0A 2018-02-07 2019-02-07 使用沉浸式***确定眼睛的屈光力的方法及其电子设备 Active CN111699432B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN201841004682 2018-02-07
IN201841004682 2019-02-04
PCT/KR2019/001539 WO2019156485A1 (en) 2018-02-07 2019-02-07 Method for determining refractory power of eye using immersive system and electronic device thereof

Publications (2)

Publication Number Publication Date
CN111699432A CN111699432A (zh) 2020-09-22
CN111699432B true CN111699432B (zh) 2022-10-04

Family

ID=67550057

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980012294.0A Active CN111699432B (zh) 2018-02-07 2019-02-07 使用沉浸式***确定眼睛的屈光力的方法及其电子设备

Country Status (4)

Country Link
US (1) US20210030270A1 (zh)
EP (1) EP3746839B1 (zh)
CN (1) CN111699432B (zh)
WO (1) WO2019156485A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11696073B2 (en) * 2007-08-09 2023-07-04 Nymc Biotechnology Commercialization, Llc Refractive eye examination system
US11614623B2 (en) 2018-02-26 2023-03-28 Veyezer, Llc Holographic real space refractive system
CN113080842B (zh) 2021-03-15 2023-06-27 青岛小鸟看看科技有限公司 一种头戴式视力检测设备、视力检测方法及电子设备
CN113359270B (zh) * 2021-05-25 2023-06-09 歌尔股份有限公司 头戴设备的屈光度调节方法及屈光度调节***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1928295A2 (en) * 2005-09-02 2008-06-11 EL-Vision Ltd. Multi-functional optometric - ophthalmic system for testing, diagnosing, or treating, vision or eyes of a subject, and methodologies thereof
WO2016115285A1 (en) * 2015-01-13 2016-07-21 Eyenetra, Inc. Variable lens system for refractive measurement
WO2017061677A1 (en) * 2015-10-08 2017-04-13 Lg Electronics Inc. Head mount display device
CN107582237A (zh) * 2017-09-28 2018-01-16 深圳市华星光电技术有限公司 可穿戴式显示装置及视力矫正方法
CN107636514A (zh) * 2015-06-19 2018-01-26 麦克赛尔株式会社 头戴式显示装置和使用该装置的视觉辅助方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3787939B2 (ja) * 1997-02-27 2006-06-21 コニカミノルタホールディングス株式会社 立体映像表示装置
JP2001095760A (ja) * 1999-09-28 2001-04-10 Topcon Corp 眼の光学特性測定装置
TWI311660B (en) 2004-10-26 2009-07-01 Au Optronics Corp Liquid crystal display and backlight module thereof
ES2886136T3 (es) * 2013-06-06 2021-12-16 6 OVER 6 VISION Ltd Sistema para la medición del error de refracción de un ojo basado en la medición subjetiva de distancias
NZ773831A (en) * 2015-03-16 2022-07-01 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
JP6159446B2 (ja) * 2016-05-30 2017-07-05 株式会社トプコン 眼底撮影装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1928295A2 (en) * 2005-09-02 2008-06-11 EL-Vision Ltd. Multi-functional optometric - ophthalmic system for testing, diagnosing, or treating, vision or eyes of a subject, and methodologies thereof
WO2016115285A1 (en) * 2015-01-13 2016-07-21 Eyenetra, Inc. Variable lens system for refractive measurement
CN107636514A (zh) * 2015-06-19 2018-01-26 麦克赛尔株式会社 头戴式显示装置和使用该装置的视觉辅助方法
WO2017061677A1 (en) * 2015-10-08 2017-04-13 Lg Electronics Inc. Head mount display device
CN107582237A (zh) * 2017-09-28 2018-01-16 深圳市华星光电技术有限公司 可穿戴式显示装置及视力矫正方法

Also Published As

Publication number Publication date
EP3746839B1 (en) 2024-03-27
US20210030270A1 (en) 2021-02-04
CN111699432A (zh) 2020-09-22
EP3746839A4 (en) 2021-04-07
EP3746839C0 (en) 2024-03-27
WO2019156485A1 (en) 2019-08-15
EP3746839A1 (en) 2020-12-09

Similar Documents

Publication Publication Date Title
US11666211B2 (en) Computerized testing and determination of a visual field of a patient
US11826099B2 (en) Eye examination method and apparatus therefor
CN111699432B (zh) 使用沉浸式***确定眼睛的屈光力的方法及其电子设备
CN112689470B (zh) 用于使用计算装置执行散光力测试的方法以及相应的计算装置
EP3730038B1 (en) A computer-implemented method and system for interactively measuring ocular refractive errors, addition and power of reading glasses
JP2020525228A (ja) 対象の眼の回旋点の位置を特定する方法及び関連する機器
RU2667314C1 (ru) Определение центрирования линзы на глазу по измерениям оптического волнового фронта
JP7350992B2 (ja) 調節及び輻輳の共同特定
JP7437402B2 (ja) コンピュータ支援光学系を利用するシステム及び方法
Goyal et al. Estimation of spherical refractive errors using virtual reality headset
EP4364642A1 (en) Computer-implemented methods and devices for determining refractive errors
WO2023148372A1 (en) A computer-implemented systems and methods for interactively measuring either or both sides of the interval of clear vision of the eye
WO2024094839A1 (en) Computer-implemented methods and devices for determining refractive errors

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant