CN102596005B - 自动测量人双眼的至少一个折射特性的方法和设备 - Google Patents
自动测量人双眼的至少一个折射特性的方法和设备 Download PDFInfo
- Publication number
- CN102596005B CN102596005B CN201080051057.4A CN201080051057A CN102596005B CN 102596005 B CN102596005 B CN 102596005B CN 201080051057 A CN201080051057 A CN 201080051057A CN 102596005 B CN102596005 B CN 102596005B
- Authority
- CN
- China
- Prior art keywords
- image
- people
- plane
- light source
- eyes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C13/00—Assembling; Repairing; Cleaning
- G02C13/003—Measuring during assembly or fitting of spectacles
- G02C13/005—Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Ophthalmology & Optometry (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明涉及一种自动测量人双眼(OD、OG)的至少一个折射特性的方法,所述方法包括以下步骤:a)在与被设置为将每个已捕捉图像转换为表示所述图像的信号的图像捕捉装置(10)相连的参照系(O,X,Y,Z)中,根据所述人的意愿调整人头部的至少一个姿势;b)通过至少一个光源(20)照射双眼(OD、OG),所述光源的位置在与图像捕捉装置(10)相连的所述参照系(O,X,Y,Z)中是已知的;c)在与人头部相连的参照系中,测量至少一个与人的注视方向相连的注视方向参数(H);d)通过所述图像捕捉设备(10)捕捉所述光源(20)在人双眼(OD、OG)的视网膜上的至少一个视网膜反射图像(IROD1、IROG1、IROD2、IROG2);f)通过在步骤d)中捕捉的所述至少一个图像,确定人眼(OD、OG)的所述折射特性(D);以及h)存储在步骤c)测量的与人的注视方向相连的注视方向参数(H),所述注视方向参数与图像步骤期间预定的折射特性关联。
Description
技术领域
本发明一般地涉及测量人眼光学特性的方法,更具体地说,本发明涉及自动测量人双眼的至少一个折射特性的方法。
本发明还涉及可实现此类方法的测量设备。
背景技术
人眼的折射特性是在配备一副视力矫正眼镜时发挥重要作用的因素。
目前存在各种用于确定人眼折射特性的方法和设备。它们具体基于摄影验光技术(photorefraction)和所谓的“检影”技术。
但是,这些方法和相关设备在实现上很耗时。
观察者肉眼观察视网膜反射时使用的手动设备并不非常准确。通过使用检测仪,提高了准确性,但是测量时间增加,因为需要分别测量人的每只眼:任意一次只能观察人两只眼睛中一只的视网膜反射。
此外,已知的设备包括用于在与图像捕捉设备关联的参照系中将预定姿势施加于人的头部和双眼的约束装置(例如,通过前额垫和通过下下颚托)和/或用于约束注视方向的装置(例如,放置让人注视的目标)。
因此,使用这些现有方法和设备执行反射特性测量并非在人的姿势和注视方向处于自然状态下执行,所以不能考虑人的双目视力。
例如,这些测量不能确定人眼在近距视力或中距视力状况下的反射特性。
但是,根据视力状况,人所执行的任务,以及人的姿势和注视方向的不同,人眼反射特性会有显著变化。
发明内容
本发明的一个目标是提供一种可以在人采取不受约束、舒适自然的姿势以及在确定的视力状况下,通过迅速可靠的方式测量人双眼的折射特性的方法和设备。所述自然姿势对应于最符合人体工程学、使人的疲劳程度最低的姿势。换言之,它对应于人经常采用的姿势。
为此,本发明提供一种自动测量人双眼的至少一个折射特性的方法,所述方法包括以下步骤:
a)在与适合于将每个已捕捉图像转换为表示该图像的信号的图像捕捉设备关联的参照系中,通过至少一个具有已知位置的光源照射双眼;
b)在此与所述图像捕捉设备关联的参照系中,根据所述人的意愿调整人头部的至少一个姿势;
c)在与人头部关联的参照系中,测量至少一个与人的注视方向关联的注视方向参数;
d)使用所述图像捕捉设备捕捉所述光源在人双眼的视网膜上的至少一个视网膜反射图像;
f)通过在步骤d)中捕捉的所述至少一个图像,确定人每只眼的所述折射特性;以及
h)存储在步骤d)的图像捕捉期间测量的与人的注视方向关联的注视方向参数,所述注视方向参数与所确定的折射特性关联。
本发明还提供一种在预定视力状况下,自动测量人双眼的至少一个折射特性的方法,所述方法包括:
a)在与适合于将每个已捕捉图像转换为表示该图像的信号的图像捕捉设备关联的参照系中,根据所述人的意愿调整人头部的至少一个姿势;
b)在与所述图像捕捉设备关联的所述参照系中,通过至少一个具有已知位置的光源照射双眼;
c)在与人头部关联的参照系中,测量至少一个与人的注视方向关联的注视方向参数;
i)通过所述图像捕捉设备捕捉所述光源在人双眼的视网膜上的至少一个视网膜反射图像,所述图像在图像捕捉平面中捕捉并且对应于位于所述预定视力状况的对应范围内的所述注视方向参数值;以及
j)通过所述至少一个已捕捉图像,确定所述预定视力状况下人每只眼的所述折射特性。
因此,在人处于自然舒适的状况下测量人每只眼的折射特性(例如,屈光不正符号或所述屈光不正值(即,其球光焦度和/或柱光焦度)),从而确定人眼在真实视力状况下的所述折射特性。这样可提高这些测量的准确度。此外,此折射特性与注视方向参数关联,而所述注视方向参数与人的注视方向关联。
术语“与注视方向关联”表示所述注视方向参数和所述人的注视方向之间存在可通过其中一项计算出另一项的数学关系式。
所述关联可以是直接关联,此时所述注视方向参数通常涉及使用图像识别来跟踪眼睛的取向,或者也可以是间接关联,此时的测量参数专门针对头部并且涉及一个或多个头部位置和/或取向坐标。下面将通过本发明的具体实现详细地描述这一点。
因此,所述方法允许建立映射,关联要与人的相应注视方向关联的每个确定的人眼折射特性值。如此便可具体区分与近距视力或中距视力关联的折射特性值和与远距视力关联的折射特性值。
术语“近距视力”在此用于表示其中人注视25厘米(cm)到69cm远的物体的状况,术语“中距视力”用于表示其中人注视70cm到199cm远的物体的状况,术语“远距视力”用于表示其中人注视至少200cm远的物体的状况。
人可以通过手动方式,或通过远程控制,或通过给出根据人的意愿做出调整的指令来调整图像捕捉设备的位置和取向。
替代地,如果所述图像捕捉设备的位置固定,则人在面对该设备时根据自己的意愿采取姿势。
在此方法中,同时测量人双眼的折射特性。因此,测量很简单并且可以快速实现。所述方法还会考虑人眼调节***以及双目视力的人眼会聚的实际情况。
根据本发明的第一有利特性,还提供以下步骤:
e)根据所述至少一个已捕捉图像确定光源视网膜反射图像的宽度或亮度分布,以及确定作为所述宽度或所述亮度分布的函数的人每只眼的所述折射特性。
在这种情况下,有利地同时照射双眼,并且同时捕捉光源在双眼视网膜上的视网膜反射图像,以及在步骤e),光源的视网膜反射图像的宽度和亮度分布至少通过与在人头部相对于所述光源的每个姿势中同时捕捉的双眼视网膜反射相关的信号来确定。
本发明的该实施例有利地使得能够通过摄影验光方法确定所述折射特性。
根据本发明的另一有利特性,同时照射双眼,并且同时捕捉光源在双眼视网膜上的视网膜反射图像,以及在步骤e),光源的视网膜反射图像的宽度和亮度分布至少通过与在人头部相对于所述光源的每个姿势中同时捕捉的双眼视网膜反射相关的信号来确定。
之后,通过光源的视网膜反射图像的宽度或亮度分布推断出人每只眼的屈光不正的值。
这样使得能够确定每只眼的屈光不正的精确值。
根据本发明的另一有利特性,捕捉所述光源在人双眼中每只的视网膜上的至少两个视网膜反射图像,所述方法进一步包括以下步骤:
e′)通过所述至少两个已捕捉图像确定光源的视网膜反射图像的移动;
确定作为所述移动的函数的人双眼中每只的折射特性。
根据本发明的另一有利特性:
因为人头部相对于所述光源的姿势在两个图像捕捉期间不同,因此:
在步骤c),在所述图像捕捉期间,在图像捕捉设备的参照系中,测量人头部的至少一个姿势参数;以及
在步骤e′),将所确定的视网膜反射图像的移动与作为步骤c)中测量的所述头部姿势参数的函数的两个图像捕捉之间人头部相对于光源的姿势差别进行比较;
通过所述比较推断出人每只眼的所述折射特性。
本发明的该实现有利地使得能够通过检影法确定所述折射特性。
然后有利地通过所述比较推断出人每只眼的屈光不正的符号。
根据本发明的另一有利特性,同时照射双眼,并且同时捕捉光源在双眼视网膜上的视网膜反射图像,在步骤e′),光源的视网膜反射图像的移动至少通过与在人头部相对于所述光源的每个姿势中同时捕捉的双眼视网膜反射相关的信号来确定。
有利地测量以下至少一个头部姿势参数:
·头部或人一只眼和图像捕捉设备之间的距离;
·图像捕捉设备的光瞳和在人采取自然姿势并注视图像捕捉设备时倾斜的人的解剖平面之间的垂直距离,在人采取自然姿势并平视时所述平面对应于基本水平的水平解剖平面;
·图像捕捉设备的光瞳和水平解剖平面之间的距离,所述水平解剖平面在人采取自然姿势并平视时基本水平;
·图像捕捉平面关于第一参考平面的水平轴相对于所述第一参考平面的第一倾斜角,所述第一参考平面垂直于连接人一只眼与图像捕捉设备的光瞳的线;以及
·图像捕捉平面关于垂直于所述水平轴的第一参考平面的轴相对于所述第一参考平面的第二倾斜角。
例如,人头部的这些姿势参数可用于准确地确定佩戴者头部相对于图像捕捉设备的位置,不考虑人把持设备的方式。
优选地,在图像捕捉期间,上面安装所述光源和所述图像捕捉设备的支持器由所述人用手把持。这样能够确保人采取自然舒适的姿势。
根据本发明的另一有利的非限制特性,在图像捕捉步骤之前或之后提供验证步骤,用于验证所述至少一个图像在人正在图像捕捉设备的光瞳的附近注视时,即,正在光瞳附近的确定区域内注视时被捕捉。
根据本发明的另一有利的非限制特性,所述注视方向参数专指在人注视图像捕捉设备的光瞳时测量的人头部姿势参数。
根据本发明的另一有利的非限制特性,在捕捉至少一个图像之前的预备步骤期间,将视力矫正设备放在所述人的脸上,并且其中矫正作为视力矫正设备的光焦度和偏折(deflection)的函数的表示所述已捕捉图像的信号和/或通过所述信号推断出的折射特性。
在本发明的方法的图像捕捉期间捕捉的图像然后可以进行处理以确定人的其他物理形态参数,例如眼镜架边框底部边缘和人每只眼的瞳孔中心之间的高度。
根据本发明的另一有利的非限制特性,在步骤c),人的注视方向通过表示双眼角膜反射图像的信号进行计算。
此外,本发明的方法的变形包括以下步骤:
r)在捕捉至少一个图像之前或期间,在人眼前面显示图像,所述图像呈现对应于具有给定截止(cutoff)的频率滤波器所执行的用于滤波所述图像的空间频率的低通滤波的模糊性(fuzziness);
t)将所确定的与步骤r)中使用的低通滤波器的截止频率值关联的折射特性存储在存储器中;以及
u)针对图像滤波器的不同截止频率重复执行至少步骤b)、c)、d)、f)、r)和t)或步骤b)、c)、i)、j)、r)和t)。
因此,此方法使得能够针对步骤r)中使用的不同的滤波器的截止频率值,以及针对图像中的不同模糊程度,在注视所考虑的模糊图像时测量人眼的折射特性。
有利地,可以确定人眼的折射特性如何随着变化的图像模糊程度而变化。
还可以确定人对图像中具有不同模糊程度的模糊性的感知以及确定所述模糊性感知如何随着不断变化的图像模糊程度而变化。
因此,可使用此变形执行生理物理测试。
根据此方面的另一变形:
·在所述图像捕捉步骤期间,连续捕捉至少两个图像,每个图像对应于所述光源在人双眼的视网膜上的两个视网膜反射的图像;以及
·通过所述两个图像中的一个图像,确定人双眼中一只眼的所述折射特性,以及通过另一图像,确定人另一只眼的折射特性。
本发明还提供一种用于自动测量人双眼的至少一个折射特性的设备,所述设备包括:
·支持器;
·至少一个安装在所述支持器上的光源,其安装为照射人的至少一只眼;
·至少一个安装在所述支持器上的图像捕捉设备,所述图像捕捉设备适合于捕捉所述光源在人每只眼的视网膜上的至少一个视网膜反射图像并将每个已捕捉图像转换为表示该图像的信号,人头部相对于光源的姿势在两个图像捕捉之间不同,所述光源在与所述图像捕捉设备关联的参照系中具有已知位置;
·用于在与人头部关联的参照系中测量至少一个与人的注视方向关联的注视方向参数的装置;以及
·计算机,适合于响应于表示所述至少一个已捕捉图像的信号,确定人眼的所述折射特性以及将与人的注视方向关联的至少一个注视方向参数存储在存储器中,所述至少一个注视方向参数与所确定的折射特性关联。
根据本发明的另一有利的非限制特性,所述测量人头部的所述姿势参数的装置包括用于识别人头部的位置并适合于安装在人的头上或眼镜上的元件,或者包括超声波测量设备,其包括至少一个超声波发射器和至少一个超声波接收器,或者包括使用电磁传感器的测量设备。
此测量设备使得能够从远端快速、准确地测量人头部姿势参数。
根据本发明的另一有利的非限制特性,所述光源包括多个彼此的相对位置已知的次级光源,它们的光源可以相互独立地打开。
通过针对每个图像捕捉打开不同的光源,在人头部不动的情况下,可以确保人头部相对于所述光源的姿势在每个图像捕捉期间不同。
替代地,所述光源可以相对于图像捕捉设备移动。
附图说明
参考作为非限制性实例的附图给出的以下描述示出本发明的内容以及如何通过精简所述内容来实现本发明。
在所述附图中:
图1是本发明的方法的实现的透视图,其中人将测量设备把持在手中;
图2是当人在第一图像捕捉期间注视图1测量设备时图1中的人眼的透视简图;
图3是参考图2捕捉的第一图像的图像捕捉平面的简图;
图4是当人在第二图像捕捉期间注视图1测量设备时图1中的人眼的透视简图;
图5是参考图4捕捉的第二图像的图像捕捉平面的简图;
图6是将图1测量设备把持在手中的人的轮廓图;以及
图7是示出人眼和图1测量设备的水平平面的平面简图。
具体实施方式
综上述,本发明的理念是自动测量在采取自然姿势,在已知或确定的视力状况下人眼的至少一个折射特性。因此,测量与对应于每个已捕捉图像的注视方向相关的参数,以便记录这个与人眼的对应折射特性关联的注视方向参数,或者在所测量的注视方向参数指示人处于所关注的预定视力状况下时触发图像捕捉,或者在捕捉一系列图像之后,选择在所关注的视力状况下捕捉的图像,以便确定在这些状况下人眼的折射特性。
特别值得注意的是人在近距视力或中距视力下注视的视力状况。通过人眼借以跟踪近距视力或中距视力的被称为“调节”的现象对人眼的折射特性做出显著修改。
在下面描述的实例中,此测量依赖于检影原理,例如,如标题为“Principal of retinoscopy(视网膜检影法原理,M.Klein于1944年发表于The British Journal of Ophthalmology(英国眼科期刊))”的文档中描述的那样。
本发明的测量设备100的实例在图1、2和4中示出。测量设备100包括外壳30,所述外壳用作图像捕捉设备10和用于照射人头部的发光装置20的支持器。
外壳30有利地采取矩形平板的形式。
例如,需要通过确定以下折射特性中的至少一项来确定人每只眼的目标屈光不正:屈光不正符号(ametropia sign);球光焦度;柱光焦度;以及柱轴的位置。
所述屈光不正符号用负值代表近视,用正值代表远视。屈光不正值对应于人眼的球光焦度和柱光焦度。它们沿人眼的各种子午线确定。所述柱光焦度和柱轴确定人眼是否散光。
当选择适合于人的光学设备时,这些折射特性是必需的,因为它们可用于确定适合于矫正人屈光不正的眼科透镜类型:聚光透镜、散光透镜、环形(toroidal)透镜以及眼科透镜的光焦度。
人采取自然姿势,无论是站着还是坐着,如图1所示。人相对于测量设备100的姿势不受下颚托或前额垫的约束。术语“自然”姿势表示最舒服、最符合人体工程学以及使人的疲劳程度最低的姿势。
在步骤a),在与像捕捉设备关联的参照系中,取决于人的意愿调整人头部的至少一个姿势。
只需人工完成此动作,采取随意的位置并将图像捕捉设备100放在人希望的位置上,具体而言,在第一实现中,由人手持测量设备,如例如图1所示。
在其中图像捕捉设备放置在支持器或放置在架子上的第二实现中,人可以使用允许修改测量设备的位置的远程控制,或者通过向根据指令修改测量设备位置的操作者发出语音指令来从远程执行此调整。
最后,在第三实现中,测量设备是固定的,人相对于测量设备100占据所需的位置。
无论采用哪个实现,都可以捕捉人头部在处于自然、不受约束的位置上的图像。这使得能够确定人眼在真实视力状况下的折射特性。
在一个变形中,具体的注视任务交由人执行,例如,阅读放在图像捕捉设备的光瞳附近的文字。然后可以捕捉图像并确定当人自然地采取执行注视任务的姿势时,人眼的折射特性。
在步骤b),操作者通过在与已知的图像捕捉设备关联的参照系(O,X,Y,Z)中具有已知位置的至少一个光源照射人的双眼。
与图像捕捉设备10关联的参照系(O,X,Y,Z)例如可以位于图像捕捉设备的光瞳的中央。轴(O,X)(O,Y)在图像捕捉平面PCI(图像捕捉设备的传感器的平面)中延伸,所述图像捕捉平面在此由支持器30的平均平面(mean plane)表示。轴(OZ)是图像捕捉设备的光轴,该轴垂直于图像捕捉平面PCI。
在图1、2和4中所示的实例中,测量设备100的发光装置20包括多个光源20。这些光源优选具有极小的尺寸,例如几乎像点那么大。例如,每个光源表示大约1毫米(mm)的宽度。在该实例中,它们为发光二级管(LED)20。这些LED中的每个可以相互独立地打开并照射人的双眼。所述LED构成发散光源。因此,它们有利地照射非常宽的立体角,以便宽广地照射人的头部。
在此描述的光源20是主光源,但是在变形中,它们可能是通过反射或偏移本身来自这种主光源的光线而获取的次级光源。
在该实例中,LED在外壳30的前端面上排列,所述外壳还用作图像捕捉设备10的支持器,因此,这些LED中的每个在图像捕捉设备参照系中的位置在构造上是已知的并且固定不变。
在该实例中,LED位于外壳30的前端面的平面中,沿着四个对齐方向的对齐,所述四个对齐方向在图像捕捉设备10的光瞳11所在的点上相交。
替代地,可以构想使用本领域的技术人员公知的其他类型的光源。在位置上,可以使用能够在图像捕捉设备的参照系中相对于人头部移动的单个光源。然后,测量设备包括用于确定光源在此参照系中位置的装置。
在图像捕捉步骤中,图像捕捉设备10捕捉所述光源在人双眼的视网膜上的每个视网膜反射的至少一个以及优选两个图像,每个图像在对应的图像捕捉平面中捕捉,并且人头部相对于所述光源的相对姿势在两个图像捕捉期间不同。
图像捕捉设备的图像捕捉由操作者触发,或者自动触发,例如通过电子和计算机设备。
例如,所述电子和计算机设备包括其上安装有用于图像获取和处理所获取图像的软件的计算机。
测量设备100优选地包括用于与具有相应通信装置的计算机进行通信的装置。测量设备100的通信装置和计算机的通信装置可以是有线类型或无线类型的装置,它们也可以具有任何传统设计,因此这里不再描述。有利地,这些通信装置集成在公共网络架构中或点对点链路中,以允许图像捕捉设备与多个计算机进行通信。
因此,所述电子和计算机设备可以根据操作者预定的时间间隔触发图像捕捉。测量装置100将已捕捉图像发送到所述电子和计算机设备,该设备还接收步骤c)中执行的人头部姿势参数测量,下面将描述此测量。
在一个变形中,可以将所述电子和计算机设备作为独立的***提供,所述***首先包括显示屏,用于发送已捕捉图像和/或在处理这些图像的步骤期间获取的结果,另外还包括允许它将这些结果发送到其他装置的连接。还可以将所述电子和计算机设备作为独立的处理***提供,以便可选性地将***并入到测量设备100中。
例如,两个图像捕捉在图2和4中所示的配置中发生。这两个图是示出在捕捉这两个图像期间,相对于测量设备100的人眼的图表。
在第一图像捕捉期间,如图2所示,测量设备100的LED 20中的第一LED 21打开并同时照射人的右眼OD和左眼OG,由光线23表示。这些光线23照射人眼OD和OG中每只的视网膜,因此视网膜然后作为次级光源:光线以漫射的方式被视网膜反射并从人眼传回。这些光线23的一部分被视网膜以漫射的方式反射并离开对应人眼OD、OG以便由图像捕捉设备10的光瞳11接收。
类似地,在第二图像捕捉期间,如图4所示,测量设备100的LED 20中的第二LED 22打开并同时照射人的右眼OD和左眼OG,由光线24表示。这些光线24照射人眼OD和OG中每只的视网膜。这些光线24的一部分被视网膜反射并离开对应人眼OD、OG以便由图像捕捉设备10的光瞳11接收。
因此,图像捕捉设备10捕捉的对应图像I1和I2包括对应的第一和第二LED 21和22在人眼OD和OG中每只的视网膜上的反射图像IROD1、IROG1、IROD2、IROG2。
一般而言,通过人每只眼OD和OG的光瞳11只能看到每个视网膜反射图像IROD1、IROG1、IROD2、IROG2的一部分。可见的图像部分是位于在人的瞳孔和图像捕捉设备的光瞳之间延伸的截头圆锥空间中的部分。
在该实例中,视网膜反射图像IROD1、IROG1、IROD2、IROG2在对应人眼的图像IOD1、IOG1、IOD2、IOG2中示为阴影(图3和5)。该反射的图像在已捕捉图像中不可见的轮廓由虚线画出。
所述电子和计算机设备在实践中通过执行操作捕捉一系列图像,接下来只保留其上视网膜反射的图像可见的那些图像。具体而言,所述电子和计算机设备选择与进入和离开所述截头圆锥空间的图像对应的两个图像,可从这对图像中获取最大信息量。
在该实例中,人头部在图像捕捉设备的参照系中的姿势与捕捉图像时的姿势保持相同,但是人头部相对于所述光源的姿势在两个图像捕捉之间不同,因为在每次图像捕捉期间打开的LED不同。为此,例如可以捕捉由很短的时间间隔分隔的两个图像,以便可以忽略该时间间隔内人的任何移动。例如,此时间间隔可以位于2毫秒(ms)至100ms的范围之内。
比较图3和5中以图表形式示出的图像I1和I2,显示图像I1中LED21的反射的图像IROD1、IROG1的位置不同于图像I2中LED 22的反射的图像IROD2、IROG2的位置。换言之,当在图像捕捉期间打开的光源的位置变化时,所述光源的反射的图像的位置也会变化。
在该实例中,通过对应人眼的光瞳成像的每个LED的反射图像IROD1、IROG1、IROD2、IROG2由人的瞳孔图像IPD1、IPG1、IPD2、IPG2的照亮区域(即,图3和5中的阴影表示的已打开光源的视网膜反射)和未被LED 21、22照射的瞳孔黑暗区域之间的边界或界限ILD1、ILG1、ILD2、ILG2表示。该界限ILD1、ILG1、ILD2、ILG2对应于光源反射图像IROD1、IROG1、IROD2、IROG2的边缘。
当人在图像捕捉设备10的光瞳11的附近注视时,执行图像捕捉步骤。沿着人每只眼的注视方向的视线DVD、DVG然后优选地相对于连接眼OD、OG中的每只与图像捕捉设备10的光瞳11的各条观察线DOD、DOG形成小于或等于小于10度的阈值的角AD、AG(图7)。此条件使得能够确保人眼的瞳孔以满意的方式成像,以便光源在人的双眼中每只上的视网膜反射在两个已捕捉图像中可见。
在实践中,图像捕捉设备10捕捉两个以上的一系列图像。之后,通过光源的角膜反射和对应人眼的瞳孔的相对位置计算人的注视方向,从而选择其中人在图像捕捉设备10的光瞳11的附近注视(即,在预定区域内注视)的图像。
在该实例中,已确定的区域对应于位于图像捕捉设备的光瞳周围的支持器表面,其中沿着注视方向的视线DVD、DVG和观察线DOD、DOG之间角AD、AG小于所述阈值。
如果选择多个图像,则所述电子和计算机设备可选地设计为对图像进行平均。
替代地,还可以使本发明的方法在图像捕捉步骤之前包括验证步骤,以确保当人在图像捕捉设备10的光瞳11的附近注视时(即,在已确定的区域内注视),捕捉所述至少一个图像。只捕捉其中人的注视方向位于该区域内的图像。
最后,还可以在打开两个LED中的每个LED时捕捉人头部的多个图像,从而例如可以平均打开每个LED时捕捉的图像,和/或者捕捉对应于连续打开不同的LED的一系列图像。然后改善通过图像处理获取的结果的准确性。
在所述图像捕捉期间执行的步骤c),在与人头部关联的参照系中,测量与人的注视方向相关的至少一个参数。
在该实例中,此注视方向参数专指有关在人注视图像捕捉设备的光瞳时测量的人头部姿势参数。
在该实例中,这是指代表向下注视图像捕捉设备光瞳的头部姿势的参数。由于人眼的注视点接近图像捕捉设备的光瞳,因此这个与头部姿势相关的参数与注视方向关联,所述方向可以通过计算直接由此推断出。
此测量针对由两个或多个已捕捉图像组成的一系列图像中的至少一个图像执行。下面将更详细地进行描述。
所述测量可以与捕捉图像同时执行,也可以在图像捕捉之前或之后,在小于或等于100ms的时间间隔内执行。
在步骤e′),所述电子和计算机设备通过表示所述图像的信号,确定两个已捕捉图像之间光源的视网膜反射图像的移动。
所述电子和计算机设备将所确定的视网膜反射图像的移动与两个图像捕捉之间人头部相对于光源的姿势差别进行比较,并且由此推断出人眼的折射特性。
在本发明的方法的第一变形中,在步骤h),测量人的注视方向参数的结果存储在所述电子和计算机设备的存储器中,所述注视方向参数的测量结果与通过在对应于所述注视方向的视力状况下捕捉的图像推断出的折射特性关联。
在本发明的方法的第二变形中,在图像捕捉步骤期间,所述电子和计算机设备不会触发图像捕捉,除非注视方向参数H的值位于对应于所述预定视力状况(例如,近距视力)的范围内。所述电子和计算机设备然后只确定当人处于所述预定视力状况下时人眼的折射特性。
仅在独立于图像捕捉操作获取注视方向参数时清晰地构想此变形。例如,当注视方向参数可以直接通过人头部姿势推断出,并且人头部姿势通过不需要图像捕捉的确定装置确定时适用此变形。还可以构想电影摄像机连续拍摄人头部并且通过所拍摄的图像并行地计算注视方向参数,以便在适当的时刻触发图像捕捉。
在本发明的方法的第三变形中,所述电子和计算机设备从已捕捉图像中选择其中测量的注视方向参数表示位于对应于所述预定视力状况(例如,近距视力)的范围内的值的图像。所述电子和计算机设备然后通过选定的图像确定人眼的折射特性。
在实践中,优选地在同时照射双眼OD和OG的情况下,同时捕捉光源在双眼中每只的视网膜上的视网膜反射图像,并且在步骤e′),至少根据与在人头部相对于所述光源的每个姿势中同时捕捉的双眼视网膜反射相关的所述信号执行比较。
更具体地说,在步骤c),如图6所示,例如在图像捕捉的视力状况下
(例如,对应于远视状况下水平解剖平面PFH的近距或中距视力)测量图像捕捉设备10的光瞳11和倾斜的解剖平面PFI之间的垂直距离H。
在一个变形中,在步骤c),测量图像捕捉设备的光瞳和水平解剖平面PFH之间的距离,所述水平解剖平面在人采取自然姿势并平视时基本水平。
在另一变形中,可以使注视方向参数直接涉及所述电子和计算机设备根据表示双眼的角膜反射图像的信号确定的视线DVD、DVG的坐标。
还会测量以下头部姿势参数:
·头部或人眼OD、OG之一和图像捕捉设备之间的距离DD、DG,例如,更具体地说,是人眼OD、OG的旋转中心和图像捕捉设备之间的距离DD、DG;
还可以提供测量以下至少一个头部姿势参数:
·图像捕捉平面PCI关于第一参考平面PREFD、PREFG的水平轴X′相对于所述第一参考平面PREFD1、PREFG1的第一倾斜角AVD、AVG,所述第一参考平面PREFD1、PREFG1垂直于连接人眼OD、OG之一与图像捕捉设备20的光瞳11的观察线DOD、DOG;以及
·图像捕捉平面PCI关于垂直于所述水平轴X′的第一参考平面PREFD1、PREFG1的轴Y相对于所述第一参考平面PREFD1、PREFG1的第二倾斜角AHD、AHG。
因此,第一角AVD、AVG对应于与所述水平轴X′垂直的平面中的角,所述角位于图像捕捉平面PCI和所述垂直于水平轴X′的平面之间的相交定义的线和参考平面PREFD1、PREFG1和所述垂直于水平轴X′的平面之间的相交定义的线之间。
因此,第二角AVD、AVG对应于与所述轴Y垂直的平面中的角,所述角位于图像捕捉平面PCI和所述垂直于轴Y的平面之间的相交定义的线和参考平面PREFD1、PREFG1和所述垂直于轴Y的平面之间的相交定义的线之间。
为了测量注视方向H和人头部姿势的这些参数,例如可以将人的头部放入诸如文档WO 2008/132356中描述的位置识别***。此位置识别***可以直接放在佩戴者的头上,也可以放在不包括眼科镜片的眼镜架上。
该文档还描述了计算有关姿势的各种参数,以及具体而言佩戴者头部和图像捕捉设备之间的距离的方法。
解剖平面PFH有利地是该文档中描述的法兰克福平面。当人的头部采取自然姿势并且人正在注视图像捕捉设备并且不在无穷远时,倾斜的解剖平面PFI对应于法兰克福平面。
具体而言,执行预先校准步骤,其中当人正在注视远处时确定法兰克福平面的位置。法兰克福平面然后基本水平。当人的头部倾斜时,还可以通过该文档中描述的位置识别***的垂直位置识别元件的图像几何特性推断出法兰克福平面的位置。例如,这可能涉及该垂直位置识别元件上示出的图案中的暗条纹之间的间隔。
该文档还描述了一种确定人头部的参照系中人眼的旋转中心位置的方法。此类确定还可以作为校准步骤执行。
当人注视图像捕捉设备的光瞳时,由于人眼的旋转中心位置已经在头部的参照系中确定,并且由于头部位置已经在图像捕捉的参照系中确定,因此可以由此推断出图像捕捉参照系中人眼的旋转中心位置。如果人注视图像捕捉设备的光瞳,则可以由此推断出人眼的注视方向并且还可以推断出图像捕捉设备的光瞳相对于倾斜的法兰克福平面的位置。
在一个变形中,还可以使用M.Oka等人在“Analysis and modeling offaces and gestures”一书(Springer在2005年出版)中的308至320页上发表的文献“Real-time modeling of face deformation for 3D head poseestimation”中描述的方法估计佩戴者头部在三维空间中的姿势的方法。
还可以构想使用本领域的技术人员公知的任何“人眼跟踪”方法确定注视方向参数,例如文档US 2003/0169907中描述的方法。
一般而言,在人眼跟踪方法中,对图像执行处理以便确定光源在人每只眼的视网膜上的反射的坐标。例如,该步骤通过图像和反射的理论模式之间的卷积执行。例如,可以根据表示反射的图像的像素坐标确定反射的坐标。
例如,通过借助梯度和哈夫(Hough)变换检测轮廓来检测瞳孔边缘,从而使得能够确定瞳孔中心的坐标及其直径。
校准步骤还使得能够确定将光源反射的位置和瞳孔中心的坐标转换为注视方向角的多项式或其他关系式。为此,在该校准步骤期间,人注视在图像捕捉参照系中具有已知的3D位置,或至少在所述参照系中具有已知的角坐标的瞄准点(sighting piont)。
另一校准方法涉及计算瞳孔在平行于与人头部关联的参照系的平面中的二维位置。具体而言,这个平行于与人头部关联的参照系的平面可以是垂直于所述法兰克福平面的前额平面。
有利地,所述电子和计算机设备还将测量的头部姿势参数以及注视方向参数存储在存储器中。因此可以计算折射特性,并且随后可以作为这些头部姿势参数的函数矫正所述折射特性。
例如,当沿着人注视方向的视线DVD、DVG和连接人眼与图像捕捉设备的光瞳的观察线DOD、DOG成θ角时,则人眼的瞳孔在已捕捉图像上的图像不是圆形,而是椭圆形。然后将计算机设计为使椭圆的小直径除以等于所述θ角的余弦的因子,以便重新构造瞳孔的真实形状,从而重新构造光源图像反射的真实形状。这使得能够在相应的图像处理结束时更准确地确定折射特性。
在实践中,在步骤e′),所述电子和计算机设备将对应于不同光源位置的两个图像中的光源视网膜反射图像的移动方向与两个对应的图像捕捉之间的光源本身的移动方向进行比较。
在图2至5中所示的实例中,光源从LED 21的位置移动到LED 22的位置,即,在佩戴者头部的参照系中,沿着在人头部的参照系中基本水平的轴从左移到右。
通过人每只眼的瞳孔成像的LED 22的视网膜反射图像IROD2、IROG2在此参照系中相对于LED 21的视网膜反射图像IROD1、IROG1稍微向左偏移。
因此,视网膜反射图像IROD1、IROG1朝着与光源移动方向相反的方向,沿着与打开的LED的移动轴平行的眼轴移动。
根据检影法的原理,所述电子和计算机设备被设计为通过此比较推断出人眼OD和OG沿着垂直于与打开的LED的移动轴平行的眼轴的人眼的子午线(即,在该实例中,沿着垂直的子午线)呈现负的屈光不正值(即,代表近视)。
当反射图像的移动方向与光源的移动方向相同时,所述电子和计算机设备被设计为根据此比较推断出人眼OD和OG沿着对应的子午线呈现正的屈光不正值(即,代表远视)。
在该实例中,LED 20在测量设备的平面中的排列使得可以通过连续打开至少两个在四个方向中的每个方向上排列的LED(其中,LED在支持器30的前端面上对齐)来确定每只人眼沿着四个人眼子午线的方向的屈光不正符号,其中包括两条与第一子午线成45度角的子午线以及一条与该第一子午线成90度角的子午线。
在一个变形中,在步骤e),所述电子和计算机设备使用表示至少一个图像的信号和优选地使用表示每个图像的信号确定光源的视网膜反射图像IROD1、IROG1、IROD2、IROG2的宽度,并且由此推断出人眼的屈光不正值。
在该实例中,由于光源为LED,因此图像的形状为圆形。
因此,对于不呈现散光的人眼,光源的视网膜反射图像的形状为圆形。然后,所述视网膜反射图像的宽度对应于反射的直径。
当人眼实际呈现散光时,所述视网膜反射图像的图形为椭圆形。然后,具有最大直径的椭圆的轴对应于在绝对值方面呈现最大屈光不正的人眼子午线。然后,所述视网膜反射图像的宽度对应于所述椭圆的最大直径。
为了确定此宽度,所述电子和计算机设备分析每个已捕捉图像以确定相应光源的视网膜反射的强度的空间分布。此强度空间分布在图8中以图表的形式示出。图8中的每条曲线对应于由人眼反射光的一部分。
位于每条曲线平顶上的点对应于覆盖瞳孔的整个表面积的反射,而位于每条曲线斜坡上的点对应于其边缘在人眼瞳孔中可见的反射,如图3和5所示。所述强度空间分布在该图中针对在图例中以屈光度表示的不同屈光不正值D示出。
在该实例中,所述强度空间分布等于光源的反射所照射的瞳孔面积的百分比。
为了确定该百分比,所述电子和计算机设备确定人眼瞳孔的形状以及光源反射所照射的人眼瞳孔的图像区域和人眼瞳孔黑暗区域之间的边界或界限的位置。当如上所述,精确地获知人眼瞳孔的形状时,会增加确定该百分比的准确性。
然后,所述电子和计算机设备确定与每个强度分布对应的视网膜反射的直径,例如,等于强度的空间分布的一半高度处的宽度(即,半高全宽)。
如果视网膜反射的形状为椭圆形,则所述电子和计算机设备确定沿着椭圆的长轴的强度的空间分布并且由此推断出所述视网膜反射的宽度。
在实践中,人眼的真实状况(real quality)和光源的尺寸可以导致在已捕捉图像上观察到的强度的空间分布发生变化,具体而言,可以展开所述分布。所述电子和计算机设备可以有利地被设计为具体通过校准步骤矫正此类变形。所述校准步骤例如可以本领域的技术人员公知的方式,在表示已知像差的假眼的帮助下来执行。
有利地,所述电子和计算机设备通过多个已捕捉图像重新构建反射的强度空间分布,其中每个图像示出分布的一部分。具体而言,可以提供一系列已捕捉图像来跟踪光源的视网膜反射图像的移动,以便显示其全部,并且获取光源视网膜反射的完整强度空间分布。
因此,所述电子和计算机设备非常准确地确定视网膜反射图像的宽度。
光源的视网膜反射图像的宽度L满足以下关系式:
L=E*(-2*D*DPR+DPR/DSP-1)
其中:
E是所考虑的人眼的瞳孔直径;
DPR是图像捕捉设备的光瞳和人眼视网膜之间的距离;
DSR是光源和人眼视网膜之间的距离;以及
D是以屈光度表示的人眼屈光不正的值。
因此,可以使用以下公式计算屈光不正值D:
D=(L/E-DPR/DPS+1)/(-2DPR)
人眼的瞳孔直径可以作为计算参数由用户输入所述电子和计算机设备,或者可以通过已捕捉图像进行测量,例如,通过执行上述人眼跟踪方法的图像处理。
在第一选项中,用户输入瞳孔尺寸的预定均值。在第二选项中,用于处理图像的电子***在一系列记录的图像中的至少一个图像内识别至少一人一只眼的瞳孔,然后测量瞳孔直径。通过将以此方式测量的直径乘以一个比例因子来推断出瞳孔的真实尺寸。所述比例因子例如使用文档WO2008/132356中描述的位置识别***和方法进行确定。
图像捕捉设备的光瞳和人眼视网膜之间的距离DPR通过在步骤c)中测量的姿势参数进行确定。这些姿势参数具体包括人眼OD、OG中每只的旋转中心和图像捕捉设备之间的距离DD、DG。
由于视网膜和人眼旋转中心之间距离等于约11mm,因此图像捕捉设备的光瞳和人眼视网膜之间的距离DPR等于人眼OD、OG的旋转中心和图像捕捉设备之间的距离DD、DG加上距离11mm。
光源和人眼视网膜之间的距离DSR由所述电子和计算机设备根据图像捕捉设备的光瞳和人眼视网膜之间的距离DPR,以及在捕捉图像时打开的光源相对于图像捕捉设备的光瞳的位置(其距离是已知的)进行计算。
在当前描述的实例中,距离DPR和DSR非常相似,并且在第一近似中,可以认为它们相等。
因此,使用上面的公式计算屈光不正值(即,人眼的球光焦度或柱光焦度)。
为了加速实现本发明的方法,有利地执行人眼图象捕捉,这样会获取尽可能多的关于已打开光源的视网膜反射尺寸和形状的信息,即,使得可以尽可能地清楚地看到视网膜反射的边缘。
例如,通过连续打开位于一个对齐方向上的LED来执行捕捉第一系列图像,所采取的顺序是:交替打开位于图像捕捉设备10的光瞳11的任意一侧的LED,从最接近光瞳11的LED开始,然后逐渐远离光瞳11移动。在同一侧连续打开的两个LED之间的步长例如可以在每次重复时增加一倍,以便迅速扫描与对齐方向对应的所有考虑的LED。
之后,通过只打开反射强度平均等于最大反射强度的50%至90%的LED来执行下面的图像捕捉。当反射强度等于最大反射强度的50%时,反射边缘(即,被反射照射的人眼瞳孔区域和不被照射的人眼瞳孔区域之间的边界或界限)将人眼瞳孔分为两个具有相同面积的区域。这对应于打开四个在图像捕捉设备的光瞳任意一侧上对齐的LED。
因此可以更准确地确定反射的宽度。
为了确定眼睛的散光,所述电子和计算机设备分析反射的形状并确定反射强度的空间分布,从而确定沿着不同人眼子午线(例如,沿着相互成0、45和90度角排列的任意选择的三条子午线)的屈光不正值。
之后,所述电子和计算机设备沿着与最小和最大屈光不正值对应的人眼子午线执行其他测量,即,确定椭圆的最小和最大直径。由此推断出沿着两个对应直径的精确屈光不正值,因为椭圆直径在椭圆的长轴和短轴周围稍微有些变化。
最后,确定椭圆长轴任意一侧45度处的椭圆直径。此测量用于准确地确定散光轴,因为椭圆的直径值在与长轴成45度角的轴的周围快速变化。因此非常准确地确定散光。
在上文中,人不佩戴包含矫正眼科镜片的眼镜架。因此,所获取的折射特性值是与人本身的双眼对应的值。在一个变形中,可以构想操作者将视力矫正设备放在人脸上,例如,包括具有已知光焦度和偏折的眼科透镜。
在这种情况下,所述电子和计算机设备被设计为矫正作为视力矫正设备的光焦度和偏折的函数的表示已捕捉图像的信号和/或通过所述信号推断出的折射特性。
例如,对于具有给定光焦度的球面视力矫正透镜的简单情况,这意味着将该光焦度加到上述方法所确定的屈光不正值上。这两值的总和给出人眼的折射特性。
还可以再一次应用本发明的方法,以便确定人眼的任何过度矫正或不足矫正。
自然地,人还可以佩戴不包括视力矫正透镜的眼镜架。此类框架例如作为用于确定人头部姿势参数的位置识别***的支持器。
图像捕捉设备的参照系中人的注视方向优选地与捕捉图像时保持相同。为此,所述电子和计算机设备以非常短的时间间隔触发图像捕捉,例如以100ms的时间间隔,以便人眼在两个图像捕捉之间的几乎没有任何移动。
本发明并不在任何方面限于在此描述和示出的实施例,本领域的技术人员了解如何根据本发明的精神将任何变形应用到本发明。
具体而言,变形中的测量设备可以包括超声波测量设备,所述超声波测量设备包括至少一个超声波发射器和至少一个超声波接收器,或者包括具有电磁传感器的测量设备,用于测量与人头部相关的姿势参数。
在一个变形中,在步骤e),所述至少一个已捕捉图像用于确定光源20的视网膜反射图像IROD1、IROG1、IROD2、IROG2的亮度分布,确定作为此亮度分布的函数的人眼OD、OG的所述折射特性D。
然后,通过传统摄影验光方法确定折射特性,例如1997年在
“Optometry and Vision Science(视力检测和视觉科学)”期刊的第174卷,472至482页中发表的文章中描述的方法。人眼折射特性(在此是指其屈光不正的符号和/或值)通过反射图像的亮度分布确定。通过使用预先校准步骤实现此目的。
参考通过检影法计算折射特性的方法描述的各种实现及其变形可以类似的方式应用于使用摄影验光技术的计算光折射的折射特性的方法的方法。
例如,可以构想通过以下方法实现本发明的方法,即,在所述图像获取步骤期间,捕捉所述光源在人双眼视网膜上的至少两个视网膜反射图像,并且通过其中一个图像确定人双眼中一只眼的所述折射特性,以及通过另一图像确定人另一只眼的折射特性。
在另一变形中,本发明的方法包括通过实现以下步骤执行的心理物理测试:
r)在人眼前面显示呈现模糊性(fuzziness)的图像,所述模糊性对应于具有给定截止(cutoff)的频率滤波器所执行的用于滤波图像空间频率的低通滤波;
t)将所确定的与步骤s)中执行的生理物理测试的结果和步骤r)中使用的低通滤波器的截止频率值关联的折射特性存储在存储器中;以及
u)针对图像滤波器的不同截止频率重复执行至少步骤b)和c)以及用于确定折射特性的图像捕捉步骤以及步骤r)和t)。
所述生理物理测试还优选地包括确定人对图像的模糊性的感知的步骤s),并且在步骤u),该测试的结果也存储在存储器中,并且与相应滤波器的截止频率关联。
为此,测量设备100包括用于在显示器中产生呈现模糊性的图像的装置以及用于显示图像的设备。例如,所述显示装置由并入在上述设备的外壳中并适合于显示所述模糊图像的屏幕构成。
例如,所述模糊图像由所述电子和计算机设备产生。通过对清晰图像(例如,表示字母数字字符的图像)的空间频率的一部分进行空间滤波来产生模糊图像。所述电子和计算机设备通过以数字方式对清晰图像应用具有预定截止频率的低通滤波器来确定模糊图像。
还可以构想通过对屏幕显示信号进行模拟滤波来获取模糊图像。
一般而言,在一个变形中,所述模糊图像可以通过本领域的技术人员公知的方法获取,具体是指通过可获取模糊图像的任何图像处理。
可以将清晰图像分为多个不同的空间频率分量。
在滤波期间,呈现高空间频率的分量的振幅衰减。因此,图像上显示的字母数字字符的轮廓变得模糊不清。
所使用的低通滤波器的特征在于对应于阈值的截止空间频率,该阈值以上的图像空间频率的衰减程度大于所述阈值以下的图像空间频率的衰减程度。因此,所述截止空间频率对应于可以区分的两个模糊图像细节之间的最小距离。
可以实时计算模糊图像,也可以将所述模糊图像记录在所述电子计算机的图像库中。
所述电子和计算机设备与屏幕进行通信,以便使屏幕显示所计算的模糊图像。
感知模糊图像的步骤s)例如涉及询问个人有关他和/她对所显示图像的模糊性的感知的问题。例如,所询问的问题旨在确定个人是否能辨识图像中的模糊性,从而评估个人因模糊性而感到的任何困难和/或者评估由模糊图像所表示的字母数字字符的可读性的任何损失。
个人对所问问题的回答显示出其关于显示的图像的模糊程度的模糊性的感知。答案存储在所述电子和计算机设备的存储器中,并且与所确定的折射特性以及步骤r)中使用的低通滤波器的截止频率的值关联。
此外,在根据本发明的方法中,针对图像滤波器的不同截止频率重复执行至少步骤b)和c)以及用于确定折射特性的图像捕捉步骤以及步骤r)到t)。
有利地,然后可以确定对模糊性的感知以及人眼折射特性如何随着图像模糊程度的变化而变化。
上面详细描述了本发明的实现,其中通过至少一个图像(例如,通过单一系列的图像)确定双眼的折射特性,。
在一个变形中,可以构想:
·在所述图像捕捉步骤期间,捕捉至少两个图像,每个图像包括所述光源在人双眼视网膜上的两个视网膜反射图像;以及
·根据这两个图像中的一个图像,确定人双眼中一只眼的所述折射特性,以及根据另一图像,确定人另一只眼的折射特性。
例如,可以构想捕捉一系列图像并对这些图像中的一些图像进行处理以便确定一只眼的折射特性,以及对这些图像中的其他图像进行处理以便确定另一只眼的折射特性。本发明的方法中的其余部分保持不变。
在这种情况下,可以独立地针对每只眼细化对所处理图像的选择,这样使得能够例如针对每只眼专门选择那些反射强度平均等于最大反射强度的50%至90%的已捕捉图像。
当两只眼的屈光不正程度相差很多时,上述操作尤其有用。
Claims (33)
1.一种自动测量人双眼(OD、OG)的至少一个折射特性的方法,所述方法包括以下步骤:
a)在与适合于将每个已捕捉图像转换为表示该图像的信号的图像捕捉设备(10)关联的参照系(O,X,Y,Z)中,根据所述人的意愿调整人头部的至少一个姿势;
b)在与图像捕捉设备(10)关联的所述参照系(O,X,Y,Z)中,通过至少一个具有已知位置的光源(20)照射双眼(OD、OG);
c)在与人头部关联的参照系中,测量至少一个与人的注视方向关联的注视方向参数(H);
d)使用所述图像捕捉设备(10)捕捉所述光源(20)在人双眼(OD、OG)的视网膜上的至少一个视网膜反射图像(IROD1、IROG1、IROD2、IROG2);
e)通过在步骤d)中捕捉的所述至少一个图像,确定人眼(OD、OG)中每只的所述折射特性(D);以及
f)存储在步骤d)的图像捕捉期间测量的与所述人的注视方向关联的注视方向参数(H),所述注视方向参数与所确定的折射特性关联;
其中在步骤c),测量以下姿势参数(DD、DG、H、AHD、AHG、AVD、AVG)中的至少一个:
·图像捕捉设备(10)的光瞳和在人采取自然姿势并注视图像捕捉设备时倾斜的所述人的解剖平面(PFI)之间的垂直距离(H),在人采取自然姿势并平视时所述平面对应于基本水平的水平解剖平面(PFH);
·图像捕捉设备(10)的光瞳和水平解剖平面(PFH)之间的距离,所述水平解剖平面在人采取自然姿势并平视时基本水平;
·在垂直于第一参考平面(PREFD1、PREFG1)的水平轴(X’)的平面中的图像捕捉平面(PCI)相对于第一参考平面(PREFD1、PREFG1)的第一倾斜角(AVD、AVG),所述第一参考平面(PREFD1、PREFG1)垂直于连接人眼(OD、OG)之一与图像捕捉设备(10)的光瞳的线,所述第一倾斜角对应于位于所述图像捕捉平面(PCI)和垂直于水平轴(X')的平面之间的相交定义的线与参考平面(PREFD1、PREFG1)和所述垂直于水平轴(X')的平面之间的相交定义的线之间的角;以及
·在与垂直于所述水平轴(X')的第一参考平面(PREFD1、PREFG1)的轴(Y)垂直的平面中的图像捕捉平面(PCI)相对于所述第一参考平面(PREFD1、PREFG1)的第二倾斜角(AHD、AHG),所述第二倾斜角对应于位于与所述轴(Y)垂直的所述平面中的角,所述角位于图像捕捉平面(PCI)和垂直于轴(Y)的平面之间的相交定义的线与参考平面(PREFD1、PREFG1)和所述垂直于轴(Y)的平面之间的相交定义的线之间。
2.如权利要求1所述的方法,进一步包括以下步骤:
g)根据所述至少一个已捕捉图像确定光源(20)的视网膜反射图像(IROD1、IROG1、IROD2、IROG2)的宽度或亮度分布,以及确定作为所述宽度或所述亮度分布的函数的人眼(OD、OG)中每只的所述折射特性(D)。
3.如权利要求2中所述的方法,其中同时照射双眼(OD、OG),并且同时捕捉光源(20)在双眼(OD、OG)的视网膜上的视网膜反射图像,在步骤g),光源(20)的视网膜反射图像(IROD1、IROG1、IROD2、IROG2)的宽度和亮度分布至少通过与在人头部相对于所述光源(20)的姿势中同时捕捉的双眼(OD、OG)的视网膜反射相关的信号来确定。
4.如权利要求3中所述的方法,其中通过光源(20)的视网膜反射图像(IROD1、IROG1、IROD2、IROG2)的宽度(L)或亮度分布推断出人眼(OD、OG)中每只的屈光不正的值。
5.如权利要求1中所述的方法,其中捕捉所述光源(20)在人双眼(OD、OG)中每只的视网膜上的至少两个视网膜反射图像(IROD1、IROG1、IROD2、IROG2),并且所述方法进一步包括以下步骤:
g')通过所述至少两个已捕捉图像确定光源(20)的视网膜反射图像(IROD1、IROG1、IROD2、IROG2)的移动;
确定作为所述移动的函数的人双眼(OD、OG)中每只的所述折射特性(D)。
6.如权利要求5中所述的方法,其中:
因为人头部相对于所述光源(20)的姿势在两个图像捕捉期间不同,因此:
在步骤c),在所述图像捕捉期间,在图像捕捉设备(10)的参照系(O,X,Y,Z)中,测量人头部的至少一个姿势参数(DD、DG、AHD、AHG、AVD、AVG);以及
在步骤g'),将所确定的视网膜反射图像的移动与作为步骤c)中测量的所述头部姿势参数(DD、DG、AHD、AHG、AVD、AVG)的函数的两个图像捕捉之间人头部相对于光源(20)的姿势差别进行比较;
通过所述比较推断出人眼(OD、OG)中每只的所述折射特性(D)。
7.如权利要求6中所述的方法,其中人眼(OD、OG)中每只的屈光不正的符号通过所述比较推断出。
8.如权利要求6中所述的方法,其中同时照射双眼(OD、OG),并且同时捕捉光源(20)在双眼(OD、OG)的视网膜上的视网膜反射图像,其中在步骤g'),光源(20)的视网膜反射图像(IROD1、IROG1、IROD2、IROG2)的移动至少通过与在人头部相对于所述光源(20)的每个姿势中同时捕捉的双眼(OD、OG)的视网膜反射相关的信号来确定。
9.如权利要求1中所述的方法,其中在图像捕捉期间,上面放置所述光源(20)和所述图像捕捉设备(10)的支持器(30)由所述人用手把持。
10.如权利要求1中所述的方法,包括图像捕捉步骤之前或之后的验证步骤,用于验证所述至少一个图像在人正在图像捕捉设备(10)的光瞳(11)的附近注视时,即,正在光瞳附近的确定区域内注视时被捕捉。
11.如权利要求1中所述的方法,其中所述注视方向参数专指在人注视图像捕捉设备的光瞳时测量的人头部姿势参数(H)。
12.如权利要求2中所述的方法,其中在捕捉至少一个图像之前的预备步骤期间,将视力矫正设备放在所述人的脸上,并且其中矫正作为视力矫正设备的光焦度和偏折的函数的表示所述已捕捉图像的信号和/或通过所述信号推断出的折射特性。
13.如权利要求5中所述的方法,其中在捕捉至少一个图像之前的预备步骤期间,将视力矫正设备放在所述人的脸上,并且其中矫正作为视力矫正设备的光焦度和偏折的函数的表示所述已捕捉图像的信号和/或通过所述信号推断出的折射特性。
14.如权利要求1中所述的方法,其中在步骤c),人的注视方向(DVD、DVG)通过表示双眼(OD、OG)的角膜反射图像的信号进行计算。
15.如权利要求1中所述的方法,包括以下步骤:
h)在捕捉至少一个图像之前或期间,在人眼前面显示参考图像,所述参考图像呈现对应于具有给定截止的频率滤波器所执行的用于滤波所述图像的空间频率的低通滤波的模糊性;
i)将所确定的与步骤h)中使用的用于滤波所述参考图像的低通滤波器的截止频率值关联的折射特性存储在存储器中;以及
j)针对图像滤波器的不同截止频率重复执行至少步骤b)、c)、d)、e)、h)和i)。
16.如权利要求1中所述的方法,其中:
·在所述图像捕捉步骤期间,连续捕捉至少两个图像,每个图像对应于所述光源在人双眼的视网膜上的两个视网膜反射图像;以及
·通过所述两个图像中的一个图像,确定人双眼中一只眼的所述折射特性,以及通过另一图像,确定人另一只眼的折射特性。
17.一种在预定视力状况下,自动测量人双眼(OD、OG)的至少一个折射特性的方法,所述方法包括以下步骤:
a)在与适合于将每个已捕捉图像转换为表示该图像的信号的图像捕捉设备(10)关联的参照系(O,X,Y,Z)中,根据所述人的意愿调整人头部的至少一个姿势;
b)在与图像捕捉设备(10)关联的所述参照系(O,X,Y,Z)中,通过至少一个具有已知位置的光源(20)照射双眼(OD、OG);
c)在与人头部关联的参照系中,测量至少一个与人的注视方向关联的注视方向参数(H);
d)将在步骤c)中测量的注视方向参数与对应于预定视力状况的值的范围进行比较,如果在步骤c)中测量的所述注视方向参数(H)的值位于所述对应于所述预定视力状况的范围内,则触发由所述图像捕捉设备(10)捕捉所述光源在人双眼(OD、OG)的视网膜上的至少一个视网膜反射图像(IROD1、IROG1、IROD2、IROG2),所述图像在图像捕捉平面(PCI)中被捕捉;以及
e)通过所述至少一个已捕捉图像,确定所述预定视力状况下人眼(OD、OG)中每只的所述折射特性(D);
其中在步骤c),测量以下头部姿势参数(DD、DG、H、AHD、AHG、AVD、AVG)中的至少一个:
·图像捕捉设备(10)的光瞳和在人采取自然姿势并注视图像捕捉设备时倾斜的所述人的解剖平面(PFI)之间的垂直距离(H),在人采取自然姿势并平视时所述平面对应于基本水平的水平解剖平面(PFH);
·图像捕捉设备(10)的光瞳和水平解剖平面(PFH)之间的距离,所述水平解剖平面在人采取自然姿势并平视时基本水平;
·在垂直于第一参考平面(PREFD1、PREFG1)的水平轴(X’)的平面中的图像捕捉平面(PCI)相对于第一参考平面(PREFD1、PREFG1)的第一倾斜角(AVD、AVG),所述第一参考平面(PREFD1、PREFG1)垂直于连接人眼(OD、OG)之一与图像捕捉设备(10)的光瞳的线,所述第一倾斜角对应于位于所述图像捕捉平面(PCI)和垂直于水平轴(X')的平面之间的相交定义的线与参考平面(PREFD1、PREFG1)和所述垂直于水平轴(X')的平面之间的相交定义的线之间的角;以及
·在与垂直于所述水平轴(X')的第一参考平面(PREFD1、PREFG1)的轴(Y)垂直的平面中的图像捕捉平面(PCI)相对于所述第一参考平面(PREFD1、PREFG1)的第二倾斜角(AHD、AHG),所述第二倾斜角对应于位于与所述轴(Y)垂直的所述平面中的角,所述角位于图像捕捉平面(PCI)和垂直于轴(Y)的平面之间的相交定义的线与参考平面(PREFD1、PREFG1)和所述垂直于轴(Y)的平面之间的相交定义的线之间。
18.如权利要求17所述的方法,进一步包括以下步骤:
f)根据所述至少一个已捕捉图像确定光源(20)的视网膜反射图像(IROD1、IROG1、IROD2、IROG2)的宽度或亮度分布,以及确定作为所述宽度或所述亮度分布的函数的人眼(OD、OG)中每只的所述折射特性(D)。
19.如权利要求18中所述的方法,其中同时照射双眼(OD、OG),并且同时捕捉光源(20)在双眼(OD、OG)的视网膜上的视网膜反射图像,在步骤f),光源(20)的视网膜反射图像(IROD1、IROG1、IROD2、IROG2)的宽度和亮度分布至少通过与在人头部相对于所述光源(20)的姿势中同时捕捉的双眼(OD、OG)的视网膜反射相关的信号来确定。
20.如权利要求19中所述的方法,其中通过光源(20)的视网膜反射图像(IROD1、IROG1、IROD2、IROG2)的宽度(L)或亮度分布推断出人眼(OD、OG)中每只的屈光不正的值。
21.如权利要求17中所述的方法,其中捕捉所述光源(20)在人双眼(OD、OG)中每只的视网膜上的至少两个视网膜反射图像(IROD1、IROG1、IROD2、IROG2),并且所述方法进一步包括以下步骤:
f')通过所述至少两个已捕捉图像确定光源(20)的视网膜反射图像(IROD1、IROG1、IROD2、IROG2)的移动;
确定作为所述移动的函数的人双眼(OD、OG)中每只的所述折射特性(D)。
22.如权利要求21中所述的方法,其中:
因为人头部相对于所述光源(20)的姿势在两个图像捕捉期间不同,因此:
在步骤c),在所述图像捕捉期间,在图像捕捉设备(10)的参照系(O,X,Y,Z)中,测量人头部的至少一个姿势参数(DD、DG、AHD、AHG、AVD、AVG);以及
在步骤f'),将所确定的视网膜反射图像的移动与作为步骤c)中测量的所述头部姿势参数(DD、DG、AHD、AHG、AVD、AVG)的函数的两个图像捕捉之间人头部相对于光源(20)的姿势差别进行比较;
通过所述比较推断出人眼(OD、OG)中每只的所述折射特性(D)。
23.如权利要求22中所述的方法,其中人眼(OD、OG)中每只的屈光不正的符号通过所述比较推断出。
24.如权利要求21中所述的方法,其中同时照射双眼(OD、OG),并且同时捕捉光源(20)在双眼(OD、OG)的视网膜上的视网膜反射图像,其中在步骤f'),光源(20)的视网膜反射图像(IROD1、IROG1、IROD2、IROG2)的移动至少通过与在人头部相对于所述光源(20)的每个姿势中同时捕捉的双眼(OD、OG)的视网膜反射相关的信号来确定。
25.如权利要求17中所述的方法,其中在图像捕捉期间,上面放置所述光源(20)和所述图像捕捉设备(10)的支持器(30)由所述人用手把持。
26.如权利要求17中所述的方法,包括图像捕捉步骤之前或之后的验证步骤,用于验证所述至少一个图像在人正在图像捕捉设备(10)的光瞳(11)的附近注视时,即,正在光瞳附近的确定区域内注视时被捕捉。
27.如权利要求17中所述的方法,其中所述注视方向参数专指在人注视图像捕捉设备的光瞳时测量的人头部姿势参数(H)。
28.如权利要求18中所述的方法,其中在捕捉至少一个图像之前的预备步骤期间,将视力矫正设备放在所述人的脸上,并且其中矫正作为视力矫正设备的光焦度和偏折的函数的表示所述已捕捉图像的信号和/或通过所述信号推断出的折射特性。
29.如权利要求21中所述的方法,其中在捕捉至少一个图像之前的预备步骤期间,将视力矫正设备放在所述人的脸上,并且其中矫正作为视力矫正设备的光焦度和偏折的函数的表示所述已捕捉图像的信号和/或通过所述信号推断出的折射特性。
30.如权利要求17中所述的方法,其中在步骤c),人的注视方向(DVD、DVG)通过表示双眼(OD、OG)的角膜反射图像的信号进行计算。
31.如权利要求17中所述的方法,包括以下步骤:
g)在捕捉至少一个图像之前或期间,在人眼前面显示参考图像,所述参考图像呈现对应于具有给定截止的频率滤波器所执行的用于滤波所述图像的空间频率的低通滤波的模糊性;
h)将所确定的与步骤g)中使用的用于滤波所述参考图像的低通滤波器的截止频率值关联的折射特性存储在存储器中;以及
i)针对图像滤波器的不同截止频率重复执行至少步骤b)、c)、d)、e)、g)和h)。
32.如权利要求17中所述的方法,其中:
·在所述图像捕捉步骤期间,连续捕捉至少两个图像,每个图像对应于所述光源在人双眼的视网膜上的两个视网膜反射图像;以及
·通过所述两个图像中的一个图像,确定人双眼中一只眼的所述折射特性,以及通过另一图像,确定人另一只眼的折射特性。
33.一种用于自动测量人双眼(OD、OG)的至少一个折射特性的设备,所述设备包括:
·支持器(30);
·至少一个安装在所述支持器(30)上的光源(20),其安装为照射人眼(OD、OG)中的至少一只;
·至少一个安装在所述支持器(30)上的图像捕捉设备(10),所述图像捕捉设备适合于捕捉所述光源(20)在人每只眼的视网膜上的视网膜反射图像(IROD1、IROG1、IROD1、IROG2)中的至少一个并将每个已捕捉图像转换为表示该图像的信号,所述光源(20)在与所述图像捕捉设备(10)关联的参照系(O,X,Y,Z)中具有已知位置;
用于在与人头部关联的参照系中测量至少一个与人的注视方向关联的注视方向参数(H)的装置,所述参数选自以下参数:
·图像捕捉设备(10)的光瞳和在人采取自然姿势并注视图像捕捉设备时倾斜的所述人的解剖平面(PFI)之间的垂直距离(H),在人采取自然姿势并平视时所述平面对应于基本水平的水平解剖平面(PFH);
·图像捕捉设备(10)的光瞳和水平解剖平面(PFH)之间的距离,所述水平解剖平面在人采取自然姿势并平视时基本水平;
·在垂直于第一参考平面(PREFD1、PREFG1)的水平轴(X’)的平面中的图像捕捉平面(PCI)相对于第一参考平面(PREFD1、PREFG1)的第一倾斜角(AVD、AVG),所述第一参考平面(PREFD1、PREFG1)垂直于连接人眼(OD、OG)之一与图像捕捉设备(10)的光瞳的线,所述第一倾斜角对应于位于所述图像捕捉平面(PCI)和垂直于水平轴(X')的平面之间的相交定义的线与参考平面(PREFD1、PREFG1)和所述垂直于水平轴(X')的平面之间的相交定义的线之间的角;以及
·在与垂直于所述水平轴(X')的第一参考平面(PREFD1、PREFG1)的轴(Y)垂直的平面中的图像捕捉平面(PCI)相对于所述第一参考平面(PREFD1、PREFG1)的第二倾斜角(AHD、AHG),所述第二倾斜角对应于位于与所述轴(Y)垂直的所述平面中的角,所述角位于图像捕捉平面(PCI)和垂直于轴(Y)的平面之间的相交定义的线与参考平面(PREFD1、PREFG1)和所述垂直于轴(Y)的平面之间的相交定义的线之间;以及
·计算机,适合于响应于表示所述至少一个已捕捉图像的信号,确定人眼(OD、OG)的所述折射特性(D)以及将与所述人的注视方向关联的至少一个注视方向参数(H)存储在存储器中,所述至少一个注视方向参数与所确定的折射特性关联。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0905467 | 2009-11-13 | ||
FR0905467A FR2952517B1 (fr) | 2009-11-13 | 2009-11-13 | Procede et dispositif de mesure automatique d'au moins une caracteristique de refraction des deux yeux d'un individu |
PCT/FR2010/000747 WO2011058244A1 (fr) | 2009-11-13 | 2010-11-09 | Procédé et dispositif de mesure automatique d'au moins une caractéristique de réfraction des deux yeux d'un individu |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102596005A CN102596005A (zh) | 2012-07-18 |
CN102596005B true CN102596005B (zh) | 2014-12-31 |
Family
ID=42227646
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201080051057.4A Active CN102596005B (zh) | 2009-11-13 | 2010-11-09 | 自动测量人双眼的至少一个折射特性的方法和设备 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8708490B2 (zh) |
EP (1) | EP2498671B1 (zh) |
JP (1) | JP5869489B2 (zh) |
CN (1) | CN102596005B (zh) |
FR (1) | FR2952517B1 (zh) |
WO (1) | WO2011058244A1 (zh) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PT106430B (pt) | 2012-07-03 | 2018-08-07 | Cesar Augusto Dos Santos Silva | Sistema para medição da distância interpupilar usando um dispositivo equipado com um ecrã e uma câmara |
FR2992843B1 (fr) * | 2012-07-06 | 2016-05-06 | Essilor Int | Dispositif et procede de mesure de refraction oculaire objective et d'au moins un parametre geometrico-morphologique d'un individu |
FR2992844B1 (fr) * | 2012-07-06 | 2016-03-18 | Essilor Int | Dispositif et procede de mesure d'au moins une caracteristique de refraction oculaire objective d'un sujet pour une pluralite de distances de vision |
KR102252090B1 (ko) * | 2013-06-06 | 2021-05-14 | 식스 오버 식스 비젼 엘티디 | 주관적인 거리측정에 기초한 눈의 굴절 이상 측정 시스템 및 방법 |
WO2015167471A1 (en) | 2014-04-29 | 2015-11-05 | Hewlett-Packard Development Company, L.P. | Gaze detector using reference frames in media |
DE102014116665A1 (de) * | 2014-09-22 | 2016-03-24 | Carl Zeiss Ag | Verfahren und Vorrichtung zur Bestimmung der Augenrefraktion |
DE102014015345A1 (de) * | 2014-10-18 | 2016-04-21 | Hans-Joachim Ollendorf | Verfahren zur messgenauen Bestimmung von optisch-physiognomischen Parametern eines Probanden zur Anpassung von Brillengläsern an den Probanden für die Nahsichtsituation |
US10092181B2 (en) * | 2015-04-29 | 2018-10-09 | University Of Rochester | Method of imaging multiple retinal structures |
DE102015116110A1 (de) * | 2015-09-23 | 2017-03-23 | Carl Zeiss Vision International Gmbh | Verfahren und System zur Bestimmung der subjektiven Refraktionseigenschaften eines Auges |
FR3042400A1 (fr) * | 2015-10-15 | 2017-04-21 | Essilor Int | Dispositif de test du comportement visuel d'un individu et methode de determination d'au moins un parametre de conception optique d'une lentille ophtalmique utilisant un tel dispositif |
EP3192431A3 (de) * | 2016-01-14 | 2017-08-23 | Oculus Optikgeräte GmbH | Sehprüfsystem und verfahren zum überprüfen der augen |
ES2702484T3 (es) * | 2016-01-15 | 2019-03-01 | Centre Nat Rech Scient | Dispositivo y procedimiento de determinación de los movimientos oculares por interfaz táctil |
WO2017149335A1 (en) * | 2016-03-04 | 2017-09-08 | Essilor International (Compagnie Générale d'Optique) | Method of determining a refractive power value characterising an ophthalmic lens and corresponding electronic device |
JP2017182739A (ja) * | 2016-03-31 | 2017-10-05 | 富士通株式会社 | 視線検出装置、視線検出方法及び視線検出用コンピュータプログラム |
WO2017182856A1 (en) * | 2016-04-18 | 2017-10-26 | Forus Health Pvt. Ltd. | A photo-refraction device for identifying and determining refractive disorders of an eye |
WO2018008128A1 (ja) * | 2016-07-07 | 2018-01-11 | マクセル株式会社 | 映像表示装置及び方法 |
FR3065820B1 (fr) * | 2017-04-28 | 2021-09-17 | Essilor Int | Procede de determination d'un filtre de lumiere applique a un verre de lunettes ; dispositif d'affichage et casque de realite virtuelle associes |
EP3508882A1 (en) * | 2018-01-09 | 2019-07-10 | Vivior AG | An apparatus and a method for passive scanning of an object or a scene |
JP7043889B2 (ja) * | 2018-03-01 | 2022-03-30 | 株式会社Jvcケンウッド | 視機能検出装置、視機能検出方法及びプログラム |
JP7043890B2 (ja) * | 2018-03-01 | 2022-03-30 | 株式会社Jvcケンウッド | 視機能検出装置、視機能検出方法及びプログラム |
EP3747351B1 (en) * | 2018-03-01 | 2022-07-06 | JVCKenwood Corporation | Visual function detection device, visual function detection method, and program |
US11202567B2 (en) | 2018-07-16 | 2021-12-21 | Verily Life Sciences Llc | Retinal camera with light baffle and dynamic illuminator for expanding eyebox |
US11927831B2 (en) * | 2018-09-26 | 2024-03-12 | Essilor International | Method for determining at least one geometrico-morphological parameters of a subject in a natural posture for determining a vision correction equipment |
US11389060B2 (en) | 2018-10-31 | 2022-07-19 | Verily Life Sciences Llc | Dynamic eye fixation for retinal imaging |
EP3669751A1 (en) * | 2018-12-20 | 2020-06-24 | Essilor International | Method and device for determining a refraction feature of an eye of a subject |
EP3669752A1 (en) * | 2018-12-20 | 2020-06-24 | Essilor International | Method for determining a refraction feature of an eye of a subject, and associated portable electronic device |
CN109697835A (zh) * | 2019-01-29 | 2019-04-30 | 程家煜 | 一种监控坐姿和预防近视的方法与装置 |
US11571124B2 (en) | 2019-03-26 | 2023-02-07 | Verily Life Sciences Llc | Retinal imaging system with user-controlled fixation target for retinal alignment |
WO2022191300A1 (ja) * | 2021-03-10 | 2022-09-15 | 株式会社坪田ラボ | 円錐角膜及び乱視等の簡易診断補助装置及び診断補助システム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4834528A (en) * | 1986-08-15 | 1989-05-30 | Cornell Research Foundation, Inc. | Infrared photoretinoscope |
US6616277B1 (en) * | 2001-07-02 | 2003-09-09 | Vision Research Corporation | Sequential eye screening method and apparatus |
US6663242B1 (en) * | 2001-03-12 | 2003-12-16 | Wayne Davenport | Simultaneous, wavelength multiplexed vision screener |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0782539B2 (ja) * | 1988-07-14 | 1995-09-06 | 株式会社エイ・ティ・アール通信システム研究所 | 瞳孔画像撮影装置 |
JP2939984B2 (ja) * | 1989-03-27 | 1999-08-25 | 株式会社トプコン | 眼屈折力測定装置 |
EP0645607B1 (de) * | 1993-08-07 | 1997-06-04 | Dr. Johannes Heidenhain GmbH | Vorrichtung zur Erzeugung oberwellenfreier periodischer Signale |
JPH07244556A (ja) * | 1994-03-04 | 1995-09-19 | Hitachi Ltd | 情報端末 |
DE19719694C2 (de) | 1997-05-09 | 1999-08-19 | Univ Eberhard Karls | Vorrichtung zum Erfassen und zum Anzeigen der Fehlsichtigkeit einer Person |
AUPQ896000A0 (en) | 2000-07-24 | 2000-08-17 | Seeing Machines Pty Ltd | Facial image processing system |
DE10153397A1 (de) * | 2001-11-01 | 2003-05-15 | Plusoptix Ag | Vorrichtung und Verfahren zur Messung der Refraktion |
JP4426837B2 (ja) * | 2003-12-22 | 2010-03-03 | 株式会社ニデック | 眼調節機能測定装置 |
US7533989B2 (en) * | 2003-12-25 | 2009-05-19 | National University Corporation Shizuoka University | Sight-line detection method and device, and three-dimensional view-point measurement device |
US7747068B1 (en) * | 2006-01-20 | 2010-06-29 | Andrew Paul Smyth | Systems and methods for tracking the eye |
US7878652B2 (en) * | 2006-01-24 | 2011-02-01 | University Of Tennessee Research Foundation | Adaptive photoscreening system |
FR2914173B1 (fr) * | 2007-03-30 | 2010-02-26 | Essilor Int | Procede de mesure de la position suivant une direction horizontale du plan sagittal d'un point remarquable d'un oeil d'un sujet |
WO2009024681A2 (fr) * | 2007-07-26 | 2009-02-26 | Essilor International (Compagnie Générale d'Optique) | Procédé de mesure d'au moins un paramètre géométrico-physionomique d'implantation d'une monture de lunettes de correction visuelle sur le visage d'un porteur |
US8169516B2 (en) | 2008-07-18 | 2012-05-01 | Ricoh Co., Ltd. | Electo-optical color imaging systems having strong lateral chromatic aberration compensated by digital image processing |
-
2009
- 2009-11-13 FR FR0905467A patent/FR2952517B1/fr active Active
-
2010
- 2010-11-09 JP JP2012538375A patent/JP5869489B2/ja active Active
- 2010-11-09 EP EP10787511.4A patent/EP2498671B1/fr active Active
- 2010-11-09 CN CN201080051057.4A patent/CN102596005B/zh active Active
- 2010-11-09 WO PCT/FR2010/000747 patent/WO2011058244A1/fr active Application Filing
- 2010-11-09 US US13/508,563 patent/US8708490B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4834528A (en) * | 1986-08-15 | 1989-05-30 | Cornell Research Foundation, Inc. | Infrared photoretinoscope |
US6663242B1 (en) * | 2001-03-12 | 2003-12-16 | Wayne Davenport | Simultaneous, wavelength multiplexed vision screener |
US6616277B1 (en) * | 2001-07-02 | 2003-09-09 | Vision Research Corporation | Sequential eye screening method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
EP2498671B1 (fr) | 2020-05-20 |
CN102596005A (zh) | 2012-07-18 |
JP5869489B2 (ja) | 2016-02-24 |
WO2011058244A1 (fr) | 2011-05-19 |
FR2952517A1 (fr) | 2011-05-20 |
JP2013510613A (ja) | 2013-03-28 |
EP2498671A1 (fr) | 2012-09-19 |
FR2952517B1 (fr) | 2012-07-20 |
US20120274902A1 (en) | 2012-11-01 |
US8708490B2 (en) | 2014-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102596005B (zh) | 自动测量人双眼的至少一个折射特性的方法和设备 | |
US11733542B2 (en) | Light field processor system | |
CN105578947B (zh) | 确定眼处方的装置和方法 | |
US9895057B2 (en) | Functional vision testing using light field displays | |
CN110573061B (zh) | 眼科检查方法及仪器 | |
CN104412149B (zh) | 用于测量个人的客观眼屈光以及至少一个几何形态参数的装置和方法 | |
EP2268192B1 (en) | Apparatus for corneal shape analysis and method for determining a corneal thickness | |
CN104427924B (zh) | 用于针对多个视觉范围测量患者的至少一个客观眼折射特征的装置和方法 | |
JP7165994B2 (ja) | 眼の計測を収集するための方法及びデバイス | |
KR102474483B1 (ko) | 원근조절 및 이접의 공동 결정 | |
EP3991634A1 (en) | Method and device for determining a refractive error | |
US10188291B2 (en) | Device for screening convergence insufficiency and related methods | |
KR102570392B1 (ko) | 굴절이상을 측정하는 방법 및 장치 | |
US12016627B2 (en) | Method and device for determining a refractive error | |
EP4364642A1 (en) | Computer-implemented methods and devices for determining refractive errors | |
US20220369921A1 (en) | Ophthalmologic apparatus and measurement method using the same | |
CA3193959A1 (en) | Holographic real space refractive system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20180223 Address after: France Sharon Ton Le Pon Patentee after: Essilor International Ltd. Address before: France Sharon Ton Le Pon Patentee before: Essilor International General Optical Co., Ltd. |
|
TR01 | Transfer of patent right |