CN111248851B - 一种视功能自测方法 - Google Patents
一种视功能自测方法 Download PDFInfo
- Publication number
- CN111248851B CN111248851B CN202010130252.1A CN202010130252A CN111248851B CN 111248851 B CN111248851 B CN 111248851B CN 202010130252 A CN202010130252 A CN 202010130252A CN 111248851 B CN111248851 B CN 111248851B
- Authority
- CN
- China
- Prior art keywords
- test
- eye
- distance
- self
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
- A61B3/032—Devices for presenting test symbols or characters, e.g. test chart projectors
- A61B3/0325—Devices for presenting test symbols or characters, e.g. test chart projectors provided with red and green targets
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
- A61B3/15—Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明公开一种视功能自测方法,利用带有3D结构光和摄像头的手机进行视功能的自测,利用摄像头检测眼部到屏幕的距离,利用距离使得在手机的屏幕上模拟出视功能检测场景,根据距离的不同在屏幕上显示出合适大小的视标,利用3D结构光和摄像头进行眼动追踪,利用眼动追踪检测眼球运动,利用眼球的运动进行自测的应答。本发明创新的将人脸识别、眼球追踪和自动测距结合,实现了视功能的自测,改变了视功能检测需要他人辅助,并且只能在较为专业的环境下进行测试,并且大大的提高了测试的精准性,减小认为误差;本发明结合最小分辨视角与实际眼部到屏幕的距离,调整视标大小,从而实现视功能的自测,并自动显示测试结果。
Description
技术领域
本发明涉及检测领域,具体涉及一种视功能自测方法。
背景技术
目前的视力测试主要采用视力测试表,被检者的视线要与1.0的一行平行,距离视力表5米,视力表与被检查者的距离必须正确固定,患者距表为5米。如室内距离不够5米长时,则应在2.5米处放置平面镜来反射视力表。进行检测先遮盖一眼,单眼自上而下辨认“E”字缺口方向,直到不能辨认为止,记录下来即可。正常视力应在1.0以上。若被测试者0.1也看不到时,要向前移动,直到能看到0.1为止,其视力则是“0.1×距离/5=视力”;若在半米内仍看不到0.1,可令被测试者辨认指数,测手动、光感等。按检查情况记录视力。近视力多用“J”近视力表,同样方法辨认“E”字缺口方向,直到不能辨认为止,近距离可自行调整,正常近视力在30厘米处看清1.0一行即可,近视力检查有助于屈光不正的诊断。
对比敏感度(contrast sensitivity,CS)定义为视觉***能觉察的对比度阈值的倒数。对比敏感度=1/对比度阈值。对比度阈值低,则对比敏感度高。在某一空间频率,视觉***有一定的对比敏感度;反之,在同一对比度时,视觉***有一定的空间频率分辨力。
立体视觉是双眼观察景物能分辨物体远近形态的感觉。立体视觉是计算机视觉领域的一个重要课题,它的目的在于重构场景的三维几何信息。临床上,立体视觉的丧失是许多病人无法自行感知到的,也难以描述。
视功能分为,光觉、色觉、形觉(视力)、动觉(立体视觉)和对比觉(对比敏感度),目前视功能测试要在专业人员指导下才能完成准确的检测,不能够独自进行视功能测试,视功能测试不方便,视功能测试过程较复杂且人工成本高,而已不够方便,不能在需要的时候就进行检测。
发明内容
本发明的目的在于实现随时随地的视功能自测。
为了实现以上目的,本发明提供一种视功能自测方法,利用带有3D结构光和摄像头的手机进行视功能的自测。
优选的,利用摄像头检测眼部到屏幕的距离,根据距离的不同在屏幕上显示出合适大小的视标,并监测测试过程中的距离,当距离发生变化时进行提醒或重启自测。
优选的,距离的检测是基于SceneKit和ARKit提供的坐标信息矩阵,获取到眼睛的三维世界坐标信息保存到三维向量SCNVector3中,再用三维坐标系中两点间的距离计算方法计算得出眼睛与屏幕间的距离。
优选的,所述的视标采用三划等长的正方形的“E”形视标。
优选的,所述的视标采用最小分辨视角进行每行之间的显示。
优选的,利用3D结构光和摄像头进行眼动追踪,利用眼动追踪检测眼球运动,利用眼球的运动进行自测的应答。
优选的,所述的眼动追踪是借助ARKit构建的脸部锚点ARFaceAnchor实现。
优选的,所述的视功能为视力、对比敏感度或立体视。
优选的,包括以下步骤:
S1.待测试人信息输入,
S2.测距调试,注视方向测试和距离测试,
S3.视功能测试,
S4.查看结果。
优选的,所述的视功能测试采用眼动应答或手动应答。
优选的,所述的查看结果为查看本次测试结构和查看历史测试结果。
为便于理解,本发明对以下进行名词进行解释。
3D结构光:
基于3D结构光的应用,iPhone X及之后的系列手机用Face ID取代Touch ID作为登录解锁,开启了人脸认证的时代。Face ID实现的人脸认证通过3万个红外光点感知被测者的面部特征,获取被测者脸部的控件信息。
ARKit是苹果官方推出的增强现实(Augmented Reality,AR)相关的框架,主要有两大功能,一是通过前置摄像头结合3D结构光技术实现脸部追踪(Face Tracking);二是通过后置摄像头,结合单目摄像机和IMU传感器等硬件实现的世界追踪(World Tracking)。
本发明具有如下有益效果:
1.本发明利用手机上的3D结构光和摄像头组件,再结合SceneKit和ARKit实现了视功能的自测。
2.本发明结合最小分辨视角与实际眼部到屏幕的距离,调整视标大小,从而实现视功能的自测,并自动显示测试结果。
3.本发明将人脸识别技术、眼球追踪和自动测距所获得数据,再结合实际眼部到屏幕的距离换算视标大小,从而实现了眼部视功能的自我检测,并且和人工检测相比,自我检测的速度更快,测试结果更加精准。
附图说明
图1为步骤S1的界面交互图;
图2为步骤S2的界面交互图;
图3为步骤S3的界面交互图;
图4为步骤S4的界面交互图;
图5为步骤S3的E字视标示意图;
图6为视觉刺激设计示意图;
图7为注视方向测试示意图。
具体实施方式
下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所述的实施例只是本发明的部分具有代表性的实施例,而不是全部实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的其他所有实施例都属于本发明的保护范围。
实施例1视力测试
步骤1.待测试人信息输入
图1所示,S1的信息填写界面。
此界面包含姓名、年龄、联系方式输入框,被测者以正确格式输入信息后将保存被测者信息并跳转至测距调试界面。
步骤2.距离测试和注视方向测试
距离测试:
实际距离是结合SceneKit和ARKit两个框架中的接口获取的。
SceneKit将根据iPhone X的前置摄像头获取用户脸部信息,根据摄像头实时获取的信息构建场景、建立坐标系。SceneKit建立的世界坐标系是以iPhone X的前置摄像头为原点,垂直于手机屏幕的方向为z轴,平行于手机上下方向为y轴,平行于手机左右方向为x轴的三维坐标系。ARKit则根据SceneKit搭建的坐标系,建立脸部锚点ARFaceAnchor[18]用以对脸部的方位、特征和表情等进行追踪,并将具体的坐标信息保存在一个4×4的矩阵当中。
本应用的测距是基于SceneKit和ARKit提供的坐标信息矩阵,获取到眼睛的三维世界坐标信息保存到三维向量SCNVector3中,再用三维坐标系中两点间的距离计算方法计算得出眼睛与屏幕间的距离。
以上是以左眼到手机屏幕的距离为例,展示了测距的计算方法。
注视方向测试:
眼睛注视方向获取的功能主要是借ARKit构建的脸部锚点ARFaceAnchor实现的。ARFaceAnchor中有个命名为lookAtPont的属性,它保存了眼部实时运动趋势的三维坐标信息。眼部的三维坐标信息中的z轴指向了眼睛后方,x轴为左右方向,y轴为上下方向。因此,lookAtPont保存的眼部运动趋势信息中,与眼睛注视方向有关的主要为x值和y值,当x大于0时,眼睛有向右运动的趋势;当x小于0时,眼睛有向左运动的趋势;当y大于0时,眼睛有向上运动的趋势;当y小于0时,眼睛有向下运动的趋势。因此,在获取眼睛注视方向时,只需要关注x和y的取值。
如图7所示,由斜率k=1和k=-1的两条直线划分成的四个区域,即为上、下、左、右四个注视方向所在的区域。又因为眼睛注视中间时,不属于向上、下、左、右任一方向运动,所以要将以原点为圆心,r为半径的一小块原型区域作为眼睛无运动的区域。由此,可以得出:
a)当k≤-1或k≥1,x2+y2>r2,且y>0时,眼睛注视方向为上面。
b)当k≤-1或k≥1,x2+y2>r2,且y<0时,眼睛注视方向为下面。
c)当-1<k<1,x2+y2>r2,且x<0时,眼睛注视方向为左边。
d)当-1<k<1,x2+y2>r2,且x>0时,眼睛注视方向为右边。
e)当x=0,即k不存在时,若y>r,眼睛注视方向为上面;若y<-r,眼睛注视方向为下面。
根据上述原理,可构造函数,实现用户眼睛注视方向获取的功能。
步骤3.视力测试
(1)视标的设计
如图5所示,采用三划等长的正方形“E”形视标,其每一笔划或空隙均为正方形边长的1/5。
在进行视力测试时,屏幕展示的视标将基于针孔相机模型,根据标准视力表和测距自动调整大小,动态保持当前行数应有的尺寸,以确保测试结果准确。为防止视标调整过于敏感,本***将测距取整,在测距波动较小时(<2cm)不调整视标尺寸。
(2)视力测试规则
视标按照单个视力显示,但是以行视力测试规则进行结果的计算,即同等大小的视标单个显示5次视为1行:被测者被要求识别每一行的每一个字母,直到错误地识别一整行的4个字母或视力表最后一行的视标被正确识别≥4个,此时测试终止,并计算出视力结果。
评分规则:按个数评分——视力表每行之间相差0.1logMAR(logarithm ofminimum angle of resolution,最小分辨角对数),每行5个视标,因此每个视标平均占0.02logMAR。因此,视力得分使用以下公式计算:
VA=1.1-N*0.02
(其中,N表示读对的视标数。)
因此,分数越低,视力越好。当用户读对全部70个视标时,视力测试结果为VA=1.1-70×0.02=-0.3;当用户用户读对25个视标时,视力测试结果为VA=1.1-25×0.02=0.6,其余结果以此类推。
如图3所示的视力测试界面,
此界面将由被测者自行选择测试程序:眼动应答程序或触屏应答程序。应答程序选择完毕后,进入视力测试程序:屏幕显示被测者与手机屏幕的实时距离和适当的“E”形视标。
若选择眼动应答程序,则视标出现后,被测者须在5秒内以转动眼球的方式作出“E”形坐标的开口方向判断,如观察到E字视标开口向右,则眼球向右转动并保持2s作为应答;观察到E字视标开口向左,则眼球向左转动并保持2s作为应答,其余方向以此类推。若无法分辨视标开口方向,则继续平视手机屏幕超过2秒将,视为放弃作答。
若选择触屏应答程序,则视标出现后,被测者须在5秒内以手指触点屏幕上显示的上、下、左、右方向键的方式作出“E”形坐标的开口方向判断,如观察到E字视标开口向右,则点击“→”键作为应答;观察到E字视标开口向左,则点击“←”键作为应答,其余方向以此类推。若无法分辨视标开口方向,则不触碰任何按钮,超过2秒将视为放弃作答。
测试距离的监控:若检查期间头位变化较大,导致测试距离变动值超过2cm,则测试暂停,重新调试眼位(屏幕提示“请稍靠近屏幕”或“请稍远离屏幕”),5s内若能调试至最初检查距离(±1cm)则检查接上一级视标大小继续进行。若检查距离无法在5s内调试至最初检查距离,则以目前的测试距离进行新一轮的视力检查。
根据快速行视力测试规则分别测试完右眼与左眼后,将跳转至视力测试结果界面。
步骤4.查看结果,
如图4所示,此界面显示被测者的姓名、年龄、联系方式和视力测试结果,被测者在此页面查看此次视力测试结果(含实际测试距离平均值±标准差)。
实施例2对比敏感度测试
测试步骤与实施例1的视力测试步骤相同,采用的测试内容不同。
1.测试环境与视觉刺激设计
1)测试环境
使用者将手机横屏放置,暗室环境下,模拟与50cm等同的视标大小进行测试(采用的模拟方式与实施例1相同)。先测试右眼,后测试左眼。非测试眼用眼罩或手掌完全遮挡。
2)视觉刺激设计
视觉刺激包括竖直或水平的光栅(Gabor)。在不同的试次中,光栅的空间频率和对比度值基于受检者之前试次测试结果自动生成。
2.测试流程及阈值设置
1)练习并熟悉测试流程:被试者在正式测试前将完成3个回合的预测试,以熟悉整个测试流程。
2)进入测试:在每一次试次中,屏幕中心首先呈现一个约2mm半径大小的注视圆点,注视点在屏幕上呈现2s后消失,接着呈现光栅刺激。1s后屏幕上的刺激消失,被试者要求回答光栅刺激的方位是水平的还是垂直的。若为水平的,则在屏幕上划自左向右划横线,若为垂直的,则在屏幕上自上而下划横线。程序基于被试者回答情况予以反馈:屏幕中心闪现绿色圆点1s则为正确,闪现红色圆点1s则为错误。下一个试次在被试者点触中心圆点后立即开始。
实施例3立体视觉测试
测试步骤与实施例1的视力测试步骤相同,采用的测试内容不同。
1.测试环境与视觉刺激设计
1)环境要求
使用者将手机横屏放置,通过红绿立体镜片,自然光线下,模拟与50cm等同的视标大小进行测试(采用的模拟方式与实施例1相同)。
2)视觉刺激设计
刺激是在黑暗背景下并排放置的两个圆盘形状的静态随机点,圆盘边缘用了高斯模糊处理,以免边缘效应引起视差。每个圆盘包含随机定位的红点和绿点,它们之间存在一定的偏移量来产生深度感,如图6。
利用OpenGL ES提供的混合函数,将重叠的红绿点(或由点的大小决定的重叠部分)混合成橙色,提供亚像素分辨率。
红绿点之间的偏移量在两个视觉刺激圆盘上相等且相反的;因此,两个圆盘中的一个将被视为屏幕平面前面的视觉刺激平面,另一个将被视为屏幕平面后面的视觉刺激平面。在每一项试验中,观察者的任务是轻拍被认为在屏幕平面后面的视觉刺激平面(圆盘)。没有作答时间限制,下一关测试出现在被试者作答后。
2.测试流程及阈值设置
1)练习并熟悉测试流程:被试者在正式测试前将完成10个回合的预测试,以熟悉整个测试流程。
2)进入测试:测试总耗时约5min,包括两个独立的测试以估计被试者立体视阈值。每次测试都是一个阶梯程序,其中红点与绿点之间的初始偏移量为40像素(对应于21.79弧分的立体视锐度),之后以2下1上规律进阶。初始步长为50%,在第一次逆转后步长变为10%。
3)终点计算:阶梯程序在第4个换向点终止。然后根据两次测试运行中最后三个反转计算立体阈值及其SE和SD(即,共6次反转平均值)。
本领域的技术人员在不脱离权利要求书确定的本发明的精神和范围的条件下,还可以对以上内容进行各种各样的修改。因此本发明的范围并不仅限于以上的说明,而是由权利要求书的范围来确定的。
Claims (6)
1.一种视功能自测方法,其特征在于,利用带有3D结构光和摄像头的手机进行视功能的自测,利用3D结构光和摄像头进行眼动追踪,利用眼动追踪检测眼球运动,利用眼球的运动进行自测的应答,所述的眼动追踪是借助ARKit构建的脸部锚点ARFaceAnchor实现,
ARFaceAnchor中有个命名为lookAtPont的属性,它保存了眼部实时运动趋势的三维坐标信息,lookAtPont保存的眼部运动趋势信息中,与眼睛注视方向有关的主要为x值和y值,当x大于0时,眼睛有向右运动的趋势;当x小于0时,眼睛有向左运动的趋势;当y大于0时,眼睛有向上运动的趋势;当y小于0时,眼睛有向下运动的趋势,由斜率k=1和k=-1的两条直线划分成的四个区域,即为上、下、左、右四个注视方向所在的区域,将以原点为圆心,r为半径的一小块圆形区域作为眼睛无运动的区域,由此,可以得
a)当k≤-1或k≥1,x2+y2>r2,且y>0时,眼睛注视方向为上面,
b)当k≤-1或k≥1,x2+y2>r2,且y<0时,眼睛注视方向为下面,
c)当-1<k<1,x2+y2>r2,且x<0时,眼睛注视方向为左边,
d)当-1<k<1,x2+y2>r2,且x>0时,眼睛注视方向为右边,
e)当x=0,即k不存在时,若y>r,眼睛注视方向为上面;若y<-r,眼睛注视方向为下面。
2.根据权利要求1所述的视功能自测方法,其特征在于,利用摄像头检测眼部到屏幕的距离,根据距离的不同在屏幕上显示出合适大小的视标,并监测测试过程中的距离,当距离发生变化时进行提醒或重启自测。
3.根据权利要求2所述的视功能自测方法,其特征在于,距离的检测是基于SceneKit和ARKit提供的坐标信息矩阵,获取到眼睛的三维世界坐标信息保存到三维向量SCNVector3中,再用三维坐标系中两点间的距离计算方法计算得出眼睛与屏幕间的距离。
4.根据权利要求2所述的视功能自测方法,其特征在于,所述的视标采用三划等长的正方形的“E”形视标。
5.根据权利要求4所述的视功能自测方法,其特征在于,所述的视标采用最小分辨视角进行每行之间的显示。
6.根据权利要求1所述的视功能自测方法,其特征在于,所述的视功能为视力、对比敏感度或立体视觉。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910962613 | 2019-10-11 | ||
CN2019109626136 | 2019-10-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111248851A CN111248851A (zh) | 2020-06-09 |
CN111248851B true CN111248851B (zh) | 2023-08-11 |
Family
ID=70941877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010130252.1A Active CN111248851B (zh) | 2019-10-11 | 2020-02-28 | 一种视功能自测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111248851B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111904375A (zh) * | 2020-07-13 | 2020-11-10 | 中山大学中山眼科中心 | 一种用于自测的视力表及其使用方法 |
CN112842248B (zh) * | 2020-12-31 | 2021-11-09 | 北京大学第三医院(北京大学第三临床医学院) | 一种动态对比敏感度测试***及其测试方法 |
CN113197542B (zh) * | 2021-04-30 | 2024-01-30 | 武汉特斯雷信息技术有限公司 | 一种在线自助视力检测***、移动终端及存储介质 |
CN114931353B (zh) * | 2022-04-18 | 2023-04-14 | 中山大学中山眼科中心 | 一种便捷的快速对比敏感度检测*** |
CN115251822B (zh) * | 2022-07-14 | 2023-08-18 | 中山大学中山眼科中心 | 一种基于神经网络的对比敏感度快速测量方法 |
CN115944266A (zh) * | 2023-01-29 | 2023-04-11 | 吉林大学 | 基于眼动追踪技术的视功能确定方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107198505A (zh) * | 2017-04-07 | 2017-09-26 | 天津市天中依脉科技开发有限公司 | 基于智能手机的视功能检测***及方法 |
CN107729707A (zh) * | 2017-12-06 | 2018-02-23 | 河南省水利勘测设计研究有限公司 | 基于移动增强现实技术和bim的工程施工放样方法 |
CN109431453A (zh) * | 2018-11-05 | 2019-03-08 | 温州医科大学附属眼视光医院 | 一种用于客观视觉普查的眼视光仪器 |
CN109497925A (zh) * | 2018-12-29 | 2019-03-22 | 上海理工大学 | 眼视功能评价装置以及眼视功能评价方法 |
CN109859297A (zh) * | 2019-03-07 | 2019-06-07 | 灵然创智(天津)动画科技发展有限公司 | 一种无标记点面部捕捉装置及方法 |
CN109984720A (zh) * | 2019-04-28 | 2019-07-09 | 宁夏蓝医人医药科技发展有限公司 | 一种视力检查设备和*** |
CN109998470A (zh) * | 2019-04-18 | 2019-07-12 | 深圳亿点五网络科技有限公司 | 一种视力测试方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016535661A (ja) * | 2013-11-08 | 2016-11-17 | プレシジョン・オキュラー・メトロロジー・エルエルシー | 眼表面のマッピング |
-
2020
- 2020-02-28 CN CN202010130252.1A patent/CN111248851B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107198505A (zh) * | 2017-04-07 | 2017-09-26 | 天津市天中依脉科技开发有限公司 | 基于智能手机的视功能检测***及方法 |
CN107729707A (zh) * | 2017-12-06 | 2018-02-23 | 河南省水利勘测设计研究有限公司 | 基于移动增强现实技术和bim的工程施工放样方法 |
CN109431453A (zh) * | 2018-11-05 | 2019-03-08 | 温州医科大学附属眼视光医院 | 一种用于客观视觉普查的眼视光仪器 |
CN109497925A (zh) * | 2018-12-29 | 2019-03-22 | 上海理工大学 | 眼视功能评价装置以及眼视功能评价方法 |
CN109859297A (zh) * | 2019-03-07 | 2019-06-07 | 灵然创智(天津)动画科技发展有限公司 | 一种无标记点面部捕捉装置及方法 |
CN109998470A (zh) * | 2019-04-18 | 2019-07-12 | 深圳亿点五网络科技有限公司 | 一种视力测试方法及装置 |
CN109984720A (zh) * | 2019-04-28 | 2019-07-09 | 宁夏蓝医人医药科技发展有限公司 | 一种视力检查设备和*** |
Also Published As
Publication number | Publication date |
---|---|
CN111248851A (zh) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111248851B (zh) | 一种视功能自测方法 | |
CN110167421B (zh) | 整体地测量视觉功能的临床参数的*** | |
CA2767657C (en) | Testing/training visual perception speed and/or span | |
CN105764405B (zh) | 基于主观距离计量测量眼睛屈光不正的***和方法 | |
KR101520113B1 (ko) | 단일형 시각 및 신경 처리 시험 센터 | |
CN107847226B (zh) | 视觉认知测定***、服务器控制方法 | |
Hennessey et al. | Noncontact binocular eye-gaze tracking for point-of-gaze estimation in three dimensions | |
JP2018520820A (ja) | 視覚の様相を検査する方法及びシステム | |
JP2018508254A (ja) | 自動視力診断の方法およびシステム | |
CN110573061A (zh) | 眼科检查方法及仪器 | |
Vancleef et al. | ASTEROID: a new clinical stereotest on an autostereo 3D tablet | |
Peillard et al. | Virtual objects look farther on the sides: The anisotropy of distance perception in virtual reality | |
CA2683725C (en) | Unitary vision and neuro-processing testing center | |
US9504380B1 (en) | System and method for assessing human visual processing | |
CN112053781A (zh) | 动静态立体视测试方法及终端 | |
Lamb et al. | Eye-tracking beyond peripersonal space in virtual reality: validation and best practices | |
Barkowsky et al. | The influence of autostereoscopic 3D displays on subsequent task performance | |
US11768594B2 (en) | System and method for virtual reality based human biological metrics collection and stimulus presentation | |
CN104352340A (zh) | 一种综合视觉功能训练设备与方法 | |
JP2009136663A (ja) | 視野スキャン装置、視野スキャンプログラム、視野スキャン方法、及びコンピュータに読み取り可能な記録媒体。動的視野スキャン装置。静的視野スキャン装置。視野観測装置、視野観測プログラム、視野観測方法、及びコンピュータに読み取り可能な記録媒体。全視野網膜機能スキャンプログラム。検査範囲を能動的に限定し、視野欠損、盲点などの形状を詳しくディスプレイに図示するプログラム。コンピュータ設定の移動を行う動的視標を、視感度変化が認識された時点で能動的に移動させ、視感度変化位置を正確に確定し、視野視機能状態を高速度に輪郭抽出、結果をディスプレイに図示するプログラム。空間分離能度数分布グラフ表示視野計、視野欠損度計量表現視野計並びに、視野網膜視機能変化領野輪郭高速抽出視野計。視野欠損の文字認識への影響レベルを%により正確に計量表示するプログラム。視野盲点位置、盲点の大きさ高速度検出ディスプレイ表示プログラム。盲点直径左右比率計算結果ディスプレイ表示プログラム。盲点位置、盲点直径の時間に対する変化の推移をディスプレイに逐次表示プログラム。被験者が自らの視野欠損をディスプレイに見ながら、検査範囲を限定することができ、検査時間を短縮しながら視野スキャンの解像度を増大させるプログラム。視野2次元に対する垂直軸方向として視野視覚機能レベルを、高低差によりディスプレイに立体的に図示、それを回転並びに平行移動させ、あらゆる方向からその立体構造を観察するプログラム。詳細な視野検査を実施するために検査範囲を限局する際、被験者の視野をディスプレイ色欠損として被験者に認識させ、被験者はそれを見ながら、関心のある形状を示すディスプレイ色欠損部分を検査範囲として設定、被験者の応答逐次に一定間隔移動するよう設定された静的視標利用により、網膜構造を反映する程の視野検査を短時間に行う、その際、視標認識応答error減少、検査時間短縮を実現するために静的視標の周辺に4本の線分からなるguideを用いるプログラム。正常眼圧緑内障あるいは緑内障初段階に特徴的な視覚機能が僅かに低下した視野領域を、一般のコンピュータにより検出可能にするプログラム制御静的視標、並びにディスプレイにその視覚機能低下領域の形状を詳しく表示する視野計プログラム | |
ES2722473B2 (es) | Sistema y metodo de medida de la percepcion de la profundidad en la vision | |
CN113143192A (zh) | 3d裸眼技术可视化的视力检测校正方法 | |
US20240188818A1 (en) | Eye tracking color vision tests | |
Palmer et al. | Is there a ‘zone of eye contact’within the borders of the face? | |
Trommershäuser et al. | The consistency of bisection judgments in visual grasp space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |