CN111387932B - 一种视力检测方法、装置及设备 - Google Patents
一种视力检测方法、装置及设备 Download PDFInfo
- Publication number
- CN111387932B CN111387932B CN201910000900.9A CN201910000900A CN111387932B CN 111387932 B CN111387932 B CN 111387932B CN 201910000900 A CN201910000900 A CN 201910000900A CN 111387932 B CN111387932 B CN 111387932B
- Authority
- CN
- China
- Prior art keywords
- distance
- value
- module
- user
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
- A61B3/032—Devices for presenting test symbols or characters, e.g. test chart projectors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0041—Operational features thereof characterised by display arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Ophthalmology & Optometry (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Theoretical Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Primary Health Care (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Epidemiology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种视力检测方法、装置及设备,涉及通信技术领域。该方法包括:获取与被测用户之间的第一距离;根据当前采集到的所述被测用户的图像,对所述第一距离进行校正,得到第二距离;根据所述第二距离,调整测试图案在屏幕上的目标显示比例;根据所述被测用户对所述测试图案的反馈信息,确定所述被测用户的视力状态。本发明的方案,解决了人工测量操作繁琐,成本消耗高,以及准确性差的问题。
Description
技术领域
本发明涉及通信技术领域,特别是指一种视力检测方法、装置及设备。
背景技术
目前,视力检测是体检项目中必不可少的一项,以通过检测来了解人们的视力状态,及时发现问题并进行治疗。
通常的视力检测需要使用视力检测表(如耶格近视力表和标准视力表),测试员提问让被测用户辨识表中的符号,通过辨识的成绩得到视力检测结果。
然而,这种方式对环境光线、检测距离、检测人员等都有一定要求,成本较高,不易操作,另外,可通过背记视力表进行舞弊,或者因检测人员的主观判断失误而影响到检测结果的准确性。
发明内容
本发明的目的是提供一种视力检测方法、装置及设备,以解决传统方式依赖人工,成本较高,不易操作,以及准确性差的问题。
为达到上述目的,本发明的实施例提供一种视力检测方法,包括:
获取与被测用户之间的第一距离;
根据当前采集到的所述被测用户的图像,对所述第一距离进行校正,得到第二距离;
根据所述第二距离,调整测试图案在屏幕上的目标显示比例;
根据所述被测用户对所述测试图案的反馈信息,确定所述被测用户的视力状态。
其中,获取与被测用户之间的第一距离,包括:
接收手持设备发送的测距信息,所述手持设备为所述被测用户携带的设备;
根据所述测距信息,得到与被测用户之间的第一距离。
其中,根据当前采集到的所述被测用户的图像,对所述第一距离进行校正,得到第二距离,包括:
将当前采集到的所述被测用户的图像输入深度检测模型,所述深度检测模型用于检测输入图像的深度;
根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离;
根据所述第一距离和所述第三距离的差值,确定第二距离。
其中,所述深度检测模型为单目图像深度检测模型;
在将当前采集到的所述被测用户的图像输入深度检测模型之前,还包括:
将训练样本输入初始单目图像深度检测模型进行训练;
在训练过程中,获取当前训练的损失值;
根据所述损失值,调整模型参数,直至损失值满足预设条件,得到深度检测模型。
其中,获取当前训练的损失值,包括:
根据损失函数公式计算损失值L;其中,y*为当前训练样本的真实深度值,y为当前训练样本的预测深度值,n为当前训练样本的像素点数量,di为像素点i的真实深度值和预测深度在对数空间的差值,λ为损失函数参数,Si为像素点i的饱和度,Vi=max(ri,gi,bi),min(ri,gi,bi)表示像素点i的最小彩色值,max(ri,gi,bi)表示像素点i的最大彩色值,ri为像素点i的红色值,gi为像素点i的绿色值,bi为像素点i的蓝色值。
其中,根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离,包括:
获取所述深度图中,所述被测用户双眼间的中点位置;
将与所述中点位置对应的像素点的深度值作为第三距离。
其中,根据所述第一距离和所述第三距离的差值,确定第二距离,包括:
在所述差值小于或等于距离阈值的情况下,将所述第一距离和所述第三距离的均值作为第二距离;
在所述差值大于所述距离阈值的情况下,返回根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离的步骤。
其中,根据所述第一距离和所述第三距离的差值,确定第二距离,还包括:
在n大于第一预设数值的情况下,通知目标用户选择,并将选择的结果作为第二距离,其中,n为统计的差值大于所述距离阈值的次数。
其中,根据所述被测用户对所述测试图案的反馈信息,确定所述被测用户的视力状态,包括:
将所述反馈信息与当前测试图案的视力指示信息比对;
若比对结果表示所述反馈信息正确,则在按照第一预设测试规则选择下一测试图案后,以所述目标显示比例进行显示;
若比对结果表示所述反馈信息错误,则在按照第二预设测试规则选择下一测试图案后,以所述目标显示比例进行显示,并在错误次数大于第二预设数值的情况下,由对应的测试图案确定视力状态。
其中,根据所述第二距离,调整测试图案在屏幕上的目标显示比例,包括:
基于预设的人机距离和显示比例的对应关系,确定与所述第二距离对应的目标显示比例。
其中,根据所述被测用户对所述测试图案的反馈信息,确定所述被测用户的视力状态之后,还包括:
通过对当前视力状态以及所述被测用户的历史视力状态的分析,得到所述被测用户的视力变化趋势;
生成与所述视力变化趋势对应的用眼建议信息。
为达到上述目的,本发明的实施例提供一种视力检测装置,包括:
获取模块,用于获取与被测用户之间的第一距离;
第一处理模块,用于根据当前采集到的所述被测用户的图像,对所述第一距离进行校正,得到第二距离;
第二处理模块,用于根据所述第二距离,调整测试图案在屏幕上的目标显示比例;
第三处理模块,用于根据所述被测用户对所述测试图案的反馈信息,确定所述被测用户的视力状态。
其中,所述获取模块包括:
接收子模块,用于接收手持设备发送的测距信息,所述手持设备为所述被测用户携带的设备;
获取子模块,用于根据所述测距信息,得到与被测用户之间的第一距离。
其中,所述第一处理模块包括:
第一处理子模块,用于将当前采集到的所述被测用户的图像输入深度检测模型,所述深度检测模型用于检测输入图像的深度;
第二处理子模块,用于根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离;
第三处理子模块,用于根据所述第一距离和所述第三距离的差值,确定第二距离。
其中,所述深度检测模型为单目图像深度检测模型;
所述装置还包括:
训练模块,用于将训练样本输入初始单目图像深度检测模型进行训练;
损失值获取模块,用于在训练过程中,获取当前训练的损失值;
训练优化模块,用于根据所述损失值,调整模型参数,直至损失值满足预设条件,得到深度检测模型。
其中,所述损失值获取模块还用于:
根据损失函数公式计算损失值L;其中,y*为当前训练样本的真实深度值,y为当前训练样本的预测深度值,n为当前训练样本的像素点数量,di为像素点i的真实深度值和预测深度在对数空间的差值,λ为损失函数参数,Si为像素点i的饱和度,Vi=max(ri,gi,bi),min(ri,gi,bi)表示像素点i的最小彩色值,max(ri,gi,bi)表示像素点i的最大彩色值,ri为像素点i的红色值,gi为像素点i的绿色值,bi为像素点i的蓝色值。
其中,所述第二处理子模块包括:
位置获取单元,用于获取所述深度图中,所述被测用户双眼间的中点位置;
第一处理单元,用于将与所述中点位置对应的像素点的深度值作为第三距离。
其中,所述第三处理子模块包括:
第二处理单元,用于在所述差值小于或等于距离阈值的情况下,将所述第一距离和所述第三距离的均值作为第二距离;
第三处理单元,用于在所述差值大于所述距离阈值的情况下,返回根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离的步骤。
其中,所述第三处理子模块还包括:
第四处理单元,用于在n大于第一预设数值的情况下,通知目标用户选择,并将选择的结果作为第二距离,其中,n为统计的差值大于所述距离阈值的次数。
其中,所述第三处理模块包括:
比对子模块,用于将所述反馈信息与当前测试图案的视力指示信息比对;
第四处理子模块,用于若比对结果表示所述反馈信息正确,则在按照第一预设测试规则选择下一测试图案后,以所述目标显示比例进行显示;若比对结果表示所述反馈信息错误,则在按照第二预设测试规则选择下一测试图案后,以所述目标显示比例进行显示,并在错误次数大于第二预设数值的情况下,由对应的测试图案确定视力状态。
其中,所述第二处理模块还用于:
基于预设的人机距离和显示比例的对应关系,确定与所述第二距离对应的目标显示比例。
其中,所述装置还包括:
分析模块,用于通过对当前视力状态以及所述被测用户的历史视力状态的分析,得到所述被测用户的视力变化趋势;
生成模块,用于生成与所述视力变化趋势对应的用眼建议信息。
为达到上述目的,本发明的实施例提供一种终端设备,包括收发器、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序;所述处理器执行所述计算机程序时实现如上所述的视力检测方法。
为达到上述目的,本发明的实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的视力检测方法中的步骤。
本发明的上述技术方案的有益效果如下:
本发明实施例的视力检测方法,首先会获取自身与被测用户之间的第一距离,该第一距离为初测距离;之后,再根据当前采集到的该被测用户的图像,对已获取到的第一距离进行校正,得到更为准确的第二距离;然后,根据该第二距离,既可调整测试图案在屏幕上的目标显示比例;最终,就能够根据该被测用户反馈的、对应当前显示的测试图案的反馈信息,明确出该被测用户的视力状态。如此,无需依赖人工和固定的距离进行检测,操作更便捷,降低了成本,提升了检测结果的准确性。
附图说明
图1为本发明实施例的视力检测方法的流程示意图之一;
图2为本发明实施例的视力检测方法的流程示意图之二;
图3为本发明实施例的视力检测装置的结构示意图;
图4为本发明实施例的终端设备的结构示意图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
如图1所示,本发明实施例的一种视力检测方法,包括:
步骤101,获取与被测用户之间的第一距离;
步骤102,根据当前采集到的所述被测用户的图像,对所述第一距离进行校正,得到第二距离;
步骤103,根据所述第二距离,调整测试图案在屏幕上的目标显示比例;
根据所述被测用户对所述测试图案的反馈信息,确定所述被测用户的视力状态。
这里,通过步骤101至步骤103,应用该实施例方法的终端设备,启动对被测用户的视力检测后,首先会获取自身与被测用户之间的第一距离,该第一距离为初测距离;之后,再根据当前采集到的该被测用户的图像,对步骤101获取到的第一距离进行校正,得到更为准确的第二距离(人机距离,用于显示测试图案的终端设备与被测用户之间的距离);然后,根据该第二距离,既可调整测试图案在屏幕上的目标显示比例;最终,就能够根据该被测用户反馈的、对应当前显示的测试图案的反馈信息,明确出该被测用户的视力状态。如此,无需依赖人工和固定的距离进行检测,操作更便捷,降低了成本,提升了检测结果的准确性。
其中,应用本发明实施例方法的终端设备,虽能够通过自身设置的红外测距模组或者雷达测距模组来完成第一距离的获取,但是,无差别测距往往会出现较大误差。因此,可选地,步骤101包括:
接收手持设备发送的测距信息,所述手持设备为所述被测用户携带的设备;
根据所述测距信息,得到与被测用户之间的第一距离。
这里,会通过被测用户携带的手持设备和应用本发明实施例方法的终端设备之间的交互,由接收到的手持设备发送的测距信息得到第一距离。具体的,该测距信息是手持设备通过蓝牙信号强度RSSI、无线电等方式给出的人机粗测距离。如此,该第一距离的精确度往往在0.1m级,不足以进行精确的视力检测,需要进一步优化。
还应该知道的是,随着计算机视觉技术的发展,以及深度卷积神经网络的优化,单目图像的深度估计可以获得与输入图片大小相同的像素级深度预测结果。同时,单目摄像头硬件的成本低廉,能耗很小,配备十分广泛。因此,应用本发明实施例方法的终端设备优选设置单目摄像头,在视力检测时启动,实时采集图像。当然,若该终端设备未设置单目摄像头的情况,也可通过交互获取其它设置单目摄像头的设备的实时拍摄来得到所需图像。
可选地,如图2所示,步骤102包括:
步骤201,将当前采集到的所述被测用户的图像输入深度检测模型,所述深度检测模型用于检测输入图像的深度;
步骤202,根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离;
步骤203,根据所述第一距离和所述第三距离的差值,确定第二距离。
如此,应用本发明实施例方法的终端设备,在将前采集到的被测用户的图像输入深度检测模型后,则能够由该深度检测模型输出的深度图,确定出与被测用户之间的第三距离,之后再结合第一距离和第三距离的差值,确定最终的、准确性更高的第二距离。
其中,可选地,所述深度检测模型为单目图像深度检测模型;
在步骤201之前,还包括:
将训练样本输入初始单目图像深度检测模型进行训练;
在训练过程中,获取当前训练的损失值;
根据所述损失值,调整模型参数,直至损失值满足预设条件,得到深度检测模型。
这里,初始单目图像深度检测模型的结构是基于卷积神经网络结构如VGG,GoogleNet等构建的。对初始单目图像深度检测模型的训练,首先就是将训练样本输入到该初始单目图像深度检测模型,而在训练过程中,会获取每次训练的损失值,然后根据损失值调整模型参数,在损失值满足预设条件的情况下,得到最终视力检测使用的深度检测模型。
其中,训练样本是对应初始单目图像深度检测模型的输入要求的,相应的,输入深度检测模型的被测用户的图像是同样大小的,例如训练样本是长640像素、高480像素的RGBD图像,应用时输入为长640像素、高480像素的RGB图像。以15个卷积层的模型为例,输入图像后,模型会对输入图像先进行下采样,得到像素降低的图像,其中为保证深度数据和RGB数据的对应,采用抽取方式进行下采样。模型中的15个卷积层每5个卷积层后接一个反卷积层进行上采样,最后为降低计算资源消耗,利用1x1卷积代替全连接层,一个反卷积层以保证输入图像与输出图像大小相等。
在该实施例中,考虑到不同终端设备的计算能力不同,对于训练后的深度检测模型,可选取网络剪枝、参数二值化等压缩方法进行预处理后使用。
另外,由于深度为全局特征,无法通过局部图像得到准确度更高的深度估计,因此,考虑到深度估计的全局一致性及关键部分的细节精确性,该实施例中,将物体饱和度由近到远呈逐渐降低趋势融入损失函数中进行损失值确定。可选地,获取当前训练的损失值的步骤包括:
根据损失函数公式计算损失值L;其中,y*为当前训练样本的真实深度值,y为当前训练样本的预测深度值,n为当前训练样本的像素点数量,di为像素点i的真实深度值和预测深度在对数空间的差值,λ为损失函数参数,Si为像素点i的饱和度,Vi=max(ri,gi,bi),min(ri,gi,bi)表示像素点i的最小彩色值,max(ri,gi,bi)表示像素点i的最大彩色值,ri为像素点i的红色值,gi为像素点i的绿色值,bi为像素点i的蓝色值。
在该损失函数公式中, 的部分为尺度不变一致性损失,为饱和度约束,通过对饱和度进行约束,控制距离更远的物体具有更低的饱和度,距离更近的物体具有更高的饱和度,使深度估计更加精确。HSV色彩空间不同于RGB色彩空间,其S分量可以表示像素的饱和度,Si为像素点i的饱和度,Vi为像素点i的明度,Hi为像素点i的色调。Vi=max(ri,gi,bi),min(ri,gi,bi)表示像素点i的最小彩色值,max(ri,gi,bi)表示像素点i的最大彩色值,ri为像素点i的红色值,gi为像素点i的绿色值,bi为像素点i的蓝色值。另外,这样,在训练过程中,就能基于损失值对模型进行不断优化。
其中,损失值满足的预设条件是***预设的,可以是损失值的变化趋势。例如该预设条件为损失值减小到一定的区间后趋于稳定,则训练完成。
之后,使用训练后的深度检测模型,对当前采集到的被测用户的图像进行深度估计。
一般而言,深度图是对应图像所有像素点的,不同的像素点的具体深值存在一定差异。所以,该实施例中会以图像中更具有代表性的参考像素点的深度值作为第三距离。可选地,步骤202包括:
获取所述深度图中,所述被测用户双眼间的中点位置;
将与所述中点位置对应的像素点的深度值作为第三距离。
这里,会将被测用户双眼间的中点位置的像素点作为参考像素点,将其深度值作为第三距离。而为了在深度图中确定出被测用户双眼间的中点位置,优选地,会对深度检测模型输出的深度图进行人脸关键点检测(如采用ERT(回归树的集合,Ensemble ofRegression Trees)算法),得到两个眼睛的位置,进一步得到双眼间的中点位置。
在得到第三距离后,进一步的,由第一距离和第三距离之间的差值,进行第二距离的确定。可选地,步骤102包括:
在所述差值小于或等于距离阈值的情况下,将所述第一距离和所述第三距离的均值作为第二距离;
在所述差值大于所述距离阈值的情况下,返回根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离的步骤。
这里,预设了对应差值判断的距离阈值,若差值小于或等于距离阈值,就能够将第一距离和第三距离的均值作为第二距离;若差值大于距离阈值,就需要返回步骤202,重新进行估计。当然,若在特殊状况下,发生第一距离的缺失,则可将第三距离作为第二距离。
另外,对于多次重复执行步骤202的情况,可选地,步骤102还包括:
在n大于第一预设数值的情况下,通知目标用户选择,并将选择的结果作为第二距离,其中,n为统计的差值大于所述距离阈值的次数。
这里,会启用询问机制,让目标用户(如开发人员或设备所有者)选择主观上更为接近的结果,在此过程中将目标用户反馈保存,以便在模型训练阶段对模型进一步优化。
在得到更为精确地第二距离后,如步骤103,可调整测试图案在屏幕上的目标显示比例。可选地,步骤103包括:
基于预设的人机距离和显示比例的对应关系,确定与所述第二距离对应的目标显示比例。
这里,***中预设了人机距离和显示比例的对应关系,在得到第二距离后,由该对应关系既可查找到与所得第二距离对应的目标显示比例。
被测用户查看到测试图案,既可进行反馈。而应用本发明实施例方法的终端设备,虽然可以通过视频图像进行手势识别、通过声音进行语音识别等,但这些交互方式都存在不同的局限性。其中,通过采集被检测者的实时图像数据对其反馈手势进行手势识别需要将采集到的图像数据上传至云端服务器进行识别运算,在此过程中可能造成用户的隐私泄露;通过语音识别进行交互的方式需要在云端存储相应被检测人的语音样本数据,当用户数量较多时云端服务器的存储压力和计算压力都会相应增大。因此,该实施例中,被测用户可通过与该终端设备交互的手持设备进行反馈,所以,步骤104包括:
将所述反馈信息与当前测试图案的视力指示信息比对;
若比对结果表示所述反馈信息正确,则在按照第一预设测试规则选择下一测试图案后,以所述目标显示比例进行显示;
若比对结果表示所述反馈信息错误,则在按照第二预设测试规则选择下一测试图案后,以所述目标显示比例进行显示,并在错误次数大于第二预设数值的情况下,由对应的测试图案确定视力状态。
这里,视力指示信息是该测试图案的图案信息。例如,应用本发明实施例方法的终端设备是以字母“E”为基础的视力表进行检测的,对应于一测试图案“E”,视力指示信息具体为“E”的开口方向。而针对测试图案的视力指示信息,该手持设备上会设置不同按钮来反馈不同的信息。如此,就能够更好地完成信息反馈。
之后,通过将被测用户反馈的方向与当前显示的测试图案的实际方向比对,一致则正确,不一致则错误。若比对结果表示该反馈信息正确,则在按照第一预设测试规则选择下一测试图案后,以之前所确定的目标显示比例进行显;若比对结果表示该反馈信息错误,则在按照第二预设测试规则选择下一测试图案后,以之前所确定的目标显示比例进行显示,并在错误次数大于第二预设数值的情况下,由对应的测试图案确定视力状态。
在该实施例中,针对比对结果的不同,会按照不同的规则进行下一测试图案的选择。该第一预设测试规则对应于被测用户的反馈信息正确的情况,因此,该第一预设测试规则可为以50%的概率将图案缩小到下一等级。而第二预设测试规则对应于被测用户的反馈信息错误的情况,该第二预设测试规则可为显示同一等级的图像。
最终,在错误次数大于第二预设数值的情况下,结束检测,由对应的测试图案确定视力状态。具体地,可由最后一次正确的反馈信息对应的测试图案指示的视力值,得到视力状态;也可由正确的反馈信息对应的测试图案指示的视力值中,最大的视力值得到视力状态等等。当然,具体的确定方式可由***或用户定义,在此不再赘述。
此外,该实施例中,在步骤104之后,所述方法还包括:
通过对当前视力状态以及所述被测用户的历史视力状态的分析,得到所述被测用户的视力变化趋势;
生成与所述视力变化趋势对应的用眼建议信息。
该实施例中,会记录被测用户每次检测的视力状态,如此,通过当前视力状态以及历史视力状态的分析,就能够得到被测用户的视力变化趋势,继而生成针对性的用眼建议信息。例如,通过分析发现最近时间段的视力下降较快,则生成的用眼建议信息会提醒被测用户注意对眼睛的保护,减少不良用眼行为;若视力较佳且稳定,则生成的用眼建议信息会鼓励被测用户继续保持。
综上所述,本发明实施例的视力检测方法,首先会获取自身与被测用户之间的第一距离,该第一距离为初测距离;之后,再根据当前采集到的该被测用户的图像,对已获取到的第一距离进行校正,得到更为准确的第二距离;然后,根据该第二距离,既可调整测试图案在屏幕上的目标显示比例;最终,就能够根据该被测用户反馈的、对应当前显示的测试图案的反馈信息,明确出该被测用户的视力状态。如此,无需依赖人工和固定的距离进行检测,操作更便捷,降低了成本,提升了检测结果的准确性。并且,不需要云服务器,不依赖高速可靠的网络连接,避免了隐私泄露的风险。
如图3所示,本发明实施例的一种视力检测装置,包括:
获取模块301,用于获取与被测用户之间的第一距离;
第一处理模块302,用于根据当前采集到的所述被测用户的图像,对所述第一距离进行校正,得到第二距离;
第二处理模块303,用于根据所述第二距离,调整测试图案在屏幕上的目标显示比例;
第三处理模块304,用于根据所述被测用户对所述测试图案的反馈信息,确定所述被测用户的视力状态。
其中,所述获取模块包括:
接收子模块,用于接收手持设备发送的测距信息,所述手持设备为所述被测用户携带的设备;
获取子模块,用于根据所述测距信息,得到与被测用户之间的第一距离。
其中,所述第一处理模块包括:
第一处理子模块,用于将当前采集到的所述被测用户的图像输入深度检测模型,所述深度检测模型用于检测输入图像的深度;
第二处理子模块,用于根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离;
第三处理子模块,用于根据所述第一距离和所述第三距离的差值,确定第二距离。
其中,所述深度检测模型为单目图像深度检测模型;
所述装置还包括:
训练模块,用于将训练样本输入初始单目图像深度检测模型进行训练;
损失值获取模块,用于在训练过程中,获取当前训练的损失值;
训练优化模块,用于根据所述损失值,调整模型参数,直至损失值满足预设条件,得到深度检测模型。
其中,所述损失值获取模块还用于:
根据损失函数公式计算损失值L;其中,y*为当前训练样本的真实深度值,y为当前训练样本的预测深度值,n为当前训练样本的像素点数量,di为像素点i的真实深度值和预测深度在对数空间的差值,λ为损失函数参数,Si为像素点i的饱和度,Vi=max(ri,gi,bi),min(ri,gi,bi)表示像素点i的最小彩色值,max(ri,gi,bi)表示像素点i的最大彩色值,ri为像素点i的红色值,gi为像素点i的绿色值,bi为像素点i的蓝色值。
其中,所述第二处理子模块包括:
位置获取单元,用于获取所述深度图中,所述被测用户双眼间的中点位置;
第一处理单元,用于将与所述中点位置对应的像素点的深度值作为第三距离。
其中,所述第三处理子模块包括:
第二处理单元,用于在所述差值小于或等于距离阈值的情况下,将所述第一距离和所述第三距离的均值作为第二距离;
第三处理单元,用于在所述差值大于所述距离阈值的情况下,返回根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离的步骤。
其中,所述第三处理子模块还包括:
第四处理单元,用于在n大于第一预设数值的情况下,通知目标用户选择,并将选择的结果作为第二距离,其中,n为统计的差值大于所述距离阈值的次数。
其中,所述第三处理模块包括:
比对子模块,用于将所述反馈信息与当前测试图案的视力指示信息比对;
第四处理子模块,用于若比对结果表示所述反馈信息正确,则在按照第一预设测试规则选择下一测试图案后,以所述目标显示比例进行显示;若比对结果表示所述反馈信息错误,则在按照第二预设测试规则选择下一测试图案后,以所述目标显示比例进行显示,并在错误次数大于第二预设数值的情况下,由对应的测试图案确定视力状态。
其中,所述第二处理模块还用于:
基于预设的人机距离和显示比例的对应关系,确定与所述第二距离对应的目标显示比例。
其中,所述装置还包括:
分析模块,用于通过对当前视力状态以及所述被测用户的历史视力状态的分析,得到所述被测用户的视力变化趋势;
生成模块,用于生成与所述视力变化趋势对应的用眼建议信息。
该实施例的视力检测装置,首先会获取自身与被测用户之间的第一距离,该第一距离为初测距离;之后,再根据当前采集到的该被测用户的图像,对已获取到的第一距离进行校正,得到更为准确的第二距离;然后,根据该第二距离,既可调整测试图案在屏幕上的目标显示比例;最终,就能够根据该被测用户反馈的、对应当前显示的测试图案的反馈信息,明确出该被测用户的视力状态。如此,无需依赖人工和固定的距离进行检测,操作更便捷,降低了成本,提升了检测结果的准确性。并且,不需要云服务器,不依赖高速可靠的网络连接,避免了隐私泄露的风险。
需要说明的是,该装置是应用了上述实施例的视力检测方法的装置,上述方法实施例的实现方式适用于该装置,也能达到相同的技术效果。
本发明另一实施例的一种终端设备,如图4所示,包括收发器410、存储器420、处理器400及存储在所述存储器420上并可在所述处理器400上运行的计算机程序;所述处理器400执行所述计算机程序时实现上述应用于视力检测方法。
所述收发器410,用于在处理器400的控制下接收和发送数据。
其中,在图4中,总线架构可以包括任意数量的互联的总线和桥,具体由处理器400代表的一个或多个处理器和存储器420代表的存储器的各种电路链接在一起。总线架构还可以将诸如***设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发器410可以是多个元件,即包括发送机和接收机,提供用于在传输介质上与各种其他装置通信的单元。针对不同的用户设备,用户接口430还可以是能够外接内接需要设备的接口,连接的设备包括但不限于小键盘、显示器、扬声器、麦克风、操纵杆等。
处理器400负责管理总线架构和通常的处理,存储器420可以存储处理器400在执行操作时所使用的数据。
本发明实施例的一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的视力检测方法中的步骤,且能达到相同的技术效果,为避免重复,这里不再赘述。其中,所述的计算机可读存储介质,如只读存储器(Read-OnlyMemory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等。
进一步需要说明的是,此说明书中所描述的终端包括但不限于智能手机、平板电脑等,且所描述的许多功能部件都被称为模块,以便更加特别地强调其实现方式的独立性。
本发明实施例中,模块可以用软件实现,以便由各种类型的处理器执行。举例来说,一个标识的可执行代码模块可以包括计算机指令的一个或多个物理或者逻辑块,举例来说,其可以被构建为对象、过程或函数。尽管如此,所标识模块的可执行代码无需物理地位于一起,而是可以包括存储在不同位里上的不同的指令,当这些指令逻辑上结合在一起时,其构成模块并且实现该模块的规定目的。
实际上,可执行代码模块可以是单条指令或者是许多条指令,并且甚至可以分布在多个不同的代码段上,分布在不同程序当中,以及跨越多个存储器设备分布。同样地,操作数据可以在模块内被识别,并且可以依照任何适当的形式实现并且被组织在任何适当类型的数据结构内。所述操作数据可以作为单个数据集被收集,或者可以分布在不同位置上(包括在不同存储设备上),并且至少部分地可以仅作为电子信号存在于***或网络上。
在模块可以利用软件实现时,考虑到现有硬件工艺的水平,所以可以以软件实现的模块,在不考虑成本的情况下,本领域技术人员都可以搭建对应的硬件电路来实现对应的功能,所述硬件电路包括常规的超大规模集成(VLSI)电路或者门阵列以及诸如逻辑芯片、晶体管之类的现有半导体或者是其它分立的元件。模块还可以用可编程硬件设备,诸如现场可编程门阵列、可编程阵列逻辑、可编程逻辑设备等实现。
上述范例性实施例是参考该些附图来描述的,许多不同的形式和实施例是可行而不偏离本发明精神及教示,因此,本发明不应被建构成为在此所提出范例性实施例的限制。更确切地说,这些范例性实施例被提供以使得本发明会是完善又完整,且会将本发明范围传达给那些熟知此项技术的人士。在该些图式中,组件尺寸及相对尺寸也许基于清晰起见而被夸大。在此所使用的术语只是基于描述特定范例性实施例目的,并无意成为限制用。如在此所使用地,除非该内文清楚地另有所指,否则该单数形式“一”、“一个”和“该”是意欲将该些多个形式也纳入。会进一步了解到该些术语“包含”及/或“包括”在使用于本说明书时,表示所述特征、整数、步骤、操作、构件及/或组件的存在,但不排除一或更多其它特征、整数、步骤、操作、构件、组件及/或其族群的存在或增加。除非另有所示,陈述时,一值范围包含该范围的上下限及其间的任何子范围。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种视力检测装置,其特征在于,包括:
获取模块,用于获取与被测用户之间的第一距离;
第一处理模块,用于根据当前采集到的所述被测用户的图像,对所述第一距离进行校正,得到第二距离;
第二处理模块,用于根据所述第二距离,调整测试图案在屏幕上的目标显示比例;
第三处理模块,用于根据所述被测用户对所述测试图案的反馈信息,确定所述被测用户的视力状态;
所述第一处理模块包括:
第一处理子模块,用于将当前采集到的所述被测用户的图像输入深度检测模型,所述深度检测模型用于检测输入图像的深度;
第二处理子模块,用于根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离;
第三处理子模块,用于根据所述第一距离和所述第三距离的差值,确定第二距离;
2.根据权利要求1所述的装置,其特征在于,所述获取模块包括:
接收子模块,用于接收手持设备发送的测距信息,所述手持设备为所述被测用户携带的设备;
获取子模块,用于根据所述测距信息,得到与被测用户之间的第一距离。
3.根据权利要求1所述的装置,其特征在于,所述深度检测模型为单目图像深度检测模型;
所述装置还包括:
训练模块,用于将训练样本输入初始单目图像深度检测模型进行训练;
损失值获取模块,用于在训练过程中,获取当前训练的损失值;
训练优化模块,用于根据所述损失值,调整模型参数,直至损失值满足预设条件,得到深度检测模型。
4.根据权利要求1所述的装置,其特征在于,所述第二处理子模块包括:
位置获取单元,用于获取所述深度图中,所述被测用户双眼间的中点位置;
第一处理单元,用于将与所述中点位置对应的像素点的深度值作为第三距离。
5.根据权利要求1所述的装置,其特征在于,所述第三处理子模块包括:
第二处理单元,用于在所述差值小于或等于距离阈值的情况下,将所述第一距离和所述第三距离的均值作为第二距离;
第三处理单元,用于在所述差值大于所述距离阈值的情况下,返回根据所述深度检测模型输出的深度图,确定与被测用户之间的第三距离的步骤。
6.根据权利要求5所述的装置,其特征在于,所述第三处理子模块还包括:
第四处理单元,用于在n大于第一预设数值的情况下,通知目标用户选择,并将选择的结果作为第二距离,其中,n为统计的差值大于所述距离阈值的次数。
7.根据权利要求1所述的装置,其特征在于,所述第三处理模块包括:
比对子模块,用于将所述反馈信息与当前测试图案的视力指示信息比对;
第四处理子模块,用于若比对结果表示所述反馈信息正确,则在按照第一预设测试规则选择下一测试图案后,以所述目标显示比例进行显示;若比对结果表示所述反馈信息错误,则在按照第二预设测试规则选择下一测试图案后,以所述目标显示比例进行显示,并在错误次数大于第二预设数值的情况下,由对应的测试图案确定视力状态。
8.根据权利要求1所述的装置,其特征在于,所述第二处理模块还用于:
基于预设的人机距离和显示比例的对应关系,确定与所述第二距离对应的目标显示比例。
9.根据权利要求1所述的装置,其特征在于,所述装置还包括:
分析模块,用于通过对当前视力状态以及所述被测用户的历史视力状态的分析,得到所述被测用户的视力变化趋势;
生成模块,用于生成与所述视力变化趋势对应的用眼建议信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910000900.9A CN111387932B (zh) | 2019-01-02 | 2019-01-02 | 一种视力检测方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910000900.9A CN111387932B (zh) | 2019-01-02 | 2019-01-02 | 一种视力检测方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111387932A CN111387932A (zh) | 2020-07-10 |
CN111387932B true CN111387932B (zh) | 2023-05-09 |
Family
ID=71410732
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910000900.9A Active CN111387932B (zh) | 2019-01-02 | 2019-01-02 | 一种视力检测方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111387932B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112419391A (zh) * | 2020-11-27 | 2021-02-26 | 成都怡康科技有限公司 | 一种基于视力检测提示用户调整坐姿的方法及可穿戴设备 |
CN114639114A (zh) * | 2020-11-30 | 2022-06-17 | 华为技术有限公司 | 视力检测方法及电子设备 |
CN113509136A (zh) * | 2021-04-29 | 2021-10-19 | 京东方艺云(北京)科技有限公司 | 检测方法、视力检测方法、装置、电子设备及存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5812986B2 (ja) * | 2009-05-09 | 2015-11-17 | ヴァイタル アート アンド サイエンス,エルエルシー | 形状識別視力評価及び追跡システム |
CN202843576U (zh) * | 2012-06-26 | 2013-04-03 | 马汉良 | 一种智能视力自查装置 |
PT3003121T (pt) * | 2013-06-06 | 2021-09-06 | 6 OVER 6 VISION Ltd | Sistema de medição de erro refrativo de um olho com base na medição de distância subjetiva |
CN107800868A (zh) * | 2017-09-21 | 2018-03-13 | 维沃移动通信有限公司 | 一种图像显示方法及移动终端 |
CN107766847B (zh) * | 2017-11-21 | 2020-10-30 | 海信集团有限公司 | 一种车道线检测方法及装置 |
CN109029363A (zh) * | 2018-06-04 | 2018-12-18 | 泉州装备制造研究所 | 一种基于深度学习的目标测距方法 |
-
2019
- 2019-01-02 CN CN201910000900.9A patent/CN111387932B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111387932A (zh) | 2020-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106469302B (zh) | 一种基于人工神经网络的人脸肤质检测方法 | |
US10559081B2 (en) | Method and system for automated visual analysis of a dipstick using standard user equipment | |
CN111387932B (zh) | 一种视力检测方法、装置及设备 | |
CN108615071B (zh) | 模型测试的方法及装置 | |
EP3989104A1 (en) | Facial feature extraction model training method and apparatus, facial feature extraction method and apparatus, device, and storage medium | |
JP7006567B2 (ja) | 撮影方法及び撮影装置 | |
CN107945769A (zh) | 环境光强度检测方法、装置、存储介质及电子设备 | |
CN110781976B (zh) | 训练图像的扩充方法、训练方法及相关装置 | |
CN109726109A (zh) | 代码调试方法、装置、设备和计算机存储介质 | |
CN112560649A (zh) | 一种行为动作检测方法、***、设备及介质 | |
CN116337412A (zh) | 屏幕检测方法、设备及存储介质 | |
CN111862040A (zh) | 人像图片质量评价方法、装置、设备及存储介质 | |
CN109859216B (zh) | 基于深度学习的测距方法、装置、设备及存储介质 | |
CN111784665A (zh) | 基于傅里叶变换的oct图像质量评估方法、***及装置 | |
CN111609926A (zh) | 杂散光强度检测方法、装置、检测终端及可读存储介质 | |
WO2021082636A1 (zh) | 一种关注区域检测方法、装置、可读存储介质及终端设备 | |
CN105574844B (zh) | 辐射响应函数估计方法和装置 | |
CN112330671A (zh) | 细胞分布状态的分析方法、装置、计算机设备和存储介质 | |
CN109493830B (zh) | 一种显示面板的调节方法、调节***及显示装置 | |
CN115601712B (zh) | 适用于现场安全措施的图像数据处理方法及*** | |
CN113568735B (zh) | 数据处理方法及*** | |
CN116704401A (zh) | 操作类考试的评分校验方法、装置、电子设备及存储介质 | |
CN111524107B (zh) | 缺陷检测方法、缺陷检测装置及计算机可读存储介质 | |
CN112686851A (zh) | 一种图像检测方法、装置及存储介质 | |
Engelke et al. | Optimal region-of-interest based visual quality assessment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |