CN111613314A - 一种基于大数据的学生视力检测*** - Google Patents

一种基于大数据的学生视力检测*** Download PDF

Info

Publication number
CN111613314A
CN111613314A CN202010469166.3A CN202010469166A CN111613314A CN 111613314 A CN111613314 A CN 111613314A CN 202010469166 A CN202010469166 A CN 202010469166A CN 111613314 A CN111613314 A CN 111613314A
Authority
CN
China
Prior art keywords
data
student
test
value
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010469166.3A
Other languages
English (en)
Inventor
班俊超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202010469166.3A priority Critical patent/CN111613314A/zh
Publication of CN111613314A publication Critical patent/CN111613314A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于大数据的学生视力检测***,包括摄像头、识别单元、数据库、分析模块、显示屏、判定模块、监测模块和发送模块;所述摄像头用于获取学生视力测试状况,并自动获取影像信息,影像信息包括学生名称数据和影像数据,将影像信息传输至识别单元;所述识别单元用于识别影像信息,并对其进行识别操作,通过判定模块的设置,对分析模块分析的X轴差值和Y轴差值进行方向判定,并提取出对应的度数数据,依据其与距离差值和时间差值的影响因子,计算出测量度数的实际值,从而得出学生的视力度数,减小变量因素的影响变化,增加数据的精确性,节省测量度数所消耗的时间,提高工作效率。

Description

一种基于大数据的学生视力检测***
技术领域
本发明涉及视力检测技术领域,具体为一种基于大数据的学生视力检测***。
背景技术
视力是指视网膜分辨影像的能力。视力的好坏由视网膜分辨影像能力的大小来判定,随着社会的发展,电子产品的增多,中小学生的视力在这些产品的影响下产生了下降,家长通常会间隔一段时间带孩子去检测视力。
现有的视力检测通常是将一个视力表挂在墙上,并在地面上画上一条测试视力的线,孩子们站在线后进行视力测量,一些较为先进的眼镜店,则是通过测试仪将测试表放大化,在孩子测量后多多少少会出现一些侧视上的误差,从而无法准确的分析出孩子的视力度数,为此,我们提出一种基于大数据的学生视力检测***。
发明内容
本发明的目的在于提供一种基于大数据的学生视力检测***,通过识别单元的设置,识别摄像头内获取的学生视力测试状况,并对获取的影像信息进行精确识别,将影像转化成数据信息,再传输至分析模块进行相关数据的分析,来解决现有技术中无法对相关数据进行精确分析的问题,避免数据的误差较大,从而增加数据的精确性,增加数据信息的说服力度,节省分析时间,提高工作效率,通过判定模块的设置,对分析模块分析的X轴差值和Y轴差值进行方向判定,并提取出对应的度数数据,依据其与距离差值和时间差值的影响因子,计算出测量度数的实际值,从而得出学生的视力度数,来解决现有技术中无法精确计算学生度数的问题,减小变量因素的影响变化,增加数据的精确性,节省测量度数所消耗的时间,提高工作效率。
本发明的目的可以通过以下技术方案实现:一种基于大数据的学生视力检测***,包括摄像头、识别单元、数据库、分析模块、显示屏、判定模块、监测模块和发送模块;
所述摄像头用于获取学生视力测试状况,并自动获取影像信息,影像信息包括学生名称数据和影像数据,将影像信息传输至识别单元;
所述识别单元用于识别影像信息,并对其进行识别操作,得到手部信息并将其传输至数据库进行存储;
所述数据库内存储有测试表字母记录图片数据和对应的方向数据,监测模块用于监测学生测试视力时的视力测试表数据、测试距离数据以及做出手势的反应时间数据,监测模块从数据库内获取字母记录图片数据和方向数据,依据其进行视力测试监测,得到方向数据、度数数据、反应时间数据和测试距离数据,并将其一同传输至数据库进行存储;
所述分析模块从数据库内获取手部信息,并依据其进行数据分析操作,得到手指、手掌和手腕三者之间的X轴差值和Y轴差值,并将其一同传输至判定模块;
所述判定模块从数据库内获取度数数据、测试距离数据、反应时间数据和方向数据,并将其与手指、手掌和手腕三者之间的X轴差值和Y轴差值一同进行判定操作:
首先对手指、手掌和手腕三者之间的X轴差值和Y轴差值进行正负值标记,并依据正负值进行指向判定;
提取判定后的度数数据,并将其与距离差值和时间差值一同带入到对应的计算式中,从而计算出测试度数的值,并将测试度数分别传输至数据库和发送模块;
所述数据库接收测试度数,并对其进行存储,所述发送模块用于接收测试度数并将其发送至显示屏,所述显示屏用于显示测试度数。
作为本发明的进一步改进方案:识别操作的具体操作过程为:
步骤一:获取影像信息内的学生名称数据,并将其标记为Ai,i=1,2,3......n1;
步骤二:获取影像信息内的影像数据,并将其标定为Bi,i=1,2,3......n1;
步骤三:识别影像数据,并提取其内的图像数据,依据图像数据识别学生面部数据,并将该图像数据中的学生面部数据与对应的学生名称数据进行匹配,当匹配结果不一致时,则判定学生和面部出现错误,不进行视力测试并自动生成禁止信号,当匹配结果一致时,则判定该学生在测试视力,继续进行视力测试并生成允许信号,其中,学生的面部数据时通过面部识别单元进行识别,面部识别单元设置在识别单元内;
步骤四:识别图像数据内的两个眼部数据,判定学生是否闭眼,具体为:
S1:设定一个眼部数据的预设值,并将其与两个眼部数据进行比对,具体为:
S2:当预设值大于眼部数据时,则判定该眼睛为闭眼状态;
S3:当预设值小于等于眼部数据时,则判定该眼睛为睁开状态;
S4:依据眼部数据与预设值的比对结果进行测试判定,当出现两个眼部数据均为睁开状态时,则判定该学生的视力测试不符合规范,当出现两个眼部数据均为闭眼状态时,则判定还学生视力测试不符合规范,当出现一个眼部数据为睁眼状态,另一个眼部数据为闭眼状态时,则判定该学生视力测试规范;
步骤五:识别图像数据中的学生手部,并自动获取手部信息。
作为本发明的进一步改进方案:具体监测过程为:
K1:获取视力测试表的图片数据,并识别指在视力测试表上的测试棒,其中,测试棒通过图片的对比进行识别;
K2:获取测试棒所指的测试表字母图样数据,并将其与字母记录图片数据进行匹配,匹配出与字母图样数据一致的字母记录图片数据,并提取该字母记录图片数据所对应的方向数据;
K3:获取视力测试表上同一排的视力度数,并将其标定为度数数据,视力度数通过识别数字进行获取。
作为本发明的进一步改进方案:数据分析操作的具体操作过程为:
H1:获取手部信息,将其内与手臂连接的位置标定为手腕数据,并将手腕数据标记为SYi,i=1,2,3......n1,获取手部信息,将其内的五个指头标定为手指数据,并将手指数据标记为SZi,i=1,2,3......n1,获取手部信息,将其内连接手指和手腕的部分标定为手掌数据,并将手掌数据标记为SWi,i=1,2,3......n1;
H2:建立一个虚拟空间直角坐标系,以监测模块采集的图像数据的相同位置在虚拟直角坐标系进行位置标定,从而得出手腕位置KLv,v=1,2,3......n2,手腕的坐标即为(LXv,LYv),手掌位置为KCv,v=1,2,3......n2,手掌的坐标即为(CXv,CYv),手指位置为KZv,v=1,2,3......n2,手指的坐标即为(ZXv,ZYv),其中,由于手指、手掌和手腕不是单一的一个点,使得手指、手掌和手腕的位置均设定有多个;
H3:获取上述H2中的手指、手掌和手腕的坐标KLv(LXv,LYv)、KCv(CXv,CYv)和KZv(ZXv,ZYv),分别将其带入到计算式:CXLCv=LXv-CXv,CXLZv=LXv-ZXv,CYLCv=LYv-CYv,CYLZv=LYv-ZYv,其中,CXLCv表示为手指和手掌X轴差值,CXLZv表示为手指和手腕的X轴差值,CYLCv表示为手指和手掌Y轴差值,CYLZv表示为手指和手腕的Y轴差值。
作为本发明的进一步改进方案:判定操作的具体操作过程为:
G1:获取手指、手掌和手腕三者之间的X轴差值和Y轴差值,依据正向值和负向值分别对其进行重新标记,并依据正向值和负向值手指指向进行判定,具体为:
当出现手指和手掌X轴差值为负向值,同时手指和手腕的X轴差值也为负向值时,则判定该学生的指向为左方;
当出现手指和手掌X轴差值为正向值,同时手指和手腕的X轴差值也为正向值时,则判定该学生的指向为右方;
当出现手指和手掌Y轴差值为正向值,同时手指和手腕的Y轴差值也为正向值时,则判定该学生的指向为上方;
当出现手指和手掌Y轴差值为负向值,同时手指和手腕的Y轴差值也为负向值时,则判定该学生的指向为下方;
当出现其他结果时,则判定识别错误;
G2:将上述G1中的判定结果与方向数据进行匹配,当匹配结果一致时则判定学生指示正确,当匹配结果不一致时,则判定学生指示错误,当出现匹配结果不一致时,则进行再次测量低一度数的,当出现匹配结果一致时,则提取对应的度数数据;
G3:获取测试距离数据和反应时间数据,同时设定一个距离预设值和反应时间预设值,并将其与测试距离数据和反应时间数据一同带入到差值计算式中,从而计算出距离差值和时间差值;
G4:获取上述G3中的距离差值和时间差值与上述G2中的度数数据,并将其一同带入到计算式:测试度数=度数数据+(距离差值*距离影响因子)+(时间差值*时间影响因子),其中,距离影响因子的取值为0.15283,时间影响因子的取值为0.3926178。
本发明的有益效果:
(1)摄像头获取学生视力测试状况,并自动获取影像信息,影像信息包括学生名称数据和影像数据,将影像信息传输至识别单元;识别单元识别影像信息,并对其进行识别操作,得到手部信息并将其传输至数据库进行存储;监测模块用于监测学生测试视力时的视力测试表数据、测试距离数据以及做出手势的反应时间数据,监测模块从数据库内获取字母记录图片数据和方向数据,依据其进行视力测试监测;分析模块从数据库内获取手部信息,并依据其进行数据分析操作,分析出手指、手掌和手腕三者之间的X轴差值和Y轴差值,通过识别单元的设置,识别摄像头内获取的学生视力测试状况,并对获取的影像信息进行精确识别,将影像转化成数据信息,再传输至分析模块进行相关数据的分析,避免数据的误差较大,从而增加数据的精确性,增加数据信息的说服力度,节省分析时间,提高工作效率。
(2)判定模块从数据库内获取度数数据、测试距离数据、反应时间数据和方向数据,并将其与手指、手掌和手腕三者之间的X轴差值和Y轴差值一同进行判定操作:首先对手指、手掌和手腕三者之间的X轴差值和Y轴差值进行正负值标记,并依据正负值进行指向判定;提取判定后的度数数据,并将其与距离差值和时间差值一同带入到对应的计算式中,从而计算出测试度数的值,并将测试度数分别传输至数据库和发送模块;数据库接收测试度数,并对其进行存储,发送模块用于接收测试度数并将其发送至显示屏,显示屏用于显示测试度数,通过判定模块的设置,对分析模块分析的X轴差值和Y轴差值进行方向判定,并提取出对应的度数数据,依据其与距离差值和时间差值的影响因子,计算出测量度数的实际值,从而得出学生的视力度数,减小变量因素的影响变化,增加数据的精确性,节省测量度数所消耗的时间,提高工作效率。
附图说明
下面结合附图对本发明作进一步的说明。
图1是本发明的***框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1所示,本发明为一种基于大数据的学生视力检测***,包括摄像头、识别单元、数据库、分析模块、显示屏、判定模块、监测模块和发送模块;
所述摄像头用于获取学生视力测试状况,并自动获取影像信息,影像信息包括学生名称数据和影像数据,将影像信息传输至识别单元;
所述识别单元用于识别影像信息,并对其进行识别操作,识别操作的具体操作过程为:
步骤一:获取影像信息内的学生名称数据,并将其标记为Ai,i=1,2,3......n1;
步骤二:获取影像信息内的影像数据,并将其标定为Bi,i=1,2,3......n1;
步骤三:识别影像数据,并提取其内的图像数据,依据图像数据识别学生面部数据,并将该图像数据中的学生面部数据与对应的学生名称数据进行匹配,当匹配结果不一致时,则判定学生和面部出现错误,不进行视力测试并自动生成禁止信号,当匹配结果一致时,则判定该学生在测试视力,继续进行视力测试并生成允许信号,其中,学生的面部数据时通过面部识别单元进行识别,面部识别单元设置在识别单元内;
步骤四:识别图像数据内的两个眼部数据,判定学生是否闭眼,具体为:
S1:设定一个眼部数据的预设值,并将其与两个眼部数据进行比对,具体为:
S2:当预设值大于眼部数据时,则判定该眼睛为闭眼状态;
S3:当预设值小于等于眼部数据时,则判定该眼睛为睁开状态;
S4:依据眼部数据与预设值的比对结果进行测试判定,当出现两个眼部数据均为睁开状态时,则判定该学生的视力测试不符合规范,当出现两个眼部数据均为闭眼状态时,则判定还学生视力测试不符合规范,当出现一个眼部数据为睁眼状态,另一个眼部数据为闭眼状态时,则判定该学生视力测试规范,其中,眼部数据指代上眼皮与下眼皮之间的距离数据,且眼部数据的预设值取值为零;
步骤五:识别图像数据中的学生手部,并自动获取手部信息,并将其传输至数据库进行存储,其中,学生的手部通过肢体识别,或通过图像数据之间的比对进行识别,且学生手部指代学生的手掌和手指;
所述数据库内存储有测试表字母记录图片数据和对应的方向数据,监测模块用于监测学生测试视力时的视力测试表数据、测试距离数据以及做出手势的反应时间数据,监测模块从数据库内获取字母记录图片数据和方向数据,依据其进行视力测试监测,具体监测过程为:
K1:获取视力测试表的图片数据,并识别指在视力测试表上的测试棒,其中,测试棒通过图片的对比进行识别;
K2:获取测试棒所指的测试表字母图样数据,并将其与字母记录图片数据进行匹配,匹配出与字母图样数据一致的字母记录图片数据,并提取该字母记录图片数据所对应的方向数据;
K3:获取视力测试表上同一排的视力度数,并将其标定为度数数据,视力度数通过识别数字进行获取;
K4:将方向数据、度数数据、反应时间数据和测试距离数据一同传输至数据库进行存储;
所述分析模块从数据库内获取手部信息,并依据其进行数据分析操作,数据分析操作的具体操作过程为:
H1:获取手部信息,将其内与手臂连接的位置标定为手腕数据,并将手腕数据标记为SYi,i=1,2,3......n1,获取手部信息,将其内的五个指头标定为手指数据,并将手指数据标记为SZi,i=1,2,3......n1,获取手部信息,将其内连接手指和手腕的部分标定为手掌数据,并将手掌数据标记为SWi,i=1,2,3......n1;
H2:建立一个虚拟空间直角坐标系,以监测模块采集的图像数据的相同位置在虚拟直角坐标系进行位置标定,从而得出手腕位置KLv,v=1,2,3......n2,手腕的坐标即为(LXv,LYv),手掌位置为KCv,v=1,2,3......n2,手掌的坐标即为(CXv,CYv),手指位置为KZv,v=1,2,3......n2,手指的坐标即为(ZXv,ZYv),其中,由于手指、手掌和手腕不是单一的一个点,使得手指、手掌和手腕的位置均设定有多个;
H3:获取上述H2中的手指、手掌和手腕的坐标KLv(LXv,LYv)、KCv(CXv,CYv)和KZv(ZXv,ZYv),分别将其带入到计算式:CXLCv=LXv-CXv,CXLZv=LXv-ZXv,CYLCv=LYv-CYv,CYLZv=LYv-ZYv,其中,CXLCv表示为手指和手掌X轴差值,CXLZv表示为手指和手腕的X轴差值,CYLCv表示为手指和手掌Y轴差值,CYLZv表示为手指和手腕的Y轴差值;
H4:将上述H3中的手指、手掌和手腕三者之间的X轴差值和Y轴差值一同传输至判定模块;
所述判定模块从数据库内获取度数数据、测试距离数据、反应时间数据和方向数据,并将其与手指、手掌和手腕三者之间的X轴差值和Y轴差值一同进行判定操作,判定操作的具体操作过程为:
G1:获取手指、手掌和手腕三者之间的X轴差值和Y轴差值,依据正向值和负向值分别对其进行重新标记,正负值指代差值结果大于零或这小于零,并依据正向值和负向值手指指向进行判定,具体为:
当出现手指和手掌X轴差值为负向值,同时手指和手腕的X轴差值也为负向值时,则判定该学生的指向为左方;
当出现手指和手掌X轴差值为正向值,同时手指和手腕的X轴差值也为正向值时,则判定该学生的指向为右方;
当出现手指和手掌Y轴差值为正向值,同时手指和手腕的Y轴差值也为正向值时,则判定该学生的指向为上方;
当出现手指和手掌Y轴差值为负向值,同时手指和手腕的Y轴差值也为负向值时,则判定该学生的指向为下方;
当出现其他结果时,则判定识别错误;
G2:将上述G1中的判定结果与方向数据进行匹配,当匹配结果一致时则判定学生指示正确,当匹配结果不一致时,则判定学生指示错误,当出现匹配结果不一致时,则进行再次测量低一度数的,当出现匹配结果一致时,则提取对应的度数数据;
G3:获取测试距离数据和反应时间数据,同时设定一个距离预设值和反应时间预设值,并将其与测试距离数据和反应时间数据一同带入到差值计算式中,从而计算出距离差值和时间差值;
G4:获取上述G3中的距离差值和时间差值与上述G2中的度数数据,并将其一同带入到计算式:测试度数=度数数据+(距离差值*距离影响因子)+(时间差值*时间影响因子),其中,距离影响因子的取值为0.15283,时间影响因子的取值为0.3926178;
G5:将测试度数分别传输至数据库和发送模块;
所述数据库接收测试度数,并对其进行存储,所述发送模块用于接收测试度数并将其发送至显示屏,所述显示屏用于显示测试度数。
本发明在工作时,摄像头获取学生视力测试状况,并自动获取影像信息,影像信息包括学生名称数据和影像数据,将影像信息传输至识别单元;识别单元识别影像信息,并对其进行识别操作,得到手部信息并将其传输至数据库进行存储;监测模块用于监测学生测试视力时的视力测试表数据、测试距离数据以及做出手势的反应时间数据,监测模块从数据库内获取字母记录图片数据和方向数据,依据其进行视力测试监测,获取视力测试表的图片数据,并识别指在视力测试表上的测试棒,其中,测试棒通过图片的对比进行识别;获取测试棒所指的测试表字母图样数据,并将其与字母记录图片数据进行匹配,匹配出与字母图样数据一致的字母记录图片数据,并提取该字母记录图片数据所对应的方向数据;获取视力测试表上同一排的视力度数,并将其标定为度数数据,视力度数通过识别数字进行获取,并将其一同传输至数据库进行存储;分析模块从数据库内获取手部信息,并依据其进行数据分析操作,得到手指、手掌和手腕三者之间的X轴差值和Y轴差值,并将其一同传输至判定模块;判定模块从数据库内获取度数数据、测试距离数据、反应时间数据和方向数据,并将其与手指、手掌和手腕三者之间的X轴差值和Y轴差值一同进行判定操作:首先对手指、手掌和手腕三者之间的X轴差值和Y轴差值进行正负值标记,并依据正负值进行指向判定;提取判定后的度数数据,并将其与距离差值和时间差值一同带入到对应的计算式中,从而计算出测试度数的值,并将测试度数分别传输至数据库和发送模块;数据库接收测试度数,并对其进行存储,发送模块用于接收测试度数并将其发送至显示屏,显示屏用于显示测试度数。
以上内容仅仅是对本发明结构所作的举例和说明,所属本技术领域的技术人员对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,只要不偏离发明的结构或者超越本权利要求书所定义的范围,均应属于本发明的保护范围。

Claims (5)

1.一种基于大数据的学生视力检测***,其特征在于,包括摄像头、识别单元、数据库、分析模块、显示屏、判定模块、监测模块和发送模块;
所述摄像头用于获取学生视力测试状况,并自动获取影像信息,影像信息包括学生名称数据和影像数据,将影像信息传输至识别单元;
所述识别单元用于识别影像信息,并对其进行识别操作,得到手部信息并将其传输至数据库进行存储;
所述数据库内存储有测试表字母记录图片数据和对应的方向数据,监测模块用于监测学生测试视力时的视力测试表数据、测试距离数据以及做出手势的反应时间数据,监测模块从数据库内获取字母记录图片数据和方向数据,依据其进行视力测试监测,得到方向数据、度数数据、反应时间数据和测试距离数据,并将其一同传输至数据库进行存储;
所述分析模块从数据库内获取手部信息,并依据其进行数据分析操作,得到手指、手掌和手腕三者之间的X轴差值和Y轴差值,并将其一同传输至判定模块;
所述判定模块从数据库内获取度数数据、测试距离数据、反应时间数据和方向数据,并将其与手指、手掌和手腕三者之间的X轴差值和Y轴差值一同进行判定操作:
首先对手指、手掌和手腕三者之间的X轴差值和Y轴差值进行正负值标记,并依据正负值进行指向判定;
提取判定后的度数数据,并将其与距离差值和时间差值一同带入到对应的计算式中,从而计算出测试度数的值,并将测试度数分别传输至数据库和发送模块;
所述数据库接收测试度数,并对其进行存储,所述发送模块用于接收测试度数并将其发送至显示屏,所述显示屏用于显示测试度数。
2.根据权利要求1所述的一种基于大数据的学生视力检测***,其特征在于,识别操作的具体操作过程为:
步骤一:获取影像信息内的学生名称数据,并将其标记为Ai,i=1,2,3......n1;
步骤二:获取影像信息内的影像数据,并将其标定为Bi,i=1,2,3......n1;
步骤三:识别影像数据,并提取其内的图像数据,依据图像数据识别学生面部数据,并将该图像数据中的学生面部数据与对应的学生名称数据进行匹配,当匹配结果不一致时,则判定学生和面部出现错误,不进行视力测试并自动生成禁止信号,当匹配结果一致时,则判定该学生在测试视力,继续进行视力测试并生成允许信号,其中,学生的面部数据时通过面部识别单元进行识别,面部识别单元设置在识别单元内;
步骤四:识别图像数据内的两个眼部数据,判定学生是否闭眼,具体为:
S1:设定一个眼部数据的预设值,并将其与两个眼部数据进行比对,具体为:
S2:当预设值大于眼部数据时,则判定该眼睛为闭眼状态;
S3:当预设值小于等于眼部数据时,则判定该眼睛为睁开状态;
S4:依据眼部数据与预设值的比对结果进行测试判定,当出现两个眼部数据均为睁开状态时,则判定该学生的视力测试不符合规范,当出现两个眼部数据均为闭眼状态时,则判定还学生视力测试不符合规范,当出现一个眼部数据为睁眼状态,另一个眼部数据为闭眼状态时,则判定该学生视力测试规范;
步骤五:识别图像数据中的学生手部,并自动获取手部信息。
3.根据权利要求1所述的一种基于大数据的学生视力检测***,其特征在于,具体监测过程为:
K1:获取视力测试表的图片数据,并识别指在视力测试表上的测试棒,其中,测试棒通过图片的对比进行识别;
K2:获取测试棒所指的测试表字母图样数据,并将其与字母记录图片数据进行匹配,匹配出与字母图样数据一致的字母记录图片数据,并提取该字母记录图片数据所对应的方向数据;
K3:获取视力测试表上同一排的视力度数,并将其标定为度数数据,视力度数通过识别数字进行获取。
4.根据权利要求1所述的一种基于大数据的学生视力检测***,其特征在于,数据分析操作的具体操作过程为:
H1:获取手部信息,将其内与手臂连接的位置标定为手腕数据,并将手腕数据标记为SYi,i=1,2,3......n1,获取手部信息,将其内的五个指头标定为手指数据,并将手指数据标记为SZi,i=1,2,3......n1,获取手部信息,将其内连接手指和手腕的部分标定为手掌数据,并将手掌数据标记为SWi,i=1,2,3......n1;
H2:建立一个虚拟空间直角坐标系,以监测模块采集的图像数据的相同位置在虚拟直角坐标系进行位置标定,从而得出手腕位置KLv,v=1,2,3......n2,手腕的坐标即为(LXv,LYv),手掌位置为KCv,v=1,2,3......n2,手掌的坐标即为(CXv,CYv),手指位置为KZv,v=1,2,3......n2,手指的坐标即为(ZXv,ZYv),其中,由于手指、手掌和手腕不是单一的一个点,使得手指、手掌和手腕的位置均设定有多个;
H3:获取上述H2中的手指、手掌和手腕的坐标KLv(LXv,LYv)、KCv(CXv,CYv)和KZv(ZXv,ZYv),分别将其带入到计算式:CXLCv=LXv-CXv,CXLZv=LXv-ZXv,CYLCv=LYv-CYv,CYLZv=LYv-ZYv,其中,CXLCv表示为手指和手掌X轴差值,CXLZv表示为手指和手腕的X轴差值,CYLCv表示为手指和手掌Y轴差值,CYLZv表示为手指和手腕的Y轴差值。
5.根据权利要求1所述的一种基于大数据的学生视力检测***,其特征在于,判定操作的具体操作过程为:
G1:获取手指、手掌和手腕三者之间的X轴差值和Y轴差值,依据正向值和负向值分别对其进行重新标记,并依据正向值和负向值手指指向进行判定,具体为:
当出现手指和手掌X轴差值为负向值,同时手指和手腕的X轴差值也为负向值时,则判定该学生的指向为左方;
当出现手指和手掌X轴差值为正向值,同时手指和手腕的X轴差值也为正向值时,则判定该学生的指向为右方;
当出现手指和手掌Y轴差值为正向值,同时手指和手腕的Y轴差值也为正向值时,则判定该学生的指向为上方;
当出现手指和手掌Y轴差值为负向值,同时手指和手腕的Y轴差值也为负向值时,则判定该学生的指向为下方;
当出现其他结果时,则判定识别错误;
G2:将上述G1中的判定结果与方向数据进行匹配,当匹配结果一致时则判定学生指示正确,当匹配结果不一致时,则判定学生指示错误,当出现匹配结果不一致时,则进行再次测量低一度数的,当出现匹配结果一致时,则提取对应的度数数据;
G3:获取测试距离数据和反应时间数据,同时设定一个距离预设值和反应时间预设值,并将其与测试距离数据和反应时间数据一同带入到差值计算式中,从而计算出距离差值和时间差值;
G4:获取上述G3中的距离差值和时间差值与上述G2中的度数数据,并将其一同带入到计算式:测试度数=度数数据+(距离差值*距离影响因子)+(时间差值*时间影响因子),其中,距离影响因子的取值为0.15283,时间影响因子的取值为0.3926178。
CN202010469166.3A 2020-05-28 2020-05-28 一种基于大数据的学生视力检测*** Withdrawn CN111613314A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010469166.3A CN111613314A (zh) 2020-05-28 2020-05-28 一种基于大数据的学生视力检测***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010469166.3A CN111613314A (zh) 2020-05-28 2020-05-28 一种基于大数据的学生视力检测***

Publications (1)

Publication Number Publication Date
CN111613314A true CN111613314A (zh) 2020-09-01

Family

ID=72196607

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010469166.3A Withdrawn CN111613314A (zh) 2020-05-28 2020-05-28 一种基于大数据的学生视力检测***

Country Status (1)

Country Link
CN (1) CN111613314A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232172A (zh) * 2020-10-12 2021-01-15 上海大学 一种电子战装备多人协作配合模拟***

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232172A (zh) * 2020-10-12 2021-01-15 上海大学 一种电子战装备多人协作配合模拟***
CN112232172B (zh) * 2020-10-12 2021-12-21 上海大学 一种电子战装备多人协作配合模拟***

Similar Documents

Publication Publication Date Title
CN105996975A (zh) 用于检测视力的方法、设备以及终端
CN108665687B (zh) 一种坐姿监测方法和装置
CN102078180A (zh) 具有视力检测功能的手持电子设备及其检测方法
CN109620124A (zh) 一种校园视力监测***
CN111613314A (zh) 一种基于大数据的学生视力检测***
CN110414101B (zh) 一种仿真场景测量方法、准确性测定方法及***
CN107525652A (zh) 镜头畸变测试方法、装置及***
CN114973090A (zh) 一种实验评分方法、装置、电子设备及存储介质
CN212365287U (zh) 杠杆原理实验仪及杠杆原理实验仪教学数据采集***
CN111428577B (zh) 一种基于深度学习与视频放大技术的人脸活体判断方法
CN106963384A (zh) 一种代偿头位检测方法及装置
CN115861977A (zh) 一种模拟驾驶姿态评价方法及模拟驾驶装置
CN114862960A (zh) 多相机标定的图像地面找平方法、装置、电子设备和介质
CN113869112A (zh) 一种基于机器视觉的仪表自动读数方法装置
CN110181511B (zh) 机器人零点丢失检测及辅助零点校准的方法及***
CN113128881A (zh) 测量仪表的操作考评方法、设备及存储介质
CN217723475U (zh) 一种用于视力检测的眼镜
CN214856575U (zh) 视力检测设备
CN113397471B (zh) 基于物联网的视力数据采集***
CN110796922A (zh) 一种新型鼓学习***
CN115553709A (zh) 一种自动化智能视力检测***及方法
CN112729551B (zh) 一种人体红外测温方法、距离补偿方法及装置
CN113457110B (zh) 一种智慧操场中的计数方法、***及装置
CN115153416B (zh) 一种基于虚拟现实场景的人眼对比敏感度检查***
CN210228106U (zh) 一种视力测试装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20200901