CN115414002A - 一种基于视频流的眼检测方法及斜视筛查*** - Google Patents

一种基于视频流的眼检测方法及斜视筛查*** Download PDF

Info

Publication number
CN115414002A
CN115414002A CN202210828459.5A CN202210828459A CN115414002A CN 115414002 A CN115414002 A CN 115414002A CN 202210828459 A CN202210828459 A CN 202210828459A CN 115414002 A CN115414002 A CN 115414002A
Authority
CN
China
Prior art keywords
eye
right eye
pupil
left eye
strabismus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210828459.5A
Other languages
English (en)
Inventor
吴栩平
刘玉萍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shijing Medical Software Co ltd
Original Assignee
Guangzhou Shijing Medical Software Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shijing Medical Software Co ltd filed Critical Guangzhou Shijing Medical Software Co ltd
Priority to CN202210828459.5A priority Critical patent/CN115414002A/zh
Publication of CN115414002A publication Critical patent/CN115414002A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明实施例公开了一种基于视频流的眼球检测方法和斜视筛查***,所述检测方法包括以下步骤:a.准备用于眼球图像识别的深度学习检测模型;b.获取受检者的眼球注视视频;c.利用所述深度学习检测模型对所述眼球注视视频进行检测分析,获得受检者两眼的角膜、瞳孔和映光点的位置数据。所述斜视筛查***包括:接收单元,用于接收受检者的眼球注视视频;处理单元,用于利用深度学习检测模型对所述眼球注视视频进行检测分析,获得包括受检者两眼的角膜、瞳孔和映光点的位置数据的模型检测结果;分析单元,用于根据所述模型检测结果判断两眼是否存在斜视、斜视类型以及计算两眼的斜视度;输出单元,用于输出受检者的斜视筛查报告。

Description

一种基于视频流的眼检测方法及斜视筛查***
技术领域
本发明涉及人工智能深度学习领域,尤其涉及一种利用深度学习的基于视频流的眼检测方法及斜视筛查***。
背景技术
斜视(strabismus)是指眼外肌协调运动失常导致双眼不能同时注视同一物体的疾病,可由先天或后天的因素导致。除了影响美观外,斜视还会导致弱视、双眼单视功能异常等,是眼科多发病、常见病,患病率约为3%~5%。正常情况下双眼运动协调一致,双眼可同时注视同一目标,并使目标在双眼黄斑部成像,传导到大脑视觉中枢,重叠成一个完整且有立体感觉的单一物像。当因各种神经肌肉疾病导致双眼运动不协调时,就会发生斜视,可能出现将一个物体看成2个影像的情况。
现有斜视筛查手段多为人工筛查,例如遮盖法与角膜映光法是目前眼科门诊常用的初步斜视判定方法,需要去医院由专业人员进行筛查,效率低下。也有借助于某些特定专用设备进行筛查的方法,但成本高昂。
角膜映光法(Hirschberg)是检查临床检查患者他觉斜视角最常用最简便的方法,也是临床其他绝大部分他觉斜视角检查的基础。受检者注视约33cm处的点光源视标,眼角膜上出现一光亮的小点映现,称为角膜映光点,根据角膜映光点相对瞳孔中心的位置判断受检者的斜视度数,角膜映光点偏移瞳孔中心1mm,相当于斜视7圆周度,记为(°)。通常,当角膜映光点位于瞳孔边缘者,斜视度约为10°~15°;角膜映光点位于瞳孔边缘与角膜边缘中间时,斜视度约为25°~30°;角膜映光点位于角膜边缘时,斜视度约为45°。然而,由于是人工估计,不仅难以得到较精确的斜视度数据,而且由于无法排除kappa角的影响,斜视度数据容易失真。
遮盖-去遮盖法:遮盖-去遮盖试验是临床门诊判断是否具有显斜的常用手段,主要观察遮盖-去遮盖过程中眼位运动的方向,程度,速度等。操作方法为:遮盖一眼,观察对侧眼是否移动,如有移动表明对侧眼存在显斜,斜视性质根据移动方向而定,分别测量双眼;去除遮盖,观察去遮盖眼的移动情况,如由斜视位回到正位则为隐斜,若保持斜位不动则为显斜。
交替遮盖法:受检者注视33cm或5m视标,用遮盖板交替遮盖双眼,反复多次,观察是否有眼球运动。交替遮盖过程中需要保证遮盖时间充分,交替遮盖动作迅速,以充分打破融合,暴露最大斜视角。
在上述遮盖方法检测斜视的过程中,由于对眼球是否运动是人工进行判断,容易对轻微或快速的眼球运动和运动方向产生误判。
本发明提供了一种利用深度学习的基于视频流的眼检测方法及斜视筛查***,由于该***能够逐帧检查眼球位置,故能避免人工检测时的误判,能高效的对受检者进行初步斜视检查,定性地检测出受检者的斜视类型,并定量地给出真实斜视度。
发明内容
有鉴于此,为解决现有技术问题,本发明提供了一种利用深度学习的基于视频流的眼检测方法和斜视筛查***。受检者只需要根据要求录制一段视频,即可利用本发明提出的方法检测眼球位置,利用本发明提出的斜视筛查***分析出受检者是否具有斜视,包括斜视类型及斜视度。
本发明无需专业人员进行操作,也无需特定装置设备,成本低廉并且易于普及,拥有直观的检查结果,有助于受检者及早发现是否存在斜视以及斜视类型及斜视度,从而实现对斜视的自动快速筛查,解决了现有斜视筛查手段存在的成本较高且不方便、斜视检查诊断不准确不及时的技术问题。
本发明实施例提供了一种基于视频流的眼检测方法,其特征在于,包括以下步骤:a.准备用于眼球图像识别的深度学习检测模型;b.获取受检者的眼球注视视频;c.利用所述深度学习检测模型对所述眼球注视视频进行检测分析,获得受检者两眼的角膜、瞳孔和映光点的位置数据。
在一些实施方案中,所述深度学习模型是利用深度神经网络训练得到的关键点检测模型,用于获得角膜、瞳孔和映光点的关键点。具体而言,所述深度学习检测模型可通过以下方法训练得到,包括:
1)制作包括训练集和测试集的数据集,包括准备具有清晰眼部轮廓的多张人脸图像,在所述人脸图像上对眼部的角膜、瞳孔和映光点的特征区域的轮廓进行关键点标注,再将所有标注好的图像根据一定比例随机分成训练集与测试集;
2)搭建深度神经网络模型结构;
3)将所述训练集传入所述深度神经网络进行训练,得到深度学习检测模型;
4)利用所述测试集对所述深度学习检测模型进行评价,直至模型精度达到98%以上。
优选地,所述数据集的关键点标注包括对单只眼选用36关键点的标注方式,其中角膜包含16个关键点,瞳孔包含12个关键点,映光点包含8个关键点。
优选地,所述深度神经网络模型结构采用HigherHRNet模型结构。
在一些实施方案中,通过受检者的年龄和性别估计受检者角膜的实际横径和垂直径或者通过所述视频中设置的已知尺寸的参照物估计受检者角膜的实际横径和垂直径。
在一些实施方案中,所述眼球注视视频包括遮盖-去遮盖的第一眼球注视视频,其中步骤b还包括利用具有光源的摄像装置拍摄受检者的第一眼球注视视频,其中受检者距离摄像镜头一定距离处,保持光源常亮,使受检者眼睛与光源保持在同一水平线,双眼注视光源约1~2秒后,遮盖右眼,保持左眼注视光源1~2秒,然后迅速去掉右眼遮盖;保持双眼注视光源1~2秒后遮盖左眼,右眼注视光源1~2秒,然后迅速去掉左眼遮盖,由此获得第一眼球注视视频。
在一些实施方案中,所述眼球注视视频还包括交替遮盖的第二眼球注视视频,其中步骤b还包括利用具有光源的摄像装置拍摄受检者的第二眼球注视视频,包括以下步骤:
1)受检者距离摄像镜头一定距离处,保持光源常亮,使受检者眼睛与光源保持在同一水平线,双眼注视光源约1~2秒;
2)遮盖右眼2~3秒,然后迅速遮盖左眼并去遮盖右眼;
3)遮盖左眼2~3秒,然后迅速遮盖右眼并去遮盖左眼;
4)重复步骤(2)和步骤(3)至少3次。
在一些实施方案中,步骤c还包括:对受检者的第一眼部注视视频进行逐帧检测,其中右眼去遮盖的瞬间为左眼注视视频帧,左眼去遮盖的瞬间为右眼注视视频帧,利用所述深度学习检测模型检测所述左眼注视视频帧和所述右眼注视视频帧,获得左眼注视与右眼注视时的角膜、瞳孔和映光点的多个关键点;根据检测到的关键点分别对角膜、瞳孔、映光点的轮廓进行圆拟合,圆心即为中心,获得包括角膜中心、瞳孔中心和映光点中心的位置坐标的模型检测结果。
在一些实施方案中,步骤c还包括:利用所述模型检测结果计算受检者的左右眼的kappa角和映光点中心到瞳孔中心的偏移量,计算得到排除kappa角影响的受检者两眼的斜视度。
在一些实施方案中,步骤c还包括以下步骤:
c1)利用所述深度学习检测模型对受检者的第一眼球视频进行逐帧检测,记录双眼注视时,两眼的角膜、瞳孔与映光点的中心坐标;
c2)当检测状态从同时检测到左右眼变为仅检测到左眼时,代表右眼已进行遮盖,此时记录左眼的角膜、瞳孔和映光点的中心坐标,将当前记录的左眼的瞳孔中心坐标与步骤c1中记录的双眼注视时左眼瞳孔中心坐标进行比较,若差值在所设阈值范围内,则认为右眼遮盖瞬间,左眼无眼动;若差值超出所设阈值,则认为右眼遮盖瞬间,左眼存在眼动;
当检测状态从同时检测到左右眼变为仅检测到右眼时,代表左眼已进行遮盖,此时记录右眼的角膜、瞳孔和映光点的中心坐标,将当前记录的右眼的瞳孔中心坐标与步骤c1中记录的双眼注视时右眼瞳孔中心坐标进行比较,若差值在所设阈值范围内,则认为左眼遮盖瞬间,右眼无眼动;若差值超出所设阈值,则认为左眼遮盖瞬间,右眼存在眼动。
在一些实施方案中,步骤c还包括以下步骤:
c3)利用所述深度学习检测模型对受检者的第一眼球注视视频进行逐帧检测,当检测状态从仅检测到左眼变为同时检测到左右眼时,代表右眼已进行去遮盖,记录此时左眼的角膜、瞳孔和映光点的中心坐标,将此时左眼的瞳孔中心坐标与步骤c2中的左眼瞳孔中心坐标进行比较,若差值在所设阈值范围内,则认为右眼去遮盖瞬间,左眼无眼动,若差值超出所设阈值,则认为右眼去遮盖瞬间,左眼存在眼动;
当检测状态从仅检测到右眼变为同时检测到左右眼时,代表左眼已进行去遮盖,记录此时右眼的角膜、瞳孔和映光点的中心坐标,将此时右眼的瞳孔中心坐标与步骤c2中的右眼瞳孔中心坐标进行比较,若差值在所设阈值范围内,则认为左眼去遮盖瞬间,右眼无眼动,若差值超出所设阈值,则认为左眼去遮盖瞬间,右眼存在眼动。
在一些实施方案中,步骤c还包括以下步骤:
c4)利用所述深度学习检测模型对受检者的第二眼球注视视频进行逐帧检测,当检测状态从仅检测到左眼变为仅能检测到右眼时,表示对左眼进行了交替遮盖,记录右眼角膜、瞳孔中心和映光点的中心坐标,将当前记录的右眼瞳孔中心坐标与步骤c1中的右眼瞳孔中心坐标进行比较,若差值在阈值范围内,则认为左眼交替遮盖瞬间,右眼无眼动;若差值超出阈值范围,则认为左眼交替遮盖瞬间,右眼存在眼动;
当检测状态从仅检测到右眼变为仅能检测到左眼时,表示对右眼进行了交替遮盖,记录左眼角膜、瞳孔中心和映光点的中心坐标,将当前记录的左眼瞳孔中心坐标与步骤c1中的左瞳孔中心坐标进行比较:若差值在阈值范围内,则认为右眼交替遮盖瞬间,左眼无眼动;若差值超出阈值范围,则认为右眼交替遮盖瞬间,左眼存在眼动。
在一些实施方案中,步骤c还包括以下步骤:
c5)在第二眼球注视视频中,当检测状态从仅检测到右眼变为同时检测到双眼时,表示去掉左眼遮盖,记录此时右眼的角膜、瞳孔与映光点中心坐标,将当前右瞳孔中心坐标与步骤c1中右眼的瞳孔中心进行比较:若差值在阈值范围内,则认为交替遮盖后,右眼无眼动;若差值超出阈值,则认为交替遮盖后,右眼存在眼动。
在另一方面,本发明实施例还提供了一种基于视频流的斜视筛查***,包括接收单元,用于接收受检者的眼球注视视频;处理单元,用于利用深度学习检测模型对所述眼球注视视频进行检测分析,获得包括受检者两眼的角膜、瞳孔和映光点的位置数据的模型检测结果;分析单元,用于根据所述模型检测结果判断两眼是否存在斜视、斜视类型以及计算两眼的斜视度;输出单元,用于输出受检者的斜视筛查报告。
在一些实施方案中,所述接收单元接收到的受检者的眼球注视视频是由移动终端拍摄并上传的,所述移动终端例如可以是智能手机、ipad等。
在一些实施方案中,所述深度学习模型是利用深度神经网络训练得到的关键点检测模型,用于获得角膜、瞳孔和映光点的关键点;所述深度学习检测模型通过以下方法训练得到,包括:
1)制作包括训练集和测试集的数据集,包括准备具有清晰眼部轮廓的多张人脸图像,在所述人脸图像上对眼部的角膜、瞳孔和映光点的特征区域的轮廓进行关键点标注,再将所有标注好的图像根据一定比例随机分成训练集与测试集;
2)搭建深度神经网络模型结构;
3)将所述训练集传入所述深度神经网络进行训练,得到深度学习检测模型;
4)利用所述测试集对所述深度学习检测模型进行评价,直至模型精度达到98%以上。
在一些实施方案中,所述眼球注视视频包括遮盖-去遮盖的第一眼球注视视频和交替遮盖的第二眼球注视视频。优选地,其具体拍摄方式可如前述方法中所描述的那样进行。
在一些实施方案中,所述处理单元对所述第一眼球注视视频逐帧处理,其中右眼去遮盖的瞬间为左眼注视视频帧,左眼去遮盖的瞬间为右眼注视视频帧,利用所述深度学习检测模型检测所述左眼注视视频帧和所述右眼注视视频帧,得到受检者左眼注视和右眼注视时的两眼的角膜、瞳孔和映光点的中心坐标。
在一些实施方案中,所述分析单元还用于根据左眼注视时左眼的角膜、瞳孔和映光点的中心坐标计算左眼的kappa角,根据右眼注视时右眼的角膜、瞳孔和映光点的中心坐标计算右眼的kappa角。
在一些实施方案中,所述分析单元还用于根据左眼注视时右眼的角膜、瞳孔和映光点的中心坐标和右眼的kappa角计算右眼的斜视度,根据右眼注视时左眼的角膜、瞳孔和映光点的中心坐标和左眼的kappa角计算左眼的斜视度。
在一些实施方案中,所述分析单元根据所述处理单元检测到的所述第一眼球注视视频和所述第二眼球注视视频中两眼的角膜、瞳孔和映光点的位置数据的模型检测结果,通过计算判定是否存在眼动并计算得到两眼斜视度,最后据此判断两眼是否存在斜视以及斜视类型。
在一些实施方案中,所述输出单元选自移动终端、显示器或打印机等输出或显示设备。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例。
图1为本发明实施例的基于视频流的斜视筛查***判断斜视类型的流程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明的目的在于提供一种操作方便,成本低廉,科学客观的可迅速普及的斜视筛查方法。为实现上述目的,本发明实施例提出一种基于视频流的眼球检测方法,其特征在于,包括以下步骤:a.准备用于眼球图像识别的深度学习检测模型;b.获取受检者的眼球注视视频;c.利用所述深度学习检测模型对所述眼球注视视频进行检测分析,获得受检者两眼的角膜、瞳孔和映光点的位置数据。
具体实施步骤可以描述如下:
第一,准备用于眼球图像识别的深度学习检测模型,例如可以利用深度神经网络通过训练得到眼部关键点的检测模型,该模型可用于获得角膜、瞳孔和映光点的关键点。
具体而言,该检测模型的训练过程包括:
1)制作包括训练集和测试集的数据集:包括准备具有清晰眼部轮廓的多张人脸图像,例如可以准备100-1000张,在图像上应有可分辨的角膜、瞳孔和映光点轮廓;在所述人脸图像上对眼部的角膜、瞳孔和映光点的特征区域的轮廓进行关键点标注,例如可以对单只眼选用36关键点的标注方式,其中角膜包含16个关键点,瞳孔包含12个关键点,映光点包含8个关键点;再将所有标注好的图像根据一定比例(例如8:2的比例)随机分成训练集与测试集。
2)搭建深度学习网络模型,例如搭建一个深度神经网络(DNN)模型结构,本实施例采用HigherHRNet模型结构。
3)将训练集传入该深度神经网络模型进行训练,得到深度学习检测模型;
4)利用测试集对该深度学习检测模型进行评价,直至模型精度达到要求为止,例如本实施例的模型精度可达到98%以上。
第二,可以输入受检者的年龄、性别等身份信息,例如也可以根据受检者的年龄与性别估计受检者角膜的实际横径hsize与垂直径vsize。当然,如果受检者进行过专门的眼科检查具有相应数据,也可以直接输入角膜的实际横径hsize与垂直径vsize。
本发明的目的之一是提供便捷的眼球检测方法和斜视筛查***,而大多数受检者通常没有检测过准确的角膜直径数据,考虑到人角膜的横径和垂直径的差异性不大,例如通常成人角膜的横径为11.5-12mm,垂直径为10.5-11mm,并且未成年人角膜直径随年龄和性别分布数据也有较为充分的研究,因此通过估算的数据可以作为初步筛查的基础。
作为一个优选方案,也可以在拍摄图像的同时在平行于受检者脸部的平面上设置已知尺寸的参照物,例如尺子、硬币等,以利于估计受检者的角膜尺寸。
第三,受检者根据要求利用具有光源例如闪光灯的摄像装置例如智能手机、ipad等拍摄一段眼球注光源的视频。该视频录制可以分两个阶段,分别获得遮盖-遮盖的第一眼球注视视频和交替遮盖的第二眼球注视视频,具体操作方法如下:
第一阶段录制:
受检者坐在距离手机约33cm处左右,打开手机闪光灯,眼睛与闪光灯保持在同一水平线,调整焦距,使图像集中于双眼。双眼注视光源约1~2秒。后遮盖右眼,保持左眼注视光源1~2秒,然后迅速去掉右眼遮盖;保持双眼注视光源1~2秒后遮盖左眼,右眼注视光源1~2秒,然后迅速去掉左眼遮盖。至此,第一阶段录制结束,得到第一眼球注视视频。
第二阶段录制:
(1)与第一阶段录制一样,受检者坐在距离手机约33cm处左右,打开手机闪光灯,眼睛与闪光灯保持在同一水平线,调整焦距,使图像集中于双眼。双眼注视光源1~2秒。
(2)遮盖右眼2~3秒,然后迅速将遮盖片移到左眼;
(3)遮盖左眼2~3秒,然后迅速将遮盖片移到右眼;
(4)重复步骤(2)和步骤(3)至少3次后,迅速去掉右眼遮盖,双眼注视光源约1~2秒,即可得到第二眼球注视视频。
需要注意的是,整个录制过程中,尽量背光而坐,在第一阶段录制过程中,去掉遮盖的动作要迅速。在第二阶段录制过程中,遮盖时间需充分,交替遮盖动作要迅速,以充分打破融合,暴露出最大斜视角。
第四,上传所录的视频,开始解析视频进行检测。具体过程如下(以先检测第一视频,后检测第二视频,均先遮盖右眼为例):
C1.用所训练的深度学习检测模型对第一眼球注视视频进行逐帧检测,记录下双眼注视时,左右眼的角膜,瞳孔与映光点的中心坐标;
C2.当检测状态从同时检测到左右眼变为仅检测到左眼时,代表已右眼进行遮盖,此时记录下左眼的角膜,瞳孔和映光点的中心坐标,将当前记录的左眼的瞳孔中心坐标与步骤C1中记录的瞳孔中心坐标进行比较:
(1)差值在所设阈值范围内,则认为右眼遮盖瞬间,左眼无眼动,然后执行步骤C4;
(2)差值超出所设阈值,则认为右眼遮盖瞬间,左眼存在眼动,可初步判定左眼为显性斜视,然后继续执行步骤C3。
C3:当检测状态从仅检测到左眼变为同时检测到左右眼时,表示去掉右眼遮盖,记录下左眼的角膜,瞳孔和映光点的中心坐标,将此时左眼的瞳孔中心坐标与步骤C2中的左眼瞳孔中心坐标进行比较,若差值在阈值范围内,则认为右眼去遮盖瞬间,左眼无眼动,疑似为交替性斜视;若差值超出所设阈值,则认为右眼去遮盖瞬间,左眼存在眼动,疑似固定性左眼斜视。然后可以计算斜视度,最终判定是否具有相应斜视类型。其中,所述差值是指二者之间的距离,该差值的阈值可以根据检测精度要求确定,例如可以是0.1mm-2mm中的任意值。该阈值通常不宜过小,否则容易误判眼动。
遮盖左眼的过程与遮盖右眼的过程类似,在此不作赘述。
C4.当检测状态从仅检测到左眼变为仅能检测到右眼时,表示进入到交替遮盖的第二视频,此时对左眼进行了交替遮盖,记录右眼角膜、瞳孔中心和映光点的中心坐标,将当前记录的右眼瞳孔中心坐标与步骤c1中的右眼瞳孔中心坐标进行比较,若差值在阈值范围内,则认为左眼交替遮盖瞬间,右眼无眼动,则疑似为隐性斜视;若差值超出阈值范围,则认为左眼交替遮盖瞬间,右眼存在眼动,则可初步判定为显性斜视,并继续执行步骤C5。
C5.当检测状态从仅检测到右眼变为同时检测到双眼时,表示去掉左眼遮盖,记录此时右眼的角膜、瞳孔与映光点中心坐标。将当前右瞳孔中心坐标与步骤C1中右眼的瞳孔中心进行比较,若差值在阈值范围内,则认为交替遮盖后,右眼无眼动,疑似交替性斜视,最终根据斜视度数判断是否具有相应斜视类型;若差值超出阈值,则认为交替遮盖后,右眼存在眼动,疑似是固定性右眼斜视,最终根据斜视度数判断是否具有相应斜视类型。
本实施例中还可以根据深度学习检测模型进行图像识别得到的位置坐标进一步计算两眼的斜视度,具体步骤如下:
对受检者的第一眼部注视视频进行逐帧检测,其中右眼去遮盖的瞬间为左眼注视视频帧,左眼去遮盖的瞬间为右眼注视视频帧,利用所述深度学习检测模型检测所述左眼注视视频帧和所述右眼注视视频帧,获得左眼注视与右眼注视时的角膜、瞳孔和映光点的多个关键点;根据检测到的关键点分别对角膜、瞳孔、映光点的轮廓进行圆拟合,圆心即为中心,获得包括角膜中心、瞳孔中心和映光点中心的位置坐标的模型检测结果。
根据检测到的关键点可分别对角膜、瞳孔、映光点轮廓进行圆拟合,圆心即为中心,则可获得角膜中心、瞳孔中心与映光点中心的相对位置坐标。
根据模型检测结果,还可以进一步计算相关参数。若为左视模式,则计算左眼的kappa角(此处用映光点到瞳孔中心的偏移量表示),以及右眼映光点到瞳孔中心的偏移量;若为右视模式,则计算右眼的kappa角以及左眼映光点到瞳孔中心的偏移量。
偏移量的计算方式如下:设检测得到角膜中心像素坐标为(xc,yc,rc),瞳孔中心像素坐标为(xp,yp,rp),映光点中心像素坐标为(xr,yr,rr)。其中,x,y分别表示拟合圆的圆心的水平像素坐标和垂直像素坐标,r为拟合圆的半径。因此,水平偏移量hbias=(xr-xp)*hsize/rc,垂直偏移量vbias=(yr-yp)*vsize/rc,单位为mm。
根据左视和右视两种模式下计算出的参数数值,可以计算出两眼的真实斜视度,并可以借此判断受检者是否疑似斜视或结合以上眼球眼动方式判断斜视类型。
例如,本实施例采用角膜映光法计算斜视度,在距离光源(闪光灯)约33cm的情况下,映光点偏移瞳孔中心1mm,相当于视轴偏斜7圆周度,记为(°)。具体计算方式如下:设根据左视模式获得的左眼kappa角记为(xkl,ykl),右眼映光点到瞳孔中心的偏移量为(xbr,ybr);根据右视模式获得的右眼kappa角记为(xkr,ykr),左眼映光点到瞳孔中心的偏移量为(xbl,ybl),则左眼的水平斜视度为(xbl-xkl)*7°,垂直斜视度为(ybl-ykl)*7°;右眼的水平斜视度为(xbr-xkr)*7°,垂直斜视度为(ybr-ykr)*7°。通常而言,若计算出的斜视度在一给定阈值之内,例如在10°以内,可以认为正常或斜视风险低,而若斜视度超过该阈值例如10°,则受检者疑似存在斜视或斜视风险高。
根据本发明的另一实施例,还提供了本发明实施例还提供了一种基于视频流的斜视筛查***,包括接收单元,用于接收受检者的眼球注视视频;处理单元,用于利用深度学习检测模型对所述眼球注视视频进行检测分析,获得包括受检者两眼的角膜、瞳孔和映光点的位置数据的模型检测结果;分析单元,用于根据所述模型检测结果判断两眼是否存在斜视、斜视类型以及计算两眼的斜视度;输出单元,用于输出受检者的斜视筛查报告。
优选地,接收单元可用于接收受检者身份信息及受检者的眼球注视视频;处理单元可用于利用深度学习检测模型识别检测得到例如两眼的角膜、瞳孔和映光点中心的位置坐标;分析单元可用于根据上述坐标计算诸如两眼kappa角、映光点偏移量等相关参数,并计算两眼的真实斜视度,或者可以计算在遮盖-去遮盖和交替遮盖过程中两眼的运动情况,据此可以判断受检者是否疑似存在斜视以及斜视类型等;输出单元可以是诸如智能手机、显示器、打印机等输出设备,用于输出受检者的斜视筛查报告。
优选地,所述接收单元接收到的受检者的眼球注视视频是由移动终端拍摄并上传的,这可以使得筛查过程显著便利化并利于普及。
优选地,所述深度学习模型是利用深度神经网络训练得到的关键点检测模型,用于获得角膜、瞳孔和映光点的关键点;所述深度学习检测模型通过以下方法训练得到,包括:
1)制作包括训练集和测试集的数据集,包括准备具有清晰眼部轮廓的多张人脸图像,在所述人脸图像上对眼部的角膜、瞳孔和映光点的特征区域的轮廓进行关键点标注,再将所有标注好的图像根据一定比例随机分成训练集与测试集;
2)搭建深度神经网络模型结构;
3)将所述训练集传入所述深度神经网络进行训练,得到深度学习检测模型;
4)利用所述测试集对所述深度学习检测模型进行评价,直至模型精度达到98%以上。
所述眼球注视视频包括遮盖-去遮盖的第一眼球注视视频和交替遮盖的第二眼球注视视频。优选地,其具体拍摄方式可如前述方法中所描述的那样进行。
所述处理单元可按照第一视频、第二视频的顺序处理所述眼球注视视频。例如,对所述第一眼球注视视频逐帧处理,其中右眼去遮盖的瞬间为左眼注视视频帧,左眼去遮盖的瞬间为右眼注视视频帧,利用所述深度学习检测模型检测所述左眼注视视频帧和所述右眼注视视频帧,得到受检者左眼注视和右眼注视时的两眼的角膜、瞳孔和映光点的中心坐标。
所述分析单元还可用于根据左眼注视时左眼的角膜、瞳孔和映光点的中心坐标计算左眼的kappa角,根据右眼注视时右眼的角膜、瞳孔和映光点的中心坐标计算右眼的kappa角。所述分析单元还可用于根据左眼注视时右眼的角膜、瞳孔和映光点的中心坐标和右眼的kappa角计算右眼的斜视度,根据右眼注视时左眼的角膜、瞳孔和映光点的中心坐标和左眼的kappa角计算左眼的斜视度。
优选地,所述分析单元可以根据所述处理单元检测到的所述第一眼球注视视频和所述第二眼球注视视频中两眼的角膜、瞳孔和映光点的位置数据的模型检测结果,通过计算得到在遮盖-去遮盖和交替遮盖过程中两眼运动模式,由此可以根据该运动模式和两眼斜视度,判断两眼是否存在斜视以及斜视类型。
图1示出本发明实施例中分析单元在通过斜视度判断两眼存在斜视后,判断两眼斜视类型的流程示意图,其中以第一视频和第二视频中均先遮盖右眼为例。显然,本发明实施例的斜视筛查***不仅能够判断是否存在斜视,而且能够判断斜视类型,显著提高了斜视筛查效率,并且在斜视筛查的同时能够判断出斜视类型,可以使受检者有目的地进行下一步医疗诊断,可以极大地节省不必要的诊断费用和程序。
此外,所述输出单元可以选自移动终端、显示器或打印机等输出或显示设备。
为描述的方便和简洁,所属领域的技术人员可以清楚地了解到,所述***和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的实施例中,应该理解到,所揭露的***、装置和方法可以通过其它的方式实现。例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。所述单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
本发明的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (23)

1.一种基于视频流的眼检测方法,其特征在于,包括以下步骤:
a.准备用于眼球图像识别的深度学习检测模型;
b.获取受检者的眼球注视视频;
c.利用所述深度学习检测模型对所述眼球注视视频进行检测分析,获得受检者两眼的角膜、瞳孔和映光点的位置数据。
2.根据权利要求1所述的方法,其特征在于,所述深度学习模型是利用深度神经网络训练得到的关键点检测模型,用于获得角膜、瞳孔和映光点的关键点。
3.根据权利要求2所述的方法,其特征在于,所述深度学习检测模型通过以下方法训练得到,包括:
1)制作包括训练集和测试集的数据集,包括准备具有清晰眼部轮廓的多张人脸图像,在所述人脸图像上对眼部的角膜、瞳孔和映光点的特征区域的轮廓进行关键点标注,再将所有标注好的图像根据一定比例随机分成训练集与测试集;
2)搭建深度神经网络模型结构;
3)将所述训练集传入所述深度神经网络进行训练,得到深度学习检测模型;
4)利用所述测试集对所述深度学习检测模型进行评价,直至模型精度达到98%以上。
4.根据权利要求3所述的方法,其特征在于,所述数据集的关键点标注包括对单只眼选用36关键点的标注方式,其中角膜包含16个关键点,瞳孔包含12个关键点,映光点包含8个关键点。
5.根据权利要求3所述的方法,其特征在于,所述深度神经网络模型结构采用HigherHRNet模型结构。
6.根据权利要求1所述的方法,其特征在于,还包括通过受检者的年龄和性别估计受检者角膜的实际横径和垂直径或者通过所述视频中设置的已知尺寸的参照物估计受检者角膜的实际横径和垂直径。
7.根据权利要求1所述的斜视筛查方法,其特征在于,所述眼球注视视频包括遮盖-去遮盖的第一眼球注视视频,其中步骤b还包括利用具有光源的摄像装置拍摄受检者的第一眼球注视视频,其中受检者距离摄像镜头一定距离处,保持光源常亮,使受检者眼睛与光源保持在同一水平线,双眼注视光源约1~2秒后,遮盖右眼,保持左眼注视光源1~2秒,然后迅速去掉右眼遮盖;保持双眼注视光源1~2秒后遮盖左眼,右眼注视光源1~2秒,然后迅速去掉左眼遮盖,由此获得第一眼球注视视频。
8.根据权利要求1所述的方法,其特征在于,所述眼球注视视频还包括交替遮盖的第二眼球注视视频,其中步骤b还包括利用具有光源的摄像装置拍摄受检者的第二眼球注视视频,包括以下步骤:
1)受检者距离摄像镜头一定距离处,保持光源常亮,使受检者眼睛与光源保持在同一水平线,双眼注视光源约1~2秒;
2)遮盖右眼2~3秒,然后迅速遮盖左眼并去遮盖右眼;
3)遮盖左眼2~3秒,然后迅速遮盖右眼并去遮盖左眼;
4)重复步骤(2)和步骤(3)至少3次。
9.根据权利要求7所述的方法,其特征在于,步骤c还包括:
对受检者的第一眼部注视视频进行逐帧检测,其中右眼去遮盖的瞬间为左眼注视视频帧,左眼去遮盖的瞬间为右眼注视视频帧,利用所述深度学习检测模型检测所述左眼注视视频帧和所述右眼注视视频帧,获得左眼注视与右眼注视时的角膜、瞳孔和映光点的多个关键点;根据检测到的关键点分别对角膜、瞳孔、映光点的轮廓进行圆拟合,圆心即为中心,获得包括角膜中心、瞳孔中心和映光点中心的位置坐标的模型检测结果。
10.根据权利要求9所述的方法,其特征在于,步骤c还包括:
利用所述模型检测结果计算受检者的左右眼的kappa角和映光点中心到瞳孔中心的偏移量,计算得到排除kappa角影响的受检者两眼的斜视度。
11.根据权利要求7或8所述的方法,其特征在于,步骤c还包括:
c1)利用所述深度学习检测模型对受检者的第一眼球视频进行逐帧检测,记录双眼注视时,两眼的角膜、瞳孔与映光点的中心坐标;
c2)当检测状态从同时检测到左右眼变为仅检测到左眼时,代表右眼已进行遮盖,此时记录左眼的角膜、瞳孔和映光点的中心坐标,将当前记录的左眼的瞳孔中心坐标与步骤c1中记录的双眼注视时左眼瞳孔中心坐标进行比较,若差值在所设阈值范围内,则认为右眼遮盖瞬间,左眼无眼动;若差值超出所设阈值,则认为右眼遮盖瞬间,左眼存在眼动;
当检测状态从同时检测到左右眼变为仅检测到右眼时,代表左眼已进行遮盖,此时记录右眼的角膜、瞳孔和映光点的中心坐标,将当前记录的右眼的瞳孔中心坐标与步骤c1中记录的双眼注视时右眼瞳孔中心坐标进行比较,若差值在所设阈值范围内,则认为左眼遮盖瞬间,右眼无眼动;若差值超出所设阈值,则认为左眼遮盖瞬间,右眼存在眼动。
12.根据权利要求11所述的方法,其特征在于,步骤c还包括:
c3)利用所述深度学习检测模型对受检者的第一眼球注视视频进行逐帧检测,当检测状态从仅检测到左眼变为同时检测到左右眼时,代表右眼已进行去遮盖,记录此时左眼的角膜、瞳孔和映光点的中心坐标,将此时左眼的瞳孔中心坐标与步骤c2中的左眼瞳孔中心坐标进行比较,若差值在所设阈值范围内,则认为右眼去遮盖瞬间,左眼无眼动,若差值超出所设阈值,则认为右眼去遮盖瞬间,左眼存在眼动;
当检测状态从仅检测到右眼变为同时检测到左右眼时,代表左眼已进行去遮盖,记录此时右眼的角膜、瞳孔和映光点的中心坐标,将此时右眼的瞳孔中心坐标与步骤c2中的右眼瞳孔中心坐标进行比较,若差值在所设阈值范围内,则认为左眼去遮盖瞬间,右眼无眼动,若差值超出所设阈值,则认为左眼去遮盖瞬间,右眼存在眼动。
13.根据权利要求11所述的方法,其特征在于,步骤c还包括:
c4)利用所述深度学习检测模型对受检者的第二眼球注视视频进行逐帧检测,当检测状态从仅检测到左眼变为仅能检测到右眼时,表示对左眼进行了交替遮盖,记录右眼角膜、瞳孔中心和映光点的中心坐标,将当前记录的右眼瞳孔中心坐标与步骤c1中的右眼瞳孔中心坐标进行比较,若差值在阈值范围内,则认为左眼交替遮盖瞬间,右眼无眼动;若差值超出阈值范围,则认为左眼交替遮盖瞬间,右眼存在眼动;
当检测状态从仅检测到右眼变为仅能检测到左眼时,表示对右眼进行了交替遮盖,记录左眼角膜、瞳孔中心和映光点的中心坐标,将当前记录的左眼瞳孔中心坐标与步骤c1中的左瞳孔中心坐标进行比较:若差值在阈值范围内,则认为右眼交替遮盖瞬间,左眼无眼动;若差值超出阈值范围,则认为右眼交替遮盖瞬间,左眼存在眼动。
14.根据权利要求13所述的方法,其特征在于,步骤c还包括:
c5)在第二眼球注视视频中,当检测状态从仅检测到右眼变为同时检测到双眼时,表示去掉左眼遮盖,记录此时右眼的角膜、瞳孔与映光点中心坐标,将当前右瞳孔中心坐标与步骤c1中右眼的瞳孔中心进行比较:若差值在阈值范围内,则认为交替遮盖后,右眼无眼动;若差值超出阈值,则认为交替遮盖后,右眼存在眼动。
15.一种基于视频流的斜视筛查***,其特征在于,所述***包括接收单元,用于接收受检者的眼球注视视频;处理单元,用于利用深度学习检测模型对所述眼球注视视频进行检测分析,获得包括受检者两眼的角膜、瞳孔和映光点的位置数据的模型检测结果;分析单元,用于根据所述模型检测结果判断两眼是否存在斜视、斜视类型以及计算两眼的斜视度;输出单元,用于输出受检者的斜视筛查报告。
16.如权利要求15所述的斜视筛查***,其特征在于,所述接收单元接收到的受检者的眼球注视视频是由移动终端拍摄并上传的。
17.如权利要求15所述的斜视筛查***,其特征在于,所述深度学习模型是利用深度神经网络训练得到的关键点检测模型,用于获得角膜、瞳孔和映光点的关键点;所述深度学习检测模型通过以下方法训练得到,包括:
1)制作包括训练集和测试集的数据集,包括准备具有清晰眼部轮廓的多张人脸图像,在所述人脸图像上对眼部的角膜、瞳孔和映光点的特征区域的轮廓进行关键点标注,再将所有标注好的图像根据一定比例随机分成训练集与测试集;
2)搭建深度神经网络模型结构;
3)将所述训练集传入所述深度神经网络进行训练,得到深度学习检测模型;
4)利用所述测试集对所述深度学习检测模型进行评价,直至模型精度达到98%以上。
18.如权利要求15所述的斜视筛查***,其特征在于,所述眼球注视视频包括遮盖-去遮盖的第一眼球注视视频和交替遮盖的第二眼球注视视频。
19.如权利要求15所述的斜视筛查***,其特征在于,所述处理单元对所述第一眼球注视视频逐帧处理,其中右眼去遮盖的瞬间为左眼注视视频帧,左眼去遮盖的瞬间为右眼注视视频帧,利用所述深度学习检测模型检测所述左眼注视视频帧和所述右眼注视视频帧,得到受检者左眼注视和右眼注视时的两眼的角膜、瞳孔和映光点的中心坐标。
20.如权利要求19所述的斜视筛查***,其特征在于,所述分析单元还用于根据左眼注视时左眼的角膜、瞳孔和映光点的中心坐标计算左眼的kappa角,根据右眼注视时右眼的角膜、瞳孔和映光点的中心坐标计算右眼的kappa角。
21.如权利要求20所述的斜视筛查***,其特征在于,所述分析单元还用于根据左眼注视时右眼的角膜、瞳孔和映光点的中心坐标和右眼的kappa角计算右眼的斜视度,根据右眼注视时左眼的角膜、瞳孔和映光点的中心坐标和左眼的kappa角计算左眼的斜视度。
22.如权利要求18所述的斜视筛查***,其特征在于,所述分析单元根据所述处理单元检测到的所述第一眼球注视视频和所述第二眼球注视视频中两眼的角膜、瞳孔和映光点的位置数据的模型检测结果,通过计算判定是否存在眼动并计算得到两眼斜视度,最后据此判断两眼是否存在斜视以及斜视类型。
23.如权利要求15所述的斜视筛查***,其特征在于,所述输出单元选自移动终端、显示器或打印机。
CN202210828459.5A 2022-07-13 2022-07-13 一种基于视频流的眼检测方法及斜视筛查*** Pending CN115414002A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210828459.5A CN115414002A (zh) 2022-07-13 2022-07-13 一种基于视频流的眼检测方法及斜视筛查***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210828459.5A CN115414002A (zh) 2022-07-13 2022-07-13 一种基于视频流的眼检测方法及斜视筛查***

Publications (1)

Publication Number Publication Date
CN115414002A true CN115414002A (zh) 2022-12-02

Family

ID=84196531

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210828459.5A Pending CN115414002A (zh) 2022-07-13 2022-07-13 一种基于视频流的眼检测方法及斜视筛查***

Country Status (1)

Country Link
CN (1) CN115414002A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014055600A1 (en) * 2012-10-02 2014-04-10 University Hospitals Of Cleveland Apparatus and methods for diagnosis of strabismus
CN109288493A (zh) * 2017-07-25 2019-02-01 珠海学院有限公司 一种数字化斜视诊断方法、装置和***
CN110279391A (zh) * 2019-05-30 2019-09-27 廖亮举 便携红外相机视力检测算法
CN110575132A (zh) * 2019-07-25 2019-12-17 北京爱诺斯科技有限公司 一种基于偏心摄影的斜视程度的计算方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014055600A1 (en) * 2012-10-02 2014-04-10 University Hospitals Of Cleveland Apparatus and methods for diagnosis of strabismus
CN109288493A (zh) * 2017-07-25 2019-02-01 珠海学院有限公司 一种数字化斜视诊断方法、装置和***
CN110279391A (zh) * 2019-05-30 2019-09-27 廖亮举 便携红外相机视力检测算法
CN110575132A (zh) * 2019-07-25 2019-12-17 北京爱诺斯科技有限公司 一种基于偏心摄影的斜视程度的计算方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
卢文胜,闫忠阳,李砚彬,杨晓海: "临床诊疗护理技术操作规程", 辽宁科学技术出版社, pages: 289 - 69 *

Similar Documents

Publication Publication Date Title
US11786117B2 (en) Mobile device application for ocular misalignment measurement
US9149179B2 (en) System and method for identifying eye conditions
US10426332B2 (en) System and device for preliminary diagnosis of ocular diseases
US7427135B2 (en) Adaptive photoscreening system
JP2020018875A (ja) 眼位の自動化された検出
WO2012106236A2 (en) Adaptive photoscreening system
de Almeida et al. Computational methodology for automatic detection of strabismus in digital images through Hirschberg test
CN115409774A (zh) 一种基于深度学习的眼检测方法及斜视筛查***
Pundlik et al. Development and preliminary evaluation of a smartphone app for measuring eye alignment
KR20150036395A (ko) 사시 검출
CN114025659A (zh) 眼睛的屈光不正确定
CN113288044B (zh) 动态视力检测***和方法
CN108852280A (zh) 一种视力筛查的图像采集与分析方法、***及设备
CN115590462A (zh) 一种基于摄像头的视力检测方法和装置
CN115414002A (zh) 一种基于视频流的眼检测方法及斜视筛查***
CN108230287B (zh) 一种眼前节图像的晶体区域的检测方法及装置
US20240081641A1 (en) System for strabismus assessment and a method of strabismus assessment
TWI839124B (zh) 光學斷層掃描自測系統、光學斷層掃描方法及眼部病變監控系統
US20220338730A1 (en) Device and method for detecting tear film breakup
US20220180509A1 (en) Diagnostic tool for eye disease detection
CN117530654A (zh) 一种实时的双眼瞳孔检查***及检测方法
US10098532B2 (en) Systems, methods and apparatus for tracking changes in an ocular scene
Rostami Detecting Keratoconus Using Convolutional Neural Network on Smartphone
Ren et al. Research on diopter detection method based on optical imaging
CN117243560A (zh) 一种视野检测用视野计***及其方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination